欧洲委员会新政应对算法歧视

发布单位:国际教师教育中心编辑:发布日期:2026/01/25浏览量:10

随着人工智能在我们日常生活中的广泛应用,其对基本权利的保护构成挑战,算法歧视(algorithmic discrimination)已成为亟待解决的重要问题。算法歧视指的是人工智能自动化决策中,即通过计算机程序自动分析、评估并进行决策,由数据分析导致的对特定群体的不公正对待。

针对上述情况,近期,欧洲委员会(Council of Europe)聚焦于以下三个问题展开讨论:1. 应对由人工智能和自动化决策系统(Automated Decision-Making Systems)导致的歧视时,会面临哪些关键挑战?2. 如何加强治理框架?3. 公共机构、平等机构和人权组织在防止歧视和确保救济方面能发挥何种作用?

有研究表明,算法歧视不仅反映了现有的社会不平等,还会进一步加剧这种不平等。例如在就业领域,基于历史招聘数据训练的筛选算法可能复制过去被歧视性刻板印象影响的招聘决策,这些决策往往对女性或少数群体存在偏见,最终导致不公正的结果,使招聘更倾向于男性候选人。一些公共就业机构用于为求职者分配资源的分析工具也存在歧视。研究表明,人脸识别技术可能存在歧视性偏见,例如对少数族裔进行民族特征分析。在私营部门,人力资源服务公司使用人工智能和自动化决策系统筛选、分析求职者,将求职申请与个人资料匹配,或翻译和起草职位空缺。

为应对挑战,欧洲委员会发布《欧洲反对算法歧视的法律保护:现有框架和现存差距》(Legal protection against algorithmic discrimination in Europe: current frameworks and remaining gaps)和《欧洲人工智能与算法驱动歧视政策指南:致平等机构及其他国家人权机构》(European policy guidelines on AI and algorithm-driven discrimination for equality bodies and other national human rights structures)两份文件。

前者对2024年通过的《欧盟人工智能法案》(EU AI Act)和欧盟委员会的《人工智能与人权、民主和法治框架公约》(Artificial Intelligence and Human Rights, Democracy and the Rule of Law)进行分析,探讨其如何有助于加强欧洲对算法歧视的保护,并评估了持续影响这些法律框架的漏洞。后者则关注平等机构和其他国家人权组织在识别和缓解人工智能及自动化决策系统所带来的风险,以及促进公共部门合规使用这些系统方面可发挥的关键作用。同时,指南也为使用欧盟和欧洲委员会的新法规提供了建议和范例。


更多信息请参阅:

https://www.coe.int/en/web/portal/-/gaps-and-policies-in-ai-and-algorithm-driven-discrimination-in-europe?p_l_back_url=%2Fen%2Fweb%2Fportal%2Fnewsroom


编译自:欧洲委员会,2026-01-15

编译者:上海师范大学国际与比较教育研究院 徐笑笑