1. | 通报成员:欧盟 |
2. | 负责机构:欧盟委员会 |
3. |
通报依据的条款:[X] 2.9.2,[ ] 2.10.1,[X] 5.6.2,[ ] 5.7.1
通报依据的条款其他:
|
4. | 覆盖的产品:信息技术的软件和应用(同样适用于内含嵌入硬件时);人工智能作为受产品安全法规(任何代码)约束的产品的组成部分;软件(ICS 35.080),信息技术应用(ICS 35.240)
ICS:[{"uid":"35.240"},{"uid":"35.080"}] HS:[{"uid":"85"}] |
5. |
通报标题:欧洲议会和理事会关于制定人工智能协调规则(《人工智能法》)和修订某些欧盟立法法案(COM(2021)206最终版)页数:108/17 使用语言:英语/英语 链接网址: |
6. | 内容简述: 本条例草案中"人工智能系统"(AI系统)的定义是使用附件一所列的一种或多种技术和方法开发的软件,并且能够针对人类定义的一组特定目标产生影响其互动环境的内容、预测、建议或决定等产出。本条例草案提出了一些规定,管理人工智能系统的开发、销售和在欧洲联盟市场上的投放。考虑到人工智能系统带来的风险和挑战,这些规则仅限于保护人员的安全和基本权利的最低必要要求,而不会过度限制或阻碍技术开发或以其他方式不成比例地增加将人工智能解决方案投放市场的成本。本条例草案依人工智能系统的潜在风险程度而有所不同。欧盟将禁止认定为对人们的安全、生计和权利构成明显威胁的人工智能系统。这包括操纵人类行为以规避某些用户自由意志的人工智能系统或应用(例如,使用声音辅助的玩具鼓励未成年人危险行为),以及允许政府“社会评分”的系统。这些禁令涵盖了一些危险系数高的做法,如通过潜意识技术来操纵他人,或利用儿童或残疾人等特定弱势群体的劣势,扭曲其行为,从而可能对他们或其他人造成心理或身体伤害。此外,原则上禁止为执法目的在公共无障碍空间"实时"使用远程生物识别系统。严格界定和规范特殊情况,例如,为搜寻失踪儿童、防止具体和迫在眉睫的恐怖主义威胁或侦查、定位、识别或起诉严重刑事犯罪的肇事者或嫌疑人而绝对必要的例外。在允许的情况下,此类使用须经司法机构或其他独立机构授权,并在时间、地理范围和检索数据库方面有适当限制。高风险人工智能系统在进入欧盟市场之前,必须严格履行义务。确定为高风险的人工智能系统包括本建议书附件中列出的人工智能技术,用于以下广泛领域:• 实时和事后远程生物识别系统;• 可能危及人民生命和健康的关键基础设施(如交通);• 教育或职业培训,这可能决定一个人获得教育和专业课程的机会(例如,考试分数);• 根据欧盟部门产品安全立法,受第三方合格评定的受监管产品的安全组件(例如,机器人辅助手术中的人工智能应用);• 就业、工人管理和自营职业(例如,招聘程序的简历分类软件);• 基本的私人和公共服务(例如,信用评分剥夺了人们获得贷款的机会);• 可能干扰人民基本权利的执法(例如,评估证据的可靠性);• 移民、庇护和边境管制管理(例如,核实旅行证件的真实性);• 司法和民主进程(例如,将法律应用于一系列具体事实)。高风险人工智能系统的相关要求:• 充分的风险评估和缓解系统;• 为系统提供高质量的数据集,以最大限度地降低风险和歧视性结果;• 记录活动以确保结果的可追溯性;• 提供有关该系统及其目的的所有必要信息的详细文件,供当局评估其遵守情况;• 向用户提供清晰、充分的信息;• 采取适当的人力监督措施,将风险降至最低;• 高度的稳健性、安全性和准确性。此类高风险人工智能系统的公共和私人供应商必须遵循合格评估程序,以证明这些系统符合上述要求,然后才能将这些系统投入欧盟市场或在欧盟使用。为了促进这一点,本条例草案包括了与欧洲标准化组织(CEN/CENELEC和ETSI)将根据欧盟委员会的授权采用的协调技术标准的未来协调和起草有关的规定。同时规定了对高风险人工智能系统的提供者和用户须承担可预测的、相应的、明确的义务,以确保在整个人工智能系统的生命周期内,保护基本权利现有法律的尊严。具有特定透明度义务的人工智能系统:当使用聊天机器人等人工智能系统时,人们应该意识到他们正在与机器交互,这样他们就可以做出明智决定,选择继续或后退。如果人们接触到情绪识别和生物特征分类系统以及假货,他们也应该知晓。最低风险:在遵守现行立法的前提下,该提案允许自由使用所有其他未被禁止、被定性为"高风险"或需要特定透明度义务的人工智能应用程序。绝大多数人工智能系统都属于这一类。条例草案没有在此进行干预,因为这些人工智能系统仅对人民的权利或安全构成最小风险或没有风险,但非高风险人工智能系统的提供者可以自愿遵守自愿行为守则,以证明其应用的可靠性。在治理方面,欧盟委员会建议由国家主管市场监管机构监督新规则,而欧洲人工智能委员会得建立,将促进其实施,并推动人工智能标准的制定。此外,还建议采取具体措施来支持小规模供应商和用户以及监管沙盒,以促进负责任的创新。 |
7. | 目的和理由:使用某些人工智能应用程序会对安全和基本权利造成风险,欧盟认为要着重解决。人工智能的某些特征,例如许多算法的不透明度,使其难以确定如何产生结果,对安全和基本权利构成特定的潜在高风险,而现有立法无法解决这些风险,或鉴于这些问题,执行现有立法具有挑战性。例如,通常无法确定人工智能系统产生特定结果的原因,或从一开始就无法确保不会产生某些歧视性输出。因此,可能难以评估和证明某人是否因使用人工智能系统而处于不公平的不利地位。例如在招聘或晋升决定或公益计划的申请中。人工智能系统的使用可能会使受影响的人在纠正错误决策方面面临重大困难。除非得到适当的监管,否则公共空间中的面部识别会对隐私产生高侵入性的影响。此外,人工智能系统的培训和设计不佳可能导致重大错误,从而对隐私、个人数据保护和非歧视原则产生不利影响。人工智能机器人和智能系统的设计和制造必须符合欧洲法律规定下、适用于各项传统技术安保基本权利的标准。考虑到该法规草案的安全目标,确保了与现有欧盟产品安全立法的一致性,并将经营者的行政负担降至最低。对于新立法框架(NLF)立法所涵盖的产品(例如机械、医疗设备、玩具),将检查法规草案中规定的对高风险人工智能系统的要求,作为相关NLF立法下现有合格评定程序的一部分。关于与相关“旧方法”立法所涵盖的产品(例如航空、汽车)有关的高风险人工智能系统,该条例草案将不直接适用。然而,在根据这些法案通过相关实施或授权立法时,必须考虑本提案中规定的高风险人工智能系统的事前基本要求。因此,我们为了实现以下目标: • 欺骗行为防范和消费者保护; • 保护基本权利、人的生命、健康或安全 • 质量要求 • 协调欺骗行为防范和消费者保护;保护人类健康或安全;质量要求;协调一致 |
8. | 相关文件: 该条例草案对“旧方法”安全立法下的若干其他立法法案进行了修订: • 第300/2008号法规(欧盟) • 第167/2013号法规(欧盟) • 第168/201号法规(欧盟) • 2014/90/EU指令 • 2016/797指令 • 2018/858法规(欧盟) • 2018/1139法规(欧盟) • 2019/2144法规(欧盟) |
9. |
拟批准日期:
2-3 年后(取决于立法程序) 拟生效日期: 公布后 20 天(两年过渡期,直至预计全面应用) |
10. | 意见反馈截至日期: 自通报日起90天 |
11. |
文本可从以下机构得到:
|