为了确保人工智能系统的发展和应用符合人权、民主和法治的原则,欧洲委员会于2024年9月5日在维尔纽斯开放《人工智能与人权、民主和法治框架公约》(Artificial Intelligence and Human Rights,Democracy and the Rule of Law,以下简称《公约》)供签署,当日已有美国、英国、欧盟、挪威、以色列等国家和国际组织签署。《公约》于2022年开始起草,于2024年3月敲定最终草案,于5月在欧洲委员会部长委员会年度部长级会议上通过,于9月5日开放签署。欧洲委员会称这是全球第一份具有法律约束力的人工智能国际公约,旨在确保人工智能系统的使用符合人权、民主和法治要求。该《公约》的制定旨在建立一个全球适用的法律框架,以规范人工智能系统在生命周期内的活动,促进人工智能技术的可持续发展,保护人类的基本权利和自由。以下对《公约》主要内容进行介绍,以供各方参考。
一、背景介绍
随着科学技术的加速发展,人工智能系统在医疗、交通、金融、教育等各个领域得到了广泛的应用,为人们的生活带来了便利,提高了生产效率,推动了经济的发展。然而,人工智能系统的生命周期内活动也带来了一些潜在的风险和挑战,如算法偏见、数据隐私泄露、自动化决策导致的不公平等,可能会对人权、民主和法治造成负面影响,需要制定相应的法律框架来加以规范。该《公约》的目的是在确保人工智能系统生命周期内的活动完全符合人权、民主和法治的原则,保护个人的尊严、自主权、隐私权和其他基本权利,维护民主制度的完整性和有效性,促进法治的实施与监督。
二、重点内容
(一)范围与定义
《公约》明确了“人工智能系统”的定义,指基于机器的能从输入推断如何生成影响环境的输出(如预测、内容、推荐或决策)的系统。《公约》的范围涵盖了有可能干扰人权、民主和法治的人工智能系统生命周期内的活动。此外,《公约》规定缔约方无需将该《公约》应用于与保护其国家安全利益相关的人工智能系统生命周期内的活动。在不影响特定条款的情况下,《公约》不适用于尚未投入使用的人工智能系统的研发,并且与国防有关的事项也不属于《公约》的规范范围。
(二)一般义务
一是保护人权。缔约方应采取或维持措施,确保人工智能系统生命周期内的活动符合适用国际法和其国内法规定的保护人权义务,包括尊重个人的生命权、自由权、平等权、尊严权等基本权利,以及确保人工智能系统的应用不会导致歧视、侵犯隐私、限制言论自由等问题。
二是尊重法治。缔约方应采取或维持措施,确保人工智能系统不被用于破坏民主机构和进程的完整性、独立性和有效性,包括权力分立原则、尊重司法独立和保障诉诸司法的权利等。
(三)相关原则
一是个人自主权原则。各缔约方应采取或维持措施,在人工智能系统生命周期内的活动中尊重人的尊严和个人自主权。人工智能系统的设计和应用应充分考虑到人的尊严和自主权,避免对人的身体、精神和社会造成伤害。
二是确保透明度原则。各缔约方应采取或维持措施,确保针对人工智能系统生命周期内的活动制定适合具体情况和风险的充分透明度和监督要求,包括识别由人工智能系统生成的内容,提高公众对人工智能系统的信任,促进其合理应用。
三是落实问责制原则。各缔约方应采取或维持措施,确保对人工智能系统生命周期内的活动对人权、民主和法治造成的不利影响负责,包括明确责任主体,建立相应的问责机制,确保在出现问题时能够及时追究责任。
四是保障平等和非歧视原则。各缔约方应采取或维持措施,确保人工智能系统生命周期内的活动尊重平等,包括性别平等以及适用国际法和国内法规定的禁止歧视,克服不平等,实现公平、公正和公平的结果。
五是保护隐私原则。各缔约方应采取或维持措施,确保在人工智能系统生命周期内的活动中,个人的隐私权和个人数据得到保护,包括通过适用的国内和国际法、标准和框架,并为个人根据适用的国内国际法律义务建立有效保障措施。
六是可靠性原则。各缔约方应酌情采取措施,促进人工智能系统的可靠性和对其输出的信任,包括与人工智能系统生命周期内的适当质量和安全相关要求。
七是促进安全创新原则。为了促进创新同时避免对人权、民主和法治产生不利影响,各缔约方应酌情促使在其主管的监督下为开发、实验和测试人工智能系统过程中建立可控实验环境。
(四)补救措施
一是提供有效补救。缔约方应根据其国际义务并与其国内法律制度一致,采取或维持措施,确保对人工智能系统生命周期内的活动导致的人权侵犯提供可访问和有效的补救措施,包括建立相应的法律程序和机制,确保受影响的人能够获得公正的赔偿和救济。
二是信息记录共享。缔约方应确保记录有关可能对人权产生重大影响的人工智能系统及其相关使用的相关信息,提供给有权访问该信息的机构,并在适当和适用的情况下,向受影响的人提供或传达该信息,提高透明度,促进公众对人工智能系统的监督。
三是保障知情权、申诉权。缔约方应确保信息足以让受影响的人对由该系统做出或实质上由该系统使用所告知的决定提出质疑,并在相关和适当的情况下,对系统本身的使用提出质疑。同时,《公约》规定,有关人员有权向主管当局提出投诉。
(五)风险评估与缓解
一是建立管理框架。缔约方应考虑到相关原则,采取或维持措施,通过考虑对人权、民主和法治的实际和潜在影响,识别、评估、预防和缓解人工智能系统带来的风险。
二是具体措施要求。相关措施应酌情分级和区分,并适当考虑人工智能系统的背景和预期用途,特别是涉及人权、民主和法治的风险;适当考虑潜在影响的严重性和可能性;在适当情况下,考虑相关利益攸关方的观点,特别是其权利可能受到影响的人;在人工智能系统生命周期内的活动中反复应用;包括对人权、民主和法治的风险和不利影响的监测;包括记录风险、实际和潜在影响以及风险管理方法;并在适当情况下,要求在首次使用人工智能系统之前和对其进行重大修改时对其进行测试。
三是应对不利影响方面。缔约方应采取或维持措施,确保人工智能系统对人权、民主和法治的不利影响得到充分解决。并且,这些不利影响和解决这些影响的措施应记录在案,并为相关风险管理措施提供信息。此外,缔约方应评估是否需要暂停、禁止或采取其他适当措施,对于其认为与尊重人权、民主运作或法治不相容的某些人工智能系统的使用。
三、实施机制
欧洲委员会46个成员国、欧盟和11个非成员国(美国、加拿大、日本等)参与了《公约》起草和谈判。只有上述参与者有权“签署”,而其余国家须在欧洲委员会部长委员会在与缔约方磋商并获得一致同意后,才能被邀请“加入”。
缔约方会议由公约缔约方的代表组成,负责定期磋商,以促进《公约》的有效应用和实施,包括识别问题、考虑公约的补充或修改、对公约的解释和应用提出建议、促进信息交流、解决争端以及加强与相关利益攸关方的合作。每个缔约方应在成为缔约方后的前两年内向缔约方会议提供报告,此后定期提供有关为实施公约相关条款所采取活动的详细信息。每个缔约方应建立或指定一个或多个有效机制来监督公约义务的遵守情况。这些机制应独立和公正地行使职责,并拥有必要的权力、专业知识和资源,以有效地履行监督公约义务遵守情况的任务。
四、条款变更
在解释或应用《公约》出现争议时,缔约方应首先寻求通过谈判或其他和平方式解决争端,包括通过缔约方会议进行协商。缔约方可以通过多种途径解决争议,如友好协商、调解、仲裁等,以确保公约的解释和应用符合各方的利益和公约的宗旨。
在有必要进行条款变更时,《公约》修正案可由缔约方、欧洲委员会部长委员会或缔约方会议提出。任何提案应由欧洲委员会秘书长传达给缔约方。缔约方或部长委员会提出的修正案应传达给缔约方会议,缔约方会议应向部长委员会提交对该修正案的意见。部长委员会应考虑提案和缔约方会议的意见,并可批准修正案。批准的修正案文本应转发给缔约方接受,自所有缔约方通知秘书长接受之日起第三十天生效。
五、生效机制
《公约》对欧洲委员会成员国、参与制定的非成员国和欧盟开放签署,签署后需经批准、接受或核准,文书应交存欧洲委员会秘书长。公约应在五个签署方(其中至少包括三个欧洲委员会成员国)表示同意受公约约束之日起三个月后生效。对于随后表示同意受《公约》约束的签署方,《公约》应在其交存批准、接受或核准文书之日起三个月后生效。
在《公约》生效后,欧洲委员会部长委员会可在咨询缔约方并获得一致同意后,邀请未参与《公约》制定的非成员国加入《公约》,但需经欧洲委员会章程规定的多数投票和缔约方代表在部长委员会的一致投票决定。
六、总结
《欧洲委员会人工智能框架公约》为规范人工智能系统的活动提供了全面的法律框架,强调了人权、民主和法治的重要性,并通过一系列措施确保其有效实施和监督。该《公约》的制定是应对人工智能挑战的重要举措,有助于引导人工智能技术的健康发展,保护人类的基本权利和自由,促进社会的可持续发展。
关注“广东技术性贸易措施”,获取更多服务。