2023年5月25日,美国微软公司发布《人工智能治理:未来蓝图》报告,为生成式人工智能治理提出五点建议,希望通过公共政策、法律和法规来解决当前正在出现的人工智能问题:
一、建立并实施政府主导的新人工智能安全框架
美国国家标准与技术研究所(NIST)已经根据国会在《2020年国家人工智能倡议法案》中的指示制定了新的人工智能安全框架,该框架确保了人工智能的安全性和可靠性,并促进人工智能系统的可信性和负责任的开发使用。该框架通过政府机构、民间社会组织等多方主体之间的紧密合作、共识驱动和透明协商共同研究形成。新人工智能风险管理框架为企业和政府采取行动确保更安全地使用人工智能技术提供了坚实的基础。
二、对控制关键基础设施的人工智能系统部署有效的安全“刹车”机制
人工智能系统应当部署有效的故障安全系统,故障安全系统应当与整体系统安全综合方法相结合,注重有效的人类监督、弹性和稳健性开发。虽然不是每个潜在的人工智能场景都会带来重大风险,但当考虑到人工智能系统管理或控制电网、供水系统、应急响应和城市交通流量的基础设施系统时,仍然需要“安全刹车”来确保这些系统在人类的控制之下。对此,政府应当完成以下方面工作。一是政府应该定义用于控制关键基础设施的高风险人工智能系统的类别,保证上述人工智能系统能够安全制动。二是政府应该要求系统开发商确保在设计人工智能系统控制关键基础设施时设置内置安全停止装置。三是政府应确保运营商能够持续测试和监控高风险系统,以确保为关键基础设施供电的人工智能系统持续在人类控制之下。四是要求控制指定关键基础设施运行的人工智能系统只部署在获得许可的人工智能基础设施中。
三、制定基于人工智能技术架构的法律监管框架
人工智能需要一个契合人工智能本身技术架构的法律监管架构,需要根据不同行为者在管理人工智能技术的不同方面所扮演的角色,设置各类监管责任。对此,相关主体应当做以下工作。首先,人工智能开发人员需要分享关于先进人工智能模型的专业知识,以帮助政府确定监管人工智能的门槛。其次,人工智能技术人员应当支持政府确定必须满足的要求,以便获得开发或部署高性能人工智能模型的许可。第三,政府应当通过对用于测试或部署这些模型的人工智能数据中心的运营商施加许可要求,建立健全有效执行高性能人工智能模型的许可制度。
四、提高人工智能相关产品的透明度,确保学术和非营利组织可获得人工智能技术
安全与透明度之间的紧张关系是需要认真讨论的众多人工智能政策问题之一。对此,各方主体应当统筹考虑,在安全前提下加强人工智能透明度披露。首先,人工智能开发者应当发布年度透明度报告,向公众通报其负责任和安全管理人工智能的政策、系统、进展和表现。其次,应当开发一个开放性的高风险人工智能系统的国家登记处,以便公众了解这些系统的使用地点和方式。第三,在公众与人工智能系统交互时,确保能够向公众清楚地传达人工智能系统的能力和局限性。第四,在重要的场景中,要求对人工生成的内容贴上标签,以便公众就能“知道”他们正在接收的内容。
五、寻求新的公私合作伙伴关系,将人工智能作为一种有效的工具以应对新技术带来的不可避免的社会挑战
即使善意的人们尽了最大的努力,技术变革也会不可避免地在前进的道路上遇到不可预见的障碍。对此,人工智能能够成为一种有效的工具,来解决上述问题。因此,应当将政府、企业和非政府组织联合起来,提供广泛获得人工智能技能的机会,并利用人工智能作为改善世界的工具,保护民主和基本权利,应对技术变革不可避免地带来的挑战,以促进社会包容性增长和地球的可持续发展。
关注“广东技术性贸易措施”,获取更多服务。