14日,欧洲议会全体会议表决通过了《人工智能法案》授权草案,该法案进入欧盟立法严格监管人工智能技术应用的最终谈判阶段。
(资料图片仅供参考)
欧洲议会当天投票决定禁止实时远程生物识别技术,如不能在公共场合进行实时人脸识别,并对ChatGPT等生成式人工智能工具增加更多安全控制措施,提出新的透明度要求,以确保人工智能的研发和应用符合欧盟权利和价值观。
据欧洲议会网站消息,欧洲议会“为制定史上首部人工智能法案已经做好谈判准备”。按照立法议程,欧洲议会将就这一授权草案与欧盟委员会和成员国进行“三方”谈判,欧洲立法者希望在今年年底前就法案的最终版本达成共识。
今年5月,欧洲议会内部的市场委员会和公民自由委员会通过欧盟委员会于2021年4月提出的《人工智能法案》提案的谈判授权草案。欧洲议会声明,这部提案如正式获得批准,将成为全世界首部有关人工智能的法规。
该法案将适用于在欧盟境内将人工智能系统投放市场或投入使用的实体(无论该实体是在欧盟境内还是在第三国)、在欧盟境内使用人工智能系统的实体以及在第三国使用人工智能系统但系统的输出用于欧盟境内或对欧盟境内人员产生影响的实体。
该法案草案的一个突出特点是注重基于风险来制定监管制度,以平衡人工智能的创新发展与安全规范。草案将人工智能风险分为不可接受的风险、高风险、有限的风险和极小的风险四级,对应不同的监管要求。其中高风险人工智能的使用必须受到严格监管,系统提供者和使用者都要遵守数据管理、记录保存、透明度、人为监管等规定,以确保系统稳定、准确和安全。对于违反规定者,草案设定了最高3000万欧元或全球年营业额6%的罚款。
最新草案严格禁止对人类安全造成不可接受风险的人工智能系统,包括部署潜意识或有目的操纵技术、利用人们弱点或用于社会评分的系统,并扩大了人工智能高风险领域的分类,将对人们健康、安全、基本权利或环境的危害考虑在内。草案还要求人工智能公司对其算法保持人为控制,提供技术文件,并为“高风险”应用建立风险管理系统,还针对ChatGPT等生成式人工智能设立专门监管制度。每个欧盟成员国都将设立一个监督机构。
此外,引进监管沙盒机制以管控风险和促进创新,在人工智能系统入市或投入使用前,对人工智能系统进行开发、测试和验证降低风险。最新草案文本还提出,这一机制同样被允许用于在现实条件下测试创新人工智能,以鼓励人工智能企业持续创新。
清华大学自动化系教授陶建华在接受记者采访时说,欧盟试图建立一个统一的人工智能法律监管框架,是全球人工智能发展进程中一个重要的标志性事例。其对人工智能进行有效法规约束的探讨和尝试都会产生全球性的影响,可能引发越来越多的国家尝试跟进相关法规的探索。
竞天公诚律师事务所合伙人袁立志认为,欧盟推动人工智能立法,有利于保护基本人权、维护欧盟在数字主权和科技领域的领导地位,并通过这样一部综合性立法抢占全球人工智能监管先机。但其本身具有局限性。它采用的是横向立法,并非针对特定人工智能应用领域,而是试图把所有人工智能都纳入监管范围,在执行层面将面临大量的解释问题。
陶建华指出,欧盟并未就人工智能技术可能会给人类带来什么样的影响形成共识。从辨证的角度看,人工智能既能造福和服务人类,但如若用之不善,也会给人类带来威胁或伤害。因此,如何平衡创新和约束是欧盟立法面临的一个非常重要的挑战。但在追求创新和管控创新可能带来的危害之间寻求一个有效平衡,很大程度上是使用者的问题。如何对使用者进行有效监管,也是欧盟人工智能立法面临的一大挑战。此外,统一的法律框架并未涉及具体的法律规范,因此实际的执行效果上可能会“大打折扣”。