全球首部全面AI法规,是否技术伦理并行

编辑:鲁南网 发布时间:2024年07月17日 阅读 25257

工智能法治的全球秩序正在加速形成

文/本刊记者 王卫

从ChatGPT的万能问答到Sora的文生视频,通用型人工智能(GPAI)正在由科幻转化为现实,如此迅猛的发展带来新技术突破和产业变革的同时,其引发的安全风险也对监管和治理提出新要求。

世界范围内,各国酝酿多年的人工智能立法实践将在2024年陆续进入成熟期。当地时间5月21日,欧盟理事会正式批准《人工智能法案》,这是一项旨在协调整个欧盟人工智能规则的开创性立法。该法案采用基于风险分类的监管路径,首先明确禁止了某些存在不可接受风险的人工智能系统,然后重点规制高风险人工智能系统,任何在欧盟市场上提供此类系统的企业都必须满足法案规定的从风险管理、数据治理到全面的记录义务等诸多要求。但是,该法案的监管要求可能造成小微企业负担过重,模糊的规定也可能导致实施方面的困难。

国际社会认为,作为全球首部全面的人工智能法规,欧盟《人工智能法案》实施后将对全球人工智能产业链产生深远影响。

人工智能发展需要法治约束。(图 / VCG)

基于风险分类的监管路径

《人工智能法案》旨在促进欧盟单一市场内安全可信的人工智能系统的开发和采用,保障欧盟公民的基本权利,同时鼓励全欧洲在人工智能领域的投资和创新。总体上,法案在适用范围、人工智能系统风险分级管理、通用人工智能模型管理、执法与处罚等方面,为整个人工智能产业链上的相关方提供了一个合规义务框架。

具体而言,法案从多个维度界定了适用范围。适用对象包括与欧盟市场有连接点的人工智能系统提供商、使用商、进口商、分销商和产品制造商。广泛的域外适用效力确保了所有在欧盟经营的市场参与者必须遵守相同的条件。

法案基于人工智能系统对用户和社会的潜在影响程度将其分为4类:不可接受风险类、高风险类、有限风险类、最小风险类。风险等级越高,管控越严格。构成不可接受风险的人工智能系统,如为唆使犯罪而利用人工智能技术操纵人的潜意识、将人脸识别等生物识别技术实时应用于犯罪搜查等,是被禁止的;高风险的人工智能系统,由于其存在对公民基本权利等的潜在危害,须对其风险进行评估和降低,并确保其受到人为监督。多数人工智能系统属于风险较低的类别,但仍可能需要根据法案要求履行相应义务。

法案为人工智能系统中的通用人工智能模型引入了透明度义务,包括遵守欧盟版权法和发布用于培训的内容的详细摘要。对于具有系统性风险的通用人工智能模型,法案设置了更多约束,如对其进行模型评估和减轻系统性风险等。此外,经过人工智能或其他方式处理的图像、音频或视频内容需要明确标记其被处理过。

违反法案的处罚结果将取决于人工智能系统的类型、公司的规模和违法行为的严重程度。法案规定,如果涉足“禁止”领域,相关方会被处以3500万欧元或全球年销售总额7%的罚款,以二者之中的更高金额为准进行处罚。如果没有履行除“禁止”以外的其他风险分类中的义务,则根据相关方业务规模等处以1500万欧元或最高不超过全球年销售总额3%的罚款。

法案在经欧洲议会议长和欧洲理事会主席签署后,将于近日在欧盟官方公报上公布,在公布20天后生效,并在生效2年后全面实施,风险级别最高的“禁止”条款预计会率先于2024年底启动适用。

立法进程的总体进展迅速

《人工智能法案》立法进程总体进展迅速,2019年以来,欧盟一直在布局人工智能监管领域。陆续发布《人工智能白皮书——追求卓越和信任的欧洲方案》等一系列人工智能政策,以期推动欧盟的人工智能产业发展,并形成健康、可持续的人工智能监管机制。

2021年4月21日,欧盟委员会提出《人工智能法案》提案的谈判授权草案。但其并未进一步解释为何要首次制定一项具有约束力的条例,立法理由只是提到了人工智能的益处和风险,并强调应保持两者之间的“平衡”关系。2022年12月6日,欧洲理事会通过了关于《人工智能法案》的共同立场。2023年6月14日,欧洲议会对《人工智能法案》草案进行表决,并以499票赞成、28票反对和93票弃权的压倒性结果通过了其妥协立场。欧洲议会投票结束后,欧洲议会、欧洲理事会和欧盟委员会立即就法案举行了第一次“三方会谈”。经过多次会谈,三方终于在2023年12月就草案达成一致,之后发布了欧盟所有22种语言的版本。

经三方会议达成一致的妥协草案于2024年3月13日得到欧洲议会的批准。2024年5月21日,欧盟理事会也正式批准了该法案。欧盟的立法者对最后各方达成一致的法案非常满意。然而,科技团体和公民权利团体均不认为目前这份法案达到了他们各自认为的满意的“微妙的平衡”。

科技团体认为这份法案太过严苛。欧盟的超前和过度监管可能会进一步强化欧洲人工智能产业落后的局面,诸多事前监管环节都将影响人工智能的开发进程。在2020年的一项针对使用人工智能技术的欧洲企业的调查显示,对有计划但尚未采用人工智能技术的欧洲公司来说,43%的欧洲企业将法律责任问题视为其使用人工智能技术的最大外部障碍之一。超前和过度监管还可能给欧洲人工智能公司带来过高的成本和过重的负担。谷歌和微软等大型国际公司将最有能力满足该法规的要求,而创新型初创公司将面临巨大挑战,比如人工智能监管沙盒等要求可能导致它们经济负担过重。

公民权利团体认为这份法案仍有较大漏洞。虽然法案根据组织在人工智能供应链中的位置规定了不同责任主体,但对规制对象的责任界定不够清晰。此外,法案未明确多方参与场景下多个责任主体间的责任分配,这可能导致责任确定困难。责任承担方式也较为单一,处罚方式主要是罚款,责任体系仍需进一步完善。据美联社报道,欧洲的公民权利团体还对人工智能生物信息识别在执法权上的豁免表示担忧,同时认为法案对在边境和移民管理中的人工智能应用规定也有欠缺。除了对法律文本本身的质疑之外,这份法案最终的执行情况也受到了质疑。

深刻影响全球人工智能监管

虽然在实际执行和平衡创新与合规之间还面临挑战,《人工智能法案》仍然具有重大意义。《人工智能法案》的通过进一步巩固了欧盟在科技监管方面的地位。法案主要发起者之一、欧洲议会议员图多拉奇表示,自起草立法的早期阶段以来,《人工智能法案》的制定者就仔细考虑了对世界各国政府的影响。

拜登政府于2022年发布了《人工智能权利法案蓝图》,2023年发布了关于人工智能的行政命令。近期美国国会密集引入了《透明自动化治理法案》《全球技术领导法案》《人工智能披露法案》《国家人工智能委员会法案》,美国民主党领袖查尔斯·舒默大力推动美国在短时间内迅速制定联邦层面的人工智能法案。美国民主党将通过拜登政府颁布行政命令、国会立法并进的方式加速人工智能立法。

英国近年来发布了一系列人工智能立法预研报告,并在2023年11月举办国际人工智能安全峰会之际,联合中国、美国等国家提出了《布莱切利宣言》。为延续英国在人工智能立法领域的领导力,英国议会正在尝试一种有别于欧盟和美国的人工智能立法策略。英国议会于2023年11月发布《人工智能监管法(草案)》,英国科学、创新和技术部于2024年2月向英国议会提交《人工智能监管的创新方法:政府的回应》,明确其目标是成为人工智能安全开发和部署的全球领导者。

中国在人工智能治理领域从未缺位。2023年生效的《生成式人工智能服务管理暂行办法》,是中国首份专门针对生成式人工智能的监管文件,注重分类分级监管、提升人工智能服务的透明度,且注重服务提供者和使用者之间的责任平衡,鼓励生成式人工智能技术在各行业、各领域的创新应用。当地时间5月14日,中美人工智能政府间对话首次会议在瑞士日内瓦举行。双方围绕人工智能科技风险、全球治理、各自关切的其他问题深入、专业、建设性地交换了意见。专家表示,在人工智能安全议题上进行沟通交流和合作是确保双方人工智能发展安全可靠的必要保障,更是中美双方作为人工智能发展与治理的国际重要力量需要为全球作出的共同努力。

国际社会指出,欧盟《人工智能法案》为全球应对人工智能风险提供了一些思路,但并不代表是全球通用规则。人工智能的特性决定了它不仅是一个技术问题,更是一个社会问题。因此,监管者在考虑如何制定相关法律和政策时,不仅要从技术的角度出发,还要从社会、伦理和文化的角度进行思考。未来欧盟和各国政府还需要继续加强对于人工智能技术的监管和研究,以确保其安全、合规地服务于人类社会。

文章来源:《法制与新闻》杂志2024年7月上期

0