发布时间:2024-11-09 13:49:31 来源: sp20241109
2024年4月16日,中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》起草组(以下简称“起草组”)发布《人工智能示范法2.0(专家建议稿)》(以下简称《示范法》2.0)。《人工智能示范法1.0(专家建议稿)》已于2023年8月15日全球首发。
中国社会科学院法学研究所网络与信息法研究室副主任周辉在起草组主持起草工作,他向法治网记者介绍,《示范法》并非正式法律法规,而是由学界、业界多方研讨后形成的带有示范和建议性质的法律文本,发布《示范法》2.0,旨在提出治理方案,助力我国人工智能(简称“AI”)立法工作。
北京大学人工智能研究院双聘教授、中国科学技术法学会常务副会长兼秘书长张平和周辉一致认为,AI治理必须坚持智能向善,均衡发展与安全。
据周辉介绍,《示范法》2.0进一步提出构建知识产权创新规则,拟构建“新避风港规则”。
焦虑
自2022年末,以ChatGPT为代表的生成式人工智能技术快速崛起,掀起产业界的新一轮科技革命。据国家数据局统计,目前中国10亿参数规模以上的大模型数量已超100个,正深度应用于电子信息、医疗、交通等千行百业,并走入人们的日常生活。
与此同时,一场全球范围的安全焦虑快速发酵。
数据显示,2023年,基于AI的深度伪造欺诈暴增了3000%,基于AI的钓鱼邮件数量增长了1000%,已有多个有国家背景的黑客组织利用AI实施了十余起网络攻击事件。
起诉AI在提供人工智能服务过程中著作权侵权、训练数据来源不合法的诉状,雪花一般飘至各国各地法院法官的案头,对传统知识产权法律体系发起挑战。
《2024年人工智能指数报告》(以下简称《报告》)中来自市场研究公司Ipsos的一项调查显示,2023年,52%的人对人工智能产品和服务表示焦虑,比2022年上升13个百分点。
“AI 技术的研发以数据为支撑,以互联网技术为依托,在研发与应用的过程中不仅涉及个人信息、隐私等伦理问题,还牵涉国家网络与数据安全。”北京大学人工智能研究院双聘教授、中国科学技术法学会常务副会长兼秘书长张平教授说。
探索
为应对安全焦虑,人工智能发展与规则体系建立的竞赛在全球范围内进入前所未有的热潮。《报告》显示,2023年,全球立法程序中有 2175次提及人工智能,几乎是上一年的两倍。仅美国,2023年与人工智能相关的法规有25项,仅一年,总数增长56.3%。而2016年只有1项。
中国也陆续探索出一批规则制度。例如,国家网信办、工业和信息化部等部委先后于2021年、2022年联合发布《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》,2023年7月,国家网信办联合多部门发布《生成式人工智能服务管理暂行办法》,自2023年8月15日起施行,规定了生成式人工智能的安全评估、算法备案、投诉举报等制度,明确了法律责任。
在司法层面,2023年11月27日和2024年2月8日,北京互联网法院和广州互联网法院分别作出了AI文生图著作权侵权国内第一案(简称为“春风图案”)一审判决、AIGC平台著作权侵权全球第一案(简称为“奥特曼案”)一审判决,就AIGC是否属于作品及其权利归属等问题,给出初步探索思路和思考。
在春风图案中,北京互联网法院给出的思路是,AI不能成为作者,只是工具,但AIGC可能构成作品,只要满足智力投入、独创性等要件,作者应当是生成式AI的使用者。
在奥特曼案中,广州互联网法院明确,生成式人工智能服务提供者在提供相关服务时应尽到注意义务,尊重和保护知识产权,否则可能构成侵权。
在智库层面,2023年8月15日,中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》起草组起草的《人工智能示范法1.0(专家建议稿)》全球首发,2024年4月16日,《人工智能示范法2.0(专家建议稿)》也已发布,为人工智能立法设计建议和方案。
建议
据周辉介绍,《示范法》2.0在继续坚持明确人工智能主管机关、科学设计法律主体架构、划明人工智能安全底线、提出许可管理负面清单等1.0版本起草思路的同时,对上述制度设计作了补充和完善,并进一步提出构建知识产权创新规则、重视人工智能开源发展等建议。
周辉表示,起草组起草《示范法》的初衷是,吸取、借鉴域外国家在人工智能治理方面的有益经验,提出有益的人工智能治理建议和方案,助力中国人工智能立法工作。
比如,《示范法》拟提出构建“新避风港规则”,允许人工智能提供者在已经履行标注生成物、建立投诉受理机制、警示机制和违规处置机制的前提下就知识产权侵权行为不承担责任。鉴于人工智能模型训练必然需要投喂大量优质数据物料,需要对知识产权法中有关作品许可利用的内容作出变通规定,《示范法》2.0提出建立与人工智能发展相适应的知识产权法定许可和合理使用制度,破除训练数据使用面临的合法性难题,降低数据使用成本。
“人工智能治理,既要管住风险,也要鼓励技术创新应用,破解数据壁垒等一系列人工智能创新发展瓶颈、障碍。”周辉称,《示范法》2.0遵循均衡发展与安全的原则,既着眼于防范突出风险,也提出鼓励发展的举措。
比如,在安全风险治理方面,《示范法》2.0继续按“研发者-提供者-使用者”三类主体进行制度设计,在设计一般性的安全评估、审计、采取防护措施等义务的基础上,还对基础模型研发者、网络平台、国家机关等主体规定了特殊义务以加强重点环节保障,并提出以税收优惠等政策鼓励企业在安全防护方面进行投资。
在鼓励发展方面,《示范法》2.0围绕目前人工智能发展的关键环节即算力基础设施、算法和基础模型创新、数据要素供给以及商业应用创新等方面进行了制度设计,并提出促进人工智能开源发展、建立监管试验机制等措施。
此外,《示范法》提出成立人工智能伦理专家委员会,以更好开展人工智能伦理问题研究、指导伦理审查等工作。“坚持以人为本、智能向善,是人工智能发展的底线原则。”周辉说。
为应对AI技术发展的不确定性,周辉表示,《示范法》在起草和更新过程中,采取较为包容审慎的态度。在安全风险管理、治理体制机制等方面侧重于确立相关原则、明确未来方向,而非直接规定制度细节。同时《示范法》也在制度设计上留出更多容错空间,允许人工智能主管机关和行业组织通力合作,更有效地实施和执行相关制度。
此外,周辉也提到,人工智能立法过程中应聚焦AI技术特点和行业发展需要,与我国现有法律中已经确立的网络数据安全监管、个人信息保护等制度做好衔接,不宜重复规定。但可以考虑根据AI技术特点,出台专门的安全标准、合规指南,协助相关企业和研究机构依法开展工作。
合力
张平教授表示:“AI是人类发展的新领域,机遇大,挑战也大,需要以全球合力共同参与人工智能的合作与建设。”
《报告》显示,2023 年,61个著名的人工智能模型源自美国的机构,欧盟 21个,中国15个。同时,中国的机器人安装量居世界首位,世界上61%的人工智能专利来自中国。
《报告》指出,负责任的人工智能严重缺乏标准化,包括 OpenAI、 Google 和 Anthropic 在内的领先开发商主要根据不同的负责任人工智能基准测试他们的模型。这种做法使系统地比较顶级人工智能模型的风险和局限性的工作变得更加复杂。
2023年我国率先提出全球人工智能治理倡议,围绕人工智能发展、安全、治理三方面系统阐述了人工智能治理中国方案,坚持以人为本、智能向善,为相关讨论和规则制定提供了思路蓝本。
2024年3月,包括图灵奖得主约书亚·本吉奥、杰弗里·辛顿、姚期智等在内的数十位的中外专家在北京联合签署了《北京AI安全国际共识》。2024年4月《2024年中非互联网发展与合作论坛关于中非人工智能合作的主席声明》发布。全球人工智能治理的合作范式不断刷新。
张平认为,AI安全风险治理是一项综合性工作,应当分层级、分领域、分阶段、分重点开展。具体而言,“人类安全——国家安全——个体安全”这三个维度的潜在安全风险都不容忽视,应予重点关注,三层风险的解决方案也应对症下药。即AI技术应以尊重人类权益为前提,坚持以人为本,智能向善;保障各国在这场“AI竞赛”中权利平等、机会平等、规则平等,弥合智能鸿沟和治理能力差距;关注AI应用对个体权益的影响,尤其是对个人隐私安全的影响。
“人工智能的发展与治理问题,是创新与传统制度之间的张力问题。人工智能发展尚在初期,且不确定性是其最大特性,围绕人工智能法律规制的这场讨论还远远不到下定论的时候。不如让子弹飞一会儿。”张平说。
“人工智能技术发展日新月异,《示范法》也将随着实践发展而不断迭代出3.0、4.0等版本,以期得出更成熟、更全面、更有效率的治理方案。”周辉说。
监制:余飞 刘青
统筹:李波 张运恒
策划/采写:李兆娣
海报制作:李全一
(来源:法治网) 【编辑:王超】