参与支持

扫一扫关注

微信公众号

申卫星:全球人工智能法治发展与中国立场

发布时间:2024-07-10编辑人:qing


2024年6月1日,由中国经济改革研究基金会、中国法学交流基金会、中国科学院大学科技与法律研究中心三方共同主办的2024“中国数字经济发展与法治建设论坛”在北京成功举办。论坛以“人工智能技术发展与法律应对”为主题,坚持数字经济发展与规范并重,突出高端、前沿、权威,着重政策阐释和数字经济发展趋势展望,旨在为进一步推动“人工智能+”及数字经济发展贡献智慧与力量。

论坛发布了“2024中国数字经济发展与法治建设”十个重大影响力事件。现场使用人工智能技术现场生成新闻通稿和会议总结稿,展示了AI技术在文字生成方面的强大能力,邀请来自立法机关、司法机关、群团组织、政府部门和经济界、科技界、法律界及产业界等15位嘉宾作主旨演讲及主题发言。

经发言嘉宾同意,论坛主办方将陆续刊发嘉宾发言,供大家学习交流。

全球人工智能法治发展与中国立场


申卫星

清华大学法学院教授

中国法学会网络与信息法学研究会副会长

中国法学教育研究会副会长

23.申卫星.jpg

尊敬的彭会长、甘部长、方书记,与会的各位领导、各位嘉宾,我向大会报告的题目是:全球人工智能法治发展与中国立场,我将就当下全球人工智能立法和政策的变迁,谈谈中国应对应该有的一些基本思考,包括三个部分内容。

刚才几位领导都提到欧盟通过了人工智能法案,美国也在加速人工智能立法的进程,可以判断全球人工智能的立法进入了快车道的新阶段,我会介绍一些国家和组织在人工智能立法中所呈现的特点和趋势。第二,在此基础上总结当下国外人工智能发展的一些共性的经验。第三,以此为中国的人工智能立法提供相应的思路。

主要介绍的是欧盟、美国、英国、新加坡和一些国际组织。欧盟我们都知道它的人工智能经历了这样一个发展历程,最初是在2021年4月开始出现了第一版《人工智能法案》的草案。其后有突破性的是去年年底12月,欧洲理事会和欧洲议会之间达成了协议。在2024年的1月,正式形成了《人工智能法案》的定稿。另外两个时间节点大家都知道,一个是今年3月13日,欧盟议会批准《人工智能法案》。大家都非常清醒地知道在5月份没有任何悬念的欧委会会通过《人工智能法案》,所以5月21日,欧委会正式通过了人《工智能法案》。欧盟的三驾马车都对《人工智能法案》的出台发挥了积极的作用。

对欧洲《人工智能法案》的解读有几个视角,我想很多人都会想到在2018年《通用数据保护条例》的出台,确实带来了一个世界级的震撼。当时GDPR里有一个条款,规定有一个域外的效力,就是我们现在所熟知的长臂管辖。对很多人来说大家都觉得不可思议,作为一个主权国家为什么接受GDPR的管辖,但是等它颁布之后,不论是美国的亚马逊还是中国的淘宝,都要接受GDPR合规的要求,那就是经济发展的需求。所以有人把它称之为GDPR立法的布鲁塞尔效应。GDPR出台以后,欧盟尝到了甜头又颁布了欧盟的《人工智能法案》。那么,欧盟的《人工智能法案》会对全球人工智能立法产生怎样的影响,我们也可以对《人工智能法案》和GDPR进行一个比较。大家都看到了GDPR严格管制的立场,到底欧盟《人工智能法案》是不是沿袭了这样一个立场。这是一个视角。第二个视角,欧盟之所以能够通过《人工智能法案》不是一蹴而就的。这里提到的AILD和PLD实际上在欧盟领域里已经通过了人工智能的责任法令和产品责任法令,当然它是一种指令,不是法案,所以需要进行国内法的转换,但是充分的表明了这样一个欧洲人工智能法案的出台是有一定的基础的。第三个视角,从软法到硬法已经开始逐渐的显现,这会影响世界各国人工智能立法的进程。

在欧盟通过《人工智能法案》之前,已经出台的两部指令,这两部指令里其实已经对人工智能分级的风险管理做出了划分。当时就划分为四类:不可接受的、高风险的、有限的风险和最低的风险,并且规定了相应的过错责任和严格责任以及替代责任。当然我们看到《人工智能法案》它并不是马上就实施的,它有一个缓冲期,它是分阶段的。整体的看一下,最快的是6个月,通过之后的6个月属于不可接受的风险,也就是严禁进行人工智能研发的领域,最快的是6个月开始生效。接下来是所有规定的通用人工智能要有一年的缓冲期。另外针对高风险的人工智能系统和具有特定透明度风险的人工智能系统给了两年的缓冲期。对于人工智能模型,特别是对于已经在法案通过之前公布和注册的,如果没有新的技术,最长可以到6年。可以看得出来,欧盟的反应和应对是非常迅速的,但是立法都需要一个社会的承载力,需要有一个缓冲期。

总结欧盟《人工智能法案》的几个要点。第一,这个法案要求在整个境内都要对通用人工智能通用系统予以监管,同时设置了可负担的义务,并且在可负担的义务之外应该有一些免责,也就是所谓的合规免责,待会儿我会讲到开源免费免责促进创新的措施。以此一点来看,和GDPR相比,立场是有所缓和的。第二,进此次立法琎行了分类分级的风险规制,共划分了四类,但是主要规制的是高风险,对于不可接受的风险是不允许发展的和低风险的都不在规制范围内。第三,它区别了人工智能的模型和人工智能的系统,重点规定了人工智能的模型,特别是人工智能模型的透明性义务,主要是集中在对技术文档说明的提供。第五,要求对人工智能生成的内容要有标注的义务。另外,作为人工智能系统和其他系统之间要有一个配合的义务的履行。这里提到了禁止的人工智能,具体包括像社会评分、工作场所和学校的情感识别、基于敏感特征的生物识别、具有操作性的AI系统,这是不可接受的风险,从而是不允许进行研发的。第八,对促进创新,设置了所谓大家熟知的人工智能的监管沙盒。第九,我们大家都在讨论的对人工智能生成物的版权性的问题没有回应,应该说对这个问题有着充分的研究的空间。

大模型作为规制的重点,这里列出了对大模型规制基本的要求,成为整个《人工智能法案》能够落地的一个抓手。包括从自律的角度自行判断大模型所带来的风险,同时要满足透明性的要求,对透明性的要求,除了刚才提供技术文档,还有使用说明以及相应的训练据内容的摘要等等,对于输出的内容进行机器可读的标注义务,另外还有相应的监管责任和召回措施。由此可见,大模型构成了欧盟《人工智能法案》规制的重点。总结起来有几点,一个是责任向后穿透,基础模型,特别是基础的通用人工智能模型,它的提供者,也就是开发者,对于其后利用基础模型而进行的研发要承受责任,我们把它概括为责任向后穿透到技术模型。说到这里,大家可能觉得有点过于严苛了,这跟欧盟的经济发展状况有关系,因为它自身的大模型发展比较弱,所以它希望把责任压到基础模型。但是还好,它有一个补救的措施,它对于免费的开源的基础人工智能模型可以在一定情况下免除自己的义务或者减轻自己的义务,这也是体现了和GDPR不一样的鼓励创新的一个基本立场。

26.申卫星.jpg

对于通用人工智能的发展,在保证安全的情况下,应该说为发展留了比较大的空间。概括了几点,比如将执法权收归欧委会,而不是各个成员国,差别在哪里?防止各个成员国逐顶竞争的去罚款,导致人工智能的发展受到很大的影响,统一了执法的尺度。还有相应的透明性义务以及对于投入市场之前人工智能的研发不在法案的调整范围之内,都是体现了促进人工智能发展的一些建议。我们向国家有关部门提交的清华版本人工智能法就多模型人工智能责任的承担做了一个建议,对基础模型进行更改后形成的新产品,如果对外提供服务或者利用基础模型人工智能服务的运营者对其后的融合应该履行安全的责任,但是基础模型的开源者、提供者一般来说是不对后面的承担责任的,除非当时另有约定,这应该比欧盟我们跨出的步伐更大一些,主要的出发点还是鼓励创新。

欧盟《人工智能法案》所分的四类风险,不可接受、高风险、有限风险、低风险,根据不同风险进行规制,避免一把尺子量到底。这是我们提的我们国家人工智能法案的高风险目录,主要包括对于人格权、劳动权构成重大威胁的一些研发,对环境和公共安全可能造成重大危害的,对公共资源的分配和行政管理可能造成重大缺陷的,还有互联网服务内容可能有重大影响,一个开放的条款。另外是一些禁止的,列了四个情形来规定所谓的不可接受的风险,从而禁止研发。

积极推动美国人工智能立法的是民主党,大家都看了美国大选的情况,最近的消息,即便美国共和党的代表众议院议长也非常支持人工智能立法,两党已经成立了人工智能的特别工作组。刚才方书记在讲的时候也提到了,5月份美国也公布了《人工智能权利法案》。他们主要是通过部际的协调,协调各部门统一的推进人工智能立法,中国也存在这个问题,将来人工智能立法是否需要有一个部际协调机制,这里可以借鉴美国的经验。

英国是第三条道路。去年11月份,英国突然发起了人工智能高峰论坛,主要是抢占人工智能的国际话语权。英国就人工智能的发展提出五大发展目标:1、明确发展思路。2、培养人工智能人才。3、建设人工智能基础设施。4、培育商业环境。5、形成人工智能产业集聚区。围绕这些目标英国在人工智能方面提出了一些具体措施,我们也参与了英国倡导的《布莱切利宣言》。

新加坡挺有特点的,一个是它是从人和机器之间的关系分了三种,一个是human-in-the-loop人在其中,人和机器之间不断的互动,当这个结果输出之后,人再去人工矫正,训练人工智能的准确性。还有一个是不是在其中的,是在其上来监督的human-over-the-loop。还有一些是跟human没有关系的,human-out-the-loop。根据这个分类做了四个象限,主要考虑人工智能可能产生的危害的可能性和严重性,基本上重点规制的是最右边的,可能性很大,同时损害的严重性也比较高,左下角的相对来说是不予规制,这个理念基本上都是各国统一坚持的。如果一把尺子量到底,大的管不住,小的还管死了,所以分级分类管理应该说从欧盟立法到世界各国立法都是这样一个态度。从OECD到联合国,包括国际标准化组织都在关注。

这个是大家都熟悉的联合国倡议。2024年3月21日,联合国大会通过了首个有关人工智能(AI)的全球决议草案,以确保这项强大的新技术能够造福所有国家、尊重人权,并且是“安全的、可靠的和值得信赖的”。美国是这项决议草案的发起国,中国和121个国家参与了共同提案。

各国立法的经验可以概括为五点。一是,大家会发现现在已经进入到了由谈伦理、谈原则软法的时代开始进入真刀实枪硬法的权利义务实体规定的时代。当然这个时代并不必然说法律是唯一的,应该说多元共治的局面会是未来的一个发展方向。二是,坚持安全和发展并重,但是这两个之间是非常难协调的,可能我们国家坚持的是不发展是最大的不安全。这两者之间如何来协调,是各国立法最大的难题,更难的是我们以现在不能够预知的现象来规制未来。三是,关于人工智能的范围,这是一个很重要的问题,到底人工智能的定义是什么,听起来是个定义,实际上涉及到未来法律调整的范围。比如大家说欧盟的立法确实是太宽了,但是有人夸张地讲欧盟的立法是连Excel表具有自动执行的功能也是人工智能,但是最近我跟欧洲的专家在一场论坛的时候问了他们,他们说没有这个说法,Excel不算人工智能,不在规制范围。美国相对来说规制的范围小一些,中国也希望规制的范围小一些,以便为产业的发展留出空间。四是,也符合风险治理。第四,风险治理,各国都是如此,不光是欧盟,包括美国,也包括刚才提到的新加坡,所以中国将来也应该坚持。五是,提高人工智能透明度为抓手,实现可信的人工智能,对人工智能的焦虑只能通过制度的方式来消除焦虑。我们在给国家有关部门提交的建议稿当中提到的透明度和用户的知情同意和知情解释权利的内容。

简单来说是五个我们国家人工智能立法的基本思路和建议,我概括为“3+3”,“3+3”是三个  法律,从《网安法》到《数安法》到《个人信息保护法》,这是一个“3”。这个“3”客观地讲算不算人工智能,你说有没有?有的,比如《个保法》二十四条关于自动化推荐、自动化决策肯定是涉及到人工智能的,但是还是比较少的。我们仍然认为它构成人工智能立法的一些前提和基础,因为人工智能是包括算法、算力和数据的,但是真正指向的还是这三个部门规章,互联网信息服务的深度合成和算法推荐、生成式人工智能,可以说我们已经具备了一定的基础,这样一个“3+3”构成了未来中华人民共和国人工智能法出台的一个前提和基础,可以把这些合并吸收。

未来应该有五个方面:第一,凝聚人工智能的共识和发展的目标。第二,通过人工智能立法更主要的作用不仅是促进产业的发展和消除危险,还要维护中国人工智能国际的形象和声誉。第三,划定人工智能安全治理的边界,列了五个风险,这是人类之所以对人工智能产生焦虑的五个方面,这五个方面要消除的话,只能通过制度的信任才能够破解。第四,关于人工智能发展制约的因素,这里提到数据、算法、算力、人才的不足都可以通过法律的制定。所以这个法律可能有一些规定是促进法,是产业政策发展的法律。第五,协调人工智能和其他之间的关系。我这里简单提了避免法律的伦理化、政策化和标准化,这就意味着两句话,第一句话,法律和它们是不一样的,我们不能把法律写成这样。第二句话,只有法律也是不行的,所以将来是法律、伦理、政策以及技术标准形成一个多元共治的局面,才能够综合的治理人工智能的发展,使它既能保证安全的情况下,为人类福利的福利来服务。

以上是我的报告,谢谢大家。


申卫星2024中国数字经济发展与法治建设论坛上的主旨演讲