参与支持

扫一扫关注

微信公众号

苏 宇:人工智能的分支式治理

发布时间:2024-07-12编辑人:qing



2024年6月1日,由中国经济改革研究基金会、中国法学交流基金会、中国科学院大学科技与法律研究中心三方共同主办的2024“中国数字经济发展与法治建设论坛”在北京成功举办。论坛以“人工智能技术发展与法律应对”为主题,坚持数字经济发展与规范并重,突出高端、前沿、权威,着重政策阐释和数字经济发展趋势展望,旨在为进一步推动“人工智能+”及数字经济发展贡献智慧与力量。

论坛发布了“2024中国数字经济发展与法治建设”十个重大影响力事件。现场使用人工智能技术现场生成新闻通稿和会议总结稿,展示了AI技术在文字生成方面的强大能力,邀请来自立法机关、司法机关、群团组织、政府部门和经济界、科技界、法律界及产业界等15位嘉宾作主旨演讲及主题发言。

经发言嘉宾同意,论坛主办方将陆续刊发嘉宾发言,供大家学习交流。

人工智能的分支式治理


苏   宇

中国人民公安大学法学院教授,博士生导师

中国人民公安大学数据法学研究院院长

64.苏宇.jpg

我今天讲的题目比较简单《人工智能的分支式治理》。为什么要讲这个题目?主要是人工智能立法相关研究的过程中,我发现了一个倾向,而这个倾向我觉得有必要跟大家再来讲清楚。我在参与学界一些有关人工智能法的讨论时,发现学界对人工智能立法存在一个可以说越来越显著的认知倾向,这个倾向对于我们未来人工智能法的制定可能会产生一定的误导,需要我们多加注意。从ChatGPT出来之后一直到去年的GPT-4,然后到各家大模型的兴起,很大程度上影响了学界对人工智能法的讨论对象。对人工智能法的很多讨论中,大家默认的对象都是生成式人工智能或者是大模型,这正是我要讲的问题。

人工智能法的制定,一定不能把生成式人工智能或者是大模型作为默认的调整对象,我们要使人工智能法涵盖整个人工智能的技术路线和应用场景。人工智能的整个图景是非常复杂的,我们要对它进行一个合理的分类,这个合理的分类我认为应该是分支式的,主要是一个“四层二分支”的结构。人工智能首先应该分成学习型和非学习型人工智能,然后对学习型人工智能要分生成式和非生成式。生成式要分成文本相关和文本无关,文本相关的生成式人工智能再分成基础模型和其他模型。每一层的划分都会导出几种有意义的法律规则,或者也可以叫规制增量。

我们先看一下最基本的快要被大家遗忘的人工智能的形态。就像刚才有位嘉宾引用国外专家的名言:“过去的人工智能是今天的自动化,而今天的人工智能可能是明天的自动化”,实际上现实生活中有很多其实是属于人工智能的东西,我们意识中已经认为它不属于人工智能了,但是恰恰它还是落在人工智能范围内的。在法律上我们把这类非学习型人工智能,即规则型人工智能,我们可以叫做自动化决策系统(ADSs)。法学界对ADSs已经有比较多的讨论,特别是在公法领域已经有比较充分的研究。非学习型的人工智能在我们日常生活中随处可见,也是人工智能法应当调整的对象。欧盟立法中区分人工智能模型和人工智能系统,人工智能系统里面其实就包含很大一部分非学习型人工智能。一般情况下,非学习型人工智能并不需要特别的规制,涉及到公共服务、公共职能的时候就可以借鉴ADSs现有的法律实践和法学研究。特别是其中一些代表性的主张,比如技术性正当程序。在已有研究里,我们已经有一系列的治理手段,比如留存记录、代码检查、系统测评、技术标准认证、人工干预、正当程序保护等等,也有一些比较重要的规制思路,这方面的治理手段是比较成熟和清晰的。

66.1苏宇.jpg

学习型人工智能带来了两个很重要的变化。第一个是带来了所谓的“算法黑箱”,并不是所有人工智能都有算法黑箱,实际上很多人工智能是白箱型的模型。从机器学习开始,算法黑箱就进入了我们的视野,因此我们需要算法解释。另外可训练和迭代的参数(权重+偏置)也进场了,我们仅仅要求代码公开也不足以实现算法透明义务,我们要进一步探索实现算法透明度和保障知情权的方式。所以,这个阶段产生了一些规制增量需求,最核心的是算法解释的需求,严格意义上来说是引入算法解释制度群的需求,这个算法解释制度群包括算法可解释性、算法透明度、算法解释请求权、说明义务等等一系列相互有关联但并不完全一样的东西。其他两项规制增量我就不详细讲了,比如模型备份,因为有参数,模型备份的要求就跟单纯的代码提交是不一样的。

我集中讲一下算法解释。在前几年人工智能法的研究里面,学者一度把算法解释作为算法治理的阿基米德基点,当时有一个可以称为“还原论”的想法:如果学习型人工智能比自动化决策系统只是多一个算法黑箱,我们把黑箱打开就可以还原成传统的自动化系统。在这个思路里面,我们就把算法解释作为一个最重要的研究点。对于算法解释的技术原理和实现路径,计算机学界已经为我们提供了很多支持,我自己持续关注的是上海交大张拳石团队的一个研究。比如他们提出了一个归因解释的标准,能够筛选出来满足几条特定标准的可靠归因解释,也就是筛选出来能够实现严格、精确的算法解释的几种归因解释方法。甚至他们可以通过设计一些AOG解释器,用因果图来完全编码DNN决策的路径,使因果图能够实现跟DNN完全相同的逻辑,进而提供可靠的因果解释。除了对大模型的解释之外,传统深入学习模型的解释已经研究得比较到位了,而对于大模型解释的可行性研究,现在刚刚起步。刚才有位嘉宾觉得对大模型的可解释性、安全可信等等表示比较悲观,确实是处于刚刚起步的阶段,不过我们努力的方向也不一定就不能实现,未来甚至有可能让大模型自己去解释自己。这两年计算机一些顶会的论文都在推进这方面的研究,比如自然语言解释(NLEs),怎么样做一个比较可靠的NLEs,我们也在关注这方面的事。这是学习型人工智能带来的关键变化和规制增量。

生成式人工智能冒出来之后,我们面临一个新的重要的增量,因为它具有了信息内容生产能力。信息内容生产能力会触发双重监管,在我们国家就是生成式AI的监管和深度合成服务的监管,这就带来了一系列的规制增量。如果我们仅仅是有学习型的人工智能,而没有触发生成式这个条件,比如人脸识别,比如著名棋类的AI,比如图像检测,我们对这些人工智能应用的规制很难进入到信息内容生态治理层面;而在有生成能力之后,在信息内容生态治理进来之后,我们就要面对一系列规章的规制,也是网信办非常关注的内容。

生成式人工智能里面又需要区分文本相关和文本无关,当我们开始处理语义,而最重要的承载语义的中介是文本,实际上它在很多场景里面或者在绝大部分场景里面就开始形成一个重要的东西,这个东西在我们的法条表述里面叫做“具有舆论属性或者政治动员能力”。如果触发了这个条件,新的规制增量就是著名的算法备案制度,还有一个互联网信息安全评估。这是“文本相关”这个分支带来的规制增量。

最后一个分支带来的规制增量,是在文本相关的生成式AI里面,我们要区分各种各样的模型,比如最重要的区分是基础模型和衍生模型。对于基础模型和其他衍生模型的区别,主要是基础模型存在两个关键的法治需求:第一个是战略竞争需要,基础模型的竞争涉及到很关键的一些战略竞争,特别是大国之间科技的竞争,需要法律引导和促进它的发展。另外在未来它可能也会作为新型数字基础设施而需要到特别的保护。

在我们人工智能算法起草的过程中,周辉和凌寒教授两个团队的专家建议稿中都注意到了要给某些基础模型特别的保护和促进,如果触发了一定门槛,也要有一些特殊的治理规则。但是具体怎么样进行保护和规制,目前学界还没有定论。对于生成式人工智能的分层治理,学界去年一直讨论到现在,还没有一个清晰共识。要不要对算法模型做分层,生成式AI的分层怎么分,是分两层还是三层,是强分层还是弱分层,对基础模型给予的特别保护的规则是什么,这方面我们在做进一步的研究。

我今天想要讲的内容主要就是我们对人工智能整个治理图景应该建立一种“四层二分支”的结构,这样我们才能比较科学地全盘考虑人工智能不同场景、不同技术原理、不同类型治理的需求,我在这里抛砖引玉,请大家多指教。谢谢!


苏宇2024中国数字经济发展与法治建设论坛上的主题演讲