《中国经济周刊》 记者 王红茹|北京报道
随着科技的飞速进步,人工智能(AI)已逐渐渗透到社会生活的方方面面,从千行百业到衣食住行,AI技术在赋能发展和提升效率的同时,也带来了一系列新问题和新挑战。尤其是在公共管理领域,如何在享受技术红利的同时,又规避安全风险,至关重要。比如人脸识别技术是AI领域的一个重要应用,但如何在使用的同时保护好个人隐私和数据安全?AI成为创作者是否会引发知识产权深刻变革?AI法律监管体系如何完善?……
AI到底应该如何“管”?针对上述问题,《中国经济周刊》记者邀请了清华大学公共管理学院教授、人工智能治理研究中心主任梁正,北京市政协经济委员会副主任、振兴国际智库理事长李志起,中国政法大学传播法研究中心副主任朱巍,对外经济贸易大学数字经济与法律创新研究中心主任许可,从各自的专业领域来解疑释惑、建言献策。
梁正:AI大模型对公共管理带来机遇与挑战
AI大模型是指具有极其大规模参数(通常在10亿个以上)和超强计算资源的机器学习模型,它的应用有助于赋能政府的治理转型,通过构建“智能体”来推动公共服务的智慧化跃升,并为政府长期以来的数字化建设提供新的技术助力。具体而言,AI大模型为公共管理转型提供了以下潜力。
第一,深度挖掘政务大数据,优化政务决策模式。传统政务决策模式往往受限于决策者的有限理性,只能实现决策方案的局部最优,并遵循“渐进式”的决策优化逻辑。相比之下,AI大模型能抓取海量的政务大数据,从中提炼出有价值的信息,利用强大的数据处理能力开展训练和分析,以预测为导向实现全局最优决策。在这一方面,AI大模型不仅可以直接提高预测的可靠性与准确率,而且能够为决策者提供间接性的信息支持。
第二,创造虚拟行政人员,推动新型政民互动。传统政民互动方式以行政人员与公民的点对点交流为主,这既可能引发公众对于行政人员自由裁量权的担忧,也可能增加行政人员的工作负担和职业倦怠。相比之下,大模型可以同时处理多项公民诉求,实现情境性、个性化的响应与反馈,保证服务的效率与一致性,并将行政人员从繁琐化、机械化与重复性的行政事务中解放出来。
第三,推动组织数据集成,整合跨领域政务运作。庞大政府组织往往面临着不同部门的“信息烟囱”与“各自为政”等困境,这不仅源于部门间缺乏数据共享动机,而且受到数据标准不一致的制约。相比之下,大模型可以解决复杂数据的整合问题,为数据的获取、传输、存储、训练、分析与应用提供技术支撑。同时,大模型可以适用于不同的政务服务场景,这为不同部门间共享和协调本部门数据提供了有效激励。
尽管如此,仍需警惕AI大模型的开发与使用带来的公共价值困境。
首先是AI大模型的“黑匣子”问题。人工智能技术一直被诟病于不可访问性、不透明性和不可解释性的“黑匣子”属性,政务大模型中的“智能涌现”(指人工智能大模型参数量超过一定规模后能力会陡然提升,可能会出现预期之外的能力)更是加剧了这一问题。大模型“智能”背后原因和逻辑的缺失会降低其结果的可信性与合法性。
其次是AI大模型的隐私与价值问题。AI大模型依赖于海量的政务数据作为输入,这些数据通常涵盖了公民的个人信息,造成模型训练与公民隐私间的冲突。同时,AI大模型的输出可能会面临价值权衡的问题,在美国和荷兰发生的一些人工智能事故就反映了效率与公平间的张力,造成了恶劣的社会影响。
最后是AI大模型的风险与问责问题。AI大模型的高度技术复杂性降低了公共管理者在行政流程中的自主性,并可能产生技术依赖,导致管理者难以进行有效监督和审核,造成公共风险的累积与放大。同时,AI大模型在公共问责上存在着“多手”和“多眼”的问题:能否厘清不同主体的问责分配,以及能否满足不同利益相关者的诉求。
因此,需要通过合理的治理机制和伦理监管,确保其应用既符合技术进步的要求,也顾及公共利益和道德伦理的标准。在这一方面,公共管理者应当始终坚持“以人为本”的基本原则,以公众的实际感受为尺度,鼓励公众参与到人工智能大模型的部署、运行、评估与反馈中来。
李志起:AI人脸识别技术需规范与发展并行
随着科技的飞速进步,人工智能(AI)已逐渐渗透到我们生活的方方面面,其中人脸识别技术作为AI领域的一个重要应用,正广泛应用于安全监控、金融支付、身份验证等多个领域。然而,任何技术的双刃剑效应都不容忽视,人脸识别技术在带来便利的同时,也引发了一系列关于隐私保护、数据安全和伦理道德的讨论,近期上海市要求不得对旅客进行“强制刷脸”核验的通知也引发舆论的广泛关注。
人脸识别技术的广泛应用,为社会治理和公共服务提供了强有力的技术支撑。比如,在公共安全领域,人脸识别技术可以帮助警方迅速锁定犯罪嫌疑人,提高案件侦破效率;在商业领域,该技术可以提升客户体验,实现无接触支付等功能。但是,技术的双刃剑效应也在人脸识别技术上表现得淋漓尽致。一方面,由于人脸识别技术的高度精确性,使得个人隐私泄露的风险大大增加,一旦数据被滥用或泄露,后果不堪设想。另一方面,误识和滥用的可能性也引发了公众对于技术可靠性的担忧。
因此,规范AI人脸识别技术的发展势在必行。首先,需要从立法层面对人脸识别技术进行规范。2023年8月8日,国家网信办发布了《人脸识别技术应用安全管理规定(试行)(征求意见稿)》,对明确人脸识别技术的使用范围、数据处理方式和责任主体,确保个人隐私不受侵犯等方面拟作出新规定;2024年7月1日起即将施行的消保法首部配套行政法规——《消费者权益保护法实施条例》也要求不得过度收集消费者个人信息。笔者同时认为,对于违规使用人脸识别技术的行为,还应给予严厉的法律制裁,以此来保护公民的合法权益。
其次,行业内部应建立起严格的自律机制。企业作为技术开发和应用的主体,有责任也有义务确保其所使用的技术不会侵犯用户隐私。这就要求企业在开发和应用人脸识别技术时,必须遵循相关的法律法规,同时还需要建立起完善的数据保护机制,确保用户数据的安全性和完整性。
此外,公众对于人脸识别技术的认知和接受程度也是影响其发展的重要因素。因此,加强公众的科学素养教育,提高公众对于新技术的认知和理解能力,也是推动人脸识别技术规范发展的关键一环。只有当公众充分了解并信任这项技术时,它才能更好地服务于社会。
同时,必须要注意的一个问题是,规范人脸识别技术并不等于简单“一刀切”叫停该技术的发展。人脸识别技术作为人工智能领域的一个分支,其发展也必将受到人工智能技术整体发展趋势的影响。随着5G、云计算、大数据等技术的不断发展,人脸识别技术也将迎来更多的应用场景和发展机遇。因此,在规范人脸识别技术发展的同时,我们还应积极探索其在各个领域的应用潜力,推动其与其他技术的融合发展。比如,我们应进一步鼓励技术创新,通过技术手段来提高人脸识别技术的准确性和可靠性,应充分考虑不同地区和群体的实际需求,确保人脸识别技术的普及和惠及面。因此,在推广人脸识别技术时,需要充分考虑不同地区和群体的实际需求,确保技术的普及和惠及面。
公众期待一个更加智能化、便捷化、安全化的社会环境,人脸识别技术无疑将是实现这一目标的重要工具之一。在这一技术的发展中,只有通过全社会的共同努力和协同治理,才能确保人脸识别技术能够健康、有序地发展,并最终造福于人类社会。
朱巍:AI创作或引发知识产权深刻变革
AI大模型的快速发展在全球范围内带来了空前的生成式人工智能(AIGC)热潮。比如,人们只需要输入一些提示词,AI就能相应地产出你想要的文章、视频、音频、图像等。当前,生成式人工智能正在引发新一轮人工智能革命,AIGC不仅改变了信息和知识的生产方式,重塑了人类与技术的交互模式,还开启了我们对于通用人工智能的无穷想象。但人工智能也有“成长的烦恼”,比如,一个近在眼前的问题是:AI作品是否享有著作权?
基于现有的法律体系,这些生成的作品是否受到著作权法保护有一定争议,应该分类型来具体分析。
第一个问题:明确AI作品版权主体。
AI作品的著作权涉及多个主体。首先,AI使用者是第一个主体。比如,AI使用者通过AI工具画了几幅画,这些画到底有没有版权?从此前法院判例看,AI使用者拥有这些画的版权。但这个判例的基础,是基于AI服务提供者与网民协议缺乏具体版权约定的情况下作出的。若使用者在接受服务之前,与服务提供者之间有版权协议的话,版权的最终归属权还是要看协议约定。
AI作品的第二个主体是AI服务提供者,主要是指人工智能的软件或平台有没有对生成作品的版权。这个需要根据使用者协议来进行判断,AI在使用的过程中,如果与AI生成者没有特殊性约定,AI作品的著作权归使用者,平台很难获得版权。
第三个主体是AI学习的物料版权问题。AI之所以会变得智能,肯定要学习很多物料。AI机器在学习的过程当中,需要使用大量的享有版权的内容,才可以不断地去完善。那么,AI学习过程中使用享有版权的内容构不构成侵权,这也是目前法律上一个具有争议性的问题。据了解,目前不管是国内还是国际规定,AI学习的物料应当是之前有版权或之后获得版权人许可。
第二个问题:AI版权立法应跟得上时代发展。
AI没有出现之前,一个作品之所以拥有版权的一个基本原则叫“额头出汗”原则,“额头出汗”原则(或称辛勤原则)是一条知识产权法律原则,尤其关系到著作权法。根据这条法律原则,作者通过创作时所付出的劳动就可获得著作权。但是在AI出现以后,获得的作品是否付出了相关劳动就不好判断,因为大部分工作是由AI完成,这给版权权利授权造成冲击。现在所有的版权制度,基本都是基于工业革命时代形成的版权体系。即便我国的著作权法已经修改了三次,其实也是工业时代的著作权法,并不是互联网时代的法律。
第三个问题:以技术对技术的版权保护模式。
针对AI著作权问题,用区块链技术+智能合约的方式加以分配更为妥当。区块链以分布记账的方式确保作品的可追溯、不可篡改,智能合约则侧重作品使用的利益分配。二者结合,可以将技术在一定程度上代替制度,妥善处理AI作品使用、处分和利益分配等问题。
其实版权保护的核心不在于不让使用未经权利人许可的内容,重点在于鼓励创新。所以要做到既鼓励创新、保护权利人,又能平衡社会整体发展的权利,区块链中的智能合约的分成制度是可以做到的,可以将当前的著作权法中的相关规定放到区块链上,这就是法律的技术化过程。
总之,人类创作方式的变革,将会引发知识产权的深刻变革,引发知识产权的主体、客体和内容三个方面的深刻变革。我们的思维不应仅停留在工业时代的立法,应全面进入到AI时代。
许可:AI不断进化,法律应改进式创新
40年前,英国社会学家科林格里奇曾言:当某项科技还没完全成熟和广泛应用之时,法律尚有机会和能力去影响其发展,但此时我们并不知道它会带来何种社会后果;相反,当我们可以清楚预见到某项科技引发的后果时,它往往已经成熟且被广泛使用,以至于法律很难对其作出实质性改变了。这就是“科林格里奇困境”。当然,人工智能恰恰是这样一种影响未知但又潜力无穷的科技。不仅如此,人工智能作为“未完成之事物”,进一步加剧了科林格里奇困境。
为了化解人工智能的科林格里奇困境,各国纷纷未雨绸缪。但是,各国争先恐后的立法未必是最佳的回应举措。其中道理至为简明:如果缺乏对人工智能规律和趋势的充分认识,只能陷入“法令滋彰,盗贼多有”的窘境,而这正是科林格里奇困境的本质问题。然则,有无解决之道?
其实,解决问题的关键是放弃整全式的人工智能立法构想。与科技的颠覆性创新不同,法律永远是改进式的创新。新的立法绝不是要废止在同一调整范围内的一切旧法,而是通过补充使之完善。将此观点运用于我国的人工智能立法,一方面可以从既有制度汲取经验,另一方面则应采取应改尽改的原则,使法律与人工智能发展同频共振。
就前者论之,我国的算法规制可首先作为人工智能法律的重要内容。2021年12月,国家网信办会同工信部、公安部、市场监管总局出台了《互联网信息服务算法推荐管理规定》,该规定可谓对算法相关问题的阶段性法律回应;2022年11月,国家网信办联合工信部、公安部发布了《互联网信息服务深度合成管理规定》,明确了深度合成服务的适用范围、深度合成服务提供者、使用者以及技术支持者的相关义务规定与安全主体责任,加强了对互联网信息服务深度合成的监督和管理。
其次,个人信息保护法下自动化决策规则对于人工智能治理有重要参考价值。所谓自动化决策,是指通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,并进行决策的活动。该法规定:“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。”“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”
再次,规范科技伦理的审查工作有利于降低人工智能的伦理风险。2023年9月,科技部等部委联合发布《科技伦理审查办法(试行)》,规定“具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发”及“面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发”均需要开展伦理审查复核。
最后,生成式人工智能规则为人工智能立法提供经验储备。2023年7月,国家网信办等联合发布《生成式人工智能服务管理暂行办法》,规定了生成式人工智能服务提供者与使用者的合规举措,确立了分类分级监管与行业部门监管相辅相成的监管体系。就后者论之,人工智能的发展也给个人信息保护法、数据安全法、网络安全法、电子商务法、著作权法、民法典等一系列法律带来了冲击,亟待通过修法予以调适。