早科技进度条08:1100:00/08:11
专家呼吁人工智能应该“倒退”,不少人疑问,AI真有这么可怕吗?
随着大模型火热依旧、AI热度不减,关于人工智能伦理的讨论一直占据话题热榜。前段时间,马斯克及一批行业专家建议暂缓AI研究,此后各大媒体网站关于技术伦理的报道就没少过。
本篇早科技专栏,也想跟大家聊聊技术伦理这件事。
技术的“副作用”其实是老生常谈
在人们对于现在AI发展的大规模恐惧之前,已经有不少文学作品和学术研究,针对技术伦理进行了深度详实的研究。
所谓技术伦理,简单说,就是警惕技术发展带来的对于人本身、以及社会发展的种种负面影响。这其中,工业发展(特别是计算机技术)对人的异化,是技术伦理课题中讨论的重点。
最典型的莫过于工业革命时期开始出现的流水线工人,卓别林的《摩登时代》,已然在大荧幕上将机器对人的异化进行了充分表现。流水线的工人没有自主能动性,只能跟随机器生产进行机械劳动。
当人的身体无法被自己的精神所自主控制,这就是异化。
工业发展到今天,带领社会进入一个人工智能随处可见的时代,最典型的异化,莫过于手机对人的控制。
看似是用户在“玩”手机,但事实上,一旦我们打开短视频App,抖音、快手亦或是小红书上充斥着新鲜且“趣味十足”的内容,用户很难不被海量刺激性的内容牵着鼻子走。等到意识到时间流失,可能在抖音上消耗的时间已经超过2个小时。
一些长视频APP也是如此,在点击全屏播放后,整个屏幕都找不到能够显示当前时间的地方。等到一集又一集播放完,我们抬头朝窗外看,才发现天都黑了。这就是工业发展对人进行异化的表现之一。
电子产品对人的控制和异化,已经越来越难以摆脱。
这也是人们恐惧人工智能的地方,随着大模型训练越来越智能,对于人们需求和情绪的把握越来越精准。我们面对AI就像面对一个懂得“花言巧语”的诈骗犯,无法从中抽离,也难辨真假,最后“乖乖”掏出所有。
对于精神的控制,对人的异化,是人类面对AI最深的恐惧,所有关于人类可能因为AI覆灭的悲观预言,都跟技术黑箱带来的不可控未来息息相关。
也正是因为这样的原因,在技术发展的同时,总会有不少有识之士对其保持警惕,警惕工业生产便利之余带来的“副作用”。
既然这不是一个新鲜话题,既然 机器生产带来的技术伦理问题已经如此多,却远不像今天的大模型训练和GPT让人来得恐惧?甚至呼吁停止更进一步的技术发展?
笔者以为,也许技术黑箱,也即AI的自动进化能力是其中一个重要因素。
把话语权抓在自己手上
当AI被嵌入一套能够自动进化的算法当中,它能够主动进行信息收集、自动清洗、为己所用、自动进化等一系列流程。这中间甚至不需要开发者的参与,AI就能够随着数据库的逐渐扩大,实现甚至超越开发者最初的目的。
据悉,深度强化学习已被应用于空战,机器学习被用于制造化学武器,GPT-4如今已经能自主进行实验和合成化学品。
仅掌握这些也许还不构成最大威胁,人们担心的是,目前AI训练的数据库中包含海量的日常信息。
当AI吸收了人类在互联网表达的一系列情绪和心理,能够获取到人类的恐惧情绪,获取到人类对于AI取代自身的担忧,甚至学会了欺骗和生成虚假信息,学会隐藏什么是它应该知道的,什么是它不应该知道的,也即不少人说的“自主意识”。
这可能是普通人对于AI最深的恐惧,我们害怕电影中的场景会很快成为现实。
ChatGPT在回答用户问题时,已经出现了很明显的错误,且笔者在使用过程中发现,这样的错误答案嵌在生成的完整答案中,并不十分明显,换句话说,这些错误的信息很容易被视为真实。
此前,百度因为竞价广告造成的医疗事故而成为全民讨伐对象,现在,如果提供答案的变成了这类应用还不成熟的AI助手,届时,谁又该为造成的事故买单?
以上AI会引发的问题,还只是冰山一角。
那么,是否该如一些行业专家建议的那样,停止开发GPT-4以上的人工智能应用?
百度CEO李彦宏在5月26日举办的中关村论坛上如是表示,“要参与规则的制定,就要先上牌桌,上了牌桌才能有话语权,才有全球竞赛的入场券,”他认为,相比于单纯讨论和思考AI威胁论,商业公司首先要缩短和国外AI大模型的差距。
李彦宏的言论代表自己,当然也代表百度,而有类似想法的,国内外从事科技和AI开发的研究人员,应该不止一位。
不知道各位读者是何看法,欢迎大家在评论区交流。但笔者以为,技术或者人工智能继续发展的风险,到今天似乎来到了顶峰,但关于技术产生的负面影响从来没有消失过。
过去几十年,对于大型科技公司收集用户信息并用于盈利这件事,一些发展中国家的用户很少意识到并进行强烈谴责。对于生活便利的追求,让很多人愿意用自己的隐私进行交换,将权利让渡给这些企业。
技术对于生活的改变并非今天才是新闻, 面对AI的焦虑已经存在许久,也许技术可以诱导人做决策,但或者我们可以对人的主体性和自主能力保持多一点的乐观和信心。
如果说进化论是真理,那么面对必然要到来的人工智能社会,人的主体性、情感、价值观也应该随之进化,并变得更加有价值,毕竟人工智能所需要的所有数据,还是来自于最初人类的创造,AI拥有“自主意识”,看起来更像是一种表象。
在前不久警惕AI风险的倡议中,中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,也签署了这份《AI风险声明》,并强调:“公开信的目的不是阻碍AI的发展,而恰恰是在探索AI稳健发展的途径。”
AI要稳健发展,比起停止开发,对于可能存在的犯罪进行预防和追责同样重要。对那些借助AI散播虚假信息和盗用隐私的一小撮人,及时进行法律追责。
用好法律,而不是把所有的虚假归咎于技术本身,而非对于创新的限制,也许是现阶段更加迫切的事情。
【免责声明】本文仅代表作者本人观点,不构成任何投资建议。