你担心被人工智能取代吗?
赫拉利曾说,自计算机时代开始以来,对人工智能的恐惧就一直困扰着人类。而这个问题似乎在ChatGPT出现后,离每个人又近了一些。以chatGPT为代表的大型生成式预训练语言模型,被认为是打通了人类与机器之间的沟通障碍。不同国家之间的语言壁垒、不同职业之间的专业词汇壁垒,似乎只要通过输入自然语言就可以解决。语言“巴别塔”正在被科技打破。
未来呢,当人机共存时,世界会是怎样?人类会被大模型取代吗?想要共存,应该如何做?9月7日,外滩大会上传出了一些思考的声音。
出现大模型是一种必然
技术加速发展、世界的变化越来越快。chatGPT横空出世,不到两个月就突破1亿月活用户,而此前最火爆的应用软件TikTok实现同一个目标用了9个月。
“我们做技术的,每天早上睁眼一睁眼,最担心的一件事情就是,是不是又出现新的革命性技术?饭碗还牢不牢固?”复旦大学计算机科学技术学院教授肖仰华笑着说,技术爆炸的时代,从未有一个时代变化发生的如此之快。
加速的变化让世界越来越复杂,继而导致世界发展的不确定性日益增加。放眼全球,老龄化趋势加剧、自然灾害频发、政治环境严峻、经济预期下滑,各类因素交织,社会发展的失控风险也在增加。
但与此同时,人类的认知能力是有限的。“受限于缓慢的生物进化速度,现在的人类并不比古人聪明多少。”肖仰华说,这也就带来了当下人类面临的一大挑战——有限的认知水平难以应对当下日益复杂、变化增速、失控风险增加的世界。
反观大模型,十年后可能早已跳出人类现在对它的想象框架。随着训练集的数据和算力持续增长,从原理上来讲,机器的认知能力可以和世界不断增长的复杂性保持同步。
因此,出现这样的大模型是一种必然。“要想应对当下人类社会的众多问题,必然要发展出具备高度认知能力的大模型。”肖仰华说。
完美的未来?
根据皮尤中心近期的一项调查报告显示,42%的专家对2035年会看到的“人类+技术”演变的变化既兴奋又担忧。
大模型确实可以解决生活和工作中的一些问题。复旦大学哲学学院教授王国豫在圆桌会谈中分享,自己也会在写完英文论文后用chatGPT润色,“确实比自己写得好”。
另一边,在讨论未来之前,当下由大模型等人工智能带来的诸多隐忧已经在显现。人机边界日益模糊,传统的图灵能测试已经难以胜任大模型时代的人机区分任务,仿真机器人、仿真主播层出不穷。当真真假假难以分辨,虚假信息、欺诈泛滥等社会治理问题一一显现。“人工智能的出现,是在用科技之矛击毁科技之盾,让人知道眼见不一定为实。这会重塑人的认知观念。”小i集团董事局主席兼CEO袁辉说。
同时,GPT4等大规模生成式语言模型在“形式上”具备了人类思维的核心能力,包括语言理解、尝试理解、逻辑推理、运筹规划等。“它有很多能力都是在模拟人类的认知能力,同时它也具备了成为一个自治智能体大脑的能力。”肖仰华说。
此时再看未来,具备认知能力的自治通用人工智能,还只是传统意义上的工具吗?
肖仰华最担心的是用进废退。当大模型越用越好用,人就会越来越依赖它。当大量写作任务交给了机器,人就被剥夺了锻炼思维的机会。“而这带来的智力的倒退,则有可能带来人类主体性的倒退。”
重新认识自己
事实上,对于人工智能是否会代替人类,目前没有人能给出笃定、清晰的回答。但是在外滩大会,我们看到了这个问题的另一个共识,即影响这个回答的关键因素是认知,也就是人类能否重新认识自己和世界。
一个人很难做到通识,但大模型可以做到。论坛上很多嘉宾都提到一个共性影响,大模型是海量的知识容器,这会让知识变得廉价。“我们要让生成式人工智能帮人类挤出知识的水分。”中国社会科学院哲学所科技哲学研究室主任段伟文表示,大模型可以看作人类智能的镜子。
生成式人工智能表明,我们在很大程度上一直在模仿知识和意义。“通过这面模仿智能的镜子,可以逼迫我们不再假装知道不知道的事情,不再表达你没有感觉到的东西。可以让人工智能为你完成无聊的任务,但不应该让人工智能替你做决定。”
在段伟文看来,大多数语言和思考不过是模仿。像简报、会议、备忘录、提案、时间表和发票、代码和代码审查等,在人工智能开始模拟它们之前,屏幕上的工作都是对它们本身的模拟,“现在是时候把模拟的模拟留给机器了。”
回到开头,想要保持人的主体性,应该如何做?重新构建人机关系是论坛上传出的答案。未来,人类和人工智能一定不再只是使用者和工具,而是顾问、咨询、辅助和合作的关系。
在肖仰华看来,重构人机关系,首先要重新构建人的价值和机器的价值。
在创新创造的过程中,大模型擅长常规性、重复性信息处理型工作,能够完美胜任“生成”部分。人,则应该做提示,以及评估、解释、判断、选择的工作。“评估比生成重要,鉴赏比创作重要;谋划比执行重要,构思比执笔重要;提问比回答重要,质疑比遵从重要。”肖仰华说。
仔细思考这句话,我们也不难发现更重要、难以被替代的永远是掌握主动权的角色。因此,在他看来,人机共生时代,人最重要的能力是使用和驾驭AI的能力。当各界都在思考如何把人工智能做大做强时,另一个问题也同样重要,如何把大模型的能力控制在某种边界范围内。
当前大模型还不具备自我意识,但未来不一定没有。对人类来说,这是安全底线,毕竟,“没有人的文明是毫无意义的。”肖仰华说。