《人类简史》的作者尤瓦尔·赫拉利周二警告称,人工智能是一种可能消灭人类的外来威胁:“它不是来自外太空,而是来自加州。”
人工智能技术被广泛誉为一场“革命”,但以色列历史学家和哲学家赫拉利认为,这是一种可能导致人类灭绝的“外来物种”。会引起。
赫拉利周二在伦敦的一次活动上对观众说:“人工智能与我们在历史上看到的任何其他发明,无论是核武器还是印刷机,都有着根本的不同。”
“这是历史上第一个可以自己做决定的设备。原子弹不能做出决定。在广岛投下原子弹的决定是由一个人做出的。”
赫拉利说,这种独立思考能力带来的风险是,超级智能机器最终可能会取代人类成为世界的主导力量。
他警告称:“我们可能在谈论人类历史的终结——人类统治时代的终结。很有可能在未来几年内,它将消耗掉所有的人类文化,(我们自石器时代以来取得的一切成就),并开始萌芽一种来自外来智慧的新文化。”
根据赫拉利的说法,这提出了一个问题,即技术不仅会对我们周围的物质世界产生什么影响,还会对心理学和宗教等事物产生什么影响。
他辩称:“在某些方面,人工智能(比人类)更有创造力。最终,我们的创造力受到生物生物学的限制。而它是一种无机智能,真的很像外星智慧。”
“如果我说外来物种将在五年内到来,也许他们会很好,也许他们会治愈癌症,但他们会夺走我们控制世界的能力,人们会感到害怕。
“这就是我们所处的情况,但威胁不是来自外太空,而是来自加州。”
AI target=_blank class=infotextkey>OpenAI的生成式人工智能聊天机器人ChatGPT在过去一年中取得了惊人的增长,成为该领域重大投资的催化剂,大型科技公司也加入了开发世界上最尖端人工智能系统的竞赛。
赫拉利的著作考察了人类的过去和未来,但他认为,人工智能领域的发展速度“让它变得如此可怕”。
“如果你将其与生物进化进行比较,人工智能现在就像阿米巴变形虫——在生物进化中,它们花了数十万年的时间才变成恐龙。而有了人工智能,变形虫可以在10到20年内变成霸王龙。问题的一部分是我们没有时间去适应。人类是一种适应能力极强的生物……但这需要时间,而我们没有那么多时间。”
赫拉利承认,之前的技术创新,如蒸汽机和飞机,都提出了类似的人类安全警告,“最终还可以”,但谈到人工智能时,他坚称,“最终还不够好。”
他说:“我们不擅长新技术,我们会犯大错误,我们会尝试。”
例如,在工业革命期间,人类“犯了一些可怕的错误”,他说:“我们花了一个世纪,一个半世纪,才把这些失败的实验弄对。”“也许这次我们逃不掉了。即使我们这样做了,想想在这个过程中会有多少人的生命被摧毁。”
尽管赫拉利对人工智能发出了可怕的警告,但他表示,我们仍有时间采取行动,防止最坏的预测成为现实。
他说:“我们还有几年,我不知道有多少年——5年、10年、30年——在人工智能把我们推到后座之前,我们仍然坐在驾驶座上。我们必须非常小心地利用这几年。”
他还敦促那些在人工智能领域工作的人考虑一下,在世界上释放他们的创新是否真的符合地球的最佳利益。
“我们不能只是停止技术的发展,但我们需要区分开发和部署,”他说,“仅仅因为你开发了它,并不意味着你必须部署它。”