2023年对AI(人工智能)来说意味着什么?每个人可能都有自己的答案。这一年,AI真正进入公众视野。这一年,聊天机器人和其他生成式AI技术迎来爆发。也是这一年,政府及其他组织开始认真对待AI的风险。
在一组“照片”上,美国前总统特朗普狼狈地被一群警察追逐,并在混乱中被制伏。当时恰逢特朗普面临刑事诉讼,这些图片一时间引发了震惊和困惑,但很快被证实是AI生成的假照片。
类似的案例越来越多,担忧随之而来。AI技术使得虚假信息变得更加难以鉴别,可能被用于诈骗,也可能被用于影响舆论和选举。2024年将是全球选举大年,多国将迎来大选,AI技术将成为选举中的不确定因素。
监管AI的呼声渐起。从一封科学家和研究人员联名呼吁暂停开发AI公开信,到我国首个AI监管文件,再到全球首届AI安全峰会和欧盟首部“AI法”……这一年,AI安全已经上升为全球政治的中心话题之一。
生成式AI爆发
去年年底,一款新的AI聊天机器人问世,它以近乎人类的文字运用能力进行沟通。不久之后,更多的AI系统不仅生成文字,还生成图像、音频、视频和音乐等。这些系统被称为生成式AI。
人们渐渐开始使用AI进行娱乐、学习、写作、编程、制作图像和视频等。广告业开始通过AI帮助生成广告。科技服务公司使用AI帮助客户修复技术漏洞。艺术家运用AI创作艺术作品。众多企业开始寻求将生成式AI工具集成到其现有产品或服务中去。
英国一家研究机构11月发布的调查报告显示,英国约五分之四的青少年正在使用生成式AI工具,澳大利亚约三分之二的员工在工作中使用生成式AI。
甚至新的工作岗位开始出现,比如提示词工程师,他们通过设计适当的提示词,合理利用不同的AI模型,实现最优的输出内容。
业内人士预测,AI发展的下一个里程碑将是生成式AI系统变得更加多模态,即它能够处理文本、图像、音频、视频等多种类型的数据,这意味着AI将对现实世界有更深入的理解。
开启“潘多拉”之盒?
然而,新奇之余,担忧也开始显现。
在世界各地,学生开始让AI代写论文、作答家庭测验,引发了教育界的担忧,一些学校不得不禁止学生使用AI工具。
AI聊天机器人在回答中常常犯事实性错误。它们以绝对肯定的语言撒谎或胡言乱语。研究人员称这种现象为“幻觉”。开发AI聊天机器人的公司警告说,不能全部相信聊天机器人所说的话。
AI换脸和声音克隆技术被用于网络诈骗。不法分子可以使用这些新技术在视频通话中模拟他人的面部和声音,令人一时难以辨别真伪。
据追踪虚假信息的组织NewsGuard在12月发布的报告,自今年4月以来,该组织记录的利用AI制造假新闻的网站从49个激增至600多个,增长11倍有余。
9月,在斯洛伐克,全国选举投票日前夕,一段听起来像是一名候选人的声音的音频在社交媒体传播,音频中的声音似乎在描述通过贿赂部分选民来操纵选举的计划。事后,核查人员指出,音频有AI伪造迹象。
10月,阿根廷举行大选,两名领先候选人的团队和支持者都使用AI生成了大量宣传内容,被媒体称为全球首个“AI大选”。
分析人士认为,美国、印度、俄罗斯、墨西哥等国都将在明年迎来全国选举,AI制作的宣传内容和虚假信息预计都将出现大幅上升,可能成为影响选举的一大因素。
抢走人类“饭碗”?
对大众而言,更大的担忧或许是AI可能会取代人类的工作。
当生成式AI工具可以生成文字、图像、音乐、声音、代码等内容时,它们似乎威胁到任何从事相关领域工作的人。
今年5月,在美国,好莱坞编剧举行罢工,要求制片方禁止使用AI生成剧本,他们担心自己的工作会被AI取代。
高盛公司的一份评估报告预测,未来,生成式AI将可以取代目前人类工作岗位总量的四分之一,仅在欧盟和美国,3亿个人类工作岗位可能因AI而消失。不过,生成式AI也会造就许多高创造力的新岗位。
美国未来学家马丁·福特认为,在AI面前,短期内相对安全的职位有三类:真正创新性的工作,比如提出新的商业策略和法律策略等;需要复杂人际交往的工作,比如护士、商业顾问和调查记者;需要大量移动性和灵巧度的技术工种,比如电工、管道工、焊工等。
把AI管起来
AI技术爆发式发展,AI监管随之而起。
3月,一批AI科学家和研究人员呼吁暂停AI开发六个月。“只有当我们确信其影响将是积极的,其风险将是可控的时候,才应该开发强大的AI系统。”他们在信中说。
当然,AI开发没有因为这封信而暂停。但这封信传达了一个强烈信号,即人类已经到了需要关注AI带来的风险的时刻了。
同月,联合国教科文组织总干事奥德蕾·阿祖莱发表声明,呼吁各国尽快实施该组织通过的《人工智能伦理问题建议书》,为人工智能发展设立伦理标准。
7月,中国政府发布《生成式人工智能服务管理暂行办法》,以促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。
10月,美国总统拜登签署行政命令,推动15家AI领域领军企业自愿承诺推动安全、可靠和可信的AI发展的工作,并建立AI安全的新标准。
11月,首届全球人工智能(AI)安全峰会在英国举办,包括中国、美国、英国在内的28个国家及欧盟共同签署了《布莱切利宣言》,承诺以安全、以人为本、值得信赖和负责任的方式设计、开发、部署和使用AI。
12月,欧洲议会、欧盟成员国和欧盟委员会三方就《人工智能法案》达成协议,该法案经过多年辩论,为AI应用设置了规则和风险分级制度,这是全球首个针对AI的主要法规。
2023年4月14日,新京报专访加利福尼亚大学伯克利分校计算机科学教授斯图尔特·罗素报道版面。
今年年初,AI聊天机器人突然走红。人们在新奇中夹杂疑虑。恰逢一批科学家和业内人士写了一封公开信,呼吁暂停正在进行的AI开发竞赛,并警告AI的风险。
这封公开信的末尾附着一连串响亮的名字:图灵奖得主、蒙特利尔大学教授约书亚·本吉奥,加利福尼亚大学伯克利分校计算机科学教授、智能系统中心主任斯图尔特·罗素,特斯拉创始人埃隆·马斯克,苹果联合创始人史蒂夫·沃兹尼亚克,以色列学者尤瓦尔·赫拉利……
我们顺着这份名单一个接着一个联系,多数人出于各种原因没有接受采访。幸好,斯图尔特·罗素回复说可以通过邮件回答一些问题。罗素是国际人工智能联合会议(IJCAI)两项大奖得主,其与他人合著的《人工智能:一种现代的方法》被誉为人工智能领域最受欢迎的教材。
我们与罗素在两周时间内断断续续地沟通了十几封邮件。罗素及一批科学家担心的AI风险,并不只是我们目前能够看到的信息不准确、利用AI造假等,更多是对未来不确定性的担忧。
他进一步解释道,大型语言模型是非常大的“黑箱系统”(Black-box system),即一个系统的内部运作方式对于外部观察者是不可见的或难以理解的。因此,即使我们赋予AI的是一个善意的目标,它仍可能带来灾难性后果。
罗素假设了一个场景:假如抽掉大气中的氧气可以阻止气候变化,人类肯定不会同意这种方案,因为没有氧气会导致所有人类灭亡,但AI可能会认为这个方案是没有问题的,因为这个方案可以实现其预设的阻止气候变化的目标,且它自身也不需要依靠氧气来生存。
对于罗素提出这个假设,业界正在试图给出解决方案。不少AI模型开发商采取“基于人类反馈的强化学习”(RLHF)技术,绕过了给AI设置目标这一风险环节。通俗来说,RLHF有一点像驯狗,人类评估员对AI作出的不同响应给予“奖励”和“惩罚”,以此来规范AI。另外,有研究团队提出编写一部AI“宪法”,即一套AI必须遵守的规则和价值观来规范AI。
但这两种路径各有短板或难点。前者需要大量的人力,且对于今后可能出现的超越人类思维能力的AI来说,这一方法可能不会奏效。后者的问题之一是谁来编写这些规则,应该由专业人士操刀还是应该鼓励大众参与。
AI监管领域遇到的另一个难题是技术发展快,去年的AI监管方案可能今年就过时了。比如,欧盟前几年在讨论AI监管时,还没有遇到生成式AI爆炸式发展。因此,今年欧盟在通过“AI法”之前,不得不对其进行大幅修改。
回到年初科学家们发出的那封公开信,其实他们很明白,从可行性角度来看,在世界范围内协调所有政府、企业叫停AI开发是一件几乎不可能的事。罗素自己也说,这封公开信的意图是引发世界各地媒体和政府的关注。在过去一年内,首届全球AI安全峰会召开,首部“AI法”诞生,注意力和资源都开始涌入这一领域,罗素等人的意图无疑是实现了。
新京报记者 陈奕凯