作者: 高雅
[ 最近美国参议院对AI target=_blank class=infotextkey>OpenAI首席执行官阿尔特曼(Sam Altman)的听证会就是如此。他们知道,如果没有监管,人们将不信任技术,就有可能失去创新和进步。监管并不反创新,监管也可以支持创新,理解这一点非常重要。 ]自ChatGPT推向市场,人工智能(AI)能做什么,以及能做到什么地步,这些突破既使人们惊叹,也引发了人们的担忧。
从对个人数据的囤积和信息泄露,到诈骗,再到损害企业竞争,这些风险的威胁让各方提高了警惕。近一个月来,从七国集团会议领导人到科技公司首席执行官,都呼吁为人工智能(AI)技术制定国际标准和更强力的法规。
带着这些问题,第一财经记者专访了欧洲工商管理学院(INSAED)的决策科学和技术管理教授埃夫根尼奥(Theos Evgeniou)。
第一财经:为什么随着ChatGPT等生成性AI的普及,AI监管的重要性更突出了?
埃夫根尼奥:我们要意识到三点。第一,生成性AI有多强大。我认为几乎所有人,包括生成性AI的开发者,都没有预想到它们的能力。
第二,生成性AI的行为方式如何。现在有一些关于突现行为(emergent behavior)的讨论。这种行为可能比预期更有影响。而且,生成性AI涉及人类语言和人类身份。而人类语言是帮助我们定义“我们是谁”和“我们做什么”的重要部分。因此,如果技术可以模仿那些能够定义人类身份认同的东西,就带来了新潜在风险和新可能性。
第三,像ChatGPT这样的生成性AI技术是所谓“根基模型”(foundation models)。人们可以在这种模型的基础上开发大量产品,并能够进行微调。换言之,它们不是单纯的产品,而是核心技术,是人们可以开发的产品之核心所在。这种核心技术本身已经非常强大,我们甚至无法预测人们将依靠它们开发出什么。我们也从未仔细考虑过如何管控和规范根基模型。这是一种新概念。
第一财经:意大利等国禁用了ChatGPT,当我们担忧AI带来的风险时,我们到底在担心什么?
埃夫根尼奥:有些国家或企业会禁用这些技术,可能是因为有潜在的风险,比如能泄露重要知识和信息,也可能因为很难控制这种AI能带来什么。
例如,据报道,前几个月,韩国三星公司的工程师通过ChatGPT上传了代码,最后可能泄露了一些涉及公司知识产权的信息。因此,AI的使用存在知识产权和隐私风险,这是技术开发者禁用或限制使用它的原因之一。
另一方面,一些国家禁用它可能是因为存在政治或健康风险,这可能关乎人们的国家认同。具体来说,这些生成性模型有点像“特洛伊木马”。基本上,ChatGPT在某种程度上浓缩了全球互联网。因此,如果针对一个特定的网站,禁止访问它很容易,但有了ChatGPT,你无法知道这些网站的内容是否从中暴露。
所以,无论是开发商还是消费者,无论是企业还是国家,都有理由限制这些技术的使用。我们面对的是一种新的传输信息的方式,当你不知道到底会发生什么,要控制它就更难了。
第一财经:近期,我们看到了一些AI诈骗的现象,例如模拟名人或熟悉的人的声音进行电话诈骗。我们应该如何监管这种行为?
埃夫根尼奥:首先,这些技术本身可以被应用于一些有价值的创造,改善人们的信息流。比如,企业可以用这种技术来优化广告营销信息或开发创意内容。在美国大选中,也可以以此来优化电子邮件活动。
然而,一旦这种技术越界,就可能从“销售”或“营销”变成“操纵”,比如通过电子邮件进行钓鱼或传播错误信息,甚至是对未成年的人进行诱骗。这是长期以来一直存在的东西,只是有了生成性AI后,好的和坏的方面都被放大了。
很明显,我们需要其中一些部分进行监管。要注意的是,我们要规范和监管的是内容审核的过程,而非内容本身。一些国家和地区已着手制定有关内容审核的法规。例如,欧洲提出《数字服务法》(DSA),涉及规范在线平台的内容。在我看来,这是一个很好的法规,因为它带来了一个公平和透明的内容审核程序。
总之,我们需要法规来规范如何公平和透明地审核内容,至于内容来自人还是来自人工智能,这在某种意义上并不重要。
第一财经:欧盟即将对《人工智能法案》进行投票。你认为欧盟在AI监管上最侧重什么,与美国有何不同?
埃夫根尼奥:欧美在监管上有异同之处。从相似点来说,很多法规都是按照行业划分的。
举个例子,欧美航空领域的法规不会有太大区别。你在德国坐飞机或者在美国坐飞机,你应该不会询问其法规是否不同,因为它们最终都要保障安全。对AI技术也是如此,行业内很多事情在不同地区都是相似的。
坦白说,没有任何人完全了解AI技术到底会如何影响人类的权利。因此,这里有一个关键问题是,管控风险的时机——你要现在就插手控制风险,并早早地设置限制和标准?还是要等一段时间,看看AI技术的发展和应用,然后再进行监管,出台一些限制?
欧洲通常是前者,而美国在这方面则更有耐心。美国喜欢的方式是“不要着急,让我们看看它会如何,我们先允许创新,等有问题时再去解决它”。这是因为美国在决定行动时往往也非常迅速。我们已经看到金融危机后,美国改变事情的速度有多令人惊讶。这也符合美国愿意放手观察的做法。
第一财经:美国的治理方式对商业更友好吗,这是否意味着反监管的立场?
埃夫根尼奥:我不认为如此,因为商业是需要监管的。如果人们认为产品不安全,他们就不会购买产品。 即使在市场竞争方面,商业也需要监管。
总的来说,我认为没有人不需要监管。即使是科技高管也在说“监管我们”,最近美国参议院对OpenAI首席执行官阿尔特曼(Sam Altman)的听证会就是如此。他们知道,如果没有监管,人们将不信任技术,就有可能失去创新和进步。监管并不反创新,监管也可以支持创新,理解这一点非常重要。
但另一方面,监管的确也会减缓创新,当它增加了竞争难度,给一些小企业、投资和退出机制大大增加做事成本时尤其如此。例如,欧盟的《通用数据保护条例》(GDPR)导致了小企业成本骤增,其中大多是欧洲初创公司。这最终帮助美国大公司获得了竞争优势。从这个意义上说,这一结果与欧盟的目的恰恰相反。
关键之处在于,我们要理解,第一,没有完美的法规;第二,做事要平衡成本,这个成本可能是小企业的竞争,或是终端消费者的信任和安全。当你必须平衡各个因素,你无法一次得到最优解。你只能从某个地方着手,然后不断迭代更新、迅速响应。“边走边学”才是最重要的。
第一财经:但严格的监管可能会对商业和进步造成损害。我们应该如何在监管和创新之间掌握好平衡?
埃夫根尼奥:首先要明白,我们不会一次就做对,我们需要时间来矫正。因此,重要的是建立好的流程和体系,以便我们快速学习和更新。我们必须尽量思考我们未来能多快地适应它,而不是一直纠结今天该怎么做。
第二,我们必须了解问题的本质。例如,监管的成本有多高?成本不一定是金钱,也可能是可及性,比如一些公司可能因此无法获得数据或人才。
我们必须要理解不同的行业,不同的应用,或不同的背景知识,我们必须有基于AI资源的视角,了解人才、数据、计算、补充技术和资产的可用性等方面。只有掌握了这些,我们才可以就如何平衡创新与监管做出更好的决定。
我们不能出于恐惧而监管,这是不充分的,也是不正确的。它应该是一个持续学习的体系,有一个能够快速吸收和修复的路径。
同样,监管中必须有不可跨越的红线。欧盟的《人工智能法案》中就规定了不可发展的部分,比如不可用于社会评分。
我们还必须考虑需要配套发展的生态体系,比如保险。举例来说,如果由于人工智能而发生事故,谁来支付相应的赔偿。
在监管上,我们无法一次就做到最好,这将是一个不断学习的过程。