作者 | 周愚
编辑 | 邓咏仪
“我们必须对新兴技术的风险保持清醒和警惕,这些风险可能会对我们的民主和价值观构成威胁。”
美国时间7月21日,美国总统拜登在讲话中如此说道。当天,白宫宣布,7家人工智能领域的巨头经过与白宫数月的磋商后,“自愿”做出一系列承诺,以应对AI带来的风险。
这7家公司包括google、微软、Meta、OpenAI、亚马逊、Anthropic和Inflection。
7家AI公司的代表在白宫,与美国总统拜登共同宣布承诺。来源:Getty Images
在实质性的法律法规到来之前,拜登政府希望用“自愿承诺”的方式,实现人工智能技术安全、可靠和透明的发展目标。白宫官员承认,目前没有执行机制来确保这些公司遵守承诺,但正在制定一项有关的行政命令。
随着生成式AI的广泛运用,各类图文、甚至音视频的假消息开始泛滥,虚假信息传播成为了人们对AI的一大担忧。尤其是在美国2024大选前夕,这一议题受到了更多关注。
7家公司共同宣布,将开发例如水印系统的技术,以确保用户能够分别人工智能生成的内容。
此次,7家公司共同或部分做出的其他承诺还包括:
在今年6月,欧盟专员蒂埃里·布雷顿访问旧金山期间,就曾与OpenAI CEO奥特曼讨论过人工智能生成内容水印的问题。奥特曼当时表示,“很乐意很快”展示OpenAI对水印的处理。
尽管拜登称这些承诺是“真实而具体的”,但其中的许多项都有些模糊,缺乏具体执行的细节,反而更具象征意义。
例如,7家公司共同承诺,在行业内及与政府、民间社会和学术界分享有关管理人工智能风险的信息。不过,如何确定风险信息的披露范围、如何进行披露都存在待商讨的模糊地带。
不同AI公司对于信息披露的态度也截然不同。Meta对于其AI模型的分享显然更加开放,大部分模型均为开源,公开供所有人使用。然而,OpenAI在发布GPT-4时则称,出于对竞争和安全的考虑,拒绝公布模型的训练数据量和模型尺寸。
承诺中还指出,在发布AI模型之前,会对其进行内部和外部的安全测试。然而,这条承诺并没有明确说明这些模型需要经过什么测试,测试应当由什么机构完成,测试的具体标准是怎样的。
事实上,这些AI公司在发布模型之前,都宣称已经对其进行了内部的安全测试。不过,此次是这些公司首次集体承诺,允许外部专家对其模型进行测试。