[环球时报特约记者 陈欣]英国《金融时报》当地时间26日报道称,随着公众对人工智能(AI)技术的担忧日益加剧,谷歌、微软、Anthropic和OpenAI这4家人工智能领域最具影响力的公司一起成立了一个新组织“前沿模型论坛”。该论坛将“前沿模型”定义为能力超过现有最先进模型、能执行各种任务的大规模机器学习模型。
微软总裁布拉德·史密斯在联合声明中表示:“开发人工智能技术的公司有责任确保其安全性,并保障其处于人类控制之下。这项倡议是让科技行业携手努力,负责任地推进人工智能,应对挑战,使全人类受益。”
在谷歌博客网站上,“前沿模型论坛”公布了4个目标:推进人工智能安全研究,促进前沿模型负责任地发展,最大限度地降低风险,并实现对安全性的独立、标准化评估;负责任地开发和部署前沿模型,帮助公众了解技术的性质、功能、局限性和影响;与政策制定者、学者、民间组织和公司合作,及时预警相关风险;支持开发有助于社会应对最大挑战的软件,比如缓解气候变化、早期癌症检测和预防、应对网络威胁。
“前沿模型论坛”成立于这些科技公司向美国白宫发表自愿承诺之后。美国《华盛顿邮报》26日报道称,这4家公司21日在华盛顿承诺,将让专家对它们的系统进行独立测试,并开发工具帮助公众更好地识别人工智能生成的图像和视频。
美国彭博社称,最新一代的人工智能模型让人们看到了这些系统正拥有接近人类的智能,它们的迅猛发展给科技巨头带来了必须要谨慎行动的压力。在美国政府的敦促下,参与“前沿模型论坛”的公司已经制定了一些安全保障措施,美国国会也可能会通过一些约束性的法规,不过目前在美国,对人工智能的监管都是由公司负责。
据《华盛顿邮报》报道,硅谷的科技公司对自我监管并不陌生。社交媒体公司建立了“全球网络反恐论坛”,共同对抗抵制互联网上的恐怖主义通过互联网传播。脸书母公司Meta成立了一个监督委员会,该公司资助独立专家机构,负责对棘手内容进行权衡、审核。
然而,这些由行业主导的自我监管受到消费者权益倡导者的批评。他们认为,这些举措不仅将责任转嫁给第三方专家,还让这些进行自我监管的公司分散了政策制定者的注意力,导致相关立法一直没有得到落实。报道称,由政府主导的监管不会很快出台,立法正处于早期阶段。即使是一直致力于对人工智能监管立法的欧洲,他们的先进提案也需要数年时间才能生效。