硅谷大数据公司Palantir首席执行官亚历山大·卡普(Alexander Karp)表示,就像电影《奥本海默》中这位科学家在原子弹爆炸后才意识到他开发的这一技术的影响一样,人工智能开发人员也可能在为时已晚的时候才意识到这项技术的潜在危害。
卡普在一篇评论文章中写道:“在计算机科学领域,我们现在已经走到了一个类似的十字路口,一个连接工程学和伦理学的十字路口,在这里,我们将再次不得不选择是否继续发展一项我们尚未完全了解其力量和潜力的技术。”
卡普说,人工智能被整合到我们周围世界存在的无数技术系统中,最终可以与先进的武器系统相结合,并补充说,人工智能能够部署致命武器并非不可能。
他写道:“随着人工智能网络变得越来越大、越来越有能力,用它们来构建高效的武器系统变得越来越诱人,这与二战期间核弹发明者面临的道德困境相呼应。”
“诸如此类关于人工智能进一步发展的担忧并非没有道理。我们正在开发的软件可以部署致命武器。武器系统与日益自主的人工智能软件的潜在集成必然带来风险。”
卡普认为,虽然人工智能和机器学习技术确实非常强大,但叫停这项技术的发展是没有根据的。
就像AI target=_blank class=infotextkey>OpenAI首席执行官萨姆·奥特曼(Sam Altman)呼吁的那样,卡普主张建立一个监管框架,以建立“护栏”,确保这项技术以积极的方式发展。