译者 | 布加迪
人工智能(AI)无疑是我们这个时代的流行语。特别是随着ChatGPT等生成式AI应用程序的出现,AI大受欢迎,成为了技术大辩论的核心话题。
所有人都在谈论像ChatGPT这样的生成式AI应用程序的影响以及利用它们的能力是否公正。然而,面对这场完美风暴,围绕AI一词的种种谎言和误解突然随之激增。您可能已经听过很多这样的谎言和误解了。
不妨深入研究这些谎言,戳穿它们,以了解AI的真正本质。
与普遍的看法相反,AI一点也不智能。现在大多数人确实认为基于AI的模型很智能。这可能是由于“人工智能”这个名称中含有“智能”一词。
但是智能是什么意思呢?智能是生物体独有的一种特征,其定义是获取并运用知识和技能的一种能力。这意味着智能使生物体能够与周围环境相互作用,从而学会如何生存。
另一方面,AI是一种机器模拟,旨在模仿这种自然智能的某些方面。我们接触的大多数AI应用程序(尤其是在商业和在线平台领域)都依赖机器学习。
这些是专门的AI系统,使用大量数据进行特定任务的训练。它们擅长完成指定的任务,无论是玩游戏、翻译语言还是识别图像。
然而一旦超出其预期范围,它们通常是无用的……在一系列任务中拥有类似人类智能的AI这个概念被称为通用AI,我们离实现这个里程碑事件还很遥远。
科技巨头们常常竞相吹嘘自家的AI模型的规模有多庞大。
Llama 2开源LLM以强大的700亿参数版本让世人感到惊讶,而谷歌的Palma拥有5400亿参数,OpenAI最近发布的ChatGPT4更是拥有1.8万亿参数。
然而,LLM的成百上千亿个参数不一定意味着有更好的性能。数据的质量和训练方法常常是决定模型性能和准确性的更关键因素。斯坦福大学的Alpaca实验已经证明了这点,一个简单的使用70亿参数的基于Llama的LLM其性能可以与多达1760亿参数的ChatGPT 3.5相媲美。
所以并非始终是越大就越好!优化LLM的大小及其相应性能将使这些模型在本地得到更广泛的使用,并让我们可以将它们集成到日常设备中。
一个常见的误解是,AI是神秘的黑盒子,缺乏任何透明度。实际上,虽然AI系统可能很复杂,仍然相当不透明,但业界正在努力提高其透明度和问责制。
监管机构要求有道德、负责任地使用AI。《斯坦福人工智能透明度报告》和《欧洲人工智能法案》等重要举措旨在促使企业提高AI透明度,并为各国政府在这个新兴领域制定法规提供基础。
透明AI已成为AI社区的一个核心讨论话题,涵盖众多问题,比如允许个人确定AI模型全面测试的流程和理解AI决策背后基本原理的流程。
这就是为什么全球各地的数据专业人士已经在研究使AI模型更加透明的方法。
所以虽然这个谎言可能部分正确,但显然不能作为常识。
许多人认为AI系统是完美的,不会出错。事实绝非如此。与任何系统一样,AI的表现取决于其训练数据的质量。这些数据常常是由人类创建或管理的。如果这些数据含有偏见,AI系统会在不经意间将偏见固化下来。
麻省理工学院(MIT)的一个团队分析了多个广泛使用的预训练语言模型后发现,将性别与某些职业和情绪关联时存在明显的偏见。比如说,空姐或秘书等角色主要与女性特质联系在一起,而律师和法官与男性特质联系在一起。该团队在情感方面观察到了同样的行为。
其他发现的偏见与种族有关。随着LLM进入医疗保健领域,有人开始担心,它们可能会承袭基于种族的有害的医疗实践,反映出训练数据中固有的偏见。
人工干预至关重要,需要监督和纠正这些缺点,确保AI的可靠性。关键在于使用具有代表性、无偏见的数据,并进行算法审计以消除这些偏见。
最普遍的担忧之一是,AI将导致大规模失业。
然而历史表明,虽然技术可能会淘汰某些工作,但同时也会造就新的行业和机会。
比如说,世界经济论坛预测,虽然到2025年AI可能会取代8500万个工作岗位,但也将创造9700万个新岗位。
最后一个谎言也是最反乌托邦的。以《黑客帝国》和《终结者》等电影为代表的流行文化描绘了AI可能奴役人类的可怕场景。
尽管Elon Musk和Stephen Hawking等颇有影响力的人物表达了担忧,但AI的现状远非这种反乌托邦的形象。今天的AI模型(比如ChatGPT)是为了协助完成特定的任务而设计的,不具备科幻作品中描述的能力或动机。
所以现在,我们仍是安全的!
总之,随着AI不断发展并融入到我们的日常生活中,辨别真伪至关重要。
只有有了清晰的认识,我们才能充分利用AI的潜力,负责任地应对其挑战。
谎言会影响判断,阻碍进步。
只有对AI的实际范围有清晰的了解,我们才可以向前迈进,确保这项技术服务于人类。
原文标题:6 Artificial Intelligence Myths Debunked: Separating Fact from Fiction,作者:Josep Ferrer