想要实现生成式人工智能(GenAI)?是个好消息!大多数IT决策者都看到了这种变革性技术的潜力,您可以将自己视为其中之一。虽然GenAI有可能为业务增加显著的效率,但它也带来了一系列必须克服的挑战。
以下是实施GenAI的十大挑战,按重要性降序排列。
实施GenAI的最大挑战是糟糕的数据。如果不能确认数据是正确的,它的来源迭代是精心规划,并保证是安全可靠的,那么你在开始之前就已经落后了。
虽然我们似乎生活在一个全新时代,人工智能时代将使你最疯狂的梦想成真!那句古老的格言“垃圾进,垃圾出”仍然是真理。
数据是GenAI的核心,数据管理则可能永远是一个挑战。但也有积极的发展,从15年前大数据热潮的早期开始,公司就一直在努力理顺他们的数据基础,以便可以在此基础上构建更大更好的东西。
在数据管理方面的投资现在正在为这些公司带来回报,因为由于GenAI的数据质量优于平均水平,这些公司处于有利地位,可以立即利用GenAI。
你可以合法地使用人工智能做什么,不能做什么,目前是一个有争议的问题。新的法律法规正在制定,以限制组织使用人工智能的程度,因此,当涉及到人工智能的商业采用时,我们处于某种灰色地带。
欧盟正坚定地朝着一项相当严格的法律迈进。这部被称为《人工智能法案》(AI Act)的新法律可能会禁止最危险的人工智能形式,比如公共面部识别,并要求公司在使用其他侵入性较小但仍有潜在危害的用途时获得批准,比如将人工智能用于招聘或大学录取。
美国在监管人工智能方面正在追赶欧盟同行,美国总统拜登去年10月签署了一项行政命令,指示联邦机构开始起草相关规定,但这些规定不具有法律效力。
这种法律上的模糊性引起了大公司的担忧,它们不愿投入大笔资金来实施一项面向广大外部领域的人工智能技术,因为这项技术可能在推出后不久就被取缔或受到严格监管。出于这个原因,许多人工智能应用都是针对内部用户的。
用户不仅需要强大的GPU来训练GenAI模型,还需要它们来进行推理。对高端英伟达GPU的巨大需求远远超过了供应。对于那些有足够资金在云端购买或租用GPU的大公司以及英伟达的股东来说,这是件好事,但对于需要GPU时间来实施GenAI的中小型公司和初创公司来说,就不那么美好了。
GPU的“大排队”不会很快缓解——当然包括在2024年上半年。虽然英伟达及其竞争对手正在努力开发新的芯片设计,以更有效地训练和运行LLM(大语言模型),但设计并将其投入生产还需要时间。
许多公司不再运行LLM,而是转向运行较小的语言模型,这些模型不像大型模型那样需要庞大资源。也有人努力通过压缩和量化来缩小LLM的大小。
透明度和可解释性甚至在GenAI成为公司董事会讨论话题之前就已经是问题了。就在五年前,公司还在努力思考如何处理深度学习(DL),这是机器学习(ML)的一个子集,它使用神经网络技术从大量数据中找出模式。
在许多情况下,公司选择基于更简单的机器学习算法投入生产系统,即使深度学习产生了更高的准确性,因为他们无法解释深度学习系统是如何得到答案的。
支撑GenAI的大型语言模型(LLM)是神经网络的一种形式,当然,是在庞大的数据语料库上进行训练的——在GPT-4的例子中,基本上是整个公共互联网。
在解释LLM如何得到答案时,这就构成了一个大问题。没有直接的方法来应对这个挑战。出现了一些方法,但它们有些复杂。这仍然是学术界、企业和政府研发部门积极研究和探索的领域。
无论你的GenAI应用程序有多好,它都有可能编造一些东西,或者用该领域的术语来说就是“产生幻觉”。一些专家表示,任何人工智能在被要求生成或创造以前不存在的东西(比如一句话或一幅画)时,产生幻觉都是正常的。
虽然专家表示,幻觉可能永远不会被完全消除,但好消息是,幻觉率一直在下降。OpenAI早期版本的GPT错误率在20%左右。现在这个数字估计在10%以下。
有一些技术可以减轻人工智能模型产生幻觉的倾向,比如通过交叉检查一个人工智能模型与另一个人工智能模型的结果,这可以将幻觉率降至1%以下。减轻幻觉在很大程度上取决于实际用例,但这是AI开发人员必须牢记的事情。
与任何新技术一样,开发者需要一套新的技能来构建GenAI,它引入了许多开发人员必须熟悉的新技术。
比如,如何将现有的数据集连接到LLM中并从中获得相关的答案,同时满足不违反法规、道德、安全和隐私要求,需要一些技巧。一项薪酬调查显示,提示工程师的出现速度如此之快,以至于其已成为IT行业薪酬最高的职业,平均薪酬超过30万美元。
然而,在某些方面,GenAI需要的高端数据科学技能比以前构建和实施人工智能应用程序要少,特别是在使用GPT-4等预构建的LLM时。在这些情况下,对Python/ target=_blank class=infotextkey>Python有一定的了解就足够了。
GenAI应用程序根据提示工作。如果没有某种类型的输入,就不会得到任何生成的输出。在没有任何控制的情况下,没有什么可以阻止员工用敏感数据提示GenAI应用程序。
例如,去年6月发布的一份报告发现,15%的员工定期将机密数据粘贴到ChatGPT中。包括三星、苹果、埃森哲、美国银行、摩根大通、花旗集团、诺斯鲁普·格鲁曼、威瑞森、高盛和富国银行在内的许多大公司都禁止在公司内使用ChatGPT。
一旦数据进入LLM,用户无法保证数据会从哪里出来。例如,OpenAI告诉用户,它使用他们的对话来训练它的模型。如果不希望数据最终出现在模型中,则需要购买企业许可证。网络犯罪分子越来越善于从模型中窃取敏感数据。这就是为什么数据泄露在开放Web应用程序安全项目(OWASP)十大安全风险中占有一席之地的原因之一。
即使模型本身中的数据被锁定,也存在其他漏洞。据一家名为私有网络访问(Private Inte.NET Access)的VPN公司称,通过IP地址、浏览器设置和浏览历史,GenAI应用程序可能会在未经你同意的情况下收集你的其他信息,包括政治信仰或性取向。
在GenAI于2022年底爆发之前,人工智能伦理领域就已经在快速发展。现在GenAI已经成为每个商人2024年剧本的核心,人工智能伦理的重要性已经大大增加。
许多公司都在努力解决一些与实施人工智能有关的更大问题,包括如何应对有偏见的机器学习模型,如何获得同意,以及如何确保模型透明和公平。这些都不是微不足道的问题,这就是为什么道德仍然是一个巨大挑战。
德勤一直是思考人工智能伦理的行业领导者之一,早在2020年就创建了值得信赖的人工智能框架,以帮助指导人工智能的伦理决策。该指南由德勤人工智能研究所(Deloitte AI Institute)执行董事Beena Ammanath牵头编写,目前仍适用于GenAI。
高管们必须注意GenAI所花的每一分钱。
根据开发GenAI应用程序的方式,成本可能是等式的重要组成部分。麦肯锡将GenAI成本分为三种类型。使用预构建的GenAI应用程序将花费50万到200万美元。根据特定用例对现有LLM进行微调的用户投资金额将在200万至1000万美元之间。从头开始构建基础模型的制造商(如OpenAI)将花费500万至2亿美元。
更需要注意的是,GPU的成本只是训练LLM一个开始。在许多情况下,在训练有素的LLM上推理数据的硬件需求将超过训练它的硬件需求。构建GenAI应用程序也有人为因素,比如需要耗时的数据标记,掌握技能所需要花费的人员培训时间等等。
当谈到构建和部署人工智能解决方案时,许多高管都很兴奋,但也有许多人并不那么兴奋。安永(EY)最近对金融服务领域的科技领导者进行的一项调查发现,36%的受访者表示,缺乏领导层的明确支持是采用人工智能的最大障碍。
GenAI投资的潜在回报是巨大的,但也有需要注意的误差。HFS Research最近的一项调查发现,对于许多人来说,GenAI的投资回报率仍然不确定,特别是在快速变化的定价模式下。
随着企业希望获得竞争优势,GenAI的采用将在2024年激增。最终取得成功的公司将是那些克服这些前进障碍,并设法实施合法、安全、准确、有效且不会导致破产的GenAI应用程序的公司。