您当前的位置:首页 > 电脑百科 > 人工智能

训练一次ChatGPT,“折寿”3000辆特斯拉

时间:2023-04-17 10:42:47  来源:  作者:虎嗅APP

出品|虎嗅科技

作者|包校千

编辑|陈伊凡

题图|视觉中国

AI target=_blank class=infotextkey>OpenAI自主开发的聊天应用ChatGPT风靡全球后,立即在全球范围内掀起了大模型开发的热潮。但准备参战的玩家们很快便认清现实,这不过是一场由巨头主宰的游戏,其中的关键,就是能耗。

知名计算机专家吴军的形容并不夸张——ChatGPT每训练一次,相当于3000辆特斯拉的电动汽车,每辆跑到20万英里,约32.19万公里。而普通家用汽车年均行驶里程在1.5万公里左右,ChatGPT每训练一次,就相当于3000辆特斯拉在一个月走完了21年的路。

即便是对大模型跃跃欲试,准备“带资入组”的大佬,也不得不掂量下:腰包里的银两,究竟够花多久?

过去一年,OpenAI的总支出是5.44亿美元。国盛证券估算,GPT-3的单次训练成本就高达140万美元,对于一些更大的LLM(大型语言模型),训练成本介于200万美元至1200万美元之间。

其中,“大模型训练成本中60%是电费,”华为AI首席科学家田奇在近日一场AI大模型技术论坛上强调,电力的降本增效已迫在眉睫。如果大模型普及,全球飞速运转的服务器,怕不会把地球烧了。

既然大模型训练的成本中,电费占主要部分,那么究竟是哪些环节在耗电?又能如何优化?

大模型是“电老虎”

OpenAI曾在其《AIandCompute》分析报告中指出,自2012年以来,AI训练应用的电力需求每3个月到4个月就会翻一倍。根据田奇给出的数据,AI算力在过去10年至少增长了40万倍。其中,拉高AI大模型能耗的一大要因,就是参数训练集的规模。

OpenAI首席执行官SamAltman在接受公开采访时表示,GPT-3的参数量为1750亿。最近发布的GPT-4 参数量是GPT-3的 20 倍,计算量是GPT-3的10倍。最快于2024 年底发布的GPT-5 ,参数量将达到GPT-3的100 倍,计算量将飙升至200到400倍。

根据斯坦福人工智能研究所(HAI)发布的《2023年人工智能指数报告》,训练像OpenAI的GPT-3这样的人工智能模型所需消耗的能量,足可以让一个普通美国家庭用上数百年了。GPT-3是目前大模型中有据可查的第一大“电老虎”,耗电量高达1287兆瓦时。

公司模型参数量PUE电力消耗DeepMindGopher280B1.081066MWhHugging FaceBLOOM176B1.20433MWhOpenAIGPT-3175B1.101287MWhMetaAIOPT175B1.09324MWh

数据来源:Luccioni et al., 2022,虎嗅制图

即使是由人工智能初创公司 Hugging Face 搭建的更为高效的BLOOM模型,耗电量也达到433兆瓦时,足以为一个普通美国家庭供电41年。

参数训练集的规模,是拉高大模型能耗的主要因素。其中AI处理器和芯片,是产生能耗最主要的地方,一位信息和通信技术从业者告诉虎嗅,CPU 和GPU 的功耗通常占服务器整机的80%。不过和普通服务器750W到1200W的标准功耗相比,AI服务器由于配置多个系统级芯片,在运行AI模型时会产生更多的能耗。

以英伟达DGX A100服务器为例,搭载8颗A100 80GB GPU,最大系统功耗达到6500W,外形尺寸为6U,考虑42U的标准机柜,则单机柜可放置7个DGX A100服务器,对应功耗为45.5KW。

按照ChatGPT在今年1月日均1300万的UV标准,OpenAI需要3万多张A100 GPU,初始投入成本约为8亿美元,折算下来的电费每天是5万美元左右。

“如果大模型的使用者越来越多,为了保证时延,需要追加服务器订单,来提供更多的基础算力。假设有10万用户的并发计算量,差不多要30万到40万张GPU才够。”某头部数据中心业务负责人推算道。

数据显示,ChatGPT的总算力消耗约为3640PF-days,这需要七到八个投资规模30亿、算力为500P的数据中心才能支撑运行。根据半导体行业资讯机构SemiAnalysis估算,未来如果让ChatGPT承担谷歌搜索的全部访问量,至少也需要410万张英伟达A100 GPU。

OpenAI训练其模型所需的云计算基础设施规模是前所未有的,比业内任何人试图构建的GPU算力集群都要庞大

目前,微软在六十多个Azure数据中心部署了几十万张GPU,为ChatGPT提供超强算力。作为OpenAI最大的投资方,微软拿到了云计算基础设施的独家供应权,并开始下一代AI超级计算机的开发工作当中,数万张英伟达A100 GPU以及新一代H100 GPU都将被导入其中。

前所未有的算力规模,连业内专家都在感慨,这是一件多么疯狂的事。

AI引发新技术革命

疯狂的事,催生更疯狂的想象力。

眼下,就连呼吁暂停大模型开发的马斯克,也要打造“推特版的ChatGPT”了。

根据美国知名科技媒体Business Insider 报道,马斯克已经购买了一万块GPU,通过生成式的AI大模型和海量数据,强化推特的搜索功能并帮助其广告业务重整旗鼓。

作为OpenAI的早期投资人,外界一直对马斯克抵制AI发展的态度半信半疑。就在本月初,网络上还有传言称马斯克将在半年后打造比GPT4更强大的大模型。

更有传言称,马斯克计划通过SpaceX把超级计算机搬到太空上,目的是节约制冷和耗能。且不论这件事的真假,看起来倒是个好点子。

截图来自网络

打造太空数据中心,似乎能享有得天独厚的资源禀赋:24小时天然低温散热,全年无限量太阳能,而且全部都免费。那么这个绝妙的创意,到底靠不靠谱?

一位民营商业航天专家否定了这个想法,他告诉虎嗅,太空超低温环境确实不假,但很多人忽略了一个基本的物理常识,那就是所有热量的交换都是靠分子运动实现的。而太空环境趋近于真空,所含物质过于稀少,因此,“虽然温度低,但是导热慢,自然散热条件其实远不如地面。”

其次,目前卫星太阳能帆板的供电系统普遍功率只有1200W,无论是电力供应还是成本,地面光伏解决方案都有绝对的优势。

另外,训练大模型需要大量的数据输入和输出,这要求服务器具备超高的网络带宽能力。太空信息基础设施提供商艾可萨联合创始人王玮认为,数据中心作为网络互联底座,保证数据传输的稳定性和速率至关重要。但就目前来看,“即便消耗星链全部的带宽,都未必都能保证大模型训练所需的数据实时传输需求。”

当然,还有一些革命性的技术创新被ChatGPT带火,中科创星创始合伙人米磊表示,最典型的就是光子技术。比如具备高算力、低能耗优势的光电共封装(CPO)技术。简而言之就是将光器件和交换芯片封装在一起,为暴涨的算力需求提供了一种高密度、高能效、低成本的高速互连解决方案。

米磊认为,本轮大模型领域的热潮代表了“AI技术的发展进入了全新阶段”。作为一种用光进行运算的芯片,其耗电量仅占同等级电子芯片的六分之一。随着人工智能不断发展,训练、运行这些产品需要的算力水平也越来越高,行业对高速率、低能耗的光芯片也越发期待。

截至目前,中科创星在光电领域累计投资了超过150家企业。早在2016年米磊就提出,光是人工智能的基础设施,光子是新一代信息技术基石的理念。“喊了这么多年,冷门的技术终于被ChatGPT带火了。”最近二级市场上光芯片相关股票的大涨也体现出了这一点。这种偶然性,在米磊看来是必然趋势。

着眼于当下,降低AI模型整体能耗、节省电费开支的主要方式,依然是想办法提高数据中心的散热效率。中金公司认为,以液冷技术为代表的主动散热技术有望凭借优良的散热性能被更多地采用。

相较于传统的风冷系统,液冷系统直接将热负荷传递至冷冻水系统中,制冷效率更高且占地更小,能够提升服务器的使用效率及稳定性,满足高功率密度机柜的散热要求。

例如英伟达HGX A100采用的直接芯片(Direct-to-Chip)冷却技术,在机架内直接整合液冷散热系统,取代传统的风冷系统散热,实测消耗的能源减少了约30%。而液冷数据中心的PUE(电源使用效率)能达到1.15,远低于风冷的PUE 1.6。

随着大模型对算力的渴求,市场对高性能芯片的需求还将进一步提升。新思科技全球资深副总裁兼中国董事长葛群就曾表示,到2025年全球数据中心占整个全球用电量将要提升到全球的20%。“因此,在全球最领先的科技公司中,最重要的一项技术方向就是如何能够使他们的数据中心能耗降低,成本降低。”

早在7年前,作为全球EDA(电子设计自动化)和半导体IP领域龙头的新思科技就启动了一项叫做“高能效设计”的项目,将芯片的能效最大化。

这种能耗管理的逻辑是,数据中心有多块芯片,每个芯片上有几十亿甚至上百亿的晶体管,一个晶体管,相当于一个用电单位,以此推断,一颗指甲盖大小的芯片,就是一个规模庞大的能源网络。如果能够将每个晶体管的能耗优化,那么最后的节能就能辐射到整个数据中心。

一位资深分析师人士坦言,市场大可不必对大模型的能耗问题过度担忧。“很多人忽略了一个事实,那就是大模型对算力的需求未来必然会逐渐下降,这意味着能耗也会相应降低。”例如,微软刚刚宣布开源的DeepSpeed-Chat就充分印证了这一点。

据了解,DeepSpeed-Chat是基于微软 DeepSpeed 深度学习优化库开发而成,具备训练、强化推理等功能,并使用了RLHF(基于人类反馈的强化学习)技术,可将训练速度提升15 倍以上,算力成本大大降低。比如,仅凭单个 GPU就能支持一个130亿参数的类ChatGPT模型,训练时间也只需要 1.25 小时。

与此同时,该分析师补充说,未来算力的分布结构一定会朝着分布式、去中心化的方式演进,即训练过程在云端完成,在边缘和端侧重推理。“而不会像现在一样,所有的压力全部由超算中心承担。”

正在改变与想要改变世界的人,都在虎嗅App



Tags:ChatGPT   点击:()  评论:()
声明:本站部分内容及图片来自互联网,转载是出于传递更多信息之目的,内容观点仅代表作者本人,不构成投资建议。投资者据此操作,风险自担。如有任何标注错误或版权侵犯请与我们联系,我们将及时更正、删除。
▌相关推荐
ChatGPT官宣免注册,全球互联网变天!OpenAI将取代谷歌搜索?
新智元报道编辑:编辑部【新智元导读】OpenAI这份愚人节礼物,实在是太大了:今天起,ChatGPT不用注册,可以直接使用。用户狂欢,竞品颤抖,我们仿佛已经听到,谷歌搜索引擎这位巨人轰然倒...【详细内容】
2024-04-02  Search: ChatGPT  点击:(9)  评论:(0)  加入收藏
无需注册!OpenAI宣布放开ChatGPT使用限制
工智能初创公司OpenAI宣布,即日起用户无须注册即可开始使用ChatGPT的功能。OpenAI在最新公告中写道:“让ChatGPT等工具广泛可用,让人们能够体验到人工智能的好处,这是我们使命的...【详细内容】
2024-04-02  Search: ChatGPT  点击:(7)  评论:(0)  加入收藏
ChatGPT 突然放开了账户限制,面向所有人开放
大门终于打开。奥特曼 OpenAI 的旗舰产品 ChatGPT 突然宣布:将面向所有人开放,无论你有没有注册账户。从今天开始,访问 Chat.openai.com 将不再要求用户登录,用户将直接进入与 C...【详细内容】
2024-04-02  Search: ChatGPT  点击:(3)  评论:(0)  加入收藏
今天起,ChatGPT无需注册就能用了!
 来源:量子位    金磊 克雷西 发自 凹非寺  就在刚刚,OpenAI狠狠地open了一把:从今天起,ChatGPT打开即用,无需再注册帐号和登录了!  像这样,直接登录网站,然后就可以开启对...【详细内容】
2024-04-02  Search: ChatGPT  点击:(8)  评论:(0)  加入收藏
ChatGPT之父Altman两小时对谈,首聊GPT-5何时发布、llya去哪里了、Q*究竟是什么
Altman做客油管博主Lex Fridman科技博客 ,被追问了一个又一个辛辣的问题。长达两个小时的对谈,奥特曼从OpenAI宫斗、马斯克诉讼、Sora,一直聊到AGI与外星文明!本文重点梳理了长...【详细内容】
2024-03-20  Search: ChatGPT  点击:(8)  评论:(0)  加入收藏
ChatGPT主管最新访谈:未来AI和人类如何共处?
Peter Deng在最新访谈中表示:AI不会取代生产力,人类和AI只有合作才能释放真正潜力,ChatGPT比已知的更强大、最大的挑战在于理解用户需求。当地时间3月13日,OpenAI 消费产品副总...【详细内容】
2024-03-19  Search: ChatGPT  点击:(11)  评论:(0)  加入收藏
ChatGPT日耗电超50万度,大模型或带来“电荒”
未来两年内将由“缺硅”变为“缺电”,马斯克的预言可能正在变成现实。据《纽约客》杂志报道,OpenAI的热门聊天机器人ChatGPT每天可能要消耗超过50万千瓦时的电力,以响应用户的...【详细内容】
2024-03-11  Search: ChatGPT  点击:(32)  评论:(0)  加入收藏
OpenAI新功能:ChatGPT可调用自定义机器人,对话更高效!
近日,知名科技公司OpenAI推出了一项新的功能——“对话中调用(@)自定义聊天机器人”,让用户在对话中无缝切换不同领域的机器人。这一功能的出现,为用户带来了极大的便...【详细内容】
2024-02-02  Search: ChatGPT  点击:(53)  评论:(0)  加入收藏
ChatGPT元年之后,AI重塑世界,人类如何与其“智慧共生”?
过去一年,人工智能(AI)凭借大语言模型的爆火迅速进入大众视野。它比以往任何时候都更强大,也更具亲和力。这不仅给未来生活带来了新希望,也在人们心中蒙上了一层担忧—&mdas...【详细内容】
2024-01-26  Search: ChatGPT  点击:(77)  评论:(0)  加入收藏
年度最热AI应用TOP 50,除了ChatGPT还有这么多宝藏
量子位 | 公众号 QbitAI百模齐发、AI工具乱杀的一年里,谁是真正赢家?ChatGPT访问量遥遥领先位居第一,但单次使用时长没超过平均线。Midjourney访问量年度第四,但下滑量位居第二...【详细内容】
2024-01-02  Search: ChatGPT  点击:(54)  评论:(0)  加入收藏
▌简易百科推荐
行业大模型快速落地的一年,如何做?
生成式AI正成为时下科技企业“讲故事”的关键词之一。但从发展上看,无论是“文生文”的大语言模型,还是“文生图”的多模态模型,更多的是辅助人们进行一些简单的办公,或者提供一...【详细内容】
2024-04-10    钛媒体APP  Tags:行业大模型   点击:(3)  评论:(0)  加入收藏
互联网充斥“针对小白的AI课”,能相信吗?普通人不学AI课程会被淘汰?
早前,一位标榜清华大学博士和多家公司AI顾问名头的百万级粉丝量博主,向用户大力推介“所有人都需要学”的AI入门课程。不过,这些课程最终因贩卖焦虑、蒙骗学员而被平台下架。然...【详细内容】
2024-04-10    九派新闻  Tags:AI课   点击:(7)  评论:(0)  加入收藏
藏在AI背后的“吃电狂魔”
人工智能时代的能耗黑洞据估算,到2027年,人工智能行业每年将消耗85~134太瓦时的电力,相当于瑞典或荷兰一年的总用电量。马斯克判断,电力缺口最早可能会在2025年发生,“明年你会看...【详细内容】
2024-04-09    雪豹财经社  Tags:AI   点击:(3)  评论:(0)  加入收藏
OpenAI和谷歌再起纷争:AI的尽头是内容
日前,纽约时报的一篇报道称,人工智能公司 OpenAI为收集高质量训练数据而开发了一个语音转录模型Whisper。该模型主要用于转录 OpenAI 获取的超过 100 万小时的 YouTube 视频,也...【详细内容】
2024-04-09  小编也疯狂  新浪网  Tags:AI   点击:(3)  评论:(0)  加入收藏
AI产业的灰色暗面:OpenAI、谷歌、META如何搞训练语料
财联社4月7日讯(编辑 史正丞)种种迹象显示,目前站在全世界AI领域潮头浪尖的这些公司,早在几年前就已经陷入对训练语料的“绝望”追逐中——为此他们不惜修改政策条款...【详细内容】
2024-04-09    财联社  Tags:AI产业   点击:(4)  评论:(0)  加入收藏
和“数字人”交朋友,当心隐私被出卖......
在虚拟社交中如何在保护用户隐私和数据安全的同时提供高质量的社交体验?如何避免过度依赖虚拟社交找到虚拟与真实之间的平衡点?《中国消费者报》记者就此展开了调查APP里有个...【详细内容】
2024-04-09    中国消费者报  Tags:数字人   点击:(6)  评论:(0)  加入收藏
AI“复活”成产业链:成本可降至数百元
大模型应用落地,带火数字人(11.560, 0.29, 2.57%)赛道。文|《中国企业家》记者李艳艳 实习生 孙欣编辑|姚赟头图来源|《流浪地球2》电影画面截图清明节前,预估会有需求的庞立...【详细内容】
2024-04-09    中国企业家  Tags:AI“复活”   点击:(3)  评论:(0)  加入收藏
多方热议人工智能产业新机遇
编者按  从前沿科技展会到高层对话平台,从上海、重庆到博鳌,从线上到线下……一场场高规格、大规模的盛会中,人工智能正在成为各界热议的高频词。赋能千...【详细内容】
2024-04-08    中国家电网  Tags:人工智能   点击:(5)  评论:(0)  加入收藏
​人形机器人时代来了吗
日前,由中国人形机器人(11.080, -0.05, -0.45%)百人会主办的人形机器人大赛在北京经济技术开发区开赛。工作人员向参观者展示一款人形机器人。参观者与一款陪护型人形机器人...【详细内容】
2024-04-08    中国青年报  Tags:​人形机器人   点击:(6)  评论:(0)  加入收藏
AI重塑社交:腾讯与字节跳动的新赛场
文|新火种 一号编辑|美美最近,腾讯和字节跳动这两大互联网巨头几乎同步推出了各自的AI社交产品,尽管腾讯和字节跳动在前段时间刚刚“破冰”,但这一举措不仅意味着这两大巨头之...【详细内容】
2024-04-07    蓝鲸财经  Tags:AI   点击:(8)  评论:(0)  加入收藏
站内最新
站内热门
站内头条