算力狂飙电力承压 英伟达、英特尔争相推出节能方案
当地时间8月26日,OpenAI硬件设(shè)施负责人Trevor Cai在(zài)Hot Chips 2024上发表了长达一小时的演讲,主题为“构建可扩(kuò)展的AI基(jī)础设施(shī)”。他指(zhǐ)出,OpenAI的(de)一项重(zhòng)要(yào)观察结(jié)果是,扩大规模可(kě)以(yǐ)产生(shēng)更好、更有用的(de)人工智能(AI)。
作为全球芯片行业影(yǐng)响力最大的会议之一,Hot Chips于每年8月份在斯坦福大学举行。不同于其他行业会(huì)议以学术(shù)研(yán)究为主,Hot Chips是一场产业界的盛会,各大处理器公(gōng)司会在每年(nián)的会上(shàng)展现他们最新的产品以及在研的产品。
《每日(rì)经济新闻》记者(zhě)注意到,AI浪潮推动数据中心激增,同时也伴随(suí)着能源(yuán)需(xū)求的(de)激增。在这(zhè)样的背 景下,此(cǐ)次的Hot Chips大会上,围绕人工智能的算力狂飙电力承压 英伟达、英特尔争相推出节能方案议题比以往任何(hé)一(yī)届都(dōu)更加活跃。Trevor Cai的演讲着眼于解决(jué)能源和算力之间的问题,英特尔、IBM和(hé)英伟达(dá)等则是提出了更节能的(de)技术(shù)方(fāng)案。
摩根(gēn)士(shì)丹(dān)利在(zài)8月份发布的研究中预测称,生成(chéng)式AI的电力需(xū)求将在未来几(jǐ)年内每年飙升75%,预计到2026年,其消耗的能源量将与(yǔ)西班(bān)牙在2022年的(de)消耗量相当。科(kē)技巨头们该如何应对能源挑战?
聚焦“节能方案”
当地(dì)时间8月26日,一年一度的半(bàn)导体企业盛会Hot Chips2024在斯坦福大学纪念礼(lǐ)堂举行,今年是第36届。
从会议第一天(tiān)的情况来看,大(dà)部分的话题都(dōu)集中在了更节能、安全且可扩展的(de)大规模AI服务器部署方案上。
OpenAI硬件(jiàn)负责人Trevor Cai发表了“可预测(cè)的 扩(kuò)展和基础设施(shī)”主题演(yǎn)讲,谈到(dào)了提升计算能力所带来的可预 测(cè)的扩展效益,这也(yě)是OpenAI自成立之初就关注的重点。一个重要的观察结果是,扩大规(guī)模可以产生更好、更有用的(de)人工智能。“每次计算量翻倍,都会得(dé)到更好的结果。模型的(de)能力和(hé)计(jì)算(suàn)资源的消耗是(shì)呈指(zhǐ)数级别上(shàng)升的(de)。自2018年以来,行(xíng)业中前沿(yán)模型的计算量(liàng)每年(nián)增长约4倍。”他(tā)说道。
最初,GPT-1只需几周的时间(jiān)完成训练。如今,它已经扩展到需要庞大的(de)GPU集(jí)群。因此(cǐ),OpenAI认为AI的 基础建设需(xū)要(yào)大量投资(zī),因为计算能(néng)力的提升已经产生了超过(guò)8个数量级的效益。
似乎是为(wèi)了呼应OpenAI的演讲,各大公司的演讲也(yě)不(bù)约而同地提到(dào)了大规模部署AI服务器的计划方案。
IBM在大会上披露了(le)即将推出的IBM Telum II处理器和IBM Spyre加速器的架构细(xì)节。新技术旨(zhǐ)在显著扩展下一(yī)代(dài)IBM Z大型机系统的处理能力,通(tōng)过一(yī)种新(xīn)的AI集成方法帮助加速传(chuán)统AI模型(xíng)和大(dà)型(xíng)语言 AI模型的协同使用。IBM特别强调这次更新的先进I/O技术旨(zhǐ)在降低能耗(hào)和数据(jù)中(zhōng)心占用空间。
英伟达也在(zài)大会上放(fàng)出(chū)了最新的AI集群架构Blackwell的相关消息。英伟(wěi)达称,Blackwell拥(yōng)有 6项革命性(xìng)技术(shù),可支持(chí)多达10万亿参数的模型进行AI训练和实时大语言模型(LLM)推理(lǐ)。值得注意的是,英(yīng)伟(wěi)达(dá)的(de)Quasar量化系统(tǒng)用于确定可以使用较低精度的内容,从而减少计算(suàn)和存储。英伟达表示(shì)他们的宗旨就是在提(tí)高能(néng)源效率的同时为AI和加速计算性能提(tí)供新标准。
除此之外,英特尔、博通、海(hǎi)力士(shì)等公司的演讲(jiǎng)中均提到了更节(jié)能的技术方案。
能(néng)源需求激增
科(kē)技巨头们(men)着眼“更节能的”技(jì)术方案的根本原因在于,当前人工智能热潮正在增(zēng)加更强大的处理器以(yǐ)及保持(chí)数据中心冷却所需的能源需求。
当前,微软、Alphabet和Meta等大型科技公(gōng)司正在投(tóu)资数十亿美 元建设数据中心基础设施,以支(zhī)持(chí)生成式人工智能,但数据中心的激增(zēng)也伴随着能源需求的激增。
据彭博社报道,仅去年,大型(xíng)科技公司(sī)就(jiù)向数(shù)据中心设施(shī)投入了(le)约1050亿美元。谷(gǔ)歌、苹果和特斯拉等公(gōng)司不断通过新产品和服(fú)务增强AI能力。每项AI任(rèn)务都需(xū)要(yào)巨大的计算能力,这意味着(zhe)数(shù)据中心会消耗(hào)大量电力。国际能源署(IEA)预测,到2026年,全球数据中心每年使用的能源量将相当(dāng)于日本的(de)电力消耗量。
Hugging Face的人工智能和气 候负(fù)责人(rén)Sasha Luccioni提到,虽然训练AI模型需要耗费大量能源(例如,训练 GPT-3模型耗费了大(dà)约(yuē)1300兆瓦时的(de算力狂飙电力承压 英伟达、英特尔争相推出节能方案)电力,而GPT-4的训练消耗是GPT3的50倍),但通常只进行一(yī)次。然而,由于查询量巨大,模型生(shēng)成(chéng)响应可能需要更多能源。
例如,当用(yòng)户向ChatGPT等AI模型提问时,需要向数据中心发送请求,然后强(qiáng)大的处理(lǐ)器会(huì)生(shēng)成(chéng)响应。这(zhè)个过程虽然很快,但消(xiāo)耗的能量也是巨大(dà)的。根据艾伦人工(gōng)智能研究(jiū)所(suǒ)的数据,对ChatGPT进行一次查询所消耗的电量相当于为灯泡点亮20分钟,是简单Google搜索耗电量的10倍以上(shàng)。
然(rán)而,全(quán)球的(de)电力资源有(yǒu)限,而数据 中心需要持续稳定的电力供应来运行服务(wù)器和其他核(hé)心运营设备。如(rú)果能源供应不稳定,停机可能会(huì)给企业和其他用户造成(chéng)重大经济损失。此外(wài),巨大的能源消耗也引发了人们对环境的担忧。
为应对这一(yī)挑战,科(kē)技公(gōng)司们开始(shǐ)寻找解决方案。
部分公司(sī)选择更(gèng)清洁且高效的能源供给,如核能。亚马逊最近在美国(guó)宾夕法尼亚州东北部购(gòu)买了一个价值 6.5亿美元的核能数据中心园区(qū)设施,该(gāi)设施将使用核反应堆产生 的(de)高(gāo)达40%的电力,最终使亚(yà)马(mǎ)逊能够减少对当(dāng)地(dì)电网的(de)依赖。与此同(tóng)时,微软聘请了核专家来带头寻找这种替代(dài)电源。微软还与核电站运营商(shāng)签订了合同协议,为其位于弗(fú)吉(jí)尼亚州(zhōu)的(de)一个(gè)数据中心提供电力。
除此之外,科技公司们不仅在前(qián)文所提到的一系列芯片节能技术进行努力,也在其他硬(yìng)件设施和技(jì)术上(shàng)下足了(le)功夫(fū)。
谷歌正在开发(fā)人(rén)工智(zhì)能专用芯片,例如张量(liàng)处理单元(TPU),这些芯片针对(duì)人工智能任务进行了优化,而不是使用为(wèi)游(yóu)戏(xì)技术创建的图形处理单元(yuán)(GPU)。
英伟达针对Blackwell芯片的直接液体冷却系(xì)统还宣布了一项研究,研究表明了如何重(zhòng)新利用从服务器(qì)中吸收的热量并(bìng)将其回收(shōu)到数据中心。据英伟达估计,冷却最多可减少数(shù)据中心设施耗电量的28%。
然而,威斯康星大学(xué)麦迪逊分校的教授(shòu)辛克莱(lái)提醒,杰文斯(sī)悖(bèi)论在这里依然(rán)适用。“提高人工智能的效率,虽然减少(shǎo)了(le)单次能耗 ,但整体使用率的增加最终会导致总体能耗的上升。”辛克(kè)莱解释道。这个悖论不仅(jǐn)适用于19世纪的火车煤(méi)炭使用,同样适用于当今的人(rén)工智能和电力消耗。
未经允许不得转载:中央空调,电梯,空气能热水器-中央空调,电梯,空气能热水器 算力狂飙电力承压 英伟达、英特尔争相推出节能方案
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了