中央空调,电梯,空气能热水器-中央空调,电梯,空气能热水器中央空调,电梯,空气能热水器-中央空调,电梯,空气能热水器

算力狂飙电力承 压 英伟达、英特尔争相推出节能方案

算力狂飙电力承 压 英伟达、英特尔争相推出节能方案

当地 时间(jiān)8月26日,OpenAI硬件设施负责人Trevor Cai在Hot Chips 2024上(shàng)发表了长达一小时的演讲,主题为“构建可扩展(zhǎn)的AI基础设施”。他指出,OpenAI的一项重(zhòng)要(yào)观察结果是,扩大规模可以产生更好 、更有用的人工智能(néng)(AI)。

作为全(quán)球芯片行业影(yǐng)响力最大的会议之一,Hot Chips于每年8月份在斯坦福大学举行。不同于(yú)其他行业(yè)会议以学术研究为主,Hot Chips是一场(chǎng)产业界的盛会,各大处(chù)理器(qì)公司会在每年的会上展现他们(men)最新的产品以及在研的产品(pǐn)。

《每日经济新闻》记者注意到,AI浪潮推动数据中心激增,同(tóng)时也伴随着能源需求的激增。在这样 的背景下,此次的Hot Chips大会(huì)上,围绕人工(gōng)智能的(de)议(yì)题(tí)比以往任何一届都(dōu)更加活跃。Trevor Cai的(de)演讲着(zhe)眼于解决能源和(hé)算力之间的(de)问题,英特尔(ěr)、IBM和英伟达等则是提出了更节能的技术方案。

摩根士丹利在8月(yuè)份发布的研究中预测称,生成式AI的电(diàn)力需求(qiú)将(jiāng)在未来几年内(nèi)每年飙升75%,预计到2026年(nián),其消(xiāo)耗的能源量将与(yǔ)西班牙在(zài)2022年(nián)的消(xiāo)耗量相当。科技巨头们该如何 应对能源挑战?

聚(jù)焦“节能方案(àn)”

当地时间8月26日,一年一度的(de)半导体企业盛会Hot Chips2024在斯(sī)坦福大学纪 念礼堂举行,今年是第36届。

从(cóng)会议第一天的情况来(lái)看,大部分的话题都集中(zhōng)在了更节能、安全且可(kě)扩展的大规模AI服务器部署方案上。

OpenAI硬件负责人Trevor Cai发表了“可预测(cè)的扩展和基础设(shè)施”主题演讲,谈到(dào)了提升计算能力所带来的可预测的 扩展(zhǎn)效益,这也是(shì)OpenAI自成立之初就(jiù)关注(zhù)的(de)重点。一个重要算力狂飙电力承压 英伟达、英特尔争相推出节能方案的观察结果是,扩大规模可以产生更好、更有(yǒu)用的(de)人工智能。“每次计算量翻倍,都会得到更(gèng)好的(de)结果。模型的能力和计算资源的(de)消耗是呈指数级别上升(shēng)的。自2018年以来(lái),行业中前沿模型的计算量每年(nián)增长约(yuē)4倍。”他说道。

最初(chū),GPT-1只需几周的(de)时间完成训(xùn)练(liàn)。如 今,它已经扩展到需要庞(páng)大的GPU集(jí)群。因(yīn)此,OpenAI认为AI的基础建设(shè)需要大量投(tóu)资,因为计算能力的提升已经(jīng)产生了超过8个数量级的效益。

似乎是为了呼应OpenAI的演讲,各大公司的演讲(jiǎng)也不约而同地(dì)提到了(le)大规模部署AI服务器的(de)计划方案。

IBM在大会上披露了即将推(tuī)出的IBM Telum II处理器和IBM Spyre加速(sù)器的架(jià)构细(xì)节。新技术旨在显著扩展下一代IBM Z大型机系统的处理能力,通(tōng)过(guò)一种新的AI集成(chéng)方法(fǎ)帮助加速传统AI模型和大 型语言 AI模型的协同使用(yòng)。IBM特别强调这次更新的先进I/O技术旨在降低能耗和数据中心占用空间。

英伟达也在大会上放出了(le)最新的AI集群架(jià)构Blackwell的(de)相关消息。英伟达(dá)称,Blackwell拥有 6项革命性技术,可支持多达10万亿参(cān)数(shù)的模(mó)型进(jìn)行AI训练和实时大语言模型(LLM)推理。值得注(zhù)意的是,英伟(wěi)达的Quasar量(liàng)化系统用于确定可以(yǐ)使用较低精度的内容,从而减少(shǎo)计算(suàn)和存储。英伟达表(biǎo)示他们的宗旨就是在提高能源效率(lǜ)的 同(tóng)时为(wèi)AI和加速计算性能提供新标准。

除此之外,英特(tè)尔(ěr)、博通、海力士等公司的演(yǎn)讲中均提到了更节(jié)能的(de)技术方(fāng)案。

能源需求激增

科技巨(jù)头们着眼“更节能的”技术 方案的(de)根本原因在于,当前人工(gōng)智能(néng)热潮 正在增加更强大的处理器以及保持数据中心冷却(què)所需的能源需求。

当前,微软、Alphabet和Meta等大型科技(jì)公司正(zhèng)在投(tóu)资数(shù)十(shí)亿美元建设数据(jù)中心基(jī)础设施(shī),以支持生成式人工智能,但数(shù)据中心的激增也(yě)伴随着能(néng)源需求的激增。

据彭博社报(bào)道,仅去年,大型科(kē)技公司就向数据(jù)中心设施 投入了约1050亿(yì)美元。谷(gǔ)歌(gē)、苹果和特斯(sī)拉等公司不断通过新产(chǎn)品和(hé)服务增强(qiáng)AI能力。每项AI任务都需 要巨大的计算能(néng)力,这意味着数据中心会消耗大量电力(lì)。国际能源署(IEA)预测,到2026年,全(quán)球数(shù)据中心每年使用的能源(yuán)量将相当于日本的电力消耗量。

Hugging Face的人工智能和(hé)气候负责人Sasha Luccioni提(tí)到,虽然训练(liàn)AI模型需要耗费(fèi)大量能源(例如,训练 GPT-3模(mó)型(xíng)耗费了大约1300兆瓦时的电力,而GPT-4的训练消耗是GPT3的50倍),但(dàn)通常只进行一次。然(rán)而,由于查询(xún)量(liàng)巨大,模型生成响应可能需要更多能源。

例(lì)如,当用户向ChatGPT等AI模型提问时,需要向数据(jù)中(zhōng)心(xīn)发送 请求,然后强大的处理器(qì)会生成响(xiǎng)应。这个过程虽然很快,但消耗的能量也是巨(jù)大的(de)。根据艾伦人工智能研(yán)究所(suǒ)的数据,对(duì)ChatGPT进行一次查询所消耗的电量相当于为灯泡点亮20分钟,是简单Google搜索耗电量的10倍以上。

然而(ér),全球的电力资源有限,而数据中心需要(yào)持续(xù)稳定的电力供应来运行服务器和(hé)其他核心运营设备。如果能源(yuán)供应不稳定,停机可能会给企业和其(qí)他用户造成重大经济损失。此外,巨大的能(néng)源消耗也引发了人们对(duì)环境的担忧 。

为 应对这一挑(tiāo)战,科(kē)技公司们(men)开(kāi)始寻找解(jiě)决方案。

部分公(gōng)司(sī)选择更清洁且高效(xiào)的能源供给,如核能(néng)。亚马(mǎ)逊(xùn)最近在美国宾夕(xī)法尼亚州东北部购买了一个价值6.5亿美元的核能数据中心园区设施,该设(shè)施将使用核反应堆产生的高达40%的电力,最终使亚马逊(xùn)能(néng)够减少对当地电网(wǎng)的依赖。与此同时,微软聘请了核(hé)专家来带头寻找这种替代电(diàn)源。微软还与(yǔ)核电站(zhàn)运营商签 订了合同(tóng)协议算力狂飙电力承压 英伟达、英特尔争相推出节能方案,为其位(wèi)于弗吉尼亚州的一个数(shù)据中(zhōng)心提供电力。

除此之外,科技公司们不仅在前文所提到的一系列芯片节能技术进行努力(lì),也在其他硬件(jiàn)设施和技术上(shàng)下足(zú)了(le)功(gōng)夫。

谷歌正在开发 人工(gōng)智能专用芯片,例如张量处理单元(TPU),这些芯片针对人工智能(néng)任务进(jìn)行了优化,而不是使用为游戏技术创建的图形处理单元(GPU)。

英伟达针对Blackwell芯片的直接液体冷却系统还宣布了一项研究,研究表明了如何重新(xīn)利用从服务器中(zhōng)吸收的热量并(bìng)将其回收(shōu)到数据中心。据英伟达估计,冷却(què)最(zuì)多可减少数据中心设施耗电(diàn)量的28%。

然而,威(wēi)斯康星(xīng)大学麦迪逊分校的教 授辛克莱提醒(xǐng),杰(jié)文斯 悖论在这里依然适用(yòng)。“提高人(rén)工智能的(de)效(xiào)率,虽然减少了单次能耗,但整(zhěng)体使用率的(de)增加最终 会导致(zhì)总体能耗的上升。”辛克(kè)莱解释道。这个悖论不仅适用于19世纪的(de)火(huǒ)车煤炭使用,同样(yàng)适用于当今的人工智能 和电力消耗(hào)。

未经允许不得转载:中央空调,电梯,空气能热水器-中央空调,电梯,空气能热水器 算力狂飙电力承压 英伟达、英特尔争相推出节能方案

评论

5+2=