算力狂飙电力承压 英伟达、英特尔争相推出节能方案
当地时间(jiān)8月26日,OpenAI硬件设施负责人Trevor Cai在Hot Chips 2024上发表了长达一小时的演讲,主题为“构建可扩展的(de)AI基础设施”。他指出,OpenAI的一(yī)项重要观(guān)察结果是,扩大(dà)规模可以产(chǎn)生更好、更有用的(de)人工智(zhì)能(AI)。
作为全球芯(xīn)片行业影响力最大的会议之一,Hot Chips于(yú)每年8月份在(zài)斯(sī)坦福大(dà)学(xué)举行。不同(tóng)于其他行业会议以(yǐ)学术研究为(wèi)主,Hot Chips是一场产业界的盛会(huì),各(gè)大处理(lǐ)器公司会(huì)在每年的(de)会(huì)上展现他们最新的产品以及在(zài)研的产品。
《每日经济新(xīn)闻》记者注意到,AI浪潮推动数据中心激增,同时(shí)也伴随 着(zhe)能源需求的激增。在这样的背景下,此次的(de)Hot Chips大会上,围绕人工智能(néng)的议题比以往任(rèn)何一届都更加活跃。Trevor Cai的演讲着(zhe)眼(yǎn)于解决能源和算力之间的问题,英特尔、IBM和英伟达等则是提出了更节能的技术方(fāng)案(àn)。
摩(mó)根士丹利在8月份发布的研究中预(yù)测称,生成式AI的电力需求将(jiāng)在未来几(jǐ)年内每年飙(biāo)升75%,预计到2026年,其消耗的能源量将与西班牙在2022年的消耗量相当。科技巨头们该如何应对能源挑战?
聚焦“节能(néng)方案”
当地时间8月(yuè)26日(rì),一年一度的半导体企业盛会Hot Chips2024在(zài)斯坦福大学纪念礼堂举行,今年是第36届。
从会议第一天的情况来看(kàn),大部分的话(huà)题都集(jí)中在了更节能、安全且可扩展(zhǎn)的(de)大规模AI服(fú)务器(qì)部署方案上。
OpenAI硬件负责人Trevor Cai发表了“可预测的扩(kuò)展和基础(chǔ)设施”主题演讲,谈到了(le)提升计算能力所带来(lái)的可预测的扩展效益,这也(yě)是OpenAI自成(chéng)立之(zhī)初就关注的重点(diǎn)。一(yī)个(gè)重要的(de)观察结果是,扩大规模可以产生更(gèng)好、更有用(yòng)的人(rén)工智能。“每次计算量翻倍,都会得到更好的结果。模型的能力和计算资源的消耗是呈指数级别上升的。自2018年以来,行业中前沿(yán)模型的计算量每年增长约4倍(bèi)。”他(tā)说道。
最初(chū),GPT-1只需几(jǐ)周的时间完(wán)成训练。如今,它已算力狂飙电力承压 英伟达、英特尔争相推出节能方案经扩展到需(xū)要庞大的GPU集(jí)群。因此,OpenAI认为AI的基础建(jiàn)设需 要大量投资,因为计算能力的提升已经产生了超过8个数量级的(de)效益。
似乎是为(wèi)了呼(hū)应OpenAI的演讲,各大(dà)公司的演讲也不约(yuē)而同地提到了大规模部署AI服务器的计(jì)划方案。
IBM在大(dà)会上披露了即将推出的IBM Telum II处理器和IBM Spyre加 速器的架构(gòu)细(xì)节。新(xīn)技术(shù)旨(zhǐ)在显著扩展下一代IBM Z大型机(jī)系统的处(chù)理能力,通(tōng)过一种新的AI集成方法帮助加(jiā)速传统(tǒng)AI模型和(hé)大(dà)型语言 AI模型的协同使用。IBM特(tè)别强调这(zhè)次更新的(de)先进I/O技术旨在降低能耗和数据中(zhōng)心占用空间(jiān)。
英伟达也在大会上放(fàng)出了最新的AI集群架构Blackwell的相关消息。英伟达称 ,Blackwell拥有6项革命性(xìng)技术 ,可支持多(duō)达10万亿参数(shù)的模型进行AI训练和实时大语言模型(LLM)推理。值得注意的(de)是,英伟达 的Quasar量化系统用(yòng)于确定可以使用较低精度的内容,从而减少计算和存储。英伟达表示(shì)他们的宗(zōng)旨(zhǐ)就是在提高能源效率的同时(shí)为AI和加(jiā)速计算性(xìng)能提供新标准。
除(chú)此之外,英特(tè)尔、博通、海力士等公(gōng)司的演讲中均提到了(le)更节能的(de)技术方案。
能(néng)源需(xū)求(qiú)激增
科技巨头(tóu)们着眼算力狂飙电力承压 英伟达、英特尔争相推出节能方案“更节能的”技术方案(àn)的根本原因在于,当前人工智能热潮正在增加更强(qiáng)大的处理器以及保持(chí)数(shù)据中心冷却所需的能源需求。
当前,微软、Alphabet和Meta等大(dà)型科技公司正在投(tóu)资数(shù)十亿美元建(jiàn)设数据中心(xīn)基础设施,以支持生(shēng)成式人(rén)工智能,但(dàn)数据中心的激增也伴随着能源需求的激增。
据彭博(bó)社报道,仅去年,大型科技(jì)公司就向数据中心设施投入了约1050亿(yì)美元。谷歌、苹(píng)果和特(tè)斯拉等公司不断通过新产品(pǐn)和服务(wù)增强 AI能(néng)力。每项AI任务(wù)都需要巨大的计算能力(lì),这意味着数据中心会消耗大量电力。国(guó)际能源(yuán)署(IEA)预测,到2026年,全球数据中心每年使用的能源量将相当于日本的电力(lì)消耗量。
Hugging Face的(de)人工智能和气候负责人(rén)Sasha Luccioni提到,虽然训练AI模型需要耗(hào)费大量能(néng)源(例如,训练 GPT-3模(mó)型耗费了大约1300兆瓦时的电力(lì),而GPT-4的训练(liàn)消耗(hào)是GPT3的(de)50倍),但通常(cháng)只进行一次。然而,由于查询量巨大,模型生成响(xiǎng)应(yīng)可能需要更多能源。
例如,当用户向(xiàng)ChatGPT等AI模型提问时,需要向数据中(zhōng)心发送请求,然后强大的处理器会生成响应。这个过程虽然很快,但消耗的能(néng)量也是巨(jù)大的。根据艾(ài)伦(lún)人工智能研究所的数 据,对ChatGPT进(jìn)行(xíng)一次查询(xún)所消(xiāo)耗的电(diàn)量相当于为灯泡点亮20分钟,是简单Google搜索耗电(diàn)量的(de)10倍以上。
然而,全球的电力资源有限,而数据中心需要持续稳(wěn)定的电力供应来运行(xíng)服(fú)务器和其他核心运营设备。如果能源(yuán)供应不稳定,停机可(kě)能会给企(qǐ)业和其(qí)他(tā)用户造成重大(dà)经济损失(shī)。此外,巨大的能源消耗也(yě)引发了人们 对环(huán)境的(de)担忧(yōu)。
为应对这一挑战(zhàn),科技公司们开始寻找解决方案。
部分公司选择更(gèng)清洁且高效的能源供给,如核能。亚马逊最近在美国宾夕法尼(ní)亚州东北部购买了一个价值6.5亿美元的核能(néng)数(shù)据中心(xīn)园区设施,该设施将使(shǐ)用(yòng)核反 应堆产生的高达40%的电力,最终使亚马逊能够减少对当地电网的依赖。与此同(tóng)时,微软聘请了核专家 来带头寻找这种替(tì)代电源(yuán)。微软还与核电站运营商签订了合同协议,为其(qí)位于弗(fú)吉尼亚州的一个数据中(zhōng)心提供电(diàn)力。
除此之外,科技公司们不仅在前文所提到(dào)的一系列芯(xīn)片节能技术进(jìn)行努力,也(yě)在其他硬件设施和技(jì)术上下足了功夫。
谷歌正在开发人工智能专用芯片,例如(rú)张量处理单元(TPU),这(zhè)些芯片针对人工智能任(rèn)务进行了优化,而不是使用(yòng)为游(yóu)戏(xì)技术创建的图形处理单(dān)元(GPU)。
英伟达针对Blackwell芯片的直(zhí)接液体 冷(lěng)却(què)系统还宣布了(le)一项(xiàng)研究,研究表明了如何重新利用从服务器(qì)中(zhōng)吸收的热量并将其(qí)回收到(dào)数据中心。据英伟达估计,冷却最多可减(jiǎn)少数据中(zhōng)心设施耗电量的28%。
然而,威斯康星大学麦迪逊分校的教算力狂飙电力承压 英伟达、英特尔争相推出节能方案授辛克(kè)莱提醒,杰文斯悖(bèi)论在(zài)这里(lǐ)依然适用。“提高人工智能的效率,虽然减(jiǎn)少了(le)单次能耗(hào),但整体使用率的增加最终会导致总体能耗的上升。”辛克莱解释道。这(zhè)个悖论不仅适用于19世纪的火车煤炭使用,同样适用于当今的(de)人工智(zhì)能和电力消耗。
未经允许不得转载:中央空调,电梯,空气能热水器-中央空调,电梯,空气能热水器 算力狂飙电力承压 英伟达、英特尔争相推出节能方案
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了