算力狂飙电力承压 英伟达、英特尔争相推出节能方案
当地(dì)时间8月26日,OpenAI硬(yìng)件设施负责人Trevor Cai在(zài)Hot Chips 2024上发表了长(zhǎng)达一小时的演讲,主题为“构建可扩展的AI基(jī)础设施”。他(tā)指出,OpenAI的一项重要(yào)观察结果是,扩大规模(mó)可以产生更好、更有用的(de)人工智能(AI)。
作为(wèi)全球芯片行业影响力最大的(de)会议之一,Hot Chips于每(měi)年8月份在斯坦福大学(xué)举行。不同于其他行业会议以学术研究(jiū)为主,Hot Chips是一场产业(yè)界的盛会(huì),各(gè)大处理器公司会在每年的会(huì)上展现(xiàn)他(tā)们最新的产品以及在研的产(chǎn)品。
《每日经济新闻》记者(zhě)注意到,AI浪潮(cháo)推动数 据中心激增,同时(shí)也伴随着能源需求(qiú)的激增。在这样的背景下,此(cǐ)次的Hot Chips大会上(shàng),围绕人工智能(néng)的议题比以往任何一届都更(gèng)加活跃。Trevor Cai的演讲着眼于解决能源和算力之间的问题,英特尔、IBM和英伟达(dá)等则是提出了更节能的技术方案。
摩根士丹(dān)利在8月份发(fā)布算力狂飙电力承压 英伟达、英特尔争相推出节能方案的研究中预测称,生成式AI的电力需求将在(zài)未来几年内每年飙升75%,预计(jì)到2026年,其消耗(hào)的(de)能源量将与西班(bān)牙在2022年的消耗量相当。科技巨头们该如何应对能源挑战?
聚(jù)焦“节能 方(fāng)案”
当地时间8月26日,一年(nián)一度(dù)的半导体(tǐ)企业盛会(huì)Hot Chips2024在斯坦福大学纪念礼堂举行,今年是第36届。
从会议第一天的情况来看,大部分的话题都集中在了更节能、安全且可扩展的大规模AI服务器部署方案上。
OpenAI硬件负责人Trevor Cai发(fā)表了“可(kě)预(yù)测(cè)的扩展和基础(chǔ)设施”主题演(yǎn)讲,谈到了提升计(jì)算能力所带来的可预测的扩展效益,这也是OpenAI自成立(lì)之初就关注的重点。一(yī)个重(zhòng)要的观察结果是,扩大(dà)规模可以产生更好、更有用的人工智能。“每(měi)次计算量翻倍,都会得(dé)到更好的 结果。模型的能力和计算资源的消耗是呈指数级别上升的。自2018年以来,行业中前沿模型的计算量每年(nián)增长约4倍。”他说道。
最初,GPT-1只需几周的(de)时间完(wán)成训练(liàn)。如今,它已(yǐ)经扩展到需要庞算力狂飙电力承压 英伟达、英特尔争相推出节能方案大 的GPU集群。因(yīn)此,OpenAI认为AI的基础建设需要大量(liàng)投(tóu)资,因为计算能力的提升已经产生了超过8个数量级(jí)的效益。
似乎是为了呼应OpenAI的演讲,各大公司的演讲也不约而同地提到了(le)大规模(mó)部署AI服务器(qì)的计划方案(àn)。
IBM在(zài)大会上披露了即将推出的IBM Telum II处理器(qì)和IBM Spyre加速器的架(jià)构细节。新技术旨在显著扩展下一代IBM Z大(dà)型机系统的处理能力(lì),通过一(yī)种新的AI集成方法帮(bāng)助加速传(chuán)统AI模型和大型(xíng)语(yǔ)言 AI模型的协同(tóng)使(shǐ)用。IBM特别强调这次更新的先进I/O技术旨在降低(dī)能耗和数据中(zhōng)心(xīn)占用空间。
英伟达也在大会上放出了最新的AI集群(qún)架构Blackwell的相关(guān)消息。英伟达称,Blackwell拥有6项(xiàng)革命性技术(shù),可(kě)支持多达10万亿参数的模型进行AI训练和实时大(dà)语言模(mó)型(LLM)推理。值得注(zhù)意的是,英伟达的Quasar量(liàng)化系(xì)统用于确定可以使用(yòng)较低精度的内容(róng),从而减(jiǎn)少计算和存储。英伟达表示他们的宗旨就(jiù)是在提高能源效率(lǜ)的同时为AI和(hé)加(jiā)速(sù)计算性能提供新(xīn)标准。
除 此之(zhī)外,英(yīng)特尔、博通、海力士等公司的演讲(jiǎng)中(zhōng)均提到了更节能的技术方案。
能源需求激增(zēng)
科(kē)技(jì)巨头们着眼“更(gèng)节能的(de)”技术方案的根本(běn)原因在于,当前人工智能热(rè)潮正在(zài)增加更强大(dà)的处理器以及保持数据中心冷却(què)所需(xū)的能源需求。
当前,微软、Alphabet和Meta等大型科技(jì)公(gōng)司正在投资(zī)数十亿美(měi)元建(jiàn)设数据中心基础设施,以支持生成式人(rén)工智能,但数据中心的激增(zēng)也(yě)伴随(suí)着能源需(xū)求的激(jī)增(zēng)。
据彭博社报道,仅去年,大型科(kē)技公司就(jiù)向数据中心(xīn)设施投入了约1050亿美元。谷歌、苹果和特斯拉等公司不断通过新产品和服务增强AI能力。每项AI任务都需要巨大(dà)的计(jì)算能力,这意(yì)味(wèi)着(zhe)数据中心会(huì)消耗大量电力。国际(jì)能源署(IEA)预测,到2026年,全球数据中心每年使用的能源量将相当于日本(běn)的电力消耗量。
Hugging Face的人(rén)工智(zhì)能和气候负责(zé)人(rén)Sasha Luccioni提到,虽(suī)然训练AI模型需要耗费大量能源(例如(rú),训(xùn)练 GPT-3模型耗费了大约1300兆瓦时的电力,而GPT-4的训练消耗是GPT3的50倍),但(dàn)通常只进行(xíng)一次。然而(ér),由(yóu)于查询量巨(jù)大(dà),模型生成响应可能(néng)需要更(gèng)多能源。
例如,当用户向ChatGPT等AI模型(xíng)提(tí)问时,需要(yào)向数据中心发(fā)送请求,然后强大的处理器会生成响应。这个过程虽然很快(kuài),但(dàn)消耗的能量也(yě)是巨大的。根据 艾伦人(rén)工智能研究所的数据,对(duì)ChatGPT进行一(yī)次查询所消耗的电量相(xiāng)当于为灯泡(pào)点亮20分钟,是简(jiǎn)单Google搜索耗电量(liàng)的(de)10倍以上。
然而,全球(qiú)的电力资源(yuán)有限,而数据(jù)中(zhōng)心需要(yào)持续稳定(dìng)的电(diàn)力供应来运行服务器和其他核(hé)心运营设备。如(rú)果能源供应不稳定,停机可能会给企业和(hé)其他用户造(zào)成重大(dà)经济损失。此外,巨大的能(néng)源消耗(hào)也引发(fā)了人们(men)对环境的担(dān)忧。
为应对这一挑战(zhàn),科技公司们开始(shǐ)寻找解决方案。
部(bù)分公司选择更清洁且高效的能源供给,如(rú)核能。亚马逊最近在美国宾(bīn)夕(xī)法尼亚州东北(běi)部购买了一个价值6.5亿美元(yuán)的核能数据(jù)中心园区设施,该设施将使用核反应堆产生的高达40%的电力(lì),最终使亚马逊能够减少对当地(dì)电(diàn)网(wǎng)的依赖。与此同时,微软聘(pìn)请了核专家来带头(tóu)寻(xún)找这种替代电源。微软还与(yǔ)核电站运营商签订了(le)合同协议,为其位(wèi)于弗吉尼亚州的一个数据中心提供(gōng)电力。
除此之(zhī)外,科技公(gōng)司们不仅在(zài)前文所提到的一(yī)系(xì)列芯片节能技术(shù)进 行努力,也在其他硬件设施和技术上下(xià)足(zú)了功夫。
谷歌正在开发人工智能专用芯片,例如张量处理单元(TPU),这些芯片针对(duì)人工智(zhì)能任务进行了优化,而(ér)不是(shì)使(shǐ)用为游戏(xì)技术创建的图形处理单元(GPU)。
英伟(wěi)达(dá)针对Blackwell芯片的直接液体冷却系统还宣布了(le)一项研究,研究表明了(le)如(rú)何(hé)重新利用从服务(wù)器中吸收的热量并将其(qí)回收到数据中(zhōng)心。据英伟达估计,冷却最多可减少算力狂飙电力承压 英伟达、英特尔争相推出节能方案数据中心设施耗电量的28%。
然而,威斯康星大学麦迪逊分校的教授辛克莱提醒,杰文斯(sī)悖论在这里依(yī)然适用。“提高 人工智能的效率,虽(suī)然减(jiǎn)少(shǎo)了单次能耗,但(dàn)整体使用率的增加最终会导致总体能耗的上升。”辛克莱解释道(dào)。这个悖论不仅适用于19世纪的火(huǒ)车(chē)煤炭使用,同样适用于当今(jīn)的人工智能和电力消耗。
未经允许不得转载:中央空调,电梯,空气能热水器-中央空调,电梯,空气能热水器 算力狂飙电力承压 英伟达、英特尔争相推出节能方案
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了