-
到2029年,人工智能將消耗世界1.5%用電量發(fā)布日期:2024-07-11 16:28:33閱讀量:389
生成式人工智能(GenAI)將占據(jù)全球更大的電力消耗,以滿足運(yùn)行應(yīng)用程序的龐大硬件需求。半導(dǎo)體研究公司TechInsights上個(gè)月在一份研究報(bào)告中表示:“未來(lái)五年,人工智能加速器將消耗全球2318太瓦時(shí)的電力,將占全球用電量的1.5%,占全球能源的很大一部分?!?/span>
TechInsights對(duì)2025年至2029年間全球總用電量進(jìn)行了基線測(cè)量,數(shù)據(jù)來(lái)自美國(guó)能源情報(bào)署。該測(cè)量是基于每個(gè)GPU使用700瓦的功耗,這是英偉達(dá)旗艦Hopper GPU的功耗。英偉達(dá)即將推出的名為Blackwell的GPU速度更快,但功耗為1200瓦。
TechInsights的假設(shè)僅包括芯片消耗的功率,不包括存儲(chǔ)、內(nèi)存、網(wǎng)絡(luò)和用于生成式人工智能(GenAI)的其他組件的功耗測(cè)量。
TechInsights分析師Owen Rogers在一份研究報(bào)告中表示:“考慮到對(duì)GPU容量的巨大需求,以及為這些昂貴資產(chǎn)提供回報(bào)的需要,如此高的利用率是可行的。”
麥肯錫的一項(xiàng)人工智能調(diào)查顯示,65%的受訪者打算采用GenAI。
為了滿足需求,云提供商和超大規(guī)模廠商正在投資數(shù)十億美元來(lái)增加GPU的數(shù)量。微軟依靠英偉達(dá)的GPU來(lái)運(yùn)行其人工智能基礎(chǔ)設(shè)施,而Meta聲稱將擁有一個(gè)相當(dāng)于“近60萬(wàn)個(gè)H100”GPU的計(jì)算環(huán)境。
根據(jù)TechInsights的數(shù)據(jù),英偉達(dá)在2023年的GPU出貨量約為376萬(wàn)顆,高于2022年的約260萬(wàn)顆。
去年,Gartner對(duì)電力消耗做出了更為激進(jìn)的預(yù)測(cè),稱人工智能“可能消耗全球3.5%的電力”。Gartner的方法尚不清楚,但可能包括網(wǎng)絡(luò)、存儲(chǔ)和內(nèi)存。
人工智能競(jìng)賽的特點(diǎn)是公司提供最快的基礎(chǔ)設(shè)施和更好的結(jié)果。在商業(yè)中應(yīng)用人工智能的熱潮打亂了長(zhǎng)期建立的企業(yè)可持續(xù)發(fā)展計(jì)劃。
微軟(Microsoft)、谷歌(Google)和亞馬遜(Amazon)正斥資數(shù)十億美元,建設(shè)配備GPU和人工智能芯片的巨型數(shù)據(jù)中心,以訓(xùn)練和服務(wù)更大的模型,這進(jìn)一步增加了電力負(fù)擔(dān)。
成本挑戰(zhàn)
Rogers在研究報(bào)告中說(shuō),服務(wù)器可以花2萬(wàn)美元購(gòu)買,但企業(yè)需要考慮到不斷增長(zhǎng)的電力成本和能源網(wǎng)絡(luò)面臨的挑戰(zhàn)。數(shù)據(jù)中心還需要設(shè)計(jì)成能夠處理人工智能的電力需求。這種需求可能取決于電網(wǎng)容量和備用電力容量的可用性。能源公司也有責(zé)任為人工智能時(shí)代做好準(zhǔn)備,建立發(fā)電站、太陽(yáng)能農(nóng)場(chǎng)、輸電線路等電力基礎(chǔ)設(shè)施。
“如果需求無(wú)法滿足,能源供應(yīng)商將采取基于市場(chǎng)的方法來(lái)管理產(chǎn)能,即提高價(jià)格以減少消耗,而不是拒絕產(chǎn)能。這樣,可能會(huì)對(duì)人工智能技術(shù)的用戶產(chǎn)生成本影響?!盧ogers說(shuō)。
美國(guó)政府的第一個(gè)目標(biāo)是到2035年生產(chǎn)100%的清潔能源,這將減輕電網(wǎng)的負(fù)擔(dān)。這也將為更多的人工智能數(shù)據(jù)中心打開(kāi)大門。
有效利用能源
人工智能消耗的電力側(cè)面反映了加密貨幣挖礦給電網(wǎng)帶來(lái)的負(fù)擔(dān)。根據(jù)美國(guó)能源情報(bào)署2月份發(fā)布的一份報(bào)告,加密貨幣挖礦約占美國(guó)用電量的2.3%。然而,能源行業(yè)觀察人士一致認(rèn)為,與比特幣挖礦相比,人工智能是一種更有效的能源利用方式。
英偉達(dá)的人工智能重點(diǎn)還在于有效利用能源。為了降低能耗,英偉達(dá)的GPU采用了自己的芯片技術(shù)。該公司正在將散熱技術(shù)從空氣冷卻改為液體冷卻。
英偉達(dá)超大規(guī)模和高性能計(jì)算業(yè)務(wù)副總裁兼總經(jīng)理Ian Buck在上個(gè)月的一次投資者活動(dòng)上表示:“這里的機(jī)會(huì)……是幫助他們通過(guò)一個(gè)固定的兆瓦級(jí)數(shù)據(jù)中心,以盡可能低的成本獲得最大性能。”
高性能計(jì)算提供商、人工智能和可持續(xù)性
在最近的ISC 24超級(jí)計(jì)算會(huì)議上,小組成員取笑英偉達(dá),聲稱其1000瓦的GPU是“可持續(xù)的”。
政府實(shí)驗(yàn)室還表示,GPU和直接液體冷卻比過(guò)去的CPU提供了更好的性能擴(kuò)展。美國(guó)勞倫斯利弗莫爾國(guó)家實(shí)驗(yàn)室正在建造即將到來(lái)的2百億億次超級(jí)計(jì)算機(jī)“酋長(zhǎng)”(El Capitan),該實(shí)驗(yàn)室將冷卻能力增加了18,000噸,提高到28,000噸,并將當(dāng)前和未來(lái)系統(tǒng)的電力供應(yīng)提高到85兆瓦。
LLNL首席技術(shù)官Bronis de Supinski在一個(gè)分組討論會(huì)上表示:“El Capitan…耗電量將低于40兆瓦,約為30兆瓦,但這仍是很大的電力?!?/span>
他承認(rèn),El Capitan超級(jí)計(jì)算機(jī)可能不被認(rèn)為是環(huán)保的,但重點(diǎn)也應(yīng)該放在性能-功率范圍內(nèi)取得的成果上。例如,如果一臺(tái)超級(jí)計(jì)算機(jī)能夠解決氣候問(wèn)題,那么它所消耗的能量可能是值得的。
“一臺(tái)30兆瓦的超級(jí)計(jì)算機(jī)?我不會(huì)告訴你這是一種可持續(xù)的資源,但它可以做很多事情來(lái)解決我們想要解決的社會(huì)問(wèn)題,” Supinski說(shuō)。
實(shí)驗(yàn)室也在轉(zhuǎn)向可再生能源和液體冷卻。例如,LRZ的主席Dieter kranzlller在ISC 24會(huì)議上表示,液體冷卻“節(jié)省了大約50%的冷卻能源”。
在可持續(xù)計(jì)算環(huán)境中,碳中和、捕獲和再利用廢熱以及材料再利用也被考慮在內(nèi)。
HPC的過(guò)去驅(qū)動(dòng)未來(lái)
讓超級(jí)計(jì)算機(jī)更節(jié)能的努力現(xiàn)在被用來(lái)更好地利用人工智能處理中消耗的每一瓦特能源。
在上個(gè)月的惠普Discover大會(huì)上,惠普首席執(zhí)行官?Antonio Neri表示,公司正在將Frontier和El Capitan中使用的能效技術(shù)移植到搭載英偉達(dá)GPU的人工智能系統(tǒng)中。“惠普擁有世界上最大的水冷制造能力之一。為什么?因?yàn)槲覀儽仨殲槌?jí)計(jì)算機(jī)做這件事?!庇ミ_(dá)首席執(zhí)行官黃仁勛也在臺(tái)上稱:“液體冷卻的未來(lái)將帶來(lái)更好的性能、更低的基礎(chǔ)設(shè)施成本和更低的運(yùn)營(yíng)成本?!?/span>
終端人工智能
消費(fèi)設(shè)備制造商正在兜售帶有人工智能神經(jīng)芯片的個(gè)人電腦和其他移動(dòng)設(shè)備終端。神經(jīng)芯片可以在本地運(yùn)行人工智能模型,減少云計(jì)算中GPU的壓力。
蘋果提供了其設(shè)備上和云上人工智能戰(zhàn)略的完整愿景——如果iPhone或Mac確定無(wú)法在設(shè)備上完成人工智能任務(wù),它會(huì)將查詢重新路由到蘋果數(shù)據(jù)中心的云服務(wù)器。蘋果用戶還可以選擇是在設(shè)備上運(yùn)行人工智能還是通過(guò)云運(yùn)行。
微軟鼓勵(lì)在Windows設(shè)備中使用人工智能芯片。高通的AI Hub允許用戶運(yùn)行基準(zhǔn)測(cè)試,以了解AI模型在設(shè)備上的運(yùn)行情況。這可以讓用戶決定是在設(shè)備上運(yùn)行推理還是在云中運(yùn)行。然而,目前還沒(méi)有針對(duì)個(gè)人電腦的人工智能殺手級(jí)應(yīng)用程序,可以讓個(gè)人電腦將人工智能的壓力從云端的GPU轉(zhuǎn)移下來(lái)。