Saturday, April 27, 2024
Home即時新聞AI難逃能源危機?微軟工程師:1個州部署超10萬片H100 GPU 電網就崩潰

AI難逃能源危機?微軟工程師:1個州部署超10萬片H100 GPU 電網就崩潰

「吃電巨獸」AI難逃「能源危機」?微軟1位GPT-6訓練集群項目工程師稱,如果在1個州部署超10萬片H100 GPU,電網就會崩潰。

外電報導,GPT-5尚未面世,OpenAI似乎已開始着手訓練GPT-6,不過電力或許已成為1個「卡脖子」難題。

AI初創公司OpenPipe聯合創始人、執行長 Kyle Corbitt(凱爾·科比特)透露,自己最近與1位負責GPT-6訓練集群項目的微軟工程師談過,該名工程師抱怨稱,在跨區域GPU之間部署infiniband(無線頻寛)級別鏈接,實在是1件痛苦的事。

Corbitt續問,為何不將訓練集群集中在同1區域,這位微軟工程師回答,我們已經嘗試過那麼做了,但是如果在1個州放置超過10萬片H100 GPU,電網就會崩潰。

10萬片H100是什麼概念?根據市場調查機構Factorial Funds的1份報告顯示,OpenAI的文字生成視頻模型Sora在高峰值期間需要72萬片H100,依該工程師的說法,這個數量足以讓7個州的電網崩潰。

剛謝幕的標普全球2024年劍橋能源周(CERAWEEK)上,來自全球的能源行業高層們,談起了AI技術對行業的推進,也談及了AI對能源巨大的需求。

美國最大天然氣生產商EQT執行長Toby Rice在演講中,援引了這樣1項預測,到2030年,AI消耗的電力將超過家庭用電量。

另,OpenAI的Sam Altman就曾為AI的能源、特別是電力需求“叫苦”。在年初的達沃斯論壇上他表示,AI的發展需要能源方面的突破,AI將帶來遠超預期的電力需求。

有數據顯示,ChatGPT每天需要消耗超過50萬千瓦時的電力,用於處理約2億個用戶請求,相當於美國家庭日用電量的1.7萬多倍;至於搜索巨頭GOOGLE,若其在每次用戶搜索中都調用AIGC,年耗電量將增至290億千瓦時左右,這甚至高於肯亞、瓜地馬拉等國1年的用電量。

回顧AI還未掀起如此大範圍熱潮的2022年,彼時中國與美國的數據中心分別佔各自社會總用電量的3%與4%。

隨着全球算力規模逐步增長,華泰證券3月24日研報預測,到2030年,中國與美國的數據中心總用電量將分別達到0.95/0.65兆度與1.7/1.2兆度電,是2022年的3.5倍與6倍以上;樂觀情景下,2030年中/美AI用電體量將達到2022年全社會用電量的20%/31%。

分析師進一步指出,由於數據中心分佈並不均勻,因此區域性的缺電風險將最先出現(如美國的維吉尼亞州),考慮美國電力慮歷史上幾乎無增長,因此AI將成為海外已開發國家電力重回正增長的重要驅動要素。自由時報0327

相關新聞
- Advertisment -

相關分類