Blog

AI技術背後的隱藏代價:巨大能源消耗引發環境擔憂

Blog Image
AI技術背後的隱藏代價:巨大能源消耗引發環境擔憂

December 25, 2023

重點摘要:
  1. 隨著對ChatGPT等AI技術的狂熱討論,許多人忽略了這些技術所需的巨大能源消耗。這些AI技術需要驚人的計算能力,導致巨大的電力消耗和相應的CO2排放。
  2. 一項研究估計,訓練單個大型語言模型(LLM)如GPT-2的碳足跡約為300,000公斤CO2,相當於紐約和北京之間來回飛行125次。這些排放僅代表AI生命周期的訓練階段,而實際運行時(推論階段)的碳足跡可能更大。
  3. 最新研究發現,生成任務比歧視性任務更耗能和碳密集,涉及圖像的任務排放的碳更多。一個較大模型可能需要超過2億次的推論互動,其碳足跡才與訓練它們的環境影響相等。



新聞內文:
在目前對於ChatGPT等AI技術的狂熱討論中,人們忽略了一個重要問題:這種技術所需的能源消耗是驚人的。

當人們對最新的新技術瘋狂時,我的反應是參考「Gartner Hype Cycle」,一個巧妙的圖表,它將新興技術的發展過程分為五個階段:「技術引發」階段,隨後迅速上升至「期望膨脹的高峰」;之後迅速下降進「失望的低谷」,接著是逐漸攀升的「啟蒙的坡度」;最終(通常是數年或數十年後)達到「生產力的高原」。

考慮到當前對AI的狂熱,我檢查了它在圖表上的位置。圖表顯示,生成式AI(ChatGPT等的委婉說法)剛剛達到了期望膨脹的高峰。這與科技行業對AI的發展狂熱預測相符,認為AI將是變革性的,並將很快無處不在。這種炒作引發了許多關於AI對就業、錯誤信息、政治等方面影響的焦慮擔憂,以及對人類存亡風險的焦慮推測。

所有這些有助於科技行業轉移人們對技術現已經產生的負面影響的注意力:偏見、不透明、不負責任和「幻覺」等。尤其是,目前的道德恐慌也意味著一個非常重要的問題缺失於公共討論:一個充斥著這種技術的世界會對地球造成什麼影響?這令人擔憂,因為它的環境影響至少會是重大的,最壞的情況可能會非常麻煩。

為什麼會這樣?基本上,因為AI需要驚人的計算能力。而由於計算機需要電力,所需的GPU(圖形處理單元)運行非常熱(因此需要冷卻),所以這項技術以驚人的速度消耗電力。這反過來意味著大規模的CO2排放——對此,該行業非常謹慎,同時又吹噓使用補償和其他手段來偽裝碳中和。

這意味著:行業夢想中的「AI無處不在」將帶來一個依賴於不僅脆弱而且具有龐大且不斷增長的環境足跡的技術的世界。難道我們不該更加關注這一點嗎?

幸運的是,一些人已經注意到這個問題,並且已經有一段時間了。例如,2019年的一項研究估計,訓練單個早期的大型語言模型(LLM)如GPT-2的碳足跡約為300,000公斤CO2排放量,這相當於紐約和北京之間來回飛行125次。自那以後,模型已經變得更大,它們的訓練足跡因此將相應增加。

但訓練只是生成式AI生命周期的一個階段。從某種意義上講,您可以將這些排放視為一次性的環境成本。然而,當AI開始服務,使成千上萬甚至數十億用戶能夠與之互動時會發生什麼?在行業術語中,這是「推論」階段。當您要求Stable Diffusion「創造Rishi Sunak對Elon Musk的圖像,同時Musk在他的手機上發送便便表情符號」時的時刻。該請求立即觸發遠程伺服器農場中的一陣計算。那是什麼碳足跡?每分鐘數百萬次這樣的互動會產生什麼碳足跡。這就是無處不在的AI世界將產生的。

對推論階段足跡的首次系統估計於上個月發布,進一步回答了這個問題。研究人員比較了各種類別的機器學習系統(共88個)的持續推論成本,涵蓋了特定任務(即執行單一任務的微調模型)和通用模型(即訓練用於多個任務的模型,例如ChatGPT、Claude、Llama等)。

發現很有啟發性。生成任務(文本生成、摘要、圖像生成和標題)預期比歧視性任務更耗能和碳密集。涉及圖像的任務比僅涉及文本的任務排放更多碳。令人驚訝的是(至少對這位專欄作家來說),訓練AI模型仍然比將它們用於推論要更加耗能和碳密集。研究人員嘗試估計需要多少推論才能使其碳成本與訓練它們的環境影響相等。在一個較大模型的情況下,需要204.5百萬次推論互動,在此之後AI的碳足跡將翻倍。

這聽起來很多,但在網路規模上它並不是。畢竟,ChatGPT在發布後的第一週就獲得了100萬用戶,目前有約1億活躍用戶。所以也許對地球最有希望的是生成式AI陷入Gartner的「失望的低谷」,使我們其他人能夠繼續生活。

新聞原址: https://www.theguardian.com/commentisfree/2023/dec/23/ai-chat-gpt-environmental-impact-energy-carbon-intensive-technology