作者:金牛幫幫忙
為了達到淨零碳排目標,人們需要密集監控自然環境與資源使用,同時也需要找到最有效率的能源使用方式,讓能源效益極大化,碳排放極小化。而AI在其中扮演重要角色。
在產業應用中,AI技術可以即時監測污染、減少水及能源浪費,大幅減少人力成本,在Google
Map等地圖服務中,還能推薦環境友善路徑,提升整體能源的使用效率,加速達到碳中和的目標。此外,AI還能預測自然災害的發生機率與時間點,例如洪水預測,也能模擬海平面上升會如何侵蝕沿岸城市,並預測容易發生野火的乾旱地區,給人們更多時間準備,若發生火災就能及早撲滅。這些都是AI的減碳應用。
矛盾的是,雖然AI有助於提升能源使用效率,但AI的訓練與使用過程卻相當耗能,讓減碳的效益打折扣。
訓練AI不只會消耗電能,還會消耗大量水資源
與水泥、石化產業相比,資通訊產業給人較為清潔的感覺,但它其實也是高碳排的產業。《華爾街日報》指出,資通訊產業碳排放量占全球總碳排的3%;若資通訊產業是個國家,它會是世界第6大排放源,僅次於中國、美國、印度、俄羅斯與日本。
至於用於AI運算的資料中心,它的碳排放量占比也達到2%,和航空業相同。而隨著AI發展,訓練AI模型所需的能量也隨之增加。提升資料中心的能源使用效率將有助於降低碳排放量,是刻不容緩的議題。
為了研究機器學習模型的生命週期碳足跡,AI應用開發商Hugging Face的研究科學家Sasha Luccioni和另外兩位研究人員設計一個名為Bloom的機器學習模型。研究團隊發現,訓練模型所消耗的電能並不是碳排放的唯一來源。Bloom使用GPU運算,因此製造GPU所使用的水源與稀有金屬原料也是碳排放的來源,而且它們的排碳量跟訓練AI所消耗電能的排碳量不相上下。
根據史丹佛大學2023年4月的一份報告,Bloom在2022年3月至2022年7月期間,訓練模型所使用的能源足以為美國普通家庭供電41年。此次訓練的排放量相當於搭飛機往返紐約到舊金山25次,比美國人一年平均排放量還高了三分之一以上。而類似Bloom的AI模型,例如OpenAI的ChatGPT-3,其二氧化碳的排放更是Bloom的20倍,消耗的電量也大約是Bloom的3倍。
ChatGPT-3也消耗大量水資源。加州大學河濱分校(University of California Riverside)的電機暨計算機工程教授Shaolei
Ren表示,當ChatGPT-3進行20至50個基本對話時,就要消耗500毫升的水。至於模型更龐大的ChatGPT-4,Ren推估,應該會消耗更多水資源,但目前沒有充足的公開數據去推算確切的耗水量。
至於Google的大型語言模型LaMDA,Ren的團隊估算,僅在訓練的階段,模型就消耗了約1,000公噸的水。根據Google統計,2022年資料中心的用水量比2021年增加將近20%。至於LaMDA模型的碳排放量,Google估算為26公噸,相當於22名乘客搭飛機往返舊金山與紐約的碳排放量。
使用不同地區的水和電,也會影響AI訓練的排碳量
資料中心該如何節水節電,以降低AI運算所產生的碳排?
能源來源是降低碳排的重要因素,若使用替代能源,就能在不改變模型的規模條件下,減少AI運算的碳排放量。另外,美國沒有中央電網,每個州的發電方式不同,所以在不同州訓練模型的碳排放量也不同。若要在美國建設資料中心,選擇風電資源豐富的加州,會比依賴化石燃料的維吉尼亞州更佳,能取得更多的減碳效益。
用水也能像用電一樣,使其更有效率,但關鍵在水從何來。微軟統計,資料中心每使用一單位的電,亞洲資料中心用於降溫的耗水量是美洲資料中心的3倍,原因是亞洲的氣候較熱,需要使用水冷式冷卻機組降溫,就會消耗更多水。Ren的研究團隊則表示,不同季節會劇烈影響用水量。夏天時,因為水更容易蒸發,因此要消耗更多水。季節變化加上不同的地理位置影響,資料中心的最高用水量可以和最低用水量差到3倍以上。
AI的工作都是透過網路來進行,可以透過不同的資料中心運算,若能根據不同地區的能源與用水量的特性來分擔運算工作,就可以降低總體的耗電與耗水,進而降低碳排。例如使用再生能源較多的資料中心,或是透過較冷地區的資料中心運算,就能更省水省電。Ren也表示,除了使用淡水,Google也在研究如何使用廢水、海水替代,降低耗水量。Google去年曾在blog文章中提到,Google的目標是在2030年前,為自然環境補充其資料中心120%的用水量。
Luccioni則認為,不是所有的任務都需要導入AI,如果該任務原先已經有良好且高效的技術,就不需要使用高耗能的AI,這樣也有助於降低碳排放量。但在對抗氣候變遷的戰役中,透過AI能尋找出更有效率的工作路徑,也能更精準模擬氣候模式,進而找出更好的應對方式。水可載舟也可覆舟,人們必須在AI的減碳效益與AI的能耗間找到平衡點。
|