合作媒體

人工智慧驅動全球能源需求驟增 資料中心耗電量十年內恐倍增

商傳媒|葉安庭/綜合外電報導

隨著人工智慧(AI)技術的快速發展,其龐大的運算需求正以前所未有的速度推升全球能源消耗,對現有電力基礎設施構成嚴峻挑戰。據《Brookings》學會的分析,AI驅動的資料中心電力需求預計在2030年前將比2024年翻倍,國際社會已開始關注並研擬相關監管措施,以應對這股能源浪潮。

AI耗能加速 資料中心成用電巨獸

AI模型與工具的飛速進展,使其能源消耗成為焦點。2024年,全球資料中心的總用電量約為415兆瓦時(TWh),佔全球總用電量的1.5%,自2017年以來年複合成長率達12%,是全球總用電成長率的四倍以上。有預測指出,至2026年,資料中心耗電量可能逼近1,050兆瓦時,若將其視為一個國家,將成為全球第五大能源消耗國。國際能源總署(IEA)和勤業眾信(Deloitte)的預估則顯示,全球資料中心耗電量至2030年將分別達到945兆瓦時與1,065兆瓦時;高盛研究(Goldman Sachs Research)更預期,到2030年,電力需求將較2023年增加160%至165%。

以美國為例,勞倫斯柏克萊國家實驗室(LBNL)2024年發布的報告指出,資料中心在2023年佔美國總用電量的約4.4%,預計到2028年將升至6.7%至12%。超大規模(hyperscale)資料中心的擴張是主要推手,例如Amazon、Google和Meta等業者,預估在2025年將斥資3,640億美元用於資料中心建設。單一AI生成模型如ChatGPT在2024年的一次查詢需消耗約2.9瓦時電力,幾乎是傳統Google搜尋的十倍,儘管新測量顯示中位數已降至0.24-0.3瓦時。

電網負荷加劇 區域性挑戰浮現

AI資料中心的能源需求高度集中於特定區域,對當地電網造成巨大壓力。在法蘭克福,資料中心用電已佔當地電力需求的42%,都柏林甚至高達近80%。這導致電網連接等待時間大幅拉長,在成熟市場平均需7至10年,部分計畫甚至延遲13年。國際能源總署估計,全球近兩成的資料中心專案恐因電網連接問題而面臨顯著延誤。愛爾蘭公用事業監管委員會(Commission for Regulation of Utilities, CRU)已採行嚴格政策,要求資料中心證明現場發電能力並在電網壓力期間減載,荷蘭政府也曾對超大規模資料中心發出九個月的禁令以評估其影響。此外,資料中心對水資源的需求也日益增加,2023年美國資料中心消耗約170億加侖水,預計到2028年,超大規模資料中心的直接用水量將達每年160億至330億加侖。

為滿足龐大能源需求,各國政府與科技巨頭正尋求多元解決方案。美國總統川普(Donald Trump)曾宣布中東國家與投資者將投入數十億美元於美國晶片和AI公司,美國內政部長Doug Burgum近期也與阿布達比簽署了AI與能源合作備忘錄。資料中心的電力來源多元,2024年以天然氣(40%)為主,其次為再生能源(24%)、核能(20%)和燃煤(15%)。核能作為穩定供電選項受到青睞,例如法國約七成電力來自核能,資料中心營運商Data4已與法國電力集團(EDF)簽訂核能供電合約,Amazon和微軟(Microsoft)也投資核電廠以直接供應資料中心。東南亞地區則因土地與電價優勢,吸引Amazon、Google和微軟等企業數十億美元的資料中心投資,預計該市場規模將從2024年的137.1億美元倍增至2030年的304.7億美元。中國也在大規模部署再生能源的同時,持續擴建燃煤發電,以確保能源安全。

AI科技助力能源管理與國際監管趨勢

儘管AI帶來能源挑戰,其自身也能在能源效率上發揮作用。國際能源總署指出,AI工具廣泛應用可釋放高達175吉瓦(GW)的輸電容量。Google旗下的DeepMind部門便透過AI預測風力發電,將風能的經濟價值提升約兩成。AI系統也能用於電網監控、設備維護,減少停機時間。國際組織亦積極推動AI永續發展,經濟合作暨發展組織(OECD)2024年修訂的AI原則納入了永續發展語彙,七大工業國組織(G7)的「廣島AI進程」也提出行為準則。歐盟的人工智慧法案(EU AI Act)要求通用型AI模型供應商報告模型能源消耗,並透過能源效率指令納入資料中心的關鍵績效指標(KPI)。

然而,透明度與一致性仍是挑戰。科技公司在披露AI模型訓練耗能、資料中心用水及整體碳足跡方面,尚缺乏統一標準。各公司報告方法不一,如Google Gemini模型單次文字生成查詢的能耗為0.24瓦時,碳排放0.03克,用水0.26毫升;Mistral AI的Mistral Large 2模型在18個月內產生了2.04萬噸二氧化碳當量,消耗28.1萬立方米水。這些差異使得監管機構難以進行有效比較。

「傑逢斯悖論」:效率提升反致總耗能增加

值得注意的是,AI的單位效率提升可能無法抵銷總體需求成長。Google報告指出,從2024年5月至2025年5月,其Gemini模型的單次查詢能耗降低了33倍,碳足跡減少了44倍。然而,Google資料中心的總耗電量在2024年仍年增27%,公司整體溫室氣體排放量在2019年至2024年間增加了51%。這反映了「傑逢斯悖論」(Jevons Paradox)現象——效率提高反而刺激了更多消費。AI資料中心的能源需求已迫在眉睫,而AI在能源管理領域帶來的效率提升則需要更長時間才能大規模實現,兩者之間存在顯著的時間錯配。