Основні поняття
以 GPU 為中心的 AI 專用高效能運算資料中心,與傳統以 CPU 為中心的通用型高效能運算資料中心相比,能夠以更低的成本提供更大的電網靈活性,尤其是在需要長時間持續供電的電力系統服務方面。
研究背景
人工智慧(AI)的快速發展,特別是大語言模型的興起,需要耗能巨大的高效能運算(HPC)資料中心來支持其運作。這些以 AI 為重點的 HPC 資料中心通常以圖形處理器(GPU)等加速器為中心,導致其能源需求遠高於傳統用於科學計算的以中央處理器(CPU)為中心的通用型 HPC 資料中心。
研究目的
本研究旨在評估以 AI 為重點的 HPC 資料中心與通用型 HPC 資料中心相比,在提供電網靈活性方面的能力和成本差異。
研究方法
研究人員收集了 7 個以 AI 為重點的 HPC 資料中心和 7 個通用型 HPC 資料中心的真實數據集,並使用這些數據集來評估資料中心在不同電力系統服務(例如,初級響應、擁塞管理)下的最大靈活性和平均靈活性成本。
主要發現
以 AI 為重點的 HPC 資料中心可以提供比通用型 HPC 資料中心更大的電網靈活性,尤其是在需要較長持續時間的電力系統服務方面。
以 AI 為重點的 HPC 資料中心提供電網靈活性的成本比通用型 HPC 資料中心低至少 50%。
在某些情況下,以 AI 為重點的 HPC 資料中心通過提供電網靈活性可以獲得經濟上的盈利。
資料中心利用率模式的差異(例如,平均利用率、利用率標準差)也影響了其電網靈活性和成本。
動態配額(dynamic quota)可以進一步提高資料中心的靈活性和降低靈活性成本。
主要結論
與傳統的通用型 HPC 資料中心相比,以 AI 為重點的 HPC 資料中心在提供電網靈活性方面更具優勢。這一發現為電力系統運營商和資料中心運營商提供了新的合作機會,以應對日益增長的電力需求和提高電網穩定性。
研究意義
本研究強調了以 AI 為重點的 HPC 資料中心在未來電網中的潛在作用,並為資料中心參與電力系統服務提供了新的經濟動機。
研究限制和未來方向
本研究的局限性在於其對資料中心電力數據的線性假設,以及對動態配額功能的簡化模擬。未來的研究可以進一步探討這些方面,並評估不同類型的資料中心在提供電網靈活性方面的差異。
Статистика
在美國,資料中心目前佔總電力需求的 3%,預計到 2030 年這一比例將增長到 8%,而人工智慧是主要驅動因素之一。
最新一代的“192 線程 AMD EPYC 9654 CPU”額定功率僅為 360 瓦,而最新一代的“NVIDIA B200 GPU”功耗可達 1000 瓦。
英國的電力靈活性服務(DFS)在 2022/23 年和 2023/24 年冬季,在系統壓力大的時段,為靈活性提供每千瓦時 3 英鎊(約合 3.8 美元)的保證接受價格。