NVIDIA Blackwell平臺助攻 明年液冷散熱滲透率將逾20%
集邦調查,明年在NVIDIA Blackwell平臺助攻 液冷散熱滲透率將逾20%。圖爲臺達電展示液冷式AI伺服器。圖/聯合報系資料照片
集邦科技今日發佈最新調查,隨着輝達(NVIDIA) Blackwell新平臺預計於今年第4季出貨,將助益液冷散熱方案的滲透率明顯成長,預估將從2024年的10%左右至2025年將突破20%。集邦強調,全球ESG意識提升,加上雲端服務業(CSP)加速布建AI伺服器(server),預期有助於帶動散熱方案從氣冷轉向液冷形式。
集邦調查指出,全球AI server市場,2024年主要AI方案供應商仍是NVIDIA。若單就GPU AI Server市場而言,NVIDIA則有絕對領先優勢,市佔率逼近90%,排名第二的AMD僅約8%。
集邦觀察,今年NVIDIA Blackwell出貨規模尚小,因供應鏈持續執行產品最終測試驗證等流程,如高速傳輸、散熱設計等有待持續優化。新平臺因能耗較高,尤其GB200整櫃式方案需要更好的散熱效率,有望帶動液冷方案滲透率。但既有server生態系採用液冷的比例尚低,對於漏液或散熱效能不佳的問題,ODM仍須歷經學習曲線後得出最佳解決方式。集邦預估2025年Blackwell平臺在高階GPU的佔比有望超過80%,促使電源供應廠商、散熱業者等將競相投入AI液冷市場,形成新的產業競合態勢。
近年穀歌(Google)、亞馬遜雲端(AWS)和微軟(Microsoft)等大型美系雲端業者皆加快布建AI server,以搭載NVIDIA GPU及自研特殊應 用IC(ASIC)的方式爲主。其中NVIDIA GB200 NVL72機櫃的熱設計功耗(TDP)高達約140kW,須採用液冷方案才能解決散熱問題,預計將以水對氣(Liquid-to-Air, L2A)方式爲主流。HGX和MGX等其他架構的Blackwell伺服器因密度較低,氣冷散熱爲主要方案。
就雲端業者自研AI ASIC來說,Google的TPU除了使用氣冷方案,亦佈局液冷散熱,是最積極採用液冷方案的美系業者,BOYD及Cooler Master爲其冷水板(Cold Plate)的主要供應商。在中國方面,Alibaba最積極擴建液冷資料中心,其餘雲端業者對自家的AI ASIC主要仍採用氣冷散熱方案。
集邦指出,雲端業者將指定GB200機櫃液冷散熱方案的關鍵零組件供應商,目前冷水板(Cold Plate)主要業者爲奇𬭎及Cooler Master,分歧管(Manifold)是Cooler Master和雙鴻,冷卻分配系統(Coolant Distribution Unit, CDU)爲Vertiv及臺達電。至於防止漏水的關鍵零件快接頭(Quick Disconnect, QD),目前採購仍以CPC、Parker Hannifin、Denfoss和Staubli等國外廠商爲主,臺灣供應商如嘉澤、富世達等已在驗證階段,預期2025年上半年臺廠有機會加入快接頭供應商的行列,有助逐步舒緩當前供不應求的情形。