全球AI Server需求高漲 有望帶動年產值達1870億美元
全球AI Server需求高漲。聯合報系資料照
根據集邦(TrendForce)最新發布「AI Server(伺服器)產業分析報告」指出,2024年大型CSPs及品牌客戶等對於高階AI Server的高度需求未歇,加上CoWoS原廠TSMC及HBM原廠如SK hynix、Samsung及Micron逐步擴產下,於今年第2季後短缺狀況大幅緩解,連帶使得NVIDIA(輝達)主力方案H100的交貨前置時間(Lead Time)從先前動輒40-50周下降至不及16周,因此TrendForce預估AI Server第2季出貨量將季增近20%,全年出貨量上修至167萬臺,年增率達41.5%。
集邦表示,今年大型CSPs預算持續聚焦於採購AI Server,進而排擠一般型server成長力道,相較於AI server的高成長率,一般型server出貨量年增率僅有1.9%。而AI Server佔整體server出貨的比重預估將達12.2%,較2023年提升約3.4個百分點。若估算產值,AI Server的營收成長貢獻程度較一般型server明顯,預估2024年AI Server產值將達逾1,870億美元,成長率達69%,產值佔整體server高達65%。
從AI server搭配AI晶片類型來看,來自北美CSPs業者(如AWS、Meta等)持續擴大自研ASIC,以及中國大陸本土業者如Ali、Baidu、Huawei等積極擴大自主ASIC方案,促ASIC server佔整體AI server的比重在2024年將提升至26%,而主流搭載GPU的AI Server佔比則約71%。
就AI Server搭載的AI晶片供應商分佈來看,單看AI server搭載GPU,NVIDIA市佔率最高、逼近9成,AMD(超微)市佔率則僅約8%。但若加計所有AI server用AI晶片(包含GPU、ASIC、FPGA),NVIDIA今年市佔率則約64%。
據集邦的調查,展望2025年市場對於高階AI Server需求仍強,尤其以NVIDIA新一代Blackwell(包含GB200、B100/B200等)將取代Hopper平臺成爲市場主流,此亦將帶動CoWoS及HBM等需求。以NVIDIA的B100而言,其晶片尺寸將較H100翻倍,會消耗更多的CoWoS用量,預估2025年主要供應商TSMC的CoWoS生產量規模至年底總產能可達550k-600k,成長率逼近8成。
另以HBM用量來看,2024年主流H100搭載80GB HBM3,到2025年NVIDIA Blackwell Ultra或AMD MI350等主力晶片,將搭載達288GB的HBM3e,單位用量成長逾3倍,隨AI server市場需求持續強勁下,有望帶動2025年HBM整體供給量翻倍成長。
全球AI Server需求高漲。記者吳康瑋/攝影