NVIDIA、AMD帶頭 AI向前衝!集邦曝下半年3大趨勢
其一,「HBM3進階到HBM3e」,預期NVIDIA將於今年下半年開始擴大出貨搭載HBM3e的H200,取代H100成爲主流,隨後GB200及B100等亦將採HBM3e。AMD則規劃年底前推出MI350新品,期間可能嘗試先推MI32x等過度型產品,與H200相抗衡,均採HBM3e。
其二,「HBM搭載容量持續擴增」,爲了提升AI伺服器整體運算效能及系統頻寬,將由目前市場主要採用的NVIDIA H100(80GB),至2024年底後將提升往192~288GB容量發展;AMD亦從原MI300A僅搭載128GB,GPU新品搭載HBM容量亦將達288GB。
其三,「搭載HBM3e的GPU產品線,將從8hi往12hi發展」,NVIDIA的B100、GB200主要搭載8hi HBM3e,達192GB,2025年則將推出B200,搭載12hi HBM3e,達288GB;AMD將於今年底推出的MI350或2025年推出的MI375系列,預計均會搭載12hi HBM3e,達288GB。