自研 AI 晶片夯!雲端服務四雄激戰 臺積電幾乎通吃相關訂單
AI示意圖。 (路透)
AI熱潮席捲全球,四大雲端服務業者(CSP)亞馬遜(Amazon)、微軟、Google、Meta積極建置AI伺服器之際,也大力投入自研AI晶片領域,這些自研AI晶片不對外販售,卻成爲各大CSP廠在這場激烈的AI賽局中勝出的秘密武器之一,也讓全球AI大戰更加激烈。
值得注意的是,各大CSP都開始自行研發晶片,由於AI晶片需要先進製程量產,臺積電(2330)具備技術與產能優勢,幾乎通吃相關訂單,大啖AI商機。
亞馬遜的AWS稱霸雲端服務市場,也是最早開始自行設計晶片的CSP業者,以加強自家雲端伺服器的運算能力。Amazon AWS在2023年12月年度開發者大會上宣佈,推出新一代自研晶片Graviton4晶片和AI晶片Trainium2,同時攜手輝達開發超級電腦,展現CSP龍頭氣勢。
AWS指出,新型Graviton4晶片運算效能較前代Graviton3增加高達30%、內核增加50%、記憶體頻寬提升75%,在亞馬遜彈性雲端運算(Amazon Elastic Compute Cloud,Amazon EC2)上提供最高性價比與能源利用效果,應用Graviton4的電腦將在未來數個月內上市。
AWS推出的另一款新品爲新一代AI晶片Trainium2,速度較前代Trainium1快四倍,將能在EC2 UltraCluster中部署多達10萬個晶片,讓用戶在短時間內訓練上兆參數的基礎模型(PM)和大型語言模型(LLM)。
微軟、Google、Meta在雲端服務市佔率雖然不及AWS,但在生成式AI工具和大語言模型彎道超車,更追上自研晶片趨勢。Meta攜手微軟推出免費商用大型語言模型Llama 2,雙方於人工智慧領域擴大合作,Meta並釋放出多個語言模式供業界、學界免費使用,配合Llama 2。
2023年5月,Meta公開首款自研AI晶片「MTIA」(Meta Training and Inference Accelerator),最快2025年推出。MTIA針對推論、演算法等工作設計,過去Meta資料中心的晶片也是以採用輝達(NVIDIA)產品爲主,但爲了自家AI功能更強、成本因素,決定推出自己的晶片。
Google持續打造專爲AI設計打造的Google Tensor晶片,內含CPU、GPU,尤其着重在有AI運算能力的TPU(Tensor Processing)。Tensor晶片被用來執行公司九成以上的AI訓練作業,並將其用於公司內部逾90%的AI訓練工作,目前已發展到第四代。Google以自研晶片打造自家資料中心以外,也搭載手機產品,實現從軟體搭配硬體實踐Google AI軟體服務的理念。
生成式AI的風潮,也讓微軟從軟體業者變成系統業者,微軟去年在Ignite大會上,公佈爲AI服務而設計的Maia 100 AI加速器,以及用來執行Azure上通用型運算作業的Arm架構處理器Cobalt 100CPU,微軟從晶片、軟體與伺服器到機架、冷卻系統100%標榜全自制,晶片完整了微軟硬體的「最後一哩」,相關產品預計今年初應用於微軟資料中心,主要執行Copilot(Bing Chat)AI及Azure OpenAI Service。
延伸閱讀
大廠自研AI晶片跨海找戰友 創意、世芯出線
輝達、超微、英特爾、高通瞄準新應用 半導體業超級商機引爆
晶圓代工、先進封裝需求激增 臺積電、日月光搭趨勢列車
工研院看 GAI 浪潮 臺廠有機會也有挑戰
軟銀創辦人較勁輝達 孫正義擬跨足人工智慧晶片
美超微賣壓涌 股價摔20%
Nvidia仿效蘋果三招致勝 達標速度卻快十倍!