AI加速器市場規模 勁揚

隨着客戶除了通用的GPU解決方案外,持續積極採用AI ASIC。圖/美聯社

AI推論複雜度提高

AI晶片開發複雜度正提升當中,主因各類神經網路的興起以及AI高運算需求的增長,尤其在模型規模擴大和種類日益增加之下,傳統CPU已無法滿足AI工作負擔對功耗和效率的要求,因此,AI加速器(如AI GPU和AI ASIC)應運而生以更高效地處理任務,併爲特定類型的AI模型提供高性能且低功耗的解決方案。

然而,這種特定性仍存在一些問題,尤其在進入AI推論時代後,面對未來AI模型恐會出現適應彈性不足問題。

AI訓練與推論有顯著差異。訓練需要密集的反向傳播和權重調整,對計算能力有着極高的需求。而AI推論則爲運作已訓練好的AI模型,雖然複雜性較低,但計算需求仍然很高。隨着AI模型對浮點運算需求的增加,CPU因其能耗考量難以處理此類運算。

因此,GPU、TPU與AI ASIC,此類速度更快但能耗要求也很高的晶片成爲替代方案,同時也看到對處理速度的需求仍在不斷增長。AI正從推薦引擎和語音助理等初階應用,發展到大型語言模型(LLM)和生成式AI等更復雜的領域,意在創造類似人類反應以及應對系統。爲達成以上功能,模型規模呈指數型增長,目前某些模型參數數量已超過1兆。

最初的AI模型集中於少數基本圖像識別網路,現在許多模型(如vision transformation到生成模型等),皆推動公司尋求更多可編程的解決方案來支持多樣化的用途。同時,AI正從數據中心擴展到邊緣設備,支持各類應用。隨着AI演算法複雜度的增加,相關需求也加速提升,但彈性仍是應對快速發展模型的關鍵。

越來越多的晶片設計者,開始考慮定製AI引擎,以滿足獨特的模型需求。然而,定製化也帶來挑戰,如晶片設計者面臨的學習曲線陡峭和潛在的延遲。不過,這些定製化解決方案功能顯著,部分公司通過定製化AI引擎(自家的ASIC)來大幅提升處理速度,並節省一半以上的功耗。

對晶片設計者而言,資料儲存、移動與計算仍是考量重點。隨着AI模型不斷增長和演進,對效率變得至關重要。

展望未來一年,ASIC的市場規模長期增長仍是一致共識。隨着客戶除了通用的GPU解決方案外,持續積極採用AI ASIC,來自AI的收入將持續快速提升,並且隨着進入AI推論世代而進一步加速。