AI算力競爭白熱化,一家新公司如何在英偉達“高牆”內找機會?
自從生成式AI引發全球算力需求暴漲,英偉達一手掌握了接近90%的市場份額,而AMD、英特爾及一衆國產芯片廠商只能在其身後拼命追趕。
"目前以GPU爲主的算力芯片本身就是壟斷市場,壟斷市場不存在替代。”國產GPU芯片創業公司行雲集成創始人季宇日前接受界面新聞採訪時表示,英偉達目前在算力芯片領域已形成了壟斷優勢——產品性能指標足夠強、每年一迭代速度足夠快、市場份額足夠大。競爭對手如果只推出對標產品與英偉達競爭,很難再有機會。
從A100到H100,再到B200,英偉達每代產品的算力性能指標都有成倍提升,競爭對手的旗下產品即使峰值算力可以與其比肩,但在實際工作中的標準算力都與其有較大的差距。按照英偉達CEO黃仁勳提出的“黃氏定律”:GPU性能每6個月翻一倍,公司保持每年更新一次的產品發佈節奏,該公司可以將對手遠遠甩在身後。
但這並不意味着市場沒有任何空隙留給其他競爭者。這當中,有的繼續追趕英偉達,成爲市場上的“備選”,有的選擇避開與英偉達正面交鋒,從其他路徑尋找新的機會。
成立於2023年的行雲集成屬於後者,其主要研發下一代針對大模型場景的GPU芯片。業內通常將算力看作計算、存儲和網絡互聯的三項性能指標的結合。相較於其他公司單一追求GPU在計算參數指標上追趕英偉達,行雲集成旨在通過相關設計提升GPU在存儲上的性能表現。
季宇告訴界面新聞記者,這幾年英偉達每代產品的計算性能指標在成倍提升,但相較於此前動輒5倍左右的增速有所放緩。與此同時,英偉達又在每代產品上投入大量資源去提升存儲性能,包括HBM和其他先進方案。
在他看來,英偉達爲了保持領先,在計算、存儲上採取“齊頭並進”策略,這在一定程度上造成了資源浪費:在AI大模型強調密集計算的場景,顯卡存儲是過剩的;在存儲密集的場景,計算資源又是過剩的。這位曾入選“華爲天才少年”的CEO,此前是海思昇騰芯片編譯器專家,負責多個昇騰編譯器項目。
季宇認爲,現階段OpenAI奉行的“Scaling law” 路線(增加模型的大小擴大訓練數據集的規模、投入更多計算資源時,模型的性能通常會提高),推動AI行業發展的同時也帶來了經濟負擔,畢竟對絕大多數公司來說,大量採購英偉達高端GPU是一筆不小的成本支出,未來規模擴張極易形成AI泡沫。
“大模型的商業探索根本上是硬件成本和模型Token質量(AI模型的基本單位)之間的相互妥協,此前業內提出的‘小模型’或者垂直模型,就是模型廠商考慮到硬件成本過高而選擇的妥協方案。”季宇說。
今年上半年,國內AI模型廠商集體降價成爲了行業新趨勢,部分廠商下降幅度最高超過90%。季宇對此解釋稱,模型廠商售賣Token實際上是在售賣訪存量,反映在硬件上是在售賣內存系統的訪存帶寬。對芯片設計而言,這直接與內存容量、帶寬相關聯。爲滿足這樣的需求變化,內存容量將決定模型的業務,帶寬成本將決定模型的性價比。“在這一前提下,相比繼續砸重金卷計算資源,GPU芯片在存儲、互聯上有更大的提升空間。”
上個月,行雲集成剛剛完成一筆數億元的天使+輪融資,公司創辦一年以來總計完成兩輪融資,同創偉業、中科創星、春華資本、智譜AI等私募創投機構均有參與。公司的目標是推出一款低成本、高性價比的GPU,價格預計在萬元左右,目前正處於設計階段,計劃在2026年推出正式產品。
面對GPU領域激烈的競爭態勢,以及英偉達建立的強大生態,行雲集成能否爭得一席之地?
對此,季宇解釋稱,AI大模型爆火後第一波需求主要來自亞馬遜、微軟等雲計算廠商,他們是搶購AI芯片的大客戶。隨着服務器越買越多,大模型已經變成了靠大量機器才能整體支持的單一超級業務。就像當初IBM的大型機,最早是專門爲銀行所需的高吞吐的數據處理需求設計一樣,英偉達的GPU現階段則針AI模型訓練或推理來設計,且一家的軟硬件生態已經成爲了行業標準。雲廠商對英偉達的依賴越來越深,話語權反而變弱,無法直接按照自身的業務場景需求設計產品,所以像微軟、亞馬遜、OpenAI都有佈局自研芯片的計劃,以增強自身話語權。
按照季宇的設想,如同英特爾x86架構曾推動個人用戶手動組裝計算機的潮流,繼而掀起與IBM大型機閉合的“黑盒”生態競爭一樣,行雲集成希望通過建立開放兼容、可擴展的“白盒”生態與對手競爭,同時幫助雲廠商及客戶在與英偉達的共生關係裡獲得更大的產品和價格的話語權。
“我們並不是要用自己的產品去替代英偉達的芯片,而是客戶用英偉達的芯片加上我們的補充芯片構成新組合,來滿足自身特定的需求。”在他眼中,這是除英偉達之外的GPU廠商、CPU廠商及x86系統失去的陣地,也是行雲集成這家新公司試圖把握的機會。但其能否如願,還要看產品和市場表現如何。