OpenAI大缺芯!CEO:幾乎沒有GPU可用
ChatGPT每週活躍用戶高達4億,但最近有報道稱由於ChatGPT背後的AI巨頭OpenAI正面臨嚴重的GPU短缺,導致其最新AI模型GPT-4.5的推出受阻。
沒有GPU可用?
CEO Sam Altman透露,公司目前“幾乎沒有GPU可用”,計劃在下週增加數萬顆GPU以滿足激增的需求。
由於GPU供應緊張,GPT-4.5目前僅向每月200美元的Pro訂閱用戶開放,20美元/月的Plus用戶的訪問權限被推遲。Altman形容新模型 “龐大且昂貴”,需要極其龐大的計算資源來支持。
OpenAI的GPU危機凸顯了AI領域對計算硬件的激烈競爭,影響從企業級應用到消費市場。該公司計劃儘快爭取“數十萬”顆 GPU,也進一步印證了AI時代對算力的驚人需求。
但硬幣的另一面在於最近DeepSeek公佈了在線服務的運行數據,對比來看,英偉達在8卡H200節點上優化版本的性能(5899t/s)只有DeepSeek在8卡H800節點性能的84%。
要指出的是,H200的內存帶寬顯著優於H800。H200採用了最新的HBM3e內存技術,其帶寬顯著提升 —— 公開資料顯示,其內存帶寬可達到約4.8 TB/s,而H800所使用的HBM3內存帶寬限制,通常只有大約1.7 TB/s左右。衆所周知,HBM內存帶寬對AI訓練和推理性能的提升尤爲關鍵。
因而,DeepSeek團隊的工程能力簡直令人髮指。有專家分析,現有的大規模算力基礎設施(A100,H00)雖然已經投入使用多年,但其潛力遠未完全釋放。對大規模Capex投入的廠商來說,當務之急是繼續大規模投入?還是應該投入工程力量挖掘潛力?
或許,這也是Sam Altman需要考量的問題。
英偉達或在砍單?
事實證明,海外巨頭很快投入到了新一輪芯片“燒錢”大戰。在最新財報季中,微軟、谷歌、Meta、亞馬遜等相繼宣佈,今年AI合計資本投入將超過3150億美元。
2月19日,馬斯克的xAI公司推出了最新大模型Grok-3,更被曝是由20萬張英偉達GPU訓練而成,硬件成本高達30億美元。
不過,隨着DeepSeek將帶動更多應用端場景落地,未來的推理算力是否還會長期被英偉達壟斷,已經被打上了一個問號。
前不久英偉達財報顯示,其Blackwell架構GB200的營收於2024年Q4達到110 億美元。英偉達CEO黃仁勳表示,Blackwell架構的需求驚人,因爲推理AI增加了另一條擴展定律——增加訓練計算使模型更智能,增加長期思考計算使答案更智能。英偉達已經大幅增產Blackwell,這是英偉達歷史上最迅猛的增產行動。
但相悖的是,最近業界傳出英偉達砍單2025年先進封裝訂單9萬片,其中包括臺積電5萬片、專業封測代工4萬片,並不是之前所謂的CoWoS-S轉CoWoS-L。
有預計稱下一代GB300的RubinGPU、Vera CPU在2025年6月Tape Out,最快2026年初量產,使用N3P等製程以及CoWosS-L封裝,並採用SK海力士獨家提供的12-Hi HBM4。