超越ChatGPT登頂 Deepseek被“擠”到宕機!或將推動AI應用爆發

《科創板日報》1月27日訊(記者 黃心怡)“正如大家沒法猜到,做遊戲顯卡的英偉達,最後會成爲AI界最重要的公司。大家也沒法猜到,中國AI大模型的希望,可能就在炒股的公司身上。”一名金融科技業內人士表示。

今日,國內AI初創公司DeepSeek出現了短時閃崩現象。據DeepSeek迴應,其服務再次“宕機”,源自新模型發佈後,用戶訪問量激增所致。

這家由知名私募巨頭幻方量化於2023年4月創立的大模型公司,近日正式發佈推理大模型DeepSeek-R1。在國外大模型排名Arena上,DeepSeek-R1基準測試已經升至全類別大模型第三,其中在風格控制類模型(StyleCtrl)分類中與OpenAI o1並列第一。

1月27日,DeepSeek應用登頂蘋果美國地區應用商店免費APP下載排行榜,超越了ChatGPT。同日,蘋果中國區應用商店免費榜顯示,DeepSeek成爲中國區第一。

“DeepSeek AI已經能思考了,這是質的飛躍。以前的模型在思考/推理方面不夠穩定可靠,武漢大學計算機學院教授、中國人工智能學會心智計算專委會副主任委員蔡恆進如此評價DeepSeek。

在DeepSeek引發業內震動的同時,以科技股爲主的納斯達克100指數期貨跌幅達3%,原因是市場擔憂DeepSeek的AI模型可能會擾亂科技行業。

市場分析認爲,DeepSeek R1的成功可能削弱了市場對英偉達AI芯片需求的預期。因爲DeepSeek似乎以極低的成本構建了一個突破性的人工智能模型,並且無需使用頂尖芯片。這令人質疑對AI芯片投入數千億美元支出的實際效用。

此前有消息稱,DeepSeek僅用2048顆英偉達H800 GPU和約550萬美元,就訓練出6710億參數的開源大模型,是Llama-3405B超6000萬美元訓練成本的十分之一不到。

不過,《科創板日報》記者瞭解到,550萬美金只是DeepSeek-V3訓練成本的一部分。根據DeepSeek的論文表述,這僅僅包括DeepSeek-V3的正式訓練,不包括與架構、算法、數據相關的前期研究、消融實驗的成本。而DeepSeek r1的真實算力成本投入遠不止600萬美元。

多名業內人士認爲,OpenAI對大模型的前沿探索與DeepSeek的後發追趕,所需的算力原本就不是一個量級。創新和探索必然伴隨着算力和各項成本的浪費,在確定性的路徑上優化所付出的代價,與探索未知所付出的代價之間不宜簡單對比。

但是,DeepSeek大模型的推出,無疑展示了模型架構在算法和數據層面創新的價值。

曾幾何時,OpenAI的火爆來自“大力出奇跡”,即算力越大、數據越多,就能得到越強的大模型。這種“軍備競賽”型開發模式,帶來了驚人的能源消耗和訓練成本。受大模型訓練的高昂成本拖累,OpenAI在2024年的虧損額可能達到50億美元,預計到2026年其虧損將進一步攀升至140億美元。

“DeepSeek則帶來了對算力/能耗的需求十餘倍的降低。”蔡恆進強調。

魔形智能創始人徐凌傑向《科創板日報》介紹,DeepSeek巧妙利用了多種優化手段來降低成本,其中包括採用低精度數據格式進行訓練,複用和共享參數,以及通過MoE混合專家的架構動態激活部分參數。

除了降低AI大模型的硬件門檻和能源消耗,DeepSeek的成功,更重要的是爲AI未來的應用落地鋪平了道路。

隨着模型性能的逐步穩定和應用的陸續落地,未來算力的推理需求將超過訓練需求。Arm基礎設施事業部產品解決方案副總裁Dermot O’Driscoll在接受《科創板日報》採訪時就曾表示,接下來將看到更多關於AI推理領域的更多突破,即AI的實際應用。“這些創新將從數據中心延伸到邊緣計算,再進一步擴展至終端設備。因此,下一輪創新的重點將從AI訓練轉向AI推理。這意味着在AI推理領域將迎來巨大的機遇。”

“歷史數據表明,10倍成本下降可激發百倍需求,當前模型推理成本已進入快速下降通道,或將推動AI應用爆發。”徐凌傑表示,“針對-V3模型(參數量6710億),其推理採用創新兩階段架構:32張H800 GPU並行處理預填充任務,320張H800集羣加速流式解碼。爲追求極致性價比,需將數百GPU通過超高速網絡組成‘超節點’,這一需求正推動智算中心集羣化的演進,加速AI算力基礎設施升級。”

目前,DeepSeek模型的端側落地已在推進中。近日,AMD宣佈將新的DeepSeek-V3模型集成到Instinct MI300X GPU上,該模型經過SGLang強化,針對Al推理進行了優化。而英特爾中國區技術部總經理高宇也表示:Deepseek-R1已經在AI PC上跑起來了!Flowy大模型AI PC應用平臺現已支持在Intel Core Ultra AI PC上運行Deepseek-r。

端側大模型正開始在智能手機、智能汽車、PC等多種設備上嶄露頭角。然而,硬件資源限制、模型壓縮等多重挑戰始終困擾着端側大模型。Deepseek r1端側大模型的推出,有望爲下游應用的繁榮帶來了更大的空間,推動更多推理芯片的涌現,以及大模型應用生態的發展。