一夜蒸發超4萬億元!英偉達迴應:DeepSeek是出色的AI進步 將爲英偉達帶來更多需求

財聯社1月28日訊(編輯 劉蕊)美東時間週一,美股AI龍頭英偉達股價慘遭暴擊:單日收盤下跌16.86%,創美股歷史上最大單日個股蒸發規模,市值一夜蒸發5888.62億美元(約合人民幣4.27萬億元)。光是蒸發的市值,就足足相當於3個AMD或近18個寒武紀公司市值。

而這一暴跌背後的原因,是一股“來自東方的神秘力量”:國產大模型公司杭州深度求索上週發佈的DeepSeek R1模型。該模型在數學、編程和推理等關鍵領域的表現甚至能媲美OpenAI的最強推理模型o1,但其API調用成本卻低了90%-95%——這讓不少華爾街人士開始疑惑:美股科技巨頭爲AI基建大規模砸下的投資是否都被浪費了?

正因此,英偉達成爲本輪美股科技股風暴中的最大受害者。儘管股價慘遭暴擊,但英偉達公司仍在週一發佈迴應,誇讚DeepSeek的R1模型是“一項出色的人工智能進步”。

英偉達迴應:DeepSeek是出色的AI進步

英偉達發言人表示:“DeepSeek是一項出色的人工智能進步,也是Test Time Scaling(TTS,即‌在推理階段通過增加計算量來提升模型推理能力的一種方法)的完美範例…DeepSeek的工作說明了如何使用該技術創建新模型,利用廣泛可用的模型和完全符合出口管制的計算。”

英偉達還聲稱,它認爲DeepSeek的突破將爲英偉達帶來更多需求。

“推理需要大量的英偉達GPU和高性能網絡,”英偉達發言人補充說,“我們現在有三個規模定律(Scaling Law):訓練前定律和訓練後定律,它們會繼續,還有新的TTS(test-time scaling)。”

英偉達還澄清稱,DeepSeek使用的GPU完全符合出口標準。這與AI科技初創公司Scale AI創始人亞歷山大·王(Alexandr Wang)上週的評論相反,亞歷山大·王當時聲稱DeepSeek使用了在中國大陸被禁止的英偉達GPU。而DeepSeek表示,它使用了英偉達針對中國市場的特殊版本GPU。

TTS的完美範例

英偉達的評論也反映了英偉達首席執行官黃仁勳、OpenAI首席執行官薩姆·阿爾特曼(Sam Altman)和微軟首席執行官薩蒂亞·納德拉最近幾個月討論的一個新主題,即英偉達聲明中所提到的TTS。

人工智能的繁榮和對英偉達GPU的需求在很大程度上是由“規模定律(scaling law)”驅動的,這是OpenAI研究人員在2020年提出的人工智能開發概念。這一概念表明,通過大幅增加構建新模型所需的計算量和數據量,可以開發出更好的人工智能系統,而這需要越來越多的芯片。

自去年11月以來,黃仁勳和阿爾特曼一直在關注規模定律的一個新問題,黃仁勳稱之爲“Test Time Scaling”。

這一概念認爲,如果一個訓練有素的人工智能模型在進行預測或生成文本或圖像時,花更多的時間、使用額外的計算機能力來進行“推理”,那麼相比於運行更短時間給出的答案,前者能夠給出更好的答案。

大規模砸錢還有意義嗎?

DeepSeek的橫空出世之後,華爾街分析師們現在都在問一個問題:微軟、谷歌和Meta等公司對基於英偉達的人工智能基礎設施的數十億美元資本投資是否被浪費了?因爲DeepSeek的出現已經證明——同樣的結果可以以更低的成本實現。

本月早些時候,微軟表示,僅2025年就將在人工智能基礎設施上投入800億美元,而Meta首席執行官馬克·扎克伯格上週剛剛表示,Meta計劃在2025年投資600億至650億美元的資本支出,作爲其人工智能戰略的一部分。

美銀證券分析師賈斯汀•波斯特(Justin Post)在週一的報告中寫道:“如果模型培訓成本被證明可以顯著降低,我們預計使用雲人工智能服務的廣告、旅遊和其他消費應用公司將在短期內獲得成本效益,而與超大規模人工智能相關的長期收入和成本可能會降低。”