英偉達稱DeepSeek R1模型是“人工智能的卓越進步”
英偉達稱DeepSeek R1是“一項出色的人工智能進步”,儘管這家人工初創公司的崛起導致英偉達股價週一暴跌17%。
英偉達發言人週一表示:“DeepSeek是一項出色的人工智能進步,也是測試時間縮放的完美例子。”“DeepSeek的工作說明了如何使用該技術創建新模型,利用廣泛可用的模型和完全符合出口管制的計算。”
在此之前,DeepSeek上週發佈了R1,這是一個開源推理模型,據報道,它的表現超過了OpenAI等美國公司的最佳模型。R1自我報告的培訓成本不到600萬美元,與硅谷公司花費數十億美元建立人工智能模型的成本相比,這只是一個零頭。
英偉達的聲明表明,它認爲DeepSeek的突破將爲這家美國芯片製造商的圖形處理單元(GPU)創造更多的工作。
“推理需要大量的英偉達GPU和高性能網絡,”發言人補充說。“我們現在有三個縮放定律:訓練前定律和訓練後定律,它們會繼續,還有新的測試時間縮放定律。”
分析師們現在在問,微軟、谷歌和Meta等公司對基於英偉達的人工智能基礎設施的數十億美元資本投資是否被浪費了,因爲同樣的結果可以以更低的成本實現。
本月早些時候,微軟表示,僅2025年就將在人工智能基礎設施上投入800億美元,而Meta首席執行官馬克·扎克伯格上週表示,這家社交媒體公司計劃在2025年投資600億至650億美元的資本支出,作爲其人工智能戰略的一部分。
美國銀行證券分析師賈斯汀•波斯特(Justin Post)在週一的一份報告中寫道:“如果模型培訓成本被證明顯著降低,我們預計使用雲人工智能服務的廣告、旅遊和其他消費應用公司將在短期內獲得成本效益,而與超大規模人工智能相關的長期收入和成本可能會降低。”
英偉達的評論也反映了英偉達首席執行官黃仁勳、OpenAI首席執行官薩姆·奧特曼和微軟首席執行官薩蒂亞·納德拉最近幾個月討論的一個新主題。
人工智能的繁榮和對英偉達gpu的需求在很大程度上是由“縮放定律”驅動的,這是OpenAI研究人員在2020年提出的人工智能開發概念。這一概念表明,通過大幅增加構建新模型所需的計算量和數據量,可以開發出更好的人工智能系統,而這需要越來越多的芯片。
自去年11月以來,Huang和Altman一直在關注縮放定律的一個新問題,Huang稱之爲“測試時間縮放”。
這一概念認爲,如果一個訓練有素的人工智能模型在進行預測或生成文本或圖像以進行“推理”時,花更多的時間使用額外的計算機能力,那麼它將比運行更少的時間提供更好的答案。
測試時間縮放定律的形式被用於OpenAI的一些模型,如o1和DeepSeek的突破性R1模型。
本文源自:金融界