消息稱谷歌使用競品模型Claude改進Gemini

12月25日消息,谷歌公司內部溝通信息顯示,負責改進其人工智能模型Gemini AI的外包員工正在將其輸出答案與Anthropic開發的競品模型Claude的結果進行比對。

谷歌未透露是否獲得了使用Claude模型進行測試的許可。

隨着科技公司競相研發更強大的人工智能模型,通常通過行業基準測試來評估模型性能,而非由外包員工逐一比對競品模型的回答。對於Gemini項目,外包員工需根據答案的真實性、冗長度等多個標準對模型輸出進行評分。據內部資料顯示,他們有30分鐘的時間判斷是Gemini還是Claude的回答更爲優越。

最近,外包員工注意到在谷歌內部用於對比Gemini和其他人工智能模型的平臺中,出現了與Claude相關的引用內容。媒體所獲取的部分答案中甚至明確表示:“我是Claude,由Anthropic開發。”

一份內部聊天記錄顯示,外包員工發現Claude的回答似乎比Gemini更注重安全性。一名員工指出,“在所有人工智能模型中,Claude的安全設置是最嚴格的。”某些情況下,Claude拒絕回答其認爲不安全的請求,比如扮演其他人工智能助手的角色。而在另一些案例中,Claude選擇避開回答,而Gemini的回答則因涉及“裸體和束縛”等內容被標記爲“嚴重違反安全規定”。

Anthropic的商業服務條款明確禁止客戶未經授權使用Claude來“構建競爭性產品或服務”或“訓練競爭性人工智能模型”。值得注意的是,谷歌是Anthropic的重要投資者。

負責運營Gemini的谷歌DeepMind發言人希拉·麥克納馬拉(Shira McNamara)未說明谷歌是否獲得了Anthropic使用Claude的許可。麥克納馬拉強調,DeepMind確實會通過比對模型輸出來進行評估,但不會使用Anthropic的模型訓練Gemini。

麥克納馬拉表示:“根據行業標準做法,我們在某些情況下將模型輸出比對作爲評估過程的一部分。但任何關於我們使用Anthropic模型訓練Gemini的說法都是不準確的。”

上週有報道稱,爲谷歌人工智能產品工作的外包員工如今被要求在自己的專業領域之外對Gemini的回答進行評分。內部溝通記錄顯示,員工擔憂Gemini可能在醫療保健等高度敏感的話題上生成不準確的信息。(辰辰)