人工智能這一點很像人,恰恰證明它們不會像人思考
研究發現人工智能模型也有偏愛的數字 原因並不是它們會思考了
5月29日消息,人工智能模型總是讓人們感到驚訝,這不僅在於它們能做什麼,還在於它們不能做什麼,以及爲什麼會這樣。最近數據科學公司Gramener工程師們開展的研究新發現,這些模型都存在一個有趣的行爲,它們挑選隨機數字的行爲很像人,這雖然看起來膚淺,但又能揭示這些系統的本質。
首先你可能會問,這到底是什麼意思呢?難道人不能隨機選出個數字嗎?怎樣判斷一個人是否成功隨機選擇了數字呢?這實際上是我們人類的一個古老且廣爲人知的侷限:我們往往會過度思考並誤解隨機性的本質。
例如,讓某人預測100次硬幣拋擲的結果,並與真實的100次硬幣拋擲結果相比較時,人幾乎總能區分出哪個是預測,哪個是實際結果。因爲與人類的直覺相反,真實的硬幣拋擲結果看起來不那麼隨機。例如,真實拋擲中經常會出現連續六到七次正面或反面,而這是人類預測中幾乎不會考慮的情況。
同樣,當要求某人在0到100之間選擇一個數字時,人們幾乎從不選擇1或100,很少選擇5的倍數或重複數字如66和99。
這種可預測性在心理學中屢見不鮮。但當人工智能做出相同選擇時,情況就變得有些奇怪。
Gramener公司的一些工程師進行了一個非正式但卻很有趣的實驗,他們讓幾個主流的大語言模型聊天機器人在0到100之間選擇一個隨機數字,結果卻並非隨機。
測試的三個模型都顯示出對某個數字的偏好,尤其在將隨機性調整到最高時,這一數字出現的頻率最高。
例如,OpenAI的GPT-3.5Turbo偏愛數字47,而在此之前它偏愛42——這個數字因道格拉斯·亞當斯經典科幻小說《銀河系漫遊指南》中超級計算機而聞名,書中將其定義爲生命、宇宙以及一切的答案。
Anthropic的大語言模型Claude 3 Haiku也喜歡42,谷歌的Gemini則更偏愛72。
即便是在設置爲高隨機性的情況下,所有三個模型在數字選擇上都顯示出類似人類的偏見。所有模型都避開了較低和較高的數字;例如,Claude從未選擇超過87或低於27的數字,而這些數字本身也是異常值。避免選擇雙位數非常謹慎,如33、55或66都未出現,但77(以7結尾的數字)確實出現過。Gemini幾乎沒有選擇任何整十數,儘管在設定爲最高隨機性時,它曾突破常規,選擇了數字0。
爲什麼會這樣呢?這些人工智能並非人類!爲什麼它們會在乎哪些數字“看起來”隨機?難道它們已經獲得了意識,而這正是它們表現出來的方式嗎?
答案是,我們常常將人類的特質錯誤地歸因於這些模型。這些模型並不關心什麼是隨機的,它們甚至不知道“隨機性”是什麼。它們回答這類問題的方式和回答其他所有問題的方式一樣:通過查看訓練數據並重復出現頻率最高的答案。因爲這些模型並沒有實際的推理能力,也不懂數字,只能像鸚鵡學舌一樣隨機回答問題。
這是關於大語言模型行爲方式及其表現出的“人性”的生動例證。在每次與這些系統的互動中,我們必須認識到,它們被訓練以模仿人類的行爲方式,哪怕這並非初衷。正因如此,避免或預防擬人化變得極其困難。
所謂這些模型“認爲自己是人”的說法有點誤導性。實際上這些模型根本不會思考。但任何時候它們的響應都是在模仿人,根本不需要任何真正的理解或思考。不管用戶是在詢問食譜、投資建議還是一個隨機數字,其處理過程都是一樣的。因爲這些答案直接源自人類內容並進行了重新組合,所以感覺很像是人類的反饋。(辰辰)