生成式AI“幻覺”困境如何破解

來源:科技日報

原標題:生成式AI“幻覺”困境如何破解

人工智能(AI)技術正以前所未有的速度發展,生成式AI憑藉其驚人的創造力,不斷刷新人們的認知。然而,即便是看似“聰明絕頂”的AI,也難逃“幻覺”的困擾。這裡的“幻覺”,指的是AI生成看似合理但實際不準確或虛假的信息。

英國《自然》雜誌網站在1月22日的報道中指出,AI“幻覺”可能會引發嚴重後果,科學家正各出奇招,力求降低其發生率。這些措施包括增加事實覈查、對AI進行“腦部掃描”等,以促進AI的健康、高效發展。

主因是數據模糊

各種生成式AI,包括由大語言模型驅動的聊天機器人,常常會編造信息。它們有時會模糊事實與虛構,在看似真實的陳述中夾雜錯誤信息。這既是其創造力的體現,也是其不足之處。

美國佐治亞理工學院理論計算機科學家桑託什·威姆帕拉解釋稱,大語言模型的設計原理並非輸出準確事實,而是通過模式識別生成答案。其內部複雜的運行機制迄今仍像一個“黑匣子”,人們難以洞悉其推理過程。

美國加州Vectara公司旨在減少生成式AI的“幻覺”。其聯合創始人阿姆爾·阿瓦達拉表示,在訓練過程中,這些模型會壓縮數萬億個單詞間的關係,隨後通過一個龐大的網絡模型重新展開這些信息。儘管這些模型能夠重構出接近98%的訓練內容,但剩下2%的內容卻會讓其“誤入歧途”,生成不準確或虛假信息。

導致AI出現“幻覺”的原因多種多樣,其中訓練數據中的模糊性和錯誤是常見因素。也有人認爲,即使訓練數據準確無誤,AI也有可能產生“幻覺”。這種現象與某一事實的稀缺程度密切相關。因此,即使經過人類反饋調整過的聊天機器人,也無法完全避免出錯。

多領域面臨考驗

AI的“幻覺”可能會給人們的工作和生活帶來較大影響。

在新聞領域,大語言模型可能生成虛假新聞事件,擾亂信息傳播秩序,誤導公衆認知。Vectara公司針對文檔內容開展的研究表明,一些聊天機器人編造事實、虛構信息的機率高達30%。世界經濟論壇發佈的《2025年全球風險報告》顯示,錯誤和虛假信息是2025年全球面臨的五大風險之一。

在法律領域,它可能引用虛構的法律條文和案例。比如,2023年美國律師史蒂文·施瓦茨就因“輕信”ChatGPT,在法庭文件中引用了並不存在的法律案例。而在醫學領域,它可能提供錯誤的診斷和治療建議,危及患者生命。

《自然》在報道中指出,AI“幻覺”在科學參考文獻方面出現錯誤的情況也極爲普遍。2024年的一項研究發現,各類聊天機器人在提及參考文獻時的出錯率在30%至90%之間。它們至少會在論文標題、第一作者或發表年份上出現偏差。雖然聊天機器人都帶有警告標籤,提醒用戶對重要信息進行二次覈實。但如果用戶對聊天機器人的回覆深信不疑,可能會引發一系列問題。

多舉措減少“幻覺”

爲進一步提升AI的精確度,科學家正想方設法降低其“幻覺”。

例如,增加模型訓練參數和訓練時長可有效減少“幻覺”。但這種方法需要付出高昂的計算成本,並可能削弱聊天機器人的其他能力,如機器學習算法對未知數據的預測和處理能力。

此外,使用更大、更乾淨的數據集進行訓練,也是降低AI模型“幻覺”出現的有效途徑。然而,當前可用數據的有限性限制了這一方法的應用。

檢索增強生成(RAG)技術也爲減少AI“幻覺”提供了新思路。該方法通過讓聊天機器人在回覆問題前參考給定的可信文本,從而確保回覆內容的真實性,以此減少“幻覺”的產生。在醫療和法律等需要嚴格遵循經過驗證的知識的領域,RAG技術備受青睞。

不過,美國斯坦福大學計算機科學家米拉柯·蘇茲根表示,儘管RAG能提升內容真實性,但其能力有限。蘇茲根團隊的研究表明,一些爲法律研究開發的、號稱“無幻覺”的RAG增強模型雖有所改進,但仍存在不足。

開發者也可以使用一個與AI訓練方式不同的獨立系統,通過網絡搜索對聊天機器人的回覆進行事實覈查,谷歌的“雙子星”系統便是一個典型例子。該系統提供了“雙重覈查響應”功能:內容如果突出顯示爲綠色,表示其已通過網絡搜索驗證;內容如果突出顯示爲棕色,則表示其爲有爭議或不確定的內容。但是,這種方法計算成本高昂且耗時,而且系統仍會產生“幻覺”,因爲互聯網上錯誤信息氾濫。

在去年6月出版的《自然》雜誌上,英國牛津大學科學家刊發論文稱,他們利用“語義熵”,通過概率來判斷大語言模型是否出現了“幻覺”。語義熵是信息熵的一種,被用於量化物理系統中所包含的信息量。通過評估AI模型在特定提示詞下生成內容的不確定性,來計算模型的困惑程度,從而爲用戶或模型提供警示,提醒其採取必要的循證措施,確保更準確的答案輸出。

美國卡內基梅隆AI研究人員安迪·鄒採用的方法是在大語言模型回答問題時,繪製其內部計算節點的激活模式。他形象地稱之爲“給AI做腦部掃描”。利用不同的計算節點活動模式,可以告訴我們AI模型是在“說真話”,還是在“胡說八道”。