海納百川》AI政治的願景與陷阱(張瑞雄)

圖/本報資料照片

近年來,人工智慧(AI)的快速發展已經滲透到社會的各個層面,包括政治和政府領域。AI融入政治既帶來希望,也有潛在的陷阱,包括AI的透明度、問責制和維護民主原則的關鍵問題。

這個領域最顯著的發展之一是AI顧問的出現,羅馬尼亞總理推出的世界上第一位AI政府顧問Ion就是一個例子,Ion透過搜尋社羣媒體和進行情緒分析來解析關鍵問題和政策的公衆輿論。

Ion的既定目標是充當羅馬尼亞民衆的「鏡子」,提供對公共話語的即時洞察,使政府能夠更好地瞭解公民的情緒和關切。這種創新方法有可能彌合政策制定者和選民之間的差距,促進更具迴應性和包容性的決策過程。

但是此類AI顧問並非沒有挑戰,專家們對僅依賴社交媒體數據作爲公衆輿論的代表提出了合理的擔憂。並非每個人都活躍在社羣媒體上,某些聲音可能會被放大或壓制,從而扭曲大衆的意見。此外被操縱的虛假資訊的風險可能會扭曲AI的分析,導致有錯誤的結論和政策制定。

AI與政治交叉的另一個有趣的發展是AI候選人爭奪民選公職的出現。在英國,由企業家建立的AI史蒂夫(AI Steve)在即將到來的大選中爲參選爲議員候選人。

AI史蒂夫的競選活動承諾利用科技直接與選民聯繫,透過互動式聊天機器人和羣衆外包機制徵求選民的意見和政策建議。AI史蒂夫聲稱,只有超過50%支持的政策纔會被採納到其平臺中,宣稱比傳統政治家更有效地代表人民的意願。

雖然AI史蒂夫的候選資格可能被一些人視爲新鮮事或宣傳噱頭,但它提出了關於AI在代議制民主中的潛在作用和發人深省的問題。AI候選者能否不受個人偏見的束縛,僅由資料和演算法驅動,提供一種更客觀、更敏感的治理形式?或者,他們對可能有缺陷的數據的依賴以及缺乏人類直覺和同理心會削弱他們真正代表選民多樣化需求和價值觀的能力呢?

無論AI在政治中的具體應用如何,最重要的都是透明度和問責制。隨着AI系統變得越來越複雜,其決策過程越來越不透明,必須保持監督並確保這些技術不會在未經適當審查的情況下成爲影響政策決策的黑盒子。

政策制定者和開發人員必須優先考慮AI的可解釋性,以便清楚瞭解AI顧問或候選人如何得出他們的建議或立場,也必須建立健全的稽覈機制和外部監督,以偵測和減少潛在的偏見、錯誤或惡意操縱。

AI融入政治既帶來了令人興奮的想像,也帶來了艱鉅的挑戰。雖然像Ion這樣的AI顧問和像Steve這樣的AI候選人可能代表了治理技術革命的先鋒,但他們的部署必須伴隨着對透明度、道德原則和維護民主規範的堅定承諾。否則魔鬼終結者式的AI將很容易地透過操縱獲得選票,進而掌控人類社會的控制權,這將是民主的毀滅,人類社會崩潰的開始,慎之!(作者爲臺北商業大學前校長)

※以上言論不代表旺中媒體集團立場※