海納百川》歐盟監管AI法案出爐 強制要求倫理與透明度(張瑞雄)
歐盟歷經兩年多的談判後,終於達成了一項具有歷史意義的AI法案,該法案將建立全球首個全面的AI監管框架。(圖/shutterstock)
歐盟歷經兩年多的談判後,終於達成了一項具有歷史意義的AI法案,該法案將建立全球首個全面的AI監管框架。此法案通過對高風險AI系統實施嚴格的規則和監督,同時允許技術的大多數主流用途,以實現AI的創新和負責任的發展。
隨着像ChatGPT這樣的大型語言模型的出現,AI系統迅速發展,可以生成非常類似人類創作的文本或其他資料。這些強大的AI技術的潛在利益和風險凸顯了規範化以減少危害的迫切需要,歐盟引領制定了道德AI標準,可能影響全球的方向。
AI法案的一個重要特點是引入了對AI系統透明度和倫理的強制性要求,科技公司經常吹噓自己的自願倫理原則,但缺乏責任和透明度。這項法律將要求實踐,例如在使用聊天機器人或生物特徵系統時通知用戶,以及正確標記像深度僞造這樣的AI生成的內容,提供銀行和保險等服務的公司還必須評估AI對基本權利的影響。
這些透明度的義務目的在遏制AI中的欺騙和偏見,它們迫使科技公司認真考慮道德因素,而不僅僅是口惠。將這些義務納入法律賦予了它們真正的力量,因爲違規將受到嚴厲的罰款。這種方法不僅僅是針對高風險的AI應用,而是促進整個AI產業的負責任發展。
儘管爲所有AI制定基本規則,但該法案的核心重點是限制明顯危險的AI應用。它將AI分爲不可接受的風險、高風險、有限度風險和極小風險。不同的風險有不同的義務,對不可接受的風險施以最嚴格的控制。
法案同時在幾個領域實行完全禁止,例如對基本私人和公共服務的使用控制、會乘人之危的操縱、以及某些生物特徵的使用,如按族羣對人進行分類。其他高風險領域,如醫療、就業、執法、移民控制和教育,將面臨風險管理、數據質量檢視、文件記錄、人工監督等各方面的嚴格要求。
這種基於風險的方法聚焦於容易受到歧視或侵犯權利的敏感情境,其他大多數主流AI用途繼續不受太多限制,目的在預防AI危害和創新之間取得實際平衡。但一些批評者認爲,它留下了太多科技公司可能利用的漏洞。
AI的發展是方興未艾,歐盟認識到微調複雜的創新政策需要一個迭代的、以證據爲基礎的過程。雖然這部法案爲走向負責任的AI邁出了重要的第一步,但在將法案轉化爲實際預防措施和有效的實踐方面還有很多工作要做。
隨着技術以不可預測的方式演變,持續更新監管框架非常重要。但在針對AI的第一個全面的全球監管達成共識,歐盟已經很負責任的起了頭,這項突破肯定會在未來幾年影響人類與AI不斷髮展的關係。
(作者爲臺北商業大學前校長)
※以上言論不代表旺中媒體集團立場※