科技部、臺大新突破 解釋AI判讀

科技部陳良基11日指出,臺大AI中心開發出「可解釋性人工智慧」(XAI),除了有更高辨識率的人臉辨識能力,也可以更有條理解釋AI產出結果,增進使用者對AI的信任度。圖/顏謙隆

科技部長陳良基11日指出,臺大AI中心開發出「可解釋性人工智慧」(XAI),除了有更高辨識率的人臉辨識能力,也可以更有條理解釋AI產出結果,增進使用者對AI的信任度。

科技部表示,現階段AI只有看到輸入資料和輸出結果,不知道中間判斷依據,就像黑盒子一樣,如果能理解AI如何做出判斷,確認決策合理性,未來可以進一步改善和強化AI模型可靠性

臺大AI中心的徐宏民教授團隊近期開發出「可解釋性AI模組xCos」,可以嵌合在各種人臉辨識模型中,讓系統直接說明人臉辨識的相似度和背後原因,XAI技術可以擴展到其他關鍵性人工智慧決策,包括能源醫療工業製造等。

陳良基舉例,如果要說一個人很帥,會用身高、眼睛鼻子指標來判斷,但是AI判定參數可能有上億個,AI可以自動從上億個參數中決定哪些比較重要,這就是外界想要了解的AI決策黑盒子。他認爲,這個研究成果解決了全世界夢寐以求想要解決的問題,不只是技術精進,更掌握全球未來發展趨勢,讓全世界看到臺灣AI的重要性