生成式AI關鍵 KPMG提三缺
此外,謝昀澤認爲,人對AI的信任度,有如消費者食安疑慮,必須正視且有效解決,未來可透過「以AI技術進行AI生成內容的辨識工具」、及「可匿蹤但不可否認的浮水印」兩大黑科技「防深(僞)術」強化AI內容信任度。
被OpenAI稱爲「世界模擬器」 的Sora即將推出,一鍵生成幾可亂真影片的能力除顛覆使用者的眼球世界,更推翻真實世界的信任基礎。
謝昀澤分析,最新AI技術生成的影像,破綻都不在主體,因此已經很難用肉眼判別;反而是用AI技術判定圖像是否爲AI生成,成效顯著且可合理說明判定原因,替未來AI多媒體內容的自動化確信機制增加可行性。
謝昀澤提醒,使用者對網路影音過去的認知是「有片有真相」,以後要轉變爲「保持懷疑,確信來源」,才能夠在生成式AI普及的網路世界中,具備基本的「防深(僞)術」。
針對Meta等數位內容巨頭正聯合發展共同的浮水印技術,謝昀澤認爲,將AI生成的數位內容放上浮水印註明出處、日期等資訊,是「責任AI (Responsible AI)」建立透明化的信任工程基礎。
只是目前傳統浮水印會影響畫面美觀,網路傳佈的影像因爲經過加工及壓縮,可能破壞浮水印標記,因此預測未來的新技術必須要達成識別標誌可以匿蹤,但又有「不可否認性」的數位憑證效果。
謝昀澤強調,後AI時代最重要的即是建立AI治理規範,以提升使用者對AI的信賴度,除了期待相關的防僞技術突破,如AI基本法等AI及電子簽章新法的增修、數位內容發佈平臺的自律,與使用者AI素養的提升,也都是關鍵。