重視解決AI合成侵權問題
來源:經濟日報
近期,AI深度合成技術引發的侵權現象引起關注。據報道,多名公衆人物的聲音和形象未經授權被用於製作惡搞視頻或帶貨廣告,這不僅損害了當事人的合法權益,更暴露了當前AI技術在應用過程中面臨的種種挑戰。
AI深度合成技術,通俗來說就是通過人工智能算法實現聲音克隆、面容替換等效果。這種技術既可用於打造虛擬主播、數字永生等創新場景,也可能淪爲侵權工具。在技術門檻持續降低,且缺乏有效監管的背景下,AI濫用的風險不容小覷。
侵權行爲發現難,技術的複雜性和隱蔽性使得侵權行爲難以被及時認定,通常需要被侵權人主動追溯;侵權行爲危害大,AI深度合成技術的濫用模糊了真實與虛假的邊界,“眼見不再爲實”衝擊着不少人的觀念;侵權行爲維權難,被侵權人在維權過程中成本很高,AI深度合成技術帶來的經濟損失更是難以全數追回。這種“發現難—危害大—維權困”的惡性循環,凸顯出傳統治理模式的效能瓶頸。
面對AI深度合成技術帶來的問題,除了法律應對,還需要探索技術上的解決方案。例如,一些研究機構和企業已經開始開發AI檢測工具,用於識別深度合成的音視頻內容,通過分析視頻的像素層面和音頻的細微特徵,有效區分內容是否爲合成。此外,技術專家還建議利用深度學習模型對合成內容進行標註,以便在傳播過程中明確其真實性和來源。與此同時,也應通過宣傳和科普讓更多人瞭解AI合成技術的風險,學會使用相關技術手段,分辨虛假信息。
AI深度合成技術是一把雙刃劍,應在充分發揮其積極作用的同時,加強規範和治理。要更好發揮技術手段的優勢,不斷完善法律法規,加大監管力度,讓技術真正造福人類。(本文來源:經濟日報 作者:劉莉)