防範人工智能風險要有安全閥

黨的二十屆三中全會審議通過的《中共中央關於進一步全面深化改革、推進中國式現代化的決定》強調,建立人工智能安全監管制度。作爲一種戰略性新興技術,人工智能已深度融入人們的生產生活,對於工作效率的提升大有裨益,還不斷催生出新產業、新業態、新商業模式,持續爲經濟社會發展注入新動能。作爲人工智能的一個重要組成部分,生成式人工智能技術的飛速發展,涵蓋虛擬現實、醫療保健、創意產業等多個領域,爲各行各業帶來更多創新與價值。不過,當前也要密切注意生成式人工智能可能引發的數據安全、信息誤導等風險挑戰,堅持發展與安全並重。

所謂生成式人工智能技術(AIGC),是指基於算法、模型、規則等,生成文本、聲音、圖片、視頻等內容的新一代人工智能技術。算力、算法、數據是這種技術發展的三大核心要素,這幾個要素的綜合作用,使得其具備自生成模式,能實現閉環式學習體系的構建,通過利用海量數據信息,自主學習要素,進而生成原創性的專業知識內容或產品並可以不斷更新,進行自我升級迭代。基於這些特點,越來越多的行業正將其作爲提高生產力水平的新要素,創造出指數級的價值,並催生了大量的產業應用,教育、娛樂、商業等領域均有所及。2022年末,美國OpenAI公司推出的ChatGPT標誌着這一技術在文本生成領域取得顯著進展。世界知識產權組織(WIPO)不久前發佈的《生成式人工智能專利態勢報告》顯示,2014年到2023年,中國生成式人工智能專利申請量超3.8萬件,居世界第一位,是第二名美國的6倍。

生成式人工智能是把雙刃劍,在加強技術研發和創新的同時,需努力提高其安全性和可控性,有效識別潛在風險和漏洞並形成應對策略。2023年8月15日正式施行的《生成式人工智能服務管理暫行辦法》指出,有關主管部門依據職責對生成式人工智能服務開展監督檢查,提供者應當依法予以配合,按要求對訓練數據來源、規模、類型、標註規則、算法機制機理等予以說明,並提供必要的技術、數據等支持和協助。因此,未來要進一步推動生成式人工智能的發展,應從網絡安全、數據安全、個人信息保護等層面入手,採取包容審慎的態度,從技術、倫理、法律等多方面設置“安全閥門”,防範生成式人工智能風險。

一方面,完善相關法律法規的有效界定,合理有效監管。加快立法進程,針對數據、內容安全、知識產權等生成式人工智能發展的關鍵問題,進行分類管理、分類立法,通過政策立法對生成式人工智能的設計、演進進行有效引導、統籌管理。明確監管底線,制定相應技術使用規則和行業規範,強化對生成式人工智能企業、平臺和使用該技術高校各主體等失範行爲的監管,及時發現處理違規行爲。將“傳統事後監管模式”轉爲“事前預防評估模式”和“事中控制模式”,制定事前評估、風險預警和事中控制規範,有效減少安全事件的發生、降低安全事件對企業、高校等造成的負面影響。加快制定相應的技術使用規則和應急處理措施,強化對應用生成式人工智能的企業、平臺的監管和約束。

另一方面,持續增強數據安全。建立數據全生命週期監督管理,包括數據採集輸入階段的虛假、錯誤信息入庫管控,數據處理加工階段的數據標註管控監督,數據輸出階段(二次採集輸入階段)的數據真實性檢測驗真等。針對醫療、金融、電商、高校等重點領域,通過技術手段保障數據安全。及時發現和處理數據方面的違規行爲,保障數據及隱私安全,防止濫用數據造成的損失,確保其符合法律法規和社會公德。 (作者:譚澤宇 來源:經濟日報)