各國政府鼓勵負責的人工智能,過度監管或爲忌

各國政府正在努力在生成式人工智能領域謀求一種微妙的平衡。監管過於嚴格,就可能抑制創新。監管過於寬鬆,就會給深度僞造和錯誤信息等破壞性威脅打開大門。生成式人工智能既能夠增強不法分子的能力,也能夠增強那些試圖抵禦不法分子的人的能力。

在上週於新加坡舉行的《財富》頭腦風暴人工智能大會中,有關負責任的人工智能創新的分組討論裡,與會發言者承認,要達成一套全球通用的人工智能規則是很困難的。

各國政府在監管力度這一方面已經存在差異。例如,歐盟有一套全面的規則,用來規範企業開發和應用人工智能應用程序。

其他政府,如美國,正在構建 CMS 霍爾本亞洲知識產權負責人希娜·雅各布(Sheena Jacob)所稱的“框架指南”:沒有硬性法律,而是朝着偏好的方向引導。

“過度的監管會扼殺人工智能創新,”雅各布警告說。

她將新加坡作爲例子,指出創新正在美國和中國以外的地方出現。

雖然新加坡有國家層面的人工智能戰略,但這個城邦國家卻沒有直接規範人工智能的法律。

相反,整個框架依賴於像政策制定者和研究界等利益相關者‘共同發揮作用’,以‘系統且平衡的方式’推動創新。

和在新加坡舉辦的‘頭腦風暴人工智能’活動中的許多其他人相同,上週參與分組討論的發言者承認,較小的國家在人工智能發展上仍能夠與較大的國家競爭。

“人工智能的全部意義在於營造公平的競爭環境,”PayPal 亞太區首席信息安全官 Phoram Mehta 說道。(PayPal 是上週分組會議的贊助商)

但專家們也對忽視人工智能風險的危險提出了警告。

“人們真正所忽略的是,人工智能網絡黑客攻擊是董事會層面的網絡安全風險,比其他任何風險都大,”Addo AI 的聯合創始人、《財富》頭腦風暴人工智能新加坡會議的聯合主席艾莎·坎納(Ayesha Khanna)表示。“如果你進行提示攻擊,只是拋出數百個提示……給基礎模型中的數據下毒,它可以完全改變人工智能的工作方式。”

微軟在 6 月下旬宣佈,它已經發現了一種方法來破解生成式人工智能模型,導致其忽略了針對生成與爆炸物、毒品和種族主義等主題相關的有害內容的防範措施。

但是當被問及公司如何阻止惡意行爲者進入其系統時,梅塔表示,人工智能也可以幫助“好人”。

人工智能正在“幫助好人營造公平的競爭環境……最好提前做好準備,並在這些防禦措施中運用人工智能,而不是一味等待,再看看能得到什麼樣的迴應。”