李飛飛、吳恩達在內研究者連署批評加州新法限制人工智慧技術發展

針對加州政府於6月2日投票通過的SB-1047號提案《前沿人工智慧模型安全創新法案》 (Safe and Secure Innovation for Frontier Artificial Intelligence Act),包含李飛飛、吳恩達在內人工智慧研究者連署表示,此法案將對人工智慧技術發展產生「寒蟬效應」,將使人工智慧技術發展面臨受限。

《前沿人工智慧模型安全創新法案》中要求以1026次整數或浮點運算能力進行訓練、成本超過1億美元的大型人工智慧模型,以及透過1025次整數或浮點運算三倍以上能力,針對特定模型進行微調後所創建人工智慧模型,都會被列爲具潛在風險,必須額外列管監督。

而此規範之下,目前市場使用的大型自然語言基本上都會被列爲具風險、必須列管監督,因此不少人工智慧技術研究者認爲此法案將造成技術發展限制,同時認爲僅以片面管制方式,實際上無法有效解決人工智慧技術產生偏見或深度僞造 (deepfake)等問題,反而會產生限制人工智慧技術發展的「寒蟬效應」。

在李飛飛等人連署對此法案批評中,指出此法案無法提供合理管理效果,甚至設下發展門檻,限制跨部門創新可能性。此外,相關看法也認爲此法案的風險評估方式缺乏科學依據,甚至無法保護開源模型發展,更可能造成相關領域學生日後就業與職涯發展造成負面影響。

連署內容更指稱此法案限制過於武斷,將影響未來學生學習人工智慧相關知識,甚至成爲更多人才投入電腦科學領域發展的限制,呼籲應該制定更合理的治理措施,並且在創新與安全需求取得平衡。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》