全球AI監管新紀元:歐盟AI法案的影響與挑戰
譚寅亮、張毅、王琦/文 作爲全球首部全面監管人工智能的法規,歐盟的《人工智能法案》(下稱“歐盟AI法案”)已於2024年8月1日正式生效。
爲確保相關各方有足夠的時間來適應新的法規要求,歐盟AI法案的各項規定將會分階段實施:部分AI應用程序的禁令在法案生效6個月後開始適用,AI開發者的行爲準則在法案生效9個月後實施,對於通用AI的限制會在法案生效12個月後開始。整個法案的條款將在24個月後的2026年中期全面適用。
該法案採用基於風險的監管方法,對AI系統進行分類,針對高風險應用實施嚴格的規定,同時設立了禁止事項清單。歐盟AI法案覆蓋了從市場準入、運營責任到透明度要求的全鏈條規則,對在歐盟境內或影響歐盟市場的AI系統和活動產生約束力。
由於歐盟AI法案採用跨境監管的原則,不僅適用於歐盟內部的實體,還包括在歐盟外開發、但成果在歐盟內使用的AI系統。因此,在全世界範圍內,特別是中美兩國的AI產業鏈企業都不可避免會受到法案的影響。
通過該法案的實施,歐盟再次試圖向全球市場展示“布魯塞爾效應”:利用其統一市場的規模優勢,將單方面的嚴格標準和監管推向全球並顯著影響全球政策,進一步提高自身競爭力。正因如此,該法案也在AI產業內外引發了激烈討論,主要圍繞以下幾方面。
一是合規成本的增加。嚴格的法案規定導致中美兩國的AI企業在進入歐盟市場時將面臨高昂的合規成本, 包括技術改造、流程調整以及可能需要的第三方審計費用等。
二是技術限制和創新障礙。法案對AI技術的研發和部署施加嚴格的限制,可能會阻礙AI技術的發展和創新速度。
三是市場準入門檻的提高。更高的監管標準不僅適用於希望進入歐盟市場的AI開發企業,還包括使用AI技術的產品和服務提供商。
四是數據隱私和保護要求。法案延續了歐盟對於個人數據保護的嚴格要求,企業在處理用戶數據時需要採取更加謹慎的態度。
五是不確定性的增加。法案全面實施還需要近兩年時間,在實際操作過程中可能存在解釋上的模糊性,歐盟不同成員國也可能存在具體的執行差異。
儘管歐盟AI法案體現了對人工智能的安全性、透明度和人權的關注,但基於以上憂慮,人們仍會追問:該法案是否給整個AI產業鏈戴上了緊箍咒?該法案是否通過高合規成本和准入門檻給AI領域的先行者和大公司(或歐盟企業)建立了護城河?中國和美國是否會參考並建立類似的合規和准入要求?
要回答以上問題,我們還需從中美歐各自的文化、政治體系、經濟環境以及不同的歷史背景,來理解世界各國AI監管體制上的差異。
美國:市場驅動
回顧網絡信息技術的短暫歷史可以看出,美國在芯片、軟件、硬件、人才和資金方面的領導地位,爲其在全球互聯網發展的三個主要階段——Web 1.0、Web 2.0以及AI時代,確立了顯著的競爭優勢。
在Web 1.0時代,美國憑藉強大的芯片和軟件能力,孵化了雅虎、AOL(美國在線公司)等第一批互聯網巨頭。這些企業利用高效的硬件和軟件解決方案,提供了新聞、郵件和搜索等靜態網頁服務,引領了互聯網早期的商業化進程。
進入Web 2.0時代,社交網絡、雲計算和大數據分析的發展,離不開美國軟件產業的創新和貢獻。臉書、推特和YouTube等社交平臺的興起,得益於美國在數據處理、存儲和傳輸技術上的領先地位。這些美國網絡科技巨頭在全球範圍內持續輸出的同時,也向美國本土進行數據迴流,進一步產生算法優勢。
在AI時代,美國的優勢體現在從算法研發到芯片設計的全方位覆蓋。谷歌、微軟和IBM等企業,在機器學習、自然語言處理和計算機視覺等領域取得了突破性進展;英偉達的GPU加速計算能力則爲深度學習提供了必要的算力支持。
美國在AI領域的領先地位,使其在自動駕駛、醫療診斷、金融科技等多個行業的應用中取得先機,推動全球經濟向智能化轉型。美國在資金、科技人才培育和儲備方面的優勢,也貫穿了互聯網科技發展的全過程。
作爲全球最大的風險投資市場,美國每年有數以千億美元計的資金流入互聯網科技領域,2023年僅AI領域的私人投資就達到672億美元。此外,成熟的證券交易體系也爲科技公司上市融資提供了便利。
上述AI領域的科技巨頭與資本市場結合,深度參與和影響了美國對AI的立法監管。美國傾向於自由市場的傳統,強調個人主義和最小政府幹預,這些都促使美國在AI監管上更側重於市場的自我調節和技術創新,主要以倡議性文件和分散監管的方式來應對AI的監管。
聯邦層面雖然陸續形成了一些對人工智能的法律和政策,但監管內容更注重AI系統的透明度、反歧視、數據治理等議題,重大的限制性、禁止性規定則主要針對運用AI的政府活動。
在國家層面統一監管缺席的狀態下,美國各州的AI立法相對較爲活躍。根據斯坦福大學的統計,2023年美國各州總共提出了150項關於AI的法案。其中,加州《前沿人工智能模型安全創新法案》(SB-1047)最爲引人注目。
該法案旨在爲高風險的人工智能模型設立常識性的安全標準,以防止重大危害,如大規模人員傷亡、超過5億美元損失的網絡安全事件等,要求大規模AI模型的開發者部署前進性安全評估、具備緊急關停能力、提交年度合規認證以及上報安全事件等。
相比歐盟AI法案,《前沿人工智能模型安全創新法案》的監管範圍實屬有限,但仍然引發了廣泛爭議。
一方面,支持者認爲它能有效降低AI技術造成的潛在風險,確保公衆安全和社會穩定。另一方面,反對者擔心嚴格的監管會抑制創新,限制技術進步的速度。李飛飛、吳恩達等硅谷知名人士以及包括OpenAI在內的知名AI企業都公開表達了對法案的強烈異議。
OpenAI建議應建立明確的聯邦框架而非州級監管,並強調這對美國在AI全球競爭中保持競爭優勢至關重要。這種對內寬鬆、市場驅動的監管邏輯,確實符合美國維持AI領域國際競爭力的需要。對外,美國從業界到政府都視中國爲人工智能領域的強力競爭對手。
但加州的立法者卻對上述提議表示懷疑。正如加州數據隱私法是在美國缺少聯邦級別的統一立法下通過的,全美統一的AI監管缺失,正是加州這一全球AI重鎮立即行動的原因所在。
儘管8月加州衆議院審覈通過了法案,加州州長在9月底卻以“缺乏靈活解決方案”等理由簽字否決了法案。
這些分歧都凸顯出:在美國傳統經濟文化背景之下,建立與歐盟AI法案類似的統一監管體系面臨重重挑戰。
歐盟:以市場換監管
歐盟對人工智能的監管思路,則體現了自二戰以來歐盟國家普遍重視公民權利、隱私和數據保護的文化和價值觀,也受到其立法慣性的影響。
歐盟自2016年起就不斷探索對人工智能技術應用的監管體系構建,其政策重點是保障個人權利。歐盟追求政治共識的集體決策機制,也必然導致其監管框架在制定過程中要考慮更廣泛的公衆利益和社會影響。
在這方面,歐盟AI法案與2018年生效的《一般數據保護條例》(GDPR)一脈相承,通過嚴格標準和高額罰款來確保參與歐盟市場的全球企業,都尊重歐盟的基本人權標準和價值觀。
從商業角度出發,歐洲也有成功的互聯網公司,但大多數未能達到中美同行的規模和影響力,所以歐盟的立場會更關心是否能有效約束來自中美的頭部AI企業。事實上,歐盟AI法案規定的監管門檻使得其監管對象也直指美國頭部AI企業。
歐盟AI法案的生效,使得歐盟在人工智能監管方面能夠以此爲槓桿,利用其布魯塞爾效應,保護歐盟內相關企業的發展。同時,歐盟內部的AI技術發展也不均衡,在追求建立統一的數字市場過程中,歐盟內部也不免產生各方面的博弈,這也意味着需要一套統一的監管框架來促進歐盟內部的貿易和公平競爭,以避免出現碎片化的市場環境。
在歐盟AI法案生效前,歐盟首先建立了人工智能辦公室,負責監督執行AI法案中的通用人工智能等部分內容,並在歐盟成員國之間進行有效的協調和合作。
中國:尋求平衡
從Web 1.0時代到人工智能時代,中國互聯網行業的發展歷程,受到了技術進步、市場環境變化以及政策導向等多重因素的影響。在這一過程中,中國還經歷了從模仿到創新、從跟隨到引領的角色轉變,最終塑造了一個獨特的互聯網生態和監管環境。
在Web 1.0時代,中國的互聯網起步相對較晚,主要模仿西方的成功模式,如新浪、搜狐等門戶網站的崛起,也是借鑑了美國雅虎的經驗。
在Web 2.0時代,互聯網變得更加互動和社交化,中國互聯網公司開始展現出強大的創新能力。騰訊QQ、微信等社交軟件成爲擁有龐大用戶數量的平臺,淘寶、京東等電子商務平臺也改變了人們的購物習慣。這一階段,中國互聯網企業在商業模式和服務體驗上實現了超越,形成了具有中國特色的互聯網生態系統。
隨着大數據、雲計算和機器學習等技術的發展,人工智能逐漸成爲互聯網行業的重要驅動力。憑藉龐大的市場規模、豐富的應用場景以及政府的大力支持,中國也成爲全球人工智能領域的主要參與者之一。阿里巴巴、百度、騰訊等巨頭紛紛加大在AI領域的投入,許多創業企業也揚帆出海。
中國對人工智能的監管體系也是在上述背景下逐漸形成的。中國的政治體制有利於政策制定的集中化,政府能夠快速主導制定和實施全國性的AI戰略和監管政策。一方面,政府認識到AI技術對於提升國家競爭力的重要性,通過設立專項基金、制定產業發展規劃等方式,積極促進AI技術的研發和應用。另一方面,考慮到AI技術可能帶來的隱私泄露、就業衝擊等問題,政府也在逐步建立健全相應的法律法規。
目前,中國已建立了由《網絡安全法》《數據安全法》《個人信息保護法》《生成式人工智能服務管理暫行辦法》等組成的人工智能監管基本框架。2023年初,《人工智能法》也被列入了立法計劃。從立法過程中條文的簡化可以看出,中國在平衡監管的原則下,給AI技術和AI企業提供了更大的發展空間。
AI技術是進一步提升國家競爭力、發展新質生產力的關鍵技術。因此,中國採取了一種平衡的監管策略,既注重產業發展又強調風險管理,在保障社會穩定和促進經濟發展之間尋求平衡,注重監管的科學性和有效性。
總體來說,中國注重事前監管、兼顧事中和事後監管的全生命週期監管,重視個人信息保護和防止技術濫用,與歐盟在監管理念上較爲接近,對AI的監管呈現出包容審慎的態度。特別是在生成式人工智能服務管理方面,中國採取了先行先試的方式,在實踐中摸索有效的監管路徑。此外,中國還致力於參與國際對話,共同探討制定跨國界的AI治理規則。
綜上所述,美國、歐盟和中國在AI監管體系上的差異,主要由政策導向、經濟文化背景與價值觀等多方面因素造成。美國的監管方式可能有利於創新和技術突破,但可能會犧牲部分隱私和安全性。歐盟的監管則更傾向於保護公民權利,但可能會限制市場的靈活性和創新速度。中國的監管結合了政府的引導和支持,旨在平衡產業發展與社會福祉。
這些差異反映了不同國家和地區在AI監管方面的不同需求和優先考慮事項。因此,短期內,中美不會全面建立類似歐盟AI法案的監管體系。
AI的全球治理
亨利·基辛格等很多學者總結過,人工智能具有天然的全球性,因此進行AI全球治理勢在必行,這需要建立一個類似於國際原子能機構的組織。但該構想也面臨嚴重挑戰,需要克服地緣政治的不信任以及經濟競爭等各種因素。
在2023年11月的AI峰會上,包括中國、美國、歐盟在內的多個國家和地區簽署了宣言,同意合作建立AI監管方法。各方在AI治理的基本原則上達成了一定程度上的共識,如支持透明度、負責任的AI開發和使用等。
中美之間也進行了首次政府級別的AI對話,討論了技術倫理等問題。但各方在利益訴求、監管哲學、技術倫理與人權標準等方面的差異,以及實際的技術限制和數據流動的限制,仍會導致一系列衝突。
除了已知的衝突和挑戰,在人工智能領域,人們還會面對諸多“未知的未知”。人工智能在發展過程中有待解決的問題數量,或將遠超人類現有的認知,但解答過程離不開求同存異。在多樣性中尊重差異、尋求共識,需要人類智慧。
(譚寅亮系中歐國際工商學院決策科學與管理信息系統教授,張毅系方達律師事務所合夥人,王琦系中歐國際工商學院研究員)
版權聲明:本文僅代表作者個人觀點,不代表經濟觀察網立場。