ChatGPT、Sora之後,19位專家提出AI治理新方向

春節假期尚未結束,OpenAI最新發布的視頻生成模型 Sora 便突然引爆了科技圈。

作爲一個數據驅動的物理引擎,只需要接收一句話,Sora 便可以生成“充滿想象力”“史詩級”的大片。

由於生成的視頻畫面過於真實,且水平吊打一衆“前輩”視頻生成模型,Sora 讓人們不禁感嘆:又有一批人要失業了?現實要不存在了嗎?這無疑又是一顆投向人類的重磅“炸彈”。

當天,Google 也發佈了自家的最新大模型 Gemini 1.5。據介紹,Gemini 1.5 的上下文窗口高達 100 萬個 tokens,可以一次處理大量的信息——如 1 小時的視頻、11 小時的音頻、3 萬多行的代碼等。這樣的算力,已經遠遠超過人類。

未來,人工智能(AI)還將會展現出怎樣的超級能力,我們還不得而知。但有一點顯而易見,AI 的安全治理,依然落後 AI 的發展。

面對已知的挑戰和未知的風險,人類已經做了大量的工作,探討 AI 倫理、數據倫理和算法倫理,而卻很少討論支撐 AI 飛速發展的物理硬件——圖形處理器和算力上。

圖|自 2010 年以來,用於訓練 AI 模型的計算量大約每六個月翻一番,數據來自 Epoch。

日前,來自 OpenAI、人工智能治理中心(GovAI)、劍橋大學 Leverhulme 未來智能中心等機構的 19 位學界、業界人士,共同發表了一篇題爲“Computing Power and the Governance of Artificial Intelligence”的研究論文,將 AI 發展的爭議焦點聚焦到了“硬件”和“算力”上。

在這篇論文中,這些專家提出了多項政策選擇,其中之一是建立一個全球登記處,跟蹤用於 AI 超級計算機的芯片流動,從而幫助防止 AI 的濫用和災難。

另外,論文中提到的其他技術建議包括“計算上限”(compute caps)——對每個 AI 芯片可連接的芯片數量的內置限制——以及在多方之間分配 AI 訓練的“啓動開關”(start switch),以便在有風險的 AI 輸入數據之前對其進行數字否決。

這些專家認爲,驅動生成式 AI 模型所需的強大計算芯片是通過由少數幾家公司主導的高度集中的供應鏈構建的,這使得硬件本身成爲降低風險的 AI 政策的強有力干預點。

圖|計算(compute)供應鏈示意圖。

因此,治理人工智能硬件、芯片和數據中心將在治理 AI 模型開發和部署方面發揮重要作用,但“也可能帶來新的社會風險”。

硬件在 AI 領域的重要性主要體現在以下幾個方面:

AI 模型變得越來越複雜,需要大量的計算資源來訓練和運行。硬件,例如高性能的 CPU、GPU、TPU 等,提供了這些計算資源。它們能夠加速複雜算法的運行,以及大規模數據的處理,從而實現更快速、更有效的 AI 應用。

讓一個 AI 模型變得越來越複雜,通常需要大量的計算資源,而硬件的性能直接影響着模型訓練的速度和效率。高性能的硬件可以加快模型訓練的進程,縮短開發週期,提高模型的更新速度和質量。

除了模型訓練,AI 模型在部署和實際應用中也需要大量的計算資源進行推理。例如,在語音識別、圖像識別、自然語言處理等應用中,需要實時處理大量的數據並生成準確的預測結果。硬件的性能和效率直接影響着這一過程的速度和準確性,這對實時性要求較高的應用尤爲重要。

硬件在保障 AI 系統安全性和隱私保護方面也發揮着關鍵作用。通過硬件的安全功能和加密技術,可以確保 AI 系統的數據和模型在傳輸和存儲過程中得到有效的保護,有效防止敏感信息泄露和惡意攻擊。

因此,計算資源的使用量是衡量一個 AI 系統潛在影響的可靠指標之一。

通過監管和管理計算資源的使用,可以有效地影響和控制 AI 技術的發展方向和應用範圍。

相比看不見摸不着的軟件,計算資源相對容易進行檢測、排除和量化,這使硬件治理成爲一種有效手段。

與數據和算法不同,計算資源是有限的實物資源,可以被準確地計數和跟蹤,因此更容易進行管理和監管。

基於此,該論文提供了一系列可行的治理方案:

1.建立監測和追蹤系統,用於跟蹤計算資源的使用情況和流向;

2.制定限制性政策,限制某些敏感領域或特定用途的計算資源的使用;

3.加強對計算資源供應鏈的管理和監督,以確保供應鏈的安全和穩定性。

這些技術方案的目標是通過有效的管理和監管計算資源的使用,來保障 AI 技術的安全和可持續發展,從而實現對 AI 技術的有效治理。

具體來說,AI 計算註冊制度(global registry tracking the flow of chips destined for AI supercomputers)指的是一個全球性的登記註冊系統,用於跟蹤用於人工智能超級計算機的芯片流動。這個制度是報告提到的政策選擇之一。

建立AI計算註冊制度具有重要意義。

首先,可以提高對 AI 計算資源的透明度和可追溯性,使各國能夠更好地監測和控制全球 AI 技術的發展和應用。

其次,註冊制度有助於識別和防範潛在的安全風險和倫理挑戰,確保 AI 技術的安全和可持續發展。

此外,全球註冊制度還可以促進國際合作和信息共享,推動全球 AI 治理的協調和合作,實現共贏和共同發展。

當然,這項措施的推行也面臨着很多挑戰。

首先,來自不同國家和地區的政治和文化差異可能導致立法和執行上的障礙。

其次,技術和數據安全、隱私保護等問題可能引發國際爭議和糾紛。解決這些挑戰的關鍵在於建立多邊合作機制和國際標準,促進各國間的協商和合作。

此外,加強國際組織和機構的角色和職能,建立信息交流和合作平臺,加強對技術和數據安全的監管和管理,都是解決這些挑戰的重要途徑。

該論文還提到了其他技術方案,例如“計算上限”,即每個 AI 芯片可以連接的芯片數量的內置限制,以及分發“啓動開關”給多方,以允許對有風險的 AI 進行數字否決之類的政策。

研究人員認爲,AI 芯片和數據中心是更有效的審查和AI安全治理目標,因爲這些資產必須是物理上擁有的,而“AI 三元組”的其他元素——數據和算法——理論上可以無限複製和傳播。

該論文指出,針對 AI 可能帶來的風險,政策制定可以從以下幾個方面進行:

1.限制計算機芯片網絡:政府可以通過立法或監管機制限制對關鍵計算機芯片網絡的訪問,以防止其被惡意使用或攻擊。這包括對芯片生產和供應鏈的管控,以確保其安全和可靠性。

2.加強加密技術監管:政府可以制定更嚴格的加密技術使用規定,確保其不被用於非法活動或惡意目的。這可能包括對加密技術的出口管制和使用限制。

保證安全和良性發展的同時,一定會有所犧牲。

比如,限制計算機芯片網絡和加密技術可能會影響到正常的商業活動和科研進展,對技術創新造成一定程度的阻礙。過度的監管也可能導致市場動態受到限制,影響市場的競爭性和效率性。

論文指出,治理 AI 的關鍵在於對其計算設備的監管。政府需要制定相應的政策和監管措施,以應對由AI發展帶來的風險。

然而,政策制定需要權衡各方利益,並且要克服監管過程中的各種挑戰和困難。AI 發展是全球人類的命題,在這個過程中,政府應該積極倡導國際合作,共同應對 AI 治理挑戰,攜手實現共贏。