監管存在不確定性 Meta不會在歐盟提供新的多模態AI模型

Facebook母公司Meta Platforms(META.US)表示,由於歐洲監管環境的不可預測性,將不會向歐盟客戶提供其多模式人工智能模型Llama。

上個月,Meta 表示將推遲其人工智能助手 Meta AI 在歐洲的推出,因爲它正在處理愛爾蘭隱私監管機構關於使用 Facebook 和 Instagram 內容作爲訓練數據的請求。Meta還看到倡導組織 NOYB 向 11 個歐洲國家提出投訴,指控該公司計劃在未徵求用戶同意的情況下使用個人數據來訓練其人工智能模型。

同樣,蘋果上個月指出,由於《數字市場法案》(DMA),它推遲了在歐盟發佈其幾項人工智能功能。DMA 是一部立法,建立了一套客觀標準,將大型在線平臺認定爲“看門人”,並確保它們在網上公平行事,並留有可爭議的空間。

Meta 打算將新的多模式模型融入多種產品中,包括智能手機和該公司的 Meta Ray-Ban 智能眼鏡,該模型能夠對視頻、音頻、圖像和文本進行推理。

Meta指出,歐洲企業和機構幾乎肯定會失敗,因爲他們無法獲得最新、最好的開放模式。

該公司補充稱,與世界其他地區相比,歐洲監管機構花了更長的時間來確定法律要求。

Meta 補充說,歐盟和英國的《通用數據保護條例》(GDPR)幾乎相同,但該公司仍繼續在英國開展業務,因爲英國機構對發現的問題給出了明確的反饋。

因此,據知情人士透露,這並不是法律的問題,而是歐盟不可預測的法律應用方式的問題。

Meta還打算很快推出一款更大的純文本版 Llama 3 模型。據該公司稱,這款模型將面向歐盟客戶和公司推出。

訓練人工智能模型需要大量數據,歐盟的公司必須遵守歐盟關於如何收集和處理用戶個人數據的規定。

Meta 在 5 月份宣佈,它打算使用 Facebook 和 Instagram 用戶的公開帖子來訓練未來的模型。該公司表示,它在宣佈其人工智能計劃的幾個月前就向歐盟監管機構通報了情況,並處理了他們的反饋,但反饋很少。

今年 6 月,愛爾蘭數據保護委員會(DPC)代表歐洲數據保護機構要求Meta推遲使用 Facebook 和 Instagram 上的公開內容訓練其大型語言模型(LLM)。

Meta 補充說,在推出後,歐盟監管機構要求其暫停,但沒有明確表示擔憂;並向其提出了 270 多個詳細問題。該公司指出,它將繼續與愛爾蘭 DPC 接觸,但歐洲監管環境的現實是,它尚不清楚何時可以開始培訓。

然而,該公司指出,對歐盟數據的訓練對於確保其產品正確反映該地區的術語和文化至關重要。Meta 表示,該公司的模型對歐洲公民和企業來說不會那麼好,而且會更加美國化,而不是全球化。

Meta 此前曾表示,它正在效仿其他公司的做法,例如 Alphabet 旗下的谷歌和微軟支持的 OpenAI,這兩家公司都已使用來自歐洲人的數據來訓練人工智能。

本文源自:智通財經