《紐約時報》指稱 ChatGPT 繞過了付費牆,而非“黑客攻擊”

IT之家 3 月 13 日消息,紐約時報去年對OpenAI 和微軟發起訴訟,聲稱對方公司 AI 侵權,而 OpenAI 稱該報“黑”了 ChatGPT 以便針對他們來生成具有誤導性的訴訟證據。

現在,紐約時報對 OpenAI 關於“黑客入侵”的說法作出了迴應,指責 OpenAI 歪曲事實,從而轉移公衆注意力。

“OpenAI 錯了,”紐約時報在一份法院文件中反覆辯稱,“OpenAI 試圖轉移注意力的說法,即‘紐約時報黑了其產品’這種說辭毫無意義且站不住腳”。

此外,紐約時報在爲其用提示引導 ChatGPT 吐出記憶(即訓練數據,包括 100 多篇《紐約時報》文章)的策略辯護時指出,ChatGPT 用戶經常使用該工具生成整篇文章以繞過付費牆。

紐約時報辯稱,他們目前並不知道有多少篇文章已經被用來訓練 GPT-3 和 OpenAI 後續的 AI 模型,也不知道 OpenAI使用了哪些特定文章,因爲 OpenAI “沒有公開披露用於訓練其人工智能模型的數據集構成”。

紐約時報強調,他們並不是爲了提起訴訟,而是通過提示 ChatGPT 來發現證據,以試圖追蹤“該工具侵犯版權的全部範圍”。

法院文件顯示,爲了弄清楚 ChatGPT 是否侵犯了某些文章的版權,紐約時報“通過向 GPT-4 提供《紐約時報》文章的開頭幾個單詞或句子來引出其記憶的例子”。

OpenAI 辯稱,“在現實世界中,人們不會使用 ChatGPT 或任何其他 OpenAI 產品 從付費牆後面的文章中生成精確的文本”,而紐約時報辯稱“使用 ChatGPT 繞過付費牆” 的行爲已經“被廣泛報道”。

紐約時報在法院文件中提到,“根據 OpenAI 的說法,《紐約時報》發現 OpenAI 盜竊了《紐約時報》自己的版權內容,從而犯下了不法行爲”“OpenAI 真正的不滿並不是我們如何進行調查,而是調查揭露了什麼:被告通過大規模複製《紐約時報》的內容來訓練他們的產品 —— 這是 OpenAI 既不承認也無法否認的事實。”

IT之家附前情提要:

2023 年 12 月 27 日,紐約時報對 OpenAI 和微軟發起訴訟,聲稱對方公司“未經授權而使用了數百萬”文章來訓練其 AI 模型,導致其 AI“可以生成逐字背誦的《紐約時報》內容,對其進行總結並模仿其表達風格進行輸出”,這“破壞了它與讀者之間的關係”,同時也剝奪了其“訂閱、許可、廣告和附屬收入”。

2024 年 1 月 7 日,OpenAI 針對《紐約時報》的侵權指控迴應稱:該機構一直在文章的開頭提示 GPT 模型,導致模型產出的文本十分接近原文,從而增加了侵犯版權的可能性,可謂是“鼓勵侵權”。

2024 年 1 月 17 日,OpenAI 阿爾特曼迴應被《紐約時報》起訴:他們也不想用新聞出版商提供的訓練數據,而且OpenAI 正在與包括 CNN、福克斯公司和時代週刊在內的出版商洽談新聞內容授權事宜。

2 月 28 日,OpenAI 要求美聯邦法官駁回《紐約時報》對其提起的部分版權訴訟,聲稱《紐約時報》黑入了 ChatGPT 等 AI 系統,爲此前的訴訟生成了“具有誤導性”的證據。