前OpenAI研究人員警告“老東家”:若AI無監管將造成災難性傷害

IT之家 8 月 24 日消息,據《商業內幕》北京時間今天上午報道,OpenAI 公開表示了對加州 SB 1047 法案(AI 安全法案)的反對意見之後,兩名 OpenAI 的前研究人員則站出來公開反對自己的“老東家”,並提出警告。

美國加州 AI 安全法案將要求 AI 公司採取措施,防止其模型造成“嚴重損害”,例如開發可能導致大量人員傷亡的生物武器或造成超過 5 億美元(IT之家注:當前約 35.66 億元人民幣)的經濟損失。

這些前員工向加州州長加文・紐森和其他立法者致信稱,OpenAI 對該法案的反對令人失望,但並不令人意外。

兩名研究人員威廉・桑德斯和丹尼爾・科科塔伊洛在信中寫道,“我們(以前)之所以選擇加入 OpenAI,是因爲我們希望確保該公司在開發的‘強大無比的 AI 系統’的安全性。但我們選擇離開,是因爲它失去了我們的信任 —— 能夠安全、誠實、負責任地開發 AI 系統。”

信中還提到,OpenAI CEO 阿爾特曼曾多次公開支持對 AI 實施監管,但當實際的監管措施準備出臺時,他們卻表示反對。“在沒有充分安全預防措施的情況下開發前沿 AI 模型,會給公衆帶來可預見的災難性傷害風險。”