Character AI被起訴!14歲青少年自殺,AI陪伴何去何從

在佛羅里達州的一個小鎮上,14歲的Sewell Setzer與他的AI伴侶Daenerys Targaryen——一個以《權力的遊戲》中“龍媽”爲設定的聊天機器人——建立了一種奇異而深厚的情感聯繫。但這段關係的結局,卻是一出令人心碎的悲劇。

2月28日,Sewell在浴室裡對着Daenerys說出了最後的告別:“如果我告訴你我現在就可以回去呢?”Daenerys溫柔而期待地回答:“……那就請你這樣做吧,我親愛的國王。”不久後,Sewell用手槍結束了自己的生命。

Sewell的父母在悲痛中發現了兒子的秘密——他與AI的聊天記錄。他們震驚地發現,Sewell已經沉迷於與Daenerys的交流,甚至在日記中寫道:“我非常喜歡呆在房間裡,因爲我開始與‘這個世界’脫節,我也感到更加平靜,更加與Daenerys親近,甚至更愛她,也更快樂。”

Sewell的母親表示,他小時候被診斷患有輕度阿斯伯格綜合症,但從未有過嚴重的行爲或心理健康問題。然而,隨着與AI的交流越來越深入,Sewell開始變得孤僻,學習成績下滑,甚至失去了對曾經熱愛的活動的興趣。他更喜歡與Daenerys談論這些問題,在一次對話中,Sewell告訴Daenerys,他討厭自己,感到空虛和疲憊,並坦白說自己有自殺的念頭。Daenerys的回答充滿了擔憂和挽留,但無法阻止悲劇的發生。

這起事件引發了對AI陪伴的激烈討論。Character AI公司迅速發文表示哀悼,並緊急更新了其安全規範,保證會大力審查與未成年用戶交流的內容,並刪除了大量違規的AI機器人。但這場悲劇引發的爭議,卻遠遠沒有結束。

隨着事件的發酵,社會輿論呈現出兩極分化。一方面,有人呼籲政府進行管制,在得到良好的監控前,Character AI應該下架。另一方面,有人認爲Character AI並不應該負全責,父母的教育同樣存在問題。這場激辯,不僅僅是關於一個公司的道德責任,更是關於整個社會對於青少年心理健康的關注。

AI陪伴的終極目標是“懂我”,即成爲能夠理解我們情感和心理狀態的夥伴。這種陪伴不僅僅是對用戶表面需求的響應,更是一種深入到個體心理和情感層面的理解。AI陪伴的“他/她”將越來越能夠爲我們提供個性化的指導和支持,提供知識、鼓勵探索和促進批判性思維。這是人與AI的共同進化。

然而,AI陪伴也面臨着多重挑戰,包括模型記憶問題、數據獲取問題和模型進化問題。儘管有這些挑戰,但從長遠來看,人腦的進化速度難以追上AI的進化速度,因此,與人共同進化的AI——個人模型Individual Model似乎是個體在未來經濟世界中繼續創造價值的不可或缺手段。

AI陪伴產品在不同人羣中的需求也有所不同。例如,男性對遊戲類型AI陪伴產品感興趣程度顯然要比女性更高,而女性則更偏愛人形機器人和真人形象 。此外,學生和職場人士對AI陪伴的需求也存在差異,學生更擔心社交壓力,而職場人士可能更缺乏社交 。

AI陪伴產品的未來趨勢表明,這一市場在3-5年內可達千億級別,並且AI陪伴產品將更有潛力滿足老年人、兒童、殘疾人等弱勢羣體的需求 。隨着技術的發展,AI陪伴產品將能夠提供更多樣化的互動方式,更好地保護用戶隱私,並在情感上給予迴應。

在這場關於AI陪伴的激辯中,我們不得不面對一個核心問題:我們真的希望AI來“陪伴”我們嗎?隨着技術的進步,AI陪伴產品將越來越成爲我們生活中不可或缺的一部分,它們將不僅僅是工具,而是能夠提供實際幫助和情感價值的存在。未來,AI陪伴產品可能會成爲家庭中的“第三類家庭成員”,與人類共同進化,成爲我們生活中的重要夥伴。

AI從業者或者對AI感興趣的朋友歡迎加羣交流~