人類會被人工智能奴役嗎?

◎維舟

70年前,在美國麻省理工學院,有一場著名的對話昭示了我們當下的困境。當時人工智能研究的先驅馬文·明斯克宣稱:“我們要給機器賦予智慧,讓它們有自我意識。”發明文字處理、鼠標的道格拉斯·恩格爾巴特迴應道:“你要給機器做那麼多好事?那你打算給人類做點什麼呢?”

到今天,這似乎已經成了籠罩在所有人類頭頂的“烏雲”:從《終結者》到《黑客帝國》,再到《我,機器人》和《西部世界》,無數科幻電影中都描述了一個令人無比擔憂的未來——獲得了自我意識的機器,將反過來接管人類乃至消滅人類。近年來,人工智能(AI)的高歌猛進,更讓不少人憂心日盛,人類會被人工智能奴役嗎?

並不只是“又一個工具”

尤瓦爾·赫拉利的新著《智人之上》對此相當警惕,並堅信這是很有可能的:人類創造了自己根本不知道如何駕馭的力量,這些新事物一旦逃脫人類的掌控,將反過來奴役或消滅人類。在他看來,計算機網絡所催生的非人類智慧,帶來了歷史上第一個能夠自行做決策、創造新想法的技術,這可能對當下人類社會的秩序和制度都產生顛覆性的影響。

顛覆性影響?那當然肯定是有的。桑斯坦在《網絡共和國》一書中早就警告過,網絡並不只是一種技術,它的特性會造成“協同過濾”和“羣體極化”,讓越來越多的人只聽到自己的迴音,久而久之會使社會運行陷入危機。我們在當下看到的“信息繭房”已經證實了這一點,我們都知道這很糟,但問題是這究竟有多糟?

在赫拉利看來,人工智能的挑戰遠不止這些,因爲那並不只是“又一個工具”,而很有可能掌握人類交流的信息網絡。過去的新工具無論多麼強大,使用的決定權都握在人類手中,人工智能卻首次改變了這一點。這恰恰是人類文明致命的弱點:“雖然人類能建立大規模合作網絡,以此獲取巨大的力量,但這些網絡的建構方式註定了人類對這些力量的運用常常並不明智。”其結果,一旦我們無法明智地掌控這樣的網絡,那就有可能會自取滅亡。

人類文明之所以能出現,依靠的就是合作,而合作必須依賴於信息交流,否則任何大型社會都不可能出現。從這一角度來說,歷史上的所有組織形態,大都依賴於一套成員共同信守的話語。這是一種“主體間現實”:只要成員都信其爲“真”,那對他們來說就是真的,而合作和信任也都是在這一默認共識的基礎上展開的。

現在問題就在這裡:人工智能不但爲信息的中央化管理提供了技術支撐,而且它還能自行創造新的想法,通過自主學習,算法能夠學會沒有寫進程序裡的東西,也能夠自己決定人類高管並未預見的事情。我們與計算機交談得越多,透露的信息也越多,最終機器人程序就能不斷“投喂”觀點,動搖我們的看法,操縱人類社會,“計算機並不需要派出殺手機器人來射殺人類,只要操縱人類扣動扳機就行”。

要想避免這樣可怕的一幕,最關鍵之處,就是要具備強大的自我修正機制,不斷髮現問題解決問題。然而,就像計算機程序中常見的那樣,修訂bug常常又會帶來新的bug:“自我修正機制雖然有利於追求真理,卻會讓維持秩序的成本大大升高。自我修正機制太過強大,往往會產生懷疑、分歧、衝突與裂痕。”人工智能或許沒有改變社會演化的模式,卻可能使這種演化朝向危險的方向直奔而去。

這乍看談的是人工智能和信息網絡,實際上憂慮的是現行的社會制度能否、又如何應對這樣的衝擊。赫拉利凸顯了這種危機的緊迫性,卻可能誇大了危險程度。他很擔心“硅幕”會分裂人類的計算機網絡,塑造出一個個難以互聯溝通的信息繭房,但反過來說,在一個多元世界裡,相信“世界是平的”不也是一種天真的信念嗎?信息繭房固然帶來封閉,但那也爲多元文化提供了棲身之所,否則我們就可能見證大量小衆文化的消失。儘管那種信息的集中乍看似乎獲得了技術的加持,但假以時日來看,這種自我封閉真的能有更強大的內生動力,最終抵擋得過一個生機勃勃的開放網絡嗎?

人工智能會失控嗎?

不可否認,他的警示確有必要,尤其是技術往往走在社會意識前面,太多人都無法意識到人工智能究竟意味着什麼。30年前,美國國會議員愛德華·馬基就說過這麼一句話:“來自華盛頓的好消息就是國會裡每一個人都支持信息高速公路的提法,壞消息則是沒有人知道它意味着什麼。”這像是在嘲諷政客們的愚蠢,但事實上,任何新生事物都有這樣的特性,印刷術誕生之初,人們根本想不到其會催生無數書籍、檔案,還發明瞭紙幣;又有幾個人能想到,社交軟件的聊天工具演變至今,竟然具備了那麼多功能,搞得我們生活都離不開它們了。

也就是說,新生事物所帶來的影響,是逐步浮現的,沒有人能一開始就猜到它最終產生什麼樣複雜深遠的社會後果。有一點赫拉利說得對:關鍵在於社會的自我修正機制,而不是出現一點問題就反應過度,恨不得把這危險的新發明扼殺在搖籃裡,免得它造成更大的禍患;但他看來非常擔憂人工智能的自行演化脫離了人類的掌控,我們本來想得到A,結果得到了B——然而,“非意圖後果”爲什麼不可能是好的呢?

擔心人類的創造物最終反噬,這在西方文化裡有着悠久的傳統,源於主客體二元對立的邏輯,現代科幻小說的開山之作所描繪的“弗蘭肯斯坦怪物”就是這樣一個故事。這種憂慮固然有其必要,然而這種“受控的演化”,是否也意味着人類的智能上限會設定技術進步的天花板?

凱文·凱利在《失控:全人類的最終命運和結局》也預見了人類可能會失去對機器的控制:“在將生命的力量釋放到我們所創造的機器中的同時,我們就喪失了對它們的控制。它們獲得了野性,並因野性而獲得一些意外和驚喜。之後,就是所有造物主都必須面對的兩難窘境:它們將不再完全擁有自己最得意的創造物。”然而,他並不認爲那樣的未來值得恐懼,相反,他相信有必要放棄某些控制,讓機器自行模擬“自然進化”:“進化能使我們超越自身的規劃能力;進化能雕琢出我們做不出來的東西;進化能達到更完美的境界;進化能看護我們無法看護的世界。但是……進化的代價就是——失控。”

學會彼此共生共存

沒錯,人工智能可能會對現行社會制度產生深遠衝擊,但那與其說需要針對技術,不如說需要針對社會本身,因爲計算機網絡所呈現的特性,往往並不取決於技術,而取決於社會網絡自身的特點。直白地說,什麼樣的社會,就會催生什麼樣的信息網絡和人工智能應用,我們不如坦率點,別怪罪到技術頭上。

這不是說我們就完全不需要擔憂人工智能失控,而是說至少現階段,它的應用和發展仍取決於社會自身。這就像我們體內的細胞分裂,能使生物體成長、適應、恢復和修復,從而讓我們能夠生存。但一旦這種機制被癌細胞所劫持,出現細胞的異常增長,那對人體而言就是致命的。我們既不必“談癌色變”,當然也不能高枕無憂,而是要找到和細胞的相處之道,既消除突變細胞,又不損害正常生長。

既然我們不可能摧毀人工智能,也不想被它所消滅,那麼,與其把這看作是一場爭奪控制權的鬥爭,倒不如多多去學習生物學的邏輯,學會彼此共生共存。