【評論】警惕個性化算法弊端——“迎合偏食”而非“糾正偏食”
個性化與算法歧視
彰顯個性已經成爲這個時代心照不宣的主題,如果年輕人沒有一點“個性化”展示,在流行文化看來簡直就不像“年輕人”了;而如火如荼的人工智能算法則在幫助使用者朝着“個性化”的道路上走得更遠,比如所謂的千人千屏、個性化信息流和定製廣告。
然而,智能算法的“個性化”與“歧視”是一種深層次的哲學矛盾。因爲在某種程度上,任何分類本身都可以被合理解讀爲一種歧視;同理,“個性化”本身就可以是一種歧視性行爲,這是難以抗拒的客觀規律。比如,當根據距離遠近與物流發達程度,將商品交易劃分爲“包郵區”與“非包郵區”時,江浙滬與新疆顯然被區別對待了;儘管這一區別對待有着充足的物流成本之依據。當根據第23對染色體是XY還是XX將人類區分爲“男性”與“女性”時,在男權主導的社會有時會導致對女性某些合法利益的侵害,而在某某140字“輿論”空間則經常聚集起對男性的仇視言論。罪在XX/XY的劃分嗎?責任更應該歸於特定的社會環境、輿論環境。當根據成熟期果肉細胞的不溶性果膠及纖維素的含量多少,將蘋果分爲我喜歡的“面蘋果”和不太喜歡的“脆蘋果”時,“黃元帥”與“紅富士”在市場上就有了不同的身價。“紅富士”與“黃元帥”,遭遇了“價格歧視”嗎?
任何形式的分類都提供了最低限度的歧視之可能性。人工智能算法的“個性化”安排——本質就是不斷的分類——更是如此。
特別是,由於算法對“身份”的敏感性,人工智能算法可能形成歧視特定對象的“身份法則”而不自知。一個著名的案例是:美國法院廣泛使用的犯罪預測系統COMPAS存在對黑人的系統性歧視。對服刑人員進行“出獄後再犯風險評估”時,COMPAS錯誤地認定,黑人比白人有着更高的再犯罪風險,因此會做出更多的不利於黑人的評估預測。儘管COMPAS對黑人、白人再次犯罪並被捕的預測準確率爲61%,但39%的部分“錯誤”的方式不同:黑人被告被評爲高風險、但後來卻不再犯的概率是白人被告的2倍,而白人被告被評爲低分險、後來又被指控重新犯罪的概率是黑人被告的2倍。因而,這一“犯罪人風險行爲評估”工具COMPAS甚至是赤裸裸種族歧視(racially biased)的。實際上,COMPAS甚至也是嚴重性別歧視的:“風險評分爲5的女性再犯概率與風險評分爲3分的男性差不多”。
然而令人驚奇的是,由於“人工智能”光環的加持,2001年紐約州開始使用這一系統,直到2016年才被科技記者茱莉婭·安格溫指出。這種“身份敏感”實際上是難以根除的,原因在於,它是內在於“分類”本身的。克萊因博格指出,“在對機率不同的兩個組進行風險評估時,結果就會是這樣。”智能系統的再犯罪預測中,假陽性(“高風險”的被評估者沒有如預期那樣再犯罪)與假陰性(“低風險”的被評估者沒有如預期那樣不再犯罪)的平衡是困難的——幾乎是不可能的,除非不同羣體的再犯率相同。執行者會爲了效率而放棄公平——尤其是被歧視對待的羣體自身也惑而不知或知而不言時,這在全世界都不是什麼秘密。然而,此類對特定羣體的系統性偏見——歧視,卻是任何一個人類文明社會都不能容忍的。
“人工智能喂屎”
事實上,算法對公共利益的傷害是輕易且普遍的。“算法對平等權、自由權等基本權利的侵害其實針對的都不是特定的某個人,而是不特定的多數人。”在公共交通和出行領域,與“個性化推薦”相關的殺熟曾一度引起人們的廣泛擔憂;其實更值得憂慮的是娛樂領域,例如,基於個性化推薦算法的短視頻平臺,經常容易讓用戶高度沉迷,對其正常生活的平衡、時間的掌控以及認知世界的能力都會造成不同程度的損害,比如“視頻成癮”,導致其困於“信息繭房”(Information Cocoons)難以逃離。
一個值得警惕的社會現象是,“人工智能喂屎”,或者用更文雅的說法,“人工智能投毒”。人的身體健康需要豐富、均衡的物質營養,比如人每天需要攝取谷薯類食物200~300g、蔬菜300g、水果200~350g、畜禽魚蛋類食物120~200g、1個雞蛋(約50g),以及奶類、大豆和堅果,油、鹽、脂肪、足量的水,還應適當運動(《中國居民膳食指南(2022)》)。如果過於挑食,只吃肉不吃菜,就可能缺乏維生素與纖維素不利於健康,只吃菜不吃肉也會缺乏不少人體必需的維生素,油鹽過量容易“三高”,等等。如果孩子挑食,負責任的父母應當進行必要的干預,讓孩子吃一些他可能不那麼喜歡、但卻長身體需要的食物。身體健康的核心要義在於均衡,精神健康同樣如此,需要豐富、均衡的精神食糧。
但現實是,通過分析用戶行爲和偏好,人工智能系統爲用戶提供個性化的內容推薦,這種服務極易導致個體用戶的過度沉迷。推薦系統基於用戶的興趣偏好,提供沉浸式的體驗,使用戶感到迅速(而淺薄)的即時滿足,導致沉迷、信息繭房與社會分化極化——這有助於智能算法提供者相應產品的盈利。本應投喂的精神營養被劣質和重口味的精神垃圾替代了。人們沉迷其間,樂此不疲。尤其是缺乏辨識力的青少年,對這種投喂完全缺乏抵抗力。
智能技術這種“迎合偏食”而不是“糾正偏食”的做法,實際上已經帶來了嚴重的後果,尤其是對本來就缺乏有效的外部監督與指導的、處於社會弱勢階層的家庭子女。人工智能“投其所好”的個性化,其風險就隱藏在我們的每一次的選擇、每一下點擊之中。每一個試圖保持自由的人,都應當警惕這一問題,而不是嘗試“以個人克服時代”。
法律也意識到了這一問題,《中華人民共和國電子商務法》第十八條作出了反算法歧視的規定,“電子商務經營者根據消費者的興趣愛好、消費習慣等特徵向其提供商品或者服務的搜索結果的,應當同時向該消費者提供不針對其個人特徵的選項,尊重和平等保護消費者合法權益。”所謂自然排名保障了消費者一個重要權利:知情權,因爲“自然排名”是未經特別修飾或調整的搜索結果的自然呈現,是未經“利益污染”的,是消費者作出最有利於自身的消費決策的基礎。然而事實卻是,一方面“自然排名”並不自然,會受到載體設備、操作系統、地理位置等多方面因素的直接影響。“在實踐中,對算法的劃分並不是二元化的‘全有全無’的問題,即使是‘不針對其個人特徵的選項’的自然結果也將或多或少地讀取地理位置、終端設備或Cookies等標識信息,否則將無法提供有效的服務內容。”另一方面,電子商務公司並沒有很好地遵守這一規定,因爲較之“自然排名”,“個性化排名”會帶來更多的商業機會和成交額、總利潤。因此,此類“個性化算法”也需要進一步有效規制。如果商業共同體之間不能達成有效的自律協定以約束自身行爲——這是不太現實的,在高強度的商業競爭中“誰自律誰吃虧”——那麼,具有普遍約束力的法律的介入可能就是一種必需了。
一種可能的方案是,將智能算法對人類的影響限制在一個可接受的範圍之內:確保“人工”影響和決定“智能”,而不是相反。
在學理上,“自由”具有不同的含義。我認爲,位居“自由意義體系”最核心地位的,乃是一種“拒絕的自由”。這在法律對人類權利的保護上,就體現爲“拒絕的權利”。“你們玩你們的,我們不幹了。”這是面對人工智能歧視甚至強權,公民最底線的一點點尊嚴:我拒絕。只有確保和捍衛這樣一種“最底線的自由”,才能真正實施其他一些治理算法的措施。通過法律架構與技術手段,保證人類智能對人工智能系統的整體領導與關鍵把控,是一個基本的方面。最重要的是,即便不能直接解決問題,人類起碼也要保留“拒絕的權利”,這是人類在算法時代的底線尊嚴。
(文章僅代表作者觀點。責編郵箱:yanguihua@jiemian.com。)