大數據“殺熟”,算法“歧視”,網絡互聯時代如何實現算法正義?
(本文首發於Internet Law Review,授權紫金財經發布,轉載請註明來源)
大數據“殺熟”,算法“歧視”,平臺“畫像”……網絡互聯時代,算法,這個曾經藏匿深處、遠離大衆的互聯網專業詞彙,如今越來越多地被提及,越來越多地被關注。
算法以全新的挑戰形態對法律實踐產生衝擊,如何迴應這些挑戰,如何用法律保護算法的計算正義,使其促進共同善的同時,不對正義和公平造成衝擊,本文作者認爲,傳統的迴應型規制視角並不可取,而是應該從計算正義角度重構算法與法律的關係模式。
人工智能帶來社會生活的智能化,隨着算法研發的發展和成熟,生產、社會生活、商業經營和公共決策等領域越來越多地利用算法來實現特定目標。算法從幕後走到臺前,成爲法學研究的熱點。
01算法的廣泛應用帶來諸多法律困境
算法技術的獨特性不僅體現在算法如何進行計算和應用,而是對法律的價值世界造成衝擊。算法所引發的不僅是技術不受約束或者行業難以監管,而是在一個非常基礎的層面上衝擊了法律這種制度形式:算法系統的黑箱問題、算法運行過程中的歧視、算法對偏見的數字化固化等等。這些現象導致社會產生強烈擔憂,更讓法律規制面臨棘手困境。
社會生活的計算化和算法與法律的融合產生了三方面的難題,帶來了一定程度的社會危機和治理困境。
第一類是監管難題。社會生活的計算化改變了傳統概念的內涵和社會理解,算法對社會生活的“入侵”使得隱私、自主、平等等概念變得模糊不清。藉助算法,運營商對個人數據的收集變得易如反掌,通過算法監測用戶的舉動也成爲技術常態;社交平臺收集用戶信息並進行畫像,定向推送廣告;網絡服務提供者運用數據進行特定的數據分析或者實驗。
第二類是價值難題。從效用上看,算法具有巨大的社會利益:在商業領域,算法可以快速精準地判斷市場商業需求;在公共領域,算法也潛力無限。然而,從價值角度來看,算法引發一定程度的價值危機:一方面改變人的主體性理解,賦予人的自由、自主選擇和決策以新的內涵;另一方面在實踐中引發固化歧視、侵犯隱私的問題,構成對人之尊嚴的威脅。
以算法黑箱問題爲例,在商業領域,消費平臺會基於人們的購買記錄和消費習慣而差別定價,這種操作的依據並不透明,消費者也難以察覺。算法黑箱的規制難點在於算法決策過程完全由機器根據特定函數進行運轉,人力無法干預,更無法解釋算法運轉的內在原理。
然而,人們需要對算法的價值難題保持清醒的認識,算法本身是技術應用程式,其價值問題本質上是算法設計者和使用者利用算法損害某些價值。
第三類是歸責難題。算法應用必然伴隨着法律責任配置,以防範風險和實施救濟。隨着人工智能的廣泛應用,其侵權問題也成爲理論難點。人工智能的風險之一是算法侵權的救濟途徑難以確定。
一個典型的例子是自動駕駛汽車致損的責任認定問題,汽車生產廠家、算法設計者和車主應如何劃分責任,是自動駕駛汽車進入市場前須解決的問題。此外,算法歧視的救濟也是一個複雜問題,特別是在公共決策中,如果一個人因爲性別或學歷而受到自動化行政決策的不同待遇,他能否向政府主張救濟?
算法以全新的挑戰形態對法律實踐產生衝擊。我們果真束手無策嗎?當前有大量的研究針對算法規制提出各種形式的建議。但需要迫切迴應的基礎性問題是,算法和法律之間有什麼關係?算法所造成的法律挑戰,法律能夠有力地應對嗎?從計算正義的角度切入這個問題,可以挖掘出迴應這些難題的有效思路。
02 算法的價值:共同善與計算正義
理解法律與算法之關係的關鍵在於從價值上釐清二者之間的關聯。
算法的內涵有技術和社會兩重意義。算法的技術意義並無太大爭議,算法是一種計算方法,通過計算公式得出確定的結果。算法的社會意義受制於科技發展水平和社會語境,計算機的發明和網絡傳輸技術的提升使得大數據收集成爲可能,在此基礎上,算法通過對海量數據的深度學習可以實現自我更新和升級,最後形成更爲成熟的算法。
網絡服務主體開發利用特定算法(決策樹、貝葉斯算法等)並服務於社會公衆,比如信貸機構、網約車、社交和外賣平臺等。除了商業外,政府也可以發揮自動決策的優勢,運用算法決定行政審批,包括公共資源審覈、假釋評估等。
可以看出,算法改變了社會,也創造了更多新的可能。但從價值角度來說,算法的社會意義主要體現在算法能夠促進共同善,即對於社會共同體的每個個體都至關重要的那些善好,比如知識、社會交往和實踐理性等等。
社交媒體可以促進社會交往和信息交流,大大便利人們對知識的追求。算法的引入,使得人們不僅能夠更好地實現這些善,也改變了實現善的方式。比如傳統知識獲取方式是閱讀和教育,現代的知識獲取方式十分多元,網絡閱讀、視聽平臺、社交媒體傳播等都是知識獲取的重要方式。
但算法並不能自動實現這些基本善,人們帶着改善社會、實現善的意圖將算法嵌入到各種應用場景之中,算法不僅參與到善的實現過程中——人們藉助算法技術能夠更便捷地檢索知識,也能重塑知識這種價值,知識不再是關於世界的判斷和信念,也成爲以計算化的方式而存在的代碼和數據。
這個過程產生了正義問題。
爲什麼要提出計算正義?
算法是技術,通常來說被用於實現某種目標,比如設計一種視覺識別算法,用於人臉識別或者動畫設計。算法技術與正義無關,但算法運行在某一場景之中,並且對人的決策和行動產生實際影響的時候,算法技術就產生了正義問題。
由於算法種類千差萬別,應用場景層出不窮,算法涉及到的具體善也非常多。但整體上來說,算法實踐最終都指向社會實踐的基本善,也引發實現這些善的正義問題。
例如,招聘算法能夠幫助僱主更爲精確和高效地挑選合適僱員,促進就業,但計算過程可能會包含潛在的歧視。如果一個僱主對女性應聘者說:“你是女性,我不能招聘你”,顯然構成歧視,法律可以對這種性別歧視做出迴應。但如果招聘算法在數據處理過程中包含着偏見,法律對這種計算化的偏見應該如何迴應,卻是一個全新的問題。
法律有各種應對歧視(比如種族歧視、性別歧視等)的規範形式和責任原理,但在算法歧視問題上卻左右爲難。由於算法所需要的數據本身並無完美,所以算法歧視無法避免。但傳統意義上的反歧視法在應對這種技術化和計算化的顯性或隱性歧視上卻束手無策。
03 算法與法律的重構模式
社會實踐是複雜的,充滿了價值衝突和利益分歧,算法應用在諸多方面加劇了這種複雜性。算法實踐所引發的法律挑戰和價值擔憂,使得對算法進行規制成爲必需。
在算法應用出現問題和引發擔憂時,很多建議往往採取傳統的迴應型規制視角,主張將算法納入法律監管,通過法律對算法進行規範。然而,規制所承載的迴應型法律姿態不足以應對新興科技的發展步伐,因爲從實踐來看,科技對法律的影響意義反而比法律對科技的迴應和規制更爲突出。
理解算法與法律之關係的一種理想模式是重構模式,該模式強調的是法律在應對技術挑戰時,應當對自身追求共同善的方式進行重新梳理。這種模式並不是要改變法律的屬性,而是分析算法和法律的價值分別如何實現,二者之間如何契合,以及出現衝突時應該如何解決。
例如,面對算法歧視時,正確的思路不是通過法律消除算法的歧視,而是分析算法歧視與傳統歧視有何不同,根源上是否存在差異,以及法律是否能夠展現出不同於傳統歧視防範方式的新方案。在算法的法律應對上,重構模式可以發揮更爲實質的作用和理論指導意義。
在價值上,算法既衝擊了傳統價值實踐方式,也重塑了價值的呈現形態。算法的社會意義主要體現在決策上,包括公共決策和私人決策。決策的主要意義在於爲利益分配和社會合作提供方案,引導人們追求共同善。
算法追求的具體價值類型有很多,有一些價值是法律與算法共同追求的,比如效率,但兩者也存在着很多價值差異,比如算法追求決策的客觀性,法律則追求決策的公開透明。這些差異會帶來實踐張力。例如,人的決策會受到認知侷限、價值偏好等方面的影響;算法決策則以客觀數據爲素材、藉助海量數據分析引導決策。
算法運行是客觀的,但也會因爲數據的選擇、算法的設計而注入偏見和引發歧視。這種歧視不同於人爲歧視,而是一種被計算化的技術偏差。因此,算法歧視的源頭不在於算法本身,而在於機器學習所使用的那些數據。機器學習必須使用人類的生活和實踐經驗中所積累的數據,而計算結果反過來又影響人們的實踐。
如果沒有算法的參與,人類決策和預測也會產生大量偏見。算法影響了偏見產生的方式,主要體現在決策過程的計算化和數據化改變了人們的價值推理方式和道德判斷形態,也帶來正義評價機制的改變。計算正義旨在揭示這種改變的社會和法律意義。算法應用範圍的擴展和具體應用場景的實踐積累不斷重塑計算正義空間的結構和道德內涵。
機器學習的決策結果與傳統的道德判斷產生的社會意義不同。人的道德判斷具有一個面向實踐的開放性論辯結構,比如,要判斷男性是否比女性更具有能力優勢,可以通過道德論辯、價值衡量和實踐檢驗加以辨析。但機器學習的技術性知識轉化(社會理解轉變爲數據輸入)、複雜化運作(數以億萬級的數據處理),爲算法決策所承載的道德判斷賦予了全新的技術內涵。
通過社會規範或者制度安排而表明的歧視性判斷與通過計算過程而得出的智能化偏見在本質上是不同的。我們不能確定地說算法偏見必須通過算法自身的技術改善而得以消除,但至少可以確定的是,如果只認爲通過法律規制能夠消除這種偏見,是錯失重點的方向。
所以,實現計算正義,首先不在於解決算法運行中的問題,而是展示如何從法律角度理解算法所引發的價值問題,以及構建出這兩種“規範”之間的互動空間。
算法與法律的重構不是簡單的功能融合,因爲算法發揮技術功能,而法律發揮規範功能。兩者的重構體現在算法對人的行爲指引可視爲法律指引功能的延伸,但算法的技術價值需要由法律價值加以約束並進行價值整合。這是一項複雜的技術和社會工程,同時展現了算法融入法律並拓展計算正義之內涵的開放空間。(作者:鄭玉雙 《互聯網法律評論》特約專家 中國政法大學法學院副教授)