信用評分算法治理:算法規制與產品責任的融通
摘要:在數字經濟生產中,信用評分算法對主體利益產生比傳統徵信技術更深遠的影響。當前信用評分算法制度存在利益與風險失衡問題。信用治理動態調整使得信用治理機制具有規範互動的不確定性。需要樹立規範技術運行、激勵技術創新的共識,運用算法規制結合產品責任的治理邏輯,在“融通並行”理念引導下,形成新型信用評分算法治理方案。算法規制用於識別與測量信用評分算法風險、實現風險合理分配之目的。產品責任制度爲信用評分算法運用中的主體權益分配達成較爲明確的預期且需做現代化調適。前者爲後者的適用提供缺陷檢測時點與降低缺陷認定困難。平臺可利用信用評分算法規制的具體內容做出有利於己的證明,獲得一定的技術創新激勵。
關鍵詞:信用評分;個人徵信;算法規制;信用治理
當前,信用法治建設不斷深入開展。培育與發展徵信市場對數字經濟發展十分重要,也是未來信用治理的重點工作。2021年,《徵信業務管理辦法》首次將互聯網平臺生產的信用評分納入監管範疇,展現了一定的官方立場。信用評分是個性化推送、篩選排序等下游商業行爲的基礎。信用評分算法運行存在難以避免的偏差,容易導致不利後果的彌散,產生錯上加錯的惡性循環。隨着算法逐步滲入社會經濟生活的方方面面,各種算法在技術動因、運行機理、風險挑戰與損益界定方面存在顯著的差異,必然導向不同的法律迴應路徑。信用治理機制具有獨特的規範互動性。現行制定法難以對信用評分算法施加有效的約束與激勵。我國首部有關算法規制的《互聯網信息服務算法推薦管理規定》,也僅是強調對信用評分算法應用後的算法推薦行爲予以規制。有鑑於此,本文力圖構建算法規制結合產品責任的信用評分算法雙軌治理方案,合理協調主體權益,科學分配技術風險,形成具有針對性的制度安排。
一、信用評分算法的現實治理圖景
信用評分算法運行中發生的信用判斷偏差,既可造成個人的實際損失,也可影響個人的預期利益。與傳統徵信技術比較,信用評分算法運用更容易產生主體利益衝突問題。當前,信用評分異議數以十萬計,法律能夠提供的救濟措施卻是滄海一粟。信用評分算法治理主要涉及的徵信管理制度、個人信息保護制度、產品責任制度與責任保險制度在利益分配與風險承擔上存在不同程度的失調。
(一)信用評分算法運行中的利益衝突
信用評分算法運行通過人工編程由參數驅動,基本流程包括數據採集與篩選、統計模型開發與優化等。在信用評分算法設計、生產、應用與優化的過程中,方法選擇、樣本處理、權重設置、變量取捨都取決於技術專家的主觀判斷。具言之,信用評分算法運行偏差及其後果可歸納爲兩個基本類型。
第一,直接導致個人經濟損失的信用評分算法偏差。大數據技術能夠實時採集數據,在理論上能夠避免人工操作的失誤,卻可能被設計爲“拋棄”標識符中的細微差異,在數據轉換爲機器識別碼時出現“視而不見”的問題,造成個人的直接經濟損失。例如,Trans Union曾因未能區分相差一位數字的兩個社會安全號碼,而將兩個人的壞賬與信用檔案混淆數年之久,導致其中信用本應良好的個體以更高價格獲取生活必需的產品與服務。又如,低芝麻信用分個人無法在阿里健康合作的公立醫院獲得預先診療、延後付費服務,在急症發作時可能不得不承擔更高額的私人醫療費用。
第二,影響個人預期利益實現的信用評分算法偏差。在信用評分算法的開發、設計與優化過程中,首先要求對信用做出主觀定義,將信用程度劃分爲多個層級。爲避免個人成爲“統計學推論下的合理受害者”,需通過重設變量、權重與臨界點等多種方式調整統計模型。此外,爲保證樣本的動態平衡、儘量反映個體的信用特徵,還需對數據重新抽樣。上述因素使得信用評分算法偏差難以避免。由此導致的信用誤判將顯著地影響個人未來可能獲得的財產利益與經濟機會。實踐中,六年仍未畢業的博士研究生會被判斷爲“缺乏自控力”,被劃爲低信用程度個體,面臨更嚴苛的授信條件與較高的借貸利率。
從技術角度還原信用評分算法偏差的形成過程,其難度極大。信用評分算法通常作爲商業秘密保護。據報道,芝麻信用分開發團隊有百餘名工作人員,僅核心成員瞭解算法系統內核。Zest Finance亦在專利申請書中對其信用評分算法採用的變量做模糊處理。學者大多從外部視角觀察統計模型的一般規律,倒推獲得信用評分算法運行機理與潛在風險的知識。至於何種變量最爲重要,模型如何計算,計算結果是否準確,均難以確定。信用評分算法無法排除主觀價值判斷。開發者通過統計等方法增加中間層次進行模型擬合,之後還會不斷地新增變量。信用評分算法偏差實際面臨無法解釋的技術困境。技術專家的介入有助緩解兩類信用評分算法偏差,同時也將更多的人工干預整合進機器學習。這使得信用評分算法運行成爲區別於傳統徵信技術、人機緊密結合、平臺利益與個人利益交錯的複雜活動。傳統徵信技術所要預測的目標一般只是個人信貸賬戶在未來特定時期內“變好”“變壞”“維持中性”的概率。用於建立統計模型的變量都是經濟意義上的有關交易細節、行爲特徵的客觀記錄。與之相對,信用評分算法源於平臺在網絡環境中控制風險、傳導信號的商業需求。信用評分算法運行中的信息不對稱程度越高,越有利於平臺的經濟利益。其使用平臺控制的各類信息數據,廣泛地用於社會經濟領域。不僅直接影響個人的既得利益,還會帶來強化不利的持續性後果。故信用評分算法相比傳統徵信技術,對主體利益具有更加深遠的影響。
截至2022年1月10日,在“百度知道”以“芝麻信用申訴”爲關鍵詞可檢索到逾31萬條結果,以“芝麻信用修復”爲關鍵詞可檢索到逾17萬條結果。個人發現信用評分算法輸出不恰當的信用評判結果時,大多無法獲得法律救濟。僅在第三方提供的信息確實有誤、不可抗力、他人冒用、系統錯誤四種情形中,方能獲得平臺提供的有限救濟。值得反思的是,出於迴應魏則西事件、滴滴大數據殺熟事件、朱燁訴百度案等社會焦點問題的考慮,《個人信息保護法》《電子商務法》《民法典》已經開始重點治理商業營銷算法應用行爲。當前,信用評分算法尚未引發較大的風險事件,信用評分算法運行中的利益衝突未能獲得足夠關注。
(二)風險分配與利益協調的制度失衡
平臺生產的信用評分不僅爲數字經濟活動傳導風險信號,也是數字信用共治的有效工具。信用評分具有一定的公共物品屬性。信用評分算法治理既是公法上的命題,也是私法上的命題。其主要涉及徵信管理制度、個人信息保護制度、產品責任制度與責任保險制度等法律規範(參見表1)。其中,前兩類制度一般統稱爲個人徵信制度。四類制度規範在迴應信用評分算法運行的特定技術風險時,不同程度地存在主體利益保護不周延、技術風險分配不均衡問題。
1.個人徵信制度的風險分配失衡
第一,徵信管理制度迴避風險分配。《徵信業務管理辦法》是最新頒佈的核心規範。該辦法第50條將以信用信息服務、信用服務、信用評分、信用評級、信用修復爲名義提供徵信服務的行爲納入適用範疇,但並未對此作出詳細解釋。立法文本與立法起草說明中迴避了大數據應用對個人徵信究竟造成哪些變與不變的分析,而是在用語上去除“大數據”的痕跡,採取刻意犧牲精確來成就表面的“大數據化”,以維持其徵信統一監管法的風格。這反映出舉棋不定的立法態度,不利於保證立法技術和立法語言的邏輯性、精確性與可操作性。進一步分析,監管活動本質上是根植於專業技術開展的、效率與分配相分離的決策活動。監管者不應是中立的規則制定者。監管活動應當採取促進各方主體協商的合理形式。中國人民銀行作爲徵信管理制度的制定者、實施者與監督者,傾向於採取最有利於增進公共利益的立場。出於金融監管活動的獨特性,中國人民銀行在徵信監管活動中還存在以指標、目標、統計、認證等模式取代法律規範的明顯傾向。以徵信管理制度爲主導的信用評分算法制度設計,容易模糊政治決策與經濟決策的界限,忽視平臺對信用評分算法享有的經濟利益。
第二,個人信息保護制度不適當地減輕平臺的風險成本。《個人信息保護法》能否直接適用於信用評分算法存疑,還在行爲指引方面顯著缺失針對性。該法對個人信息自動化處理行爲適用的一般規則作出規定。其中,第24條與第55條分別提出信息處理者應當向信息主體履行告知與說明義務,與透明、公正、公平、合理、事前評估的義務。根據該法第73條對自動化決策的界定,上述條款僅是針對完全由計算機程序開展的分析、評估、決策情形而設。信用評分算法的設計、開發、應用與優化均是難以剝離人類決策的複雜行爲,故存在一定的個人信息保護法律適用問題。
2.產品責任制度的利益協調偏差
信用評分算法是否構成《民法典》《產品質量法》《消費者權益保護法》意義上的“產品”,是決定其能否適用產品責任制度的根本因素。立法上未明確規定信用評分算法是否構成“產品”。理論上也暫未形成統一的觀點。信用評分算法是人的發明創造,未完全脫離“物”的範疇。能夠規模化生產、銷售與應用的算法,其開發者一般具有更強的風險控制能力與成本承擔能力。將信用評分算法納入“產品”範疇,還有助於激勵缺陷檢測行爲,鼓勵技術創新。因此,對信用評分算法適用產品責任制度具有一定的合理性,但是存在相當的適用困難。整體來看,信用評分算法與自動駕駛汽車代表的可大規模工業化生產的人工智能產品差異較大,其從設計開發到優化應用並不是從無形到有形的過程,難以通過現行產品責任制度預防風險與權衡利益。
第一,信用評分算法缺陷與責任的認定異常複雜。與自動駕駛汽車不同,信用評分算法一般不存在製造缺陷與說明缺陷,卻可能存在設計缺陷、警示缺陷與跟蹤觀察缺陷。其中,設計缺陷不一定是明顯的漏洞而更可能是推斷的漏洞。用於訓練信用評分算法的信息數據往往形成於特定的歷史背景,“帶有特定場景中的歧視烙印”。信用評分算法缺陷難以依賴已知的技術標準識別,其與偏差結果之間未必具有直接關聯關係。開發者常能依據《產品質量法》第41條進行發展風險抗辯,將有失理性的技術創新行爲不恰當地合法化。而個人不具備與之相當的技術能力,難以就信用評分算法缺陷與損害後果之間的因果關係作出證明。
第二,產品責任制度只救濟受害人遭受的實際損害。信用評分算法偏差不僅造成實際經濟損失,更將致使個人喪失未來的經濟機會。傳統徵信的法律救濟較少關照預期利益。這是由於,傳統徵信的基礎法律關係是民事法律關係,適用填平性賠償原則。當交易發生在個人與金融機構之間時,個人權益屬於金融消費者權益範疇。法律無需再對預期利益提供特別保護。而信用評分算法開發者與個人具有實質不平等的關係。其中的個人權益與平等民事主體權利存在本質區別,也不必然屬於金融消費者權益範疇。保護個人預期利益的考量應當被納入信用評分算法治理之中。產品責任制度對此存在侷限。
第三,嚴格責任歸責原則難以適應數字經濟的發展需求。對信用評分算法適用嚴格責任可能對開發者過於苛責。產品責任適用嚴格責任原則的理念,建立在早期僅有產品製造缺陷的司法判例基礎上。研究發現,嚴格責任的設計和運用與技術創新密切相關,容易導致較高的法律成本,不利於激勵企業大膽地實施創新行爲。由開發者預知與防範信用評分算法運行可能引起的所有危險,易使開發者承擔過於嚴格的責任內容,犧牲其技術創新積極性,最終將不利於信用評分算法的更新迭代。
3.責任保險制度的調整功能喪失
信用評分算法不應適用責任保險制度。信用評分算法的保險責任認定、保險費率與賠付費率認定均存在困難。保險責任認定需滿足產品缺陷、損害後果與因果關係三項要素,同樣存在因缺乏直接因果關係而產生的責任認定問題,喪失迅速賠償而無關損害的制度優勢。此外,保險行業定價的基本原則是:大量收集被保險人的各類信息,依據被保險人的風險預期,由專業人員就收益與風險做出極爲精細的測算,得到最終的價格。被保險人的風險預期包括索賠概率、索賠成本、價格承受能力等因素。而信用評分算法偏差所導致的收益與風險很難以貨幣計量。保險公司亦面臨缺乏科學論證的巨大壓力,難以發揮責任劃分與定損賠償的經驗優勢。
更爲重要的是,信用評分算法責任保險可能加劇我國保險業的整體成本。在世界範圍內,人工智能產品的保險成本呈現不斷攀升的趨勢。德國《道路交通法第八修正案》將系統故障導致人員傷亡事件的最高賠償額由500萬歐元提升至1000萬歐元。美國的商業實踐也顯示,無過錯保險制度的成本遠超預期。我國則面臨着壓降保險業整體成本的迫切需求。自2016年起,保險業不當創新現象頻發。因保險資金涉及公衆利益並可能引發系統性風險,自2018年以來的監管重點是化解前期遺留的金融安全重大問題,促使保險資金運用迴歸收益穩定、回收期長的實體經濟領域。
信用評分算法責任保險的創設與我國保險業的現實需求相悖。信用評分算法運行涉及大部分互聯網使用者。將開發者納入信用評分算法強制責任保險的投保主體範圍,雖然能夠救濟個人的損失,但保險公司此時只是承擔一種過渡角色。其必須向個人提供損害補償,又將因取得代位求償權,面向微觀經濟行爲的衆多主體而產生鉅額費用。相比之下,2021年底中國保險行業協會發布的《新能源汽車商業保險專屬條款(試行)》則允許保險公司就智能輔助駕駛軟件的承保獲得額外收益。可以發現,自動駕駛汽車的責任保險機制更加成熟,其可通過費率改革等多項制度的配適,實現壓降保險行業綜合成本的目標。
綜上,有關信用評分算法的治理呈現出顯著的利益分配與風險承擔失衡。就個人而言,個人實際損失在產品責任法律層面一般可獲救濟,但是救濟機制的啓動受到科學認識的制約而存在困難。同時,侵害預期利益纔是信用評分算法運行中的重大風險所在,卻難以受到產品責任制度的調整。就平臺而言,現行制度存在全有或全無、兩極分化的利益保護弊端。在信用評分算法運行中,當平臺的經濟利益受到忽視時,其承擔的義務內容和風險成本就難以合理設置。
二、“融通並行”治理理念的提出
信用評分算法運行帶來新的技術風險,引發風險的再分配與利益的重新協調。需要通過算法規制與產品責任的結合,彌補難以深入信用評分算法細枝末節的缺憾,實現信用評分算法治理的整體進化。概言之,有效的信用評分算法治理方案應當實現算法規制與產品責任的“融通並行”。
(一)算法規制結合產品責任的治理邏輯
信用治理一直處於調整與漸進的過程。信用治理機制只能在特定的文化、經濟、制度條件下維持暫時的均衡狀態。信用治理機制具有豐富的內涵,既包括與信用相關的強制規範,也包括有關信用的其他規範。在強制規範的干預與擴張下,其他規範自身不斷進行調整,最終往往也會融入強制規範。這正是信用治理規範互動性的反映。
算法規制與產品責任相結合,能夠爲信用評分算法的治理實踐提供具有實用性的制度條件。算法規制難以單獨發揮作用,其就問題解決方案討價還價尋求重疊性共識,本質上是一種相機行事的規制措施,難以在複雜活動中客觀地取捨創新活力與主體利益。將新興技術風險通過裁斷行爲後果的方式固定下來,有利於推動技術的理性運行,也有助於應對信息社會技術水平突飛猛進的現實。而產品責任滯後於新興技術的發展水平,是幾乎每一社會文化環境中都會出現的正常現象。算法規制注重對經驗事實的認知和驗證,有助於通過行爲邏輯的塑造,對新興技術施加可操作的約束措施,發揮制度規範的激勵功能。
算法規制與產品責任的“融通並行”,不可避免地存在多種價值觀與規制效能整合的劇烈挑戰。故更應形成一些基本共識,減少規範互動帶來的不確定性。最首要的共識應當是促進信用評分算法的規範運行。信用評分算法運行有別於一般信息處理行爲,是在整個社會範圍內發生的信息固定、評價與傳遞。只有信用評分算法規範運行,才能在信息公開與信息保護之間尋求價值平衡。除此以外,還應重視平臺在信用治理領域的技術創新潛力,促進個人徵信市場的錯位互補與繁榮發展,彌補管理型政府治理機制對社會活力與創造力的犧牲。兩者並重方可有效地發揮信用治理機制的約束與激勵功能。
基於此,算法規制結合產品責任的治理邏輯有助於改善主體技術水平差異引發的利益與風險失衡狀態。信用評分算法起源於商業需求,更多地運用於商業領域,只有在信用聯合懲戒的特殊場景中才可能具備公法規範的直接適用空間。信用評分算法難以有效治理的根本原因是運行機理與實施標準不易爲個人獲知。這加劇了信用評分算法侵害個人權益的現實風險。算法規制結合產品責任的治理邏輯能夠突破信用評分算法的認知困境,以程序化的實施標準揭開技術面紗與提供救濟渠道。產品責任更多地修補破損的社會結構,預防信用評分算法風險的功能相對有限。算法規制則有助於落實與細化激勵措施,防範信用評分算法發展中的各類風險。
兩種規範各自利弊共存。算法規制重在事前預防與事中干預。其直接作用於信用評分算法的設計、生產、應用與優化過程,使信用評分算法的運行變得透明,令難以窺見的技術行爲變得有跡可循。個人就信用評分算法享有的權利並不構成私法上的絕對權,而是個人信息保護體系中的若干權能。這些權能具有典型的軟法性質,存在救濟能力匱乏的問題。產品責任作爲調整私主體法律關係的成文規範,旨在事後彌補損害。其爲個人提供明確的權利基礎與有效的損害救濟,卻無力深入信用評分算法運行的各個細節。
兩者在規範方式、結構、功能、目的方面互爲補充(參見表2)。算法規制並不挑戰產品責任,而是爲產品責任的有效性提供識別與量化風險的必要知識,向個人提供更充分的防禦手段和更豐富的救濟途徑,從而在根本上解決信用評分算法運行對個人預期利益帶來的危險。產品責任也須通過算法規制確立的行爲準則,爲主體利益協調提供製度支持。在這個意義上,兩者具有整合形成新型信用評分算法治理方案的可能。
(二)旨在分散風險的算法規制框架
風險在脫離主觀價值判斷後,才具有對比、選擇與接受的意義。算法規制框架是分散信用評分算法運行風險的務實選擇。其有利於將事前難以獲知的技術細節還原爲合理性問題,利用正當程序嵌入治理實踐。
1.信用評分算法規制框架以有限的算法透明爲原則
信用評分算法規制框架可在技術創新與風險預防之間實現基本的平衡關係。爲防止“刷信”“炒信”等違法行爲,避免評價結果失真,信用評分算法不對外公開實屬國際慣例。本文認爲應對信用評分算法適用有限透明原則。
第一,結合信用評分算法的影響範圍、平臺的競爭優勢與市場地位等因素,以不公開爲原則,以公開爲例外。State of Wisconsinv.EricL.Loomis案可以提供一些鏡鑑(見Statev.Loomis,881N.W.2d749(2016),No.2015 AP157-CR,decidedon2016-7-13)。因限制准入而形成壟斷地位或國家財政資金支持的信用評分算法,其性質更接近公共物品,能夠對個人信用作出帶有國家公信力的價值判斷。例如,中國人民銀行徵信中心開發的信用評分算法,百行徵信與樸道徵信開發的信用評分算法,其關涉知情權與監督權等基本權利,應當在一定程度上降低保護標準,向社會公開,受到更加充分的公衆監督。而大型平臺開發的信用評分算法,應當限定於向特定行政主體公開,通過行政備案方式實現算法透明,確保信用評分算法始終處於可監督、可理解、可預測的狀態。新興平臺開發的信用評分算法,出於激勵創新目的,可以考慮僅向自律組織註冊,實現一定程度的算法透明。
第二,以信用評分算法的解釋性說明爲披露內容,而非其源代碼。對於平均理性自然人而言,披露源代碼並無助於理解信用評分算法如何運行。以解釋性說明爲主要披露內容,正是對普通人也有權瞭解信用評分算法之需求的適當迴應。歐盟GDPR第12條算法規制條款亦是將“透明性”理解爲“可解釋性”。參考《人工智能投資顧問監管指南更新》,信用評分算法的解釋性內容一般可包括功能介紹、假設條件、理論侷限、固有風險、設計者與管理者說明、所有權、潛在利益衝突、歷次測試與調整情況。
2.信用評分算法規制框架以保護人的自主性爲基點
從人認識、理解、防範與拒絕承受算法風險的基本需求來看,算法結果拒絕權能與算法解釋請求權能最突出地體現個人在信用評分算法面前的主體地位。
第一,算法解釋請求權對個人自主性的形成與維護具有不可替代的作用。從信任生產機制的角度來看,個人有理由期待在信用評分算法發生錯誤與危害風險時,平臺以負責任的態度迅速作出迴應。就救濟機制的啓動條件而言,只有算法解釋請求權可由個人完全基於自己的立場啓動。就權利行使成本而言,算法解釋請求權要求既向個人解釋信用評分的形成過程,也向個人提供有關信用評分調整方式與調整影響的行爲指引,避免信用評分糾紛直接進入行政干預或司法救濟環節,有效節約社會資源。
第二,算法結果拒絕權向個人直接賦予人類干預、價值衡量與結果修正的機會,避免其淪爲信用評分算法的“純粹客體”。考慮到信用評分算法的動態演化,算法結果拒絕權的行使需要受到直接重大影響條件和正當理由豁免情形的限制。前者應結合個人利益受侵害的潛在危險、信用評分算法的市場佔有率等因素判斷。後者則要求平臺不得違反個人信息保護規則,除非法律明確作出規定。
以保護個人自主性地位爲基點,還能夠引申出一個由多種算法規制工具組合而成的信用評分算法規制框架。該框架在解釋、驗證、評估、問責等多種算法規制工具之間建立起有機聯繫,協調與跨越不同的規制安排,形成一定的規制結構,保障普通人也有機會理解信用評分算法的技術原理,事先做出保護自身權益的適當安排。算法規制工具可大致分爲算法監督工具與算法問責工具兩種類型,每一類中又可開展更加細緻的分層設計。
(三)權衡主體利益的產品責任制度
主體利益需要通過相對固定的權利義務結構加以權衡。以產品責任制度協調信用評分算法運行中的主體利益,既具有必要性也具有多方面的可行性。
就其必要性而言,信用評分算法具備高度的行動能力,卻與平臺的價值和行爲綁定。信用評分算法在運作方式上比普通產品更具複雜性,在致害範圍上比普通產品更具擴張性,與平臺的關係也較普通產品更爲緊密。由平臺作爲設計者與開發者承擔信用評分算法產品責任,是“成本-效益”經濟分析的結果。產品責任會施加私人成本。例如,信用評分算法缺陷的識別與解決均需要相應的支出。通過設置產品責任誘導最適合進行“成本-效益”分析的主體承擔信用評分算法缺陷的代價,達到帕累托最優結果,是實現主體利益協調的必然選擇。
在其可行性方面,信用評分算法的運行過程大體對應着產品的設計、生產、製造、流通與優化過程。嚴格責任歸責原則可以最大程度杜絕信用評分算法缺陷的發生與存續,督促責任主體儘可能地在信用評分算法運行中保持審慎。產品缺陷的責任承擔方式大多可適用於信用評分算法致害場合,如賠償損失、消除危險、排除妨礙、警示與懲罰性賠償。此外,“發展風險抗辯”的免責事由在一定程度上亦有助於維護平臺的經濟利益。
產品責任制度雖能達成較爲明確的利益分配預期,卻存在不可避免的利益協調偏差。產品責任制度不足以獨立迴應信用評分算法運行帶來的危險,需針對信用評分算法運行,在以下兩方面做出一定的現代化調適。
在判斷標準方面,現行產品缺陷的判斷標準難以直接辨識信用評分算法缺陷。傳統上,產品缺陷的不合理危險與未達到技術標準兩項判斷依據均與產品的質量標準相關,主要反映在產品的物理性能與使用性能上。在信用評分算法缺陷認定中,這兩種標準難以解決“信用評分算法做出有悖倫理的決策是否屬於產品缺陷”等新的具體問題。此外,要準確判定信用評分算法缺陷,個人必須能夠理解其工作原理與決策過程,這已大大超出一般理性人的認知範疇。因此,必須在算法透明原則指引下,藉助新的認知手段克服技術理解障礙,方能真正合理地權衡主體利益。
在舉證責任方面,現行產品缺陷的舉證責任往往偏重由一方承擔,不利於在信用評分算法缺陷訟爭中實現主體利益均衡。例如,個人通常僅能收集到間接證據,這些證據的證明效力比較有限。由個人承擔舉證責任容易加劇個人權益保護的難度。故對信用評分算法採用一般的產品責任舉證規則,個人遭受的損失就難獲救濟。然而,由於機器學習與人工干預的持續發生,平臺亦面臨信用評分算法運行過程難以還原的技術難題,同樣難以通過現行產品舉證規則維護自身合法權益。因此,必須藉助算法規制框架,方可明確產品責任制度的舉證責任分配。
三、“融通並行”治理方案的設計
在“融通並行”治理理念的指導下,本文嘗試構建一種雙軌治理方案。主要內容包括:信用評分算法規制框架用於識別與測量風險,最終實現技術風險的合理分配。信用評分算法規制框架爲信用評分算法產品缺陷提供檢測時點,降低缺陷認定困難。在舉證規則方面,允許平臺利用信用評分算法規制的具體內容,做出有利於己的證明。
(一)算法規制框架下的風險分配機制
在大部分國家,算法規制正處於從學理建議到技術實踐再到成文規範的轉化階段。本文梳理現有研究與實踐,提出信用評分算法規制框架中至少包含五類風險分配機制。算法偏誤檢測機制適用於信用評分算法全生命週期。算法影響評估、評分異議與修復、算法審計機制,自信用評分算法進入市場起啓動。算法備案機制適用於信用評分算法首次進入市場運行、發生重大修改兩種情形。
1.信用評分算法偏誤檢測機制
信用評分算法偏誤檢測屬於全過程的風險分配機制。作爲平臺企業內部管理手段,其旨在實現對信用評分算法設計與開發的定期監控,包括:①由監管部門提供統一的格式文本,要求平臺完整、無遺漏地對信用評分算法設計與開發的各個環節做出算法偏差可能性的自查檢測。②以書面形式做出,作爲企業的重要檔案文件長期留存。③對市場佔有率高、影響範圍大的信用評分算法實施更頻繁的定期偏誤檢測。④檢測用於訓練信用評分算法的信息數據樣本,避免在機器學習和特徵選擇階段使用的信息數據集無意識地偏向特定羣體。⑤偏誤檢測報告應當採取平實、清晰、可理解的表達方式,避免導致因各方技術差距而造成徒具形式的檢測結果。
在發生信用評分異議時,平臺應當先行實施信用評分算法偏誤檢測,努力與個人協商解決。個人要求平臺對信用評分算法的機理進行解釋,應當舉證信用評分算法運行結果對自身權益造成了重大影響。平臺應在法定期限內履行解釋義務。當個人無法獲得解釋,或在平臺解釋後仍存在異議的,應允許其拒絕評分並尋求行政救濟或司法救濟。此外,鼓勵市場主體建立信用評分算法自律組織,就信用評分算法的技術標準、設計流程、準確程度、潛在風險設置不同的認證等級,形成梯度的處罰措施。自律管理情況應定期向公衆披露。
2.信用評分算法影響評估機制
信用評分算法影響評估強調損害預防,指按照信用評分算法可能影響的人數規模、市場範圍、終端設備等指標,分析信用評分算法開發與應用中可能發生的技術風險與防範方法,劃分爲若干風險層次,施以不同強度的監督。平臺需圍繞信用評分算法解釋性說明、風險評估、應對預案三項要點,建立信用評分算法影響評估程序。當平臺發現無法減輕的信用評分算法高風險時,需在開始處理風險前,向監管部門及時彙報與諮詢。信用評分算法風險評估結果應當形成書面報告,經平臺的專門責任人發表書面意見後,向社會公衆公開披露,並受監管部門審查。
監管機構則應採取標準化方法科學地評估信用評分算法影響程度。至少包括以下兩方面:①明確平臺啓動信用評分算法影響評估程序的條件。《信息安全技術個人信息安全規範》將處理“超過100萬人的個人信息”作爲風險評估觸發點,與域外監管實踐相比,判定標準比較單一且有待豐富。②科學界定信用評分算法的風險等級。尤其是對於具有維護公共利益性質、涉及敏感個人信息、運用與影響範圍較大的信用評分算法,應由平臺依據個人信息保護規則自行評估,監管部門審查評估結果。
3.信用評分異議與修復機制
信用評分異議與修復機制強調損害發生後的救濟,要求以信用宣傳教育爲起點,允許個人便利提出信用評分異議,直觀跟蹤異議處理過程,免費獲取信用評分凍結服務。具體而言:①平臺在信用評分算法啓動前向個人明確地告知算法設計目的、功能、潛在影響、個人合法權益、程序性保障措施與救濟方式。②在監管部門與自律組織官方網頁的顯著位置,採用簡潔易懂的語言,通過問答或指引方式開設信用教育專欄,提供有關信用評分算法的基礎信息。③允許具有公信力的第三方開發信用評分異議處理系統,便利個人提出異議申請。④完善信用評分異議處理流程,標記異議信用評分,在限定期限內由平臺實施自查、刪除、更正、補足信息、評分凍結、通知與備案程序。在特定條件下,平臺可就評分凍結行爲獲得合理對價。個人存在異議的,有權向監管部門提出申訴、複議或訴訟。⑤自律組織明確信用修復機構的資質,定期考覈信用修復機構的執業情況。
4.信用評分算法備案機制
信用評分算法備案針對特定情形適用,即信用評分算法初始進入市場運行和信用評分算法重大修改兩種情形。信用評分算法的披露對象應當限於中國人民銀行及個人信息保護管理部門。根據信用評分算法的影響程度不同,採取行政備案方式或自助登記方式加以披露,其原因如下:①信用評分具有個人徵信的本質屬性,有必要納入中國人民銀行監管範疇,理順監管邏輯。②有助於藉助平臺開發的成熟技術,及時提升大數據監管能力,避免中國人民銀行原有的個人信用信息數據庫淪爲堰塞湖。③有助於中國人民銀行調動必要的技術資源聚焦微觀風險評估領域。④有助於激勵平臺不斷提升信用評分算法創新能力,客觀上打破平臺技術壟斷形成的“專利叢林”。⑤信用評分算法不能脫離個人信息單獨發揮作用,有必要納入個人信息保護監管範疇。
此外,還應明確信用評分算法的備案內容。參考《關於規範金融機構資產管理業務的指導意見》中有關智能投資顧問算法的行政備案要求,除披露信用評分算法的一般解釋性內容以外,平臺還應向個人信息保護管理部門與中國人民銀行備案信用評分算法主要參數、主要運行邏輯與技術人員。其中,技術人員包括信用評分算法開發的實施人員、管理人員、審查人員、負責任的高級管理人員,對上述人員應採取註冊制管理。在平臺對信用評分算法的程序、方法等作出重大修改時,應當披露變動原因,向前述監管部門書面說明變動合理性。
5.信用評分算法審計機制
信用評分算法審計則屬於兜底性風險分配措施,分爲外部審計與內部審計兩種機制。就外部審計而言,應由第三方技術團體或研究機構,根據法律法規與監管要求檢查信用評分算法風險,發佈報告,提出建議。內部審計則應參考國際通行的“三道防線”公司治理結構,在平臺內部建立信用評分算法審計機制。信用評分算法內部審計人員職責涵蓋信用評分算法與信息數據風險管理的全部要素,包括風險識別、風險動態評估和響應、風險事件溝通,以及企業信息與數據安全戰略、道德、運營、報告、合規。信用評分算法內部審計人員應能獨立開展審計工作,充分理解信用評分算法,就信息數據保護與信用評分算法治理機制的有效性向管理層提供意見,做出評估,預防風險。
(二)產品責任制度中的利益協調方法
1.信用評分算法的責任主體
需要明確的是,信用評分算法缺陷的責任主體應爲平臺。平臺不是傳統上在生產與再生產環節具有明確邊界的組織實體。然而,平臺技術架構的有效運行依賴能夠反映實際控制人意志的公司治理。只有從辨別實際控制人入手,才能清晰地劃定平臺的組織邊界。故本文采取更具整體性的視角,將同一實際控制關係下的平臺企業集團作爲信用評分算法缺陷的歸責主體。具體言之,平臺承擔信用評分算法產品責任由以下兩方面因素決定。
首先,信用評分算法輸出的信用評判結果無法脫離平臺的利益考量。信用價值取決於社會文化背景,具有豐富的道德意義和開放的概念體系。這使得信用的內涵極具變動性,因時而異,因行爲主體而異。信用評分是平臺利用大數據與人工智能技術開展的信息處理活動。信用評分算法作爲平臺的信息處理工具,其運行必須依賴程序員的參與和技術專家的監督。程序員和技術專家有關信用價值的認知均由平臺塑造。兩者皆難以成爲獨立於平臺的生產者。可見,信用評價算法在存在意義上是中性的,在主體層面和對象層面卻完全融入了平臺的價值判斷。
其次,平臺承擔產品責任是因應侵權行爲法現代化調適的必然要求。侵權行爲法上的社會安全義務引導生產者趨利避害,在交易中應注意保護他人權益。在信用評分算法治理語境中,產品責任制度亦具有保障人民安全、增強數字信用的重要功能。產品責任制度發端於信息社會之前。傳統產品一經銷售,生產者即喪失佔有與控制的能力。而在信息社會中,平臺對信用評分算法的控制遠超個人。平臺在信用評分算法的開發、設計、應用與優化等諸多方面具有更強的支配力,產生了新的危險。按照預見可能性理論,信用評分算法運行的風險屬於平臺的管轄範疇,應當由平臺對風險及由此產生的結果負責。在證據規則方面還可做進一步的調整,以適應信息社會的發展演變。
在此基礎上,產品責任制度立法升級的整體思路是:將信用評分算法缺陷歸納爲設計缺陷、警示缺陷與跟蹤觀察缺陷三種類型,與信用評分算法的主要運行環節相對應。信用評分算法缺陷的判斷應以存在威脅人身安全與財產安全的不合理危險爲原則。由於個人的實際損失可較爲直觀地觀察,爲避免規則適用衝突應沿用相當因果關係理論。在缺陷認定方面,應以信用評分算法檢測、信用評分算法影響評估、信用評分異議分別作爲未上市的信用評分算法設計缺陷、信用評分算法警示缺陷、信用評分算法跟蹤觀察缺陷的檢測時點。對於已正式上市的信用評分算法,判斷其設計缺陷是否存在,應考察平臺是否遵守了算法規制的各項內容。在舉證責任分配方面,應採取舉證責任倒置的方式,但可爲平臺設置較爲寬鬆的證明方式。
2.信用評分算法設計缺陷的識別與認定
以“風險-效能標準”作爲信用評分算法設計缺陷的判斷依據。“風險-效能標準”比較信用評分算法設計的有用性與危險性,檢視在費用未明顯增加的前提下,平臺是否履行合理的注意義務與採取適當的保障措施,確保信用評分算法具有合理與最優的性能。否則,信用評分算法即具有設計缺陷。在“風險-效能標準”的適用中,域外實踐大多要求原告提供合理的替代性方案來證明缺陷存在。個人在證明信用評分算法設計明顯不合理、提出技術上可行的替代方案時,顯著地缺乏能力。因此,採取“風險-效能標準”需採取符合個人技術能力的制度設計,促使個人合理利用信用評分算法規制的內容。
根據信用評分算法的運行階段不同,劃分爲兩種認定方法。第一,在信用評分算法僅向少數人開放的測試階段,信用評分算法檢驗制度可爲算法設計缺陷的發現與認定提供準據,與個人的技術能力相當。信用評分算法檢驗制度要求平臺在信用評分算法正式進入市場前,對其進行全面的調適與改進,採用經行業認證的先進而安全的技術,解決信用評分算法在樣本標記、變量擇取與軟硬件設施等方面的缺陷。信用評分算法檢驗制度能夠提供標準化的自查報告與認證報告,協助個人判斷信用評分算法是否經合理設計,提出信用評分算法的合理替代方案。第二,在信用評分算法完全開放的正式運行階段,設計缺陷仍可能不斷地涌現與獲得改進。個人應考察平臺是否已按照信用評分算法規制框架的要求,在發現設計缺陷的每個時點,都相應地採取措施彌補,否則即可主張信用評分算法存在設計缺陷。
3.信用評分算法警示缺陷的認定
信用評分算法影響評估制度可爲信用評分算法的警示缺陷提供認定依據。信用評分算法警示缺陷的規避,要求平臺以警示發生前的最新技術水平充分預知信用評分算法運行引致的風險類型,在技術升級後及時預見新風險並更新警示內容。對此,信用評分算法影響評估制度正是建立在技術的動態發展進程上,能夠促使平臺不斷地調整信用評分算法的風險等級與治理策略。這樣既便利平臺在履行“修改設計以消除危險”的義務時謹慎地權衡邊際收益與邊際成本,也有助於個人藉助平臺披露的應對預案,識別信用評分算法是否具有警示缺陷。
4.信用評分算法跟蹤觀察缺陷的認定
信用評分異議制度可爲信用評分算法的跟蹤觀察缺陷設置固定的檢測時點。信用評分算法跟蹤觀察缺陷的解決,要求平臺在信用評分算法運行中採取檢測記錄、信息傳遞等反應行爲,及時將信用評分異議反饋至技術人員解決。信用評分算法跟蹤觀察缺陷需要設置固定的檢測時點,以防止機器學習產生的異化難以及時地獲得觀察與修正。在信用評分異議制度中,異議申請、評分凍結、評分解凍與評分申訴均可爲平臺跟蹤與觀察信用評分算法缺陷設置有意義的節點,爲平臺判斷能否修復信用評分算法缺陷、如何更新缺陷修復程序、何時增加新風險警示提供必要的標識。
⒌信用評分算法致害的舉證責任分配規則
法律不能無視損害的發生,必須在侵害人與受害人之間分配責任的最終承擔方式。對於新興科技的設計、開發與生產者,應當通過法律機制的合理設計,既督促其負責任地開展創新,又給予其恰當的寬容與激勵。鑑於新興科技的複雜程度與日俱增,多數觀點認爲應將產品致害的舉證責任分配給生產者。在信用評分算法運行中,個人受技術水平的限制更嚴重,而平臺對信用評分算法缺陷的預見與控制程度更高。故確有必要將信用評分算法致害的舉證責任分配給平臺,採用舉證責任倒置規則,由平臺承擔信用評分算法不會引起損害的證明責任。
然而,信用評分算法致害的證明規則亟待突破。《產品質量法》未對信用評分算法的產品標準做出規定,相關國家標準與行業標準亦未出臺。而相關標準的出臺始終面臨因來自平臺的技術專家必須參與論證過程,而受制於行業利益訴求的風險。故此,根據信用評分算法運行的不同進程,平臺就信用評分算法致害的證明規則可進一步分爲兩個層次。第一個層次是在信用評分算法未正式上市前,平臺舉證已符合信用評分算法檢測機制的要求,即可完成證明責任。第二個層次是在信用評分算法正式上市後,平臺舉證已符合信用評分算法規制的各項規定時,即可推定信用評分算法運行不構成產品致害行爲。
四、結論
信用評分算法的治理是高度技術化的工作,需要形成與其運行機理、行爲特徵、本質屬性、價值功能相匹配的安排。隨着人類技術能力的不斷提升,人工智能與大數據技術深入開發必然帶來更多的技術應用空間與技術規制問題。因此,信用評分算法的治理方案設計需要考慮各種已知的與潛在的風險因素,並隨數字經濟生產方式的發展而適時調整。
本文提出的治理方案,建立在算法規制結合產品責任的信用治理邏輯基礎上,將可緩解當前治理實踐中的利益與風險失衡。雖因涉及多重主體而存在一定的實施困難,但具有更爲清晰的治理框架、更加豐富的治理層次與預期有效的治理效果。該治理方案建立在“監管主體-平臺-個人”結構上,由三項主要的法律關係構成:①在平臺與個人的數字信用治理關係中,通過改造後的產品責任制度權衡主體利益,由平臺作爲產品責任承擔主體;②在個人與監管主體的數字信用救濟關係中,保障個人在信用評分算法運行全過程獲得充分的救濟,在最關鍵的信用評分異議與修復環節形成平臺救濟、平臺監管部門救濟、司法救濟三重保障機制;③在監管主體與平臺的數字信用監管關係中,充分發揮中國人民銀行、個人信息保護管理部門的行政職能。從風險評估與管理角度出發,還應將自律組織、公共組織、獲得特別經營許可資質的私人組織等社會主體納入該治理方案,形成數字信用共治機制,更加精確地防範信用評分算法運用帶來的風險。
(本文原載於《電子政務》2022年6月8日網絡首發版,作者:楊帆,上系海師範大學哲學與法政學院講師,法學博士。)
聲明:轉載此文是出於傳遞更多信息之目的。文章版權歸原作者所有,內容爲作者個人觀點。如有標錯來源或侵犯了您的合法權益,請聯繫我們更正、刪除,謝謝。