国产精品不卡一区二区,日韩A∨精品日韩在线观看,色欲99精品久久久久久,精品亚州AⅤ无码一区,啊啊啊不要呃呃呃亚洲啊不要,一本大道久久a久久精品,亚洲欧美中文日韩AⅤ片

當前位置:首頁 > 文獻資源 > 論文著作 > 理論推演
沈巋 | 論軟法的實施機制——以人工智能倫理規(guī)范為例
2025年01月20日 【作者】沈巋 預覽:

【作者】沈巋

【內(nèi)容提要】



論軟法的實施機制——以人工智能倫理規(guī)范為例






沈巋 北京大學法學院教授










摘要:軟法的廣泛存在,并不意味著其切實地得到了遵守和執(zhí)行。人工智能領域的軟法人工智能倫理規(guī)范被證明存在實效赤字,其原因在于:人工智能倫理規(guī)范的非強制性,抽象性、模糊性,分散、混亂與疊床架屋,自愿遵守的動力不足,合規(guī)悖論,社會系統(tǒng)論困境,以及人工智能發(fā)展壓倒約束的宿命論。但人工智能倫理規(guī)范因其靈活快捷性、多樣適配性、合作試驗性、事實壓力性、跨國適用性而仍然有獨特價值。經(jīng)驗研究表明,組織機制、合規(guī)壓力機制、合規(guī)激勵機制、技術方法論機制、基準機制以及軟硬法互動機制,可推動軟法的間接實施。價值共識與經(jīng)濟邏輯的結合、內(nèi)在理由和外在推動的結合,是軟法獲得更多實效之道。









一、問題:軟法何以產(chǎn)生實效


軟法效力或有效性(validity——應當得到遵守和實施的性質——在于說服約束力,而不在于強制約束力。軟法只要不與硬法或硬法原則、精神相抵觸,又大致符合一定范圍內(nèi)社會對更好的公共善的認知和期待,就具備獨有的效力。由于軟法制定者的權威性、公共善的認可程度、軟法制定過程的協(xié)商性和溝通性等存在差異,軟法的說服約束力有強弱之分,但共同之處是,軟法的應當并不輔助以強制實施的制裁裝置。由此而言,軟法的應當有效與軟法的實際有效,并非一回事。前者是規(guī)范意義上的存在,后者是事實意義上的存在。


然而,軟法的常規(guī)定義本身又意味著其是在一定范圍內(nèi)發(fā)生實效的,很難想象,沒有實效又沒有硬法屬性的行為規(guī)則,可以當?shù)蒙?/span>軟法稱謂。于是,一個需要處理的問題是,軟法又是如何產(chǎn)生或者獲得普遍實效的。軟法自提出和公布之后,至其事實上產(chǎn)生效果,必定會有時間間隔,無論該間隔之長短如何。有著軟法性質的行為規(guī)則,在其問世伊始,通常并不會立刻、即時收獲效果,除非其只是對已經(jīng)被普遍遵守和實施的慣常做法賦予規(guī)則的形式。這種例外的情形較為少見,畢竟,絕大多數(shù)軟法是未來導向的,是期待人們?yōu)榱烁玫?/span>公共善而遵循新的行為規(guī)則或改變原先的行為規(guī)則。盡管軟法的生命力源于其自身內(nèi)在的說服力,但是,僅僅憑借這個內(nèi)在屬性或內(nèi)在理由,就期待一個被提議的軟法可以演變?yōu)檎嬲饬x軟法,應該是過于理想化的奢望。因為,指向更好公共善的軟法通常需要讓行為人負擔更多的遵循或適用成本。如果沒有合適有效的機制可以減少或抵消這樣的成本,那么趨利避害的行為選擇傾向或者良幣避免被劣幣驅逐的動機,往往會壓倒軟法內(nèi)在理由的吸引力,從而使其無法獲取普遍效果。這就是在軟法具備內(nèi)在理由使其獲得應然效力之外探討軟法何以產(chǎn)生實效的意義所在。


羅豪才、宋功德曾經(jīng)在國內(nèi)軟法學的扛鼎之作《軟法亦法——公共治理呼喚軟法之治》中指出,法依靠國家強制力保障實施的表達并不準確。對于法的實施即將法的效力轉化為法的實效而言,國家強制力保障是不可或缺的,但二者之間又不是必然的關系。法的實施可以是行為人:(1)因為從眾而習慣性服從;(2)出于認可而自愿服從;(3)受到激勵而遵從;(4)迫于社會輿論等分散的社會壓力而遵守;(5)迫于組織的壓力而服從;(6)懾于國家強制力的使用或威脅使用而服從。由此,法的實效產(chǎn)生方式是多樣化的,法的實施機制主要有自愿服從、習慣性服從、社會強制服從、國家強制服從四種方式。這些討論是作者在反思和修正的定義過程中展開的,其最終指向一個包容硬法和軟法在內(nèi)的全新的概念,在這個概念構成中,法的實施機制被概括為公共強制自律。毫無疑問,在以上所列六項之中,除國家強制服從僅適用于硬法以外,其余諸項皆可在軟法的實施過程中呈現(xiàn)。


然而,就本文關心的問題而言,以上諸項,或許只有激勵、社會壓力、組織壓力是值得關注的使軟法產(chǎn)生實效的方式。因為,從眾性的服從顯然不是軟法從倡議到普遍遵守的機制,從眾本身就意味著已經(jīng)存在普遍實效。自愿性的服從是出于對軟法內(nèi)在理由的認可,是軟法實施的一種動力。只是,在硬法條件下的自愿性服從,除了在價值認同上有無形收益外,至少還有避免國家強制制裁的收益。而前文已經(jīng)提及,軟法條件下的自愿性服從,不僅不會有避免制裁的好處,甚至可能會導致服從者付出更多的成本或代價,其也就很難成為軟法產(chǎn)生實效的強有力機制。


當然,羅豪才、宋功德在議論法的實施時,并未突出對軟法實施的特別關注,其提及的激勵、社會壓力、組織壓力,更多是在理論層面上針對所有法規(guī)范(包括硬法和軟法)實施的邏輯展開,欠缺軟法實踐的豐富例證。更為重要的是,因為沒有將軟法何以產(chǎn)生實效問題提到顯著的、專門的位置,沒有列入有意識要解決的議題之中,所以激勵、社會壓力、組織壓力是否就能概括所有的或絕大部分的軟法實施機制,也就自然不會有較為明確的論述。


圖片包含 背景圖案 描述已自動生成


而從比較法的視野觀察,域外軟法研究者對軟法實效問題有著更多的、更直接的關注。例如,德國自由柏林大學教授米莉亞姆·哈特萊普(Miriam Hartlapp)于2019年發(fā)表其對歐盟軟法在歐盟成員國的實際效果進行的研究,指出軟法的合法性或正當性(legitimacy)并不是推動軟法實施的關鍵,真正起作用的是行為人是否能在實施中獲益。而軟法的可能硬法化(hardeningout)是與軟法實施并行的。德國波茨坦大學教授安德里亞斯·齊默爾曼(Andreas Zimmermann)則于2021年探討了不具有法律約束力的文件以諒解備忘錄為例是如何在國際法之下產(chǎn)生法律效果的,指出主要是因為此類文件與具有法律約束力的文件發(fā)生互動所致,而這種互動是由許多法律機制提供的。美國亞利桑那州立大學教授蓋瑞·馬秦特(Gary E.Marchant)和研究員卡洛斯·伊格納西奧·古鐵雷斯(CarlosIgnacioGutierrez)于2020年合作完成關于人工智能軟法間接實施的文章認為,軟法成功與否是高度依賴特定情境的,取決于遵守軟法的成本與可行性、對遵守軟法的激勵以及拒絕遵守或沒有遵守軟法的后果;他們描述了九個有助于人工智能軟法更加有效、更加可信的機制和過程,并暗示可以有更多其他的。相關研究不可盡數(shù),但以上數(shù)例已經(jīng)表明:一方面,如本文之前所述,論者們都傾向于一個基本前提,軟法的實效更多取決于遵守軟法給行為人帶來的好處,包括利益之增加和不利之減少;另一方面,使行為人獲得好處從而可以促進軟法收取普遍效果的機制遠不止于激勵、社會壓力、組織壓力。


然而,對于軟法的倡議者、推動者、研究者而言,或許需要一種軟法實施機制類型學對林林總總、形形色色的實施機制進行歸類,從而形成相對固定又具有開放性、包容性的思維工具,以促進為軟法實施進行有意識的配套機制建構。相對固定意味著形成一些明確的分類概念,每個概念因其抽象性而可收留家族相似的具體形式化的軟法實施機制;開放性、包容性意味著本文沒有或不能述及的、實踐中已有或者未來可能有的更多形式的實施機制,也可以為這些類型概念所容納。本文即要探索軟法有哪些類型的實施機制可以增大其產(chǎn)生實效的可能性。


鑒于軟法在各個公共治理領域普遍存在,為使研究更加聚焦,本文選擇人工智能的軟法實施作為主要研究對象。人工智能為不計其數(shù)的研究者、開發(fā)者、應用者帶來同樣不計其數(shù)的大大小小利益,在強大的利益驅動下,人工智能快速發(fā)展,而各國政府即公共監(jiān)管者的立場更多是容許而不是抑制其發(fā)展,尤其是在人工智能最初方興未艾的階段,這個立場伴隨的就是基于軟法的規(guī)制。即便隨著人工智能風險的清晰化,對不同風險進行分類管理和控制的硬法規(guī)范日漸增多,但也不能完全取代這個領域軟法的重要地位。需要特別指出的是,人工智能治理的軟法形式主要是倫理規(guī)范(ethics)。篇幅所限,本文無意就科技倫理與軟法之間的關系展開討論,盡管這也是具有重要價值的、屬于軟法本體論軟法是什么的議題。美國的蓋瑞·馬秦特教授和瑞士的艾菲·瓦耶納(Effy Vayena)教授等人將人工智能倫理規(guī)范視為軟法一種形式的進路,也是本文采取的。


本文將從三個方面展開探討。首先,第二部分根據(jù)既有研究,對人工智能軟法治理的現(xiàn)狀進行事實描述,指出人工智能倫理規(guī)范的風起云涌無法掩蓋其存在的巨大的實效赤字;其次,第三部分分析軟法實效赤字的原因所在,以及即便如此,人工智能治理為什么需要并且仍然需要軟法;再次,第四部分則揭示有助于軟法實施并產(chǎn)生實效的機制,并對其進行分類,以期建立具有指導意義的理論工具。本文的最后結語是對全文主要觀點的總結,并且強調(diào)軟法的落地實施、獲得普遍遵守,需要價值共識與經(jīng)濟邏輯的結合、內(nèi)在理由與外在推動的結合。



二、人工智能軟法及其實效赤字

瑞士的艾菲·瓦耶納教授、馬塞洛·林卡(Marcellolenca)教授和安娜·喬賓博士(Anna Jobin)等在《全球人工智能倫理指南圖景》一文中指出,過去五年之間,私營公司、研究機構和公共領域組織發(fā)布了大量的人工智能倫理原則和指南,以應對人工智能引起的擔憂。這些倫理指南并不具有法律上的約束力,而是說服性質的,其可以被稱為非立法性政策文件或軟法。為了研究不同團體在合乎倫理的人工智能應該是什么、未來決定人工智能發(fā)展的倫理原則是什么等問題上是否達成共識,以及如果有分歧,差異之處在哪里以及是否可以和解,他們在全球范圍內(nèi)收集了84個含有人工智能倫理規(guī)范的文件。


對這些文件的研究表明:第一,公共領域組織(包括政府組織和政府間組織)與私領域(包括公司及其聯(lián)盟)發(fā)布的倫理規(guī)范在數(shù)量上大致相當,意味著兩個領域都對此高度重視。第二,非洲、南美洲、中美洲、中亞等地區(qū)缺少代表,意味著人工智能倫理規(guī)范國際話語中的權力不平衡。第三,經(jīng)濟更加發(fā)達的地區(qū)正在塑造人工智能倫理規(guī)范的討論,這可能會引起對地方性知識、文化多元主義和全球公平的關切。第四,人工智能倫理原則主要有:(1)透明;(2)正義、公平和平等;(3)不傷害(Non-maleficence);(4)責任和歸責;(5)隱私;(6)造福人類;(7)自由和自治;(8)信任;(9)可持續(xù)發(fā)展;(10)尊嚴;(11)社會團結。第五,沒有一個原則是整個文件庫中共同的,盡管透明、正義和公平、不傷害、責任以及隱私是比較集中的,有超過一半的指南涉及。第六,所有十一項原則都存在實質內(nèi)容的分歧,決定分歧的主要因素有:(1)如何解釋倫理原則;(2)為什么它們是重要的;(3)它們與什么問題、什么領域、什么行動者相關;(4)它們應該如何得到執(zhí)行?;谶@些發(fā)現(xiàn),該文作者認為:在政策層面,需要各方利益相關者更多的合作,以在倫理原則內(nèi)容本身和它們的執(zhí)行上形成一致和趨同;對于全球而言,將原則付諸實踐、尋求人工智能倫理規(guī)范(軟法)和立法(硬法)的協(xié)同是下一步需要做的重要工作;目前,這些非立法規(guī)范是否會在政策層面產(chǎn)生影響,或者它們是否會影響個體實踐者和決策者,還拭目以待。


艾菲·瓦耶納教授等提出的執(zhí)行問題、實效有待觀察問題,在他們研究成果發(fā)布前后,已經(jīng)有研究者進行了相應的探索并給出了回答:基本無效。算法觀察AlgorithmWatch)是一個位于德國柏林和瑞士蘇黎世的非政府、非營利組織,其宗旨在于為一個算法和人工智能在其中是加強而不是削弱正義、人權、民主和可持續(xù)發(fā)展的世界而奮斗。該組織于2019年發(fā)布了全球人工智能倫理指南清單,對全球范圍內(nèi)旨在為以合乎倫理的方式開發(fā)和實施自動決策系統(tǒng)確立原則的框架和指南進行匯編。該清單于2020428日更新后,有超過160個指南包含在其中,涉及中國的有:北京智源人工智能研究院聯(lián)合北京大學、清華大學、中國科學院自動化研究所、中國科學院計算技術研究所、新一代人工智能產(chǎn)業(yè)技術創(chuàng)新戰(zhàn)略聯(lián)盟等高校、科研院所和產(chǎn)業(yè)聯(lián)盟共同發(fā)布的《人工智能北京共識》(2019525日)。中國人工智能產(chǎn)業(yè)聯(lián)盟發(fā)布的《人工智能行業(yè)自律公約(征求意見稿)》(2019531日)。國家新一代人工智能治理專業(yè)委員會發(fā)布的《新一代人工智能治理原則發(fā)展負責任的人工智能》(2019617日)。


顯然,算法觀察編撰的清單,沒法囊括世界范圍內(nèi)所有以指南、原則、準則、倡議、自律公約等形式呈現(xiàn)的人工智能倫理規(guī)范。一是此類軟法在數(shù)量上難以計數(shù),某個時間節(jié)點上的收集不見得完整;二是此類軟法在生成上不受主體、程序等的嚴格限制,非??旖荨⒈憷?,故收集的時間節(jié)點以后很快又會有新的軟法出現(xiàn)。以中國為例,201778日國務院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,其中就多處提及人工智能倫理規(guī)范建設的意義、重點和時間線,盡管其本身并未直接提出具體的倫理規(guī)范。而2018118日中國電子技術標準化研究院發(fā)布的《人工智能標準化白皮書(2018年版)》已經(jīng)明確,人工智能的發(fā)展應當遵循人類利益原則、透明度原則和權責一致原則等倫理要求,雖然其相對粗糙、簡略。這是在算法觀察收集或更新的時間節(jié)點之前的情況。而在該時間節(jié)點以后,我國的國家新一代人工智能治理專業(yè)委員會又于2021925日發(fā)布了《新一代人工智能倫理規(guī)范》,比較系統(tǒng)地提出了增進人類福祉”“促進公平公正“”保護隱私安全“”確??煽乜尚?/span>“”強化責任擔當“”提升倫理素養(yǎng)等六項基本倫理規(guī)范,又系列地提供了管理、研發(fā)、供應和使用規(guī)范。


然而,沒法囊括并不是問題的關鍵所在,因為算法觀察2019年發(fā)布此項研究初步結論時就已經(jīng)指出會有更多的指南,而該組織的觀察結論則是更加重要、更引人矚目的。2019年,算法觀察發(fā)布的《<人工智能倫理指南>:有約束力的承諾還是裝點門面?》一文指出,彼時收集的83個指南之中,絕大多數(shù)都是行業(yè)主導的,因為自愿的自我監(jiān)管是非常受歡迎的避免政府監(jiān)管的手段。德國的思愛普(SAP),美國的賽捷(Sage)、臉書(Facebook)、谷歌(Google)等公司既規(guī)定了內(nèi)部原則,也公布了一般指南。其中一部分是公司作為產(chǎn)業(yè)聯(lián)盟——人工智能伙伴關系PartnershiponAI——成員發(fā)布的,一部分是行業(yè)協(xié)會領導發(fā)布的。最為重要的是很少有指南附帶治理或者監(jiān)督機制,可以確保這些自愿承諾得到遵守和實施。2020年,算法觀察數(shù)據(jù)庫中指南數(shù)量超過160個,或者是自愿承諾的,或者是建議性的,其中只有10個是有實施機制的。即使是世界上最大的工程師專業(yè)協(xié)會電氣與電子工程師協(xié)會InstituteofElectricalandElectronicEngineers,以下簡稱IEEE)制定的倫理指南,在很大程度上也是沒有實效的,因為臉書、谷歌和推特(Twitter)等大型科技公司都沒有執(zhí)行這些指南,盡管它們的許多工程師和開發(fā)人員都是IEEE的成員。


“算法觀察兩份報告的結論對人工智能倫理指南的實效基本持否定態(tài)度。而且,這并不是其一家之言。此前,來自美國北卡羅來納州立大學的研究人員進行了一項研究,他們找了63名軟件工程專業(yè)學生和105名軟件開發(fā)專業(yè)人員,并將其分成兩組。一組是明確指示其使用美國計算機協(xié)會(AssociationofComputingMachinery,以下簡稱ACM)制定的倫理規(guī)范,另一組是對照組(controlgroup),即沒有看到ACM倫理規(guī)范。研究人員讓被測試者回答十一個有著簡單情境介紹的選擇題,每個題都涉及倫理決策。研究結論是:無論是學生還是專業(yè)開發(fā)人員,看過和沒有看過倫理規(guī)范的被測試人員對問題的回答,沒有統(tǒng)計學意義上的顯著差異。這表明倫理規(guī)范并不會對軟件開發(fā)產(chǎn)生實質性影響。人工智能倫理規(guī)范基本都是由技術專家(為主)、法律專家(為輔)研究和制定的,其希望通過技術的、設計的專業(yè)知識來應對人工智能/機器學習的倫理問題,并將設計作為倫理審查的中心,因此,上述針對軟件工程專業(yè)學生和軟件開發(fā)專業(yè)人員的測試結果驗證了倫理規(guī)范的實效赤字問題。人工智能倫理規(guī)范的大量產(chǎn)出背后潛藏著較為可觀的投入和支出,但其收入即實效遠遠少于成本,因此本文稱其為實效赤字。


那么,人工智能倫理規(guī)范是否真的如上述測試所表現(xiàn)的那樣實效性幾近于零呢?本文并不以為然。首先,人工智能倫理規(guī)范并不純粹是被束之高閣的??萍季揞^發(fā)布的此類軟法,或多或少地對其自身產(chǎn)生拘束作用。例如,谷歌公司自2018年發(fā)布《人工智能原則》(AIPrinciples)以來,每一年都會發(fā)布更新報告,而在報告中,其會向公眾說明自己在踐行原則方面的努力、取得的進步、獲得的教訓。2023年報告就提到:這是我們每年發(fā)布的《人工智能原則》進展報告的第五版,通過年度報告,我們始終如一對我們?nèi)绾螌⒃瓌t付諸實踐保持透明。我們于2018年首次發(fā)布《人工智能原則》,旨在分享公司的技術倫理章程,并使我們對如何負責任地研究和開發(fā)人工智能保持責任心。生成式人工智能也不例外。在本報告中,我們將詳細分享在研究和開發(fā)包括Gemini家族模型在內(nèi)的新型生成式人工智能模型過程中所采用的合乎原則的方法。原則只有在付諸實踐后才能發(fā)揮實效。這就是我們發(fā)布這份年度報告——包括學到的艱難教訓——的原因,目的是讓人工智能生態(tài)系統(tǒng)中其他人能夠借鑒我們的經(jīng)驗。谷歌公司的年度報告本身的真實性、其在報告中反映的踐行原則之努力在多大程度上執(zhí)行了其原則,還缺乏中立的、客觀的、完整的評價。谷歌公司在2019年宣布不再與美國國防部續(xù)約,停止向其提供人工智能的幫助以分析海外軍事無人機監(jiān)控錄像,也被認為是在其員工抗議此項目引發(fā)倫理爭議和憂慮的情況下作出的決定,而不是自愿履行其人工智能倫理規(guī)范的結果。盡管如此,年度報告及其公開至少意味著該公司愿意向公眾匯報其在人工智能倫理規(guī)范執(zhí)行方面的進步,也愿意將自身置于廣泛的監(jiān)督和隨時可能出現(xiàn)的批評之下。


其次,盡管人工智能系統(tǒng)的應用實踐在合乎倫理規(guī)范方面表現(xiàn)較差,但在一些原則——如隱私、公平、可解釋性——的應用上還是有著較為明顯的進步。例如,世界范圍內(nèi)已經(jīng)開發(fā)了許多保護隱私的數(shù)據(jù)集使用和學習型算法使用技術,這些技術通過使用密碼、隱私區(qū)分或隨機隱私等方法,使人工智能系統(tǒng)的視域“”變暗。不過,吊詭的是,人工智能花了數(shù)年時間取得的巨大進步,恰恰是因為有大量的數(shù)據(jù)(包括個人數(shù)據(jù))可用。而這些數(shù)據(jù)都是具有隱私侵犯性的社交媒體平臺、智能手機應用程序以及有著無數(shù)傳感器的物聯(lián)網(wǎng)設備收集的。


再者,人工智能倫理規(guī)范還會在微觀倫理層面上得到體現(xiàn)。雖然在宏觀層面上,由抽象、含糊詞句形成的人工智能倫理規(guī)范的實施乏善可陳,但是,在人工智能倫理問題引起廣泛重視的情況下,從倫理到微觀倫理(如技術倫理、機器倫理、計算機倫理、信息倫理、數(shù)據(jù)倫理)的轉變也在發(fā)生,并且有很好的實效。例如,緹姆尼特·吉布魯(Timnit Gebru)的研究團隊提出了標準化的數(shù)據(jù)表,列出不同訓練數(shù)據(jù)集的屬性,以便機器學習訓練者可以檢查特定數(shù)據(jù)集在多大程度上最適合他們的目的,數(shù)據(jù)集創(chuàng)建時的初衷是什么,數(shù)據(jù)集由什么數(shù)據(jù)組成,數(shù)據(jù)是如何收集和預處理的等等。由此,機器學習訓練者可以在選擇訓練數(shù)據(jù)集時作出更明智的決定,從而使機器學習變得更公平、更透明并避免算法歧視。這一在微觀倫理上的工作成果,受到了微軟、谷歌和國際商用機器公司(IBM)的青睞,開始在內(nèi)部試用數(shù)據(jù)集的數(shù)據(jù)表。數(shù)據(jù)營養(yǎng)項目DataNutritionProject)采納了部分成果,人工智能伙伴關系也在建立類似的數(shù)據(jù)表。


最后,在原理上,軟法的執(zhí)行實效通常是需要一段時間才能顯現(xiàn)出來的。軟法的顯著特點在于說服,而不在于強制,說服的時間成本自然是不可避免的。然而,從2016年還很少有人工智能倫理規(guī)范,到現(xiàn)在全球范圍內(nèi)如此多的政府、非政府組織、大型企業(yè)等主體發(fā)布或更新此類規(guī)范,已經(jīng)表明正在形成一種道德共識,即人工智能的開發(fā)、利用應當承擔起倫理責任。而這個道德共識,美國哲學家卡爾·波普爾(Karl Popper)認為科學界早在核武器和生化武器問題上就已經(jīng)有了:承認存在一系列特定的威脅,必須準備一批特定的人、一套特定的工具和一組特定的觀念以應對威脅。從這個角度看,人工智能倫理規(guī)范至少已經(jīng)獲得了推介實效,或許其會像企業(yè)社會責任一樣,后者花了幾十年的時間,才部分地擺脫了洗綠洗白的粉飾名聲,制定了許多公司必須遵循的全球標準。當然,這最后一點并不希望以偷換概念的方式,把本文關注的執(zhí)行(實施)實效主題延伸到推介實效,只是希望在觀察研究執(zhí)行(實施)實效時增添一個時間過程維度。



三、實效赤字原因及為什么仍然需要軟法


(一)人工智能倫理規(guī)范實效赤字原因


發(fā)展迄今未至十年的人工智能倫理規(guī)范,實效即便不能簡單地歸為零,也在總體上沒有達到解除或極大緩解人們對人工智能倫理的顧慮、擔憂的目標。其原因主要有以下七個方面。


第一,人工智能倫理規(guī)范的非強制執(zhí)行性。人工智能現(xiàn)在研究所”2017年的報告指出,倫理規(guī)范構成柔性治理的一種形式,是對硬性的傳統(tǒng)政府監(jiān)管和法律監(jiān)督的替代,且在人工智能領域逐漸得到積極發(fā)展,但其有著現(xiàn)實局限性。關鍵局限在于其假定企業(yè)、行業(yè)會自愿采用和遵守。2018年的報告繼續(xù)指出:盡管我們已經(jīng)看到制定此類規(guī)范的熱潮,……但是我們沒有看到強有力的監(jiān)督和問責,來保證這些倫理承諾的兌現(xiàn)。軟法這一與生俱來的、阿喀琉斯之踵般的致命缺陷,成了公認的人工智能倫理規(guī)范實效不足的根本原因。


第二,人工智能倫理規(guī)范的抽象性、模糊性。人工智能倫理規(guī)范并不是針對人工智能的,而是針對研究、開發(fā)與應用人工智能的人類的,其目標是要求研究者、開發(fā)者與應用者遵循一定的規(guī)范,以使人工智能帶來的倫理風險降到最低。因此,該規(guī)范越是具體、明確,就越容易得到遵守;否則,就很難落實或者存在各種有爭議的落實。然而,現(xiàn)今的人工智能倫理規(guī)范基本是抽象的、模糊的,絕大多數(shù)指南除了用人工智能一詞外,從不用或很少用更為具體的術語。而人工智能只是一個集合術語,指向范圍極廣的一系列技術或一個規(guī)模巨大的抽象現(xiàn)象。沒有一個倫理指南令人矚目地深入到技術細節(jié),這表明在研究、開發(fā)和應用的具體情境與一般的倫理思維之間存在很深的鴻溝。盡管抽象性、模糊性可能被認為是不可避免和必要的,因為人工智能的應用極其廣泛、發(fā)展快且未來的發(fā)展軌跡并不確定,但是,前述在微觀倫理層面上的成功例子表明相對具體化、精細化是可能的。


第三,人工智能倫理規(guī)范的分散、混亂與疊床架屋。如同其他軟法一樣,人工智能倫理規(guī)范的制定主體包括政府、企業(yè)、企業(yè)聯(lián)盟、行業(yè)團體、非政府公益組織、研究機構等,這就形成了眾多形式的倫理規(guī)范。而前文提及的艾菲·瓦耶納教授等研究結果表明,各種文件使用的人工智能倫理原則術語或許是相同的,但實質內(nèi)容存在諸多分歧。即便是最普遍的透明原則,在涉及解釋(溝通、披露)、為什么透明、透明適用的領域以及實現(xiàn)透明的方式等方面,都有著重大差異。不同的人工智能軟法項目和提案出現(xiàn)了令人困惑的激增,造成人工智能治理的混亂和疊床架屋。人工智能領域的行動者很難評估和遵守所有這些不同的軟法要求。


第四,人工智能倫理規(guī)范自愿遵守的動力不足。人工智能倫理規(guī)范的非強制執(zhí)行性,意味著其寄希望于人工智能研究者、開發(fā)者和應用者可以自愿遵守。人工智能倫理規(guī)范是人類長期以來的倫理關切在人工智能領域里的投射,新興人工智能技術之所以引起廣泛的倫理擔憂和焦慮,表明倫理共識的普遍存在。盡管如此,人工智能給許多領域主體帶來的經(jīng)濟利益無論是財富增長還是成本減少是如此巨大,基于價值或原則的倫理關切難以勝過經(jīng)濟邏輯。在商業(yè)領域,速度就是一切,跳過倫理關切就相當于走上一條最少阻力的道路。在這個意義上,倫理良幣有可能轉變?yōu)楦偁幜訋哦皇袌鎏蕴?/span>


第五,人工智能倫理規(guī)范的合規(guī)悖論。人工智能倫理規(guī)范的遵守往往需要在技術上有所體現(xiàn),尤其是在設計環(huán)節(jié)。所以,合乎倫理的人工智能系統(tǒng)ethicallyalignedAIsystem)或合乎倫理的設計ethicallyaligneddesign)等概念應運而生。然而,正如前文所揭,在有些情況下,合乎倫理的設計(如保護隱私的技術)所需要的大量數(shù)據(jù),正是在涉嫌違反倫理原則(如侵害隱私)的情況下收集的。這個悖論是否廣泛存在尚未有充分的實證研究數(shù)據(jù),但人工智能先違反倫理原則進行充分發(fā)展而后再考慮如何合乎倫理的情況大概率是存在的。


第六,人工智能倫理規(guī)范影響力的社會系統(tǒng)論困境。德國斯圖加特大學教授蒂洛·哈根道夫(Thilo Hagendorff)除了揭示人工智能倫理規(guī)范在實施中受到冷落的經(jīng)濟邏輯以外,還引用三位著名社會學家的理論從宏觀社會學角度進行了分析。其指出,德國社會學家、風險社會理論的開拓者之一烏爾里希·貝克(Ulrich Beck)曾經(jīng)有一個非常形象的比喻,當今社會的倫理發(fā)揮的作用就如同在洲際航行的飛機上配置了自行車剎車,這在人工智能情境中尤其適用。根據(jù)另一德國社會學家尼克拉斯·盧曼(Niklas Luhmann)的系統(tǒng)論,現(xiàn)代社會由眾多不同的社會系統(tǒng)構成,每個系統(tǒng)都有自己的工作代碼和溝通媒介。結構耦合可以讓一個系統(tǒng)的決策影響另一些系統(tǒng),但其影響有限,難以改變社會系統(tǒng)的整體自治。法國社會學家皮埃爾·布爾迪厄(Pierre Bourdieu)也表示,所有這些系統(tǒng)都有自己的代碼、目標價值以及經(jīng)濟資本或象征性資本,社會系統(tǒng)通過這些資本得以構建起來,并基于這些資本作出決策。這種自治在人工智能的工業(yè)、商業(yè)和科學里也顯著存在。對這些系統(tǒng)的倫理干預只會在非常有限的范圍內(nèi)發(fā)揮作用。


第七,人工智能發(fā)展壓倒約束的宿命論。導致人工智能倫理規(guī)范出現(xiàn)實效赤字的根本原因在于,人類社會對待人工智能的基本立場是決定論或宿命論的(determinism)。人工智能倫理指南文件絕大多數(shù)都將人工智能敘述為推動世界發(fā)生歷史性改變的力量,這個改變是不可避免的、影響深遠的、會給人類帶來巨大利益的,人類社會只能去回應、適應并為其風險和后果承擔起責任。例如,2018年的《蒙特利爾宣言》提到:人工智能形成了科學和技術的一個重大進步,它可以改善生活條件和健康、促進正義、創(chuàng)造財富、加強公共安全以及減輕人類活動對環(huán)境和氣候的影響,從而產(chǎn)生可觀的社會效益。我國國家互聯(lián)網(wǎng)信息辦公室于202310月發(fā)布的《全球人工智能治理倡議》也持類似的立場。人工智能是人類發(fā)展新領域。當前,全球人工智能技術快速發(fā)展,對經(jīng)濟社會發(fā)展和人類文明進步產(chǎn)生深遠影響,給世界帶來巨大機遇。在此決定論/宿命論的背景之下,不僅科技巨頭如谷歌、臉書、百度、阿里巴巴等競相推出新的人工智能應用程序,而且,各國都宣布參加人工智能競賽,把人工智能視為在人類社會各領域解決問題的動力。鑒于此,相當程度上對人工智能發(fā)展起約束作用的倫理規(guī)范,自然是如同飛機上的自行車剎車一樣。


(二)人工智能為何仍然需要作為軟法的倫理規(guī)范


以上種種,皆直接或間接地阻礙人工智能倫理規(guī)范實施、得到遵守,有些似乎是根本性的、無法扭轉的。這是否意味著人工智能治理就不應該走軟法之路?答案是否定的,因為人工智能發(fā)展本身的特點,注定不能單純依靠硬法去防范其風險、減少其危害。以下是人工智能為什么仍然需要作為軟法的倫理規(guī)范參與治理的五個主要理由,每個理由都會涉及硬法或硬性監(jiān)管的不足、軟法或柔性治理的優(yōu)勢。


第一,軟法的靈活快捷性。幾乎所有涉足人工智能領域的研究者都承認一個事實,即人工智能的發(fā)展速度驚人,并以同樣驚人的速度對人類生活各個方面進行滲透,人類社會因此正在迅速發(fā)生難以預測未來確定圖景的轉型和變化,危害已經(jīng)初露端倪,風險也悄然潛伏。更多由于前述公私領域普遍存在的經(jīng)濟邏輯的推動,這一動向似乎是決定性的、宿命的,如何控制和防范危害、風險也就因此轉化為一個法律體系的配速問題(pacingproblem)。早在1986年,美國技術評估辦公室(USOfficeof TechnologyAssessment)就提及:技術變革曾經(jīng)是一個相對緩慢而沉悶的過程,但現(xiàn)在其速度超過了管理該系統(tǒng)的法律結構的變化速度,這給國會帶來了調(diào)整法律以適應技術變革的壓力。法律系統(tǒng)面臨的配速問題體現(xiàn)在兩個方面。其一,許多既有法律框架建立在社會和技術的靜態(tài)觀而不是動態(tài)觀基礎上;其二,法律機構(立法、監(jiān)管和司法機關)調(diào)整適應技術變革的能力正在減速。配速問題的存在,加劇了對人工智能危害和風險的擔憂。相比正式立法程序的官僚性、正式性、繁瑣性,軟法的制定與更新就靈活、快捷許多。如前所述,人工智能倫理規(guī)范制定主體多樣,沒有嚴格的程序限制,比較容易將人們的倫理關切及時轉化為引導人工智能研究、開發(fā)和應用的原則。盡管這些原則抽象、含糊、多義又缺乏強制約束力,但公開宣布的倫理規(guī)范的事實約束力并不是完全歸零的。


第二,軟法的多樣適配性。人工智能只是一個抽象用詞,其所指向的是范圍極廣、種類繁多、層出不窮、不計其數(shù)的技術,每個技術都有可能會帶來比較特定的倫理關切,也需要在技術上找到各自特定的應對方案。例如,美國阿肯色州一次醫(yī)療保健系統(tǒng)算法執(zhí)行,對糖尿病患者或腦癱患者產(chǎn)生負面影響,致使他們能夠獲得的醫(yī)療保健大幅削減;YouTube使用的推薦算法由谷歌開發(fā),其依靠反饋循環(huán),旨在優(yōu)化用戶的觀看時間,但在預測人們喜歡看什么內(nèi)容的同時,也決定了人們看的內(nèi)容,以至于助長了聳人聽聞的虛假視頻以及陰謀論;谷歌曾經(jīng)出現(xiàn)一種偏見,凡是搜索的名字是歷史上有過的黑人名字,就會在搜索結果上暗示有犯罪記錄,而搜索的是歷史上的白人名字,搜索結果就會相對中性;而人工智能/機器學習的人臉識別技術曾經(jīng)被指責對有色人種(尤其是黑人)識別不夠,微軟公司就開始宣傳其在包容性方面的努力,以改善不同膚色的面部識別功能,但也有評論者認為這樣的技術改進會對黑人社區(qū)更為不利,因為黑人社區(qū)在歷史上就是監(jiān)控技術的靶子。諸如此類涉及人工智能倫理引起關切的例子,足以表明全面的、以硬法為基礎的統(tǒng)一監(jiān)管,很有可能陷入無法適應多樣化技術、多樣化倫理要求的困境。甚至,監(jiān)管有時是反市場的、對小企業(yè)不利的,其形成的障礙只有大企業(yè)才能克服。相比之下,軟法主要不是由政府制定的,企業(yè)、行業(yè)組織、企業(yè)聯(lián)盟、非政府組織等都可以針對更加具體特定的技術倫理問題制定相應的、更加適配的指南。


第三,軟法的合作試驗性。盡管軟法確有分散、混亂、疊床架屋的特性,但也由于存在多種軟法方案,就給人工智能的研究、開發(fā)和利用帶來了選擇試驗的空間,利益相關者之間——包括又不限于政府與企業(yè)之間——有時候會形成合作的關系,而不是對立的關系。這同以往政府與企業(yè)的監(jiān)管對立、企業(yè)與企業(yè)之間的競爭對立是不同的。在這種合作的關系之中,也有相互學習、相互受益的元素。例如,前文提及谷歌公司在發(fā)布《人工智能原則》2023年度報告時宣稱其也意在分享研究開發(fā)新模型時應用原則的經(jīng)驗和教訓。在人工智能倫理規(guī)范推進方面發(fā)揮巨大作用的機構之一是全球電氣與電子工程師的聯(lián)合組織IEEE。其發(fā)起的全球自動與智能系統(tǒng)倫理倡議,旨在解決由自動系統(tǒng)、智能系統(tǒng)的開發(fā)和傳播引起的倫理問題。它確定了120個關鍵問題,并提出了解決這些問題的建議供企業(yè)選擇。人工智能——具體到特定場景的特定技術——的研究、開發(fā)、利用如何才能更好地符合倫理規(guī)范,或者,反言之,什么樣的具體、細致的倫理規(guī)范適合于特定場景的特定人工智能技術,并不是有著確定答案的問題,也不是單憑某個專業(yè)團隊就能夠提出最佳方案的問題,這是需要技術專家、法律專家等合作探索的,也是需要不斷地進行試驗的。而這是硬法和硬性監(jiān)管所無法達到的。


第四,軟法的事實壓力性。軟法雖然沒有法律上的約束力,但如果其內(nèi)容在本質上有著廣泛的共識,具有非常強的說服力,那么,個人和組織選擇不遵守軟法必定需要承受事實上存在的認同壓力。當這種認同壓力足以壓倒不遵守可能帶來的利益時,認同壓力就會轉化為事實上的約束力。因此,對于倫理關切的研究表明,多種框架、觀念、定義及其組合為組織創(chuàng)造了一系列供其選擇的復雜方案。當問題的重要程度和組織能夠得到的支持還不確定的時候,眾多指南讓組織必須承受針對其工作流程的批評。……選擇一個工作流程倫理指南,為組織的內(nèi)部和外部利益相關者評價該組織的應用程序產(chǎn)品提供了底線。


第五,軟法的跨國適用性。人工智能的研究、開發(fā)、利用是世界性的、跨國界的,尤其是它在互聯(lián)網(wǎng)上或者通過互聯(lián)網(wǎng)的利用;人工智能所掀起的倫理關切和擔憂也是世界性的、跨國界的。即便是某個平臺、某家企業(yè)或某個應用程序被曝有特定的人工智能倫理失范的風險或丑聞,并不意味著它的影響只限于平臺、企業(yè)所登記注冊的國家,也并不意味著此類技術的倫理失范風險或丑聞不會在別的國家、別的平臺、別的企業(yè)或別的應用程序中出現(xiàn)。例如,微軟支持的OpenAI公司開發(fā)的ChatGPT僅僅上市兩個多月后,類似應用程序帶來的剽竊、欺詐和錯誤信息傳播等風險就受到了關注,歐盟內(nèi)部市場專員蒂埃里·布雷頓(Thierry Breton)在接受路透社專訪時提到制定全球標準的緊迫性。傳統(tǒng)硬法、硬性監(jiān)管主要限于主權國家或基于條約的區(qū)域性國際組織的領土管轄范圍內(nèi),其之所以具備法律上的約束力,就是因為其得到主權國家基礎規(guī)范或區(qū)域性國際組織基礎條約的授權與認可。因此,若要在全球范圍內(nèi)應對人工智能倫理風險,跨越國界或者區(qū)域界限的軟法/倫理規(guī)范在人工智能領域普遍推廣,應該是可選的方案。


當然,在互聯(lián)網(wǎng)經(jīng)濟、全球經(jīng)濟的生態(tài)之中,大型科技公司欲將業(yè)務拓展至其注冊國以外的市場,肯定會關注并遵守該市場所在法律轄區(qū)的法律(硬法)系統(tǒng)。由此,像歐盟這樣的跨國法律轄區(qū),其制定的硬法如《通用數(shù)據(jù)保護條例》(GDPR)和最新的《人工智能法案》實際上也有為全球制定標準的意義,產(chǎn)生了所謂的布魯塞爾效應。但是,這個效應畢竟在兩個意義上是間接的。其一,它只是會影響其他主權國家如中國或美國的立法,通常不會被后者照抄;其二,它只是會對有意進入歐盟市場的科技公司產(chǎn)生約束力,對其他規(guī)模較小且無意國際市場的科技公司的人工智能研發(fā)利用沒有直接約束力。而人工智能倫理規(guī)范應該預期會在全球范圍內(nèi)達成更多共識,會越過主權國家或歐盟等區(qū)域性組織法律(硬法)管轄的界限,以發(fā)揮其效用,盡管現(xiàn)在還不能如愿展現(xiàn)實效。


四、人工智能軟法的實施機制


一方面,人工智能倫理規(guī)范有其興起、存在的原因和獨特價值,已經(jīng)開始有凝聚共識、普遍認可等的推介實效;但是,另一方面,人工智能的研發(fā)、利用過程似乎還遠沒有受軟法性質的倫理規(guī)范的切實影響,介入其中的專業(yè)人員還沒有將倫理規(guī)范與程序設計緊密地結合起來,以至于許多人工智能的新產(chǎn)品、新應用時不時會引起對其所帶來的倫理風險的普遍關注。那么,究竟如何才能讓人工智能倫理規(guī)范落到實處,從事實壓力轉變?yōu)槭聦嵓s束力,與相應的硬法合作,共同完成應對人工智能倫理風險挑戰(zhàn)的使命呢?軟法如何有效實施的這一命題,可以從中獲得哪些普遍的啟示和結論呢?由于軟法在原理上不具有強制執(zhí)行力,不能通過強力去直接實施,故本文在此討論的是間接地推進軟法實施需要哪些類型的機制。


(一)軟法促進的組織機制


軟法的實施是一個需要不斷自我更新、獲取共識、得到驅動的漸進過程,對未來不確定風險承擔預防和治理功能的人工智能軟法,尤其如此。在這個過程中,缺少強有力的、持續(xù)堅定從事軟法推進事業(yè)的組織,是難以想象的。從類型上而言,這樣的組織可以是屬于政府系列的,也可以是屬于企業(yè)系列的,更可以是行業(yè)組織、企業(yè)合作聯(lián)盟、第三方機構、研究團隊等。其中,大型科技巨頭——如微軟、谷歌等——也有專門的人工智能倫理規(guī)范部門或團隊。從功能上而言,這樣的組織可以是持續(xù)制定和更新人工智能倫理規(guī)范的,可以是倡議全球人工智能領域研發(fā)者、利用者加盟共同遵守人工智能倫理規(guī)范的,可以是觀察和監(jiān)督人工智能倫理規(guī)范執(zhí)行落實情況的,也可以是研究如何將人工智能倫理規(guī)范同具體技術的設計與應用結合起來的。


政府組織可能會糾結于人工智能行業(yè)發(fā)展與恪守倫理規(guī)范之間如何平衡,而在督促人工智能倫理規(guī)范落實方面有所懈怠。企業(yè)、行業(yè)組織或企業(yè)合作聯(lián)盟可能會偏重裝點門面、博得聲譽而在人工智能倫理規(guī)范方面輕諾寡信,即便企業(yè)設立專門的人工智能倫理規(guī)范部門或團隊以兌現(xiàn)自己的倫理承諾,該部門或團隊的獨立作用也不見得可以充分保障。例如,2020年,谷歌解雇了緹姆尼特·吉布魯,原因是她發(fā)表了一篇批評大語言模型的論文(該論文兩年后大受歡迎)。由此引發(fā)的憤怒導致人工智能倫理部門又有幾位高層領導人離職,并削弱了谷歌公司在負責任的人工智能問題上的可信度。


相對而言,那些旨在密切觀察人工智能風險、持續(xù)發(fā)布跟進研究報告、以監(jiān)督和促進人工智能符合倫理規(guī)范為己任的組織,以及致力于將倫理規(guī)范融入人工智能研發(fā)、利用過程的研究團隊(無論是否在企業(yè)內(nèi)部),可信度和推動力會更高些。例如,有評論指出:關于人工智能倫理的報告并不匱乏,但其中的大部分都無足輕重,充斥著公私合作以及以人為本之類的陳詞濫調(diào)。他們不承認人工智能造成的社會困境有多么棘手,也不承認解決這些困境有多么困難。人工智能現(xiàn)在研究所的新報告卻非如此。它毫不留情地審視了科技行業(yè)在沒有任何可靠和公平結果保證的情況下,競相沿著人工智能的方向重塑社會。緹姆尼特·吉布魯?shù)难芯繄F隊發(fā)布的數(shù)據(jù)集的數(shù)據(jù)表,從2018323日第一次發(fā)布到2021121日,已經(jīng)經(jīng)歷八個版本,被引用達2263次。當然,軟法促進的可靠、有力組織之存在,通常以此類組織生存和發(fā)展的制度公共制度的或企業(yè)內(nèi)部制度的容許空間為前提。


(二)軟法合規(guī)的壓力機制


軟法是事實壓力性的,因為其以廣泛的共識和說服的效力為基礎,它只是給了行動者自愿遵守的選擇。當軟法在共同體中獲得越來越多成員的認可,合乎、遵守軟法就會獲得所屬共同體比較高的贊許,相反,違背軟法即便不會給行動者帶來強力制裁,也會使其承受非常大的壓力,甚至是巨大的聲譽損害及可能附隨的經(jīng)濟損害。那么,有什么機制可以讓這種壓力足夠強大呢?至少,可以有三個方面的重要機制:


一是輿論機制。對于在市場中求生存的企業(yè)而言,輿論對其、對其產(chǎn)品的評價毫無疑問是至關重要的,消費者通常會選擇輿論評價高的產(chǎn)品。因此,在一個開放的輿論環(huán)境中,新聞媒體可以將科技企業(yè)及其人工智能產(chǎn)品是否符合倫理規(guī)范,甚至可以將其他企業(yè)是否在使用符合人工智能倫理規(guī)范的人工智能應用程序,作為評價體系的重要組成部分,從而形成足夠強大的輿論壓力,促使企業(yè)負責任地研發(fā)或利用人工智能。不過,輿論壓力除了需要開放的輿論場以外,也還需要另外兩個條件才能形成一定的效用:其一,消費者在乎符合人工智能倫理規(guī)范的企業(yè)及其產(chǎn)品;其二,消費者可以在競爭市場中選擇到軟法合規(guī)的企業(yè)及其產(chǎn)品。


二是對抗機制。對企業(yè)不在乎或疏忽人工智能倫理規(guī)范進行批評的輿論本身是一種形式的對抗。在此需要特別指出的是來自專業(yè)人員或利益相關者(stakeholder)的針對人工智能倫理風險而采取的對抗企業(yè)的行動,無論這些人員是在企業(yè)內(nèi)部還是在企業(yè)外部。除了前文提及的谷歌公司在其員工抗議下停止與美國國防部合作軍事人工智能項目的例子外,2019年,谷歌公司還曾經(jīng)在數(shù)千名員工的抗議下,解散了剛成立一個多星期的人工智能倫理委員會(正式名稱是先進技術外部咨詢委員會),因為其中來自公司以外的成員或其所屬組織被指對跨性別者有不公評論、對氣候變化持懷疑態(tài)度或者與人工智能的軍事利用有關。2018年,在時任美國總統(tǒng)特朗普將非法移民孩子與其家庭隔離的政策備受爭議之際,微軟與美國移民局在人臉識別技術上的合作,也受到了微軟員工的抗議。202352日至927日,代表11500名編劇的美國編劇協(xié)會因與電影電視制片人聯(lián)盟發(fā)生勞資糾紛而組織了為期148天的罷工。罷工的一項訴求就是像ChatGPT這樣的人工智能只應被用作一種幫助研究或推動腳本想法的工具,而不應該取代編劇。最終,罷工取得了勝利,雙方達成的協(xié)議被認為是樹立了一個對于人工智能的使用進行集體談判的重要先例。這些來自專業(yè)人員或利益相關者的抗議是出于他們對人工智能倫理規(guī)范的認知和堅持,或者出于他們本身的利益受到人工智能發(fā)展的威脅,其主張不見得對,但確實是一種可以促進企業(yè)遵守軟法的力量和機制。越來越多富有意義的針對人工智能負責任發(fā)展的行動來自工人、共同體倡議者和組織者。而這種力量和機制的存在,當然也需要依托于更廣闊的企業(yè)與員工、企業(yè)與外部之間關系的制度空間、文化背景。


三是監(jiān)督機制。就廣義的監(jiān)督而言,輿論、對抗同樣屬于監(jiān)督機制。然而,軟法合規(guī)監(jiān)督還有其他更多樣化的表現(xiàn)形式。早在2015年,蓋瑞·馬秦特教授就曾經(jīng)和文德爾·瓦拉赫(Wendell Wallach)先生一起提議成立名為治理協(xié)調(diào)委員會的機構,目的不是重復或取代現(xiàn)有許多組織在人工智能治理方面的工作,而是如交響樂團指揮一樣起到協(xié)調(diào)的作用。這個機構并未成立,但他們預設其應該承擔的功能中有多項是與監(jiān)督相關的,如監(jiān)控和分析(認定人工智能治理計劃實施的差距、重疊和不一致之處)、早期預警(指出正在出現(xiàn)的新問題)、評估(為治理計劃實現(xiàn)目標的情況評分)、召集解決問題(召集利益相關者就特定問題商議解決方案)。換言之,與之前所述的組織機制結合,若有相對獨立的組織無論是在企業(yè)內(nèi)部設立類似倫理審查委員會的機構,還是在企業(yè)外部設立更為中立的社會組織承擔起監(jiān)控、分析、預警、評估、共商方案等監(jiān)督功能,就可以使人工智能倫理規(guī)范得到更好的落實。


(三)軟法合規(guī)的激勵機制


如果說軟法合規(guī)的壓力機制屬于減分項,可能讓人工智能研發(fā)者、利用者遭受聲譽損失及附隨的經(jīng)濟損失,那么,軟法合規(guī)的激勵機制就是對應的加分項,可以使其得到更好的聲譽及隨之帶去的更多經(jīng)濟利益。這樣的激勵機制相比壓力機制似乎可以有更多展現(xiàn)形式。


一是認證機制。中立的第三方認證機構可以開設一個認證業(yè)務,對人工智能的研發(fā)和利用遵循一套特定倫理規(guī)范的企業(yè)或其他實體進行認證,并給予認證證書。


二是評價機制。中立的第三方組織,如高校科研機構或非政府社會組織,可以對人工智能研發(fā)者是否將人工智能倫理規(guī)范植入人工智能的研究和開發(fā)之中、人工智能利用者是否應用符合倫理規(guī)范的人工智能以及研發(fā)者和利用者的人工智能倫理規(guī)范合規(guī)程度等進行評價,評選出優(yōu)秀的合規(guī)者。


三是購買機制。人工智能應用程序的研究、開發(fā)都會投入相當?shù)某杀?,合乎倫理?guī)范的或許會投入更多。對于軟法合規(guī)企業(yè)或其他實體而言,認證、評優(yōu)雖可以帶來良好聲譽,但并沒有轉化為實際的經(jīng)濟利益。相較之下,購買和使用合乎倫理規(guī)范的人工智能產(chǎn)品,尤其是獲得認證或評優(yōu)的人工智能產(chǎn)品,是讓合規(guī)者獲得實際利益的最直接方法。購買者,特別是政府采購方,若能將合乎倫理規(guī)范作為購買的前提條件,勢必會帶動有利于人工智能軟法實施的市場導向。


四是合作機制。人工智能利益相關者——研究者、開發(fā)者、利用者——在倡議和推進人工智能倫理規(guī)范方面形成聯(lián)盟或合作伙伴關系,相互之間給予支持和幫助,也更有利于建立公眾信任,有助于人工智能軟法得到誠信可靠的執(zhí)行。


五是資助和發(fā)表機制。為人工智能的研發(fā)或利用提供投資或資助的機構、為人工智能研發(fā)成果提供發(fā)表平臺的專業(yè)雜志,也同樣可以將符合人工智能倫理規(guī)范作為一個條件或優(yōu)先考慮的條件,以激勵研發(fā)者、利用者遵守人工智能軟法。


六是放松監(jiān)管機制。政府負責人工智能發(fā)展監(jiān)管的部門,對于在管理人工智能的研發(fā)或利用方面有一整套制度和配套機構、致力于人工智能軟法合規(guī)的企業(yè)或其他實體,以及真正研發(fā)出或利用合乎倫理規(guī)范的人工智能產(chǎn)品的企業(yè)或其他實體,可以適當?shù)胤潘杀O(jiān)管力度。減少政府監(jiān)管的利益被認為是人工智能軟法獲得成功的重要激勵之一。


(四)軟法的技術方法論機制


人工智能軟法是與科學技術緊密關聯(lián)的,也因此被廣泛認為是需要由人工智能專家研究制定的。人工智能伙伴關系作為一種聯(lián)盟,將公眾利益相關者區(qū)分開,前者是需要教育和調(diào)查的,后者是科學家、工程師和企業(yè)家,是進行教育和調(diào)查的;其又將利益相關者區(qū)分為專家其他利益相關者,前者是創(chuàng)造或應對人工智能的科學界領先者,后者是在廣大范圍內(nèi)存在的產(chǎn)品使用者、購買人工智能方案的大型企業(yè)或者其所在領域被人工智能徹底改變的大型企業(yè)。專家促使人工智能發(fā)生,其他利益相關者讓人工智能發(fā)生在身上。正因為此,將人工智能軟法落到實處,最重要的是專業(yè)人員在技術開發(fā)過程中進行合乎倫理的設計、開發(fā)合乎倫理的人工智能系統(tǒng)。而專業(yè)人員如何能把倫理價值嵌入人工智能/自動化系統(tǒng)的開發(fā),是需要技術方法論的支持的。


在這方面的例子,除了緹姆尼特·吉布魯團隊研究的數(shù)據(jù)集的數(shù)據(jù)表以外,還有芬蘭瓦薩大學博士后研究員維萊·瓦庫里(Ville Vakkuri)領銜研究的命名為ECCOLA的方法,該方法是一個模塊化的、逐段沖刺的過程,旨在促進人工智能和自動化系統(tǒng)開發(fā)對倫理的考量,并與既有的其他方法合并使用。具體而言,ECCOLA有三個目標:(1)促進對人工智能倫理及其重要性的意識;(2)創(chuàng)建一個適合各種系統(tǒng)工程場合的模塊;(3)使得該模塊既適合敏捷開發(fā)(agiledevelopment),又能讓倫理成為敏捷開發(fā)的組成部分。ECCOLA經(jīng)過多年的實踐,經(jīng)歷了迭代的發(fā)展和改進。此類事例不勝枚舉。


(五)軟法具體化的基準機制


前文已揭,許多人工智能倫理指南或原則是抽象的、含糊的,這主要是因為指南或原則的制定者希望能夠盡可能將其適用于廣闊的人工智能領域。但是,究竟如何才能在特定人工智能研發(fā)或利用中執(zhí)行和遵守這些寬泛規(guī)范問題,對于想要做到合規(guī)的行動者而言,也會成為一個棘手問題。因此,除了技術方法論往往是普遍適用于多個情境的方法框架或模塊以外,還需要結合特定人工智能的使用所引發(fā)的特定倫理關切,制定出更具針對性的倫理基準。日本東北大學的研究人員翁岳暄(Yueh-HsuanWeng)與平田泰久(YasuhisaHirata)曾經(jīng)發(fā)文探討對輔助機器人的合乎倫理設計,文章指出,床位轉移輔助、洗浴輔助、行走輔助、排泄輔助、監(jiān)護和交流輔助以及護理輔助的機器人,各有比較突出的、不同的倫理關切,需要分別特殊對待。他們的研究雖然并不有意指向或者有意擬定任何人工智能倫理規(guī)范的基準,但是,這種結合人機互動(human-robotinteraction)的特點而指出每一種機器人需要應對的特殊倫理問題,其實就是具有基準意義的。這對于企業(yè)或其技術人員遵守人工智能倫理規(guī)范有著更具針對性的導引作用。


(六)軟法與硬法的互動機制


無論是在軟法最初興起的國際法領域,還是在人工智能軟法領域,都已經(jīng)有經(jīng)驗研究表明軟法在未來的可能硬法化前景,或者軟法被吸收進入硬法框架之中,這會給軟法的實施增加動力或壓力。例如,安德里亞斯·齊默爾曼教授在國際軟法研究中發(fā)現(xiàn),在早期階段,不具有法律約束力的協(xié)定可能就已經(jīng)規(guī)定了各國未來愿意接受的、作為未來有法律約束力條約組成部分的條件,這樣的諒解備忘錄是未來條約的先驅,有著前法律功能pre-law-function),可以被更好地實施。就人工智能軟法而言,最初階段進行實地試驗的軟法,之后可能會被正式立法納入傳統(tǒng)的監(jiān)管體系之中。如未來生命研究所曾經(jīng)于2017年發(fā)布阿西洛馬人工智能原則(Asilomar AIPrinciples),如今,美國加利福尼亞州已經(jīng)將這些原則寫入州立法之中。


除了這種未來法律化(硬法化)的前景以外,人工智能倫理規(guī)范若能在硬法的實施之中占有一席之地,也會帶動企業(yè)及其他實體對其的遵守。例如,在美國,公司沒有履行其對人工智能倫理規(guī)范的公開承諾的,聯(lián)邦貿(mào)易委員會可以將其視為不公平的或欺騙的商業(yè)活動,而采取相應的措施。在國際法情境中,國際法院和裁判機構也會經(jīng)常性地依賴不具有法律約束力的協(xié)定,將其作為解釋指南,對有法律約束力的條約進行解釋。當然,這種將軟法吸收進入硬法解釋適用的過程,也可視為另一種形式的硬法化;在一定意義上,此時的人工智能倫理規(guī)范已經(jīng)不再是純粹的軟法。


五、結語:認真對待軟法實施


軟法的廣泛存在,并不意味著其切實地得到了遵守和執(zhí)行。人工智能領域的軟法各種各樣的人工智能倫理規(guī)范被許多研究者證明存在實效赤字的問題。規(guī)范的制定和倡議投入很多,收效卻甚微。當然,人工智能倫理規(guī)范并不是完全的零效用,其對許多科技巨頭產(chǎn)生了一定的拘束,隱私、公平、可解釋性等規(guī)范明顯被重視,在特別問題的微觀倫理上取得了些許進步,其推介實效也在人工智能研發(fā)、利用共同體中有所顯現(xiàn)。即便如此,人工智能倫理規(guī)范與現(xiàn)實之間的巨大鴻溝,仍然令人非常擔憂。


之所以會有如此鴻溝,至少有前文所述的七方面的原因,然而,這些因素的存在,并不使軟法無意義成為必然結論。由于人工智能倫理規(guī)范的靈活快捷性、多樣適配性、合作試驗性、事實壓力性、跨國適用性,其仍然有獨特的、硬性監(jiān)管/硬法所無法比擬的、與硬性監(jiān)管/硬法共同完成合乎倫理的人工智能之治理任務的價值。因此,如何使人工智能倫理規(guī)范應有價值更加充分地實現(xiàn),如何通過一系列機制促進其間接實施,就成為一個需要認真對待的問題。


根據(jù)現(xiàn)實的經(jīng)驗觀察,有助于人工智能倫理規(guī)范獲得實施的間接機制,在邏輯上有延伸出軟法實施機制的一般分類的可能。然而,這種分類學的研究還需要進一步探索,并非所有的機制都已經(jīng)在這里進行了充分地討論,在這里提出的機制也并非適用于所有軟法實施的情境。例如,對于技術性、專業(yè)性并不是特別強的軟法,技術方法論機制并不見得必需;對于本身已經(jīng)足夠特定、細致的軟法,具體化基準機制也同樣可以忽略。


軟法的制定者、倡議者當然希冀軟法可以發(fā)揮靈活引導的實際作用,但這種作用的獲得不能僅依靠軟法內(nèi)在的說服力,不能僅依靠軟法指向的行動者自覺認同與遵守。價值共識需要成本利益計算的經(jīng)濟邏輯的輔助,才可讓更多的行動者愿意為軟法的執(zhí)行付出。內(nèi)在理由和外在推動柔性而非強制的推動的有效結合,才可讓軟法不至于僅僅淪為宣示、倡議和粉飾。軟法實施機制類型學的研究,對軟法的制定者、倡議者或促進者有意識地進行相應的機制建設,具有重要的指引意義。




原文刊載于《財經(jīng)法學》2024年第6期(第108-127頁),轉自微信公眾號財經(jīng)法學。