【作者】童云峰
【內(nèi)容提要】
走出科林格里奇困境:生成式人工智能技術(shù)的動態(tài)規(guī)制
華東政法大學(xué)中國法治戰(zhàn)略研究院特聘副研究員
摘要:生成式人工智能技術(shù)的迅猛發(fā)展給監(jiān)管者帶來了科林格里奇困境。在困境的風(fēng)險側(cè)面,生成式人工智能技術(shù)的風(fēng)險日益具象化,表現(xiàn)為輸入層和隱藏層的共性風(fēng)險與輸出層的特色風(fēng)險,折射出行政監(jiān)管與法律規(guī)制的必要性。在困境的安全側(cè)面,過于關(guān)注安全的嚴(yán)苛式監(jiān)管會反噬技術(shù)創(chuàng)新的空間、挫傷我國在先進技術(shù)領(lǐng)域的國際競爭力。為了消解我國生成式人工智能技術(shù)的科林格里奇困境,應(yīng)當(dāng)確立動態(tài)規(guī)制模式。首先,強化企業(yè)自治與行政監(jiān)管后移并舉,以企業(yè)合規(guī)作為規(guī)避技術(shù)風(fēng)險的第一道防線,行政監(jiān)管退居第二道防線。其次,合規(guī)效果監(jiān)管機制替代全流程行為監(jiān)管,通過獎懲機制激勵與倒逼企業(yè)落實合規(guī)計劃。最后,軟法先行引導(dǎo)硬法完善,通過軟法的試驗性探索為塑造我國系統(tǒng)性的人工智能法典奠定基礎(chǔ)。
一、問題的提出
美國OpenAI公司推出的聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器(ChatGPT,GPT是GenerativePretrained Transformer的縮寫),使生成式人工智能成為科技前沿。所謂生成式人工智能,是能夠根據(jù)用戶的文本提示(“輸入”)生成新的圖像、文本、視頻或其他內(nèi)容(“輸出”)的技術(shù)。生成式人工智能已經(jīng)應(yīng)用到各個領(lǐng)域,包括司法行政管理、預(yù)測正義、在線爭議解決、刑事司法(如“預(yù)防性警務(wù)”)。2024年2月16日,OpenAI發(fā)布Sora大模型,僅需通過文本即可自動生成視頻,這也是繼文本模型ChatGPT和圖片模型DallE之后,又一極具顛覆性的大模型產(chǎn)品。與此同時,生成式人工智能技術(shù)的負(fù)面新聞也時見報道,如侵犯隱私、錯誤信息泛濫、侵害版權(quán)和生成非自愿的圖像等。
生成式人工智能技術(shù)創(chuàng)新價值和負(fù)面效應(yīng)并存的現(xiàn)實,給監(jiān)管者帶來了科林格里奇困境。所謂科林格里奇困境(Collingridge's Dilemma),是英國技術(shù)哲學(xué)家大衛(wèi)·科林格里奇在《技術(shù)的社會控制》(1980年)一書中提出的命題,它是指對一項新興技術(shù)如果過早地采用嚴(yán)苛監(jiān)管措施會阻礙其創(chuàng)新發(fā)展,若放任自流或監(jiān)管遲滯會使其走向失控。生成式人工智能是初創(chuàng)技術(shù),且我國當(dāng)前正處于技術(shù)追趕階段,我國在該領(lǐng)域有打破西方世界技術(shù)封鎖的雄心壯志。這也意味著生成式人工智能技術(shù)的科林格里奇困境在我國當(dāng)前階段更為明顯,具體表現(xiàn)為兩個側(cè)面:一方面,若一味追求技術(shù)創(chuàng)新而放任其發(fā)展,會忽視其中的風(fēng)險(風(fēng)險側(cè)面);另一方面,若一味維護安全局面而過度監(jiān)管,會扼殺技術(shù)創(chuàng)新的潛力(安全側(cè)面)。面對此種兩難困境,我國行政立法創(chuàng)設(shè)了《生成式人工智能服務(wù)管理暫行辦法》(2023年8月15日起施行,以下簡稱《人工智能辦法》),如何精準(zhǔn)適用該辦法以消除科林格里奇困境是我國當(dāng)前需要直面的問題。換言之,尋找法律規(guī)制生成式人工智能的限度標(biāo)準(zhǔn)是本文所要解決的核心問題。
二、科林格里奇困境的風(fēng)險側(cè)面:
生成式人工智能技術(shù)風(fēng)險的類型化
科林格里奇困境的風(fēng)險側(cè)面表現(xiàn)為,如果過于追求生成式人工智能技術(shù)的創(chuàng)新價值而疏于監(jiān)管,會導(dǎo)致技術(shù)風(fēng)險泛濫甚至是失控。
(一)技術(shù)運作流程與風(fēng)險類型的關(guān)聯(lián)性
生成式人工智能技術(shù)起源于機器學(xué)習(xí)理論,1956年圖靈描述了智能推理和思維的存在,20世紀(jì)60年代形成機器學(xué)習(xí)理論,機器學(xué)習(xí)工作系統(tǒng)建立于80年代至90年代。目前對AI的定義是“能夠參與類人過程的計算系統(tǒng),如學(xué)習(xí)、適應(yīng)、合成、自我校正和使用數(shù)據(jù)來完成復(fù)雜的處理任務(wù)”??茖W(xué)家們利用計算機不斷增長的能力和內(nèi)容,開發(fā)出一系列軟件程序,人工智能在生成圖片、文本或音樂等能力方面可以與人類相媲美。生成式人工智能建立在前述技術(shù)基礎(chǔ)之上,呈現(xiàn)出多模態(tài)特征(如語音+文本、圖像+文本、視頻+圖像+文本、圖像+語音+文本、視頻+語音+文本)。
“人工智能”實際上是先進算法與“大數(shù)據(jù)”的耦合體,以及許多利用這些技術(shù)的技術(shù)。生成式人工智能應(yīng)用程序建立在大型語言模型(簡稱LLM)的基礎(chǔ)之上,這些模型可以識別、預(yù)測、翻譯、總結(jié)和生成語言。LLM是生成式人工智能的一個子集,其特征是“大”,是訓(xùn)練模型學(xué)習(xí)語言規(guī)則所需的大量數(shù)據(jù)。數(shù)據(jù)是大模型競爭的關(guān)鍵要素,生成式人工智能的高度智能化正是因為其接受海量數(shù)據(jù)的訓(xùn)練,所以其所衍生的風(fēng)險均與數(shù)據(jù)相勾連。生成式人工智能的具體運作呈現(xiàn)為“輸入數(shù)據(jù)→計算數(shù)據(jù)→輸出信息”的流程,三個階段對應(yīng)著程序運作的三個層次:(1)輸入層是數(shù)據(jù)被提供給模型的地方,其中的每個節(jié)點都具有被設(shè)計用于接收輸入數(shù)據(jù)的單個元素的存儲器;(2)隱藏層(預(yù)測)是應(yīng)用程序中大部分處理發(fā)生的地方,該層之所以被稱為“隱藏層”,是因為在其中處理的數(shù)據(jù)不能直接從模型中輸入或輸出;(3)輸出層是將隱藏層得出的結(jié)論最終提供給用戶。這樣的運作流程與風(fēng)險密不可分,即技術(shù)所攜帶的風(fēng)險也呈現(xiàn)階段化。這種風(fēng)險散布在生成式人工智能運行的全生命周期,但不同階段的風(fēng)險表現(xiàn)形式存在明顯差異。
(二)生成式人工智能技術(shù)的共性風(fēng)險
按照階段劃分的標(biāo)準(zhǔn),本文將生成式人工智能技術(shù)不同運作階段的風(fēng)險類型分別表述為輸入層風(fēng)險、隱藏層風(fēng)險和輸出層風(fēng)險。其中,輸入層風(fēng)險、隱藏層風(fēng)險是現(xiàn)代智能科技的共性風(fēng)險,而輸出層風(fēng)險是生成式人工智能技術(shù)的個性風(fēng)險。
在輸入層,生成式人工智能技術(shù)風(fēng)險表現(xiàn)為數(shù)據(jù)泄露。歐洲議會全體會議于2024年3月13日通過了《人工智能法案》,該法案第3條規(guī)定,“風(fēng)險”是指發(fā)生危害的可能性和危害的嚴(yán)重性的組合。在輸入階段,生成式人工智能需要爬取和吸收各類數(shù)據(jù),風(fēng)險主要表現(xiàn)為侵犯個人信息、隱私和商業(yè)秘密。其一,個人信息權(quán)益會被侵害。近年來,為保護個人信息權(quán)益,我國立法創(chuàng)設(shè)諸多新規(guī)則和新制度。但是,相關(guān)規(guī)則并未具體指涉生成式人工智能。從互聯(lián)網(wǎng)上抓取公開可用的信息是生成式人工智能模型的主要數(shù)據(jù)來源,一些科技公司也搜集公開可用的數(shù)據(jù)來構(gòu)建大型數(shù)據(jù)庫。生成式人工智能通過抓取訓(xùn)練數(shù)據(jù)以生成有效信息內(nèi)容,被抓取的訓(xùn)練數(shù)據(jù)可能包含敏感性和私密性的個人信息,如銀行卡賬號、生物識別信息等,一些高頻用戶的敏感個人信息可能會成為生成內(nèi)容出現(xiàn)在用戶的對話框中。其二,公民隱私被侵犯。生成式人工智能會吸收用戶偏好、興趣、行為等信息,通過算法運作計算出用戶的隱私,繼而成為企業(yè)精準(zhǔn)投放廣告的依據(jù)。其三,商業(yè)秘密被泄露。歐盟2022年通過了《數(shù)據(jù)治理法》,該法引入了“數(shù)據(jù)利他主義”制度,鼓勵企業(yè)為實現(xiàn)公共利益捐贈數(shù)據(jù),以形成具有研究價值的數(shù)據(jù)池。然而,投喂至大模型并進行訓(xùn)練的數(shù)據(jù)一旦包含公司內(nèi)部的商業(yè)機密信息,將可能會給企業(yè)帶來滅頂之災(zāi)。正因如此,中國支付清算協(xié)會發(fā)布了《關(guān)于支付行業(yè)從業(yè)人員謹(jǐn)慎使用ChatGPT等工具的倡議》,提醒行業(yè)內(nèi)的企業(yè)與從業(yè)人員謹(jǐn)慎使用生成式人工智能。同時,韓國三星公司芯片機密泄漏事件,再次證明這一風(fēng)險已由隱患走向現(xiàn)實。概言之,輸入階段可能形成數(shù)據(jù)泄露風(fēng)險,這些數(shù)據(jù)不局限于個人信息、隱私和商業(yè)秘密,甚至國家秘密數(shù)據(jù)都有可能被泄露。
在隱藏層,生成式人工智能風(fēng)險表現(xiàn)為算法濫用。隱藏層的風(fēng)險也就是內(nèi)部算法運作的風(fēng)險,算法運作過程具有隱秘性和不透明性。算法不透明會衍生算法黑箱,非專業(yè)人士要想知悉算法奧秘,需要仰賴算法解釋。對于隱藏層的算法,如果沒有有效的監(jiān)管和問責(zé)制就會存在算法濫用的風(fēng)險。這就需要在生成式人工智能系統(tǒng)中植入道德代碼,將數(shù)字正義、數(shù)據(jù)倫理和數(shù)據(jù)權(quán)利等規(guī)范轉(zhuǎn)化為代碼并嵌入算法運作的監(jiān)管流程。以機器學(xué)習(xí)算法為基礎(chǔ)的生成式人工智能,因欠缺人類主觀同情心故天然存在正義忽視和平等盲區(qū)。表現(xiàn)為算法的不公平、不正義或不道德,如果算法本身存在問題,就容易生成不符合主流價值觀的毒害性信息,會固化社會偏見與歧視。算法歧視所帶來的數(shù)字非正義和數(shù)字不公,是人工智能應(yīng)用過程中難以扭轉(zhuǎn)的技術(shù)事實與共性問題,使現(xiàn)實世界的道德境況被毫無保留地轉(zhuǎn)移至數(shù)字世界。此外,算法容易被人操縱,主要表現(xiàn)為信息繭房、誘導(dǎo)沉迷、算法剝削、算法標(biāo)簽以及算法歸化。算法操縱行為使得用戶成為算法的奴隸,飽受不良算法的殘害和剝削。實際上,算法侵害風(fēng)險包含算法妨害和算法損害,前者是基于風(fēng)險或過程的抽象性侵害;后者是基于結(jié)果的具體侵害。算法風(fēng)險的如此區(qū)分,實際上借鑒了刑法上的危險犯與實害犯、行為無價值與結(jié)果無價值的劃分。
(三)生成式人工智能技術(shù)的個性風(fēng)險
在輸出階段,生成式人工智能為用戶提供個性化服務(wù),主要通過輸出信息的方式來滿足用戶的需求。然而,錯誤或誤導(dǎo)性的訓(xùn)練數(shù)據(jù)可能會導(dǎo)致虛假輸出,對輸入的荒謬響應(yīng)或不相關(guān)的輸入也會生成錯誤信息,錯誤信息的傳播可能會造成嚴(yán)重的后果。生成式人工智能會被惡意行為人用來捏造事件、人物、言論和新聞,以達到造謠、網(wǎng)絡(luò)欺詐、勒索和不法宣傳的目的。因此,生成式人工智能技術(shù)在輸出層主要表現(xiàn)為虛假信息風(fēng)險,這也是生成式人工智能技術(shù)的個性風(fēng)險。
生成式人工智能產(chǎn)生的虛假信息案件在國外已經(jīng)發(fā)生多起,例如,ChatGPT生成澳大利亞赫伯恩郡郡長布萊恩·胡德(Brain Hood)的基本信息時,錯誤輸出其曾因接受賄賂入獄的虛假信息。又如,ChatGPT編造了美國喬治華盛頓大學(xué)法學(xué)教授喬納森·特利(Jonathan Turley)曾性騷擾女學(xué)生的謠言。虛假信息還可能造成財產(chǎn)損失,例如人工智能給出的錯誤答案直接導(dǎo)致投資公司Alphabet的股價蒸發(fā)了超過1000億美元。目前,據(jù)估計,OpenAI每月為ChatGPT花費約300萬美元來運營,這約為每天10萬美元。
我國也發(fā)生了生成式人工智能產(chǎn)生虛假信息的案件,2023年2月16日杭州某小區(qū)業(yè)主群討論ChatGPT,群內(nèi)直播讓ChatGPT寫作杭州取消交通限行的新聞稿,被群內(nèi)其他不明就里的業(yè)主截圖轉(zhuǎn)發(fā),導(dǎo)致錯誤信息傳播。
面對前述虛假信息問題,生成式人工智能企業(yè)可能會開發(fā)一些防范或檢測虛假信息的程序和軟件,但這些技術(shù)手段很容易被更新的技術(shù)措施攻破。事實表明,技術(shù)措施并不能徹底解決生成式人工智能的虛假信息問題。技術(shù)方案只能作為輔助手段,仍然需要從法律層面塑造解決問題的體系性制度。對此,我國行政立法嚴(yán)禁虛假信息,除《人工智能辦法》拒斥生成虛假信息外,《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》和《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》均在相關(guān)條文中強調(diào)服務(wù)提供者不得利用新技術(shù)新應(yīng)用制作、發(fā)布、傳播虛假新聞信息。此外,Sora等新型生成式人工智能產(chǎn)品的迭代更新,雖能夠在一定程度上改進技術(shù),但也會加劇虛假信息的風(fēng)險。
由上可知,面對生成式人工智能類型化風(fēng)險,監(jiān)管層面不宜一味追求技術(shù)創(chuàng)新而忽視風(fēng)險防控,否則會陷入科林格里奇困境的風(fēng)險側(cè)面。面對現(xiàn)實,監(jiān)管者、立法者和學(xué)者需要共同提出走出困境的方案。
三、科林格里奇困境的安全側(cè)面:
生成式人工智能技術(shù)監(jiān)管的過度化
科林格里奇困境的安全側(cè)面表現(xiàn)為,若一味追求生成式人工智能技術(shù)使用過程中的安全價值,監(jiān)管者會采用過度監(jiān)管措施(甚至是禁令),這樣會束縛技術(shù)發(fā)展和阻礙技術(shù)創(chuàng)新。當(dāng)我們還在糾結(jié)應(yīng)當(dāng)采取何種監(jiān)管措施時,國外新型的生成式人工智能技術(shù)產(chǎn)品可能就已誕生。這就意味著對具有顛覆性創(chuàng)新價值的技術(shù),嚴(yán)苛監(jiān)管模式可能會阻礙技術(shù)創(chuàng)新。
(一)數(shù)據(jù)來源和變量設(shè)置生成式人工智能技術(shù)監(jiān)管模式的比較法觀察
當(dāng)前各國均試圖尋找規(guī)制生成式人工智能技術(shù)風(fēng)險的良方,但既有規(guī)制方案容易走向兩個極端。
一方面,美國以鼓勵創(chuàng)新為核心采用相對寬松的監(jiān)管方案。在美國,人工智能技術(shù)由具體的行業(yè)進行細(xì)化監(jiān)管,確保監(jiān)管的相稱性與適應(yīng)性。雖然美國政府傾向于采用促進創(chuàng)新的方案,但技術(shù)風(fēng)險也被理論界與實務(wù)界廣泛關(guān)注,兩方勢力相互纏斗使得美國至今尚未頒布系統(tǒng)性、統(tǒng)一性的人工智能法律。目前能夠直接規(guī)制生成式人工智能技術(shù)的規(guī)范是由美國總統(tǒng)拜登于2023年10月30日簽署的《關(guān)于安全、可靠和可信的AI行政命令》,該行政命令頒布的目的是確保美國在把握AI的前景和管理風(fēng)險方面處于世界領(lǐng)先地位。此行政命令吸納了美國總統(tǒng)之前頒布的行政命令中的規(guī)則,強調(diào)賦予企業(yè)更多的自治權(quán),使政府行政監(jiān)管退居幕后,包括促使15家領(lǐng)軍企業(yè)自愿承諾推動安全、可靠和可信的AI發(fā)展的工作。該行政命令樹立了八項目標(biāo),其中“促進創(chuàng)新和競爭”與“提升美國在海外的領(lǐng)導(dǎo)力”是最重要的兩項目標(biāo),凸顯美國鼓勵技術(shù)創(chuàng)新的價值趨向。美國是生成式人工智能技術(shù)的領(lǐng)跑者,占據(jù)先進技術(shù)的領(lǐng)先地位,在具體個案中往往扮演著加害方的角色。換言之,美國基于自身技術(shù)的優(yōu)勢會成為風(fēng)險的制造者和加害者,這就決定著美國作為技術(shù)霸凌者,會更加追求技術(shù)創(chuàng)新以攫取更多的國際利益,而不會太重視防控技術(shù)異化以減少給他人帶來風(fēng)險和損害。
另一方面,歐盟以側(cè)重安全為核心采用較為嚴(yán)苛的監(jiān)管方案。歐盟采用的是強監(jiān)管模式,通過制定統(tǒng)一的人工智能法案以實現(xiàn)對人工智能應(yīng)用的全面監(jiān)管,意圖在歐盟層面建立一個加強監(jiān)督和執(zhí)行的共同制度。2023年4月,意大利宣布禁用ChatGPT,隨后多個歐盟國家跟進并與OpenAI公司溝通合規(guī)問題。歐盟《人工智能法案》于2024年3月13日通過,標(biāo)志著歐盟在立法監(jiān)管人工智能領(lǐng)域邁出了堅實的一步。該法案規(guī)定:“本條例的目的是改善內(nèi)部市場的運作,特別是為聯(lián)盟內(nèi)符合聯(lián)盟價值觀的人工智能系統(tǒng)的開發(fā)、投放市場、提供服務(wù)和加以使用制定統(tǒng)一的法律框架,促進以人為本和值得信賴的人工智能的應(yīng)用,同時確保對健康、安全和《歐盟基本權(quán)利憲章》所規(guī)定的基本權(quán)利的高度保護,包括民主和法治以及環(huán)境的保護,防止人工智能系統(tǒng)在聯(lián)盟內(nèi)產(chǎn)生有害的影響,并且支持創(chuàng)新。”歐盟《人工智能法案》采取的是以風(fēng)險分類法為基礎(chǔ)的強監(jiān)管模式,例如其第二編專門規(guī)定了“禁止的人工智能實踐”,第5條明確規(guī)定了禁止使用人工智能的情形。強監(jiān)管模式對生成式人工智能服務(wù)提供者施加了相對嚴(yán)格的義務(wù),企業(yè)需要投入巨大的成本以完成合規(guī)業(yè)務(wù)。與美國相比,歐盟的人工智能技術(shù)發(fā)展相對滯后,歐盟消費者使用的人工智能產(chǎn)品幾乎均由美國企業(yè)開發(fā)和銷售,在具體個案中歐盟往往是人工智能技術(shù)風(fēng)險的接受者和受害方。例如,在個人數(shù)據(jù)的跨境流動領(lǐng)域,歐盟消費者經(jīng)常遭受美國企業(yè)的侵害,歐盟與美國的數(shù)據(jù)流動協(xié)議已進行多次談判,從“安全港協(xié)議”到“隱私盾協(xié)議”甚至到最新的斡旋和談判,都不足以給歐盟民眾足夠的安全感。換言之,在生成式人工智能技術(shù)領(lǐng)域,歐盟處于相對弱勢的一方,在技術(shù)創(chuàng)新層面歐盟無法超越美國,且又要時時刻刻提防美國企業(yè)帶來的風(fēng)險和損害,這就使歐盟不得不選擇趨于安全的監(jiān)管策略。
其他國家或地區(qū),在生成式人工智能技術(shù)監(jiān)管方面大多追尋歐盟模式。例如,2024年2月2日東盟數(shù)字部長會議期間,東盟發(fā)布了其AI治理框架《東盟人工智能治理和倫理指南》(ASEAN Guide on AIGovernance and Ethics),該指南借鑒了歐盟模式將人工智能風(fēng)險劃分為低風(fēng)險、中風(fēng)險、高風(fēng)險。再如,泰國于2022年發(fā)布關(guān)于AI服務(wù)的法規(guī)草案,整體而言,泰國的AI法規(guī)草案與歐盟非常相似,都采用基于風(fēng)險的方法。又如,巴西也借鑒了歐盟模式。巴西參議院于2023年5月12日審議了2023年第2338號法案,該法案規(guī)定了巴西AI系統(tǒng)的運行要求,包括要求此類系統(tǒng)接受供應(yīng)商自己進行的初步評估,以確定它們是否可以被歸類為“高風(fēng)險”或“過高風(fēng)險”。目前大多國家尚未制定關(guān)涉生成式人工智能技術(shù)的專項法律,歐盟率先制定了《人工智能法案》,該法案是全球首部人工智能領(lǐng)域的全面監(jiān)管法律。在生成式人工智能領(lǐng)域,其他國家或地區(qū)的狀況和歐盟幾乎一致。一方面,在技術(shù)創(chuàng)新上均難以超越美國;另一方面,都會遭受來自美國的技術(shù)霸凌和技術(shù)風(fēng)險。換言之,歐盟《人工智能法案》是防御美國技術(shù)霸凌的范本,大多國家或地區(qū)在進行人工智能立法時多會以歐盟《人工智能法案》為參考藍(lán)本,最終都會選擇相對嚴(yán)苛的技術(shù)監(jiān)管模式,這一邏輯在個人信息的國際立法實踐中已體現(xiàn)得淋漓盡致。
(二)生成式人工智能技術(shù)嚴(yán)苛式監(jiān)管模式的檢視
當(dāng)前國際社會對生成式人工智能技術(shù)的監(jiān)管趨于兩極化,我國應(yīng)當(dāng)采用哪一種監(jiān)管模式是我國當(dāng)前智能技術(shù)發(fā)展必須要回答的問題。我國《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》和《個人信息保護法》等數(shù)字法律都有直接或間接規(guī)制人工智能技術(shù)風(fēng)險的規(guī)范,但是這些規(guī)范都相對抽象和缺乏針對性,只能作為塑造具體規(guī)則的價值方向。就生成式人工智能技術(shù)的具體規(guī)范而言,我國《人工智能辦法》第1條規(guī)定,制定該辦法是“為了促進生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權(quán)益”。前述法律規(guī)范共同指明,我國法律規(guī)制人工智能技術(shù)的目的是在技術(shù)創(chuàng)新與風(fēng)險規(guī)避之間尋找平衡的尺度。前述規(guī)范目的是由我國國情決定的,我國在生成式人工智能技術(shù)領(lǐng)域的境遇與美國、歐盟均不完全相同。一方面,我國不會像美國那樣利用技術(shù)優(yōu)勢踐行技術(shù)霸權(quán)主義,但我國也需面對美國的技術(shù)霸凌及因其而生的技術(shù)風(fēng)險;另一方面,我國的人工智能技術(shù)僅次于美國,歐盟模式是無法打破美國技術(shù)霸凌和防控技術(shù)風(fēng)險的妥協(xié)結(jié)果,但我國有追趕和打破美國技術(shù)“卡脖子”的能力和雄心。換言之,我國不宜在歐盟模式和美國模式之間選邊站隊,而是要選擇更加適合中國國情、更能推動中國爭取國際技術(shù)話語權(quán)的模式。我國的基本國情和立法目的均要求我國在技術(shù)創(chuàng)新與風(fēng)險規(guī)避之間尋求平衡,不宜采用歐盟那種過于嚴(yán)苛的技術(shù)監(jiān)管模式。
首先,嚴(yán)苛式監(jiān)管會吞噬技術(shù)創(chuàng)新的空間。每一次技術(shù)創(chuàng)新都是“摸著石頭過河”的實踐,因為畏懼風(fēng)險而直接杜絕風(fēng)險發(fā)生機會的思維并不符合構(gòu)建創(chuàng)新型國家的需求,面對科技創(chuàng)新的潛力,國家需要秉持適度寬容的態(tài)度。新興技術(shù)的研發(fā)都是科研人員對未知世界的探索,技術(shù)所攜帶的風(fēng)險在研發(fā)階段實際上無法被完全明確。每一次技術(shù)進步都是研發(fā)者“與狼共舞”的結(jié)果,技術(shù)使用者不能在危險的邊緣“瘋狂試探”,使用者和監(jiān)管者均需要謹(jǐn)慎對待新興技術(shù)。如果對新興技術(shù)的監(jiān)管采用高壓態(tài)勢,技術(shù)研發(fā)者和使用者面對“達摩克利斯之劍”,會如履薄冰、畏手畏腳,在創(chuàng)新過程中“坐立不安”或充滿“后顧之憂”,這種局面會使技術(shù)創(chuàng)新只能成為空中樓閣和“烏托邦幻想”。同時,嚴(yán)苛式監(jiān)管模式會給社會公眾一種“生成式人工智能技術(shù)等于風(fēng)險集聚地”的錯覺,消費者或用戶會拒絕使用交互式大模型產(chǎn)品,這不利于大模型產(chǎn)品的應(yīng)用與推廣,最終會使新型人工智能技術(shù)遭受嚴(yán)重污名化。新興技術(shù)需在創(chuàng)新中監(jiān)管,要給予技術(shù)創(chuàng)新適度的自由空間,監(jiān)管不宜走在創(chuàng)新的前端。監(jiān)管者需對具有中立性的新興技術(shù)保持適度寬容,監(jiān)管過度化或法律的提前介入會嚴(yán)重阻遏技術(shù)創(chuàng)新的潛力。
SHAPE \* MERGEFORMAT
其次,嚴(yán)苛式監(jiān)管不利于我國打破技術(shù)封鎖的境遇。人類社會通過兩次工業(yè)革命進入了現(xiàn)代文明社會,如今信息技術(shù)革命不斷深化,正促使人類生活再次發(fā)生翻天覆地的變化。信息技術(shù)革命的新階段是人工智能革命,人工智能技術(shù)已經(jīng)成為國際社會競爭的新領(lǐng)域。我國曾經(jīng)錯過第一次、第二次工業(yè)革命,導(dǎo)致清朝末年屢遭列強侵辱,我們深刻領(lǐng)悟“落后就要挨打”的“叢林法則”。換言之,我國比任何國家都要清楚掌握核心技術(shù)優(yōu)勢的重要性。在新一輪人工智能技術(shù)革命的爭奪中,我國顯然不能再錯過機遇,否則再想“彎道超車”將幾無可能,也無法打破西方國家的技術(shù)封鎖,甚至可能被迫面臨新一輪的“技術(shù)殖民”。應(yīng)當(dāng)明確,美國生成式人工智能技術(shù)的迅猛發(fā)展,從大語言模型到多模態(tài)大模型直至Sora模型的技術(shù)突破,離不開美國相對寬松的監(jiān)管政策和寬容市場環(huán)境的支撐。我國雖不宜采用美國過于寬松的監(jiān)管模式,但也肯定不能接納歐盟過于嚴(yán)苛的監(jiān)管模式。
最后,嚴(yán)苛式監(jiān)管不符合構(gòu)建中國自主數(shù)字法學(xué)知識體系的需求。如果我國直接移植歐盟模式抑或美國模式,可能會束縛技術(shù)創(chuàng)新或者可能面臨“技術(shù)霸凌”的境遇,更為嚴(yán)重的是可能會使法律規(guī)制體系、監(jiān)管模式和學(xué)術(shù)知識體系被“殖民化”。基于此,我國需要立足國情建構(gòu)自主的監(jiān)管模式、法律體系和學(xué)術(shù)體系。例如,我國學(xué)者提出了數(shù)字法學(xué)的概念,構(gòu)建數(shù)字法學(xué)就是為了回應(yīng)我國數(shù)字社會轉(zhuǎn)型的發(fā)展需要。關(guān)于數(shù)字法學(xué),理論上存在不同稱謂,有“網(wǎng)絡(luò)法學(xué)”“數(shù)據(jù)法學(xué)”“計算法學(xué)”和“人工智能法學(xué)”等表述。本文認(rèn)為,以“數(shù)字法學(xué)”統(tǒng)稱更為合適,其他稱謂反映了數(shù)字法學(xué)的某一側(cè)面,例如,計算法學(xué)是強調(diào)將計算的思維、方法和技術(shù)融入法學(xué),它是在表達數(shù)字法學(xué)的方法論。同時,數(shù)字法學(xué)契合中國頂層制度設(shè)計的話語表述,有助于實現(xiàn)技術(shù)話語與規(guī)范話語的統(tǒng)一,能夠涵蓋法學(xué)研究關(guān)涉技術(shù)應(yīng)用的全流程。生成式大模型不斷更新體現(xiàn)了現(xiàn)代化社會的復(fù)雜性,我們不僅需要革新社會治理制度,更需要發(fā)揮數(shù)字技術(shù)對化解時間與空間復(fù)雜性問題的作用。同時,也應(yīng)將現(xiàn)有法律概念和標(biāo)準(zhǔn)嵌入到AI系統(tǒng),法律應(yīng)成為多智能體價值對齊的應(yīng)用哲學(xué)。法律措施與技術(shù)措施的融合是數(shù)字法學(xué)的核心要義,對于生成式人工智能技術(shù)的向善發(fā)展,要建構(gòu)具有中國特色的監(jiān)管模式、數(shù)字法律體系和學(xué)術(shù)體系。概言之,數(shù)字法學(xué)作為一種敘事話語新形態(tài),對于中國式現(xiàn)代化和人類文明共同體秩序的重構(gòu)具有重要意義。
三、科林格里奇困境的消解方法:
生成式人工智能技術(shù)規(guī)制的動態(tài)化
科林格里奇困境是現(xiàn)代數(shù)字科技存在的共性問題,就生成式人工智能技術(shù)而言,需要立足新背景、新變量和新要求等,尋找最適宜的困境消解方法。本文認(rèn)為,生成式人工智能技術(shù)具有初創(chuàng)性和前沿性,其迭代更新非常迅速,所攜帶的風(fēng)險具有易變性,對其應(yīng)當(dāng)選擇動態(tài)化規(guī)制模式。
(一)生成式人工智能技術(shù)的動態(tài)化規(guī)制
與其他數(shù)字科技不同的是,生成式人工智能技術(shù)的迭代更新更為迅速,在人們尚未完全掌握某一代智能產(chǎn)品的功能和特性的情況下,它就可能已經(jīng)被最新一代的智能產(chǎn)品所取代,從ChatGPT到Sora,這種更新?lián)Q代的頻率讓人們感受非常深刻。換言之,我們不能直接將規(guī)制既有技術(shù)的方案簡單套用至生成式人工智能技術(shù),需要確立具有場景性的和反映生成式人工智能技術(shù)特性的動態(tài)化規(guī)制方法。
基于生成式人工智能技術(shù)的易變性,法律監(jiān)管應(yīng)摒棄靜態(tài)思維,走向動態(tài)模式。所謂“動態(tài)化規(guī)制”主要包含三大要件:(1)在主體角色上,搭建“后設(shè)規(guī)制”的基本框架,要求政府監(jiān)管角色后撤和強化企業(yè)自律的作用,充分發(fā)揮企業(yè)合規(guī)作用以應(yīng)對具有易變性的生成式人工智能技術(shù)風(fēng)險,政府只需掌控監(jiān)管大局即可。(2)在監(jiān)管方式上,踐行合規(guī)監(jiān)管模式,以事后的合規(guī)效果監(jiān)管機制代替全流程的行為約束機制,賦予生成式人工智能企業(yè)更多的自治權(quán),通過獎懲結(jié)合的方式促進企業(yè)完善合規(guī)措施;(3)在法律結(jié)構(gòu)上,以“軟法”先行引導(dǎo)“硬法”完善。“硬法”具有穩(wěn)定性和滯后性,面對迅速迭代的生成式人工智能技術(shù),“硬法”的規(guī)制功能無法有效施展。“軟法”雖然強制力較弱但具有靈活性和敏捷性,可以引導(dǎo)生成式人工智能技術(shù)的合規(guī)發(fā)展??砂l(fā)揮軟法的試驗性作用,將其中具有穩(wěn)定性的一般規(guī)則和基本原則升級為硬法。概言之,動態(tài)化規(guī)制符合生成式人工智能技術(shù)的特性。
動態(tài)化規(guī)制是立足具體的技術(shù)場景,將技術(shù)與政府監(jiān)管、法律規(guī)制有效融合,使技術(shù)與法律深度合作以共同應(yīng)對風(fēng)險與損害,這是新型的數(shù)字法學(xué)思維。此種模式符合數(shù)字時代權(quán)益保護的場景化需求,具有合理性和可操作性,應(yīng)當(dāng)被提倡。與此相對,傳統(tǒng)規(guī)制數(shù)字技術(shù)的靜態(tài)化思維,試圖以統(tǒng)一標(biāo)準(zhǔn)來劃定技術(shù)行為的合法性邊界。在人工智能技術(shù)日新月異的背景下,此種靜態(tài)化思維似乎不能為化解科林格里奇困境尋找統(tǒng)一標(biāo)準(zhǔn)。即使暫時能夠確定某一標(biāo)準(zhǔn),也會因技術(shù)迅速更新而被顛覆。于是立法者會選擇“膝反射式立法”和“無限循環(huán)立法”,新法迅速走向消亡,法律的功能走向象征化和虛無化,嚴(yán)重影響法律的權(quán)威性和穩(wěn)定性。由此可見,立法者和監(jiān)管者不應(yīng)忽視生成式人工智能技術(shù)的動態(tài)發(fā)展規(guī)律,應(yīng)立足生成式人工智能的技術(shù)特點,通過場景化、分類化的方法完善技術(shù)標(biāo)準(zhǔn),建立動態(tài)化的監(jiān)管體系。面對生成式人工智能技術(shù)的科林格里奇困境,動態(tài)化規(guī)制是相對可行的方案。
(二)將企業(yè)自治塑造為規(guī)避技術(shù)風(fēng)險的第一道防線
生成式人工智能深受技術(shù)設(shè)計者的影響,開發(fā)生成式人工智能技術(shù)和提供智能服務(wù)的平臺企業(yè)應(yīng)是風(fēng)險規(guī)避的第一責(zé)任人。對于生成式人工智能技術(shù)風(fēng)險,應(yīng)當(dāng)優(yōu)先加強企業(yè)內(nèi)部合規(guī)建設(shè),只有企業(yè)自律失效時政府行政監(jiān)管才應(yīng)介入。以合規(guī)措施約束大模型設(shè)計者的研發(fā)行為,是推動生成式人工智能技術(shù)向善的必由之路,平臺企業(yè)的合規(guī)建設(shè)集中表現(xiàn)為履行數(shù)據(jù)安全保護義務(wù)。
進入數(shù)字社會,各種數(shù)字技術(shù)服務(wù)都是通過在線平臺予以提供。歐盟《數(shù)據(jù)服務(wù)法》(DigitalServices Act)第2條第(h)項規(guī)定,“在線平臺”是指應(yīng)服務(wù)對象的要求,存儲信息并向公眾傳播信息的托管服務(wù)提供商。生成式人工智能產(chǎn)品的普及離不開在線平臺的作用,而平臺背后是擁有豐富數(shù)據(jù)資源的互聯(lián)網(wǎng)企業(yè)。占據(jù)強大數(shù)據(jù)資源和具備技術(shù)優(yōu)勢的智能平臺企業(yè),應(yīng)當(dāng)承擔(dān)智能服務(wù)過程中的守門人角色。守門人合規(guī)職能作為一種新型治理手段,是數(shù)字經(jīng)濟時代公私合作治理模式的新實踐。超大型生成式人工智能服務(wù)平臺應(yīng)當(dāng)在法律上被界定為“守門人”,守門人對技術(shù)設(shè)置、算法運行和風(fēng)險管控發(fā)揮決定性作用,按照控制者義務(wù)理論的要求,生成式人工智能服務(wù)平臺應(yīng)當(dāng)承擔(dān)更為嚴(yán)格的義務(wù)。歐盟《數(shù)據(jù)市場法》第48條也強調(diào),守門人應(yīng)當(dāng)引入合規(guī)職能,該職能獨立于守門人的運營職能,由一名或多名合規(guī)官履行,包括合規(guī)職能部門的負(fù)責(zé)人。我國《數(shù)據(jù)安全法》第28條規(guī)定,開展數(shù)據(jù)處理活動以及研究開發(fā)數(shù)據(jù)新技術(shù),應(yīng)當(dāng)有利于促進經(jīng)濟社會發(fā)展,增進人民福祉,符合社會公德和倫理。這就要求占據(jù)守門人地位的大型在線平臺企業(yè),在研究、開發(fā)和應(yīng)用生成式人工智能技術(shù)時,應(yīng)當(dāng)加強合規(guī)建設(shè),其所提供的技術(shù)服務(wù)不僅要合法合規(guī)也要符合倫理道德。
生成式人工智能技術(shù)的應(yīng)用可能會帶來數(shù)字鴻溝、數(shù)字歧視等問題,而能夠第一時間解決這些問題的是智能平臺企業(yè)。智能平臺企業(yè)及其內(nèi)部工作人員基于其專業(yè)性,能夠較早發(fā)現(xiàn)問題和提出解決問題的對策。對于數(shù)字鴻溝,智能平臺應(yīng)致力于提供平等的訪問機會,通過降低技術(shù)門檻等方式幫助不同群體跨越數(shù)字鴻溝。智能平臺可以為老年人、低收入家庭和農(nóng)村居民等群體提供在線和離線的信息技術(shù)教育與培訓(xùn)課程,提高全民數(shù)字素養(yǎng);智能平臺應(yīng)設(shè)計和提供更加人性化、易用的數(shù)字服務(wù)和工具,針對特殊需求群體(如視障人士、聽障人士等)提供特殊的創(chuàng)新產(chǎn)品和服務(wù),確保技術(shù)創(chuàng)新成果可以被用戶群體廣泛使用。對于數(shù)字繭房,智能平臺需要優(yōu)化算法推薦機制,避免過度同質(zhì)化的內(nèi)容服務(wù),鼓勵多元化信息呈現(xiàn),拓展用戶視野。在生成式人工智能服務(wù)過程中,專業(yè)信息糾察員的存在是必要的,人工編輯可以對內(nèi)容進行篩選和整合,形成更全面的推送,智能平臺內(nèi)部應(yīng)對算法進行自糾自查,以破除信息繭房現(xiàn)象。對于數(shù)字歧視,智能平臺應(yīng)建立公平的數(shù)據(jù)收集和處理機制,定期審查算法以識別并消除潛在的偏見和歧視;明確算法從開發(fā)到?jīng)Q策各環(huán)節(jié)的責(zé)任主體,確保算法設(shè)計者、編譯者、運維者、決策者等都對算法的公正性負(fù)責(zé);在算法設(shè)計階段就應(yīng)當(dāng)考慮公平性和透明度,避免設(shè)計者自身的價值傾向?qū)е缕缫暎⒋_保算法不依賴不完整或有偏見的數(shù)據(jù);規(guī)范數(shù)據(jù)收集和處理,確保數(shù)據(jù)的多樣性和代表性,避免數(shù)據(jù)偏見導(dǎo)致算法歧視。對于數(shù)字偽造,智能平臺應(yīng)加強內(nèi)容審核,采用技術(shù)手段識別和過濾深度偽造等虛假內(nèi)容;開發(fā)和部署人工智能模型來識別深度偽造內(nèi)容,這些模型通過分析視頻內(nèi)容的統(tǒng)計特性、面部特征匹配、音頻以及上下文信息來檢測異常和篡改。平臺應(yīng)建立嚴(yán)格的內(nèi)容審核機制,要求在生成或編輯的信息內(nèi)容的顯著位置進行標(biāo)識,向公眾提示深度合成情況。對于數(shù)字泡沫,也就是由技術(shù)、市場或社會因素引起的一種過度樂觀或不切實際的期望,智能平臺應(yīng)提供清晰、準(zhǔn)確的信息,讓用戶和投資者了解平臺的運營狀況、財務(wù)健康度和市場表現(xiàn);充分保障用戶和投資者的知情權(quán)益,提高他們的風(fēng)險防范意識;避免通過不切實際的營銷或夸大其詞的表達人為地提高產(chǎn)品或服務(wù)的價格,保持價格與價值的一致性。智能平臺企業(yè)應(yīng)持續(xù)加大技術(shù)創(chuàng)新的投入,推動技術(shù)的實際應(yīng)用。對于數(shù)字迷戀,智能平臺應(yīng)倡導(dǎo)健康使用數(shù)字產(chǎn)品的理念,提供工具幫助用戶管理使用時間;調(diào)整推薦算法,避免無限滾動和過度個性化推薦,減少用戶陷入無盡的瀏覽循環(huán);允許用戶設(shè)置每日或每周的使用限額,超過限額后限制功能或提醒用戶;為家長提供控制兒童使用數(shù)字軟件的工具,幫助他們監(jiān)管和限制兒童的在線活動。對于數(shù)字壟斷,智能平臺企業(yè)不得濫用市場支配地位,應(yīng)強化數(shù)據(jù)的可攜帶性、互操作性與開放性。智能平臺企業(yè)應(yīng)當(dāng)增強自身算法的透明度,確保算法應(yīng)用可驗證、可解釋、可追責(zé),保證不同用戶和參與者之間的公平性。對于數(shù)字陷阱,智能平臺應(yīng)建立嚴(yán)格的安全機制,防范網(wǎng)絡(luò)詐騙等行為,提供清晰的隱私政策和服務(wù)條款,確保用戶充分理解其數(shù)據(jù)如何被收集、使用和保護;定期向用戶推送網(wǎng)絡(luò)安全和隱私保護的教育內(nèi)容,提高用戶的自我保護意識;采取嚴(yán)格的數(shù)據(jù)保護措施,包括加密技術(shù)、匿名化處理和訪問控制,以防止數(shù)據(jù)泄露和濫用;建立健全內(nèi)容審核機制,對虛假信息等有害內(nèi)容進行監(jiān)控和處理;明確在數(shù)字陷阱發(fā)生時的責(zé)任歸屬,為用戶提供明確的投訴和申訴渠道;持續(xù)投入研發(fā),利用人工智能、機器學(xué)習(xí)等技術(shù)提升監(jiān)測和防御網(wǎng)絡(luò)威脅的能力;定期進行自我檢查和第三方審計,確保業(yè)務(wù)操作符合相關(guān)法律法規(guī)和標(biāo)準(zhǔn)。
概言之,解決前述具體問題離不開智能平臺企業(yè)的自治行為。應(yīng)當(dāng)要求智能平臺企業(yè)承擔(dān)解決生成式人工智能服務(wù)過程中具體問題的義務(wù),如果智能企業(yè)有能力解決而拒不履行義務(wù)繼而產(chǎn)生嚴(yán)重?fù)p害后果,智能企業(yè)應(yīng)當(dāng)承擔(dān)法律責(zé)任,嚴(yán)重者需要承擔(dān)不作為犯罪的刑事責(zé)任。
(三)合規(guī)效果監(jiān)管機制替代全流程行為約束模式
企業(yè)自治是防控風(fēng)險的第一道防線,而政府行政監(jiān)管是規(guī)避技術(shù)風(fēng)險的第二道防線。在動態(tài)規(guī)制下,政府部門應(yīng)將生成式人工智能技術(shù)帶來的具體問題先交給企業(yè)自治,政府只是把控宏觀行為和最終結(jié)果。政府傳統(tǒng)的行政監(jiān)管措施是全流程的行為約束機制,企業(yè)經(jīng)營的每一個行為都會受到政府監(jiān)管的約束,此種監(jiān)管機制可能不利于生成式人工智能企業(yè)釋放創(chuàng)新潛力。本文認(rèn)為,政府應(yīng)采納合規(guī)效果監(jiān)管機制,即政府原則上不再進行事前或事中監(jiān)管,而是在要求企業(yè)合規(guī)自治的基礎(chǔ)上考核企業(yè)合規(guī)效果,對于完成合規(guī)計劃的企業(yè)予以獎勵,對于未完成合規(guī)計劃或造成損害結(jié)果的企業(yè)予以懲罰。換言之,該機制是倒逼企業(yè)不斷完善合規(guī)建設(shè)的一種政府事后監(jiān)管機制。合規(guī)效果監(jiān)管機制的落實,需要企業(yè)和政府監(jiān)管部門協(xié)同完成。
其一,智能平臺企業(yè)應(yīng)當(dāng)提交符合自身實際情況的合規(guī)計劃。政府監(jiān)管部門下達的合規(guī)指標(biāo)是以企業(yè)合規(guī)計劃為基礎(chǔ),平臺企業(yè)在履行合規(guī)義務(wù)時,具有選擇合規(guī)計劃方案的自主權(quán),但不能提交對自身要求較低的合規(guī)計劃,這就要求政府對企業(yè)合規(guī)計劃方案進行審核。但政府最終想要獲得的是企業(yè)合規(guī)建設(shè)的效果,政府有權(quán)力對企業(yè)合規(guī)計劃進行調(diào)整,基于此下達相應(yīng)的合規(guī)指標(biāo)。智能平臺企業(yè)的合規(guī)計劃內(nèi)容的準(zhǔn)確度及完成度,將是其后續(xù)是否承擔(dān)法律責(zé)任和減免法律責(zé)任的重要依據(jù)。實際上,政府行政規(guī)制也是一種法律規(guī)制,但更多的是行政程序法律規(guī)制。
其二,政府監(jiān)管部門應(yīng)當(dāng)為智能平臺企業(yè)下達合規(guī)目標(biāo)。合規(guī)效果監(jiān)管機制需要政府以考核結(jié)果為基礎(chǔ),通過獎懲方式督促智能平臺企業(yè)主動完善和加強合規(guī)建設(shè),積極履行風(fēng)險防范義務(wù),約束和引導(dǎo)平臺用戶的行為。政府監(jiān)管考核的依據(jù)是事前為特定企業(yè)下達的合規(guī)目標(biāo),而合規(guī)目標(biāo)是政府在審核特定企業(yè)合規(guī)計劃的基礎(chǔ)上下達的指標(biāo)。換言之,政府先要求企業(yè)提交合規(guī)計劃,再立足特定企業(yè)的現(xiàn)實狀況,以合規(guī)計劃為藍(lán)本上調(diào)或下降特定企業(yè)的合規(guī)目標(biāo)。在考核期滿后如果企業(yè)完成了考核指標(biāo),政府適當(dāng)予以激勵;如果企業(yè)未完成考核指標(biāo),政府應(yīng)當(dāng)予以懲罰。由此可見,合規(guī)效果監(jiān)管機制是一種動態(tài)性監(jiān)管機制,并非統(tǒng)一化的監(jiān)管標(biāo)準(zhǔn),需要立足特定企業(yè)的實際情況為其量身打造合規(guī)指標(biāo)。面對生成式人工智能技術(shù)風(fēng)險,一名美國國會議員曾提出了一項不具有約束力的決議,呼吁建立一個靈活的政府機構(gòu)來監(jiān)督AI的發(fā)展以管理風(fēng)險,并確保AI的利益得到廣泛分配,設(shè)計足夠靈活的治理機制,以跟上不斷變化的技術(shù)。由此可知,合規(guī)效果監(jiān)管機制是當(dāng)前符合生成式人工智能技術(shù)發(fā)展需求的靈活性監(jiān)管機制。
其三,合規(guī)效果監(jiān)管機制包含風(fēng)險分類分級管理的內(nèi)容。政府監(jiān)管與法律規(guī)制的共同目標(biāo)是規(guī)避技術(shù)風(fēng)險、保護用戶數(shù)字權(quán)利和提高平臺的可信度。在探索人工智能大模型的潛力時,需要考慮其可能產(chǎn)生的影響,應(yīng)確保生成式人工智能的開發(fā)和使用有益于社會進步。生成式人工智能技術(shù)的監(jiān)管與其風(fēng)險類別難以分割,歐盟《人工智能法案》將人工智能技術(shù)風(fēng)險劃分為不同的級別,由高及低分別為不可接受的風(fēng)險、高風(fēng)險、中風(fēng)險以及低風(fēng)險。例如,歐盟《人工智能法案》第9條第8項規(guī)定,“對高風(fēng)險人工智能系統(tǒng)的測試應(yīng)酌情在整個開發(fā)過程的任何時候進行,無論如何應(yīng)在投放市場或提供服務(wù)之前進行。應(yīng)根據(jù)事先確定的指標(biāo)和概率閾值進行測試,這些指標(biāo)和閾值應(yīng)適合高風(fēng)險人工智能系統(tǒng)的預(yù)期目的”。歐盟對人工智能風(fēng)險的分級管理思維值得我國適度借鑒,即對于不同級別的風(fēng)險應(yīng)采用不同的監(jiān)管方案。對于存在高風(fēng)險的人工智能企業(yè),政府應(yīng)當(dāng)要求其提交更具體、更具有可操作性的合規(guī)方案,政府部門需要對該類企業(yè)進行不定期合規(guī)審計,審查合規(guī)計劃的一般特征、具體要素與基本功能,審查企業(yè)成員的具體行為。未來需要進一步統(tǒng)一平臺合規(guī)審計的國家標(biāo)準(zhǔn),避免政府監(jiān)管權(quán)力的過度干涉。對于存在中風(fēng)險和低風(fēng)險的人工智能企業(yè),政府可以采用相對寬松的監(jiān)管措施。
其四,政府部門可以建立評價等級以貫徹合規(guī)效果監(jiān)管機制。政府部門對不同智能平臺企業(yè)的合規(guī)完成程度進行考核后,應(yīng)當(dāng)基于具體的合規(guī)情況確定合規(guī)成績等級,具體應(yīng)當(dāng)包括優(yōu)秀、良好、合格、不合格等不同等級。對于合規(guī)考核成績?yōu)閮?yōu)秀和良好的企業(yè),給予一定的獎勵或優(yōu)惠待遇;對于合規(guī)考核為合格的企業(yè),要求其進一步落實合規(guī)計劃,督促其以更高標(biāo)準(zhǔn)來加強合規(guī)建設(shè);對績效考核為不合格的企業(yè),應(yīng)當(dāng)根據(jù)具體情況,采取責(zé)令其整改、約談負(fù)責(zé)人、給予行政處罰、要求退市等不同處置措施;如果構(gòu)成犯罪的,移交司法機關(guān)追究相關(guān)負(fù)責(zé)人和單位的刑事責(zé)任。
(四)軟法先行引領(lǐng)硬法完善
針對不斷迭代更新的生成式人工智能技術(shù)及其風(fēng)險,動態(tài)規(guī)制論強調(diào)通過軟法先行以進行試驗性探索,繼而再升級為硬法規(guī)制。軟法的優(yōu)勢在于動態(tài)性、互動性,而硬法具有強制性和固定性。通過軟法與硬法的分工協(xié)調(diào),可以逐步形塑相對完善的人工智能法律體系。
首先,軟法先行引領(lǐng)硬法完善是歐美關(guān)涉人工智能立法的基本共識。就歐盟來看,當(dāng)前關(guān)涉人工智能的立法主要是《一般數(shù)據(jù)保護條例》和《人工智能法案》。實際上,在正式的法律頒行之前,歐盟已進行多年的軟法規(guī)則探索。例如,歐盟《人工智能協(xié)調(diào)計劃》和《人工智能倫理準(zhǔn)則》較早確立了人工智能治理的四大倫理基石:尊重人類尊嚴(yán)、防止?jié)撛趥?、確保公平性和提升可解釋性。基于此,歐盟《一般數(shù)據(jù)保護條例》和《人工智能法案》確立了人工智能垂直治理架構(gòu),在數(shù)據(jù)保護和隱私等領(lǐng)域踐行嚴(yán)格治理,為人工智能系統(tǒng)的開發(fā)者和服務(wù)提供者制定了一系列明確的義務(wù)。就美國而言,已經(jīng)頒行《國家機器人計劃》和《國家人工智能研發(fā)戰(zhàn)略計劃》等軟法,美國的人工智能治理模式側(cè)重于創(chuàng)新引領(lǐng),著重維護和推動人工智能技術(shù)的創(chuàng)新發(fā)展,美國人工智能治理的架構(gòu)是分散治理。這些軟法中的規(guī)制理念,直接影響《加州消費者隱私法》(CCPA)和《弗吉尼亞州消費者數(shù)據(jù)保護法》(VCDPA)等法律的制定。盡管歐盟與美國針對人工智能治理分別采用嚴(yán)格模式和寬松模式,但二者共同采取了軟法影響硬法的法律完善路徑。
SHAPE \* MERGEFORMAT
其次,我國已踐行了人工智能治理的軟法先行模式。2024年2月29日,全國網(wǎng)絡(luò)安全標(biāo)準(zhǔn)化技術(shù)委員會發(fā)布《生成式人工智能服務(wù)安全基本要求》(以下簡稱《人工智能要求》),《人工智能要求》從語料安全要求、模型安全要求、安全措施要求、安全評估要求和其他要求等方面,為生成式人工智能技術(shù)的合規(guī)建設(shè)指明了方向。《人工智能要求》作為典型性軟法在《人工智能辦法》的基礎(chǔ)上,進一步細(xì)化了生成式人工智能技術(shù)的適用規(guī)則,成為探索我國系統(tǒng)性人工智能法的“試驗田”。通過軟法探索人工智能治理規(guī)則的方法實際上是“監(jiān)管沙盒”模式,“監(jiān)管沙盒”起源于英國金融領(lǐng)域,是指由公共機構(gòu)建立的受控環(huán)境,在新型人工智能系統(tǒng)投放市場或根據(jù)監(jiān)管部門監(jiān)督的具體計劃投入使用之前,在有限的時間內(nèi)為其安全開發(fā)、測試和驗證提供便利。歐盟《人工智能法案》第3條第(55)項規(guī)定,“人工智能監(jiān)管沙盒”是指由主管機關(guān)建立的一個具體和受控的框架,為人工智能系統(tǒng)的提供者或潛在提供者提供在監(jiān)管監(jiān)督下根據(jù)沙盒計劃在有限的時間內(nèi)開發(fā)、培訓(xùn)、驗證和測試創(chuàng)新人工智能系統(tǒng)的可能性。歐盟《人工智能法案》以專章形式為AI監(jiān)管沙盒設(shè)置了諸多具體規(guī)則,通過監(jiān)管沙盒探索生成式人工智能治理規(guī)則的創(chuàng)新方案,是建立敏捷性治理工具箱的必由之路,給新興技術(shù)的發(fā)展保留適度的試錯空間。雖然歐盟采用的相對嚴(yán)苛的監(jiān)管方案可能不符合我國的技術(shù)發(fā)展要求,但歐盟所采用的監(jiān)管沙盒探索規(guī)則的方案值得我國借鑒。“監(jiān)管沙盒”作為探索規(guī)制技術(shù)風(fēng)險的試驗性措施,應(yīng)當(dāng)被我國軟法認(rèn)可并采納,以利于通過包容審慎態(tài)度探索符合我國國情的監(jiān)管規(guī)則,繼而將相關(guān)規(guī)則升格為硬法。
最后,我國未來需要制定《人工智能法典》。歐盟《人工智能法案》作為人工智能領(lǐng)域第一部系統(tǒng)性法律,是軟法規(guī)則成熟后升格為硬法規(guī)范的表現(xiàn)。歐盟立法所確立的具體規(guī)則因過于嚴(yán)苛可能不符合我國技術(shù)發(fā)展需求,但歐盟立法經(jīng)驗也能給我國帶來一定的啟示。我國可以通過監(jiān)管沙盒的不斷探索,在已成熟的人工智能軟法規(guī)則的基礎(chǔ)上,制定我國的人工智能法。我國多個領(lǐng)域的法典化討論日趨深入,且已形成了步驟式的法典化經(jīng)驗?;诖耍磥砦覈梢灾贫ㄏ到y(tǒng)性的《人工智能法典》,完成人工智能領(lǐng)域的法典化工作。《人工智能法典》應(yīng)當(dāng)包含以下內(nèi)容:(1)設(shè)置權(quán)利義務(wù)規(guī)則。設(shè)置用戶的基本權(quán)益規(guī)則、智能服務(wù)平臺的義務(wù)規(guī)則和政府部門的監(jiān)管權(quán)限規(guī)則。(2)設(shè)置合規(guī)效果監(jiān)管機制。避免政府過度監(jiān)管,激勵智能平臺企業(yè)加強合規(guī)建設(shè)。(3)設(shè)置監(jiān)管沙盒規(guī)則。鼓勵通過監(jiān)管沙盒模式繼續(xù)探索新型規(guī)則,持續(xù)推動《人工智能法典》的完善。(4)設(shè)置組織機構(gòu)。一方面,要求政府部門設(shè)置監(jiān)管人工智能技術(shù)的專項部門;另一方面,要求智能平臺企業(yè)設(shè)置人工智能技術(shù)合規(guī)部門或合規(guī)專員,專項負(fù)責(zé)企業(yè)智能技術(shù)合規(guī)工作并與政府監(jiān)管部門對接。(5)設(shè)置層次遞進的法律責(zé)任體系。在民事責(zé)任方面,借鑒我國侵權(quán)責(zé)任法和消費者權(quán)益保護法律上的相關(guān)經(jīng)驗,完善民事責(zé)任追究制度,解決維權(quán)成本高和收益低的問題。在行政責(zé)任方面,對智能平臺企業(yè)未能履行合規(guī)義務(wù)的行為,按照情節(jié)輕重分別設(shè)置相應(yīng)的行政處罰規(guī)則。在刑事責(zé)任方面,可以在《人工智能法典》中為生成式人工智能平臺企業(yè)、用戶和第三方的不法行為設(shè)置特定的罪名與法定刑,使得《人工智能法典》成為真正意義上的附屬刑法。
結(jié) 語
生成式人工智能作為前沿技術(shù)已成為國際競爭的核心領(lǐng)域,各國紛紛推出自己的生成式人工智能服務(wù)產(chǎn)品,試圖搶占市場份額。美國基于其技術(shù)優(yōu)勢采用鼓勵創(chuàng)新的寬松監(jiān)管模式,歐盟基于其被動防御狀態(tài)而采用嚴(yán)苛監(jiān)管模式。而我國正處于生成式人工智能技術(shù)的突破階段,一方面需要積極鼓勵技術(shù)創(chuàng)新以打破域外的技術(shù)霸凌和技術(shù)封鎖,另一方面又要防御技術(shù)風(fēng)險和技術(shù)異化。這意味著我國不能直接移植歐美的監(jiān)管模式,而是需要在技術(shù)創(chuàng)新與風(fēng)險規(guī)避之間尋求平衡,如此才能走出生成式人工智能技術(shù)的科林格里奇困境。對此,我國應(yīng)當(dāng)采用動態(tài)化規(guī)制模式。首先,激活企業(yè)合規(guī)自治的功效以打造防范風(fēng)險的第一道防線;其次,政府監(jiān)管部門應(yīng)采用合規(guī)效果監(jiān)管機制替代傳統(tǒng)的全流程行為約束模式,賦予企業(yè)探索技術(shù)創(chuàng)新的充足空間與自由;最后,通過軟法的試驗性探索引領(lǐng)硬法的完善,最終塑造適應(yīng)時代發(fā)展和符合本土需求的《人工智能法典》。
原文刊載于《上海交通大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2024年第8期(第53-67頁),感謝微信公眾號“上海交通大學(xué)學(xué)報哲學(xué)社會科學(xué)版”授權(quán)轉(zhuǎn)載。