【作者】趙澤睿
【內(nèi)容提要】
人工智能立法的溝通認(rèn)知模型與程序治理思路
趙澤睿 上海交通大學(xué)中國法與社會研究院助理研究員,凱原法學(xué)院助理研究員
摘要:當(dāng)前人工智能治理的立法研究普遍存在著功能主義的認(rèn)知觀,即將人工智能理解為計算機(jī)對大腦功能結(jié)構(gòu)的模擬。此種認(rèn)知觀會誘使立法主體相信人工智能具有可計劃性的線性發(fā)展模式,能夠通過單一治理主體提出普適性、明確性、中立性的實體治理規(guī)則進(jìn)行集中規(guī)劃與監(jiān)管。這種實體主義治理的立法思路容易陷入安全與發(fā)展的二元對立困境。為了打破“一管就死,一放就亂”的立法悖論,立法主體需要從溝通視角重新認(rèn)知人工智能的技術(shù)原理與風(fēng)險復(fù)雜性,并圍繞其生命周期中的二階三類溝通環(huán)節(jié),制定統(tǒng)一的程序規(guī)則以保障風(fēng)險溝通的遞歸性與風(fēng)險決策權(quán)責(zé)利的對稱性,讓法律融入人工智能治理規(guī)則的動態(tài)生產(chǎn)過程,引導(dǎo)具體場景的利益相關(guān)者進(jìn)行多元、敏捷的價值衡量。
關(guān)鍵詞:人工智能立法;溝通;正當(dāng)程序;人機(jī)交互;風(fēng)險共擔(dān)
面對促進(jìn)人工智能發(fā)展以推動經(jīng)濟(jì)復(fù)蘇的機(jī)遇與保障人工智能安全以規(guī)避人類危機(jī)的挑戰(zhàn),法律作為國家治理風(fēng)險的重要手段,理應(yīng)為化解發(fā)展與安全的對立沖突、消除人機(jī)對抗的輿論氛圍、塑造人機(jī)共存的全新秩序提供治理框架與制度環(huán)境。我國于2023年7月頒布的全球首部人工智能法規(guī)——《生成式人工智能服務(wù)管理暫行辦法》在從征求意見稿到正式文件的立法過程中,便充分反映了人工智能治理所面臨的安全與發(fā)展的對立困境。學(xué)界與產(chǎn)業(yè)界對于該法規(guī)是否會阻礙我國生成式人工智能的發(fā)展進(jìn)行了激烈討論。歐盟于2024年率先發(fā)布了全球首部人工智能統(tǒng)一立法——《人工智能法》,其在立法過程中也因難以平衡人工智能治理中的安全與發(fā)展問題而受到社會各界的質(zhì)疑與批評。同時,我國也將《人工智能法》列入了立法工作計劃。如何在該項立法中提出化解安全與發(fā)展治理悖論的中國方案,自然就成為中國特色社會主義法治體系建設(shè)所面臨的時代挑戰(zhàn),也是我國在世界舞臺上爭奪國際話語權(quán)的時代機(jī)遇。
在此背景下,本文將圍繞“立法者該如何認(rèn)知人工智能”以及“人工智能立法該如何實現(xiàn)安全與發(fā)展相協(xié)調(diào)的治理目標(biāo)”兩個核心問題進(jìn)行討論。對此,本文的論述思路分為以下三步:第一,反思在人工智能立法層面引發(fā)安全與發(fā)展二元對立的功能認(rèn)知觀與實體主義治理理念;第二,基于現(xiàn)狀提出符合人工智能發(fā)展規(guī)律的溝通認(rèn)知模型與程序主義治理框架;第三,在溝通認(rèn)知模型與程序治理框架下推導(dǎo)出一套有利于扭轉(zhuǎn)人機(jī)對抗輿論氛圍、滿足多元性與敏捷性治理需求的人工智能立法思路。
一、功能主義認(rèn)知與實體主義治理引發(fā)的立法困境
在任何領(lǐng)域的治理與立法研究中,對治理對象的認(rèn)知同具體的治理思路一樣重要。這是因為,其不僅決定了治理法規(guī)的效力范圍,更決定了治理邏輯的前提與起點(diǎn)。但在主流的人工智能治理與立法討論中,存在著未經(jīng)審視地直接照搬技術(shù)專家用于公眾科普的功能主義描述,這些描述將人工智能概括為一種計算機(jī)對人類大腦的功能結(jié)構(gòu)仿制,會誘導(dǎo)立法主體認(rèn)為人工智能的技術(shù)發(fā)展是目標(biāo)既定的線性模式,并產(chǎn)生一種人工智能能夠被統(tǒng)一規(guī)劃與集中監(jiān)管的自負(fù)。在此種自負(fù)下,法律僅僅是確認(rèn)實體性治理規(guī)則的權(quán)威發(fā)布工具,而未實質(zhì)性地參與治理規(guī)則的生產(chǎn)過程,進(jìn)而讓人工智能立法在多個維度出現(xiàn)安全與發(fā)展的二元對立悖論。
(一)人工智能的定義及其引發(fā)的功能認(rèn)知觀
人工智能概念所指涉的具體內(nèi)容會隨著技術(shù)發(fā)展而動態(tài)變化。斯坦福大學(xué)的研究報告顯示,人工智能的概念本身就是跟隨技術(shù)進(jìn)步而不斷革新的,每當(dāng)一種新的模擬人類智能的計算機(jī)技術(shù)完全融入日常生活之中,被社會公眾習(xí)以為常且形成穩(wěn)定的、共識性的、用于評價決策合理性的社會規(guī)范后,它便會脫離人工智能的含義范圍,然后,會有全新的、尚未有明確社會規(guī)范來評價其研發(fā)與應(yīng)用決策的、模擬人類智能的計算機(jī)技術(shù)出現(xiàn),并融入人工智能的范疇之內(nèi)。這種吐故納新的動態(tài)更迭過程會持續(xù)發(fā)生。因此,“人工智能作為一個描述性概念,其所指對象通常是眾所周知的,但卻是不可能被準(zhǔn)確定義的。這個名詞意群代表著一個不斷變動的范疇,它既是能指,也是所指,難以定義。其概念的出現(xiàn)與其說是基于科學(xué),不如說是基于戰(zhàn)略,它所依據(jù)的是一種對學(xué)科標(biāo)簽化的邏輯”。
為了應(yīng)對人工智能概念的動態(tài)發(fā)展,主流的觀點(diǎn)傾向于將其相對固定的功能目標(biāo)——模擬人類主體性作為其定義基礎(chǔ),如“人工智能就是與人類思考方式相似的計算機(jī)程序?”或“人工智能就是模仿人類學(xué)習(xí)的計算機(jī)程序”等。根據(jù)維基百科所引用的斯圖亞特·羅素和彼得·諾維格對人工智能的定義,人工智能是指“智能主體的研究與設(shè)計”,而“智能主體是指一個可以觀察周遭環(huán)境并作出行動以達(dá)致目標(biāo)的系統(tǒng)”。因此,如何用計算機(jī)模擬人類主體的環(huán)境感知、思考決策和執(zhí)行指令成為人工智能技術(shù)研發(fā)的核心問題。在主流觀點(diǎn)的影響下,當(dāng)前法律對人工智能的定義也是圍繞其功能目標(biāo)——“模擬人類主體性”與技術(shù)手段——“機(jī)器學(xué)習(xí)”展開的。例如,我國電子技術(shù)標(biāo)準(zhǔn)化研究院發(fā)布的《人工智能標(biāo)準(zhǔn)化白皮書》將其定義為“用數(shù)字計算機(jī)模擬、延伸和擴(kuò)展人的智能的系統(tǒng)”?!渡钲谌斯ぶ悄軛l例》與《上海人工智能條例》將其定義為“利用計算機(jī)或者其控制的設(shè)備/機(jī)器模擬、延伸或者擴(kuò)展人類行為的系統(tǒng)”。英國司法部門發(fā)布的《人工智能司法使用指南》將其定義為“能夠執(zhí)行通常需要人類智能的任務(wù)的計算機(jī)系統(tǒng)”。美國和歐盟則是采取了以機(jī)器學(xué)習(xí)為核心的技術(shù)清單形式進(jìn)行定義,如美國的《推進(jìn)美國人工智能法案》將人工智能定義為:“全部或部分使用動態(tài)或靜態(tài)機(jī)器學(xué)習(xí)算法或其他形式的人工智能運(yùn)行的任何數(shù)據(jù)系統(tǒng)、軟件、應(yīng)用程序、工具或?qū)嵱贸绦颉!睔W盟的《人工智能法案》則是沿用經(jīng)合組織已經(jīng)使用的、更寬泛的定義,并在附件1中列出了其認(rèn)定為人工智能的技術(shù)清單,包括“機(jī)器學(xué)習(xí)”“基于邏輯和知識的系統(tǒng)”等。
上述的法律定義方式很容易給人工智能的治理與立法主體一種功能主義的認(rèn)知誤解,即將人類的學(xué)習(xí)能力獨(dú)立歸因于大腦天生的、客觀確定的功能結(jié)構(gòu),并將以機(jī)器學(xué)習(xí)為核心的人工智能理解為對這個客觀、確定的功能結(jié)構(gòu)的簡單仿制。例如,有語言學(xué)家曾提出:“我們生下來就具備理解語言的學(xué)習(xí)能力,即人類個體天生自帶的通用語法?!睙o獨(dú)有偶,也有人工智能學(xué)家主張通過對人類大腦結(jié)構(gòu)的完美模擬來實現(xiàn)“終極算法”的理念,他們認(rèn)為一定存在著某種通用學(xué)習(xí)算法或模型,能讓計算機(jī)像人類個體一樣進(jìn)行知識學(xué)習(xí)與創(chuàng)造。在此種認(rèn)知下,立法主體會被誘導(dǎo)認(rèn)為人工智能的發(fā)展具有終點(diǎn)明確的線性模式,即計算機(jī)從對人類大腦結(jié)構(gòu)的部分模擬到完全模擬的線性發(fā)展模式,或者所謂的從弱人工智能到強(qiáng)人工智能的線性發(fā)展路線,其會從部分場景對人類主體性的替代發(fā)展為所有場景對人類主體性的替代,一些學(xué)者將其稱為人工智能的“擬主體性”。此時,人工智能的治理與立法就被放入一個預(yù)設(shè)的、非此即彼的替代性競爭語境下,此種功能認(rèn)知觀引發(fā)的人機(jī)對立成為人工智能治理與立法的邏輯起點(diǎn)。
(二)功能認(rèn)知觀引發(fā)的實體主義治理與立法思路
需要注意的是,這種功能認(rèn)知觀很容易讓人工智能的治理產(chǎn)生四種未經(jīng)審視的盲目自信:一是使治理主體盲目相信人工智能的技術(shù)研發(fā)與社會應(yīng)用具有明確、可預(yù)期的線性發(fā)展模式,進(jìn)而堅信人工智能的發(fā)展可以被集中管理和規(guī)劃;二是使治理主體盲目相信人工智能的發(fā)展是一種對客觀結(jié)構(gòu)的發(fā)現(xiàn)與模擬,存在價值中立性,進(jìn)而忽視了政府或企業(yè)在研發(fā)與應(yīng)用過程中利用人工智能擴(kuò)張或創(chuàng)造權(quán)力的貪婪;三是使治理主體盲目相信政府或企業(yè)中的少數(shù)知識精英能夠發(fā)現(xiàn)人工智能發(fā)展與治理中的絕對真理,并據(jù)此提出普適性的研發(fā)標(biāo)準(zhǔn)與應(yīng)用模式作為實體性治理規(guī)則;四是使治理主體盲目相信人工智能治理規(guī)則的產(chǎn)生是一種追求客觀真理而無需法律干預(yù)或介入的探索過程,此時法律的功能僅僅在于為最后由少數(shù)知識精英發(fā)現(xiàn)的實體性治理規(guī)則提供權(quán)威發(fā)布平臺與強(qiáng)制執(zhí)行保障。
在上述四種盲目自信誘導(dǎo)下產(chǎn)生的實體主義治理思路會讓人工智能立法出現(xiàn)如下四項基本特征:一是立法的對象原子化,即將孤立的人工智能系統(tǒng)作為法律的規(guī)制對象,如試圖將人工智能系統(tǒng)擬制為獨(dú)立的法律主體,討論其獨(dú)立的法律人格,或?qū)⑷斯ぶ悄墚?dāng)作孤立的產(chǎn)品來提出生產(chǎn)標(biāo)準(zhǔn)并施加產(chǎn)品責(zé)任;二是立法的主體一元化,即授權(quán)某一政府機(jī)構(gòu)或行業(yè)企業(yè)全面負(fù)責(zé)或主導(dǎo)治理規(guī)則的制定,不同治理主體的差異性治理方案將形成非此即彼的對立性競爭關(guān)系;三是立法的規(guī)則普適性,即試圖通過具體且各場景普遍適用的實體法來構(gòu)建一套通用性、完備性、穩(wěn)定性的人工智能治理規(guī)則集合;四是立法成為治理的最后環(huán)節(jié),即法律僅是治理主體確保其治理觀念得以被貫徹落實的手段,在順序上,先由特定主體制定普適性治理方案,后由法律在治理的最后環(huán)節(jié)進(jìn)行權(quán)威發(fā)布與強(qiáng)制執(zhí)行,這顛倒了依法治理的因果關(guān)系,法律此時并未參與治理規(guī)則的生產(chǎn)過程。
這種實體主義的治理思路在當(dāng)下的立法實踐中有如下幾個層面的體現(xiàn)。在人工智能倫理層面,實體主義治理導(dǎo)致人工智能立法將倫理與道德相混淆,其把人工智能倫理誤解為應(yīng)當(dāng)內(nèi)嵌于人工智能系統(tǒng)的實體性價值標(biāo)準(zhǔn),并試圖在全球范圍內(nèi)提出人工智能系統(tǒng)所應(yīng)獨(dú)立具備的普適性道德規(guī)范。在數(shù)據(jù)治理層面,實體主義治理認(rèn)為數(shù)據(jù)以及承載于數(shù)據(jù)之上的信息具有客觀穩(wěn)定性,即數(shù)據(jù)的信息是獨(dú)立的,其價值與意義不依賴于輸出者與接受者。個人信息與數(shù)據(jù)就成了一種客觀物,可以完全脫離信息接收者與數(shù)據(jù)處理者而進(jìn)行確權(quán)與定價。這種實體主義的數(shù)據(jù)治理思路在立法中體現(xiàn)為圍繞個人信息與數(shù)據(jù)的所有者設(shè)立靜態(tài)、排他性、實體性的權(quán)利義務(wù),以此保護(hù)原子化個體在其數(shù)據(jù)中的人格與財產(chǎn)權(quán)益。在算法治理層面,實體主義治理認(rèn)為算法風(fēng)險根源于算法的代碼設(shè)計,存在著一條能明確衡量算法設(shè)計是否公正的實體性界限與標(biāo)準(zhǔn)。因此,當(dāng)前的算法治理與立法研究主要通過設(shè)立算法解釋權(quán)、排他權(quán)等實體性權(quán)利,以及對算法研發(fā)進(jìn)行數(shù)據(jù)控制與備案審查來限制算法權(quán)力,實現(xiàn)算法透明,消除算法歧視。
(三)實體主義治理思路引發(fā)的人工智能立法悖論
在實體主義的治理思路下,人工智能立法容易陷入安全與發(fā)展的二元對立爭論之中,即“對人工智能進(jìn)行治理以保障安全”(Governance of AI)和“為人工智能進(jìn)行治理以促進(jìn)發(fā)展”(Governance for AI)之間的沖突。因為在功能主義認(rèn)知誘發(fā)的人機(jī)對抗語境下,提倡以人工智能引領(lǐng)經(jīng)濟(jì)復(fù)蘇的群體會強(qiáng)調(diào)人工智能的發(fā)展可以在多大程度上代替人類進(jìn)而提高生產(chǎn)力,而主張保障人工智能安全的群體會以人權(quán)為旗幟抵制人工智能對人類的主體性替代,二者之間的主張無法共存。縱使各國不斷強(qiáng)調(diào)要平衡人工智能安全與發(fā)展,但實體主義的治理與立法思路很容易滑向過強(qiáng)監(jiān)管而形成安全冗余,或是滑向自由放任而引發(fā)各類風(fēng)險,進(jìn)而陷入“一放就亂,一管就死”的治理悖論。進(jìn)一步說,由于實體主義治理以政府或企業(yè)為單一治理主體、以孤立的人工智能系統(tǒng)為治理對象、以普適性和明確性的權(quán)力責(zé)任或權(quán)利義務(wù)關(guān)系為治理手段,導(dǎo)致各國多樣化的治理目標(biāo)落實到立法層面,就體現(xiàn)為政府集中監(jiān)管與市場行業(yè)自治之間的對抗性強(qiáng)弱差異。強(qiáng)調(diào)發(fā)展的人工智能治理,立法以鼓勵數(shù)據(jù)自由流動、推動算法開源創(chuàng)新為主,鼓勵企業(yè)自治,風(fēng)險治理側(cè)重于信息披露與事后追責(zé)。而強(qiáng)調(diào)安全的人工智能治理,立法會明確授予政府以廣泛的監(jiān)管權(quán)力,并根據(jù)政府統(tǒng)一制定的研發(fā)與應(yīng)用規(guī)則設(shè)計相應(yīng)的問責(zé)體系,風(fēng)險治理側(cè)重于等級劃分與事前監(jiān)管。此時,人工智能技術(shù)的動態(tài)發(fā)展性、應(yīng)用的場景多樣性與各國國情和戰(zhàn)略的差異性,讓價值多元化的治理主體間無法達(dá)成共識。此種實體
主義治理所引發(fā)的立法悖論——安全與發(fā)展的二元對立,在當(dāng)前的全球立法實踐中已表現(xiàn)為三個層面的立法失衡。
圖 SEQ 圖 \* ARABIC 1 人工智能的立法框架
第一個層面的立法失衡體現(xiàn)為專項性立法的日益繁雜與綜合性立法的進(jìn)展遲緩。按照人工智能立法框架的功能分工(圖1),綜合性立法作為貫徹落實國家戰(zhàn)略與治理原則的統(tǒng)籌落地機(jī)制,需要明確治理原則的內(nèi)涵、基本權(quán)利與義務(wù)、風(fēng)險管理制度和權(quán)責(zé)分配方式等,并據(jù)此統(tǒng)合分散且冗雜的專項性立法,為未來新型應(yīng)用場景的專項性立法提供指引。由于人工智能技術(shù)研發(fā)的日新月異與社會應(yīng)用的場景多樣性,導(dǎo)致側(cè)重結(jié)果端、強(qiáng)調(diào)一元性、追求普適性的實體主義治理與立法很難跟上人工智能技術(shù)的快速迭代,難以統(tǒng)一不同應(yīng)用場景中的多樣性、碎片化治理需求,進(jìn)而引發(fā)各界對綜合性立法會阻礙人工智能發(fā)展且難以有效執(zhí)行的擔(dān)憂。面對人工智能綜合性立法可能引發(fā)的發(fā)展障礙,大多數(shù)國家只能在明知面臨巨大風(fēng)險的同時選擇暫不進(jìn)行綜合性立法。
歐盟的《人工智能法》在篳路維艱的立法過程中所受到的質(zhì)疑與批評便是最好的典例。在2023年歐洲議會剛公布通過的立法草案后,有150多個歐洲科技企業(yè)聯(lián)名發(fā)布了公開抵制信,公開信主要對歐盟《人工智能法》提出了兩點(diǎn)批評:一是其監(jiān)管機(jī)制太嚴(yán)會嚴(yán)重扼殺創(chuàng)新空間,拖累歐盟的人工智能發(fā)展;二是其監(jiān)管機(jī)制缺少行業(yè)參與的渠道,容易形成政府獨(dú)斷。此外,對于如何執(zhí)行歐盟《人工智能法》所強(qiáng)調(diào)的風(fēng)險分類,缺少符合應(yīng)用實踐需求的界分機(jī)制。歐洲理事會與歐洲議會也對此存在較大爭論,歐洲理事會更傾向限縮第一類“不可接受風(fēng)險的人工智能”禁止清單的認(rèn)定范圍,但歐洲議會主張制定更廣泛的第一類禁止清單,如凡是從網(wǎng)絡(luò)上抓取面部圖像的軟件均應(yīng)當(dāng)列入第一類禁止清單中。相關(guān)研究表明,“歐盟《人工智能法》的實施將會吞噬人工智能投資的17%,嚴(yán)重阻礙歐盟的數(shù)字化進(jìn)程”。因此,實體主義治理立法所試圖明確預(yù)設(shè)的風(fēng)險等級劃分對于在技術(shù)與應(yīng)用兩個層面均具備不確定性的人工智能而言,并不能起到良好的綜合性治理效果,尤其是由政府一家獨(dú)斷的風(fēng)險等級劃分標(biāo)準(zhǔn)會因為錯判或誤解而嚴(yán)重阻礙人工智能的發(fā)展。
第二個層面的立法失衡體現(xiàn)在維護(hù)國家主權(quán)的數(shù)據(jù)安全保障立法高歌猛進(jìn)與充滿不確定性的算法治理立法停滯不前。相比于每個國家均已頒布出臺各自的數(shù)據(jù)治理相關(guān)立法,算法治理立法大多停留在草案階段,甚至大多數(shù)國家暫無算法治理的立法計劃。在人工智能立法的結(jié)構(gòu)框架中,算法治理立法與數(shù)據(jù)治理立法同為基于構(gòu)成要素的綜合性立法,需要協(xié)同配合才能有效地實現(xiàn)人工智能的治理目標(biāo)。但當(dāng)前算法治理立法的停滯不前導(dǎo)致人工智能統(tǒng)一立法的體系性構(gòu)想缺乏重要的落腳點(diǎn),數(shù)據(jù)治理立法缺少協(xié)同機(jī)制,專項性立法缺乏上位法依據(jù),進(jìn)而使政府的監(jiān)管問責(zé)缺乏依據(jù)與指引,企業(yè)的研發(fā)應(yīng)用缺乏可預(yù)期性,公眾對算法的廣泛應(yīng)用充滿擔(dān)憂與恐懼。
以美國近幾年一直嘗試推進(jìn)的算法治理立法為例。美國紐約市于2017年嘗試通過地方立法推動以透明度為基礎(chǔ)的算法治理,在立法案中提出了嚴(yán)格的算法公開制度。立法案甚至針對政府機(jī)構(gòu)用于公共服務(wù)或行政處罰的所有算法設(shè)置了源代碼強(qiáng)制性披露的義務(wù)條款。然而,紐約市這一立法案因過于嚴(yán)苛而被質(zhì)疑無法起到預(yù)期治理效果,且會阻礙算法創(chuàng)新而未能通過。當(dāng)然,聯(lián)邦層面也進(jìn)行了嘗試,2019年美國國會制定了《算法問責(zé)法案》(草案),授予聯(lián)邦貿(mào)易委員會針對算法的監(jiān)管權(quán)力,并設(shè)立算法使用主體對高風(fēng)險系統(tǒng)的影響評估義務(wù)與算法改進(jìn)報告披露義務(wù)。此后,美國國會在此草案基礎(chǔ)上又公布了《2022年算法問責(zé)法案》(草案),重新構(gòu)建算法影響評估與算法透明規(guī)則,并設(shè)立專門用于算法規(guī)制的“公共存儲庫”,否定算法使用企業(yè)以技術(shù)中立和價值無涉為由的免責(zé)主張。同時,美國國會還于2021年制定了《算法正義與在線平臺透明度法案》(草案),通過創(chuàng)設(shè)強(qiáng)制性披露義務(wù),加強(qiáng)對在線平臺運(yùn)營者的算法使用監(jiān)管。但這些法案均因侵權(quán)責(zé)任的因果關(guān)系認(rèn)定困難、治理手段阻礙算法創(chuàng)新、算法評估缺乏合理標(biāo)準(zhǔn)與流程等問題而遲遲未能通過,導(dǎo)致算法治理立法停滯。
第三個層面的立法失衡體現(xiàn)在阻礙數(shù)據(jù)流動利用的數(shù)據(jù)安全立法過多而促進(jìn)數(shù)據(jù)要素流通利用的立法較少。雖然世界各國均在數(shù)據(jù)治理立法方面已有相關(guān)實踐,但大多是圍繞數(shù)據(jù)安全與個人信息保護(hù)展開的立法,缺乏推動人工智能發(fā)展的數(shù)據(jù)開放共享立法。歐盟的《通用數(shù)據(jù)保護(hù)條例》是全球最早針對個人信息權(quán)利保護(hù)展開的體系性立法,其雖借助布魯塞爾效應(yīng)奪得了個人信息治理的國際話語權(quán),但卻阻礙了歐盟的數(shù)字經(jīng)濟(jì)發(fā)展。例如,《通用數(shù)據(jù)保護(hù)條例》中雖然賦予政府以監(jiān)管數(shù)據(jù)利用的職權(quán),但其嚴(yán)重阻礙了個人數(shù)據(jù)在歐盟市場的流動利用。根據(jù)美國數(shù)據(jù)創(chuàng)新中心在2018年發(fā)布的《歐盟新數(shù)據(jù)保護(hù)條例對人工智能的影響》報告,《通用數(shù)據(jù)保護(hù)條例》的出臺與實施對歐盟乃至全球的人工智能產(chǎn)生了負(fù)面影響。例如,《通用數(shù)據(jù)保護(hù)條例》第22條規(guī)定的數(shù)據(jù)控制者應(yīng)對特定自動化決策加以人工干預(yù)和解釋的義務(wù),這對于深度學(xué)習(xí)算法而言是難以實現(xiàn)的要求。再如,《通用數(shù)據(jù)保護(hù)條例》所創(chuàng)設(shè)的“被遺忘權(quán)”將會破壞人工智能系統(tǒng)的完整性。2019年5月,美國數(shù)據(jù)創(chuàng)新中心再次發(fā)布研究報告,認(rèn)為《通用數(shù)據(jù)保護(hù)條例》阻礙了歐洲的人工智能研發(fā)與應(yīng)用,并未實現(xiàn)其以爭奪數(shù)據(jù)治理話語權(quán)來刺激數(shù)據(jù)市場的立法目標(biāo)與愿景,反而使其處于全球數(shù)字經(jīng)濟(jì)競爭中的劣勢地位。
為了避免錯過人工智能引領(lǐng)的數(shù)字革命,歐盟已率先開始對實體主義治理的立法思路及其引發(fā)的立法失衡現(xiàn)象進(jìn)行反思與改善,中國也在發(fā)布推動數(shù)據(jù)要素流通與保障人工智能發(fā)展的相關(guān)立法草案與計劃,但要完全消除實體主義治理引發(fā)的立法悖論,各國立法主體不得不重新回到對人工智能的正確認(rèn)知之上。
二、人工智能立法的溝通主義認(rèn)知模型
功能主義認(rèn)知已經(jīng)在技術(shù)界遭受了諸多批判。深度學(xué)習(xí)“三巨頭”之一的揚(yáng)·勒丘恩便公開澄清過:“我最不喜歡的描述是‘它像大腦一樣工作’,我不喜歡人們這樣說的原因是,雖然深度學(xué)習(xí)從生命的生物機(jī)理中獲得靈感,但它與大腦的實際工作原理差別非常巨大?!眹鴥?nèi)著名機(jī)器學(xué)習(xí)專家、南京大學(xué)周志華教授也表示:“現(xiàn)在許多媒體,常說深度學(xué)習(xí)是模擬人腦,其實這個說法不太對。我們可以說從最早的神經(jīng)網(wǎng)絡(luò)受到一點(diǎn)點(diǎn)啟發(fā),但完全不能說是‘模擬人腦’?!蹦敲戳⒎ㄖ黧w該如何正確認(rèn)知人工智能呢?
本文提出一套聚焦于人機(jī)交互的溝通主義認(rèn)知模型,在溝通主義認(rèn)知模型視角下,人工智能是一種用計算機(jī)模擬特定場景下的群體溝通網(wǎng)絡(luò)來實現(xiàn)智能目標(biāo)的遞歸式人工溝通系統(tǒng)。不同于將人工智能理解為一種依靠模擬人類大腦的客觀結(jié)構(gòu)進(jìn)而可預(yù)測、可規(guī)劃其發(fā)展路線的功能主義認(rèn)知,溝通主義認(rèn)知強(qiáng)調(diào)了人工智能在技術(shù)研發(fā)與社會應(yīng)用過程中所面臨的不確定性,并將人工智能治理與立法的焦點(diǎn)從孤立的人工智能系統(tǒng)轉(zhuǎn)變?yōu)槿藱C(jī)交互的溝通秩序。
(一)溝通網(wǎng)絡(luò)視角下的人工智能技術(shù)原理
人類在克服復(fù)雜環(huán)境中的不確定性時,主要依賴于群體的溝通網(wǎng)絡(luò)而非個體的大腦結(jié)構(gòu)。人類群體在不斷溝通交流中基于重復(fù)、差異與選擇三項核心操作而形成一種遞歸式的溝通網(wǎng)絡(luò),并據(jù)此不斷從復(fù)雜環(huán)境中的不確定性信息中提取合目的性的結(jié)構(gòu)指令。而遞歸恰恰也是圖靈計算的核心邏輯,其基本思路是通過重復(fù)性地在合理差異中進(jìn)行選擇,以此搭建出逼近特定目標(biāo)的階梯。人工智能的機(jī)器學(xué)習(xí)算法正是模擬遞歸式的溝通網(wǎng)絡(luò)來實現(xiàn)其特定智能目標(biāo),通過形式的重復(fù)、內(nèi)容的差異與結(jié)構(gòu)的選擇,不斷從人機(jī)交互所得的不確定性數(shù)據(jù)中提取合目的性結(jié)構(gòu)來迭代其算法。據(jù)此,人工智能才能在多種場景的不確定性環(huán)境中通過大量數(shù)據(jù)的開發(fā)利用來提取運(yùn)用其中的知識并進(jìn)行創(chuàng)造性的人機(jī)交互。
因此,以機(jī)器學(xué)習(xí)為代表的人工智能并非對人類大腦的功能結(jié)構(gòu)仿制,而是模擬人類群體從復(fù)雜環(huán)境中提取合目的性信息的溝通網(wǎng)絡(luò)。我們對大腦的認(rèn)知遠(yuǎn)遠(yuǎn)不足以復(fù)制它的復(fù)雜性,尤其是將人工智能簡單等同于人工的大腦結(jié)構(gòu),就容易忽視基于人際溝通的學(xué)習(xí)過程中所具有的協(xié)變性和內(nèi)蘊(yùn)性,單純讓學(xué)習(xí)成為一個獨(dú)立、客觀結(jié)構(gòu)所具備的功能,這很難揭示機(jī)器學(xué)習(xí)的本質(zhì)。對此,已有學(xué)者從人工智能的數(shù)學(xué)本質(zhì)角度,論證了人工智能并非人工生命,更不是模擬人類大腦所創(chuàng)造出的人工意識,其模擬呈現(xiàn)出的人類智能在本質(zhì)上是一種語言現(xiàn)象。因此,法律認(rèn)知人工智能,完全可以避開大腦功能結(jié)構(gòu)所產(chǎn)生的意識與主體性問題,就像圖靈在研究可計算性問題時完全避開了生命和意識一樣。埃琳娜·埃斯波西托從社會學(xué)的角度主張:“我們應(yīng)當(dāng)將以機(jī)器學(xué)習(xí)為代表的人工智能更加精準(zhǔn)地描述為‘人工溝通’而非‘人工智能’,以避免誤解?!痹诖藴贤ㄒ暯窍?,當(dāng)代人工智能區(qū)別于傳統(tǒng)專家系統(tǒng)的成功關(guān)鍵在于能夠通過特定場景的人機(jī)交互,自主產(chǎn)生該場景所需要的、未經(jīng)預(yù)設(shè)輸入的信息,就如盧曼所主張的:“溝通不是在某人說了什么時發(fā)生,而是當(dāng)某人理解對方說了什么時發(fā)生。”
機(jī)器學(xué)習(xí)之所以成為當(dāng)代人工智能的核心,是因為其成功模擬了人類群體在溝通過程中產(chǎn)生的偶聯(lián)性,即機(jī)器學(xué)習(xí)的虛擬偶聯(lián)性,“偶聯(lián)性意味著選擇和不確定性”。這種模擬群體溝通產(chǎn)生的虛擬偶聯(lián)性,使得機(jī)器能在受到控制的情況下創(chuàng)造不可預(yù)測的算法來創(chuàng)造新的信息,進(jìn)而能讓機(jī)器在人機(jī)交互的過程中形成一個可控但卻不可預(yù)測的動態(tài)網(wǎng)絡(luò),以此來不斷輸出人類可理解但卻有創(chuàng)新性的信息。此時,信息是一種通過溝通的相互作用來進(jìn)行符號結(jié)構(gòu)化與意義化的結(jié)果,而不是某種獨(dú)立存在的客觀物。數(shù)據(jù)作為承載信息的載體,自然就會影響信息的生成過程,而不僅僅是運(yùn)輸信息流動、但對信息毫無影響的工具。在將人工智能理解為一種人工溝通后,對個人信息與數(shù)據(jù)的理解也就必須落腳于溝通的相互作用之中,強(qiáng)調(diào)信息的相對性與數(shù)據(jù)的流動性。我國擱置數(shù)據(jù)所有權(quán)、強(qiáng)調(diào)數(shù)據(jù)使用權(quán)的“數(shù)據(jù)二十條”也就具有了理論基礎(chǔ)。
機(jī)器學(xué)習(xí)是如何具體實現(xiàn)虛擬偶聯(lián)性的?其關(guān)鍵在于模擬群體溝通網(wǎng)絡(luò)的遞歸性。在計算機(jī)工程的視角下,機(jī)器學(xué)習(xí)的核心理念是一種“遞歸”的思路,即利用一種循環(huán)形式將一個復(fù)雜的現(xiàn)象或過程還原成幾行代碼。這種遞歸的理念將復(fù)雜環(huán)境中的偶然性納入循環(huán)計算的邏輯結(jié)構(gòu)之中,通過重復(fù)機(jī)制、差異制造和合目的性選擇三個核心步驟,實現(xiàn)了理性邏輯與實踐經(jīng)驗的統(tǒng)一。為了更深入地解析機(jī)器學(xué)習(xí)是如何模擬人類群體中的遞歸式溝通,本文將遞歸式溝通拆解為三項核心要素:基于迭代循環(huán)的重復(fù)、基于不確定性的差異、基于溝通場景需求的選擇(圖2)。
圖 SEQ 圖 \* ARABIC 2 遞歸式溝通的邏輯簡化圖
需要注意的是,遞歸式溝通模型中的具體算法F(x)可以隨場景需求或時間迭代而呈現(xiàn)出多樣、動態(tài)的結(jié)構(gòu),但其遞歸的底層邏輯是固定的,由此才能保證機(jī)器學(xué)習(xí)(或者說人類的群體溝通)既是偶聯(lián)的(多元不確定的),又是可控的。在此,本文將以較為基礎(chǔ)的計算機(jī)“最多1問題”與較為前沿的ANN圖像識別(人工視覺神經(jīng)網(wǎng)絡(luò))兩個例子來進(jìn)一步闡述這種遞歸式溝通的運(yùn)作邏輯。
計算機(jī)的“最多1問題”是指如何讓計算機(jī)在由1和0組成的大量任意序列中找到或生成全是1的序列。這個問題對于理解0與1之間區(qū)別的人類來說極其簡單,但計算機(jī)是要在不理解0與1區(qū)別的前提下解決問題。這個問題也蘊(yùn)含了人工智能技術(shù)研發(fā)所面臨的核心困境,即如何讓計算機(jī)不理解場景信息內(nèi)容的前提下,在大量數(shù)據(jù)中找到最符合特定目的需求的信息內(nèi)容結(jié)構(gòu),并提煉或改進(jìn)成能重復(fù)實現(xiàn)目的需求的指令結(jié)構(gòu)。只是計算機(jī)的“最多1問題”將多元應(yīng)用場景中復(fù)雜多樣的信息內(nèi)容結(jié)構(gòu)替換成由隨機(jī)0與1組成的字符串,簡化了人工智能實現(xiàn)智能主體目標(biāo)時所面臨的技術(shù)困境。在不借用遞歸邏輯的情況下,解決計算機(jī)的“最多1問題”需要通過編程讓計算機(jī)隨機(jī)生成0和1的字符串,直到出現(xiàn)一個字符串的所有位加起來等于這個字符串得到長度?!耙蕾囘@個方法生成一個由一千位1組成的字符串,需要大概生成10300個不同的字符串,在當(dāng)前人類已知的遠(yuǎn)少于10100年只有1080個原子(這個數(shù)量限制了運(yùn)算這個問題的計算機(jī)的數(shù)量)的宇宙中,這件事根本不可能做到”,這意味著讓計算機(jī)依靠預(yù)先設(shè)定的指令去隨機(jī)生成大規(guī)模信息,并在大量信息中逐個尋找特定的合目的性信息所需的計算量已超出人類資源的極限。然而,換一個計算策略,以遞歸的邏輯去解答“最多1問題”,一臺普通家用計算機(jī)幾分鐘就能輕易解決這個看似困難的問題。其基本步驟便是重復(fù)、差異與選擇(圖3)。
圖 SEQ 圖 \* ARABIC 3 計算機(jī)“最多1問題”的遞歸算法
在闡述了計算機(jī)的“最多1問題”后,機(jī)器學(xué)習(xí)如何讓計算機(jī)在不理解數(shù)據(jù)中信息內(nèi)容的前提下輸出人類所需要信息的底層技術(shù)原理就很好理解了。在此,本文再以人工神經(jīng)網(wǎng)絡(luò)(ANN)技術(shù)如何模擬人類群體溝通對圖像信息的概念化提取過程為例。這種ANN技術(shù)的訓(xùn)練過程包括:設(shè)計一個作為初始輸入F(0)的識別網(wǎng)絡(luò)結(jié)構(gòu),對這個識別網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行微調(diào)、輸入差異化的大量圖像進(jìn)行識別,重復(fù)這個微調(diào)、識別的過程,直到這個網(wǎng)絡(luò)結(jié)構(gòu)對特定概念的圖像識別準(zhǔn)確率達(dá)到預(yù)設(shè)值時停止。這種圖像識別訓(xùn)練過程與“最多1問題”的唯一不同就是F(x)的結(jié)構(gòu)?!白疃?問題”中F(x)是最基礎(chǔ)的0和1的隨機(jī)序列結(jié)構(gòu),而神經(jīng)網(wǎng)絡(luò)中的F(x)結(jié)構(gòu)(圖4)由 “節(jié)點(diǎn)”(圖中的方塊/三角/圓形)“連接”(圖中的箭頭方向)和“權(quán)重”(圖中箭頭的效果)三個核心要素構(gòu)成。
圖 SEQ 圖 \* ARABIC 4 神經(jīng)網(wǎng)絡(luò)(ANN)的結(jié)構(gòu)示意圖
(二)人工智能全生命周期的二階三類溝通秩序體系
根據(jù)上文所述,人工智能的技術(shù)原理是一種模擬特定場景下群體溝通網(wǎng)絡(luò)的遞歸式人工溝通,據(jù)此,人工智能從技術(shù)研發(fā)到社會應(yīng)用再到風(fēng)險治理的全生命周期,可以拆解為一套二階三類的溝通秩序體系。人工智能從技術(shù)研發(fā)到社會應(yīng)用的過程可以類型化為三種溝通秩序:其一,人工智能系統(tǒng)內(nèi)部的人工溝通秩序(機(jī)器處理既有溝通數(shù)據(jù)的人工網(wǎng)絡(luò)),即上文所述的遞歸式人工溝通;其二,作為人工智能模擬對象的原有溝通秩序(人際溝通網(wǎng)絡(luò)),即在人工智能應(yīng)用前的社會溝通秩序;其三,人工智能系統(tǒng)與外部環(huán)境的人機(jī)溝通秩序(人機(jī)溝通網(wǎng)絡(luò)),即在人工智能應(yīng)用后的全新社會溝通秩序。人工智能的風(fēng)險問題可以據(jù)此概括為:人工智能在嵌入社會并引發(fā)溝通網(wǎng)絡(luò)變革時,對原有溝通秩序中的自然權(quán)利與法定權(quán)利造成的不確定性損害。由此,人工智能的風(fēng)險治理也就可以看成針對這三類溝通的二階溝通(溝通的溝通),即如何通過治理主體間的風(fēng)險溝通來規(guī)范與約束決定人工智能從技術(shù)研發(fā)到社會應(yīng)用合理性的各類溝通過程,從而控制人工智能引發(fā)溝通秩序變革時的不確定性損害。
“風(fēng)險”與“危險”均來源于未來的不確定性,但風(fēng)險不同于危險的地方在于,危險是一種不可歸因于事前決策的不確定性損害,風(fēng)險則是現(xiàn)代社會的產(chǎn)物,是指那些可以通過合理決策來規(guī)避的未來不確定性損害。隨著科學(xué)技術(shù)對未來的預(yù)測與控制能力增加,人們對于危險的厭惡和安全的期望也會不斷提升,風(fēng)險問題也就隨之一同增長,并逐步成為現(xiàn)代社會的重要主題。當(dāng)代人工智能的風(fēng)險問題也是此種社會現(xiàn)代性的表現(xiàn)。隨著社會利用人工智能對未來不確定性損害的控制能力增強(qiáng),越來越多的危險問題(不可控的不確定性損害)會轉(zhuǎn)化為風(fēng)險問題(可控的不確定性損害)。據(jù)此,人工智能的風(fēng)險問題可以初步表達(dá)為:社會中由人工智能引發(fā)但可以通過合理決策以規(guī)避或減小的未來不確定性損害。這種可控的不確定性損害包含兩類,一類是原有社會中的危險在人工智能應(yīng)用后變得可控進(jìn)而轉(zhuǎn)化為風(fēng)險,另一類則是在前者的轉(zhuǎn)化過程中產(chǎn)生的未來不確定性損害。例如,人工智能的出現(xiàn)使車輛駕駛的控制更加精準(zhǔn)、快速,這能將許多人類駕駛所面臨的危險轉(zhuǎn)化為自動駕駛的風(fēng)險,但同時也會產(chǎn)生因自動駕駛系統(tǒng)失靈引發(fā)的風(fēng)險。
人工智能是如何將危險轉(zhuǎn)化為風(fēng)險的?基于上文所述,人工智能作為一種模擬人類群體的溝通網(wǎng)絡(luò)以實現(xiàn)特定智能目標(biāo)的人工溝通系統(tǒng),其具有超越其模擬對象——人類溝通系統(tǒng)的優(yōu)勢,即其能擴(kuò)展特定場景下溝通的空間與時間范圍,并增強(qiáng)特定場景的溝通精準(zhǔn)性,進(jìn)而人工智能的社會應(yīng)用能夠使既有的溝通網(wǎng)絡(luò)發(fā)生革新,增強(qiáng)人們對未來不確定性損害的控制能力。例如,車輛駕駛從來不是依靠司機(jī)個人的大腦活動就能完成的,而是由司機(jī)與道路交通部門、其他司機(jī)之間的交通溝通網(wǎng)絡(luò)完成的。而搭載人工智能的自動駕駛系統(tǒng)則是通過人工溝通實現(xiàn)了車輛與乘客、道路交通部門和其他車輛之間更廣泛、精準(zhǔn)的溝通。這使得許多在人類駕駛時期的不可控性損害在進(jìn)入自動駕駛時期就變得可控,人類駕駛的危險在交通溝通網(wǎng)絡(luò)革新之后轉(zhuǎn)化為自動駕駛的風(fēng)險。當(dāng)然,這種溝通秩序的變革同樣也會引發(fā)新的風(fēng)險,例如乘客個人信息泄露、自動駕駛系統(tǒng)失靈等?!爸卫怼备拍钍侵浮皡f(xié)調(diào)多方利益主體之間的溝通,以共同做出針對某事的決策與實踐”,因此人工智能的風(fēng)險治理便可定義為:通過組織協(xié)調(diào)多方利益相關(guān)者的風(fēng)險溝通與價值衡量,以共同作出能規(guī)避或減小人工智能引發(fā)的溝通秩序變革所帶來的不確定性損害的風(fēng)險決策,即針對溝通的溝通(二階溝通)。
綜上所述,人工智能從技術(shù)研發(fā)到社會應(yīng)用再到風(fēng)險治理的全生命周期,可以歸納為一套二階三類的溝通體系,即人工智能技術(shù)的人工溝通、人工智能應(yīng)用的人際溝通轉(zhuǎn)向人機(jī)溝通、人工智能風(fēng)險治理的二階溝通。人工智能的風(fēng)險來源于作為遞歸式人工溝通的人工智能在嵌入社會原有溝通秩序時所引發(fā)的溝通秩序變革,而作為二階溝通的人工智能風(fēng)險治理,需要著眼于人工智能在不同場景下重塑溝通網(wǎng)絡(luò)時的風(fēng)險溝通機(jī)制,通過風(fēng)險溝通的程序設(shè)計讓利益相關(guān)者對具體場景中的價值平衡進(jìn)行充分議論,并作出合理的風(fēng)險決策。
三、人工智能立法的程序主義治理思路
上述對人工智能技術(shù)原理與風(fēng)險治理的溝通主義認(rèn)知打破了實體主義治理及其立法思路的三項基本前提:(1)人工智能并非明確、可預(yù)期的線性發(fā)展模式,其依賴虛擬偶聯(lián)性的技術(shù)發(fā)展無法被集中管理和規(guī)劃;(2)政府與企業(yè)具有利用溝通秩序變革擴(kuò)張自身權(quán)力的空間與動機(jī),進(jìn)而無法依靠兩者獨(dú)斷提出客觀、公正的人工智能治理規(guī)則;(3)不存在人工智能發(fā)展與治理的普適性真理,每個具體場景的實體性風(fēng)險決策與價值衡量應(yīng)當(dāng)在法律的介入、由利益相關(guān)者進(jìn)行充分風(fēng)險溝通后得出,因此人工智能的實體性治理規(guī)則是動態(tài)發(fā)展的,人工智能的風(fēng)險治理注定是場景化與多元化的。對此,如何在溝通主義的認(rèn)知模型下,構(gòu)建一套場景化、多元化與敏捷性的人工智能治理體系?法律又如何主導(dǎo)這套治理體系的形成?這些便是本文在此想要回答的問題。
概括來說,程序主義的治理與立法不同于實體主義的治理與立法的關(guān)鍵在于,其并不妄圖在宏觀層面上統(tǒng)一性地、一勞永逸地解決安全與發(fā)展的對立沖突,也不試圖通過法律給出一條清晰分明的實體性價值衡量標(biāo)準(zhǔn),而是將焦點(diǎn)放到微觀層面的人機(jī)交互與具體場景的價值衡量之上,主張通過法律程序引導(dǎo)多元的利益相關(guān)主體通過合理溝通作出權(quán)責(zé)利相一致的風(fēng)險決策。這意味著法律需要讓每一個具體場景下的利益相關(guān)者均能通過正當(dāng)?shù)娜藱C(jī)溝通程序進(jìn)行可問責(zé)性的風(fēng)險決策,讓期望獲得不確定性收益的群體承擔(dān)其風(fēng)險決策所引發(fā)的不確定性損害,以此實現(xiàn)基于人工智能的治理創(chuàng)新。此種程序主義治理的復(fù)雜之處在于,其將作為風(fēng)險來源的人工智能又當(dāng)作治理其自身風(fēng)險的范式創(chuàng)新工具,通過規(guī)范不同場景下多元治理主體之間的溝通媒介與形式,讓“為人工智能的治理以促進(jìn)發(fā)展”和“對人工智能的治理以保障安全”通過“基于人工智能的治理創(chuàng)新”(Governance by AI)發(fā)生耦合效應(yīng)(圖5)。
圖 SEQ 圖 \* ARABIC 5 以溝通主義認(rèn)知為基礎(chǔ)的人工智能程序主義治理模式
與實體主義治理思路僅僅將法律當(dāng)作治理最后環(huán)節(jié)的執(zhí)行手段不同的是,在程序主義治理思路中,法律將貫穿治理規(guī)則生成的全流程,其要為具體利益相關(guān)者如何利用人機(jī)溝通作出實體性治理決策提供程序性指引,并規(guī)范多元主體共同利用人機(jī)溝通作出合理風(fēng)險決策的溝通過程,還要設(shè)置保障風(fēng)險共擔(dān)的事后問責(zé)機(jī)制。此時,在程序主義治理的立法思路中,政府不再扮演直接干涉人工智能發(fā)展與統(tǒng)一監(jiān)管人工智能風(fēng)險的一元治理主體,而是作為風(fēng)險溝通秩序的協(xié)調(diào)者與風(fēng)險共擔(dān)原則的保障者,即以法律的正當(dāng)程序引導(dǎo)并約束企業(yè)設(shè)計合理的人機(jī)溝通代碼程序,引導(dǎo)利益相關(guān)者能在人機(jī)交互的風(fēng)險溝通中作出符合其多元價值的具體決策,并確保風(fēng)險決策的權(quán)責(zé)利相一致。這意味著法律在面對人工智能引發(fā)的社會溝通網(wǎng)絡(luò)變遷時,需要通過溝通程序的設(shè)計讓多元治理主體在具體的風(fēng)險決策與價值衡量中表達(dá)其多元價值,并讓原有溝通網(wǎng)絡(luò)中的自然權(quán)利與法定權(quán)利能在人際溝通邁向人機(jī)溝通的社會數(shù)字化轉(zhuǎn)型中得到合理保障。
(一)程序主義治理如何應(yīng)對數(shù)字社會的溝通秩序變遷
程序是對溝通過程的制度化與規(guī)范化,“其主要體現(xiàn)為溝通主體按照一定的順序、方式和手續(xù)來作出決定的相互關(guān)系。其普遍形態(tài)是:按照某種標(biāo)準(zhǔn)和條件整理爭論點(diǎn),公平地聽取各方意見,在使當(dāng)事人可以理解或認(rèn)可的情況下作出決定”。在此基礎(chǔ)上,人工智能的程序主義治理是一種以構(gòu)建合理的人機(jī)溝通秩序來實現(xiàn)多元主體之間充分、公平、快捷的意見交換,并形成具體、可執(zhí)行、各方理解或認(rèn)可、機(jī)器可讀的風(fēng)險決策。此種程序主義治理的目標(biāo)在于保障每一個風(fēng)險決策均是由利益相關(guān)者在風(fēng)險共擔(dān)原則下充分溝通后作出的,實現(xiàn)風(fēng)險決策中權(quán)責(zé)利的對稱。程序主義治理的路徑是利用融入代碼的法律程序構(gòu)建合理的人機(jī)溝通形式與規(guī)則,并確保人機(jī)溝通的過程正當(dāng)性、決斷中立性、地位平等性和內(nèi)容結(jié)構(gòu)合理性。程序主義治理的基本主張是依靠法律程序與代碼程序的交融,引導(dǎo)數(shù)字社會自發(fā)秩序的定向形成,以一種擁抱不確定性的態(tài)度去控制不確定性。若將人工智能應(yīng)用后的數(shù)字社會秩序比喻為復(fù)雜、動態(tài)的曲線方程,實體主義治理便是試圖尋找到一條亙古不變的切線作為數(shù)字社會的法律規(guī)范,以此完全消除人工智能發(fā)展與治理的不確定性,而程序主義治理則是一種對數(shù)字社會秩序曲線方程的微分機(jī)制,其通過嵌入代碼的法律程序深入數(shù)字社會的溝通網(wǎng)絡(luò)變遷,并通過規(guī)范人機(jī)溝通的形式與結(jié)構(gòu)引導(dǎo)出符合法律價值需求的社會自生秩序——動態(tài)變化的人工智能實體治理規(guī)則集。這種數(shù)字社會的自生秩序雖然因技術(shù)發(fā)展、場景多樣和價值多元而具有不確定性,但卻是可控的。
對此,社會學(xué)家在討論人類社會秩序變遷時提到的三種制度變更模式——革命(revolution)、演化(evolution)與內(nèi)卷(involution)能夠幫助我們更好地理解程序主義治理應(yīng)對溝通秩序變遷的思路為何不同于實體主義治理?!案锩币辉~在20世紀(jì)風(fēng)靡一時,其認(rèn)為人類社會的秩序變遷需要依賴政府中少數(shù)知識精英對全新社會秩序進(jìn)行全盤性設(shè)計與建構(gòu)。此種革命式的社會秩序變遷思路依舊在當(dāng)前的功能主義認(rèn)知與實體主義治理模式中有所體現(xiàn),其試圖通過一種斷崖式的、突發(fā)性、劇烈式的制度更替來引領(lǐng)社會秩序變遷。但在上文中已經(jīng)論證過,這會導(dǎo)致人工智能立法面對安全與發(fā)展的二元對立,并陷入“一管就死、一放就亂”的立法悖論。而“演化”一詞則更多是由哈耶克在批判由政府主導(dǎo)的革命理論時所提出的一種注重自發(fā)性秩序的社會變遷理論。其認(rèn)為政府無法計劃與集中規(guī)劃社會的秩序變遷,社會有其自身演化的力量與動因,社會變遷所需要的是一種連續(xù)性的、緩慢的、發(fā)散性的、增進(jìn)性的制度迭代。然而,哈耶克的演化理論沒有關(guān)注到這樣一個現(xiàn)象,即“內(nèi)卷”。很多地方的社會自生秩序為何千年來只是在不斷地內(nèi)纏、內(nèi)耗和自我復(fù)制,形成一種內(nèi)卷的趨勢,而未發(fā)生哈耶克所謂的社會演化。決定社會是發(fā)生演化還是內(nèi)卷的關(guān)鍵因素是什么?是社會是否設(shè)立了程序性機(jī)制來化解多元主體在衡量多元價值時所產(chǎn)生的復(fù)雜性。
內(nèi)卷在溝通主義視角下,是指群體在特定場景下經(jīng)過多次重復(fù)性溝通,不但沒有提取出更符合目的性的秩序信息結(jié)構(gòu),反而讓既有的秩序信息結(jié)構(gòu)更加盤根錯節(jié)、更加復(fù)雜化。這恰恰對應(yīng)的是人工智能分散性立法的弊端,即人工智能的場景多樣性與價值多元性導(dǎo)致人工智能的法律體系不斷復(fù)雜化與冗雜化,進(jìn)而逐漸喪失了法律化解社會復(fù)雜性的功能,反而增強(qiáng)了社會的復(fù)雜性。哈耶克所主張的社會演化需要統(tǒng)一性的程序機(jī)制化解人工智能法律體系所面臨的復(fù)雜化。這種避免社會演化淪落為內(nèi)卷的程序性機(jī)制在人工智能立法領(lǐng)域體現(xiàn)為引導(dǎo)并規(guī)范風(fēng)險溝通的統(tǒng)一性程序立法。此種統(tǒng)一性程序立法的目標(biāo)不在于直接提供明確的價值衡量標(biāo)準(zhǔn),而在于化解不同場景中進(jìn)行風(fēng)險決策與價值衡量的復(fù)雜性,其通過創(chuàng)設(shè)正當(dāng)?shù)娘L(fēng)險溝通程序,保障風(fēng)險決策的權(quán)責(zé)利相對稱,讓多元、動態(tài)的實體性治理規(guī)則在統(tǒng)一、明確的人機(jī)溝通程序約束下產(chǎn)生,以此引導(dǎo)數(shù)字社會的自生秩序向著符合法律價值的方向演進(jìn)。
(二)法律如何通過程序設(shè)計實現(xiàn)制度演化
立法者該如何通過統(tǒng)一性的程序規(guī)則設(shè)計來引導(dǎo)人工智能時代的制度演化?對此有三個基本步驟:其一,認(rèn)知特定場景下的原有溝通秩序,包括原有的自然權(quán)利與法定權(quán)利是如何保障利益相關(guān)者在權(quán)責(zé)利相對稱的情況下進(jìn)行風(fēng)險決策的;其二,分析人工智能作為一種遞歸式人工溝通嵌入社會后對該場景的溝通秩序造成的可能影響,包括對溝通遞歸性的加強(qiáng)或破壞、對原有自然權(quán)利與法定權(quán)利的侵犯或損害;其三,以法律程序與代碼程序相交融的方式設(shè)計人機(jī)溝通的形式與規(guī)則,確保具體場景的實體治理規(guī)則是由風(fēng)險共擔(dān)的利益相關(guān)者經(jīng)過風(fēng)險溝通后作出的,并保障風(fēng)險決策的權(quán)責(zé)利相對稱。
步驟一要求立法主體認(rèn)知特定場景下的原有溝通秩序,據(jù)此才能保障后續(xù)提出的治理立法方案是符合場景特性的,是對既有風(fēng)險溝通機(jī)制的改善與增進(jìn),是一種緩慢的、漸進(jìn)的演化,而非一種基于理論預(yù)設(shè)的、顛覆性的革命。這要求人工智能的治理立法應(yīng)當(dāng)以社會事實為出發(fā)點(diǎn),而非以理論假設(shè)為出發(fā)點(diǎn);要從探尋人工智能社會秩序變遷的基礎(chǔ)動因——溝通網(wǎng)絡(luò)的變革,作為制度演變的改革依據(jù),而非朝著某個先驗的線性階段跨越;要避免人工智能時代的法律演化脫嵌于社會,保證立法和制度改革與社會自生秩序的基本規(guī)律相契合,由此消除宏觀層面上的安全與發(fā)展的二元對立。需要強(qiáng)調(diào)的是,程序主義治理并非排除實體法的作用,而是主張由統(tǒng)一的程序性立法引導(dǎo)多元治理主體基于風(fēng)險溝通形成敏捷、動態(tài)發(fā)展的實體法。程序主義治理并非否定實體法,而是否定那些妄圖依賴單一主體提出的先驗性、普適性實體治理規(guī)則的立法思路。在程序主義治理的立法思路中,實體法作為風(fēng)險溝通決策的動態(tài)平衡結(jié)果,應(yīng)當(dāng)是場景性的、發(fā)展性的、價值多元的,法律能做的不是為公民決定未來數(shù)字社會的全部秩序,而是通過人機(jī)溝通的正當(dāng)程序設(shè)計有效引導(dǎo)數(shù)字社會秩序的動態(tài)產(chǎn)生過程,為社會各場景、各領(lǐng)域形成的分散卻關(guān)聯(lián)的實體性治理規(guī)則提供良好的民主議程基礎(chǔ)。
步驟二要求立法主體聚焦人工智能嵌入社會后給溝通秩序造成的可能性影響,并交由具體場景的利益相關(guān)者進(jìn)行多元、敏捷的價值衡量。不同于實體主義治理基于自負(fù)的立法干涉,程序主義治理的立法是從溝通視角觀察社會秩序演化的發(fā)生過程,并通過程序引導(dǎo)而非干涉這種社會秩序演化的發(fā)生過程。該步驟最重要的一點(diǎn)是要讓不同地區(qū)、不同時間、不同場景下的利益相關(guān)者有序、合理地進(jìn)行風(fēng)險決策中的多元價值衡量。法律在此的作用不是代替利益相關(guān)者進(jìn)行決策,而是引導(dǎo)他們進(jìn)行風(fēng)險溝通,并在權(quán)責(zé)利相對稱的正當(dāng)程序下進(jìn)行多元價值的具體衡量與風(fēng)險決策。此時,民主先于法律、規(guī)則源于實踐,法律不再作為治理最后環(huán)節(jié)的執(zhí)行工具,而是貫穿于人工智能實體性治理規(guī)則的生產(chǎn)過程之中。據(jù)此,人工智能立法應(yīng)當(dāng)關(guān)注微觀的多元主體如何進(jìn)行具體價值衡量,而非在宏觀層面進(jìn)行安全與發(fā)展的平衡,人工智能的統(tǒng)一性立法應(yīng)當(dāng)以明確、合理的溝通程序規(guī)則引導(dǎo)與規(guī)范場景性、分散性的人工智能實體性規(guī)則的產(chǎn)生過程,而不是進(jìn)行“一刀切式”的橫向監(jiān)管。
步驟三要求以法律程序與代碼程序的交融去保障具體決策的風(fēng)險共擔(dān),讓法律程序服務(wù)于風(fēng)險溝通的多元性與敏捷性,而非政府監(jiān)管的精密性與嚴(yán)格性。不同于實體主義治理試圖由政府直接干涉人工智能的技術(shù)研發(fā)與社會應(yīng)用,程序主義治理聚焦于人工智能全生命周期中的不同溝通階段,以法律程序確保風(fēng)險溝通的過程正當(dāng)性、決斷中立性、地位平等性和結(jié)構(gòu)合理性,進(jìn)而引導(dǎo)社會自生秩序的定向生成。據(jù)此,程序主義的立法思路不再將原子化的人工智能系統(tǒng)作為治理對象,也不再把法律程序當(dāng)作政府貫徹精細(xì)化監(jiān)管的手段,而是用法律程序服務(wù)于風(fēng)險溝通的利益相關(guān)者,確保風(fēng)險決策的權(quán)責(zé)利相一致,實現(xiàn)具體價值衡量的風(fēng)險共擔(dān)。因此,對人工智能的認(rèn)知、治理和立法要從靜態(tài)轉(zhuǎn)向動態(tài),從先驗性轉(zhuǎn)向發(fā)生學(xué),從單一主體轉(zhuǎn)向多元主體,從“一刀切式監(jiān)管”轉(zhuǎn)向“微分式治理”。
(三)程序主義治理思路下的人工智能統(tǒng)一立法
首先,人工智能統(tǒng)一立法該如何定義人工智能?在此,本文認(rèn)為不宜直接采用技術(shù)專家的學(xué)理定義,如模擬人類智能的計算機(jī)系統(tǒng)或機(jī)器學(xué)習(xí)的技術(shù)清單。一方面是因為人工智能技術(shù)定義的動態(tài)發(fā)展無法避免,這會嚴(yán)重影響人工智能統(tǒng)一立法的適用范圍;另一方面則是因為技術(shù)定義很容易導(dǎo)致人工智能的治理主體將立法焦點(diǎn)局限在獨(dú)立的人工智能系統(tǒng)(如產(chǎn)品責(zé)任),而忽略了最重要的治理切口——人機(jī)交互過程。因此,“模擬人類群體進(jìn)行信息提取、數(shù)據(jù)處理與知識運(yùn)用的人工溝通網(wǎng)絡(luò)”的定義方式更有利于將人工智能的治理立法視野轉(zhuǎn)向人工智能的全生命周期。
其次,人工智能統(tǒng)一立法該如何形成具有邏輯性、體系性的結(jié)構(gòu)框架?基于上文提出的人工智能全生命周期——二階三類溝通秩序體系,法律應(yīng)針對人工智能的技術(shù)研發(fā)溝通過程、社會應(yīng)用溝通過程和風(fēng)險治理溝通過程分別設(shè)置相應(yīng)的程序性規(guī)則,以此保證溝通的順暢、充分與合理,并針對三個溝通環(huán)節(jié)所涉及的不同利益相關(guān)群體設(shè)計權(quán)責(zé)利相一致的風(fēng)險決策機(jī)制,以此實現(xiàn)風(fēng)險共擔(dān)。對于人工智能的技術(shù)研發(fā)環(huán)節(jié),法律應(yīng)當(dāng)設(shè)置保障技術(shù)專家充分表達(dá)意見并合理形成相應(yīng)技術(shù)標(biāo)準(zhǔn)的程序規(guī)則。對于人工智能的社會應(yīng)用環(huán)節(jié),應(yīng)當(dāng)分別針對個人信息保護(hù)、數(shù)據(jù)安全和算法公正等關(guān)涉公共利益的問題規(guī)定相應(yīng)的公示(通知)、評估、表決、審查等程序,保障政府、企業(yè)和應(yīng)用場景的相關(guān)利益群體能夠在人工智能應(yīng)用的具體人機(jī)交互過程中充分表達(dá)自身價值判斷(例如針對算法應(yīng)用的論證程序設(shè)計)。對于人工智能的風(fēng)險溝通環(huán)節(jié),人工智能立法應(yīng)當(dāng)將當(dāng)前存在于政府、企業(yè)與公眾之間的風(fēng)險溝通程序法治化,如政府要求企業(yè)進(jìn)行的數(shù)據(jù)合規(guī)、跨境流動審查;企業(yè)向公眾進(jìn)行的定期治理報告公示、舉報反饋機(jī)制等,讓政府、企業(yè)與公眾之間具有明確、穩(wěn)定的風(fēng)險溝通渠道,以此促進(jìn)風(fēng)險治理的敏捷性與多元性。
最后,人工智能統(tǒng)一立法如何形成一套合理的問責(zé)體系?法律為風(fēng)險溝通設(shè)立統(tǒng)一性程序性規(guī)則的目的就在于保障風(fēng)險決策中的權(quán)責(zé)利相一致,以此確保風(fēng)險決策的合理性。人工智能統(tǒng)一立法的目標(biāo)并非直接進(jìn)行風(fēng)險規(guī)制,因此不建議采取橫向“一刀切”的產(chǎn)品責(zé)任,而是要將問責(zé)重點(diǎn)放在促進(jìn)風(fēng)險溝通的對稱性上,即確保每一個具體場景性、實踐性的風(fēng)險決策是由風(fēng)險共擔(dān)的利益相關(guān)者在進(jìn)行多元價值衡量后作出的,并且作出的風(fēng)險決策在程序規(guī)則保障下是可問責(zé)的,由此實現(xiàn)風(fēng)險決策的權(quán)責(zé)利相對稱。因此,人工智能統(tǒng)一立法應(yīng)當(dāng)圍繞不同溝通環(huán)節(jié)進(jìn)行程序性審查,并對未符合程序要件的溝通決策進(jìn)行監(jiān)督與問責(zé)。例如,在人工智能的技術(shù)研發(fā)環(huán)節(jié),未經(jīng)技術(shù)專家進(jìn)行風(fēng)險評估與決策的人工智能應(yīng)當(dāng)予以應(yīng)用禁止,若發(fā)生損害則以產(chǎn)品責(zé)任向技術(shù)研發(fā)者追責(zé)。在通過技術(shù)研發(fā)環(huán)節(jié)的溝通程序?qū)彶?、并進(jìn)入人工智能的社會應(yīng)用環(huán)節(jié)時,未經(jīng)過或未通過利益相關(guān)者溝通決策的人工智能若造成損害,應(yīng)當(dāng)將其當(dāng)作擅自應(yīng)用者的工具進(jìn)行問責(zé)。此外,對于經(jīng)過溝通程序?qū)彶楹蟮娜斯ぶ悄芩斐傻奈磥聿淮_定損害,應(yīng)當(dāng)給予技術(shù)研發(fā)者與社會應(yīng)用者以責(zé)任豁免,由具體作出風(fēng)險決策的利益相關(guān)者進(jìn)行風(fēng)險自擔(dān)。在程序性立法所塑造的權(quán)責(zé)利相對稱環(huán)境下,人工智能全生命周期中的各個溝通環(huán)節(jié)才能得出合理的風(fēng)險決策,并實現(xiàn)風(fēng)險共擔(dān)。
結(jié)語
面對人工智能立法如何平衡安全與發(fā)展的問題,將具有高度復(fù)雜性的人工智能風(fēng)險抽象為兩個價值概念的平衡與取舍過程,通常會遺失風(fēng)險治理的最關(guān)鍵部分,即具體場景下多元治理主體進(jìn)行價值衡量的溝通程序。而對人工智能的功能主義認(rèn)知與實體主義治理會進(jìn)一步誘導(dǎo)立法主體試圖從宏觀層面上統(tǒng)一性、一勞永逸地消除人工智能風(fēng)險,并忽視從微觀層面上引導(dǎo)利益相關(guān)者進(jìn)行具體、合理的價值衡量。人工智能的功能主義認(rèn)知將人工智能理解為計算機(jī)對人類大腦結(jié)構(gòu)的仿制,認(rèn)為其具有普遍性、確定性和客觀性的技術(shù)特征。此種功能主義的認(rèn)知觀會誘發(fā)一種人機(jī)對抗的輿論氛圍,并使治理主體盲目相信人工智能具有可計劃性的線性發(fā)展模式,能夠通過單一治理主體提出普適性、明確性、中立性的實體治理規(guī)則來進(jìn)行集中規(guī)劃與監(jiān)管,進(jìn)而衍生出以獨(dú)立的人工智能系統(tǒng)為治理對象、以法律作為治理最后環(huán)節(jié)的執(zhí)行手段、以確立普適性治理規(guī)則為立法目標(biāo)的實體性治理思路。然而,人工智能治理在立法實踐中出現(xiàn)的倫理原則難以落地、個人信息保護(hù)與流動利用相沖突、數(shù)據(jù)產(chǎn)權(quán)制度與要素流通相悖、算法創(chuàng)新空間被扼殺等問題都不約而同地表明此種治理思路會陷入安全與發(fā)展的二元對立。
為了打破“一管就死,一放就亂”的立法悖論、扭轉(zhuǎn)人機(jī)對抗的輿論氛圍,本文提出了人工智能立法的溝通主義認(rèn)知模型與程序主義治理思路。在溝通主義的認(rèn)知模型視角下,人工智能作為一種模擬人類群體的溝通網(wǎng)絡(luò)來實現(xiàn)智能主體功能的人工溝通系統(tǒng),其技術(shù)研發(fā)到社會應(yīng)用,再到風(fēng)險治理的全生命周期可以拆解為由人工溝通、人際溝通和人機(jī)溝通所組成的、由針對溝通秩序變革的風(fēng)險溝通(二階溝通)所統(tǒng)領(lǐng)的二階三類溝通體系。人工智能的程序主義治理則主張:法律應(yīng)當(dāng)圍繞人工智能全生命周期的不同溝通環(huán)節(jié),通過正當(dāng)程序的制度設(shè)計來保障具體場景下的利益相關(guān)者均能自主參與風(fēng)險溝通,并確保風(fēng)險決策與價值衡量的權(quán)責(zé)利相對稱。立法主體在宏觀層面上可以通過風(fēng)險溝通的統(tǒng)一程序設(shè)計,確保多元主體在差異化場景中能夠利用人機(jī)溝通平等地參與風(fēng)險決策過程,并保障不同溝通環(huán)節(jié)下的利益相關(guān)者在風(fēng)險共擔(dān)原則下自主進(jìn)行價值衡量。由此,讓政府以圍繞風(fēng)險溝通的正當(dāng)程序引導(dǎo)企業(yè)與公眾進(jìn)行與自身利益相關(guān)的風(fēng)險決策與價值取舍,通過統(tǒng)一性的程序性立法化解場景化、多元化、敏捷性的實體性治理規(guī)則的復(fù)雜性,以引導(dǎo)微觀的利益相關(guān)者進(jìn)行合理的風(fēng)險溝通與價值衡量,促進(jìn)宏觀整體的人工智能治理實現(xiàn)安全與發(fā)展相協(xié)調(diào)。