国产精品不卡一区二区,日韩A∨精品日韩在线观看,色欲99精品久久久久久,精品亚州AⅤ无码一区,啊啊啊不要呃呃呃亚洲啊不要,一本大道久久a久久精品,亚洲欧美中文日韩AⅤ片

當(dāng)前位置:首頁 > 文獻(xiàn)資源 > 研究報(bào)告
研究報(bào)告
李學(xué)堯|人工智能倫理的法律性質(zhì)
2024年07月23日 【作者】?李學(xué)堯 預(yù)覽:

【作者】?李學(xué)堯

【內(nèi)容提要】


人工智能倫理的法律性質(zhì)




李學(xué)堯 上海交通大學(xué)凱原法學(xué)院教授、上海交通大學(xué)中國法與社會研究院企劃委員








摘要:將人工智能倫理從道德原則轉(zhuǎn)化為可操作、可預(yù)期、可計(jì)算的倫理合規(guī)實(shí)踐,需要探究人工智能倫理的法律性質(zhì),特別是法律體系如何評價以及納入人工智能倫理規(guī)范??梢杂?/span>“法化”和“事物本質(zhì)”這兩個傳統(tǒng)法社會學(xué)理論曾用以反思規(guī)范理論的分析工具。一是,相比于“法治化”“規(guī)范化”等被泛化的概念,“法化”用以分析人工智能倫理的實(shí)操問題,具有更好的理論收斂性??萍紓惱淼募扔蟹ɑ窂街饕腥旱懒x論持有者常用的新興權(quán)利證立(如人格權(quán))、結(jié)果論持有者常用的軟法化(如政府監(jiān)管工具創(chuàng)新)、美德論持有者常用的共同體倫理(如職業(yè)倫理)。二是,立法者或者“法律發(fā)現(xiàn)者”,在試圖從人工智能技術(shù)及其產(chǎn)業(yè)的特征中推導(dǎo)出規(guī)范性的倫理要求的過程中,可以將事物本質(zhì)的理念納入,通過與生物醫(yī)藥倫理比較,抽象出人工智能倫理法化的三個約束性要件:道德規(guī)則的技術(shù)可嵌入性、更強(qiáng)的場景性以及依賴于技術(shù)過程的程序性。

關(guān)鍵詞:人工智能倫理;科技倫理;倫理審查;法化;事物本質(zhì);







倫理被認(rèn)為是人工智能治理的重要手段,也是當(dāng)下相關(guān)立法研討的焦點(diǎn)話題之一。科技部等單位2023年頒布的《科技倫理審查辦法(試行)》(以下簡稱《倫理審查辦法》)第2條及其附錄“需要開展倫理審查復(fù)核的科技活動清單”,在準(zhǔn)立法意義上構(gòu)筑了人工智能倫理審查的專門制度。《倫理審查辦法》頒布以后,人工智能產(chǎn)業(yè)界及其合規(guī)服務(wù)群體有較多意見,主要表現(xiàn)在:《倫理審查辦法》是基于生物醫(yī)藥倫理的思路起草的,未充分考慮人工智能倫理的特征,因此在具體的合規(guī)過程中會給研發(fā)者和相關(guān)企業(yè)帶來實(shí)操性困擾。我們可以綜合運(yùn)用來自法社會學(xué)傳統(tǒng)的“法化”概念和來自法學(xué)方法論傳統(tǒng)的“事物本質(zhì)”兩個概念,通過分析人工智能倫理與生物醫(yī)藥倫理、職業(yè)倫理的區(qū)別,面向人工智能的立法實(shí)踐需求,呈現(xiàn)人工智能倫理的法律性質(zhì),特別是法律體系如何評價以及納入人工智能倫理規(guī)范,以期待為相關(guān)的人工智能倫理制度構(gòu)建及其實(shí)操化,提供系統(tǒng)性的理論參考。


一、為什么采用法化的思考路徑?


(一)從道德原則框架到倫理合規(guī)實(shí)踐的轉(zhuǎn)化需求

在應(yīng)用倫理學(xué)內(nèi)部,相比于生物倫理學(xué)、商業(yè)倫理學(xué)、職業(yè)倫理學(xué)等,人工智能倫理的相關(guān)研究似乎是個新事物,但它的理論可以上溯至上世紀(jì)六十年代,還略早于生物倫理學(xué)的產(chǎn)生。后者作為一門學(xué)科,一般被認(rèn)為產(chǎn)生于20世紀(jì)七十年代。1960年,《科學(xué)》雜志上展開了有關(guān)于自動化帶來的倫理問題討論。此后,網(wǎng)絡(luò)信息、區(qū)塊鏈、大數(shù)據(jù)、元宇宙等各種前沿信息技術(shù)的大規(guī)模社會化應(yīng)用也伴隨而來相應(yīng)的倫理討論熱潮,出現(xiàn)了“信息倫理”“信息技術(shù)倫理”“大數(shù)據(jù)倫理”等類似的理論概念及其制度實(shí)踐。


隨著人工智能技術(shù)及其應(yīng)用場景越來越復(fù)雜,特別是越來越有能力執(zhí)行更復(fù)雜的人類任務(wù),它們的行為變得更加難以監(jiān)控、驗(yàn)證、預(yù)測和解釋,因此各國政府、各類國際組織、各類專業(yè)組織和相關(guān)平臺企業(yè)在近十年里就人工智能倫理的重要性及其規(guī)則內(nèi)容提出各種各樣的倡議、原則、準(zhǔn)則和指南。對于它的爭論,已經(jīng)從最常見的數(shù)據(jù)安全治理(包括數(shù)據(jù)財(cái)產(chǎn)權(quán)益保護(hù)、隱私保護(hù)、知情同意、準(zhǔn)確性和深度造假),逐漸擴(kuò)展到社會公平(包括分配正義、失業(yè)、性別歧視、種族主義等),甚至還包括人工智能體的法律主體地位等。2022年生成式人工智能進(jìn)入公眾視野之后,社會各界愈加重視人工智能倫理的治理功能。


在全球范圍里,人工智能倫理治理實(shí)務(wù)中普遍存在注重原則層次的價值宣言但缺乏執(zhí)行力度的問題。歐盟可能是最早發(fā)布具有“法化”意義的專門性人工智能倫理規(guī)則的法域,早在201948日就通過歐盟委員會發(fā)布了《人工智能倫理準(zhǔn)則》,提出“可信賴人工智能”的定義及相關(guān)倫理要求,但在合規(guī)實(shí)踐中也給業(yè)界帶來了“難以操作”困擾的批判。在2019年,中國也發(fā)布了《人工智能北京共識》,但這不同于歐盟《人工智能倫理準(zhǔn)則》,后者是官方機(jī)構(gòu)發(fā)布的,而前者主要是高校院所和產(chǎn)業(yè)聯(lián)盟。即使在歐盟202312月發(fā)布的《人工智能法案》中,也只針對高風(fēng)險人工智能系統(tǒng)原則性提出強(qiáng)制性遵守的倫理規(guī)則,它實(shí)質(zhì)上與以往“去道德化”的法律規(guī)則無異,說它是人工智能倫理,還不如說是“人工智能的合規(guī)要求”;更重要的是,法案文本洋洋灑灑,立法背景和法律原則闡述的十分充分,但對這些條款的具體執(zhí)行語焉不詳。比如,第16條“提出對操縱性和剝削性實(shí)踐的禁止”,但如何“禁止操縱性和剝削性實(shí)踐”仍需具體的實(shí)施性規(guī)則予以落實(shí)。該法案第81條中還采用了“鼓勵”的方式,授權(quán)提供者自主制定行為規(guī)則,以使非高風(fēng)險人工智能系統(tǒng)符合“合乎道德和值得信賴”的標(biāo)準(zhǔn)。


我國前幾年頒布的涉數(shù)據(jù)和算法監(jiān)管的相關(guān)法律法規(guī)和行政規(guī)章中,雖對人工智能倫理的相關(guān)原則和標(biāo)準(zhǔn)有所涉及,表述卻也都較為間接。比如《數(shù)據(jù)安全法》第8條、第28條,只提及要“遵守社會公德和倫理”,但對于什么是社會公德、什么是倫理,為什么要區(qū)分道德和倫理,相關(guān)條款及公開的立法說明也語焉不詳。國內(nèi)近來公開的兩個《人工智能法(專家建議稿)》,無例外地都對人工智能倫理原則及其審查制度做了專門的條款擬制,但相關(guān)內(nèi)容仍然抽象。全國網(wǎng)絡(luò)安全標(biāo)準(zhǔn)化技術(shù)委員會于20243月發(fā)布《生成式人工智能服務(wù)安全基本要求》等類似的技術(shù)標(biāo)準(zhǔn)可以理解為是人工智能倫理合規(guī)可操作化的一種形式,但對于大部分的合規(guī)主體來說,它在倫理要求的標(biāo)準(zhǔn)化方面仍然是間接且不明確的。


那么該如何將抽象、原則的人工智能倫理規(guī)范轉(zhuǎn)變?yōu)榭刹僮鞯膫惱砗弦?guī)實(shí)踐呢?初步概括,大致上可以分為三個步驟:一是“(人工智能倫理)是什么”的確定,主要的操作模式是將人工智能倫理的實(shí)質(zhì)性內(nèi)容概括為一系列原則。比如“可信、安全和負(fù)責(zé)任AI”的提法。二是“人工智能倫理如何實(shí)施”的操作,即要將人工智能倫理原則細(xì)化為相關(guān)的規(guī)則和標(biāo)準(zhǔn)。比如,將可信人工智能的原則標(biāo)準(zhǔn)化為相關(guān)產(chǎn)品性能的合格率、將負(fù)責(zé)任人工智能的原則分解為風(fēng)險責(zé)任分擔(dān)配置規(guī)則等。在這個階段,除了上述實(shí)體性規(guī)則,還涉及專家委員會職權(quán)配置以及程序設(shè)計(jì)。三是“人工智能倫理實(shí)施狀況評估”,包括將規(guī)則和標(biāo)準(zhǔn)應(yīng)用到實(shí)際產(chǎn)品研發(fā)和應(yīng)用中,以驗(yàn)證特定人工智能系統(tǒng)、服務(wù)或者產(chǎn)品是否符合相應(yīng)的倫理原則。在這里,真正的技術(shù)難點(diǎn)在于第二步,同時也是法學(xué)介入人工智能倫理討論的關(guān)鍵點(diǎn)。我們可以將其轉(zhuǎn)化為人工智能倫理的法化過程來展開討論。需注意的是,不能過分夸大法化、“法治化”思路的重要性,而忽視技術(shù)方法在此階段的重要性。比如,價值對齊測試既是一個技術(shù)性問題,也是牽涉人文社會科學(xué)整體知識的過程。


(二)法化思考路徑的基本考慮

法化(Verrechtlichung, juridification)是一個多義且富有批判性內(nèi)涵、兼有描述性和規(guī)范性的概念。一般人認(rèn)為,法化包括“構(gòu)成性法化”、法律的擴(kuò)張和分化、通過正式法律途徑解決沖突的增長、司法權(quán)力的增長、法律文化的擴(kuò)張等。


從馬克斯·韋伯到盧曼,從歐洲的社會理論到美國的法律與社會運(yùn)動,再到日本世紀(jì)之交關(guān)于“法制現(xiàn)代化與過度法化”的討論,法社會學(xué)、法理學(xué)領(lǐng)域?qū)Ψɑ瘑栴}做了較多探討。比如,田中成明將法化概括為三個面相:法的要求的增強(qiáng)、法規(guī)范或者制度的復(fù)雜化,以及法律價值、原理、規(guī)范和程序在人們的意識和行為中的內(nèi)化。在此分類基礎(chǔ)上,田中成明和同時期的日本學(xué)者,比如棚瀨孝雄、六木佳平等學(xué)者一起,在美國批判法學(xué)的理論基礎(chǔ)上,認(rèn)定“法治主義”在日本二戰(zhàn)之后的實(shí)踐產(chǎn)生了異化現(xiàn)象。他通過一種摻雜著規(guī)范追求和事實(shí)描述的類型化思路,將這種因過度法化的法治異化的出路概括為兩種:一是,“非法化”或者“反法化”,其中包括法律程序的非正式化,比如ADR等非正式糾紛解決機(jī)制的興起;二是法的范疇和種類的擴(kuò)展,即出現(xiàn)了管理型法和自治型法。


隨著前沿科技的興起,近來國內(nèi)學(xué)術(shù)界也有學(xué)者,比如朱芒試圖通過法化的概念來研究技術(shù)標(biāo)準(zhǔn)、倫理規(guī)范、學(xué)校內(nèi)部規(guī)范等新型“制度形態(tài)”。在此,延續(xù)此種研究思路,試圖將法化的概念導(dǎo)入人工智能倫理的研究過程。為理解方便以及在中國語境下展開分析的需要,此處將法化簡化定義為:社會道德、宗教倫理、職業(yè)道德、技術(shù)標(biāo)準(zhǔn)、行業(yè)習(xí)慣等社會規(guī)范被法律化的過程或者現(xiàn)象。


需要將法化與兩個概念進(jìn)行辨析:一是與法律淵源的區(qū)別。“法化”與“法律淵源”兩個概念的主要差異在于,前者是一個過程性描述;它不僅可以用來描述“社會規(guī)范”被轉(zhuǎn)化為“法律淵源”的過程,而且還可以用來描述權(quán)力形態(tài)的變遷(比如司法權(quán)的擴(kuò)張)、法律意識和文化的變化,等等。此外,法化還會牽涉權(quán)利化、程序化等內(nèi)涵。二是與中國學(xué)術(shù)界和實(shí)務(wù)界慣用的“法治化”的區(qū)別。在人工智能倫理與法律實(shí)踐關(guān)聯(lián)的學(xué)術(shù)研討中,也有很多學(xué)者習(xí)慣于運(yùn)用“法治化”“規(guī)范化”等動態(tài)概念。此處重點(diǎn)解釋一下,為什么使用“法化”而放棄“法治化”概念的主要原因:


第一,國內(nèi)學(xué)術(shù)界對“法治化”概念使用的泛化和概念內(nèi)涵的窄化。從“法治”之中蘊(yùn)含的法律至上、權(quán)利本位、正當(dāng)程序、權(quán)力制約以及良法之治等原則,我們可以演繹出,在“法治化”的技術(shù)操作中,包含著法律發(fā)現(xiàn)、權(quán)利化、利益衡量、程序保障等多重內(nèi)容。但由于種種原因,在當(dāng)下我國,“法治化”的概念有被不斷泛化使用但內(nèi)涵卻不斷窄化為“制度化”(即“法制”,rule by law,區(qū)別于institutionalization意義上的“制度化”)的趨勢。


第二,“法治化”內(nèi)涵中缺乏批判性的面相。在人工智能倫理及其立法的過程中,在國內(nèi)外都存在著人工智能倫理泛化以及道德和法律混淆、在法律合規(guī)之外增設(shè)人工智能倫理審查制度的做法提出了批評。相關(guān)質(zhì)疑從歐盟的數(shù)據(jù)立法開始一直持續(xù)到人工智能立法過程。這種對道德泛化的批判也可一直上溯至生物醫(yī)藥倫理大行其道的20世紀(jì)七八十年代。在當(dāng)時,各種社會理論、批判性法學(xué)理論對“法化”“權(quán)利話語”的討論,也多會涉及這一點(diǎn)。簡言之,法治化是一個正面概念,法化的概念則正如世紀(jì)之交的日本學(xué)者所討論的,它更容易讓我們觀察到“法治異化”的側(cè)面;在應(yīng)對法治異化的制度措施上,更能夠提出“去法化”“反法化”等更加多維、多方向的理論概念和解決措施。


二、人工智能倫理如何法化:通過事物本質(zhì)的探尋


(一)倫理、技術(shù)與法律的共生重構(gòu)

通過回顧各國政府、科研院校以及產(chǎn)業(yè)界發(fā)布的各種原則、準(zhǔn)則、指南、框架以及清單,人工智能倫理的實(shí)體內(nèi)容絕大部分被已有的網(wǎng)絡(luò)、數(shù)據(jù)、算法以及個人信息保護(hù)等方面的法律原則或者規(guī)則所涵蓋。我們可以延續(xù)科技倫理法化初期的討論,提出一個疑問:既然已有的立法文本基本涵蓋了這些道德原則或者倫理原則,那為什么在技術(shù)治理中,一定要將倫理和法律并列?法律與道德區(qū)別的傳統(tǒng)標(biāo)準(zhǔn)之一在于:國家強(qiáng)制力。但人工智能倫理審查制度的法律效力闡述是:沒有建立倫理審查制度或者沒有通過具體倫理審查程序的某些特定人工智能系統(tǒng)不能開展研發(fā)或者無法進(jìn)入市場。在此背景下,通過轉(zhuǎn)致條款、授權(quán)條款等,作為道德內(nèi)容的人工智能倫理實(shí)體性規(guī)則,即使不會被實(shí)體法明確表述,但也具有了類似于標(biāo)準(zhǔn)等規(guī)范性文件的國家強(qiáng)制力。那么,在學(xué)理上以及實(shí)務(wù)操作中該如何把握兩者的異同呢?


提倡人工智能倫理制度獨(dú)特性的監(jiān)管者和學(xué)者的大致回答是:在功能上,法律合規(guī)還不足以引導(dǎo)社會朝著正確的方向發(fā)展。因?yàn)榉杀O(jiān)管的兩元代碼是合法和非法,它還無法說明在合法行為中,什么才是好的或者最好的行動,或者符合善治的要求。另外,職業(yè)倫理、商業(yè)倫理以及技術(shù)倫理等應(yīng)用倫理與法律之間的耦合、互動演化關(guān)系的成熟討論,可以作為應(yīng)對上述質(zhì)疑的答案。順著這種思路,也可以說,科技倫理的法化其實(shí)也是“科技治理的倫理化”的重要內(nèi)容;隨著科學(xué)技術(shù)對社會結(jié)構(gòu)帶來的深遠(yuǎn)影響、對人類道德生活和利益分配帶來的深刻影響,法律、倫理以及技術(shù)三者之間,出現(xiàn)了深度的嵌合重構(gòu)。換言之,它深刻地嵌入到了社會、經(jīng)濟(jì)、政治和文化結(jié)構(gòu),對人類道德生活和利益分配的沖擊日益深遠(yuǎn),國家不得不通過法律手段介入并將倫理與國家法律和監(jiān)管體系相嵌合。為了更好地進(jìn)入正題討論,此處暫時按下技術(shù)道德法化必要性討論不提,而轉(zhuǎn)向“如何法化”“如何更好地法化”等環(huán)節(jié),為人工智能倫理的合規(guī)實(shí)務(wù)提供理論指引。


(二)科技倫理法化的已有思路:新興權(quán)利、軟法與共同體倫理

已有關(guān)于科技倫理法化的研究,主要存在三種思路:


一是,道義論的應(yīng)對思路:人格權(quán)等新興權(quán)利研究。有私法學(xué)方向的學(xué)者從人格權(quán)保護(hù),提倡從立法上對科技倫理進(jìn)行規(guī)范。這方面國內(nèi)的法學(xué)者代表有中國人民大學(xué)的石佳友等人。但類似的新興權(quán)利探討,并不只局限于私法學(xué)者。比如,針對神經(jīng)技術(shù)、腦機(jī)接口技術(shù)引發(fā)的倫理困境提出的神經(jīng)權(quán)利研究,主要是一批神經(jīng)技術(shù)專家和倫理學(xué)家,且主要在憲法學(xué)、國際公法學(xué)的思路進(jìn)行推進(jìn)。有一些思路則從權(quán)利束的角度試圖突破人格權(quán)保護(hù)不足的問題——當(dāng)然后者的思考基于一種私法意義上人格權(quán)保護(hù)不足的問題意識。此外,還有學(xué)者實(shí)質(zhì)上提出了“權(quán)利動態(tài)化”以應(yīng)對科技發(fā)展帶來的倫理沖突困境。


二是,結(jié)果論的應(yīng)對思路:軟法研究。在國內(nèi)外法學(xué)界,公法學(xué)者會從軟法和硬法的兩元分立框架來討論科技倫理的功能及其法律性質(zhì),國內(nèi)的學(xué)者代表有北京大學(xué)的沈巋教授。國際公法學(xué)者對此也有類似的體系闡述。中國政法大學(xué)的趙鵬關(guān)于科技倫理法治化的研究、南開大學(xué)法學(xué)院宋華琳關(guān)于人工智能倫理法治化、上海政法學(xué)院劉長秋關(guān)于生命倫理法律化的思路,都可歸入這一研究進(jìn)路。其中,趙鵬的重要法化思路是:通過科技與社會關(guān)系的不確定性分析,提出部門法介入科技倫理治理的必要性及其優(yōu)勢。在他們的研究中,對法化過程的描述,主要采用更加正面的“法治化”的概念。在英文世界,除了法學(xué)界之外,公共管理學(xué)界、倫理學(xué)界以及經(jīng)濟(jì)學(xué)界都有充足的研究成果。軟法的研究思路明顯受到美國規(guī)制學(xué)派或者新行政法學(xué)的影響,具有鮮明結(jié)果論或者功利主義的理論傳統(tǒng),與公共管理學(xué)、社會學(xué)等學(xué)科中的人工智能治理研究形成了交叉關(guān)系。


三是,美德論的應(yīng)對思路:共同體倫理的思路。持這一研究思路的學(xué)者主要是一些來自管理學(xué)、科學(xué)學(xué)、應(yīng)用倫理學(xué)等專業(yè)的學(xué)者。比如在關(guān)于如何將人工智能倫理原則轉(zhuǎn)變?yōu)楹弦?guī)實(shí)踐中,有較多的應(yīng)用倫理學(xué)以及人工智能技術(shù)專家將希望寄托在美德倫理學(xué)思路。這種思路的主要特點(diǎn)是:不定義人工智能倫理行為準(zhǔn)則的具體內(nèi)容,而是關(guān)注技術(shù)開發(fā)主體的個人層面,特別是技術(shù)專家和工程師的社會背景;通過增強(qiáng)技術(shù)人員及其所在企業(yè)的社會責(zé)任感、追求美德目標(biāo)等來消除“技術(shù)中立性”原則的弊端。這實(shí)質(zhì)上就是美德倫理學(xué)思路上的“(工程師)職業(yè)倫理”和“商業(yè)倫理”。當(dāng)然也存在康德哲學(xué)、道義論意義上的工程師倫理思路:事前確定一套固定的通用性原則和規(guī)則,讓技術(shù)開發(fā)主體去嚴(yán)格遵守。


上述研究思路在實(shí)踐中時常是融合在一起的。比如,以生物醫(yī)學(xué)倫理為主的科技倫理的監(jiān)管思路是:在研發(fā)階段,將其建構(gòu)為科學(xué)家共同體的職業(yè)倫理,在技術(shù)研發(fā)階段通過“名譽(yù)機(jī)制”和“逐出職業(yè)群體的威脅”為主的預(yù)防性、自我規(guī)制機(jī)制來實(shí)現(xiàn)風(fēng)險治理的目的。而在社會應(yīng)用階段,科技倫理的重點(diǎn)則轉(zhuǎn)移到相關(guān)利益方的充分認(rèn)知和有效評估,在這種思路中,作為職業(yè)倫理自我規(guī)制規(guī)則體系的生物醫(yī)學(xué)倫理,通過各類立法將生物醫(yī)學(xué)倫理規(guī)則嵌入到公法意義上的行政許可前置條件、違法或者違反行政秩序行為的確認(rèn)、非法行為的問責(zé)(包括侵權(quán)責(zé)任配置甚至刑罰對象)等兼有預(yù)防性和修正式的方式,不斷地提升其法律效力,從而逐漸演變成了兼有“軟法”和“硬法”、跨越公私法界限、超越國家法和社會規(guī)范兩分的規(guī)范體系。


(三)從職業(yè)倫理到科技倫理:作為參照系的生物醫(yī)藥倫理

生物醫(yī)藥倫理(bioethics)最早可以上溯至著名的“希波克拉底誓言”。該誓言呼吁醫(yī)生要幫助患者(仁慈)、不傷害(非惡意),并遵守保密義務(wù)。此后,在希波克拉底誓言基礎(chǔ)上,伴隨著近現(xiàn)代“權(quán)利社會”、福利社會的到來,生物醫(yī)藥倫理還生長出了以患者自主權(quán)為核心的患者利益中心主義(自治)、不能因患者個人和個體特征而受到歧視(反歧視)等原則。從性質(zhì)定義,醫(yī)生倫理在此階段的性質(zhì)屬于職業(yè)倫理(professional ethics),且是比教師倫理、法律職業(yè)倫理形成更早、更模范性的一種職業(yè)倫理。


隨著現(xiàn)代科學(xué)研究和技術(shù)探索,不斷地從純思辨的理論知識活動,演變成一種有目的、呈現(xiàn)規(guī)?;膶?shí)際行為,特別是科學(xué)成果的發(fā)現(xiàn)方式與途經(jīng)對社會以及科研活動過程中所涉及到的人群或者人類所珍惜的某種價值(比如“美好環(huán)境”)有著某種危害,甚至?xí)l(fā)社會風(fēng)險,即科技活動在很大程度上不再是一種價值中立的行動,于是在現(xiàn)代西方出現(xiàn)了技術(shù)倫理、工程倫理等科技倫理的討論,并最終聚合產(chǎn)生科技倫理的概念。作為一種責(zé)任倫理,科技倫理在早期實(shí)質(zhì)上也是一種職業(yè)倫理意義上的“科學(xué)家倫理”。在英文世界,很多關(guān)于技術(shù)倫理、工程倫理的教材或者通識論著,往往直接將上述倫理定義為職業(yè)倫理。


在此階段,生物醫(yī)藥倫理逐漸從聚焦于醫(yī)療實(shí)踐的醫(yī)生倫理逐漸演變成更廣泛地思考科學(xué)目的、生命本質(zhì)等問題的“生命倫理”。伴隨著克隆技術(shù)、基因編輯等技術(shù)的進(jìn)展,相比于核科學(xué)、工程建設(shè)等通過國家強(qiáng)監(jiān)管機(jī)制即得以實(shí)現(xiàn)安全目標(biāo)的科學(xué)研究和技術(shù)探索,出于對自身隨時可能會成為“天竺鼠”(實(shí)驗(yàn)小白鼠)的恐懼,在全球意義上,生命倫理議題在近三四十年成為學(xué)術(shù)界和社會層面的關(guān)注焦點(diǎn)。


由于科技活動性質(zhì)的變化,此階段的科技倫理逐漸出現(xiàn)與職業(yè)倫理相脫離的趨勢。因?yàn)榭茖W(xué)技術(shù)的發(fā)展動力源于現(xiàn)實(shí)需求,開發(fā)什么樣的技術(shù)、應(yīng)用于什么樣的領(lǐng)域以及如何應(yīng)用這些技術(shù),已不是由科學(xué)家或者科技從業(yè)者決定,而是取決于掌握科學(xué)技術(shù)權(quán)力的人們,包括公權(quán)力和資本。因此,責(zé)任倫理不斷擴(kuò)展到科學(xué)家或者科技從業(yè)者之外的其他人員,比如“實(shí)驗(yàn)室的管理單位及其負(fù)責(zé)人”;倫理合規(guī)的認(rèn)定方式也逐漸從“職業(yè)共同體認(rèn)定”演變?yōu)椤坝蟹蓪<?、倫理專家等非職業(yè)共同體內(nèi)部人員共同參加”的“倫理審查”。


本處簡要回溯了生物醫(yī)藥倫理的性質(zhì)變遷史,即它從醫(yī)生的職業(yè)倫理,到科學(xué)家的職業(yè)倫理,再到“超越職業(yè)倫理性質(zhì)”的科技倫理的演變。這種回溯并不是為了研究生物醫(yī)藥倫理的歷史,而只是試圖通過生物醫(yī)藥倫理性質(zhì)變遷從而導(dǎo)致其規(guī)范內(nèi)容變化歷史的回顧,將人工智能倫理的發(fā)展續(xù)接在這一傳統(tǒng)中,從而有效探知其規(guī)范內(nèi)容。


(四)到法學(xué)方法論尋求理論工具:事物本質(zhì)

人工智能倫理的法化,既要以已經(jīng)法化且理論論辯充分的生物醫(yī)藥倫理為參照,也要依據(jù)人工智能的技術(shù)特征對其法化進(jìn)行實(shí)踐操作,具體步驟有二:一是關(guān)注并概括人工智能倫理的具體特征,這些特征對于提高人工智能設(shè)計(jì)和開發(fā)的道德可持續(xù)性具有重要意義;二是采用有助于解釋人工智能倫理相關(guān)特征的方法論工具,這一方法論工具應(yīng)能有效處理、架接事實(shí)與價值之間的鴻溝。那么,法學(xué)研究者在過去是如何嘗試鑿穿事實(shí)與價值的壁壘(或架接鴻溝)的方案?我們很自然會想到要去法學(xué)方法論的工具箱里尋找理論工具。


在這里,我們試圖導(dǎo)入在國內(nèi)法學(xué)界逐漸歸于沉寂的適合于推論的“事物本質(zhì)”這一理論概念。盡管有著諸多的定義,以考夫曼的理論為主,“事物本質(zhì)”的方法包含以下三個命題:①事物擁有本質(zhì),并外顯為不以人的意志為轉(zhuǎn)移的特征或者規(guī)律;事物的“本質(zhì)”介于“建構(gòu)性理念—規(guī)范”與“事物”(法律所面對的具體生活關(guān)系)的中間。②“事物本質(zhì)”,既有來自普世永恒的屬性,也有來自不同的具體生活關(guān)系的特殊的、歷史的因素,因此它具有規(guī)范性意義。③“事物本質(zhì)”可能會因?qū)嵢欢@得規(guī)范效力,也就是說,“事物本質(zhì)”具有法律淵源的特性。從這個角度來說,法律規(guī)范的結(jié)構(gòu)和內(nèi)容應(yīng)當(dāng)附隨于事物本質(zhì)的規(guī)范性意義。據(jù)此,事物本質(zhì)的理論要點(diǎn)可概括為“法理念或法律規(guī)范必須與生活事實(shí)維持一致,彼此應(yīng)相互適應(yīng)”。


可以舉例說明事物本質(zhì)理論應(yīng)用的典型性場景。比如,2012年《民事訴訟法》第112條將“民事虛假訴訟”界定為“當(dāng)事人之間惡意串通,企圖通過訴訟、調(diào)解等方式侵害他人權(quán)益”的訴訟行為,但實(shí)際上,“虛假訴訟”的本質(zhì)是當(dāng)事人虛構(gòu)案件糾紛以實(shí)現(xiàn)侵害他人合法權(quán)益和社會公共利益的目的,既可以是主體間串通,也可以不經(jīng)串通而由當(dāng)事人單方捏造證據(jù)虛構(gòu)法律關(guān)系來實(shí)現(xiàn),所以,一旦明了虛假訴訟依其本質(zhì)表現(xiàn)出的特征和規(guī)律,就可明確當(dāng)事人之間串通和一方當(dāng)事人捏造這兩種情形均體現(xiàn)虛假訴訟的社會危害性,故均需要通過法律予以規(guī)制,以此類推形成民事虛假訴訟法律規(guī)范的“恰當(dāng)內(nèi)容”。


可以采取與法化概念類似的思路,將事物本質(zhì)的理念納入以嫁接“人工智能的特征”與“人工智能倫理的特征”,即為了有效法化,廣義的立法者或者“找法者”從人工智能技術(shù)及其產(chǎn)業(yè)的特征中推導(dǎo)出(規(guī)范性的)倫理要求的過程。一言遮之,此處關(guān)于“事物本質(zhì)”的應(yīng)用場景,從法律適用場域轉(zhuǎn)移到了廣義的立法情景。


學(xué)術(shù)界對“事物本質(zhì)”理論的批判,主要集中于:①在前提上,抹殺了實(shí)然和應(yīng)然的區(qū)分。②在方法上,具有非科學(xué)性。與其相關(guān)的類推、類型等概念具有危險的不確定性,容易淪為恣意的工具。在人工智能倫理的法化過程中,運(yùn)用“事物本質(zhì)”這一概念展開分析,其優(yōu)勢至少可以表現(xiàn)在兩個方面:①在立法的場景里,因立法的民主化過程(商談、利益博弈)的性質(zhì)所決定,相比法律適用場景,它對于法律方法論科學(xué)性的要求要大大降低,從而能夠有效弱化前文提及的反對事物本質(zhì)相關(guān)理論的批判力,并在法律實(shí)踐中較為可行地激活這一理論。②借助于推論與類型化等方法,能夠更好地參照已有被有效法化且理論論辯充分的科技倫理(技術(shù)倫理)——生物醫(yī)藥倫理,進(jìn)而能夠從人工智能技術(shù)特征及其引發(fā)的社會關(guān)系變革入手來提出規(guī)范性規(guī)范要求的方法。


三、人工智能倫理法化所依賴的事物本質(zhì):三大背景性約束


在上述思路指引下,大致可以概括出人工智能倫理法化過程無法回避的三個特征或者約束性條件:具有道德規(guī)則的技術(shù)可嵌入性、更強(qiáng)的場景性以及依賴于技術(shù)過程的程序性。


(一)道德化人工智能與技術(shù)可嵌入性特征

人工智能倫理的可嵌入性主要基于“道德化人工智能”的研發(fā)思路,即為了實(shí)現(xiàn)倫理原則的可操作性,以及考慮人工智能應(yīng)用的場景化特征,從人工智能產(chǎn)品的開發(fā)最初,就要將嵌入式倫理整合到算法中,從而達(dá)到預(yù)測、識別并解決人工智能開發(fā)和應(yīng)用過程中的倫理問題。道德化人工智能(ethical AI)主要是指遵循透明、公平、責(zé)任、隱私保護(hù)等人工智能倫理的算法、架構(gòu)和接口。這種人工智能概念的提出,實(shí)質(zhì)上就是基于人工智能倫理實(shí)踐化的重要思路:讓抽象的倫理原則變成可操作性的現(xiàn)實(shí)。與之相關(guān),人工智能的嵌入性特征主要是指,在產(chǎn)品研發(fā)或者設(shè)計(jì)中,通過深度集成、協(xié)作和跨學(xué)科的方式,直接將人類普遍認(rèn)可的倫理原則編程到算法中,以使其“合乎倫理”,并讓其自主或者半自主地自我演化。


人工智能倫理的可嵌入化研究并不新鮮。早在20世紀(jì)中葉,阿西莫夫的機(jī)器人三定律就是倫理可嵌入性的理想化表述。這種思路的主要內(nèi)容就是:通過技術(shù)來確立并實(shí)現(xiàn)機(jī)器人的道德法則體系。用科學(xué)哲學(xué)的話語來表述就是:采取自然主義方法論來嵌入功能性道德。它的構(gòu)建策略基本有三:其一是自上而下,即在智能體中預(yù)設(shè)一套可操作的倫理規(guī)范,如自動駕駛汽車應(yīng)將撞車對他人造成的傷害降到最低。其二是自下而上,即讓智能體運(yùn)用反向強(qiáng)化學(xué)習(xí)等機(jī)器學(xué)習(xí)技術(shù)研究人類相關(guān)現(xiàn)實(shí)和模擬場景中的行為,使其樹立與人類相似的價值觀并付諸行動,如讓自動駕駛汽車研究人類的駕駛行為。其三是人機(jī)交互,即讓智能體用自然語言解釋其決策,使人類能把握其復(fù)雜的邏輯并及時糾正其中可能存在的問題。按照科學(xué)哲學(xué)主流的闡述,通過這些途經(jīng),可以將人工智能納入道德共同體,進(jìn)而通過三種方式影響人機(jī)交互:其一,人工智能將和動物一樣得到人類的倫理關(guān)注;其二,人類將認(rèn)為可以對人工智能的行動進(jìn)行道德評估;其三,人類將把人工智能作為道德決策的論證和說服目標(biāo)。但這些策略都有其顯見的困難:如何在代碼化和計(jì)算中準(zhǔn)確和不走樣地表達(dá)與定義倫理范疇?如何使智能體準(zhǔn)確地理解自然語言并與人進(jìn)行深度溝通?


人工智能倫理嵌入性研發(fā),在實(shí)踐中,公開可見的存在于涉生物醫(yī)藥的人工智能產(chǎn)品研發(fā)中。比如,在哈佛大學(xué)醫(yī)學(xué)院喬治·邱奇(George Church)的合成生物學(xué)實(shí)驗(yàn)室里就有專職的倫理學(xué)家;而德國慕尼黑工業(yè)大學(xué)的機(jī)器人和機(jī)器智能學(xué)院(MSRM)在生產(chǎn)人工智能驅(qū)動的醫(yī)療產(chǎn)品時,就聘請了慕尼黑醫(yī)學(xué)歷史與倫理研究所等單位的倫理學(xué)家和法律專家。此外,在筆者參與的一些智慧司法系統(tǒng)研發(fā)中,某些將法律程序的算法程序化工作,實(shí)質(zhì)上也是這種思路的重要組成部分。盡管人工智能倫理的嵌入性研發(fā)仍然還在路上,但是,這完全可以確立這一倫理規(guī)則的嵌入性特征,并提示我們有必要將倫理監(jiān)管的思路落實(shí)到技術(shù)研發(fā)的嵌入式過程。


(二)信息高頻流動與更強(qiáng)的場景性

人工智能技術(shù)引發(fā)的道德挑戰(zhàn)以及倫理回應(yīng)的思路,與傳統(tǒng)生物醫(yī)學(xué)倫理原則非常相似,甚至可以與其共享絕大部分的基本原則,特別是“增進(jìn)福祉”與“風(fēng)險的合理控制”。但是,與信息技術(shù)興起之前的生物醫(yī)學(xué)倫理不同的是,人工智能領(lǐng)域的倫理問題具有更強(qiáng)的不確定性、發(fā)展性,從工業(yè)應(yīng)用到自動駕駛,從養(yǎng)老到醫(yī)療,再到法律科技,場景的復(fù)雜性令人眼花繚亂,在場景化的倫理審查或者評估過程中,同時需要制定適應(yīng)于該應(yīng)用場景的相關(guān)倫理規(guī)則。相比傳統(tǒng)的生物醫(yī)藥技術(shù),人工智能技術(shù)(包括腦機(jī)接口等獲人工智能助力的生物醫(yī)藥技術(shù))的迭代速度更快,容不得技術(shù)開發(fā)者在較長的時間去展開相關(guān)的倫理沖突評估。也正是如此,有專家認(rèn)為,人工智能倫理產(chǎn)生作用的最大障礙是可操作問題。


海倫·尼森鮑姆(Helen Nissenbaum)針對信息技術(shù)帶來的隱私權(quán)保護(hù)難題,特別是個人信息難以界定、知情同意原則式微與虛化、信息處理參與者利益失衡等諸多挑戰(zhàn),提出了隱私場景公正理論(contextual integrity theory,以下簡稱場景理論)。該理論的核心觀點(diǎn)是,應(yīng)結(jié)合具體場景進(jìn)行針對性保護(hù),提倡具體的風(fēng)險防控、反對泛化的個人信息保護(hù);提倡采用信息處理的動態(tài)思路、反對個人信息固定不變;提倡采用寬容和促進(jìn)產(chǎn)業(yè)發(fā)展的監(jiān)管思路、反對個人主義的理念。這種場景理論,盡管是從社會學(xué)意義上敘事理論展開闡述的,但是也說明了人工智能技術(shù)以及其倫理規(guī)則高度場景化的特征。


與傳統(tǒng)生物醫(yī)學(xué)倫理相比,人工智能倫理(包括將人工智能系統(tǒng)應(yīng)用于傳統(tǒng)生物醫(yī)學(xué)領(lǐng)域而引發(fā)的倫理領(lǐng)域)在場景性方面表現(xiàn)為以下幾個方面:


一是個人信息界定的難題。在一種“鼓勵數(shù)據(jù)流通”的思路下,信息或者數(shù)據(jù)流動的鏈條無限被拉長、隱私和信息之間的界限越來越模糊,信息脫離原來的適用場景之后可能會被無數(shù)次地重新使用,最初使用的合理性基礎(chǔ)早已不存在,而在每次重新使用過程中,該信息是否屬于“需要保護(hù)的個人信息”以及如何“分類分級地進(jìn)行保護(hù)”,都取決于具體場景的性質(zhì)、場景中各方主體利益的均衡以及比例原則等多種相互疊加的法律、倫理原則和規(guī)則的適用權(quán)衡。當(dāng)然,在傳統(tǒng)生物醫(yī)學(xué)倫理領(lǐng)域也有類似問題,比如在1951年的海拉細(xì)胞系(Hela Cell Line)案件中,從海里埃塔·拉克絲(Henrietta Lacks)身上提取的癌癥細(xì)胞被反復(fù)復(fù)制并被生物醫(yī)藥公司用以牟利,就是一種場景轉(zhuǎn)換帶來的科技倫理問題。


二是關(guān)于知情同意權(quán)的虛化問題。在前信息技術(shù)時代,通過生物醫(yī)藥技術(shù)研發(fā)實(shí)踐逐步形成的知情同意制度,被認(rèn)為是個人信息保護(hù)制度的關(guān)鍵內(nèi)容。但隨著信息時代的到來,這一制度的虛設(shè)性越來越明顯。相關(guān)領(lǐng)域?qū)W界已經(jīng)有了較為豐富的研究成果,此處不再贅述。

三是風(fēng)險責(zé)任的分擔(dān)問題。順著對主流法學(xué)影響甚深的倫理學(xué)或者道義論的思路,前沿科技引發(fā)的風(fēng)險責(zé)任自然應(yīng)由“作為技術(shù)開發(fā)者或者服務(wù)提供者的加害人”承擔(dān)。如果嚴(yán)格遵循這種“民間心理學(xué)”或者“直覺道德感”的思路,在法律適用中,就不大可能會出現(xiàn)保障美國和中國網(wǎng)絡(luò)平臺經(jīng)濟(jì)發(fā)展的“避風(fēng)港原則”和“紅旗規(guī)則”。但是,令人憂慮的是,在短短的二十多年中,伴隨著數(shù)字技術(shù)的不斷迭代,“避風(fēng)港原則”在中美的監(jiān)管實(shí)踐中都已經(jīng)出現(xiàn)多次實(shí)質(zhì)性的修改。此外,關(guān)于算法其實(shí)、社會公平、風(fēng)險控制等,全球背景下,對相關(guān)倫理問題的認(rèn)識也伴隨著技術(shù)的發(fā)展而不斷迭代,令人難以適從。


在學(xué)術(shù)界,在場景化特征方面,關(guān)于人工智能倫理和生物醫(yī)藥倫理的區(qū)別中,還涉及能否“職業(yè)倫理化”的討論。有學(xué)者認(rèn)為,因?yàn)樯镝t(yī)藥技術(shù)的“封閉性”特征,使得生物醫(yī)藥倫理是可以轉(zhuǎn)化為高等學(xué)校教師、科研人員的“職業(yè)倫理”,但是人工智能幾乎適用于任何人類,因此無法產(chǎn)生一個“使用人工智能”的職業(yè)或者工種倫理。這一討論可能涉及對人工智能倫理內(nèi)容的分類分級。


(三)透明化、可解釋性難題與程序性特征

在人工智能倫理中,透明度、可解釋以及可問責(zé)是一組相鄰、鏈條化的原則。關(guān)于這些倫理原則的技術(shù)緣起以及技術(shù)化思路已經(jīng)有很多文獻(xiàn)展開討論。在生成式人工智能出現(xiàn)之前,為了應(yīng)對算法歧視等影響社會公平的問題,以算法透明、可解釋為內(nèi)核,各國逐漸構(gòu)建起一套完整的算法治理體系。但是,由于基于大模型的生成式人工智能復(fù)雜的內(nèi)部工作機(jī)制,使得其具有透明度低、可解釋難、算法歸責(zé)存在困境等問題。盡管學(xué)術(shù)界普遍認(rèn)為,不可能解釋的“涌現(xiàn)”現(xiàn)象,只是暫時不能解釋而已,但它對此前的算法治理體系形成了嚴(yán)重的沖擊,甚至顛覆?!稌盒修k法》試圖通過“從算法治理到模型治理”的治理模式革新,解決這個問題,但是在可執(zhí)行性方面仍然還有很遠(yuǎn)的路要走。


在此背景下,理想主義地從完全的可解釋性來給開發(fā)者或者應(yīng)用者配置責(zé)任,顯得十分不現(xiàn)實(shí)。這時候我們或許可以借鑒“職業(yè)倫理是一種程序倫理”的思路,回到正當(dāng)程序的思路來進(jìn)行規(guī)制人工智能倫理。當(dāng)然,運(yùn)用正當(dāng)程序原則來規(guī)制人工智能的應(yīng)用,特別是對公權(quán)力的限制并不是一個新話題。但是如何貫徹技術(shù)性正當(dāng)性程序原則,仍需落實(shí)為技術(shù)實(shí)踐問題,這就需要回到前文所談及的倫理技術(shù)嵌入性的問題。我們可能需要更寬廣的視野,從人工智能認(rèn)知架構(gòu)設(shè)計(jì)與程序機(jī)制內(nèi)置化的角度進(jìn)行展開。


對于以往的生物醫(yī)藥倫理而言,程序法和實(shí)體法的性質(zhì)爭論實(shí)質(zhì)上是不存在的:生物醫(yī)藥倫理的程序性倫理,主要落實(shí)在“審查”,而此前的生物醫(yī)藥倫理的實(shí)體內(nèi)容是相對確定的。但是,人工智能倫理強(qiáng)烈的場景化特征,使得其很多倫理規(guī)則需要在倫理審查現(xiàn)場產(chǎn)生,在此背景下人工智能倫理的過程性、程序性特征就更為明顯,需要我們在倫理審查等環(huán)節(jié)注重從程序法等角度去展開細(xì)致的制度設(shè)計(jì)。


四、結(jié)語


在當(dāng)下,實(shí)務(wù)界各方亟待人工智能倫理合規(guī)制度能符合可操作、可預(yù)期、可計(jì)算的要求。通過對各種人工智能倫理原則內(nèi)容的分析,可以發(fā)現(xiàn)幾乎所有的人工智能倫理原則要求,都已經(jīng)被世界主要國家和地區(qū)的數(shù)據(jù)、算法監(jiān)管制度所涵蓋。因此,時下慣常使用“人工智能倫理法治化”或者“人工智能倫理規(guī)范化”等泛化的概念,難以清晰而有效地作為人工智能倫理合規(guī)實(shí)操化的制度構(gòu)建目標(biāo)和分析工具。更甚之,這些概念還無法呈現(xiàn)或者遮蔽了人工智能立法中“安全與創(chuàng)新”“規(guī)范和發(fā)展”等諸多對立性討論的問題意識。


法化概念的最初使用,應(yīng)與當(dāng)下中國語境中的“法治化”同義。但隨著時間推移,“法治化”已經(jīng)逐漸空泛化為類似于“規(guī)范化”“制度化”的概念。相比而言,通過法社會學(xué)理論脈絡(luò)的不斷充實(shí),“法化”既具有豐富內(nèi)涵的事實(shí)描述功能,而且還具有對權(quán)利證立、程序保障等“法治化目標(biāo)”的反思功能。更重要的是,在前沿科技深遠(yuǎn)性影響社會實(shí)踐的當(dāng)下,通過法化的概念,還可以更好地分析一些傳統(tǒng)并不屬于傳統(tǒng)正式法律制度的科技倫理、技術(shù)標(biāo)準(zhǔn)、企事業(yè)單位內(nèi)部規(guī)范的法律性質(zhì)。


科技倫理的既有法化路徑主要有三:道義論持有者常用的新興權(quán)利證立(比如人格權(quán))、結(jié)果論持有者常用的軟法化(比如政府監(jiān)管工具創(chuàng)新)、美德論持有者常用的共同體倫理化(比如職業(yè)倫理、商業(yè)倫理)。那么,在上述研究的基礎(chǔ)上,該如何在實(shí)操的角度,實(shí)現(xiàn)人工智能倫理的法化之路呢?顯然,最便利的方式是通過與已經(jīng)被高度法化的生物醫(yī)藥倫理相比較(當(dāng)然,還有一種在生物醫(yī)藥倫理傳統(tǒng)上進(jìn)行續(xù)接的思路),抽象出人工智能倫理的特征,進(jìn)而從中推導(dǎo)出適合人工智能特有的(規(guī)范性的)倫理要求。


法學(xué)方法論中的事物本質(zhì)理論,主要的思路是在法律適用環(huán)節(jié),“用事物本質(zhì)的概念嫁接事實(shí)與價值的鴻溝”,近來雖在部門法理論研究也有一些應(yīng)用性成果,由于其科學(xué)性程度不高的問題,整體上呈現(xiàn)的較為沉寂。但在人工智能倫理法化的場景里,因廣義意義上立法的民主化過程(商談、利益博弈)的性質(zhì)所決定,它可能是通過對人工智能技術(shù)特征及其引發(fā)的社會關(guān)系變革,逐步推導(dǎo)出獨(dú)特的倫理要求的有效理論工具。在此思路引導(dǎo)下,我們概括了人工智能倫理法化的三個約束性要件:道德規(guī)則的技術(shù)可嵌入性、更強(qiáng)的場景性以及依賴于技術(shù)過程的程序性。


前文大膽地將產(chǎn)生于多元價值觀時代、具有鮮明批判傳統(tǒng)的“法化”概念,與產(chǎn)生于一元化價值觀時代、以面向法律適用為主要工具目的的“事物本質(zhì)”概念融于一起,將其運(yùn)用于人工智能倫理這一新興事物的討論中,在理論概念的深化、論證的嚴(yán)密性必然還有很多補(bǔ)充性的工作。更重要的是,當(dāng)下的諸多人工智能研究還啟示我們,關(guān)于人工智能和社會結(jié)合的研究,必須要回到復(fù)雜性的研究思路,才能獲得更好的解決答案。比如,人工智能倫理應(yīng)主要依賴于至下而上生成的思路,如果借用復(fù)雜適用系統(tǒng)可能會獲得更好的分析。但限于篇幅對此無法再做進(jìn)一步展開。