【作者】周輝
【內(nèi)容提要】
中國人工智能立法:示范與定位
周輝 中國社會(huì)科學(xué)院文化法制研究中心研究員
人工智能快速迭代、廣泛滲透,既會(huì)帶來倫理失序、技術(shù)失控等新風(fēng)險(xiǎn),也會(huì)加劇技術(shù)黑箱、算法歧視等舊問題,亟待從法律上系統(tǒng)作出回應(yīng)。中國學(xué)界先后推出的《人工智能示范法(專家建議稿)》《人工智能法(學(xué)者建議稿)》兩項(xiàng)成果,在為國家人工智能立法工作提供具體條文和制度設(shè)計(jì)參考的同時(shí),也持續(xù)凝聚著政產(chǎn)學(xué)研各界關(guān)于促進(jìn)和規(guī)范人工智能發(fā)展的法治共識(shí)。但是,學(xué)術(shù)的爭(zhēng)鳴不能替代制度的供給。有必要加快深入分析總結(jié)人工智能發(fā)展和安全的法治需求,更好研究制定符合我國國情、順應(yīng)世界發(fā)展潮流的人工智能法律制度體系。
《人工智能示范法(專家建議稿)》的起草邏輯
起草《人工智能示范法(專家建議稿)》,既希望通過以示范法形式對(duì)未來我國的人工智能立法提供示范參考,也希望以此為基礎(chǔ),探討中國人工智能治理的理論命題和范式,形成體現(xiàn)中國網(wǎng)絡(luò)與信息法治特點(diǎn),符合中國新興領(lǐng)域發(fā)展需要的人工智能法治話語體系,也為人工智能產(chǎn)業(yè)的發(fā)展提供示范的合規(guī)指引。綜合考量我國人工智能治理實(shí)踐和人工智能發(fā)展需求,《人工智能示范法(專家建議稿)》中采取了設(shè)立人工智能專門主管機(jī)關(guān)、建立人工智能負(fù)面清單的治理模式,同時(shí)盡量避免過度超前創(chuàng)設(shè)新興權(quán)利,為未來的人工智能應(yīng)用劃出底線、留足空間。
第一,設(shè)立人工智能專門主管機(jī)關(guān)。不同于《人工智能法(學(xué)者建議稿)》在統(tǒng)籌協(xié)調(diào)機(jī)制下由各部門在職責(zé)范圍內(nèi)負(fù)責(zé)人工智能監(jiān)督管理工作的思路,《人工智能示范法(專家建議稿)》提出設(shè)立國家人工智能辦公室作為國家人工智能專門主管機(jī)關(guān),同時(shí)在省級(jí)人民政府和較大的市的人民政府中設(shè)立負(fù)責(zé)轄區(qū)內(nèi)人工智能治理的人工智能主管機(jī)關(guān),將人工智能領(lǐng)域的規(guī)則制定、監(jiān)管執(zhí)法、促進(jìn)產(chǎn)業(yè)發(fā)展等職能集中于人工智能主管機(jī)關(guān),避免監(jiān)管領(lǐng)域交叉重疊可能導(dǎo)致的“九龍治水”難題。
實(shí)踐中,具體的應(yīng)用場(chǎng)景、商業(yè)模式往往難以明確區(qū)分,某幾種人工智能服務(wù)或應(yīng)用可能落入多個(gè)部門的監(jiān)管領(lǐng)域中。此時(shí),既有可能出現(xiàn)各部門均進(jìn)行立法、重復(fù)監(jiān)管的問題,也有可能出現(xiàn)各部門均怠于立法、監(jiān)管空白的情況。設(shè)立“統(tǒng)籌協(xié)調(diào)”機(jī)制解決這一問題,必然要明確統(tǒng)籌協(xié)調(diào)機(jī)制與各參與部門之間的權(quán)限劃分,事實(shí)上仍然是由統(tǒng)籌協(xié)調(diào)機(jī)制作為一個(gè)整體負(fù)責(zé)部門牽頭制定人工智能領(lǐng)域的基礎(chǔ)性規(guī)則和通用標(biāo)準(zhǔn),其他部門則負(fù)責(zé)結(jié)合本行業(yè)內(nèi)具體情況進(jìn)行執(zhí)法;而相比于多個(gè)部門共同負(fù)責(zé)或者指定某個(gè)部門作為統(tǒng)籌協(xié)調(diào)的負(fù)責(zé)部門,設(shè)立集中統(tǒng)一的人工智能主管機(jī)關(guān)并由國家人工智能主管機(jī)關(guān)領(lǐng)導(dǎo)各級(jí)地方人工智能主管機(jī)關(guān)履職,可以更加系統(tǒng)地掌握人工智能的發(fā)展和治理情況,制定更加協(xié)調(diào)統(tǒng)一的人工智能規(guī)則、標(biāo)準(zhǔn),也便于人工智能研發(fā)者、提供者與主管部門進(jìn)行溝通協(xié)作。除此之外,人工智能主管機(jī)關(guān)還可以作為我國與其他國家、國際組織就人工智能治理合作進(jìn)行對(duì)等交流的機(jī)構(gòu),配合外交部門提升我國參與人工智能全球治理的專業(yè)程度。當(dāng)然,設(shè)置集中統(tǒng)一的人工智能主管機(jī)關(guān),并不排斥在制定人工智能治理細(xì)則、實(shí)施監(jiān)管執(zhí)法時(shí),吸收對(duì)應(yīng)行業(yè)、領(lǐng)域的主管部門參與。
第二,以負(fù)面清單替代分類分級(jí)管理制度。不同人工智能技術(shù)的底層邏輯千差萬別,如何防范、如何控制、如何消除人工智能在不同環(huán)節(jié)、不同應(yīng)用場(chǎng)景下的風(fēng)險(xiǎn),尚無可通用的標(biāo)準(zhǔn)答案,而只能予以場(chǎng)景化、類型化的類案分析。為了回應(yīng)類似需求,歐盟《人工智能法案》嘗試基于發(fā)生風(fēng)險(xiǎn)的概率和嚴(yán)重程度對(duì)人工智能進(jìn)行全面的分類分級(jí),并根據(jù)分類分級(jí)的結(jié)果禁止實(shí)時(shí)生物識(shí)別等少數(shù)人工智能應(yīng)用,同時(shí)對(duì)高風(fēng)險(xiǎn)的人工智能施加較為嚴(yán)格的合規(guī)義務(wù)。
但是,如果將風(fēng)險(xiǎn)評(píng)估、劃分的義務(wù)更多地賦予人工智能研發(fā)者、提供者,例如要求其自行評(píng)估、判定其所研發(fā)或提供的人工智能系統(tǒng)的風(fēng)險(xiǎn),則有可能迫使研發(fā)者、提供者為確保合規(guī)而籠統(tǒng)地按盡可能高的等級(jí)來確定人工智能系統(tǒng)的安全風(fēng)險(xiǎn),以避免出現(xiàn)不可預(yù)料的高風(fēng)險(xiǎn)及承擔(dān)相應(yīng)的法律責(zé)任。此外,設(shè)置多個(gè)不同等級(jí)的風(fēng)險(xiǎn)雖然劃分更加細(xì)致,但在實(shí)踐中對(duì)企業(yè)合規(guī)的參考價(jià)值相對(duì)較小。為保證一定的冗余度,企業(yè)會(huì)在難以判別自身所需合規(guī)舉措時(shí)主動(dòng)采用更高乃至最高的風(fēng)險(xiǎn)防范標(biāo)準(zhǔn)。這種“就高不就低”的導(dǎo)向固然可以防患于未然,但也會(huì)損害技術(shù)創(chuàng)新的積極性。
因此,相較于已有的分類分級(jí)監(jiān)管模式,《人工智能示范法(專家建議稿)》僅將風(fēng)險(xiǎn)明確為“高風(fēng)險(xiǎn)”“低風(fēng)險(xiǎn)”兩級(jí),同時(shí)有針對(duì)性地明確何種特定人工智能服務(wù)、應(yīng)用屬于高風(fēng)險(xiǎn)。在明確高風(fēng)險(xiǎn)人工智能的基礎(chǔ)上,可由監(jiān)管部門建立人工智能“負(fù)面清單”,對(duì)清單內(nèi)的人工智能研發(fā)、提供等活動(dòng)設(shè)置較高的準(zhǔn)入門檻及合規(guī)義務(wù)。清單之外的人工智能研發(fā)、提供活動(dòng)則僅需承擔(dān)一般性的安全義務(wù),以減輕研發(fā)者、提供者的風(fēng)險(xiǎn)防范負(fù)擔(dān)?!柏?fù)面清單”不需要人工智能研發(fā)者、提供者自主確定所研發(fā)和提供的人工智能應(yīng)屬何種范疇,未在負(fù)面清單中列舉的人工智能服務(wù)和應(yīng)用均視為低風(fēng)險(xiǎn)。同時(shí),為了對(duì)可能出現(xiàn)的風(fēng)險(xiǎn)實(shí)施必要的防范,“負(fù)面清單”也應(yīng)不斷更新,及時(shí)納入屬于高風(fēng)險(xiǎn)范疇的人工智能。此種模式可以為人工智能產(chǎn)業(yè)提供更高的確定性,減少人工智能新技術(shù)新應(yīng)用分類分級(jí)不明確而無法形成一致標(biāo)準(zhǔn)的情況,也與我國《促進(jìn)和規(guī)范數(shù)據(jù)跨境流動(dòng)規(guī)定》在數(shù)據(jù)跨境領(lǐng)域?qū)嵤┑摹柏?fù)面清單”相仿,能夠在劃定安全底線的前提下鼓勵(lì)企業(yè)大膽探索、積極創(chuàng)新。
第三,審慎設(shè)置新型權(quán)利。近年來,不乏有從權(quán)利視角介入人工智能或其他新興技術(shù)治理,主張賦予個(gè)體以若干項(xiàng)新型權(quán)利的研究和討論,但從目前技術(shù)發(fā)展階段來看,各種新型權(quán)利的內(nèi)涵尚不明晰、權(quán)利實(shí)現(xiàn)機(jī)制尚不成熟;從學(xué)術(shù)研究角度固然可以進(jìn)一步探討其合理性,但在制度設(shè)計(jì)的維度,則應(yīng)保持審慎,僅作必要的規(guī)定,并留出未來進(jìn)一步修改、完善和進(jìn)行制度銜接的空間。
例如,《人工智能示范法(專家建議稿)》設(shè)置了人工智能使用者要求提供者作出解釋的權(quán)利,但對(duì)此種“解釋權(quán)”設(shè)置了一定限制,不僅將其適用條件限于人工智能產(chǎn)品、服務(wù)對(duì)個(gè)人權(quán)益有重大影響的情形,還允許提供者綜合考慮產(chǎn)品、服務(wù)的場(chǎng)景、性質(zhì)和行業(yè)技術(shù)發(fā)展水平等因素作出反饋,而沒有就解釋的內(nèi)容、解釋方式方法等進(jìn)行明確規(guī)定。這是因?yàn)?,類似的?quán)利內(nèi)容在個(gè)人信息保護(hù)等現(xiàn)有制度中已有體現(xiàn),通過現(xiàn)有的知情權(quán)、監(jiān)督舉報(bào)權(quán)等權(quán)利行使足以滿足需要。當(dāng)然,在人工智能發(fā)展過程中,未來可能會(huì)遇到需要在特定領(lǐng)域設(shè)立某項(xiàng)權(quán)利,或廣泛賦予個(gè)人以某項(xiàng)權(quán)利的情況 ;但在技術(shù)發(fā)展尚不充分、尚不完善的情況下,不應(yīng)急于通過創(chuàng)設(shè)更復(fù)雜的權(quán)利義務(wù)關(guān)系解決發(fā)展中尚不明晰的問題。如果所設(shè)立的權(quán)利在實(shí)踐中無法得到有效實(shí)現(xiàn),或與現(xiàn)有權(quán)利內(nèi)容重復(fù)度較高,則既無益于保障權(quán)利,也無益于促進(jìn)發(fā)展。
《人工智能法》的三重定位
結(jié)合現(xiàn)有的研究與實(shí)踐,未來的《人工智能法》應(yīng)主要把握促進(jìn)法、安全法與程序法三重定位。
(一)鼓勵(lì)發(fā)展創(chuàng)新的促進(jìn)法
與側(cè)重于禁止性、命令性規(guī)定的管理型立法不同,促進(jìn)型立法在設(shè)范方式上更加靈活,以鼓勵(lì)性、任意性規(guī)范為主,從服務(wù)而非監(jiān)管的角度,引導(dǎo)、支持特定領(lǐng)域或事業(yè)的發(fā)展。
第一,在數(shù)據(jù)供應(yīng)方面,要在擴(kuò)大數(shù)據(jù)供給的同時(shí),降低人工智能訓(xùn)練過程中數(shù)據(jù)合理使用的制度門檻。人類生產(chǎn)生活過程中產(chǎn)生的數(shù)據(jù)看似無窮無盡,但經(jīng)篩選與加工以后真正對(duì)人工智能訓(xùn)練有實(shí)際價(jià)值的數(shù)據(jù)卻并非如此。圖書、文獻(xiàn)等高質(zhì)量數(shù)據(jù)的更新速度遠(yuǎn)小于網(wǎng)絡(luò)空間內(nèi)的信息流規(guī)模,在人工智能訓(xùn)練需求不斷擴(kuò)張的趨勢(shì)下,高質(zhì)量數(shù)據(jù)到 2027年就有用盡的風(fēng)險(xiǎn),甚至低質(zhì)量數(shù)據(jù)也可能在本世紀(jì)中葉消耗殆盡。因此,既要在現(xiàn)有共享數(shù)據(jù)庫、公用數(shù)據(jù)庫基礎(chǔ)上進(jìn)一步支持人工智能領(lǐng)域基礎(chǔ)數(shù)據(jù)庫和專題數(shù)據(jù)庫,擴(kuò)大用于人工智能訓(xùn)練的公共數(shù)據(jù)供給范圍,也要明確人工智能訓(xùn)練數(shù)據(jù)合理使用制度、個(gè)人信息合理使用制度,減輕人工智能研發(fā)者承擔(dān)的不必要的合規(guī)義務(wù)。例如,經(jīng)去標(biāo)識(shí)化技術(shù)處理的個(gè)人信息在理論上仍可借助額外信息復(fù)原,因此《個(gè)人信息保護(hù)法》僅將這一技術(shù)作為安全措施的一種,個(gè)人信息處理者即使采用了去標(biāo)識(shí)化技術(shù)也不能免于承擔(dān)《個(gè)人信息保護(hù)法》規(guī)定的其他義務(wù)。但是,在人工智能訓(xùn)練場(chǎng)景中,觸達(dá)訓(xùn)練用原始數(shù)據(jù)的權(quán)限較為可控,個(gè)人信息因與其他數(shù)據(jù)混同用于訓(xùn)練而復(fù)原難度大大增加,實(shí)際上已幾乎不能從人工智能輸出的結(jié)果反向識(shí)別出其訓(xùn)練過程可能涉及的特定個(gè)人,個(gè)人信息權(quán)益受影響風(fēng)險(xiǎn)較其他場(chǎng)景顯著降低。故可考慮在人工智能立法中針對(duì)人工智能訓(xùn)練出臺(tái)專門規(guī)定,明確人工智能研發(fā)者、提供者采用符合國家標(biāo)準(zhǔn)的去標(biāo)識(shí)化技術(shù)對(duì)個(gè)人信息進(jìn)行處理并僅用于人工智能訓(xùn)練時(shí),可豁免其履行個(gè)人信息處理者義務(wù)。
第二,在算力供給方面,應(yīng)通過建立公共算力資源供給制度、推動(dòng)公共算力資源平臺(tái)建設(shè)與利用、加強(qiáng)算力科學(xué)調(diào)度等方式,解決企業(yè)尤其是中小型企業(yè)在人工智能研發(fā)過程中所面臨的算力資源不足的問題。統(tǒng)籌算力資源既包括我國北京、上海、廣州等地正在建設(shè)或已經(jīng)建設(shè)的公共算力資源平臺(tái),也包括一些科研機(jī)構(gòu)、大型企業(yè)為開發(fā)自有人工智能系統(tǒng)而籌集的算力資源。在互惠互利、公平合理的前提下,可以探索算力資源市場(chǎng)化交易,促進(jìn)公共算力資源、私有算力資源的共享互通,提高算力資源利用效率。
第三,在支持算法創(chuàng)新方面,除了鼓勵(lì)閉源模型的發(fā)展外,還要重視開源人工智能生態(tài)對(duì)人工智能技術(shù)創(chuàng)新的驅(qū)動(dòng)作用。開源人工智能以開放式的知識(shí)共享機(jī)制為核心,不僅能夠吸引中小規(guī)模研發(fā)者參與協(xié)作,也有助于大模型的優(yōu)化完善??梢栽诹⒎ㄖ忻鞔_國家對(duì)建設(shè)、運(yùn)營(yíng)開源開發(fā)平臺(tái)、開源社區(qū)的支持與鼓勵(lì),也可以探索設(shè)立開源人工智能基金,提供專項(xiàng)資金促進(jìn)開源人工智能生態(tài)的繁榮,并可鼓勵(lì)政府機(jī)關(guān)先行先試,應(yīng)用符合要求的開源人工智能。
第四,出于激發(fā)人工智能創(chuàng)新活力、促進(jìn)先行先試和控制負(fù)外部性的影響,還可以參考經(jīng)濟(jì)特區(qū)、浦東新區(qū)和海南自由貿(mào)易港的授權(quán)立法模式,在已有國家新一代人工智能試驗(yàn)區(qū)基礎(chǔ)上作出更進(jìn)一步的制度安排,選擇人工智能發(fā)展要素聚集度好、立法能力強(qiáng)、治理水平高的“試驗(yàn)區(qū)”設(shè)立“人工智能特區(qū)”,建立授權(quán)立法機(jī)制。人工智能特區(qū)所在城市人民代表大會(huì)及其常務(wù)委員會(huì),可以結(jié)合特區(qū)內(nèi)人工智能創(chuàng)新發(fā)展實(shí)踐需要,遵循憲法以及法律和行政法規(guī)的基本原則,就人工智能研發(fā)、提供、使用活動(dòng)制定法規(guī),在人工智能特區(qū)范圍內(nèi)實(shí)施。人工智能特區(qū)法規(guī)應(yīng)當(dāng)分別報(bào)全國人民代表大會(huì)常務(wù)委員會(huì)和國務(wù)院備案;對(duì)法律、行政法規(guī)的規(guī)定作變通規(guī)定的,應(yīng)當(dāng)說明變通的情況和理由。人工智能特區(qū)法規(guī)還可以就同一事項(xiàng),與部門規(guī)章或特區(qū)所在省、自治區(qū)、直轄市的地方性法規(guī)、地方政府規(guī)章作出不同規(guī)定,并優(yōu)先適用。
(二)防控安全風(fēng)險(xiǎn)的安全法
突出人工智能立法的安全法定位,主要是劃定人工智能研發(fā)、提供過程中的安全底線,建立人工智能安全評(píng)估、審計(jì)和應(yīng)急處置制度,科學(xué)區(qū)分人工智能全生命周期中各主體的安全義務(wù)。例如,就人工智能技術(shù)自身的安全風(fēng)險(xiǎn),在設(shè)置負(fù)面清單對(duì)高風(fēng)險(xiǎn)人工智能實(shí)施更嚴(yán)格監(jiān)管的基礎(chǔ)上,還可以參考《個(gè)人信息保護(hù)法》對(duì)大型平臺(tái)設(shè)置制定平臺(tái)內(nèi)規(guī)則、處置平臺(tái)內(nèi)違規(guī)行為等特殊義務(wù)的做法,要求基礎(chǔ)模型研發(fā)者對(duì)自身研發(fā)模型的安全性負(fù)更高的注意義務(wù),并應(yīng)專門采取合規(guī)措施保障基礎(chǔ)模型安全。此外,為落實(shí)一般主體的安全防范要求,也可以根據(jù)主體從事活動(dòng)的不同,區(qū)分人工智能研發(fā)者、提供者,有針對(duì)性地設(shè)置不同義務(wù)。人工智能研發(fā)者應(yīng)更加注重所研發(fā)的人工智能系統(tǒng)在技術(shù)上的安全風(fēng)險(xiǎn),而人工智能提供者應(yīng)側(cè)重于及時(shí)向研發(fā)者和監(jiān)管部門反饋人工智能運(yùn)行過程中出現(xiàn)的問題,關(guān)注對(duì)使用者可能造成的影響。
當(dāng)然,人工智能立法需要防范的安全風(fēng)險(xiǎn)不止技術(shù)自身的潛在風(fēng)險(xiǎn),也包括人工智能技術(shù)發(fā)展應(yīng)用過程中,外部因素干擾所帶來的有害信息倒灌、產(chǎn)業(yè)鏈供應(yīng)鏈?zhǔn)苡绊懙劝踩L(fēng)險(xiǎn)。對(duì)此,人工智能立法應(yīng)與《反外國制裁法》等法律法規(guī)形成制度銜接,設(shè)計(jì)對(duì)其他國家和地區(qū)不合理措施予以必要反制的法律依據(jù)。
(三)規(guī)范權(quán)力行使的控權(quán)法
人工智能是新興技術(shù)領(lǐng)域,無論是促進(jìn)其發(fā)展還是對(duì)其風(fēng)險(xiǎn)進(jìn)行治理都無太多先例可循,這一過程中可能產(chǎn)生行政權(quán)力過分干預(yù)行業(yè)發(fā)展的情況。未來在人工智能專門立法的框架下,應(yīng)由人工智能主管部門及時(shí)制定類似《網(wǎng)信部門行政執(zhí)法程序規(guī)定》的履職制度,規(guī)范與人工智能有關(guān)的行政執(zhí)法程序,避免過于頻繁的檢查、執(zhí)法和監(jiān)測(cè)對(duì)人工智能研發(fā)者、提供者的經(jīng)營(yíng)活動(dòng)造成阻礙。
同時(shí),也需要注重人工智能治理規(guī)則的可操作性。例如,關(guān)于監(jiān)管部門制定人工智能負(fù)面清單的標(biāo)準(zhǔn)以及基礎(chǔ)模型的概念等問題,除了評(píng)估其可能對(duì)社會(huì)秩序、法秩序造成的沖擊外,也需要遵循特定的技術(shù)指標(biāo)。在基于清單進(jìn)一步斟酌清單內(nèi)外監(jiān)管制度時(shí),應(yīng)避免給主管機(jī)關(guān)、人工智能研發(fā)者和提供者增加不必要的負(fù)擔(dān)。對(duì)負(fù)面清單內(nèi)的人工智能研發(fā)、提供活動(dòng),綜合防范風(fēng)險(xiǎn)的需求,宜采取許可申請(qǐng)制,實(shí)行事前監(jiān)管;對(duì)負(fù)面清單外的提供活動(dòng),則可以實(shí)施以備案為主的事后監(jiān)管,人工智能研發(fā)活動(dòng)在未轉(zhuǎn)化為實(shí)際應(yīng)用前則可不作備案要求。區(qū)分許可與備案、事前監(jiān)管與事后監(jiān)管,雖然將清單外人工智能研發(fā)與提供活動(dòng)納入監(jiān)管范圍,但此處所指“備案”及其他監(jiān)管執(zhí)法、風(fēng)險(xiǎn)監(jiān)測(cè)活動(dòng),不應(yīng)成為人工智能研發(fā)者、提供者正常經(jīng)營(yíng)的阻礙。就備案而言,對(duì)于應(yīng)備案而未履行備案義務(wù)、通過不正當(dāng)手段取得備案等情形,相關(guān)主體仍應(yīng)承擔(dān)相應(yīng)的不利后果;但是,只要材料符合形式要求、信息齊備,人工智能主管機(jī)關(guān)就不應(yīng)利用備案流程變相實(shí)施實(shí)質(zhì)性審查,而應(yīng)準(zhǔn)予備案。在未超出法定期限的前提下,只要申報(bào)材料已提交,備案流程的完成也不應(yīng)成為開展人工智能提供活動(dòng)的必要前提。
總而言之,人工智能立法不僅要對(duì)新技術(shù)、新應(yīng)用帶來的風(fēng)險(xiǎn)挑戰(zhàn)予以回應(yīng),更應(yīng)著眼于為智能經(jīng)濟(jì)、智能社會(huì)構(gòu)建具有基礎(chǔ)性、原則性的制度框架。對(duì)人工智能帶來的新問題新需求,應(yīng)在充分研究論證的基礎(chǔ)上作出必要規(guī)定,并留出未來修改、完善的空間;對(duì)不便在較宏觀的高位階立法中直接進(jìn)行規(guī)定的細(xì)節(jié)性問題,應(yīng)明確主管機(jī)關(guān)出臺(tái)配套制度的期限,做好制度銜接。