近日,“數(shù)字法治三十人論壇(2023年夏季)”在上海政法學(xué)院中國-上合基地舉行,此次論壇聚焦“人工智能的法律問題”。上海交通大學(xué)凱原法學(xué)院季衛(wèi)東教授、華東政法大學(xué)數(shù)字法治研究院馬長山教授、北京航空航天大學(xué)法學(xué)院龍衛(wèi)球教授為論壇作主旨演講。“海上法學(xué)院”獲授權(quán)摘編三位學(xué)者的主旨演講,為您呈現(xiàn)他們對(duì)數(shù)字化發(fā)展中法治問題的思考。
嘉賓介紹:
季衛(wèi)東
上海交通大學(xué)文科資深教授、博導(dǎo)、中國法與社會(huì)研究院院長、人工智能治理與法律研究中心主任,中國計(jì)算機(jī)學(xué)會(huì)計(jì)算法學(xué)分會(huì)會(huì)長,中國法學(xué)會(huì)法學(xué)教育研究會(huì)副會(huì)長。
馬長山
華東政法大學(xué)數(shù)字法治研究院院長、教授、博導(dǎo),《華東政法大學(xué)學(xué)報(bào)》主編,教育部重點(diǎn)領(lǐng)域教學(xué)資源“人工智能倫理知識(shí)領(lǐng)域?qū)<覅f(xié)作組”專家,中國法理學(xué)研究會(huì)副會(huì)長。
龍衛(wèi)球
北京航空航天大學(xué)法學(xué)院院長、教授、博導(dǎo),中國網(wǎng)絡(luò)與信息法學(xué)研究會(huì)副會(huì)長,中國民法學(xué)研究會(huì)常務(wù)理事,中國空間法學(xué)會(huì)常務(wù)理事,中國行為法學(xué)會(huì)副會(huì)長。
人工智能與人類價(jià)值取向如何對(duì)齊
季衛(wèi)東
去年11月30日Open AI正式發(fā)布ChatGPT以后引起了關(guān)注,其強(qiáng)大的功能甚至讓程序員都擔(dān)心失業(yè),也帶來了很多新問題。例如:生成式人工智能若有自主意識(shí),就有可能會(huì)失控,是不是要開發(fā)或者是進(jìn)一步加強(qiáng)風(fēng)險(xiǎn)防范?還未達(dá)到人類的智慧高度,僅僅語言大模型本身就改變了人類文明的操作系統(tǒng),帶來了人機(jī)關(guān)系的失衡問題。
還有一個(gè)最大的問題:信息失真。人工智能有時(shí)會(huì)像法官一樣一本正經(jīng)地回答,看似有很多根據(jù),但實(shí)際上虛假信息問題非常嚴(yán)重。當(dāng)人類的所有數(shù)據(jù)素材都被人工智能學(xué)習(xí)用盡,未來我們所面對(duì)的很多內(nèi)容都會(huì)是人工智能生成的,其真實(shí)性就需要打個(gè)問號(hào)。
法律上也會(huì)遇到許多問題,區(qū)塊鏈導(dǎo)致的個(gè)人自主權(quán)的強(qiáng)化與大模型的賦能結(jié)合起來,這一點(diǎn)就會(huì)變得更加突出。
中國現(xiàn)在有70多個(gè)大模型,其中有30多個(gè)模型非?;钴S。美國也同樣有大量的模型,這些模型對(duì)國家治理形成了非常明顯的挑戰(zhàn),怎么應(yīng)對(duì)處理?Open AI研究人員在2012年的時(shí)候提出了價(jià)值對(duì)齊的問題,若擔(dān)心人工智能會(huì)失控,就一定要讓人工智能價(jià)值取向和人類價(jià)值取向保持一致。但世界文明國家價(jià)值取向本就不同,怎么對(duì)齊,按照什么標(biāo)準(zhǔn)對(duì)齊,如果對(duì)齊不了呢?
最近美國三名研究者發(fā)表的一篇文章非常有意思,擺脫羅爾斯式“無知之幕”對(duì)保障AI算法公正和價(jià)值對(duì)齊的意義。他們做了一些實(shí)驗(yàn),比如把人工智能助手分配到不同角色當(dāng)中去,讓它進(jìn)行選擇。當(dāng)我們把所有的信息都告訴人工智能決策系統(tǒng),這個(gè)時(shí)候它的決定偏向效益。但如果按照羅爾斯“無知之幕”的構(gòu)想,當(dāng)把所有信息掩蓋起來,讓人工智能做出決策的時(shí)候,它的決策更偏向公正而不是效益,所以“無知之幕”的概念以及羅爾斯的理論,對(duì)于人工智能治理和價(jià)值對(duì)齊非常有參考價(jià)值。尤其在國際價(jià)值不相同的情況下,實(shí)質(zhì)性的標(biāo)準(zhǔn)難以統(tǒng)一,通過這樣一種純粹程序性方式來就道德規(guī)范和正義原則達(dá)成基本共識(shí),或是一種合適的解決方法。
“以人為本”:AI法治倫理的首要原則
馬長山
人工智能法治倫理的內(nèi)涵豐富、領(lǐng)域?qū)掗?,但首要原則應(yīng)該是“以人為本”。
首先,反對(duì)“技術(shù)至上”論?,F(xiàn)在有一種說法,認(rèn)為技術(shù)有自己獨(dú)立的邏輯,可以解決人解決不了的問題,就是一種“技術(shù)救世”主義。它反對(duì)人類中心主義,從人工智能發(fā)展的角度來講,這將會(huì)引發(fā)人類災(zāi)難。具體來說,一切由技術(shù)決定,技術(shù)會(huì)成為控制人類的一種方式,將會(huì)帶來對(duì)人性的嚴(yán)重侵蝕。目前,國際社會(huì)的共識(shí)是,技術(shù)的發(fā)展一定要服務(wù)于人,要增進(jìn)人類的福祉,而不是變成一個(gè)更有效地控制人類的手段。如果造成了數(shù)字權(quán)力化、權(quán)力數(shù)字化,這樣的社會(huì)是難以接受的。數(shù)字技術(shù)發(fā)展應(yīng)該讓所有人受惠,至少公平地分享數(shù)字紅利,實(shí)現(xiàn)真正的“共建共治共享”,過度強(qiáng)調(diào)技術(shù)至上并不是我們的目標(biāo)。
其次,遵循技術(shù)向善原則。技術(shù)發(fā)展應(yīng)尊重人格、符合人性、可信向善,致力于科技普惠、扶持弱者、安全負(fù)責(zé)。我們常常會(huì)遇到一些“流氓”軟件,如不斷變換虛擬號(hào)碼的騷擾電話、廣告彈窗關(guān)不掉或者點(diǎn)擊顯示關(guān)閉的“×”后恰好是打開、回復(fù)“退訂”恰好是“訂閱”等等;再如“搶票軟件”,一秒能搶100次,人再快的手,一秒也搶不過三次,這就等于一秒在你前面有97個(gè)人插隊(duì)。拓展開來說,疫情期間隨意賦紅碼,也是違反技術(shù)向善要求的。
再次,技術(shù)發(fā)展應(yīng)合理合規(guī)。現(xiàn)行法律法規(guī)、規(guī)章、規(guī)范性文件對(duì)于數(shù)據(jù)信息的概念及其確權(quán),并不十分明朗?!稊?shù)據(jù)安全法》對(duì)“數(shù)據(jù)”作了界定,但是現(xiàn)行法律對(duì)“信息”沒有任何界定,只是界定了“個(gè)人信息”。事實(shí)上,數(shù)據(jù)和信息的關(guān)系是實(shí)踐問題,不是理論問題。數(shù)據(jù)和信息在不同的應(yīng)用場景下也會(huì)發(fā)生轉(zhuǎn)換。比如住店,需要身份證,提供手機(jī)號(hào)甚至有些酒店需要刷臉,都是個(gè)人敏感信息,錄入后變成企業(yè)數(shù)據(jù)。如果文旅局要求酒店提供數(shù)據(jù)用以調(diào)研旅游市場情況,數(shù)據(jù)就變成信息。在什么情況下怎么利用,還有相關(guān)政府部門之間相互分享等問題都需要有章可循,做到合理合規(guī)。
人工智能發(fā)展中的個(gè)人信息保護(hù)
龍衛(wèi)球
人工智能到了超級(jí)智能的階段,帶來很多想不到的風(fēng)險(xiǎn),比如超級(jí)智能對(duì)數(shù)據(jù)有更大的需求。這些數(shù)據(jù)哪來的?如果在沒有充分規(guī)范的情況下抓取數(shù)據(jù),不可避免會(huì)侵犯別人的數(shù)據(jù)權(quán)益。
盡管現(xiàn)在的研發(fā)者聲稱,抓取的是公開數(shù)據(jù),但其實(shí)部分抓取數(shù)據(jù)中已經(jīng)包含了大量的個(gè)人信息,甚至是可識(shí)別的敏感個(gè)人信息,比如說姓名、電話號(hào)碼,且通常沒有提前獲得數(shù)據(jù)權(quán)利人的同意。
個(gè)人信息泄露未經(jīng)同意抓取使用的風(fēng)險(xiǎn)已有一些案例,今年3月三星DS部門發(fā)現(xiàn)在使用ChatGPT以后發(fā)生了20起泄露機(jī)密的事件。意大利也在3月發(fā)現(xiàn)了ChatGPT平臺(tái)用戶對(duì)話數(shù)據(jù)和付款服務(wù)支付信息丟失的情況。美國報(bào)道蘋果公司也發(fā)生類似問題,現(xiàn)已限制在公司內(nèi)使用ChatGPT。5月,美國國會(huì)研究處發(fā)表了深層次人工智能和數(shù)據(jù)報(bào)告,重點(diǎn)提到數(shù)據(jù)和個(gè)人信息保護(hù)。6月,針對(duì)Open AI的第一起集團(tuán)訴訟起訴至美國加州法庭,指控Open AI在開發(fā)營銷運(yùn)營超級(jí)智能產(chǎn)品的時(shí)候,非法收集使用數(shù)以億計(jì)的互聯(lián)網(wǎng)用戶信息,其中包括兒童信息。
6月,歐洲議會(huì)全體表決通過了《人工智能法案》授權(quán)草案,這可能會(huì)是第一部人工智能法。其中對(duì)ChatGPT增加了更多的安全控制措施,基于風(fēng)險(xiǎn)來制定監(jiān)管制度,以平衡人工智能的創(chuàng)新發(fā)展與安全規(guī)范。
我國如何應(yīng)對(duì)?今年初,網(wǎng)信辦發(fā)布了《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定(征求意見稿)》,其中對(duì)個(gè)人信息保護(hù)提出要求,如果用生成式智能AI提供服務(wù),使用個(gè)人信息需要征求個(gè)人同意。4月10日我國支付清算協(xié)會(huì)表示ChatGPT工具引起各方廣泛關(guān)注,已有部分企業(yè)員工使用這一工具開展工作,為有效應(yīng)對(duì)風(fēng)險(xiǎn)、保護(hù)客戶隱私、維護(hù)數(shù)據(jù)安全、提升支付清算行業(yè)數(shù)據(jù)安全管理水平,支付清算協(xié)會(huì)根據(jù)《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》等法律倡議慎用ChatGPT。目前而言,我國立法嚴(yán)重滯后,應(yīng)當(dāng)從法律層面立即著手修訂增加規(guī)范,如果不制定人工智能法,也應(yīng)制定相關(guān)條例,或者可以在其他法律中加入這一部分內(nèi)容。
感謝微信公眾號(hào)“海上法學(xué)院”授權(quán)轉(zhuǎn)載!