全球首部人工智能立法——歐盟《人工智能法》草案,擬于當(dāng)?shù)貢r間5月11日在歐洲議會進(jìn)行首次投票(關(guān)鍵委員會投票)。該草案要求ChatGPT等人工智能工具的開發(fā)商披露在構(gòu)建其系統(tǒng)時使用的版權(quán)材料,其適用范圍包括在歐盟區(qū)內(nèi)運行的所有AI系統(tǒng),無論其供應(yīng)方來自當(dāng)?shù)剡€是英美等第三方國家。一旦通過,這部法案將產(chǎn)生全球影響。
(相關(guān)資料圖)
事實上,人工智能的崛起對人類社會既有治理機(jī)制帶來諸多挑戰(zhàn),如何調(diào)整法律法規(guī)進(jìn)行應(yīng)對是世界各國面臨的共同問題。但總的來說,立法總是難免滯后于技術(shù)發(fā)展,如何適應(yīng)AI的快速甚至是跳躍性進(jìn)步,同時又防止阻礙AI技術(shù)的進(jìn)步,是法律界乃至整個人類社會面臨的現(xiàn)實困境。
上海交通大學(xué)首批文科資深教授、中國法與社會研究院院長、中國計算機(jī)學(xué)會(CCF)計算法學(xué)分會會長季衛(wèi)東特此為《鳳凰周刊》撰文指出,我們(人類) 需要”采取未雨綢繆的對策以防患于未然,并且在試錯過程中找出擺脫悖論的進(jìn)路“。
以下為季衛(wèi)東教授文章全文,文章原標(biāo)題為:《強(qiáng)人工智能的治理與法律挑戰(zhàn)》。
奇點再次成為輿論的焦點。
所謂“奇點”,在科技上指的是人工智能超越人類智慧的時刻。
七年前,當(dāng)AI系統(tǒng)“阿爾法圍棋(AlphaGo)”擊敗來自韓國的圍棋世界冠軍李世石時,人工智能超越人類智能的預(yù)測似乎變成了現(xiàn)實,曾經(jīng)引起一片騷動。在新冠疫情暴發(fā)前一年的那個夏天,油管(YouTube)用戶紛紛發(fā)現(xiàn),該視頻網(wǎng)站上的機(jī)器人對戰(zhàn)場景都被自動刪除了,于是又爆發(fā)出“機(jī)器覺醒”的驚呼。2022年6月,谷歌的一位軟件工程師還聲稱他研制的智能聊天機(jī)器人已經(jīng)產(chǎn)生了自主感情。到2023年3月17日,斯坦福大學(xué)教授米哈爾·科辛斯基公布了他的驚人發(fā)現(xiàn):GPT-4不僅具有比以前更明顯的機(jī)器覺醒的跡象,還暴露出試圖擺脫人類控制的主觀動機(jī)和潛力。
諸如此類的事實不斷曝光,意味著科技正在逼近奇點,甚至已經(jīng)越過奇點。也就是說,“強(qiáng)人工智能”似乎正在躡手躡腳地走進(jìn)人類的生活世界。
一般而言,所謂“弱人工智能”,只是按人的指令完成單項任務(wù),沒有獨立的自我意識。但與此不同,強(qiáng)人工智能則被認(rèn)為具有與人類同樣的認(rèn)知能力、抽象思考能力以及解決問題的能力,甚至有可能在智慧程度上超過人類。這樣就會產(chǎn)生AI與人類在智能上進(jìn)行比較或競爭的壓力,進(jìn)而導(dǎo)致對AI取代人類、傷害人類的憂慮。正因為存在這種憂患意識,奇點才會不斷成為人們關(guān)注的熱點。
兩種應(yīng)對之道及其變化
雖然ChatGPT功能強(qiáng)大,但或許還算不上真正的“強(qiáng)人工智能”。不過,GPT-4乃至GPT-5則很不一樣,在進(jìn)化過程中儼然醞釀著重大質(zhì)變。究竟應(yīng)該怎樣應(yīng)對強(qiáng)人工智能,迄今為止一直存在兩種對立的思想立場。一種主張在安全性獲得證明之前應(yīng)該停止新的研發(fā),可以稱之為“風(fēng)險預(yù)防至上”的原則。另一種主張在危害性獲得證明之前還應(yīng)該繼續(xù)研發(fā),可以稱之為“技術(shù)發(fā)展無須審批”的原則。在過去很長一段時期,歐洲側(cè)重前一種立場,美國側(cè)重后一種立場。
2023年1月25日,德國的“時光躍進(jìn)實驗室”的一名教授用示例和數(shù)據(jù)展示了ChatGPT易錯性
面對生成式人工智能ChatGPT橫空出世以及GPT-4引發(fā)的強(qiáng)AI研發(fā)競爭,即便側(cè)重創(chuàng)新的美國也出現(xiàn)了更加強(qiáng)調(diào)風(fēng)險預(yù)防原則的傾向。例如在2023年3月下旬,未來生命研究所發(fā)表了一封公開信,呼吁所有AI實驗室立即暫停訓(xùn)練比GPT-4更強(qiáng)的AI系統(tǒng)至少6個月,并獲得馬斯克等千名以上的科技界領(lǐng)袖和業(yè)界大佬簽名支持。3月30日,美國聯(lián)邦貿(mào)易委員會還收到來自AI和數(shù)字政策中心的舉報,要求對OpenAI及其新產(chǎn)品GPT-4展開調(diào)查。
今年4月5日的《華盛頓郵報》還披露了一個更加令人不寒而栗的事實,加州大學(xué)洛杉磯分校尤金·沃洛克教授的實驗性研究發(fā)現(xiàn),生成式人工智能ChatGPT居然能夠捏造法學(xué)家性騷擾的丑聞及其信息來源,指名道姓進(jìn)行有鼻子有眼的誹謗。到4月下旬,圖靈獎得主杰弗里·辛頓向谷歌提出離職以便能夠公開對人類AI研發(fā)大戰(zhàn)以及強(qiáng)人工智能應(yīng)用的風(fēng)險表示憂慮,據(jù)說他還很后悔開發(fā)了基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)技術(shù)。這些現(xiàn)象表明,專家和輿論都在試圖發(fā)出警報并且給社會帶節(jié)奏。
中國在上述兩種立場中究竟應(yīng)該如何取舍?抑或在統(tǒng)籌兼顧之余,持中庸之道?
強(qiáng)人工智能引發(fā)人類的三種恐慌
不可否認(rèn),強(qiáng)人工智能若隱若現(xiàn),正在人類社會甚至很多AI專家中引起某種恐慌。概括起來說,主要存在如下三類恐慌:
第一,失業(yè)的恐慌。事實上,近幾個月來有些游戲美術(shù)外包公司已經(jīng)在大批裁減美工畫師,因為這些工作由AI來做效率更高、成本極低。在2023年5月初,好萊塢的劇作家們還舉行了頗有聲勢的罷工和游行示威,抗議制片廠啟用AI系統(tǒng)創(chuàng)造劇本。但是,我們也要看到,即便強(qiáng)人工智能可以巧妙地處理差異,也仍然不能自己產(chǎn)生差異,因而不能像人類那樣進(jìn)行靈光乍現(xiàn)的創(chuàng)新。另外,強(qiáng)人工智能也不能真正理解價值和文化的涵義,理解是人的本質(zhì)屬性。在這個意義上可以說,智能機(jī)器是無法完全取代人類的。人們認(rèn)為強(qiáng)人工智能能夠理解,其實只不過是把預(yù)測當(dāng)作理解了。ChatGPT盡管不能理解卻還可以進(jìn)行生動的對話,其實只是借助網(wǎng)絡(luò)上不斷互動的自反身機(jī)制在進(jìn)行接龍式預(yù)測。意大利學(xué)者埃琳娜·埃斯波西托用“人工溝通”這個術(shù)語來描述這種人機(jī)對話。因此,在這里更重要的問題并非機(jī)器取代人類,而是如何建構(gòu)一種幾乎無法避免的人機(jī)共存秩序。把這個問題再轉(zhuǎn)換為與失業(yè)恐慌密切相關(guān)的法學(xué)問題,那就是,在強(qiáng)人工智能時代,會否形成少數(shù)科技精英對大多數(shù)賽博朋克們的絕對支配、對社會關(guān)系和社會分配又會隨之產(chǎn)生什么樣的影響。
2023年5月2日,編劇罷工的隊伍在派拉蒙影業(yè)公司前參加集會,呼吁提高薪資,要求公平的合約,拒絕給AI打工。
第二,失控的恐慌。過去的斬首行動以及持續(xù)了一年多的俄烏戰(zhàn)爭都證明,AI一旦用于目標(biāo)識別、跟蹤和攻擊,就會左右作戰(zhàn)的決策和殺傷行動的結(jié)果。不言而喻,這種無需人類直接控制的自主武器系統(tǒng)非常精準(zhǔn)和有效率,但也會導(dǎo)致戰(zhàn)爭自動化,會給人類帶來極大的風(fēng)險和危害。目前國際社會正在探討禁止或限制軍事AI系統(tǒng)的使用和發(fā)展,致力于研發(fā)防范自主武器傷害的技術(shù)或機(jī)制。由此可見,除了各國制定人工智能研發(fā)的倫理和法律規(guī)則的努力之外,還需要為相關(guān)國際公約的締結(jié)凝聚共識。另一方面,除了自主武器傷害,還有那些包括網(wǎng)絡(luò)詐騙、誘餌釣魚、捆綁流氓軟件等在內(nèi)的社會工程攻擊也構(gòu)成失控的典型場景。此外還有對知識產(chǎn)權(quán)制度的重磅沖擊所導(dǎo)致的失控。例如楓丹白露歐洲工商管理學(xué)院的菲利浦·帕克教授為一種自動制作合理且信息豐富的書籍的技術(shù)方法申請了專利,這意味著不久就有可能看到AI生成的書籍,本來似乎已經(jīng)塵埃落定的AIGC著作權(quán)制度安排或許會再起風(fēng)波。又例如澳大利亞新南威爾士大學(xué)已經(jīng)有人利用GPT從科學(xué)文獻(xiàn)中獲取有用的知識實現(xiàn)了材料科學(xué)的重要發(fā)現(xiàn),并且可以用于開發(fā)新的材料和器件,因而AI for Science系統(tǒng)的發(fā)明權(quán)和專利權(quán)歸屬也將成為極其復(fù)雜的法律問題。
第三,失真的恐慌。使用過ChatGPT的人都知道,這個語言大模型在很多方面顯示了令人驚艷的表達(dá)功能,但也頗有些油嘴滑舌不靠譜的地方,甚至還會人云亦云、不懂裝懂。當(dāng)聊天智能系統(tǒng)在胡說八道時也能擺出一本正經(jīng)的樣子,甚至引經(jīng)據(jù)典,這就非常容易讓不明就里的人們信以為真。據(jù)研究報告顯示,ChatGPT將在2026年之前耗盡高質(zhì)量語言數(shù)據(jù),在2030-2040年間耗盡所有人類語言數(shù)據(jù),從此AI合成數(shù)據(jù)將徹底取代真實數(shù)據(jù),成為訓(xùn)練AI的重要資源。如果此后喂食人工智能的主要數(shù)據(jù)養(yǎng)料是人工智能合成數(shù)據(jù),那么AIGC的可信度究竟如何、會不會讓虛假信息或臆造信息充斥網(wǎng)絡(luò)空間甚至壟斷人類溝通的語境就成為一個非常嚴(yán)重的問題。不言而喻,當(dāng)然人類不斷獲得大量真假莫辨的信息并據(jù)此進(jìn)行溝通、做出判斷,那么文明的基礎(chǔ)就會坍塌。
對強(qiáng)人工智能應(yīng)保持強(qiáng)風(fēng)險意識
上述恐慌都基于強(qiáng)人工智能的獨立自主性。有鑒于此,瓦拉赫、艾倫、斯密特在2012年發(fā)表的《機(jī)器道德》一文中早就提出了這樣的命題:“機(jī)器的自由度越大,就越有必要為機(jī)器設(shè)立倫理的各種標(biāo)準(zhǔn)”。這些標(biāo)準(zhǔn)既包括對強(qiáng)人工智能進(jìn)行治理的元規(guī)則和具體規(guī)則,也包括形成強(qiáng)人工智能系統(tǒng)自身道德能力的評價標(biāo)準(zhǔn)以及在多種道德(例如自主決定、親屬關(guān)懷、健康維持、隱私保護(hù)等等)之間互相沖突時進(jìn)行排序和處理的機(jī)制。根據(jù)斯坦福大學(xué)HAI(人本人工智能研究所)發(fā)行的2023年報告,AI專家中73%都相信AI將引發(fā)社會革命,但也有36%的人認(rèn)為AI有可能造成核彈級別的不可逆災(zāi)難。無論如何,正因為存在那種對小概率、大危害的強(qiáng)烈不安,我們才必須謀定而后動。
實際上,ChatGPT也是AI網(wǎng)絡(luò)化的一個典型,有可能從根本上改變?nèi)伺c物質(zhì)世界之間的關(guān)系。在萬物互聯(lián)的智能網(wǎng)絡(luò)之中,深度的機(jī)器學(xué)習(xí)會使AI離人類的介入和掌控越來越遠(yuǎn),算法變得越來越難以解釋、不可理解甚至無法控制,從而導(dǎo)致強(qiáng)人工智能的大模型有可能反噬人類,構(gòu)成一個揮之不去的噩夢。在我看來,這就意味著人工智能治理的重點將從算法治理轉(zhuǎn)向模型治理。也就是說,人工智能治理的標(biāo)準(zhǔn)將從算法偏見最小化轉(zhuǎn)向模型濫用最小化——從此透明度算不了什么,預(yù)測的準(zhǔn)確度將決定一切。沿著這樣的思路來考慮對于強(qiáng)人工智能的監(jiān)管,顯然,僅有集中化的備案和審查是力有不逮的,還需要引進(jìn)類似輿論監(jiān)督或者鼓勵用戶投訴那樣的分布式監(jiān)管的機(jī)制設(shè)計方案,讓社會參與AI監(jiān)管,及時終止深度學(xué)習(xí)模型的過度訓(xùn)練及其濫用,并對人工智能生成內(nèi)容(AIGC)的可信度測驗采取某種適當(dāng)提前介入的方式。
2019年11月2日,美國空軍國民警衛(wèi)隊第181情報聯(lián)隊的分析師們在印第安納州的一處空軍基地測試一個人工智能項目。
值得注意的是,正付諸歐洲議會討論的歐盟人工智能法案最近追加了若干規(guī)定,要求生成式人工智能模型的設(shè)計和開發(fā)也必須符合歐盟的法律和基本權(quán)利規(guī)范,包括表達(dá)的自由,同時也為AIGC設(shè)立了版權(quán)規(guī)則;為了確保AI的可信和安全,對相關(guān)科技風(fēng)險設(shè)立了四個不同等級以便進(jìn)行分類監(jiān)管;對AI企業(yè)的違規(guī)行為則將采取非常嚴(yán)厲的制裁措施,罰款可以高達(dá)3000萬歐元或全球收入的6%。據(jù)報道,在2023年4月27日歐洲議會已經(jīng)彌合分歧,達(dá)成了臨時政治協(xié)議,并決定在5月11日進(jìn)行關(guān)鍵委員會投票、在6月中旬進(jìn)行全體投票。按照這個日程表,力爭在2024年本屆議會屆滿前通過歐盟人工智能法案,頒布全球首個關(guān)于人工智能產(chǎn)品、服務(wù)以及決策的綜合性法律。幾乎同時,在日本高崎召開的G7數(shù)字部長會議于4月30日發(fā)表聯(lián)合聲明,強(qiáng)調(diào)應(yīng)該對AI采取“基于風(fēng)險”的監(jiān)管,但同時也表示監(jiān)管應(yīng)該為人工智能技術(shù)的發(fā)展保持一個“開放和有利的環(huán)境”。
中國人工智能治理與法規(guī)的最新演變
事實上,以2021年《新一代人工智能倫理規(guī)范》為標(biāo)志,中國在不斷加強(qiáng)對人工智能開發(fā)活動的治理,強(qiáng)調(diào)可信、可控、可問責(zé)以及敏捷應(yīng)對的基本原則。以這個規(guī)范性文件為指導(dǎo),有關(guān)部門著手研究和制定算法倫理規(guī)范并推動人工智能產(chǎn)業(yè)界形成共識,還試圖通過算法社區(qū)、行業(yè)聯(lián)盟等方式搭建公司內(nèi)部治理框架和責(zé)任體系,以便在維持人工智能技術(shù)和產(chǎn)業(yè)的發(fā)展勢頭與有效防范各種相關(guān)風(fēng)險之間達(dá)成某種適當(dāng)?shù)钠胶狻?/p>
特別值得注意的是,中國政府在2021年啟動了人工智能產(chǎn)業(yè)的“清朗行動計劃”,當(dāng)年側(cè)重算法濫用的專項治理,翌年又啟動了基于算法正義的綜合治理,試圖在三年左右的時間里把相關(guān)的倫理原則、法律規(guī)則以及技術(shù)性測試、監(jiān)管、評價方法都落到實處。2022年3月1日頒布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》還確立了算法備案制,要求對社會有實質(zhì)性影響的算法服務(wù)提供者必須在開業(yè)十天之內(nèi)提供算法自評估報告、公示內(nèi)容等具體材料并履行備案手續(xù),以確保監(jiān)管部門能在源頭上控制人工智能風(fēng)險。以聯(lián)合國科教文組織推出《人工智能倫理問題建議書》為背景,中共中央、國務(wù)院在2022年3月20日還頒發(fā)了《關(guān)于加強(qiáng)科技倫理治理的意見》。
進(jìn)入2023年4月后,隨著ChatGPT引發(fā)的全球性爭議日趨尖銳,中國科技部及時公布了《科技倫理審查辦法(試行)》稿,就新型人工智能治理向社會投石問路。緊接著,網(wǎng)信辦也有針對性地拿出了《生成式人工智能服務(wù)管理辦法》草稿廣泛征求意見。這些規(guī)范試圖通過備案制、安全評估、專家復(fù)核程序、明確責(zé)任主體、擬訂風(fēng)險清單、進(jìn)行抽查核驗等方法加強(qiáng)監(jiān)管,旨在防止人工智能技術(shù)的研發(fā)和應(yīng)用失控。不過,上述規(guī)范文本如何與《網(wǎng)絡(luò)安全法》、《數(shù)據(jù)安全法》、《個人信息保護(hù)法》的既定內(nèi)容進(jìn)行更縝密的銜接和整合,還有待進(jìn)一步推敲和改進(jìn)。
特別是《生成式人工智能服務(wù)管理辦法(征求意見稿)》把重點放在制造虛假信息、暴露個人隱私、侵犯知識產(chǎn)權(quán)、造成系統(tǒng)歧視、進(jìn)行網(wǎng)絡(luò)攻擊等風(fēng)險的防范上;要求生成式人工智能的研發(fā)者和利用者對預(yù)訓(xùn)練和優(yōu)化訓(xùn)練的數(shù)據(jù)來源合法性負(fù)責(zé);把算法安全評估和算法備案手續(xù)作為提供相關(guān)服務(wù)的前置要件,并要求服務(wù)提供者設(shè)立用戶投訴處理機(jī)制,還必須履行用戶身份驗證義務(wù)、防沉迷義務(wù)、個人信息保護(hù)義務(wù)、避免使用歧視性內(nèi)容的義務(wù)、及時處置違法信息的義務(wù)、提供安全穩(wěn)健服務(wù)的義務(wù)、生成內(nèi)容審核和標(biāo)識的義務(wù)、提高透明度義務(wù)等等,有的屬于新增義務(wù)類型。但這些規(guī)定大都有賴于在行政部門指導(dǎo)下,產(chǎn)品研發(fā)者、服務(wù)提供者進(jìn)行的自我審查和自我履行,還缺乏第三方獨立審計、測試以及強(qiáng)制執(zhí)行的制度安排,也缺乏算法論證程序和問責(zé)程序的具體設(shè)計。
直面自我指涉的法律和人工溝通的悖論
據(jù)報道,近來ChatGPT已經(jīng)開始廣泛應(yīng)用于司法和法律服務(wù)場景,包括全球四大會計師事務(wù)所的法律業(yè)務(wù)處理。2023年5月5日,世界頂級法商信息服務(wù)平臺LexisNexis又推出了面向法律界的生成式AI系統(tǒng)Lexis+AI??,旨在通過大語言模型實現(xiàn)法律和判例的高效檢索以及文書生成自動化。顯而易見,這樣的人機(jī)對話會不斷加強(qiáng)法律系統(tǒng)自我指涉和意義自我繁衍的特征。如果在不久的將來,用來訓(xùn)練AI的主要資源都統(tǒng)統(tǒng)變成了AI生成的數(shù)據(jù),通過ChatGPT等大語言模型進(jìn)行的法律溝通也將完全人工化,那就勢必形成一個完全閉環(huán)的智能司法系統(tǒng)和人工溝通系統(tǒng)。在尼克拉斯·盧曼用“自反身”和“自創(chuàng)生”等概念所描述的這種狀態(tài)下,實際上法律推理過程很容易陷入無限循環(huán)、頻繁出現(xiàn)無法被證明或證偽的陳述。于是乎,我們不得不追問究竟還能不能找到一個通用算法來判斷那些通過有限步驟就可以停止的程序?這就是困擾計算機(jī)科學(xué)家和哲學(xué)家的圖靈停機(jī)問題。
另一方面,隨著生成式人工智能和強(qiáng)人工智能應(yīng)用到規(guī)格化程度很高的法律領(lǐng)域,關(guān)于具體案件的溝通和判斷似乎進(jìn)入一個效率無限上升的軌道,但多樣性的競爭和發(fā)展機(jī)制卻被鎖死,形成無法自拔的困境或者“黑洞”,進(jìn)而導(dǎo)致整個法學(xué)領(lǐng)域以及糾紛解決機(jī)制的簡化、停滯甚至倒退。這就是人工智能科學(xué)領(lǐng)域的所謂“恐怖谷”效應(yīng)。當(dāng)人們借助ChatGPT來進(jìn)行檢索和內(nèi)容生成,試圖制定進(jìn)而實施關(guān)于強(qiáng)人工智能治理的法律規(guī)則時,會不會引起赫拉克利特式不可界定的悖論、會不會經(jīng)歷類似“恐怖谷”的詭異體驗、會不會引發(fā)更加復(fù)雜而棘手的社會問題?因自我指涉、不斷反饋的人工溝通而衍生出來的這一切,都需要計算法學(xué)研究者以及人工智能治理機(jī)制設(shè)計者采取未雨綢繆的對策以防患于未然,并且在試錯過程中找出擺脫悖論的進(jìn)路。