最近兩年,人們對于“人工智能”的關注度暴增,我們在各大媒體報刊經??吹疥P于“人工智能”的報道,由此可見,人工智能正處于風口正盛時期。隨著“人工智能”的不斷發(fā)展,滲透力不斷增強,影響我們生活中的方方面面,當人工智能極大地強化了人類能力時,現有的法律制度就會呈現出其局限性。
人工智能是當今社會的熱點。從年初“阿法狗”橫掃世界頂級棋手,到近期“阿法元”100比0全勝“阿法狗”,再到近日世界首位機器人公民的誕生,人工智能以迅猛的發(fā)展勢頭不斷沖擊著人們的日常生活,也給法律帶來了全新的挑戰(zhàn)。面對全新的問題與挑戰(zhàn),法律是否能提供妥當的解決方案?近日,北京大學法學院刑事法治研究中心主辦題為“法律如何應對人工智能”沙龍,來自學界、司法界、企業(yè)界的專家、學者就此進行了探討。
上海交通大學凱原法學院教授鄭戈:法律要智能地應對人工智能
人工智能是現代工業(yè)文明發(fā)展的必然產物,其發(fā)展進程始終與工業(yè)文明的發(fā)展相伴而行。與人工智能的飛速發(fā)展相對照的,是發(fā)端于農業(yè)社會的、以具有有限理性的人為規(guī)制對象的法律體系所天然具有的滯后性。
當人工智能極大地強化了人類能力時,現有的法律制度就會呈現出其局限性。以美國的電子取證、訴訟管理、合同起草和審核為例,人工智能目前在法律職業(yè)中的應用,說明此類技術被全面推廣以后,大量的法律職業(yè)將被人工智能取代,人工智能甚至可能導致法律思維和法律應用方式的根本性變革。
但人工智能對法律更根本的沖擊在于人工智能會導致極化社會。人工智能使法律滯后于技術和經濟的發(fā)展,使把握先機的人獲得巨大的邊際回報。并且,由于數據是人工智能時代最重要的資源,這將導致個人隱私和自由變得非常脆弱。同時,掌握了大量公民數據的企業(yè)可以利用這些信息對公民進行隱秘誘導,由此導致人們都“自愿服從”于某種看不見的力量。最后,一旦人工智能被應用于充滿不確定性的金融市場,還可能帶來各種災難性后果。
面對這一系列困局,一種應對思路是為人工智能賦予法律人格。但是,無論機器人以何種方式承擔責任,最終的責任承擔者都是人,這使得它的法律人格顯得毫無必要。
而在自動駕駛汽車領域,人工智能和法律的沖突則更為明顯。為此,德國和美國提出了兩種截然相反的應對方案:德國側重于自上而下的規(guī)則設計,美國則采取了一種“行業(yè)自治+政府把關”的公法模式。此外,第三種規(guī)制思路是對算法設計者提出倫理性約束,要求其始終將人的生命放在首位。
法律如何更加“智能”地應對人工智能?
首先,法律人士應當學習人工智能知識,使人工智能的基礎操作系統符合人類倫理和法律。其次,政府應當加大對人工智能的投入,吸收更多人工智能人才參與立法、行政和司法工作。第三,相比上述德國模式,美國模式更值得提倡的,即相應的技術標準、安全標準和個人數據保護標準應該是對行業(yè)自身發(fā)展出的標準與公共利益、個人權利保護原則的綜合考量。最后,應當制定相關規(guī)則約束算法設計者的行為,倡導和強化算法倫理。
最高法院司改辦規(guī)劃處處長何帆:人工智能短期內不可能淘汰法律人
必須承認的是,盡管人工智能目前的確已開始取代一部分低端的法律職業(yè),但是,囿于人工智能廣泛運用的諸多前提要求,人工智能在短期內不可能淘汰法律人。
目前,部分法院已經開始以語音識別、圖像識別、證據指引、知識圖譜為媒介,對人工智能進行初步運用。但這一過程也面臨各種制約和障礙,例如,部分法官對人工智能的深度運用仍存疑慮,認為人工智能并未減輕其工作負擔;人工智能的深度應用要求打通公檢法辦案平臺,但平臺搭建需要強化統籌;人工智能的類案推送功能未來可能導致部分辦案人員產生說理懈怠,或者過度依賴機器,等等。
法律人應當積極參與到技術研發(fā)中,為人工智能的深度應用提供場景、提煉規(guī)則,制作各種證據指引和知識圖譜,推進機器深度學習??傊度攵啻笕斯?,就會有多大智能。
京東集團法務部高級總監(jiān)丁道勤:人工智能的法律實踐仍處于起步階段
人工智能的應用領域是十分廣闊的,圖像識別和語音識別僅是其中很小的一個分支。
人工智能的三個核心要素是場景、數據和算力,但人工智能不一定意味著大數據。以鸚鵡模式和烏鴉模式為例,相比于只會模仿的鸚鵡,能自主感知、推理、學習、執(zhí)行的烏鴉式人工智能才是更值得推崇的。
目前,人工智能已經開始被運用于法律領域,但相較商業(yè)領域,人工智能的法律實踐仍處于起步階段。人工智能的法律影響主要體現在主體論即機器人的法律主體資格問題,以及應用論包括知識產權保護、侵權責任、隱私保護、勞動法和倫理問題等兩大方面。
騰訊研究院法律研究中心副主任蔡雄山:人工智能可能帶來五方面法律問題
人工智能帶來了下一波產業(yè)浪潮,基礎研究領域的進步使全球互聯網企業(yè)都在積極進行戰(zhàn)略轉變。從產業(yè)界的視角出發(fā),人工智能可能帶來如下法律問題:
其一,個人數據保護問題。在人工智能時代,數據具有巨大商業(yè)價值,因此如何對數據進行保護、是否要賦予數據所有權,就是值得思考的。
其二,算法歧視問題。例如,當運用大數據對個人征信進行評估時,由于系統設計的主觀性和數據本身的不全面性,得出的結論可能不夠客觀。
其三,監(jiān)管以及由此引發(fā)的責任分配問題。一個典型的例子就是自動駕駛汽車發(fā)生事故后的歸責問題,尤其是在加入機器學習之后,這一困境將更加凸顯。
其四,人工智能作品的知識產權歸屬問題。這個問題已在中國出現。
其五,機器人的法律人格問題。這既關涉法律,更關涉?zhèn)惱怼?/p>
面對人工智能帶來的這一系列問題,中國和西方現在正站在同一起跑線上。如何在這一特殊的歷史階段作出我們獨特的貢獻,是當下有必要深入探討的。
華宇元典公司副總經理黃琳娜:法律知識工程師可能是新就業(yè)方向
人工智能處理民間借貸案件中的“簽名偽造抗辯”可能遇到的語言識別障礙,說明法律AI不能復制圍棋的成功。“阿法狗”成功的原因在于圍棋邊界封閉、規(guī)則明晰,這使得機器可以自造數據。但法律世界包羅萬象、復雜混沌,常常沒有明確的對錯之分,且法律實踐必須納入人類知識,法律AI不可能擺脫人類經驗積累數據。并且,在法律中存在著諸如“數額較大”與“數額巨大”、“搶劫”與“搶奪”等文本非常相似但法律含義有明確區(qū)別的概念,以及諸如“時效”等基于特定目的而由人類擬制的概念和制度,這給機器的無監(jiān)督學習帶來了巨大困難。
目前研發(fā)中探索出的方式是通過專業(yè)法律人積累帶標簽數據,并且將監(jiān)督學習與強化學習相結合,使機器先通過較小規(guī)模的訓練樣本得到初步模型,再在法律人的不斷反饋下擴張樣本規(guī)模,通過數據循環(huán)最終得到較優(yōu)的模型。在這個過程中,法律人進行的數據標注是非常重要的。
人工智能的發(fā)展不會導致法律人失業(yè),但可能會使法律人的工作形態(tài)發(fā)生轉化。未來,法律知識工程師可能成為一個新的就業(yè)方向。法律知識工程師的工作是制作法律知識圖譜,將人類知識轉化為機器可以理解的形態(tài)。與圍棋不同,法律人工智能行業(yè)是一個強人工干預的知識驅動行業(yè),因此必須探索一條獨特的發(fā)展路徑。
北京大學法學院副教授車浩:人工智能帶來三個現實法律問題
人工智能可能帶來三個現實的法律問題:
一是自動駕駛問題。自動駕駛汽車的出現將導致以人為中心所建立的各種法律規(guī)則和概念體系逐漸消亡。當自動駕駛汽車進入市場后,自動駕駛汽車和非自動駕駛汽車在一定時期內將并存于交通領域,這將給交通領域注意義務的設置和過失責任的認定帶來挑戰(zhàn)。并且,注意義務規(guī)則的提煉和自動駕駛汽車應當遵循的原則必須與當地的實際交通狀況相適應,這就意味著自動駕駛領域的法律和技術必須本土化,而不能一味地移植借鑒。而等到自動駕駛全面普及、交通領域完全被人工智能支配的那一天,法律將不得不限制、禁止人的駕駛,以保證人工智能始終能作出正確判斷。這時,統治交通領域的將不再是規(guī)則,而是算法。人類生活的基本領域將被機器所侵蝕。
二是人工智能的人格問題。這是基于立法與學術研究角度生發(fā)出的思考。通常而言,法律規(guī)制的對象是社會一般理性成年人;對于達不到這一理性標準的兒童、精神病人等群體,法律會另行設定規(guī)則,對其進行特殊保護。但是,當人工智能開始普及,當社會上出現能力高于一般理性成年人的“超人”時,傳統的法律制度和規(guī)范將捉襟見肘。有必要考慮為這類人設定專門的法律規(guī)則。
三是人的退化問題。當人把腦力活動都交給機器,當人類生活的各個領域都被機器所取代,人類的智力必然會因為用進廢退而發(fā)生退化。到了那時,法律或許也就可有可無。
北大英華科技有限公司總經理趙曉海:人工智能推動法學教育轉型
人工智能不僅會影響法律職業(yè),同時還會推動法學教育的轉型。比起傳授知識,創(chuàng)新、實踐能力和判斷力的塑造才是未來法學院的主要培養(yǎng)方向。今后法學院應當建立人工智能研究院,以理智和積極的態(tài)度應對人工智能以及它帶來的新挑戰(zhàn)。
(原標題:法律如何應對人工智能挑戰(zhàn))