人工智能在社會各領(lǐng)域的深入應用帶來了諸多法律問題,如人工智能可否作為法律上的主體?人工智能生成物是不是作品?人工智能駕駛責任如何分配?這些問題可歸結(jié)到一點予以詮釋——人工智能是否有“法律人格”?
人工智能法律人格問題的實質(zhì)。法律人格,是指法律認可的一種享受權(quán)利、承擔義務的資格。通俗地說,若人工智能成為了法律上的“人”,其就擁有了享受權(quán)利的可能,比如受到尊重、不被隨意破壞打罵等身份方面的權(quán)利,以及著作權(quán)、收益權(quán)等財產(chǎn)方面的權(quán)利;若人工智能成為了法律上的“人”,其也須對自身行為負責,要有獨立承擔責任的能力,不能損害他人自由,不得侵犯他人財產(chǎn)及人身,否則會受到法律的制裁。相反,若人工智能不是法律上的“人”,其權(quán)利和責任將無從談起。也就是說,法律人格是享有權(quán)利和承擔責任的前提。
目前對此問題的討論,大致可以歸結(jié)為三種觀點:一是肯定說(主體說),即認為應當承認人工智能具有法律人格,但應同時明確其法律人格的有限性。如有學者認為,人工智能有獨立的意識和意志,具備了法律主體資格條件。二是否定說(工具說),該觀點主張人工智能僅僅是人類的工具,不是具有生命的自然人,也區(qū)別于具有獨立意志并作為自然人集合體的“法人”,且目前發(fā)展水平不足,不具備主體資格要件,因而尚不足以取得獨立的主體地位。三是具體說(區(qū)分階段說),該觀點認為人工智能法律人格問題的研究必須區(qū)分具體階段,也就是將人工智能大致劃分為弱人工與強人工兩個階段,弱人工時期的人工智能主要是單一方面具有人類造詣的功能型機器,仍然是人類的輔助工具,不具有法律人格;而強人工時代的人工智能具備獨立意志,擁有綜合智能元素,并能脫離人類控制自主行為,應當賦予其相應人格,同時明確其法律人格具有特殊性,區(qū)別于自然人人格與法人人格。如同法人區(qū)別于自然人沒有名譽權(quán)一樣,人工智能區(qū)別于自然人,也不具有結(jié)婚、生育等權(quán)利能力,當然這僅限于當前人工智能所處的發(fā)展階段。
實際上,隨著人工智能科技的進步及機器學習能力的逐步增強,人工智能自身的主體能力也在不斷充實、發(fā)展與成熟。如果把弱人工時代比作人工智能發(fā)展的嬰童階段,強人工時代則相當于人工智能發(fā)展的成年階段。與之相對應,法律是因應社會的發(fā)展變化而不斷發(fā)展完善的,“法律人格”的內(nèi)涵也在隨時代更迭不斷被賦予新的內(nèi)涵,其外延當然亦隨之擴展。從自然人格演進史、動物及無生命體的人格制度史來看,法律主體的范疇極具包容性。因此,法律的發(fā)展應當結(jié)合時代和技術(shù)的具體發(fā)展水平。就目前人工智能的發(fā)展水平而言,還處在弱人工時代,人工智能仍然是輔助人類工作的工具,尚不足以賦予其法律人格。而如果有一天,當我們進入人工智能發(fā)展到具備自我意識乃至自由意志的強人工時代,這一問題可能會有不同的答案。
人工智能生成物的權(quán)利歸屬。目前人工智能已可以進行自行寫作、作曲、作畫、撰寫新聞報道等,隨之而來的問題是,詩歌、畫作、歌曲、新聞稿等這些人工智能生成的內(nèi)容是不是著作權(quán)法上具有獨創(chuàng)性的作品?如果是作品,其權(quán)利歸屬于人工智能還是人?如果權(quán)利歸屬于人,是歸屬于人工智能的所有者、使用者、設(shè)計者抑或是其他主體?由此,人工智能生成物面臨的法律問題主要是生成物的法律定性及其權(quán)利歸屬。對此問題,學術(shù)界已經(jīng)有了一些研究成果,但爭議激烈、莫衷一是。如有學者認為,人工智能能夠自主學習、自主創(chuàng)作,其生成內(nèi)容具有獨創(chuàng)性,著作權(quán)應歸屬于機器人所有。對此,反對者則認為,權(quán)利若為機器人所有,該權(quán)利如何行使、由誰行使缺乏可操作性;也有學者認為,機器人是程序員設(shè)計出來的,應當由設(shè)計人員享有;還有學者認為,應借鑒單位作品制度,由機器人和設(shè)計人員共同所有,等等。
事實上,當前人工智能按照功能差異,如人類社會職位分工一樣,一般都會朝向不同領(lǐng)域、行業(yè)分化為專業(yè)性非常鮮明的功能型人工智能,雖然不具備綜合性主體能力,但在某一領(lǐng)域是有賦予其相應能力的空間的。例如,醫(yī)療機器人、法律機器人、寫作機器人等,對應可以賦予其為實現(xiàn)醫(yī)療工作的權(quán)利、為實現(xiàn)法律工作的權(quán)利、為實現(xiàn)寫作方面的權(quán)利。
人工智能侵權(quán)的責任承擔。人工智能迭代式的發(fā)展,使得汽車自動駕駛、醫(yī)療機器人、無人機等技術(shù)進一步解放了人類勞動,同時帶來的問題也層出不窮。在利用智能機器引發(fā)的醫(yī)療事故、自動駕駛的交通事故、無人機誤判等問題上,如何對相應責任進行認定與歸結(jié),誰來為人工智能的行為負責?有觀點認為,責任分配應結(jié)合機器人致?lián)p的具體情況分析,一是人為操控智能系統(tǒng)導致?lián)p害,如黑客、病毒等人為因素侵入互聯(lián)網(wǎng),進而控制智能機器人導致的損害,應當由背后的操控者承擔責任;二是因智能系統(tǒng)自身缺陷造成損害,如果是使用者過失,則由使用者承擔責任,如果是智能系統(tǒng)漏洞或者是人工智能超越控制的“自主行為”,應由受益者或社會承擔替代責任。這一觀點在現(xiàn)階段是有其合理性的。
但如果到了強人工智能時代,以算法程序、代碼規(guī)則這些無機神經(jīng)網(wǎng)絡(luò)具備思維與決斷能力的“人造人”,同以神經(jīng)元形式而具備獨立意志的人類一樣,都是擁有自由精神的實體,他們都有能力脫離自我之外其他實體控制獨立實施有意識與有意志的行為,那時如果仍要求人工智能背后的人類為其承擔責任將不再合理。到那時,人工智能享有權(quán)利(如著作權(quán)),其可以通過自己的勞動獲得財產(chǎn)。此外,按照由受益者負擔風險的原則,可由受益人或社會設(shè)立基金或投保方式為人工智能承擔責任。
綜上所述,在認識人工智能“法律人格”這一問題上,必須結(jié)合科學技術(shù)的發(fā)展階段進行實事求是地分析??上驳氖?,這一問題已得到國家層面的重視,國務院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》,明確了要“加強人工智能相關(guān)法律、倫理和社會問題研究,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架。開展與人工智能應用相關(guān)的民事與刑事責任確認、隱私和產(chǎn)權(quán)保護、信息安全利用等法律問題研究,建立追溯和問責制度,明確人工智能法律主體以及相關(guān)權(quán)利、義務和責任等”,這為促進人工智能健康快速發(fā)展打下了堅實的法治基礎(chǔ)。