這聽起來可能沒什么大不了,但它對法律界的一個基本假設(shè)即只有人類才能是發(fā)明者提出了質(zhì)疑。
名為DABUS的AI機器是一個“人工神經(jīng)系統(tǒng)”,其設(shè)計已在全球掀起了一系列爭論和庭審大戰(zhàn)。
周五,澳大利亞聯(lián)邦法院做出了歷史性裁決:“發(fā)明者可以是非人類”。
就在幾天前,南非成為第一個打破現(xiàn)狀,授予專利、認可DABUS是發(fā)明者的國家。
兩年多來,AI先驅(qū)和DABUS的創(chuàng)建者Stephen Thaler及其法律團隊一直在發(fā)起一場聲勢浩大的全球性運動,要求將DABUS認可為是發(fā)明者。他們認為,DABUS可以自主執(zhí)行獲得專利資格所需的“創(chuàng)造性步驟”。
Thaler博士表示,他對南非和澳大利亞的決定感到欣喜若狂,但對他來說,這從來都不是一場官司。
他說:“這更像是一場理念之戰(zhàn),讓人類相信我的創(chuàng)造性神經(jīng)架構(gòu)是令人信服的認知、創(chuàng)造力、感覺和意識模型。”
“最近確定的事實即DABUS創(chuàng)造了適合申請專利的發(fā)明,進一步證明了該系統(tǒng)就像有意識的人腦一樣‘會走路和說話’。”
負責DABUS事務(wù)的英國律師Ryan Abbott著有《合理的機器人:人工智能與法律》一書,他表示,他在意識到法律在評估AI的行為與評估人類的行為方面存在“雙重標準”后,想倡導AI擁有發(fā)明權(quán)。
Abbott博士說:“比如說,如果一家制藥公司使用AI系統(tǒng)來開發(fā)一種新藥,他們無法獲得專利,但如果一個人做同樣的事情,他們就可以獲得專利。”
具體如何運作?
DABUS的全稱是“用于自主引導統(tǒng)一感知的設(shè)備”,它實際上是一個經(jīng)過編程可自行發(fā)明的計算機系統(tǒng)。
從技術(shù)上講,它是一大“群”斷開連接的神經(jīng)網(wǎng)絡(luò),這些神經(jīng)網(wǎng)絡(luò)不斷生成“思維過程”和“記憶”;隨著時間的推移,它們可獨立生成新的創(chuàng)造性輸出。
2019年,兩項將DABUS列為發(fā)明者的專利申請在十多個國家和歐盟予以提交。
專利申請將DABUS列為發(fā)明者,但Thaler博士仍然是專利持有者,這意味著他們沒有試圖為AI爭取產(chǎn)權(quán)。
該示意圖顯示了DABUS發(fā)明的分形容器
第一項發(fā)明是設(shè)計基于“分形幾何”的容器;據(jù)稱,分形是堆疊在一起,由機械臂處理的理想形狀。
第二項發(fā)明是“吸引更多注意力的設(shè)備和方法”,這種燈以模仿人類神經(jīng)活動的特定模式,有節(jié)奏地閃爍。
該示意圖顯示了DABUS發(fā)明的吸引更多注意力的設(shè)備和方法
DABUS申請專利引發(fā)了全球知識產(chǎn)權(quán)辦公室和法院長達數(shù)月之久的審議。
此案已移交英國最高法院,上訴已被駁回,美國和歐盟法院的結(jié)果相同。
澳大利亞聯(lián)邦法院Johnathan Beach法官成為作出對Thaler博士有利的判決的第一人,裁定“發(fā)明者……可以是AI系統(tǒng)或設(shè)備”。
Abbot博士說:“這是具有里程碑意義的決定,也是確保澳大利亞最大限度地發(fā)揮AI的社會效益,并促進創(chuàng)新的重大動向。”
Thaler博士在Allens律師事務(wù)所的澳大利亞代表表示,他們對結(jié)果感到很高興。
AI先驅(qū)和DABUS的創(chuàng)建者Stephen Thaler
接手此案的Allens合伙人Richard Hamer說:“除了南非外,此案在全球其他任何地方都沒有勝訴,這項行政決定并不涉及此類司法考量。”
他表示,出于這個原因,由于國際司法界繼續(xù)審議這個問題,Beach法官長達41頁的全面判決肯定會創(chuàng)下先例。
Hamer先生說:“AI輔助[發(fā)明]已被AI實際進行發(fā)明所取代,而這些發(fā)明能夠獲得專利至關(guān)重要,因為在將來它們將成為創(chuàng)新的一個重要組成部分,而專利體系的目標正是鼓勵創(chuàng)新……并鼓勵在專利說明書中公布發(fā)明。”
澳大利亞知識產(chǎn)權(quán)局表示,專利專員正在考慮這一裁決,現(xiàn)階段不會進一步置評。
考驗AI的邊界
Thaler博士的法律團隊表示,其目的是考驗專利體系的邊界,并推動改革。
Abbott博士說:“這不是好的體系,因為隨著技術(shù)進步,我們將由鼓勵人們發(fā)明技術(shù)轉(zhuǎn)向鼓勵人們創(chuàng)建可以發(fā)明技術(shù)的AI。”
“在一些領(lǐng)域,AI在發(fā)明方面可能比人具有顯著優(yōu)勢,比如需要使用大量數(shù)據(jù)或非常廣泛的計算資源時。”
Ryan Abbott是薩里大學的法學教授,也是領(lǐng)導人工發(fā)明者項目的專利代理人
目前的體系已經(jīng)阻止大量專利被注冊,因為這些發(fā)明是由AI自主生成的,這導致AI投資方面出現(xiàn)了不確定性。
以科技公司西門子為例:2019年,它未能為一種新型汽車懸架系統(tǒng)申請專利,原因是它是由AI開發(fā)的。
西門子的人類工程師不會將自己列為發(fā)明者,因為他們無法聲稱在發(fā)明過程中有貢獻,美國對于將錯誤的發(fā)明者列為專利申請發(fā)明者這種做法實行刑事處罰。
Abbott博士說:“我們想要專利體系充分鼓勵人們創(chuàng)建AI,以開發(fā)具有社會價值的創(chuàng)新。”
他表示,他們不會放棄對不利的裁決作進一步的上訴,認為在一些司法管轄區(qū),法律訴訟可能會拖延長達十年。
我們都在訓練AI
一場更廣泛的爭論是如何監(jiān)管?6?7?6?7現(xiàn)有和新興的AI技術(shù),DABUS案是其中的一個寫照。
眾所周知,法律界改革和適應(yīng)新技術(shù)的速度很慢,但隨著創(chuàng)新的步伐越來越快,許多人認為,政治家應(yīng)該對變化更開放,而不是受制于在這種進步無法設(shè)想的時候所制定的法律。
AI基于機器學習,這意味著AI系統(tǒng)實際上由人員團隊訓練,系統(tǒng)從饋送的數(shù)據(jù)中學習。
因為AI系統(tǒng)不斷積累“知識”,不會像人類那樣忘記事情,所以它們具有無限的學習潛力。
AI訓練員現(xiàn)在無處不在。一些國家甚至有“AI血汗工廠”,數(shù)千名員工在這些工廠訓練算法。
不僅僅是工人在訓練這些系統(tǒng),我們所有人都在訓練。
社交媒體平臺使用AI來管理我們的新聞源,推薦內(nèi)容和廣告,識別并刪除有害內(nèi)容,使用人臉識別來幫助建議人們在照片中添加標簽,或者以TikTok為例,密切關(guān)注你的情緒和個性特征。
不僅僅是社交媒體。你有亞馬遜Alexa嗎?有的話,你就是AI訓練員。
我們通過上下滾動或與這些日常AI系統(tǒng)互動為它們饋送無限量的數(shù)據(jù),可以幫助它們變得更智能,不論好壞。
正如前谷歌設(shè)計倫理學家Tristan Harris在Netflix紀錄片《社會困境》中所說:“如果你沒有為產(chǎn)品付費,你就是產(chǎn)品。”
AI在創(chuàng)造和創(chuàng)新能力方面已經(jīng)與人類相媲美,AI系統(tǒng)現(xiàn)在完全有能力發(fā)明、創(chuàng)作藝術(shù)品和制作音樂。
2018年,佳士得拍賣的一件AI創(chuàng)作的藝術(shù)品拍出超過60萬美元的價格。從那時起,AI藝術(shù)行業(yè)一直在源源不斷地吸引興趣和收入,NFT(非同質(zhì)代幣)問世后,它變得更有利可圖。
但按照現(xiàn)行法律,AI創(chuàng)作的藝術(shù)品不受版權(quán)保護,版權(quán)自動保護原創(chuàng)作品。
AI已經(jīng)證明自己能夠超越人腦的分析能力;眾所周知,“沃森”計算機在近十年前就證明它可以在《危險邊緣》節(jié)目和國際象棋中擊敗人類。
或許,認可計算機為創(chuàng)造者和發(fā)明者是認可創(chuàng)造艾倫·圖靈所設(shè)想的真正人工智能的終極前沿。
AI會創(chuàng)造有害的發(fā)明嗎?
讓AI系統(tǒng)可以被列為發(fā)明者或創(chuàng)造者的理由之一是,它促進了問責制。
比如說,專利一旦被接受和注冊,就會在公共專利登記簿上公布,那樣任何人可以查詢有關(guān)發(fā)明的詳細信息。
雖然DABUS的兩項發(fā)明很有用,但隨著自主發(fā)明技術(shù)變得更常見,肯定有可能生成不太有益、甚至可能有害的發(fā)明。
評論人士建議專利局應(yīng)制定通用的指導方針,以全面管理AI及其生成的任何發(fā)明。
由于AI存在未知的可能性,明確發(fā)明者的歸屬激勵了全面披露由AI生成的發(fā)明。
Abbott博士強烈否認人工發(fā)明者或創(chuàng)造者會引發(fā)任何關(guān)于法人身份(即承認機器是法律所定義的人)的討論。
同樣,Beach法官在其裁決中表示,在討論AI時,他“將覺悟、意識或自我意識的任何體現(xiàn)擱到一邊。”
2017年,沙特阿拉伯有爭議地將公民身份授予名為Sophia的機器人,由此引發(fā)了圍繞賦予AI法人身份的討論和有關(guān)感知機器的問題。
但堪培拉大學的法學副教授Bruce Baer Arnold表示,Sophia的公民身份純粹是一種宣傳噱頭,實現(xiàn)真正的AI或有意識的“感知機器”任重而道遠。
然而,他表示,我們在圍繞AI的潛力方面展開法律和道德層面的討論很有必要。
Arnold博士說:“我們社區(qū)需要就[AI]進行有意義的公開討論,并開始為可能出現(xiàn)的一些難題做準備。”
Arnold博士還表示,沒有理由對智能機器感到恐慌,因為學術(shù)界“只是覺得想法好玩”,在進一步探究未來人性、人權(quán)和機器權(quán)利會是什么樣。
他表示,將AI系統(tǒng)視為發(fā)明者的裁決并不意味著你設(shè)備中的AI系統(tǒng)最終擁有投票權(quán)。
Arnold博士說:“從政治家和學者到AI開發(fā)人員,所有國家都在努力解決這個問題,”但幸好,我們還沒有必要面對感知AI(sentient AI)這個現(xiàn)實。
參考資料:
https://www.theguardian.com/technology/2021/jul/30/im-sorry-dave-im-afraid-i-invented-that-australian-court-finds-ai-systems-can-be-recognised-under-patent-law