人工智能研發(fā)者是否應承擔產(chǎn)品質量責任?

德和衡商事爭議解決
人工智能在監(jiān)控測溫、疫情回訪、問診導診、輔助診斷、基因分析及數(shù)據(jù)預測方等方面均發(fā)揮了重要作用。但此次嶄露頭角的多是人工智能行業(yè)的頭部平臺或是少部分獨角獸企業(yè),很多應用在疫情中的功能也是臨危受命研發(fā)而成,各智能系統(tǒng)背后的數(shù)據(jù)支撐、運算邏輯或是硬件系統(tǒng)尚不成熟,其背后的風險也不容忽視。

2345截圖20211028093243.png

01、疫情下的人工智能主要應用場景

此次新型冠狀病毒肺炎的爆發(fā),無接觸是疫情防控的關鍵,人工智能開始大范圍進入人們的視野。比如在疫情爆發(fā)嚴控的階段,無人機在大街小巷巡邏,不僅宣傳防疫知識還實時監(jiān)控疫情情況,及時喊話外出放風的大爺大媽們。又如醫(yī)療資源緊張的武漢各醫(yī)院,人工智能更是及時承擔多項輔助工作,智能機器人測量體溫、藥房巡視、定點投放藥物以及CT輔助診斷。時間距離更近一點的,大家都陸續(xù)復工后,在人流量極大的高鐵、地鐵等公共交通場景下,目前采用的大多數(shù)是人工智能紅外測溫系統(tǒng),不僅減輕了安檢人員一個一個測試的負擔,還能在佩戴口罩的情況下進行智能識別檢測。

概言之,人工智能在監(jiān)控測溫、疫情回訪、問診導診、輔助診斷、基因分析及數(shù)據(jù)預測方等方面均發(fā)揮了重要作用。但此次嶄露頭角的多是人工智能行業(yè)的頭部平臺或是少部分獨角獸企業(yè),很多應用在疫情中的功能也是臨危受命研發(fā)而成,各智能系統(tǒng)背后的數(shù)據(jù)支撐、運算邏輯或是硬件系統(tǒng)尚不成熟,其背后的風險也不容忽視。

02、人工智能的運行邏輯決定其風險大小

(一)人工智能運行的核心關鍵

人工智能,英文縮寫為AI(Artificial Intelligence),是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統(tǒng)的一門新的技術科學。該領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統(tǒng)等。人工智能需要做到前述功能主要靠其內(nèi)在的運算系統(tǒng)支持,具體而言可以總結為人工智能“3+1”要素,即算料(大數(shù)據(jù))、算法、算力(計算能力)這“三算”以及場景,共同構成“3+1”要素。

算料(大數(shù)據(jù)):人工智能的智能都蘊含在大數(shù)據(jù)中,現(xiàn)在的時代,我們每天吃飯、乘車、消費等都會產(chǎn)生大量數(shù)據(jù),但這些大部分都是非結構化的數(shù)據(jù),將這些數(shù)據(jù)特征化、標量化、向量化處理后變成可以為人工智能算法所用的大數(shù)據(jù)。

算法:人工智能通過算法獲取和分析大量數(shù)據(jù),算法是實現(xiàn)人工智能的根本途徑,目前主流的算法主要分為機器學習算法和神經(jīng)網(wǎng)絡算法,后者是目前的主流算法。

算力(計算能力):算力為人工智能提供了基本的計算能力的支撐,它的某種本質是通過張量計算來處理非結構化數(shù)據(jù)的匹配。經(jīng)典的計算環(huán)境下,對于非結構化數(shù)據(jù)的處理無法獲得高效率的計算,所以AI計算需要單獨的計算芯片和計算架構來優(yōu)化。各種芯片計算能力對比中GPU領先其他芯片,在人工智能領域中運用最廣泛,CPU、FPGA、ASIC次之。如果通過優(yōu)化提升GUP的計算性能,還能加速神經(jīng)網(wǎng)絡系統(tǒng)的計算。

場景:算料、算法、算力作為輸入,只有在實際的場景中進行輸出,才能落地,體現(xiàn)人工智能的價值。業(yè)內(nèi)有個非常形象的類比:如果把炒菜作為場景,那么大數(shù)據(jù)就相當于炒菜需要的食材,算力就相當于炒菜需要的煤氣/電力/柴火,算法就相當于烹飪的方法和調料。

(二)疫情下,基于“三算”要素考量的客觀風險

人工智能經(jīng)過60多年的發(fā)展后,目前在“三算”方面取得了大量突破,有了從“不能用”到“可以用”的進步,此次疫情爆發(fā)也引起了官方的高度重視,工信部今年2月4日還發(fā)布了《充分發(fā)揮人工智能賦能效用協(xié)力抗擊新型灌裝病毒感染的肺炎疫情倡議書》,號召盡快利用AI技術并挖掘應用場景。這份倡議說明疫情防控對人工智能的急需,但這個領域還處于行業(yè)發(fā)展的早期,能夠抓住機遇的企業(yè)并不多,目前還面臨諸多技術上的不成熟及產(chǎn)業(yè)鏈供應不足的問題?;?ldquo;三算”要素的考量目前至少存在以下風險:

1、人工智能具有極強的數(shù)據(jù)依賴性。比如疫情期間剛需的紅外線測溫即為典型示例。測溫的精準度會受到很多因素的影響,特別是在車站這種人流量比較大、室內(nèi)外溫差大、環(huán)境比較復雜的地方,難免會有溫度的浮動,為了保證測量溫度的精準性,曠視推出了新算法,在無黑體的情況下保證人體測溫誤差在±0.3℃。由于人工智能的數(shù)據(jù)依賴,數(shù)據(jù)的準確性和相關性顯得至關重要,必須有良好的機制來保障數(shù)據(jù)質量,否則會因為數(shù)據(jù)錯誤而導致安全風險,并且數(shù)據(jù)依賴性還會擴大錯誤數(shù)據(jù)的安全風險。就紅外線測溫而言,如測量失誤導致“超級感染者”放行,繼而導致眾多人員必須采取緊急隔離措施,或更糟糕的是直接導致眾多人員的感染,那這種風險是相當大的,不得不予以重視。

2、人工智能算法還不夠成熟,需定向更新才能適應疫情需求。人工智能的算法是實現(xiàn)人工智能的根本途徑,此次疫情期間的產(chǎn)品都離不開特定場景需求的定向算法。比如機器人的醫(yī)療配送,由于智能機器人運營在醫(yī)院的核心區(qū)域,機器人在不同科室之間來回穿梭,這對機器人本身導航、電池的安全性,以及配送物品的安全性要求極高。但據(jù)人工智能獨角獸企業(yè)優(yōu)必選所言,目前機器人應用場景還面臨很多現(xiàn)實的困難,比如現(xiàn)在機器人的跨臺階能力很差,見微知著,機器人算法的不斷更新迭代還有很長的路要走。再比如CT人工智能輔助診斷,能在2-3秒內(nèi)從300多層的CT影像中挑出病灶影像,并對病人進行輕癥、重癥等定量評價,極大提高醫(yī)生審片效率,但效率提高了,準確率如何保證?數(shù)坤科技相關負責人稱既不能錯判,還要抑制假陽,即由于環(huán)境、操作、試驗方法或者患者自身等因素,把不具備陽性癥狀的人檢測出陽性結果,這兩個維度是現(xiàn)在產(chǎn)品的難點。“要控制好這兩個維度,需要憑借多年的醫(yī)學臨床經(jīng)驗和病例判斷能力,對AI系統(tǒng)的算法進行不斷調參”。并且,這還是在積累大量輔助診斷數(shù)據(jù)的前提下對算法進行不斷地調整才能適應疫情需求。如果人工智能診斷劃分失誤導致肺炎患者分診錯誤及治療被耽擱,亦或是導致更多人感染,其風險不可不察。

3、人工智能算力主要集中在各大云計算廠商,并未行業(yè)普及。疫情爆發(fā)之后,各大云計算廠商率先宣布的一件事,就是面向科研機構免費開放AI算力,比如阿里云提供超大規(guī)模計算力、AI算法等技術,支持鐘南山團隊的科研人員加快開展對新冠病毒的新藥研發(fā)、病毒基因測序、蛋白篩選等相關工作。前述這些醫(yī)學分析領域的工作,人工智能發(fā)揮助力都必須依靠算力來支撐,同時更優(yōu)質的相關算法,可以提高相關檢測的效率。但目前人工領域的算力主要集中在各大云計算廠商,行業(yè)內(nèi)研發(fā)力量并不均衡,行業(yè)平均水平尚未成熟,這也直接影響了人工智能相關產(chǎn)品的開發(fā)及其質量水平。

03、人工智能侵權責任承擔

通過以上概括分析,目前人工智能的運用并不完善,其質量保障來源于其背后充足的大數(shù)據(jù)、先進的算法以及強大的算力,一旦“三算”要素并不完備,人工智能產(chǎn)品存在質量瑕疵,極可能造成人身損害或財產(chǎn)損害。在目前弱人工智能發(fā)展階段且現(xiàn)行法律并未針對人工智能定向修改的情況下,人工智能在法律上只能算作客體,其不具備侵權主體資格。因此,在此背景下的責任承擔與之最為匹配的是產(chǎn)品責任模式,人工智能設備存在質量或程序問題時,應當適用產(chǎn)品責任,追究相關責任人責任,具體分析如下:

(一)現(xiàn)行法律框架下,產(chǎn)品責任承擔者

首先,關于產(chǎn)品侵權。產(chǎn)品責任是一種侵權責任,無論受害人與產(chǎn)品的生產(chǎn)和銷售者之間是否存在買賣合同關系,都可以提起產(chǎn)品責任之訴。其次,侵權責任有三種規(guī)則原則:過錯責任原則、無過錯責任原則及公平責任原則。產(chǎn)品責任及醫(yī)療產(chǎn)品責任均為無過錯責任原則,具體而言產(chǎn)品責任對免責事由承擔舉證責任,醫(yī)療產(chǎn)品責任對不存在因果關系承擔舉證責任。

《侵權責任法》第四十一條及四十二條規(guī)定了因產(chǎn)品存在缺陷造成他人損害,生產(chǎn)者和銷售者應承擔侵權責任,對外適用無過錯責任原則,即承擔侵權責任無需以生產(chǎn)者或銷售者存在過錯為前提,對內(nèi)適用過錯原則,即承擔責任的一方可以向過錯方進行追償。

產(chǎn)品責任的承擔者為生產(chǎn)者及銷售者,二者承擔不真正連帶責任。對缺陷的產(chǎn)生具有過錯的倉儲者、運輸者不是責任主體,不能列為被告,最多列為無獨立請求權第三人。

(二)立法空白——研發(fā)者是否需承擔產(chǎn)品質量責任

無過錯責任原則是工業(yè)革命后調整法律規(guī)范才開始出現(xiàn)的規(guī)則原則,產(chǎn)品質量責任即為此類,產(chǎn)品質量責任承擔的原理與之有著類似的邏輯,最終法律側重保護消費者及權利受損者利益??紤]到產(chǎn)品質量責任的歸責邏輯,之所以僅要求生產(chǎn)者與銷售者承擔侵權責任,可能首先需要弄清楚產(chǎn)品的定義。“產(chǎn)品”是指經(jīng)過加工、制作、用于銷售的產(chǎn)品。建設工程不屬于產(chǎn)品、但建設工程使用的建筑材料、建筑配件和設備屬于產(chǎn)品。血液制品屬于產(chǎn)品。從前述定義可知,并不是所有的物品都可歸屬于法律意義上的產(chǎn)品,由于“加工”是其主要手段,且“銷售”為最終目的,且兩者均因此而獲利,因此生產(chǎn)者和銷售者作為侵權責任承擔的直接責任主體比較合適。

但實踐當中存在弊端的是,“生產(chǎn)者”的界定并不明確。現(xiàn)行法律僅在《中華人民共和國民法通則》第一百二十二條規(guī)定“產(chǎn)品制造者”以及《中華人民共和國產(chǎn)品質量法》規(guī)定的“生產(chǎn)者”。對“生產(chǎn)者”的界定似乎僅限定于生產(chǎn)廠家。直到2002年,最高人民法院專門出具批復(法釋〔2002〕22號),認為任何將自己的姓名、名稱、商標或者可資識別的其他標識體現(xiàn)在產(chǎn)品上,表示其為產(chǎn)品制造者的企業(yè)或個人,均屬于前述法律規(guī)定的“產(chǎn)品制造者”和“生產(chǎn)者”。因此,目前我國法律體系下,產(chǎn)品制造者及產(chǎn)品商標所有人為法律上明確的“生產(chǎn)者”。

就目前法律規(guī)定而言,人工智能背景下的軟件程序設計者、軟件著作權所有者并不屬于“生產(chǎn)者”,無法要求其承擔產(chǎn)品責任。但對于人工智能產(chǎn)品而言,其核心因素在于“三算”技術的應用,產(chǎn)品的涉及研發(fā)是人工智能產(chǎn)品生產(chǎn)的核心環(huán)節(jié),涉計研發(fā)中編寫的算法或者輸入的數(shù)據(jù)存在問題也可能會導致產(chǎn)品存在安全隱患,這也屬于產(chǎn)品質量問題。因此對于生產(chǎn)者的定義,筆者認為應該包括設計者。同時根據(jù)最高院出版的《民事訴訟司法解釋的理解與適用》(2009年版),將商標所有人納入“生產(chǎn)者”范疇的原因是“如果在事故車輛是由通用汽車公司設計的,而事故的發(fā)生又是由于設計原因造成的情況下,通用汽車公司的責任也是無法排除的,在實體審理之前將通用汽車的責任排除是不恰當?shù)摹?rdquo;

基于該種理由,最高院出具的專門的批復將商標所有人納入“生產(chǎn)者”范疇,現(xiàn)在由于社會生活的發(fā)展,基于同樣的理由考慮,筆者認為也應將產(chǎn)品設計研發(fā)人員納入“生產(chǎn)者”范疇,至于是否以軟件著作權主體作為界定標準,這些細節(jié)問題可以在法律修訂時再廣泛論證,但大的方向不可偏廢。

(三)除外責任適用的討論

如果將人工智能產(chǎn)品的研發(fā)者納入“生產(chǎn)者”范疇,研發(fā)者的注意義務及勤勉義務就更高,但法律不僅需要保護弱勢群體,也需要鼓勵科技創(chuàng)新。考慮到目前人工智能相關研發(fā)水平發(fā)展并不完善,“研發(fā)者”是否可以在被要求承擔侵權責任時適用“現(xiàn)有科學技術水平”抗辯,也值得討論。

《產(chǎn)品質量責任法》第四十一條第三款規(guī)定:“生產(chǎn)者能夠證明有下列情形之一的,不承擔賠償責任:(三)將產(chǎn)品投入流通時的科學技術水平尚不能發(fā)現(xiàn)缺陷的存在的。”如果生產(chǎn)者能夠證明現(xiàn)有科學技術抗辯則可以免除損害賠償責任。就人工智能領域而言,其適用存在客觀困難,最為直接的原因是人工智能算法的不透明性導致其無法運用現(xiàn)有科學技術抗辯。目前人工智能產(chǎn)品算法的不透明性導致難以跟蹤系統(tǒng)的決策過程,即所謂的“算法黑箱”black box-effect。當數(shù)據(jù)不能共享,現(xiàn)有科學技術水平?jīng)]有一個客觀的衡量標準,繼而導該條抗辯基本形同虛設。目前各國均尚未解決“算法黑箱”所帶來的日益增長的風險,歐盟產(chǎn)品安全法規(guī)建議,在發(fā)生事故的情況下,算法開發(fā)人員必須公開數(shù)據(jù)集的設計參數(shù)(design parameters)和元數(shù)據(jù)(metadata of datasets),或許也可以為我們所參考,在爭議糾紛復雜的情況下減輕被侵權人的舉證難度問題。

04、結語

人工智能在疫情期間積極運用,奮戰(zhàn)一線本身值得表揚與感謝。但人工智能本身是一個“中性”的事物,用得好能發(fā)揮效用,用的不好也能造成損害。人工智能未來必然繼續(xù)發(fā)展并深入我們的生活,面對新生事物,法律也需順應社會生活更新其法律規(guī)制來調整社會關系,平衡相關利益。就人工智能研發(fā)者是否應承擔產(chǎn)品質量問題而言,這只是其法律問題的冰山一角,可能這一問題能夠通過體系解釋、目的解釋等法律技術手段予以解決,但其他更多的問題是現(xiàn)行法律無法囊括解決的,法律的更新應盡早提上日程。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論