時(shí)代的發(fā)展日新月異,人工智能已成為人們時(shí)談時(shí)新的話題。近兩年,隨著人工智能的快速發(fā)展,AI已逐漸滲透至生活中的各個(gè)領(lǐng)域,例如,教育、農(nóng)業(yè)、醫(yī)療等。人工智能在這些領(lǐng)域中的應(yīng)用雖給行業(yè)的發(fā)展帶來(lái)了很多好處,但企業(yè)在應(yīng)用AI的過(guò)程中也暴露出很多問(wèn)題。
我們總說(shuō),人工智能已經(jīng)進(jìn)入到了生活中的方方面面,但人工智能在社會(huì)中究竟有多普及呢?據(jù)《福布斯》報(bào)道,Statista的一項(xiàng)調(diào)查結(jié)果顯示,截至2017年,全球只有5%的企業(yè)在其工作流程和產(chǎn)品中廣泛使用人工智能,32%的企業(yè)尚未采用人工智能,22%的企業(yè)沒(méi)有計(jì)劃使用人工智能。
這組數(shù)據(jù)可能與我們想象中的普及相去甚遠(yuǎn),事實(shí)上,現(xiàn)在對(duì)人工智能來(lái)說(shuō),最大的推動(dòng)力來(lái)自AI初創(chuàng)公司以及供應(yīng)商。按照該行業(yè)很多專(zhuān)家的說(shuō)法,AI仍主要處于炒作的階段。比如科技公司Tech Emergence創(chuàng)始人、國(guó)外著名科技產(chǎn)業(yè)作家Daniel Faggella曾表示,“人工智能技術(shù)的供應(yīng)商經(jīng)常會(huì)夸大其詞,讓他們的技術(shù)或產(chǎn)品聽(tīng)起來(lái)比實(shí)際上更有能力,但有關(guān)人工智能如何應(yīng)用于商業(yè)領(lǐng)域的深入討論卻很少。”
Faggella指出的更令人恐懼的事情是,在人工智能領(lǐng)域銷(xiāo)售營(yíng)銷(xiāo)解決方案、醫(yī)療保健解決方案以及金融解決方案的企業(yè)現(xiàn)在只是在測(cè)試這項(xiàng)技術(shù)。實(shí)際上,有數(shù)百家公司正在銷(xiāo)售人工智能軟件和技術(shù),但只有三分之一的公司具備發(fā)展人工智能技術(shù)所需的技能。
科技巨頭首當(dāng)其沖,AI有很大的BUG
當(dāng)然,像亞馬遜這樣的科技巨頭,其內(nèi)部幾乎所有人類(lèi)活動(dòng)都是由計(jì)算機(jī)程序所引導(dǎo)的。他們不僅監(jiān)督員工的行為,還會(huì)被用于潛在員工的選擇。此前,小智君曾報(bào)道過(guò),亞馬遜放棄了該公司的一項(xiàng)AI招聘工具,原因在于選擇結(jié)果對(duì)女性存在歧視。
亞馬遜這一決定是廣受支持的,但該事件也表明了機(jī)器學(xué)習(xí)中存在很大的弊端。雖然機(jī)器學(xué)習(xí)是目前應(yīng)用最廣泛的人工智能技術(shù),但無(wú)論這些程序?qū)W習(xí)速度多塊,它們都只能從人類(lèi)所提供的數(shù)據(jù)中進(jìn)行學(xué)習(xí),如果數(shù)據(jù)中存在歧視模式,那么它們的結(jié)果也無(wú)法逃脫這個(gè)命運(yùn)。
亞馬遜的AI招聘工具就是這樣的,由于培訓(xùn)這個(gè)系統(tǒng)的數(shù)據(jù),多是過(guò)去該公司雇傭的男性求職者的記錄,導(dǎo)致了這個(gè)工具學(xué)會(huì)了歧視女性的申請(qǐng)。而另一個(gè)人工智能被廣泛應(yīng)用的更加不公平的例子是,讓AI決定囚犯是否應(yīng)該獲得假釋。這也是一個(gè)存在很大爭(zhēng)議的應(yīng)用,因?yàn)閺娜俗陨淼慕嵌瘸霭l(fā),也很難針對(duì)這個(gè)問(wèn)題做出一個(gè)準(zhǔn)確的決定。
不過(guò)值得慶幸的是,在亞馬遜的案例中,這種不公平?jīng)]有繼續(xù)蔓延下去,因?yàn)樵摴疽庾R(shí)到了自己在這起事件中應(yīng)該扮演的角色以及承擔(dān)的責(zé)任,并且對(duì)此也做出了正確的決策。
然而,人工智能的問(wèn)題遠(yuǎn)不止于此。目前,人工智能應(yīng)用最廣泛的產(chǎn)品大概就是個(gè)人數(shù)字助理了,比如蘋(píng)果的Siri,亞馬遜的Echo。在我們看來(lái),這些數(shù)字助理只是為了方便我們的生活而出現(xiàn)的,像幫我們定鬧鐘、幫我們撥電話,等等。但實(shí)際上在某些壞人的眼中,它們可能是某些非法案件的幫兇。
早在2012年,美國(guó)佛羅里達(dá)州就曾發(fā)生過(guò)這樣一件事:一名大學(xué)生曾向Siri求助,在哪里可以掩埋被他殺死的朋友的尸體。事情發(fā)生后,蘋(píng)果不得不更改了Siri的算法,以使它在面對(duì)同樣的問(wèn)題時(shí),不會(huì)給出具體答案。有報(bào)道指出,現(xiàn)在如果對(duì)Siri提出同樣的問(wèn)題,只能獲得“這很有趣”的回答。
醫(yī)療領(lǐng)域AI應(yīng)用多,出現(xiàn)問(wèn)題誰(shuí)該負(fù)責(zé)?
在上述的AI應(yīng)用,有些人會(huì)覺(jué)得距離自己很遙遠(yuǎn),那么在每個(gè)人都無(wú)法避免的醫(yī)療領(lǐng)域呢?在我們的生活中,人為導(dǎo)致的醫(yī)療事故實(shí)際上還是很普遍的。很多專(zhuān)家認(rèn)為這是美國(guó)的第三大殺手,而在英國(guó),多達(dá)六分之一的患者在國(guó)家服務(wù)中心就診時(shí)出現(xiàn)了誤診現(xiàn)象。醫(yī)療領(lǐng)域人工智能的出現(xiàn),其目的之一就是減輕誤診數(shù)量,并且在某些情況下,該技術(shù)已經(jīng)接近甚至超過(guò)了人類(lèi)醫(yī)生的成功率。
聽(tīng)起來(lái)似乎很美好,給人類(lèi)的生存帶來(lái)了希望,但是大家似乎都沒(méi)有想過(guò),如果這項(xiàng)能力驚人的技術(shù)出現(xiàn)了失敗,如果失敗是由機(jī)器或算法造成的,那么這一結(jié)果應(yīng)該誰(shuí)負(fù)責(zé)呢?別以為這是一個(gè)無(wú)厘頭的問(wèn)題,在醫(yī)學(xué)領(lǐng)域,明確道德責(zé)任和法律責(zé)任對(duì)建立患者的信任度來(lái)說(shuō)至關(guān)重要。同時(shí),在決定如何賠償醫(yī)療事故受害者以及確保高質(zhì)量的醫(yī)療服務(wù)方面,也扮演著不可或缺的角色。對(duì)此,邁阿密大學(xué)法學(xué)教授邁Michael Froomkin表示:“責(zé)任被認(rèn)為是阻止人們做不該做的事情。”
“我們不能高喊硅谷在醫(yī)療保健方面取得了‘重大突破’的口號(hào),”前NHS醫(yī)生,現(xiàn)任AI政策研究員的Matthew Fenech補(bǔ)充道。“我們需要把患者和安全放在第一位。”目前,醫(yī)學(xué)中使用的AI被稱(chēng)為“決策助手”,這意味著它們(至少在法律層面上)是為了補(bǔ)充而非取代專(zhuān)家的意見(jiàn)。
“在某種程度上,這是一種免疫策略,但實(shí)際上它表示的是我們期待醫(yī)生們對(duì)決策提出質(zhì)疑,”德保羅大學(xué)健康與知識(shí)產(chǎn)權(quán)法研究員Charlotte Tschider說(shuō)。“這些設(shè)備現(xiàn)在還不能取代人類(lèi)知識(shí)。”反過(guò)來(lái),這意味著使用人工智能(通常是醫(yī)生)的醫(yī)療服務(wù)提供者仍要對(duì)所有可能出現(xiàn)的問(wèn)題負(fù)責(zé),只有少數(shù)病例例外,畢竟從法律的角度來(lái)說(shuō),他們的期待是醫(yī)生會(huì)權(quán)衡人工智能的結(jié)果和建議以及其他證據(jù),如傳統(tǒng)的診斷測(cè)試,病史,以及其他醫(yī)生的咨詢(xún)意見(jiàn),對(duì)患者進(jìn)行細(xì)致的檢查。
AI也只是一個(gè)輔助工具。更簡(jiǎn)單的理解為,假設(shè)你是一名醫(yī)生,在做手術(shù)時(shí)發(fā)現(xiàn)自己用的手術(shù)刀彎了,這時(shí)你不會(huì)不管不顧的進(jìn)行手術(shù),因?yàn)槟阒雷约阂獙?duì)此負(fù)責(zé),從這個(gè)角度看,如果AI被用作決策支持,那么醫(yī)生也要對(duì)此負(fù)相應(yīng)的責(zé)任。
可能有的人會(huì)覺(jué)得,人工智能是如何做出決策的,目前還是一個(gè)未解之謎。所以這種不透明性本身就帶來(lái)了很多問(wèn)題。比如,我們?nèi)绾未_定人工智能的錯(cuò)誤是不可避免的還是疏忽造成的?為什么在不了解其內(nèi)部工作原理的時(shí)候,要讓醫(yī)生或醫(yī)療機(jī)構(gòu)對(duì)此問(wèn)題承擔(dān)責(zé)任呢?
但反過(guò)來(lái)說(shuō),如果我們將人工智能系統(tǒng)本身作為一種負(fù)責(zé)任的法律人格,這就有點(diǎn)奇怪,因?yàn)檫@些機(jī)器人自己是沒(méi)有銀行賬戶(hù)或薪水收入的,所以對(duì)他們做出罰款沒(méi)有任何意義,同樣的,對(duì)一堆算法提出監(jiān)禁判決也沒(méi)有啥用。所以,針對(duì)這一問(wèn)題,小智君認(rèn)為如果醫(yī)療設(shè)備制造商生產(chǎn)了有缺陷的產(chǎn)品或者沒(méi)有充分警告用戶(hù)風(fēng)險(xiǎn)的存在,那么在發(fā)生事故時(shí),這些AI背后的公司有義務(wù)承擔(dān)責(zé)任,而醫(yī)生在使用過(guò)程中,沒(méi)有盡到自己的監(jiān)管義務(wù)的話,也要付出相應(yīng)的代價(jià)。
不過(guò),考慮機(jī)器學(xué)習(xí)當(dāng)下的狀態(tài),不管是在哪個(gè)領(lǐng)域哪種情況下AI出現(xiàn)問(wèn)題,追究其背后制造商的責(zé)任可能是有一定意義的,但在未來(lái)我們要做的是讓AI本身為自己負(fù)責(zé)成為可能,就像現(xiàn)在的自動(dòng)駕駛汽車(chē)意義,它要出現(xiàn)在公共道路上,就必須在機(jī)動(dòng)車(chē)輛部門(mén)完成注冊(cè),如果出現(xiàn)事故太多次,那么其許可能就可能被收回,同樣,未來(lái)或許有相似的規(guī)定出現(xiàn),以便處理那些問(wèn)題多多的算法。
(原標(biāo)題:人工智能出現(xiàn)的各種BUG,誰(shuí)該為其結(jié)果負(fù)責(zé)?)