據(jù)外媒The Verge報(bào)道,世界衛(wèi)生組織日前發(fā)布了一份指導(dǎo)文件,概述了人工智能在健康領(lǐng)域的道德使用的六個(gè)關(guān)鍵原則。20位專家花了兩年時(shí)間制定該指南,這標(biāo)志著關(guān)于醫(yī)療環(huán)境中人工智能倫理的第一個(gè)共識(shí)報(bào)告。
該報(bào)告強(qiáng)調(diào)了健康人工智能的前景,以及其幫助醫(yī)生治療病人的潛力--特別是在資源不足的地區(qū)。但它也強(qiáng)調(diào),技術(shù)不是解決健康挑戰(zhàn)的快速方法,特別是在中低收入國(guó)家,政府和監(jiān)管機(jī)構(gòu)應(yīng)仔細(xì)審查人工智能在醫(yī)療領(lǐng)域的使用地點(diǎn)和方式。
世衛(wèi)組織表示,它希望這六項(xiàng)原則能夠成為政府、開(kāi)發(fā)商和監(jiān)管機(jī)構(gòu)處理該技術(shù)的基礎(chǔ)。專家們提出的六項(xiàng)原則是:保護(hù)自主權(quán);促進(jìn)人類安全和福祉;確保透明度;促進(jìn)問(wèn)責(zé)制;確保公平;以及促進(jìn)具有響應(yīng)性和可持續(xù)性的工具。
有幾十種潛在的方式可以將人工智能應(yīng)用于醫(yī)療保健。有一些正在開(kāi)發(fā)的應(yīng)用,使用人工智能來(lái)篩選醫(yī)療圖像,如乳房X光檢查;掃描病人健康記錄以預(yù)測(cè)他們是否可能生病的工具;幫助人們監(jiān)測(cè)自己的健康的設(shè)備;以及幫助跟蹤疾病爆發(fā)的系統(tǒng)。在人們無(wú)法接觸到專業(yè)醫(yī)生的地區(qū),工具可以幫助評(píng)估癥狀。但是,當(dāng)它們沒(méi)有被仔細(xì)開(kāi)發(fā)和實(shí)施時(shí),它們可能--在最好的情況下--沒(méi)有實(shí)現(xiàn)其承諾。在最壞的情況下,它們可能會(huì)造成傷害。
在過(guò)去的一年中,一些隱患是顯而易見(jiàn)的。在對(duì)抗COVID-19大流行病的爭(zhēng)奪中,醫(yī)療機(jī)構(gòu)和政府轉(zhuǎn)向人工智能工具尋求解決方案。然而,這些工具中的許多都具有世衛(wèi)組織報(bào)告所警告的一些特征。例如,新加坡政府承認(rèn),一個(gè)聯(lián)系人追蹤應(yīng)用程序收集的數(shù)據(jù)也可用于刑事調(diào)查--這是一個(gè)"功能蠕變"的例子,即健康數(shù)據(jù)被重新利用,超出了原來(lái)的目標(biāo)。大多數(shù)旨在根據(jù)胸部掃描檢測(cè)COVID-19的人工智能程序都是基于糟糕的數(shù)據(jù),最終并沒(méi)有用。美國(guó)的醫(yī)院在測(cè)試該程序之前使用了一種旨在預(yù)測(cè)哪些COVID-19患者可能需要重癥監(jiān)護(hù)的算法。
"緊急情況并不證明部署未經(jīng)證實(shí)的技術(shù)是合理的,"該報(bào)告說(shuō)。
報(bào)告還承認(rèn),許多人工智能工具是由大型私人技術(shù)公司(如Google)或公共和私營(yíng)部門之間的伙伴關(guān)系開(kāi)發(fā)的。這些公司擁有建立這些工具的資源和數(shù)據(jù),但可能沒(méi)有動(dòng)力為自己的產(chǎn)品采用擬議的道德框架。他們的重點(diǎn)可能是利潤(rùn),而不是公共利益。“雖然這些公司可能會(huì)提供創(chuàng)新的方法,但人們擔(dān)心他們最終可能會(huì)在政府、供應(yīng)商和病人面前行使過(guò)多的權(quán)力,”報(bào)告寫道。
醫(yī)療領(lǐng)域的人工智能技術(shù)仍然是新的,許多政府、監(jiān)管機(jī)構(gòu)和衛(wèi)生系統(tǒng)仍在摸索如何評(píng)估和管理它們。世衛(wèi)組織的報(bào)告說(shuō),在方法上深思熟慮和有分寸,將有助于避免潛在的傷害。“技術(shù)解決方案的吸引力和技術(shù)的承諾可能會(huì)導(dǎo)致高估利益,否定人工智能等新技術(shù)可能帶來(lái)的挑戰(zhàn)和問(wèn)題。”
以下是世衛(wèi)組織指南中六項(xiàng)道德原則的細(xì)目,以及它們?yōu)楹沃匾脑颉?/p>
保護(hù)自主權(quán):人類應(yīng)該對(duì)所有健康決定進(jìn)行監(jiān)督并擁有最終決定權(quán)--這些決定不應(yīng)該完全由機(jī)器做出,醫(yī)生應(yīng)該能夠在任何時(shí)候推翻它們。未經(jīng)同意,人工智能不應(yīng)該被用來(lái)指導(dǎo)某人的醫(yī)療護(hù)理,而且他們的數(shù)據(jù)應(yīng)該受到保護(hù)。
促進(jìn)人類安全。開(kāi)發(fā)人員應(yīng)持續(xù)監(jiān)測(cè)任何人工智能工具,以確保它們按規(guī)定工作,不會(huì)造成傷害。
確保透明度。開(kāi)發(fā)者應(yīng)該公布有關(guān)人工智能工具設(shè)計(jì)的信息。對(duì)這些系統(tǒng)的一個(gè)經(jīng)常性批評(píng)是,它們是"黑盒子",研究人員和醫(yī)生很難知道它們是如何做出決定的。世衛(wèi)組織希望看到足夠的透明度,以便用戶和監(jiān)管機(jī)構(gòu)能夠充分審計(jì)和理解它們。
培養(yǎng)問(wèn)責(zé)制。當(dāng)人工智能技術(shù)出現(xiàn)問(wèn)題時(shí)--比如工具做出的決定導(dǎo)致病人受到傷害--應(yīng)該有機(jī)制來(lái)確定誰(shuí)應(yīng)該負(fù)責(zé)(比如制造商和臨床用戶)。
確保公平。這意味著要確保工具有多種語(yǔ)言版本,并在不同的數(shù)據(jù)集上進(jìn)行訓(xùn)練。在過(guò)去的幾年里,對(duì)普通健康算法的仔細(xì)審查發(fā)現(xiàn),一些算法中存在種族偏見(jiàn)。
推廣可持續(xù)發(fā)展的人工智能。開(kāi)發(fā)者應(yīng)該能夠定期更新他們的工具,如果一個(gè)工具看起來(lái)沒(méi)有效果,機(jī)構(gòu)應(yīng)該有辦法進(jìn)行調(diào)整。機(jī)構(gòu)或公司也應(yīng)該只引進(jìn)可以修復(fù)的工具,即使是在資源不足的衛(wèi)生系統(tǒng)。