人工智能:助手or威脅?

頭條推薦
佚名
“人工智能”的發(fā)展掀起了新一輪科技革命和產(chǎn)業(yè)革命的浪潮,對社會產(chǎn)生了深刻且廣泛的影響。對于“人工智能”的迅猛,很多學(xué)者和大眾確表現(xiàn)的憂心忡忡,認(rèn)為”人工智能”將取代人類?...

“人工智能”的發(fā)展掀起了新一輪科技革命和產(chǎn)業(yè)革命的浪潮,對社會產(chǎn)生了深刻且廣泛的影響。對于“人工智能”的迅猛,很多學(xué)者和大眾確表現(xiàn)的憂心忡忡,認(rèn)為”人工智能”將取代人類?

今日《華爾街日報》發(fā)表文章總結(jié)了一些用人工智能挽救自殺人員生命的項目。有人擔(dān)心人工智能未來會給人類帶來威脅,但是目前這項技術(shù)卻展現(xiàn)了自己溫情的一面。以下為文章全文:今年1月底,一位來自阿根廷北部的女性在自己的Facebook上寫了這樣一句話:“不能在這樣下去了。到了說再見的時候了。”僅僅不到三個小時之后,一組醫(yī)護(hù)人員趕到了這位女性的家中。

并且挽救了她的生命——這一切都得力于先進(jìn)的人工智能技術(shù)。這名女性寫下的這句話吸引了Facebook人工智能系統(tǒng)的注意,該系統(tǒng)能夠發(fā)現(xiàn)與自殺相關(guān)的語言。系統(tǒng)在發(fā)現(xiàn)這句話之后,判定這是一個緊急事件,并且將其發(fā)到了監(jiān)測人員那里。監(jiān)測人員在看到它之后立刻給布宜諾斯艾利斯官方發(fā)送了警告。不久之后,醫(yī)療團(tuán)隊就找到了這位女性的住所。

布宜諾斯艾利斯法院調(diào)查主管恩里克·德爾·卡里爾(EnriquedelCarril)表示:“人工智能技術(shù)能夠成為一種非常強(qiáng)大的工具。在悲劇發(fā)生之前,我們成功的在阿根廷的一個郊區(qū)挽救了這名女性。這樣的事情真是太棒了。”Facebook的自殺預(yù)警系統(tǒng)知識眾多使用人工智能技術(shù)發(fā)現(xiàn)有自殺傾向的人的項目這一。在這些項目中,研究人員使用計算機(jī)對海量數(shù)據(jù)進(jìn)行梳理。

例如電子病歷、社交媒體內(nèi)容、患者的音頻和視頻錄像等,來尋找有自殺傾向的人的共性。之后算法會開始預(yù)測哪些新患者有自殺的傾向。來自機(jī)器的協(xié)助在判定自殺傾向方面,機(jī)器無法取代人類。但是這些工具卻可以幫助醫(yī)療機(jī)構(gòu)更加準(zhǔn)確的定位那些有可能主動結(jié)束自己生命的人,未來它甚至可能在醫(yī)生給患者看病的時候,就提醒醫(yī)生這名病人具有自殺傾向。

然而這項技術(shù)也受到了批評人士的質(zhì)疑,他們認(rèn)為讓機(jī)器接觸患者的個人數(shù)據(jù),有可能會泄露患者的隱私。其實科技不僅能夠判斷患者是否具有自殺的可能,還能判斷很多其他的心理健康健康問題,例如抑郁、精神分裂和抑郁狂躁型憂郁癥等。然而在心理健康領(lǐng)域,自殺傾向探測是最重要的一個部分。其原因之一,就是當(dāng)前世界上的自殺率正在逐漸升高,尤其是青少年的自殺事件。

美國疾病控制和預(yù)防中心透露,2006年,每隔16分鐘就會有一個美國公民自殺。到了10年之后的2016年,這一事件變成了12分鐘。另外,事實證明傳統(tǒng)的自殺預(yù)測手段效率非常低下。佛羅里達(dá)州立大學(xué)最新的一個分析顯示,醫(yī)生評估等傳統(tǒng)的自殺預(yù)測手段,其效果只比“瞎猜”高一點點。佛羅里達(dá)州立大學(xué)在《心理學(xué)公報》上發(fā)表了這個研究報告。

相比之下,人工智能技術(shù)卻能夠提供更好的預(yù)測效果。佛羅里達(dá)州立大學(xué)聯(lián)合其它一些機(jī)構(gòu)之后進(jìn)行了另一個研究,這個研究發(fā)表在了去年的《臨床心理科學(xué)》雜志上。他們使用人工智能分析了田納西將近1.6萬家醫(yī)院病人的醫(yī)療檔案。算法找到了自殺患者的一些共性,例如抗抑郁藥品使用史以及被槍械傷害的歷史。人工智能判斷一個人在接下來兩年內(nèi)是否會自殺的準(zhǔn)確率達(dá)到了80-90%。

佛羅里達(dá)州立大學(xué)心理學(xué)教授杰西卡·里貝羅(JessicaRibeiro)表示,研究結(jié)果顯示,人工智能技術(shù)能夠?qū)υS多風(fēng)險因素進(jìn)行分析,從而發(fā)現(xiàn)各個因素之間復(fù)雜的關(guān)系,里貝羅專注于預(yù)防自殺方面的研究。除了對醫(yī)療記錄進(jìn)行分析之外,AI還可以使用其他一些實時數(shù)據(jù)對患者進(jìn)行分析,例如患者對醫(yī)生說的話,已經(jīng)他們說話時的語氣。

辛辛那提兒童醫(yī)院的計算醫(yī)學(xué)部門主管約翰·帕斯迪安(JohnPestian)在2016年在《自殺與生命威脅行為》學(xué)報上發(fā)表了自己的研究成功。帕斯迪安對379個人進(jìn)行了研究,這些人來自三個類別:具有嚴(yán)重自殺傾向的人、患有心理疾病但是不至自殺的人以及一個受控組。帕斯迪安對這些人進(jìn)行了問卷調(diào)查與面對面訪談,訪談過程中全程錄像。

算法能夠較為準(zhǔn)確的判斷哪些人具有嚴(yán)重自殺傾向以及哪些人患有心理疾病但是沒有自殺風(fēng)險,準(zhǔn)確率達(dá)到了93%。研究結(jié)果顯示,相比于具有嚴(yán)重自殺傾向的患者,那些沒有自殺傾向的患者笑容更多,嘆氣的次數(shù)更少,表達(dá)出的憤怒情緒與精神痛苦也更少。帕斯迪安表示,這些信號只能在與病人的面對面交流中才能夠看到,它們是醫(yī)療檔案中無法體現(xiàn)出來的東西。

音頻分析帕斯迪安利用自己對人工智能的研究開發(fā)了一個名為SAM的應(yīng)用,目前這個應(yīng)用正在辛辛那提的學(xué)校和診所中進(jìn)行測試。這個應(yīng)用可以記錄治療者和患者之間的對話,同時對錄音進(jìn)行語言學(xué)分析,如果應(yīng)用判斷患者具有自殺傾向,它會對醫(yī)生進(jìn)行實時的提醒。另外一個系統(tǒng)也采用了類似的手段,這既是CogitoCorp.所開發(fā)的Cogito’sCompanion。

目前有大約500個用戶正在使用這個系統(tǒng),它可以分析用戶手機(jī)中的數(shù)據(jù),例如經(jīng)常聯(lián)系的人以及每周的活動距離等。用戶也可以錄制簡短的音頻日記,然后系統(tǒng)會對音頻進(jìn)行分析。Cogito公司表示,這個應(yīng)用能夠探測抑郁癥和自殺傾向,其準(zhǔn)確率超過80%。一些私人部門也在努力使用人工智能來探測自殺傾向,而且這些項目的普及程度更高。在過去5年里,人工智能虛擬助手大行其道。

例如蘋果的Siri,這些服務(wù)都已經(jīng)開始了這方面的探索,當(dāng)用戶向虛擬助手提問與自殺有關(guān)的問題時,它們會勸說用戶聯(lián)系美國自殺預(yù)防熱線。這些服務(wù)所使用的關(guān)鍵詞包括“自殺”與“我想要跳河”等詞語。在過去超過10年的時間里,F(xiàn)acebook一直在進(jìn)行預(yù)防用戶自殺方面的嘗試,但是去年他們卻受到了批評,因為有多個用戶在Facebook平臺上直播了自己的自殺過程。

人們開始質(zhì)疑Facebook預(yù)防用戶自殺方面的效果。2017年11月,F(xiàn)acebook宣布他們將會開始使用人工智能來對人們發(fā)表的文字進(jìn)行分析,在發(fā)現(xiàn)危險和緊急事件的時候?qū)⑽淖謨?nèi)容立刻發(fā)送給監(jiān)測人員,從而做出最及時的反應(yīng)。該公司表示,2017年秋的一個月里,他們的人工智能系統(tǒng)發(fā)現(xiàn)并且介入了100個用戶的自我傷害事件。

Facebook公司發(fā)言人威廉·內(nèi)維厄斯(WilliamNevius)表示:“我們一直在尋找新的方法來提升工具效率。我們知道人工智能是一項新的技術(shù),我們一直在尋找新的方法來為人們提供幫助。”未來發(fā)展障礙然而雖然企業(yè)希望使用人工智能技術(shù)來預(yù)防自殺,他們也將會面臨一系列的道德質(zhì)疑。首先,就是透明性問題。本來已經(jīng)有很多人開始質(zhì)疑科技企業(yè)從用戶那里收集數(shù)據(jù)的行為。

并且質(zhì)疑企業(yè)使用用戶數(shù)據(jù)的方式。隨著越來越多的企業(yè)開始收集用戶心理健康信息,這種質(zhì)疑將會越來越頻繁。如何應(yīng)對這種質(zhì)疑,是科技企業(yè)們不得不需要考慮的事情。另外,法律和監(jiān)管問題也會在未來出現(xiàn),例如如果人工智能做出了錯誤的判斷,誰需要為此承擔(dān)責(zé)任。舉個例子,如果系統(tǒng)判斷一個沒有自殺想法的個人具有自殺傾向,會讓這個人的記錄中出現(xiàn)污點。

一些質(zhì)疑者認(rèn)為,隱私問題會是這種研究最大的發(fā)展障礙。要想讓人工智能系統(tǒng)正常工作,研究人員需要先讓系統(tǒng)接入大量曾有自殺傾向的人員數(shù)據(jù),然而這些人不一定會授權(quán)給研究者使用他們的醫(yī)療記錄。Frost&Sullivan的產(chǎn)業(yè)分析師西達(dá)爾特·薩哈(SiddharthShah)就表示:“有多少人愿意將自己的敏感心理健康信息分享給算法呢?”一些企業(yè)正在努力嘗試解決這個問題。

例如一家名為Qntfy的公司,該公司正在招募愿意將自己的數(shù)據(jù)捐獻(xiàn)給研究機(jī)構(gòu)的人,目前已經(jīng)有超過2200人自愿貢獻(xiàn)了自己的信息與數(shù)據(jù)。該公司表示,在對數(shù)據(jù)進(jìn)行分析之前,他們會擦出其中的個人信息。最后還有一個阻礙,那就是人類的語氣與對話語境,對于人工智能來說,這也是最難解決的一個問題。我們在說話的時候,同樣一句話,不同的語氣以及不同的對話對象。

可能讓這句話有著完全不同的意思。斯坦福大學(xué)臨床心理學(xué)家和人工智能研究人員亞當(dāng)·米納(AdamMiner)就表示:“例如’我討厭這樣,我活不下去了!’這句話,當(dāng)你對醫(yī)生說這句話時,它的意思和在社交媒體上說這句話可能會完全不一樣。”

(原標(biāo)題:人工智能威脅人類? 究竟是怎么回事?為何會這樣?)

THEEND