人工智能可以做的事情很多,但它們能“讀懂”人類的心情嘛?近日科學(xué)家們可能找到了一種讓AI學(xué)會(huì)“讀心”的方法。
你走路的樣子很能說(shuō)明你在任何時(shí)刻的心情。例如,當(dāng)你感到壓抑或沮喪時(shí),你比開(kāi)心時(shí)更有可能耷拉著肩膀。
查珀?duì)栂柎髮W(xué)(University of Chapel Hill)和馬里蘭大學(xué)(University of Maryland)的研究人員利用這一軀體詞匯,最近研究了一種機(jī)器學(xué)習(xí)方法,這種方法可以從一個(gè)人的步態(tài)中識(shí)別出他所感知到的情緒(例如消極或積極)和喚起(冷靜或充滿活力)。
研究人員稱,這種方法在初步實(shí)驗(yàn)中取得了80.07%的準(zhǔn)確率。
“情感在我們的生活中扮演著重要的角色,定義著我們的經(jīng)歷,塑造著我們看待世界和與他人互動(dòng)的方式,”合著者寫(xiě)道。
“由于感知情感在日常生活中的重要性,自動(dòng)情感識(shí)別在許多領(lǐng)域都是一個(gè)關(guān)鍵問(wèn)題,比如游戲和娛樂(lè)、安全和執(zhí)法、購(gòu)物和人機(jī)交互。”
研究人員選擇了四種情緒——快樂(lè)、悲傷、憤怒和中性——作為他們“持續(xù)很長(zhǎng)一段時(shí)間”的傾向和他們步行活動(dòng)的“豐度”。
然后,他們從多個(gè)步行視頻語(yǔ)料庫(kù)中提取步態(tài)來(lái)識(shí)別情感特征,并使用三維姿態(tài)估算技術(shù)提取步行姿態(tài)。
最后,他們利用長(zhǎng)短時(shí)記憶(LSTM)模型——能夠?qū)W習(xí)長(zhǎng)期相關(guān)性——從姿態(tài)序列中獲得特征,并將其與隨機(jī)森林分類器(該分類器輸出多個(gè)獨(dú)立決策樹(shù)的平均預(yù)測(cè))相結(jié)合,將例子分類為上述四種情緒類別。
(圖源:VentureBeat)
這些特征包括肩膀姿勢(shì)、連續(xù)步數(shù)之間的距離以及手和脖子之間的區(qū)域。
頭部?jī)A斜角被用來(lái)區(qū)分快樂(lè)和悲傷的情緒,而更收斂的姿勢(shì)和“身體擴(kuò)張”分別被用來(lái)識(shí)別消極和積極的情緒。
至于喚起度,科學(xué)家們注意到它往往與增加的運(yùn)動(dòng)相對(duì)應(yīng),該模型考慮了速度、加速度的大小,以及手、腳和頭部關(guān)節(jié)的“運(yùn)動(dòng)抖動(dòng)”。
人工智能系統(tǒng)處理了來(lái)自“情感漫步”(Emotion Walk,簡(jiǎn)稱EWalk)的樣本。EWalk是一組包含1384個(gè)步態(tài)的新數(shù)據(jù)集,這些步態(tài)是從24名受試者在大學(xué)校園(包括室內(nèi)和室外)散步的視頻中提取的。
大約有700名來(lái)自亞馬遜土耳其機(jī)械公司的參與者給情緒貼上標(biāo)簽,研究人員用這些標(biāo)簽來(lái)確定情緒的種類和興奮程度。
在測(cè)試中,研究小組報(bào)告說(shuō),他們的情感檢測(cè)方法比最先進(jìn)的算法提高了13.85%,比不考慮情感特征的“普通”LSTMs提高了24.60%。
這并不是說(shuō)它是萬(wàn)無(wú)一失的——它的精度在很大程度上取決于三維人體姿態(tài)估計(jì)和步態(tài)提取的精度。
但盡管有這些限制,研究小組相信他們的方法將為涉及額外活動(dòng)和其他情感識(shí)別算法的研究提供堅(jiān)實(shí)的基礎(chǔ)。
“我們的方法也是第一個(gè)利用最先進(jìn)的3D人體姿態(tài)估算技術(shù),為行走視頻中的情緒識(shí)別提供實(shí)時(shí)通道的方法,”合著者寫(xiě)道。
“作為未來(lái)工作的一部分,我們希望收集更多的數(shù)據(jù)集,并解決(限制)。”
此前,也有不少AI能夠做到自動(dòng)情感識(shí)別。麻省理工學(xué)院媒體實(shí)驗(yàn)室的分支機(jī)構(gòu)Affectiva的聲聯(lián)網(wǎng)系統(tǒng)就能在短短1.2秒內(nèi)從音頻數(shù)據(jù)中分辨出你的憤怒。
近日,亞馬遜還被爆料正在開(kāi)發(fā)一種語(yǔ)音激活的可穿戴設(shè)備,代號(hào)為“Dylan”,可以根據(jù)人們的聲音判斷人類的情緒并判斷他們是生氣還是悲傷。
但在2018年12月發(fā)布的紐約大學(xué)人工智能研究所的年度報(bào)告中,專家們警告,試圖解讀面部表情的人臉識(shí)別算法可能基于靠不住的科學(xué)。他們認(rèn)為,人臉表達(dá)感情的方式可能比人們此前認(rèn)為的更具背景性,一個(gè)假想中的情感解讀機(jī)器人將需要大量知識(shí)和背景來(lái)猜測(cè)某人的情感。