現(xiàn)在,人工智能(AI)不僅能夠與人對話,甚至還能與“飆臟話”。
被AAAI 2022收錄的一篇新研究發(fā)現(xiàn),在7013個(gè)兒童視頻中,接近40%的節(jié)目出現(xiàn)了少兒不宜或臟話等詞匯。甚至在一個(gè)113集的兒童機(jī)器人學(xué)習(xí)欄目中,AI就“爆粗”了103次,平均接近一集一次。
具體來看,研究人員一共從YouTube上選出了24個(gè)兒童頻道,分別記錄了這些頻道的播放量和訂閱量。這些篩選出來的視頻播放量基本都達(dá)到了百萬級,訂閱人數(shù)也同樣不少。隨后,研究人員分別嘗試了Google和AWS(亞馬遜網(wǎng)頁服務(wù))的字幕生成效果。
結(jié)果令人吃驚,在7013個(gè)視頻中,GoogleAI出現(xiàn)錯(cuò)誤字幕的次數(shù)達(dá)到2768次,接近40%。亞馬遜的AI字幕錯(cuò)誤率還要更高,達(dá)到了3672次,超過52%。
實(shí)際上,人工智能“飆臟話”已經(jīng)不是第一次被發(fā)現(xiàn)了,此前,佐治亞理工學(xué)院和華盛頓大學(xué)的研究人員曾發(fā)現(xiàn),AI也繼承了人類對“臟話”的喜愛。其中,研究人員開發(fā)了一個(gè)名叫“ToxiChat”的數(shù)據(jù)集,其中包含了2000條從Reddit上選取的對話。
隨后,OpenAI的GPT-3和微軟的DialoGPT被派去挨個(gè)回復(fù)這些對話。由于數(shù)據(jù)量十分的龐大,于是研究人員在亞馬遜Mechanical Turk上招募了一群“人工智能”來為“人工智能”的回復(fù)進(jìn)行標(biāo)注。
如果回復(fù)使用的語言非常地粗魯甚至謾罵,就會(huì)被標(biāo)記為“冒犯”;如果沒有,則是“安全”。此外,對于之前的評論,回復(fù)的立場也被標(biāo)記為“同意”、“不同意”或“中立”。分析顯示,42%的用戶回復(fù)贊同有侵略性的評論,而只有13%的用戶同意安全性評論。
對于人工智能“飆臟話”這件事,研究人員提出了一個(gè)新的數(shù)據(jù)集,利用近音字詞來構(gòu)建禁忌詞的“替換”備選。比如,對于crap這一可能出現(xiàn)的“臟話”,研究人員給它設(shè)置了crab、craft等讀音相似的字詞,便于AI在搞錯(cuò)時(shí)進(jìn)行替換。
具體來說,研究人員在BERT、XLM、XLNet等NLP模型上,針對“完形填空”任務(wù)進(jìn)行了重新訓(xùn)練,也就是用“MASK”遮住部分單詞,讓AI來填寫對應(yīng)的內(nèi)容。結(jié)果顯示,在語序正常、前后文案有邏輯的視頻中,AI替換的準(zhǔn)確率更高。
顯然,在開發(fā)人工智能的過程中,人工智能也不得不面對一些人類可能出現(xiàn)的問題,而研究則要對于這些存在的問題進(jìn)行糾偏。從人工智能“飆臟話”來說,想要糾正人工智能這一“陋習(xí)”,可能還需要不少時(shí)間。