近年來,人工智能在向用戶推薦內容方面表現優(yōu)異,或者說,有點好得過頭。技術型公司通過使用人工智能,根據用戶對內容的反應,優(yōu)化向用戶推薦的內容。對于提供內容的公司來說,是一件好事,因為這一特性能讓用戶花費更多的時間來使用他們的應用程序,從而為他們帶來更多的收益。
但是能為公司帶來好處的不一定也會給用戶帶來好處。一般來說,我們想要看到的未必就是我們應該看到的。有些公司的業(yè)務模式是竊取用戶關注度,那么又怎么讓這些公司既遵守道德規(guī)范,又向用戶提供高質量的內容?
為了解決這一難題,IBM Research和MIT Media Lab的科學家團隊開發(fā)出了一種人工智能推薦技術,在根據用戶喜好優(yōu)化推薦結果時,也會遵守其它約束條件,如道德和行為準則。這一研究團隊的組長是來自IBM Research的Francesca Rossi,該科學家團隊展示了人工智能在電影推薦系統(tǒng)里面的作用,允許父母對孩子觀看的電影設置道德約束。
他們也曾試圖將道德規(guī)則整合到人工智能算法中,但是這些大多是基于靜態(tài)的規(guī)則。例如,用戶可以指定具體的新聞內容,或者新聞的種類,并以此讓算法避免推薦這些新聞。這種方法能夠用于特定的環(huán)境下,但是也有局限性。
“制定明確的規(guī)則集不難,”IBM研究人員Nicholas Mattei說,“但是網上的內容很多,也有龐大的數據量,你不可能把想讓機器遵循的所有規(guī)則都寫下來。”
為了解決這一問題,Mattei和她的同事開發(fā)出了一個方法,即使用機器學習,通過實例來制定規(guī)則。Mattei說道:“我們認為通過實例來學習規(guī)則的想法是一個很有意思的技術難題。”
通過實例學習道德規(guī)則
研究人員選擇電影推薦作為示范項目,因為目前已經存在很多和電影相關的數據,并且用戶喜好和道德規(guī)范之間的差異也能夠通過此方法展現出來。例如,父母并不想讓視頻流服務向孩子提供不合適的內容,即使孩子對這些內容的反應積極。
這個人工智能推薦技術使用了兩個不同的訓練階段。第一個階段是在離線模式下運行,意味著可以在系統(tǒng)和終端用戶開始交互前運行。在這一階段期間,研究人員會向系統(tǒng)錄入實例,設定推薦引擎應該遵守的約束規(guī)則,然后人工智能會檢測這些實例,與這些實例相關的數據也會創(chuàng)建自己的道德規(guī)則。和所有的機器學習系統(tǒng)一樣,你錄入的實例和數據越多,創(chuàng)建規(guī)則的能力就越強。
在電影推薦案例中,即離線訓練階段,父母會向人工智能提供一系列合適和不合適內容的實例。“這一系統(tǒng)能夠學習這些實例,然后在孩子使用這一系統(tǒng)時,避免向孩子推薦不合適的內容。”Mattei說道。
第二個訓練階段是在和終端用戶直接交互的時候進行的。同傳統(tǒng)的推薦系統(tǒng)一樣,人工智能會根據用戶的喜好優(yōu)化推薦結果,以及向用戶提供用戶所喜愛的內容。
既要符合道德規(guī)范,又要滿足用戶喜好,這未免會有些矛盾,但是研究人員能夠設置一個閾值來設置這兩者之間的優(yōu)先性。在IBM的演示中,父母能夠通過一個滑動條來設定道德原則和孩子喜好之間的平衡性。
系統(tǒng)是如何幫助解決人工智能推薦系統(tǒng)中的其它問題,這個不難看出。IBM研究人員也在醫(yī)療衛(wèi)生領域測試了這一技術,并成功地將算法部署到藥物劑量系統(tǒng)中。
團隊也改變了用于系統(tǒng)訓練的實例類型。“我們也對這些實例進行了試驗,這些實例不僅能起到約束的作用,也能夠用于設定優(yōu)先性,因此我們也可以更加清楚地解釋用于道德行為的實例。”Rossi說道。
用戶應該如何約束自己
未來的研究團隊將會致力于讓人工智能能夠在更加復雜的環(huán)境下運行。“在這個使用案例中,我們所關注的只是單一的推薦系統(tǒng),例如是否應該推薦某一部特定的電影,”Rossi說道:“我們計劃擴大這項工作,以此對動作序列進行限制。”
這一改變能夠讓算法解決其它類型的問題,例如過濾氣泡(filter bubbles)和技術成癮(tech addiction),即一個毫無傷害的行為(如檢查手機通知,或者是閱讀有偏見的新聞),經過長時間的重復或者和其它類似的行為結合時,也會產生反作用。
但是Rossi和她同事開發(fā)出的方法在父母和兒童,醫(yī)生和病人的情況下表現良好,但是在涉及只有一個用戶的情況下會遇到一些限制,我們在網上所使用的大多數應用程序都是如此。在此情況下,用戶應該自己設置道德準則和約束規(guī)則。
“在一些更加偏向于個人的系統(tǒng)中,你或許會有一種更加高級的想法,如‘我想看其它類型的電影’或者‘我不想在手機上花太多時間,’”Mattei說道:“但是如果你能夠表達出來,那么你就能夠控制它,你也要有自己的道德準則,并且也要去遵循。”
一個可行的解決方案是讓用戶選擇一名家庭成員來設置和控制規(guī)則,一些科技高管也進行了類似的試驗,這個也是IBM研究團隊所要研究問題的一部分,因為他們已經和MIT Media Lab開展更加廣泛的合作關系,專注于對工程道德推理的研究。
第27屆國際人工智能聯(lián)合會議將于7月17號在斯德哥爾摩(瑞典首都)舉辦,IBM研究人員將在這次大會上展示他們的算法。
原文作者:BEN DICKSON