2019:需警惕的AI六大危險(xiǎn)

中國智能制造網(wǎng)
曾經(jīng),擔(dān)心超級智能機(jī)器接管世界的前景是一種流行看法。過去的一年表明,在人工智能接管世界前前,人工智能可能會(huì)導(dǎo)致各種各樣的危險(xiǎn)。

科技的誕生和發(fā)展,本就在爭論與矛盾中成長。任何事物發(fā)展都具有兩面性,人工智能亦如此。眾所周知,人工智能雖給我們的生活帶來了諸多好處,但同時(shí)也使得我們陷于危險(xiǎn)之中。本文將簡單為大家預(yù)測下2019年需要警惕的6種真正人工智能危險(xiǎn)。

曾經(jīng),擔(dān)心超級智能機(jī)器接管世界的前景是一種流行看法。過去的一年表明,在人工智能接管世界前前,人工智能可能會(huì)導(dǎo)致各種各樣的危險(xiǎn)。

最新的人工智能方法在分類圖像和轉(zhuǎn)錄語音等感知任務(wù)方面表現(xiàn)出色,但對這些技能的大肆宣傳和興奮掩蓋了我們距離制造出像我們這樣聰明的機(jī)器還有多遠(yuǎn)。從2018年開始,有六起爭議凸顯出來,它們警告稱,即便是最聰明的人工智能算法也可能表現(xiàn)不佳,或者對人工智能的不小心應(yīng)用可能會(huì)產(chǎn)生可怕的后果。

1.自動(dòng)駕駛汽車事故

今年3月,優(yōu)步(Uber)的一輛自動(dòng)駕駛汽車發(fā)生致命事故后,調(diào)查人員發(fā)現(xiàn),該公司的技術(shù)遭遇了災(zāi)難性的失敗,而這種失敗本來很容易避免。

福特(Ford)和通用汽車(General Motors)等汽車制造商,優(yōu)步等新進(jìn)者,以及一大批初創(chuàng)企業(yè),都在爭相將自動(dòng)駕駛技術(shù)商業(yè)化。盡管這項(xiàng)技術(shù)還不成熟,但已經(jīng)獲得了數(shù)十億美元的投資。Alphabet的子公司W(wǎng)aymo取得了最大的進(jìn)步;去年,該公司在亞利桑那州推出了首個(gè)全自動(dòng)出租車服務(wù)。但即便是Waymo的技術(shù)也是有限的,自動(dòng)駕駛汽車的行駛范圍是被事先規(guī)定好了的。

2019年需要注意的是:由于擔(dān)心扼殺創(chuàng)新,美國和其他地方的監(jiān)管機(jī)構(gòu)迄今采取了不干涉的方式。美國國家公路交通安全管理局甚至表示,現(xiàn)有的安全規(guī)則可能會(huì)放松。但行人和人類司機(jī)還沒有同意成為實(shí)驗(yàn)對象。2019年的另一起嚴(yán)重事故可能會(huì)改變監(jiān)管機(jī)構(gòu)的態(tài)度。

2.政治操縱機(jī)器人

今年3月,有消息稱,政治咨詢公司劍橋分析公司(Cambridge Analytica)利用Facebook的數(shù)據(jù)共享做法,影響了2016年美國總統(tǒng)大選。由此引發(fā)的騷動(dòng)表明,決定哪些新聞和信息出現(xiàn)在社交媒體上的算法,可以被用來放大錯(cuò)誤信息,破壞有益的辯論,并孤立持有不同觀點(diǎn)的公民。

在一場國會(huì)聽證會(huì)上,F(xiàn)acebook首席執(zhí)行官馬克·扎克伯格承諾,人工智能本身可以被訓(xùn)練用于識別和屏蔽惡意內(nèi)容,盡管它還遠(yuǎn)遠(yuǎn)無法理解文本、圖像或視頻的含義。

2019年需要注意的是:扎克伯格的承諾將在南非和尼日利亞這兩個(gè)非洲最大的國家舉行的選舉中受到考驗(yàn)。距離2020年美國大選還有一段時(shí)間,這可能會(huì)催生由人工智能驅(qū)動(dòng)的新型錯(cuò)誤信息技術(shù),包括惡意聊天機(jī)器人。

3.人工智能可能危及和平

去年,當(dāng)谷歌的員工得知他們的雇主正在向美國空軍提供無人機(jī)圖像分類技術(shù)時(shí),一場人工智能的和平運(yùn)動(dòng)應(yīng)運(yùn)而生。工人們擔(dān)心,這可能是朝著提供自動(dòng)化致命無人機(jī)攻擊技術(shù)的方向邁出的決定性一步。作為回應(yīng),該公司放棄了“Project Maven”,創(chuàng)建了一套人工智能道德規(guī)范。

學(xué)術(shù)界和工業(yè)界的重量級人物支持一項(xiàng)禁止使用自動(dòng)化武器的運(yùn)動(dòng)。然而,人工智能在軍事上的使用勢頭只增不減,而微軟和亞馬遜等其他公司在提供幫助方面也沒有表現(xiàn)得非常積極。

2019年需要注意的是:盡管五角大樓在人工智能項(xiàng)目上的支出正在增加,但活動(dòng)人士希望,在定于今年舉行的一系列聯(lián)合國會(huì)議上,能夠達(dá)成一項(xiàng)禁止自主武器的先發(fā)制人條約。

4.人臉識別技術(shù)侵犯隱私

人工智能識別人臉的超人能力,已促使各國以驚人的速度部署監(jiān)控技術(shù)。面部識別還可以讓你解鎖手機(jī),并在社交媒體上自動(dòng)為照片添加標(biāo)簽。

公民自由組織警告反烏托邦的未來。這種技術(shù)是侵犯人們隱私的一種可怕的方式,而在培訓(xùn)數(shù)據(jù)方面的偏見,可能會(huì)導(dǎo)致自動(dòng)化歧視。

在許多國家,人臉識別正被廣泛用于警務(wù)和政府監(jiān)控。亞馬遜正在向美國移民和執(zhí)法機(jī)構(gòu)出售這項(xiàng)技術(shù)。

2019年需要注意的是:人臉識別將擴(kuò)展到車輛和網(wǎng)絡(luò)攝像頭,它將用于跟蹤你的情緒和身份。但我們也可能在今年看到對它的一些初步監(jiān)管。

5.Deepfakes造假效果逼真

去年“deepfake”(深度偽造)視頻的激增表明,利用人工智能制作假視頻是多么容易。這意味著偽造的名人不雅視頻,大量怪異的電影混搭,以及潛在的惡意的政治誹謗活動(dòng)。

生成對抗網(wǎng)絡(luò)(GANs)涉及兩個(gè)對抗神經(jīng)網(wǎng)絡(luò),它可以召喚出非常逼真但完全虛構(gòu)的圖像和視頻。英偉達(dá)最近展示了GANs如何生成你想要的任何種族、性別和年齡的逼真面孔。

2019年需要注意的是:隨著deepfakes的增多,人們可能會(huì)在今年開始被這些造假視頻欺騙。美國國防部高級研究計(jì)劃局(DARPA)將測試鑒別deepfakes的新方法。但由于這也依賴于人工智能,這將是一場貓捉老鼠的游戲。

6.算法歧視

去年在許多商業(yè)工具中都發(fā)現(xiàn)存在偏見。基于不平衡數(shù)據(jù)集訓(xùn)練的視覺算法無法識別女性或有色人種;以歷史數(shù)據(jù)為依據(jù)的招聘計(jì)劃被證明會(huì)延續(xù)已經(jīng)存在的歧視。

人工智能領(lǐng)域本身缺乏多樣性,這與偏見問題有關(guān),也比較難解決。女性頂多占據(jù)30%的行業(yè)崗位和在頂尖大學(xué)里占據(jù)不到25%的教學(xué)崗位。黑人和拉丁裔的研究人員也相對較少。

2019年需要注意的是:我們將看到檢測和減輕偏見的方法,以及可以從偏差數(shù)據(jù)中產(chǎn)生無偏結(jié)果的算法。國際機(jī)器學(xué)習(xí)大會(huì)(International Conference on Machine Learning)是一個(gè)重要的人工智能會(huì)議,將于2020年在埃塞俄比亞舉行,因?yàn)檠芯科妴栴}的非洲科學(xué)家可能難以獲得前往其他地區(qū)旅行的簽證。其他事件也可能發(fā)生變化。

(原標(biāo)題:2019需要警惕的6種真正人工智能危險(xiǎn):你入了哪些“坑”?)

THEEND

最新評論(評論僅代表用戶觀點(diǎn))

更多
暫無評論