索菲亞被賦予公民身份成功的“挑逗”到了人類神經(jīng),引發(fā)了一波全球范圍內(nèi)的人工智能威脅論。但迄今為止,人工智能的所有智能化表現(xiàn)僅僅在模仿人類左半腦的理性思維模式。“從未來的趨勢看,機(jī)器一定會(huì)比人聰明,但我們一定比機(jī)器更智慧。”高通盛融集團(tuán)解釋道。
每一項(xiàng)技術(shù)進(jìn)步都帶來了一股恐懼和不確定性。
一、克服毫無根據(jù)的恐懼
我們看到這種情況反復(fù)出現(xiàn)。自工業(yè)革命以來,人們一直在思考新技術(shù)對(duì)他們生活和工作的影響,今天我們看到,每一次人工智能突破之后,恐懼就會(huì)出現(xiàn)。盡管人工智能近年來取得了巨大進(jìn)步,但其仍處于早期階段,這帶來了一定程度的不確定性。這種不確定性只有在出現(xiàn)問題或預(yù)期大于現(xiàn)實(shí)時(shí)才會(huì)加劇,從而導(dǎo)致誤解和焦慮。作為一名直言不諱的人工智能評(píng)論家,Elon Musk利用這一誤解,描繪了一場即將到來的人工智能大災(zāi)難的畫面,盡管他將強(qiáng)大的人工智能嵌入特斯拉的汽車中。所有這些都表明,在某種程度上,我們發(fā)現(xiàn)自己陷入了一個(gè)危險(xiǎn)的、不必要的炒作周期。
我們必須克服這種毫無根據(jù)的恐懼?,F(xiàn)實(shí)是這樣的:今天沒有可信的研究支持這些末日?qǐng)鼍?。他們是令人信服的小說。我喜歡看《終結(jié)者》,就像和我同齡的其他孩子一樣,但這些有趣的場景無法讓我們應(yīng)對(duì)人工智能帶來的直接威脅。
我們面臨的主要問題是偏見和多樣性,這些問題比奇點(diǎn)和機(jī)器人暴動(dòng)更直接,也更人性化。這些問題包括嵌入的偏見和缺乏多樣性的領(lǐng)域和數(shù)據(jù)集。用有偏見的數(shù)據(jù)訓(xùn)練人工智能,我們可能會(huì)無意識(shí)地在人工智能中灌輸我們自己的偏見。如果不加以控制,偏見會(huì)導(dǎo)致人工智能對(duì)某些人有利,而其他人則會(huì)付出代價(jià)。如果不增加領(lǐng)域的多樣性,一些人將對(duì)人工智能創(chuàng)造背后隱藏的決策產(chǎn)生更大的影響。隨著人工智能整合到對(duì)個(gè)人生活影響更大的決策過程中,例如招聘、貸款申請(qǐng)、司法審查和醫(yī)療決定,我們將需要警惕它吸收我們最壞的傾向。
二、沒有無辜的數(shù)據(jù)
當(dāng)人工智能觸及最基本的人類系統(tǒng)時(shí),我們需要記住它不是在真空中運(yùn)行。人工智能依賴于海量數(shù)據(jù),強(qiáng)大的算法可以分析這些數(shù)據(jù),然后得出具有啟示性的洞見。但是人工智能依賴訓(xùn)練數(shù)據(jù)。如果數(shù)據(jù)存在偏見,比如帶有種族主義或性別歧視的語言,這會(huì)影響結(jié)果。無論你訓(xùn)練人工智能什么,結(jié)果都會(huì)被放大,因?yàn)樗惴〞?huì)無數(shù)次地復(fù)制它的決策。在數(shù)據(jù)中未被發(fā)現(xiàn)的偏見逐漸顯現(xiàn),令人不安,這是人工智能系統(tǒng)開始輸出反映我們自己最根深蒂固的偏見的結(jié)果。與機(jī)器人暴動(dòng)不同,有偏見的人工智能并不是一個(gè)假設(shè)的風(fēng)險(xiǎn)。有偏見的人工智能在選美比賽中選擇了淺色皮膚的選手,而非深色皮膚的選手。一種帶有偏見的谷歌算法將黑臉歸類為大猩猩。
在一項(xiàng)研究中,一個(gè)有偏見的人工智能篩選簡歷,會(huì)更傾向于歐裔美國人(相對(duì)于非裔美國人)。在另一項(xiàng)研究中,有偏見的AI將男性的名字與職業(yè)導(dǎo)向、數(shù)學(xué)和科學(xué)詞匯聯(lián)系起來,同時(shí)將女性的名字與藝術(shù)概念聯(lián)系在一起。就像我們自己的點(diǎn)擊讓我們處在自己的Facebook過濾器泡泡里一樣,帶有偏見的數(shù)據(jù)創(chuàng)造出了傳播人類偏見的人工智能。
我們不能因?yàn)榉娜斯ぶ悄芏颖茇?zé)任。我們?cè)蕉嗟貙⑦@些系統(tǒng)納入我們的決策過程,我們就必須做得越多,以確保我們能夠負(fù)責(zé)任地使用這些系統(tǒng)。解決數(shù)據(jù)偏見問題的第一步是在數(shù)據(jù)收集過程中建立更大的透明度。它是從哪里來的?它是怎么收集的?是誰收集的?我們還需要解決模型中的偏見問題。通過讓我們的模型的內(nèi)部工作更加清晰,我們將能夠發(fā)現(xiàn)我們之前沒有發(fā)現(xiàn)的數(shù)據(jù)中的偏見。
如果我們能夠恰當(dāng)?shù)亟鉀Q人工智能中存在的偏見問題,那么人工智能將繼續(xù)成為創(chuàng)造一個(gè)更美好世界的有用工具。雖然解決世界上數(shù)十億人的偏見問題可能是完全不可行的,但我們完全有可能創(chuàng)造出比創(chuàng)造者更少偏見的人工智能。
雖然人類的偏見造成了這些挑戰(zhàn),但人類的洞察力可以解決這些問題。算法在清除虛假新聞和識(shí)別歧視方面取得了巨大進(jìn)步,但人類的監(jiān)督將成為構(gòu)建更公平的人工智能系統(tǒng)的必要條件。在正在進(jìn)行的“關(guān)于人工智能將如何改變工作”的討論中,我們很容易想到一個(gè)新角色出現(xiàn):人工智能監(jiān)視器。我們?nèi)匀恍枰斯z查人工智能的輸入和輸出。
三、更公正的人工智能
這讓我們想到了第二個(gè)與之相關(guān)的問題,那就是建立更公正的人工智能:我們需要在開發(fā)這些系統(tǒng)的研究人員和開發(fā)人員的社區(qū)中擁有更多的多樣性。
幾項(xiàng)研究揭示了該行業(yè)嚴(yán)重的不平衡。根據(jù)Code.org的數(shù)據(jù),“黑人、拉丁裔、美洲印第安人以及土著太平洋島民的比例顯著偏低,僅占計(jì)算機(jī)科學(xué)專業(yè)學(xué)生總數(shù)的17%。”較少的代表性往往與更少的可獲得性相吻合,不僅在課堂上,在公司、政府和公民團(tuán)體中也是如此。
我們需要積極確保這些新技術(shù)出現(xiàn)時(shí)的可獲得性。幸運(yùn)的是,人工智能也可以幫助解決這個(gè)問題。通過使用人工智能,我們可以繼續(xù)提供更直觀的開發(fā)者工具,并增加對(duì)教育的獲取渠道,從而擴(kuò)大可能首先從事人工智能的人的網(wǎng)絡(luò)。
我們現(xiàn)在已經(jīng)可以看到這種情況,一些學(xué)徒計(jì)劃專門尋求將弱勢群體帶入計(jì)算機(jī)科學(xué)課堂的方式。一個(gè)名為“Year Up”的組織每年培訓(xùn)4,000名年齡在18歲到24歲之間的低收入成年人。他們?nèi)〉昧司薮蟮某晒Γ?4%的學(xué)生上了大學(xué),或者在畢業(yè)后的6個(gè)月內(nèi)找到了工作。
通過為更廣泛的人群創(chuàng)造教育機(jī)會(huì),勞動(dòng)力將變得更加多樣化,對(duì)人工智能數(shù)據(jù)和設(shè)計(jì)的方式也將變得更加多樣化。如果有更多的多樣性,我們就可以避免一些偏見的陷阱。
四、人工智能的承諾
展望未來,我們必須調(diào)動(dòng)緊迫感來應(yīng)對(duì)這些挑戰(zhàn)。未來在我們知道之前就已經(jīng)到來了。
人工智能可能是有史以來最先進(jìn)的工具,就像一把錘子一樣,可以用在好的地方,也可以用于侵害。在正確監(jiān)督下,人工智能可以讓世界變得更好。它可以實(shí)現(xiàn)食品生產(chǎn)和運(yùn)輸?shù)淖詣?dòng)化,讓個(gè)性化醫(yī)療成為現(xiàn)實(shí),填補(bǔ)信息空白,讓每個(gè)人(無論技能水平或背景)都能提高效率。
在這方面,創(chuàng)造更好的人工智能與為人們創(chuàng)造更好的生活息息相關(guān)。這就是人工智能的承諾:讓我們變得更好、更高效,并讓我們有機(jī)會(huì)更多地專注于有創(chuàng)造性的、有影響力的任務(wù)。即使是在最初的日子里,它也在幫助我們舉起一面鏡子。
(原標(biāo)題:在人工智能恐懼之下 你必須明白的四個(gè)道理?。?/p>