人工智能瓶頸:如何應(yīng)對(duì)未來倫理問題
極客未來體驗(yàn)店
當(dāng)人工智能變得越來越像人,人工智能倫理問題成為了技術(shù)行業(yè)、監(jiān)管機(jī)構(gòu)和大眾最為關(guān)注的問題。
當(dāng)下,對(duì)于人工智能商業(yè)價(jià)值的極度崇拜與對(duì)倫理崩塌的深度隱憂,構(gòu)成了討論人工智能的兩種相反論調(diào):一方面,商業(yè)機(jī)構(gòu)不斷描繪人工智能時(shí)代的便利美好,而許多影視作品則提醒人們?nèi)斯ぶ悄芫哂袧撛谖kU(xiǎn)。這兩方面的沖突,引發(fā)了人們不斷的探討。
“倫理困境”阻礙人工智能研發(fā)
從新聞客戶端中越來越“懂你”的信息流,到開始嘗試在封閉道路上自動(dòng)駕駛的汽車,過去幾年,各種包含人工智能技術(shù)的產(chǎn)品走入大眾生活。據(jù)騰訊研究院院長司曉介紹,全球人工智能創(chuàng)業(yè)企業(yè)已經(jīng)達(dá)到2000多家,在騰訊,有四個(gè)大實(shí)驗(yàn)室正在做人工智能相關(guān)項(xiàng)目。
事實(shí)上,有些人工智能商業(yè)場(chǎng)景遲遲不能落地,不是被技術(shù)“絆”住了,反而是倫理研究拖了后腿。司曉舉例說,美國2016年的統(tǒng)計(jì)表明,自動(dòng)駕駛的安全性已經(jīng)明顯高于人工駕駛,但自動(dòng)駕駛中有一個(gè)著名的倫理困境,即當(dāng)它無可避免要撞人時(shí),撞向人多的一邊還是人少的一邊,如果這一問題不解決,自動(dòng)駕駛汽車就無法上路。
復(fù)旦大學(xué)哲學(xué)系教授王國豫提出,全景監(jiān)獄和數(shù)據(jù)歧視的倫理困境也值得警惕。全景監(jiān)獄是指攝像頭可以將你的所有行動(dòng)構(gòu)成一個(gè)行動(dòng)路線圖,搜索引擎可以給你畫像,在強(qiáng)人工智能下,就等于有人盯著你的一舉一動(dòng);數(shù)據(jù)歧視是指將數(shù)據(jù)轉(zhuǎn)化為人們能夠理解的信息過程中充斥著人為的解讀因素,如果數(shù)據(jù)顯示某個(gè)區(qū)域的人跳槽率較高,就會(huì)影響這個(gè)地區(qū)的人找工作。
現(xiàn)如今,人工智能倫理問題已經(jīng)引起世界關(guān)注,2016年英國標(biāo)準(zhǔn)組織發(fā)布機(jī)器人倫理標(biāo)準(zhǔn)《倫理設(shè)計(jì)與應(yīng)用機(jī)器人》、微軟提出人工智能六大原則,都在一定程度上促進(jìn)人工智能發(fā)展。我國《新一代人工智能發(fā)展規(guī)劃》中,“人工智能倫理”這一字眼出現(xiàn)了十五次之多,表明制定人工智能倫理規(guī)范已迫在眉睫,而我們也有理由相信,這些舉措將更好的推進(jìn)人工智能的發(fā)展。
THEEND
免責(zé)聲明:凡注明為其它來源的信息均轉(zhuǎn)自其它平臺(tái),由網(wǎng)友自主投稿和發(fā)布、編輯整理上傳,對(duì)此類作品本站僅提供交流平臺(tái),不為其版權(quán)負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。若有來源標(biāo)注錯(cuò)誤或侵犯了您的合法權(quán)益,請(qǐng)作者持權(quán)屬證明與本站聯(lián)系,我們將及時(shí)更正、刪除,謝謝。聯(lián)系郵箱:xiali@infoobs.com
評(píng)論請(qǐng)先登錄~
最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))
更多暫無評(píng)論