人工智能瓶頸:如何應(yīng)對(duì)未來倫理問題

極客未來體驗(yàn)店
當(dāng)下,對(duì)于人工智能商業(yè)價(jià)值的極度崇拜與對(duì)倫理崩塌的深度隱憂,構(gòu)成了討論人工智能的兩種相反論調(diào):一方面,商業(yè)機(jī)構(gòu)不斷描繪人工智能時(shí)代的便利美好,而許多影視作品則提醒人們?nèi)斯ぶ悄芫哂袧撛谖kU(xiǎn)。這兩方面的沖突,引發(fā)了人們不斷的探討。
 
  當(dāng)人工智能變得越來越像人,人工智能倫理問題成為了技術(shù)行業(yè)、監(jiān)管機(jī)構(gòu)和大眾最為關(guān)注的問題。
 
  當(dāng)下,對(duì)于人工智能商業(yè)價(jià)值的極度崇拜與對(duì)倫理崩塌的深度隱憂,構(gòu)成了討論人工智能的兩種相反論調(diào):一方面,商業(yè)機(jī)構(gòu)不斷描繪人工智能時(shí)代的便利美好,而許多影視作品則提醒人們?nèi)斯ぶ悄芫哂袧撛谖kU(xiǎn)。這兩方面的沖突,引發(fā)了人們不斷的探討。
 
  “倫理困境”阻礙人工智能研發(fā)
 
  從新聞客戶端中越來越“懂你”的信息流,到開始嘗試在封閉道路上自動(dòng)駕駛的汽車,過去幾年,各種包含人工智能技術(shù)的產(chǎn)品走入大眾生活。據(jù)騰訊研究院院長司曉介紹,全球人工智能創(chuàng)業(yè)企業(yè)已經(jīng)達(dá)到2000多家,在騰訊,有四個(gè)大實(shí)驗(yàn)室正在做人工智能相關(guān)項(xiàng)目。
 
 
  事實(shí)上,有些人工智能商業(yè)場(chǎng)景遲遲不能落地,不是被技術(shù)“絆”住了,反而是倫理研究拖了后腿。司曉舉例說,美國2016年的統(tǒng)計(jì)表明,自動(dòng)駕駛的安全性已經(jīng)明顯高于人工駕駛,但自動(dòng)駕駛中有一個(gè)著名的倫理困境,即當(dāng)它無可避免要撞人時(shí),撞向人多的一邊還是人少的一邊,如果這一問題不解決,自動(dòng)駕駛汽車就無法上路。
 
 
  復(fù)旦大學(xué)哲學(xué)系教授王國豫提出,全景監(jiān)獄和數(shù)據(jù)歧視的倫理困境也值得警惕。全景監(jiān)獄是指攝像頭可以將你的所有行動(dòng)構(gòu)成一個(gè)行動(dòng)路線圖,搜索引擎可以給你畫像,在強(qiáng)人工智能下,就等于有人盯著你的一舉一動(dòng);數(shù)據(jù)歧視是指將數(shù)據(jù)轉(zhuǎn)化為人們能夠理解的信息過程中充斥著人為的解讀因素,如果數(shù)據(jù)顯示某個(gè)區(qū)域的人跳槽率較高,就會(huì)影響這個(gè)地區(qū)的人找工作。
 
 
  現(xiàn)如今,人工智能倫理問題已經(jīng)引起世界關(guān)注,2016年英國標(biāo)準(zhǔn)組織發(fā)布機(jī)器人倫理標(biāo)準(zhǔn)《倫理設(shè)計(jì)與應(yīng)用機(jī)器人》、微軟提出人工智能六大原則,都在一定程度上促進(jìn)人工智能發(fā)展。我國《新一代人工智能發(fā)展規(guī)劃》中,“人工智能倫理”這一字眼出現(xiàn)了十五次之多,表明制定人工智能倫理規(guī)范已迫在眉睫,而我們也有理由相信,這些舉措將更好的推進(jìn)人工智能的發(fā)展。
THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無評(píng)論