近年來(lái),隨著人工智能技術(shù)的快速發(fā)展,公眾的擔(dān)憂有所上升。最響亮的聲音之一來(lái)自于已故的斯蒂芬·霍金教授,他認(rèn)為人工智能可能會(huì)毀滅人類。那么,該如何看待人工智能的威脅?應(yīng)該采取行動(dòng)控制人工智能嗎?是否要像對(duì)待核能和其他潛在危險(xiǎn)的技術(shù)一樣,制定法律甚至是國(guó)際條約來(lái)控制人工智能的發(fā)展?
回答這些問(wèn)題之前,首先需要明確的是,人工智能的成就目前仍很有限?,F(xiàn)在的人工智能系統(tǒng)能夠執(zhí)行20年前計(jì)算機(jī)不可能完成的任務(wù)。比如,現(xiàn)在全世界每天都有數(shù)以百萬(wàn)計(jì)的人在使用文本自動(dòng)翻譯工具;無(wú)人駕駛汽車即將問(wèn)世,未來(lái)10年將出現(xiàn)在馬路上;計(jì)算機(jī)現(xiàn)在比人更善于識(shí)別人臉等。盡管這些成就令人印象深刻,但人們還是不知道應(yīng)該如何使機(jī)器具有意識(shí)和自我感知。因此,在可預(yù)見(jiàn)的未來(lái),人工智能接管世界仍將是科幻小說(shuō)的情節(jié)。當(dāng)然這并不意味著我們可以高枕無(wú)憂。
人工智能系統(tǒng)越來(lái)越多地被用于做出決策,這對(duì)人們產(chǎn)生了直接影響。例如,銀行發(fā)現(xiàn)人工智能系統(tǒng)善于預(yù)測(cè)潛在客戶是否會(huì)成為優(yōu)質(zhì)客戶——是否會(huì)按時(shí)還債等。他們可以通過(guò)使用大量的客戶記錄,來(lái)“培訓(xùn)”一個(gè)人工智能系統(tǒng)。一段時(shí)間后,這一系統(tǒng)將能夠分析潛在客戶的詳細(xì)信息,從而預(yù)測(cè)其是否優(yōu)質(zhì)。對(duì)于銀行來(lái)說(shuō),可以迅速而低廉地決定是否需要一個(gè)特定的客戶。但對(duì)于客戶自身而言,應(yīng)該會(huì)感到擔(dān)憂:如果銀行的人工智能系統(tǒng)在某種程度上存在偏見(jiàn)怎么辦?
這就是算法偏見(jiàn)。當(dāng)前人工智能浪潮的一個(gè)特點(diǎn)是,系統(tǒng)無(wú)法像人那樣,解釋或合理化其所做的決定。所以,銀行可能會(huì)使用人工智能系統(tǒng)來(lái)決定不與你做生意,但卻不能給你解釋原因。這公平嗎?銀行這樣運(yùn)作合乎道德嗎?誰(shuí)來(lái)對(duì)這個(gè)決定負(fù)責(zé)?
這些問(wèn)題不容忽視。一種解決辦法是,建議對(duì)人工智能技術(shù)的使用進(jìn)行監(jiān)管。我認(rèn)為通過(guò)一般法律來(lái)管理人工智能的使用是不現(xiàn)實(shí)的,這似乎有點(diǎn)像試圖通過(guò)立法來(lái)管理數(shù)學(xué)的使用。一個(gè)似乎正在被接受的辦法是,如果軟件做出了影響你的決定,那么你應(yīng)該有權(quán)知道這個(gè)決定是如何做出的,使用了哪些和你有關(guān)的數(shù)據(jù),標(biāo)準(zhǔn)是什么。我認(rèn)為這比較合理。使人工智能可解釋化和透明化,是當(dāng)今這一領(lǐng)域面臨的最大挑戰(zhàn)之一。
在某些情況下,人工智能決策可能直接事關(guān)生死,比如在戰(zhàn)場(chǎng)上使用人工智能系統(tǒng)。盡管目前還沒(méi)有證據(jù)表明這種“致命性自主武器”已經(jīng)被使用,但確實(shí)已經(jīng)具備了可能性。過(guò)去5年來(lái),人工智能領(lǐng)域的科學(xué)家們積極行動(dòng),希望政府認(rèn)識(shí)到這一問(wèn)題的嚴(yán)重性并做出應(yīng)對(duì)。最近英國(guó)政府在一份報(bào)告中明確表示,永遠(yuǎn)不給人工智能系統(tǒng)傷害人的權(quán)力。
人工智能只是一種技術(shù),就像任何技術(shù)一樣,可以用來(lái)造福人類,也可能帶來(lái)危害。條件反射式的立法,對(duì)于把控人工智能不太可能奏效。我們需要以負(fù)責(zé)和道德的方式使用人工智能,正如最近全球關(guān)于自主武器的討論取得進(jìn)展一樣,國(guó)際社會(huì)需要應(yīng)對(duì)解決人工智能帶來(lái)的挑戰(zhàn)。