有人認為,隨著人工智能技術(shù)在生活中的逐漸應(yīng)用,不久的未來人類將會被人工智能取代,科幻電影中人機大戰(zhàn)的場景終會成為現(xiàn)實。但一些業(yè)內(nèi)專家并不贊同這個觀點,他們認為只要建立一定的規(guī)則,高度先進的人工智能可能會比人類更擅長管理世界。
當人們談?wù)撐磥淼娜斯ぶ悄軙r,會出現(xiàn)一些恐慌——比如,它可以教會自己學習,并變得比我們?nèi)祟愃芾斫獾娜魏螙|西都更先進。在錯誤的人手中,甚至可能是自己的,這樣一種先進的算法可能會統(tǒng)治世界各國政府和軍隊,賦予奧威爾式的監(jiān)視、操縱和社會控制,甚至可以控制諸如軍用無人機等自主致命武器的整個戰(zhàn)場。
但一些人工智能專家并不認為這些擔憂有根據(jù)。事實上,高度先進的人工智能可能比人類更擅長管理世界。這些恐懼本身才是真正的危險,因為它們可能阻礙我們將這種潛力變?yōu)楝F(xiàn)實。
“也許沒有實現(xiàn)人工智能是人類面臨的危險,”Facebook人工智能的研究科學家托馬斯?米科洛夫在上周六于布拉格舉行的“人類水平人工智能”聯(lián)合會議上表示。
米科洛夫解釋說,作為一個物種,人類在做出對我們有利的選擇方面是相當糟糕的。人們已經(jīng)將雨林和其他生態(tài)系統(tǒng)分割開,以獲取原材料,不知道也不關(guān)心它們是如何導(dǎo)致地球整體緩慢而又不可逆轉(zhuǎn)的退化的。
但是,一個高級人工智能系統(tǒng)或許能夠保護人類不受其自身短視的殘害。
米科洛夫補充說:“我們作為人類,非常不善于預(yù)測在某個遙遠的時間線上會發(fā)生什么,也許從現(xiàn)在起20到30年。”“也許讓人工智能比我們自己更聰明,在某種共生關(guān)系中,可以幫助我們避免未來的災(zāi)難。”
當然,米科洛夫認為一個優(yōu)秀的人工智能實體將是仁慈的,這可能是少數(shù)派。在整個會議過程中,許多其他發(fā)言者表達了這些共同的恐懼,主要是關(guān)于人工智能被用于危險的目的,或者被惡意的人類行為者濫用。我們不應(yīng)該嘲笑或輕視這些擔憂。
我們不確定是否有可能創(chuàng)造出通用人工智能,通常被認為是復(fù)雜人工智能的圣杯,它能夠做任何人類能做的任何認知任務(wù),甚至可能做得更好。
先進人工智能的未來充滿希望,但它帶來了許多倫理問題,甚至是意想不到的問題。
但是,HLAI會議的大多數(shù)與會者都認為,在我們需要這些規(guī)則之前,我們?nèi)匀恍枰⒁?guī)則。政府、私營企業(yè)和學術(shù)界建立國際協(xié)議、倫理委員會和監(jiān)管機構(gòu),應(yīng)該將這些機構(gòu)和協(xié)議落實到位,減少敵對政府、不知情的研究人員,甚至是一個瘋狂科學家將會釋放惡意的人工智能系統(tǒng),或者將先進的算法武器化的可能性。如果有什么不好的事情發(fā)生了,那么這些系統(tǒng)就會確保我們有辦法處理它。
有了這些規(guī)則和保障措施,我們將更有可能在先進的人工智能系統(tǒng)中與我們和諧相處,甚至可能拯救我們自己。
(原標題:Facebook科學家:高級人工智能將比人類更出色地管理世界)