如何利用七宗罪錯誤預測AI?

上海金融信息行業(yè)協(xié)會
佚名
索菲亞被賦予公民身份成功的挑逗到了人類神經(jīng),又引發(fā)了新一波全球范圍內(nèi)的人工智能威脅論。隨著人工智能與機器人相關技術與產(chǎn)業(yè)的快速發(fā)展,很多人對此感到十分的焦慮,害怕機器人將會取代人類。 Market Watch上...

索菲亞被賦予公民身份成功的挑逗到了人類神經(jīng),又引發(fā)了新一波全球范圍內(nèi)的人工智能威脅論。隨著人工智能與機器人相關技術與產(chǎn)業(yè)的快速發(fā)展,很多人對此感到十分的焦慮,害怕機器人將會取代人類。

Market Watch上有人宣揚機器人將在十到二十年內(nèi)占據(jù)現(xiàn)今大部分工作,甚至還發(fā)布了一張滿是數(shù)據(jù)的圖片當作論據(jù)。

機器人將在十到二十年內(nèi)占據(jù)現(xiàn)今大部分工作

在許多對AI未來的預測中,都有相同的問題。首先列出ABCD四個有關導致錯誤預測的大方向,并簡要評估他們的立場。

A.泛用人工智能(AGI)- AGI旨在從當今AI技術(如機器學習)中分離出一個思維實體,目的在于創(chuàng)造能像人類一樣能夠自主思考和行動的個體。但最近AI領域的成功卻并非都與AGI相關。

有些人認為所有的人工智能都是泛用人工智能(AGI),但正如“General”一詞所指,AGI要求遠遠高于目前AI。如果將現(xiàn)有的AI都理解為是AGI,那就明顯有些名不副實了。

目前,“泛用人工智能”的研究并不是十分理想,既沒有做到特別通用,也沒能形成一個獨立存在的個體。50年前遇到的問題,如在推理能力和常識上的不足,現(xiàn)在仍是制約其發(fā)展的主要原因。在其他領域中,比如在人工生命(Artificial Life)和適應行為模擬(Simulation of Adaptive Behavior)方面,人們已經(jīng)取得了一些進展,但這些研究現(xiàn)在已經(jīng)停滯了。

即便可能,人類距離理解和建立真正的“泛用人工智能”遠比許多專家所說的要遠。(經(jīng)常有人提到“一個人工智能”,好像所有人工智能都是獨立的個體一樣。這一點很讓人困惑,就像本地人不把舊金山(San Francisco)叫做“Frisco”一樣,沒有一位認真的研究人員會用“一個人工智能”來形容人工智能。)

B.奇點(Singularity)- 奇點的意思是指一個有著明確目標的AI實體,會在某一個點在AI的研究方面超越人類的研究速度。與此同時,就如摩爾定律所言,計算機處理速度越來越快,AI在達到奇點后會開始自我研究與加速的過程,如同物理學中黑洞的奇點一樣,我們也不知道奇點發(fā)生后AI到底會變成什么樣子。

正因為這種不可預測性,“相信”奇點的人們很樂意賦予奇點發(fā)生之后的AI無所不能的特性。之所以把“相信”兩個字用引號括起來,是因為這種“相信”多多少少帶有些宗教的味道。以后對有些人來說,他們可以向這樣的AI上傳自己的大腦從而得到永生,而不必麻煩地相信通常意義上擁有超能力的神。這種前所未有的強大科技將成為這些人新的上帝,一個新的宗教就此誕生了,科技教!

奇點崇拜者常常提到的通過在神經(jīng)元層面模擬大腦來達到奇點的方法的進度也不怎么樣。三十年來,我們已經(jīng)詳細了解了C類線蟲由302個神經(jīng)元構成的完整“線路圖”,以及它們之間的7,000個連接。這一點對理解其行為和神經(jīng)元之間的聯(lián)系非常有用。

C.不同的價值體系 - 第三種情況,是基于AI的機器在執(zhí)行某些任務時通常做得很好,好到甚至在復雜的世界中也可以達到超人的表現(xiàn)。然而,這些機器并沒有人類的價值觀和思維方式,這就會引發(fā)各種各樣的問題。

這個問題的某些版本的確是真的 - 比如說,如果我最近買了張去某個城市的飛機票,突然間我瀏覽的所有靠廣告賺錢的網(wǎng)站都開始給飛往那個地方的機票打廣告。這當然很蠢。我不認為這樣的現(xiàn)象算得上高水平的AI,只能說這類廣告的算法設計并不是很好。

無論如何我們都不會在現(xiàn)實世界中遇到這樣的軟件,一個為了實現(xiàn)人類給它制定的目標,可以聰明到可以顛覆人類社會,并忽視人類正是它的創(chuàng)造者這一事實。如果你認為技術會這樣進化的話簡直就是愚蠢至極,各種各樣錯誤的原因很有可能在下文提到的七個問題中找到答案。

順便說一下,用數(shù)學給這樣的AI作證明并不現(xiàn)實。多年來,通過大量的努力,我們還是無法證明一千行的代碼不能被黑客破解,更遑論大型AI系統(tǒng)了。不過好消息是,數(shù)千年來,我們?nèi)祟惪梢院婉R共存,盡管馬是個擁有自我存在感、渴望和遠超常人體力的獨立個體,但人類仍為了自己的利益而驅(qū)使它們。而神奇的是,我們直到現(xiàn)在都沒有任何一個和馬相關的定理!

D.超邪惡、恐怖、殘忍、人類滅絕型AI - 最后這類就像第三種情況一樣,但是這類AI對人類有明顯的反感,甚至打算毀滅人類以獲得更好的生存。

至少從上世紀六十年代末期開始,這種科幻思維在好萊塢特別流行。在上映于1968年的《2001:太空漫游》中,機器所造成的破壞僅限于一艘太空船。

軍事機器人殺手的話題,在新聞報道中這個話題很容易和情況D相混淆,更糟的是被那些忙著宣揚邪惡AI的人將其與情況D徹底混為一談。事實上這兩個是完全不同的問題。此外,我認為關于軍事機器人的很多觀點都被嚴重誤導了。然而,這是一個完全不同的話題

言歸正傳,如下是在AI預測方面經(jīng)常犯的七類錯誤。這七類錯誤影響著A、B、C、D四種情況發(fā)生的時間和可能性。不過,其中有些錯誤對錯誤預估的影響要大于其他的錯誤。下文中,小標題里用字母標出了這七類錯誤主要會造成A、B、C、D中的哪些情況。第一類錯誤對所有情況都會造成影響!

1. [A,B,C,D]高估與低估

未來主義者Roy Amara,是位于斯坦福大學內(nèi)的For The Future研究機構的聯(lián)合創(chuàng)始人與主席,無數(shù)項目的資本風投家,也是硅谷的智囊之一。讓他被世人所知的是他的那句著名格言,常被引用為“Amara法則”--我們總是傾向于高估技術帶來的短期影響,并低估其長期影響。

關于Amara法則的雙向性有一個很好的例子,即美國全球定位系統(tǒng)(GPS)30年的歷程。自1978年起陸續(xù)在軌道上放置了24顆衛(wèi)星(算上備份的話是30顆)。

地球上的任何一點可以同時看到其中的4顆,這樣就可以計算經(jīng)緯度和海拔高度。位于科羅拉多州Schriever空軍基地的指揮中心不間斷的監(jiān)視衛(wèi)星的軌道的精確度和機載原子鐘的準確性,出現(xiàn)微小的偏差后便上傳修正的數(shù)據(jù)。

如果沒有這些上傳的數(shù)據(jù),GPS將會在一至兩周之內(nèi)出現(xiàn)定位到別的街道的錯誤,再過幾個月之后,誤差就可能將你定位在別的城鎮(zhèn)了。

GPS的使用進入了長期的規(guī)劃,當初把它投放到衛(wèi)星軌道時根本沒想到會有如此多的用途。比如當我在外面跑步時,正是利用Apple手表上的GPS模塊記錄我的位置,其精度可以達到分辨出我在沿著一條街的哪一邊行進。

GPS信號接收器的尺寸之小、價格之低及應用之廣估計是它原來的設計者門怎么也想像不到的。它在為全球的物理實驗提供同步服務、成為美國國家電網(wǎng)的核心組成部分、甚至幫助股市里高頻投資的操作者們規(guī)避時間誤差所造成的災難。

GPS應用在所有的美國大大小小的飛機導航系統(tǒng)上、跟蹤定位獲得假釋的犯人、告訴人們什么種子應種植在哪片土地上。它獲取卡車隊伍的信息并報告司機們的表現(xiàn)、基于地面上反彈回去的信號判斷地面濕度,并制定灌溉計劃。

GPS始于一個單一的目標并艱難的為之努力?,F(xiàn)在它已滲透進我們生活的諸多領域,如果沒有了GPS,我們在生活中遇到的問題不止迷路這么簡單,而是可能會處于一個饑寒交迫的環(huán)境,最終導致死亡。

在過去三十年中我們也看到了同樣模式的技術型產(chǎn)品。首先是一個宏偉的設想,緊接著就是失望,然后一點點的發(fā)展,最后超越了當初所設想的目標。比如區(qū)塊鏈(比特幣是其第一個應用),人類基因組測序,太陽能,風能,甚至送貨上門服務。

絕大多數(shù)的科技產(chǎn)品的短期效應會被高估,因為他們是籠罩著光環(huán)的新鮮事物。人工智能由于被貼上新鮮事物的標簽在1960年代和1980年代一次又一次的被高估,現(xiàn)在也是同樣的情況。(一些大型公司釋放出的在市場上應用AI的消息是帶有欺騙性的,在不遠的將來可能就會砸了自己的腳。)

并不是所有的科技產(chǎn)品的長期效應會被低估,但AI的長期效應的確被低估了。問題在于“多久”才算長期,以下是6個常犯的錯誤觀點,會助于更好的理解為什么AI的長期效應是被嚴重低估了的。

2.[B,C,D]想象魔法

亞瑟·克拉克(Arthur C. Clarke)、羅伯特·海因萊因(Robert Heinlein)與艾薩克·阿西莫夫(Isaac Asimov)并稱為科幻界的“三巨頭”。但克拉克絕不僅是科幻作家,他更是一位發(fā)明家、科普作家與未來主義者。

早在1945年2月,他給《無線世界》(Wireless World)寫了一封信,提到了與地球同步的軌道衛(wèi)星的創(chuàng)意,同年10月他又發(fā)表了一篇論文,概述了這些衛(wèi)星可以向全球范圍提供了無線電信號的覆蓋。

在1948年他寫了一篇短篇小說《前哨(The Sentinel)》,為斯坦利·庫布里克(Stanley Kubrick)的經(jīng)典電影《2001太空漫游》提供了核心靈感。在電影拍攝期間,卡拉克為電影撰寫了同名書籍,為電影觀眾們解答了諸多的疑惑。

在1962年至1973年期間,克拉克明確三大假說,后被稱為克拉克三大定律(他說牛頓僅用了三條定律,對他來說三條也足夠了)。

定律一:如果一個年高德劭的科學家說,某件事情是可能的,那他可能是正確的;但如果他說,某件事情是不可能的,那他也許是非常錯誤的;

定律二:要發(fā)現(xiàn)某件事情是否可能,唯一的途徑是跨越“可能”的這個界限,從不可能回到“可能”中去;

定律三:任何非常先進的技術,初看都與魔法無異。

一項科技一旦超越了那條“魔法線”,它將不可能再被證偽,因為那的確就是魔法。

每與別人探討人類是否應該懼怕泛用人工智能時,經(jīng)常遇到這樣的情景,暫時先不論上文中C和D的情況,人們總是認為我不明白它有多強大??蛇@并不是一個論點,因為我們甚至都不知道它是否存在。以觀察到的種種跡象顯示我們?nèi)圆恢廊绾谓ㄔ煲粋€泛用人工智能。所以它的各項屬性性能便無從知曉,所以從字面意思上看它的確具有強大的魔力,沒有界限。

然而,宇宙中沒有任何事物可以沒有界限,再強大的AI也不例外。

留神那些說未來科技如同魔法一般的說法,這個說法永遠無法被證偽,因為這是一種源于信念的說法,而不是源于科學的。

3. [A,B,C]表現(xiàn) vs 勝任

在日常的社交中,我們可以判斷出我們周圍人的個體能力值,的確有時個別例外情況會顛覆或混淆我們的估計,這也是種族主義、性別歧視與階級歧視等問題的根源。

然而總的來說,我們通過觀察一個人曾經(jīng)做事的表現(xiàn)來評估他完成其他事情的能力,也能夠從其在一項任務的表現(xiàn)來推測他能否勝任更艱巨的任務,我們自然而然的能從一個人表現(xiàn)出的能力去推斷出他在相關領域的勝任能力。

當我們在國外向陌生人問路時,如果他們滿懷信心的用我們問的語言進行回答,并且所指的路線看起來也沒錯。我們就會覺得值得再碰碰運氣,繼續(xù)問乘坐公交時怎么付費。

如果我們十幾歲的孩子可以配置新游戲機連到家里的WIFI上,那么我們會認為只要他們愿意就可以把新的家用電腦也連到WIFI上。

如果一個人可以駕駛手動擋的汽車,堅信他也可以開動自動擋的汽車??墒侨绻@個人生活在北美洲,我們并不認為他可以反著來一遍。

如果我們在一座大型五金商店內(nèi)詢問員工家用電器的配件在哪,他卻領我們走到了花園工具的那一行。我們就不太可能再去問同一個人哪能找到浴室里的水龍頭。因為我們認為他既然不知道家用電器配件在哪,說明他其實不太清楚店里的布局,所以我們便傾向于找其他人問第二個問題。

現(xiàn)在,讓我們來看一下當今AI系統(tǒng)的一些表現(xiàn)的案例。

假設一個人向我們展示一張人們在公園里玩飛盤的照片,我們自然的相信他可以回答下面這些問題:“飛盤是什么形狀的?”、“一個人大概可以把飛盤扔多遠?”、“飛盤可以吃嗎?”、“大概多少人在玩飛盤?”、“3個月大的寶寶可以玩飛盤嗎?”、“今天的天氣適合玩飛盤嗎?”等問題。

與之相反,我們不能指望當一個人因為文化差異,完全不明白照片里顯示的是什么時,仍能夠回答這些問題。如今,圖像標簽(image labelling)系統(tǒng)雖然可以比較準確的為網(wǎng)絡上的圖片打上“人們正在公園內(nèi)玩飛盤”諸如此類的標簽,但仍然不能回答上述那些問題。

而且事實是它們僅限于打標簽,根本不能回答任何問題。它們不知道圖片中的內(nèi)容意味著什么,人類是什么,公園通常是在戶外的,人類有年齡這個屬性,天氣本身遠比圖片上看到的天氣要復雜得多等等……

但是這并不代表這個系統(tǒng)毫無用處。他們對于搜索引擎公司來說具有重大的意義,因為僅是做好打標簽的工作就可以讓搜索引擎公司從單一文字搜索跨越到可以對圖片進行搜索。

不過值得注意的是,搜索引擎通常會為一個問題提供多個答案,讓搜索者自己決定哪一個才是真正相關的內(nèi)容。搜索引擎公司一直為了能在推薦的前幾個選項中包含最佳選項而不斷的提升搜索引擎的性能。

這種依賴于用戶去甄選答案的做法,使得搜索引擎沒必要每次都將最佳答案排到第一個。但如果只能給出一個答案,無論是搜索“巴黎的高檔酒店”,或是在一個電子商務網(wǎng)站搜索“時髦領帶”的圖片,這些搜索引擎的用處將大打折扣。

這就是很多人犯錯的地方,每當他們聽說某個機器人或AI系統(tǒng)可以處理某一類任務,他們會按照推斷人類的“表現(xiàn) -> 勝任”方式去對這個機器人或者AI系統(tǒng)進行判斷。

現(xiàn)階段機器人和AI系統(tǒng)能做的事情還很有限,人類社會中的歸納概括模式對它們并不適用。如果誰用了和人類同樣的推斷方式,就會得到十分錯誤的判斷。

4. [A,B] 手提箱詞

“手提箱詞”(Marvin Minsky創(chuàng)立的一個術語,意思是說一個單詞包含有很多含義,如手提箱打開后里面有很多東西一樣,比如:意識,思考,經(jīng)驗等等)。那篇文章討論了機器學習中的“學習”一詞,對人類而言可以有很多類型的學習。人類對于不同類型的學習當然有不同的應對。比如:學習使用筷子與學習一首新歌的體驗就非常不同;學習編寫代碼與在某一城市中學習新的路線也截然不同。

當人們知道機器學習在某個新的領域取得了進展以后,往往會將自己對該領域的學習、思考模式套用過去,對很多模棱兩可的詞匯的理解就會有偏差,比如“思考”對于人類和機器是完全不同的。

而且很多人不明白,機器的學習是有很多的前提的,它需要研究人員或工程師進行大量的前期工作,要針對不同領域的寫相應的代碼來處理輸入數(shù)據(jù),還要有特定的訓練數(shù)據(jù)集以及針對每個新的領域的不同的學習結構。

對人類而言,面對一個新的領域無需精密且繁瑣的前期工作就可以直接開始全面的進行學習,這種海綿式的學習方式是目前機器學習遠遠無法達到的。

同樣,當人們聽到計算機現(xiàn)在可以擊敗國際象棋世界冠軍(1997年)或圍棋世界冠軍(2016年)時,他們往往認為它就像人類一樣是在“下”棋。 然而事實上這些程序并不知道游戲?qū)嶋H是什么,也不知道他們在玩什么。

正如在The Atlantic網(wǎng)站中,圍棋世紀之戰(zhàn)文章中指出的那樣:驅(qū)動人類棋手李世石的是12盎司的咖啡,而AlphaGo作為分布式AI應用需要大量的機器部署,和超過100位科學家在其背后作為支持。

當人類選手進行比賽時,對規(guī)則進行小的變動并不會使他無所適從——好的選手懂得如何去適應規(guī)則。但對于AlphaGo或Deep Blue 來說并非如此。(Deep Blue 于 1997 年擊敗國際象棋大師 Garry Kasparov)

這類手提箱詞的使用會讓人們對現(xiàn)在機器能做到的事情產(chǎn)生誤解。 一方面,研究人員與他們所在機構的新聞部門,都渴望宣稱他們的研究取得了進展,因此這類手提箱詞便有了用武之地。

無論研究人員多么謹慎(實情是往往并不是所有人都總是非常小心),只要研究結果傳到新聞部門,然后進入?yún)⒉畈积R的新聞媒體之中,文字中的很多細節(jié)便會丟失。 標題大肆宣揚“手提箱”字眼,不斷的使讀者對人工智能已到達多么高的水平以及有多么接近目標產(chǎn)生誤解。

我們甚至還沒怎么談到Minsky列舉的許多關于AI系統(tǒng)的手提箱詞;比如“意識”,“經(jīng)驗”或“思想”。對于我們?nèi)祟悂碚f,很難想象如何在沒有意識或沒有下棋經(jīng)驗,或者行棋思路的情況下下棋。

截至目前,我們的AI系統(tǒng)在人類的各種活動中還遠遠沒有達到手提箱詞所能代表的水平,甚至還沒有到達初級階段。當我們夸贊特定領域的AI應用,認為它們在一定程度上達到了“智能”的水平時,媒體,或者說大多數(shù)看客,又會將AI的能力泛化,認為其無所不能。

我們擔心的是這些單詞的部分含義哪怕只是在非常有限的一方面得到了證明,人們往往便將其神化,以為機器在這些方面的智能已經(jīng)接近類似人類的能力。

用語很重要,但只要我們用一個詞語描述有關AI系統(tǒng)的某個東西時,如果這個詞也適用于人的話,人們就會高估其對于AI系統(tǒng)的意義。迄今為止大多數(shù)適用人類的單詞在用到機器身上時,其表達的水平都不過是用在人身上時的千萬分之一。

下面是一些已經(jīng)應用于機器的動詞,但在它們描述的實際能力方面機器又與人類完全不同:

預期(anticipate)、擊?。╞eat)、 分類(classify)、 描述(describe)、 估計(estimate)、 解釋(explain)、 幻想(hallucinate)、 聽(hear)、想象(imagine)、 企圖(intend)、 學習(learn)、 建模(model)、計劃(plan)、 玩(play)、 認識(recognize)、讀(read)、 推理(reason)、 反映(reflect)、 看(see)、 理解(understand)、走(walk)、寫(write)。所有這些詞語,都可以在相關論文中找到,但在論文中的意思往往只是這些詞所蘊含的豐富含義的很小一部分。不幸的是,通過這些詞的使用,給人了一種機器已經(jīng)與人類相差無幾了的錯覺。

這就導致了人們誤解并高估了當今AI的能力。

5.[A,B,B,B,…] 指數(shù)論

很多人都遭受過所謂的“指數(shù)論”之苦。

每個人對摩爾定律都有自己的想法,至少知道計算機的運算速度會隨著時間發(fā)展變得越來越快。

戈登摩爾實際上說的是,芯片上的組件數(shù)量會每年翻番。

1965年摩爾做出預測的時候所用的下面這張圖只有4個數(shù)據(jù)點:

只推斷了10年,但迄今為止已經(jīng)過去了50年,定律中所說的“每年”也已經(jīng)變成了“每兩年”,盡管這樣也慢慢要行不通了。

芯片的元件數(shù)翻番使得計算機速度也加倍。而且還使得內(nèi)存芯片每2年容量變成之前的4倍。同時也使數(shù)碼相機分辨率越來越高,LCD屏幕像素呈指數(shù)增長。

摩爾定律見效的原因是在其將抽象的數(shù)字化問題變成了“是”與“不是”的問題。比如這樣的一個問題“是否存在電流或者電壓呢?”對這個問題而言,無論我們?nèi)绾螌⑵渲械碾娮訑?shù)減半再減半,答案都一直是肯定的。但如果一直減半到將其中的電子數(shù)只剩幾個,量子效應便開始成為主導,答案將不再是肯定的。相似的,我們的硅晶芯片就走到這個關鍵的節(jié)點上。

摩爾定律和類似的指數(shù)論可能因三個不同原因失?。?/p>

a. 它達到了一個物理限制,減半/加倍的過程不再有效。

b. 市場需求趨于飽和,因此推動定律生效的經(jīng)濟因素不再存在。

c. 過程從一開始就不是指數(shù)型的。

當一個人深信指數(shù)論時,他們可能就會無視上述任何一個原因,并繼續(xù)用指數(shù)論捍衛(wèi)自己的觀點。

在第一個原因的作用下,摩爾定律現(xiàn)在已經(jīng)近乎止步不前,但正是因為摩爾定律50年來一直發(fā)揮其作用,技術的不斷創(chuàng)新,硅谷、風投的崛起才得以發(fā)生,也使一批極客成為全世界最富有的人。這些事實導致有太多的人認為,包括AI在內(nèi)的技術的一切都是一直呈指數(shù)型發(fā)展的。

常識是很多指數(shù)型過程其實只是“S曲線”的一部分,也就是說到了一定程度指數(shù)型的高速增長就會放緩。諸如Facebook、Twitter等社交平臺用戶數(shù)的指數(shù)型增長最終必將變成S曲線,因為可變成新用戶的人數(shù)是有限的,所以指數(shù)型增長無法一直持續(xù)下去。這就是上述情況(b)原因的例子。

但還不止這些。很多時候,個人用戶的需求可能階段性看起來是指數(shù)型的,但隨后就變得飽和了。

回到本世紀初,麻省理工學院的一個很大的實驗室(CSAIL),需要給超過90家研究小組籌集研究經(jīng)費,試圖通過iPod內(nèi)存的快速增長向贊助商說明世界在進行快速的發(fā)展。跟摩爾不一樣的是有5個數(shù)據(jù)點!通過5年的觀察,在每年6 – 9月會有新的機型發(fā)布,具體的數(shù)據(jù)是關于400美元可以給iPod提供多大存儲。數(shù)據(jù)如下:

數(shù)據(jù)有非常完美的指數(shù)型(Gregor Mendel如果有這樣的數(shù)據(jù)恐怕會樂開花......)。 然后,用這些推斷了幾年后我們將對擁有的內(nèi)容作何安排。

如果推算到現(xiàn)在預計400美元的iPod應該有160000GB(或160TB)的內(nèi)存。但是今天最高配的iPhone(售價超過400美元)也只有256GB的內(nèi)存,還不到2007 產(chǎn)的iPod的2倍,而最高配的iPod Touch也只有128GB,相對于10年前的型號內(nèi)存反而還下降了。

當內(nèi)存容量大到可以容納任何常人完整的音樂庫時,這個特別的指數(shù)型就會突然崩塌。也就是說,當客戶需求不再存在時,指數(shù)型也會隨之停止。

同樣的,由于深度學習(機器學習的一種形式)的重大突破 — AI系統(tǒng)的性能突然得到大幅提升,很多人以為AI會以同樣的速度在先前的基礎上不斷的提升。但其實深度學習的成功是30年不懈努力的結果,并且沒人之前能預想到今天的成功,這只是個黑天鵝事件。

當然這也不是說不會有更多的黑天鵝事件,長期止步不前的AI研究的可能在某一天突然有所進展,并使的許多人工智能應用的表現(xiàn)得到提升。 但是并沒有任何一個“定律”說明這樣的偶然事件會多久發(fā)生一次。對AI的創(chuàng)新與發(fā)展而言,這其中并沒有物理過程,并不像摩爾定律中那樣只需要將元器件做得更小就可以了。這也就是上面的第三個原因(c)的例子。

所以當你看到有人把指數(shù)型指數(shù)型增長作為AI發(fā)展的判斷依據(jù)時,記住,所謂的指數(shù)型本身有時就是錯誤的,且就算對真正的指數(shù)型而言,在達到物理極限或者缺少更多的經(jīng)濟動因時,指數(shù)型增長也將不復存在。

6.[C,D]好萊塢電影

很多好萊塢科幻片的情節(jié)是這樣的,電影中的世界和現(xiàn)實世界十分接近,除了有一兩點科技上的不同。這一兩點不同往往就是外星人突然出現(xiàn)的原因,原本一切如往常一般,但突然有一天,外星人就出現(xiàn)了。

外星人基于這一兩點的不同突然出現(xiàn)似乎在邏輯上還可以接受,但如果是對新的科技而言呢?現(xiàn)實生活中,難道很多新技術都是在同一時間出現(xiàn)么。

在好萊塢的世界中,當整個人類科技受到極大沖擊時,電影有時能給出合理的解釋。比如《終結者》中,阿諾德·施瓦辛格所扮演的超級機器人來自未來,穿越回的世界就不需要通過一步步的發(fā)展進步到可以創(chuàng)造出超級機器人的科技水平。

但是在別的電影中,科技的發(fā)展過程就顯得有些可笑。

在電影《機器管家》中,Richard(Sam Neill飾)在等待可以獨立行走、交談的類人機器人(Robin Williams 飾)提供早餐時,隨手拿起了桌子上的一份報紙…打印在紙張上的報紙!不是平板電腦,也不是收聽類似于Amazon Echo智能音箱播放的電臺,也不是通過神經(jīng)鏈接直接訪問互聯(lián)網(wǎng)。

《銀翼殺手》中,Harrison Ford飾演了警探Rick Deckard,Sean Young飾演的機器人Rachael,在電影中Rachael和真人并無二樣,然而Deckard怎么聯(lián)系Rachael的?——用投幣公用電話。正如Tim Harford最近指出的,這樣的技術老到了讀這篇博客的大多數(shù)讀者都沒見識過。(Harford在同一篇文章中評論道:“預測未來技術的發(fā)展是及其有趣但是無濟于事的游戲”。真是令人深刻的洞見。)

在這兩個好萊塢電影的例子中,作者、導演以及制片人設想出了擁有視覺、聽覺、能夠說話 - 像人類一樣存在于這個世界的機器人。不考慮那些神奇的材料和工作原理,這些機器人也算得上是泛用人工智能了。可這些創(chuàng)造家們卻不愿意去思考一下在這些吸引人的新技術們發(fā)展時,這世界會變成什么樣子。

似乎許多AI研究者和專家們,尤其是那些沉迷于預言C、D的悲觀主義者們,都忽視了這一點。

許多C、D相關的預言不僅僅在時間維度上犯了錯,還忽略了一個事實:如果我們最終創(chuàng)造了如此智能的機器,這個世界將與現(xiàn)在迥然不同。我們并不會驟然間驚訝于超級智能,隨著時間的流逝,人類逐漸發(fā)明并發(fā)展新的技術,世界將因為許多不同的智能設備而變得大不一樣。與此同時,我們?nèi)祟悓π碌募夹g以及事物的理解也將與現(xiàn)在大不相同。

比如說,在D類情況(邪惡人工智能打算消滅人類)之前應該出現(xiàn)過不那么智能、不那么好戰(zhàn)的機器人,再之前有脾氣暴躁的機器人,再再之前有令人討厭的機器人,再再再之前有傲慢自大的機器人。

我們會一步一步的改變我們的世界,讓生活的環(huán)境和新技術相互融合。這并不意味著未來世界不會有意外出現(xiàn),而是說未來并不會像很多人想象的那樣,突然一下子天翻地覆。那些驚世駭俗的假想很多是違背現(xiàn)實的,和未來一點關系都沒有。

“好萊塢電影”式的修辭手法在爭論中有時的確很唬人,但它們和真實的未來沒有關系。

7. [B,C,D] 應用速度

隨著這個世界逐漸變成軟件的天下,某些行業(yè)內(nèi)的新版本發(fā)布頻率變得非常高。諸如Facebook這樣的平臺幾乎每小時都有新功能上線。因為很多新功能只要經(jīng)過了集成測試,就算出了問題,版本回退導致的經(jīng)濟影響也是微乎其微。

常常發(fā)現(xiàn)在類似的平臺上某些功能在短時間之內(nèi)就突然失效了(今早Facebook的通知下拉菜單功能就失效了 ),也許就是因為發(fā)布時出了問題。但對于重要的盈利模塊,例如廣告投放,改動起來就很謹慎了,版本變化頻率基本以周為單位。

這就是硅谷或者網(wǎng)站開發(fā)者們習慣的節(jié)奏,這的確有用,因為發(fā)布新代碼的邊際成本是非常低的,近乎于零。

而硬件則相反,部署的邊際成本非常高,這從我們的日常生活中就能感覺到。如今我們購買的大部分車都不是自動駕駛,里面甚至都沒有軟件的影子,而這些車可能在2040年還行駛在路上,這給自動駕駛的大規(guī)模普及形成了先天的限制。

如果我們建造一座新房子,會默認這座房子能夠維持超過100年。我現(xiàn)在住的房子就建造于1904年,而且它還不是附近最老的建筑。

出于成本因素的考慮,實體設備都會設計得很耐用,就算其中有很多的科技甚至事關存亡也不例外。

美國空軍現(xiàn)在還在使用B-52轟炸機的變體B-52H轟炸機,這個版本是在1961年發(fā)明出來的,也就是說它已經(jīng)56歲了。最新的一架是在1963年建造的,不過54年前而已?,F(xiàn)在這些飛機還將服役到2040年,也有可能更長——據(jù)說有打算延長它們的使用期限到超過100年(和“千年鷹號”比比?。?/p>

在美國,對陸洲際彈道導彈(ICBM)是義勇兵三型的變體,于1970年引入,共450枚。發(fā)射系統(tǒng)依賴于八寸軟盤驅(qū)動,一些發(fā)射流程的數(shù)字通信則使用模擬有線電話。

一些工廠里,甚至還看到過使用Windows 3.0的電腦,這一版本發(fā)布于1990年。很多工廠的主旨是“只要還沒壞,那么就別修它。”這些電腦以及其中的軟件已經(jīng)可靠地運行了相同的軟件并完成了他們的任務超過了二十年。

工廠中的自動化控制機制大多基于可編程邏輯控制器(PLC),包括美國、歐洲、日本、韓國以及中國的新型工廠,這是1968年為了替代電磁繼電器而引入的。

“線圈”依舊是當今主要使用的控制單位,PLC的編程方式也和24伏特電磁繼電器網(wǎng)的效果類似。同時,有些直連的電線被以太網(wǎng)線替代,它們基于RS485八位字符串協(xié)議,效仿原來的網(wǎng)絡,通過模仿24伏的直流電來傳輸信息(較原有網(wǎng)絡已經(jīng)有了很大的進步)。

以太網(wǎng)接線并不是開放網(wǎng)絡的一部分,而是以點對點的方式連接了這些翻新的自動化控制系統(tǒng)。在這個世界上的大多數(shù)工廠中,當你想改變信息流或者控制流時,都需要先請顧問團隊們花幾周的時間去明確相應的部分是怎么運轉(zhuǎn)的,然后設計新的改動,再然后整個硬件團隊再去重新開發(fā)和配置這些設備。

理論上整個過程可以更加的合理化,但在現(xiàn)實生活中并不是這樣。這類情況并不只發(fā)生在技術停滯了的工廠中,即使是在今天、當下這一分鐘,搜索一下招聘信息 - 特斯拉還在給他們佛利蒙市的工廠尋找全職PLC技術顧問。當今最人工智能化的自動駕駛汽車的生產(chǎn),仍然是由電磁繼電器仿真來完成的。

許多AI研究者以及專家都認為這是個數(shù)字化的世界,將新的AI技術應用于整個行業(yè)包括供應鏈、工廠、產(chǎn)品設計方面是輕而易舉的。

沒有什么比這更不切實際了。

重新配置自動化設備所受到的阻力是任何人都想象不到的大。

在這個領域中,任何人都無計可施,只能讓改變一點點的發(fā)生。那個回形針的例子,既制造回形針的人工智能系統(tǒng)決定聚攏所有的資源用來生產(chǎn)更多的回形針,即使是以犧牲人類所需要的資源為代價。顯而易見這就是無稽之談,因為這整個過程中需要有人去為這個系統(tǒng)未來幾十年的物理布線去進行考慮和擔憂。

大規(guī)模應用機器人和AI相關的想法所需的的時間,幾乎都遠遠比業(yè)內(nèi)、圈外的人們所想像的長得多。自動駕駛就是一個很好的例子,一夜之間似乎所有人都知道什么是自動駕駛,并且認為很快就會大規(guī)模應用到生活中。但實際上,這個過程比想象中慢得多,整個發(fā)展過程可能需要花費數(shù)十年,而非幾年。

如果你認為這過于悲觀,想想看,第一輛上路的自動駕駛車是在30年前,而直到現(xiàn)在,我們還沒有開始真正普及。1987年在慕尼黑的Bundeswehr University, Ernst Dickmanns和他的團隊發(fā)明了自動駕駛的貨車,在公共高速公路上以90公里每小時(56英里每小時)的速度行駛了20公里(12英里)。

1995年7月,來自卡耐基梅隆大學的Chuck Thorpe和 Takeo Kanade帶領他們的團隊測試了第一輛不用掌握駕駛盤和踏板的迷你貨車。Google和Waymo已經(jīng)研究自動駕駛車輛超過8年了,但是還沒有任何大規(guī)模生產(chǎn)的計劃。也許,從1987年開始尚需四十、五十甚至六十年,自動駕駛車輛才可以實現(xiàn)真正的普及。

機器人和AI的發(fā)明需要很長、很長的時間才可能成為現(xiàn)實并得到大規(guī)模應用。

結語

當你看到專家們對機器人和AI做出積極或消極的預測時,我建議好好利用這7類錯誤來評估一下他們的論證。以我的經(jīng)驗來說,總是能在他們的論述中發(fā)現(xiàn)2到3個,或者4個類似的漏洞。

(原標題:七宗罪:我們是如何錯誤預估人工智能的)

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論