最近幾個月,人工智能發(fā)展迅猛。微軟宣布將與研究實驗室OpenAI合作,投資10億美元打造“通用人工智能”(AGI)。OpenAI 首席執(zhí)行官 Sam Altman表示:“強人工智能的研發(fā)將是人類歷史上最重要的技術進步。”
眾所周知,計算機在一些具體任務的處理上遠超人類,但它們并不具有人類智慧、常識以及批判性思維,在不明確的條件下它們往往很難執(zhí)行任務,作出判斷或選擇。因此,開發(fā)出類似于人腦的計算機將會是巨大的進步,然而微軟在這方面的嘗試似乎也并不讓人滿意。
2016年,微軟發(fā)布了聊天機器人Tay (Thinking About You)。Tay通過模仿千禧一代的語言,化身為一位千禧年代的女性。微軟曾夸口說,“你和Tay聊得越多,她就越聰明。”當時,一天之內,Tay發(fā)布了9.6萬條推文,擁有超過5萬名粉絲??墒荰ay終究只是一個無聊的聊天機器人,她的推特內容無非是,“希特勒是對的”,“我恨猶太人”,“我恨透了女權主義者”。Tay擅長利用接收到的單詞和短語,但它卻無法在文章中正確的使用它們,當然也無法理解自己發(fā)送的推文。16個小時后,微軟將Tay下線,但一周后,又重新將其上線,然而情況并沒有好轉,Tay開始瘋狂地向其20萬粉絲重復發(fā)送“太快了,請休息一下”的推特內容。后來,微軟聲稱這次的重新發(fā)布是一次意外,并再次將Tay下線。
通用人工智能也許只是一個虛幻的夢想,不過數據科學企圖依靠大數據和強大的計算功能,讓計算機根據事實做出明智的決策,而不是依賴人類的一時興起、預感或偏見。然而實際情況是,企業(yè)和政府依舊犯著大數據時代之前的那些錯誤。因為將重大決策交給計算機只會重復曾經的錯誤判斷。
數據科學不僅僅是數學證明、統計計算和計算機編程。實驗設計、人類智慧、常識、懷疑和批判性思維,這些真正的人類智慧才是核心所在。如果數據科學想要發(fā)揮其巨大的潛力,就要避免以下9個常見的“陷阱”:
1,錯誤數據
第一臺機械計算機的發(fā)明者查爾斯·巴貝奇(Charles Babbage)曾兩次被問到:“巴貝奇先生,請問如果你把錯誤的數字輸入機器,會得出正確的答案嗎?”答案是否定的。
芝加哥一家醫(yī)院曾做過關于敗血癥病人的研究,他們認為,血液pH值低的患者出院后很快再次入院的概率較低。不過,他們的數據包括了在住院期間去世的病人!要知道,最不可能再次入院的病人正是那些躺在太平間里的人。所以,事實上,當我們排除那些“死亡數據”之后,pH值低的病人他們的病情其實并不樂觀。
2,忽略理論
一些數據科學家在沒有理論或常識指導的情況下,單單從龐大的數據中企圖尋找某種模式。他們認為思考一個問題限制了新知識的發(fā)現。不幸的是,大數據時代使得各種模式成千上萬,然而其中大多數都是毫無意義的。這一悖論在于:為了得出某種模式越是瘋狂地去搜索數據,得出的結論可能越沒有價值。
一家互聯網營銷公司在100多個國家測試了其登陸頁面的三種顏色(黃色、紅色和藍綠色),并將其與傳統的藍色相對比。他們得出的結論是,英國人喜歡藍綠色,但事實并非如此。
3,“崇拜”數學
數學家熱愛數學,非數學家“畏懼”數學。這一致命的組合,往往會導致建立很多極其不現實的模型。
許多抵押貸款違約的數學模型在大衰退期間崩潰了,因為他們簡單的假設,違約的概率呈現正態(tài)分布且是獨立存在的。他們低估了極端事件發(fā)生的可能性,也忽略了經濟衰退等宏觀經濟事件將引發(fā)的大量抵押貸款違約的可能性。
4,“崇拜”電腦
由于計算機能夠非常高效的處理某些問題,人們很容易認為,計算機擁有高智能。但是應對具體任務的高效性與應對各類復雜情況的綜合智力,這兩者是十分不同的。我們對于計算機的“崇拜”其實是一種有害的癡迷。
現如今,算法犯罪學在審前保釋、審后判決和定罪后假釋等決定中使用黑箱模型變得司空見慣。然而,黑箱的算法往往帶有種族偏見,甚至不如那些只考慮年齡和前科的簡單模型。
5,過分分析數據
為了能夠找到數據之間的重要關系,研究者試圖以各種各樣的方式對數據進行分析。羅納德?科斯(Ronald Coase)曾精辟的對此表示,“如果你‘折磨’數據的時間夠久,它們總會‘招供’。”
對于從一家意大利自助餐廳收集來的數據,研究員建議助理將食客分為“男性,女性,吃午餐的,吃晚餐的,獨自進餐的,和他人一起的,喝酒的,喝飲料的,座位離自助區(qū)遠的和近的人……”然后研究這些小組之間的不同之處,“他們點了幾塊披薩,是否吃甜點?是否喝飲料?等等”。研究員曾向助理表示:“認真‘鉆研’這些數據,非得找出些數據間的關系來。”最后,四篇“披薩論文”在這樣的“苦心鉆研”中得以發(fā)表,其中最著名的一篇報道稱,當男性與女性共進晚餐時,他們會多吃93%的披薩。不過,他發(fā)表的十幾篇論文現已被撤回并且他也辭去了大學的職務。
6,自我欺騙
物理學家理查德·費曼(Richard Feynman)曾說過:首先你不能欺騙自己——而自己是最容易被欺騙的人。真正的科學家會分享他們的理論,質疑他們的假設,并尋找機會進行實驗來驗證或否定其理論與假設。而“數據小丑”只會看到他們想看的東西。
曾經有一項研究讓高中生預測他們的數學考試成績。結果顯示平均預測得分普遍高于平均實際得分,預測與實際得分之間的相關性為0.70。作者因此得出了兩個結論。第一,學生高估了自己的能力。然而,這也可能是學生低估了考試的難度。第二,提高學生的自尊可以提高考試成績。然而,預測分數和實際分數之間的正相關可能恰恰反映了這樣一個事實:大多數成績優(yōu)異的學生清楚他們擅長數學,而那些不及格的學生也知道自己不太理解數學。所以,他們并不是過分悲觀,他們只是清楚現實情況。
7,混淆相關性與因果關系
我們總是忘記具有相關性并不等于擁有因果關系。
2011年,谷歌創(chuàng)建了一個名為Google Flu的人工智能程序,通過搜索查詢來預測流感的爆發(fā)。他們曾自豪地說:“我們可以準確地估計目前美國每個地區(qū)每周流感活動的水平,而且報告只滯后大約一天。”他們表示,他們模型的準確率為97.5%,因為模型的預測結果與實際流感病例數之間的相關性為0.975。谷歌數據程序研究了5000萬個搜索查詢,并確定了與流感發(fā)病率最密切相關的45個查詢詞語。由于流感爆發(fā)具有很強的季節(jié)性,Google Flu 大都選擇季節(jié)性的關鍵詞,例如圣誕節(jié)、寒假和情人節(jié)。然而, Google Flu在真正的預測方面并不準確。在一次預測中Google Flu高估了流感樣病例門診數近兩倍之多。至此,Google Flu以失敗告終。
8,忽略真正均值
當數據波動較大時,大部分被測數據會高于現象,但隨后越來越多的值才更接近平均值。簡單來說,就是某項指標的表現過高或過低后會自然回歸到平均水平。
一位高爾夫球手如果單憑僥幸在一次比賽中贏得了金牌,他很可能在下一次的比賽中表現欠佳,這并非是運氣不好或者發(fā)揮失常,只是因為上次的勝利其實高估了他的實力。
對于公司也是如此。一名數據分析師曾對過去三個月“表現欠佳”的網頁布局進行修改,希望能夠提高其收益。他顯然“大獲全勝”。在他對頁面布局做出調整之后的第二天,收益激增20%。之后收益增長依舊持續(xù)了一小段時間。不過,好景不長,事實證明這些確實是表現欠佳的網站,其收入已逐漸向平均水平回歸。
9,“危害”他人的利益
在大數據時代,企業(yè)和政府不斷地監(jiān)控我們,以便預測我們的行為并操縱我們的行為。優(yōu)秀的數據科學家懂得謹慎行事,尊重我們的權利和隱私。“己所不欲,勿施于人”這句話對于數據科學同樣適用。
一個約會網站曾做過三個實驗。在實驗1中,他們暫時刪除了網站上的所有照片,發(fā)現使用的人少了很多。在實驗2中,他們隨機隱藏了人們的個人資料,發(fā)現這對性格評分沒有影響。而在實驗3中,他們顛倒了匹配度。即當兩個用戶明明十分匹配時,告知對方彼此不合適。而當兩人其實不合適時,卻顯示高匹配度。前兩個實驗相對不會造成負面影響,然而第三個卻損害了他人的利益。畢竟沒有誰喜歡和自己完全不合適的人約會。他們的客戶肯定不希望自己因為這種不匹配的約會方式而錯過真正合適的人。
所以,要想避免以上那些“錯誤”或“陷阱”,我們需要有批判性的思維。要將科學應用到數據科學之中,因此,我們更應該像科學家那樣去思考,而不是像機器那樣。