日前,圖靈獎得主、貝葉斯網絡之父朱迪亞·珀爾撰文批判當前機器學習的理論局限。他認為,當前的機器學習系統(tǒng)幾乎完全以統(tǒng)計學或盲模型的方式運行,不能作為強人工智能的基礎。
珀爾的觀點非常具有啟示意義。目前人工智能的發(fā)展被機器學習所主導,而機器學習最大的問題是解釋黑箱——即便機器可以得到相對優(yōu)化的結果,然而由于神經網絡中隱層的存在,就算是科學家也無法對結果做出令人信服的解釋。珀爾希望通過構建新的結構因果模型,為可解釋的人工智能發(fā)展提供一條新路。
這種算法黑箱有可能導致“算法暴政”。換言之,在人工智能時代,算法會主宰人們的生活和決策,然而由于普通人對算法一無所知,并且科學家也無法打開算法的黑箱,那么這種算法對人類生活的主導將是危險的。
這種危險或許可以用“賽維坦”來描述。西哲多用傳說中的怪獸“利維坦”來形容能量巨大且無法無天之人或國家。如果不加限制,科學也可能發(fā)展成為無所不能的怪獸,從而對人們的生活產生強大影響。值得擔心的是,帶領人們走出落后的“賽先生”,會不會變成人們無所抗拒同時又無能為力的“賽維坦”。因此,發(fā)展人工智能和創(chuàng)新技術的重要原則應該是馴服“賽維坦”,即讓科技為人類服務,而不是讓人類為科技服務。
筆者認為,以馴服“賽維坦”作為起點,人們不妨來一點“賽托邦”的理想,即寄希望于對科技的高效和正確使用,使其對人們的生活發(fā)揮出更有利的影響,釋放科技所具有的實現(xiàn)社會富足、促進人類群體之間充分溝通、完善弱勢群體的補償與救濟、實現(xiàn)人類自由解放和提高社會整體和諧的巨大潛能。
然而,就目前人工智能領域的發(fā)展現(xiàn)狀來看,“賽托邦”的理想仍比較遙遠。美國一直處在人工智能基礎研究的前沿,保持全球領先地位,但美國在人工智能領域形成的兩種主導性的文化卻難以服眾:一種是宣揚技術導致世界末日的悲觀態(tài)度;另一種是宣揚極少數(shù)技術精英控制世界的“技術超人論”。這兩種文化使得美國在人工智能時代缺乏引領世界的文化基礎。從這方面看,中國文化的多元統(tǒng)一以及和諧共存理念,倒是為人類思考人工智能的未來提供了新的方案。
當以“善智”為發(fā)展目標,人工智能才會使人類社會進入“賽托邦”,讓科學技術進一步為人類社會服務,創(chuàng)造出更多的商品,滿足人類的基本需求,增加人類社會的和諧,并讓人們做自己更想做的事情。