人工智能遠比核武器危險,AI真的危險嗎?

快資訊
唔哩頭條
從目前的AI水平來看,人工智能還不具備產(chǎn)生危險的能力。 當(dāng)下的人工智能往往只能完成單一或者某一領(lǐng)域的自我學(xué)習(xí)或者識別能力,如阿爾法狗,只會圍棋。某種機器人只會跟人交流。其原因是目前的AI算法大多是神經(jīng)網(wǎng)...

從目前的AI水平來看,人工智能還不具備產(chǎn)生危險的能力。

當(dāng)下的人工智能往往只能完成單一或者某一領(lǐng)域的自我學(xué)習(xí)或者識別能力,如阿爾法狗,只會圍棋。某種機器人只會跟人交流。其原因是目前的AI算法大多是神經(jīng)網(wǎng)絡(luò)、貝葉斯網(wǎng)絡(luò)等可以自學(xué)習(xí)的算法來實現(xiàn),實際上是模擬人類的神經(jīng)系統(tǒng),模擬出每個神經(jīng)元的工作方式,神經(jīng)元與神經(jīng)元之間的通信,輸入大量的樣本數(shù)據(jù)后,使得學(xué)習(xí)網(wǎng)絡(luò)有了一個概率性或者經(jīng)驗性的判斷能力,當(dāng)再次輸入某一現(xiàn)象,如對話機器人接收到一段聲音(某人跟它說話)時,他會根據(jù)已經(jīng)學(xué)習(xí)成型的網(wǎng)絡(luò)給出一個預(yù)期的最合理結(jié)果(回答或者跟此人對話)。而算法模擬的神經(jīng)元實際上是一個實現(xiàn)特定功能的函數(shù)或者功能模塊,也就是說只能實現(xiàn)單一或者極少的功能,因此當(dāng)下的人工智能往往只能完成單一或者某一領(lǐng)域的自我學(xué)習(xí)或者識別能力。

而人類的神經(jīng)元可以完成無數(shù)情況的應(yīng)變能力,即每個神經(jīng)元會根據(jù)各類情況作出不同的反應(yīng),這比機器算法的某模塊只能實現(xiàn)單一功能的能力強大的多。所以所現(xiàn)在的人工智能更加不可能憑空產(chǎn)生某一種想象或者想法,無危險。

然而,我們知道人類本質(zhì)上是由一堆化學(xué)元素組成的,神經(jīng)元的通信也是有電信號完成的,也就是說一堆化學(xué)元素組成的物質(zhì)有可能產(chǎn)生獨立意識或者思維,只是我們現(xiàn)在還沒有響應(yīng)的一套或者龐大的算法來實現(xiàn)人體的運行機制(人腦和人體神經(jīng)元配合)。當(dāng)我們的技術(shù)可以突破此瓶頸時,人工智能產(chǎn)生思維不是不可能。當(dāng)然還有另外一個瓶頸:功率消耗和散熱問題,即使當(dāng)某些龐大的算法可以完全模擬人體的大腦和機體活動時,算法的復(fù)雜度,元器件的數(shù)量無意將會十分巨大,那么必然帶來耗電和散熱問題。返回來想,人體的能量來源遠比現(xiàn)在的計算機小,而且產(chǎn)生的熱量遠比現(xiàn)在的計算機第,而完成的功能卻比現(xiàn)在的計算機復(fù)雜的多,如果真正研究清楚,這些也都可以同步解決,因為類比之下理論上可以解決。

綜上,個人認(rèn)為,AI產(chǎn)生思維或者想法是可以實現(xiàn)的,而其又會比人類的思考速度、創(chuàng)新速度高何止千百被。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論