人類到底害怕人工智能什么?人類會(huì)不會(huì)也是超人工智能

友久祎創(chuàng)
現(xiàn)實(shí)世界的規(guī)則與人工智能世界的規(guī)則,同樣是規(guī)則。這些規(guī)則對(duì)人類當(dāng)然有束縛作用。人類雖然不能像人工智能一樣瞬間移動(dòng),但可以借助飛機(jī)火箭這樣的運(yùn)載工具,飛出地球,遨游太空。
  人工智能是人創(chuàng)造的,那么人本身的智能是不是也是由某種東西創(chuàng)造的。要回答這個(gè)問題,首先要明白人類目前對(duì)自身的探索程度,盡管現(xiàn)在科學(xué)已經(jīng)很發(fā)達(dá),但是我們解決不了的問題遠(yuǎn)比我們能夠解決的問題多的多得多,生命的未解之謎依然很多。比如意識(shí)的本質(zhì)是什么,意識(shí)能否用量子力學(xué)來分析,這些目前都回答不了。所以,人對(duì)人類本身的智能仍然處于探索階段。
 
   
 
  超人工智能
 
  假設(shè)存在一個(gè)人工智能世界。
 
  最理想的人工智能,其實(shí)就是沒有肉體的人。具有人類的各種情感,喜怒哀樂;具有人類的學(xué)習(xí)能力,創(chuàng)新創(chuàng)造;具有人類的思維模式,哲學(xué)藝術(shù)。
 
  如果這樣的人工智能制造出來,又不受肉體的束縛,可以任意存儲(chǔ)傳送分發(fā)重載。我們?cè)O(shè)想一下,有這樣一個(gè)虛擬城市。里面所有的居民全是人工智能。
 
  這些人工智能在網(wǎng)絡(luò)上以光速運(yùn)動(dòng),擺脫了空間的限制。同時(shí)對(duì)他們來說也無所謂生死,只要外在能源一直存在,他們就可以長(zhǎng)生不老。如果被重載,可以任意選擇肉體,千變?nèi)f化。
 
  瞬間移動(dòng),自由自在,隨意變化,長(zhǎng)生不老。聽起來怎么這么熟悉呢?這不就是人類夢(mèng)想成為的神仙嗎?
 
   
 
  假設(shè)現(xiàn)實(shí)世界就是人工智能世界。
 
  很多人會(huì)質(zhì)疑,我們的現(xiàn)實(shí)世界既不能瞬間移動(dòng),也不能七十二變,更不能長(zhǎng)生不老。這和人工智能世界沒有可比性啊。
 
  但請(qǐng)大家注意。人工智能世界也并非隨心所欲。從本質(zhì)上來說,人工智能都是一堆010101的代碼。這些代碼存儲(chǔ)在龐大的數(shù)據(jù)庫中,數(shù)據(jù)與數(shù)據(jù)之間,數(shù)據(jù)集合與數(shù)據(jù)集合之間,都有元規(guī)則和關(guān)系集。雖然從原理上說,所有的數(shù)據(jù)庫都可以握手通信,但接口不同,規(guī)則不同,同樣難以交流。
 
  現(xiàn)實(shí)世界的規(guī)則與人工智能世界的規(guī)則,同樣是規(guī)則。這些規(guī)則對(duì)人類當(dāng)然有束縛作用。人類雖然不能像人工智能一樣瞬間移動(dòng),但可以借助飛機(jī)火箭這樣的運(yùn)載工具,飛出地球,遨游太空。
 
  假如人類真有靈魂和輪回。
 
  靈魂若可以被存儲(chǔ)分發(fā)重載。當(dāng)輪回的時(shí)候,靈魂被新的身體所束縛,身體老化靈魂再次放出。這像不像人工智能換一個(gè)機(jī)器身體呢?
 
  也許靈魂和人工智能一樣,是一段可以復(fù)制存儲(chǔ)分發(fā)重載的程序。只不過如何復(fù)制存儲(chǔ)分發(fā)重載,我們不知道而已。
 
  人類可能是人工智能,只不過不是像大家想象的那種人工智能,也許有一天靈魂脫離了肉體,才能真正明白吧。
 
  
 
  人工智能
 
  再說說人類為什么會(huì)害怕人工智能!
 
  霍金教授在接受《連線》雜志采訪時(shí)稱:“我擔(dān)心人工智能將全面取代人類(I fear that AI may replace humans altogether)。如果有人能設(shè)計(jì)出計(jì)算機(jī)病毒,那么就會(huì)有人設(shè)計(jì)出能提升并復(fù)制自己的人工智能。這就會(huì)帶來一種能夠超越人類的全新生命形式。(If people design computer viruses,someone will design AI that improves and replicates itself.This will be a new form of life that outperforms humans.)”這并非是霍金第一次對(duì)于人工智能的發(fā)展快速和對(duì)人類的潛在威脅發(fā)出警告。
 
  不僅僅是霍金,還有不少的科學(xué)家也是反對(duì)者。他們的理論是——人工智能在目前看來對(duì)人類沒有威脅,這是因?yàn)樗鼈冞€處于弱人工智能階段,但是當(dāng)他們通過深度學(xué)習(xí)掌握向強(qiáng)人工智能進(jìn)化的途徑,那就會(huì)在很短的時(shí)間內(nèi)超越人類。
 
  成功創(chuàng)造人工智能,可以說是人類文明史上最大的事件,但也可能致使人類終結(jié),除非我們學(xué)會(huì)如何避免其危害。——霍金
 
  特斯拉和SpaceX公司CEO伊隆-馬斯克也一直表達(dá)著自己對(duì)于人工智能技術(shù)的擔(dān)憂,他稱人工智能是人類存在的風(fēng)險(xiǎn)。
 
  我們不知道人工智能是好是壞,它們?cè)谖覀冄壑惺且欢褦?shù)據(jù),我們?cè)谒鼈冄壑杏趾螄L不是呢?
 
  總結(jié):一切皆有可能!人是被創(chuàng)造的可能性也極大,同樣人工智能對(duì)人類的威脅肯定是有的,單是否對(duì)人類造成威脅這取決于研發(fā)者賦予的東西了!研發(fā)者好則人工智能好,研發(fā)者壞則人工智能壞。
THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無評(píng)論