據(jù)Engadget報道,目前人工智能在撰寫讓讀者覺得可信的內(nèi)容方面做得越來越好,以致于它的創(chuàng)造者開始思考是否應(yīng)該發(fā)布這項技術(shù)。OpenAI的研究人員Elon Musk開發(fā)了一種新算法,它可以只根據(jù)給它的幾個詞語,就能生成看似可信的假新聞。
OpenAI最初是作為一種通用語言AI而設(shè)計的,可以回答問題、概括故事和翻譯文本,但研究人員很快意識到,它可能也會產(chǎn)生一些不好的影響,比如大量輸出虛假信息。因此,據(jù)MIT Technology Review報道,該團隊只計劃向公眾提供其人工智能的“簡化版”,不具有自動生成虛假信息的功能。
其實這項技術(shù)目前還存在一些不足之處,它經(jīng)常寫出的內(nèi)容要么是抄襲的,要么只是表面上看起來不錯,但其實細(xì)看是不合理的,而且只是偶爾寫出的是真實可信的新聞。然而,OpenAI的研究人員Jack Clark稱,可能只需要一兩年的時間,就會出現(xiàn)一個能夠生成虛假新聞的系統(tǒng),而這種系統(tǒng)需要進行徹底的事實核查才能予以駁斥,所以到時候?qū)彶槿斯ぶ悄軐懗鰜淼男侣剷容^麻煩。
設(shè)計OpenAI的公司不會故意啟動生成假新聞,但它沒法阻止有人想要以此做不道德的事情,還有一個更大的隱患是,有惡意企圖的公司可能以此開發(fā)出強大的人工智能,大規(guī)模傳播謠言,雖然目前社交網(wǎng)絡(luò)在打擊假新聞方面進展不錯,但如果人工智能生成的錯誤信息泛濫,后果將不堪設(shè)想,到時候網(wǎng)絡(luò)上將全部充斥著虛假新聞,這個就很可怕了。