本文來(lái)自陳述根本,作者/陳根。
設(shè)計(jì)是人工智能的邏輯起點(diǎn),設(shè)計(jì)者的主體價(jià)值會(huì)通過(guò)設(shè)計(jì)被嵌入人工智能的底層邏輯之中,從而人工智能會(huì)反映甚至模仿設(shè)計(jì)者的觀念想法。
在網(wǎng)絡(luò)信息高速發(fā)展的時(shí)代下,逐漸誕生一種名為“鍵盤(pán)俠”的群體。他們非常容易沖動(dòng)和暴躁,一旦在網(wǎng)絡(luò)上看到與自己的認(rèn)知不符的東西,就會(huì)站在道德至高點(diǎn)上大放厥詞,甚至?xí)?、辱罵他人。
近日,YouTube知名深度學(xué)習(xí)博主Yannic Kilcher用1.345億個(gè)充滿(mǎn)語(yǔ)言暴力的帖子,也訓(xùn)練出一個(gè)“人工智能鍵盤(pán)俠”。該鍵盤(pán)俠名為“GPT-4chan”,其通過(guò)訓(xùn)練學(xué)會(huì)了如何在網(wǎng)站上交談,并在一天不到的時(shí)間內(nèi)發(fā)布了超過(guò)15000個(gè)充滿(mǎn)負(fù)面言論內(nèi)容的帖子。
4chan的/pol/(“政治上不正確”縮寫(xiě))板塊是仇恨言論、陰謀論和極右翼極端主義的家園,也是4chan最活躍的版塊。其在這一版塊日均發(fā)帖量約為15萬(wàn)條,包括各種匿名的仇恨言論、以及具有人身攻擊的回復(fù)。
更糟糕的是,該模型能夠完整習(xí)得/pol/上滲透到大多數(shù)帖子里的攻擊性、虛無(wú)主義、挑釁。這導(dǎo)致它不但可以響應(yīng)上下文,還能流暢地談?wù)撛谧詈笠淮斡?xùn)練數(shù)據(jù)后發(fā)生的事情。最初,都沒(méi)有人認(rèn)出來(lái)它是一個(gè)聊天機(jī)器人。
實(shí)際上,GPT-4chan并不是第一個(gè)“口出狂言”的人工智能。此前微軟推出聊天機(jī)器人Tay,本以為會(huì)打開(kāi)一扇新世界的大門(mén),沒(méi)想到大門(mén)是打開(kāi)了,里面卻不是新世界——短短不到24個(gè)小時(shí),Tay已經(jīng)學(xué)會(huì)了說(shuō)臟話和發(fā)表帶有種族歧視、反動(dòng)色彩的言論。
科技是一把雙刃劍,其在推動(dòng)社會(huì)進(jìn)步的同時(shí),也在很大程度上帶來(lái)了風(fēng)險(xiǎn),人工智能技術(shù)也是如此。倘若人工智能設(shè)計(jì)者在設(shè)計(jì)之初,就帶著個(gè)人偏見(jiàn)和感情色彩,那么訓(xùn)練出來(lái)的AI也會(huì)帶有這種偏見(jiàn)和主觀。
例如,在谷歌搜索當(dāng)中,如果瀏覽器認(rèn)為你是個(gè)男性,就會(huì)給你推薦一些薪水高的職業(yè),女性則反之。并且在一些算法中,黑人名字往往和消極性詞匯聯(lián)系在一起,而白人名字往往和積極向上的詞眼在一塊兒。
設(shè)計(jì)是人工智能的邏輯起點(diǎn),設(shè)計(jì)者的主體價(jià)值會(huì)通過(guò)設(shè)計(jì)被嵌入人工智能的底層邏輯之中。所以,為了防止帶有偏見(jiàn)以及出言不遜的AI出現(xiàn),應(yīng)該從“源頭”抓起。