常言道,耳聽為虛,眼見為實。但隨著人工智能技術(shù)的發(fā)展,眼見可不一定為實。其背后的技術(shù)被稱作深度偽造技術(shù),簡稱深偽技術(shù)或者深度偽造,是Deep Learning(深度學(xué)習(xí))和Fake(偽造)的混成詞,一種基于人工智能的人體圖像合成技術(shù),該技術(shù)的擴散與發(fā)展,引起了人們的擔(dān)憂。
2018年,英偉達(dá)研究人員利用生成對抗網(wǎng)絡(luò)算法生成了非真人照片,該算法讓兩個神經(jīng)網(wǎng)絡(luò)互相對抗,其中A試圖發(fā)現(xiàn)假貨,B則試圖生成更逼真的假貨來騙過A。它倆可以像用為所欲為玩成語接龍一樣,一直不停。也就意味著,只要有足夠的時間,GANs可以生成一個比真人更像真人的假貨。
隨著人工智能生成人體圖像的能力大大提高,也帶來了一些不好的影響。騙子能利用這些生成的假貨欺騙人們,在不經(jīng)本人同意的情況下將人臉拼接到色情電影中去,以此來滿足個別變態(tài)的欲望,甚至破壞了人們對在線媒體的信任。而且生成的假照片,比真人照片更容易取得人們的信賴。雖然利用人工智能本身有可能發(fā)現(xiàn)深度偽造,但由于科技公司沒能有效的調(diào)節(jié)那些復(fù)雜的材料,因此這條路走不通。
還有一個更重要的問題是人類能否發(fā)現(xiàn)假人照片和真人照片之間的差異,以及它們與深度偽造有什么關(guān)聯(lián)。PNAS上的一項研究結(jié)果顯示,情況并不可觀,人們發(fā)現(xiàn)假照片的能力還沒有隨機猜測的準(zhǔn)確率高,而且他們覺得捏造的面孔比真實的面孔更值得信賴。該研究報告的作者寫道:”我們對人工智能合成的面孔的逼真度的評估表明,合成引擎已經(jīng)達(dá)到了堪稱不可思議的地步,能夠創(chuàng)造出無法區(qū)分的面孔,而且比真實面孔更值得信任。”
圖片來源PANS,部分人臉照片分辨的準(zhǔn)確率(S代表合成,R代表真人)
為了測試對假臉的反應(yīng),研究人員使用了Nvidia的GAN的更新版本來生成400張假臉,其中性別比例相同,四個種族群體各100張。黑人、高加索人、東亞人和南亞人。他們將這些面孔與從最初用于訓(xùn)練GAN的數(shù)據(jù)庫中提取的真實面孔進行匹配,這些面孔被不同的神經(jīng)網(wǎng)絡(luò)判定為相似。
然后他們從亞馬遜Mechanical Turk眾包平臺上招募了315名參與者。每個人被要求從合并的數(shù)據(jù)集中判斷128張臉,并決定它們是否是假的。而最后他們的準(zhǔn)確率只有48%,比從隨機猜測中獲得的50%的準(zhǔn)確率還要低。
深度偽造出來得假照往往有特征性的缺陷和故障,可以幫助人們將其識別出來。因此,研究人員對另外219名參與者進行了第二次實驗,在讓他們判斷相同數(shù)量的面孔之前,對他們進行了一些基本訓(xùn)練,告訴他們應(yīng)該注意什么??山Y(jié)果是,他們的表現(xiàn)只略有改善,達(dá)到59%,只提高了11%。
在最后一個實驗中,研究小組決定看看對人臉直覺反應(yīng)是否能提高準(zhǔn)確率。人們通常在一瞬間會根據(jù)自己的第一直覺來確定難以判斷的東西。而對于人臉,可信度無疑是人們判斷一個人的第一反應(yīng)。但是,當(dāng)另外223名參與者對128張面孔進行可信度評分時,研究人員發(fā)現(xiàn),人們對于假臉的可信度評價比真臉的可信度評價居然高出8%,這個差異不大,但是具有重要的統(tǒng)計學(xué)意義。
研究人員發(fā)現(xiàn),假臉之所以看起來比真臉更可信的原因是,假臉往往看起來更像是一張普通人的面孔,而熱門往往更信任普通人的臉,尤其是那種看起來人畜無害的臉更能博取人們的信任。通過觀察四張最不值得信任的面孔(都是真的)和三張最值得信任的面孔(都是假的),這一點得到了證實。
圖片來源PANS,信任度評分為1-7分,可信度越高評分越高
這個研究指出,那些開發(fā)深度偽造技術(shù)背后的基礎(chǔ)技術(shù)的人需要認(rèn)真的思考一下自己在做什么。要好好地問自己,該技術(shù)的帶來的好處是否已經(jīng)超過了它帶來的風(fēng)險。該行業(yè)還應(yīng)該認(rèn)真的考慮簡歷一些保障措施,比如讓利用該技術(shù)造價的人,輸出的照片中會出現(xiàn)水印等。該研究報告的作作者表示:由于這一強大技術(shù)的使用對人們的生活造成了重大的威脅,我們應(yīng)該認(rèn)真的考慮下公開和無限制的深度偽造代碼可被任何人隨意納入任何程序的做法,是不是應(yīng)該加入一些限制。但不幸的是,現(xiàn)在可能已經(jīng)太晚了。公開的模型已經(jīng)能夠產(chǎn)生非常真實的深度偽造照片,而且我們想把模型收回也不太可能了。
任何技術(shù)都是雙刃劍,準(zhǔn)確來說任何科技都是雙刃劍,一項開發(fā)者想用來造福人類的技術(shù),被一個心里充滿惡念的人拿到,就有可能造成不可逆轉(zhuǎn)的惡果。我想這應(yīng)該引發(fā)人們的思考,一些可能會被拿來作惡的代碼或技術(shù)真的可以毫無限制的開放嗎?當(dāng)然這是筆者的個人看法,歡迎大家討論。
參考鏈接:https://singularityhub.com/2022/02/21/people-trust-deepfake-faces-more-than-real-ones-study-finds/