安徽男子9秒被騙132萬!AI換臉/AI變聲“賦能”下的詐騙防不勝防

AI換臉實際上是一種利用人工智能實現(xiàn)圖像合成的技術,主要原理是通過人臉檢測、關鍵點檢測、人臉對齊、特征提取、特征融合和后處理等步驟將一個人的面部特征轉移到另一個人的面部,產(chǎn)生以假亂真的換臉效果。

本文來自微信公眾號“電子發(fā)燒友網(wǎng)”,作者/吳子鵬。

近日,AI詐騙在國內密集發(fā)生,犯罪分子利用人臉效果更易取得對方信任這一點,通過AI技術換臉偽裝成受害者的熟人實施詐騙。網(wǎng)友對此感嘆:眼見都不為實,真是防不勝防??!

日前,多家媒體報道稱,5月22日安徽安慶何先生接到熟人視頻電話,對方讓其幫助轉賬,視頻9秒后便以開會為由掛掉電話。還稱“微信和電話不能說,加一下QQ”。事發(fā)時,何先生放松了警惕,他表示:“因為打了視頻電話,又是熟人,我就沒多想,就轉賬了”。

好在發(fā)現(xiàn)被詐騙后,何先生迅速報警,專案民警第一時間凍結相關賬戶,連夜趕赴北京市抓獲3名涉詐嫌疑人,追回何先生被騙的132萬元。

這起案件和此前包頭市公安局電信網(wǎng)絡犯罪偵查局發(fā)布的AI詐騙很相似,福州市某科技公司法人代表郭先生因為AI換臉,10分鐘內被騙430萬元。

AI換臉/AI變聲成詐騙“好手段”

我們在此前的文章中已經(jīng)指出,未來人工智能領域的創(chuàng)新有七大趨勢,分別是人工智能技術與云計算、物聯(lián)網(wǎng)、區(qū)塊鏈、生物科技、社會科學、藝術文化和人類自身的結合。而AI變臉和AI變聲無疑就屬于AI和人類自身的結合。

AI換臉實際上是一種利用人工智能實現(xiàn)圖像合成的技術,主要原理是通過人臉檢測、關鍵點檢測、人臉對齊、特征提取、特征融合和后處理等步驟將一個人的面部特征轉移到另一個人的面部,產(chǎn)生以假亂真的換臉效果。

我們分步來看。AI換臉的第一步是要做人臉檢測,目前這方面的算法已經(jīng)非常成熟,主要分為基于級聯(lián)的人臉檢測算法,基于兩階段的人臉檢測算法,以及基于單階段的人臉檢測算法三大類。比如Cascade CNN、MTCNN等都是基于級聯(lián)的人臉檢測算法;Face R-CNN、ScaleFace、FDNet等都是基于兩階段的人臉檢測算法;SSD、RetinaNet等則是基于單階段的人臉檢測算法。目前,這些算法已經(jīng)發(fā)展到只需要很少的圖片信息就可以構建成神似真人的人臉和表情。

第二步是人臉對齊。先要對人臉表觀圖像建模,也就是對檢測用到的圖片進行建模,包括顏色模型、投影模型、側剖線模型和深度模型等。然后要對人臉形狀建模,也就是對要被更換的人臉進行建模,這部分和我們熟知的人臉識別非常類似。然后,將兩個建好的模型進行級聯(lián),這就是人臉對齊。

第三步是特征提取和特征融合。這是在建模后進一步細化的工作,提取出人臉的特征向量,包括面部形狀、紋理和顏色等信息。目前,很多AI換臉都是使用基于CNN的面部表情分析和姿勢估計算法來完成。為了讓換臉后的表情更加自然,接下來就需要做特征融合,生成一份新的面部特征。

最后一步是重建圖像,通過反卷積神經(jīng)網(wǎng)絡(DCNN)或GAN等重建算法,將新的面部特征映射到模型里,并生成一個可以投射的新模型,從屏幕上看,這就是一個能夠實現(xiàn)AI換臉的新圖像。

在AI換臉技術背后,“生成對抗網(wǎng)絡”(GAN)技術起到了很重要的作用。2014年,Goodfellow與同事發(fā)表了全球首篇介紹GAN的科學論文,標志著GAN AI的誕生,并且在那一年就有業(yè)者預測稱,GAN有望生成仿真度極高的人臉。隨后的幾年,GAN技術快速發(fā)展,到了2017年其生成的人臉已經(jīng)難以區(qū)分真假了。到了2021年,基于GAN技術的deepfake(深度偽造)視頻已經(jīng)能夠參演明星的演唱會了。

對于AI變聲,相信很多人都已經(jīng)在電影中見識過了,這種技術在電影中的應用場景也多是用來欺騙別人,目前市面上已經(jīng)有包括AdobeAudition、Audacity等在內的眾多變聲軟件。不過,一般用于詐騙的都是AI換聲,其是利用一種叫做語音轉換(voice conversion)的技術,來實現(xiàn)聲音特征的轉換。和AI換臉相同的是,AI換聲也需要特征提取,然后將這些特征轉換輸出,需要提取的特征包括基頻、共振峰、梅爾倒譜系數(shù)等,用這些特征來改變另一個人說話的聲音。

有了AI換臉和AI換聲,就可以將一個人偽裝成另一個人,然后用于制造虛假新聞、誹謗他人、侵犯隱私、欺詐詐騙等非法領域。這可能就是AI技術普惠特性的B面。

不能讓AI的普惠特性被濫用

近些年,AI的應用范圍越來越廣,呈現(xiàn)出一種百花齊放的姿態(tài),在醫(yī)療、制造、安防、金融、交通等眾多領域完成落地。公開數(shù)據(jù)顯示,2022年,我國人工智能市場規(guī)模達到2680億元,預計2023年全年我國人工智能市場規(guī)模將達到3200億元,同比增長33.8%。

然而,高速發(fā)展的AI也有被濫用之嫌。就以AI換臉來說,積極的一面是其在數(shù)字人領域的應用前景是巨大的,包括影視娛樂、游戲開發(fā)、教育培訓、醫(yī)療保健和安防等領域都有望受益于這項創(chuàng)新技術。比如在教育培訓行業(yè),AI換臉技術有望讓歷史人物“重生”,幫助學生更加直觀地了解歷史人物形象、文藝作品中的角色等,有利于增強學習興趣和認知效果。

不過,AI換臉也被不法分子盯上了,于是乎便有了AI換臉詐騙。

實際上,對于deepfake,在其2019年成為主流時就已經(jīng)引起了立法機構的注意。在當時,網(wǎng)上流傳出很多偽造的視頻,甚至是有關一些國家的領導人,隨后不久中美德等國家的司法機構都開始對deepfake出手。其中,中國將未經(jīng)授權的deepfake歸為違法行為;美國情報委員會以及AI和法律領域的專家紛紛警告稱deepfake已經(jīng)呈現(xiàn)出泛濫之勢,并呼吁應盡快制定相關法規(guī);德國則發(fā)布了有關于deepfake削弱國家公信力的聲明。

目前,對于AI欺詐基本是從兩個方面進行防范。其一是加強管理,比如在2022年12月發(fā)布的《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》中明確規(guī)定,提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內容功能的服務的,應當進行顯著標識,避免公眾混淆或者誤認。同時,近年來個人信息保護法、個人信息安全規(guī)范、數(shù)據(jù)安全法等法律法規(guī)也在加強個人隱私數(shù)據(jù)的保護。

其二是技術層面做突破,也就是所說的用“魔法”打敗“魔法”,目前很多公司都在致力于推出基于人工智能技術的防詐騙應用。比如活體防偽、中介識別等,這些應用對于AI換臉詐騙有一定的打擊作用,可以有效識別照片、視頻、面具、仿真模型等,特別是使用應用程序實現(xiàn)的換臉和換聲等。

當然,無論法規(guī)和技術如何突破,AI詐騙肯定是難以杜杜絕的。因此,全民具備“防范意識”才是杜絕AI詐騙的大前提。

后記

技術在升級,騙術也在升級。近一段時間以來,AI換臉欺詐的新聞頻現(xiàn)報端,實際上我們都知道現(xiàn)實中的案例更多。這是AI技術的另一種打開方式,對社會穩(wěn)定發(fā)展有巨大的威脅。另外,AI換臉明星演員在直播平臺帶貨的現(xiàn)象也是屢禁不止,涉嫌欺詐或是虛假宣傳。要杜絕此類事情,需要法規(guī)和產(chǎn)業(yè)的高度配合,同時也需要增強全民的防范意識。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論