AI隱患重重?人工智能之初應(yīng)當(dāng)性本善

用戶1914644452
近來,AI換臉技術(shù)應(yīng)用于明星影視劇中引起熱議,人臉識別技術(shù)已經(jīng)得到普遍應(yīng)用,諸如上班打卡、刷臉購物、支付、手機(jī)解鎖、抓交通違章等場景,擁有大量的用戶群體。假如有人利用AI 換臉技術(shù)在這些領(lǐng)域弄虛作假,人臉識別又無法辨識真?zhèn)蔚脑?,那么個人隱私信息、財產(chǎn)等都會被盜,后果難以想象。

當(dāng)下,人工智能正在以革命的形式橫掃科技圈。智能音箱、AlphaGo、無人駕駛、NLP……世界發(fā)生了深刻的變化,我們可以時刻感受到科技帶來的便利與樂趣。如同電力、蒸汽改變?nèi)祟愂澜缫粯?,人工智能也逐漸滲透進(jìn)了我們的毛細(xì)血管當(dāng)中。

在阿里巴巴、谷歌等國內(nèi)外科技巨頭的引領(lǐng)下,國內(nèi)有諸如曠視科技、極鏈科技Video++、依圖科技等聚焦于人工智能垂直領(lǐng)域的初創(chuàng)企業(yè)蓬勃發(fā)展。但與此同時,人工智能帶來的安全隱患與道德爭議,也讓各界對AI治理更加重視。新興技術(shù)的商業(yè)化之路,如果方向不穩(wěn),終將是空中樓閣,AI的發(fā)展之路,需要建立在“以人為本”的初心上。

來自科學(xué)和社會的雙重警告

人工智能發(fā)展帶來的安全隱患與道德爭議,包括數(shù)據(jù)泄露、算法偏見、AI技術(shù)被濫用、安全隱患、法規(guī)不完善等問題。例如AI技術(shù)被濫用引發(fā)安全威脅。智能化網(wǎng)絡(luò)攻擊軟件具備一定的自我學(xué)習(xí)能力,可模仿系統(tǒng)中的用戶行為,并不斷改變方法,以實(shí)現(xiàn)長時間停留在計算機(jī)系統(tǒng)中的目的,黑客則可以通過人工智能發(fā)起網(wǎng)絡(luò)攻擊,引發(fā)安全威脅。例如不法分子利用人工智能電視的各種安全隱患進(jìn)行:遠(yuǎn)程控制電視,遠(yuǎn)程安裝惡意軟件,遠(yuǎn)程監(jiān)控家庭等,造成用戶隱私泄露或財產(chǎn)損失。

近來,AI換臉技術(shù)應(yīng)用于明星影視劇中引起熱議,人臉識別技術(shù)已經(jīng)得到普遍應(yīng)用,諸如上班打卡、刷臉購物、支付、手機(jī)解鎖、抓交通違章等場景,擁有大量的用戶群體。假如有人利用AI 換臉技術(shù)在這些領(lǐng)域弄虛作假,人臉識別又無法辨識真?zhèn)蔚脑挘敲磦€人隱私信息、財產(chǎn)等都會被盜,后果難以想象。

隱私問題是數(shù)據(jù)資源開發(fā)利用中的主要威脅之一,智能系統(tǒng)掌握了個人的大量信息,這些數(shù)據(jù)如果使用得當(dāng),可以提升人類的生活質(zhì)量,但如果出于商業(yè)目的非法使用某些私人信息,就會造成數(shù)據(jù)泄露、隱私侵犯。去年,科技部公布了6張行政罰單,其中涉及基因隱私問題,公眾對于基因隱私的擔(dān)憂愈加嚴(yán)重。雖然國內(nèi)正在推進(jìn)電子病歷等醫(yī)療大數(shù)據(jù)的科研應(yīng)用,但仍存在數(shù)據(jù)使用的安全規(guī)范和法律保障不夠等問題。

其三,目前的人工智能系統(tǒng)目前還不夠成熟,技術(shù)缺陷導(dǎo)致工作異常,可能出現(xiàn)安全隱患。例如機(jī)器人、無人智能系統(tǒng)的設(shè)計或生產(chǎn)不當(dāng)會導(dǎo)致運(yùn)行異常,近年來已有多起安全事故發(fā)生,Waymo無人駕駛汽車事故、Uber無人駕駛汽車撞死了行人、特斯拉車禍等讓大家對無人駕駛的安全性打上了問號。AI醫(yī)療領(lǐng)域,在圖像診斷等領(lǐng)域以實(shí)用化為目標(biāo)的開發(fā)正不斷推進(jìn)。如果配備疾病識別AI的醫(yī)療設(shè)備投入使用,有望通過AI分析大量的醫(yī)療圖像,從而更易發(fā)現(xiàn)病變部位。

而倫理問題可能是人工智能技術(shù)帶給人們最為特殊的問題,未來人工智能不僅具有感知、認(rèn)知和決策能力,還會形成不同個性,在決策中可能會遵循與人類不同的邏輯,造成嚴(yán)重后果,對社會文明產(chǎn)生不良影響。

人工智能治理的未來規(guī)劃

人工智能的影響普及全球,然而目前還沒有任何實(shí)質(zhì)的政策或措施去制定能使人工智能的潛力最大化并管理其風(fēng)險的治理機(jī)制。這并不是因?yàn)檎J(rèn)為人工智能的治理不重要,而是因?yàn)檫@需要政策制定者、企業(yè)和用戶等所有利益相關(guān)者一起去打開“潘多拉”魔盒,去討論所有可能涉及到的問題。

人工智能的基石是數(shù)據(jù),政府和企業(yè)在實(shí)際應(yīng)用中所收集的數(shù)據(jù)如若被不當(dāng)?shù)靥幚砘虿倏v,則會引發(fā)比以往數(shù)據(jù)隱私丑聞更大的風(fēng)險,以及政府和企業(yè)尚未內(nèi)化的聲譽(yù)風(fēng)險。因此,要防止大數(shù)據(jù)和人工智能的濫用和失控,應(yīng)該從意識形態(tài)開始建立科學(xué)的數(shù)據(jù)價值觀體系。

除了從技術(shù)安全角度研究確保AI安全的可行技術(shù)方法和手段外,還需要從倫理層面為AI安全提供引導(dǎo)和約束,以確保“AI向善”。倫理規(guī)范需要在公司、行業(yè)、國家層面就人工智能倫理原則和框架達(dá)成共識并落實(shí)到人工智能研發(fā)應(yīng)用中,因?yàn)樵诩夹g(shù)加速、法律滯后的趨勢下,需要更多依靠倫理規(guī)則來發(fā)揮事前的引導(dǎo)和規(guī)范作用,來確保AI向善。

同時,社會也亟待法律規(guī)范的制定,從具體的行業(yè)出發(fā)對自動駕駛、無人機(jī)、醫(yī)療診斷、機(jī)器人等具體的人工智能應(yīng)用進(jìn)行監(jiān)管,以實(shí)現(xiàn)鼓勵創(chuàng)新與保障安全的平衡。國際標(biāo)準(zhǔn)、規(guī)則的制定可以確保人工智能的研發(fā)應(yīng)用符合倫理、國際法等共同性要求。

未來已來,普惠全民

未來的人工智能會發(fā)展怎樣已有跡可循,而構(gòu)建一個開放的人工智能生態(tài)系統(tǒng),確保技術(shù)進(jìn)步造福人類更是我們應(yīng)該關(guān)注的。當(dāng)下的中國正進(jìn)入新技術(shù)帶來的全球大變局,政府、科技公司、學(xué)術(shù)機(jī)構(gòu)和用戶等所有利益相關(guān)者應(yīng)該聯(lián)合起來,堅持以未來共同體的心態(tài),建立積極的生態(tài)規(guī)則。

科技的進(jìn)步帶來的是社會生活方式的重塑,普羅大眾都能平等地享受科學(xué)技術(shù)帶來的便利與可能。在這個機(jī)會與挑戰(zhàn)并存的時代,讓我們以負(fù)責(zé)任的態(tài)度開啟智能美好生活。

THEEND

最新評論(評論僅代表用戶觀點(diǎn))

更多
暫無評論