近年來(lái),隨著深度學(xué)習(xí)技術(shù)的突破,人工智能迅速崛起。得益于政策的大力支持與資本的熱捧,人工智能被視為新時(shí)代科技發(fā)展的核心,以及推動(dòng)各行各業(yè)全新變革的重要驅(qū)動(dòng)力。很顯然,人工智能將在很長(zhǎng)一段時(shí)間內(nèi)主宰全球話題榜。
人工智能技術(shù)的進(jìn)步,促進(jìn)了相關(guān)市場(chǎng)應(yīng)用的快速發(fā)展。目前,世界各國(guó)都對(duì)人工智能市場(chǎng)的增長(zhǎng),以及人工智能產(chǎn)業(yè)化前景報(bào)以巨大希冀。不過(guò),在人工智能蓬勃姿態(tài)背后,其存在的一些問(wèn)題也逐漸浮現(xiàn)出來(lái),安全是最受關(guān)注的一項(xiàng)。
安全隱患凸顯
“安全性是部署人工智能的最大挑戰(zhàn)。”美國(guó)加州大學(xué)伯克利分校計(jì)算機(jī)系教授宋曉冬曾公開(kāi)表示。的確,自人工智能爆發(fā)式發(fā)展以來(lái),其安全性就成為了業(yè)內(nèi)人士與普通民眾關(guān)注的焦點(diǎn),為此引發(fā)的爭(zhēng)議也在持續(xù)發(fā)酵。
如今,全球互聯(lián)網(wǎng)普及進(jìn)一步深入,物聯(lián)網(wǎng)、云計(jì)算等前沿技術(shù)的發(fā)展更是推動(dòng)了“萬(wàn)物互聯(lián)”時(shí)代的到來(lái)。而人工智能技術(shù)的應(yīng)用十分依賴(lài)計(jì)算機(jī)與互聯(lián)網(wǎng)的支撐,因而面臨的網(wǎng)絡(luò)安全隱患不容忽視。
實(shí)際上,人工智能面臨的安全風(fēng)險(xiǎn)有兩大類(lèi),一種是外部威脅,一種是內(nèi)部局限。前者主要是黑客等網(wǎng)絡(luò)攻擊者對(duì)于人工智能系統(tǒng)安全的潛在隱患,由于人工智能應(yīng)用愈發(fā)廣泛,在諸多領(lǐng)域都形成了深度影響,一旦遭遇攻擊,將造成嚴(yán)重后果;后者主要是人工智能技術(shù)本身的缺陷,在進(jìn)行深度學(xué)習(xí)或者機(jī)器識(shí)別時(shí),很可能會(huì)出現(xiàn)一些“失誤”,從而引發(fā)意外情況。
就比如說(shuō)自動(dòng)駕駛汽車(chē)不時(shí)發(fā)生的事故,以及聊天機(jī)器人的“不當(dāng)言語(yǔ)”。
近幾年來(lái),自動(dòng)駕駛汽車(chē)加快商業(yè)化進(jìn)程,無(wú)論是路測(cè)還是量產(chǎn)等環(huán)節(jié)都在持續(xù)提速,行業(yè)發(fā)展形勢(shì)一片大好。但是,受人為因素、基礎(chǔ)設(shè)施滯后、法律不完善以及技術(shù)水平不足等影響,自動(dòng)駕駛汽車(chē)始終無(wú)法避免意外事故的產(chǎn)生,造成了較為不利的社會(huì)影響。同時(shí),自動(dòng)駕駛汽車(chē)網(wǎng)聯(lián)化、智能化程度不斷提升,也面臨著日益嚴(yán)峻的網(wǎng)絡(luò)安全威脅。
另外,聊天機(jī)器人自應(yīng)用以來(lái),成為了人工智能領(lǐng)域市場(chǎng)化最富成果的細(xì)分領(lǐng)域之一。但是在這過(guò)程中,出現(xiàn)了多起聊天機(jī)器人發(fā)表“種族歧視”或是“性別歧視”等不當(dāng)言論的事件,這不得不讓人懷疑人工智能受不利影響的可能。如果人工智能被不良傾向的人影響或是被不法分子利用,后果可想而知。
不僅如此,人工智能的發(fā)展越來(lái)越依賴(lài)于大數(shù)據(jù)資源,因而在應(yīng)用中也必然將面臨隱私侵犯風(fēng)險(xiǎn)。隨著各類(lèi)數(shù)據(jù)采集設(shè)備的廣泛使用,除了傳統(tǒng)的身份信息、聯(lián)系方式、家庭住址等,生物特征、生理特征等關(guān)鍵信息也正在被普遍收集。
業(yè)內(nèi)人士表示,在人工智能時(shí)代,大數(shù)據(jù)的重要性日益提升,由此帶來(lái)了數(shù)據(jù)中心化趨勢(shì)也越發(fā)明顯。很多時(shí)候,人工智能系統(tǒng)或者是一些掌握數(shù)據(jù)資源的大公司都比你更了解自己,這并非危言聳聽(tīng)。如果這些數(shù)據(jù)能夠合理、合法應(yīng)用,當(dāng)前會(huì)帶來(lái)積極影響,而一旦被非法使用,那么就會(huì)導(dǎo)致個(gè)人隱私被肆意侵犯。
應(yīng)辯證看待安全問(wèn)題
雖然人工智能是把雙刃劍,安全威脅日益凸顯,但是回顧人類(lèi)社會(huì)發(fā)展史,每一次的技術(shù)革命幾乎都是利弊共存,總會(huì)引發(fā)一些類(lèi)似的爭(zhēng)議,而在長(zhǎng)期的爭(zhēng)議當(dāng)中,人類(lèi)都能夠很好地適應(yīng)技術(shù)創(chuàng)新,并逐漸化解潛在風(fēng)險(xiǎn),實(shí)現(xiàn)持續(xù)進(jìn)步。
同理,人工智能的發(fā)展是歷史性的,其被譽(yù)為是第四次工業(yè)革命的核心。普華永道此前發(fā)布的一項(xiàng)研究表明:在人工智能技術(shù)的推動(dòng)下,2030年全球GDP將增長(zhǎng)14%,相當(dāng)于15.7萬(wàn)億美元。所以,在光明前景下,安全問(wèn)題固然需要重視,但不能讓安全問(wèn)題成為人工智能發(fā)展路上的絆腳石。
人工智能產(chǎn)業(yè)化路途中,需要秉承全新安全觀,重視法律法規(guī)、管理手段的及時(shí)完善;要摒棄優(yōu)先發(fā)展、其次治理的舊有思維,重視發(fā)展與治理并行,根據(jù)人工智能技術(shù)、產(chǎn)業(yè)特征,加強(qiáng)先期治理布局,將安全隱患扼殺在萌芽狀態(tài)。
同時(shí),為人工智能發(fā)展設(shè)定道德倫理紅線,也是業(yè)內(nèi)專(zhuān)家和政府達(dá)成共識(shí)的方向之一。人工智能“逃脫”人類(lèi)控制可能性的存在,以及被軍事化利用、被不法利用的可能,使得在法律法規(guī)之外,還需要對(duì)人工智能產(chǎn)品進(jìn)行倫理設(shè)計(jì),為其賦予一定的道德判斷與行為能力,從而使其符合人類(lèi)安全需求。
人工智能安全問(wèn)題日益凸顯,也并非完全都是負(fù)面的。“存在問(wèn)題并不可怕,關(guān)鍵要認(rèn)識(shí)問(wèn)題、解決問(wèn)題”。安全問(wèn)題的產(chǎn)生和發(fā)現(xiàn),可以讓行業(yè)和政府能夠采取及時(shí)、有效的應(yīng)對(duì)措施,保障人工智能領(lǐng)域的健康、可持續(xù)發(fā)展。