近兩年,“人工智能”成了炙手可熱的“香餑餑”,誰看到都想“吃”一口。隨著“人工智能”技術(shù)的不斷進(jìn)步發(fā)展,人工智能應(yīng)用的范圍涉及到各大方面,像醫(yī)療、交通等。如今,咱們的執(zhí)法部門和安全部門也搭上了AI的快車,人工智能安全系統(tǒng)應(yīng)運(yùn)而生。
隨著科學(xué)技術(shù)的進(jìn)步,國家執(zhí)法部門和安全部門也在不斷引入新的智能技術(shù),以更好的抵制不斷演變的恐怖主義威脅和高科技犯罪威脅。
支持智能技術(shù)的大數(shù)據(jù)分析和人工智能(AI)的全部潛力被合理利用是由兩個(gè)關(guān)鍵考慮因素決定的。首先,社會(huì)研究表明,全新的技術(shù)被采納不僅是為了更有效地繼續(xù)當(dāng)前的業(yè)務(wù)實(shí)踐。更重要的是,它還需要不斷的重新評(píng)估這些實(shí)踐結(jié)果,以便在不斷變化的需求面前保持彈性。其次,是否采納一項(xiàng)全新的技術(shù),不僅僅需要從業(yè)務(wù)決策和技術(shù)需求層面考慮,還需要從倫理道德層面分析思考,這是一個(gè)多方面的過程。
支持執(zhí)法的私人保安部門采用智能技術(shù)(如閉路電視巡邏系統(tǒng)和無人駕駛飛機(jī)),以保護(hù)公共場所和大型活動(dòng)。通過自動(dòng)化來克服巡邏中的人為限制,以便更好地發(fā)現(xiàn)潛在威脅。技術(shù)引進(jìn)的第一步是通過成本和生產(chǎn)力改進(jìn),使當(dāng)前的業(yè)務(wù)實(shí)踐更有效率。
相關(guān)執(zhí)法部門采用最新的智能技術(shù),如閉路電視巡邏系統(tǒng)或無人機(jī)技術(shù),以保障公共場所安全,維持大型活動(dòng)秩序,通過自動(dòng)化技術(shù)來克服巡邏中的人為限制,以便更好地發(fā)現(xiàn)潛在威脅。新技術(shù)的引入首先能降低成本、改進(jìn)生產(chǎn)力,從而進(jìn)一步提高業(yè)務(wù)實(shí)踐的效率。
為此,相關(guān)執(zhí)法部門將隨著智能技術(shù)的發(fā)展發(fā)揮更多的能力,在恐怖襲擊發(fā)生前迅速獲取相關(guān)信息,及時(shí)進(jìn)行情報(bào)分析,減少監(jiān)控盲點(diǎn),加強(qiáng)跨部門信息共享,全面降低違法行為風(fēng)險(xiǎn)。目前,各大商場正在逐步引進(jìn)與公安系統(tǒng)聯(lián)網(wǎng)的安全系統(tǒng)產(chǎn)品。
然而,這一安全系統(tǒng)引發(fā)了重要的倫理問題:這一系統(tǒng)主要是利用人工智能進(jìn)行威脅預(yù)測和可以分析,這將會(huì)引起所謂的“自動(dòng)歧視”,即采寫、收錄相關(guān)基礎(chǔ)大數(shù)據(jù)的工作人員的主觀偏見,這可能會(huì)引起社會(huì)某些階層的關(guān)注。
“自動(dòng)歧視”是新生的詞匯,需要加以正面的引導(dǎo)。隨著閉路電視巡邏系統(tǒng)的增加普及,這一問題的重要性將會(huì)增長。它可能會(huì)引起人們對(duì)守法人士的錯(cuò)誤目標(biāo)的恐懼,從而影響公眾對(duì)執(zhí)法部門和國家的信任和信任。這不僅僅是一個(gè)政策挑戰(zhàn),它與算法和大數(shù)據(jù)中的非預(yù)期偏差的技術(shù)問題相交叉,可能導(dǎo)致人工智能系統(tǒng)產(chǎn)生的分析偏斜。算法是計(jì)算機(jī)程序,它精確地告訴計(jì)算機(jī)要采取什么步驟來解決某些問題。
受限于編寫此人工智能算法的程序員主觀反映,人工智能算法偏差問題可能會(huì)導(dǎo)致人工智能監(jiān)視系統(tǒng)發(fā)布諸多虛假警報(bào)的風(fēng)險(xiǎn),甚至因此誤導(dǎo)了執(zhí)法部門的情報(bào)分析,錯(cuò)誤的逮捕了不應(yīng)被警方關(guān)注的人。例如,有媒體報(bào)道了由廣州云從科技研發(fā)的一款人工智能系統(tǒng),根據(jù)計(jì)算一個(gè)人的臉部特征和行為舉止,來判斷此人是否具有社會(huì)威脅性,進(jìn)一步提示警方采取先發(fā)制人的行動(dòng),組織犯罪行為的發(fā)生。這一系統(tǒng)受到大量道德層面的譴責(zé),部分人士認(rèn)為,緊靠面部特征來判斷一個(gè)人是否有犯罪傾向,是非常不合倫理的,它可能在不知不覺間含有人類對(duì)種族、地域的倫理偏見。此前便有人工智能分析系統(tǒng)向芝加哥警方發(fā)布帶有種族歧視色彩的預(yù)警報(bào)告的案例。
從本質(zhì)上說,有研究表明,人工智能系統(tǒng)既是復(fù)雜的算法,也僅僅是系統(tǒng)訓(xùn)練和工作數(shù)據(jù)的簡單收集。因此,這些系統(tǒng)可能產(chǎn)生更多帶有“自動(dòng)歧視”色彩的分析結(jié)果,并將這一類數(shù)據(jù)訓(xùn)練不斷加強(qiáng)深化,從而導(dǎo)致在某些地域產(chǎn)生警民關(guān)系緊張的結(jié)果。
總之,新興的人工智能技術(shù)在增加監(jiān)控的前提下能夠有效的收集情報(bào),并將其充分分析,更好的阻止安全威脅事件的發(fā)生,但也可能因此產(chǎn)生嚴(yán)重的“自動(dòng)歧視”的倫理問題。為了使人工智能安全系統(tǒng)發(fā)揮應(yīng)有的作用,加強(qiáng)監(jiān)視和構(gòu)建倫理之間必須有一個(gè)可以被廣泛接受的平衡。如果在采用人工智能技術(shù)的過程中包含了日后數(shù)據(jù)收集訓(xùn)練的方向,那么可能會(huì)減少假警報(bào)的風(fēng)險(xiǎn),也可以在人工智能驅(qū)動(dòng)的決策中的充分體現(xiàn)其公平性,以最大幅度減少其可能對(duì)社會(huì)產(chǎn)生的負(fù)面影響。
(原標(biāo)題:人工智能安全系統(tǒng):一把效能與倫理的雙刃劍)