引言
人工智能(AI)的快速進步和發(fā)展引發(fā)了對其雙重用途應用和安全風險的猜測。從自主武器系統(tǒng)(autonomous weapons systems,AWS)到面部識別技術,再到決策算法,每一個新興的人工智能應用都帶來了或好或壞的結果。人工智能技術的雙重特性,不僅給各國的個人和實體帶來巨大的安全風險:涉及政府、工業(yè)、組織和學術界(NGIOA),而且也給人類的未來帶來了巨大的風險。
現(xiàn)實情況是,任何新的人工智能創(chuàng)新都可能被用于有益或有害的目的:任何可能提供重要經濟應用的單一算法,也可能導致空前的大規(guī)模毀滅性武器生產,而這是難以捉摸的。其結果是,人們對基于人工智能自動化的擔憂正在加劇。
隨著機器學習、計算能力、無邊界投資和數(shù)據(jù)可用性的進步,人工智能在廣闊領域有著潛在的應用價值,這一事實使其所涉及的安全風險成倍增加。此外,由于人工智能的整合對人來說是無法直接預知的,所以對任何事物的認知能力都從根本上改變了安全格局。人工智能的自動化和智能帶來了希望,也帶來了毀滅的可能性。
計算能力的大眾化
計算機技術的發(fā)展使技術發(fā)展、知識、信息和智能民主化。數(shù)據(jù)分析和處理技術的快速發(fā)展,將網絡、電子、量子和自主武器與核、生物和納米等技術結合于武器制造,這能夠對人類造成災難性的傷害。
聯(lián)網的計算機、網絡和網絡空間已經成為整個NGIOA所有數(shù)字過程中不可或缺的一部分。由于計算機代碼和聯(lián)網計算機已經將網絡空間與地理空間和太空連接起來,現(xiàn)在幾乎一切都被聯(lián)網并可控。
由于人工智能有可能被整合到網絡空間、地理空間和太空(CGS)的幾乎每一種產品和服務中并使其智能化,這種不斷演變的認知能力從根本上改變了人類的安全環(huán)境。目前,技術、計算能力、編程語言、計算機代碼、加密、信息、大數(shù)據(jù)、算法、投資等,它們都有軍民雙重用途。
當每個人都可以訪問數(shù)字數(shù)據(jù),擁有必要的機器學習技術和計算能力就能為己創(chuàng)建人工智能時,復雜的安全挑戰(zhàn)隨即產生,管理則變得困難重重。這不僅意味著增長中的潛在大規(guī)模殺傷性武器數(shù)量,攻擊面范圍的擴大也不容忽略。人工智能的雙重使用威脅所帶來的安全風險正變得越來越可怕。這就引出了一個重要的問題:人類的生存、安全和可持續(xù)性是否應該留給個人的智慧,誰能或不知道人工智能的潛在雙重用途?也許現(xiàn)在是開發(fā)人工智能框架的時候了。
數(shù)據(jù)的大眾化
隨著網絡空間的數(shù)據(jù)成為有爭議的公有物,大數(shù)據(jù)的大眾化帶來了一個全新的世界秩序。這個新的世界秩序給我們帶來了一個新的現(xiàn)實——任何地方的任何人都可以訪問數(shù)字數(shù)據(jù),并將其用于人類的善或惡。今天,任何個人或實體,只要有意愿,知道如何獲取大數(shù)據(jù)和數(shù)據(jù)科學能力,就可以利用它來實現(xiàn)他們想要實現(xiàn)的任何智能、自動化、監(jiān)視和偵察,無論他們具備何種教育背景、背景、社會地位或意圖。
雖然大數(shù)據(jù)的大眾化帶來了普遍的可訪問性,并使跨NGIOA的個人和實體獲得了授權,但它也給我們帶來了許多重要的安全風險。任何有或沒有受過正規(guī)訓練的人,都有可能無意中甚至有意地造成社區(qū)、種族、宗教、國家和人類的混亂、災難以及存在的風險。
既然數(shù)據(jù)是構建大多數(shù)人工智能系統(tǒng)所必需的,那么數(shù)據(jù)的大眾化是否會不受約束,而不承擔任何責任和責任呢?
人工智能
人工智能、機器人技術、無人機等領域的最新發(fā)展,對人類的益處有著巨大的潛力,但同樣的進步也帶來了巨大的風險:未經檢查的情報、監(jiān)視、偵察,以及帶有偏見或致命的算法,沒有人為此做好了相應的準備。
復雜安全風險產生于:這些帶有偏見和致命因素的算法是混合的,因為參與開發(fā)或部署人工智能的決策者通常不會關注諸如“安全”之類的基本問題。因此,建立一種可持續(xù)的“人工智能安全”文化,不僅需要讓人工智能研究人員、投資者、用戶、監(jiān)管者和決策者意識到人工智能開發(fā)的雙重用途(不管算法的性質如何),而且還教育那些參與其中的人。
正如今天的各國所看到的:
任何人都可以創(chuàng)建具有雙重用途的算法
任何人都可以購買必要的數(shù)據(jù)、工具和技術來創(chuàng)建算法
遠程開發(fā)人員可以為任何人開發(fā)算法
算法可以單獨購買,并可用于任何目的
自動無人駕駛飛行器正在崛起
自主武器系統(tǒng)成為了現(xiàn)實
擁有自主權的人工智能系統(tǒng)成為一個現(xiàn)實
自主面部識別成為現(xiàn)實
人工智能算法容易受到威脅和控制
這就提出了一個根本性的問題:任何人、任何來自不同國家的個人或實體,如何能夠訪問必要的數(shù)字數(shù)據(jù)、探索為任何目的和議程創(chuàng)造人工智能的基礎科學,而不承擔任何責任、監(jiān)督和后果?
這種人工智能的發(fā)展需要在必要的時候進行管理和預防。
今天的人工智能發(fā)展和前景在許多方面都帶來了不確定性。因為人工智能是一種軟件,它不僅建立在軍隊使用的武器系統(tǒng)上,而且在NGIOA的每一個智能應用程序中都有,每個人工智能應用的潛力都有雙重用途,這是一個不容忽視的現(xiàn)實。
安全困境
在人類歷史的大部分時間里,安全的概念和方法主要圍繞著使用武力和地理空間的領土完整。由于安全的定義和意義在人工智能世界中受到了根本性的挑戰(zhàn)和改變,傳統(tǒng)的安全是指在地理空間內或跨越地理邊界對各自國家的侵犯,現(xiàn)在這種概念已經過時了,需要對其進行評估和更新。
全新的人工智能世界的出現(xiàn),或多或少有點像一個陌生的領域,在這個領域里,幾乎沒有人知道,而且大多是未知的。這引發(fā)了恐懼、不確定性、競爭和軍備競賽,并帶領我們走向一個沒有邊界的新戰(zhàn)場,這可能也可能不涉及人類,這也可能很難被理解和控制。
不斷發(fā)展的人工智能威脅以及安全挑戰(zhàn)的復雜性跨越了空間、意識形態(tài)和政治,這就要求各國的所有利益攸關方進行建設性合作。集體的頭腦風暴是必要的,對威脅的事物進行客觀的評估,以及確保其安全。在認識到這一現(xiàn)實的情況下,風險集團(Risk Group)發(fā)起了對雙重使用技術困境(Dual Use Technology Dilemma)的討論。
雖然關于人工智能的結構、角色和雙重用途的爭論將在未來幾年繼續(xù),但任何試圖重新定義人工智能安全的嘗試都需要從識別、理解、合并和擴展人工智能安全威脅的定義和性質開始。盡管本文的重點是人工智能,但許多其他技術需要對其雙重使用潛力進行評估?,F(xiàn)在是開始討論新興技術的雙重用途的時候了。
選自:forbes
原文作者:Jayshree pandya