隨著人工智在日常生活中愈發(fā)普及,AI監(jiān)管的問題也逐漸浮出水面,日漸棘手。本文翻譯自文章《Point:Should AI Technology Be Regulated?:Yes,and Here's How》,文中首先提出AI監(jiān)管勢在必行,其次闡釋了監(jiān)管的重點和難點,接著分析介紹了規(guī)范人工智能的5條指南,旨在為相關(guān)部門的決策提出建議。文章最后,點明人工智能監(jiān)管中最棘手之處在于:它不僅是一個技術(shù)問題,而且是一個社會學(xué)問題,并呼吁倫理學(xué)家等多方學(xué)者參與,共同來解決AI監(jiān)管難題?,F(xiàn)由學(xué)術(shù)plus編譯,僅供參考。文章版權(quán)歸原作者所有,觀點不代表本機構(gòu)立場。
AI技術(shù)應(yīng)該被監(jiān)管嗎?如何監(jiān)管?
政府監(jiān)管對于預(yù)防帶來的傷害是非常必要的。但監(jiān)管是一種非常緩慢的過程,且很容易受到政治的干預(yù)。而且,當(dāng)監(jiān)管應(yīng)用于人工智能等快速發(fā)展的領(lǐng)域時,錯位的監(jiān)管可能會扼殺創(chuàng)新,破壞人工智能帶給我們的巨大的潛在好處,比如提高無人駕駛汽車的安全性、提高生產(chǎn)率等等。埃隆·馬斯克(Elon Musk)曾敦促美國政府盡早對人工智能進行監(jiān)管,但我們也不希望監(jiān)管阻礙技術(shù)的創(chuàng)新和發(fā)展。
為此,研究人員提出了一個折中的方法:即避免過度監(jiān)管人工智能的研究,重點監(jiān)管和關(guān)注人工智能在交通運輸、醫(yī)學(xué)、政治和娛樂等領(lǐng)域的應(yīng)用。這種方法不僅平衡了人工智能研究帶來的好處和人工智能系統(tǒng)可能的潛在危害,而且更具可操作性。
監(jiān)管AI到底有多棘手?
人工智能席卷全球的趨勢勢不可擋。如何監(jiān)管卻成了棘手的問題。
監(jiān)管AI存在的第一個問題就是如何定義AI?
曾經(jīng)的AI只是一個國際象棋游戲機,但是現(xiàn)在,AI已融入我們的社交媒體、汽車、醫(yī)療設(shè)備等之中。技術(shù)進步的速度太快,并且迅速地融入我們的生活中,導(dǎo)致機器和智能機器之間的界限開始變得模糊不清。
比如“傷害(harm)”的概念就很難被納入算法中。自動駕駛汽車可以大幅減少高速公路事故,但同時人工智能也可能會造成一些事故,而且人工智能造成的事故比普通的人為事故更容易使人受到傷害。因為AI沒有常識,所以可能會刪除尚未備份的博士學(xué)位論文。墨菲的人工智能定律是,當(dāng)你給AI一個目標(biāo)時,無論你是否喜歡它實現(xiàn)其目標(biāo)的含義,AI都會做到這一點。人工智能在定義諸如“傷害”等模糊的概念方面幾乎沒有常識。
監(jiān)管雖然很難,但是必須監(jiān)管。那應(yīng)該采取哪些規(guī)則來解決過多、而且不充分的監(jiān)管問題呢?本文建議從以下5個方面著手:
規(guī)范AI應(yīng)用的5個指南
1不要將AI武器化
首先是制定針對人工智能武器和網(wǎng)絡(luò)武器的法規(guī)。馬斯克在給聯(lián)合國的一封信中說:“自主武器(autonomous weapons)開發(fā)出來后,將會使武裝沖突的規(guī)模比以往任何時候都大,而且時間比人們想象地更快。自主武器可能會被用作恐怖武器,也可能被暴君和恐怖分子用來對抗無辜的平民。所以我們不應(yīng)該創(chuàng)建應(yīng)用AI技術(shù)的殺戮機器。因此,第一個監(jiān)管原則是:“不要將AI武器化。”
2法律約束
第二個指南是人工智能應(yīng)受到適用于人類操作員的全部法律約束。如果說“the AI did it”即必須意味著作為AI的所有者、操作者或構(gòu)建者的人們做到了。作為AI的所有者、操作者或構(gòu)建者,即負責(zé)任的一方,必須確保AI不會傷害任何人;一旦對別人造成了傷害,就應(yīng)該承擔(dān)責(zé)任。但是如果造成了傷害,應(yīng)該可以區(qū)別出來是AI的擁有者,或者是生產(chǎn)商的責(zé)任,但是目前并沒有完善的法律體系來應(yīng)對這種情況。
3明確告知“自己是AI”
AI應(yīng)明確告知他人,自己是AI。這意味著Twitter聊天機器人、撲克機器人和其他人必須將自己標(biāo)識為機器,而不是人。因為,已經(jīng)有政治機器人對新聞文章發(fā)表評論,并產(chǎn)生不和諧的宣傳聲音。
4未經(jīng)批準不得保留或披露機密信息
第四條指南是,未經(jīng)消息來源事先明確批準,AI不得保留或披露機密信息。比如從Amazon Echo,Google Home和智能電視中收集的數(shù)據(jù),或是看似無害的掃地機器人也可能創(chuàng)建精確的室內(nèi)地圖。未來隱私問題只會越來越多越來越尖銳,需要更嚴格的隱私政策來保護人們及其信息。
5消除偏見
AI應(yīng)用程序規(guī)則的第五個指南是AI不得增加或放大系統(tǒng)中已存在的任何偏見。現(xiàn)在AI使用過去的數(shù)據(jù)來預(yù)測未來。假如,數(shù)據(jù)顯示白人違約率為60%,而有色人種違約率只有20%,那么種族信息就對算法很重要。
與AI相關(guān)的另一個相關(guān)問題是,所有形式的AI(包括機器人,自治系統(tǒng),嵌入式算法)必須具有問責(zé)性、可解釋性和透明性,以便人們能夠理解機器所做出的決策。美國的各州可以使用預(yù)測算法來計算囚犯未來構(gòu)成的風(fēng)險,并在法庭審判中用做量刑建議。人工智能和算法會用于決定誰可以訪問公共服務(wù)以及誰接受執(zhí)法部門的額外審查。所有這些人工智能和算法的應(yīng)用都提出了關(guān)于人權(quán)、系統(tǒng)性偏見和長期存在的不公平的棘手問題。
這也引出了人工智能監(jiān)管中最棘手的問題之一:即它不僅是一個技術(shù)問題,而且是一個社會學(xué)問題,需要倫理學(xué)家和其他各方參與使用他們的專業(yè)知識來解決監(jiān)管難題。
如何進行監(jiān)管?
和其他法律法規(guī)一樣,單一的監(jiān)管機構(gòu)是不可行的,而是應(yīng)該嵌入現(xiàn)有的監(jiān)管機制之中。
比如,假設(shè)我有一輛無人駕駛汽車發(fā)生了事故。如果這是我的車,我就會被認為應(yīng)該負責(zé)。但可能是汽車技術(shù)工藝存在缺陷才導(dǎo)致的事故,在這種情況下,制造商應(yīng)該分擔(dān)責(zé)任。因此,無人駕駛汽車應(yīng)該遵守與我們?nèi)祟愊嗤姆?,受?lián)邦機動車輛安全標(biāo)準(Federal Motor Vehicle Safety Standards)和機動車駕駛法律的監(jiān)督。
有些人可能會問:電車難題(trolley problem)怎么處理呢?如何對汽車進行編碼來確定如何在電車難題中做出抉擇呢?這并不是一個工程問題,而是一個哲學(xué)思想問題。實際上,無人駕駛汽車將減少事故中受傷或死亡的人數(shù);由于算法做出選擇而導(dǎo)致某人受傷的極端情況只占事故的一小部分。以谷歌的自動駕駛Waymo為例,它在美國已經(jīng)行駛超過200萬英里,200萬英里只有一次事故。其安全行駛率比任何駕駛員都低,大約比60-69歲的人低10倍,比新司機低40倍。
人工智能越來越普及,但是現(xiàn)有的監(jiān)管機構(gòu)尚未開始監(jiān)管。但應(yīng)該盡早識別這些應(yīng)用程序,并確定監(jiān)管機構(gòu)來實現(xiàn)監(jiān)管目標(biāo)。我們必須認識到法律法規(guī)的目的是保護人類和社會免受傷害??梢酝ㄟ^人工智能的合作平臺和研究組織作為其對對人類和社會影響的討論和參與的開放平臺。蘋果和艾倫人工智能研究所等機構(gòu)正在合作制定人工智能技術(shù)的最佳實踐;紐約大學(xué)的AI Now研究所和哈佛大學(xué)的Berkman-Klein中心也正致力于制定人工智能的道德準則。
盡管監(jiān)管AI難度很大,但在享受技術(shù)便利的同時,也要肩負起應(yīng)有的責(zé)任。
原文作者:Oren Etzioni