據(jù)外媒報道,五角大樓內(nèi)部成立的國防創(chuàng)新委員會投票批準(zhǔn)了國防部的AI倫理原則,包含5個主要原則(負(fù)責(zé)、公平、可追蹤、可靠和可管理)、12條建議,說明美軍將來如何在戰(zhàn)斗和非戰(zhàn)斗AI系統(tǒng)中應(yīng)用道德規(guī)范。
原則指出,人類應(yīng)繼續(xù)對“發(fā)展、部署、使用和成果”負(fù)責(zé),軍方使用的人工智能系統(tǒng)應(yīng)避免可能導(dǎo)致意外傷害的偏見。國防部部署的AI還應(yīng)該可靠、可管理,并使用“透明且可審核的方法、數(shù)據(jù)源以及設(shè)計過程和文檔。”
其中“避免意外傷害和破壞以及避免人為部署系統(tǒng)的脫離接觸”這一點,被部分委員會成員認(rèn)為是“可管理原則”中應(yīng)該明確的一點。而在這一點的實踐上,軍方需要在使用的AI系統(tǒng)上配備一個關(guān)門開關(guān),以防情況出錯時能夠進(jìn)行人為制止。
令人“較為意外”的是,在“公平”這一原則上,國防創(chuàng)新委員會給出了一個較為不同的解釋。國防創(chuàng)新委員會成員和卡耐基梅隆大學(xué)研究副總裁Michael McQuade表示,“您可能會在‘AI倫理原則文檔’種看到公平一詞引起的共鳴。我會告誡您,在許多情況下,國防部不應(yīng)該公平。這應(yīng)該是一個堅定的原則,即我們的系統(tǒng)中不應(yīng)有意外的偏見。”這與人們一般理解中的“公平”還是不同的。
近一兩年來,圍繞“AI倫理”這一點,五角大樓沒少受到來自業(yè)界專家和群眾的質(zhì)疑和抨擊,譬如與谷歌合作“Maven項目”,基于后者AI技術(shù)讓無人機(jī)自動追蹤有關(guān)對象等等。對于五角大樓而言,AI倫理原則的落實有著必要性。
據(jù)了解,該AI倫理原則雖然已經(jīng)得到了國防創(chuàng)新委員會的批準(zhǔn),但最終還是將由國防部領(lǐng)導(dǎo)來決定是否采納任何原則。國防部發(fā)言人表示,目前“人工智能原則:國防部關(guān)于人工智能在倫理上的使用的建議”文件和相關(guān)白皮書已經(jīng)上傳至國防創(chuàng)新委員會的網(wǎng)站,將與國防部領(lǐng)導(dǎo)進(jìn)行共享。