倫理方面,西方這樣看待人工智能

極客時(shí)間官方
近日,劍橋大學(xué)未來智能研究中心研究員丹尼特·加爾(Danit Gal)在2019北京智源大會(huì)上發(fā)表演講,她認(rèn)為東西方在管理方式、文化、社會(huì)等方面的不同,導(dǎo)致東西方在人工智能倫理方面存在8大差異。以下為加爾的觀點(diǎn)。

近日,劍橋大學(xué)未來智能研究中心研究員丹尼特·加爾(Danit Gal)在2019北京智源大會(huì)上發(fā)表演講,她認(rèn)為東西方在管理方式、文化、社會(huì)等方面的不同,導(dǎo)致東西方在人工智能倫理方面存在8大差異。以下為加爾的觀點(diǎn)。

差異一:可及性

要確保我們的技術(shù)是可及的、可用的,且為全世界的程序開發(fā)者所使用。在中國(guó),不同公司有不同的數(shù)據(jù)庫(kù),如果有公司想獲得額外的數(shù)據(jù)時(shí),它需要向政府申請(qǐng),由政府來批準(zhǔn)。在西方,雖然每個(gè)公司也有自己的數(shù)據(jù)庫(kù),但谷歌的數(shù)據(jù)庫(kù)不會(huì)跟蘋果分享,即便有些數(shù)據(jù)分享了,代碼也是不會(huì)分享的。

加爾認(rèn)為,中國(guó)的網(wǎng)絡(luò)安全法更加重要,要優(yōu)于西方的網(wǎng)絡(luò)安全法。

差異二:責(zé)任性

要保證行動(dòng)和行動(dòng)所造成的后果是可追溯的,要知道中間的操作機(jī)構(gòu)應(yīng)該負(fù)起什么樣的責(zé)任,以及誰應(yīng)該負(fù)這樣的責(zé)任。在中國(guó),政府會(huì)把一些APP列入“黑名單”,把它徹底刪除,這些APP如果想重新進(jìn)入市場(chǎng),就需要經(jīng)過政府的批準(zhǔn)。

差異三:可制性

使用技術(shù)的人要能夠控制技術(shù)。以“人對(duì)于機(jī)器控制的層級(jí)架構(gòu)”為例,這里的“人”是誰?可能是一個(gè)公司的技術(shù)開發(fā)負(fù)責(zé)人,他應(yīng)該是能做最終決策的。但在韓國(guó)是有決策層級(jí)的,這個(gè)人可以在特殊場(chǎng)景中做決策,但他的上級(jí)還有上級(jí),在往上還有上級(jí),做最終決策的很可能是CEO。

因此,我們要了解,不同的社會(huì)有不同的架構(gòu),最終做決策的那個(gè)人也是不同的。

差異四:可解釋性

要確保技術(shù)是可以解釋的、可以被審核的、可以找到因果關(guān)系的。比如,AI做了一個(gè)決定,那誰應(yīng)該負(fù)責(zé)任?是AI還是開發(fā)者?

在一些國(guó)家,有觀點(diǎn)認(rèn)為,AI做出的決策是自動(dòng)的,應(yīng)該修改AI,應(yīng)該讓AI負(fù)責(zé)任,開發(fā)這個(gè)AI的人不需要負(fù)責(zé)任。

在另一些國(guó)家中,AI的開發(fā)者和AI的使用者都會(huì)負(fù)一定的責(zé)任。AI的使用者必須要確保他們對(duì)AI有充分的了解才能使用,所以,他們需要承擔(dān)一定的責(zé)任。AI的開發(fā)者也需要承擔(dān)一定的責(zé)任。

有了可解釋性,可以界定誰來負(fù)責(zé)任,到底是AI,還是人。

差異五:公平性

要確保我們的技術(shù)是公平的,不會(huì)造成一些偏見和不公平的情況。如果一個(gè)國(guó)家的總?cè)丝谥杏?5%的人來自不同種族,而另外一個(gè)國(guó)家基本上人人都來自同一個(gè)種族,這兩個(gè)國(guó)家的人口種族分布情況是不一樣的。因此,在全世界范圍內(nèi)應(yīng)用同樣的AI系統(tǒng)時(shí),我們必須要進(jìn)行不同的討論。對(duì)具有很大差異化的國(guó)家,在設(shè)計(jì)的時(shí)候,我們必須要有針對(duì)性的考慮。

差異六:以人為中心

我們要確保我們的設(shè)計(jì)是以人為中心的,技術(shù)的發(fā)展要有人的參與,如果沒有人的參與,這個(gè)技術(shù)就毫無意義。日本有一個(gè)“社會(huì)共同發(fā)展6.0”,談的是人的尊嚴(yán)以及技術(shù)發(fā)展具有同等的重要性。只有把人和技術(shù)放到一起的時(shí)候,才能為這個(gè)技術(shù)更好地賦能,更加有力。

差異七:技術(shù)或者個(gè)人信息的保護(hù)

一些個(gè)人數(shù)據(jù)可能在網(wǎng)上被濫用,中國(guó)也存在數(shù)據(jù)濫用的狀況,為此,中國(guó)政府出臺(tái)了很多法律法規(guī)和政策來保護(hù)人的信息安全。如果出現(xiàn)違法使用個(gè)人信息的情況,這些信息一定要被刪除。

這一點(diǎn)和西方國(guó)家不太一樣。在西方,誰來保護(hù)人們以及“誰是人們”這樣的定義是不一樣的。這不意味著西方的人沒有隱私,而是我們的隱私定義不同。

差異八:透明性

我們要確保技術(shù)的使用是透明的、可追溯的。它對(duì)用戶透明,還是對(duì)政府透明?還是對(duì)其他的公司透明?誰需要這么高水平的透明性?

在中國(guó),透明的級(jí)別非常直截了當(dāng),要對(duì)政府透明,而不是對(duì)用戶透明。那我們?nèi)绾未_保不同的機(jī)構(gòu)之間都是透明的?如果能做到足夠的透明,各個(gè)機(jī)構(gòu)就能夠知道自己的數(shù)據(jù)被如何使用。

以上是加爾對(duì)于東西方人工智能倫理差異的看法,你是否認(rèn)同呢?

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無評(píng)論