歐盟發(fā)布人工智能倫理指南,列出七條關鍵要求

AI銳見
人工智能應該堅持尊重人類自治、防止傷害、公平和責任的基本倫理原則。該指南包括7項要求,并呼吁特別注意保護兒童和殘疾人等弱勢群體。

沒有一項技術能像人工智能那樣引發(fā)道德?lián)鷳n,甚至是恐懼。擔憂的不僅僅是個別公民,F(xiàn)acebook、谷歌和斯坦福大學等都投資了人工智能倫理研究中心。去年年底,加拿大和法國聯(lián)合成立了一個國際小組,討論如何“負責任的”使用人工智能。

今天,歐盟委員會發(fā)布了自己的指導方針,呼吁“值得信賴的人工智能”。

歐盟認為,人工智能應該堅持尊重人類自治、防止傷害、公平和責任的基本倫理原則。該指南包括7項要求,并呼吁特別注意保護兒童和殘疾人等弱勢群體。他們還表示,公民應該完全控制它們的數(shù)據(jù)。

歐盟委員會建議在開發(fā)或部署人工智能時使用評估列表,但這些指導方針并不意味著會成為政策或監(jiān)管的依據(jù),也不意味著要干預政策,他們只是提供了一個寬松的框架。

今年夏天,委員會將與相關方合作,確定可能需要額外指導的領域,并確定如何更好的執(zhí)行和核查。在2020年初,專家組將納入試點階段的反饋意見。

隨著我們開發(fā)出全自動化武器和假新聞生成算法等產(chǎn)品,很可能會有更多的政府對AI帶來的倫理問題表明立場。

下面是歐盟指南的七條關鍵摘要:

●人的管理和監(jiān)督:人工智能系統(tǒng)應受人的基本管理和支持人的基本權利,從而使公平社會得以實現(xiàn),而不是減少、限制或誤導人類自治。

●穩(wěn)健性和安全性:值得信賴的人工智能要求算法足夠安全、可靠和穩(wěn)健性,能夠處理人工智能系統(tǒng)在各個周期階段的錯誤或不一致。

●隱私和數(shù)據(jù)管理:公民應該對自己的數(shù)據(jù)有完全的控制權,而與之相關的數(shù)據(jù)不會被用來傷害他們。

●透明度:應確保人工智能系統(tǒng)的可追溯性。

●多樣性、非歧視性和公平性:人工智能系統(tǒng)應考慮人類的各種能力、技能和需求,并確保其系統(tǒng)的可訪問性。

●社會和環(huán)境福祉:應采用人工智能系統(tǒng)來促進積極的社會變革,增強可持續(xù)性和生態(tài)責任。

●問責制:應建立機制,確保對人工智能系統(tǒng)及其成果負責和問責。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論