用戶體驗已成過去時 AI要從公民乃至社會的角度去思考問題

Jarno M. Koponen
AI系統(tǒng)的設(shè)計與開發(fā)應(yīng)強調(diào)維護(hù)公民權(quán)利。算法應(yīng)以負(fù)責(zé)任且透明的方式創(chuàng)建完成,且AI系統(tǒng)不應(yīng)根據(jù)公民的身份對其做出區(qū)別對待、或損害其豁免權(quán)或完整性。

2345截圖20200908083720.png

時至今日,科技巨頭及其基于AI的數(shù)字平臺與解決方案,完全有能力影響全球領(lǐng)導(dǎo)人、民族國家、跨國企業(yè)、全球股市乃至每位個人的命運。

目前,各大主要數(shù)字平臺的建立者、以及各類AI系統(tǒng)的設(shè)計人員與開發(fā)人員,仍然在將個人視為用戶、客戶或者數(shù)據(jù)點,但卻常常忽略個人作為公民的角色與權(quán)利。

結(jié)果就是,個人用戶及客戶被從社會背景下徹底剝離出來,并引發(fā)了可怕的后果。這些個人可能會在不自覺中成為錯誤信息的傳播載體;得不到第一手正確信息的使用者有可能被拉攏為暴力叛亂分子;而在申請工作或更新保險訂單時,用戶也有可能遭到有偏見AI系統(tǒng)的不公平對待。

為什么要推動公民體驗設(shè)計?

如今,隨著AI解決方案的社會影響日益明顯,我們需要從公民乃至社會的角度考慮AI技術(shù)的效果以及設(shè)計/開發(fā)原理。

通過種種現(xiàn)實證據(jù),我們已經(jīng)意識到有偏見的AI系統(tǒng)正在給醫(yī)療保健、科學(xué)研究、刑事司法乃至金融服務(wù)等各個領(lǐng)域帶來嚴(yán)重影響。此外,我們也一直在見證關(guān)于數(shù)據(jù)權(quán)利與慣例的積極發(fā)展。

但僅從GDPR或數(shù)據(jù)治理計劃等角度出發(fā)對高科技企業(yè)進(jìn)行監(jiān)管,顯然還遠(yuǎn)遠(yuǎn)不夠。同樣的,對新興算法的審計方法還不夠成熟,不足以直接影響AI的開發(fā)及其實踐。當(dāng)前的AI道德委員會甚至沒有能力快速、成規(guī)模地調(diào)整AI發(fā)展的具體方向。

只有確保以公民為中心的價值觀與原則對AI解決方案的設(shè)計與開發(fā)加以引導(dǎo),才有可能對AI領(lǐng)域施加有效且可持續(xù)的正確影響。

以往,“公民體驗”僅被劃為純公共服務(wù)領(lǐng)域,但僅此而已。今天,我們需要一種更全面、更多以公民為中心的方法,并據(jù)此構(gòu)建起面向每一位AI設(shè)計師及開發(fā)人員的通用工具箱。

具體而言,我們需要這種秉持以公民為中心的思維與行動方針的AI企業(yè)、數(shù)據(jù)科學(xué)家與設(shè)計師。我們還需要公民體驗專家,將對社會的認(rèn)知納入產(chǎn)品構(gòu)思、設(shè)計以及開發(fā)的核心環(huán)節(jié)當(dāng)中。

如何構(gòu)思AI的公民體驗設(shè)計問題

那么,我們怎樣才能為公民體驗設(shè)計的可持續(xù)性實踐,創(chuàng)建起一套能夠真正將個人視為公民、并融入廣泛社會結(jié)構(gòu)的AI解決方案框架?

首先,公民體驗設(shè)計需要跨學(xué)科努力,包括將社會科學(xué)、數(shù)據(jù)科學(xué)與設(shè)計思路結(jié)合起來。公民體驗設(shè)計還對數(shù)據(jù)素養(yǎng)與算法素養(yǎng)提出了更高要求,包括要求了解不同數(shù)據(jù)中的利弊、評估應(yīng)用程序以及不同算法帶來的潛在影響。而這項目標(biāo),必須通過多學(xué)科交叉形式實現(xiàn)。

其次,公民體驗設(shè)計應(yīng)幫助設(shè)計師及開發(fā)人員將個人視為公民用戶與公民消費者。公民體驗設(shè)計還需要提供具體工具,幫助開發(fā)者將個人視為真實的個體,幫助企業(yè)在更廣泛的社會背景下評估自身產(chǎn)品決策。這些工具還有望在用戶體驗與客戶體驗層面,提供更深刻的數(shù)據(jù)科學(xué)設(shè)計與實踐洞見。

第三,公民體驗設(shè)計應(yīng)該覆蓋到產(chǎn)品設(shè)計與開發(fā)的所有要素,包括用例與目標(biāo)設(shè)置、應(yīng)用指標(biāo)與用戶界面設(shè)計、數(shù)據(jù)管道及AI技術(shù)選擇、乃至用戶研究與分析等等。

第四,必須與公民一起制定公民體驗設(shè)計的基本原則。這些共同建立的實踐將帶來新的洞見,并將公民作為活躍力量引入這場AI變革的核心當(dāng)中。

公民體驗設(shè)計的基本原則

一切均始于此:AI從業(yè)者首先應(yīng)承認(rèn)個人的身份,即成熟公民的身份,并相應(yīng)予以尊重與關(guān)照。永遠(yuǎn)不應(yīng)脫離社會背景,在孤立產(chǎn)品或平臺當(dāng)中考慮AI解決方案。

下面來看關(guān)于迭代的更多具體建議:

AI系統(tǒng)的設(shè)計與開發(fā)應(yīng)強調(diào)維護(hù)公民權(quán)利。算法應(yīng)以負(fù)責(zé)任且透明的方式創(chuàng)建完成,且AI系統(tǒng)不應(yīng)根據(jù)公民的身份對其做出區(qū)別對待、或損害其豁免權(quán)或完整性。

以安全、負(fù)責(zé)的方式處理公民數(shù)據(jù)。AI系統(tǒng)不應(yīng)以不必要的方式收集個人數(shù)據(jù),或在未經(jīng)明確同意的前提下使用個人數(shù)據(jù)。同樣,當(dāng)公民與AI系統(tǒng)交互或受后者影響時,必須明確向公民發(fā)出通報。AI系統(tǒng)絕不應(yīng)愚弄或操縱公民,例如通過偽裝為人類、或誘導(dǎo)不健康行為的方式在推薦系統(tǒng)中愚弄或操縱公民。

在從公民角度出發(fā)考量AI系統(tǒng)時,必須對數(shù)據(jù)的個人控制視為數(shù)字產(chǎn)品需要遵循的基本特征。將公民隱私權(quán)設(shè)定為最核心的權(quán)益,即可保證基于AI的監(jiān)管系統(tǒng)不以任何不必要的方式觸及這部分信息。

AI系統(tǒng)不應(yīng)促進(jìn)任何有違現(xiàn)有法律或其他公民權(quán)利的行為。AI系統(tǒng)必須尊重現(xiàn)有法規(guī)與公序良俗。簡而言之,AI設(shè)計人員、開發(fā)人員或其AI解決方案不應(yīng)獨立做出好壞、公平、適度或合法等層面的判斷。

公民體驗設(shè)計,要求從業(yè)者與來自不同領(lǐng)域的專家保持持續(xù)對話,結(jié)合社會背景主動審視其解決方案。AI解決方案目前已被廣泛認(rèn)定為與人類社會無縫整合的社會性技術(shù)系統(tǒng),因此必須得到持續(xù)監(jiān)控、評估、審計與迭代,盡可能緩解潛在的問題或利益沖突。

AI系統(tǒng)還應(yīng)允許人們自主學(xué)習(xí)關(guān)于AI技術(shù)的使用及效應(yīng)。當(dāng)個人被視為成熟公民時,即應(yīng)對自己使用的AI解決方案負(fù)責(zé)。為此,民眾需要培養(yǎng)新的公民技能,包括良好的數(shù)據(jù)素養(yǎng)、算法素養(yǎng)以及數(shù)字媒體素養(yǎng)。這一點需要公民與AI從業(yè)者的共同努力。例如,公民應(yīng)能夠以易于訪問的方式觀察自身數(shù)據(jù)足跡是否暴露于算法系統(tǒng)當(dāng)中。

這種教育上的透明性,有助于人們了解AI系統(tǒng)及其創(chuàng)建者的動機(jī)與意圖,幫助公民與AI開發(fā)者之間建立起信任。以公民為中心、且具有社會意識的設(shè)計,可以及時向公民盡通報義務(wù),同時增強行為與安全機(jī)制,例如使有害信息更易于檢測、緩解甚至預(yù)防。

建立原則

在理想情況下,將公民體驗設(shè)計引入AI應(yīng)該成為一項前提性原則,據(jù)此指導(dǎo)AI解決方案的設(shè)計與開發(fā),而非做出回顧性的評估或系統(tǒng)內(nèi)容迭代。

縱觀全局,很明顯,公民體驗設(shè)計將為AI創(chuàng)新帶來新的機(jī)會,確保現(xiàn)有乃至未來的解決方案不能忽視個人用戶作為公民的這一角色定位。

構(gòu)建及迭代公民體驗設(shè)計應(yīng)該成為一項核心原則,而這條漫長道路的起點就在當(dāng)下。

來源丨Venture Beat

作者丨Jarno M.Koponen

編譯丨科技行者

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論