由于算法對數(shù)據(jù)的掌控及后續(xù)分析,衍生出了豐富的信息要素深刻影響經(jīng)濟(jì)與社會進(jìn)程。算法之下,個(gè)人信息的掌握和分析成為簡單和日常的事情,人自然而然地成了計(jì)算的客體,由此衍生的算法可能帶有偏見。
大數(shù)據(jù)時(shí)代,如果經(jīng)營者收集的信息足夠全面,掌握的算法足夠先進(jìn),足以甄別出每位消費(fèi)者的購買意愿和支付能力,就可針對消費(fèi)者單獨(dú)制定不同的價(jià)格。商家為了獲得更多用戶,便可以通過大數(shù)據(jù)算法獲知哪些用戶可以接受更高的價(jià)格,哪些用戶應(yīng)該適當(dāng)?shù)赜枰越祪r(jià),“大數(shù)據(jù)殺熟”由此誕生。
常見“殺熟”套路主要有三種:根據(jù)不同設(shè)備進(jìn)行差別定價(jià),比如針對蘋果用戶與安卓用戶制定的價(jià)格不同;根據(jù)用戶消費(fèi)時(shí)所處的不同場所,比如對距離商場遠(yuǎn)的用戶制定的價(jià)格更高;根據(jù)用戶的消費(fèi)頻率的差異,一般來說,消費(fèi)頻率越高的用戶對價(jià)格承受能力也越強(qiáng)。
早在2000年,就已有“大數(shù)據(jù)殺熟”事件發(fā)生。一名亞馬遜用戶在刪除瀏覽器Cookies后,發(fā)現(xiàn)此前瀏覽過的一款DVD售價(jià)從26.24美元變成了22.74美元。當(dāng)時(shí),亞馬遜CEO貝索斯也作出了回應(yīng),說明該事件是向不同的顧客展示差別定價(jià)的實(shí)驗(yàn),處于測試階段。同時(shí),他還表示與客戶數(shù)據(jù)無關(guān),并最終停止了這一實(shí)驗(yàn)。
而二十年后的今天,隨著網(wǎng)絡(luò)普及,用戶信息不斷沉淀,大數(shù)據(jù)殺熟則成為了普遍存在的不良現(xiàn)象。根據(jù)北京市消費(fèi)者協(xié)會2019年3月發(fā)布的“大數(shù)據(jù)殺熟”問題調(diào)查結(jié)果,88.32%被調(diào)查者認(rèn)為“大數(shù)據(jù)殺熟”現(xiàn)象普遍或很普遍,且56.92%被調(diào)查者表示有過被“大數(shù)據(jù)殺熟”的經(jīng)歷。
面對不透明的、未經(jīng)調(diào)節(jié)的、極富爭議的甚至錯(cuò)誤的自動化決策算法,我們將無法回避“算法歧視”與“算法暴政”導(dǎo)致的偏見與不公。隨著算法決策深入滲透我們的生活,我們的身份數(shù)據(jù)被收集、行跡被跟蹤,我們的工作表現(xiàn)、發(fā)展?jié)摿?、償債能力、需求偏好、健康狀況等特征無一不被數(shù)據(jù)畫像從而被算法使用者掌控。
如今不管是貸款額度確定、招聘篩選、政策制定乃至司法輔助量刑等,諸多領(lǐng)域和場景中都不乏算法自動化決策。社會原有的結(jié)構(gòu)將被進(jìn)一步固化,個(gè)體或資源在結(jié)構(gòu)框架之外的流動愈發(fā)被限制。
算法對每一個(gè)對象相關(guān)行動代價(jià)與報(bào)償進(jìn)行精準(zhǔn)評估的結(jié)果,將使某些對象因此失去獲得新資源的機(jī)會,這似乎可以減少決策者自身的風(fēng)險(xiǎn),但卻可能意味著對被評估對象的不公。