不僅僅是谷歌、Facebook、亞馬遜和硅谷的其他公司在獲取我們的數(shù)字信息,越來越多的公司正在以一種可能對你產(chǎn)生負(fù)面影響的方式,從你的每一個行為中獲取信息以達(dá)到其盈利目的。
就連福特公司一向樂觀的未來主義者Sheryl Connelly也對未來感到擔(dān)憂。處在日益加劇的經(jīng)濟(jì)不平等問題、日益擴(kuò)大的數(shù)字鴻溝和持續(xù)的隱私侵犯之間,她說:“這非常像 1984 年經(jīng)濟(jì)危機(jī)那時候,你不得不時刻提心吊膽。”
在許多國家,幾乎沒有法律框架來約束個人數(shù)據(jù)的收集和可能的濫用。去年,就在Facebook劍橋分析公司丑聞爆發(fā)的幾個月后,歐洲開始通過其新的通用數(shù)據(jù)隱私管制政策,來應(yīng)對圍繞數(shù)據(jù)收集的新規(guī)則。此后不久,加州通過了美國影響最深遠(yuǎn)的數(shù)據(jù)隱私法,并將于 2020 年生效。
在過去的一年里,科技行業(yè)的丑聞、失誤以及各種讓人想起創(chuàng)新發(fā)明令人毛骨悚然的一面的東西,都給個人隱私帶來了損害。近期新法律的出現(xiàn),對于個人隱私來說是個重要的勝利。以下是今年值得關(guān)注的一些最新進(jìn)展。
人臉識別
機(jī)場、商店、賭場等場所都在使用人臉識別,有些甚至是實時的,能在龐大而模糊的數(shù)據(jù)庫的幫助下搜索可疑的人。澳大利亞將推出一項全國性的面部掃描系統(tǒng),而在中國,面部識別技術(shù)正用于抓捕在啤酒節(jié)上喝啤酒的罪犯。去年 12 月,在亞馬遜因出售面部識別服務(wù)面臨批評之際,最引人注目的監(jiān)管呼吁之一,來自一個人工智能的競爭對手。微軟總裁布拉德·史密斯寫道:“我們認(rèn)為,一場逐底的商業(yè)競爭并不會給世界帶來最好的服務(wù),而科技公司將被迫在社會責(zé)任和市場成功之間做出選擇。”
情感識別
所謂的“情感識別軟件”并不僅僅用于評估求職者,警方也正越來越多地求助于基于人工智能的系統(tǒng),根據(jù)一個人的面部姿態(tài)和聲音來判斷他是否暗含危險。一些專家將這個系統(tǒng)稱為現(xiàn)代版的相面術(shù)。
虛擬人物
當(dāng)Lil Michaela的賬號第一次出現(xiàn)在Instagram上時,她就征服了全世界?,F(xiàn)在我們有了像谷歌的Duplex這樣的電視新聞主播和助理,它可以代表用戶給餐館和發(fā)型師打電話。Duplex的人性化是如此的不可思議,以至于許多人都指控谷歌造假。當(dāng)Fast Company嘗試這項服務(wù)時,它似乎像廣告宣傳的那樣有效。當(dāng)虛擬人被要求從事客戶服務(wù)和類似的工作時,他們也冒著惡化環(huán)境的風(fēng)險。在這樣的環(huán)境中,活人無法區(qū)分虛構(gòu)和現(xiàn)實。
數(shù)字造假
就像虛擬人一樣,圍繞深度偽造的技術(shù)——旨在誘使觀眾認(rèn)為某人說了或做了他沒有做過的事情的視頻——最近已經(jīng)讓位于新技術(shù),比如深度視頻人像和接近照片真實物理位置的模擬。在與美國國防部高級研究計劃局(DARPA)等機(jī)構(gòu)支持的先進(jìn)數(shù)字造假行為進(jìn)行斗爭的同時,一些專家也在對一種不那么復(fù)雜的攻擊發(fā)出警告:虛假數(shù)據(jù)和欺詐性文件的傳播。
人類機(jī)器化
在一個充滿算法建議的世界里,谷歌正在自動完成我們的句子。當(dāng)然,這很方便,但讓我們更接近谷歌認(rèn)為我們應(yīng)該寫的東西,也可能讓我們?nèi)祟愖兊孟駲C(jī)器人。技術(shù)倫理學(xué)家David Polgar表示:“很多預(yù)測分析的核心問題都是關(guān)于我們是否有自由意志。我應(yīng)該選擇下一步,還是谷歌來選擇?如果它能預(yù)測我的下一步,那么這對我來說意味著什么呢?”
同時,Ride-hail司機(jī)和其他在算法指導(dǎo)下的工作人員也面對一個同樣重要的問題。Uberland的作者,Alex Rosenblat寫道:鑒于Uber將員工視為“消費(fèi)者”的“算法技術(shù)”和促進(jìn)他們成為創(chuàng)業(yè)的企業(yè)家的情況,一個棘手的、未知的、令人不安的問題必須得到回答:如果你使用一個應(yīng)用程序來上班,社會應(yīng)該認(rèn)為你是一個消費(fèi)者、一個企業(yè)家、還是一個工人?