算法的“原罪”?

科技云報道
可以說算法是許多App的技術(shù)基礎(chǔ),甚至是數(shù)字社會發(fā)展的重要基石。雖然這些算法特別是AI算法為社會生活創(chuàng)造了巨大價值,但其對用戶隱私的侵犯、大數(shù)據(jù)殺熟等弊端也逐漸暴露出來。

近期卡巴斯基發(fā)布了一份題為“算法時代的愛情”的調(diào)查報告,報告中提到了婚戀App中算法的使用,以及算法在推薦與匹配潛在戀愛對象(用戶)方面的情況。

這份巴斯基委托進行的調(diào)查報告顯示了一些比較有意思的結(jié)果:

64%受訪者表示婚戀App的推薦匹配效果很好,44%的人會相信人工智能或算法來為他們找到匹配的對象;

當然,也有39%的受訪者發(fā)現(xiàn)按算法排序是不科學的,56%的人不相信算法能夠真正理解戀愛中的復雜性。

2345截圖20210818172933.png

人工智能興起

算法豈能成為“脫韁野馬”

不只在婚戀方面,這類推薦算法連同價格算法、評價算法等在其他領(lǐng)域也大行其道,幾乎無處不在。

新聞資訊、社交、購物、餐飲、出行以及短視頻等App通過各類算法給用戶推薦他們感興趣的話題和內(nèi)容,深深地將用戶綁定在他們所精心構(gòu)筑的“牢籠”。

這些技術(shù)的興起得益于近年來以人工智能、大數(shù)據(jù)等為代表的新技術(shù)新應(yīng)用的快速發(fā)展。

這些新應(yīng)用在服務(wù)人們社會生活的過程中,通過各種算法將大數(shù)據(jù)進行收集和處理,并為用戶進行畫像,精準的描繪出用戶的各種喜好,最終控制用戶行為或精準推送各類廣告。

可以說算法是許多App的技術(shù)基礎(chǔ),甚至是數(shù)字社會發(fā)展的重要基石。雖然這些算法特別是AI算法為社會生活創(chuàng)造了巨大價值,但其對用戶隱私的侵犯、大數(shù)據(jù)殺熟等弊端也逐漸暴露出來。

并且,與其他傳統(tǒng)方式不同,算法的應(yīng)用也讓許多惡意行為變得更為隱蔽。

對此,賽迪智庫指出,算法濫用會帶來嚴重的社會危害:濫用數(shù)據(jù)分析和算法推薦,侵害消費者合法權(quán);利用算法實現(xiàn)利益侵占,壓榨平臺商家和從業(yè)者;基于缺陷數(shù)據(jù)集訓練算法,導致算法偏見和不公平?jīng)Q策。

2345截圖20210806091512.png

與此同時,算法濫用問題也成為世界性危害,許多國家對此進行了法律和制度的約束。

歐盟的《通用數(shù)據(jù)保護條例》中規(guī)定“收集個人數(shù)據(jù)進行自動化決策時,應(yīng)當向數(shù)據(jù)主體提供關(guān)于此類問題處理的邏輯及預期后果的有效信息”。

2019年4月美國發(fā)布的《算法問責法案(草案)》中涉及相關(guān)算法影響評估的規(guī)定,要求衡量算法在設(shè)計和訓練數(shù)據(jù)中,對準確性、公平性、偏見、歧視及對隱私和安全的影響。

隨著《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護法》等法律的陸續(xù)出臺,我國在數(shù)字治理方面的法律法規(guī)也在逐漸完善。

過度信息收集和過度索權(quán)是“算法作惡”的常見形式。

《個人信息保護法》明確規(guī)定了“個人信息處理者利用個人信息進行自動化決策,應(yīng)當保證決策的透明度和結(jié)果公平、公正,不得對個人在交易價格等交易條件上實行不合理的差別待遇;

通過自動化決策方式向個人進行信息推送、商業(yè)營銷,應(yīng)當同時提供不針對其個人特征的選項,或者向個人提供便捷的拒絕方式”等,從法律層面向信息過度收集和過度索權(quán)行為說NO。

為了規(guī)范互聯(lián)網(wǎng)信息服務(wù)算法推薦活動,國家互聯(lián)網(wǎng)信息辦公室就《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定(征求意見稿)》(以下簡稱“管理規(guī)定”)公開征求意見。

管理規(guī)定提出,算法推薦服務(wù)提供者應(yīng)當“保護消費者合法權(quán)益,不得根據(jù)消費者的偏好、交易習慣等特征,利用算法在交易價格等交易條件上實行不合理的差別待遇等違法行為。”

人工智能技術(shù)的發(fā)展也為算法問題增加了新的不確定性。

2021年7月,中國信息通信研究院與京東探索研究院聯(lián)合發(fā)布的《可信人工智能白皮書》中指出,當前人工智能技術(shù)風險引發(fā)信任危機,其中包括算法安全導致的應(yīng)用風險、黑箱模型導致算法不透明、數(shù)據(jù)歧視導致智能決策偏見、系統(tǒng)決策復雜導致責任事故主題難以界定、數(shù)據(jù)濫用導致隱私泄露風險,因此發(fā)展可信人工智能正在成為全球共識。

2345截圖20210806091512.png

保護隱私、規(guī)范算法

技術(shù)和管理并重

隱私問題是算法濫用帶來的嚴重問題之一,盡管在網(wǎng)絡(luò)安全領(lǐng)域,數(shù)據(jù)安全和隱私保護始終是重中之重,但時至今日出現(xiàn)的數(shù)據(jù)安全問題仍屢見不鮮。

在解決隱私泄露方面,業(yè)界出現(xiàn)了許多更為針對性的技術(shù)措施,其中包括差分隱私和基于聯(lián)邦學習的隱私保護。

差分隱私早在2006年就已提出,是人工智能系統(tǒng)隱私保護能力的一個量化指標,旨在提供一種當從統(tǒng)計數(shù)據(jù)庫查詢時,最大化數(shù)據(jù)查詢的準確性,同時最大限度減少識別其記錄的機會。

它通過對數(shù)據(jù)信息順序置換、添加噪聲等方式來防御攻擊。

聯(lián)邦學習技術(shù)于2015年提出,可在滿足用戶隱私保護、數(shù)據(jù)安全和法規(guī)的要求下,進行數(shù)據(jù)使用和機器學習建模。

聯(lián)邦學習通過將模型部署到用戶設(shè)備,各設(shè)備使用自己的私有數(shù)據(jù)計算模型參數(shù)的梯度,進而利用通過中央服務(wù)器進行融合后的數(shù)據(jù)來更新模型參數(shù)。

針對算法治理方面,賽迪智庫建議:

應(yīng)當探索建立算法應(yīng)用監(jiān)管制度體系,一是建立算法應(yīng)用影響評估制度,二是建立算法透明度制度,三是建立算法問責機制;

加強算法應(yīng)用的安全測試與監(jiān)測,一是組織開展算法應(yīng)用安全測試,二是利用大數(shù)據(jù)、人工智能等技術(shù)手段,加強對網(wǎng)絡(luò)平臺算法數(shù)據(jù)采集、運行、社會影響等方面的動態(tài)監(jiān)測,強化監(jiān)管;

依托行業(yè)組織強化企業(yè)算法倫理建設(shè),一是加快研究制定算法倫理規(guī)則,二是支持設(shè)立算法社區(qū)、行業(yè)聯(lián)盟等組織,指導企業(yè)建立內(nèi)部治理框架、控制機制和責任體系,防止算法濫用。

技術(shù)是把雙刃劍,算法的“原罪”背后,永遠是人。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論