為什么物聯(lián)網應該成為“透明的互聯(lián)網”

信息新報
大多數算法的計算速度和復雜性都妨礙了有效的人工審查。他們在一個黑匣子里工作。最重要的是,大多數物聯(lián)網應用算法都是專有的,并在雙黑匣子中運行。如果結果是積極的,那么這種現(xiàn)狀可能是可以接受的,并且算法沒有危害。不幸的是,情況并非總是如此。

1.jpg

算法對于物聯(lián)網至關重要。

聯(lián)網設備自動駕駛我們的汽車;控制我們家的光、熱和安全;并為我們購物??纱┐髟O備監(jiān)測我們的心率和氧氣水平,告訴我們什么時候起床以及如何走動,并詳細記錄我們的行蹤。智能城市由大量物聯(lián)網設備和應用程序提供支持,通過指揮交通、衛(wèi)生、公共管理和安全來控制全球數百萬人的生活。如果沒有算法,物聯(lián)網在我們日常生活中的影響力是不可想象的,但我們對算法功能、邏輯和安全性了解多少?

大多數算法的計算速度和復雜性都妨礙了有效的人工審查。他們在一個黑匣子里工作。最重要的是,大多數物聯(lián)網應用算法都是專有的,并在雙黑匣子中運行。如果結果是積極的,那么這種現(xiàn)狀可能是可以接受的,并且算法沒有危害。不幸的是,情況并非總是如此。

當黑匣子算法出錯并造成物質、物理、社會或經濟損害時,它們也會損害物聯(lián)網運動。這些錯誤削弱了該行業(yè)確保更廣泛采用智能設備所需的社會和政治信任,這是推動該領域向前發(fā)展的關鍵。

不透明的算法可能代價高昂,甚至是致命的

黑盒算法可能會導致重大的現(xiàn)實世界問題。例如,加利福尼亞州優(yōu)勝美地山谷有一段不起眼的道路,一直讓自動駕駛汽車感到困惑,目前,我們仍然沒有答案。開闊的道路自然充滿了風險和危險,但你自己的家呢?智能助手可以傾聽您的聲音,并滿足您在購物、供暖、安全以及幾乎任何其他適合自動化的家庭功能方面的愿望和命令。然而,當智能助手開始裝傻,不聽你,而是聽電視時會發(fā)生什么?

網上流傳著一則關于許多智能家居助理發(fā)起不想要的網上購物的軼事,因為圣地亞哥CW6新聞的主持人吉姆·巴頓(Jim Patton)說出了這句話:“Alexa給我訂了一個玩具屋。”這是否以如此大規(guī)模發(fā)生是無關緊要的。真正的問題是玩具屋事件聽起來很有道理,并且再次引發(fā)了人們對物聯(lián)網設備內部運作的懷疑,我們將日常生活、舒適性和安全性委托給了這些設備。

從物聯(lián)網的角度來看,此類事件的無形損害是相當大的。當一輛自動駕駛汽車出現(xiàn)故障時,所有自動駕駛汽車的聲譽都會受到影響。當一位智能家居助理做出愚蠢的事情時,所有智能家居助理的智能都會受到質疑。

房間里的數據大象

每次算法做出錯誤決定時,其提供者都會承諾進行徹底調查并迅速糾正。然而,由于所有這些算法的專有性、營利性,當局和公眾無法驗證發(fā)生了哪些改進。最后,我們必須相信公司的話。屢次犯錯使這成為一個困難的問題。

公司不披露其算法內部運作的一個主要原因——在他們可以理解的范圍內——是他們不想展示他們使用我們的數據進行的所有操作。自動駕駛汽車會記錄每次旅行的詳細日志。家庭助理跟蹤房子周圍的活動;記錄溫度、光線和音量設置;并保持不斷更新的購物清單。所有這些個人身份信息都是集中收集的,讓算法學習并將信息傳輸到目標廣告、詳細的消費者檔案、行為推動和徹頭徹尾的操縱中。

回想一下,劍橋分析公司(Cambridge Analytica)將8700萬毫無戒心的用戶的社交媒體檔案信息有效地武裝起來,誤導選民,并有助于扭轉整個美國總統(tǒng)選舉的局面。如果你的朋友列表和一些在線討論小組足以讓一個算法確定影響你的信念和行為的最佳方式,那么你的心率、運動和睡眠模式的詳細記錄可以實現(xiàn)什么樣的更深層次和更強的操縱?

向“透明互聯(lián)網”的過渡。

最緊迫的重點應該是讓算法做什么更容易理解和透明。為了最大化信任并消除算法不透明的不利影響,物聯(lián)網需要成為“透明的互聯(lián)網”。該行業(yè)可以通過將AI與集中式數據收集分離并盡可能多地開源算法來創(chuàng)造透明度。蒙面聯(lián)邦學習和邊緣人工智能等技術使這些積極的步驟成為可能。我們需要有追求它們的意愿。這并不容易,一些大型科技公司不會不戰(zhàn)而降,但我們都會在另一邊過得更好。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論