機器人和人工智能將在我們的日常生活中發(fā)揮更大的影響。
在20世紀90年代中期,斯坦福大學進行的一項研究改變了我們對計算機的看法。媒體方程實驗很簡單:參與者被要求與一臺表現(xiàn)出社交行為的電腦互動幾分鐘,之后,他們被要求就互動給出反饋。
參與者要么在他們剛剛工作過的同一臺電腦(1號)上,要么在房間另一頭的另一臺電腦(2號)上提供反饋。研究發(fā)現(xiàn),在2號電腦上回答問題的參與者比在同一臺電腦上回答問題的參與者對1號電腦要挑剔得多。
在第一臺電腦上做出回應的人似乎不想當著電腦的面?zhèn)λ母星?,但卻可以在它背后談論它。這種現(xiàn)象后來被稱為“計算機作為社會行為者”(CASA)范例,因為它表明,人們天生就會對表現(xiàn)出模糊社會性的技術(shù)做出社會反應。
CASA現(xiàn)象還在繼續(xù)被探索,特別是隨著我們的技術(shù)變得更加社會化。作為一名研究人員、講師和機器人愛好者,我在工作中觀察到這一現(xiàn)象,每當有人感謝一個機器人,給它指定一個性別,或試圖用人類或擬人化的理論為它的行為辯護時。
我在研究中看到的是,雖然很少有人會誤以為機器人是人,但我們傾向于順從它們,就像我們會順從另一個人一樣。
社會趨勢
雖然這聽起來像是《黑鏡》的開頭,但正是這種傾向讓我們能夠享受與機器人的社交互動,并將它們置于照顧者、合作者或同伴的角色中。
把機器人當作人一樣對待的積極方面正是機器人專家將其設計成這樣的原因——我們喜歡與人互動。隨著這些技術(shù)變得更像人類,它們也變得更有能力影響我們。然而,如果我們繼續(xù)遵循目前機器人和人工智能部署的道路,這些技術(shù)可能會出現(xiàn)反烏托邦而不是烏托邦。
由漢森機器人公司制造的索菲亞機器人出現(xiàn)在了《60分鐘》節(jié)目中,并獲得了沙特阿拉伯的榮譽公民身份,還獲得了聯(lián)合國的頭銜,并正在與演員威爾·史密斯約會。雖然索菲亞無疑突出了許多技術(shù)進步,很少超過漢森的成就在營銷。如果索菲亞真的是一個人,我們會承認她是一個影響者。
然而,比機器人或人工智能作為反社會分子——目標導向,沒有道德或人類判斷——更糟糕的是,這些技術(shù)成為對任何組織或個人控制它們的大眾影響力工具。
如果你認為劍橋分析公司(Cambridge Analytica)的丑聞很糟糕,那么想象一下,如果Facebook的影響力算法有一張與人類相似的臉,它們會做些什么?;蛘咭磺埬??;蛞话偃f年。說服性技術(shù)的真正價值不在于它冷冰冰的、經(jīng)過計算的效率,而在于它的規(guī)模。
能看穿意圖
最近科技界的丑聞和曝光讓我們許多人對這些企業(yè)巨頭感到無助。幸運的是,這些問題中的許多都可以通過透明度來解決。
有些基本問題對社交技術(shù)的回答很重要,因為當我們與另一個人互動時,我們希望得到相同的答案,盡管往往是含蓄的。誰擁有或設定這項技術(shù)的授權(quán)?它的目標是什么?它可以使用什么方法?它可以訪問什么數(shù)據(jù)?
由于機器人可能很快就有潛力利用超人的能力,執(zhí)行看不見的主人的意愿,而無需通過語言或非語言線索來揭示它們的意圖,我們必須要求這些類型的問題得到明確的回答。
作為一名機器人專家,我經(jīng)常被問到:“機器人什么時候會接管世界?”以至于我得出了一個老套的答案:“只要我讓他們?nèi)プ觥?rdquo;然而,我的笑話有一個重要的教訓:不要把人類做的決定當作機器的替罪羊。
我認為自己是機器人的同情者,因為我認為機器人因為人類的許多決定和錯誤而受到不公平的指責。重要的是,我們要定期提醒自己,機器人不是你的朋友,不是你的敵人,或介于兩者之間的任何東西。機器人是一種工具,由人使用(不管距離多遠),并越來越多地用來影響我們。