人類對人工智能機器人的迷戀早已與恐懼融為一體。今天的人工智能(AI)比幾十年前任何人想象的都要復(fù)雜,它已經(jīng)以令人難以置信的方式影響著我們的生活—雖然機器人們還沒有開始反抗。谷歌首席執(zhí)行官曾表示,人工智能對人類的影響“比火或電將更深遠(yuǎn)”。
但就像火一樣,人工智能也可以燃燒我們。評估人類目前所處的現(xiàn)狀、技術(shù)的發(fā)展方向以及人工智能面臨的風(fēng)險。有很多值得慶祝的事情,也有很多值得恐懼的事情,還有更多關(guān)于人工智能如何與人類一起創(chuàng)造更美好世界的疑問。
美好愿景
人工智能生活服務(wù)機器人
生活。想象一下,機器人在你家周圍做飯、打掃衛(wèi)生和遛狗。他們載著你在城里轉(zhuǎn)悠,照顧生病的父母,教你的孩子上幼兒園,運送包裹,演奏你最喜歡的熱門歌曲……并與你發(fā)生性關(guān)系。你猜怎么著?許多這類機器人已經(jīng)面世,而且在未來幾年內(nèi)只會在類似人類的任務(wù)上變得更好。
工作。對于體力勞動,人工智能可以提高效率并減少成本。對于知識型工作,人工智能可以是一個強大的助手,幫助我們更好地完成工作,減少我們自己的認(rèn)知負(fù)擔(dān),讓我們有空去做更高層次的任務(wù)和更有趣、更有創(chuàng)意的事情。
輔助。超人類主義者—“半機器人”時代即將來臨—探索人與機器的共生關(guān)系,機器也許可以成為人類身體的一部分。例如,增強型仿生手臂來代替截肢,埃隆馬斯克甚至想將人腦與計算機融合以創(chuàng)造超級智能的生物。這些愿景并不遙遠(yuǎn),但到那個時候我們還是人類嗎?
推動。在新冠大流行和經(jīng)濟動蕩中,部分人工智能趨勢正在得到推動。例如,快餐連鎖店使用翻轉(zhuǎn)漢堡的機器人,以減少人類與食物的接觸。
智能威脅
“軍備競賽”。到2030年,預(yù)計俄羅斯三分之一的作戰(zhàn)能力將由人工智能驅(qū)動——包括能夠在飛行中改變目標(biāo)的人工智能制導(dǎo)導(dǎo)彈。以色列國防軍采用人工智能機器人對其控制的許多有爭議的地區(qū)進行遠(yuǎn)程巡邏,韓國軍隊也在與朝鮮接壤的非軍事區(qū)使用哨兵機器人。美國國防部已經(jīng)啟動了人工智能實驗室,意圖在人工智能領(lǐng)域依然領(lǐng)先于全球。但中國在人工智能方面似乎更有優(yōu)勢,已經(jīng)擁有龐大的人工智能科研團隊以及眾多科研成果。
“機器殺手”。超過100名人工智能專家寫信給聯(lián)合國,要求禁止使用致命的人工智能全自動武器——具備人工智能獨立行動能力的武器機器人。但是,美國和其他主要國家軍隊拒絕簽署反對人工智能全自動武器的條約就不難理解,為什么越來越多的專家學(xué)者對“惡意”人工智能越發(fā)的擔(dān)憂。雖然,目前不存在所謂的“殺手機器人”,但人工智能的進步使它們成為現(xiàn)實。專家表示,這些智能武器可能是繼火藥和核武器之后的“第三次戰(zhàn)爭革命”。
愛與機器人
血肉之罪。與許多技術(shù)進步一樣,人工智能性產(chǎn)業(yè)也在發(fā)展,智能性愛機器人正在進入市場(如果你有能力支付高達(dá)10000美元就可以買到一個——算法靈魂伴侶),但專家們正在對道德問題發(fā)出警告,有報道稱這些機器人可以被編程為重現(xiàn)強奸場景或模仿兒童。但兒童性愛機器人真的能防止未成年性犯罪嗎?
價值取向。你會和機器人發(fā)生性關(guān)系嗎?如果沒有,為什么不呢?如果有,你會設(shè)計你的機器人像誰?人工智能性愛機器人可不是僅僅與性有關(guān),許多專家認(rèn)為,隨著人類的進步,人類會愛上機器人同伴,部分原因是人類的大腦沒有能力解析這些情緒。事實上,越來越多的人會認(rèn)為自己是“雙物種戀者”——也愛機器人。
人體健康
令人難以置信的外科醫(yī)生。機器人輔助手術(shù)正變得越來越普遍。最近,Vicarious Surgical外科手術(shù)機器人獲得了美國食品和藥物管理局的認(rèn)可,由外科醫(yī)生在外部使用虛擬現(xiàn)實和微型機器人在人體體內(nèi)進行手術(shù)的顛覆性醫(yī)療設(shè)備。
診斷測試。雖然,放射科醫(yī)療設(shè)備輻射的危險性被夸大了,但人工智能在診斷方面變得越來越好。谷歌最近宣布,其人工智能系統(tǒng)在診斷乳腺癌方面已經(jīng)優(yōu)于人類。機器診斷是另一個大流行趨勢,因為快速識別如冠狀病毒等傳染病暴發(fā)是生死攸關(guān)的問題。
現(xiàn)實問題
人工智能的偏見取決于創(chuàng)造者
目前在許多領(lǐng)域,人工智能還沒有達(dá)到宣傳的效果,預(yù)測過于樂觀。例如,全自動駕駛汽車仍僅用于某些試驗項目。人工智能的好壞取決于它的創(chuàng)造者!例如,以下是美國國防人工智能中心主任的一句話“我們有責(zé)任讓美國人民和軍人采用反映我們國家自由社會價值觀的人工智能原則”。由于文化價值的差異以及人工智能的倫理原則也尚未統(tǒng)一,人工智能的廣泛應(yīng)用往往會加劇種族偏見等問題。