電影《我,機器人》中的場景,機器人走上街頭
本文來自微信公眾號,作者丨特約撰稿/李佳師,編輯丨邱江勇,美編丨馬利亞,監(jiān)制丨趙晨。
眼下,ChatGPT爆火、AIGC(人工智能生成內容)快速突破,引發(fā)全球對人工智能(AI)安全性前所有未有的擔憂。
三月的最后一天,身處漩渦中的OpenAI創(chuàng)始人兼首席執(zhí)行官山姆·阿爾特曼(Sam Altman)公布自己5月和6月的旅行計劃。他將前往歐洲主要城市以及迪拜、新德里、新加坡、雅加達、首爾、東京、墨爾本,除了與當?shù)豋pen AI用戶與開發(fā)者進行交流外,他還希望在一些城市與政策制定者進行會晤,以找到解除人類對于AI利用憂慮的答案。
目前,馬斯克聯(lián)手權威人士叫停GPT-4以上模型開發(fā)的簽名規(guī)模,已從千人上升到數(shù)萬人;歐盟和美國消費者權益保護組織呼吁對Open AI進行調查并設施更嚴格的監(jiān)管;CAIDP(非營利組織人工智能與數(shù)字政策中心)要求聯(lián)邦貿易委員會(FTC)停止ChatGPT的商業(yè)部署,并在未來推出任何模型之前獨立評估模型;意大利宣布封禁使用ChatGPT;頂級投資公司SV Angel,將在4月中旬召集OpenAI、微軟、谷歌、蘋果、英偉達等公司,探討制定使用AI技術的標準。
是讓AI繼續(xù)野蠻生長,還是先找到更好的AI“剎車系統(tǒng)”和“安全帶”再繼續(xù)上路,引發(fā)全球大爭論。
與此同時,各國開始實施對于包括AIGC在內的AI更嚴格的監(jiān)管。4月11日,中國互聯(lián)網信息辦公室就《生成式人工智能服務管理辦法(征求意見稿)》公開征求意見。同一天,美國商務部正式就ChatGPT等AI工具進行審查問責措施公開征求意見,包括新AI模型在發(fā)布前是否應該通過認證程序等問題。
AI越來越強,人類擔憂什么?
AI的潘多拉魔盒終于要被打開,從實驗室逃出的AI,引發(fā)全球前所未有的失控擔憂。
Meta副總裁兼首席AI科學家、圖靈獎獲得者揚立昆(Yann LeCun)認為,目前人們對于AI的憂慮和恐懼,主要分為兩類:一是與未來有關,擔心AI未來會不受控制,逃離實驗室,最終控制人類。二是與現(xiàn)實有關,AI在公平、偏見上的缺陷會對社會與經濟造成沖擊。
關于AI是否會逃出實驗室,控制、統(tǒng)治人類,最近揚立昆與斯坦福大學人工智能實驗室主任吳恩達(Andrew Ng)進行了一場公開直播對話,吳恩達給出的答案是,他沒有看到今天的AI有任何逃出實驗室的風險,至少要幾十年甚至幾百年才有可能。而揚立昆認為,讓AI在一個特定硬件平臺上保持運行都很難。言下之意,AI并無威脅和控制人類的能力。
北京郵電大學教授、人機交互與認知工程實驗室主任劉偉更愿意將今天以GPT為代表的AIGC視為“線頭握在人類手中的風箏”。“GPT是一種高級自動化、像‘人’的東西。而AI真正要產生突破的是獨立性、自主性,GPT沒有自主性,它依舊被人類編程操作,它更像是一個‘風箏’被手中有線的人類操控。”劉偉說。
雖然大部分專家都認為,讓AI真正擁有超越人類的能力,有控制人類的能力,實現(xiàn)真正的AGI(通用人工智能)依然漫長。但人們依然擔憂未來,在經典科幻電影《我,機器人》(I,Robot)中,機器人具有自我進化能力,轉化成了人類的“機械公敵”,制造者和被制造者展開了戰(zhàn)爭。
未來看似遙遠,但眼下AIGC所帶來的現(xiàn)實沖擊,已經足以令全社會震驚。
藍色光標網站頁面
一是AICG讓很多人丟了飯碗。4月12日,知名廣告及公關服務商藍色光標管理層下發(fā)郵件,稱公司將全面擁抱AIGC,決定無期限全面停止創(chuàng)意設計、方案撰寫、文案撰寫、短期雇員四類相關外包支出。
藍色光標停止創(chuàng)意外包采購,證實了OpenAI公司的判斷。3月中旬OpenAI發(fā)布《GPT是GPT:大型語言模型對勞動力市場潛在影響的早期觀察》調研報告。報告顯示,8成勞動人口將受到ChatGPT影響,而且是學歷收入越高越危險。另據(jù)就業(yè)服務平臺Resume Builder調查統(tǒng)計,在1000多家受訪美國企業(yè)中,用ChatGPT取代部分員工的比例已達到48%。按照高盛的研究分析,AIGC將改變全球約3億個工作崗位,導致數(shù)千萬人失業(yè)。微軟CEO薩提亞·納德拉說:“AIGC技術是知識工作者的工業(yè)革命。”
二是出現(xiàn)一系列新安全挑戰(zhàn)。網絡安全領域專家劉杰將AIGC引發(fā)的安全挑戰(zhàn)概括為兩類:一類是蓄意制造的,另一類是意外遺留的。
從蓄意制造的角度看,隨著AIGC技術的發(fā)展,不實證據(jù)的制作變得越來越容易,惡意分子可能利用AIGC技術制作、傳播深度偽造內容和其他虛假信息,進行AI詐騙、誹謗、假冒身份等新型違法犯罪活動。
“有圖就有真相“的時代就有可能從此瓦解,帶來的結果是社會的信任度下降,威脅個人的隱私和安全。
歐洲刑警組織在最新科技報告中指出,ChatGPT等AI驅動的聊天機器人或被濫用于發(fā)動網絡釣魚攻擊、散布虛假信息和實施網絡犯罪。此外,由于其有能力復制語言模式,可冒充特定個人或團體的講話風格,該聊天機器人或被犯罪分子用來鎖定受害者。
從意外遺留的角度看,“AIGC本身面臨的風險有以下幾方面:首先,AIGC訓練數(shù)據(jù)集的質量會影響到模型的性能;其次,數(shù)據(jù)毒化的問題,通過在訓練的數(shù)據(jù)集里面加入少量被攻擊者精心構造的有毒數(shù)據(jù),從而破壞模型的可用性、完整性甚至泛化性;最后,算法選取不當帶來的風險。“劉杰說。
天壤智能創(chuàng)始人薛貴榮也談到了“模型自身的不確定性和不可控性”。GPT-4已經是人類世界到目前為止最復雜的AI系統(tǒng)。整合了語言、視覺等多模態(tài)能力,多模態(tài)之間會互相加強并且迭代,最后迭代到什么高度是人類無法預知的。能力越強,風險就越大。最近AI似乎開始有走向自主化的趨勢,國外已經有團隊利用GPT-4進行科研,卡耐基梅隆大學化學系做了一個可以做研究又會做實驗的AI系統(tǒng),AI表現(xiàn)出很強的邏輯推理分析能力。中國科學院計算技術研究所研究員包云崗認為,GPT-4的知識體系中存在“污點知識”。也許這些“污點知識”在整個GPT-4大模型中的占比還不高,這些“污點”對于一些應用場景也許并不重要,比如生成一個團建活動方案或一個報告提綱等,但是對于一些需要精準答案的場景,確實是不可接受的。如何清理ChatGPT系列大模型中現(xiàn)有的“污點知識”,將是未來所面臨的挑戰(zhàn)之一。
“ChatGPT對話涉及用戶很多個人隱私信息,比如個人資料、電話地址、公司信息、財務信息、醫(yī)療信息等,這類用戶人信息被泄漏和不正當操縱,會造成比較大面積的公共安全威脅。”薛貴榮說。
事實如此,今年3月下旬,三星半導體剛引入ChatGPT不到20天,即發(fā)生了3起機密數(shù)據(jù)泄漏事件,涉及三星半導體設備測量資料、產品良率等信息。
三是對教育、組織結構,社會倫理等都將產生新的沖擊。
“AIGC出現(xiàn)后,學生作弊現(xiàn)象層出不窮,AIGC的出現(xiàn)顛覆了傳統(tǒng)教育,在之前的教育關系中,學習者的信息是遠遠低于教學者的,但是現(xiàn)在AI出現(xiàn),讓每個學習者都有無限的信息量。教育關系發(fā)生了變化。”LEAPS國際研究中心的創(chuàng)始人Joey Lin認為。
“AIGC的快速突破,智能的大量擴散,當每一個人都是專家,每一個人都是一個特種兵的時候,原來以班長、排長、連長、團長組成的靜態(tài)樹狀組織結構,就很難滿足企業(yè)、社會的發(fā)展需求。公司的結構、社會的組織結構就需要發(fā)生變化。”瀾碼科技創(chuàng)始人、CEO周健表示,目前看,GTP-3的智能略低于人類,GTP-4的智能與人類相當,GPT-5的能力有可能超越人類,當全社會都可以用極低的成本獲得智能以后,原來公司的治理架構就無法適應了。
構建AI的緩沖帶
中國的《生成式人工智能服務管理辦法(征求意見稿)》與美國商務部的AI工具審查問責措施公開征求意見稿,都對AIGC的信息安全、數(shù)據(jù)合規(guī)、版權保護等一系列熱點問題進行了規(guī)范,畫出了紅線,釋放出技術發(fā)展與安全合規(guī)同步推進的信號。
與前幾次工業(yè)革命不同,AIGC不僅僅是一個工具,作為一個新的智能體,其對于整個社會的影響超出想象,我們需要從更大的維度做更多深層次的思考,來構建緩沖帶。
一是關于就業(yè)。這一次AIGC引發(fā)的產業(yè)轉型以海嘯般的速度襲來,其帶來的就業(yè)沖擊讓人類措手不及,人類應該怎么辦?
電影《我,機器人》場景,機器人走進千家萬戶
“三五年之內一定會有人因此失業(yè),如果不做好準備,可能會引發(fā)社會的不穩(wěn)定。”周健認為,應對未來AI帶來的就業(yè)沖擊,管理部門需要建立緩沖帶,設立緩沖期。一方面,征收人工智能、機器人稅。因為人工智能、自動化機器的出現(xiàn),造成了人力的貶值和失業(yè),可以通過收稅的方式進行調節(jié)。征收機器人稅既可以彌補因為勞工減少造成的個人所得稅收損失,同時這些稅收又可以用來重新培訓和儲備被人工智能、機器人取代的勞工,使其能夠二度就業(yè)。另一方面,創(chuàng)造更多的新就業(yè)機會。創(chuàng)造就業(yè)的增量市場是解決就業(yè)存量市場問題的良策,新技術催生產業(yè)變革,一定會帶來大量新產業(yè)就業(yè)崗位。
幾年前微軟創(chuàng)始人比爾·蓋茨就對于向機器人征稅投了贊成票:“機器人取代了部分人的勞動,導致部分人失業(yè),應當通過征稅來補償那些因此失業(yè)的人。”
“新技術的出現(xiàn)總會讓曾經的工作消失,但也會逐漸演化出新的職業(yè),并促使經濟更高質量發(fā)展,就業(yè)結構更加合理。”阿里研究院數(shù)字財稅研究中心主任張凌霄認為。
得到APP創(chuàng)始人羅振宇認為,被沖擊得越厲害的地方,新機會就越多。被替代的崗位越多的地方,誕生的新崗位也越多。“以行而求知”的任務式學習,將成為終身學習的主流。如果人工智能鋪設的學習基礎設施足夠發(fā)達,學習者面對的現(xiàn)實挑戰(zhàn),才是學習行為的起點。
“未來大家要學習怎么和機器共事,社會要加強個人對AI的教育和學習,AI快速發(fā)展會催生類似人工智能培訓師等很多新的職業(yè)需求,設計、機器人、生命科學、環(huán)境、能源等所有垂直領域都將迎來創(chuàng)新蓬勃發(fā)展的新局面。”薛貴榮說。
二是關于人機共存。面對飛馳前行的AI如何為之配置剎車系統(tǒng)?“嚴格謹慎的控制AI決策邊界,尤其是和物理世界的直接交互。AI系統(tǒng)應在特定領域和任務范圍內輔助人類,而非替代人類的決策、情感和道德判斷。確保人類始終是決策的核心,從而避免對AI系統(tǒng)產生過度依賴和失控的風險。”金山辦公軟件全球業(yè)務副總經理張寧表示。
AI與物理世界直接的直接交互,是目前業(yè)界擔憂點之一,周健表示,現(xiàn)在看來,AIGC的生命只存在于對話框,但是當AI與物理世界交互,那么AI的價值觀就成為至關重要的“控制閥”。
如果有一天AI的智能超越了人類,成為比人類更高級的智能體,它會消滅人類嗎?它如何與人類共存,我們應對如何面對?機器人還會遵循阿西莫夫在上世紀《我,機器人》中提出的機器人三大定律嗎?
谷歌與斯坦福構建的虛擬小鎮(zhèn)人物
或許機器人三大定律再無法“框住”和“定義”機器人的世界,周健認為機器智能的進化正在接近一個新的奇點,機器人與人類的共生、共存需要更本源的倫理探索。最近斯坦福、谷歌的研究者們利用生成式AI構建了一個“虛擬小鎮(zhèn)”,創(chuàng)造了25個AI智能體在小鎮(zhèn)上生存,機器人能夠像人類一樣生活、工作、社交,去復刻人類社會的方方面面,這樣的探索或許能摸索到人與機器共存的法則。
未來將是人機共存的世界。最近出來進行AIGC創(chuàng)業(yè)的搜狗CEO王小川說:“我們正在創(chuàng)造一種新的生命,它和石頭、蒸汽機、電腦的出現(xiàn)都不一樣,以前都是工具,但AGI(通用人工智能)不是工具了——它是你的伙伴,新的朋友,是人類進化的下一個階段。”
當AI向AGI加速推進,越來越多的觀點認同AI將成為新的智能化生命體。香港科技大學首席副校長、歐洲科學院院士郭毅可認為,當我們不斷強化“程序”智力的時候,我們更應當反問自己,人類如何在這樣一個越來越強大的智能系統(tǒng)的交互中不斷地進化自己,使我們變得更為聰明、更為豐富、更加強大,使得我們能夠在這樣一個知識生產的產業(yè)革命的新時代中,真正成為主宰者,從而創(chuàng)造一個嶄新的人類社會。
“如果以AI為代表的硅基生命體是比人類更先進的智能體,那么人類應該有更大的視野,擯棄以人為中心,擁抱地球中心論。”周健認為人類利用AI應該有更宏大的視野,做好短期、中期和長期的準備,以此來建立AI利用的剎車系統(tǒng)。
”希望一百年后回頭看,今天人類沒有走錯這一步。”張寧說。