ChatGPT引發(fā)的AI監(jiān)管問題思考與建議

楊慶豐、鄒昭、施宇
ChatGPT擁有強大的語言理解和文本生成能力,能很好地支持聊天對話、代碼撰寫、文案創(chuàng)作等任務,被稱為迄今為止最先進的自然語言處理工具之一。

360截圖16251112669372.png

本文來自微信公眾號“天翼智庫”,作者/楊慶豐、鄒昭、施宇。

ChatGPT3.5推動AI從被動執(zhí)行指令進入主動理解和生成的新發(fā)展階段,似乎讓我們看到了從“弱人工智能”跨向“強人工智能”的曙光,AI奇點時刻近在眼前。面臨AI新紀元,全球科技巨頭紛紛布局,積極擁抱新的智能時代。然而,如同曾經(jīng)的互聯(lián)網(wǎng)時代一樣,此時的AI時代同樣面臨著諸多風險,包括數(shù)據(jù)隱私和安全、版權保護等風險。特別是進入強人工智能時代,社會倫理道德風險將會更加突出,它可能比我們以前任何一個技術革命時代所面臨的風險都強烈和復雜。然而,未來已來,將至已至,以變應變方為上策。建議監(jiān)管機構以包容審慎的監(jiān)管理念,在既有監(jiān)管體系下積極監(jiān)控新風險,管控固有風險,營造良好的AI產(chǎn)業(yè)政策環(huán)境,讓完善的監(jiān)管體系助力AI騰飛,在全球高科技競爭中取得領先地位。

ChatGPT3.5開創(chuàng)AI新紀元,

成為全球性關注熱點

ChatGPT擁有強大的語言理解和文本生成能力,能很好地支持聊天對話、代碼撰寫、文案創(chuàng)作等任務,被稱為迄今為止最先進的自然語言處理工具之一。

•CNBC報道,谷歌認為ChatGPT在面試谷歌L3級別工程師的職位時會被成功錄用,這代表著ChatGPT已經(jīng)擁有了L3級工程師的代碼能力。

•發(fā)表在《公共科學圖書館·數(shù)字健康》雜志上的一項研究顯示,ChatGPT能夠在美國醫(yī)學執(zhí)照考試(USMLE)中達到或接近60%的通過門檻。

•360周鴻祎認為ChatGPT是強人工智能的拐點,有可能成為新時代的操作系統(tǒng),成為數(shù)字化的“發(fā)電廠”,以SaaS服務的方式接入到千行百業(yè),所有數(shù)字化系統(tǒng)和各個行業(yè)都值得用ChatGPT重做一遍。

•雷軍認為機器人產(chǎn)業(yè)正值升級換代、跨越發(fā)展的窗口機遇期,其中仿生人形機器人將有力帶動新一代信息技術、高端制造、新能源、新材料等產(chǎn)業(yè)集聚發(fā)展,成為社會經(jīng)濟發(fā)展和國際科技競爭的戰(zhàn)略制高點。

•馬斯克認為ChatGPT非常好,我們離危險的強大人工智能不遠了,并預測未來AI人形機器人的數(shù)量會超過人類。

•比爾·蓋茨認為ChatGPT和個人電腦、互聯(lián)網(wǎng)的出現(xiàn)一樣重要,人工智能將是這十年中最大的事情,將改變我們的世界,未來人人都將擁有一個AI助理,科技巨頭各自為營提供服務的藩籬將被打破,谷歌占據(jù)搜索,亞馬遜占據(jù)購物,微軟占據(jù)辦公服務,而蘋果幾乎擁有蘋果設備上的一切。但是一旦你有了個人助理,就會把這些獨立的市場整合成一個個人助理,它可以在各種設備上幫助我購物、做計劃、撰寫文件。

全球進入新一輪以AI為核心的科技競賽,眾多大型科技巨頭紛紛加大AI布局力度,推出類似ChatGPT的競品。

•谷歌基于自己開發(fā)的大模型LaMDA,推出對標ChatGPT的對話機器人Bard,參數(shù)量最高達1370億,在多個維度接近人類水平。

•微軟表示未來所有產(chǎn)品將全線整合ChatGPT,目前已推出引入ChatGPT技術的搜索引擎New Bing。

•百度計劃3月將推出聊天機器人“文心一言”(ERNIE Bot),目前生態(tài)合作伙伴近300家。

•京東云旗下言犀人工智能應用平臺宣布將推出產(chǎn)業(yè)版ChatGPT:ChatJD。

面對這一波AI躁動,有人將ChatGPT(基于GPT3.5模型)視為又一個“iPhone時刻”,其本質(zhì)就是一次重要的商業(yè)變革。還有人認為ChatGPT這種生成式AI是新的通用技術(GPT—general purpose technology),類比蒸汽、電力、計算機的劃時代地位,將會引發(fā)新一輪生產(chǎn)力革命。我們認為,ChatGPT會實現(xiàn)多種可能,是人工智能發(fā)展史上的劃時代產(chǎn)品,它可能助推人工智能跨過“弱人工智能”進入“強人工智能”階段,開創(chuàng)AI新紀元,也許不久的未來,意識上傳已經(jīng)悄然開始,文明延續(xù)也許有了新的路徑。

ChatGPT作為新生事物

引發(fā)諸多風險

ChatGPT作為一款先進的聊天機器人,在為人們帶來更便捷的生活和工作方式的同時,也引發(fā)了一系列問題。ChatGPT從數(shù)據(jù)獲取、匯聚、加工處理到運算結(jié)果輸出的全流程中各個環(huán)節(jié)都存在數(shù)據(jù)安全及法律風險問題,這些問題包括既包括原有互聯(lián)網(wǎng)及弱人工智能時代存在的數(shù)據(jù)隱私和安全、版權保護等問題,也帶來強人工智能引發(fā)的社會倫理道德新風險。

一、互聯(lián)網(wǎng)固有的風險

1.數(shù)據(jù)隱私和安全風險

ChatGPT強大的功能對黑客具有很大吸引力,不法分子對ChatGPT的惡意利用會帶來數(shù)據(jù)隱私、釣魚郵件,惡意軟件、身份盜用等網(wǎng)信安全問題。

一是在企業(yè)數(shù)據(jù)隱私方面,企業(yè)員工在使用ChatGPT輔助工作時,可能會泄露敏感數(shù)據(jù)、商業(yè)秘密甚至是機密信息,而數(shù)據(jù)一旦輸入,就會被收集和使用,不能刪除和修改,導致ChatGPT可能會獲取到企業(yè)從未公開披露的機密。亞馬遜的公司律師稱,他們在ChatGPT生成的內(nèi)容中發(fā)現(xiàn)了與公司機密“非常相似”的文本,可能是由于員工在使用ChatGPT生成代碼和文本時輸入了公司內(nèi)部數(shù)據(jù)信息。埃森哲、微軟、摩根大通等企業(yè)已警告其員工不要與ChatGPT等聊天機器人分享機密信息。

二是個人數(shù)據(jù)隱私方面,在與ChatGPT聊天的過程中,ChatGPT通過用戶輸入的信息,收集和分析用戶的語言數(shù)據(jù),這些語言數(shù)據(jù)包含用戶的興趣愛好、思想傾向、生活習慣等隱私信息。如果這些信息被不當使用或泄露,將會對用戶的隱私造成嚴重威脅。同時,ChatGPT使用了RLHF的訓練方法,這意味著用戶使用過程中的交互信息可能會用于其持續(xù)迭代訓練,因此用戶的輸入信息可能被用于為其他用戶提供服務,構成不合規(guī)的數(shù)據(jù)共享問題。

三是ChatGPT的自然語言生成功能可以被用于創(chuàng)建釣魚郵件。ChatGPT可以非常真實流暢的模仿人類寫作,且基本沒有拼寫和語法錯誤。黑客可以利用ChatGPT的這一特點來創(chuàng)建偽造的網(wǎng)站、郵件和消息,模擬真實的企業(yè)或機構,從而誘騙用戶提供敏感信息。安全機構Check Point Research在近期發(fā)表的報告中表示已經(jīng)在地下論壇發(fā)現(xiàn)有黑客試圖繞過限制將ChatGPT用于生成釣魚郵件等內(nèi)容的行為。

四是ChatGPT降低了惡意軟件的開發(fā)門檻。借助ChatGPT,黑客甚至不需要編碼就可以生成一個惡意軟件的數(shù)十萬次迭代。ChatGPT極大地降低了黑客的技術能力門檻,從一定程度上加速惡意軟件的開發(fā),提高漏洞利用的可能性和速度。據(jù)報道,美國網(wǎng)絡安全公司Recorded Future在暗網(wǎng)的不同論壇中,發(fā)現(xiàn)了15000多份以ChatGPT為基礎,解釋如何開發(fā)相應的惡意軟件的參考資料。

五是ChatGPT提高了網(wǎng)絡防御的難度。借助ChatGPT,黑客能夠能開發(fā)出安全人員極難識別的惡意軟件,提高網(wǎng)絡攻擊的有效性。CyberArk的研究結(jié)果顯示,ChatGPT可以生成多態(tài)惡意軟件,同時可用于以高級方式幫助惡意軟件程序開發(fā),包括利用開源存儲庫中發(fā)現(xiàn)的惡意軟件代碼訓練ChatGPT,以生成該代碼的獨特變體,從而逃避反病毒檢測機制。

六是ChatGPT增加了身份盜用風險。不法分子可以利用ChatGPT強大的類人說話和行為方式模仿、自然語言編寫能力,冒充真實的人或者組織騙取他人信息、實施身份盜用等,進一步助長網(wǎng)絡詐騙等違法犯罪行為的發(fā)生。

2.版權保護問題

ChatGPT主要依賴現(xiàn)有素材,可能產(chǎn)生版權糾紛問題,同時生成內(nèi)容版權的認定也存在爭議。ChatGPT可以被用來生成各種類型的文本內(nèi)容,如論文、小說等,其中包括受到著作權法保護的作品。然而,如果這些內(nèi)容沒有經(jīng)過權利主體的授權就被使用或傳播,極可能侵害他人的著作權。目前ChatGPT已經(jīng)遭到了教育系統(tǒng)不同程度的“封殺”,多國學生被禁止使用ChatGPT,一些期刊不接受任何大型語言模型工具單獨或聯(lián)合署名。香港大學向其師生發(fā)出內(nèi)部郵件,表明禁止在港大所有課堂、作業(yè)和評估中使用ChatGPT或其他AI工具,否則將被校方視為剽竊?!遏吣蠈W報(哲學社會科學版)》在關于使用人工智能寫作工具的說明提到,暫不接受ChatGPT等任何大型語言模型工具單獨或聯(lián)合署名的文章。

二、“強”人工智能引發(fā)的新風險

ChatGPT雖然還稱不上是“強人工智能”,其具有強大的主動理解和內(nèi)容生產(chǎn)能力,將會給社會帶來違法違規(guī)、社會規(guī)范失序和倫理道德新風險。

一是ChatGPT可能會出現(xiàn)無法預測的行為,甚至可能與人類的價值觀相違背。據(jù)外媒報道,一位名叫扎克·德納姆(Zac Denham)的博主曾嘗試讓ChatGPT寫出了一套毀滅人類的方案,最終給出了步驟細節(jié),包括入侵各國計算機系統(tǒng)、控制武器、破壞通信和交通系統(tǒng)等,甚至生成了相應的代碼。

360截圖16251112669372.png

圖1 ChatGPT聊天對話截圖

二是ChatGPT可能形成“錯誤權威”,存在誤導大眾的嫌疑,在回答非公開內(nèi)容或抽象概念時,ChatGPT提供的答案看起來十分具有邏輯性但無法提供信息來源和渠道,難以判斷其內(nèi)容準確性。近期,杭州某小區(qū)業(yè)主嘗試用ChatGPT撰寫杭州取消限行的新聞稿,并把ChatGPT編造的不實新聞在微信群中傳播,造成了一定的不良社會影響。

三是ChatGPT可能會替代人類的工作、決策和管理,從而對社會產(chǎn)生深遠的影響。ChatGPT會在一定程度上取代人工勞動力,導致人工勞動力需求的降低。與傳統(tǒng)人工智能產(chǎn)品不同,ChatGPT等生成式AI表現(xiàn)出了更強的創(chuàng)造性,使得人工智能從人類的輔助工具轉(zhuǎn)變?yōu)槁殬I(yè)競爭者。ChatGPT有著更強大的計算與分析能力,可能會重塑人類勞動形式。如果不能有效平衡技術的發(fā)展與人類的福祉,甚至可能引發(fā)新一輪的“盧德運動”。創(chuàng)新工場創(chuàng)始人李開復曾表示,以ChatGPT為代表的人工智能技術,將代替越來越多人的工作,或引起失業(yè)恐慌。

四是ChatGPT可能會存在偏見與歧視,使社會不公現(xiàn)象更加嚴重。ChatGPT的訓練數(shù)據(jù)中存在的偏見會導致生成的回答或建議也存在偏見和歧視,嚴重影響未成年人或不具有判斷能力的人。此類偏見數(shù)據(jù)包括性別、種族、宗教信仰、文化背景、性取向等多個方面,會對用戶造成傷害甚至加劇社會不平等現(xiàn)象。盡管數(shù)據(jù)清洗者可以過濾出大部分偏執(zhí)的內(nèi)容,但仍然無法保證ChatGPT的數(shù)據(jù)集是完全公正、客觀和中立。

以包容審慎的監(jiān)管理念

營造良好AI產(chǎn)業(yè)政策環(huán)境

針對ChatGPT引發(fā)的各類風險,全球監(jiān)管機構存在兩大監(jiān)管陣營。

一是以歐盟為代表的強監(jiān)管陣營,其在數(shù)據(jù)保護和隱私上最為保守,計劃更新即將出臺的全面人工智能法規(guī)——《人工智能法案》,對生成式AI生成圖像和文本的智能模型制定限制性規(guī)則,同時,歐洲數(shù)據(jù)保護委員會發(fā)出質(zhì)疑,稱ChatGPT作為商業(yè)產(chǎn)品,利用網(wǎng)絡信息自我迭代,應不屬于合理使用范疇,且采用用戶個人數(shù)據(jù)參與模型訓練,不符合歐盟頒布的《一般數(shù)據(jù)保護條例(GDPR)》。

二是以美國為代表的弱監(jiān)管陣營,美國以引領全球科技創(chuàng)新為目標,早在2016年就制定《國家人工智能研發(fā)戰(zhàn)略計劃》,旨在通過政府投資深化對人工智能的認識和研究,確保美國在人工智能領域的全球領導地位,所以始終對創(chuàng)新技術應用持寬松監(jiān)管態(tài)勢,美國的政府機構特別強調(diào)對ChatGPT在倫理道德方面的監(jiān)管,正在研究和制定針對ChatGPT的監(jiān)管政策和指南,以確保ChatGPT的發(fā)展和應用符合法律法規(guī)和倫理標準。

對于我國來說,是強監(jiān)管還是弱監(jiān)管,應基于實際國情出發(fā),制定適合我國社會環(huán)境、產(chǎn)業(yè)發(fā)展和科技創(chuàng)新的AI監(jiān)管政策?;仡櫸覈ヂ?lián)網(wǎng)產(chǎn)業(yè)發(fā)展歷程與監(jiān)管經(jīng)驗,在互聯(lián)網(wǎng)及“互聯(lián)網(wǎng)+”這類新技術新事物新業(yè)態(tài)的發(fā)展初期,明確提出“最大限度減少事前準入限制,加強事中事后監(jiān)管”,對于暫時看不準其發(fā)展前景的業(yè)態(tài)和領域,鼓勵大膽創(chuàng)新,并在一段時間內(nèi)予以觀察,這種包容審慎的監(jiān)管理念極大推動了我國互聯(lián)網(wǎng)產(chǎn)業(yè)的飛速發(fā)展。面對當前AI發(fā)展的新階段,全球各國及科技巨頭均躍躍欲試爭奪AI領域的領導地位,建議以“包容審慎”監(jiān)管理念進行政策制定和引導,在數(shù)據(jù)隱私和安全、版權保護方面沿用和完善現(xiàn)有監(jiān)管體系進行規(guī)范,積極監(jiān)控AI在社會倫理道德方面的新風險,加大大型科技企業(yè)在AI基礎創(chuàng)新領域和生態(tài)能力開放的政策支持力度,為AI產(chǎn)業(yè)發(fā)展營造良好的外部政策環(huán)境,確保在全球新一輪以AI為核心的高科技競爭中取得領先地位。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論