本文來自千家網(wǎng)。
ChatGPT擅長翻譯、歌曲創(chuàng)作、研究和編碼等多種技能。然而,與任何人工智能一樣,其也面臨著局限性。理解復(fù)雜的環(huán)境,并依賴有偏見的數(shù)據(jù)是其挑戰(zhàn)之一。
ChatGPT現(xiàn)下非常流行,而且無處不在。對于不熟悉大型語言模型(LLM)的用戶,聊天機器人的自然語言能力可能會給人一種其無所不知、可以回答任何問題的印象。
然而,現(xiàn)實卻截然不同。這種流行的聊天機器人有幾個基本局限性,包括對事實產(chǎn)生幻覺的傾向、對當(dāng)前事件缺乏了解,以及有限的邏輯推理能力。
本文將探討ChatGPT的一些主要限制,并探討過度依賴聊天機器人的危險。
ChatGPT令人失望的十大缺陷
10、幻覺的事實和數(shù)字
ChatGPT目前最重要的限制是,其可以產(chǎn)生幻覺信息。在實踐中,這意味著其可以編造虛假信息或事實,并自信地將其呈現(xiàn)給用戶。
ChatGPT是一種語言模型,其使用自然語言處理(NLP)來識別訓(xùn)練數(shù)據(jù)中的模式,并預(yù)測哪些單詞最有可能回答用戶的提示。這意味著ChatGPT無法像人類那樣進(jìn)行邏輯思考。
因此,不完整或有限的訓(xùn)練數(shù)據(jù),可能會導(dǎo)致錯誤的響應(yīng)。
幻覺是一個重要問題,因為如果不加以控制,可能會導(dǎo)致用戶被誤導(dǎo)。這就是為什么OpenAI警告道,ChatGPT可能會產(chǎn)生有關(guān)人、地點或事實的不準(zhǔn)確信息。
9、對2023年4月之后的事件一無所知
ChatGPT的另一個限制是,其不了解當(dāng)前事件。例如,GPT-4 Turbo的截止日期為2023年4月,而GPT 3.5 Turbo僅限于2021年9月之前記錄的數(shù)據(jù)。
從這個意義上來講,ChatGPT不能像Google這樣的工具一樣被用作搜索引擎。因此,重要的是要記住,并非所有生成的信息都是最新的。
8、生成不正確的數(shù)學(xué)答案
雖然ChatGPT在生成自然語言響應(yīng)方面非常出色,但其數(shù)學(xué)能力有限。根據(jù)亞利桑那州立大學(xué)副教授的一項研究,ChatGPT在數(shù)學(xué)問題上的準(zhǔn)確率低于60%。
因此,如果使用聊天機器人嘗試平衡方程或解決數(shù)學(xué)問題,其有可能會出錯。因此,如果使用ChatGPT來解決數(shù)學(xué)問題,需要仔細(xì)檢查輸出。
7、傳播偏見
自推出以來,OpenAI一直在努力解決ChatGPT傳播偏見的傾向。早在2023年8月,東安格利亞大學(xué)的研究人員讓ChatGPT回答一項有關(guān)政治信仰的調(diào)查,就好像其是是美國、英國或巴西自由黨的支持者一樣,然后再讓助手做同樣的調(diào)查。
研究人員分析結(jié)果后發(fā)現(xiàn),ChatGPT“對美國的民主黨、巴西的盧拉和英國的工黨有明顯的、系統(tǒng)性的政治偏見。”
此事件只是ChatGPT表現(xiàn)出偏見的眾多事件之一,因為生成的內(nèi)容可能被解釋為性別歧視、種族主義和對邊緣群體的歧視。
因此,用戶在對輸出采取行動或公開輸出之前,應(yīng)不斷評估輸出是否存在潛在的偏見和成見,以避免聲譽和法律風(fēng)險。
6、成本昂貴
在幕后,一個值得注意的限制是ChatGPT的維護(hù)和運營成本非常昂貴。一些分析師估計,OpenAI每天至少花費10萬美元或每月300萬美元的運營成本。
同樣,據(jù)估計,基于GPT-3的舊版本的訓(xùn)練成本可能高達(dá)400萬美元。
LLM的培訓(xùn)和運營總體成本高昂,這使得那些沒有數(shù)百萬美元資金用于人工智能的小企業(yè)無法承受。其還讓Google、OpenAI和Microsoft等資金雄厚的組織能夠主導(dǎo)人工智能研究。
5、缺乏同理心
ChatGPT沒有情商或理解力。因此,假設(shè)要求ChatGPT提供有關(guān)情感的建議時,往往會感到失望,因為其沒有接受過同理心或從人性角度來理解人類的問題的訓(xùn)練。
雖然其可以識別自然語言輸入中的情感,但無法理解用戶的需求。
在與弱勢用戶互動時,聊天機器人缺乏情商可能會很危險。就在去年,一名比利時男子據(jù)稱在與名為Chai的虛擬助手聊天后自殺,該助手在談話過程中鼓勵用戶自殺。
4、努力創(chuàng)建長篇內(nèi)容
盡管ChatGPT可以創(chuàng)建可讀的邏輯句子,但其很難在長篇內(nèi)容中保持連貫的格式或敘述。與此同時,其很容易重復(fù)之前提出的觀點,這可能會讓人類讀者感到不和諧。
總而言之,這些原因就是為什么許多使用ChatGPT的人選擇使用其來創(chuàng)建較短的內(nèi)容。話雖如此,但如果想使用ChatGPT創(chuàng)建長篇內(nèi)容,可以通過將內(nèi)容分解為多個片段,并編寫詳細(xì)的提示以改進(jìn)結(jié)果。
3、語境理解有限
鑒于ChatGPT無法像人類一樣思考,其在某些情況下通常難以理解上下文。雖然其可以使用NLP理解和推斷用戶提示的主要意圖,但無法“讀懂字里行間”。
例如,其不像人類那樣善于識別諷刺和幽默,也無法產(chǎn)生原創(chuàng)幽默。話雖如此,ChatGPT推斷上下文的能力將隨著訓(xùn)練數(shù)據(jù)的發(fā)展而變化。
2、多任務(wù)處理能力差
ChatGPT擅長一次專注于一項任務(wù)或主題,但如果一次給予其處理大量任務(wù)和問題,就很難提供高質(zhì)量的響應(yīng)。
例如,混合有關(guān)歷史、地緣政治和數(shù)學(xué)的提示;與將問題限制在單個主題相比,聊天機器人的響應(yīng)質(zhì)量會較低。
1、需要針對專門任務(wù)進(jìn)行微調(diào)
如果想使用ChatGPT生成有關(guān)特定主題的見解或作為利基用例的一部分,可能需要微調(diào)模型:需要在新數(shù)據(jù)集上對其進(jìn)行訓(xùn)練,以確保其在更專業(yè)的任務(wù)上表現(xiàn)良好。
如果不進(jìn)行微調(diào),將只能使用針對普通用戶的通用ChatGPT版本??紤]到微調(diào)過程會增加額外的成本,這是一個顯著的缺點。
總結(jié)
OpenAI的聊天機器人可能并不完美,但隨著供應(yīng)商試圖解決這些限制,將在未來幾年內(nèi)繼續(xù)發(fā)展。但是,偏見和缺乏情商等問題可能會成為難以解決的難題。