來源:power-bd
提示:以下所有的鏈接會引到同一作者的其他文章。
隨著機(jī)器學(xué)習(xí)和人工智能領(lǐng)域的無限擬人化,很多商人都錯誤地把人工智能當(dāng)做一個目標(biāo),一個知道所有正確答案的公正的同事。這里有一個快速演示,展示了為什么這是一個可怕的誤解。
幾乎每位人工智能學(xué)生都不得不經(jīng)歷的任務(wù)是建立一個系統(tǒng),這個系統(tǒng)可以將圖像分類為“貓”(包含一只貓的照片)或“不是貓”(沒有可以看見的貓)。其原因是識別對象是一個對人類來說相當(dāng)容易的任務(wù),但是真的很難去說明人類是如何完成的(所以將明確的描述“貓”的規(guī)則編成代碼是非常困難的)。這些種類的任務(wù)對于人工智能來說是完美的。
樣例
嘆息聲來自已經(jīng)在人工智能周圍一段時間的人們—他們煩惱于是/否是貓的任務(wù)。很公平,但就這一次使筆者感到幽默。對于這個練習(xí),人們將會是筆者的人工智能系統(tǒng)。筆者的工作是將下面的六幅圖片歸類。只可以從兩個標(biāo)簽/輸出中選擇:
Cat
Not cat
來吧。為6個圖像中的每一個指定一個允許的標(biāo)簽,就像人工智能系統(tǒng)會做的那樣:
花費(fèi)一點(diǎn)時間去給每一個圖片寫上標(biāo)簽(貓/不是貓)
啊哈!1-5的圖片是簡單的,但是第六張圖片令人犯嘀咕?“體型大的貓”?“有一點(diǎn)像貓”?“也許是貓”?這些都是不允許的選擇!這是一個只輸出“cat”或“not cat”的系統(tǒng)。那是哪一個?
請轉(zhuǎn)到本視頻中的4:16,向現(xiàn)場觀眾演示本文的演示。
因此,人們開始看到項(xiàng)目決策者的重要性。正確的答案不是柏拉圖式的,當(dāng)然也不是來自人工智能系統(tǒng)……事實(shí)上,沒有“正確”的答案。“正確”的答案取決于系統(tǒng)所有者希望系統(tǒng)做什么。
AI不能設(shè)定目標(biāo)-那是人類的工作
如果試圖建立一個寵物推薦系統(tǒng),只推薦那些成年后可以安全擁抱的動物,那么答案就很清楚了。對該系統(tǒng)的預(yù)期用途是指正確的操作是將圖像6標(biāo)記為“不是貓”。如果現(xiàn)在還在給它貼“貓”的標(biāo)簽,那么……筆者建議多買點(diǎn)人壽保險。
機(jī)器學(xué)習(xí)的“正確”答案通常在旁觀者的眼中,因此一個為一個目的設(shè)計(jì)的系統(tǒng)可能不會為另一個目的工作。
如果打算為其他目的對貓進(jìn)行分類,那么“正確”的答案可能會有所不同。目的或目標(biāo)來自于人類的決策者!不談柏拉圖,不同的答案將適合不同的項(xiàng)目。在人工智能中,目標(biāo)總是主觀的。這取決于項(xiàng)目業(yè)主的主觀判斷。(這取決于其他人的理解,人工智能系統(tǒng)有很多主觀性融入其中。)
在人工智能中,目標(biāo)總是主觀的!人工智能系統(tǒng)有很多主觀性。
決策者必須作為負(fù)責(zé)任的父母,選擇他們希望系統(tǒng)復(fù)制的行為……而且?guī)缀鯊膩頉]有一種“正確”的方式來定義類別和設(shè)定每個決策者都會同意的目標(biāo)。這些事情由個人決定。不同的人會發(fā)現(xiàn)適合復(fù)制的不同行為集。
如果繼承了筆者的系統(tǒng),而意圖與筆者的不同,或者打算將它用于不同的目的,而不是筆者為之設(shè)計(jì)的目的——例如,如果對什么叫貓有不同的看法,可能會發(fā)現(xiàn)筆者的系統(tǒng)不適合。它甚至可能造成傷害,盡管它讓筆者非常高興。
如果那樣的話,那是你的錯,而不是筆者的錯;太蠢了,以為只有一種方法可以定義事物。認(rèn)為一個有數(shù)學(xué)成分的系統(tǒng)不可能有歧義和人為缺陷,所以最終得到了一個錯誤問題的偉大解決方案,因?yàn)檫@是筆者的問題。
應(yīng)該經(jīng)常測試別人開發(fā)的人工智能系統(tǒng),尤其是如果不知道他們是如何定義自己的目標(biāo)的。
筆者是說不能使用其他人工智能工程團(tuán)隊(duì)開發(fā)的系統(tǒng),每次都必須從頭開始構(gòu)建自己的系統(tǒng)嗎?一點(diǎn)也不。然而,確實(shí)需要對正確執(zhí)行任務(wù)的意義形成清晰的概念(例如,如果有老虎該怎么做),并且需要在自己的一組示例(例如親手標(biāo)記的照片)上仔細(xì)測試正在考慮繼承的系統(tǒng)。
什么是基本真理?
來源:Pexels
你可能聽說過“基本事實(shí)”這個詞在ML/AI空間中流傳,但它是什么意思?新聞快報:基本事實(shí)并不真實(shí)。這是一個理想的預(yù)期結(jié)果(據(jù)負(fù)責(zé)人說)。換句話說,這是一種通過創(chuàng)建一組具有輸出標(biāo)簽的示例來總結(jié)項(xiàng)目所有者意見的方法,這些所有者認(rèn)為輸出標(biāo)簽是可以接受的。它可能涉及手工標(biāo)記示例數(shù)據(jù)點(diǎn)或?qū)鞲衅?ldquo;放在地面”(在一個精確的真實(shí)位置)以收集所需的答案數(shù)據(jù),用于培訓(xùn)系統(tǒng)。
新聞快報:基本事實(shí)并不真實(shí)。
例如,根據(jù)項(xiàng)目負(fù)責(zé)人的意見,一組圖像可能被精心手工標(biāo)記為cat或not cat,這些cat/not cat標(biāo)簽將被稱為項(xiàng)目的“基本事實(shí)”。
這到底是什么?!貓還是不貓?看電影《貓》的預(yù)告片時,筆者忍不住要擦亮眼睛。
當(dāng)這樣一個數(shù)據(jù)集被用來訓(xùn)練ML/AI系統(tǒng)時,基于它的系統(tǒng)將繼承和放大決定理想系統(tǒng)行為的人的隱含值。
基于數(shù)據(jù)創(chuàng)建機(jī)器系統(tǒng)時,給系統(tǒng)注入價值觀。
當(dāng)討論這個話題的時候,請注意,通過讓受信任的人執(zhí)行任務(wù)來創(chuàng)造“基本事實(shí)”是會受到各種錯誤的影響的,包括人為錯誤。通過基于共識的數(shù)據(jù)收集工作流程、反應(yīng)時間監(jiān)控和聰明的用戶體驗(yàn)(UX)技巧(減少數(shù)據(jù)輸入錯誤的可能性)等方法,嘗試將此錯誤的可能性降至最低是一個好主意。(更多內(nèi)容將在以后的文章中介紹。)
讓項(xiàng)目的決策者隨機(jī)檢查一個樣本,以檢查質(zhì)量是否足夠高,這總是一個好主意。
如果在互聯(lián)網(wǎng)上找到一個數(shù)據(jù)集并使用它而不是自己收集呢?然后,你的項(xiàng)目繼承了創(chuàng)建數(shù)據(jù)集的人的隱式值和偏見。一路上總有一些主觀的要求,不管是誰提出的,都會為項(xiàng)目確定“對”和“錯”。小心信任的人!決策者有很多話要說,他們要花時間自己完成任務(wù),以便更好地理解他們試圖解決的問題,以及數(shù)據(jù)、目標(biāo)和邊緣案例。
警告(如何做一個好公民)
來源:Pexels
筆者寫了很多文章來贊揚(yáng)對ML/AI系統(tǒng)的仔細(xì)測試,但是要小心!由于整個過程從根本上導(dǎo)致了定義和目標(biāo)的主觀性,所有測試都將根據(jù)團(tuán)隊(duì)決策者喜歡的答案進(jìn)行。不幸的是,這些主觀方面的愚蠢首先是沒有測試的。對決策者沒有任何制衡,除非其他決策者審查了他們在項(xiàng)目第一階段所作選擇的理由。
沒有一個測試可以檢驗(yàn)主觀定義和目標(biāo)的愚蠢,所以請明智地選擇項(xiàng)目負(fù)責(zé)人。
現(xiàn)在知道了所有ML/AI項(xiàng)目的第一部分是多么主觀,可以在一個日益被人工智能淹沒的社會中成為一個更好的公民。與其表面上接受人工智能解決方案,還不如問問自己:
· 誰建立了這個系統(tǒng)?
· 他們的(主觀)目標(biāo)是什么?
· 他們?nèi)绾味x正確答案?
· 大多數(shù)人會提出類似的定義嗎?
· 如何創(chuàng)建基本事實(shí)數(shù)據(jù)集?
· 這個系統(tǒng)打算惠及哪些人?
· 錯誤會有多痛苦?
· 是否內(nèi)置了適當(dāng)?shù)陌踩W(wǎng)?(系統(tǒng)創(chuàng)造者是否謙卑地預(yù)見到他們的選擇可能是不明智的,并據(jù)此制定計(jì)劃?)
在很多情況下,對這些問題的回答不會顯示出任何可怕的東西。人工智能已經(jīng)在周圍了,在很大程度上它是精心設(shè)計(jì)和營養(yǎng)豐富的。
唉,偶爾會發(fā)現(xiàn)自己陷入了困境。
來源:Pexels
例如,不想成為短視的欺詐檢測系統(tǒng)的犧牲品,該系統(tǒng)對金融欺詐的定義過于草率,特別是如果允許這樣的系統(tǒng)在不給人們提供證明自己清白的簡單方法的情況下誣告他們。那是一個乞討麻煩的火藥桶。作為一個負(fù)責(zé)任的公民,應(yīng)該注意到易燃的情況并把它們叫出去。
一旦開始看到人工智能游戲中固有的主觀性,就會有更好的武器去召喚出丑陋的人類元素,如果沒有人監(jiān)管,這些元素可能會被放大。