隨著人工智能技術(shù)在各行業(yè)的應(yīng)用越來越廣泛,IT領(lǐng)導(dǎo)者需要了解如何采用人工智能技術(shù)收集商業(yè)見解的秘密。
人類一直夢想著有一個無所不知、無所不能的精靈為自己提供幫助。如今需要感謝計算機科學(xué)家的不斷探索和努力,將在人工智能領(lǐng)域找到這個答案,因為人工智能有可能做到任何人想要做的事情,至少在某些時候和某些地方是這樣。
人工智能的創(chuàng)新能力是驚人的。采用像Siri、Alexa或Google Assistant這樣的虛擬助理對于10到15年前的人們來說似乎是神奇的事物,他們可以通過語音向虛擬助理發(fā)布命令或?qū)で蟠鸢福c上世紀(jì)90年代的語音識別工具不同,虛擬助理通常會提供正確的答案。
盡管人工智能有其神奇之處,但它們?nèi)匀灰蕾囉谟嬎銠C編程,這意味著其功能方面仍然受到了一些限制,但它們在處理一些重復(fù)性的日常工作方面表現(xiàn)更好,但歸根結(jié)底,它們?nèi)匀恢皇峭ㄟ^計算函數(shù)并確定某個數(shù)字是大于還是小于閾值來做出決策的計算機。而在其提供巧妙的奧秘和復(fù)雜算法的背后,都是來自實現(xiàn)IF-THEN決策的晶體管。
那么對于人類來說有什么選擇嗎?隨著人工智能技術(shù)在各行業(yè)應(yīng)用越來越廣泛,需要了解有關(guān)人工智能的一些不為人知的秘密。
1.從人工智能中發(fā)現(xiàn)的很多東西都是顯而易見的
對于人工智能科學(xué)家來說,最困難的工作就是告知人們其所開發(fā)的人工智能技術(shù)發(fā)現(xiàn)了每個人都知道的常識。也許開發(fā)的人工智能應(yīng)用程序識別了100億張照片,發(fā)現(xiàn)天空的顏色是藍色的。但是如果沒有將夜空的照片放在其訓(xùn)練集中,其應(yīng)用程序永遠不會意識到夜晚的天空顏色是黑色。
但是人工智能如何才能避免得出顯而易見的結(jié)論呢?數(shù)據(jù)中最強的信號對任何人來說都是顯而易見的,而且對挖掘數(shù)字的計算機算法來說也是顯而易見的。因此,人們需要了解的是,不要期望采用人工智能算法就能得到正確的結(jié)果。
2.利用人工智能細微差別的見解可能不值得
當(dāng)然,當(dāng)數(shù)據(jù)很精確時,良好的人工智能會識別微小的差異。只是有些細微的差別過于微妙,不值得追根究底。而人工智能程序可能一直執(zhí)著于識別這些細微差別。問題是,有些信號顯而易見,有些信號的收益可能很微小甚至沒有。
3.神秘的計算機更具威脅性
雖然早期的研究人員希望人工智能算法的數(shù)學(xué)方法能夠為組織最終決策帶來更多的可信度,但是很多人并不相信其邏輯。如果說有什么不同的話,人工智能的復(fù)雜性和神秘性使得對答案不滿意的人都會懷疑這個過程。人工智能技術(shù)越神秘、越復(fù)雜,人們就越有理由表示懷疑和憤怒。
4.人工智能主要是曲線擬合的問題
數(shù)百年來,科學(xué)家們致力根據(jù)所給定的離散數(shù)據(jù)點繪制曲線(曲線擬合)。許多機器學(xué)習(xí)算法正在完成這樣的任務(wù)。它們收集了大量數(shù)據(jù),希望通過它們繪制曲線。很多技術(shù)都是將問題分解成數(shù)千、數(shù)百萬、甚至數(shù)十億個小問題找到解決方法。有些人發(fā)現(xiàn),人工智能的決策有時并不準(zhǔn)確,他們會把注意力集中在這樣一個事實上:沒有深入的理論或哲學(xué)框架來為其給出的答案提供可信度,這只是對某些曲線和斜率的估算值。
5.收集數(shù)據(jù)需要大量的工作
數(shù)據(jù)科學(xué)的研究人員意識到,找到數(shù)據(jù)才是真正的工作。人工智能是數(shù)據(jù)科學(xué)的近親,它也面臨著同樣的挑戰(zhàn),收集數(shù)據(jù)需要處理文件格式、缺少數(shù)據(jù)字段和字符代碼等大量工作。
6.需要大量的數(shù)據(jù)才能得出更深入的結(jié)論
有些答案很容易找到,但獲得更深入、更復(fù)雜的結(jié)論往往需要越來越多的數(shù)據(jù)。有時需要收集的數(shù)據(jù)量會呈指數(shù)級增長。
7.被數(shù)據(jù)偏見所困擾
人們都了解其看到和感知的東西會受到一些限制,人工智能也不例外,并且顯然會受到訓(xùn)練集的限制。如果數(shù)據(jù)中存在偏差,人工智能將會繼承這些偏差。如果數(shù)據(jù)有漏洞,人工智能對外部世界的理解就會有漏洞。
8.人工智能是電力黑洞
人工智能的應(yīng)用將會變得越來越復(fù)雜。只要研究人員愿意,就會不斷創(chuàng)造出節(jié)點更多、層次更多、內(nèi)部狀態(tài)更復(fù)雜的模型。也許這種額外的復(fù)雜性足以使模型真正有用,也許下一輪可能會出現(xiàn)一些緊急的情感行為。但是也許需要運行大量GPU才能真正捕捉到效果,因此人工智能將會耗費更多的電力。
9.可解釋的人工智能進展緩慢
人工智能研究人員一直花費大量的時間來嘗試解釋人工智能在做什么。通過深入研究數(shù)據(jù),發(fā)現(xiàn)訓(xùn)練有素的人工智能模型嚴(yán)重依賴于來自數(shù)據(jù)集特定的一些參數(shù)。不過,可解釋人工智能的結(jié)果通常并不令人信服,容易陷入“雞生蛋,蛋生雞”的悖論中,因此可解釋的人工智能進展很緩慢。
10.努力做到公平是一個挑戰(zhàn)
如果研究人員將身高排除在人工智能訓(xùn)練集之外,但是人工智能程序很有可能會找到一些其他的數(shù)據(jù)來標(biāo)記身高不同的人,其數(shù)據(jù)也許是鞋子的尺寸,也許是臂長。人們曾經(jīng)夢想能夠讓中立的人工智能做出一個公正的決定,會讓世界變得更加公平,但有時現(xiàn)實并不公平,而人工智能算法也無法做得更好。
11.有時修復(fù)甚至更糟
強迫人工智能公平地解決實際問題嗎?有些人堅持認為,人工智能一定會產(chǎn)生準(zhǔn)確的結(jié)果,并重寫算法以更改輸出。但是人們開始懷疑,如果已經(jīng)確定了想要的答案,那么為什么還要進行任何訓(xùn)練或數(shù)據(jù)分析呢?
12.人類是真正的問題所在
如果將1000萬張圖片進行分類,那么人工智能應(yīng)用程序在大多數(shù)時候都能產(chǎn)生相當(dāng)準(zhǔn)確的結(jié)果。當(dāng)然可能會出現(xiàn)問題和錯誤。一些小問題甚至可能反映出人工智能偏見的深層次問題,而這些問題可能需要撰寫論文才能進行解釋和分析。
人工智能并不是問題所在,它們只是按照人類的指令行事。人工智能只是人類的工具,人類希望通過人工智能技術(shù)獲得優(yōu)勢并從中獲利。但人工智能應(yīng)用的結(jié)果取決于人類的目的,如果用于不當(dāng)?shù)哪康?,那么人工智能的?yīng)用將會帶來不利影響。