CIO建立人工智能團(tuán)隊(duì)的關(guān)鍵要素

企業(yè)網(wǎng)D1Net
佚名
一流的招聘人員,相互信任的組織結(jié)構(gòu),重視道德規(guī)范是確保人工智能團(tuán)隊(duì)成功的關(guān)鍵。 希望利用人工智能優(yōu)勢的企業(yè)CIO往往會遇到大量錯綜復(fù)雜的技術(shù)問題,但這只是一個(gè)開端。最近在舊金山舉行的ReWork深度學(xué)習(xí)峰會...

一流的招聘人員,相互信任的組織結(jié)構(gòu),重視道德規(guī)范是確保人工智能團(tuán)隊(duì)成功的關(guān)鍵。

希望利用人工智能優(yōu)勢的企業(yè)CIO往往會遇到大量錯綜復(fù)雜的技術(shù)問題,但這只是一個(gè)開端。最近在舊金山舉行的ReWork深度學(xué)習(xí)峰會上,行業(yè)專家表示,企業(yè)還需要考慮如何確保他們的人工智能團(tuán)隊(duì)能夠交付業(yè)務(wù)成果。

全球家譜服務(wù)提供商Ancestry.com公司前首席數(shù)據(jù)官Amy Gershkoff表示:“人工智能不僅僅是一個(gè)數(shù)據(jù)科學(xué)問題,而且還是一個(gè)商業(yè)問題。”

人工智能專家表示,企業(yè)在建立人工智能團(tuán)隊(duì)時(shí),需要特別關(guān)注兩個(gè)領(lǐng)域。首先是建立一個(gè)組織結(jié)構(gòu),在整個(gè)企業(yè)中產(chǎn)生對人工智能的信任,并且不會違反監(jiān)管要求。第二,企業(yè)建立團(tuán)隊(duì)的先決條件是擁有知識淵博的一流的人工智能招聘人員。

組織調(diào)整

在Gershkoff看來,構(gòu)建人工智能組織結(jié)構(gòu)的關(guān)鍵的第一步是將數(shù)據(jù)科學(xué)家部署在適合的部門中。

Gershkoff表示,例如,如果人工智能團(tuán)隊(duì)的目標(biāo)是增加收入,則不能與企業(yè)削減成本的目標(biāo)相沖突。將數(shù)據(jù)科學(xué)家部署在產(chǎn)品管理團(tuán)隊(duì)或營銷團(tuán)隊(duì)中可能更有意義,因?yàn)槭杖朐鲩L對于團(tuán)隊(duì)來說是一個(gè)具有更高優(yōu)先級的目標(biāo)。他說,“企業(yè)需要將數(shù)據(jù)科學(xué)家部署在最有效的地方。”

一些組織開始采用混合模式,將數(shù)據(jù)科學(xué)家分配到不同的部門。他們被分配到營銷、產(chǎn)品工程、金融等多個(gè)部門。然后整個(gè)企業(yè)的人工智能團(tuán)隊(duì)成員向首席數(shù)據(jù)官以及部門經(jīng)理報(bào)告。這可以幫助數(shù)據(jù)科學(xué)家的目標(biāo)與每個(gè)部門保持一致。Gershkoff說,“這么做的缺點(diǎn)是他們可能覺得自己需要向兩個(gè)管理者負(fù)責(zé)”。

選擇知識淵博的招聘人員

Ancestry.com首席數(shù)據(jù)官Amy Gershkoffformer 表示,對于組織在人才方面進(jìn)行競爭,他們需要招聘人員以數(shù)據(jù)科學(xué)家的語言進(jìn)行溝通。擁有優(yōu)秀的招聘人員往往是許多企業(yè)對于開展人工智能工作的事后考慮事項(xiàng)。因此,有些面試過程并不嚴(yán)格,企業(yè)對數(shù)據(jù)科學(xué)家和機(jī)器學(xué)習(xí)專家的需求對于潛在的新員工來說似乎并不具有太大的吸引力。

精明的人工智能應(yīng)聘者將會詢問企業(yè)的基礎(chǔ)設(shè)施、技術(shù)堆棧和他們將要處理的問題類型。如果招聘人員不知道答案,就很難找到最好的人才。

企業(yè)的基礎(chǔ)設(shè)施需要準(zhǔn)備到位

新的數(shù)據(jù)科學(xué)家也將期待基礎(chǔ)數(shù)據(jù)科學(xué)基礎(chǔ)設(shè)施到位。企業(yè)首席信息官必須創(chuàng)建一個(gè)支持?jǐn)?shù)據(jù)倉庫和靈活的數(shù)據(jù)管理的方法體系。Gershkoff說:“這是組織招聘機(jī)器學(xué)習(xí)專家之前需要提供的基礎(chǔ)和解決方案。”

除此之外,首席信息官需要部署支持?jǐn)?shù)據(jù)治理、合規(guī)性、隱私、安全問題的技術(shù)。這將使數(shù)據(jù)科學(xué)家能夠在確保控制到位的同時(shí),也能更出色地完成工作。

理解黑匣子

優(yōu)秀的人工智能策略也需要在更高的準(zhǔn)確性和透明度之間找到平衡點(diǎn)。人工智能系統(tǒng)的核心是可以自動執(zhí)行許多決策過程。但是人工智能算法往往是從復(fù)雜的機(jī)器學(xué)習(xí)規(guī)則演化而來的,人們通常難以理解。安永公司高級金融和數(shù)據(jù)科學(xué)家Manuel Proissl說:“這在某種程度上就是一個(gè)黑盒子。”

即使這些算法提供的結(jié)果最終比人們得出的更準(zhǔn)確,如果其邏輯不透明的話,利益相關(guān)者也很難相信。將人工智能嵌入業(yè)務(wù)需要超越數(shù)據(jù)科學(xué)來建立信任。這種透明度對于解決新的監(jiān)管要求也很重要,例如歐盟的“通用數(shù)據(jù)保護(hù)條例”,該條例規(guī)定企業(yè)必須能夠提供有關(guān)人工智能決策所涉及的有意義的信息。

創(chuàng)建道德文化

一個(gè)正在采用機(jī)器學(xué)習(xí)技術(shù)解決商業(yè)問題的人工智能團(tuán)隊(duì)也可能面臨與企業(yè)道德文化背道而馳的決策。首席信息官需要與組織的利益相關(guān)者合作,仔細(xì)確定共同的價(jià)值觀,并創(chuàng)建一種道德文化。埃森哲公司人工智能部門負(fù)責(zé)人Rumman Chowdhury說,“精辟的格言不一定會使人工智能與企業(yè)目標(biāo)保持一致。但如果企業(yè)沒有任何流程的文化,就不太可能實(shí)施到位。”

例如,社交媒體企業(yè)或部門可能會確定社交活動的目標(biāo)。產(chǎn)品經(jīng)理可能會使用人工智能來加強(qiáng)社交活動。例如比較激進(jìn)的人經(jīng)常在網(wǎng)站上發(fā)帖。但是,企業(yè)如何對憤怒的交流進(jìn)行優(yōu)化,這是一個(gè)難題。如果產(chǎn)品經(jīng)理專注于開發(fā)新產(chǎn)品,倫理道德可能是首先考慮的事情。但是,這可能會導(dǎo)致公司陷入困境。Chowdhury說:“良好的人工智能應(yīng)用是看不見的,但糟糕的人工智能卻是顯而易見的。人工智能的理念是,當(dāng)運(yùn)作良好時(shí),人們不會注意到它。”

THEEND