亞馬遜AWS今天推出了一個(gè)新的開(kāi)源庫(kù),幫助開(kāi)發(fā)人員使用幾行代碼編寫(xiě)基于機(jī)器學(xué)習(xí)的應(yīng)用程序,這些應(yīng)用程序使用圖像、文本或表格數(shù)據(jù)集。
建立依賴(lài)這些數(shù)據(jù)的機(jī)器學(xué)習(xí)應(yīng)用程序并不是一件容易的事情。例如,開(kāi)發(fā)人員需要知道如何調(diào)整表示構(gòu)建人工智能模型時(shí)所做選擇的“超參數(shù)”。他們還需要處理諸如神經(jīng)架構(gòu)搜索之類(lèi)的問(wèn)題,這使他們能夠?yàn)樽约旱臋C(jī)器學(xué)習(xí)模型找到最佳的架構(gòu)設(shè)計(jì)。
AutoGluon自動(dòng)化了許多這些復(fù)雜的任務(wù),并可以通過(guò)在已知對(duì)給定任務(wù)執(zhí)行良好的默認(rèn)范圍內(nèi)自動(dòng)調(diào)整選項(xiàng),創(chuàng)建一個(gè)只需三行代碼的新機(jī)器收益模型。開(kāi)發(fā)人員所要做的就是指定他們希望他們的模型被訓(xùn)練的速度,autoglion將在給定的時(shí)間范圍內(nèi)生成最強(qiáng)大的模型。
亞馬遜表示,AutoGluon可以識(shí)別包括圖像和文本分類(lèi)、目標(biāo)檢測(cè)和表格預(yù)測(cè)等任務(wù)的模型。它還提供了一個(gè)應(yīng)用程序編程接口,讓更有經(jīng)驗(yàn)的開(kāi)發(fā)人員來(lái)處理,這樣他們就可以提高模型的預(yù)測(cè)性能。
AWS應(yīng)用科學(xué)家Jonas Mueller在一份聲明中說(shuō):“我們開(kāi)發(fā)autoglon是為了使機(jī)器學(xué)習(xí)真正民主化,并使所有開(kāi)發(fā)人員都能使用深度學(xué)習(xí)的能力。”。“AutoGluon解決了這個(gè)問(wèn)題,因?yàn)樗羞x項(xiàng)都在默認(rèn)范圍內(nèi)自動(dòng)調(diào)整,已知這些范圍對(duì)特定任務(wù)和模型都有很好的性能。”
星座研究公司(Constellation Research Inc.)分析師霍爾格·穆勒(Holger Mueller)對(duì)SiliconANGLE表示,許多企業(yè)缺乏快速構(gòu)建新機(jī)器學(xué)習(xí)模型所需的開(kāi)發(fā)人才,因此對(duì)能夠簡(jiǎn)化流程的工具需求很大。
穆勒說(shuō):“亞馬遜的AutoGluon是朝著這個(gè)方向邁出的關(guān)鍵一步,它使開(kāi)發(fā)者能夠在AWS的云基礎(chǔ)設(shè)施上使用先進(jìn)的人工智能技術(shù)。”。“通過(guò)CPU限制搜索最適合模型的能力特別有價(jià)值,因?yàn)轭A(yù)算和時(shí)間的實(shí)際限制也適用于人工智能解決方案?,F(xiàn)在,我們將看到在開(kāi)發(fā)人員基礎(chǔ)上采用autoglon。不用說(shuō),要想贏得人工智能領(lǐng)域的領(lǐng)導(dǎo)地位,開(kāi)發(fā)人員不會(huì)贏得,而是要讓稍懂技術(shù)的商業(yè)用戶(hù)利用人工智能。”
這大概就是為什么亞馬遜開(kāi)發(fā)了AutoGluon,這是一個(gè)開(kāi)放源代碼庫(kù),旨在使開(kāi)發(fā)人員僅用幾行代碼即可編寫(xiě)AI嵌入的應(yīng)用程序。它在GitHub上悄然興起后大約一個(gè)月,于今天公開(kāi)發(fā)布。
AutoGluon的目標(biāo)是自動(dòng)化開(kāi)發(fā)人員歷史上必須自己做出的許多決策。通常,像超參數(shù)調(diào)整這樣的任務(wù)是手動(dòng)執(zhí)行的,需要科學(xué)家預(yù)測(cè)超參數(shù)(代表構(gòu)建人工智能模型時(shí)所做的選擇)將如何影響模型訓(xùn)練。另一個(gè)通常由人監(jiān)督的任務(wù)稱(chēng)為神經(jīng)架構(gòu)搜索(neural architecture search),需要復(fù)雜的工程,至少在一定程度上,開(kāi)發(fā)人員必須為其各自的模型確定最佳設(shè)計(jì)。
為此,AutoGluon可以通過(guò)自動(dòng)調(diào)整默認(rèn)范圍內(nèi)的選擇來(lái)生成僅需三行代碼的模型,而這些默認(rèn)范圍在已知范圍內(nèi)可以很好地完成給定任務(wù)。開(kāi)發(fā)人員只需指定他們何時(shí)準(zhǔn)備好其訓(xùn)練有素的模型,作為回應(yīng),AutoGluon就會(huì)利用可用的計(jì)算資源在分配的運(yùn)行時(shí)中找到最強(qiáng)大的模型。
它以亞馬遜和微軟三年前進(jìn)行的工作-Gluon為基礎(chǔ),后來(lái)又在Apache MXNet和微軟的Cognitive Toolkit中發(fā)布。Gluon是一個(gè)機(jī)器學(xué)習(xí)界面,允許開(kāi)發(fā)人員使用一組預(yù)先構(gòu)建和優(yōu)化的組件來(lái)構(gòu)建模型,而AutoGluon則不斷地處理開(kāi)發(fā)過(guò)程。
AutoGluon開(kāi)箱即用,可以識(shí)別用于表格預(yù)測(cè),圖像和文本分類(lèi)以及對(duì)象檢測(cè)的模型,并且它提供了API,可供經(jīng)驗(yàn)豐富的開(kāi)發(fā)人員使用以進(jìn)一步改善模型的預(yù)測(cè)性能。它需要Python 3.6或3.7版本,并且目前僅支持Linux,但是Amazon表示Mac OSX和Windows版本很快就會(huì)推出。
“我們開(kāi)發(fā)AutoGluon是為了讓機(jī)器學(xué)習(xí)真正大眾化,讓所有開(kāi)發(fā)人員都能使用深度學(xué)習(xí)的功能,”AWS應(yīng)用科學(xué)家Jonas Mueller在一份聲明中說(shuō)。“AutoGluon解決了這個(gè)問(wèn)題,因?yàn)樗械倪x項(xiàng)都會(huì)自動(dòng)調(diào)整到默認(rèn)范圍內(nèi),而這些默認(rèn)范圍對(duì)于特定的任務(wù)和模型來(lái)說(shuō)性能良好。”
AutoGluon的首次亮相是在對(duì)Amazon Web Services(AWS)的SageMaker進(jìn)行重大升級(jí)之后進(jìn)行的,該工具包用于不斷培訓(xùn)機(jī)器學(xué)習(xí)模型并將其部署到云和邊緣環(huán)境。AWS SageMaker Studio是一種模型培訓(xùn)和工作流管理工具,可將所有代碼,筆記本和文件夾用于機(jī)器學(xué)習(xí)收集到一個(gè)地方,而SageMaker Notebook可讓開(kāi)發(fā)人員快速啟動(dòng)Jupyter筆記本進(jìn)行機(jī)器學(xué)習(xí)項(xiàng)目。還有SageMaker Autopilot,可通過(guò)自動(dòng)選擇算法并調(diào)整模型來(lái)自動(dòng)創(chuàng)建模型。SageMaker Experiments,用于測(cè)試和驗(yàn)證模型;SageMaker調(diào)試器,可提高模型的準(zhǔn)確性;和SageMaker Model Monitor,它可以檢測(cè)概念偏差。
Amazon之前發(fā)布了AWS深度學(xué)習(xí)容器,這是一個(gè)預(yù)裝了流行深度學(xué)習(xí)框架的Docker圖像庫(kù),以及一系列完全托管的服務(wù),包括Personalize、Textract、Fraud Detector和CodeGuru。根據(jù)Statista的數(shù)據(jù),憑借AutoGluon等獨(dú)立工具,這家西雅圖科技巨頭正在追逐一個(gè)到2025年預(yù)計(jì)價(jià)值1186億美元的市場(chǎng)。
AutoGluon只是AWS最新推出的一款產(chǎn)品,它旨在使機(jī)器學(xué)習(xí)民主化。該公司最近更新了SageMaker工具,用于持續(xù)培訓(xùn)和將機(jī)器學(xué)習(xí)模型部署到云和邊緣環(huán)境中。更新包括SageMaker Studio,一個(gè)模型培訓(xùn)和工作流管理工具,它收集所有使用的代碼和筆記本模型,并將它們保存在一個(gè)地方;SageMaker Autopilot,它通過(guò)自動(dòng)選擇最佳算法并針對(duì)特定任務(wù)對(duì)其進(jìn)行調(diào)整,自動(dòng)創(chuàng)建模型。構(gòu)建涉及圖像,文本和表格數(shù)據(jù)集的機(jī)器學(xué)習(xí)應(yīng)用程序并不容易。它需要特征工程或使用數(shù)據(jù)領(lǐng)域知識(shí)來(lái)創(chuàng)建使AI算法起作用的特征,此外還需要進(jìn)行大量數(shù)據(jù)預(yù)處理,以確保在經(jīng)過(guò)訓(xùn)練的模型中不會(huì)出現(xiàn)偏差。