物聯(lián)網(wǎng)正將數(shù)據(jù)中心推向邊緣

it168
Mikael Berggren 
在很久之前,IT 產(chǎn)業(yè)就已發(fā)現(xiàn)不斷逼近的龐大資料冰山,隨著物聯(lián)網(wǎng) (IoT, Internet of Things) 聯(lián)機(jī)裝置的迅速成長,兩者已出現(xiàn)沖突的現(xiàn)象,現(xiàn)在,必須是采取行動的時刻了,而邊緣運算可能是我們解決即將發(fā)生的數(shù)據(jù)超...

在很久之前,IT 產(chǎn)業(yè)就已發(fā)現(xiàn)不斷逼近的龐大資料冰山,隨著物聯(lián)網(wǎng) (IoT, Internet of Things) 聯(lián)機(jī)裝置的迅速成長,兩者已出現(xiàn)沖突的現(xiàn)象,現(xiàn)在,必須是采取行動的時刻了,而邊緣運算可能是我們解決即將發(fā)生的數(shù)據(jù)超載危機(jī)的最佳機(jī)會。

僅是今天一天,全球已增加了2.5艾字節(jié)(EB,Exa Byte)的數(shù)據(jù)。此數(shù)據(jù)量十分驚人,但是相較于未來,僅是小巫見大巫。根據(jù)預(yù)測,至 2025 年,每一個月的車輛云端數(shù)據(jù)傳輸量,將達(dá)到 10 艾字節(jié)-僅是單一項應(yīng)用程序的數(shù)據(jù)傳輸量,更不用說我們尚未想到可能會出現(xiàn)的各種新應(yīng)用程序。

那么,我們應(yīng)如何避免數(shù)據(jù)中心被物聯(lián)網(wǎng)這一座看不見的資料冰山壓垮呢?請思考一下,云端聯(lián)機(jī)不一定夠快,即使夠快,后端也不一定具有處理 IoT 規(guī)模數(shù)據(jù)的能力。于是,我們很快就能得知,在未來,我們將會被迫選擇想要上傳至云端的數(shù)據(jù)。如同思科的 Helder Antunes 曾說過:“在大多數(shù)情況下,所有數(shù)據(jù)都將通過云端與邊緣裝置的強(qiáng)大穩(wěn)定帶寬上傳至云端-此說法根本不切實際。”

邊緣運算之始:內(nèi)容傳遞網(wǎng)絡(luò) (CDN)

邊緣運算是近期十分熱門的話題,但是,如果我們將其定義稍微擴(kuò)大一些,就會發(fā)現(xiàn)邊緣運算其實不是新的科技,例如在 90 年代已存有如同 Akamai(阿卡邁)的內(nèi)容傳遞網(wǎng)絡(luò) (CDN) 。CDN 是一種將靜態(tài)內(nèi)容傳送至多個位置,以使信息距離實際使用地點更近一些的方式,且經(jīng)證實,對于傳送串流視訊等內(nèi)容而言,是十分高效的模式。邊緣運算即是依據(jù)此做法建立,但是,邊緣運算可以讓網(wǎng)絡(luò)邊緣的個別節(jié)點儲存與提供內(nèi)容服務(wù),以及接收和處理資料。

在云端運算出現(xiàn)之后,此類存在于使用者與云端數(shù)據(jù)中心之間的智能型節(jié)點,開始大幅推動技術(shù)發(fā)展。此類混搭 (mashup) 的做法,使我們能在發(fā)揮云端靈活度與可存取性的同時,提高數(shù)據(jù)保護(hù)及降低內(nèi)部延遲部署解決方案。

應(yīng)運而生的轉(zhuǎn)變

在各種新應(yīng)用程序出現(xiàn)后,我們移動和處理數(shù)據(jù)的方式也產(chǎn)生了新的需求。自動駕駛汽車、智能家庭和智能制造,都與產(chǎn)生大量實用數(shù)據(jù)的聯(lián)機(jī)裝置有關(guān),但是僅依據(jù)傳感器的原始數(shù)據(jù),無法協(xié)助避免塞車、進(jìn)行廠房設(shè)備的預(yù)防性維護(hù)或收到女兒平安到家的短信通知。這些都需要經(jīng)過某些類型的處理作業(yè)-可能是實時分析、機(jī)器學(xué)習(xí)或其他類型的人工智能。

目前主要是由大型數(shù)據(jù)中心執(zhí)行此類處理作業(yè),然而,隨著運算資源的需求暴增,此模式已無法滿足需求。這些使用個案將會產(chǎn)生更多的數(shù)據(jù),而需要超越云端運算能力的更快反應(yīng)時間。

在目前的所有數(shù)據(jù)中,僅有 10% 是在云端或數(shù)據(jù)中心以外的地方處理,Gartner 預(yù)測,至 2022 年,所有數(shù)據(jù)中的 50%,將在其他地方(亦即:邊緣)處理。另一項有助于定義未來邊緣的動向,是包括美國在內(nèi)的許多國家均已升級至 5G 移動網(wǎng)絡(luò)。電信業(yè)正在部署或積極考慮在升級網(wǎng)絡(luò)時,將相鄰的邊緣微數(shù)據(jù)中心納入新建的 5G 行動基地臺。

邊緣成為兵家必爭之地

有各式各樣的新技術(shù)皆競相在裝置與云端之間卡位,以取得有利的位置,包括微軟 Azure 的 IoT Edge、AWS Greengrass、AWS Lambda 以及 Intel 正在協(xié)助開發(fā)的 Akraino Edge Stack 等。

水平或垂直?

在這些即將問世的邊緣技術(shù)中,包括涵蓋物聯(lián)網(wǎng) (IoT) 裝置、邊緣服務(wù)器到云端的垂直解決方案,以及專注于將邊緣運算功能整合至廣泛裝置的水平做法,例如:在容器內(nèi)執(zhí)行的應(yīng)用程序,或在特定基礎(chǔ)架構(gòu)內(nèi)的各種裝置上部署虛擬機(jī)監(jiān)控程序 (hypervisor)。

利與弊

將儲存裝置和運算資源放在數(shù)據(jù)源附近,可以大幅減少延遲及需要的云端帶寬。安全性呢?這是與各應(yīng)用程序有關(guān)的重要考慮。部分專家認(rèn)為,邊緣運算會限制開放式因特網(wǎng)上的數(shù)據(jù)傳輸量,因此可提高安全性,尤其是對于不得將敏感數(shù)據(jù)帶離現(xiàn)場的公司而言,是一大優(yōu)點。但是,另一方面,不斷增加的大量 IoT 裝置及個別區(qū)隔的基礎(chǔ)架構(gòu)層級(包括邊緣服務(wù)器),則為有心人士提供更大的攻擊表面,因為每新增一個端點,都有可能會使云端的安全性受到威脅,以及提供滲透核心網(wǎng)絡(luò)的路徑。

誰將擁有邊緣?

將基礎(chǔ)架構(gòu)從云端移至邊緣的另一個議題,是所有權(quán)、營運與維護(hù)的問題。公司擁抱云端運算的部分原因是云端可大幅減輕管理與維護(hù)負(fù)擔(dān),如果運算基礎(chǔ)架構(gòu)從云端回到邊緣,則將由誰擁有及營運呢?

目前,這些問題很難獲得明確的答案,因為根本不知道最后是由哪一項技術(shù)勝出??梢钥隙ǖ闹挥幸患拢簾o論誰負(fù)責(zé)掌管未來的邊緣數(shù)據(jù)中心,且無論設(shè)施的規(guī)模大小,效率都將成為關(guān)鍵。提供超越大型數(shù)據(jù)中心的運算效率,不是一件簡單的事,在可靠性方面也是一樣?;谏鲜鲈?,沒有單一解決方案能滿足每一個客戶端的邊緣運算使用案例,而每一個邊緣設(shè)施都將需要根據(jù)個別的應(yīng)用客制化。無論規(guī)模為何,隨著開始將數(shù)據(jù)輸送至邊緣,未來的數(shù)據(jù)中心基礎(chǔ)架構(gòu)-尤其是電源和冷卻-都將是攸關(guān)成敗的關(guān)鍵。

THEEND