華為云計算 云知識 LiteAI四大"殺手锏",解鎖物聯(lián)網(wǎng)智能設備AI開發(fā)難關
LiteAI四大"殺手锏",解鎖物聯(lián)網(wǎng)智能設備AI開發(fā)難關

你知道我們生活中常見的物聯(lián)網(wǎng)智能設備融合AI技術后,會給我們帶來什么樣的智能交互體驗?在我們指尖觸碰的那一剎那背后隱藏的代碼世界又是怎么樣的呢?

今天就來和大家說說IoT智能設備輕松實現(xiàn)AI的奧秘!

AIoT,智能化升級的最佳通道

AIoT,對我們來說已經(jīng)不是一個陌生的詞匯了,隨著深度學習的蓬勃發(fā)展和5G萬物互聯(lián)時代的到來,越來越多的人將AI與IoT結(jié)合到一起,而 AIoT已經(jīng)成為傳統(tǒng)行業(yè)智能化升級的最佳通道,是物聯(lián)網(wǎng)發(fā)展的必然趨勢。

AI和IoT相互交融產(chǎn)生的魔力,讓許多智能產(chǎn)品及智能應用成為無窮想象的“潛力股”。比如智能音箱中的語音喚醒,家庭監(jiān)控里的 人臉識別 ,可穿戴設備上的AI計步等等,已經(jīng)驗證物聯(lián)網(wǎng)產(chǎn)品融入人工智能,升級成了智能設備后的“威力”。

但,物聯(lián)網(wǎng)AI 開發(fā)者的“痛”,你遇到過么?

很多AI開發(fā)者開發(fā)者在訓練得到AI模型之后,必須得在設備上實現(xiàn)模型的推理才能獲得相應的AI能力,但目前AI模型不能直接在設備上運行起來。這就意味著,開發(fā)者還得有一套對應的推理框架才能真正實現(xiàn)AI與IoT設備的結(jié)合。

另外,目前深度學習雖然可以在很多領域超越傳統(tǒng)算法,不過真正用到實際產(chǎn)品中卻要面臨計算量大,內(nèi)存占用高,算法延時長的問題,而IoT設備又往往有算力低、內(nèi)存小及實時性要求高的特點。因此針對IoT資源受限的問題,AI模型的壓縮及性能優(yōu)化是AI模型在部署過程中必須解決的難點。

IoT設備中嵌入AI能力實現(xiàn)產(chǎn)品的智能升級,已經(jīng)是AIoT行業(yè)發(fā)展的重要通道,那怎樣才能實現(xiàn)AIoT = AI + IoT呢?如何將AI模型塞到小小的IoT設備里,讓它可以輕松運行起來呢?成為了AI開發(fā)者遇到的棘手難題。

LiteAI四大"殺手锏",解鎖物聯(lián)網(wǎng)設備AI 開發(fā)難關

l  LiteOS輕量級AI推理框架LiteAI,從模型轉(zhuǎn)換、優(yōu)化及執(zhí)行三個方面向開發(fā)者呈現(xiàn)如何在IoT設備上實現(xiàn)AI模型的推理全流程,并結(jié)合智能設備AI開發(fā)的案例,展示AI部署全過程。

l  針對IoT設備內(nèi)存空間小的問題,LiteAI應用了模型量化技術,將模型參數(shù)從32比特浮點量化到8比特定點,實現(xiàn)75%模型壓縮;實現(xiàn)更合理的內(nèi)存管理算法,最大化內(nèi)存復用率,絕大部分場景下達到內(nèi)存使用下限值;提供模型壓縮及聚類算法供開發(fā)者選擇,進一步減少內(nèi)存占用。

l  LiteAI采用算子融合、SIMD指令加速、循環(huán)分支細化及Cache分塊等技術手段,優(yōu)化AI網(wǎng)絡算子性能,加速模型推理,充分發(fā)揮ARM CPU算力。

l  LiteAI推理引擎純C語言實現(xiàn),無第三方依賴,極為適合IoT產(chǎn)品部署;采用代碼化模型執(zhí)行函數(shù)設計,僅編譯鏈接有用算子,完全剔除其他所有無用算子,基本無冗余代碼,實現(xiàn)代碼段空間占用最小化。