http://www.sharifulalam.com 2025-07-31 10:44 來(lái)源:芯科科技
人工智能(AI)和機(jī)器學(xué)習(xí)(ML)是使系統(tǒng)能夠從數(shù)據(jù)中學(xué)習(xí)、進(jìn)行推理并隨著時(shí)間的推移提高性能的關(guān)鍵技術(shù)。這些技術(shù)通常用于大型數(shù)據(jù)中心和功能強(qiáng)大的GPU,但在微控制器(MCU)等資源受限的器件上部署這些技術(shù)的需求也在不斷增加。
本文將探討MCU技術(shù)和AI/ML的交集,以及它如何影響低功耗邊緣設(shè)備。同時(shí)將討論在電池供電設(shè)備的MCU上運(yùn)行人工智能的困難、創(chuàng)新和實(shí)際應(yīng)用場(chǎng)景。
AI/ML和MCU:簡(jiǎn)要概述
人工智能創(chuàng)建的計(jì)算機(jī)系統(tǒng)可以執(zhí)行類(lèi)似人類(lèi)的任務(wù),例如理解語(yǔ)言、尋找模式和做出決定。機(jī)器學(xué)習(xí)是人工智能的一個(gè)子集,涉及使用算法讓計(jì)算機(jī)從數(shù)據(jù)中學(xué)習(xí)并隨著時(shí)間的推移不斷改進(jìn)。機(jī)器學(xué)習(xí)模型可以尋找模式、排序?qū)ο蟆⒉氖纠蓄A(yù)測(cè)結(jié)果。
MCU使人工智能和機(jī)器學(xué)習(xí)在邊緣設(shè)備上成為可能,可以在多個(gè)方面發(fā)揮著重要作用。
基于MCU運(yùn)行的邊緣AI/ML的一些應(yīng)用場(chǎng)景包括:
關(guān)鍵詞識(shí)別:無(wú)需云連接即可識(shí)別特定詞語(yǔ)或短語(yǔ)(例如語(yǔ)音命令)
傳感器融合:結(jié)合來(lái)自多個(gè)傳感器的數(shù)據(jù),做出比使用單一傳感器解決方案更明智的決策
異常檢測(cè):檢測(cè)傳感器數(shù)據(jù)中可能指示故障、錯(cuò)誤或威脅的異常值或異常模式,以進(jìn)行預(yù)測(cè)性維護(hù)或質(zhì)量控制
目標(biāo)檢測(cè):在攝像頭或其他傳感器捕獲的圖像或視頻中識(shí)別和定位感興趣的目標(biāo)(例如人臉、行人、車(chē)輛)
手勢(shì)識(shí)別:在攝像頭或其他傳感器捕獲的圖像或視頻中解讀人類(lèi)手勢(shì)(例如手部動(dòng)作、面部表情、身體姿勢(shì)),以改善人機(jī)交互
AI/ML在MCU上的挑戰(zhàn)
深度學(xué)習(xí)模型,特別是深度神經(jīng)網(wǎng)絡(luò)(DNN),已經(jīng)成為計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理等復(fù)雜任務(wù)中不可或缺的一部分。然而,它們的計(jì)算需求是巨大的。這種資源密集型模型對(duì)于日常設(shè)備來(lái)說(shuō)是不切實(shí)際的,尤其是那些由邊緣設(shè)備中的低功耗MCU驅(qū)動(dòng)的設(shè)備。深度學(xué)習(xí)模型的復(fù)雜性必然會(huì)增長(zhǎng),隨著深度神經(jīng)網(wǎng)絡(luò)變得越來(lái)越復(fù)雜,其規(guī)模會(huì)不斷擴(kuò)大,使它們與MCU上有限的可用計(jì)算資源不相容。
什么是TinyML?
TinyML指的是為在資源受限的設(shè)備上部署人工智能而優(yōu)化的機(jī)器學(xué)習(xí)模型和技術(shù)。這些設(shè)備在邊緣運(yùn)行,在那里生成數(shù)據(jù),并在本地執(zhí)行推理。TinyML系統(tǒng)通常在低功耗MCU上運(yùn)行,對(duì)在節(jié)點(diǎn)本地收集的數(shù)據(jù)執(zhí)行推理。推理是人工智能模型的關(guān)鍵時(shí)刻,測(cè)試它在訓(xùn)練中所學(xué)知識(shí)的應(yīng)用能力。本地推理使MCU能夠直接執(zhí)行人工智能模型,無(wú)需依賴(lài)外部服務(wù)器或云服務(wù)即可做出實(shí)時(shí)決策。
在AI/ML環(huán)境中進(jìn)行本地推理至關(guān)重要,原因如下:
資源限制:許多嵌入式設(shè)備,特別是那些使用電池供電的設(shè)備,其內(nèi)存、處理能力和能源效率等資源有限。傳統(tǒng)的通用MCU由于其有限的處理能力和內(nèi)存、有限的能源資源或缺乏片上加速功能而難以有效地執(zhí)行人工智能任務(wù)。本地推理支持這些資源受限的設(shè)備在不消耗過(guò)多功耗的情況下執(zhí)行人工智能工作負(fù)載,以提高效率和性能。
用戶(hù)體驗(yàn)增強(qiáng):舉例而言:支持人工智能的電子貓門(mén)。通過(guò)訓(xùn)練它來(lái)區(qū)分貓和其他物體,它只能為授權(quán)的貓打開(kāi)門(mén)。在這里,本地推理通過(guò)確保安全性和便利性來(lái)改善用戶(hù)體驗(yàn),而不需要RFID項(xiàng)圈等其他硬件。
效率和性能:GPU通常用于大規(guī)模人工智能部署,因?yàn)樗鼈兛梢圆⑿袌?zhí)行許多流程,這對(duì)高效的人工智能訓(xùn)練至關(guān)重要。然而,對(duì)于小型嵌入式應(yīng)用來(lái)說(shuō),GPU成本高昂,并且超出了功耗預(yù)算。人工智能優(yōu)化的MCU具有專(zhuān)用架構(gòu),通過(guò)為人工智能工作負(fù)載提供更好的性能和能效來(lái)實(shí)現(xiàn)平衡。在Silicon Labs(芯科科技)提供的新型無(wú)線(xiàn)SoC和MCU中,已包括一個(gè)矩陣矢量處理器來(lái)為其AI/ML功能提供一部分支持。這種專(zhuān)用的硬件加速器旨在增強(qiáng)AI/ML算法或矢量數(shù)學(xué)運(yùn)算的性能,以縮短推理時(shí)間并以更低的功耗執(zhí)行這些關(guān)鍵任務(wù)。
總之,邊緣的本地推理可以實(shí)現(xiàn)實(shí)時(shí)決策、減少延遲、增強(qiáng)安全性、為電池供電的設(shè)備提供人工智能功能,并增強(qiáng)用戶(hù)體驗(yàn),使其成為現(xiàn)代計(jì)算系統(tǒng)的關(guān)鍵組成部分,同時(shí)滿(mǎn)足資源限制。
芯科科技引領(lǐng)邊緣AI/ML解決方案
芯科科技作為智能、安全物聯(lián)網(wǎng)無(wú)線(xiàn)連接領(lǐng)域的開(kāi)拓者,正在致力于將AI/ML帶到邊緣。我們對(duì)創(chuàng)新的承諾帶來(lái)了突破性的解決方案,使MCU等資源受限的產(chǎn)品具有更豐富的智能功能。
針對(duì)TinyML優(yōu)化的器件
EFR32xG24、EFR32xG28和EFR32xG26等無(wú)線(xiàn)MCU系列產(chǎn)品均結(jié)合了78 MHz的ARM Cortex®-M33處理器、高性能射頻、精密模擬性能,以及一個(gè)AI/ML硬件加速器,為開(kāi)發(fā)人員提供了一個(gè)部署邊緣智能的靈活平臺(tái)。同時(shí),這些產(chǎn)品還支持廣泛的無(wú)線(xiàn)物聯(lián)網(wǎng)協(xié)議,具有市場(chǎng)領(lǐng)先的安全性和最佳的射頻性能/能效比。
當(dāng)今的開(kāi)發(fā)人員經(jīng)常被迫為在邊緣部署AI/ML而在性能或能耗方面付出高昂的代價(jià)。xG24、xG28和xG26系列作為首款內(nèi)置專(zhuān)用AI/ML加速器的超低功耗產(chǎn)品,可降低整體設(shè)計(jì)復(fù)雜性,從而減輕這些代價(jià)。這種專(zhuān)用硬件旨在處理復(fù)雜的計(jì)算,與僅采用固件的方法相比,推理速度提高8倍,能效提高6倍,與基于云的解決方案相比,性能更高。硬件加速器的使用減輕了主應(yīng)用MCU推理的負(fù)擔(dān),留出更多的時(shí)鐘周期為用戶(hù)的應(yīng)用提供服務(wù)。
簡(jiǎn)化AI/ML開(kāi)發(fā)的工具
構(gòu)建、測(cè)試和部署機(jī)器學(xué)習(xí)所需算法的工具與運(yùn)行這些算法的MCU同樣重要。通過(guò)與TensorFlow、SensiML和Edge Impulse等TinyML領(lǐng)域的行業(yè)翹楚合作,芯科科技同時(shí)為初學(xué)者和專(zhuān)家提供了選擇。開(kāi)發(fā)人員可以將這一新AI/ML工具鏈與芯科科技的Simplicity Studio開(kāi)發(fā)環(huán)境配合使用,創(chuàng)建可從各種連接設(shè)備中獲取信息的應(yīng)用程序,從而做出智能的機(jī)器學(xué)習(xí)驅(qū)動(dòng)的決策。
芯科科技提供各種工具和資源來(lái)支持機(jī)器學(xué)習(xí)應(yīng)用:
機(jī)器學(xué)習(xí)應(yīng)用:該開(kāi)發(fā)平臺(tái)支持嵌入式機(jī)器學(xué)習(xí)(TinyML)模型推理,由TensorFlow Lite for Microcontrollers (TFLM)框架提供支持。其計(jì)算庫(kù)包含一組利用機(jī)器學(xué)習(xí)的嵌入式應(yīng)用程序。
機(jī)器學(xué)習(xí)工具包(MLTK):這是一個(gè)帶有命令行實(shí)用程序和腳本的Python包,可幫助開(kāi)發(fā)者為芯科科技的嵌入式平臺(tái)開(kāi)發(fā)機(jī)器學(xué)習(xí)模型。它包括從命令行界面或Python腳本執(zhí)行機(jī)器學(xué)習(xí)操作、確定機(jī)器學(xué)習(xí)模型在嵌入式平臺(tái)上的執(zhí)行效率以及使用Google TensorFlow訓(xùn)練機(jī)器學(xué)習(xí)模型的功能。
芯科科技還提供TinyML解決方案,作為機(jī)器學(xué)習(xí)工具包的一部分。該工具包包括TinyML基準(zhǔn)測(cè)試使用的幾種模型。這些模型可在芯科科技GitHub上找到,包括異常檢測(cè)、圖像分類(lèi)和關(guān)鍵詞識(shí)別。
AI/ML驅(qū)動(dòng)的邊緣設(shè)備為我們?nèi)绾闻c周?chē)h(huán)境互動(dòng)開(kāi)辟了新的視野,它們很快將以令人驚嘆的方式改變我們的生活。芯科科技處于TinyML創(chuàng)新的最前沿,能夠以前所未有的方式將這些功能帶入低功耗、聯(lián)網(wǎng)的邊緣設(shè)備。
點(diǎn)擊此處,了解更多關(guān)于芯科科技的EFR和EFM MCU平臺(tái)是如何針對(duì)邊緣AI/ML進(jìn)行優(yōu)化。