這款開(kāi)源桌面機(jī)器人,開(kāi)發(fā)者可自由編程AI應(yīng)用
關(guān)鍵詞: Reachy Mini AI模型 多模態(tài)交互 開(kāi)源機(jī)器人 主控芯片
電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)近日,Hugging Face宣布,其Reachy Mini桌面機(jī)器人現(xiàn)已開(kāi)始接受訂單。Reachy Mini有兩個(gè)版本:第一個(gè)版本為售價(jià)499美元的無(wú)線(xiàn)版本Reachy Mini Wireless;第二個(gè)版本是需要連接到計(jì)算設(shè)備的Reachy Mini Lite,價(jià)格為299美元。
該機(jī)器人預(yù)裝了一組演示程序,并與開(kāi)源機(jī)器學(xué)習(xí)平臺(tái)Hugging Face Hub集成。任何人都可以為Reachy Mini構(gòu)建自己的特定功能和應(yīng)用程序,然后與社區(qū)分享。
Reachy Mini的技術(shù)核心在于其硬件與AI模型的深度整合,尤其是無(wú)線(xiàn)版搭載的Raspberry Pi 5主控芯片,成為支撐多模態(tài)交互與實(shí)時(shí)決策的關(guān)鍵。
Raspberry Pi 5主控采用4核64位ARM Cortex-A76處理器,主頻最高2.4GHz,性能較前代提升2-3倍,可并行處理視覺(jué)識(shí)別、語(yǔ)音交互及運(yùn)動(dòng)控制任務(wù)。其內(nèi)置的VideoCore VII GPU支持4K視頻解碼,為機(jī)器人視覺(jué)系統(tǒng)提供低延遲支持。
Reachy Mini搭配多模態(tài)感知芯片組。 視覺(jué)處理方面,集成Intel RealSense D435i深度攝像頭模塊,通過(guò)專(zhuān)用ASIC芯片實(shí)現(xiàn)實(shí)時(shí)三維重建與物體追蹤,精度達(dá)毫米級(jí)。
語(yǔ)音交互方面,采用專(zhuān)用音頻DSP芯片,支持8麥克風(fēng)陣列波束成形,可實(shí)現(xiàn)360度聲源定位與噪聲抑制,即使在嘈雜環(huán)境中也能精準(zhǔn)識(shí)別語(yǔ)音指令。
運(yùn)動(dòng)控制方面,瑞士Maxon電機(jī)驅(qū)動(dòng)器內(nèi)置PID控制算法芯片,可實(shí)時(shí)調(diào)整機(jī)械臂扭矩與速度,確保抓取動(dòng)作的精準(zhǔn)性與安全性。
低功耗設(shè)計(jì)方面,無(wú)線(xiàn)版通過(guò)動(dòng)態(tài)電源管理技術(shù),根據(jù)任務(wù)負(fù)載自動(dòng)調(diào)節(jié)芯片頻率與電壓。例如,在待機(jī)狀態(tài)下,主控芯片功耗可降至0.5W以下,而滿(mǎn)負(fù)荷運(yùn)行時(shí)峰值功耗不超過(guò)15W,配合5000mAh電池可支持連續(xù)3小時(shí)自主運(yùn)行。
Reachy Mini的核心競(jìng)爭(zhēng)力在于深度整合Hugging Face Hub的170萬(wàn)+ AI模型和40萬(wàn)+數(shù)據(jù)集。開(kāi)發(fā)者通過(guò)Python編程即可調(diào)用預(yù)訓(xùn)練模型,實(shí)現(xiàn)語(yǔ)音識(shí)別、物體識(shí)別、情感分析等功能,未來(lái)還將支持JavaScript和Scratch,降低兒童及非專(zhuān)業(yè)用戶(hù)的使用門(mén)檻。
軟件層面,提供Python SDK與仿真器SDK,包含超過(guò)15種預(yù)設(shè)行為庫(kù)(如人臉識(shí)別、語(yǔ)音對(duì)話(huà)、手勢(shì)互動(dòng)),可直接在Hugging Face Hub下載使用。支持在硬件到貨前通過(guò)虛擬環(huán)境開(kāi)發(fā)和測(cè)試代碼,大幅縮短開(kāi)發(fā)周期。用戶(hù)可上傳、分享與復(fù)用行為腳本,形成“眾包式”技術(shù)迭代。
Reachy Mini的靈活性使其成為多領(lǐng)域的理想工具。如在教育領(lǐng)域,教師可通過(guò)Scratch讓小學(xué)生編寫(xiě)指令,讓機(jī)器人完成簡(jiǎn)單任務(wù),直觀(guān)理解編程邏輯。例如,學(xué)生可編程控制機(jī)器人完成“遞送物品”任務(wù),學(xué)習(xí)條件判斷與循環(huán)結(jié)構(gòu)。
在科研創(chuàng)新領(lǐng)域,研究人員可測(cè)試具身智能模型,例如訓(xùn)練機(jī)器人通過(guò)視覺(jué)和觸覺(jué)識(shí)別未知物體。Hugging Face與The Robot Studio共同設(shè)計(jì)的全尺寸人形機(jī)器人HopeJR已能在仿真環(huán)境中行走,下一步目標(biāo)是在現(xiàn)實(shí)世界中實(shí)現(xiàn)行走測(cè)試。
Hugging Face首席執(zhí)行官德朗格明確表示,開(kāi)源策略旨在防止機(jī)器人技術(shù)“被少數(shù)使用封閉系統(tǒng)的大公司壟斷”。通過(guò)發(fā)布Reachy Mini和全尺寸人形機(jī)器人HopeJR,Hugging Face將技術(shù)文檔、設(shè)計(jì)圖紙和軟件架構(gòu)全部開(kāi)源,真正實(shí)現(xiàn)由開(kāi)發(fā)者社區(qū)自行構(gòu)建的可能。這種模式延續(xù)了其在NLP領(lǐng)域的成功經(jīng)驗(yàn)——通過(guò)降低技術(shù)門(mén)檻,推動(dòng)全球開(kāi)發(fā)者共同創(chuàng)新。
