昆蟲機器人裝了個AI大腦,11秒連翻10個跟頭

昆蟲機器人裝了個AI大腦,11秒連翻10個跟頭

文章圖片

昆蟲機器人裝了個AI大腦,11秒連翻10個跟頭

文章圖片

昆蟲機器人裝了個AI大腦,11秒連翻10個跟頭

文章圖片

昆蟲機器人裝了個AI大腦,11秒連翻10個跟頭

(來源:MIT News)

在未來的災難救援中 , 微型飛行機器人或將成為搜救廢墟下幸存者的關鍵力量 。 它們能像真實的昆蟲一樣 , 在大型機器人無法觸及的狹窄空間中穿梭自如 , 靈活避開靜止的障礙物和墜落的碎石 。 但迄今為止 , 空中微型機器人在飛行時只能沿著平滑、緩慢的軌跡移動 , 遠遠比不上真實昆蟲迅捷靈活的飛行能力 。

近期 , 麻省理工學院的研究人員已經展示了一種空中微型機器人 , 其飛行速度和靈活性可與生物昆蟲相媲美 。 一個跨學科團隊為這種“昆蟲機器人”設計了新的基于人工智能的控制器 , 使其能夠完成體操般的飛行動作 , 比如連續翻轉身體 。

借助一套兼具高性能和高計算效率的雙層控制方案 , 與研究團隊此前的最佳成果相比 , 這種機器人的速度提升了約 450% , 加速度提升約 250% 。 即便在風擾動不斷干擾、試圖將其吹離航線的情況下 , 這款高速機器人依然靈活敏捷 , 仍然能夠在 11 秒內連續完成 10 個前空翻 。

“我們希望這些機器人能進入傳統四旋翼無人機無法進入、但昆蟲卻能自如飛行的場景 。 現在 , 憑借我們的仿生控制框架 , 這款機器人在速度、加速度和俯仰角方面已能與昆蟲媲美 。 這是朝著未來目標邁出的激動人心的一步 。 ”MIT 電氣工程與計算機科學系副教授、電子研究實驗室軟體與微型機器人實驗室主任 Kevin Chen 表示 。



紙片般輕的小機器人 , 如何飛得像昆蟲?

Kevin Chen 團隊做昆蟲機器人已經有五年多時間 。 最新一代作品是一臺大小約似微型磁帶盒、重量甚至輕于一枚回形針的空中微型機器人 。

和傳統剛性無人機不同 , 這臺機器人依靠的是一組柔軟的人工肌肉驅動機翼 。 人工肌肉以極高頻率拍動四片微小的機翼 , 為機器人提供升力和推力;新一代機器人采用更大的翼面 , 使動作更加靈活、可完成更劇烈的機動 。

硬件不斷進步 , 但一直以來限制這臺機器人上限的 , 是它的腦子 , 也就是控制器 。

以往 , 機器人飛行控制參數主要靠人手工調節 。 工程師需要根據經驗 , 對控制增益、參數邊界一點點微調 , 讓機器人在實驗室中安全飛起來 。 這種做法能實現基本穩定飛行 , 卻難以支持高速、激進的機動 , 更無法可靠地重復執行復雜動作 , 比如連續空翻 。

如果想讓機器人像昆蟲那樣飛得又快又狠 , 就需要一個更聰明的控制系統:既能處理小尺度機器人固有的不確定性 , 又能實時求解復雜的控制優化問題 。 但以這類微型飛行器復雜的非線性空氣動力學特性而言 , 傳統高性能控制算法一旦原樣搬到機載系統中 , 計算量大到難以實時運行 。



“兩步走”的 AI 大腦:先規劃 , 再模仿

為解決性能與算力之間的矛盾 , 團隊設計出一套“兩步走”的控制架構:先用一個計算量巨大的“專家級”規劃器求出最優飛行動作 , 再用人工智能把這套能力“壓縮”進一個輕量級策略模型中 。

第一步 , 是一個“模型預測控制器”(Model Predictive Controller , MPC) 。 它基于機器人飛行動力學的數學模型 , 預測未來一小段時間內的運動狀態 , 規劃出一串最優控制動作 , 使其沿著目標軌跡飛行 , 同時滿足推力、力矩等各類物理約束 。

這樣一來 , 控制器不僅能規劃空翻、急轉彎等復雜機動 , 還能在規劃時考慮誤差累積和環境擾動 , 整體上更魯棒 。

比如 , 要讓機器人連續做 10 次前空翻 , 每做完一次 , 都必須在動作末尾把速度和姿態調整回適合下一次翻轉的狀態 。 如果每次都帶著一點點誤差 , 循環十次之后 , 機器人很快就會飛偏甚至墜毀 。

問題在于 , 這樣的 MPC 算得太慢 , 沒法直接在昆蟲尺度機器人上實時運行 。 為此 , 研究團隊引入第二步:用這個專家控制器當老師 , 通過模仿學習 , 訓練一個基于深度學習的輕量級策略網絡 。

他們讓 MPC 在仿真和特定條件下 , 反復規劃各種激進機動 , 在不同初始狀態和擾動下給出“最佳動作序列” , 再用這些數據訓練策略模型 , 讓它學會在看到當前狀態時 , 直接輸出合適的控制指令 。


圖 | 750 毫克撲翼式空中機器人所完成飛行動作一覽(來源:Science)

本質上 , 是先讓一個非常聰明但算得很慢的老師演示所有動作 , 再讓 AI 把老師的做法看懂、記住并壓縮 , 變成一個可以在毫秒級運行的“小腦袋” , 真正用于實時控制 。

How 將其中的關鍵稱為一套魯棒的訓練方法 , 既要覆蓋足夠多的工況 , 在風、制造誤差、電纜纏繞等擾動下仍能保持穩定 , 又不能盲目堆數據 , 以免訓練變得低效甚至失敗 。

最終 , 在實際飛行中 , 機器人使用的是這個輕量化策略網絡:實時讀取自身狀態 , 快速計算控制指令;而高算力的 MPC 則退居幕后 , 只在訓練階段扮演老師的角色 。



速度提升 4.5 倍 , 11 秒翻 10 個空翻

實驗結果顯示 , 這套“兩步走”的 AI 控制架構 , 為這臺昆蟲尺度的軟體飛行器帶來了質的飛躍 。

與團隊此前的最佳實驗結果相比 , 新系統讓機器人飛行速度提升了約 447% , 加速度提升約 255% 。 在一項標志性測試中 , 機器人在 11 秒內連續完成了 10 個空中前空翻 , 并且全程偏離規劃軌跡的誤差從未超過 4~5 厘米 。


圖 | 機體空翻動作演示(來源:Science)

“這項工作表明 , 傳統上被認為速度受限的軟體機器人和微型機器人 , 現在也可以借助先進控制算法 , 獲得接近自然昆蟲和大型機器人那樣的機動能力 。 這也為未來實現多模態運動打開了新的可能 。 ”共同一作 Yi-Hsuan Hsiao 說 。

團隊還演示了一種典型的昆蟲飛行動作——“掃視”運動:機器人先通過劇烈俯仰實現快速加速 , 迅速飛向某個位置 , 然后再劇烈俯仰到相反方向 , 短時間內高效減速并懸停 。 這種猛沖一下 , 再急剎車的空中動作 , 在自然界中有助于昆蟲進行自我定位和獲取清晰的視覺信息 。


圖 | 控制器設計和身體掃視演示(來源:Science)

“這種仿生飛行行為 , 將來在我們給機器人搭載攝像頭和其他傳感器時會很有價值 。 ”Kevin Chen 說 , “它能幫助機器人在復雜環境中看得更清楚、定位更精準 。 ”

目前 , 這些實驗仍在室內、依賴復雜的運動捕捉系統完成 。 真正要走出實驗室 , 飛向廢墟、森林甚至城市街區 , 機器人還要學會更多能力:自主感知環境、與同伴協同、避障、抗風……這些都離不開機載傳感器和更多“在野外學來的”策略 。

研究團隊的下一步工作 , 正是把眼睛和耳朵裝上這臺機器人:搭載微型攝像頭和慣性測量單元 , 實現無需外部系統的自主定位與避障;探索多機協同控制 , 讓多臺機器人在復雜環境中分頭搜索、互不碰撞;研究在更劇烈、更不確定的戶外風場中 , 控制策略如何保持魯棒性 。

“對微型機器人領域來說 , 我希望這篇論文能推動一個新的范式:我們不必在要性能和要效率之間二選一 , 而是可以設計出同時具備二者的控制架構 。 ”Kevin Chen 說 。

未參與本研究的卡內基梅隆大學機械工程教授 Sarah Bergbreiter 在評述中指出 , 這項工作尤其令人印象深刻的地方在于:盡管在小尺度制造中存在相對較大的加工誤差、環境中存在超過 1 米/秒的陣風干擾 , 甚至電源牽引線在機器人反復翻轉時會纏繞在其身上 , 這些機器人仍然能夠精準地完成空翻和快速轉彎 。

但她也提醒 , 目前控制器仍運行在外部計算機上 , 而非完全搭載在機器人機體中 。 不過 , 作者已經展示出:哪怕算力遠不及實驗室服務器 , 類似的控制策略在昆蟲尺度機器人上仍有希望以稍低精度運行 。 “這讓人對未來更加敏捷的昆蟲尺度機器人充滿期待 。 ”她說 。

原文鏈接:
1.https://news.mit.edu/2025/mit-engineers-design-aerial-microrobot-fly-like-bumblebee-1203
【昆蟲機器人裝了個AI大腦,11秒連翻10個跟頭】2.https://www.science.org/doi/10.1126/sciadv.aea8716

    推薦閱讀