機器人“狂踹不倒”視頻刷屏!太空艙遍布城市,銀河通用秀麻了

機器人“狂踹不倒”視頻刷屏!太空艙遍布城市,銀河通用秀麻了

文章圖片

機器人“狂踹不倒”視頻刷屏!太空艙遍布城市,銀河通用秀麻了

文章圖片

機器人“狂踹不倒”視頻刷屏!太空艙遍布城市,銀河通用秀麻了

文章圖片

機器人“狂踹不倒”視頻刷屏!太空艙遍布城市,銀河通用秀麻了

文章圖片

機器人“狂踹不倒”視頻刷屏!太空艙遍布城市,銀河通用秀麻了

文章圖片

機器人“狂踹不倒”視頻刷屏!太空艙遍布城市,銀河通用秀麻了

文章圖片

機器人“狂踹不倒”視頻刷屏!太空艙遍布城市,銀河通用秀麻了

文章圖片

機器人“狂踹不倒”視頻刷屏!太空艙遍布城市,銀河通用秀麻了

文章圖片

【機器人“狂踹不倒”視頻刷屏!太空艙遍布城市,銀河通用秀麻了】機器人“狂踹不倒”視頻刷屏!太空艙遍布城市,銀河通用秀麻了

文章圖片

機器人“狂踹不倒”視頻刷屏!太空艙遍布城市,銀河通用秀麻了

henry 發自 凹非寺
量子位 | 公眾號 QbitAI
連續飛踢一臺機器人30秒會發生什么?

不到半分鐘 , 這臺宇樹G1就連著挨了十幾個飛踢 , 堪稱機生的“至暗時刻” 。
在不少網友為它打抱不平時 , 也不禁讓人感嘆一句:穩 , 純穩、無可爭議的穩!

那么 , 是什么讓這臺機器人怎么踹都踹不倒呢?
答案就出自銀河通用的全新通用動作追蹤框架——Any2Track 。
Any2Track不僅能讓機器人精確模仿各種人類復雜動作 , 還能實時適應各種真實世界的干擾 。
要知道 , 在干擾下也能平滑追蹤人類動作 , 可不是件容易的事 。

正因如此 , 將動作捕捉與現實世界的適應性結合起來 , 可謂是機器人技術的一大進步 。

更重要的是 , Any2Track并不僅限于人形機器人的動作追蹤 , 它還是一個強大的基礎動作追蹤模型 , 可支持不同下游任務 , 從而加速具身智能通用控制的實現 , 比如:
全身遙操作 人形機器人技能學習 人形機器人VLA模型 ……接下來 , 就讓我們看看它是如何做到的——
兼顧精準模仿與抗干擾簡單來說 , 動作追蹤就是讓機器人能夠準確捕捉、復現人類的復雜運動 。
但要做到“既像人又能在真實環境里穩住” , 并不容易 。

一方面 , 我們希望機器人能夠學習到多樣化、高動態、接觸豐富的人類動作知識 , 具備通用性 。
另一方面 , 我們也希望機器人具備在線動態的適應性 , 能夠克服sim2real的差距 , 以及在不同場景下靈活調用這些“技能包” , 具備抗干擾的能力 。
然而 , 在現實中 , 通用性與高度適應性往往難以兼得 。
為實現這種“既要又要” , 銀河通用團隊提出了二階段的強化學習框架——Any2Track (Track Any motions under Any disturbances) , 兼顧了精準的動作模仿與抗干擾能力 。
這一舉超越了ASAP、GMT等傳統方法 , 實現了零樣本sim2real , 讓機器人做起復雜動作來 , 依舊穩如老狗 。

論文鏈接:https://arxiv.org/pdf/2509.13833
開源鏈接:https://github.com/GalaxyGeneralRobotics/OpenTrack
總的來說 , Any2Track將動作捕捉的學習過程解耦為AnyTracker和AnyAdapter兩個階段 。

首先是AnyTracker 。
AnyTracker是一個通用的動作追蹤模塊 , 通過讓機器人的本體感知狀態(proprioception state)盡可能接近追蹤目標(tracking goals)動作來訓練強化學習策略 。
其中 , 本體感知狀態包括角速度、投影重力、每個關節的位置、每個關節的速度以及上一幀的動作 。
追蹤目標則包括目標關節位置、目標關節速度以及局部坐標系下的剛體信息 。
(注:為實現通用動作追蹤 , 研究團隊使用了AMASS和LAFAN1運動數據集的組合作為訓練數據 。 此外 , 作為基礎策略訓練 , 此階段不引入任何動態隨機化 , 以避免追蹤性能下降。 )
在訓練過程中 , 研究團隊發現訓練通用動作追蹤器的瓶頸在于:
人形機器人具有高自由度(high degrees of freedom) , 動作空間復雜; 不同動作類別的動作分布差異大 , 使得單次RL優化難以學習所有分布 。為此 , 研究團隊先設計了標準化動作空間(Canonicalized Action Spaces) , 通過標準化和殘差預測 , 簡化每個關節的動作范圍 , 使策略更易學習 。

接下來 , 又通過動作聚類(Motion Clustering)和專家到通用(Specialist-to-Generalist)的方法 , 先訓練專家策略處理特定類別動作 , 再蒸餾到通用策略 , 兼顧了訓練效率和多樣性覆蓋 。
其次是AnyAdapter 。
在完成一階段AnyTracker的訓練后 , 研究團隊在此階段引入了環境動力學變化 , 并提出了AnyAdapter
——一個基于歷史信息感知的適應模塊 。
它能夠利用歷史交互數據學習環境動力學特征 , 并據此動態調整機器人行為 , 實現在線的動力學適應性 。

在特征提取方面 , 團隊提出了動力學感知的世界模型預測(dynamics-aware world model prediction) 。
在每個時間步中 , 歷史編碼器從歷史交互信息中提取動力學特征嵌入 , 而世界模型則自回歸地預測下一幀機器人狀態:

在世界模型的訓練過程中 , 研究團隊首先從數據緩沖區采樣一個包含H+1+N=100個狀態-動作對的窗口 。
初始化時 , 歷史編碼器將前H個數據對作為輸入 , 計算初始動力學特征嵌入 。
隨后 , 世界模型以第H+1個狀態作為初始狀態 , 自回歸預測接下來的N幀狀態 。
損失函數定義如下:

在動力學適應性設計上 , 團隊創新性地將其重新定義為基礎動作執行能力之上的附加能力 。
為此 , 一階段的Any2Track網絡參數被凍結 , 并引入adapter架構進行微調 。
隨著微調的進行 , adapter通過層級特征融合將動力學適應性注入到基礎模型中 。
這種訓練范式避免了降低已經獲得的運動追蹤性能 , 最終實現了豐富的運動表現力和強大的動力學適應性 。
實驗結論為驗證Any2Track的性能 , 研究通過將29自由度的宇樹G1部署在MuJoCo模擬器和現實世界中進行了實驗 。
首先 , 實驗對比了AnyTracker與基線方法在動作追蹤質量上的表現:

實驗結果顯示 , AnyTracker在運動追蹤精度上明顯優于基線方法 。
同時 , 規范化動作空間以及從專家策略到通用策略方法的有效性也得到了驗證 。
隨后 , 團隊測試了AnyAdapter在面對不同來源干擾時的在線動力學適應能力:

實驗結果表明 , Any2Track在所有干擾條件下(包括地形變化、外力作用、軀干質量變化、質心位置偏移、關節摩擦差異)均超越了所有基線方法 。
最后 , 團隊將策略部署到宇樹G1上 , 并在復雜地形、外部約束以及負重場景中評估Any2Track的實際表現 。

實驗顯示 , Any2Track在所有測試環境中均優于帶有域隨機化的PPO策略 。

更值得注意的是 , 隨著環境干擾程度增加 , Any2Track的優勢進一步擴大 , 體現出其卓越的穩定性與動態適應能力 。
而這種抗干擾能力 , 正是打開具身智能機器人從技術研發到商業場景落地中必不可少的關鍵一環 。
據了解 , Any2Track背后的研發團隊來自銀河通用機器人公司 , 清華大學交叉信息研究院助理教授、上海期智研究院PI弋力老師和其團隊 , 及北京大學助理教授王鶴老師團隊 。
從實驗室走向街頭:銀河太空艙讓機器人真正“干活”如果說“狂踹不倒”展示的是機器人在實驗室里的硬核肌肉 , 那么能干活的Galbot , 則展現出真實世界里的切實價值 。
目前 , 銀河通用已經構建了GraspVLA、TrackVLA、GroceryVLA等端到端具身大模型 , 在精準操作、導航等核心任務上實現了泛化能力突破 。
然而 , 有了干活的能力 , 還需要找到需要干活的場景 。
銀河通用的“銀河太空艙” , 正是把實驗室中的運控、抓握、識別、導航等技術推向街頭巷尾、自主干活、服務大眾的絕佳載體 。
譬如 , 你的下一杯咖啡 , 可能就來自中關村“銀河太空艙”里的機器人咖啡師 。
在成都春熙路 , 吸引路人駐足的 , 也許正是“太空艙”門前翩翩起舞的機器人表演者 。

隨著這一間間“9平米”的未來便利店 , 從中關村起步 , 逐步擴展至北京、上海、深圳、宜賓、蘇州、成都、杭州、無錫等全國各地的街頭巷尾 。
這些具身智能機器人也不再只是實驗里的科技展示 , 而是真正融入了城市煙火 , 成為切實的生產力 。
比如 , 在十一當天 , 位于頤和園的銀河太空艙就吸引了大量游客駐足體驗 。

而在中國網球公開賽上 , 銀河太空艙更是落地現場 , 為賽事注入新鮮科技元素 。

在無錫 , 首個具身智能機器人零售店“銀河太空艙”正式亮相 , 為蘇超聯賽增添前沿科技氛圍 。

對此 , 北京大學助理教授、銀河通用機器人創始人及CTO、智源學者王鶴表示:
銀河通用機器人正在將智慧零售與創新文旅帶入全國街頭巷尾與熱門景點:輪式人形機器人賣冰飲、咖啡、文創;雙足人形機器人熱情攬客 , 把地方特色融入舞蹈和互動 。 我們期待銀河太空艙走向更多城市 , 人形機器人必將成為中國的又一張國際名片 。
全棧自研技術管線事實上 , 機器人的“狂踹不倒”與“太空艙”里機器人服務只是銀河通用體系化能力里最新被發現的“冰山一角” 。
自成立以來 , 銀河通用已形成了從合成數據到多模態具身大模型訓練的完整技術管線 。
在這一過程中 , 其提出了一套高效通往落地的解決方案:
以智能合成大數據與具身大模型為核心 , 實現“數據生產—模型訓練—場景應用”的閉環迭代 。
在當前具身智能領域真機數據普遍稀缺的背景下 , 銀河通用選擇了以合成為主、真實為輔的數據范式 。
通過大規模仿真合成數據輔以少量真實數據 , 不僅能夠更快、更低成本地產出海量高質量數據 , 有效破解場景數據匱乏的難題 , 還能加速模型在多場景中的泛化與落地 。
也正是基于這一思路 , 銀河通用將戰略視野擴展到全國化的具身智能訓練平臺布局 。
在大規模合成數據及銀河通用基座大模型的基礎上 , 通過打造真實場景的訓練平臺 , 能夠更快形成多樣化的垂直場景數據積累 , 從而讓人形機器人具備更加精細的垂直場景工作能力并習得工作的流程和規則 。
通過這一“合成+真實、研發+場景”的雙輪驅動 , 銀河通用正在不斷推動具身智能在全國范圍內的規?;涞?。
無論是工業、零售 , 還是文旅、醫療等多元場景 , 銀河通用都在以技術優勢賦能千行百業 , 讓智能真正走進生產與生活 , 也讓未來的城市生活變得更加智能 。
從“狂踹不倒”的黑科技 , 到“落地干活”的日常服務 , 人形機器人正在加速走向規?;瘧?。
銀河通用這樣的先行者 , 正在讓中國的人形機器人產業 , 從實驗室走向工廠、商圈與景區 。
未來 , 人形機器人不僅是科研成果 , 更有望成為中國面向世界的又一張科技名片 。
— 完 —
量子位 QbitAI · 頭條號簽約
關注我們 , 第一時間獲知前沿科技動態

    推薦閱讀