機器人出海干打包工怎么成了CES上最強DEMO?

機器人出海干打包工怎么成了CES上最強DEMO?

文章圖片

機器人出海干打包工怎么成了CES上最強DEMO?

文章圖片

機器人出海干打包工怎么成了CES上最強DEMO?

文章圖片

機器人出海干打包工怎么成了CES上最強DEMO?

文章圖片

機器人出海干打包工怎么成了CES上最強DEMO?

文章圖片

機器人出海干打包工怎么成了CES上最強DEMO?

文章圖片

機器人出海干打包工怎么成了CES上最強DEMO?

文章圖片

機器人出海干打包工怎么成了CES上最強DEMO?

文章圖片


如果科技圈有春晚 , 那一定是CES 。

從當年的CD機、等離子電視 , 到后來的智能手機、VR眼鏡 , 再到這兩年的AI硬件 , CES幾乎定義了過去半個世紀消費電子的演進節奏 。 想知道今年什么技術會火?來CES看一眼就知道了 。

這也是CES被科技圈定位風向標的原因 。
今年的規模依然炸裂:23萬平方米展區 , 4500多家展商、14萬觀眾、當然 , 還有近千家的中國企業 。
今年CES的主題是“Smarter AI for All” , 雖然是讓AI賦能到所有產品上 , 但從實際應用來看 , 沒有什么比機器人更適合 。 為此 , CES還專門開辟了具身智能的專屬展廳 , 把原本散落在各個角落的機器人公司聚到了一起——這在CES歷史上還是頭一回 。

處在CES現場的我 , 也是狠狠的被震撼了一波 , 比如波士頓動力新發布的Atlas , 不僅身體更加靈活 , 還有容易讓人恐怖谷的360°轉身 , 像國內的宇樹 , 智元 , 傅里葉也都成為了現場圍觀對象 。

除了機器人的“體操表演” , 現場另外一家來自中國的機器人公司 , 也引起了包括我在內不少人的關注 。
CES上 , 這家中國公司讓機器人打包送外賣
這家叫做RoboSense速騰聚創的中國公司 , 在現場用機器人扮演起了“外賣小哥” 。

整個演示分為兩部分 , 先是拆包取貨 , 在這個流程中 , 機器人先把身后的盒子平穩的放到指定位置 , 然后打開上面的蓋子 , 把里面的禮品取出來放好 。 最后 , 它還知道把空盒子折疊壓平 , 發回到收納地方 , 以供二次利用 。

然后是打包上架 , 機器人拿起空盒子 , 放到指定位置 , 抓起旁邊的禮品袋放進去 , 然后合上蓋子 。 最后放回到指定地點 。

是不是看上去“平平無奇” , 但要知道 , 這是它——機器人完全自主操作的 。 沒有人在后面遙控操作 , 也不是固定場景的應試考試 。
我在現場看了好幾輪 , 從打包、上架、運送、拆包到回收 , 機器人一次做了將近20個連貫動作 , 一氣呵成 , 全程沒有人工介入 。 展期前兩天實現累計10小時近2000次步驟動作的零失誤自主操作 。
根據現場人員介紹 , 機器人的所有動作都不是預設 。 要知道 , CES展館對機器人來說是個全新環境 , 嘈雜、擁擠、充滿不可預測的變量 。 這種場景泛化能力 , 實在讓人對它的應用場景充滿想象 。

要知道 , 在之前許多自主控制案例中 , 都是先需要通過遙操 , 讓機器人熟悉環境 , 甚至不少的演示Demo中 , 背后都有著一個戴著VR眼鏡的操作員 。 比如說 , 之前馬斯克在CyberCab發布會上的機器人調酒 , 就是遙操實現的 。

相比之下 , RoboSense的這個演示 , 可以說是這次CES上最強AI機器人Demo之一了 。 畢竟 , 我們想要的是自主行動的機器人 , 而不是人類的遠程替身 。
演示Demo的另一個值得說的是靈巧手 。 在機器人業內 , 流傳一句話——大腦決定機器人能做什么 , 靈巧手決定機器人能做到什么程度 。
這次演示里 , 機器人要完成打包、拆箱、折疊這些動作 , 每一步都需要精準的力度控制——盒子捏太緊會變形 , 太松又會掉;折疊的時候力度不對 , 紙板要么折不動 , 要么直接壓壞 。

RoboSense速騰聚創的靈巧手上布滿了力觸覺傳感點陣 , 能實時感知接觸力度的變化 。 更重要的是 , 這些觸覺信號會反饋給自研的大模型 , 大模型再根據觸覺反饋來決定靈巧手的力度 。 并且 , 觸覺反饋還可以幫助機器人解決視覺盲區的問題——有些時候手擋住了攝像頭的視線 , 光靠\"看\"是不夠的 , 得靠\"摸\"來補位 。

這次Robosense速騰聚創不僅在CES現場進行了表演 , 他們還拍了在深圳實際場景下的一鏡到底視頻 。

視頻里 , 一個穿著黃色馬甲的機器人在夜晚獨自完成了一整套外賣配送任務:先是拆開外賣回收箱、取出外賣袋、把空箱子折疊好投進回收口 , 然后拎著外賣袋走到辦公樓 , 自己按電梯、坐電梯上樓 , 最終把東西送到3樓目的地 。

與CES展臺相比 , 深圳街頭的夜晚是真正的實用開放場景——光線暗、路況雜、電梯還得自己按 。 能在這種條件下跑通全流程 , 說明這套方案的泛化能力確實過硬 。
在機器人領域 , 誰能攻克靈巧手和大模型 , 等同于拿下了機器人領域的圣杯 。 兩個場景看下來 , RoboSense已經朝這個方向邁出了實質性的一步 。
而這背后 , 是三項關鍵技術的支撐:一個前面提到過能感知壓力的靈巧手 , 另外兩個是RoboSense自研的VTLA-3D的操作大模型和一套叫Active Camera的視覺系統 。

VTLA-3D看上去有點抽象 , 但是和去年智能駕駛中大火的VLA多少有點“異曲同工” 。 VLA是把攝像頭捕捉的圖像(Vision) , 以及用戶文字指令作為輸入(Language) , 機器人根據圖像和文字來執行動作(Action) 。
VTLA-3D在此之上 , 加入了3D激光點云信息和觸覺感知(Touch) , 多了兩個維度的信息通道 , 3D點云則解決了普通2D圖像對深度和距離判斷不夠準確的問題 , 讓機器人對空間的理解從\"平面\"升級到\"立體\";觸覺解決了靈巧手“用多大勁”的問題——抓紙盒和抓鐵塊力度肯定不一樣 , 這在日常高頻的抓取中作用非常大 。

根據官方的介紹 , 只用200多個小時的訓練數據 , 就達到了上面大家看到的泛化效果 。 如何在數據量不夠的情況下 , 達到可用的效果 , 這在訓練數據稀少的機器人領域 , 非常重要 。 看來RoboSense找到了一條通路 。
Active Camera和普通的純視覺Camera不同 , 它本身有一個帶雙目RGB攝像模組用來接收信息 , 還有dToF的收發模組 , 用來生成上面提到過的3D激光點云 , 剩下有IMU慣性單元 。 作為有感知解決方案基因的公司 , RoboSense能把三種不同感知能力一體化集成 , 這方面的積累確實是它的優勢所在 。

不止是硬件和大模型 , 從這次CES展出的內容來看 。 RoboSense在背后其實搭建了一整套具身智能技術體系 , 從底層AI平臺 , 數據采集系統 , 核心部件到頂端的模態控制 , 高效推理 , 基本上實現了具身智能的全棧自研 。
通過交流 , 目前RoboSense速騰聚創已經可以為行業提供成套的解決方案 , 幫助各行業快速搭建具有高度泛化和可用的具身智能 。 無論是物流配送 , 工業制造還是服務業 , 都可以實現快速接入 , 不用從零開始造輪子 。
具身智能正在深入行業
具身智能的發展正在邁入一個充滿活力的新階段 。 從技術演示走向實際應用 , 機器人行業已經穩健踏入了商業化落地的新征程 。
如果說2025年行業重點關注的是運動能力的突破 , 看機器人如何更靈活的行走 , 奔跑 , 甚至完成高難度動作 。 那么2026年CES所展示的趨勢表明 , 產業焦點已明確轉向更高階的操作能力與環境交互能力 , 逐步實現從“會動”到“能干實事”的質變 。
例如RoboSense速騰聚創展示的“手眼協同”方案 , 這個能體現出行業對完整任務閉環的重視 。 該方案通過感知 , 決策到執行的系統性支持 , 可以說將機器人技術轉化為了實際的生產力 。
這種從“炫技”到“干活”的轉變 , 是產業走向穩健發展的積極信號 。 機器人不僅助力工業制造降本增效 , 也在醫療、養老、物流等多元場景中持續創造價值 。 政策支持、資本投入與技術突破正形成強大合力 , 推動機器人從實驗室和展臺 , 真正走進工廠、商圈與家庭 。
雖然我們離完全類人 , 什么活都能干的通用機器人還比較遙遠 , 但在特定場景中輔助人類、實現勞動能力復制與擴展的技術已越來越近 。 以RoboSense速騰聚創的演示為例 , 最后100米的機器人送貨若能與無人配送車、無人倉等系統結合 , 有望顯著提升物流效率 , 這對于生產制造和消費服務行業的影響是非常深遠的 。
對于那些受數據、算力等因素限制的工業操作與商業服務場景 , 聚焦具體需求、“精耕細作”的解決方案也展現出可行路徑 。 隨著各領域操作能力持續提升 , 一些前沿的機器人服務體驗 , 預計將很快出現在我們身邊 。
【機器人出海干打包工怎么成了CES上最強DEMO?】在不斷攀登技術高峰的同時 , 深耕場景、務實落地 , 才能在即將到來的機器人時代占據先機 。 我們正站在人機共生社會的門檻上 , 對未來充滿信心 。

    推薦閱讀