【TechWeb】1月28日消息 , 螞蟻集團旗下靈波科技今日宣布全面開源具身大模型 LingBot-VLA 。
此次開源不僅提供了模型權重 , 還同步開放了包含數據處理、高效微調及自動化評估在內的全套代碼庫 。 這一舉措大幅壓縮了模型訓練周期 , 降低了商業化落地的算力與時間門檻 , 助力開發者以更低成本快速適配自有場景 , 模型實用性大幅提升 。
螞蟻靈波科技CEO朱興表示 , “具身智能要想大規模應用 , 依賴高效的具身基座模型 , 這直接決定了是否可用以及能否用得起 。 我們希望通過LingBot-VLA的開源 , 積極探索具身智能上限 , 推進具身智能研發早日進入可復用、可驗證、可規模化落地的新階段 , 讓AI加速在物理世界滲透普及 , 更早的服務每一個人 。
LingBot-VLA是螞蟻開源的第一款具身智能基座模型 。 朱興介紹 , 螞蟻集團堅定以開源開放模式探索AGI , 為此打造InclusionAI , 構建了涵蓋基礎模型、多模態、推理、新型架構及具身智能的完整技術體系與開源生態 。 LingBot-VLA的開源 , 正是InclusionAI的關鍵實踐 。
【螞蟻靈波開源具身大模型LingBot-VLA 后訓練代碼全面開放】據悉 , 在數據采集階段 , LingBot-VLA 使用了星海圖、松靈的硬件平臺 , 樂聚、庫帕思、國家地方共建人形機器人創新中心、北京人形機器人創新中心有限公司、博登智能、睿爾曼也在模型預訓練階段提供了高質量數據支持 。 目前 , LingBot-VLA 已與星海圖、松靈、樂聚等廠商完成適配 , 驗證了模型在不同構型機器人上的跨本體遷移能力 。
推薦閱讀
- AI眼鏡能付停車費了:小米眼鏡聯合螞蟻GPASS上線停車繳費功能
- 剛剛,楊植麟親自開源Kimi K2.5!國產大模型打架的一天
- DeepSeek-OCR 2大模型開源,重塑文檔AI的認知邏輯
- 超1億!螞蟻投了一家個人專屬Agent創企
- 螞蟻靈波開源LingBot-Depth模型 讓機器人精準抓取透明反光物
- 螞蟻具身研究首次亮相!就解決了機器人「看」透明玻璃這些難題
- 具身智能“統考卷”:上海交通大學發布大規模開源測評集GM-100
- 百萬圍觀、HuggingFace多模態登頂,開源語音版「DeepSeek」爆火
- 分析清理微信儲存空間的開源項目遭發函、下架?騰訊回應
- 下載超10億、衍生模型破20萬,阿里千問刷新全球開源模型紀錄
