讓機器人看視頻學操作技能,清華等全新發布的CLAP框架做到了

讓機器人看視頻學操作技能,清華等全新發布的CLAP框架做到了

文章圖片

讓機器人看視頻學操作技能,清華等全新發布的CLAP框架做到了

文章圖片

讓機器人看視頻學操作技能,清華等全新發布的CLAP框架做到了

文章圖片

讓機器人看視頻學操作技能,清華等全新發布的CLAP框架做到了


近日 , 清華大學與星塵智能、港大、MIT 聯合提出基于對比學習的隱空間動作預訓練(Contrastive Latent Action Pretraining CLAP)框架 。 這個框架能夠將視頻中提純的運動空間與機器人的動作空間進行對齊 , 也就是說 , 機器人能夠直接從視頻中學習技能!
https://mp.weixin.qq.com/s/6qkoPGMbnZXFWOYg-MljlQ?click_id=11
論文標題:CLAP: Contrastive Latent Action Pretraining for Learning Vision-Language-Action Models from Human

    推薦閱讀