UniGarmentManip: A Unified Framework for Category-Level Garment Manipulation via Dense Visual Correspondence

2024年05月11日
  • 简介
    服装操作(如展开、折叠和挂衣服)对于未来的家庭助理机器人来说是必不可少的,但由于服装配置、几何形状和变形的多样性,这也是极具挑战性的。尽管之前的研究能够在某些任务中操作形状类似的服装,但大多需要为不同的任务设计不同的策略,无法推广到具有不同几何形状的服装,并且往往严重依赖于人工标注的数据。在本文中,我们利用了这样一个特性,即某一类服装具有相似的结构,并通过自监督的方式学习该类别内服装的拓扑密集(点级)视觉对应关系,包括不同变形。这种拓扑对应关系可以很容易地适应于功能对应关系,以引导各种下游任务的操作策略,仅需一次或少量演示。在不同场景下使用一个或两个手臂,进行一步或多步操作,输入平整或杂乱的服装,对三个不同类别的服装进行了三项代表性任务的实验,证明了我们提出的方法的有效性。项目页面:https://warshallrho.github.io/unigarmentmanip。
  • 作者讲解·1
  • 图表
  • 解决问题
    解决问题:论文试图解决衣物操作中的形态多样性和几何变形问题,以及如何在无监督学习的情况下,实现对衣物的自适应操作。
  • 关键思路
    关键思路:利用衣物在同一类别中具有相似结构的特点,以自监督学习的方式学习衣物之间的拓扑密集视觉对应关系,并将其转化为功能对应关系,以引导各种下游任务的操作策略。
  • 其它亮点
    亮点:论文在三个不同类别的衣物上进行了实验,验证了该方法的有效性。实验设计了多种场景和任务,使用了单臂或双臂,输入平整或凌乱的衣物。此外,论文还提供了项目页面和开源代码。
  • 相关研究
    相关研究:近期的相关研究包括“Learning to Fold Clothes with Deep Reinforcement Learning”和“Robotic Clothing Assistance for People with Disabilities: A Review”,其中前者探索了基于强化学习的衣物折叠,而后者对残疾人的衣物辅助提供了综述。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问