为了协助人类进行日常活动并成功完成家务,机器人应能有效操纵人们每天使用的物品。然而,一些物体由于其形状、灵活性或其他特性,很难被机械手抓取和处理,例如有褶皱的衣服。瑞士苏黎世联邦理工学院的研究人员最近引入了一种新的计算技术,可以将皱巴巴的布料可视化,帮助机器人规划有效策略,以便在做家务时抓住布料并进行一系列操作。相关论文发表在预印本网站arXiv上。
为了在单视角网格上重建皱巴巴的布料,研究人员使用了一个基于图形神经网络的模型。该算法旨在处理可以用图形表示的数据。
研究人员汇编了一个数据集训练其模型,其中包含超过12万张合成图像,这些图像来自布料网格的模拟、渲染的顶级视频RGBD布料图像,以及在现实世界中捕获的3000多张带标签的布料图像。在对这两个数据集进行大量训练后,研究人员发现,模型只需从上方查看布料就可有效地预测整个布料顶点的位置。
为了评估模型的性能,研究人员进行了一系列测试。他们将模型应用到ABB YuMi机器人上,这是一个有两只胳膊和两只手的人形半身机器人。
在模拟和实验中,他们的模型都能够生成布料的网格,从而有效指导ABB YuMi机器人的运动,使它无论是用单手还是同时使用双手,都能够更好地握住和操纵各种布料。
研究人员汇编的数据集和模型的代码是开源的,可以在GitHub上访问。未来这项研究可能会为机器人领域的进一步发展铺平道路,有助于让移动机器人更好地帮助人类做家务,尤其是提高它们处理桌布和其他各种常用布料的能力。