返回首页 hi, 欢迎来到机器人在线 请登录/ 免费注册 扫码关注

集成视触觉传感的鳍线型机器人夹爪

时间:2022-06-06 阅读:5362

  本期我们将分享一篇会议论文-gelsightinationferencencencensoftrotics(robotics)-gelslsightfinfinfinfinfinfinfiningingentingons。论文研究团队介绍了一种新型的gelsighting线设计,它不仅可以被动地适应捕获的任何物体,还可以进行高分辨率的触觉重建物体方向的估计、剪切力和扭力的标记跟踪,从而帮助软件机器人执行更多的感知任务。

  软件机器人

  图a为Gelsight鳍线夹持器抓取玻璃瓶;图b为触觉图像;图c为视觉重建,可以看到瓶身上的字母。

  1夹持设计。

  传感器设计主要包括三个部分:夹紧设计、触觉传感器制造和照明系统。下图为夹持器制造工艺。

  软件机器人

  夹紧设计:根据elgeneidy等人提出的设计进行改进,保留鳍线的结构特征,中间部分挖空。夹紧装置中间的材料用硬TPU材料3D打印,后端用硬玛瑙马克锻造。与此同时,内部完全阻挡了光线,黑布阻挡了外部环境的照明,防止了摄像的干扰。同时,为了使夹紧装置灵活,激光切割的黑色弹性布(氨纶/尼龙)在将三个3D打印部弹性布(氨纶/尼龙)粘在柱子和手指开口的下部。然后,用氰基丙烯酸酯胶将手指的两半粘在刚性底座上。

  2.收集和处理触觉数据。

  所有触觉视频均采用树莓派fov160°广角相机拍摄。视频通过HSV颜色分割阈值,打开和关闭阈值图像,从参考视频的每一帧中提取一个点中心,并将其转换为numpy阵列。然后用点分割法将后续触摸图像与参考图像进行比较,找到与当前图像最匹配的图像。具体流程如下图所示:

  软件机器人

  将触摸图像与参考图像匹配后,拍摄不同的图像,然后使用泊松重建计算深度重建图像,在深度图像的阈值上使用轮廓搜索算法,并使用主要成分分析来找到被捕获对象的方向。对于标记点,可以从每个图像中划分并跟踪标记和跟踪LAB色彩空间的亮度通道值模糊图像之间的差值。然后从参考图像标记到最近的实际图像标记绘制箭头。如果两者之间的距离明显,箭头的长度会缩放三次,以强调接触对象的剪切和扭曲。

  3相关实验

  实验由Python和ROS组合软件驱动相机和UR5机械臂控制,不同的测试对象进行柔性和夹紧测试,测试对象如下:

  软件机器人

  (以酒杯测试为例,根据触觉传感器的测量方向,然后旋转夹紧器使酒杯垂直。之后,夹紧器将放下酒杯,直到标记跟踪算法检测到的总大小或剪切力超过阈值,表明酒杯与桌子接触。

  捕获结果表明,夹具可以捕获所有测试对象,包括不同的大小和形状;对于弯曲的物体,鳍射线手指可以绕过被捕获物体的曲率。对于线性物体,如螺丝刀和立方体,但一旦夹具施加的力增加,夹具将变得更强。

  软件机器人

  触觉传感器重建的实验结果表明,夹具也可以检测到小细节,如螺钉(如上图所示),这对重建力和滑动也有很好的效果。夹持圆柱体时,下左图(a)表示圆柱体外力的剪切力,下右图(b)表示圆柱体上施加的扭转外力。虽然系统中存在一些噪声,但软件和重建算法相对稳定。

  软件机器人

  本文介绍了一种新型的灵活性。细长的gelsight传感器可以与鳍线激发的手指结合使用,使其能够执行重建、对象方向估计和标记跟踪。可能存在问题。鳍线夹持器由于材料的生产,需要相当大的力来适应重量大或更弯曲的物体。未来的其他方向包括在三个手指的抓地力上安装gelsight鳍线。抓地力可以利用鳍线的柔软抓地力特性和触觉传感能力来选择和去除成熟的水果而不伤害它们,或者在洗碗机中操作更多的盘子来开发家庭助理机器人


软件机器人

好的文章,需要您的鼓励

20

  • 最新资讯
  • 最新问答
推荐