视觉伺服机械臂手机抓取最佳位姿检测
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:

陕西省科技统筹创新工程(2015KTZDGY-02-01); 陕西省教育厅产业化培育项目(2018-14)


Visual Servo Manipulator to Grab Mobile Phone of the Best Pose Detection
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 增强出版
  • |
  • 文章评论
    摘要:

    针对下水道、勾缝等狭窄位置的手机拾取的问题, 本文提出一种基于机器视觉的伺服机械臂抓取方法. 首先对机械臂eye-in-hand上的相机进行标定, 图像预处理及目标检测等, 在位姿检测中提出一种基于二维坐标系下手机位姿解算算法, 得出解算的最佳位姿角只与夹持点的像素坐标的差值有关, 其位姿角的大小决定了手抓旋转的角度. 实验用Matlab软件对位姿检测进行仿真分析, 其包括SURF不变特征点的目标检测实验和位姿解算实验, 最后用Rethink双臂机器人的右臂对手机进行抓取验证. 实验表明, 在误差允许范围内, 提出的算法具有一定的有效性, 其结果为伺服机械臂抓取手机提供良好的准确性.

    Abstract:

    Aiming at the pickup of mobile phones in narrow locations such as sewers and jointing, this study proposes a method of servo mechanical arms for grabbing based on machine vision. Firstly, the camera on the eye-in-hand mechanical arm is calibrated, followed by image preprocessing and target detection. In the pose detection, we propose an algorithm to solve the pose of the mobile phones based on the two-dimensional coordinate system. It turns out that the best pose angle is only related to the difference in the pixel coordinates of the clamping point, and the size of the pose angle determines the rotation angle of the gripper. Then, the pose detection is simulated by Matlab, including target detection with SURF invariant feature points and pose calculation. Finally, the right arm of a two-armed Rethink robot grasps a mobile phone for verification. The results show that within the allowable error range, the proposed algorithm accurately guides the servo mechanical arms to grasp mobile phones.

    参考文献
    相似文献
    引证文献
引用本文

田军委,闫明涛,丁良华,张震,张磊蒙,郝阳波.视觉伺服机械臂手机抓取最佳位姿检测.计算机系统应用,2021,30(6):154-161

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2020-10-08
  • 最后修改日期:2020-11-02
  • 录用日期:
  • 在线发布日期: 2021-06-05
  • 出版日期:
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京海淀区中关村南四街4号 中科院软件园区 7号楼305房间,邮政编码:100190
电话:010-62661041 传真: Email:csa (a) iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号