【机械臂视觉抓取】第一讲-概述-【机械臂入门教程】机械臂视觉抓取从理论到实战

AID:
CID:
视频图片:
作者头像:
弹幕地址:
视频描述:

热门回复:

  • 三只锣:还想问一个问题,大佬为啥不继续做深度强化学习了,另外真的强烈请求大佬建个群,像我们实验室没有做视觉的真的想要一个交流探讨的环境!!!
  • 哈萨克斯坦x:数据集和代码放在简洁里了,up看粉丝心切在考试周开始赶教程了,大家觉得还不错的可以给个三连~ 谢谢大家!
  • Zyonia:同深度相机点云+机械臂,毕业就靠大佬了
  • 流星雨的紫恋:博主,早上好 我仔细看了您的代码,有些地方还有点疑惑。 标定文件calibrate.py里面最终保存标定结果camera_depth_scale.txt和camera_pose.txt应该是在同级目录下的那两个文件,但是为什么UR_Robot.py文件里面调用的标定文件却是real/cam_pose/目录下的?我对比过它们是不一样的。 然后就是相机的camera_depth_scale可以是标定结果也可以是相机调用(cfg.get_device().first_depth_sensor().get_depth_scale())出来的结果吗?使用哪个更好呢?
  • 流星雨的紫恋:博主您好,看了您的代码受益匪浅,感谢分享![支持] 有个疑惑就是:在move_j_p函数中我了解到,代码是通过目标位姿求逆得到关节角度然后再调用的URscript的move_j函数来移动的,但是我了解到URscript中有move_p函数,可以直接输入位姿(不用求逆)进行移动,比如movep(pose, a=1.2, v=0.25, r=0),pose=【0.2,0.3,0.5,0,0,3.14】,请问为什么没有采用这种方法呢?是因为博主实验过这种方法效果不稳定吗?