乐于分享
好东西不私藏

工业机器人 + AI 双目 3D 视觉:打破视野限制,让机器人拥有全域感知

工业机器人 + AI 双目 3D 视觉:打破视野限制,让机器人拥有全域感知

点击蓝字

关注我们

关注并星标

从此不迷路

计算机视觉研究院

公众号ID计算机视觉研究院

学习群扫码在主页获取加入方式

https://pmc.ncbi.nlm.nih.gov/articles/PMC12568319/pdf/sensors-25-06402.pdf

计算机视觉研究院专栏

Column of Computer Vision Institute

本文提出的FANUC 机器人 + ZED2i 双目视觉 + YOLOv8+AI的融合控制方案,用 “广域感知 + 精确定位” 双层架构,大幅提升机器人数字空间感知能力。

PART/1

痛点   

痛点:工业机器人视觉的两大局限

目前机器人视觉系统普遍存在难以兼顾的矛盾:

  1. 视野窄:集成视觉只能看小范围,无法覆盖全域 workspace
  2. 精度与灵活不可兼得:宽视野精度低,高精度视野太小
  3. 环境适应性差:受光照、粉尘、反光影响大
  4. 柔性不足:换产品就要重新标定、编程

PART/2

创新方案   

创新方案:双层视觉 + AI 协同控制

本文提出 “粗定位 + 精定位”一体化架构:

  • 广域感知层:ZED2i 双目立体相机 + YOLOv8 目标检测
  • 精确定位层:FANUC iRVision 3DV 结构光视觉
  • 通信层:RMI 远程运动接口实现 PC→机器人实时控制

【Roboguide 测试台数字孪生模型】

1. 广域双目视觉(ZED2i)

  • 120° 超大视场角
  • 0.3–20m 深度范围
  • 内置 IMU、磁罗盘
  • 实时输出 3D 坐标与深度图

2. AI 目标检测(YOLOv8)

  • 轻量化、高精度、速度快
  • 训练后可识别多类工件
  • 输出 2D 框→自动解算 3D 位姿

3. 精密结构光视觉(FANUC 3DV)

  • 集成于机器人末端
  • 微米级重复定位
  • 专用于抓取、拆垛、料框拾取

4. 通信与协同(RMI)

PC 通过以太网 RMI 协议,直接下发运动指令,机器人到达指定点后切换 3DV 精定位。

【系统整体架构框图】

PART/3

核心算法   

关键技术:坐标统一与误差控制

1. 手眼标定

建立相机坐标系↔机器人基坐标系统一转换,实现全局定位。

【UserFrame 坐标系配置】

2. 误差来源与补偿

系统总误差包括:

  • YOLO 检测框中心偏差
  • 双目深度计算误差
  • 坐标转换误差
  • 光照、反光干扰

通过滤波 + 均值统计 + 光照屏蔽,将定位误差控制在可接受范围。

【多位置定位误差统计表】

PART/4

验证   

实验结果:广域覆盖 + 高精度兼顾

1. 定位效果

  • 大范围搜索:ZED2i 覆盖机器人全工作空间
  • 粗定位误差:X/Y/Z 均控制在毫米级
  • 精定位:由 3DV 保证 ±0.5mm级精度

2. 环境适应性

  • 正常光照:稳定检测
  • 荧光灯反光:会造成误检,加遮光板后恢复正常
  • 遮挡、无序工件:仍可完成识别与定位

【YOLOv8 检测 + 深度图效果图】

【遮光后正确检测效果】

3. 系统优势总结

  • 视野扩大数倍~十几倍
  • 不损失原厂精度
  • 换产品只需重训 YOLO 模型
  • 可扩展双相机消除盲区
  • 成本远低于纯高端 3D 视觉方案

【ZED2i 与 3DV 功能互补对比表】

PART/5

总结   

结论与工程价值

这套双目 3D 视觉 + AI + 工业机器人控制系统,真正实现:✅ 大范围感知✅ 高精度作业✅ 高柔性适配✅ 工业级稳定✅ 低成本落地

未来可扩展:双相机全覆盖、动态避障、人 – 机协同安全感知、数字孪生实时映射,成为工业 4.0 柔性产线的核心感知方案。

有相关需求的你可以联系我们!

END

转载请联系本公众号获得授权

计算机视觉研究院学习群等你加入!

ABOUT

计算机视觉研究院

计算机视觉研究院主要涉及深度学习领域,主要致力于目标检测、目标跟踪、图像分割、OCR、模型量化、模型部署等研究方向。研究院每日分享最新的论文算法新框架,提供论文一键下载,并分享实战项目。研究院主要着重”技术研究“和“实践落地”。研究院会针对不同领域分享实践过程,让大家真正体会摆脱理论的真实场景,培养爱动手编程爱动脑思考的习惯!
往期推荐 

🔗