• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

使用视觉和深度传感器的三维刚体跟踪。

3-D rigid body tracking using vision and depth sensors.

出版信息

IEEE Trans Cybern. 2013 Oct;43(5):1395-405. doi: 10.1109/TCYB.2013.2272735. Epub 2013 Aug 15.

DOI:10.1109/TCYB.2013.2272735
PMID:23955795
Abstract

In robotics and augmented reality applications, model-based 3-D tracking of rigid objects is generally required. With the help of accurate pose estimates, it is required to increase reliability and decrease jitter in total. Among many solutions of pose estimation in the literature, pure vision-based 3-D trackers require either manual initializations or offline training stages. On the other hand, trackers relying on pure depth sensors are not suitable for AR applications. An automated 3-D tracking algorithm, which is based on fusion of vision and depth sensors via extended Kalman filter, is proposed in this paper. A novel measurement-tracking scheme, which is based on estimation of optical flow using intensity and shape index map data of 3-D point cloud, increases 2-D, as well as 3-D, tracking performance significantly. The proposed method requires neither manual initialization of pose nor offline training, while enabling highly accurate 3-D tracking. The accuracy of the proposed method is tested against a number of conventional techniques, and a superior performance is clearly observed in terms of both objectively via error metrics and subjectively for the rendered scenes.

摘要

在机器人和增强现实应用中,通常需要基于模型的刚体 3D 跟踪。借助准确的姿势估计,可以提高整体可靠性并减少抖动。在文献中提出的许多姿势估计解决方案中,纯基于视觉的 3D 跟踪器要么需要手动初始化,要么需要离线训练阶段。另一方面,依赖纯深度传感器的跟踪器不适合 AR 应用。本文提出了一种基于扩展卡尔曼滤波器融合视觉和深度传感器的自动化 3D 跟踪算法。一种新颖的测量跟踪方案,基于使用 3D 点云的强度和形状索引图数据估计光流,显著提高了 2D 和 3D 跟踪性能。该方法既不需要手动初始化姿势,也不需要离线训练,同时能够实现高精度的 3D 跟踪。所提出的方法的准确性已经通过多种传统技术进行了测试,在误差指标方面以及呈现的场景的主观方面,都明显观察到了优越的性能。

相似文献

1
3-D rigid body tracking using vision and depth sensors.使用视觉和深度传感器的三维刚体跟踪。
IEEE Trans Cybern. 2013 Oct;43(5):1395-405. doi: 10.1109/TCYB.2013.2272735. Epub 2013 Aug 15.
2
Real-time multiple human perception with color-depth cameras on a mobile robot.移动机器人上的彩色深度相机的实时多人感知。
IEEE Trans Cybern. 2013 Oct;43(5):1429-41. doi: 10.1109/TCYB.2013.2275291. Epub 2013 Aug 21.
3
Enhanced computer vision with Microsoft Kinect sensor: a review.增强计算机视觉的微软 Kinect 传感器:综述。
IEEE Trans Cybern. 2013 Oct;43(5):1318-34. doi: 10.1109/TCYB.2013.2265378. Epub 2013 Jun 25.
4
Multilevel depth and image fusion for human activity detection.多层次深度和图像融合的人体活动检测。
IEEE Trans Cybern. 2013 Oct;43(5):1383-94. doi: 10.1109/TCYB.2013.2276433. Epub 2013 Aug 27.
5
Accurate estimation of human body orientation from RGB-D sensors.基于 RGB-D 传感器的人体姿态精确估计。
IEEE Trans Cybern. 2013 Oct;43(5):1442-52. doi: 10.1109/TCYB.2013.2272636. Epub 2013 Jul 23.
6
Real-time posture reconstruction for Microsoft Kinect.基于 Microsoft Kinect 的实时姿态重建。
IEEE Trans Cybern. 2013 Oct;43(5):1357-69. doi: 10.1109/TCYB.2013.2275945. Epub 2013 Aug 22.
7
Computer vision for RGB-D sensors: Kinect and its applications.基于 RGB-D 传感器的计算机视觉:Kinect 及其应用。
IEEE Trans Cybern. 2013 Oct;43(5):1314-7. doi: 10.1109/TCYB.2013.2276144. Epub 2013 Aug 15.
8
Discriminative exemplar coding for sign language recognition with Kinect.基于 Kinect 的手语识别的判别示例编码。
IEEE Trans Cybern. 2013 Oct;43(5):1418-28. doi: 10.1109/TCYB.2013.2265337. Epub 2013 Jun 19.
9
Free-viewpoint video of human actors using multiple handheld Kinects.使用多个手持 Kinect 的人体演员自由视点视频。
IEEE Trans Cybern. 2013 Oct;43(5):1370-82. doi: 10.1109/TCYB.2013.2272321. Epub 2013 Jul 22.
10
Occupancy mapping and surface reconstruction using local Gaussian processes with Kinect sensors.使用 Kinect 传感器的局部高斯过程进行占据映射和曲面重建。
IEEE Trans Cybern. 2013 Oct;43(5):1335-46. doi: 10.1109/TCYB.2013.2272592. Epub 2013 Jul 23.