• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

基于描述符的模式的多 RGB-D 相机外部标定新方法。

A Novel Method for Extrinsic Calibration of Multiple RGB-D Cameras Using Descriptor-Based Patterns.

机构信息

School of Mechatronic Engineering and Automation, Shanghai University, Shanghai 200444, China.

School of Mechanical Engineering, Beijing Institute of Technology, Beijing 100081, China.

出版信息

Sensors (Basel). 2019 Jan 16;19(2):349. doi: 10.3390/s19020349.

DOI:10.3390/s19020349
PMID:30654568
原文链接:https://pmc.ncbi.nlm.nih.gov/articles/PMC6359178/
Abstract

This paper presents a novel method to estimate the relative poses between RGB-D cameras with minimal overlapping fields of view. This calibration problem is relevant to applications such as indoor 3D mapping and robot navigation that can benefit from a wider field of view using multiple RGB-D cameras. The proposed approach relies on descriptor-based patterns to provide well-matched 2D keypoints in the case of a minimal overlapping field of view between cameras. Integrating the matched 2D keypoints with corresponding depth values, a set of 3D matched keypoints are constructed to calibrate multiple RGB-D cameras. Experiments validated the accuracy and efficiency of the proposed calibration approach.

摘要

本文提出了一种新的方法,用于估计具有最小重叠视场的 RGB-D 相机之间的相对姿态。这种标定问题与室内 3D 地图绘制和机器人导航等应用相关,这些应用可以通过使用多个 RGB-D 相机获得更宽的视场。所提出的方法依赖于基于描述符的模式,以便在相机之间具有最小重叠视场的情况下提供良好匹配的 2D 关键点。将匹配的 2D 关键点与相应的深度值集成在一起,可以构建一组 3D 匹配关键点,以对多个 RGB-D 相机进行标定。实验验证了所提出的标定方法的准确性和效率。

https://cdn.ncbi.nlm.nih.gov/pmc/blobs/fc2c/6359178/08098dbe88de/sensors-19-00349-g007.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/fc2c/6359178/5af15351c063/sensors-19-00349-g001.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/fc2c/6359178/e8b05e459ba0/sensors-19-00349-g002.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/fc2c/6359178/6aa917bfec3e/sensors-19-00349-g003.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/fc2c/6359178/78c9fe70035e/sensors-19-00349-g004.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/fc2c/6359178/9f8c43c9112c/sensors-19-00349-g005.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/fc2c/6359178/7e6042c26c82/sensors-19-00349-g006.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/fc2c/6359178/08098dbe88de/sensors-19-00349-g007.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/fc2c/6359178/5af15351c063/sensors-19-00349-g001.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/fc2c/6359178/e8b05e459ba0/sensors-19-00349-g002.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/fc2c/6359178/6aa917bfec3e/sensors-19-00349-g003.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/fc2c/6359178/78c9fe70035e/sensors-19-00349-g004.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/fc2c/6359178/9f8c43c9112c/sensors-19-00349-g005.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/fc2c/6359178/7e6042c26c82/sensors-19-00349-g006.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/fc2c/6359178/08098dbe88de/sensors-19-00349-g007.jpg

相似文献

1
A Novel Method for Extrinsic Calibration of Multiple RGB-D Cameras Using Descriptor-Based Patterns.基于描述符的模式的多 RGB-D 相机外部标定新方法。
Sensors (Basel). 2019 Jan 16;19(2):349. doi: 10.3390/s19020349.
2
A New Model of RGB-D Camera Calibration Based On 3D Control Field.基于 3D 控制场的 RGB-D 相机标定新模型。
Sensors (Basel). 2019 Nov 21;19(23):5082. doi: 10.3390/s19235082.
3
A Fast and Robust Extrinsic Calibration for RGB-D Camera Networks.一种用于RGB-D相机网络的快速且稳健的外部校准方法。
Sensors (Basel). 2018 Jan 15;18(1):235. doi: 10.3390/s18010235.
4
Multi-Cue-Based Circle Detection and Its Application to Robust Extrinsic Calibration of RGB-D Cameras.基于多线索的圆形检测及其在 RGB-D 相机鲁棒外参标定中的应用。
Sensors (Basel). 2019 Mar 29;19(7):1539. doi: 10.3390/s19071539.
5
Dense RGB-D SLAM with Multiple Cameras.多相机稠密 RGB-D SLAM。
Sensors (Basel). 2018 Jul 2;18(7):2118. doi: 10.3390/s18072118.
6
Enhanced RGB-D Mapping Method for Detailed 3D Indoor and Outdoor Modeling.用于详细3D室内和室外建模的增强型RGB-D映射方法
Sensors (Basel). 2016 Sep 27;16(10):1589. doi: 10.3390/s16101589.
7
Calibration of the Relative Orientation between Multiple Depth Cameras Based on a Three-Dimensional Target.基于三维目标的多深度相机相对方位校准
Sensors (Basel). 2019 Jul 8;19(13):3008. doi: 10.3390/s19133008.
8
TIMA SLAM: Tracking Independently and Mapping Altogether for an Uncalibrated Multi-Camera System.TIMA SLAM:针对未校准的多摄像机系统的独立跟踪与整体映射。
Sensors (Basel). 2021 Jan 8;21(2):409. doi: 10.3390/s21020409.
9
A New Calibration Method for Commercial RGB-D Sensors.一种用于商用RGB-D传感器的新校准方法。
Sensors (Basel). 2017 May 24;17(6):1204. doi: 10.3390/s17061204.
10
Indoor Scene Point Cloud Registration Algorithm Based on RGB-D Camera Calibration.基于RGB-D相机标定的室内场景点云配准算法
Sensors (Basel). 2017 Aug 15;17(8):1874. doi: 10.3390/s17081874.

引用本文的文献

1
Robust Texture Mapping Using RGB-D Cameras.使用RGB-D相机的稳健纹理映射
Sensors (Basel). 2021 May 7;21(9):3248. doi: 10.3390/s21093248.
2
Enhancement of RGB-D Image Alignment Using Fiducial Markers.基于基准标记的 RGB-D 图像配准增强。
Sensors (Basel). 2020 Mar 9;20(5):1497. doi: 10.3390/s20051497.

本文引用的文献

1
Dense Visual SLAM with Probabilistic Surfel Map.基于概率表面图的密集视觉 SLAM
IEEE Trans Vis Comput Graph. 2017 Nov;23(11):2389-2398. doi: 10.1109/TVCG.2017.2734458. Epub 2017 Aug 10.
2
Direct Sparse Odometry.直接稀疏里程计。
IEEE Trans Pattern Anal Mach Intell. 2018 Mar;40(3):611-625. doi: 10.1109/TPAMI.2017.2658577. Epub 2017 Apr 12.
3
A robust linear feature-based procedure for automated registration of point clouds.一种基于稳健线性特征的点云自动配准方法。
Sensors (Basel). 2015 Jan 14;15(1):1435-57. doi: 10.3390/s150101435.
4
Solution to the SLAM problem in low dynamic environments using a pose graph and an RGB-D sensor.使用姿态图和RGB-D传感器解决低动态环境中的同步定位与地图构建问题。
Sensors (Basel). 2014 Jul 11;14(7):12467-96. doi: 10.3390/s140712467.
5
Accuracy and resolution of Kinect depth data for indoor mapping applications.用于室内制图应用的 Kinect 深度数据的准确性和分辨率。
Sensors (Basel). 2012;12(2):1437-54. doi: 10.3390/s120201437. Epub 2012 Feb 1.