• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

基于一阶曲线微分几何的相机姿态估计

Camera Pose Estimation Using First-Order Curve Differential Geometry.

作者信息

Fabbri Ricardo, Giblin Peter, Kimia Benjamin

出版信息

IEEE Trans Pattern Anal Mach Intell. 2021 Oct;43(10):3321-3332. doi: 10.1109/TPAMI.2020.2985310. Epub 2021 Sep 2.

DOI:10.1109/TPAMI.2020.2985310
PMID:32275583
Abstract

This paper considers and solves the problem of estimating camera pose given a pair of point-tangent correspondences between a 3D scene and a projected image. The problem arises when considering curve geometry as the basis of forming correspondences, computation of structure and calibration, which in its simplest form is a point augmented with the curve tangent. We show that while the resectioning problem is solved with a minimum of three points given the intrinsic parameters, when points are augmented with tangent information only two points are required, leading to substantial robustness and computational savings, e.g., as a minimal engine within ransac. In addition, algorithms are developed to find a practical solution shown to effectively recover camera pose using synthetic and real datasets. This technology is intended as a building block of curve-based structure from motion systems, allowing new views to be incrementally registered to a core set of views for which relative pose has been computed.

摘要

本文考虑并解决了在给定三维场景与投影图像之间的一对点-切线对应关系的情况下估计相机位姿的问题。当将曲线几何作为形成对应关系、结构计算和校准的基础时,就会出现这个问题,其最简单的形式是一个带有曲线切线的点。我们表明,虽然在已知内参的情况下,使用最少三个点就能解决后方交会问题,但当点增加了切线信息时,只需要两个点,这带来了更高的鲁棒性和计算量的节省,例如,作为RANSAC中的一个最小引擎。此外,还开发了算法来找到一个实际的解决方案,该方案使用合成数据集和真实数据集有效地恢复相机位姿。这项技术旨在作为基于曲线的运动结构系统的一个构建模块,允许将新视图逐步注册到已计算出相对位姿的一组核心视图中。

相似文献

1
Camera Pose Estimation Using First-Order Curve Differential Geometry.基于一阶曲线微分几何的相机姿态估计
IEEE Trans Pattern Anal Mach Intell. 2021 Oct;43(10):3321-3332. doi: 10.1109/TPAMI.2020.2985310. Epub 2021 Sep 2.
2
Fast and Accurate Pose Estimation with Unknown Focal Length Using Line Correspondences.利用线对应关系进行未知焦距下的快速准确姿态估计
Sensors (Basel). 2022 Oct 28;22(21):8253. doi: 10.3390/s22218253.
3
Globally-Optimal Inlier Set Maximisation for Camera Pose and Correspondence Estimation.用于相机姿态和对应估计的全局最优内点集最大化
IEEE Trans Pattern Anal Mach Intell. 2020 Feb;42(2):328-342. doi: 10.1109/TPAMI.2018.2848650. Epub 2018 Jun 19.
4
A Minimal Solution to Radial Distortion Autocalibration.一种针对径向畸变自标定的最小化解决方案。
IEEE Trans Pattern Anal Mach Intell. 2011 Dec;33(12):2410-22. doi: 10.1109/TPAMI.2011.86. Epub 2011 May 12.
5
Automatic Camera Calibration Using Multiple Sets of Pairwise Correspondences.利用多组对成对应进行自动相机标定。
IEEE Trans Pattern Anal Mach Intell. 2018 Apr;40(4):791-803. doi: 10.1109/TPAMI.2017.2699648. Epub 2017 Apr 28.
6
Real-Time RGB-D Camera Pose Estimation in Novel Scenes Using a Relocalisation Cascade.基于重定位级联的新场景实时 RGB-D 相机位姿估计
IEEE Trans Pattern Anal Mach Intell. 2020 Oct;42(10):2465-2477. doi: 10.1109/TPAMI.2019.2915068. Epub 2019 May 6.
7
Pose and Focal Length Estimation Using Two Vanishing Points with Known Camera Position.使用两个已知相机位置的灭点进行位姿和焦距估计。
Sensors (Basel). 2023 Apr 3;23(7):3694. doi: 10.3390/s23073694.
8
NOPE-SAC: Neural One-Plane RANSAC for Sparse-View Planar 3D Reconstruction.NOPE-SAC:用于稀疏视图平面3D重建的单平面神经随机抽样一致性算法
IEEE Trans Pattern Anal Mach Intell. 2023 Dec;45(12):15233-15248. doi: 10.1109/TPAMI.2023.3314745. Epub 2023 Nov 3.
9
Retinal image registration through simultaneous camera pose and eye shape estimation.通过同时估计相机姿态和眼睛形状进行视网膜图像配准。
Annu Int Conf IEEE Eng Med Biol Soc. 2016 Aug;2016:3247-3251. doi: 10.1109/EMBC.2016.7591421.
10
Kinectrack: 3D Pose Estimation Using a Projected Dense Dot Pattern.Kinectrack:使用投影密集点模式进行 3D 姿态估计。
IEEE Trans Vis Comput Graph. 2014 Jun;20(6):839-51. doi: 10.1109/TVCG.2013.262.