• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

使用单像素探测器以每秒6667帧的速度对快速移动物体进行无先验3D跟踪。

Prior-free 3D tracking of a fast-moving object at 6667 frames per second with single-pixel detectors.

作者信息

Zhang Huan, Liu Zonghao, Zhou Mi, Zhang Zibang, Chen Muku, Geng Zihan

出版信息

Opt Lett. 2024 Jul 1;49(13):3628-3631. doi: 10.1364/OL.521176.

DOI:10.1364/OL.521176
PMID:38950226
Abstract

Real-time tracking and 3D trajectory computation of fast-moving objects is a promising technology, especially in the field of autonomous driving. However, existing image-based tracking methods face significant challenges when it comes to real-time tracking, primarily due to the limitation of storage space and computational resources. Here, we propose a novel approach that enables real-time 3D tracking of a fast-moving object without any prior motion information and at a very low computational cost. To enable 3D coordinate synthesis with a space-efficient optical setup, geometric moment patterns are projected on two non-orthogonal planes with a spatial resolution of 125 μm. Our experiment demonstrates an impressive tracking speed of 6667 frames per second (FPS) with a 20 kHz digital micromirror device (DMD), which is more than 200 times faster than the widely adopted video-based tracking methods. To the best of our knowledge, this is the highest tracking speed record in the field of single-pixel 3D trajectory tracking. This method promotes the development of real-time tracking techniques with single-pixel imaging (SPI).

摘要

快速移动物体的实时跟踪和三维轨迹计算是一项很有前景的技术,尤其是在自动驾驶领域。然而,现有的基于图像的跟踪方法在实时跟踪方面面临重大挑战,主要是由于存储空间和计算资源的限制。在此,我们提出了一种新颖的方法,能够在无需任何先验运动信息的情况下,以非常低的计算成本对快速移动物体进行实时三维跟踪。为了通过空间高效的光学装置实现三维坐标合成,几何矩图案以125μm的空间分辨率投影到两个非正交平面上。我们的实验表明,使用20kHz数字微镜器件(DMD)时,跟踪速度达到了每秒6667帧(FPS),这比广泛采用的基于视频的跟踪方法快200多倍。据我们所知,这是单像素三维轨迹跟踪领域的最高跟踪速度记录。该方法推动了单像素成像(SPI)实时跟踪技术的发展。

相似文献

1
Prior-free 3D tracking of a fast-moving object at 6667 frames per second with single-pixel detectors.使用单像素探测器以每秒6667帧的速度对快速移动物体进行无先验3D跟踪。
Opt Lett. 2024 Jul 1;49(13):3628-3631. doi: 10.1364/OL.521176.
2
Image-free real-time 3-D tracking of a fast-moving object using dual-pixel detection.使用双像素检测对快速移动物体进行无图像实时三维跟踪。
Opt Lett. 2020 Sep 1;45(17):4734-4737. doi: 10.1364/OL.399204.
3
Complementary moment detection for tracking a fast-moving object using dual single-pixel detectors.使用双单像素探测器跟踪快速移动物体的互补矩检测
Opt Lett. 2022 Feb 15;47(4):870-873. doi: 10.1364/OL.451037.
4
Image-free real-time detection and tracking of fast moving object using a single-pixel detector.使用单像素探测器对快速移动物体进行无图像实时检测与跟踪。
Opt Express. 2019 Nov 25;27(24):35394-35401. doi: 10.1364/OE.27.035394.
5
Mask-based single-pixel tracking and imaging for moving objects.
Opt Express. 2023 Sep 25;31(20):32554-32564. doi: 10.1364/OE.501531.
6
Single-pixel tracking of fast-moving object using geometric moment detection.基于几何矩检测的快速移动目标单像素跟踪
Opt Express. 2021 Sep 13;29(19):30327-30336. doi: 10.1364/OE.436348.
7
Dual-pixel tracking of the fast-moving target based on window complementary modulation.
Opt Express. 2022 Oct 24;30(22):39747-39761. doi: 10.1364/OE.475249.
8
High-Speed Tracking with Mutual Assistance of Feature Filters and Detectors.基于特征滤波器与检测器相互辅助的高速跟踪
Sensors (Basel). 2023 Aug 10;23(16):7082. doi: 10.3390/s23167082.
9
Single-pixel imaging of a translational object.平移物体的单像素成像。
Opt Express. 2023 Feb 13;31(4):5547-5560. doi: 10.1364/OE.481881.
10
Compressed ultrahigh-speed single-pixel imaging by swept aggregate patterns.扫频聚合模式的压缩超高速度单像素成像。
Nat Commun. 2022 Dec 22;13(1):7879. doi: 10.1038/s41467-022-35585-8.

引用本文的文献

1
An Image-Free Single-Pixel Detection System for Adaptive Multi-Target Tracking.一种用于自适应多目标跟踪的无图像单像素检测系统。
Sensors (Basel). 2025 Jun 21;25(13):3879. doi: 10.3390/s25133879.