• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

基于与或图的在线目标跟踪、学习与解析。

Online Object Tracking, Learning and Parsing with And-Or Graphs.

出版信息

IEEE Trans Pattern Anal Mach Intell. 2017 Dec;39(12):2465-2480. doi: 10.1109/TPAMI.2016.2644963. Epub 2016 Dec 23.

DOI:10.1109/TPAMI.2016.2644963
PMID:28026751
Abstract

This paper presents a method, called AOGTracker, for simultaneously tracking, learning and parsing (TLP) of unknown objects in video sequences with a hierarchical and compositional And-Or graph (AOG) representation. The TLP method is formulated in the Bayesian framework with a spatial and a temporal dynamic programming (DP) algorithms inferring object bounding boxes on-the-fly. During online learning, the AOG is discriminatively learned using latent SVM [1] to account for appearance (e.g., lighting and partial occlusion) and structural (e.g., different poses and viewpoints) variations of a tracked object, as well as distractors (e.g., similar objects) in background. Three key issues in online inference and learning are addressed: (i) maintaining purity of positive and negative examples collected online, (ii) controling model complexity in latent structure learning, and (iii) identifying critical moments to re-learn the structure of AOG based on its intrackability. The intrackability measures uncertainty of an AOG based on its score maps in a frame. In experiments, our AOGTracker is tested on two popular tracking benchmarks with the same parameter setting: the TB-100/50/CVPR2013 benchmarks  , [3] , and the VOT benchmarks [4] -VOT 2013, 2014, 2015 and TIR2015 (thermal imagery tracking). In the former, our AOGTracker outperforms state-of-the-art tracking algorithms including two trackers based on deep convolutional network   [5] , [6] . In the latter, our AOGTracker outperforms all other trackers in VOT2013 and is comparable to the state-of-the-art methods in VOT2014, 2015 and TIR2015.

摘要

本文提出了一种名为 AOGTracker 的方法,用于使用分层和组合的与或图 (AOG) 表示同时跟踪、学习和解析 (TLP) 视频序列中的未知对象。TLP 方法是在贝叶斯框架中制定的,使用空间和时间动态规划 (DP) 算法实时推断对象边界框。在线学习过程中,使用潜在 SVM 对 AOG 进行有判别力的学习,以解释跟踪对象的外观 (例如,光照和部分遮挡) 和结构 (例如,不同的姿势和视角) 变化,以及背景中的干扰物 (例如,相似的对象)。在线推理和学习中解决了三个关键问题:(i) 在线收集的正例和负例的纯度,(ii) 潜在结构学习中模型复杂性的控制,以及 (iii) 根据其可跟踪性识别重新学习 AOG 结构的关键时刻。可跟踪性根据其在一帧中的得分图来测量 AOG 的不确定性。在实验中,我们的 AOGTracker 在两个具有相同参数设置的流行跟踪基准上进行了测试:TB-100/50/CVPR2013 基准测试集 [3] 和 VOT 基准测试集 [4]-VOT2013、2014、2015 和 TIR2015 (热图像跟踪)。在前者中,我们的 AOGTracker 优于包括两个基于深度卷积网络的跟踪器在内的最先进的跟踪算法 [5]、[6]。在后一个基准测试中,我们的 AOGTracker 在 VOT2013 中优于所有其他跟踪器,并且在 VOT2014、2015 和 TIR2015 中与最先进的方法相当。

相似文献

1
Online Object Tracking, Learning and Parsing with And-Or Graphs.基于与或图的在线目标跟踪、学习与解析。
IEEE Trans Pattern Anal Mach Intell. 2017 Dec;39(12):2465-2480. doi: 10.1109/TPAMI.2016.2644963. Epub 2016 Dec 23.
2
Contextual Bag-of-Words for Robust Visual Tracking.基于上下文的词袋模型的鲁棒视觉跟踪。
IEEE Trans Image Process. 2018 Mar;27(3):1433-1447. doi: 10.1109/TIP.2017.2778561. Epub 2017 Nov 29.
3
DeepTrack: Learning Discriminative Feature Representations Online for Robust Visual Tracking.DeepTrack:在线学习判别特征表示以实现鲁棒视觉跟踪。
IEEE Trans Image Process. 2016 Apr;25(4):1834-48. doi: 10.1109/TIP.2015.2510583. Epub 2015 Dec 22.
4
Real-Time Object Tracking with Template Tracking and Foreground Detection Network.基于模板跟踪和前景检测网络的实时目标跟踪。
Sensors (Basel). 2019 Sep 12;19(18):3945. doi: 10.3390/s19183945.
5
Visual Tracking via Dynamic Graph Learning.基于动态图学习的视觉跟踪
IEEE Trans Pattern Anal Mach Intell. 2019 Nov;41(11):2770-2782. doi: 10.1109/TPAMI.2018.2864965. Epub 2018 Aug 13.
6
Training-Based Methods for Comparison of Object Detection Methods for Visual Object Tracking.基于训练的方法用于视觉目标跟踪中目标检测方法的比较。
Sensors (Basel). 2018 Nov 16;18(11):3994. doi: 10.3390/s18113994.
7
Preserving Structure in Model-Free Tracking.无模型跟踪中的结构保持。
IEEE Trans Pattern Anal Mach Intell. 2014 Apr;36(4):756-69. doi: 10.1109/TPAMI.2013.221.
8
Tracking Beyond Detection: Learning a Global Response Map for End-to-End Multi-Object Tracking.超越检测的跟踪:学习用于端到端多目标跟踪的全局响应图
IEEE Trans Image Process. 2021;30:8222-8235. doi: 10.1109/TIP.2021.3113169. Epub 2021 Sep 30.
9
Action-Driven Visual Object Tracking With Deep Reinforcement Learning.基于深度强化学习的驱动式视觉目标跟踪
IEEE Trans Neural Netw Learn Syst. 2018 Jun;29(6):2239-2252. doi: 10.1109/TNNLS.2018.2801826.
10
Nonlinear dynamic model for visual object tracking on Grassmann manifolds with partial occlusion handling.基于 Grassmann 流形的部分遮挡处理的视觉目标跟踪的非线性动态模型。
IEEE Trans Cybern. 2013 Dec;43(6):2005-19. doi: 10.1109/TSMCB.2013.2237900.

引用本文的文献

1
Process Monitoring in the Intensive Care Unit: Assessing Patient Mobility Through Activity Analysis with a Non-Invasive Mobility Sensor.重症监护病房中的过程监测:使用非侵入式移动传感器通过活动分析评估患者的活动能力。
Med Image Comput Comput Assist Interv. 2016 Oct;9900:482-490. doi: 10.1007/978-3-319-46720-7_56. Epub 2016 Oct 2.