• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

P2T:通过深度回归学习实现的部分到目标跟踪

P2T: Part-to-Target Tracking via Deep Regression Learning.

作者信息

Gao Junyu, Zhang Tianzhu, Yang Xiaoshan, Xu Changsheng

出版信息

IEEE Trans Image Process. 2018 Mar 9. doi: 10.1109/TIP.2018.2813166.

DOI:10.1109/TIP.2018.2813166
PMID:29994065
Abstract

Most existing part based tracking methods are part-to-part trackers, which usually have two separated steps including part matching and target localization. Different from existing methods, in this paper, we propose a novel part-totarget (P2T) tracker in a unified fashion by inferring target location from parts directly. To achieve this goal, we propose a novel deep regression model for part to target regression in an end-to-end framework via Convolutional Neural Networks. The proposed model is able to not only exploit part context information to preserve object spatial layout structure, but also learn part reliability to emphasize part importance for robust part to target regression. We evaluate the proposed tracker on 4 challenging benchmark sequences, and extensive experimental results demonstrate that our method performs favorably against state-of-the-art trackers because of the powerful capacity of the proposed deep regression model.

摘要

大多数现有的基于部件的跟踪方法都是部件到部件的跟踪器,通常有两个分开的步骤,包括部件匹配和目标定位。与现有方法不同,在本文中,我们通过直接从部件推断目标位置,以统一的方式提出了一种新颖的部件到目标(P2T)跟踪器。为了实现这一目标,我们通过卷积神经网络在端到端框架中提出了一种用于部件到目标回归的新颖深度回归模型。所提出的模型不仅能够利用部件上下文信息来保留对象空间布局结构,还能够学习部件可靠性以强调部件对稳健的部件到目标回归的重要性。我们在4个具有挑战性的基准序列上评估了所提出的跟踪器,大量实验结果表明,由于所提出的深度回归模型的强大能力,我们的方法在与当前最先进的跟踪器相比时表现出色。

相似文献

1
P2T: Part-to-Target Tracking via Deep Regression Learning.P2T:通过深度回归学习实现的部分到目标跟踪
IEEE Trans Image Process. 2018 Mar 9. doi: 10.1109/TIP.2018.2813166.
2
Deep Relative Tracking.深度相对跟踪
IEEE Trans Image Process. 2017 Apr;26(4):1845-1858. doi: 10.1109/TIP.2017.2656628. Epub 2017 Jan 20.
3
Distractor-Aware Deep Regression for Visual Tracking.基于分心物感知的深度回归视觉跟踪方法
Sensors (Basel). 2019 Jan 18;19(2):387. doi: 10.3390/s19020387.
4
Siamese Regression Tracking With Reinforced Template Updating.基于强化模板更新的暹罗回归跟踪
IEEE Trans Image Process. 2021;30:628-640. doi: 10.1109/TIP.2020.3036723. Epub 2020 Dec 4.
5
Interacting Multiview Tracker.交互多视图跟踪器。
IEEE Trans Pattern Anal Mach Intell. 2016 May;38(5):903-17. doi: 10.1109/TPAMI.2015.2473862. Epub 2015 Aug 27.
6
Part-Aware Framework for Robust Object Tracking.用于鲁棒目标跟踪的部分感知框架
IEEE Trans Image Process. 2023;32:750-763. doi: 10.1109/TIP.2022.3232941. Epub 2023 Jan 11.
7
Deep Object Tracking With Shrinkage Loss.基于收缩损失的深度目标跟踪
IEEE Trans Pattern Anal Mach Intell. 2022 May;44(5):2386-2401. doi: 10.1109/TPAMI.2020.3041332. Epub 2022 Apr 1.
8
Learning Soft Mask Based Feature Fusion with Channel and Spatial Attention for Robust Visual Object Tracking.基于软掩模的特征融合与通道和空间注意力的鲁棒视觉目标跟踪
Sensors (Basel). 2020 Jul 20;20(14):4021. doi: 10.3390/s20144021.
9
Hierarchical Recurrent Neural Hashing for Image Retrieval With Hierarchical Convolutional Features.基于层次卷积特征的层次递归神经网络哈希图像检索
IEEE Trans Image Process. 2018;27(1):106-120. doi: 10.1109/TIP.2017.2755766.
10
Robust Visual Tracking via Hierarchical Convolutional Features.基于分层卷积特征的鲁棒视觉跟踪。
IEEE Trans Pattern Anal Mach Intell. 2019 Nov;41(11):2709-2723. doi: 10.1109/TPAMI.2018.2865311. Epub 2018 Aug 13.