• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

基于 Earth Mover's Distance 的显著度测量和非线性特征组合的视觉注意模型。

A visual-attention model using Earth Mover's Distance-based saliency measurement and nonlinear feature combination.

机构信息

Department of Computer Science and Engineering, University of South Carolina, Columbia, SC 29208, USA.

出版信息

IEEE Trans Pattern Anal Mach Intell. 2013 Feb;35(2):314-28. doi: 10.1109/TPAMI.2012.119.

DOI:10.1109/TPAMI.2012.119
PMID:22641707
Abstract

This paper introduces a new computational visual-attention model for static and dynamic saliency maps. First, we use the Earth Mover's Distance (EMD) to measure the center-surround difference in the receptive field, instead of using the Difference-of-Gaussian filter that is widely used in many previous visual-attention models. Second, we propose to take two steps of biologically inspired nonlinear operations for combining different features: combining subsets of basic features into a set of super features using the Lm-norm and then combining the super features using the Winner-Take-All mechanism. Third, we extend the proposed model to construct dynamic saliency maps from videos by using EMD for computing the center-surround difference in the spatiotemporal receptive field. We evaluate the performance of the proposed model on both static image data and video data. Comparison results show that the proposed model outperforms several existing models under a unified evaluation setting.

摘要

本文提出了一种新的用于静态和动态显著图的计算视觉注意模型。首先,我们使用了基于“Earth Mover's Distance (EMD)”的方法来测量感受野中的中心-周围差异,而不是使用许多先前的视觉注意模型中广泛使用的“Difference-of-Gaussian filter”。其次,我们提出了分两步进行基于生物启发的非线性操作来组合不同的特征:使用 Lm-范数将基本特征的子集组合成一组超特征,然后使用“Winner-Take-All”机制组合超特征。第三,我们通过使用 EMD 来计算时空感受野中的中心-周围差异,将所提出的模型扩展到从视频中构建动态显著图。我们在静态图像数据和视频数据上评估了所提出模型的性能。比较结果表明,在所提出的统一评估设置下,该模型优于几种现有的模型。

相似文献

1
A visual-attention model using Earth Mover's Distance-based saliency measurement and nonlinear feature combination.基于 Earth Mover's Distance 的显著度测量和非线性特征组合的视觉注意模型。
IEEE Trans Pattern Anal Mach Intell. 2013 Feb;35(2):314-28. doi: 10.1109/TPAMI.2012.119.
2
Appearance-based gaze estimation using visual saliency.基于视觉显著性的表观注视估计。
IEEE Trans Pattern Anal Mach Intell. 2013 Feb;35(2):329-41. doi: 10.1109/TPAMI.2012.101.
3
Modelling saliency attention to predict eye direction by topological structure and earth mover's distance.通过拓扑结构和推土机距离对显著注意力进行建模以预测眼睛方向。
PLoS One. 2017 Jul 26;12(7):e0181543. doi: 10.1371/journal.pone.0181543. eCollection 2017.
4
GAFFE: a gaze-attentive fixation finding engine.GAFFE:一种注视注意力固定发现引擎。
IEEE Trans Image Process. 2008 Apr;17(4):564-73. doi: 10.1109/TIP.2008.917218.
5
An efficient Earth Mover's Distance algorithm for robust histogram comparison.一种用于稳健直方图比较的高效推土机距离算法。
IEEE Trans Pattern Anal Mach Intell. 2007 May;29(5):840-53. doi: 10.1109/TPAMI.2007.1058.
6
Fast and robust generation of feature maps for region-based visual attention.为基于区域的视觉注意力快速且稳健地生成特征图。
IEEE Trans Image Process. 2008 May;17(5):633-44. doi: 10.1109/TIP.2008.919365.
7
Visual attention on the sphere.对球体的视觉注意力。
IEEE Trans Image Process. 2008 Nov;17(11):2000-14. doi: 10.1109/TIP.2008.2003415.
8
Attention driven foveated video quality assessment.注意驱动的注视点视频质量评估。
IEEE Trans Image Process. 2014 Jan;23(1):200-13. doi: 10.1109/TIP.2013.2287611. Epub 2013 Oct 28.
9
Video saliency incorporating spatiotemporal cues and uncertainty weighting.视频显著度融合时空线索和不确定性加权。
IEEE Trans Image Process. 2014 Sep;23(9):3910-21. doi: 10.1109/TIP.2014.2336549. Epub 2014 Jul 16.
10
Discriminant saliency, the detection of suspicious coincidences, and applications to visual recognition.判别显著性、可疑巧合的检测及其在视觉识别中的应用。
IEEE Trans Pattern Anal Mach Intell. 2009 Jun;31(6):989-1005. doi: 10.1109/TPAMI.2009.27.

引用本文的文献

1
What do saliency models predict?显著性模型预测什么?
J Vis. 2014 Mar 11;14(3):14. doi: 10.1167/14.3.14.