• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

SUN:一种使用自然统计的显著性贝叶斯框架。

SUN: A Bayesian framework for saliency using natural statistics.

作者信息

Zhang Lingyun, Tong Matthew H, Marks Tim K, Shan Honghao, Cottrell Garrison W

机构信息

Department of Computer Science and Engineering, UCSD, La Jolla, CA, USA.

出版信息

J Vis. 2008 Dec 16;8(7):32.1-20. doi: 10.1167/8.7.32.

DOI:10.1167/8.7.32
PMID:19146264
原文链接:https://pmc.ncbi.nlm.nih.gov/articles/PMC7360059/
Abstract

We propose a definition of saliency by considering what the visual system is trying to optimize when directing attention. The resulting model is a Bayesian framework from which bottom-up saliency emerges naturally as the self-information of visual features, and overall saliency (incorporating top-down information with bottom-up saliency) emerges as the pointwise mutual information between the features and the target when searching for a target. An implementation of our framework demonstrates that our model's bottom-up saliency maps perform as well as or better than existing algorithms in predicting people's fixations in free viewing. Unlike existing saliency measures, which depend on the statistics of the particular image being viewed, our measure of saliency is derived from natural image statistics, obtained in advance from a collection of natural images. For this reason, we call our model SUN (Saliency Using Natural statistics). A measure of saliency based on natural image statistics, rather than based on a single test image, provides a straightforward explanation for many search asymmetries observed in humans; the statistics of a single test image lead to predictions that are not consistent with these asymmetries. In our model, saliency is computed locally, which is consistent with the neuroanatomy of the early visual system and results in an efficient algorithm with few free parameters.

摘要

我们通过考虑视觉系统在引导注意力时试图优化的内容来提出一种显著性的定义。由此产生的模型是一个贝叶斯框架,自下而上的显著性作为视觉特征的自信息自然出现,而整体显著性(将自上而下的信息与自下而上的显著性相结合)在搜索目标时作为特征与目标之间的逐点互信息出现。我们框架的一个实现表明,在预测人们自由观看时的注视点方面,我们模型的自下而上显著性图的表现与现有算法相当或更好。与现有的显著性度量不同,现有的显著性度量依赖于所观看特定图像的统计信息,而我们的显著性度量是从自然图像统计中得出的,这些统计信息预先从一组自然图像中获得。因此,我们将我们的模型称为SUN(使用自然统计的显著性)。基于自然图像统计而不是基于单个测试图像的显著性度量,为在人类中观察到的许多搜索不对称性提供了一个直接的解释;单个测试图像的统计信息导致的预测与这些不对称性不一致。在我们的模型中,显著性是局部计算的,这与早期视觉系统的神经解剖结构一致,并导致一个具有很少自由参数的高效算法。

https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/09f54cda0709/nihms-1604756-f0009.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/f02526d131ef/nihms-1604756-f0001.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/fc6dec2ac79f/nihms-1604756-f0002.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/d3b6e6ebb3e9/nihms-1604756-f0003.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/6e5e37ca3e17/nihms-1604756-f0004.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/f27bc73136ca/nihms-1604756-f0005.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/4210340e20dd/nihms-1604756-f0006.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/1ce2d679ba03/nihms-1604756-f0007.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/350334615deb/nihms-1604756-f0008.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/09f54cda0709/nihms-1604756-f0009.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/f02526d131ef/nihms-1604756-f0001.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/fc6dec2ac79f/nihms-1604756-f0002.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/d3b6e6ebb3e9/nihms-1604756-f0003.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/6e5e37ca3e17/nihms-1604756-f0004.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/f27bc73136ca/nihms-1604756-f0005.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/4210340e20dd/nihms-1604756-f0006.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/1ce2d679ba03/nihms-1604756-f0007.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/350334615deb/nihms-1604756-f0008.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/6eb9/7360059/09f54cda0709/nihms-1604756-f0009.jpg

相似文献

1
SUN: A Bayesian framework for saliency using natural statistics.SUN:一种使用自然统计的显著性贝叶斯框架。
J Vis. 2008 Dec 16;8(7):32.1-20. doi: 10.1167/8.7.32.
2
What stands out in a scene? A study of human explicit saliency judgment.场景中突出的是什么?一项关于人类显性显著性判断的研究。
Vision Res. 2013 Oct 18;91:62-77. doi: 10.1016/j.visres.2013.07.016. Epub 2013 Aug 15.
3
What do saliency models predict?显著性模型预测什么?
J Vis. 2014 Mar 11;14(3):14. doi: 10.1167/14.3.14.
4
A unified computational framework for visual attention dynamics.一种用于视觉注意动力学的统一计算框架。
Prog Brain Res. 2019;249:183-188. doi: 10.1016/bs.pbr.2019.01.001. Epub 2019 Feb 8.
5
A proto-object based saliency model in three-dimensional space.一种基于原物体的三维空间显著模型。
Vision Res. 2016 Feb;119:42-9. doi: 10.1016/j.visres.2015.12.004. Epub 2016 Jan 19.
6
Complementary effects of gaze direction and early saliency in guiding fixations during free viewing.自由观看过程中注视方向和早期显著性在引导注视方面的互补作用。
J Vis. 2014 Nov 4;14(13):3. doi: 10.1167/14.13.3.
7
A model of proto-object based saliency.一种基于原始对象的显著性模型。
Vision Res. 2014 Jan;94:1-15. doi: 10.1016/j.visres.2013.10.005. Epub 2013 Oct 31.
8
A proto-object-based computational model for visual saliency.一种基于原型对象的视觉显著性计算模型。
J Vis. 2013 Nov 26;13(13):27. doi: 10.1167/13.13.27.
9
A computational visual saliency model based on statistics and machine learning.一种基于统计学和机器学习的计算视觉显著性模型。
J Vis. 2014 Aug 1;14(9):1. doi: 10.1167/14.9.1.
10
The contributions of image content and behavioral relevancy to overt attention.图像内容和行为相关性对显性注意力的贡献。
PLoS One. 2014 Apr 15;9(4):e93254. doi: 10.1371/journal.pone.0093254. eCollection 2014.

引用本文的文献

1
Retina-Inspired Models Enhance Visual Saliency Prediction.受视网膜启发的模型增强视觉显著性预测。
Entropy (Basel). 2025 Apr 18;27(4):436. doi: 10.3390/e27040436.
2
Saliency models perform best for women's and young adults' fixations.显著性模型在预测女性和年轻人的注视点方面表现最佳。
Commun Psychol. 2023 Nov 17;1(1):34. doi: 10.1038/s44271-023-00035-8.
3
A dual foveal-peripheral visual processing model implements efficient saccade selection.一种双中央凹-周边视觉处理模型实现了高效的扫视选择。

本文引用的文献

1
The central fixation bias in scene viewing: selecting an optimal viewing position independently of motor biases and image feature distributions.场景观看中的中央注视偏向:独立于运动偏向和图像特征分布选择最佳观看位置。
J Vis. 2007 Nov 21;7(14):4.1-17. doi: 10.1167/7.14.4.
2
Predicting visual fixations on video based on low-level visual features.基于低级视觉特征预测视频中的视觉注视点。
Vision Res. 2007 Sep;47(19):2483-98. doi: 10.1016/j.visres.2007.06.015. Epub 2007 Aug 3.
3
Cone selectivity derived from the responses of the retinal cone mosaic to natural scenes.
J Vis. 2020 Aug 3;20(8):22. doi: 10.1167/jov.20.8.22.
4
An improved saliency model of visual attention dependent on image content.一种基于图像内容的视觉注意力改进显著模型。
Front Hum Neurosci. 2023 Feb 28;16:862588. doi: 10.3389/fnhum.2022.862588. eCollection 2022.
5
Five Factors that Guide Attention in Visual Search.视觉搜索中引导注意力的五个因素。
Nat Hum Behav. 2017 Mar;1(3). doi: 10.1038/s41562-017-0058. Epub 2017 Mar 8.
6
Multiscale Cascaded Attention Network for Saliency Detection Based on ResNet.基于 ResNet 的多尺度级联注意力网络的显著目标检测
Sensors (Basel). 2022 Dec 16;22(24):9950. doi: 10.3390/s22249950.
7
Modeling eye movement patterns to characterize perceptual skill in image-based diagnostic reasoning processes.在基于图像的诊断推理过程中,通过对眼动模式进行建模来表征感知技能。
Comput Vis Image Underst. 2016 Oct;151:138-152. doi: 10.1016/j.cviu.2016.03.001. Epub 2016 Sep 21.
8
DeepGaze III: Modeling free-viewing human scanpaths with deep learning.DeepGaze III:用深度学习模拟自由观看的人类扫视轨迹。
J Vis. 2022 Apr 6;22(5):7. doi: 10.1167/jov.22.5.7.
9
A spatiotemporal mechanism of visual attention: Superdiffusive motion and theta oscillations of neural population activity patterns.视觉注意力的一种时空机制:神经群体活动模式的超扩散运动与θ振荡
Sci Adv. 2022 Apr 22;8(16):eabl4995. doi: 10.1126/sciadv.abl4995.
10
Semantic object-scene inconsistencies affect eye movements, but not in the way predicted by contextualized meaning maps.语义物体-场景不一致会影响眼球运动,但与语境化意义图谱预测的方式不同。
J Vis. 2022 Feb 1;22(2):9. doi: 10.1167/jov.22.2.9.
从视网膜视锥细胞镶嵌对自然场景的反应中得出的视锥细胞选择性。
J Vis. 2007 Jun 18;7(8):6. doi: 10.1167/7.8.6.
4
Where to look next? Eye movements reduce local uncertainty.接下来该看向哪里?眼球运动可减少局部不确定性。
J Vis. 2007 Feb 27;7(3):6. doi: 10.1167/7.3.6.
5
The role of memory in guiding attention during natural vision.记忆在自然视觉中引导注意力的作用。
J Vis. 2006 Aug 10;6(9):898-914. doi: 10.1167/6.9.4.
6
Contextual guidance of eye movements and attention in real-world scenes: the role of global features in object search.现实场景中眼动与注意力的情境引导:全局特征在物体搜索中的作用。
Psychol Rev. 2006 Oct;113(4):766-86. doi: 10.1037/0033-295X.113.4.766.
7
Topographic product models applied to natural scene statistics.应用于自然场景统计的地形产品模型。
Neural Comput. 2006 Feb;18(2):381-414. doi: 10.1162/089976606775093936.
8
Differences of monkey and human overt attention under natural conditions.自然条件下猴子与人类外显注意力的差异。
Vision Res. 2006 Apr;46(8-9):1194-209. doi: 10.1016/j.visres.2005.08.032. Epub 2005 Dec 20.
9
An information maximization model of eye movements.眼动的信息最大化模型。
Adv Neural Inf Process Syst. 2005;17:1121-8.
10
Eye movements in natural behavior.自然行为中的眼球运动。
Trends Cogn Sci. 2005 Apr;9(4):188-94. doi: 10.1016/j.tics.2005.02.009.