• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

DGaze:基于 CNN 的动态场景中的注视预测。

DGaze: CNN-Based Gaze Prediction in Dynamic Scenes.

出版信息

IEEE Trans Vis Comput Graph. 2020 May;26(5):1902-1911. doi: 10.1109/TVCG.2020.2973473. Epub 2020 Feb 13.

DOI:10.1109/TVCG.2020.2973473
PMID:32070980
Abstract

We conduct novel analyses of users' gaze behaviors in dynamic virtual scenes and, based on our analyses, we present a novel CNN-based model called DGaze for gaze prediction in HMD-based applications. We first collect 43 users' eye tracking data in 5 dynamic scenes under free-viewing conditions. Next, we perform statistical analysis of our data and observe that dynamic object positions, head rotation velocities, and salient regions are correlated with users' gaze positions. Based on our analysis, we present a CNN-based model (DGaze) that combines object position sequence, head velocity sequence, and saliency features to predict users' gaze positions. Our model can be applied to predict not only realtime gaze positions but also gaze positions in the near future and can achieve better performance than prior method. In terms of realtime prediction, DGaze achieves a 22.0% improvement over prior method in dynamic scenes and obtains an improvement of 9.5% in static scenes, based on using the angular distance as the evaluation metric. We also propose a variant of our model called DGaze_ET that can be used to predict future gaze positions with higher precision by combining accurate past gaze data gathered using an eye tracker. We further analyze our CNN architecture and verify the effectiveness of each component in our model. We apply DGaze to gaze-contingent rendering and a game, and also present the evaluation results from a user study.

摘要

我们对动态虚拟场景中的用户注视行为进行了新颖的分析,并基于分析结果提出了一种名为 DGaze 的新型基于 CNN 的模型,用于在基于 HMD 的应用中进行注视预测。我们首先在自由观察条件下收集了 5 个动态场景中 43 个用户的眼动追踪数据。接下来,我们对数据进行了统计分析,观察到动态物体位置、头部旋转速度和显著区域与用户的注视位置相关。基于我们的分析,我们提出了一种基于 CNN 的模型 (DGaze),它结合了物体位置序列、头部速度序列和显著特征来预测用户的注视位置。我们的模型不仅可以预测实时的注视位置,还可以预测未来的注视位置,并且比之前的方法性能更好。在实时预测方面,基于角距离作为评估指标,DGaze 在动态场景中比之前的方法提高了 22.0%,在静态场景中提高了 9.5%。我们还提出了我们的模型的一个变体 DGaze_ET,它可以通过结合使用眼动仪收集的准确的过去注视数据来更精确地预测未来的注视位置。我们进一步分析了我们的 CNN 架构,并验证了模型中每个组件的有效性。我们将 DGaze 应用于注视相关渲染和游戏中,并展示了用户研究的评估结果。

相似文献

1
DGaze: CNN-Based Gaze Prediction in Dynamic Scenes.DGaze:基于 CNN 的动态场景中的注视预测。
IEEE Trans Vis Comput Graph. 2020 May;26(5):1902-1911. doi: 10.1109/TVCG.2020.2973473. Epub 2020 Feb 13.
2
FixationNet: Forecasting Eye Fixations in Task-Oriented Virtual Environments.FixationNet:在面向任务的虚拟环境中预测眼动。
IEEE Trans Vis Comput Graph. 2021 May;27(5):2681-2690. doi: 10.1109/TVCG.2021.3067779. Epub 2021 Apr 15.
3
SGaze: A Data-Driven Eye-Head Coordination Model for Realtime Gaze Prediction.SGaze:用于实时眼-头协调预测的基于数据的眼-头协调模型。
IEEE Trans Vis Comput Graph. 2019 May;25(5):2002-2010. doi: 10.1109/TVCG.2019.2899187. Epub 2019 Feb 18.
4
Saliency-based gaze prediction based on head direction.基于头部方向的基于显著性的注视预测。
Vision Res. 2015 Dec;117:59-66. doi: 10.1016/j.visres.2015.10.001. Epub 2015 Nov 8.
5
Attentional synchrony and the influence of viewing task on gaze behavior in static and dynamic scenes.注意力同步以及观看任务对静态和动态场景中注视行为的影响。
J Vis. 2013 Jul 17;13(8):16. doi: 10.1167/13.8.16.
6
Impact of Socio-Demographic Attributes and Mutual Gaze of Virtual Humans on Users' Visual Attention and Collision Avoidance in VR.社会人口属性和虚拟人类的相互注视对 VR 中用户视觉注意和避免碰撞的影响。
IEEE Trans Vis Comput Graph. 2024 Sep;30(9):6146-6163. doi: 10.1109/TVCG.2023.3329515. Epub 2024 Jul 31.
7
Effects of Depth Information on Visual Target Identification Task Performance in Shared Gaze Environments.深度信息对共享注视环境下视觉目标识别任务表现的影响。
IEEE Trans Vis Comput Graph. 2020 May;26(5):1934-1944. doi: 10.1109/TVCG.2020.2973054. Epub 2020 Feb 13.
8
How saliency, faces, and sound influence gaze in dynamic social scenes.在动态社交场景中,显著性、面部和声音如何影响注视。
J Vis. 2014 Jul 3;14(8):5. doi: 10.1167/14.8.5.
9
Deep-SAGA: a deep-learning-based system for automatic gaze annotation from eye-tracking data.深度 SAGA:一种基于深度学习的眼动追踪数据自动注视点标注系统。
Behav Res Methods. 2023 Apr;55(3):1372-1391. doi: 10.3758/s13428-022-01833-4. Epub 2022 Jun 1.
10
Real-Time Multi-Map Saliency-Driven Gaze Behavior for Non-Conversational Characters.实时多图显著度驱动的非对话角色注视行为。
IEEE Trans Vis Comput Graph. 2024 Jul;30(7):3871-3883. doi: 10.1109/TVCG.2023.3244679. Epub 2024 Jun 27.

引用本文的文献

1
EM-Gaze: eye context correlation and metric learning for gaze estimation.EM-注视:用于注视估计的眼睛上下文相关性和度量学习
Vis Comput Ind Biomed Art. 2023 May 5;6(1):8. doi: 10.1186/s42492-023-00135-6.
2
GazeBaseVR, a large-scale, longitudinal, binocular eye-tracking dataset collected in virtual reality.GazeBaseVR,一个大规模、纵向、双眼追踪虚拟现实数据集。
Sci Data. 2023 Mar 30;10(1):177. doi: 10.1038/s41597-023-02075-5.
3
Using Gaze for Behavioural Biometrics.使用注视进行行为生物识别。
Sensors (Basel). 2023 Jan 22;23(3):1262. doi: 10.3390/s23031262.
4
EyeT4Empathy: Dataset of foraging for visual information, gaze typing and empathy assessment.眼动追踪情感数据集:用于视觉信息搜索、注视类型和同理心评估。
Sci Data. 2022 Dec 3;9(1):752. doi: 10.1038/s41597-022-01862-w.
5
Gazing at Social Interactions Between Foraging and Decision Theory.审视觅食与决策理论之间的社会互动
Front Neurorobot. 2021 Mar 30;15:639999. doi: 10.3389/fnbot.2021.639999. eCollection 2021.