• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

EHTask:从沉浸式虚拟现实中的眼睛和头部运动识别用户任务。

EHTask: Recognizing User Tasks From Eye and Head Movements in Immersive Virtual Reality.

作者信息

Hu Zhiming, Bulling Andreas, Li Sheng, Wang Guoping

出版信息

IEEE Trans Vis Comput Graph. 2023 Apr;29(4):1992-2004. doi: 10.1109/TVCG.2021.3138902. Epub 2023 Feb 28.

DOI:10.1109/TVCG.2021.3138902
PMID:34962869
Abstract

Understanding human visual attention in immersive virtual reality (VR) is crucial for many important applications, including gaze prediction, gaze guidance, and gaze-contingent rendering. However, previous works on visual attention analysis typically only explored one specific VR task and paid less attention to the differences between different tasks. Moreover, existing task recognition methods typically focused on 2D viewing conditions and only explored the effectiveness of human eye movements. We first collect eye and head movements of 30 participants performing four tasks, i.e., Free viewing, Visual search, Saliency, and Track, in 15 360-degree VR videos. Using this dataset, we analyze the patterns of human eye and head movements and reveal significant differences across different tasks in terms of fixation duration, saccade amplitude, head rotation velocity, and eye-head coordination. We then propose EHTask - a novel learning-based method that employs eye and head movements to recognize user tasks in VR. We show that our method significantly outperforms the state-of-the-art methods derived from 2D viewing conditions both on our dataset (accuracy of 84.4% versus 62.8%) and on a real-world dataset ( 61.9% versus 44.1%). As such, our work provides meaningful insights into human visual attention under different VR tasks and guides future work on recognizing user tasks in VR.

摘要

理解沉浸式虚拟现实(VR)中的人类视觉注意力对于许多重要应用至关重要,包括注视预测、注视引导和注视相关渲染。然而,先前关于视觉注意力分析的工作通常只探索了一个特定的VR任务,而较少关注不同任务之间的差异。此外,现有的任务识别方法通常专注于二维观看条件,仅探索了人类眼球运动的有效性。我们首先收集了30名参与者在15个360度VR视频中执行四个任务(即自由观看、视觉搜索、显著性和跟踪)时的眼睛和头部运动数据。利用这个数据集,我们分析了人类眼睛和头部运动的模式,并揭示了在注视持续时间、扫视幅度、头部旋转速度和眼头协调方面不同任务之间的显著差异。然后,我们提出了EHTask——一种基于学习的新颖方法,该方法利用眼睛和头部运动来识别VR中的用户任务。我们表明,我们的方法在我们的数据集上(准确率为84.4%,而现有方法为62.8%)以及在一个真实世界数据集上(61.9%,而现有方法为44.1%)均显著优于源自二维观看条件的最先进方法。因此,我们的工作为不同VR任务下的人类视觉注意力提供了有意义的见解,并为未来VR中用户任务识别的工作提供了指导。

相似文献

1
EHTask: Recognizing User Tasks From Eye and Head Movements in Immersive Virtual Reality.EHTask:从沉浸式虚拟现实中的眼睛和头部运动识别用户任务。
IEEE Trans Vis Comput Graph. 2023 Apr;29(4):1992-2004. doi: 10.1109/TVCG.2021.3138902. Epub 2023 Feb 28.
2
FixationNet: Forecasting Eye Fixations in Task-Oriented Virtual Environments.FixationNet:在面向任务的虚拟环境中预测眼动。
IEEE Trans Vis Comput Graph. 2021 May;27(5):2681-2690. doi: 10.1109/TVCG.2021.3067779. Epub 2021 Apr 15.
3
Tasks Reflected in the Eyes: Egocentric Gaze-Aware Visual Task Type Recognition in Virtual Reality.眼睛反映的任务:虚拟现实中的自我中心注视感知视觉任务类型识别。
IEEE Trans Vis Comput Graph. 2024 Nov;30(11):7277-7287. doi: 10.1109/TVCG.2024.3456164. Epub 2024 Oct 10.
4
Exploring Gaze Dynamics in Virtual Reality through Multiscale Entropy Analysis.通过多尺度熵分析探索虚拟现实中的眼动动力学。
Sensors (Basel). 2024 Mar 10;24(6):1781. doi: 10.3390/s24061781.
5
SGaze: A Data-Driven Eye-Head Coordination Model for Realtime Gaze Prediction.SGaze:用于实时眼-头协调预测的基于数据的眼-头协调模型。
IEEE Trans Vis Comput Graph. 2019 May;25(5):2002-2010. doi: 10.1109/TVCG.2019.2899187. Epub 2019 Feb 18.
6
Saliency in VR: How Do People Explore Virtual Environments?虚拟现实中的显著性:人们如何探索虚拟环境?
IEEE Trans Vis Comput Graph. 2018 Apr;24(4):1633-1642. doi: 10.1109/TVCG.2018.2793599.
7
D-SAV360: A Dataset of Gaze Scanpaths on 360° Ambisonic Videos.D-SAV360:一个关于 360°球形视频注视扫描路径的数据集。
IEEE Trans Vis Comput Graph. 2023 Nov;29(11):4350-4360. doi: 10.1109/TVCG.2023.3320237. Epub 2023 Nov 2.
8
Eye and head movements while encoding and recognizing panoramic scenes in virtual reality.在虚拟现实中编码和识别全景场景时的眼动和头动。
PLoS One. 2023 Feb 17;18(2):e0282030. doi: 10.1371/journal.pone.0282030. eCollection 2023.
9
Modeling the Impact of Head-Body Rotations on Audio-Visual Spatial Perception for Virtual Reality Applications.建模头部-身体转动对虚拟现实应用中视听空间感知的影响。
IEEE Trans Vis Comput Graph. 2024 May;30(5):2624-2632. doi: 10.1109/TVCG.2024.3372112. Epub 2024 Apr 23.
10
Task-Dependent Visual Behavior in Immersive Environments: A Comparative Study of Free Exploration, Memory and Visual Search.沉浸式环境中的任务依赖视觉行为:自由探索、记忆和视觉搜索的比较研究。
IEEE Trans Vis Comput Graph. 2023 Nov;29(11):4417-4425. doi: 10.1109/TVCG.2023.3320259. Epub 2023 Nov 2.

引用本文的文献

1
Decoding target discriminability and time pressure using eye and head movement features in a foraging search task.在觅食搜索任务中利用眼睛和头部运动特征解码目标可辨别性和时间压力。
Cogn Res Princ Implic. 2025 Aug 22;10(1):53. doi: 10.1186/s41235-025-00657-y.
2
I-MPN: inductive message passing network for efficient human-in-the-loop annotation of mobile eye tracking data.I-MPN:用于移动眼动追踪数据高效人工参与标注的归纳消息传递网络。
Sci Rep. 2025 Apr 23;15(1):14192. doi: 10.1038/s41598-025-94593-y.
3
No robust evidence for an effect of head-movement propensity on central bias in head-constrained scene viewing, despite an effect on fixation duration.
尽管头部运动倾向对注视持续时间有影响,但在头部受限的场景观看中,没有确凿证据表明其对中央偏差有影响。
J Vis. 2025 Apr 1;25(4):10. doi: 10.1167/jov.25.4.10.