• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

眼睛反映的任务:虚拟现实中的自我中心注视感知视觉任务类型识别。

Tasks Reflected in the Eyes: Egocentric Gaze-Aware Visual Task Type Recognition in Virtual Reality.

出版信息

IEEE Trans Vis Comput Graph. 2024 Nov;30(11):7277-7287. doi: 10.1109/TVCG.2024.3456164. Epub 2024 Oct 10.

DOI:10.1109/TVCG.2024.3456164
PMID:39255152
Abstract

With eye tracking finding widespread utility in augmented reality and virtual reality headsets, eye gaze has the potential to recognize users' visual tasks and adaptively adjust virtual content displays, thereby enhancing the intelligence of these headsets. However, current studies on visual task recognition often focus on scene-specific tasks, like copying tasks for office environments, which lack applicability to new scenarios, e.g., museums. In this paper, we propose four scene-agnostic task types for facilitating task type recognition across a broader range of scenarios. We present a new dataset that includes eye and head movement data recorded from 20 participants while they engaged in four task types across 15 360-degree VR videos. Using this dataset, we propose an egocentric gaze-aware task type recognition method, TRCLP, which achieves promising results. Additionally, we illustrate the practical applications of task type recognition with three examples. Our work offers valuable insights for content developers in designing task-aware intelligent applications. Our dataset and source code are available at zhimin-wang.github.io/TaskTypeRecognition.html.

摘要

眼动追踪在增强现实和虚拟现实耳机中得到了广泛应用,眼注视具有识别用户视觉任务并自适应调整虚拟内容显示的潜力,从而提高这些耳机的智能性。然而,当前关于视觉任务识别的研究通常侧重于特定场景的任务,例如办公环境中的复制任务,这些任务缺乏对新场景的适用性,例如博物馆。在本文中,我们提出了四种与场景无关的任务类型,以促进更广泛场景下的任务类型识别。我们提出了一个新的数据集,其中包括 20 名参与者在 15 个 360 度 VR 视频中进行四种任务类型时记录的眼动和头部运动数据。使用这个数据集,我们提出了一种基于自我中心注视的任务类型识别方法 TRCLP,该方法取得了有前景的结果。此外,我们通过三个示例说明了任务类型识别的实际应用。我们的工作为内容开发者设计任务感知智能应用提供了有价值的见解。我们的数据集和源代码可在 zhimin-wang.github.io/TaskTypeRecognition.html 上获取。

相似文献

1
Tasks Reflected in the Eyes: Egocentric Gaze-Aware Visual Task Type Recognition in Virtual Reality.眼睛反映的任务:虚拟现实中的自我中心注视感知视觉任务类型识别。
IEEE Trans Vis Comput Graph. 2024 Nov;30(11):7277-7287. doi: 10.1109/TVCG.2024.3456164. Epub 2024 Oct 10.
2
EHTask: Recognizing User Tasks From Eye and Head Movements in Immersive Virtual Reality.EHTask:从沉浸式虚拟现实中的眼睛和头部运动识别用户任务。
IEEE Trans Vis Comput Graph. 2023 Apr;29(4):1992-2004. doi: 10.1109/TVCG.2021.3138902. Epub 2023 Feb 28.
3
Comparison of Visual Saliency for Dynamic Point Clouds: Task-free vs. Task-dependent.动态点云视觉显著性比较:无任务与任务相关
IEEE Trans Vis Comput Graph. 2025 May;31(5):2964-2974. doi: 10.1109/TVCG.2025.3549863. Epub 2025 Apr 25.
4
FixationNet: Forecasting Eye Fixations in Task-Oriented Virtual Environments.FixationNet:在面向任务的虚拟环境中预测眼动。
IEEE Trans Vis Comput Graph. 2021 May;27(5):2681-2690. doi: 10.1109/TVCG.2021.3067779. Epub 2021 Apr 15.
5
A tutorial: Analyzing eye and head movements in virtual reality.教程:分析虚拟现实中的眼动和头动。
Behav Res Methods. 2024 Dec;56(8):8396-8421. doi: 10.3758/s13428-024-02482-5. Epub 2024 Aug 8.
6
The Security-Utility Trade-off for Iris Authentication and Eye Animation for Social Virtual Avatars.虹膜认证与社交虚拟化身眼部动画的安全-效用权衡。
IEEE Trans Vis Comput Graph. 2020 May;26(5):1880-1890. doi: 10.1109/TVCG.2020.2973052. Epub 2020 Feb 13.
7
SGaze: A Data-Driven Eye-Head Coordination Model for Realtime Gaze Prediction.SGaze:用于实时眼-头协调预测的基于数据的眼-头协调模型。
IEEE Trans Vis Comput Graph. 2019 May;25(5):2002-2010. doi: 10.1109/TVCG.2019.2899187. Epub 2019 Feb 18.
8
Study protocol for the EYEdentify project: An examination of gaze behaviour in autistic adults using a virtual reality-based paradigm.EYEdentify项目研究方案:使用基于虚拟现实的范式对自闭症成年人的注视行为进行研究。
PLoS One. 2025 Apr 9;20(4):e0316502. doi: 10.1371/journal.pone.0316502. eCollection 2025.
9
FovealNet: Advancing AI-Driven Gaze Tracking Solutions for Efficient Foveated Rendering in Virtual Reality.中央凹网络:推进人工智能驱动的注视跟踪解决方案,以实现虚拟现实中的高效中央凹渲染。
IEEE Trans Vis Comput Graph. 2025 May;31(5):3183-3193. doi: 10.1109/TVCG.2025.3549577. Epub 2025 Apr 25.
10
A dataset of paired head and eye movements during visual tasks in virtual environments.一个关于虚拟环境中视觉任务期间头部和眼睛配对运动的数据集。
Sci Data. 2024 Dec 5;11(1):1328. doi: 10.1038/s41597-024-04184-1.