Suppr超能文献

深入了解大脑:从高分辨率 fNIRS 数据预测视觉感知和工作记忆负荷。

Taking a Deeper Look at the Brain: Predicting Visual Perceptual and Working Memory Load From High-Density fNIRS Data.

出版信息

IEEE J Biomed Health Inform. 2022 May;26(5):2308-2319. doi: 10.1109/JBHI.2021.3133871. Epub 2022 May 5.

Abstract

Predicting workload using physiological sensors has taken on a diffuse set of methods in recent years. However, the majority of these methods train models on small datasets, with small numbers of channel locations on the brain, limiting a model's ability to transfer across participants, tasks, or experimental sessions. In this paper, we introduce a new method of modeling a large, cross-participant and cross-session set of high density functional near infrared spectroscopy (fNIRS) data by using an approach grounded in cognitive load theory and employing a Bi-Directional Gated Recurrent Unit (BiGRU) incorporating attention mechanism and self-supervised label augmentation (SLA). We show that our proposed CNN-BiGRU-SLA model can learn and classify different levels of working memory load (WML) and visual processing load (VPL) across participants. Importantly, we leverage a multi-label classification scheme, where our models are trained to predict simultaneously occurring levels of WML and VPL. We evaluate our model using leave-one-participant-out (LOOCV) as well as 10-fold cross validation. Using LOOCV, for binary classification (off/on), we reached an F1-score of 0.9179 for WML and 0.8907 for VPL across 22 participants (each participant did 2 sessions). For multi-level (off, low, high) classification, we reached an F1-score of 0.7972 for WML and 0.7968 for VPL. Using 10-fold cross validation, for multi-level classification, we reached an F1-score of 0.7742 for WML and 0.7741 for VPL.

摘要

近年来,使用生理传感器预测工作量已经采用了一系列方法。然而,这些方法中的大多数都在小数据集上训练模型,大脑通道位置数量较少,限制了模型在参与者、任务或实验会话之间的迁移能力。在本文中,我们引入了一种新的方法,通过基于认知负荷理论的方法和使用包含注意力机制和自我监督标签增强(SLA)的双向门控循环单元(BiGRU),对大量跨参与者和跨会话的高密度功能近红外光谱(fNIRS)数据进行建模。我们表明,我们提出的 CNN-BiGRU-SLA 模型可以学习和分类不同水平的工作记忆负荷(WML)和视觉处理负荷(VPL)在参与者之间。重要的是,我们利用多标签分类方案,我们的模型被训练同时预测同时发生的 WML 和 VPL 水平。我们使用留一参与者外(LOOCV)和 10 折交叉验证来评估我们的模型。使用 LOOCV,对于二进制分类(开/关),我们在 22 名参与者(每个参与者进行 2 次会话)中达到了 WML 的 0.9179 和 VPL 的 0.8907 的 F1 分数。对于多级(关、低、高)分类,我们达到了 WML 的 0.7972 和 VPL 的 0.7968 的 F1 分数。使用 10 折交叉验证,对于多级分类,我们在 WML 达到了 0.7742 的 F1 分数和 VPL 的 0.7741。

文献AI研究员

20分钟写一篇综述,助力文献阅读效率提升50倍。

立即体验

用中文搜PubMed

大模型驱动的PubMed中文搜索引擎

马上搜索

文档翻译

学术文献翻译模型,支持多种主流文档格式。

立即体验