A dataset of human fMRI/MEG experiments with eye tracking for spatial memory research using virtual reality
基于虚拟现实场景的跨模态(磁共振、脑磁图、眼动)人类空间记忆研究开源数据集
Bo Zhang(张博,智源研究院博士后研究员),Yuji Naya(納家勇治,北京大学教授)
简介:
人类空间记忆研究开源数据集是一个包括人类被试执行虚拟现实游戏时记录的全脑fMRI(功能磁共振图像)、脑皮层MEG(脑磁图图像)、眼动跟踪数据,以及行为学记录的多模态数据集。 实验范式采用了基于Unity的虚拟现实空间记忆任务,被试以第一人称视角依次完成场景识别,自我定位,和物体定位任务。数据集包含31名成年人类被试,其中19名参与了fMRI实验,12名参与了MEG实验(fMRI实验:12名女性,7名男性;MEG实验:4名女性,8名男性)。被试的平均年龄分别为24.9岁(MRI:18-30岁)和22.5岁(MEG:19-25岁)。fMRI(BOLD和T1加权图像)和MEG(脑磁和T1加权图像)分别通过西门子Prisma 3T扫描仪(Siemens, Erlangen, Germany)和275通道MEG系统(CTF MEG,Canada)采集。配合眼动数据,该数据集可用于人类视觉、空间记忆的神经机理研究,以及可用于基于生物启发的神经网络研究,有助于提高机器的视觉空间识别与感知能力。

图1:实验范式简介。a,任务场景由3个物体构成,构成特定的空间关系。被试以第一人称视角识别场景。b,实验范式,被试依次完成场景识别(Walking period),自我定位(Facing period),和物体定位(Targeting period)任务。c,物体空间关系和被试运动方向示意图。d,定位物体任务中的鸟瞰示意图。
论文下载地址:
https://doi.org/10.1016/j.dib.2022.108380
数据集大小:
56.42GB
开源数据下载地址:
https://doi.org/10.11922/sciencedb.01460
内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢