EEG-Deformer: A Dense Convolutional Transformer for Brain-computer Interfaces

2024年04月25日
  • 简介
    在使用脑机接口(BCI)解码脑活动时,有效地学习脑电图(EEG)信号的时间动态是具有挑战性但必不可少的。尽管Transformers因其在BCI领域的长期序列学习能力而受欢迎,但大多数将Transformers与卷积神经网络(CNNs)相结合的方法未能捕捉EEG信号的从粗到细的时间动态。为了克服这一限制,我们引入了EEG-Deformer,它将两个主要的新组件引入到CNN-Transformer中:(1)一个Hierarchical Coarse-to-Fine Transformer(HCT)块,将Fine-grained Temporal Learning(FTL)分支集成到Transformers中,有效地区分粗到细的时间模式;(2)一个Dense Information Purification(DIP)模块,利用多级纯化的时间信息来增强解码精度。对三个代表性的认知任务进行的全面实验一致验证了我们提出的EEG-Deformer的通用性,表明它要么优于现有的最先进方法,要么与它们相当。可视化结果显示,EEG-Deformer从与相应认知任务相关的神经生理学有意义的脑区中学习。源代码可在https://github.com/yi-ding-cs/EEG-Deformer找到。
  • 图表
  • 解决问题
    解决问题:本文旨在解决使用脑机接口(BCI)解码大脑活动时,有效学习脑电图(EEG)信号的时间动态的挑战。
  • 关键思路
    关键思路:本文提出了EEG-Deformer,将Hierarchical Coarse-to-Fine Transformer(HCT)块和Dense Information Purification(DIP)模块结合到CNN-Transformer中,有效地捕捉EEG信号的粗到细的时间动态模式,并利用多级纯化的时间信息提高解码精度。
  • 其它亮点
    其他亮点:本文的实验表明EEG-Deformer具有很好的泛化能力,并且可以优于现有的最先进方法或与其相媲美。EEG-Deformer学习了与相应认知任务相关的神经生理学有意义的脑区。作者已经在github上开源了代码。
  • 相关研究
    相关研究:最近的相关研究包括“EEGNet”、“DeepConvNet”和“STFT-ResNet”等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论