Transformers Fusion across Disjoint Samples for Hyperspectral Image Classification

2024年05月02日
  • 简介
    本文介绍了一种新颖的方法,即将3D Swin Transformer(3D-ST)和Spatial-spectral Transformer(SST)进行注意力融合,以显著提高高光谱图像(HSI)的分类性能。3D-ST以其分层注意力和基于窗口的处理而闻名,能够捕捉图像内复杂的空间关系。而SST则专门通过自注意机制建模长距离依赖关系。这种方法的独特之处在于强调了来自两种架构的注意力机制的整合。这种整合不仅精细化了空间和光谱信息的建模,而且有助于实现更精确和准确的分类结果。基准HSI数据集的实验和评估强调了采用不相交的训练、验证和测试样本的重要性。结果表明,融合方法的有效性得到了证明,展示了其优于传统方法和单个变压器的优越性。整合不相交样本增强了所提出方法的鲁棒性和可靠性,强调了其推进高光谱图像分类的潜力。
  • 图表
  • 解决问题
    本论文旨在提高高光谱图像分类的性能,通过将3D Swin Transformer和Spatial-spectral Transformer的注意力机制进行融合来改进分类结果。
  • 关键思路
    论文的关键思路是将3D Swin Transformer和Spatial-spectral Transformer的注意力机制进行融合,以提高高光谱图像分类的性能。
  • 其它亮点
    论文的实验结果表明融合方法优于传统方法和单独的Transformer模型,同时强调了使用不同的训练、验证和测试样本来增强方法的鲁棒性和可靠性。论文使用了基准高光谱图像数据集,并且未提供开源代码。
  • 相关研究
    与本论文相关的研究包括使用Transformer模型进行高光谱图像分类的其他工作,如'HSI-Transformer: A Self-Attention Network for Hyperspectral Image Classification'。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论