EAFormer: Scene Text Segmentation with Edge-Aware Transformers

2024年07月24日
  • 简介
    场景文本分割旨在从场景图像中裁剪文本,通常用于帮助生成模型编辑或删除文本。现有的文本分割方法往往涉及各种与文本相关的监督以获得更好的性能。然而,它们中的大多数忽略了文本边缘的重要性,这对下游应用非常重要。本文提出了Edge-Aware Transformers,简称EAFormer,以更准确地分割文本,特别是在文本边缘处。具体而言,我们首先设计了一个文本边缘提取器来检测边缘并过滤掉非文本区域的边缘。然后,我们提出了一个边缘引导编码器,使模型更加关注文本边缘。最后,我们采用基于MLP的解码器来预测文本掩码。我们在常用基准测试上进行了广泛的实验,以验证EAFormer的有效性。实验结果表明,所提出的方法可以比以前的方法表现更好,特别是在文本边缘的分割上。考虑到一些基准测试(例如COCO_TS和MLT_S)的注释不够准确,无法公平评估我们的方法,我们重新标注了这些数据集。通过实验,我们观察到,当使用更准确的注释进行训练时,我们的方法可以实现更高的性能提升。
  • 作者讲解
  • 图表
  • 解决问题
    本论文旨在解决场景文本分割中忽略文本边缘的问题,提出了一种新的边缘感知Transformer模型EAFormer。
  • 关键思路
    EAFormer模型通过设计文本边缘提取器和边缘引导编码器,使得模型更加关注文本边缘,从而提高文本分割的准确性。
  • 其它亮点
    论文在常用数据集上进行了大量实验,证明了EAFormer相比之前的方法在文本边缘分割方面表现更好。此外,论文还重新标注了部分数据集,并观察到使用更准确的标注可以进一步提高模型性能。
  • 相关研究
    相关研究包括但不限于:FCN、U-Net、DeepLab等经典的分割模型,以及一些针对文本分割的方法,如PSENet、TextSnake、EAST等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问