Text in the Dark: Extremely Low-Light Text Image Enhancement

2024年04月22日
  • 简介
    在自然场景中,极低光照的文本图像很常见,这使得场景文本的检测和识别变得具有挑战性。一种解决方案是在文本提取之前使用低光图像增强方法增强这些图像。然而,以前的方法通常不会特别关注低级特征的重要性,而这些特征对于下游场景文本任务的最佳性能至关重要。此外,缺乏极低光文本数据集也限制了进一步的研究。为了解决这些限制,我们提出了一种新的编码器-解码器框架,并使用边缘感知注意模块来聚焦于场景文本区域进行增强。我们的提出的方法使用了新颖的文本检测和边缘重构损失来强调低级别场景文本特征,从而实现了成功的文本提取。此外,我们还提出了一种有监督的深度曲线估计(Supervised-DCE)模型,可以基于公开可用的场景文本数据集(如ICDAR15)合成极低光图像。我们还在极低光的See In the Dark(SID)和普通的LOw-Light(LOL)数据集中标记了文本,以便通过场景文本任务进行极低光图像增强的客观评估。广泛的实验表明,我们的模型在广泛使用的LOL、SID和合成IC15数据集上,在图像质量和场景文本度量方面均优于现有的最先进方法。代码和数据集将在https://github.com/chunchet-ng/Text-in-the-Dark上公开发布。
  • 图表
  • 解决问题
    本论文旨在解决极低光照条件下场景文本检测和识别的问题,提出了一种新的编码器-解码器框架,结合边缘感知注意力模块,强调低层次的文本特征,以提高文本提取的性能。
  • 关键思路
    论文的关键思路是采用边缘感知注意力模块,结合文本检测和边缘重建损失,强调低层次文本特征,以优化极低光照条件下的场景文本提取。
  • 其它亮点
    论文使用了Supervised Deep Curve Estimation (Supervised-DCE)模型合成极低光照图像,并标记了SID和LOL数据集中的文本,以便进行客观评估。实验结果表明,该模型在LOL、SID和IC15数据集上的图像质量和场景文本指标方面均优于现有方法。研究者还将代码和数据集公开在GitHub上。
  • 相关研究
    与本论文相关的研究包括:《Enhancing the Contrast of Text Images via Gradient Modulation》、《Robust Scene Text Recognition with Automatic Rectification》、《Synthetically Supervised Feature Learning for Scene Text Recognition》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论