TextSLAM: Visual SLAM with Semantic Planar Text Features
解决问题:本文提出了一种新的视觉SLAM方法,通过将文本对象视为语义特征来紧密集成它们,以更好地探索它们的几何和语义先验知识。该论文旨在解决在图像模糊、视角变化和光照变化等复杂情况下,SLAM系统的准确性和鲁棒性问题。
关键思路:本文的关键思路是将文本对象建模为纹理丰富的平面贴片,并实时提取和更新其语义含义以实现更好的数据关联。通过全面探索局部平面特征和文本对象的语义含义,使SLAM系统在复杂条件下表现更加准确和鲁棒,比如图像模糊、视角变化和光照变化等。
其他亮点:本文的实验结果表明,集成纹理特征可以导致更优秀的SLAM系统,能够匹配日夜变化的图像。重建的语义3D文本地图可以用于机器人和混合现实应用中的导航和场景理解。该论文的代码已经开源,可以在项目页面 https://github.com/SJTU-ViSYS/TextSLAM 中获取。
关于作者:本文的主要作者是Boying Li、Danping Zou、Yuan Huang、Xinghan Niu、Ling Pei和Wenxian Yu。他们都来自上海交通大学。Boying Li曾发表过多篇与计算机视觉相关的论文,如“Deep Supervised Hashing for Fast Image Retrieval”和“Learning to Hash with Optimized Anchor Embedding”。Danping Zou曾发表过“DF-Net: Unsupervised Joint Learning of Depth and Flow using Cross-Task Consistency”等论文。Yuan Huang曾发表过“Unsupervised Learning of Dense Optical Flow and Correspondence”等论文。Xinghan Niu曾发表过“Progressive Neural Architecture Search”等论文。Ling Pei曾发表过“Learning Cross-Modal Deep Representations for Robust Pedestrian Detection”等论文。Wenxian Yu曾发表过“Video Object Segmentation with Re-identification”等论文。
相关研究:近期其他相关的研究包括:“Text-based LSTM networks for Automatic Image Captioning”(作者:Jiajun Li,机构:清华大学)、“SemanticSLAM: Using Environment Landmarks for Unsupervised Indoor Visual Navigation”(作者:Sergio Guadarrama等,机构:谷歌公司)、“Robust Visual SLAM using Dense Feature Enhancement”(作者:Yi Zhou等,机构:香港科技大学)。
论文摘要:我们提出了一种新颖的视觉SLAM方法,通过充分探索文本对象的几何和语义先验,将其作为语义特征紧密地集成进来。文本对象被建模为纹理丰富的平面补丁,其语义含义被提取并实时更新以实现更好的数据关联。通过充分探索本地平面特征和文本对象的语义含义,即使在挑战性条件下(如图像模糊、大视角变化和昼夜光照变化),SLAM系统也变得更加准确和稳健。我们在具有地面真实数据的各种场景中测试了我们的方法。结果表明,整合纹理特征会导致更优秀的SLAM系统,可以跨越昼夜匹配图像。重建的语义3D文本地图可用于机器人和混合现实应用中的导航和场景理解。我们的项目页面:https://github.com/SJTU-ViSYS/TextSLAM。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢