留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于几何约束和目标检测的室内动态SLAM

高逸 王庆 杨高朝 刘鹏飞

高逸, 王庆, 杨高朝, 刘鹏飞. 基于几何约束和目标检测的室内动态SLAM[J]. 全球定位系统, 2022, 47(5): 51-56. doi: 10.12265/j.gnss.2022099
引用本文: 高逸, 王庆, 杨高朝, 刘鹏飞. 基于几何约束和目标检测的室内动态SLAM[J]. 全球定位系统, 2022, 47(5): 51-56. doi: 10.12265/j.gnss.2022099
GAO Yi, WANG Qing, YANG Gaochao, LIU Pengfei. Indoor dynamic SLAM based on geometric constraints and target detection[J]. GNSS World of China, 2022, 47(5): 51-56. doi: 10.12265/j.gnss.2022099
Citation: GAO Yi, WANG Qing, YANG Gaochao, LIU Pengfei. Indoor dynamic SLAM based on geometric constraints and target detection[J]. GNSS World of China, 2022, 47(5): 51-56. doi: 10.12265/j.gnss.2022099

基于几何约束和目标检测的室内动态SLAM

doi: 10.12265/j.gnss.2022099
基金项目: 国家重点研发计划(2020YFD1100000);国家自然科学基金(42074039)
详细信息
    作者简介:

    高逸:(1998—),男,硕士,研究方向为视觉惯性SLAM,动态SLAM

    王庆:(1962—),男,教授,博士生导师,研究方向为室内外定位,北斗高精度位置监测,空间信息土地调查,智慧城市

    杨高朝:(1987—),男,博士,研究方向为多传感器融合定位,线面视觉里程计,室内外无缝定位

    刘鹏飞:(1991—),男,博士,研究方向为语义SLAM,动态环境SLAM,深度学习

    通信作者:

    王庆 E-mail: wq_seu@seu.edu.cn

  • 中图分类号: P228.4;TP391.41

Indoor dynamic SLAM based on geometric constraints and target detection

  • 摘要: 针对即时定位与地图构建(SLAM)在室内动态环境下定位精度低和地图效果差的问题,提出一种基于几何约束和目标检测的室内动态SLAM方法. 使用目标检测网络获取语义信息,提出运动物体漏检的方法;根据先验知识,提出准确识别动态区域的信息判定方法;结合几何约束和深度学习方法剔除动态点,利用静态点估计相机位姿;根据存储信息构建可闭环的静态地图. 在TUM数据集上进行实验,定位精度比ORB-SLAM2提高97.5%,相较于其他动态SLAM可取得更好的性能. 在室内真实环境进行实验,构建的静态地图更准确,有效提高了室内动态SLAM的定位精度和地图效果.

     

  • 图  1  系统框架

    图  2  极线约束

    图  3  本文方法和ORB-SLAM2的动态点剔除

    图  4  ORB-SLAM2的运行轨迹

    图  5  本文方法的运行轨迹

    图  6  本文方法和ORB-SLAM2的静态地图

    图  7  室内真实环境的动态点剔除

    图  8  室内真实环境的静态地图

    表  1  室内物体

    分类举例状态
    运动人、宠物主动运动
    相对椅子被动运动
    静止柜子、冰箱绝对静止
    静止书籍、杯子被动运动
    下载: 导出CSV

    表  2  动态点剔除

    方法原理动态点
    深度学习目标检测+信息判定人、移动的椅子
    几何约束极线约束拿起的杯子
    下载: 导出CSV

    表  3  静态地图

    方法信息环境
    传统方法几何信息静态
    本文方法几何信息+语义信息静态+动态
    下载: 导出CSV

    表  4  本文方法和ORB-SLAM2的定位精度

    序列ORB-SLAM2/m本文/m改进/%
    fr3/walking_xyz0.7560.01997.5
    fr3/walking_rpy0.7890.05892.3
    fr3/walking_static0.4050.01097.5
    fr3/walking_halfsphere0.5890.04592.4
    fr3/sitting_xyz0.0090.023-
    fr3/sitting_rpy0.0200.019-
    fr3/sitting_static0.0090.007-
    fr3/sitting_halfsphere0.0410.028-
    下载: 导出CSV

    表  5  本文方法和DS-SLAM的性能

    序列DS-SLAM本文方法
    定位/m时间/s定位/m时间/s
    fr3/walking_xyz0.06497.60.01929.5
    fr3/walking_rpy0.491103.40.05829.6
    fr3/walking_static0.00881.60.01025.3
    fr3/walking_halfsphere0.031123.20.04537.4
    下载: 导出CSV
  • [1] CADENA C, CARLONE L, CARRILLO H, et al. Past, present, and future of simultaneous localization and mapping: Toward the robust-perception age[J]. IEEE transactions on robotics, 2016, 32(6): 1309-1332. DOI: 10.1109/TRO.2016.2624754
    [2] JIA Y J, YAN X Y, XU Y H. A survey of simultaneous localization and mapping for robot[C]// IEEE Advanced Information Technology, Electronic and Automation Control Conference, 2019.
    [3] FORSTER C, ZHANG Z C, GASSNER M, et al. SVO: semidirect visual odometry for monocular and multicamera systems[J]. IEEE transactions on robotics, 2016, 33(2): 249-265. DOI: 10.1109/TRO.2016.2623335
    [4] ENGEL J, KOLTUN V, CREMERS D. Direct sparse odometry[J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 40(3): 611-625. DOI: 10.1109/TPAMI.2017.2658577
    [5] MUR-ARTAL R, TARDÓS J D. Orb-slam2: an open-source slam system for monocular, stereo, and RGB-D cameras[J]. IEEE transactions on robotics, 2017, 33(5): 1255-1262. DOI: 10.1109/TRO.2017.2705103
    [6] CAMPOS C, ELVIRA R, RODRÍGUEZ J J G, et al. Orb-slam3: An accurate open-source library for visual, visual–inertial, and multimap SLAM[J]. IEEE transactions on robotics, 2021, 37(6): 1874-1890. DOI: 10.1109/TRO.2021.3075644
    [7] 王柯赛, 姚锡凡, 黄宇, 等. 动态环境下的视觉SLAM研究评述[J]. 机器人, 2021, 43(6): 715-732. DOI: 10.13973/j.cnki.robot.200468
    [8] 高兴波, 史旭华, 葛群峰, 等. 面向动态物体场景的视觉SLAM综述[J]. 机器人, 2021, 43(6): 733-750. DOI: 10.13973/j.cnki.robot.200323
    [9] SUN Y X, LIU M, MENG M Q H. Improving RGB-D SLAM in dynamic environments: a motion removal approach[J]. Robotics and autonomous systems, 2017(89): 110-122. DOI: 10.1016/j.robot.2016.11.012
    [10] 张慧娟, 方灶军, 杨桂林. 动态环境下基于线特征的RGB-D视觉里程计[J]. 机器人, 2019, 41(1): 75-82. DOI: 10.13973/j.cnki.robot.180020
    [11] SHENG C, PAN S G, GAO W, et al. Dynamic-DSO: direct sparse odometry using objects semantic information for dynamic environments[J]. Applied sciences, 2020, 10(4): 1467. DOI: 10.3390/app10041467
    [12] HE K, GKIOXARI G, DOLLÁR P, et al. Mask R-CNN[C] //The IEEE International Conference on Computer Vision, 2017: 2961-2969.
    [13] YU C, LIU Z X, LIU X J, et al. DS-SLAM: a semantic visual SLAM towards dynamic environments[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2018: 1168-1174. DOI:10.1109/IROS.2018.8593691
    [14] BADRINARAYANAN V, KENDALL A, CIPOLLA R. Segnet: a deep convolutional encoder-decoder architecture for image segmentation[J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 39(12): 2481-2495. DOI: 10.1109/TPAMI.2016.2644615
    [15] YANG S Q, FAN G H, BAI L L, et al. SGC-VSLAM: a semantic and geometric constraints VSLAM for dynamic indoor environments[J]. Sensors, 2020, 20(8): 2432. DOI: 10.3390/s20082432
    [16] REDMON J, FARHADI A. Yolov3: an incremental improvement[J]. arXiv e-print, 2018. DOI: 10.48550/arXiv.1804.02767
    [17] ZHONG F W, WANG S, ZHANG Z Q, et al. Detect-SLAM: making object detection and SLAM mutually beneficial[C]//IEEE Winter Conference on Applications of Computer Vision (WACV), 2018: 1001-1010. DOI: 10.1109/WACV.2018.00115
    [18] DELMERICO J, SCARAMUZZA D. A benchmark comparison of monocular visual-inertial odometry algorithms for flying robots[C]//IEEE International Conference on Robotics and Automation (ICRA), 2018: 2502-2509. DOI:10.1109/ICRA.2018.8460664
  • 加载中
图(8) / 表(5)
计量
  • 文章访问数:  260
  • HTML全文浏览量:  65
  • PDF下载量:  20
  • 被引次数: 0
出版历程
  • 收稿日期:  2022-06-06
  • 录用日期:  2022-06-06
  • 网络出版日期:  2022-10-28

目录

    /

    返回文章
    返回