留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于惯性先验校正图像灰度的VIO前端改良方法

徐锦乐 潘树国 高旺 刘宏 王向

徐锦乐, 潘树国, 高旺, 刘宏, 王向. 基于惯性先验校正图像灰度的VIO前端改良方法[J]. 全球定位系统, 2023, 48(3): 102-109. doi: 10.12265/j.gnss.2023067
引用本文: 徐锦乐, 潘树国, 高旺, 刘宏, 王向. 基于惯性先验校正图像灰度的VIO前端改良方法[J]. 全球定位系统, 2023, 48(3): 102-109. doi: 10.12265/j.gnss.2023067
XU Jinle, PAN Shuguo, GAO Wang, LIU Hong, WANG Xiang. An improved VIO front-end method based on inertial prior correction of image grayscale[J]. GNSS World of China, 2023, 48(3): 102-109. doi: 10.12265/j.gnss.2023067
Citation: XU Jinle, PAN Shuguo, GAO Wang, LIU Hong, WANG Xiang. An improved VIO front-end method based on inertial prior correction of image grayscale[J]. GNSS World of China, 2023, 48(3): 102-109. doi: 10.12265/j.gnss.2023067

基于惯性先验校正图像灰度的VIO前端改良方法

doi: 10.12265/j.gnss.2023067
基金项目: 国家重点研发计划(2021YFB3900804)
详细信息
    作者简介:

    徐锦乐:(1998—),男,硕士,研究方向为视觉/惯性SLAM、图像处理

    潘树国:(1975—),男,博士,教授,研究方向为智能体环境感知与自主导航

    高旺:(1989—),男,博士,副教授,研究方向为多频多系统区域增强快速精密定位

    通信作者:

    潘树国 E-mail: psg@seu.edu.cn

  • 中图分类号: P228.4

An improved VIO front-end method based on inertial prior correction of image grayscale

  • 摘要: 针对封闭环境中不同光照场景导致相机图像序列光照过强、过弱以及光照强度大幅变化等问题,提出了一种基于惯性先验预测并校正图像灰度、提升光流跟踪成功率的视觉惯性里程计(VIO)前端改良方法,以解决由于极端光照条件导致的特征点跟踪失败问题. 该VIO前端改良算法通过以惯性预测特征点像素位置,并衡量图像序列中对应特征点邻域之间的相似性对当前图像灰度进行伽马校正. 通过TUM数据集实验验证,所提算法定位精度比VINS-Mono平均提升了17.7%;在真实的室内外环境下进行实验,相较于VINS-Mono有更好的表现.

     

  • 图  1  惯性先验校正图像灰度的VIO系统前端改良方法原理框图

    图  2  特征点邻域选取规则

    图  3  自适应伽马校正灰度曲线

    图  4  自适应伽马校正流程图

    图  5  图像处理前后对比

    图  6  光照条件大幅变化情况下的特征点跟踪结果

    图  7  载体大幅旋转情况下的特征点跟踪结果

    图  8  特征点跟踪成功率对比结果

    图  9  序列1轨迹

    图  10  序列2轨迹

    图  11  序列1运动轨迹绝对位置误差

    图  12  序列2运动轨迹绝对位置误差(序列中一段时间载体处于静止不动状态)

    表  1  TUM数据集特征跟踪耗时

    数据集序列本文方法/msVINS-Mono/ms
    dataset-corridor1_512_1621.5537.884
    dataset-corridor2_512_1619.3547.655
    dataset-corridor3_512_1613.3657.113
    dataset-corridor4_512_1622.6818.257
    dataset-room1_512_1616.2257.915
    dataset-room2_512_1611.4366.715
    dataset-room3_512_1612.3526.914
    dataset-room4_512_1619.2318.132
    dataset-room5_512_1618.3647.875
    dataset-room6_512_1615.9467.294
    下载: 导出CSV

    表  2  TUM数据集定位误差(RMSE)

    数据集序列本文方法/mVINS-Mono/m
    dataset-corridor1_512_160.0350.038
    dataset-corridor2_512_160.0200.027
    dataset-corridor3_512_160.0350.036
    dataset-corridor4_512_160.1830.279
    dataset-room1_512_160.0320.076
    dataset-room2_512_160.0880.136
    dataset-room3_512_160.4100.585
    dataset-room4_512_160.0390.088
    dataset-room5_512_160.1720.210
    dataset-room6_512_160.1460.241
    下载: 导出CSV

    表  3  真实环境定位RMSE

    数据本文方法/mVINS-Mono/m
    序列11.5521.721
    序列22.4913.345
    下载: 导出CSV
  • [1] CHEN W F, SHANG G T, JI A H, et al. An overview on visual SLAM: from tradition to semantic[J]. Remote sens, 2022, 14(13): 3010. DOI: 10.3390/rs14133010
    [2] 高云峰, 周伦, 吕明睿, 等. 自主移动机器人室内定位方法研究综述[J]. 传感器与微系统, 2013, 32(12): 1-5.
    [3] QIN T, LI P L, SHEN S J. VINS-Mono: a robust and versatile monocular visual-inertial state estimator[J]. IEEE transactions on robotics, 2018, 34(4): 1004-1020. DOI: 10.1109/TRO.2018.2853729
    [4] MUR-ARTAL R. , JUAN D T. ORB-SLAM2: an open-source SLAM system for monocular, stereo, and RGB-D cameras[J]. IEEE transactions on robotics, 2017, 33(5): 1255-1262. DOI: 10.1109/TRO.2017.2705103
    [5] MOURIKIS A S, ROUMELIOTIS S I. A multi-state constraint kalman filter for vision-aided inertial navigation[C]// Proceedings 2007 IEEE International Conference on Robotics and Automation, 2017.
    [6] HE Y J, ZHAO J, GUO Y, et al. PL-VIO: tightly-coupled monocular visual-inertial odometry using point and line features[J]. Sensors, 2018, 18(4): 1159. DOI: 10.3390/s18041159
    [7] NIU X J, TANG H L, ZHANG T S, et al. IC-GVINS: a robust, real-time, INS-Centric GNSS-visual-inertial navigation system[J]. IEEE robotics and automation letters, 2023, 8(1): 216-223. DOI: 10.1109/LRA.2022.3224367
    [8] ZHU S N, YANG S M, HU P Y, et al. A robust optical flow tracking method based on prediction model for visual-inertial odometry[J]. IEEE robotics and automation letters, 2021, 6(3): 5581-5588. DOI: 10.1109/LRA.2021.3079806
    [9] SONG Z X, ZHANG X B, LI T Y, et al. IR-VIO: Illumination-robust visual-inertial odometry based on adaptive weighting algorithm with two-layer confidence maximization[J]. IEEE/ASME transactions on mechatronics, 2022: 1-10. DOI: 10.1109/TMECH.2023.3277031
    [10] LAND E H. An alternative technique for the computation of the designator in the retinex theory of color vision[J]. Proceedings of the national academy of sciences of the United States of America, 1986, 83(10): 3078-3080. DOI: 10.1073/pnas.83.10.30
    [11] JOBSON D J, RAHMAN Z, WOODELL G A. A multiscale retinex for bridging the gap between color images and the human observation of scenes[J]. IEEE transactions on image processing, 1997, 6(7): 965-976. DOI: 10.1109/83.597272
    [12] KAIMING H, SUN J, TANG X O. Single image haze removal using dark channel prior[C]// IEEE Conference on Computer Vision and Pattern Recognition, 2019.
    [13] PISANO E D, ZONG S, HEMMINGER B M, et al. Contrast limited adaptive histogram equalization image processing to improve the detection of simulated spiculations in dense mammograms[J]. Journal of digit imaging, 1998, 11(4): 193-200. DOI: 10.1007/BF03178082
    [14] 高扬, 王兴奔, 徐永贵, 等. 低光照条件下的鲁棒视觉惯性SLAM算法[J]. 组合机床与自动化加工技术, 2022(6): 39-44.
    [15] 尹胜楠, 崔学荣, 李娟, 等. 基于快速ACE算法的视觉里程计图像增强方法[J]. 电子测量与仪器学报, 2021, 35(6): 27-33.
    [16] TOMASI J, WAGSTAFF B, WASLANDER S L, et al. Learned camera gain and exposure control for improved visual feature detection and matching[J]. IEEE robotics and automation letters, 2021(99): 1-1. DOI: 10.1109/LRA.2021.3058909
    [17] 高翔, 张涛. 视觉SLAM十四讲: 从理论到实践[M]. 北京: 电子工业出版社, 2017.
  • 加载中
图(12) / 表(3)
计量
  • 文章访问数:  265
  • HTML全文浏览量:  123
  • PDF下载量:  39
  • 被引次数: 0
出版历程
  • 收稿日期:  2023-03-30

目录

    /

    返回文章
    返回