祁航 1,2彭晓东 1,3,*马晓珊 1
作者单位
摘要
1 中国科学院国家空间科学中心, 北京 100190
2 中国科学院大学 计算机科学与技术学院, 北京 100049
3 中国科学院大学 杭州高等研究院基础物理与数学科学学院, 杭州 310024
针对视觉同步定位与建图(SLAM)算法前端漂移误差累积问题, 提出基于光学成像模拟的视觉里程计方法。该方法利用稠密三维点云数据进行目标表面泊松重建及材质物理特性关联, 依据光学物理特性和光线追踪原理构建基于物理模型的成像渲染引擎(PBRT), 生成不同观测条件下的目标特性仿真图像; 将目标特性仿真图像与光学相机拍摄图像进行配准与运动偏差恢复, 并设计扩展卡尔曼滤波器(EKF)输出位姿状态最优估计值。通过原型系统研制与实验评估表明: 该方法有效克服了传统方法漂移误差累积的问题, 相较传统ORB-SLAM2算法前端定位精度提升了56%, 为视觉里程计的设计提供了一种新的技术思路。
光学成像模拟 光线追踪 位姿估计 视觉里程计 扩展卡尔曼滤波 optical imaging simulation ray tracing positional estimation visual odometry extended Kalman filter 
半导体光电
2022, 43(4): 816
作者单位
摘要
东南大学机械工程学院,江苏 南京 211189
为提升动态场景中视觉SLAM(Simultaneous Localization and Mapping)系统的定位精度和鲁棒性,提出一种基于光流和实例分割的视觉SLAM方法。针对动态物体和静态背景光流方向的不一致性,提出一种高实时性动态区域掩模检测算法,从而在ORB-SLAM2原有跟踪线程中实时地剔除处于动态区域掩模中的特征点。利用已有深度图和跟踪线程位姿估计的信息去除相机运动相关光流,然后聚类动态物体自身运动产生的光流幅值,从而实现高精度的动态区域掩模检测,并结合对极几何约束剔除局部建图线程中的动态路标点。在TUM和KITTI数据集上的测试结果表明,在高动态场景下,本文算法相较ORB-SLAM2、Detect-SLAM、DS-SLAM,定位精度平均提升97%、64%和44%。相较DynaSLAM,本文算法在一半的高动态场景中定位精度平均提升20%,这验证了本文算法在高动态场景中提升了系统定位精度和鲁棒性。
机器视觉 视觉里程计 动态场景 光流 运动物体检测 实例分割 
光学学报
2022, 42(14): 1415002
作者单位
摘要
1 浙江大学国家光学仪器工程技术研究中心, 浙江 杭州 310058
2 德国卡尔斯鲁厄理工学院人类与机器人研究所, 德国 卡尔斯鲁厄 76131
视觉里程计在智能机器人、自动驾驶等领域有着广泛的应用。但是基于有限视场(FOV)针孔相机的经典视觉里程计算法容易受到环境中运动物体和相机快速旋转的影响,在实际应用中鲁棒性和精度不足。针对这一问题,提出全景环带语义视觉里程计。通过将具有超大视场的全景环带成像系统应用到视觉里程计,并将基于深度学习的全景环带语义分割所提供的语义信息耦合到算法的各个模块,减小运动物体和快速旋转的影响,提高在应对这两种挑战性场景时算法性能。实验结果表明,相较于经典的视觉里程计,所提算法在实际环境下可以实现更加精确和鲁棒的位姿估计。
机器视觉 视觉里程计 全景环带镜头 语义分割 位姿估计 
光学学报
2021, 41(22): 2215002
作者单位
摘要
南通大学电气工程学院, 江苏 南通 226019
由于传统的视觉里程计(VO)存在实现过程繁琐、计算复杂等问题,提出了一种基于改进双流网络结构的VO。所提VO使用双流卷积神经网络结构,能够将RGB图像、深度图像同时馈入模型进行训练,并采用Inception网络结构对卷积层进行改进,减少参数数量。同时,在卷积层中加入注意力机制,提升网络对图像特征的辨识度和系统的鲁棒性。为了评估所提模型,在KITTI数据集上进行了模型的训练与测试,并与VISO2-M、VISO2-S和SfMLearner进行对比。结果表明,相较于同样使用单目相机的VISO2-M和SfMLearner,所提模型在旋转误差和平移误差方面取得了较大的改善,可与使用双目相机的VISO2-S相媲美。
图像处理 成像系统 视觉里程计 注意力机制 深度学习 双流网络 
激光与光电子学进展
2021, 58(20): 2010006
作者单位
摘要
哈尔滨工程大学智能科学与工程学院, 黑龙江 哈尔滨 150001
针对视觉里程计中采用基本特征点匹配算法易出现误匹配现象,提出一种结合双向光流法的特征点环形匹配算法。该算法将双目图像与前后帧图像组成环形,前后帧图像采用双向金字塔光流法跟踪特征点,并剔除错误的特征点追踪结果。基本特征匹配算法通常采用快速最近邻匹配(FLANN)算法,但其结果包含很多误匹配的点对。本文提出的匹配算法不仅能剔除误匹配特征点,还能使特征点均匀分布于图像上。随后采用基于3D-2D点的P3P(Perspective-3-Point)算法结合RANSAC(Random Sample Consensus)得到初始位姿估计结果,再利用g2o(General Graph Optimization)库对位姿估计结果进一步优化。定位实验结果表明,结合双向光流法的特征点环形匹配算法具有更高的定位精度。
机器视觉 视觉里程计 环形特征匹配 位姿估计 
光学学报
2021, 41(15): 1515002
作者单位
摘要
长春理工大学 光电工程学院, 长春130022
为了实现折反射全景相机实时定位,提出了基于特征点法的可以用于折反射全景相机的视觉里程计算法。对折反射全景相机的投影模型重新设计了初始化模块,用于全景相机位姿的初始化。在初始化模块中,提出了适用于折反射全景相机的球面对极几何,通过球面对极几何计算初始化过程中两帧图像间位姿变化关系。为了验证算法鲁棒性和精确度,在相同场景下,将本文算法与使用针孔相机的特征点法的视觉里程计算法进行对比。结果表明,使用折反射全景相机的情况下,室外场景和室内场景下视觉里程计精度分别比针孔相机算法提升了38%和50%。
视觉里程计 折反射全景相机 球面对极几何 多项式相机模型 本质矩阵 Visual odometry Catadioptric panoramic camera Spherical epipolar geometry Polynomial camera model Essensial matrix 
光子学报
2021, 50(4): 182
作者单位
摘要
贵州大学大数据与信息工程学院, 贵州 贵阳 550025
针对传统视觉同时定位与地图构建(vSLAM)相机跟踪模块在动态环境中无法精确定位的问题,提出一种基于语义的视觉里程计。首先,在利用金字塔Lucas-Kanade 光流追踪匹配帧间特征点的同时,对图像进行像素级的语义分割。然后,将语义信息与几何特征紧密结合用以准确地剔除图像中的外点,使得位姿估计和建图仅依靠图像中值得信赖的静态特征点。最后,提出了一种多尺度的随机抽样一致(RANSAC)方案,对匹配点进行步进采样,每步使用不同的尺度因子,在降低外点检测时间的同时,提高了外点检测的鲁棒性。在TUM数据集上的实验结果表明,在高动态序列中,相比于ORB-SLAM2,本文方案的绝对轨迹误差和相对位姿误差改善了90%以上,而相比于同类型的DS-SLAM,本文方案在降低外点检测时间30%~40%的情况下,提升了位姿估计的鲁棒性。
成像系统 运动估计和光流 视觉里程计 动态场景 多尺度随机抽样一致 语义分割 
激光与光电子学进展
2021, 58(6): 0611001
作者单位
摘要
上海工程技术大学电子电气工程学院, 上海 201620
针对传统视觉里程计在低纹理场景下,定位精度差甚至失效的问题,提出一种结合点线特征的RGB-D视觉里程计方法。该方法结合了点线特征各自独有的特性,同时联合点特征的光度误差和线特征的局部梯度适应性误差,构建了一个对低纹理场景鲁棒的联合误差函数。利用高斯-牛顿迭代法对联合误差函数进行非线性迭代优化,以获取相机每一帧的准确位姿。在公开的真实RGB-D数据集和合成基准测试数据集上对本文方法进行评估。实验结果表明,与其他先进算法相比,本文算法具有更优越的准确性和鲁棒性。
机器视觉 视觉里程计 低纹理 点特征 线特征 联合误差函数 
光学学报
2021, 41(4): 0415001
作者单位
摘要
贵州大学大数据与信息工程学院, 贵州 贵阳 550025
近年来,视觉里程计广泛应用于机器人和自动驾驶等领域,传统方法求解视觉里程计需基于特征提取、特征匹配和相机校准等复杂过程,同时各个模块之间要耦合在一起才能达到较好的效果,且算法的复杂度较高。环境噪声的干扰以及传感器的精度会影响传统算法的特征提取精度,进而影响视觉里程计的估算精度。鉴于此,提出一种基于深度学习并融合注意力机制的视觉里程计算法,该算法可以舍弃传统算法复杂的操作过程。实验结果表明,所提算法可以实时地估计相机里程计,并具有较高的精度和稳定性以及较低的网络复杂度。
机器视觉 深度学习 视觉里程计 注意力机制 多任务学习 
激光与光电子学进展
2021, 58(4): 0415001
作者单位
摘要
上海理工大学 光电信息与计算机工程学院,上海 200093
视觉里程计利用视频信息来估计相机运动的位姿参数,实现对智能体的定位。传统视觉里程计方法需要特征提取、特征匹配/跟踪、外点剔除、运动估计、优化等流程,解算非常复杂,因此,提出了基于卷积神经网络的方法来实现端对端的单目视觉里程计。借助卷积神经网络对彩色图片自动学习提取图像帧间变化的全局特征,将用于分类的卷积神经网络转化为帧间时序特征网络,通过三层全连接层输出相机的帧间相对位姿参数。在KITTI数据集上的实验结果表明,提出的Deep-CNN-VO模型可以较准确地估计车辆的运动轨迹,证明了方法的可行性。在简化了复杂模型的基础上,与传统的视觉里程计系统相比,该模型的精度也有所提高。
视觉里程计 自主定位 深度学习 卷积神经网络 visual odometry self-localization and navigation deep-learning convolutional neural network 
光学仪器
2020, 42(4): 33

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!