1 天津大学 精密测试技术及仪器国家重点实验室,天津 300072
2 南开大学 计算机学院,天津 300071
针对空间物体姿态快速测量问题,以构建视觉最小系统需求为依据,研究了一种基于二维主动位姿引导的单目视觉空间姿态测量方法,建立了单目相机、二维载台与倾角仪之间的姿态测量模型,实现了空间物体的姿态角的测量。该方法以大地倾角仪坐标系统一测量系统的测量基准,由精密二维载台引导单目相机覆盖地空大视野三维空间,通过前期标定设计完成了单目相机与二维载台之间的工装校准;建立了载台坐标系、摄像机坐标系以及大地倾角仪坐标系之间的姿态测量传递模型,实现了定轴旋转双视角拍照下的空间物体的姿态解算和角度测量。构建了实验验证环境,测角实验结果表明:在系统测量基准坐标系下,其俯仰角的测量误差≤0.82°,测量相对误差≤6.1%;其横滚角的测量误差≤0.43°,测量相对误差≤3.4%。
视觉测量 姿态测量 单目视觉 二维载台 visual measurement attitude measurement monocular vision two-dimensional load 红外与激光工程
2024, 53(2): 20211026
由于视觉传感器与惯性传感器的高度互补性, 视觉和惯性融合是一种常见的姿态测量手段。随着机载、车载等仪器设备的迅速发展, 传统静止基座下的姿态测量已无法满足一些实际应用场景的需求。由于受到基座运动信息的干扰, 很难对动基座上的目标物进行准确、快速的姿态测量。为了发挥视觉和惯性融合的优势, 并实现动态基座下的目标物相对姿态测量, 提出了一种基于单目视觉与双陀螺仪的姿态测量系统。分析了测量系统中坐标系的建立以及坐标系之间相对关系, 提出了坐标系归一化方案, 并利用容积卡尔曼滤波对视觉和惯性结果进行融合, 实现了高精度、大范围、快速、稳定的姿态测量。在搭建的视觉和惯性融合姿态测量系统平台上进行了实验验证, 结果证明该系统坐标系归一方案与融合算法的有效性。实验结果表明, 所搭建系统具有较高的准确度, 融合后的俯仰角和方位角的均方根误差(RMSE)均不超过0.1°。
动基座姿态测量 视觉和惯性融合系统 容积卡尔曼滤波 坐标系归一化 attitude measurement on moving base visual/inertial system cubature Kalman filter coordinates normalization
天津大学精密测试技术及仪器国家重点实验室, 天津 300000
姿态测量在民用和军用等领域均发挥着极为关键的作用, 是实现和发展车载、船载、机载仪器设备的自动化与智能化的重要一环。因此, 针对具体的应用场景设计出满足相应需求的姿态测量系统, 研究不同类型的测量传感器数据的融合机理, 探索优化传感器布局与系统结构, 实现精确、稳定、鲁棒、适应性强的姿态测量具有广泛的应用前景和实用价值。介绍了视觉与双惯性组合测量系统的研究进展; 总结了组合测量系统中系统结构设计、视觉与惯性传感器外参标定、双惯性传感器差分研究和数据融合算法研究等关键技术的发展现状。根据现有研究情况, 对未来的视觉与双惯性组合姿态测量的发展进行了展望。
姿态测量 双惯性 视觉 动载体 attitude measurement dual inertial sensors vision moving base
1 湖北工业大学 机械工程学院,湖北 武汉 430068
2 湖北省现代制造质量工程重点实验室,湖北 武汉 430068
3 海宁集成电路与先进制造研究院,浙江 海宁 314400
4 中国科学院微电子所, 北京 100029
针对现代工业生产中大型装备的生产、制造和装配对于姿态精准测量提出的需求,提出了一种基于加权最小二乘的激光跟踪姿态角测量方法。首先,阐述了姿态测量系统的组成,并对姿态测量系统中使用的坐标系进行定义;其次,建立了姿态测量数学模型,在此基础上利用加权最小二乘法对冗余角度信息进行数据融合,并采用蒙特卡洛法对融合方法进行了仿真分析;最后,搭建了姿态测量实验平台,利用精密二维转台对系统姿态角测量精度进行了评定。实验结果表明:在[−30°, 30°]角度范围内,测量距离为3 m时姿态角测量精度为0.28°,测量距离为8 m时姿态角测量精度为1.76°;与单目视觉法相比,姿态角测量精度在3 m时提升了6.7%,在8 m时提升了18.8%。文中提出的数据融合方法对姿态角测量精度的提升具有较好效果。
姿态测量 加权最小二乘 单目视觉 激光跟踪 attitude measurement weighted least squares monocular vision laser tracking 红外与激光工程
2022, 51(6): 20210675
1 中国科学院智能红外感知重点实验室,上海 200083
2 中国科学院大学,北京 100049
3 中国科学院上海技术物理研究所,上海 200083
针对空间失稳非合作航天器位姿测量的难题,提出了一种非合作航天器关键特征的双目视觉位姿测量方法。首先,利用两台可见光相机获取高分辨率目标图像,基于改进的弧支持线段的方法提取目标表面的星箭对接环;其次,提出一种基于短线段特征的直线检测方法提取隔热屏十字线;最后,利用对接环与十字线相关特征建立目标坐标系,解算目标坐标系与测量坐标系之间的位姿关系。为了保证追踪非合作航天器时目标坐标系的一致性,提出一种十字线与对接环交点切换的方法。通过暗室环境下相机系统逼近实验与卫星模型转动实验,验证了所提出方法的有效性与准确性,说明该方法可以在超近程跟踪航天器时提供较为实时的相对导航信息。
测量 双目视觉 非合作航天器 椭圆检测 直线检测 位姿测量 中国激光
2022, 49(17): 1704003
1 中国科学院 微电子研究所,北京00029
2 中国科学院大学,北京100049
针对航空航天、汽车装配等高端制造领域对姿态测量的迫切需求,提出一种面向激光跟踪仪的快速高精度姿态测量方法,利用深度学习结合视觉PnP模型实现了激光跟踪过程中被测件姿态的自动测量。针对PnP姿态求解模型所需的3D特征点和2D特征点之间的对应关系难以直接确定的问题,设计了一个特征提取网络用于提取特征点对应的高维特征,采用最优传输理论确定特征向量之间的联合概率分布,从而完成3D-2D特征点的自动匹配;使用Ransac-P3P结合EPnP算法对匹配好的3D特征点和2D像素点进行姿态求解,获得高精度的姿态信息;在此基础上,利用隐式微分理论计算PnP求解过程的雅克比矩阵,从而将PnP姿态求解模型集成到网络中并指导网络训练,实现了深度网络匹配能力与PnP模型姿态求解能力的优势互补,提高了解算精度。最后,制作了一个含有丰富标注信息的数据集,用于训练面向激光跟踪仪的姿态测量网络。基于高精度二维转台进行了姿态测量实验,结果表明,该方法在3 m处对俯仰角的测量精度优于0.31°,横滚角精度优于0.03°,单次测量耗时约40 ms,能够实现激光跟踪仪的高精度姿态测量。
激光跟踪仪 姿态测量 单目视觉 深度学习 laser tracker attitude measurement monocular vision deep learning
1 天津大学精密测试技术及仪器国家重点实验室,天津 300072
2 舟山市质量技术监督检测研究院,浙江 舟山 316000
无人机(UAV)的姿态角参数是衡量无人机飞行性能的重要参数。传统测量方法中UAV装置的各类传感器受UAV本身影响会产生较大数据误差,现有的视觉测量方法受光线影响,对标记点的识别精度有限,因而提出了一种基于激光投射和视觉的UAV姿态角测量方法。通过全站仪数据确定标记点在世界坐标系下的三维位置,并由搭载于UAV的激光发射器向前侧及左右两侧的幕布发射激光,相机实时捕捉并解算幕布上激光点的位移信息,通过激光点与标记点的几何关系及Rodrigues旋转公式求解UAV姿态角。实验结果表明,所提方法的姿态角解算误差在0.2°以下,可满足UAV姿态角度测量的精度要求。
机器视觉 姿态测量 特征点定位 machine vision 机器视觉 Rodrigues旋转 坐标转换 激光与光电子学进展
2022, 59(8): 0815007