激光与光电子学进展, 2020, 57 (9): 091203, 网络出版: 2020-05-06   

一种特征直线交会求解的姿态处理方法 下载: 911次

A Pose Information Acquisition Method Based on Characteristic Line Intersection Analysis
作者单位
中国华阴兵器试验中心, 陕西 华阴 714200
摘要
为了解决目前飞机类目标无目标模型,且目标主体中轴线难于准确提取的难题,提出一种基于分类直线交会解析的姿态信息获取方法。通过推导基准坐标系下姿态角定义与欧拉角递进旋转的唯一对应性关系获取基准旋转矩阵,对承载姿态信息的特征直线进行分类,并提出一种在非中轴直线以外交会的姿态角信息求解方法。该方法利用特征直线与中轴线的相对姿态关系,将直接交会获取基准系下的特征直线向量作为旋转变换输入条件,利用两直线同步旋转前后的向量空间关系,采用修正的Rodrigues变换获取关键姿态旋转矩阵,最后解析求解时刻旋转矩阵获取所需的姿态信息。校飞试验验证了所提算法的可行性,其稳定性优于模型匹配法。所提算法无需建模及特征匹配,处理效率得到了显著提高,普遍适用于导弹及飞机类目标姿态处理,为靶场光学姿态处理提供了一种新的思路和方法。
Abstract
To solve the problems of the lack of a model and inaccurate axis extraction of an airplane, a method for rendezvous analysis pose attainment of classified lines is proposed. In this method, first, a rotation matrix is obtained by deriving the unique correspondence between the pose definition and the progressive rotation of Euler angles in the reference coordinate system, and the lines are classified based on the carried pose information. Furthermore, a method for non-axis rendezvous analysis pose attainment, which uses the relative pose relationship between the feature line and the intersecting axis as input value for rotation transformation and obtains the rotation matrix by improving the feature line vector in the reference system, is implemented. Then, the pose rotation matrix is obtained by the modified Rodrigues transformation using the vector space relationship between the synchronous rotations of the two lines. The pose information can be analyzed using the solving time matrix. Tests show that the stability of the proposed algorithm is better than that of the model matching method, and its processing efficiency is considerably increased. Moreover, it has obvious advantages in terms of anti-occlusion, feature location, and tracking, which provides a new direction for the optical pose processing of the range.

1 引言

靶场光学姿态测量设备为高速姿态测量系统,具有准确的相机内、外参数,通常用于中远距离测量,目标成像相对较小,目标特征点比较集中,且在姿态变换过程中,分站可通视的同名特征点数量很少,故基于多特征点的处理方法[1-3]很难适用于靶场中远距离姿态测量;且分站没有准确的距离信息,故基于距离信息的单站姿态测量方法[4]也不适用。目前的处理方法大多基于多站交会处理,常用的处理方法为中轴线法[5]和模型匹配法[6-7]。前者直接利用平面中轴线与光心所在平面交会获取体中轴线,但只能获取偏航角和俯仰角,通常应用于导弹类成像轴对称目标;而后者首先需要根据目标精确尺寸建立目标模型,然后将模型的模拟投影元素(轮廓或区域)与实际投影结果匹配最优,可获取目标的偏航角、俯仰角和滚转角,该方法通常应用于飞机类非成像轴对称目标。模型匹配法必须建立准确的实体模型,中轴线法则不需建模,且在抗遮挡、像对特征匹配方面具有显著优势,是常用的姿态处理算法之一。

对于靶场多型飞机目标而言,首先测量单位不一定能拿到准确的外形数据,故模型匹配法的建模前提缺失;其次,在中远距离测量条件下,成像小则特征点相对集中,基于多特征点的处理方法不适用;最后,模型匹配法中物像对应关系的理论依据是共线方程,实际测量过程中,测量设备难免存在指向误差以及其他系统误差,导致物像匹配不对应,而基于方向计算的中轴线法受到测量设备指标内的指向误差影响较小,故本文拟对中轴线法进行拓展,利用飞机目标不相关直线矢量法求解目标姿态。

飞机类属于非投影轴对称目标,相对于弹体类目标,可提取的不相关直线特征较多。中轴线法不适用于飞机类目标的原因主要是目标主体轴线特征不显著,难于提取准确的中轴线;此外,没有明确分析出不同直线矢量承载不同姿态信息的支撑结论。本文通过对承载姿态信息的特征直线进行分类,提出一种在非中轴直线以外交会的姿态角信息求解方法。该方法同步结合了中轴线法及模型匹配法的优势,并利用直线特征矢量作为匹配元素,在精度得到有效保证的同时,显著提高处理效率。

2 特征直线构图关系及分类

2.1 飞机特征直线相对位姿关系构图

以w50型无人机为研究对象, 获取关键角点所成向量之间的相对位姿关系。图1为特征直线相对位姿关系构图,其中 BA为飞机的中轴线矢量, CD为翼展矢量, EF为尾撑杆矢量,下标T 表示目标。

图 1. 特征直线相对位姿关系构图

Fig. 1. Composition of relative posture relations of characteristic lines

下载图片 查看所有图片

2.2 按照姿态承载信息差异进行特征直线归类

根据靶场系(基准系)下姿态角定义与欧拉角旋转的唯一对应顺序,可得到基准系下求解时刻相对初始时刻的姿态旋转基准矩阵R'=R(y,Ψ)R(z,φ)R(x,-γ),其中Ψφγ分别为目标体相对于基准系下的偏航角、俯仰角和滚转角。

R'=cosψcosφ-cosψsinφcosγ+sinψsinγ-cosψsinφsinγ-sinψcosγsinφcosφcosγcosφsinγsinψcosφ-sinψsinφcosγ-cosψsinγ-sinψsinφsinγ+cosψcosγ(1)

通过对矩阵进行分析,可以发现在基准坐标系下,能携带姿态信息的关键直线矢量大致可分为如下两类:1)中轴线矢量或与之平行的直线矢量(平行于目标体坐标系XT轴),携带偏航角和俯仰角信息,本文算法中将其称为Ⅰ类直线;2)除Ⅰ类直线以外的直线矢量,本文算法中将其统称为Ⅱ类直线矢量,可携带3种姿态角信息。

3 算法分析

3.1 坐标系设置

算法过程中涉及的坐标系包括目标体坐标系、基准坐标系(通常取靶场坐标系)、摄像机坐标系、像面坐标系和像素坐标系。

1) 目标体坐标系OT-XTYTZT:按照零姿态定义,0°时目标体坐标系与基准坐标系平行,仅为原点之间的平移关系,故以此时的机身轴线为XT轴,机头为正;以机身垂直的连线为ZT轴,向右为正;按右手准则定义YT轴。

2) 基准坐标系O-XYZ:以靶场北向为X轴正向,靶场东向为Z轴正向,按右手准则定义Y轴。

3) 摄像机坐标系:为与基准坐标系保持一致,以像面中心为原点,以像面水平向右为Z轴正向,像面竖直向上为Y轴正向,以光轴指向为X轴正向。

4) 像面坐标系:Y轴、Z轴与摄像机坐标系保持一致,无X轴。

5) 像素坐标系:其与像面坐标系是仿射变换关系,图像原点在左上角,Y轴竖直向下,Z轴水平向右,以像素为单位。

3.2 算法推导

本文算法的已知条件如下:在目标体坐标系中,中轴线矢量为 BA(a+b,0,0)T,其他常规的可通视直线矢量分别为 CA(a,-c,d)TDA(a,-c,-d)TCD(0,0,2d)TEF(0,0,2e)T;在实际像面坐标系中,A点成像于A'(x1,y1),B点成像于B'(x2,y2),C点成像于C'(x3,y3),D点成像于D'(x4,y4),E点成像于E'(x5,y5),F点成像F'(x6,y6);其他算法中还涉及到的条件信息包括分站焦距值(f1,f2)、分站光轴指向角(A1,E1;A2,E2),其中A1A2为光轴指向方位角,E1E2为光轴指向俯仰角。求姿态角信息。

解算过程:由于很难准确定位提取飞机类目标的机身像面轴线(影像非对称;机头、机身外形不规则),故暂不考虑Ⅰ类直线。若有其他与中轴线平行的直线易于提取,可直接采用轴线交会法获取偏航角和俯仰角信息,即采用下面所述的第1)步。

本文主要研究基于Ⅱ类直线的姿态信息获取方法。以垂直于中轴线的尾撑杆矢量 EF(整体结构对称)为例进行3种姿态角的分析求解。首先,对求解时刻的尾撑杆矢量 EF进行交会处理,作为旋转变换条件输入;之后根据姿态变化初始及求解时刻关键矢量变化,获取旋转矩阵;最后解析旋转矩阵获取所需姿态信息。本文算法以中轴线法对影像至目标的重建作为输入条件,完成模型匹配法从目标至影像的投影匹配,求解得到输出姿态;且在模型虚拟投影过程中用到了改进的罗德里格斯变换进行关键旋转,实现对姿态角的降维处理。

1) 采用面面交会法获取基准坐标系下求解时刻的尾撑杆矢量 EF(l',m',n');

2) 用修正的罗德里格斯(Rodrigues)变换实现动坐标系下的单次递进式旋转。由于姿态旋转变换是递进式旋转变换,故每一步旋转基准都是变化的。

根据Rodrigues旋转公式, V是一个三维空间向量,K(Kx,Ky,Kz)是旋转轴的单位向量,则V在右手螺旋定则意义下绕旋转轴K旋转角度θ得到的向量Vrot可以由三个不共面的向量VKK×V表示,即

Vrot=Vcosθ+(1-cosθ)(V·K)K+Ksinθ×V,(2)

其矩阵形式为

Vrot=R'V(3)

由此可得:

R'=Ecosθ+(1-cosθ)KXKYKZKXKYKZ+sinθ0-KZKYKZ0-KX-KYKX0,(4)

式中:E为单位矩阵。经过分析发现,本研究的应用场景与Rodrigues变换有差异,因此在第3)步中的旋转变换过程可表示为

R'=Ecosθ+0-KZKYKZ0-KX-KYKX0(5)

3) 关键三矢量同步从物方空间至像方空间的递进式旋转变换。三矢量是指初始时刻平行于基准系XYZ轴的目标体坐标系下的三矢量(XT-0,YT-0,ZT-0),作为旋转中重要过程矢量,其中XT-0BA,ZT-0EF,根据姿态角定义及对等向量左乘执行原则,可得目标姿态变换顺序为偏航→俯仰→滚转。

第一步,偏航Ψ角,旋转轴为YT-0(0,1,0),同步计算出XT-0ZT-0经旋转后得到XT-1ZT-1(经第一步旋转后的目标X轴、Z轴);

第二步,俯仰φ角,旋转轴为ZT-1,同步计算出XT-1YT-0经旋转后所得XT-2YT-1(经第二步旋转后的目标X轴、Y轴);

第三步,滚转γ角,旋转轴为XT-2,根据Rodrigues变换公式,旋转前向量为ZT-1(-sinΨ,0,cosΨ)T,旋转后向量为第1)步交会出的矢量(l',m',n')T,则旋转角度为

cosγ=-l'sinΨ+n'cosΨ(6)

旋转轴K为旋转前、后向量的叉积,即

K=(-m'cosψ,l'cosψ+n'sinψ,-m'sinψ)(7)

按照右手定则

XT2=-kK,(8)

则旋转矩阵Rγ

Rγ=-l'sinψ+n'cosψm'sinψl'cosψ+n'sinψ-m'sinψ-l'sinψ+n'cosψm'cosψ-n'sinψ-l'cosψ-mcosψ-l'sinψ+n'cosψ,(9)

XT2YT2ZT2=km'cosψ-n'sinφ+m'sinψcosφl'-k(n'sinψ+l'cosψ)(-l'sinψ+n'cosψ)cosφm'km'sinψl'sinφ-m'cosψcosφn',(10)

式中:k=[(m'cosψ)2+(n'sinψ+l'cosψ)2+(m'×sinψ)-1/2

对比(1)式和(10)式,可得

n'sinψ+l'cosψm'=-tanφm'=sinγcosφcosγ=-l'sinψ+n'cosψ(sin2φ-1)sin2γ=l'2+n'2-1(11)

附加约束条件为(11)式中各列相互正交。

第四步,利用其他非相关直线进行优化求解。

4 算法验证

为了验证本文算法的精度,利用w50型无人机按照预定的航迹飞行进行验证,使用姿态经纬仪实时采集大量动态图像数据。利用目前的处理系统-模型匹配法,以及本文方法同步进行处理,其中相对真值由遥测机载数据提供,采用GPS与惯导组合测量姿态数据,测量精度远高于光学测量基准,已经过多次检定和校飞试验验证。序列图像中的分站对应图像如图2所示,模型匹配法和本文方法的姿态结果对比如图3所示。

图 2. 序列图像中的分站对应图像。(a)分站1图像;(b)分站2图像

Fig. 2. Sub-station images from sequence images. (a) Sub-station 1; (b) sub-station 2

下载图片 查看所有图片

图 3. 模型匹配法和本文方法的姿态结果对比。 (a)偏航角结果对比;(b)俯仰角结果对比;(c)滚转角结果对比

Fig. 3. Comparison of pose results between classified linear analysis methods and proposed method. (a) Comparison of yaw angle; (b) comparison of pitch angle; (c) comparison of roll angle

下载图片 查看所有图片

从正确性分析可知,本文方法更可靠、更稳定,与遥测数据吻合较好。通过方均根误差分析,本文方法的偏航角、俯仰角和滚转角分别为0.32°、0.27°和0.49°,而模型匹配方法的3种角度均接近1°。从处理效率上分析,模型匹配方法需要经过前期建模与后期特征提取、匹配修正等过程,本文方法只需提取分站的同名特征直线矢量,不需要建模,且在后期特征提取、匹配方面更有优势,故处理效率得到了提高。

5 数据误差分析

5.1 直线端点定位误差的影响分析

斜率来源于面轴线提取,而轴线提取主要取决于关键点的定位精度,故直接分析端点定位误差与最终姿态角的对应关系;为了进一步弄清不同成像情况下端点定位误差对面轴线提取斜率的影响,对面轴线提取精度与k值变化量之间的关系进行分析。

表1中某几个时刻为例,计算姿态角误差值。像素误差值可由面直线提取公式计算得到,即

k=arctanα=-x1-x2y1-y2,(13)

像素定位误差设定为

Δα=x1-x2+1y1-y2-1-x1-x2y1-y2(14)

表 1. 分站1成像情况

Table 1. Imaging situation at sub-station 1

Time No.1234
Line length /pixel74.481.383.585.7
k value3.993.943.873.47

查看所有表

图4可以看出,误差与目标自身姿态及定位精度相关。误差随着定位精度的增大呈单调递增;k值基数越大,其对误差的影响越小;成像较小,所产生的影响相对较大。

图 4. 姿态角误差与像素提取误差的关系。(a)偏航角误差与像素提取误差的关系;(b)像素提取误差与k值变化量的关系

Fig. 4. Relationship between attitude angle error and endpoint location error. (a) Relationship between yaw angle error and endpoint location error; (b) relationship between endpoint location error and k variation

下载图片 查看所有图片

5.2 方向矢量不准确与姿态角误差的关系

经过算法检验,Ⅱ类直线中平行于 EF的矢量严格垂直于中轴线矢量,与尺寸无关。其他直线矢量不准确对姿态角的影响如图5所示。

图 5. 方向矢量不准确对姿态角误差的影响

Fig. 5. Effect of inaccuracy of direction vector on attitude angle error

下载图片 查看所有图片

图5的横轴以特征直线XZ方向同时远离原测量位置起算,将1~7分别表示尺寸变化量为-0.2,-0.1,-0.05,0,0.05,0.1,0.2 m。

图5可以看出,方向矢量不准确对姿态角误差的影响呈单调递增,其中对偏航角的影响最大。按照尺寸测量精度不超过0.05 cm分析,在此测量条件下,偏航角的变化超过1°,俯仰角的变化偏小,大约为0.2°;滚转角的变化最小,不超过0.1°。另外,以尺寸变化为相对变化量,故误差与目标尺寸成反比。

综上,姿态角误差影响因素按照重要程度依次为方向矢量测量误差、像长、直线矢量提取误差,焦距测量误差和光轴指向误差可忽略不计。需要对方向矢量测量误差影响进行分类分析,其中与中轴线垂直的直线与尺寸无关,其他直线对姿态角影响很大,尤其对偏航角误差的影响最大。

6 结论

通过对目标姿态定义与欧拉角递进旋转的唯一对应性进行分析,推导出唯一对应姿态旋转矩阵,总结出不同直线承载不同姿态信息的结论;提出一种将特征直线矢量交会处理作为旋转变换条件输入,利用改进的Rodrigues矩阵获取关键旋转矩阵,最后获取3种姿态角的方法。该方法结合交会处理及投影匹配的优势,兼顾处理精度及效率,并在无模型输入、中轴线特征提取不准确的情况下,得到可靠的飞机类3种姿态角信息,普遍适用于成像轴对称及非轴对称目标的姿态角处理。

参考文献

[1] 刘进博, 郭鹏宇, 李鑫, 等. 基于点对应的相机姿态估计算法性能评价[J]. 光学学报, 2016, 36(5): 0515002.

    Liu J B, Guo P Y, Li X, et al. Evaluation strategy for camera pose estimation algorithm based on point correspondences[J]. Acta Optica Sinica, 2016, 36(5): 0515002.

[2] 王鲲鹏, 张小虎, 于起峰. 基于目标特征点比例的单站图像定姿方法[J]. 应用光学, 2009, 30(6): 974-978.

    Wang K P, Zhang X H, Yu Q F. Single station image attitude determination method based on the proportion of target characteristic points[J]. Applied Optics, 2009, 30(6): 974-978.

[3] 朱帆, 于芳苏, 吴易明, 等. P4P法相机姿态标定精度分析[J]. 光学学报, 2018, 38(11): 1115005.

    Zhu F, Yu F S, Wu Y M, et al. Analysis of attitude calibration precision of P4P camera[J]. Acta Optica Sinica, 2018, 38(11): 1115005.

[4] 胡小丽, 张玉伦, 刘彪, 等. 基于物距辅助的单站姿态处理方法[J]. 光学学报, 2019, 39(6): 0612004.

    Hu X L, Zhang Y L, Liu B, et al. Single-station pose-processing method based on object distance assistance[J]. Acta Optica Sinica, 2019, 39(6): 0612004.

[5] 于起峰, 孙祥一, 陈国军. 用光测图像确定空间目标俯仰角和偏航角的中轴线法[J]. 国防科技大学学报, 2000, 22(2): 15-19.

    Yu Q F, Sun X Y, Chen G J. A new method of measure the pitching and yaw of the axes symmetry object through the optical image[J]. Journal of National University of Defense Technology, 2000, 22(2): 15-19.

[6] 习飞, 文贡坚, 蔡伟柯. 利用三维模型和立体像对估算飞行目标位姿[J]. 计算机仿真, 2007, 24(11): 95-99, 143.

    Xi F, Wen G J, Cai W K. Estimating pose parameters of flying object by using model and stereo images[J]. Computer Simulation, 2007, 24(11): 95-99, 143.

[7] 苏国中. 基于光电经纬仪影像的飞机姿态测量方法研究[D]. 武汉: 武汉大学, 2005.

    Su GZ. Research on the method of aircraft pose surveying from image sequences obtained by photoelectric theodolite[D]. Wuhan: Wuhan University, 2005.

胡小丽, 唐明刚, 吴海英. 一种特征直线交会求解的姿态处理方法[J]. 激光与光电子学进展, 2020, 57(9): 091203. Xiaoli Hu, Minggang Tang, Haiying Wu. A Pose Information Acquisition Method Based on Characteristic Line Intersection Analysis[J]. Laser & Optoelectronics Progress, 2020, 57(9): 091203.

本文已被 2 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!