红外与激光工程
2023, 52(11): 20230119
光学 精密工程
2023, 31(15): 2193
1 湖北工业大学 机械工程学院,湖北 武汉 430068
2 湖北省现代制造质量工程重点实验室,湖北 武汉 430068
3 海宁集成电路与先进制造研究院,浙江 海宁 314400
4 中国科学院微电子研究所,北京 100029
单目视觉中的位姿估计是三维测量中的一个关键问题,在机器视觉、精密测量等方面运用广泛。该问题可通过n点透视(PnP)算法求解,正交迭代算法(OI)作为PnP算法的代表,因其高精度的优点在实际中得到了广泛运用。为了进一步提高OI算法的稳健性和计算效率,提出了一种加权加速正交迭代算法(WAOI)。该方法首先根据经典正交迭代算法推导出加权正交迭代算法,通过构建加权共线性误差函数,利用物点重投影误差更新权值,达到迭代优化位姿估算结果的目的;在此基础上,通过自适应权值,整合每次迭代过程中平移向量以及目标函数的计算,减少迭代过程中的计算量,从而实现算法的加速。实验表明,在12个参考点中存在两个粗差点的情况下,WAOI的参考点重投影精度为0.64 pixel,运算时间为8.02 ms,精度高且运行速度快,具有较强的工程实用价值。
机器视觉 位姿估计 加权正交迭代 自适应权值 machine vision pose estimation weighted orthogonal iterative adaptive weights 红外与激光工程
2022, 51(10): 20220030
1 湖北工业大学 机械工程学院,湖北 武汉 430068
2 湖北省现代制造质量工程重点实验室,湖北 武汉 430068
3 海宁集成电路与先进制造研究院,浙江 海宁 314400
4 中国科学院微电子所, 北京 100029
针对现代工业生产中大型装备的生产、制造和装配对于姿态精准测量提出的需求,提出了一种基于加权最小二乘的激光跟踪姿态角测量方法。首先,阐述了姿态测量系统的组成,并对姿态测量系统中使用的坐标系进行定义;其次,建立了姿态测量数学模型,在此基础上利用加权最小二乘法对冗余角度信息进行数据融合,并采用蒙特卡洛法对融合方法进行了仿真分析;最后,搭建了姿态测量实验平台,利用精密二维转台对系统姿态角测量精度进行了评定。实验结果表明:在[−30°, 30°]角度范围内,测量距离为3 m时姿态角测量精度为0.28°,测量距离为8 m时姿态角测量精度为1.76°;与单目视觉法相比,姿态角测量精度在3 m时提升了6.7%,在8 m时提升了18.8%。文中提出的数据融合方法对姿态角测量精度的提升具有较好效果。
姿态测量 加权最小二乘 单目视觉 激光跟踪 attitude measurement weighted least squares monocular vision laser tracking 红外与激光工程
2022, 51(6): 20210675
1 中国科学院微电子研究所,北京 100094
2 中国科学院大学,北京 100049
高性能光学成像器件是机器视觉测量的重要基础,液体透镜作为一种结构紧凑的快速电控调焦器件,在机器视觉测量领域中具有明确的应用前景。针对液体透镜调焦器件在视觉测量中性能易受环境干扰、系统内参难以准确标定的问题开展研究。首先,构建了基于Optotune液体透镜器件的机器视觉测量系统,分析了液体透镜器件电控调焦工作机理,提出了调焦系统的电流-焦距数学模型,研究了影响液体透镜调焦系统参数的温度、重力因素作用机理,分别提出了温度-焦距、重力-主点位置影响量传递与补偿数学模型;然后,将上述各系统模型与针孔相机成像模型相结合,提出了液体透镜调焦系统的函数化内参表达式,设计了求取表达式全部系数的标定装置与标定流程,并进行了系统内参标定实验,验证了文中内参标定方法的可行性;最后,利用标定所得的内参对边长30 mm的棋盘格靶标进行了测量实验,通过尺寸测量精度反映内参标定精度。实验结果表明,文中方法能够得到比现有插值法更准确的内参标定结果,其中图像角点空间映射位置误差均值为0.10 mm,棋盘格边长测量结果最大相对误差为0.68%,两项误差比插值法所得内参的测量结果分别减小了27.2%和54.4%。
机器视觉 液体透镜 相机标定 电控调焦 环境补偿 machine vision liquid lens camera calibration electronically controlled focusing environmental compensation 红外与激光工程
2022, 51(6): 20210472
1 中国科学院 微电子研究所,北京00029
2 中国科学院大学,北京100049
针对航空航天、汽车装配等高端制造领域对姿态测量的迫切需求,提出一种面向激光跟踪仪的快速高精度姿态测量方法,利用深度学习结合视觉PnP模型实现了激光跟踪过程中被测件姿态的自动测量。针对PnP姿态求解模型所需的3D特征点和2D特征点之间的对应关系难以直接确定的问题,设计了一个特征提取网络用于提取特征点对应的高维特征,采用最优传输理论确定特征向量之间的联合概率分布,从而完成3D-2D特征点的自动匹配;使用Ransac-P3P结合EPnP算法对匹配好的3D特征点和2D像素点进行姿态求解,获得高精度的姿态信息;在此基础上,利用隐式微分理论计算PnP求解过程的雅克比矩阵,从而将PnP姿态求解模型集成到网络中并指导网络训练,实现了深度网络匹配能力与PnP模型姿态求解能力的优势互补,提高了解算精度。最后,制作了一个含有丰富标注信息的数据集,用于训练面向激光跟踪仪的姿态测量网络。基于高精度二维转台进行了姿态测量实验,结果表明,该方法在3 m处对俯仰角的测量精度优于0.31°,横滚角精度优于0.03°,单次测量耗时约40 ms,能够实现激光跟踪仪的高精度姿态测量。
激光跟踪仪 姿态测量 单目视觉 深度学习 laser tracker attitude measurement monocular vision deep learning
红外与激光工程
2021, 50(4): 20200254
1 中国科学院微电子研究所, 北京 100029
2 中国科学院大学, 北京 100049
为了提高芯片级原子钟的自动化装配效率与装配精度, 研究了一种粗-精结合的微器件位姿检测方法。首先, 分析了微器件自身的特点、应用环境, 提出利用图像梯度直方图特征训练SVM分类器来实现微器件粗定位的方法, 同时通过构建遮挡样本和模糊样本以解决模型在微器件离焦模糊、遮挡情况下的漏检问题, 提高模型泛化能力。然后, 提出利用LSD算法和直线增长方法来提取目标边缘, 计算得到图像亚像素的特征点坐标。最后, 通过ICP算法计算微器件在显微视场下的实时位置和姿态。实验结果表明, 原子钟核心器件的识别准确率为95.3%, 定位平均误差小于20μm, 角度误差小于0.5°, 能够满足微装配过程中微加持器准确抓取目标器件的要求。
微装配 图像梯度直方图 最近点迭代 位姿测量 micro assembly image gradient histogram iteration closest point position-pose measurement