陈凯余 1,2,3,4,5李颖 1,2,3,4李政岱 1,2,3,4郭友明 1,2,3,4,*
1 中国科学院自适应光学重点实验室,四川 成都 610209
2 中国科学院光电技术研究所,四川 成都 610209
3 中国科学院大学,北京 100049
4 中国科学院大学电子电气与通信工程学院,北京 100049
5 光场调控科学技术全国重点实验室,四川 成都 610209
无透镜成像系统使用掩模板替代镜头,在降低成本的同时使设备更加轻巧,然而在进行目标识别前需通过计算重建图像,涉及参数调优和计算耗时问题。基于此,提出一种无重建的目标识别方案,直接在无透镜相机拍摄的编码图像上训练网络识别目标,在节约计算资源的同时还提供隐私保护。使用具有相位掩模板和振幅掩模板的无透镜相机,仿真生成MNIST与Fashion MNIST数据集和实采MNIST数据集,然后在这些数据集上训练ResNet-50与Swin_T网络进行目标识别。结果表明,在仿真MNIST、Fashion MNIST和真实MNIST数据集上,所提方案的最高识别准确率达99.51%、92.31%和98.06%,与先重建目标后识别方案的准确率相当,证明所提方案是一种高效的、具有隐私保护的端到端方案,且在两种掩模板和两类常规骨干分类网络上得到了验证。
计算成像 目标识别 深度学习 无透镜成像 激光与光电子学进展
2024, 61(8): 0811008
1 北京理工大学光电学院, 光电成像技术与系统教育部重点实验室, 北京 100081
2 中国兵器科学研究院, 北京 100089
人脸识别和车牌识别是智慧安防领域的重要内容。人脸和车牌的特征尺度小、细节丰富, 对成像系统的空间分辨力有较高要求, 需要较大规模的探测器和高传函、小畸变的光学镜头。然而, 安防系统又要求广域监控, 需要使用视场大但具有一定畸变的广角镜头。因此, 设计既能精确识别人脸和车牌目标、又能广域监控的成像系统时, 应将精确目标识别作为约束来权衡高空间分辨力和大视场的性能指标以及估计识别距离。在这样的应用需求下, 本文提出了像素面密度对精确目标进行统一描述, 并提出了考虑广角镜头径向畸变的精确目标识别距离估算方法, 通过对存在旋转和平移的人脸和车牌目标进行计算验证, 结果表明: 考虑径向畸变后实际识别距离较理论识别距离近, 且人脸和车牌平移距离分别为 1m和 2m时, 实际与理论的识别距离差异高达34.2%和 27.5%。
识别距离 广角镜头 径向畸变 目标识别 像素面密度 recognition distance wide-angle lens radial distortion object recognition pixel areal density
1 西安工程大学电子信息学院,陕西 西安 710048
2 格罗宁根大学伯努利实验室,格罗宁根 9747 AG,荷兰
为了提高基于图像的物体识别准确率,提出一种改进双流卷积递归神经网络的RGB-D物体识别算法(Re-CRNN)。将RGB图像与深度光学信息结合,基于残差学习对双流卷积神经网络(CNN)进行改进:增加顶层特征融合单元,在RGB图像和深度图像中学习联合特征,将提取的RGB和深度图像的高层次特征进行跨通道信息融合,继而使用Softmax生成概率分布。最后,使用标准数据集进行实验,结果表明,Re-CRNN算法的RGB-D物体识别准确率为94.1%,较现有基于图像的物体识别方法有显著的提升。
RGB-D图像 结构光 物体识别 深度学习 深度图像 RGB-D image structured light object recognition deep learning depth image
战场野外复杂红外场景中, 由于背景灰度分布无规律、目标边缘模糊且纹理特征缺失, 目标极易混淆在背景之中; 由于嵌入式平台算力的限制, 多数深度学习类检测算法难以应用于便携设备, 无法实现快速有效的目标识别。提出一种基于运动目标提取与高效机器学习模型结合的目标识别方法: 通过运动检测实现目标像素级分割, 经形态学处理后, 定位单体目标; 根据嵌入式平台算力高低, 选择轻量化深度网络特征或轮廓特征, 训练softmax模型, 实现目标分类识别。将算法移植于嵌入式平台, 对开源红外图像序列进行目标识别实验, 实现多目标同时定位与分类, 处理速度达56FPS。实验结果表明, 该方法可对复杂背景中的红外目标进行实时有效识别。
红外目标识别 动目标检测 softmax分类 深度神经网络 infrared object recognition moving object detection, softmax classification, d
兰州交通大学 电子与信息工程学院, 甘肃 兰州 730070
三维目标识别和模型语义分割在自动驾驶、机器人导航、3D打印和智能交通等领域均有着广泛应用。针对PointNet++未能结合三维模型的上下文几何结构信息的问题, 提出一种采用深度级联卷积神经网络的三维点云识别与分割方法。首先, 通过构建深度动态图卷积神经网络捕捉点云的深层语义几何特征; 其次, 通过将深度动态图卷积神经网络作为深度级联卷积神经网络的子网络递归地应用于输入点集的嵌套分区, 以充分挖掘三维模型的深层细粒度几何特征; 最后, 针对点集特征学习中的点云采样不均匀问题, 构建一种密度自适应层, 利用循环神经网络编码每个采样点的多尺度邻域特征以捕捉上下文细粒度几何特征。实验结果表明,本算法在三维目标识别数据集ModelNet40和MoelNet10上的识别准确率分别为91.9%和94.3%, 在语义分割数据集ShapeNet Part,S3DIS和vKITTI上的平均交并比分别为85.6%,58.3%和38.6%。该算法能够提高三维点云目标识别和模型语义分割的准确率, 且具有较高的鲁棒性。
三维点云 目标识别 语义分割 卷积神经网络 循环神经网络 three-dimensional(3D) point cloud object recognition semantic segmentation convolutional neural network recurrent neural network
1 中国科学院光电技术研究所, 四川 成都 610209
2 电子科技大学光电科学与工程学院, 四川 成都 610054
3 中国科学院大学, 北京 100049
针对近地面远距离成像场景下轮廓目标受湍流杂波影响而使匹配误差较大的问题,提出一种基于方向形状上下文和边连续性约束的形状点集匹配识别方法。首先将方向特征嵌入传统的形状上下文来构造一个具有尺度和旋转不变性的特征算子。然后,受模板和目标形状之间的边连续性先验启发,在目标匹配能量代价函数中加入轮廓形状边连续性约束条件以提高形状匹配精度。合成湍流杂波场景和真实远距离成像场景中的形状匹配实验结果表明,和传统方法相比,所提方法能够将杂波场景下的目标匹配误差平均降低约6%,同时还降低了计算复杂度。
大气光学 目标识别 湍流杂波 形状上下文 点集匹配 激光与光电子学进展
2020, 57(21): 210101
1 河北金融学院, 大数据科学学院,河北保定 071051
2 河北金融学院, 金融创新与风险管理研究中心,河北保定 0710051
3 中国电子科技集团公司第五十四所信息传输与分发技术重点实验室,河北 石家庄 050081
为了提升实际作战环境下目标检测识别的性能,本文提出了一种基于红外显著性目标导引的改进YOLO(You Only Look Once)网络的智能装备目标识别算法,该算法利用红外图像提供目标可能的位置引导可见光图像中的深度自主学习,提升检测与识别的实时性。改进YOLO-V3 识别网络是以Darknet-53 为基础网络架构,利用Dense Net 代替具有较低分辨率的原始转移层,同时采用分类网络预训练、多尺度检测网络训练等措施增强特征传播,复用和融合的性能。仿真实验结果表明,本文提出的模型可以有效地提高现有目标检测与识别的性能。
目标识别 红外显著性 目标导引 深度学习 智能装备 object recognition, infrared saliency, object guid YOLO-V3