高龙 1,*李显杰 1安超 1欧宗耀 1[ ... ]吴谨 2
作者单位
摘要
1 中国空间技术研究院 北京空间机电研究所,北京 100094
2 中国科学院空天信息创新研究院,北京 100094
为解决合成孔径成像激光雷达受制于相干天线定理的问题,扩大成像视场,提高相干收发光学系统效率,提出并研制了基于4×4尾纤式微透镜阵列接收的相干收发光学系统,建立了全视场光学系统耦合效率计算模型,完成了高精度的收发光学系统集成装调及系统光学效率测试。结果表明:发射链路与16路接收链路的光轴最优偏差优于4″,中心视场光学系统效率优于73.1%,全视场光学系统效率优于65.5%,可满足激光雷达成像试验要求。
合成孔径成像激光雷达 收发光学系统 微透镜阵列 全视场 光轴偏差 耦合效率 Synthetic aperture lidar Tran-receiver optical system Micro-lens array Whole field of view Axis mislialment Coupling efficiency 
光子学报
2023, 52(11): 1111002
作者单位
摘要
武汉科技大学 信息科学与工程学院,湖北 武汉 430081
针对红外与可见光图像融合中存在的热目标信息丢失、边缘结构模糊、细节损失等问题,提出一种多层分解的图像融合算法。首先使用结构纹理分解将源图分解为细节层和结构层,对细节层使用基于结构相似性和L2范数的融合规则融合并增强;然后提出一种结构均值法,将结构层分解为亮度层和基础层,对亮度层使用绝对值取大融合,对基础层设计了一种基于多指标的融合规则进行融合;最后重构各子融合图像得到最终融合图像。为验证算法的有效性,与9种红外与可见光图像融合算法进行对比,使用空间频率、平均梯度、边缘强度、方差、视觉保真度、基于人类视觉感知的指标和信息熵7种客观图像评价指标,在前5种指标上分别取得27.4%、36.5%、38.2%、8.5%和23.5%的提升。实验结果表明,本文算法在有效保留红外热目标的同时较好地保留了边缘结构和纹理细节,且在客观评价指标上取得了更好的效果。
图像处理 图像融合 结构纹理分解 红外图像 可见光图像 image processing image fusion structure-texture decomposition infrared image visible image 
液晶与显示
2023, 38(10): 1389
徐欣宜 1,2,*邓慧萍 1,2向森 1,2吴谨 1,2
作者单位
摘要
1 武汉科技大学信息科学与工程学院,湖北 武汉 430081
2 武汉科技大学冶金自动化与检测技术教育部工程研究中心,湖北 武汉 430081
光场图像包含丰富的空间信息和角度信息,在三维重建、虚拟现实领域有广泛应用。但由于光场相机的内部限制,光场图像的低空间分辨率阻碍了其应用发展,具体表现为图像边缘区域的模糊。考虑到光场子孔径图像中空间信息包含着丰富的纹理和高频细节,而角度信息则对应不同视图之间的相关性,提出一种基于特征交互融合与注意力的光场图像超分辨率网络。通过特征提取和特征交互融合模块充分融合光场的空间角度信息;通过特征通道注意力模块自适应地学习有效信息,抑制冗余信息并细化图像的高频细节;通过光场结构一致性模块保持光场图像间的视差结构。在5个光场数据集上的实验结果表明,所提网络得到的超分辨率结果性能普遍优于所比较的超分辨率网络。
图像处理 超分辨率 深度学习 光场图像 注意力机制 
激光与光电子学进展
2023, 60(14): 1410017
梁晓 1,2邓慧萍 1,2,*向森 1,2吴谨 1,2
作者单位
摘要
1 武汉科技大学 信息科学与工程学院,湖北 武汉 430081
2 武汉科技大学 冶金自动化与检测技术教育部工程研究中心,湖北 武汉 430081
针对光场图像显著性检测存在检测目标不完整、边缘模糊的问题,本文提出了一种基于边缘引导的光场图像显著性检测方法。利用边缘增强网络提取全聚焦图像的主体图和边缘增强图,结合主体图和焦堆栈图像所提取的特征获得初始显著图,以提高检测结果的准确性和完整性;将初始显著图和边缘增强图通过特征融合模块进一步学习边缘特性的信息,突出边缘细节信息;最后,使用边界混合损失函数优化以获得边界更为清晰的显著图。实验结果表明,本文所提出的网络在最新的光场图像数据集上,F-measure和MAE分别为0.88和0.046,表现均优于现有的RGB图像、RGB-D 图像和光场图像显著性检测算法。所提方法能够更加精确地从复杂场景中检测出完整的显著对象,获得边缘清晰的显著图。
显著性检测 深度学习 光场图像 卷积神经网络 边缘检测网络 saliency detection deep learning light field image convolutional neural network edge detection network 
液晶与显示
2023, 38(5): 644
杨成卓 1,2向森 1,2,*邓慧萍 1,2吴谨 1,2
作者单位
摘要
1 武汉科技大学信息科学与工程学院,湖北 武汉 430081
2 武汉科技大学冶金自动化与检测技术教育部工程研究中心,湖北 武汉 430081
针对传统光场深度值估计中的测量对象纹理不足导致深度值精度低的问题和光场高维数据带来的高计算负荷的问题,提出一个基于轻量级卷积神经网络对相位编码的光场进行深度值估计的方法,并提出相应的相位编码光场数据集。所提方法利用水平和垂直视点流的多角度信息,利用全卷积网络和逐级深化的平均池化充分提取特征,并由中心视图引导,将两个方向的特征流融合,最终得到中心视点的深度图。实验结果表明,所提方法可生成高精度深度图,而且网络参数量和推理时间仅为典型光场深度值估计网络的27.4%和41.2%,具有更高的效率和实时性能。
深度估计 光场 卷积神经网络 相位编码 结构光 
激光与光电子学进展
2023, 60(12): 1211002
王泽宇 1,2向森 1,2,*邓慧萍 1,2吴谨 1,2
作者单位
摘要
1 武汉科技大学信息科学与工程学院,湖北 武汉 430081
2 武汉科技大学冶金自动化与检测技术教育部工程研究中心,湖北 武汉 430081
在基于光场的一系列应用中,目标的三维重建是基础且关键的任务。普通光场只能重建单一视角而无法重建全景,并且在纹理特征匮乏的区域也无法生成准确的三维信息。针对以上问题,提出一种基于多视点编码光场的全景三维重建方法。首先,利用结构光编码向场景投射正弦模板生成像素级的相位码字以丰富场景特征,进而在多个角度独立地进行光场采集。然后,在各个光场采样视点的内部利用空间信息和角度信息求取深度值。最后,在不同的光场采样点之间由位姿引导实现三维信息融合。实验结果表明,所提方法能有效恢复物体的全景信息,而且对物体纹理特征匮乏区域的重建也更加准确。
图像处理 三维重建 光场 结构光 相位编码 点云 
激光与光电子学进展
2023, 60(12): 1210009
梁晓 1,2邓慧萍 1,2,*向森 1,2吴谨 1,2
作者单位
摘要
1 武汉科技大学信息科学与工程学院,湖北 武汉 430081
2 武汉科技大学冶金自动化与检测技术教育部工程研究中心,湖北 武汉 430081
现有的光场图像显著性检测算法不能有效地衡量聚焦度信息,从而影响了检测目标的完整性,造成信息的冗余和边缘模糊。考虑到焦堆栈不同的图像及全聚焦图像对于显著性预测发挥着不同的作用,提出有效通道注意力(ECA)网络和卷积长短期记忆模型(ConvLSTM)网络组成特征融合模块,在不降低维度的情况下自适应地融合焦堆栈图像和全聚焦图像的特征;然后由交互特征模块(CFM)组成的反馈网络细化信息,消除特征融合之后产生的冗余信息;最后利用ECA网络加权高层特征,更好地突出显著性区域,从而获得更加精确的显著图。所提网络在最新的数据集中,F-measure和平均绝对误差(MAE)分别为0.871和0.049,表现均优于现有的红、绿、蓝(RGB)图像、红、绿、蓝和深度(RGB-D)图像以及光场图像的显著性检测算法。实验结果表明,提出网络可以有效分离焦堆栈图像的前景区域和背景区域,获得较为准确的显著图。
图像处理 显著性检测 深度学习 光场图像 卷积神经网络 
激光与光电子学进展
2022, 59(22): 2210006
作者单位
摘要
武汉科技大学 信息科学与工程学院,湖北 武汉 430081
密集采样的光场能提供沉浸式的视觉体验,在三维重建和虚拟现实等领域有着广泛的应用。光场重建技术可以从稀疏采样光场获取密集采样光场,但当光场图像的基线增大时,会造成重建视图中边缘的遮挡和纹理重复区域的模糊。本文提出了一种基于空间角度解耦融合的光场重建网络,充分利用光场图像蕴含的深度信息以及空间信息解决上述复杂区域的重建难题。采用多路输入方式来获取光场多方向信息以解决遮挡问题,在每条支路通过空洞空间卷积池化金字塔模块来提取多尺度特征,以获取大接受域的视差信息和上下文信息;设计了空间角度解耦融合模块,利用空间信息指导光场角度超分辨率重建,使重建视图在纹理重复区域更加清晰。实验结果表明,该网络在HCI、HCI old和30 scenes数据集上重建光场的平均PSNR和SSIM分别达到了39.73 dB和0.965,表现出较高的准确性,优于所比较的方法。
光场图像 角度超分辨率 深度学习 解耦融合 light field image angular super resolution deep learning decouple and fuse 
液晶与显示
2022, 37(10): 1345
作者单位
摘要
武汉科技大学 信息科学与工程学院, 湖北 武汉 430081
由于谱图小波变换(Spectral Graph Wavelet Transform, SGWT)可充分利用图像在图域中的光谱 特性, 本文结合其对不规则小区域表达的优势, 提出了一种基于多显著性的红外与可见光融合算法。 首先应用 SGWT 将源图像分解成一个低频子带和若干个高频子带; 对于低频系数, 将多个互补的低 层特征结合起来, 提出了一种适合人眼视觉特征的多显著性融合规则, 对于高频系数, 充分考虑邻域 像素的相关性, 提出了一种区域绝对值取大规则; 最后, 应用了一种加权最小二乘优化(weighted least squares, WLS)方法对谱图小波重构的融合图像进行优化, 在突出显著目标的同时尽可能多地保留可 见光的背景细节。实验结果表明, 与 DWT( Discrete Wavelet Transform)、NSCT( Non-down Sampled Contourlet Transform)等7种相关算法相比, 在突出红外目标的同时还能保留更多的可见光背景细节, 具有较好的视觉效果; 同时在方差、熵、Qabf和互信息量4个客观评价上也均占据优势。
图像融合 谱图小波变换 多显著性 加权最小二乘优化 image fusion, spectral graph wavelet transform, mu 
红外技术
2022, 44(7): 676
向森 1,2,*黄楠婷 1,2邓慧萍 1,2吴谨 1,2
作者单位
摘要
1 武汉科技大学信息科学与工程学院,湖北 武汉 430081
2 武汉科技大学冶金自动化与检测技术教育部工程研究中心,湖北 武汉 430081
为了精确而鲁棒地估计光场深度值,提出了一种多级神经网络渐进优化的深度值估计方法。采用四级深度神经网络分别对水平、垂直、对角线和反对角线方向的子孔径图像提取特征并估计中心视点的深度图;各子网络内部利用含跳跃连接的编码器-解码器结构提取全局特征和局部特征;各级子网络之间采用渐进优化的结构和训练策略,即前级子网络生成的深度图作为后级子网络的输入以引导其深度值估计。实验结果表明,所提方法可生成高质量的场景深度图,尤其在物体边界处可得到更加准确的轮廓。此外,该方法对不同分辨率的输入图像均具有良好的鲁棒性,还有高效推理深度值的优点,可更好地满足实际应用的需求。
图像处理 深度估计 光场 卷积神经网络 编码器-解码器 极平面图 
激光与光电子学进展
2022, 59(10): 1010009

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!