光子学报
2023, 52(11): 1111002
1 武汉科技大学信息科学与工程学院,湖北 武汉 430081
2 武汉科技大学冶金自动化与检测技术教育部工程研究中心,湖北 武汉 430081
光场图像包含丰富的空间信息和角度信息,在三维重建、虚拟现实领域有广泛应用。但由于光场相机的内部限制,光场图像的低空间分辨率阻碍了其应用发展,具体表现为图像边缘区域的模糊。考虑到光场子孔径图像中空间信息包含着丰富的纹理和高频细节,而角度信息则对应不同视图之间的相关性,提出一种基于特征交互融合与注意力的光场图像超分辨率网络。通过特征提取和特征交互融合模块充分融合光场的空间角度信息;通过特征通道注意力模块自适应地学习有效信息,抑制冗余信息并细化图像的高频细节;通过光场结构一致性模块保持光场图像间的视差结构。在5个光场数据集上的实验结果表明,所提网络得到的超分辨率结果性能普遍优于所比较的超分辨率网络。
图像处理 超分辨率 深度学习 光场图像 注意力机制 激光与光电子学进展
2023, 60(14): 1410017
1 武汉科技大学信息科学与工程学院,湖北 武汉 430081
2 武汉科技大学冶金自动化与检测技术教育部工程研究中心,湖北 武汉 430081
针对传统光场深度值估计中的测量对象纹理不足导致深度值精度低的问题和光场高维数据带来的高计算负荷的问题,提出一个基于轻量级卷积神经网络对相位编码的光场进行深度值估计的方法,并提出相应的相位编码光场数据集。所提方法利用水平和垂直视点流的多角度信息,利用全卷积网络和逐级深化的平均池化充分提取特征,并由中心视图引导,将两个方向的特征流融合,最终得到中心视点的深度图。实验结果表明,所提方法可生成高精度深度图,而且网络参数量和推理时间仅为典型光场深度值估计网络的27.4%和41.2%,具有更高的效率和实时性能。
深度估计 光场 卷积神经网络 相位编码 结构光 激光与光电子学进展
2023, 60(12): 1211002
1 武汉科技大学信息科学与工程学院,湖北 武汉 430081
2 武汉科技大学冶金自动化与检测技术教育部工程研究中心,湖北 武汉 430081
在基于光场的一系列应用中,目标的三维重建是基础且关键的任务。普通光场只能重建单一视角而无法重建全景,并且在纹理特征匮乏的区域也无法生成准确的三维信息。针对以上问题,提出一种基于多视点编码光场的全景三维重建方法。首先,利用结构光编码向场景投射正弦模板生成像素级的相位码字以丰富场景特征,进而在多个角度独立地进行光场采集。然后,在各个光场采样视点的内部利用空间信息和角度信息求取深度值。最后,在不同的光场采样点之间由位姿引导实现三维信息融合。实验结果表明,所提方法能有效恢复物体的全景信息,而且对物体纹理特征匮乏区域的重建也更加准确。
图像处理 三维重建 光场 结构光 相位编码 点云 激光与光电子学进展
2023, 60(12): 1210009
1 武汉科技大学信息科学与工程学院,湖北 武汉 430081
2 武汉科技大学冶金自动化与检测技术教育部工程研究中心,湖北 武汉 430081
现有的光场图像显著性检测算法不能有效地衡量聚焦度信息,从而影响了检测目标的完整性,造成信息的冗余和边缘模糊。考虑到焦堆栈不同的图像及全聚焦图像对于显著性预测发挥着不同的作用,提出有效通道注意力(ECA)网络和卷积长短期记忆模型(ConvLSTM)网络组成特征融合模块,在不降低维度的情况下自适应地融合焦堆栈图像和全聚焦图像的特征;然后由交互特征模块(CFM)组成的反馈网络细化信息,消除特征融合之后产生的冗余信息;最后利用ECA网络加权高层特征,更好地突出显著性区域,从而获得更加精确的显著图。所提网络在最新的数据集中,F-measure和平均绝对误差(MAE)分别为0.871和0.049,表现均优于现有的红、绿、蓝(RGB)图像、红、绿、蓝和深度(RGB-D)图像以及光场图像的显著性检测算法。实验结果表明,提出网络可以有效分离焦堆栈图像的前景区域和背景区域,获得较为准确的显著图。
图像处理 显著性检测 深度学习 光场图像 卷积神经网络 激光与光电子学进展
2022, 59(22): 2210006
武汉科技大学 信息科学与工程学院,湖北 武汉 430081
密集采样的光场能提供沉浸式的视觉体验,在三维重建和虚拟现实等领域有着广泛的应用。光场重建技术可以从稀疏采样光场获取密集采样光场,但当光场图像的基线增大时,会造成重建视图中边缘的遮挡和纹理重复区域的模糊。本文提出了一种基于空间角度解耦融合的光场重建网络,充分利用光场图像蕴含的深度信息以及空间信息解决上述复杂区域的重建难题。采用多路输入方式来获取光场多方向信息以解决遮挡问题,在每条支路通过空洞空间卷积池化金字塔模块来提取多尺度特征,以获取大接受域的视差信息和上下文信息;设计了空间角度解耦融合模块,利用空间信息指导光场角度超分辨率重建,使重建视图在纹理重复区域更加清晰。实验结果表明,该网络在HCI、HCI old和30 scenes数据集上重建光场的平均PSNR和SSIM分别达到了39.73 dB和0.965,表现出较高的准确性,优于所比较的方法。
光场图像 角度超分辨率 深度学习 解耦融合 light field image angular super resolution deep learning decouple and fuse
武汉科技大学 信息科学与工程学院, 湖北 武汉 430081
由于谱图小波变换(Spectral Graph Wavelet Transform, SGWT)可充分利用图像在图域中的光谱 特性, 本文结合其对不规则小区域表达的优势, 提出了一种基于多显著性的红外与可见光融合算法。 首先应用 SGWT 将源图像分解成一个低频子带和若干个高频子带; 对于低频系数, 将多个互补的低 层特征结合起来, 提出了一种适合人眼视觉特征的多显著性融合规则, 对于高频系数, 充分考虑邻域 像素的相关性, 提出了一种区域绝对值取大规则; 最后, 应用了一种加权最小二乘优化(weighted least squares, WLS)方法对谱图小波重构的融合图像进行优化, 在突出显著目标的同时尽可能多地保留可 见光的背景细节。实验结果表明, 与 DWT( Discrete Wavelet Transform)、NSCT( Non-down Sampled Contourlet Transform)等7种相关算法相比, 在突出红外目标的同时还能保留更多的可见光背景细节, 具有较好的视觉效果; 同时在方差、熵、Qabf和互信息量4个客观评价上也均占据优势。
图像融合 谱图小波变换 多显著性 加权最小二乘优化 image fusion, spectral graph wavelet transform, mu
1 武汉科技大学信息科学与工程学院,湖北 武汉 430081
2 武汉科技大学冶金自动化与检测技术教育部工程研究中心,湖北 武汉 430081
为了精确而鲁棒地估计光场深度值,提出了一种多级神经网络渐进优化的深度值估计方法。采用四级深度神经网络分别对水平、垂直、对角线和反对角线方向的子孔径图像提取特征并估计中心视点的深度图;各子网络内部利用含跳跃连接的编码器-解码器结构提取全局特征和局部特征;各级子网络之间采用渐进优化的结构和训练策略,即前级子网络生成的深度图作为后级子网络的输入以引导其深度值估计。实验结果表明,所提方法可生成高质量的场景深度图,尤其在物体边界处可得到更加准确的轮廓。此外,该方法对不同分辨率的输入图像均具有良好的鲁棒性,还有高效推理深度值的优点,可更好地满足实际应用的需求。
图像处理 深度估计 光场 卷积神经网络 编码器-解码器 极平面图 激光与光电子学进展
2022, 59(10): 1010009