光学学报, 2018, 38 (2): 0210002, 网络出版: 2018-08-30   

基于改进引导滤波和双通道脉冲发放皮层模型的红外与可见光图像融合算法 下载: 1168次

Infrared and Visible Image Fusion Algorithm Based on Improved Guided Filtering and Dual-Channel Spiking Cortical Model
作者单位
桂林电子科技大学广西高校图像图形智能处理重点实验室, 广西 桂林 541004
摘要
针对传统红外与可见光图像融合算法中存在的目标不够突出、背景缺失、边缘信息保留不够充分等问题,提出了一种基于改进引导滤波和双通道脉冲发放皮层模型(DCSCM)的红外与可见光图像融合算法。首先,对源图像进行非降采样Shearlet变换(NSST),得到相应的低频和高频分量。然后,分别采用改进的引导滤波算法和DCSCM模型对低频、高频分量进行融合。最后,对融合得到的高低频分量进行NSST逆变换得到最终的融合图像。与其他几种方法进行比较,实验结果表明,本文算法的融合图像目标突出,背景信息丰富,且在图像清晰度、对比度、信息熵等方面均有优势。
Abstract
We propose a novel multi-source image fusion algorithm based on the improved guided image filtering and dual-channel spiking cortical model (DCSCM),in order to solve the problems that targets are not prominent, background information is easy to lose and margin information is not adequately retained. Firstly, we obtain the low frequency and high frequency sub-bands by using the nonsubsampled shearlet transform (NSST) to the two original images. Then we use the improved guided image filtering algorithm and the DCSCM model to fuse the low frequency and high frequency components respectively. Finally, we perform the inverse NSST transform on the fused high and low frequency components to obtain the final fused image. Experimental results show that the fused images of the proposed algorithm have prominent targets and rich background information. The proposed algorithm has advantages in terms of image clarity, contrast, and information entropy, compared with several other methods.

1 引言

随着图像传感器技术的发展,图像融合技术在**、航空、遥感等领域均具有较好的应用前景[1]。红外与可见光图像融合作为图像融合中的重要分支,因其自身存在的信息互补特性,日渐成为图像融合中的热点问题。

目前,针对红外与可见光图像融合算法的研究比较多,其中基于多尺度分解的方法在图像融合中应用最为广泛。常用的多尺度分解方法包括小波变换(WT)、Contourlet变换、非降采样Contourlet变换(NSCT)等[2]。但小波变换受限于方向特性,对高度奇异的图像边缘无法给出最优解。Contourlet变换克服了小波在这一方面的缺陷,能够很好地捕捉到图像的边缘信息,但不具备平移不变性,容易使图像产生伪吉布斯现象。 杨立新等[3]提出的非降采样Contourlet变换可以克服伪吉布斯现象的产生并充分地保留源图像的有效信息,但其计算复杂度较高,不能够应用到图像实时融合场景中[4]。相对于NSCT,非降采样Shearlet变换(NSST)不仅运算简单,而且对剪切后的方向数没有限制,是在各个方向和各个尺度上对图像的真正稀疏表示,可以在图像融合中取得更好的融合结果。吴一全等[5-6]将NSST应用于图像融合中,并针对高低频子带各自特性设计相应的融合策略,取得了理想的融合结果。刘健等[7]采用冗余提升不可分离小波替换NSST中的非降采样金字塔分解,在增强NSST捕获图像细节的能力的同时也提高了其运算效率。吴冬鹏等[8]分析了NSST高频系数间的关联性和差异性,构造了一种方向性基本一致的改进型NSST变换,可以进一步保留融合图像的细节信息。在图像融合中,选择合适的融合策略同样至关重要。脉冲耦合神经网络 (PCNN)作为一种新型神经网络,因其同步脉冲发放和全局耦合等特性,目前被广泛应用于图像处理中。Ganasala等[9]采用图像方向梯度特征作为PCNN的链接系数,增强了算法的自适应性。Wang等[10]则提出了一种双通道PCNN模型,并将其应用于图像融合中。但PCNN存在内部计算复杂、参数较多、迭代次数无法确定等问题。脉冲发放皮层模型(SCM)的提出弥补了PCNN存在的诸多不足。赵杰等[11]将SCM模型与NSST相结合,有效地抑制了图像在变换域中的像素失真。Kong等[12]对SCM模型进行进一步改进,使SCM更加适用于图像处理,并取得了较好的融合结果。

本文提出了一种基于改进引导滤波和双通道脉冲发放皮层模型(DCSCM)的红外与可见光图像融合算法,即对源图像进行NSST分解,得到相应的高低频分量。为了充分保留源图像的有用信息,采用改进的引导滤波算法对低频分量进行融合。为了使融合图像更加符合人眼视觉观感,采用DCSCM模型对高频分量进行融合。最后,对融合得到的高低频分量进行NSST逆变换,从而得到最终的融合结果。实验结果表明,本文算法相比其他方法,具备较为明显的优势。

2 引导滤波

引导滤波[13-15]是一种基于局部线性模型的边缘保持算法,已被广泛应用于图像去雾、抠图等领域。引导滤波利用引导图像指导滤波过程,使得输出图像在保留输入图像整体特征的同时,充分获取引导图像的变化细节。

将输入图像记作P,引导图像记为I,则滤波输出图像O与引导图像I存在线性关系,即

Oi=akIi+bk,iωk,(1)

式中ωk为大小为(2r+1)×(2r+1)的方形窗口,k为窗口内的中心像素点,akbk是窗口ωk内的线性系数,其值保持不变。于是,可以通过最小化输出图像O与输入图像P之间的平方差来求解akbk的值,即

E(ak,bk)=iωk(akIi+bk-Pi)2+εak2],(2)

式中ε为自定义给出的正则化参数。根据线性回归分析,可以求得akbk的最优解为

ak=1ωiωkIiPi-μkP-kδk+ε,(3)bk=P-k-akμk,(4)

式中μkδk分别为局部窗口ωk内引导图像I的平均值和方差, ω是窗口内的像素个数, P-k为输入图像的平均值。

考虑到一个像素点会被多个窗口包含,于是对所有情况下的Oi取平均,最终得到

Oi=a-iIi+b-i,(5)

式中 a-i=1ωkωiak,b-i=1ωkωibk

3 SCM基本原理与DCSCM模型

3.1 SCM基本原理

PCNN是一种通过模拟猫的视觉系统而构建的神经网络模型,因此PCNN更加符合人眼视觉观感要求[16]。SCM作为一种改进的PCNN模型,具备参数设置少、计算复杂度低等优势,非常适合应用于图像处理领域。SCM神经元通常由三部分组成:接收域、调制域和脉冲产生域。

在接收域中,SCM神经元通过FijLij两个通道接收输入信号,Fij为神经元的反馈输入,Lij为链接输入。FijLij表达式分别为

Fij[n]=Sij,(6)Lij[n]=VLklWijklYkl[n-1],(7)

式中ij是图像中的像素位置,n表示当前迭代次数,Sij是外部激励,VL为幅度增益,kl是相邻像素的位置,Wijkl为神经元之间的链接权重,Ykl[n-1]是上一次的输出结果。

调制域对接收到的输入信号进行调制,产生内部调制结果。接收域与调制域的关系为

Uij[n]=fUij[n-1]+SijklWijklYkl[n-1]+Sij,(8)

式中Uij表示神经元内部活动项,由FijLij按照(8)式相互调制得到,fUij的衰减系数。

SCM神经元的脉冲产生部分为

Eij[n]=gEij[n-1]+hYij[n-1],(9)Yij[n]=1,UijnEijn0,otherwise,(10)

式中Eij为动态门限,gh分别表示阈值衰减和放大系数,Yij代表神经元输出结果。(10)式表明,当Uij满足大于等于Eij的条件时,Yij置为1,此时神经元被激活并产生一个点火脉冲。

3.2 DCSCM模型

SCM模型因其自身特性对图像的细节信息具有很强的表示能力,对图像中的偏暗区域却不够敏感。为了增强SCM对图像中偏暗区域的捕捉能力,本文对SCM模型进行改进,提出了一种双通道SCM模型,改进点如下。

1) 由于之前的内部活动项Uij[n-1]对当前的Uij[n]影响较弱,直接将Uij[n-1]忽略,并改进成双通道形式,得到的内部活动项Uij

Uij[n]=max(Uij1[n],Uij2[n]),(11)

式中 Uij1[n]=Sij1klWijklYkl[n-1]+Sij1,Uij2[n]=Sij2klWijklYkl[n-1]+Sij2

2) 为了尽可能减少参数设置带来的影响,将动态门限Eij改进为

Eij[n]=Eij[n-1]-Δ+hYij[n-1],(12)

式中Δ是一个正常数,负责控制动态门限的下降幅度[17]

3) 由于传统SCM的输出采用硬限幅函数,不能反映出神经元点火脉冲的幅度差异,将Sigmoid函数作为DCSCM的输出,可以更好地刻画同步脉冲激发时在点火幅度上的差异。DCSCM的输出定义为

Yij[n]=1,1/(1+exp[-(Uij[n]-Eij[n])]0.50,otherwise(13)

DCSCM结构如图1所示。

图 1. DCSCM结构图

Fig. 1. Structure of DCSCM

下载图片 查看所有图片

4 本文融合算法

4.1 融合步骤

本文融合算法的流程如图2所示,具体实现步骤为:1)对红外与可见光图像分别进行NSST分解,得到低频子带LJ(x,y)与高频子带Hj,r(x,y),其中,J为分解层数,jr代表分解尺度和方向数;2)对分解得到的低频子带采用改进的引导滤波算法进行融合;3)对分解得到的高频子带采用DCSCM模型进行融合;4)将融合得到的低频子带和高频子带进行NSST逆变换,得到最终的融合图像。

图 2. 本文融合算法流程图

Fig. 2. Flow chart of the proposed fusion algorithm

下载图片 查看所有图片

4.2 低频子带融合规则

引导滤波模型具备较好的边缘保持特性。为了更多地保留图像的边缘信息,本文采用文献[ 14]中的引导滤波模型对低频分量进行融合。首先对低频图像进行均值滤波,得到基础图像与细节图像,然后根据图像的显著性、清晰度、标准差信息获取初步融合权重,再采用改进的引导滤波对融合权重进行修正,最后对低频系数进行加权融合,得到融合图像的低频分量。具体步骤如下。

1) 图像分解

对低频图像进行均值滤波得到基础图像。细节图像由低频图像减去基础图像后得到[13],即

Bn=In*Z,(14)Dn=In-Bn,(15)

式中In为第n幅源图像,Z是大小为31×31的均值滤波器,Bn为滤波得到的基础图像,Dn为细节图像。

2) 构建初始融合权重

分别计算待融合图像的显著性、清晰度、标准差信息,得到对应的融合权重矩阵。图像显著性定义为

Sn=Hn*grg,σg,(16)

式中Hn=In*L,L为3×3大小的拉普拉斯滤波器,Hn是源图像In经滤波得到的滤波图像,g表示大小为(2rg+1)×(2rg+1)的高斯低通滤波器,σg是标准偏差。则可以根据图像显著性获得其融合权重矩阵Pn,即

Pnk=1,Snk=max(S1k,S2k,,SNk)0,otherwise,(17)

式中N表示源图像的数量, Snk为第n幅图像中,第k个像素的显著性值。

图像的空间频率反映了图像空间域总体活跃程度,也可以用于表示图像的清晰度。本文采用一种改进的空间频率来表示图像清晰度,可以更加准确地表示图像的清晰度信息。其定义为

FMS=1MNi=1Mj=1N(FR+FC+FMD+FSD),(18)

式中FRFCFMDFSD分别表示图像的行频率、列频率、主对角频率和副对角频率,分别表示为

FR=[I(i,j)-I(i,j-1)]2FC=[I(i,j)-I(i-1),j]2FMD=[I(i,j)-I(i-1,j-1)]2FSD=[I(i,j)-I(i-1,j+1)]2(19)

从而可以根据清晰度获得融合权重矩阵Vn,即

Vnk=1,FMSnk=max(FMS1k,FMS2k,,FMSNk)0,otherwise,(20)

式中 FMSnk为第n幅图像中,第k个像素的清晰度值。

图像的标准差可以表示图像对比度信息,图像标准差越大,对比度越高,其定义为

Ds=1MNi=1Mj=1N(Iij-μ)2,(21)

式中 μ=1MNi=1Mj=1NIij为局部区域内图像的平均灰度值。则可以根据图像标准差获得其融合权重矩阵Cn,即

Cnk=1,Dsnk=max(Ds1k,Ds2k,,DsNk)0,otherwise,(22)

式中 Dsnk为第n幅图像中,第k个像素的对比度值。

初始融合权重W由显著性、清晰度、对比度融合权重相乘得到[18],即

W=P×V×C(23)

3) 融合权值修正

初始融合权重通常包含噪声,并且边缘不够对齐,容易使融合图像产生伪影。采用改进的引导滤波算法对初始融合权值进行修正,得到引导滤波后基础图像和细节图像的融合权重分别为

WBn=Gr1,ε1(Pn,In),(24)WDn=Gr2,ε2(Pn,In),(25)

式中Pn为初始融合权重矩阵,In为引导图像。下标r1、ε1与r2、ε2表示引导滤波针对基础图像和细节图像的滤波半径与滤波模糊程度。

4) 低频图像融合

采用加权平均的融合方式分别对基础图像 B-与细节图像 D-,即

B-=n=1NWBnBn,(26)D-=n=1NWDnDn,(27)

进行融合,融合图像的低频分量F由基础图像与细节图像相加得到,即

F=B-+D-(28)

4.3 高频子带融合规则

图像高频部分包含了主要的边缘、轮廓等细节信息。为了使融合图像更加符合人眼视觉特性,采用DCSCM模型对NSST高频子带进行融合,并将图像的拉普拉斯能量和信息作为DCSCM模型的反馈输入。为了更好地表示图像的细节信息,采用了一种改进的拉普拉斯能量和(SML)。SML定义为

SMLj,r(x,y)=|2Ij,r(x,y)-Ij,r(x-h,y)-Ij,r(x+h,y)|+|2Ij,r(x,y)-Ij,r(x,y-h)-Ij,r(x,y+h)|+|1.4Ij,r(x,y)-0.7Ij,r(x-h,y-h)-0.7Ij,r(x+h,y+h)|+1.4Ij,r(x,y)-0.7Ij,r(x+h,y-h)-0.7Ij,r(x-h,y+h)|,(29)

式中I(x,y)表示坐标为(x,y)的像素点的灰度值。则高频子带融合规则为

Fj,r(x,y)=Ij,rIR(x,y),U(x,y)=UIR(x,y)Ij,rIV(x,y),U(x,y)=UIV(x,y),(30)

式中F为融合图像的高频分量,U(x,y)表示坐标为(x,y)的神经元内部活动项,IR为红外图像,IV为可见光图像。

5 实验与分析

5.1 实验设置

为了验证本文算法的有效性,选取三组红外与可见光图像进行融合实验,图像灰度级均为256,并将本文算法与文献[ 1]、文献[ 10]、文献[ 13]方法进行对比。实验计算机为DELL PRECISION系列,CPU主频为3.20 GHz,内存为8.00 GB,实验环境为MATLAB 2013b。本文NSST分解层数为4层,采用“maxflat”滤波器进行多尺度分解,shear滤波器大小与方向级数分别设置为[30,30,36,36]和[3,3,4,4]。DCSCM模型的幅度增益VL设置为1,链接权重矩阵W=[0.707,1,0.707;1,0,1;0.707,1,0.707],Δ和阈值放大系数h分别设置为0.1和20,DCSCM模型的迭代次数为10,远远小于常规算法的200次迭代次数。除此之外,采用红外与可见光源图像作为引导滤波的引导图像。由于引导滤波对参数选择的依赖性不大,因此本文采用文献[ 13]中的相关设置,即将引导滤波的相关参数设置为r1=45,ε1=0.3,r2=7,ε2=10-6。根据文献[ 13]中的相关证明,对大多数图像来说,这样设置参数具有普适性,容易产生较好的融合结果。

5.2 UNcamp图像集实验

UNcamp图像集实验结果如图3所示。图3(a)、(b)分别为红外图像与可见光图像。红外图像提供了清晰的目标信息,但背景信息缺失。可见光图像则提供了灌木、道路、栅栏等丰富的背景信息。图3(c)~(f)分别为NSCT结合分块压缩感知方法、NSCT结合双通道PCNN方法、引导滤波方法和本文方法的融合结果。从视觉评价角度来看,4种方法均能够有效地融合红外图像的目标信息与可见光图像的背景信息。但是仔细观察可以发现,图3(c)视觉观感较佳,但树木、栅栏等背景信息缺失,同时图像左上角丢失了部分红外图像信息。图3(d)整体亮度偏高,背景信息丢失严重,图像噪声点较多,看起来比较粗糙。图3(e)保存了较多的背景信息,但部分区域阴影较多,存在背景不够均匀的现象。图3(f)为本文方法的融合结果,可以看出本文融合图像目标突出,背景信息丰富,图像整体细腻均衡,对比其他算法有较为明显的优势。

图 3. UNcamp图像集与融合结果。(a)红外图像;(b)可见光图像;(c)文献[ 1]方法;(d)文献[ 10]方法;(e)文献[ 13]方法;(f)本文方法

Fig. 3. UNcamp image set and fusion results. (a) Infrared image; (b) visible image; (c) method in Ref. [1]; (d) method in Ref. [10]; (e) method in Ref. [13]; (f) proposed method

下载图片 查看所有图片

为了更加客观地对实验结果进行评价,采用平均梯度、空间频率、图像标准差和信息熵作为客观评价标准。平均梯度可以反映图像微小细节差异以及纹理变化,信息熵则反映了图像信息量大小。从表1中可以看出,本文算法的平均梯度和空间频率要高于文献[ 1]和文献[ 13]算法,但小于文献[ 10]算法,标准差和信息熵相对于其他三种方法有较大提高。为了充分提取图像的细节信息,本文算法选用的NSST分解层数较多,因而在融合速度上表现相对一般。

表 1. UNcamp图像集实验结果对比

Table 1. Comparison results of the UNcamp image set

Fusion methodUNcamp image set
Average gradientSpatial frequencyStandard deviationInformation entropyTime /s
Ref. [1] method4.761718.963731.04146.848686
Ref. [10] method6.080421.699431.28296.82994
Ref. [13] method4.674418.769531.28776.81090.1
Proposed method4.954519.656434.68467.060936

查看所有表

5.3 其他测试集实验

为了进一步验证本文算法的有效性,选取另外两组图像测试集进行实验对比,实验结果如图4、5所示。从视觉观感上看,图4(c)和图5(c)总体亮度偏高、对比度小,其中图4(c)的远处背景灯光较暗,背景信息不够丰富。图4(d)和图5(d)同样存在亮度偏高的问题,目标与背景对比度不强,其中图5(d)的行人目标边缘不够对齐,且目标相对偏暗,不够清晰。图4(e)和图5(e)存在明显的阴影现象,但背景丰富,信息量较大,视觉观感一般。在这两组测试集中,图4(f)和图5(f)清晰度、对比度较好,亮度适中,并且充分融合了可见光图像的背景信息,总体视觉观感最佳。

图 4. 第一组图像及融合结果。(a)红外图像;(b)可见光图像;(c)文献[ 1]方法;(d)文献[ 10]方法;(e)文献[ 13]方法;(f)本文方法

Fig. 4. First set of images and fusion results. (a) Infrared image; (b) visible image; (c) method in Ref. [1]; (d) method in Ref. [10]; (e) method in Ref. [13]; (f) proposed method

下载图片 查看所有图片

图 5. 第二组图像及融合结果。(a)红外图像;(b)可见光图像;(c)文献[ 1]方法;(d)文献[ 10]方法;(e)文献[ 13]方法;(f)本文方法

Fig. 5. Second set of images and fusion results. (a) Infrared image; (b) visible image; (c) method in Ref. [1]; (d) method in Ref. [10]; (e) method in Ref. [13]; (f) proposed method

下载图片 查看所有图片

图4图5对应的客观评价结果如表2表3所示。表2中,针对第一组图像,本文算法的空间频率、平均梯度及标准差要远高于其他算法,图像信息熵相对较高。表3中,针对第二组图像,本文算法表现一般,没能取得最好的实验结果,但平均梯度、空间频率和最优指标比较接近,在标准差与信息熵方面表现较好。总的来说,本文算法在各组实验中表现较为稳定,综合性能最佳,与主观视觉效果相符。

表 2. 第一组图像实验结果对比

Table 2. Comparison results of the first set of images

Fusion methodAverage gradientSpatial frequencyStandard deviationInformation entropyTime /s
Ref. [1] method7.547429.456041.29057.311385
Ref. [10] method7.433627.764242.70317.32054
Ref. [13] method7.135528.570840.58867.28430.1
Proposed method7.867530.813743.33757.285037

查看所有表

表 3. 第二组图像实验结果对比

Table 3. Comparison results of the second set of images

Fusion methodAverage gradientSpatial frequencyStandard deviationInformation entropyTime /s
Ref. [1] method5.930129.338434.79956.738692
Ref. [10] method4.848619.787932.02176.67485
Ref. [13] method5.818129.508737.12856.84960.1
Proposed method5.745828.763935.74106.818536

查看所有表

5.4 融合结果分析

本文融合图像的清晰度相对其他方法要高。值得一提的是,文献[ 1]、文献[ 10]方法在图像清晰度方面有时也有不错的表现,但文献[ 1]方法采用局部能量对高频子带进行融合,文献[ 10]方法在低频融合部分单纯采用像素值取大的融合策略。这两种方法均容易引入噪声,造成图像平均梯度值偏高的假象。NSST能够更加稀疏地表示图像,产生较好的融合结果,本文方法采用NSST作为多尺度分解工具,低频部分采用改进的引导滤波算法进行融合,可以有效地保留红外图像的目标信息与可见光图像的背景信息。在引导滤波中引入图像的显著度、空间频率、标准差信息,可以使融合图像具备较好的视觉显著性、清晰度、对比度。DCSCM模型对图像的细节特征具有较强的敏感度,并且能够捕捉到图像的偏暗区域。将DCSCM模型应用到图像高频融合中,不仅能够增强融合图像的边缘、纹理特征,而且可以缓解文献[ 13]方法中引导滤波带来的阴影问题。综上所述,低频部分采用改进的引导滤波算法进行融合,高频部分采用DCSCM模型加以融合,可以使最终的融合图像保留丰富的目标、背景信息和突出细节特征,融合效果最好。

6 结论

提出了一种基于改进引导滤波和DCSCM的红外与可见光图像融合算法,在对红外与可见光源图像进行NSST分解后,采用改进的引导滤波算法对低频分量进行融合。并且,为了使融合图像具备较好的细节信息和视觉观感,采用DCSCM模型对图像高频分量进行融合。实验结果表明,本文方法在图像清晰度、对比度、信息熵等方面表现均好于其他算法,可以应用于森林防火、遥感监测等领域,是一种切实可行的融合方法。

参考文献

[1] 陈木生. 结合NSCT和压缩感知的红外与可见光图像融合[J]. 中国图象图形学报, 2016, 21(1): 39-44.

    陈木生. 结合NSCT和压缩感知的红外与可见光图像融合[J]. 中国图象图形学报, 2016, 21(1): 39-44.

    Chen M S. Image fusion of visual and infrared image based on NSCT and compressed sensing[J]. Journal of Image and Graphics, 2016, 21(1): 39-44.

    Chen M S. Image fusion of visual and infrared image based on NSCT and compressed sensing[J]. Journal of Image and Graphics, 2016, 21(1): 39-44.

[2] Liu Y, Liu S, Wang Z. A general framework for image fusion based on multi-scale transform and sparse representation[J]. Information Fusion, 2015, 24: 147-164.

    Liu Y, Liu S, Wang Z. A general framework for image fusion based on multi-scale transform and sparse representation[J]. Information Fusion, 2015, 24: 147-164.

[3] 杨立新, 杨建坤, 贾辉, 等. 一种基于非采样Contourlet变换的遥感图像融合算法[J]. 中国激光, 2012, 39(s1): s109005.

    杨立新, 杨建坤, 贾辉, 等. 一种基于非采样Contourlet变换的遥感图像融合算法[J]. 中国激光, 2012, 39(s1): s109005.

    Yang L X, Yang J K, Jia H, et al. Remote sensing images fusion algorithm based on the nonsubsampled contourlet transform[J]. Chinese Journal of Lasers, 2012, 39(s1): s109005.

    Yang L X, Yang J K, Jia H, et al. Remote sensing images fusion algorithm based on the nonsubsampled contourlet transform[J]. Chinese Journal of Lasers, 2012, 39(s1): s109005.

[4] Kong W. Technique for gray-scale visual light and infrared image fusion based on non-subsampled shearlet transform[J]. Infrared Physics & Technology, 2014, 63(11): 110-118.

    Kong W. Technique for gray-scale visual light and infrared image fusion based on non-subsampled shearlet transform[J]. Infrared Physics & Technology, 2014, 63(11): 110-118.

[5] 吴一全, 王志来. 基于目标提取与引导滤波增强的红外与可见光图像融合[J]. 光学学报, 2017, 37(8): 0810001.

    吴一全, 王志来. 基于目标提取与引导滤波增强的红外与可见光图像融合[J]. 光学学报, 2017, 37(8): 0810001.

    Wu Y Q, Wang Z L. Infrared and visible image fusion based on target extraction and guided filtering enhancement[J]. Acta Optica Sinica, 2017, 37(8): 0810001.

    Wu Y Q, Wang Z L. Infrared and visible image fusion based on target extraction and guided filtering enhancement[J]. Acta Optica Sinica, 2017, 37(8): 0810001.

[6] 吴一全, 陶飞翔. 改进投影梯度NMF的NSST域多光谱与全色图像融合[J]. 光学学报, 2015, 35(4): 0410005.

    吴一全, 陶飞翔. 改进投影梯度NMF的NSST域多光谱与全色图像融合[J]. 光学学报, 2015, 35(4): 0410005.

    Wu Y Q, Tao F X. Multispectral and panchromatic image fusion based on improved projected gradient NMF in NSST domain[J]. Acta Optica Sinica, 2015, 35(4): 0410005.

    Wu Y Q, Tao F X. Multispectral and panchromatic image fusion based on improved projected gradient NMF in NSST domain[J]. Acta Optica Sinica, 2015, 35(4): 0410005.

[7] 刘健, 雷英杰, 邢雅琼, 等. 基于改进型NSST变换的图像融合方法[J]. 控制与决策, 2017, 32(2): 275-280.

    刘健, 雷英杰, 邢雅琼, 等. 基于改进型NSST变换的图像融合方法[J]. 控制与决策, 2017, 32(2): 275-280.

    Liu J, Lei Y J, Xing Y Q, et al. Innovative image fusion method based on improved NSST[J]. Control and Decision, 2017, 32(2): 275-280.

    Liu J, Lei Y J, Xing Y Q, et al. Innovative image fusion method based on improved NSST[J]. Control and Decision, 2017, 32(2): 275-280.

[8] 吴冬鹏, 毕笃彦, 何林远, 等. 基于NSSCT的红外与可见光图像融合[J]. 光学学报, 2017, 37(7): 0710003.

    吴冬鹏, 毕笃彦, 何林远, 等. 基于NSSCT的红外与可见光图像融合[J]. 光学学报, 2017, 37(7): 0710003.

    Wu D P, Bi D Y, He L Y, et al. A fusion algorithm of infrared and visible image based on NSSCT[J]. Acta Optica Sinica, 2017, 37(7): 0710003.

    Wu D P, Bi D Y, He L Y, et al. A fusion algorithm of infrared and visible image based on NSSCT[J]. Acta Optica Sinica, 2017, 37(7): 0710003.

[9] Ganasala P, Kumar V. Feature-motivated simplified adaptive PCNN-based medical image fusion algorithm in NSST domain[J]. Journal of Digital Imaging, 2016, 29(1): 73-85.

    Ganasala P, Kumar V. Feature-motivated simplified adaptive PCNN-based medical image fusion algorithm in NSST domain[J]. Journal of Digital Imaging, 2016, 29(1): 73-85.

[10] Wang N, Ma Y, Wang W, et al. An image fusion method based on NSCT and dual-channel PCNN model[J]. Journal of Networks, 2014, 9(2): 501-506.

    Wang N, Ma Y, Wang W, et al. An image fusion method based on NSCT and dual-channel PCNN model[J]. Journal of Networks, 2014, 9(2): 501-506.

[11] 赵杰, 温馨, 刘帅奇, 等. 基于NSST域的自适应区域和SCM相结合的多聚焦图像融合[J]. 计算机科学, 2017, 44(3): 318-322.

    赵杰, 温馨, 刘帅奇, 等. 基于NSST域的自适应区域和SCM相结合的多聚焦图像融合[J]. 计算机科学, 2017, 44(3): 318-322.

    Zhao J, Wen X, Liu S Q, et al. Multi-focus image fusion using adaptive region and SCM based on NSST domain[J]. Computer Science, 2017, 44(3): 318-322.

    Zhao J, Wen X, Liu S Q, et al. Multi-focus image fusion using adaptive region and SCM based on NSST domain[J]. Computer Science, 2017, 44(3): 318-322.

[12] Kong W, Wang B, Lei Y. Technique for infrared and visible image fusion based on non-subsampled shearlet transform and spiking cortical model[J]. Infrared Physics & Technology, 2015, 71: 87-98.

    Kong W, Wang B, Lei Y. Technique for infrared and visible image fusion based on non-subsampled shearlet transform and spiking cortical model[J]. Infrared Physics & Technology, 2015, 71: 87-98.

[13] Li S, Kang X, Hu J. Image fusion with guided filtering[J]. IEEE Transactions on Image Processing, 2013, 22(7): 2864-2875.

    Li S, Kang X, Hu J. Image fusion with guided filtering[J]. IEEE Transactions on Image Processing, 2013, 22(7): 2864-2875.

[14] Li Z, Zheng J, Zhu Z, et al. Weighted guided image filtering[J]. IEEE Transactions on Image Processing, 2015, 24(1): 120-129.

    Li Z, Zheng J, Zhu Z, et al. Weighted guided image filtering[J]. IEEE Transactions on Image Processing, 2015, 24(1): 120-129.

[15] 谢伟, 周玉钦, 游敏. 融合梯度信息的改进引导滤波[J]. 中国图象图形学报, 2016, 21(9): 1119-1126.

    谢伟, 周玉钦, 游敏. 融合梯度信息的改进引导滤波[J]. 中国图象图形学报, 2016, 21(9): 1119-1126.

    Xie W, Zhou Y Q, You M. Improved guided image filtering integrated with gradient information[J]. Journal of Image and Graphics, 2016, 21(9): 1119-1126.

    Xie W, Zhou Y Q, You M. Improved guided image filtering integrated with gradient information[J]. Journal of Image and Graphics, 2016, 21(9): 1119-1126.

[16] CaiM, YangJ, CaiG. Multi-focus image fusion algorithm using LP transformation and PCNN[C]. IEEE International Conference on Software Engineering and Service Science, 2015: 237- 241.

    CaiM, YangJ, CaiG. Multi-focus image fusion algorithm using LP transformation and PCNN[C]. IEEE International Conference on Software Engineering and Service Science, 2015: 237- 241.

[17] Kong W, Zhang L, Lei Y. Novel fusion method for visible light and infrared images based on NSST-SF-PCNN[J]. Infrared Physics & Technology, 2014, 65(7): 103-112.

    Kong W, Zhang L, Lei Y. Novel fusion method for visible light and infrared images based on NSST-SF-PCNN[J]. Infrared Physics & Technology, 2014, 65(7): 103-112.

[18] Yang Y, Que Y, Huang S, et al. Multiple visual features measurement with gradient domain guided filtering for multisensor image fusion[J]. IEEE Transactions on Instrumentation & Measurement, 2017, 66(4): 691-703.

    Yang Y, Que Y, Huang S, et al. Multiple visual features measurement with gradient domain guided filtering for multisensor image fusion[J]. IEEE Transactions on Instrumentation & Measurement, 2017, 66(4): 691-703.

江泽涛, 吴辉, 周哓玲. 基于改进引导滤波和双通道脉冲发放皮层模型的红外与可见光图像融合算法[J]. 光学学报, 2018, 38(2): 0210002. Zetao Jiang, Hui Wu, Xiaoling Zhou. Infrared and Visible Image Fusion Algorithm Based on Improved Guided Filtering and Dual-Channel Spiking Cortical Model[J]. Acta Optica Sinica, 2018, 38(2): 0210002.

本文已被 15 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!