激光与光电子学进展, 2019, 56 (6): 061101, 网络出版: 2019-07-30   

基于深度学习和人眼视觉系统的遥感图像质量评价 下载: 1642次

Quality Assessment of Remote Sensing Images Based on Deep Learning and Human Visual System
作者单位
航天工程大学电子与光学工程系, 北京 101416
摘要
提出了一种基于深度学习和人眼视觉特性的遥感图像质量评价方法。利用卷积神经网络和反向传播神经网络分类器,同时对遥感图像进行特征学习及模糊和噪声强度的等级分类。利用掩盖效应和感知加权因子修正评价模型,得到了更符合人眼视觉的遥感图像质量评价结果。研究结果表明,所提方法有效解决了同时存在模糊和噪声的遥感图像质量评价的困难,能有效准确地评价遥感图像的质量,且与主观评价结果有较好的一致性,更符合人眼视觉感受。
Abstract
A quality assessment method of remote sensing images is proposed based on deep learning and the human visual characteristics. The convolutional neural network and the back propagation neural network classifiers are used for the simultaneous feature learning and grade classification of blur and noise intensity for the remote sensing images. The masking effect and the corrected assessment model of the perceptual weighting factors are used to obtain the quality assessment results of remote sensing images, which are more in line with the human visual characteristics. The research results show that the proposed method can effectively solve the difficulty in the quality assessment of remote sensing images with both blur and noise. Moreover, the quality of remote sensing images can be effectively and accurately evaluated, and the results are well in good agreement with both the subjective evaluation results and the human visual experiences.

1 引言

遥感技术能够从不同高度大范围地快速获取地面信息,目前被广泛应用于气象、地质、生态、水文等领域。图像质量直接关系到已获取信息的准确性和可靠性。一般来说,图像的退化不仅受到成像系统的影响,还受到大气和气候等环境的影响[1]。为了确保遥感数据的应用能力,对遥感图像质量的评价是很有必要的[2]。但是目前遥感图像数据量巨大,高效率并准确地实现图像质量评价具有很大的研究价值。

遥感图像质量的评价方法主要分为主观评价和客观评价。主观评价需要评分员对遥感图像进行人工判读,评价出符合人眼视觉效果的质量结果,这种方法费时费力。客观评价方法是计算机根据相应算法建立模型从而得到相应的图像质量指标。海量的遥感数据量导致人们不能对每一幅遥感图像进行主观评价,因此建立计算机自动遥感数据评估机制具有十分重要的意义。

目前,图像分辨率评估和报告标准(IRARS)委员会已经建立了国家图像可辨性评估量表(NIIRS)。经过后续的发展,NIIRS一直是美国情报界最受欢迎的图像质量指标,是由解释任务或标准定义的10级量表;Sheikh等[3]提出的视觉信息保真度(VIF)方法通过计算待评价图像与参考图像之间的互信息来衡量待评价图像质量的优劣。鉴于遥感图像最终的应用对象是人眼,所以图像质量评价结果还需要考虑人眼视觉系统(HVS)。文献[ 4]将底层特征的图像质量评估算法与梯度结构相似度算法相结合,得到一种符合人眼视觉系统特点的图像质量评估方法。Chandler等[5]基于小波域的视觉信噪比对自然图像质量进行评价。

目前广泛应用的图像质量评价方法需要依靠手工提取特征,不仅费时耗力,而且对人员技术有较高的要求,因此并不适用于图像特征各异且数据量较大的应用场景。人类大脑能够综合处理大量视觉感知信息,而深度学习能够模拟人脑的视觉认知推理过程来建立学习数据内部隐藏关系逻辑的层次模型,对于大规模、高维度数据处理拥有巨大的潜能。深度学习模型可以在接受大规模标记数据集的训练时,获得显著的泛化能力。深度卷积神经网络(CNN)模型采用多层线性和非线性变换,可以有效地处理高维度的原始图像数据,学习输入与输出之间的复杂映射,极大地降低了图像质量评价过程对特征选择的依赖[6]

由于模糊和噪声大多数是同时存在于遥感图像中,不能归为单一的失真类型。不同类型的失真会对图像质量造成不同的影响,而当两种类型的失真同时出现在一张图像上时,人眼主观感受到的影响并不是简单的“1+1=2”,而是不同失真类型的相互影响。在混合失真中,不同失真对于图像质量的影响可能出现相互抵消或者相互增强的效果。因此,在对遥感图像质量的评价过程中需要同时考虑噪声和模糊。为解决这一困难,邵宇等[7]利用人眼视觉系统中的对比度掩盖效应,分析了模糊和噪声对遥感图像视觉特性的影响,结合结构相似性度量方法,提出了一种无参考型遥感图像质量评价方法。张飞艳等[8]在遥感影像小波域统计特性的基础上,通过分析噪声和模糊对影像特性的不同影响,从而对噪声和模糊强度分别进行判定,得出图像质量评价指标。由于遥感图像最终的接受者是人眼,因此评价遥感图像质量的方法还应该遵循人眼的视觉特性。

针对上述问题,提出了一种基于深度卷积神经网络的遥感图像质量评价模型,模型分为3个步骤:1) 利用深度卷积神经网络作为特征提取器,将提取特征输入BP(Back Propagation)神经网络分类器,分别建立模糊强度和噪声强度分类器;2) 根据人眼视觉特性中的对比度掩盖效应,构建模糊影响因子,对模糊强度进行感知加权;3) 修正评价模型,得到最终的遥感图像质量综合评价模型。

2 方法概述

2.1 算法总体框架

对VGG(Visual Geometry Group Network)16网络进行修改,将收集到的遥感图像样本集输入网络中,对模糊和噪声程度不同的遥感图像并行地进行特征提取,并对失真程度进行判别。根据HVS中的掩盖效应(噪声对图像平滑区域影响更大,模糊对图像边缘、纹理丰富的区域影响更大),对失真程度进行感知加权。最后利用上述方法对每一幅测试图像计算感知加权后的模糊强度,再与噪声强度综合得到遥感图像最终的质量评价结果。评价模型的整体结构如图1所示,其中ij表示失真强度等级,Sc为综合质量得分,ω为模糊度影响因子,BN分别为模糊等级和噪声等级,ILSVRC为ImageNet大规模视觉识别竞赛。

2.2 模糊等级、噪声强度等级的判定

深度学习能够将原始输入转换为更高和更抽象级别的表示。深度学习的关键在于:这些特征层不是由人类工程师设计的,而是通过学习过程从数据中学习到的。CNN是目前进行图像分类、对象识别和其他图像处理任务等[9]一种最佳的表现方法,同时也是一种优秀的特征提取器,它可以对原始图像的特征和表征形式进行端到端的学习,进而进行分类任务,免去了手工设计特征的麻烦,CNN作为特征提取器已经被广泛用于计算机视觉任务中[10]。基于CNN的算法近年来在ILSVRC[11-12]中取得了超人类的成果,受深度学习的启发,通过修改VGG16网络来设计评价模型。基于并行深度卷积CNN的单路评价框架如图2所示,其中conv表示卷积层(convolutional layer),fc(fully connected layer)表示全连接层。

VGG网络架构最初是由Simonyan和Zisserman提出的[13]。其中,16层VGG网络经过大量实验证明其特征提取效果较好[9]。VGG16架构如图3所示。前面是5个卷积层,后面是3个全连接层。卷积层使用3×3内核,步长为1,填充为1,以确保每个激活映射保留与前一层相同的空间维度。在每次卷积之后立即激活线性整流函数(ReLU),并且在每个块的末尾使用最大汇集操作以减小空间维度。最大池化层使用2×2内核,步长为2且无填充,以确保来自前一层的激活映射的每个空间维度减半。ReLU层直接连接巻积层和全连接层,同时全连接层fc6和fc7还应用了一种正则化的方法(Dropout),使得训练时间得以缩短,防止过拟合(over fitting)现象的出现。经过缩小的224 pixel×224 pixel RGB图像通过向前传播,利用8个卷积层和3个全连接层来计算特征。

图 1. 评价模型整体结构

Fig. 1. Overall structure of assessment model

下载图片 查看所有图片

图 2. 基于并行CNN的单路评价框架

Fig. 2. Single-channel assessment framework based on parallel CNN

下载图片 查看所有图片

图 3. VGG16网络结构

Fig. 3. VGG16 network structure

下载图片 查看所有图片

调整所有输入图像的大小后,使用海量数据集ImageNet初始化该深度网络的参数,以便与CNN兼容。由于特征信息的代表性随着网络层数的加深会越来越强,因此对Vgg16网络进行修改,仅保留网络第2个全连接层之前的部分,利用Vgg16网络作为特征提取器,将从第2个全连接层提取的4096维特征作为图像的特征向量。并且利用迁移学习的方法[14],以VGG16作为基础模型,对ImageNet数据集上的对象检测任务进行预训练。使用VGG16来提取图像的深层特征,提取到的更深层次高层特征具有充分的图像表示能力和泛化能力,其特征可以直接使用分类器来区分不同样本的高层语义信息,并应用到失真程度等级判别的任务上。BP神经网络分类器被广泛应用于分类任务,具有较强的非线性映射能力和泛化能力,是一种常用且优秀的机器学习分类器。用BP神经网络分类器替换softmax层,用提取的特征作为BP神经网络分类器的输入,通过训练好的BP神经网络分类器分别得到图像的模糊等级和噪声等级的分类结果。

模糊等级和噪声等级定义如表1表2所示,为了表现图像失真程度越高,对应的等级特征值越低,设Bblur_i,i=1,2,3,4,5和Nnoise_j,j=1,2,3,4,5分别对应从高到低的失真强度。

将图像的模糊等级和噪声等级的判别转化为BP神经网络的分类问题,由卷积神经网络提取出的图像的4096维特征利用BP神经网络分别进行模糊等级和噪声等级分类。分类阶段分为训练和分类两个部分,首先将提取的训练集图像的深度特征分别输入到两个BP神经网络分类器中,对BP分类器进行训练,从而可以得到训练好的BP神经网络分类器。训练完成后,将测试集图像的深度特征输入到已经训练好的两个BP神经网络分类器中进行分类,最终得到分类器1和分类器2的输出标签,即模糊等级和噪声等级的评价结果。

表 1. 模糊等级

Table 1. Blur level

i12345
Bblur_i54321
Blurintensity01234

查看所有表

表 2. 噪声等级

Table 2. Noise level

j12345
Nnoise_j54321
Noiseintensity01234

查看所有表

2.3 模糊度影响因子

然而,对一幅遥感图像质量的影响不应该仅仅考虑模糊强度和噪声强度的影响,还应该考虑到人眼视觉特性对遥感图像质量的影响。在数字图像处理中,视觉掩盖效应是在多个激励存在的情况下,一个激励干扰另一个激励,使得视觉阈值发生变化。HVS对于图像中不同区域有着各自不同的敏感程度。同一种类型和规模的模糊失真,会在同一图像上细节丰富区域和平坦区域上引起不同的失真程度。大量视觉经验表明[7],对于图像中的边缘和细节丰富的区域,模糊失真对图像质量的影响更大,而对于图像中的平坦区域,影响较小,如图4所示。根据HVS特性,人眼对图像中平滑区域(图4圆圈所示区域)的噪声比较敏感,对纹理区域(图4方形所示区域)的模糊比较敏感。因此,对于图像中模糊程度的度量,主要是计算模糊对图像中的细节丰富区域的影响。

通过引入表征图像纹理复杂程度的模糊度影响因子,反映模糊失真对图像中细节丰富区域的影响。图像的纹理[15]是图像像素颜色或灰度在空间中以一定形式变化而产生的图案,可用于反映图像本身的属性。灰度共生矩阵通过定义大量的纹理特征来对图像纹理进行有效地描述。熵是图像信息量的度量,纹理信息也属于图像的信息,是一个随机性的度量。本文采用灰度共生矩阵的熵来描述遥感图像中纹理的非均匀程度或复杂程度。当共生矩阵中所有元素的随机性较大时,空间共生矩阵中所有值几乎相等,共生矩阵中元素分散分布时,熵较大。灰度共生矩阵的熵来定义为

S=-i=1Nj=1NP(x,y)lb[P(x,y)],(1)

式中:N为图像的灰度级;P(x,y)为灰度共生矩阵在(x,y)点的值。如果图像包含的纹理信息越多,图像的熵值越大。通过图像熵值的大小可以确定图像的纹理复杂度。如图5所示,该方法可以有效地描述遥感图像的纹理复杂度,熵值越大,表示图像的纹理信息越多,纹理复杂度较大。

图 4. 模糊和噪声对遥感图像视觉特性的影响。(a)原始图像;(b)加入噪声后图像;(c)再加入噪声后图像;(d)模糊后图像;(e)再模糊后图像

Fig. 4. Influences of blur and noise on visual characteristics of remote sensing images. (a) Original image; (b) image with noise; (c) image with noise once more; (d) image with blur; (e) image with blur once more

下载图片 查看所有图片

图 5. 具有不同纹理复杂度遥感图像。(a) S=9.2784;(b) S=23.1248;(c) S=19.0502;(d) S=14.9255;(e) S=20.1074;(f) S=13.2125;(g) S=23.2592;(h) S=18.7957

Fig. 5. Remote sensing images with different texture complexity. (a) S=9.2784; (b) S=23.1248; (c) S=19.0502; (d) S=14.9255; (e) S=20.1074; (f) S=13.2125; (g) S=23.2592; (h) S=18.7957

下载图片 查看所有图片

考虑到人类对图像质量的感知是一个复杂的非线性过程,为了简化问题,选用关系函数将共生矩阵熵转化为模糊度影响因子。设模糊度影响因子为ω,综合质量得分为Sc,经过加权后最终的遥感图像综合质量得分为

Sc=Bblur_i×ω+Nnoise_j,i,j=1,2,3,4,5(2)

数据分析可知,模糊度影响因子ω随着共生矩阵熵S的增长而缓慢增长。为了使所得综合质量得分与其平均主观得分(MOS)[16]有很好的一致性,选用对数型函数模型来描述二者的关系。

设模糊度影响因子为

ω=lbS×c,(3)

式中:c为常数,用于微调关系函数。这里根据经验值,将c设为0.2。最后得到遥感图像的综合质量得分为

Sc=0.2×Bblur_i×lbS+Nnoise_j,i,j=1,2,3,4,5(4)

3 实验与分析

收集了包含植被、道路、城市建筑等典型遥感地物特征的QuickBird-2 卫星遥感图像,图像大小均为512 pixel×512 pixel,如图6所示。为了分析同时存在噪声和模糊这两种失真对图像质量的影响,对原始遥感图像进行高斯模糊处理,选取的高斯模糊窗口大小[9,9],强度为0.5~3,获得一系列模糊图像;在同一高斯模糊的图像上再依次加入方差为0.001~0.02的高斯噪声,获得一系列同时具有不同程度的模糊强度和噪声强度的遥感图像。由此建立遥感图像数据集800幅,在训练阶段使用600幅图像通过VGG16提取特征,输入至BP神经网络分类器中进行训练。测试阶段,用剩下的200幅图像来预测遥感图像质量。

图 6. 由QuickBird-2卫星获取的幅遥感图像。(a)海港;(b)植被;(c)道路;(d)建筑群

Fig. 6. Remote sensing images acquired by QuickBird-2 satellite. (a) Harbor; (b) vegetation; (c) road; (d) buildings

下载图片 查看所有图片

将所提方法得出的结果和常用的结构相似性(SSIM)和峰值信噪比(PSNR)的评价结果进行对比。由于遥感图像的最终接收者是人,因此主观评价结果对于遥感图像的评价尤为重要。为了分析所提方法与主观评价结果的关系,建立一个包含800幅遥感图像质量评分库,参与评分的观察者共22人,其中具有图像质量评价专业背景的人有2人,一般观察者有20人。按照主观评价方法中的国际电信联盟无线通信委员会(ITU-R)质量和损伤度量表,如表3所示,对评分库中的图像进行打分,最终整理得到MOS。

表 3. ITU-R质量和损伤度量表

Table 3. ITU-R quality and impairment scales

Five-grade scale54321
QualityExcellentGoodFairPoorBad
ImpairmentImperceptiblePerceptible,but not annoyingSlightlyannoyingAnnoyingVeryannoying

查看所有表

采用3种衡量算法性能的技术指标,即Spearman等级次序相关系数(SROCC)、Pearson线性相关系数(PLCC)和方均根误差(RMSE),来衡量所提方法和其他评价方法与主观评价值的一致性。由于这几种方法得出的质量评价值范围不同,因此需要根据评价结果的散点图采用Logistic 函数进行非线性拟合[17]

选取PSNR、SSIM、特征相似度(FSIM)这3种具有代表性的评价方法作为参考指标进行性能比对。表4给出了各评价方法性能的对比结果。这3个指标中,PLCC值和SROCC值越接近1, RMSE值越小,表示算法的客观质量预测结果与人类的主观感知结果越相近,算法的性能越好。由表4可以看出,与SSIM、PSNR和FSIM这3种方法相比,所提方法与主观评价结果的准确度和相关度均有明显提高,具有更好的性能。由图7可以看出,所提方法与主观评价结果具有较高的一致性。

所提方法与FSIM、SSIM和PSNR的拟合散点图如图8所示,与FSIM和SSIM具有较好的一致性,而与PSNR结果一致性较差,这是由于SSIM和FSIM考虑了图像结构,与PSNR相比更加符合人眼视觉特性,主要原因是PSNR属于像素级的评价,其值不能很好地反映人眼主观感受。

表 4. 不同方法的性能比较

Table 4. Performance comparison of different methods

MethodPLCCRMSESROCC
SSIM0.89790.56310.8714
PSNR0.84500.68420.7713
FSIM0.89780.56020.8793
Proposed0.90040.55660.8962

查看所有表

图 7. 所提算法的综合评价结果

Fig. 7. Overall assessment results by proposed method

下载图片 查看所有图片

图 8. 所提方法与SSIM、PSNR和FSIM的拟合散点图。(a) SSIM;(b) PSNR;(c) FSIM

Fig. 8. Fitting scatter plot between proposed method and SSIM, PSNR, FSIM. (a) SSIM; (b) PSNR; (c) FSIM

下载图片 查看所有图片

选用的Quickbird-2遥感卫星图像能直观反映地物的真实颜色,适合人眼的观察习惯,分辨率较高,从成像机理上接近于自然图像。将所提方法应用在自然图像上进行测试。选用美国的德克萨斯大学奥斯汀分校图像和视频工程实验室发布的混合失真图像质量评分库(LIVEMD)进行实验。LIVEMD中的模糊噪声混合数据集中包含15幅原始参考图像和225幅失真图像。模糊和噪声失真分别分为三个等级,在同一模糊等级的图像上一次添加不同等级的噪声,共分为15个子类。数据集中每幅图像都有对应的平均主观得分差(DMOS),即人眼对无失真图像和有失真图像评价得分的差异,DMOS值越小,表示图像的质量越高。

实验结果如表5图9所示。由实验结果可知,所提算法在LIVEMD数据库上同样具有很好的性能,验证了所提评价方法的通用性。用所提方法得到的LIVEMD图像的综合质量评价结果与其主观DMOS值进行拟合,结果显示所提方法与主观评价方法有较好的符合度。

表 5. LIVEMD数据集中不同方法的性能比较

Table 5. Performance comparison of different methods in LIVEMD database

MethodPLCCRMSESROCC
SSIM0.767911.9487-0.6953
PSNR0.775711.7910-0.7088
FSIM0.817810.7358-0.8642
Proposed0.89688.2523-0.8664

查看所有表

图 9. LIVEMD数据集中不同评价方法的DMOS拟合曲线图。(a) SSIM;(b)所提方法;(c) PSNR;(d) FSIM

Fig. 9. Fitting curves of DMOS for different assessment methods in LIVEMD dataset. (a) SSIM; (b) proposed method; (c) PSNR; (d) FSIM

下载图片 查看所有图片

4 结论

利用深度学习的方法,省去手工设计特征的麻烦,设计出并行CNN的评价框架,结合人眼视觉特性,提出了一种同时存在模糊和噪声的遥感图像的质量评价方法,解决了只能评价单一失真类型的图像质量的困难。并且结合人眼视觉特性中的掩盖效应,加入感知加权因子,修正评价模型,使得遥感图像质量的评价结果更加符合主观评价结果。实验结果表明,该方法能有效地评价遥感图像的质量,所得评价结果符合人类视觉感知,与主观评价结果具有较好的一致性,能够对噪声和模糊两种失真同时存在的遥感图像进行有效的、准确的评价。

参考文献

[1] 王俊琦, 张立国, 付天骄, 等. 基于骨架边缘提取的遥感图像清晰度评价方法[J]. 激光与光电子学进展, 2015, 52(9): 091002.

    Wang J Q, Zhang L G, Fu T J, et al. Sharpness assessment for remote sensing image based on abstracting the edge image of skeleton[J]. Laser & Optoelectronics Progress, 2015, 52(9): 091002.

[2] Xia YT, Chen ZZ. Quality assessment for remote sensing images: Approaches and applications[C]∥IEEE International Conference on Systems, Man, and Cybernetics, October, 9-12, 2015, Kowloon, China. New York: IEEE, 2015: 1029- 1034.

[3] Sheikh HR, Bovik AC. A visual information fidelity approach to video quality assessment[C]∥International Workshop on Video Processing and Quality Metrics for Consumer Electronics, [S. l. : s. n.]2005: 23- 25.

[4] 苗莹, 易三莉, 贺建峰, 等. 结合梯度信息的特征相似性图像质量评估[J]. 中国图象图形学报, 2015, 20(6): 749-755.

    Miao Y, Yi S L, He J F, et al. Image quality assessment of feature similarity combined with gradient information[J]. Journal of Image and Graphics, 2015, 20(6): 749-755.

[5] Chandler D M, Hemami S S. VSNR: A wavelet-based visual signal-to-noise ratio for natural images[J]. IEEE Transactions on Image Processing, 2007, 16(9): 2284-2298.

[6] Kim J, Zeng H, Ghadiyaram D, et al. Deep convolutional neural models for picture-quality prediction: Challenges and solutions to data-driven image quality assessment[J]. IEEE Signal Processing Magazine, 2017, 34(6): 130-141.

[7] 邵宇, 孙富春, 李洪波. 基于视觉特性的无参考型遥感图像质量评价方法[J]. 清华大学学报(自然科学版), 2013, 53(4): 550-555.

    Shao Y, Sun F C, Li H B. No-reference remote sensing image quality assessment method using visual properties[J]. Journal of Tsinghua University (Science and Technology), 2013, 53(4): 550-555.

[8] 张飞艳, 谢伟, 林立宇, 等. 基于小波域自然影像统计特性的无参考遥感影像质量评价[J]. 电子与信息学报, 2011, 33(11): 2742-2747.

    Zhang F Y, Xie W, Lin L Y, et al. No-reference remote sensing image quality assessment based on natural scene statistical in wavelet domain[J]. Journal of Electronics & Information Technology, 2011, 33(11): 2742-2747.

[9] BareB, LiK, YanB, et al. An accurate deep convolutional neural networks model for no-reference image quality assessment[C]∥IEEE International Conference on Multimedia and Expo, July 10-14, 2017, Hong Kong, China. New York: IEEE, 2017: 1356- 1361.

[10] 李素梅, 常永莉, 段志成. 基于卷积神经网络的立体图像舒适度客观评价[J]. 光学学报, 2018, 38(6): 0610003.

    Li S M, Chang Y L, Duan Z C. Objective assessment of stereoscopic image comfort based on convolutional neural network[J]. Acta Optica Sinica, 2018, 38(6): 0610003.

[11] DengJ, DongW, SocherR, et al. ImageNet: A large-scale hierarchical image database[C]∥ IEEE Conference on Computer Vision and Pattern Recognition, June 20-25, 2009, Miami, FL, USA. New York: IEEE, 2009: 248- 255.

[12] Yu W, Yang K Y, Yao H X, et al. Exploiting the complementary strengths of multi-layer CNN features for image retrieval[J]. Neurocomputing, 2017, 237: 235-241.

[13] SimonyanK, Zisserman A. Very deep convolutional networks for large-scale image recognition[EB/OL]. ( 2015-04-13)[2018-08-06]. https:∥arxiv.org/abs/1409. 1556.

[14] YosinskiJ, CluneJ, BengioY, et al. How transferable are features in deep neural networks?[EB/OL]∥International Conference on Neural Information Processing Systems, December 8-13, 2014, Montreal, Canada,2014: 3320-3328.[2018-08-06]. https:∥arxiv.org/abs/1411. 1792.

[15] 高振宇, 杨晓梅, 龚剑明, 等. 图像复杂度描述方法研究[J]. 中国图象图形学报, 2010, 15(1): 129-135.

    Gao Z N, Yang X M, Gong J M, et al. Research on image complexity description methods[J]. Journal of Image and Graphics, 2010, 15(1): 129-135.

[16] 魏政刚, 袁杰辉, 蔡元龙. 图象质量评价方法的历史、现状和未来[J]. 中国图象图形学报: A辑, 1998, 3(5): 386-389.

    Wei Z G, Yuan J H, Cai Y L. The history, status and future of image quality evaluation[J]. Journal of Image and Graphics: Edition A, 1998, 3(5): 386-389.

[17] Sheikh H R, Sabir M F, Bovik A C. A statistical evaluation of recent full reference image quality assessment algorithms[J]. IEEE Transactions on Image Processing, 2006, 15(11): 3440-3451.

刘迪, 李迎春. 基于深度学习和人眼视觉系统的遥感图像质量评价[J]. 激光与光电子学进展, 2019, 56(6): 061101. Di Liu, Yingchun Li. Quality Assessment of Remote Sensing Images Based on Deep Learning and Human Visual System[J]. Laser & Optoelectronics Progress, 2019, 56(6): 061101.

本文已被 4 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!