激光与光电子学进展, 2020, 57 (24): 241102, 网络出版: 2020-12-01   

基于规则验证点的面向对象分类精度评价 下载: 932次

Accuracy Assessment of Object-Oriented Classification Based on Regular Verification Points
作者单位
1 东华理工大学放射性地质与勘探技术国防重点学科实验室, 江西 南昌 330013
2 东华理工大学测绘工程学院, 江西 南昌 330013
摘要
遥感图像分类是图像分析的重要步骤,其中分类后精度评定是判定图像分类效果的主要依据。目前,面向对象分类的精度评定常采用随机验证点作为评定参数,这样容易造成评定的分类结果精度不高。提出基于规则验证点的面向对象的分类精度评价方法,在使用支持向量机、CART(classification and regression tree)决策树和K最近邻进行分类的基础上,分别采用基于规则验证点和随机验证点的方法对分类结果进行精度评定。实验结果表明,所提出的方法比传统的基于随机验证点的方法得到的分类精度更高。三种分类方法在规则验证点下的最优总体分类精度分别达到了87.92%、91.94%和94.63%,均优于基于随机验证点的方法的精度评定结果。
Abstract
Remote sensing image classification is an important part of image analysis, and post-classification accuracy assessment is the main basis for determining the effect of image classification. At present, random verification points are often used as assessment parameters in object-oriented classification, which may easily lead to inaccurate classification results. An object-oriented classification accuracy assessment method based on regular verification points is proposed in this paper. Regular and random verification points are used to evaluate the classification accuracy by using support vector machine, CART (classification and regression tree ) decision tree, and K nearest neighbor classification. Experimental results show that the proposed method has higher classification accuracy than traditional methods based on random verification points. The optimal overall classification accuracy of the three classification methods based on the regular verification points reaches 87.92%, 91.94%, and 94.63%, respectively, which are better than the accuracy assessment results of random verification points based methods.

1 引言

遥感图像分类是遥感应用的基础,其广泛应用于国土调查、城市规划、生态环保和自然灾害监测等领域[1-2]。随着遥感技术的不断进步,高分辨率遥感图像可提供的特征信息越来越丰富,如几何特征、光谱特征和纹理特征等。传统基于像素的分类方法存在“同物异谱”及“同谱异物”的问题,造成分类结果细碎且精度不高,已经不能满足高分辨率遥感图像信息提取的要求。面向对象分类方法因其具有良好的平滑性和较高的分类精度,已经成为遥感图像分类的研究热点[3-7]

马燕妮等[8]将尺度估计方法应用于分形网络演化分割,该方法不需要使用先验知识,且在分割前就可以自适应地估计出相对较为合适的尺度参数,能够提高面向对象信息提取的自动化程度。雷钊等[9]提出了一种面向对象构建决策树的建筑点云高精度提取方法,该方法从机载激光点云数据中提取建筑物点的准确率高达96%。梁林林等[10]利用无人机高空间分辨率图像和面向对象分类技术进行了黑河上游俄博岭垭口冻土区热融滑塌监测实验,详细分析了最邻近、K最邻近、决策树、支持向量机和随机森林5种面向对象的监督学习方法提取冻土热融滑塌边界的性能和精度。Jin等[11]提出了一种将面向对象分类与深度卷积神经网络相结合的方法,并以覆盖抚仙湖周边地区的遥感图像为例,对10种土地类型进行了分类。结果表明所提方法能够有效解决典型特征分类不准确的问题,其分类精度明显高于深度卷积神经网络方法。

目前针对面向对象分类结果的精度评定方法常采用随机验证样本点,但该评价方法往往会出现样本分布不均匀的情况。假如样本点在被错误分类的对象上分布过多,而在被正确分类的对象上分布较少,这容易造成较大的精度评定误差,从而导致评定结果与分类效果不匹配。为此,本文提出基于规则验证点的面向对象分类的精度评价方法,并将支持向量机(SVM)、CART(classification and regression tree)决策树和K最近邻(KNN)等面向对象的分类方法的结果与基于随机验证点的方法的结果进行比较。

2 基于规则验证点的面向对象分类的精度评价方法

面向对象分类的前提是对高分辨率遥感图像进行分割,分割的好坏直接关系到面向对象分类的精度的高低[5]。本文使用eCognition软件中比较成熟的多尺度分割方法进行实验,通过对比实验发现,当分割尺度为40时,分割效果较好。采用面向对象分类中最常用的三种分类方法即 SVM、CART决策树和KNN对遥感图像进行分类[12-13]

在对面向对象分类的结果进行精度评价中,需要建立验证点[5]。传统的方法是通过导入原始图像建立矢量文件和随机验证点,将所得结果与分类后图像合并导入eCognition软件中,再对分类后结果进行精度评定。本文提出采用规则验证点进行精度评定,首先将验证点平均分布在图像的规则网格中,然后对每个验证点的属性进行命名。通过波段组合、创建样本点和选择验证点个数等步骤生成矢量文件和规则网格,从而完成规则验证点的创建。最后将创建的规则验证点导入eCognition软件中,通过分割参数的选择、分割对象、选取训练样本和选择分类器等步骤完成分割和分类等操作,从而采用规则验证点对面向对象分类的结果进行精度评定。

规则验证点和随机验证点的对比示意图如图1所示。由图1(a)可以看出,16个验证点规则分布在三个对象上,而图1(b)中的验证点则随机分布在三个对象上。通过对比发现,规则验证点在图像分布上更加均匀,合理地分布在各个对象上,从而有效地避免了因某一错误分类对象的验证样本点分布较多而影响分类精度的评价的问题。然而,随机验证点容易出现验证点聚集现象(许多验证点分布在一个对象上),造成分类精度评价不合理。且当验证点聚集现象发生在某一错误分类对象上时,势必造成分类结果评价不准确。比如,图1(b)中左上角的分类错误显然比左下角分类错误给分类精度造成的影响更大。

图 1. 规则验证点和随机验证点对比示意图。(a)规则验证点;(b)随机验证点

Fig. 1. Diagrams of regular verification points and random verification points. (a) Regular verification points; (b) random verification points

下载图片 查看所有图片

3 实验设计

3.1 实验数据

本文采用某城市郊区的高分二号遥感图像作为数据源,其空间分辨率为1 m,图像拍摄时间为2015年3月21日,研究数据为经过大气校正、几何校正等处理后的数据。研究区域为800 pixel×800 pixel的区域,图像中的地物类别包括道路、植被、建筑、水体和裸地5类,参与分类的波段为红(R)、绿(G)、蓝(B)、近红外(NIR),实验得到的高分二号(GF-2)融合图像如图2所示。

图 2. 高分二号(GF-2)融合图像

Fig. 2. Fusion image of GF-2

下载图片 查看所有图片

3.2 实验比较

在对面向对象分类的结果评价中,需要建立验证样本点以对分类结果进行精度评定。本文分别采用规则验证点和随机验证点进行实验,并对面向对象分类中常用的SVM、CART决策树和KNN等方法进行比较。在本实验中,SVM采用径向基核函数(RBF),其中C惩罚系数为2,KNN的最近邻距离的取值为1。

为了对精度评定结果进行系统的比较,分别将验证点的数量(N)设置为50,100,150,200,250,300,其中规则验证点的创建效果如图3所示。

图 3. 规则验证点创建。(a) N=50;(b) N=100;(c) N=150;(d) N=200;(e) N=250;(f) N=300

Fig. 3. Creation of regular verification points. (a) N=50; (b) N=100; (c) N=150; (d) N=200; (e) N=250; (f) N=300

下载图片 查看所有图片

4 实验结果与分析

将SVM、CART决策树和KNN用于遥感图像分类,并采用规则验证点和随机验证点分别对分类结果进行精度评定。三种分类方法在不同数量验证点情况下所得的总体分类精度(OA)和Kappa系数分别如表1,2,3所示。

表1可以看出,在对采用SVM进行分类后结果的精度评价中,当验证点数量为50时,基于规则验证点的方法的总体分类精度为65.10%、Kappa系数为0.440,远高于基于随机验证点的方法的总体分类精度(46.30%)和Kappa系数(0.205)。随着验证点数量的增加,总体分类精度和Kappa系数呈上升趋势,并在验证点数量达到200时,基于规则验证点和随机验证点的方法的精度评定指标都达到峰值,此时基于规则验证点的方法的总体分类精度

表 1. 不同数量验证点下的SVM分类结果

Table 1. SVM classification results under different numbers of verification points

Number of verification pointsOA of regular verification points /%OA of random verification points /%Kappa coefficient of regular verification pointsKappa coefficient of random verification points
5065.1046.300.4400.205
10077.8562.420.6420.438
15087.1159.060.8080.395
20087.9286.360.8100.801
25080.5463.760.6930.462
30083.2261.740.7340.450

查看所有表

表 2. 不同数量验证点下的CART决策树分类结果

Table 2. CART decision tree classification results under different numbers of verification points

Number of verification pointsOA of regular verification points /%OA of random verification points /%Kappa coefficient of regular verification pointsKappa coefficient of random verification points
5086.5861.070.7980.455
10085.9083.220.7950.751
15086.5883.900.8010.767
20091.9486.580.8740.810
25088.6081.200.8300.732
30087.2581.810.8100.748

查看所有表

为87.92%、 Kappa系数为0.810,而基于随机验证点的方法的总体分类精度为86.36%、Kappa系数为0.801。在实验过程中,随着验证点数量的变化,不同验证点的总体分类精度和Kappa系数波动较大,其中基于规则验证点的方法的总体分类精度和Kappa系数分别变化了22.82个百分点和0.370,基于随机验证点的方法的总体分类精度和Kappa系数分别变化了40.06个百分点和0.596,这说明基于随机验证点的方法的结果受验证点数量变化的影响更大。面向对象分类是以对象为基础的分类方法,随着验证点在同一对象上分布密度的上升,错误分类增加了分类后精度降低的概率。当验证点数量超过200时,总体分类精度和Kappa系数呈下降趋势,因此,在实验过程中应选择最佳验证点数量。

表 3. 不同数量验证点下的KNN分类结果

Table 3. KNN classification results under different numbers of verification points

Number of verification pointsOA of regular verification points /%OA of random verification points /%Kappa coefficient of regular verification pointsKappa coefficient of random verification points
5081.5665.600.7420.499
10080.4183.840.7130.769
15081.9672.000.7370.586
20094.6386.580.9180.810
25082.9971.200.7510.595
30083.3381.810.7660.748

查看所有表

表2可得,在CART决策树的分类精度评价中,当验证点数量为50时,基于规则验证点的方法的总体分类精度和Kappa系数分别为86.58%和0.798,较基于随机验证点的方法的61.07%和0.455分别提高了25.51个百分点和0.343。随着验证点数量的变化,总体分类精度和Kappa系数的波动较为平缓,但基于规则验证点的方法的总体分类精度均优于基于随机验证点的方法。其中,在验证点数量为200时,基于规则验证点的方法和基于随机验证点的方法的总体分类精度最优。此时,基于规则验证点的方法的总体分类精度和Kappa系数分别为91.94%和0.874,基于随机验证点的方法的总体分类精度和Kappa系数分别为86.58%和0.810。

表3可知,在KNN分类中,当验证点数量为50时,基于规则验证点的方法的总体分类精度为81.56%、Kappa系数为0.742,基于随机验证点的方法的总体分类精度为65.60%、Kappa系数为0.499。随着验证点数量的变化,KNN分类的总体分类精度和Kappa系数存在一定的波动性,其波动大小介于SVM和CART决策树之间。同样,KNN分类的结果在验证点数量为200时达到最优,即基于规则验证点的方法的总体分类精度和Kappa系数分别为94.63%和0.918,而基于随机验证点的方法的总体分类精度和Kappa系数分别为86.58%和0.810。

为了进一步比较SVM、CART决策树和CNN三种方法的分类结果,作出三种方法的最优分类精度图(图4)。当在对遥感图像的面向对象分类中使用规则验证点进行精度评价时,SVM分类的总体分类精度最优可达到87.92%,CART决策树和KNN分别为91.94%和94.63%,三种方法的最优总体分类精度分别较使用基于随机验证点的方法时提高了1.56,5.36, 8.05个百分点。三种方法在采用规则验证点进行精度评价时,Kappa系数最高可分别达到0.810,0.874,0.918,分别较基于随机验证点的方法提高了0.009,0.064,0.108。

图 4. 三种方法的分类结果比较。(a)总体分类精度;(b) Kappa系数

Fig. 4. Comparison of classification results of three methods. (a) Overall classification accuracy; (b) Kappa coefficient

下载图片 查看所有图片

5 结论

与仅利用光谱信息的基于像素的分类方法相比,面向对象分类方法综合考虑了图像的光谱、空间和纹理等多种特征信息,对边界模糊、类型复杂多样的遥感图像具有更好的识别能力,能够较好地提高分类精度。其中精度评定是评价分类效果的重要指标,采用随机验证点对面向对象分类的结果进行精度评定时容易造成评定的分类精度不高。采用SVM、CART决策树和KNN三种分类方法对遥感图像进行面向对象分类,并在不同数量的验证点下分别利用基于规则验证点和随机验证点的方法对分类结果进行精度评定。实验结果表明,不论验证点的数量如何变化,所提方法均比基于随机验证点的方法得到的分类精度更高,且所提方法受验证点数量变化的影响更小,三种分类方法在规则验证点下的最优总体分类精度分别达到了87.92%、91.94%和94.63%。

参考文献

[1] Foody G M. Status of land cover classification accuracy assessment[J]. Remote Sensing of Environment, 2002, 80(1): 185-201.

[2] Gong X Q, Shen L, Lu T D. Refining training samples using median absolute deviation for supervised classification of remote sensing images[J]. Journal of the Indian Society of Remote Sensing, 2019, 47(4): 647-659.

[3] Myint S W, Gober P, Brazel A, et al. Per-pixel vs. object-based classification of urban land cover extraction using high spatial resolution imagery[J]. Remote Sensing of Environment, 2011, 115(5): 1145-1161.

[4] Chen F, Yu H, Hu R. Shape sparse representation for joint object classification and segmentation[J]. IEEE Transactions on Image Processing, 2013, 22(3): 992-1004.

[5] 孙坤, 鲁铁定. 顾及多尺度分割参数的FNEA面向对象分类[J]. 测绘通报, 2018( 3): 43- 48.

    SunK, Lu TD. Research on FNEA object-oriented classification based on multi-scale partition parameters[J]. Bulletin of Surveying and Mapping, 2018( 3): 43- 48.

[6] 王民, 樊潭飞, 贠卫国, 等. PFWG改进的CNN多光谱遥感图像分类[J]. 激光与光电子学进展, 2019, 56(3): 031003.

    Wang M, Fan T F, Yun W G, et al. PFWG improved CNN multispectra remote sensing image classification[J]. Laser & Optoelectronics Progress, 2019, 56(3): 031003.

[7] 王艳琦, 秦福莹, 银山, 等. 基于GF-1卫星数据与面向对象分类的达里诺尔湿地自然保护区土地覆盖信息提取[J]. 中国农学通报, 2019, 35(10): 137-141.

    Wang Y Q, Qin F Y, Yin S, et al. Land cover information extraction of dalinuoer wetland nature reserve: Based on GF-1 satellite data and object-oriented classification[J]. Chinese Agricultural Science Bulletin, 2019, 35(10): 137-141.

[8] 马燕妮, 明冬萍, 杨海平. 面向对象影像多尺度分割最大异质性参数估计[J]. 遥感学报, 2017, 21(4): 566-578.

    Ma Y N, Ming D P, Yang H P. Scale estimation of object-oriented image analysis based on spectral-spatial statistics[J]. Journal of Remote Sensing, 2017, 21(4): 566-578.

[9] 雷钊, 习晓环, 王成, 等. 决策树约束的建筑点云提取方法[J]. 激光与光电子学进展, 2018, 55(8): 082803.

    Lei Z, Xi X H, Wang C, et al. Building point clouds extraction from airborne LiDAR data based on decision tree method[J]. Laser & Optoelectronics Progress, 2018, 55(8): 082803.

[10] 梁林林, 江利明, 周志伟, 等. 无人机遥感影像面向对象分类的冻土热融滑塌边界提取[J]. 国土资源遥感, 2019, 31(2): 180-186.

    Liang L L, Jiang L M, Zhou Z W, et al. Object-oriented classification of unmanned aerial vehicle image for thermal erosion gully boundary extraction[J]. Remote Sensing for Land & Resources, 2019, 31(2): 180-186.

[11] Jin B X, Ye P, Zhang X Y, et al. Object-oriented method combined with deep convolutional neural networks for land-use-type classification of remote sensing images[J]. Journal of the Indian Society of Remote Sensing, 2019, 47(6): 951-965.

[12] 陈丽萍, 孙玉军. 基于不同决策树的面向对象林区遥感影像分类比较[J]. 应用生态学报, 2018, 29(12): 3995-4003.

    Chen L P, Sun Y J. Comparison of object-oriented remote sensing image classification based on different decision trees in forest area[J]. Chinese Journal of Applied Ecology, 2018, 29(12): 3995-4003.

[13] 杨斌, 王翔. 基于深度残差去噪网络的遥感融合图像质量提升[J]. 激光与光电子学进展, 2019, 56(16): 161009.

    Yang B, Wang X. Boosting quality of pansharpened images using deep residual denoising network[J]. Laser & Optoelectronics Progress, 2019, 56(16): 161009.

龚循强, 刘星雷, 鲁铁定, 刘丹. 基于规则验证点的面向对象分类精度评价[J]. 激光与光电子学进展, 2020, 57(24): 241102. Xunqiang Gong, Xinglei Liu, Tieding Lu, Dan Liu. Accuracy Assessment of Object-Oriented Classification Based on Regular Verification Points[J]. Laser & Optoelectronics Progress, 2020, 57(24): 241102.

本文已被 1 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!