激光与光电子学进展, 2019, 56 (8): 081001, 网络出版: 2019-07-26   

一种基于增强卷积神经网络的病理图像诊断算法 下载: 1243次

Algorithm for Pathological Image Diagnosis Based on Boosting Convolutional Neural Network
作者单位
天津大学电气自动化与信息工程学院, 天津 300072
摘要
自动病理图像诊断是医学图像分析的一个重要课题,实现精确诊断的前提是提取健康与患病组织的形态特征。本文以深度神经网络为工具,提出一种增强卷积网络模型,通过训练一对互补的卷积神经网络,以优化病理图像诊断准确率。由于病理图像获取成本较高,为降低因训练样本数量有限造成的过拟合风险,算法首先训练基本网络,来估计病理图像中各局部组织患病的概率,之后训练另一异构网络,对基本网络的判决结果进行修正。实验在宾夕法尼亚州立大学动物诊断实验室提供的肾、肺、脾组织数据集与淋巴结癌症转移检测数据集上展开,实验结果表明所设计模型在不同器官的病理图像上均表现出较高的诊断准确率。
Abstract
Automatic pathological image diagnosis is an important topic in medical image analysis, and the prerequisite for an accurate pathological image diagnosis is to capture the distinctive morphological features of normal and abnormal tissues. With a deep neural network as a tool, a boosting convolutional neural network is proposed, in which a pair of complementary networks is trained to optimize the accuracy of a pathological image diagnosis. To reduce the risk of over-fitting caused by the scarce training examples due to the high cost of obtaining pathological images, in the proposed algorithm, a basic classifier is first trained to estimate the probabilities of local tissues being abnormal, and then another heterogeneous network is trained to correct the predictions made by the basic one. The extensive experiments are carried out on the Cancer Metastasis Detection on Lymph Node dataset and the Animal Diagnostics Lab dataset provided by Pennsylvania State University which contains the pathological images of three organs (i.e., kidney, lung and spleen). The experimental results show that the proposed model can be used to achieve a high accuracy on the pathological images of different organs.

1 引言

病理切片在疾病诊断中发挥着巨大作用,准确的病理切片诊断能有效协助医生针对疾病制定最佳治疗方案[1],因此病理切片诊断是医学图像分析领域中的一个重要课题。传统人工诊断方法需要医生在显微镜下对细胞的形态等特征进行分析,不仅需要投入大量时间,也容易受经验等主观因素的限制影响诊断结果[2]。为了帮助医生缓解在病理切片诊断上的压力和实现更客观的诊断,人们开始研究使用计算机来协助医生对细胞进行诊断,并设计了计算机辅助诊断(Computer Aided Diagnosis,CAD)系统[3]。CAD系统能发现人眼无法获取的细胞组织内在信息,自动对病理切片中组织是否病变进行诊断,解决了人工病理切片图像诊断中存在的耗时大、主观性强及准确率低等问题。病变与健康组织通常表现为细胞形态上的差异,所以细胞的纹理、大小等形态特征是CAD系统做出准确诊断的重要依据[4-5]。常用的CAD方法主要有稀疏编码和深度神经网络。

稀疏编码是一种有效的特征提取方法,其基本思想是利用一组“超完备”基向量实现对输入样本的稀疏表示。Guo等[6]在稀疏性约束的条件下将细胞的概率分布表征为专家乘积模型,并将多个模型的响应值拼接成用于分类的特征。Vu等[7]提出了可区分的定向特征字典学习算法,针对每一类样本中细胞的形态特征,学习专属于此类样本的稀疏字典,并用稀疏字典对测试样本进行表示。文献[ 8]构建了一个同步的稀疏模型,将训练图像的颜色通道进行稀疏线性组合,通过优化病理图像的稀疏表示来获取用于病理诊断的特征。

深度神经网络能自动学习病理图像中细胞的形态等抽象特征,从而有效识别细胞是否发生病变。卷积神经网络(Convolutional Neural Network,CNN)是视觉信息处理中应用最广泛的一种深度网络结构,是图像分类、图像检索[9]及图像超分辨率研究[10]等领域的重要手段。CNN能通过卷积操作提取病理图像的空间与颜色通道间的非线性关系。Yonekura等[11]用CNN分析脑胶质瘤病理切片图像特征,以实现对肿瘤等级的判断。文献[ 12]利用有标签的成对结肠切片图像训练CNN的特征学习能力,使用训练好的CNN对无标签的图像进行标注,并通过逐渐加入新标注的图像对网络参数进行调整,提升网络对细胞核的识别能力。文献[ 1]中使用GoogleNet[13]学习乳腺癌病理切片图像中的组织抽象特征,并加入数据增强与迁移学习来避免过拟合。褚晶辉等[14]也将CNN与迁移学习进行结合对乳腺癌病理图像进行诊断,获得很好的诊断性能。此外,郑群花等[2]首先采用AlexNet[15]网络对乳腺癌病理切片图像块进行分类,并对多个图像块的分类结果进行多数投票。

上述稀疏特征提取算法主要针对每一类样本提取其中的细胞形态特征,从而实现病理图像的诊断。然而每一类细胞的形态变化多样,而且一些病变细胞与健康细胞的形态非常相似[16],导致算法的诊断准确率较低。此外,基于CNN的病理切片图像诊断算法大多利用单一的网络提取病理切片图像中细胞的特征,而特征提取依赖于网络结构和网络中的卷积核,所以网络结构和卷积核数量的限制导致网络对细胞特征学习具有局限性。不同于以上算法,本文采用补偿的思想,提出一种基于增强卷积网络(BCNN)的病理图像诊断模型。训练一个卷积网络作为基本分类器(BC),对图像中组织发生病变的概率进行估计,以真实标签与概率的差值为目标训练一个增强网络对概率进行补偿。本文在不同类型的病理切片图像上验证了所提模型的性能,该模型对宾夕法尼亚州立大学动物诊断实验室(ADL)提供的数据集中肾、肺、脾三个器官的图像级诊断准确率均在90%以上;对淋巴结癌症转移检测(Camelyon16)数据集的图像块级诊断准确率为93.3%。

2 基于增强卷积网络的病理图像诊断模型

2.1 图像预处理

为了获取病理切片中细胞的局部特征信息,将病理切片图像截取为图像块作为卷积网络的训练样本。在训练图像上以40 pixel为步长,从上到下、从左到右滑动,截取尺寸为80 pixel×80 pixel的图像块用于训练。因为对病理切片染色、扫描及病变区域标注等操作的成本较高,所以可用于训练的病理切片图像的数量有限,而卷积网络需要大量的样本来训练才能准确地提取细胞特征,否则容易出现过拟合现象。为了有效提取细胞特征,本文对训练样本进行扩充,采用随机旋转90°/180°/270°、左下平移截取后再放大、左右及上下镜像4种扩充方式,将样本集扩充为原来的5倍。经过上述方式扩充的图像块与基本图像块相比,只有细胞的空间布局发生改变,其几何形态与颜色等属性保持不变。为了减小因染色造成的色度不同及扫描时光照的变化等因素引起的病理切片图像差异对诊断结果的影响,统一将训练样本归一化为零均值、单位方差。

2.2 增强卷积网络模型

卷积神经网络中的卷积核能够学习病理切片图像中细胞局部区域的非线性关系,并提取人工无法得到的抽象特征,从而实现对病理切片图像的精确识别。因此本文训练一个卷积神经网络作为基本分类器,用以估计细胞发生病变的概率。病理切片图像中的每一类细胞的纹理与大小等变化多样,但是一些患病与健康细胞的形态却非常接近,以上问题增加了深度网络准确识别细胞组织病变与否的难度,使得诊断准确率较低,难以满足临床诊断的高标准要求。常用的解决方法是多次将诊断错误的样本加入训练集后再次训练分类器,增大诊断错误的样本在训练集中所占比重,使得分类器主要针对这些样本进行特征学习。但是多次使用诊断错误样本训练网络容易产生过拟合现象。为此,采用补偿的方法,在基本分类器的基础上,训练一个增强卷积网络对基本分类器的输出值进行修正。所提模型的训练过程如图1所示。

图 1. 增强卷积网络模型的训练过程

Fig. 1. Training process of boosting convolutional neural network model

下载图片 查看所有图片

2.2.1 基本分类器模型

AlexNet在自然图像识别中应用广泛,能够以较少的参数量实现优异的识别性能。病理切片图像虽然与自然图像有明显差异,但是图像中细胞是否发生病变主要反映于细胞质与细胞核的形态变化,而这些形态变化体现在形状、纹理及颜色等特征上。经过自然图像预训练的AlexNet能够学习到自然图像的基本视觉属性,所以网络中的卷积核有助于学习病理图像的细胞形态特征。本文以在ImageNet上预训练的AlexNet的卷积层作为基本分类器的特征提取单元,且在卷积层后设置节点数分别为2048、1000、500、2的4个全连接层,输出层采用Softmax函数输出两个值,一个为组织患病的概率,另一个为组织健康的概率,两概率之和为1。在训练过程中,患病样本的标签为1,健康样本的标签为0。

训练数据集由从病理图像中滑动截取的基本图像块与扩充图像块组成。因扩充图像块的属性与基本图像块完全相同,故与基本图像块有相同的标签。一个理想的分类器对图像样本输出值不会因图像中细胞的空间位置变化而有所不同,所以基本分类器对扩充图像块与基本图像块的输出值应具有一致性。为了衡量这种一致性,在基本分类器的损失函数中加入一项yvar。设基本图像块总数为N,第i个基本图像块为 xi0,其扩充图像块为 xi1,…, xiM,M为扩充图像块数量,则基本图像块与扩充图像块共同构成子集Xi={ xi0, xi1,…, xiM}。因基本分类器的输出层有两个节点,一个对应组织患病概率,一个对应组织健康概率,且和为1,故取组织患病概率作为基本分类器的输出值。设基本分类器对子集Xi中所有图像块的输出值构成集合 Y˙i={ y˙i0, y˙i1,…, y˙iM},其中 y˙ij为基本分类器对子集Xi中第j个图像块的输出值,令

μi=1M+1j=0My˙ij,(1)

yvar=1M+1i=0N-1j=0M(y˙ij-μi)2(2)

设训练样本集为X=X1X2∪…∪XN,训练样本的标签集合为L=L1L2∪…∪LN,其中Li={ li0, li1,…, liM}表示由子集Xi中所有图像块的标签构成的集合。定义基本分类器的损失函数J

J=i=0N-1j=0M(lij-y˙ij)2+αyvar+βc=1C|Wc||22,(3)

式中: lij∈{0,1}为子集Xi中第j个图像块的标签;因 li1,…, liM为由 xi0扩充而来的图像块的标签,则有 li0= li1=…= liM;Wc为第c个全连接层的权重;C为基本分类器的全连接层个数;第3项为正则化项,用于防止过拟合;αβ为系数,平衡公式每一项的比重。

2.2.2 增强卷积网络模型

虽然AlexNet能够对病理图像进行较准确的诊断,但仍存在分类错误的情况,说明AlexNet对图像样本中细胞的特征学习能力具有局限性。为了进一步减少分类错误情况的发生,训练一个增强网络对基本分类器的输出值进行补偿。卷积网络主要依靠卷积核学习病理切片图像中的细胞组织特征,若采用与基本分类器相同的网络作为增强网络,其结构与卷积核数量并未发生变化,可能无法提升性能。因此,为了提高网络的特征学习能力,选择预训练的VGG16[17]的变形网络作为增强网络,实现对基本分类器输出值的修正。

保持VGG16网络的卷积层不变,在卷积层后设置4个全连接层,且前3个全连接层的节点数与基本分类器的前3个全连接层节点数相同。不同于基本分类器,增强网络采用随机纠正线性单元(Leaky-ReLU)激活函数,最后一个全连接层的节点数为1。因为增强网络的训练目标是样本标签与基本分类器输出值之差,所以增强网络的输出层采用Tanh函数输出一个范围为-1~1的修正值。

增强网络的训练样本集同样为X,网络输出的目标值为Δ=δ1δ2…∪δN,其中δi={ δi0, δi1,…, δiM}为子集Xi中各图像块的真实标签与基本分类器输出值的差值构成的集合。设增强网络对子集Xi中各图像块的输出值构成的集合为Ei={ ei0, ei1,…, eiM},定义增强网络的损失函数Jb

Jb=i=0N-1j=0M(δij-eij)2+ηp=1P|W˙p||22,(4)

式中: eij为增强网络对子集Xi中第j个图像块的输出值; W˙p为增强网络的第p个全连接层权重; δij为子集Xi中第j个图像块的真实标签与基本网络输出值的差值;η为正则项系数。

增强网络训练完成后,以基本分类器与增强网络对图像块的输出值之和作为图像块患病的最终概率值。子集Xi中第j个图像块患病的最终概率值 yij的计算公式为

yij=y˙ij+eij(5)

2.3 病理图像分类

每一个测试图像块经过训练好的基本分类器与增强网络模型的计算后,可分别得到其发生病变的概率值 y˙与修正值e,并将二者相加作为最终图像块的患病概率,测试过程如图2所示。为了衡量所提模型的性能,分别计算了该模型对病理切片图像的图像块级与图像级的诊断准确率。在计算图像块级准确率时,要在一个阈值下将图像块进行分类,然后计算错误拒绝率(FRR)和错误接收率(FAR)。然而FRR和FAR两个指标与阈值有关,所以为便于性能对比,选择独立于阈值的指标——等错误率(EER)来衡量模型的块级诊断性能。在0~1范围内以一定的步长分别产生对应的阈值点,并在每个阈值下,将患病概率高于阈值的图像块分为患病类,低于阈值的图像块分为健康类,然后计算比率PFARPFRR。随着阈值的增大,PFRR逐渐增大,而PFAR逐渐减小,当PFRRPFAR达到相等时,PFRRPFAR之和最小,而PFRRPFAR的共同值即为PEERPFRRPFAR的计算公式分别为

PFRR=NFNNFN+NTP,(6)PFAR=NFPNFP+NTN,(7)

式中:NFN为患病图像块中被分为健康类的数量;NTP为患病图像块中被分类正确的数量;NFP为健康图像块中被分为患病类的数量;NTN为健康图像块中被分类正确的数量。图像的块级分类准确率可表示为

P=1-PEER(8)

为了从图像级判断整张图像是否发生病变,在图像块级的等错误率对应的阈值下,将来自同一张测试图像的图像块进行分类。分类后计算在每张图像上患病图像块所占比例,并以该比例为依据,计算图像级诊断的等错误率,然后以1与等错误率的差值作为图像级的诊断准确率。

图 2. 增强卷积网络模型的测试过程

Fig. 2. Test process of boosting convolutional neural network model

下载图片 查看所有图片

3 实验结果

为了验证所提模型的性能,本研究分别在两种不同类型的病理切片图像上进行了测试。由宾夕法尼亚州立大学提供的ADL数据集为哺乳动物的肾、肺、脾三个器官的病理切片图像,淋巴结癌症转移检测数据集Camelyon16为乳腺癌前哨淋巴结病理切片图像。

3.1 ADL数据集实验结果

ADL数据集中包括由肾、肺、脾三种器官的图像构成的三个子数据集,实验时分别在每个子数据集中随机取患病和健康两类图像各40张用于训练[7],110张用于测试。因为数据集中的每张图像尺寸均为1024 pixel×1360 pixel,故在每张图像中共产生782张尺寸为80 pixel×80 pixel的图像块。由于在患病图像中患病细胞占主体,因此在患病图像中截取的图像块都属于患病类。同样地,健康图像中获得的图像块都属于健康类。完成取块后,对两类图像块进行扩充后作为训练样本。

在训练过程中,所提模型中基本分类器的学习率设为5×10-4,训练1.2×104次;增强卷积网络的学习率设为1×10-4,训练4×104次。α为一致性约束项的系数,若该值太小,则无法起到约束作用;若值太大,则容易导致函数中各项不平衡。为了保证上述性能,设α=10。βη分别为基本分类器与增强网络的正则项系数,用来防止网络出现过拟合现象。若该系数值太大,容易导致网络偏向优化全连接层参数,使参数接近于0;若值太小,则导致网络无法实现防止过拟合的作用。为了保证正则项的功能,设定β=10-3η=9×10-3。基本分类器与增强网络均采用RMSProp优化器,动量系数为0.9。网络训练采用批量随机梯度下降法,每次在两类训练样本中各随机选择20个图像块,并取相同数量的对应扩充图像块构成一个批量样本。

实验过程中,分别对3个子数据集训练其相应的增强卷积网络模型,并计算图像块级与图像级的诊断准确率。本实验比较了基本分类器与所提模型对3个子数据集的图像块级与图像级的诊断准确率,对比结果如表1所示。由表1可知,在图像块级诊断上,所提模型对3个子数据集的诊断准确率均比基本分类器提升了1%以上,尤其对器官肺的诊断准确率提高了2%。在图像级诊断上,所提模型对肾、肺两个器官的诊断准确率相比于基本分类器提高了0.9%,即对110张测试图像修正了1张分类错误的图像。所提模型对3个子数据集的诊断准确率说明,增强网络可以突破基本分类器学习能力的局限性,有效实现对基本分类器输出值的修正。

表 1. 肾、肺与脾的图像块级与图级诊断准确率

Table 1. Patch-level and image-level diagnosis accuracies of kidney, lung and spleen%

MethodKidneyLungSpleen
PatchImagePatchImagePatchImage
Basic classifier82.8092.7391.3198.1890.9898.18
Proposed84.1593.6493.3199.0992.1098.18

查看所有表

当患病与健康两类图像的诊断错误数量之和最小时,实验中计算了所提模型对每个器官患病与健康图像各自的诊断准确率,并与针对ADL数据集实现诊断任务的PoE(Product of Experts)算法[6]和DFDL(Discriminative Feature-Oriented Dictionary Learning)算法[7]的准确率进行比较,不同算法对3个器官的诊断结果如表2所示。

表 2. 肾、肺与脾图像的诊断结果

Table 2. Diagnosis results of kidney, lung and spleen images%

ClassKidneyLungSpleenMethod
HealthyInflammatoryHealthyInflammatoryHealthyInflammatory
88.1911.8184.5515.4591.478.53PoE
Healthy88.2111.7996.523.4892.887.12DFDL
96.363.6499.090.91100.000.00Proposed
14.9685.047.3292.6810.0889.92PoE
Inflammatory9.9290.082.5797.437.8992.11DFDL
7.2892.720.00100.001.8298.18Proposed

查看所有表

表2可知,本模型对3种器官的患病与健康两类图像的诊断准确率都高于其他两种算法,且都高于90%。对于器官肾的图像,本模型对健康图像的诊断准确率比DFDL算法提高约8%,对患病图像的准确率提高约2%。在对器官肺的诊断中,所提模型对110张健康图像只诊断错误1张,对110张患病图像能全部诊断正确。此外,对于器官脾,本模型对患病与健康两类图像的诊断准确率均高于排名第二的DFDL算法6%以上,尤其对健康图像的诊断准确率达到100%。上述实验结果说明,相比于DFDL与PoE算法,所提模型中两个网络的卷积操作可以自动提取图像样本中对诊断有利的非线性组织特征,且增强网络可以辅助基本网络进行特征学习,对形态相似的两类细胞也能实现准确区分。

3.2 Camelyon16数据集实验结果

为了进一步验证所提算法的性能,将本模型用于图像更复杂的Camelyon16数据集,实现对数据集的图像块级诊断。Camelyon16数据集中的患病切片图像中既包含患病组织,也包含健康组织,且两类组织区域间无明显界限,因此对患病与健康组织的交界处实现准确诊断相对困难。此外,Camelyon16数据集中的病理切片图像由两个机构提供,图像颜色有较大差异,且最大放大倍率下的图像尺寸很大。Camelyon16数据集包含270张训练图像和129张测试图像,其中训练图像中有160张健康图像,110张患病图像;测试图像中有80张健康图像,49张患病图像。该数据集中的每张图像切片在放大40倍下有接近2×1010个像素点,其中将近80%为白色底片背景。

为了减少计算量,先在6级放大倍率下提取切片中的有效组织区域,然后把区域坐标映射到最高放大倍率下进行取块。本研究采取的操作如下:1)对切片的灰度级图像采取Otsu方法[18]得到一个阈值;2)在阈值下将灰度级图像转化为二值图。得到有效组织区域后,将组织区域坐标经过26倍扩大映射到最高放大倍率图像中,并在区域中滑动截取256 pixel×256 pixel的图像块,然后对图像块做分类处理。病变区域面积大于20%的图像块被判为患病样本,其余为健康样本。分类完成后,分别在患病与健康样本中随机采样相同数量的样本,并对样本进行扩充作为训练样本集,扩充方式为随机旋转90°/180°/270°,左下平移截取并放大,左右及上下镜像。

因为网络主要依据图像块中细胞的形状、纹理等特性来实现细胞诊断,图像的缩放不影响上述特性,所以为了减少网络训练时间,将图像块统一缩放为80 pixel×80 pixel的图像块并作归一化处理。基本分类器训练2.6×105次,增强网络训练1.3×105次,其余参数设置与ADL数据集实验相同。每张测试图像被截取为256 pixel×256 pixel的图像块,且所有图像块被缩放为80 pixel×80 pixel后输入到训练好的基本分类器与增强网络中。实验分别计算了所提模型与基本分类器的图像块级诊断准确率,基本分类器的图像块级诊断准确率为91%,所提模型的图像块级诊断准确率为93.3%,比基本分类器提高了2% 以上。实验说明采用异构网络进行特征联合学习,能够补偿单一网络的特征学习能力,提取更准确的细胞抽象特征,使得经过修正后的概率值更接近样本真实标签。

此外,将所提模型与针对Camelyon16数据集实现图像块级诊断的IMSLN(Identifying Metastases in Sentinel Lymph Nodes)[19]与IMBC(Identifying Metastatic Breast Cancer)[20]的图像块级诊断准确率进行了比较,结果如表3所示。由表3可知,所提模型的图像块级的诊断准确率高于以上两种算法。

表 3. Camelyon16数据集中图像的块级诊断准确率

Table 3. Patch-level diagnosis accuracies of images in Camelyon16 dataset%

MethodAccuracy
IMBC92.1
IMSLN92.7
Proposed93.3

查看所有表

4 结论

为了提高病理切片图像的诊断准确率,提出一种基于增强卷积网络的病理图像诊断模型。本模型训练一个基本分类器对图像块中的组织进行特征学习,并估计组织患病的概率值;以概率值为基础,计算图像块真实标签与概率值的差值,并将此差值作为目标训练一个增强网络,使其输出对概率值的补偿值,以实现对概率值的修正。实验证明增强网络可以克服基本分类器的特征学习局限,实现与基本分类器的特征学习互补。本文在ADL数据集与Camelyon16数据集上验证了本模型的性能。结果表明,所提模型与其他代表性算法相比,能实现更加准确的病理图像诊断。

参考文献

[1] 何雪英, 韩忠义, 魏本征. 基于深度学习的乳腺癌病理图像自动分类[J]. 计算机工程与应用, 2018, 54(12): 121-125.

    He X Y, Han Z Y, Wei B Z. Breast cancer histopathological image auto-classification using deep learning[J]. Computer Engineering and Applications, 2018, 54(12): 121-125.

[2] 郑群花, 段慧芳, 沈尧, 等. 基于卷积神经网络和迁移学习的乳腺癌病理图像分类[J]. 计算机应用与软件, 2018, 35(7): 237-242.

    Zheng Q H, Duan H F, Shen Y, et al. Breast cancer histological image classification based on convolutional neural network and transfer learning[J]. Computer Applications and Software, 2018, 35(7): 237-242.

[3] Gurcan M N, Boucheron L E, Can A. et al. Histopathological image analysis: A review[J]. IEEE Reviews in Biomedical Engineering, 2009, 2: 147-171.

[4] GianniniV, RosatiS, CastagneriC, et al. Radiomics for pretreatment prediction of pathological response to neoadjuvant therapy using magnetic resonance imaging: Influence of feature selection[C]∥2018 IEEE 15th International Symposium on Biomedical Imaging (ISBI 2018), April 4-7, 2018, Washington, DC, USA. New York: IEEE, 2018: 285- 288.

[5] Alzubaidi AK, Sideseq FB, FaeqA, et al. Computer aided diagnosis in digital pathology application: Review and perspective approach in lung cancer classification[C]∥2017 Annual Conference on New Trends in Information & Communications Technology Applications (NTICT), March 7-9 ,2017, Baghdad, Iraq. New York: IEEE, 2017: 219- 224.

[6] 郭琳琳, 李岳楠. 基于专家乘积系统的组织病理图像分类算法[J]. 激光与光电子学进展, 2018, 55(2): 021008.

    Guo L L, Li Y N. Histopathological image classification algorithm based on product of experts[J]. Laser & Optoelectronics Progress, 2018, 55(2): 021008.

[7] Vu T H, Mousavi H S, Monga V, et al. Histopathological image classification using discriminative feature-oriented dictionary learning[J]. IEEE Transactions on Medical Imaging, 2016, 35(3): 738-751.

[8] SrinivasU, MousaviH, JeonC, et al. SHIRC: A simultaneous sparsity model for histopathological image representation and classification[C]∥2013 IEEE 10th International Symposium on Biomedical Imaging, April 7-11, 2013, San Francisco, CA, USA. New York: IEEE, 2013: 1118- 1121.

[9] 李振东, 钟勇, 陈蔓, 等. 基于深度特征的快速人脸图像检索方法[J]. 光学学报, 2018, 38(10): 1010004.

    Li Z D, Zhong Y, Chen M, et al. Fast face image retrieval based on depth feature[J]. Acta Optica Sinica, 2018, 38(10): 1010004.

[10] 李素梅, 雷国庆, 范如. 基于双通道卷积神经网络的深度图超分辨率研究[J]. 光学学报, 2018, 38(10): 1010002.

    Li S M, Lei G Q, Fan R. Depth map super-resolution based on two-channel convolutional neural network[J]. Acta Optica Sinica, 2018, 38(10): 1010002.

[11] YonekuraA, KawanakaH, Peasath V B S, et al. Improving the generalization of disease stage classification with deep CNN for glioma histopathological images[C]∥2017 IEEE International Conference on Bioinformatics and Biomedicine (BIBM), November 13-16, 2017, Kansas City, MO, USA. New York: IEEE, 2017: 1222- 1226.

[12] ShaoW, SunL, Zhang DQ. Deep active learning for nucleus classification in pathology images[C]∥2018 IEEE 15th International Symposium on Biomedical Imaging (ISBI 2018), April 4-7, 2018, Washington, DC, USA. New York: IEEE, 2018: 199- 202.

[13] SzegedyC, LiuW, JiaY, et al. Going deeper with convolutions[C]∥2015 IEEE Conference on Computer Vision and Pattern Recognition(CVPR), June 7-12, 2015, Boston, MA, USA. New York: IEEE, 2015: 1- 9.

[14] 褚晶辉, 吴泽蕤, 吕卫, 等. 基于迁移学习和深度卷积神经网络的乳腺肿瘤诊断系统[J]. 激光与光电子学进展, 2018, 55(8): 081001.

    Chu J H, Wu Z R, Lü W, et al. Breast cancer diagnosis system based on transfer learning and deep convolutional neural networks[J]. Laser & Optoelectronics Progress, 2018, 55(8): 081001.

[15] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84-90.

[16] Lin HJ, ChenH, DouQ, et al. ScanNet: a fast and dense scanning framework for metastastic breast cancer detection from whole-slide image[C]∥2018 IEEE Winter Conference on Applications of Computer Vision (WACV), March 12-15, 2018, Lake Tahoe, NV, USA. New York: IEEE, 2018: 539- 546.

[17] SimonyanK, Zisserman A. Very deep convolutional networks for large-scale image recognition[EB/OL]. ( 2015-09-04)[2018-09-01]. org/abs/1409. 1556. https://arxiv.

[18] Otsu N. A threshold selection method from gray-level histograms[J]. IEEE Transactions on Systems, Man, and Cybernetics, 1979, 9(1): 62-66.

[19] ChenR, JingY, Jackson H. Identifying metastases in sentinel lymph nodes with deep convolutional neural networks[EB/OL]. ( 2016-08-04)[2018-09-01]. org/abs/1608. 01658. https://arxiv.

[20] WangD, KhoslaA, GargeyaR, et al. Deep learning for identifying metastatic breast cancer[EB/OL]. ( 2016-06-18)[2018-09-01]. org/abs/1606. 05718. https://arxiv.

孟婷, 刘宇航, 张凯昱. 一种基于增强卷积神经网络的病理图像诊断算法[J]. 激光与光电子学进展, 2019, 56(8): 081001. Ting Meng, Yuhang Liu, Kaiyu Zhang. Algorithm for Pathological Image Diagnosis Based on Boosting Convolutional Neural Network[J]. Laser & Optoelectronics Progress, 2019, 56(8): 081001.

本文已被 4 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!