激光与光电子学进展, 2020, 57 (24): 241025, 网络出版: 2020-12-09   

基于深度学习特征融合的视网膜图像分类 下载: 1420次

Deep Learning Feature Fusion-Based Retina Image Classification
作者单位
1 福州大学机械工程及自动化学院, 福建 福州 350108
2 福建医科大学附属第一医院, 福建 福州 350000
摘要
针对光学相干层析视网膜图像进行人工分类诊断时存在漏检、效率低等问题,提出一种基于深度学习技术构建联合多层特征的卷积神经网络分类算法。首先通过均值漂移和数据归一化算法对视网膜图像进行预处理,并结合损失函数加权算法解决数据不平衡问题;其次使用轻量深度可分离卷积替代普通卷积层,降低模型参数量,采用全局平均池化替换全连接层,增加空间鲁棒性,并联合不同卷积层构建特征融合层,加强层间特征流通;最后使用SoftMax分类器进行图像分类。实验结果表明,该模型在准确率、精确率、召回率上分别达到97%、95%、97%,缩短了识别时长,所提方法在视网膜图像分类诊断中具有良好的性能。
Abstract
Aim

ing at the problems of missed detection and low efficiency in manual classification and diagnosis of optical coherence tomography retina images, a deep learning-based convolutional network classification algorithm is proposed to construct joint multilayer features. First, retinal images are preprocessed using the mean shift and data normalization algorithm. The loss function weighting algorithm is combined to solve the data imbalance problem. Second, a lightweight deep separable convolution rather than an ordinary convolution layer is used to reduce the number of model parameters. Global average pooling replaces fully connected layers to increase spatial robustness, and different convolutional layers are used to build feature fusion layers to enhance feature circulation between layers. Finally, the SoftMax classifier is used for image classification. Experimental results show that the model can achieve 97%, 95%, and 97% in accuracy, precision, and recall, respectively, thereby reducing the recognition time. The proposed deep learning feature fusion-based method performs well in the classification and diagnosis of retinal images.

1 引言

糖尿病性视网膜病变是一种常见的眼科疾病,它是糖尿病引起的微血管并发症之一,也是一种不可逆致盲性疾病[1]。截至2017年,全球约有4.51亿人患有糖尿病,预计到2045年,这个数字将增加到6.93亿[2]。在中国,糖尿病患者中患视网膜病变者占比高达23%[3]

针对光学相干层析(OCT)获得的医学图像采用人工的方式进行病变诊断,存在许多问题,如医师阅片较慢、诊断过程中容易出现漏检和误检等[4]。而糖尿病视网膜病变(DR)患者数量较多,基层地区医疗资源匮乏,导致大量患者无法及时接受治疗,因此视网膜病变早期诊断尤为重要。近年来,卷积神经网络(CNN)在计算机视觉领域表现优异,借助深度学习技术,构建计算机辅助诊疗系统,可以帮助医师对疾病进行初步筛查,甚至能够精确诊断出疾病类型[5]。深度学习模型能够提取图像更深层次的数据特征,弥补人类对于图像特征认知不足的缺陷,可以有效避免专业医师主观性漏诊和误诊情况的发生。目前,国内外基于深度学习进行视网膜OCT图像分类的成果有:王翀等[6]针对视网膜OCT图像构建了一种多分类器联合决策的卷积神经网络分类模型,最终模型的分类准确率、精确率、召回率分别达到89.6%、90.8%、88.6%;Bhowmik 等[7]采用迁移Inception-V3模型的方法对OCT视网膜进行分类,分类准确率可达92.6%;于海琛等[8]基于SE-Block构建视网膜OCT图像分类模型,最终分类准确率和精确率分别为94.1%、90.6%。与此同时,深度学习在其他图像领域识别任务中也取得了不错的分类性能[9-14]

基于深度学习方法对医学图像进行智能诊断,均取得了不错的效果[15],但训练模型时仍存在对设备要求较高、泛化能力弱、分类时长较长等缺点,且其分类准确率仍有待提高。本文提出联合不同卷积层特征进行OCT图像分类的方法,将高层特征和低层特征融合,提升了模型对图像的理解力,同时采用深度可分离卷积压缩模型大小,减少了可训练参数量,解决了训练难度大、诊断识别时长较长等问题。本文主要工作如下:1)对视网膜图像进行预处理,去除散斑噪声;2)设置类别权重,重新定义损失函数,解决数据不平衡问题;3)在模型中加入轻量深度可分离卷积层,替代原本的普通卷积层,以减小模型尺寸,降低可训练参数量;4)调整模型结构及其相关参数,通过可视化热力图优选卷积层,进而构建特征融合层,提高了模型的分类识别能力。最终模型的实时诊断时间大大缩短,模型尺寸大大降低,其在分类识别能力上已达专业医师的诊断水平。

2 本文方法

首先,在AlexNet的基础上构建CNN模型,但不加载模型预训练的权重,这是因为视网膜OCT数据集与ImageNet数据集不具有特征相似性。模型前两层的训练参数较大,占有70%以上的参数量,使用轻量深度可分离卷积层替换原本的普通卷积层,可以减小可训练参数和模型尺寸,然后在卷积层后加入批归一化(BN)层,将前一层的输出数据空间分布进行标准化,更好地提取图像数据更深层次的数据特征,并在卷积层中加入L2正则化,降低模型复杂度,减小过拟合的可能性。其次,采用全局平均池化(GAP)替换全连接层,使得输入数据的空间变化的鲁棒性更强。最后,融合不同层级特征,提升模型对于图像语义特征的表达能力,并使用 SoftMax分类器进行分类诊断。将构建的卷积神经网络定义为RongheNet模型,如图1所示。以下将介绍构建模型中用到的方法。

图 1. 卷积神经网络模型

Fig. 1. Convolutional neural network model

下载图片 查看所有图片

2.1 卷积神经网络

卷积神经网络使用局部感受野和权值共享机制,大幅减少了训练参数,使得深度网络模型的训练得以实现。CNN模型能够自发地从大量的训练样本中提取图像数据特征,可以解决由人为构造特征不当而导致的分类效果不佳的问题。

CNN主要有卷积层、池化层以及全连接层。卷积层中卷积核遍历特征图的局部区域进行卷积运算,提取所有位置上更为抽象的局部抽象特征。RongheNet模型中使用的卷积核尺寸为3×3,5×5,11×11,激活层均使用Relu激活函数。池化层采用最大池化法,池化层能够保留特征图的有效特征并减小其尺寸,从而有效控制过拟合现象,提高模型训练速度。

深度可分离卷积不同于普通卷积,将卷积过程分为两步,如图2所示,先对图像各个通道分别进行卷积运算,提取每个通道的特征,再使用1 × 1卷积核对各个通道提取特征进行综合,使用低维矩阵相乘,避免使用高维矩阵相乘,减少了模型训练参数,提升了模型在设备上的训练速度,压缩了模型大小,缩短了分类识别时长。

图 2. 卷积层结构对比。(a)普通卷积;(b)深度可分离卷积

Fig. 2. Convolutional layer structure comparison. (a) Ordinary convolution; (b) depth separable convolution

下载图片 查看所有图片

RongheNet模型使用Softmax作为输出决策层,在训练过程中通过反向传播不断优化交叉熵损失函数值,以提升模型分类性能,最终实现图像的分类识别。当数据之间分布差别较大时,由神经网络提取到的数据特征分布差异也较大,并且数据特征经过激活函数的非线性运算后,数据分布很可能发生改变,导致模型泛化能力差,因此需在模型中多次归一化数据分布。批归一化层[16]首先对输入数据x=(x(1),x(2),… ,x(n))进行归一化处理,即

x˙(n)=x(n)-μxσx2+ε,(1)

式中:μx为输入数据的均值; σx2为标准差;为了避免分母为0,在分母中加上接近0的值ε。若只将数据归一化至(-1,1)区间,则某些激活函数无法达到非线性变换的目的,将会削弱网络的性能,因此加入缩放因子γ(n)和移位因子β(n)进行数据重构,即

y(n)=γ(n)x˙(n)+β(n)(2)

在RongheNet模型的卷积层后加入BN层,以解决数据分布变化的问题,提升训练精度。

正则化的目的是限制参数数量,避免模型因过于复杂而发生过拟合现象。L2正则化则是直接在原来损失函数Lin的基础上加上权重参数w的平方和, 其中λ是正则化参数,表达式为

L=Lin+λjwj2(3)

数据的特征融合[17]分为两种方式:数据特征融合和决策特征融合。数据特征融合是将多层特征进行融合,以此提高模型对图像的表达能力。决策特征融合是将多个分类器预测结果进行决策融合。RongheNet模型使用数据特征融合,联合模型中多层卷积层构造特征融合层,以提升模型对OCT视网膜图像的分类性能。

2.2 预处理方法

为解决视网膜图像数据集中数据不平衡的问题,对于数据量较少的类别,赋予其较大的权重。在前向传播和反馈传播时,补偿对于数据量少类别的损失函数[18]值,使模型更加关注此类数据特征的学习,避免模型出现总体准确率高,但对于特定类别诊断分类性能极差的情况。权重设置公式为

αi=CallCCi,(4)

式中:C是类别数;Call,αiCi分别为数据总数、第i类类别权重和其数据总数。

OCT视网膜图像中存在大量的散斑噪声,使用均值漂移算法对图像进行平滑滤波处理,中和色彩分布相近的颜色,弱化面积较小的散斑噪声,以降低图像干扰噪声,突出病变关键部位,提升模型分类准确率。

3 分类实验

3.1 数据集简介

本文使用的数据集是加州大学圣地亚哥分校的Kermany等[19]在2018年发布的数据集。该数据集包括脉络膜新生血管(CNV)、糖尿病性黄斑水肿(DME)、玻璃膜疣(DRUSEN)、正常(NORMAL)4类,如图3所示,共计83484 张图像。

图 3. 数据集样本图。(a) CNV;(b) DME;(c) DRUSEN;(d) NORMAL

Fig. 3. Sample graphs of the dataset. (a) CNV; (b) DME; (c) DRUSEN; (d) NORMAL

下载图片 查看所有图片

本文将数据集按7∶2∶1的比例随机划分成训练集(train)、验证集(validation)、测试集(test),划分后数据集之间没有任何交叉,数据分布如表1所示。

表 1. OCT数据集划分情况

Table 1. Division of OCT dataset

Image typeNumber of images
TrainValidationTestTotal
CNV260437441372137205
DME79432270113511348
DRUSEN603117238628616
NORMAL184205263263226315
Total5843716697835083484

查看所有表

3.2 数据集预处理

当样本噪声多、不同类别数据不平衡时,需对其进行预处理操作,以提高模型提取特征的能力。由于OCT图像中存在大量的散斑噪声,影响模型对训练数据的特征提取,本研究使用均值漂移算法去除视网膜图像中的散斑噪声,如图4所示,并将数据集图像全部裁剪为299 pixel×299 pixel的图像。

图 4. 数据预处理。(a)OCT视网膜原图像;(b)均值漂移去散斑图像

Fig. 4. Image preprocessing. (a) Original image of OCT retina; (b)mean-shift removed speckle image

下载图片 查看所有图片

OCT视网膜数据集各类别数量分布不平衡,本次研究赋予数量较少类别较大的权重,以此解决数据不平衡的问题。各类别权重计算如(4)式所示。计算可得CNV, DME, DRUSEN,NORMAL的权重分别为0.561,1.840, 2.422, 0.7931。加权损失函数公式为

L=-1Mn=1Mi=1Cαi·yi(n)·lny˙i(n),(5)

式中,M是一个batch的样本数, yi(n)y˙i(n)分别代表实际值和预测值。如(5)式所示,数据量少的类别通过赋予较大的类别权重,增大其在损失函数中的比重,通过反向传播,调整参数,可以提升对于数据量少类别的分类准确率。

3.3 评价指标

本研究采用多种评价指标对模型进行评估,对于多类别分类问题,将当前预测类别定义为正类,其他类别定义为负类。则预测结果可分成4种情况:正类预测为正类(TP, RTP),正类预测为负类(FN, RFN),负类预测为负类(TN, RTN),负类预测为正类(FP, RFP)。

定义4种评价指标,如分类准确率[20] (Accuracy, Acc)、精确率(Precision,P)、召回率(Recall, Rrecall )、平均准确率(MA,AM) ,其具体表达式为

Acc=RTP+RTNRTP+RTN+RFP+RFN,(6)P=RTPRTP+RFP,(7)Rrecall=RTPRTP+RFN,(8)AM=1Ci=1Cai,(9)

式中ai为每个类别的准确率。

3.4 设置实验

实验在Intel i5-8500 CPU,内存为12 G,GeForce GTX1650显卡上进行,基于Tensorflow深度学习框架,利用Cuda10.0和CUDNN10.0加速模型训练。

在AlexNet的基础上,将5个卷积层特征图个数改为128、256、512、512、256,2个全连接层的个数改为128、64,分类器神经元改为4,定义其为SlimNet模型。在SlimNet模型基础上,在卷积层后都加上批归一化层,并进行L2正则化操作,其定义为BnL2Net模型。将前两层普通卷积层替换成轻量可分离卷积层,去除BnL2Net的两个全连接层,使用全局池化层,其定义为GAPNet模型。在第3个卷积层后加上全局平均池化层,并联合最后一层卷积层构建特征融合层,其定义为RongheNet模型。

本次研究设置了4组对照实验,以此验证不同网络模型对分类性能的影响。

实验一:验证类别权重对模型性能的影响。1)直接训练SilmNet模型;2)基于SlimNet模型进行类别权重设置,重新定义交叉熵损失函数后进行训练。

实验二:验证BN层和L2正则化对模型的影响。1)对SlimNet模型进行训练;2)对BnL2Net模型进行训练。

实验三:验证GAP层相比于全连接层对模型性能的影响,并检验轻量深度可分离卷积层对模型参数量和分类识别时长的影响。1)训练GAPNet模型;2)训练BnL2Net模型;

实验四:验证联合不同卷积层特征对模型的影响。1)训练GAPNet模型;2)训练RongheNet模型。

4 实验结果分析

对照实验得到的验证集准确率和损失函数曲线,如图5所示。分类指标对比如表2所示。

图 5. 验证结果曲线。(a)验证准确率曲线;(b)验证损失曲线

Fig. 5. Validation result curves. (a) Validation accuracy curve; (b) validation loss curve

下载图片 查看所有图片

表 2. 不同训练方法的分类指标对比

Table 2. Comparison of classification indexes of different training methods unit: %

Network typeCategory weightAccuracyMAPrecisionRecall
SlimNetNo89.982.588.082.0
SlimNetYes90.287.285.087.0
BnL2NetYes93.091.692.093.0
GAPNetYes94.993.392.093.0
RongheNetYes97.297.095.097.0

查看所有表

表 3. 不同模型性能对比

Table 3. Performance comparison of different models unit: %

MethodMAPrecisionRecall
Wang et al[6]89.690.888.6
Bhowmik et al[7]92.694.094.0
Yu et al[8]94.194.690.6
Ours97.095.097.0

查看所有表

表2可知,SlimNet模型直接训练时,虽然总体分类准确率可达89.9%,但是平均分类准确率仅达到82.5%,由图6(a)混淆矩阵可知,SlimNet模型对于DME和DRUSEN的分类准确率为78.9%和58.8%,分类准确率较低。视网膜图像数据不平衡,未使用加权交叉熵损失函数时,模型主要学习数据量大的NORMAL和CNV类别特征,预测正确样本大多属于这两个类别,总体分类准确率高,但对于DME和DRUSEN的分类性能差。加上类别权重后,由图6(b)混淆矩阵可知,对于DME和DRUSEN的分类准确率分别由78.9%和58.8%提升至87.8%和77.5%,平均准确率由82.5%提升至87.2%,这说明设置类别权重、重定义交叉熵损失函数,能够有效解决样本数据不平衡问题,有助于提升模型的分类性能。

图 6. 混淆矩阵。(a)未设置加权损失函数混淆矩阵;(b)设置加权损失函数混淆矩阵

Fig. 6. Confusion matrix. (a) Confusion matrix without weighted loss function; (b) confusion matrix with weighted loss function

下载图片 查看所有图片

在BnL2Net模型中引入批归一化层,将数据分布归一化。由图5(a)验证准确率曲线可知,BnL2Net模型中曲线波动小,较平稳,在训练至第10个epoch时,模型准确率上升较慢,趋近于最优状态;由图5(b)验证集交叉熵的损失函数可知,BnL2Net模型中的损失曲线稳步下降,最终在第10个epoch的下降趋势缓慢且趋近于0,此时网络已经收敛,模型趋近于该网络下的最优性能。由表2可知,BnL2Net模型的平均准确率比SlimNet提高4.4个百分点,分类准确率达到了93.0%,这说明基于BN层对数据进行归一化操作后,不仅使训练更平稳,还能提升模型的分类准确率。

表2可知,GAPNet模型比BnL2Net平均准确率高1.7个百分点,精确率和召回率达到92.0%和93.0%。在BnL2Net模型中,全连接层对feature map作全排列,丢失了空间信息,并且其可训练的参数较多,容易造成过拟合。GAPNet模型采用GAP层替换全连接层,减少了训练参数,更好地保留卷积结构,提升了对输入空间变化的鲁棒性,且使用深度可分离卷积减少训练参数,缩短了识别时长,使网络训练变得更容易。

在深层卷积神经网络中,低层次卷积层提取的主要是基础特征,层次越高的卷积核提取的特征越抽象,也越能体现图像的语义信息。热力图中区域越亮,表示该卷积层提取该区域特征的概率越大,本次研究通过可视化热力图(见图7),选取特征融合层。图7左边为原始图像,右边为5个卷积层对应的热力图,由图7可知,第3层卷积层在病变区域的亮度最大,这说明该层卷积层对于病变部位最感兴趣,病变部位特征的提取对于模型的正确分类十分重要,因此RongheNet模型将第3层卷积层提取的特征与最后一层卷积层提取的特征进行融合,以提高网络对图像的表达能力。

图 7. 可视化热力图

Fig. 7. Visual heat maps

下载图片 查看所有图片

图8混淆矩阵可知,RongheNet模型相比于GAPNet模型对于DME和DRUSEN的分类准确率分别提升了4.6%和2.5%。

图 8. 混淆矩阵。(a)GAPNet模型的混淆矩阵;(b)RongheNet模型的混淆矩阵

Fig. 8. Confusion matrix. (a) Confusion matrix for GAPNet model; (b) confusion matrix for RongheNet model

下载图片 查看所有图片

表2可知,平均准确率达到97.0%,精确率和召回率分别达到95.0%和97.0%,这说明将模型提取的高层次特征和低层次特征进行融合,能够有效提升模型的分类性能。

进一步,为了验证模型的性能,将RongheNet模型与现有的OCT视网膜图像分类模型进行对比。由表3可知,RongheNet模型在平均准确率和精确率、召回率上均优于现有OCT视网膜模型取得的分类性能。在8616张测试集上进行分类诊断,RongheNet模型仅需63 s,而经过迁移微调后的经典Inception-V3模型需要231 s。由此可知,本次研究所提模型,不仅分类性能好,且能大幅缩短识别时长,实现实时诊断,解决专业医师匮乏、患者不能得到及时诊治的问题。

4 结论

利用深度学习技术实现了OCT视网膜图像的自动分类。通过观察热力图,优选感兴趣卷积层,创新性地联合不同层级特征构建特征融合层,使用轻量深度可分离卷积层减小模型大小,降低参数量,缩短识别时长,所构建的模型的分类准确率达到97%,召回率和精确率分别达到97%和95%,基于8616张测试集进行分类诊断时仅需63 s,模型占用内存空间仅为54.5 MB,拥有良好的分类性能且能满足实时诊断需求。后续的研究中可以将该模型构建思想应用到其他医学图像分类中,通过尝试构建更深的网络模型和融合更多层特征,进行分类诊断。

参考文献

[1] 王金瑞, 杨莹. 2型糖尿病视网膜病变相关因素研究进展[J]. 昆明医科大学学报, 2019, 40(4): 131-135.

    Wang J R, Yang Y. Research progress of related factors of type Ⅱ diabetic retinopathy[J]. Journal of Kunming Medical University, 2019, 40(4): 131-135.

[2] Cho N H, Shaw J E, Karuranga S, et al. IDF diabetes atlas: global estimates of diabetes prevalence for 2017 and projections for 2045[J]. Diabetes Research and Clinical Practice, 2018, 138: 271-281.

[3] Laddha A P, Kulkarni Y A. Tannins and vascular complications of diabetes: an update[J]. Phytomedicine, 2019, 56: 229-245.

[4] 杨玲, 沈玺. 糖尿病性视网膜病变与干眼的相关性研究[J]. 国际眼科杂志, 2018, 18(4): 744-747.

    Yang L, Shen X. Research on correlation between diabetic retinopathy and dry eye[J]. International Eye Science, 2018, 18(4): 744-747.

[5] 毕珂, 王茵. 计算机辅助诊断技术在超声医学中的应用进展[J]. 肿瘤影像学, 2019, 28(5): 296-300.

    Bi K, Wang Y. Advances in the application of computer aided diagnosis in ultrasound medicine[J]. Oncoradiology, 2019, 28(5): 296-300.

[6] 王翀, 何兴鑫, 方乐缘, 等. 基于联合决策卷积神经网络的光学相干断层扫描图像自动分类[J]. 中国生物医学工程学报, 2018, 37(6): 641-648.

    Wang C, He X X, Fang L Y, et al. Automatic classification of retinal optical coherence tomography images via convolutional neural networks with joint decision[J]. Chinese Journal of Biomedical Engineering, 2018, 37(6): 641-648.

[7] BhowmikA, KumarS, BhatN. Eye disease prediction from optical coherence tomography images with transfer learning[C]∥Communications in Computer and Information Science, May 15, 2019. Rome: ICFNN, 2019: 104- 114.

[8] 于海琛. 基于SE-Block的视网膜疾病分类方法研究[D]. 长春: 吉林大学, 2019.

    Yu HC. Research on classification of retinal diseases based on SE-block[D]. Changchun: Jilin University, 2019.

[9] VoetsM, MøllersenK, Bongo L A.Replication study: development and validation of deep learning algorithm for detection of diabetic retinopathy in retinal fundus photographs[EB/OL]. ( 2015-02-11) [2020-05-25]. https:∥arxiv.org/abs/1803. 04337.

[10] 张润谷. 基于多尺度多路径FCN的视网膜血管分割[J]. 激光杂志, 2020, 41(2): 194-198.

    Zhang R G. Retina vessel segmentation based on multi-scale and multi-path fully convolutional neural network[J]. Laser Journal, 2020, 41(2): 194-198.

[11] 卓东, 景军锋, 张缓缓, 等. 基于卷积神经网络的短切毡缺陷分类[J]. 激光与光电子学进展, 2019, 56(10): 101009.

    Zhuo D, Jing J F, Zhang H H, et al. Classification of chopped strand mat defects based on convolutional neural network[J]. Laser & Optoelectronics Progress, 2019, 56(10): 101009.

[12] 孟婷, 刘宇航, 张凯昱. 一种基于增强卷积神经网络的病理图像诊断算法[J]. 激光与光电子学进展, 2019, 56(8): 081001.

    Meng T, Liu Y H, Zhang K Y. Algorithm for pathological image diagnosis based on boosting convolutional neural network[J]. Laser & Optoelectronics Progress, 2019, 56(8): 081001.

[13] 冯雨, 易本顺, 吴晨玥, 等. 基于三维卷积神经网络的肺结节识别研究[J]. 光学学报, 2019, 39(6): 0615006.

    Feng Y, Yi B S, Wu C Y, et al. Pulmonary nodule recognition based on three-dimensional convolution neural network[J]. Acta Optica Sinica, 2019, 39(6): 0615006.

[14] 杨孟京, 唐云祁, 姜晓佳. 基于卷积神经网络的鞋型识别方法[J]. 激光与光电子学进展, 2019, 56(19): 191505.

    Yang M J, Tang Y Q, Jiang X J. Novel shoe type recognition method based on convolutional neural network[J]. Laser & Optoelectronics Progress, 2019, 56(19): 191505.

[15] 吴晨玥, 易本顺, 章云港, 等. 基于改进卷积神经网络的视网膜血管图像分割[J]. 光学学报, 2018, 38(11): 1111004.

    Wu C Y, Yi B S, Zhang Y G, et al. Retinal vessel image segmentation based on improved convolutional neural network[J]. Acta Optica Sinica, 2018, 38(11): 1111004.

[16] IoffeS, Szegedy C. Batch normalization: accelerating deep network training by reducing internal covariate shift[EB/OL].( 2015-03-02)[2020-05-25]. https:∥arxiv.org/abs/1502. 03167.

[17] Li K, Zou C Q, Bu S H, et al. Multi-modal feature fusion for geographic image annotation[J]. Pattern Recognition, 2018, 73: 1-14.

[18] Lecun Y, Bengio Y, Hinton G. Deep learning[J]. Nature, 2015, 521(7553): 436.

[19] Kermany D S, Goldbaum M, Cai W J, et al. Identifying medical diagnoses and treatable diseases by image-based deep learning[J]. Cell, 2018, 172(5): 1122-1131.

[20] ZhangK, WangX, GuoY, et al. and ImageProcessing ( VCIP), December 1-4, 2019, Sydney, Australia. New York: IEEE:19297873.

张添福, 钟舜聪, 连超铭, 周宁, 谢茂松. 基于深度学习特征融合的视网膜图像分类[J]. 激光与光电子学进展, 2020, 57(24): 241025. Tianfu Zhang, Shuncong Zhong, Chaoming Lian, Ning Zhou, Maosong Xie. Deep Learning Feature Fusion-Based Retina Image Classification[J]. Laser & Optoelectronics Progress, 2020, 57(24): 241025.

本文已被 5 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!