【医学影像 AI】DIAROP:基于深度学习的ROP 自动诊断工具

发布于:2025-09-10 ⋅ 阅读:(21) ⋅ 点赞:(0)


0. 论文简介

0.1 基本信息

2021 年 埃及 Omneya Attallah 在 MDPI Diagnostics 发表论文 “DIAROP:基于深度学习的ROP 自动诊断工具(YOLO-Angio: An Algorithm for Coronary Anatomy Segmentation)”。

本研究的主要创新点包括:

  • 对比研究四种不同架构的预训练CNN模型(各模型在卷积层数和核心模块设计上存在显著差异)
  • 发现不同CNN模型性能存在显著差异
  • 采用快速沃尔什-哈达玛变换(FWHT)对高维特征进行降维处理
  • 通过特征集成融合各CNN架构优势
  • 筛选对诊断影响最大的集成特征组合
  • 对比自编码器(AE)、主成分分析(PCA)和离散小波变换(DWT)三种特征融合技术的性能差异

论文下载: MDPI,
引用格式:
Attallah, O. DIAROP: Automated Deep Learning-Based Diagnostic Tool for Retinopathy of Prematurity. Diagnostics 2021, 11, 2034. https://doi.org/10.3390/diagnostics11112034

在这里插入图片描述


0.2 摘要

摘要:早产儿视网膜病变(ROP)是导致早产儿致盲的重要眼疾。深度学习(DL)技术可为ROP眼科诊断提供辅助支持。
本文提出一种基于DL技术的自动化可靠诊断工具DIAROP,该系统首先通过迁移学习从四种卷积神经网络(CNN)模型中提取空间特征,再应用快速沃尔什-哈达玛变换(FWHT)实现特征融合。DIAROP通过探索CNN提取的最佳融合特征组合来优化诊断性能。
实验结果表明,DIAROP诊断准确率达93.2%,受体工作特征曲线下面积(AUC)为0.98。与现有ROP诊断工具的比较研究表明,DIAROP具有显著性能优势,可有效辅助ROP临床诊断。

关键词:早产儿视网膜病变(ROP);深度学习(DL);迁移学习;卷积神经网络(CNN);计算机辅助诊断


1. 引言

早产儿视网膜病变(ROP)是导致早产儿视力受损甚至失明的重要眼疾。在发展中国家,ROP筛查与诊断面临多重挑战[1]:首先,ROP专用医疗筛查/成像设备普遍不足;其次,具备ROP视网膜影像判读资质的专业医师数量有限;再者,眼科医师培训体系尚未标准化,合格医师比例较低;此外,ROP筛查政策在发展中国家执行力度不足[2]。这些因素共同导致许多早产儿因缺乏早期筛查和及时干预而失明。全球范围内还存在另一项技术瓶颈——由于缺乏专为不配合、非麻醉状态的早产儿设计的快速简易扫描设备,婴儿视网膜成像难度大且获取受限[3]。值得庆幸的是,现代成像技术的进步显著提升了早产儿高质量眼底图像的获取能力。

数字影像技术的发展为ROP诊断、监测和治疗带来了新机遇。虽然双目间接检眼镜(BIO)仍被视为ROP检查的金标准,但其操作需要经过专业培训的高年资医师。目前,广角数码视网膜成像系统(Retcam)因其操作简便、成像快速的特点,已广泛应用于ROP筛查[4]。该系统不仅能多角度采集、存储和传输眼底图像,更具备临床检查、医学教育及科研应用等多重优势。结合数字图像分析技术,Retcam能有效提升ROP诊断效率。

近年来,基于人工智能(AI)的医疗诊断工具在多种疾病领域取得进展,包括癌症[6-9]、眼部异常[10-11]、脑肿瘤与精神障碍[12-13]、心血管疾病[14-18]、胃肠疾病[19]、运动障碍[20-21]以及肺部疾病[22-23]等。随着Retcam等ROP数字成像技术的发展,AI方法(包括传统机器学习ML和现代深度学习DL)为视网膜图像分析提供了新范式。传统ML方法依赖人工设计的图像处理流程和特征提取技术来识别病理特征(如眼底病变和血管形态)[24],其人工标注过程可能引入系统性偏差[4]。而DL方法无需人工特征工程即可实现端到端诊断[25],因此更具优势。相较于人工诊断,DL诊断工具具备多重价值:诊断效率更高、速度更快;能避免因疲劳或主观因素导致的误判;特别是在大数据场景下表现出更优的准确性[26]。基于此,本文提出名为DIAROP的新型DL诊断系统,该系统利用Retcam获取的早产儿眼底图像,通过集成多DL模型实现ROP早期高精度自动诊断。该工具既可区分正常与ROP病例,又能显著降低人工诊断和传统ML方法的时间与人力成本。

本研究的主要创新点包括:

  • 对比研究四种不同架构的预训练CNN模型(各模型在卷积层数和核心模块设计上存在显著差异)
  • 发现不同CNN模型性能存在显著差异
  • 采用快速沃尔什-哈达玛变换(FWHT)对高维特征进行降维处理
  • 通过特征集成融合各CNN架构优势
  • 筛选对诊断影响最大的集成特征组合
  • 对比自编码器(AE)、主成分分析(PCA)和离散小波变换(DWT)三种特征融合技术的性能差异

论文结构如下:第2节综述现有ROP诊断工具;第3节阐述DIAROP系统方法论与材料;第4节说明性能指标与参数设置;第5节展示实验结果;第6节讨论关键设计与结果;第7节总结全文。


2. 现有诊断工具研究

基于Retcam成像模式的ROP诊断工具近年来在文献中不断涌现,主要采用传统机器学习(TML)或深度学习(DL)技术。本文选取相关研究的标准聚焦于专门针对早产儿(非成人或儿童)糖尿病视网膜病变的诊断工作。在TML领域,文献[27]利用87张图像通过多种ML分类器识别前附加病变(pre-plus)、附加病变(plus)及非附加病变(non-plus)ROP,平均准确率达80.15%。2018年研究者基于20张图像构建了区分pre-plus与plus病变的工具[28]。Oloumi等则采用Gabor滤波器处理41名患者的110张图像实现plus与非plus病变的鉴别[24,29]。Ataer-Cansizoglu团队开发的"i-ROP"系统[30]基于77张图像,通过支持向量机(SVM)分类器实现健康眼、pre-plus和plus病变的区分,准确率达95%。然而这些工具普遍存在图像质量低、样本量小、需人工血管分割与特征提取等问题,可能导致专业偏差并降低诊断准确性,且图像处理耗时较高,亟需发展DL等自动化可靠解决方案。

近年来基于DL的ROP诊断系统大量涌现,多采用迁移学习(TL)策略——将ImageNet等大数据集预训练的卷积神经网络(CNN)迁移至样本量有限的ROP分类任务[31]。研究表明TL能有效提升诊断精度[32-34]。Brown团队开发的"i-ROP"系统[35]采用双CNN架构,分别实现血管分割和健康/pre-plus/plus病变分类,在5511张视网膜图像上取得96.5%平均敏感性和94%特异性。"DeepROP"系统[36]处理11,707张图像先做正常/ROP二分类,再对ROP细分严重程度,其正常vs ROP分类敏感性和特异性分别达96.64%和99.33%,严重vs轻度分类达88.46%和92.31%。"ROP.AI"工具[37]对正常/plus病变的诊断敏感性和特异性为96.6%/98.0%。Lei等[38]在ResNet-50中加入注意力模块,Zhang等[39]则采用多种ResNet变体。Rani团队[40]结合DL与多示例学习(MIL)将图像分块提取特征,最终获得83.33%准确率(敏感性100%,特异性71.43%)。后续提出的"I-ROP ASSIST"流程[41]通过U-Net分割后提取手工特征输入ML分类器,最高准确率达94%。

Huang等[42]基于VGG-13/16、MobileNet、Inception和DenseNet五类CNN构建系统,先区分正常/ROP,再按国际分期标准[43-44]将ROP分为轻度(1-2期)和严重(3期)。结果显示VGG-16性能最优:正常vs ROP分类准确率96%(敏感性96.6%,特异性95.2%),严重程度分类达98.82%准确率(敏感性100%,特异性98.41%)。类似地,文献[45]整合VGG-16、ResNet-50和Inception CNN构建的模型,在正常/ROP分类中Inception网络达到97%准确率,严重程度分类达84%。"DeepDR"系统[46]采用CNN集成策略,通过特征级和概率级双融合阶段实现ROP识别与分级,Xception、Inception和InceptionResNet的概率融合最优组合在ROP识别中取得97.5%敏感性和97.7%特异性,严重程度分类达98.1%敏感性和98.9%特异性。

现有DL诊断工具的性能已可比肩专业医师[4],但仍存在三方面局限:(1)多数仅使用空间特征,而融合频谱/时序等特征可提升分类精度[47-50];(2)主要采用单一CNN,而多CNN特征融合被证明能增强性能[51-54];(3)普遍使用私有数据集,不利于横向比较与成果复现。本研究提出的"DIAROP"系统创新性体现在:基于大规模公共数据集,集成ResNet-50、Inception、Inception-ResNet和Xception四种CNN的迁移学习特征,采用多种融合技术构建高精度诊断模型。


3. 材料与方法

3.1 ROP数据采集

本研究使用的ROP图像由中国ROP协作组(RCG)提供,该协作组涵盖全国30家医院,其中深圳市眼科医院(SEH)作为牵头单位负责协调各参与医院的ROP筛查工作。所有医院均采用统一的筛查标准筛选入组病例。初始纳入研究的早产儿数量为26,424名,但最终符合以下两项标准的早产儿方可参与研究:(1)出生体重低于2000克;(2)出生体重达2000克但伴有严重全身性疾病。最终入选的早产儿约890名。每次筛查过程中,每位早产儿的每只眼睛均以10个标准角度拍摄(共10张图像),最终获得ROP病例图像8090张及正常眼图像9711张。所有图像均由专业技师使用Retcam 2或Retcam 3采集,并由5名资深小儿眼科医师独立标注为"患病"或"未患病"。标注不一致时,最终诊断结果通过医师小组讨论确定。数据集具体信息详见文献[26],示例图像如图1所示。

在这里插入图片描述

图1. 数据集中包含的图像样本,(a)患病,(b)未患病。


3.2 诊断工具DIAROP设计

本研究提出的自动化诊断工具DIAROP基于深度学习集成架构与三种特征融合技术,共包含五个处理阶段(如图2所示):

在这里插入图片描述

图2. DIAROP诊断工具的五个阶段。


3.2.1 图像预处理阶段

调整图像尺寸以匹配四种CNN的输入层要求:Inception V3、Xception和Inception-ResNet V2的输入尺寸为229×229×3,ResNet-50为224×224×3。随后通过平移(-30,30)、缩放(0.9,1.1)、水平/垂直翻转、剪切变换(0-45°)进行数据增强,以扩充数据集并防止过拟合[55,56]。


3.2.2. 空间特征提取阶段
采用迁移学习技术,将ImageNet预训练的Inception V3、ResNet-50、Xception和Inception-ResNet V2网络适配至ROP二分类任务(原输出层1000类调整为2类)。微调部分参数后(详见参数选择章节),从各CNN的"avg_pool"层提取空间特征:Inception/Xception/ResNet-50特征维度为2048,Inception-ResNet V2为1536。


3.2.3. 空间-频谱特征降维与提取阶段
采用快速沃尔什-哈达玛变换(FWHT)从空间特征中提取频谱特征,生成联合空间-频谱特征。FWHT通过加减运算将长度为2n的输入数据转化为2n个系数,具有计算高效、存储需求低的优势[57,58]。对于非2的幂次维度特征,通过零填充至最近邻的2的幂次维度后处理。同时利用FWHT对高维特征进行降维。


3.2.4. 特征融合阶段
通过主成分分析(PCA)、自编码器(AE)和离散小波变换(DWT)三种技术融合四种CNN的空间-频谱特征,并探索最佳特征组合方案:(1)两两CNN特征融合;(2)三重CNN特征融合;(3)四CNN全特征融合。

  • PCA:通过协方差分析消除冗余,将原始变量转换为低维主成分[59];
  • AE:基于编码器-解码器架构的无监督降维方法,编码器将特征映射为隐藏层编码,解码器重构原始输入[60];
  • DWT:采用Meyer小波(dmey)对一维特征进行高低通滤波卷积,经下采样后生成近似系数CA1和细节系数CD1,本研究仅用CD1系数降维[61-64]。

3.2.5. 分类阶段
使用线性支持向量机(L-SVM)、二次SVM(Q-SVM)和线性判别分析(LDA)三类分类器进行ROP诊断,采用5折交叉验证评估性能。分类实验设置如下:

  • 设置I:单独使用各CNN提取的空间特征训练分类器;
  • 设置II:单独使用各CNN生成的空间-频谱特征训练分类器;
  • 设置III:采用特征融合阶段得到的集成特征训练分类器。

4. 性能实验设置

4.1 参数调整

在训练四种CNN时,部分超参数经过调整而其他参数保持不变:

  • 迷你批次大小(minibatch size):设置为10,此数值在确保GPU内存可用性的前提下选择。增大批次会导致内存溢出,而较小批次通常能获得更好的泛化性能[65]。
  • 学习率(learning rate):确定为0.0003,该取值在保证训练速度的同时实现了最高准确率。
  • 训练周期(epochs):固定为10次,实验表明增加周期数不会带来性能提升。
  • 验证频率(validation frequency):设为1246次迭代(即每完整遍历一次数据集后计算准确率)。

训练采用带动量的随机梯度下降法(SGD with momentum),所有实验基于Matlab 2020a平台完成,硬件配置为Intel Core i7-10750H处理器(2.6 GHz)、NVIDIA GeForce GTX 1660显卡(6GB显存)的64位操作系统。


4.2 评估指标

采用以下五项指标评估DIAROP三种实验设置的性能,计算公式如式(1)-(5)所示[66]:


  1. 敏感度(Sensitivity/Recall):反映模型正确识别患病病例的能力,计算公式为:

Sensitivity = T P T P + F N \text{Sensitivity} = \frac{TP}{TP+FN} Sensitivity=TP+FNTP


  1. 准确率(Accuracy):表征总体分类正确的样本比例:

Accuracy = T P + T N T P + T N + F P + F N \text{Accuracy} = \frac{TP+TN}{TP+TN+FP+FN} Accuracy=TP+TN+FP+FNTP+TN


  1. 特异度(Specificity):衡量模型排除非患病病例的准确性:

Specificity = T N T N + F P \text{Specificity} = \frac{TN}{TN+FP} Specificity=TN+FPTN


  1. F1分数(F1-score):精确率与召回率的调和平均数(取值0-1),数值越高表明综合性能越优:

F 1 = 2 × Precision × Recall Precision + Recall F1 = 2 \times \frac{\text{Precision} \times \text{Recall}}{\text{Precision}+\text{Recall}} F1=2×Precision+RecallPrecision×Recall


  1. 精确率(Precision):评估被判定为患病的样本中实际患病比例:

Precision = T P T P + F P \text{Precision} = \frac{TP}{TP+FP} Precision=TP+FPTP

其中:
真正例(TP):正确诊断为患病的图像数量
真负例(TN):正确诊断为未患病的图像数量
假正例(FP):误诊为患病的健康图像数量
假负例(FN):漏诊为健康的患病图像数量


5. 实验结果

本节展示DIAROP诊断工具三种实验设置的结果。设置Ⅰ使用四种CNN提取的空间特征单独训练分类器;设置Ⅱ采用经FWHT降维后的空间-频谱特征;设置Ⅲ则基于特征融合阶段生成的集成特征进行训练。三种设置架构如图3所示。

在这里插入图片描述
图3. DIAROP诊断工具的三种分类设置。


5.1 设置Ⅰ结果

表1 显示四种CNN空间特征在三类分类器上的性能表现:

  • ResNet-50空间特征取得最高准确率:LDA 90.9%,L-SVM/Q-SVM均为91.6%;
  • Inception-ResNet V2次之:LDA 90.2%,L-SVM 90.6%,Q-SVM 90.8%;
  • Inception V3:三类分类器准确率分别为89.4%、90.5%、90.5%;
  • Xception表现最弱:准确率分别为87.3%、88.3%和88.6%。

表1. 使用DIAROP诊断工具的四个CNN提取的空间特征所取得的准确度(%)。

在这里插入图片描述


5.2 设置Ⅱ结果

本节将讨论应用FWHT方法后获得的降维空间-光谱特征。

表2显示了用于构建三种分类器的四种空间-光谱特征所达到的准确率。当使用ResNet-50的空间-光谱特征时,其最高准确率分别达到91.1%、91.6%和91.8%。Inception-ResNet V2的空间-光谱特征通过LDA、L-SVM和Q-SVM分类器获得的次高准确率为90.5%、90.6%和90.8%。而Inception V3的空间-光谱特征对LDA、L-SVM和Q-SVM分类器的准确率分别为89.9%、90.6%和90.6%。最后,Xception的空间-光谱特征获得了最低准确率,分别为87.8%、88.5%和88.8%。

从表2可以观察到,与表1相比,采用FWHT获取的空间-光谱特征提升了LDA、L-SVM和Q-SVM分类器的准确率。但这一规律不适用于采用Xception空间-光谱特征训练的L-SVM分类器。值得注意的是,对于采用Inception-ResNet V2空间-光谱特征构建的L-SVM和Q-SVM分类器,其准确率与图4 中配置I的结果相同,但特征数量已从配置I的1536个减少至配置II的700个。类似地,从ResNet-50、Inception和Xception获取的空间-光谱特征数量,也从配置I的2048个降至配置II的1100个。


表2. 使用从DIAROP诊断工具的四个CNN提取的空间特征应用FWHT后获得的空间-光谱特征所达到的准确率(%)。
在这里插入图片描述


在这里插入图片描述
图4. ROC曲线分析和AUC(左边)L-SVM,(右边)Q-SVM,利用DWT集成的空间-光谱特征进行训练,涉及ResNet50+Inception+InceptionResNet。


5.3 配置III实验结果

本节讨论特征融合的结果,并对离散小波变换(DWT)、自编码器(AE)和主成分分析(PCA)三种融合技术进行比较。首先对FWHT获取的每两组空间-光谱特征进行融合,随后对每三组特征进行融合,最后对所有空间-光谱特征进行全局融合。特征融合阶段的实验结果如表3、表4和表5所示。

表3 展示了使用AE融合空间-光谱特征训练的三类分类器的准确率。在两组特征融合情况下,LDA、L-SVM和Q-SVM分类器的峰值准确率分别达到92%、92.6%、92.6%(ResNet50+Inception特征)和92%、92.5%、92.4%(ResNet50+InceptionResNet特征)。而在三组特征融合中,采用ResNet-50+Inception+InceptionResNet空间-光谱特征训练的LDA、L-SVM和Q-SVM分类器,其最高准确率分别为92.6%、93%和93.1%。

表3. 使用自编码器训练的三种分类器所达到的准确率(%),采用了集成的空间-光谱特征。
在这里插入图片描述


另一方面,采用LDA、L-SVM和Q-SVM分类器对四种空间-光谱特征进行融合后,准确率分别达到92.5%、92.8%和93%。表3证明,通过自动编码器(AE)融合ResNet-50+Inception+InceptionResNet三种空间-光谱特征的集成方案在所有特征组合中性能最优。这些结果验证了整合不同CNN网络获取的空间-光谱特征可提升DIAROP系统的诊断能力。

表4展示了基于主成分分析(PCA)的空间-光谱特征融合结果。当分析每两种特征组合时,ResNet-50+Inception与ResNet-50+Inception-ResNet的空间-光谱特征融合取得了最高准确率,使用LDA、L-SVM和Q-SVM分类器分别达到92.2%、92.6%、92.6%和92.4%、92.5%、92.6%。在考察三种特征组合时,采用ResNet50+Inception+InceptionResNet特征构建的模型通过LDA、L-SVM和Q-SVM分类器获得了92.7%、92.9%和92.9%的峰值准确率。而融合DIAROP系统四个CNN网络特征的分类器则实现了全局最优性能,其LDA、L-SVM和Q-SVM分类准确率分别为92.8%、92.8%和93.1%。这些数据进一步证实多源CNN特征融合对系统性能的提升效果。

表4. 基于PCA融合空间-光谱特征训练的三类分类器所达到的准确率(%)

在这里插入图片描述


表5呈现了离散小波变换(DWT)作为融合技术的性能表现。对于双特征融合,基于ResNet50+InceptionResNet构建的LDA、L-SVM和Q-SVM分类器分别取得92%、92.6%和92.7%的最高准确率。在三种特征融合场景下,使用ResNet50+Inception+InceptionResNet特征的分类模型表现出最优性能。值得注意的是,当集成四个CNN网络特征时,L-SVM分类器以93.2%的准确率创造最佳记录,高于LDA(92.4%)和Q-SVM(93.2%)的表现。这些结果充分说明特征融合技术能有效增强DIAROP系统对早产儿视网膜病变(ROP)的诊断能力。

表5. 基于DWT融合空间-光谱特征训练的三类分类器所达到的准确率(%)

在这里插入图片描述


表6对比了不同特征融合技术的最高准确率与特征维度关系。前期结果表明,通过三种融合技术处理的ResNet50+Inception+InceptionResNet特征组合在Q-SVM分类器中均取得最佳性能。数据显示三种融合技术性能相当,其中DWT表现最优。从特征维度来看,获得最高准确率的DWT技术对应1500维特征,AE技术为1800维,而PCA仅需300维特征即可实现可比性能。

表6. 使用每种特征集成技术达到的最高准确率(%)与方差及特征数量的比较。

在这里插入图片描述


表7展示了采用离散小波变换(DWT)融合ResNet50+Inception+InceptionResNet空间-光谱特征所得的性能指标。数据显示,LDA、L-SVM和Q-SVM分类器分别获得88.31%、89.4%、89.7%的灵敏度,95.88%、96.4%、96.1%的特异性,94.7%、95.4%、95.1%的精确度,以及91.39%、92.3%、92.3%的F1分数。图4展示了基于DWT融合特征的L-SVM与Q-SVM分类器的接收者操作特征曲线(ROC)及其曲线下面积(AUC),两者的AUC值均为0.98。根据文献[67,68]所述,可信诊断工具需满足精确度与特异性超过95%、灵敏度高于80%的标准。由此可见,表7所示的DIAROP系统性能指标表明其可作为ROP自动诊断的可靠工具。

表7. 基于DWT融合的ResNet50+Inception+InceptionResNet空间-光谱特征性能指标(%)

在这里插入图片描述


6. 讨论

本文提出了一种基于深度学习(DL)技术的自动化ROP诊断工具DIAROP。该工具包含多个基于迁移学习(TL)的DL方法框架,通过三个主要阶段实现诊断功能:第一阶段采用TL技术从四个预训练CNN网络中提取空间特征,并分别使用LDA、L-SVM和Q-SVM分类器进行训练。第二阶段通过对前阶段获取的空间特征应用快速沃尔什-哈达玛变换(FWHT),从各CNN网络中提取频谱特征,最终形成空间-频谱联合特征,同时利用FWHT实现特征降维。第三阶段采用三种特征融合技术,筛选从四个CNN网络中提取的最佳集成空间-频谱特征。

图5展示了各阶段的最高准确率:第一阶段使用ResNet-50空间特征获得91.6%准确率;第二阶段采用ResNet-50空间-频谱特征达到91.8%准确率;最终阶段通过DWT融合ResNet50+Inception+InceptionResNet特征,配合Q-SVM分类器实现了93.2%的最高准确率。

图6展示了DIAROP的最终架构设计。


在这里插入图片描述
图5. 在DIAROP的三个设置下达到的准确率(%)。


在这里插入图片描述

图6. DIAROP诊断工具的最终架构


表8对比了DIAROP与端到端深度卷积神经网络(包括ResNet-50、Inception V3、Xception和Inception-ResNet V2)的训练耗时。实验数据表明,DIAROP展现出显著的效率优势——其训练执行时间仅为404.17秒,远低于其他端到端深度学习CNN模型。

表8. 四种CNN与DIAROP的训练执行时间(秒)
在这里插入图片描述


整合不同深度学习模型提取的多种特征会导致分类过程复杂度及计算时间增加。本研究所提出的DIAROP诊断工具通过两个特征降维步骤有效缓解了这一负面影响:首先采用快速沃尔什-哈达玛变换(FWHT)对各CNN提取的空间特征进行降维(如表7所示),随后应用PCA(主成分分析)、AE(自动编码器)和DWT(离散小波变换)等经典特征融合技术。实验结果表明,该方法在降低特征维度的同时(参见表7),相较端到端模型显著减少了分类耗时(如表8所示)。

本文所选用的CNN模型(ResNet-50/Inception V3等)均基于其在ROP研究领域的成功应用案例[39,45,46]。特征提取采用迁移学习技术——该技术被广泛用于从CNN特定层级提取深度特征[33,69],而FWHT作为成熟的降维方法[57]兼具时频表征能力[58]。实验结果验证FWHT在特征压缩与性能提升方面的双重有效性(详见表1-表2)。在特征集成阶段选用PCA[70]、AE[71]和DWT[72,73]等经典算法,这些方法在机器学习领域具有坚实的理论基础。支持向量机(SVM)因其核函数能有效映射高维特征空间,在处理CNN提取的大维度特征时表现优异[74],这也解释了其在DIAROP中的出色表现。

本研究面临的主要挑战在于ROP数据集的获取难题。目前公开文献中所有数据集均属非公开性质,这使得DIAROP与现有诊断工具的横向比较受到限制。唯一使用相同数据集的文献[26]仅采用单一CNN架构(AlexNet/VGG-16/GoogleNet),其准确率分别为77.9%、80.4%和73.9%,而DIAROP通过多模型空间-频谱特征融合实现了93.2%的更高准确率(见表9)。相较于Xception(86.5%)、Inception-ResNet V2(90.9%)、Inception V3(91.42%)和ResNet-50(91.48%)等端到端模型,DIAROP展现出更优的 diagnostic性能,证明其可作为辅助眼科医师提升ROP诊断精度的可靠工具。该自动化系统能有效缩短检查时间,减轻医师诊断工作负荷。


在这里插入图片描述


多项研究已证实,深度学习在无需专业人员标注显著特征的情况下,即可通过大规模数据集训练实现视网膜扫描图像中ROP疾病的精准自动诊断[36]。相较于眼科医师存在主观差异的诊断结果,深度学习能对同一视网膜扫描图像持续输出稳定的诊断结论。

本研究的关键发现包括:
(1) DIAROP可辅助眼科专家规避人工诊断局限性,实现高精度ROP诊断;
(2) 该系统诊断结果具有客观一致性;
(3) 特别为发展中国家和贫困地区的诊疗程序提供了创新解决方案;
(4) 通过弥补ROP专科医师资源短缺现状,DIAROP的及时诊断能力可有效降低误诊导致的致盲风险。
这一成果在眼科科研、临床实践与医学教育领域均具有重要价值,同时可为医师基于诊断结果制定个性化随访方案提供决策支持。


7. 结论

本研究提出了一种基于深度学习技术集成的自动化诊断工具DIAROP,用于ROP疾病的诊断。DIAROP包含五个阶段:ROP图像预处理、空间特征提取、空间-频谱特征降维与提取、特征融合以及分类阶段。这些阶段分别在三种不同配置下完成:配置I通过迁移学习从四种预训练CNN中提取空间深度学习特征;配置II在配置I的空间特征基础上,应用快速沃尔什-哈达玛变换(FWHT)提取并降维空间-频谱特征;最终配置III对各CNN提取的特征组合进行系统化融合,筛选最优的集成化空间-频谱特征集。

实验结果证实:配置II采用空间-频谱特征相较仅使用空间特征(配置I)具有更优表现,其特征维度更低且准确率更高;配置III进一步证明多CNN融合策略可显著提升ROP诊断精度。与端到端深度学习CNN模型及最新诊断工具的对比实验验证了DIAROP的竞争力。该工具能以高精度实现ROP自动化诊断,有效降低人工介入强度与诊断耗时。

本研究存在以下局限性:未应用图像分割技术、未实现ROP疾病严重程度分级,且未涵盖临床真实诊断中涉及的急进型后部ROP、急性ROP、附加病变ROP、阈值前ROP以及ROP分区分期等细分类型。后续工作将聚焦于:1) 引入分割技术并扩展CNN模型数量;2) 开发ROP严重程度分级功能;3) 完善对ROP临床亚型的诊断能力。


8. 参考文献

1. Vartanian, R.J.; Besirli, C.G.; Barks, J.D.; Andrews, C.A.; Musch, D.C. Trends in the screening and treatment of retinopathy of prematurity. Pediatrics; 2017; 139, e20161978. [DOI: https://dx.doi.org/10.1542/peds.2016-1978] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/27974588]

2. Chiang, M.F.; Wang, L.; Busuioc, M.; Du, Y.E.; Chan, P.; Kane, S.A.; Lee, T.C.; Weissgold, D.J.; Berrocal, A.M.; Coki, O. Telemedical retinopathy of prematurity diagnosis: Accuracy, reliability, and image quality. Arch. Ophthalmol.; 2007; 125, pp. 1531-1538. [DOI: https://dx.doi.org/10.1001/archopht.125.11.1531] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/17998515]

3. Fung, T.H.; Kuet, M.-L.; Patel, C.K.; Holden, R.; Ojha, S.; Amoaku, W.M. Retinal imaging in infants. Surv. Ophthalmol.; 2021; 66, pp. 933-950. [DOI: https://dx.doi.org/10.1016/j.survophthal.2021.01.011]

4. Bao, Y.; Ming, W.-K.; Mou, Z.-W.; Kong, Q.-H.; Li, A.; Yuan, T.-F.; Mi, X.-S. Current application of digital diagnosing systems for retinopathy of prematurity. Comput. Methods Progr. Biomed.; 2020; 200, 105871. [DOI: https://dx.doi.org/10.1016/j.cmpb.2020.105871] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/33309305]

5. Ngiam, K.Y.; Khor, W. Big data and machine learning algorithms for health-care delivery. Lancet Oncol.; 2019; 20, pp. e262-e273. [DOI: https://dx.doi.org/10.1016/S1470-2045(19)30149-4]

6. Ragab, D.A.; Sharkas, M.; Attallah, O. Breast cancer diagnosis using an efficient CAD system based on multiple classifiers. Diagnostics; 2019; 9, 165. [DOI: https://dx.doi.org/10.3390/diagnostics9040165]

7. Ragab, D.A.; Attallah, O.; Sharkas, M.; Ren, J.; Marshall, S. A framework for breast cancer classification using multi-DCNNs. Comput. Biol. Med.; 2021; 131, 104245. [DOI: https://dx.doi.org/10.1016/j.compbiomed.2021.104245] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/33556893]

8. Rajinikanth, V.; Kadry, S.; Taniar, D.; Damaševičius, R.; Rauf, H.T. Breast-cancer detection using thermal images with marine-predators-algorithm selected features. Proceedings of the 2021 Seventh International Conference on Bio Signals, Images, and Instrumentation (ICBSII), Virtual Conference; Chennai, India, 25–27 March 2021; IEEE: Piscataway, NJ, USA, 2021; pp. 1-6.

9. Attallah, O.; Sharkas, M. Intelligent dermatologist tool for classifying multiple skin cancer subtypes by incorporating manifold radiomics features categories. Contrast Media Mol. Imag.; 2021; 2021, 7192016. [DOI: https://dx.doi.org/10.1155/2021/7192016] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/34621146]

10. Lal, S.; Rehman, S.U.; Shah, J.H.; Meraj, T.; Rauf, H.T.; Damaševičius, R.; Mohammed, M.A.; Abdulkareem, K.H. Adversarial attack and defence through adversarial training and feature fusion for diabetic Retinopathy recognition. Sensors; 2021; 21, 3922. [DOI: https://dx.doi.org/10.3390/s21113922]

11. Rajinikanth, V.; Kadry, S.; Damaševičius, R.; Taniar, D.; Rauf, H.T. Machine-learning-scheme to detect choroidal-neovascularization in retinal OCT image. Proceedings of the 2021 Seventh International Conference on Bio Signals, Images, and Instrumentation (ICBSII),Virtual Conference; Chennai, India, 25–27 March 2021; IEEE: Piscataway, NJ, USA, 2021; pp. 1-5.

12. Attallah, O. MB-AI-His: Histopathological diagnosis of pediatric medulloblastoma and its subtypes via AI. Diagnostics; 2021; 11, 359. [DOI: https://dx.doi.org/10.3390/diagnostics11020359] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/33672752]

13. Attallah, O. An effective mental stress state detection and evaluation system using minimum number of frontal brain electrodes. Diagnostics; 2020; 10, 292. [DOI: https://dx.doi.org/10.3390/diagnostics10050292] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/32397517]

14. Attallah, O.; Ma, X. Bayesian neural network approach for determining the risk of re-intervention after endovascular aortic aneurysm repair. Proc. Inst. Mech. Eng. Part H J. Eng. Med.; 2014; 228, pp. 857-866. [DOI: https://dx.doi.org/10.1177/0954411914549980] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/25212212]

15. Karthikesalingam, A.; Attallah, O.; Ma, X.; Bahia, S.S.; Thompson, L.; Vidal-Diez, A.; Choke, E.C.; Bown, M.J.; Sayers, R.D.; Thompson, M.M. An artificial neural network stratifies the risks of reintervention and mortality after endovascular aneurysm repair: A retrospective observational study. PLoS ONE; 2015; 10, e0129024. [DOI: https://dx.doi.org/10.1371/journal.pone.0129024]

16. Attallah, O.; Ma, X. Handling high level of censoring for endovascular aortic repair risk prediction. Proceedings of the 2015 IEEE Global Conference on Signal and Information Processing (GlobalSIP); Orlando, FL, USA, 14–16 December 2016; IEEE: Piscataway, NJ, USA, 2015; pp. 532-536.

17. Attallah, O.; Karthikesalingam, A.; Holt, P.J.; Thompson, M.M.; Sayers, R.; Bown, M.J.; Choke, E.C.; Ma, X. Using multiple classifiers for predicting the risk of endovascular aortic aneurysm repair re-intervention through hybrid feature selection. Proc. Inst. Mech. Eng. Part H J. Eng. Med.; 2017; 231, pp. 1048-1063. [DOI: https://dx.doi.org/10.1177/0954411917731592] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/28925817]

18. Attallah, O.; Karthikesalingam, A.; Holt, P.J.; Thompson, M.M.; Sayers, R.; Bown, M.J.; Choke, E.C.; Ma, X. Feature selection through validation and un-censoring of endovascular repair survival data for predicting the risk of re-intervention. BMC Med. Inf. Decis. Mak.; 2017; 17, pp. 115-133. [DOI: https://dx.doi.org/10.1186/s12911-017-0508-3]

19. Attallah, O.; Sharkas, M. GASTRO-CADx: A three stages framework for diagnosing gastrointestinal diseases. PeerJ Comput. Sci.; 2021; 7, e423. [DOI: https://dx.doi.org/10.7717/peerj-cs.423]

20. Attallah, O.; Abougharbia, J.; Tamazin, M.; Nasser, A.A. A BCI system based on motor imagery for assisting people with motor deficiencies in the limbs. Brain Sci.; 2020; 10, 864. [DOI: https://dx.doi.org/10.3390/brainsci10110864] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/33212777]

21. Baraka, A.; Shaban, H.; El-Nasr, A.; Attallah, O. Wearable accelerometer and SEMG-based upper limb BSN for tele-rehabilitation. Appl. Sci.; 2019; 9, 2795. [DOI: https://dx.doi.org/10.3390/app9142795]

22. Attallah, O.; Ragab, D.A.; Sharkas, M. MULTI-DEEP: A novel CAD system for coronavirus (COVID-19) diagnosis from CT images using multiple convolution neural networks. PeerJ; 2020; 8, e10086. [DOI: https://dx.doi.org/10.7717/peerj.10086]

23. Ragab, D.A.; Attallah, O. FUSI-CAD: Coronavirus (COVID-19) diagnosis based on the fusion of CNNs and handcrafted features. PeerJ Compt. Sci.; 2020; 6, e306. [DOI: https://dx.doi.org/10.7717/peerj-cs.306] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/33816957]

24. Oloumi, F.; Rangayyan, R.M.; Ells, A.L. Computer-aided diagnosis of plus disease in retinal fundus images of preterm infants via measurement of vessel tortuosity. Proceedings of the 2015 37th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC); Milano, Italy, 25–29 August 2015; IEEE: Piscataway, NJ, USA, 2015; pp. 4338-4342.

25. Vieira, S.; Pinaya, W.H.; Mechelli, A. Using deep learning to investigate the neuroimaging correlates of psychiatric and neurological disorders: Methods and applications. Neurosci. Biobehav. Rev.; 2017; 74, pp. 58-75. [DOI: https://dx.doi.org/10.1016/j.neubiorev.2017.01.002]

26. Zhang, Y.; Wang, L.; Wu, Z.; Zeng, J.; Chen, Y.; Tian, R.; Zhao, J.; Zhang, G. Development of an automated screening system for retinopathy of prematurity using a deep neural network for wide-angle retinal images. IEEE Access; 2018; 7, pp. 10232-10241. [DOI: https://dx.doi.org/10.1109/ACCESS.2018.2881042]

27. Pour, E.K.; Pourreza, H.; Zamani, K.A.; Mahmoudi, A.; Sadeghi, A.M.M.; Shadravan, M.; Karkhaneh, R.; Pour, R.R.; Esfahani, M.R. Retinopathy of prematurity-assist: Novel software for detecting plus disease. Korean J. Ophthalmol. KJO; 2017; 31, 524. [DOI: https://dx.doi.org/10.3341/kjo.2015.0143]

28. Nasrazadani, D.A.; Wallace, D.K.; Freedman, S.F.; Prakalapakorn, S.G. Development of a scale for grading pre-plus and plus disease using retinal images: A pilot study. J. Am. Assoc. Pediatr. Ophthalmol. Strabismus; 2018; 22, pp. 316-319. [DOI: https://dx.doi.org/10.1016/j.jaapos.2018.01.007] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/29630931]

29. Oloumi, F.; Rangayyan, R.M.; Casti, P.; Ells, A.L. Computer-aided diagnosis of plus disease via measurement of vessel thickness in retinal fundus images of preterm infants. Comput. Biol. Med.; 2015; 66, pp. 316-329. [DOI: https://dx.doi.org/10.1016/j.compbiomed.2015.09.009]

30. Ataer-Cansizoglu, E.; Bolon-Canedo, V.; Campbell, J.P.; Bozkurt, A.; Erdogmus, D.; Kalpathy-Cramer, J.; Patel, S.; Jonas, K.; Chan, R.P.; Ostmo, S. Computer-based image analysis for plus disease diagnosis in retinopathy of prematurity: Performance of the “i-ROP” system and image features associated with expert diagnosis. Transl. Vis. Sci. Technol.; 2015; 4, 5. [DOI: https://dx.doi.org/10.1167/tvst.4.6.5] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/26644965]

31. Bhuiyan, M.N.Q.; Shamsujjoha, M.; Ripon, S.H.; Proma, F.H.; Khan, F. Transfer learning and supervised classifier based prediction model for breast cancer. Big Data Analytics for Intelligent Healthcare Management; Elsevier: Amsterdam, The Netherlands, 2019; pp. 59-86.

32. Byra, M.; Styczynski, G.; Szmigielski, C.; Kalinowski, P.; Michałowski, Ł.; Paluszkiewicz, R.; Ziarkiewicz-Wróblewska, B.; Zieniewicz, K.; Sobieraj, P.; Nowicki, A. Transfer learning with deep convolutional neural network for liver steatosis assessment in ultrasound images. Int. J. Comput. Assist. Radiol. Surg.; 2018; 13, pp. 1895-1903. [DOI: https://dx.doi.org/10.1007/s11548-018-1843-2] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/30094778]

33. Pan, S.J.; Yang, Q. A survey on transfer learning. IEEE Trans. Knowl. Data Eng.; 2009; 22, pp. 1345-1359. [DOI: https://dx.doi.org/10.1109/TKDE.2009.191]

34. Han, D.; Liu, Q.; Fan, W. A new image classification method using CNN transfer learning and web data augmentation. Expert Syst. Appl.; 2018; 95, pp. 43-56. [DOI: https://dx.doi.org/10.1016/j.eswa.2017.11.028]

35. Brown, J.M.; Campbell, J.P.; Beers, A.; Chang, K.; Ostmo, S.; Chan, R.P.; Dy, J.; Erdogmus, D.; Ioannidis, S.; Kalpathy-Cramer, J. Automated diagnosis of plus disease in retinopathy of prematurity using deep convolutional neural networks. JAMA Ophthalmol.; 2018; 136, pp. 803-810. [DOI: https://dx.doi.org/10.1001/jamaophthalmol.2018.1934] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/29801159]

36. Wang, J.; Ju, R.; Chen, Y.; Zhang, L.; Hu, J.; Wu, Y.; Dong, W.; Zhong, J.; Yi, Z. Automated retinopathy of prematurity screening using deep neural networks. EBioMedicine; 2018; 35, pp. 361-368. [DOI: https://dx.doi.org/10.1016/j.ebiom.2018.08.033]

37. Tan, Z.; Simkin, S.; Lai, C.; Dai, S. Deep learning algorithm for automated diagnosis of retinopathy of prematurity plus disease. Transl. Vis. Sci. Technol.; 2019; 8, 23. [DOI: https://dx.doi.org/10.1167/tvst.8.6.23] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/31819832]

38. Lei, B.; Zeng, X.; Huang, S.; Zhang, R.; Chen, G.; Zhao, J.; Wang, T.; Wang, J.; Zhang, G. Automated detection of retinopathy of prematurity by deep attention network. Multimed. Tools Appl.; 2021; pp. 1-20. [DOI: https://dx.doi.org/10.1007/s11042-021-11208-0]

39. Zhang, R.; Zhao, J.; Xie, H.; Wang, T.; Chen, G.; Zhang, G.; Lei, B. Automatic diagnosis for aggressive posterior retinopathy of prematurity via deep attentive convolutional neural network. Expert Syst. Appl.; 2021; 187, 115843. [DOI: https://dx.doi.org/10.1016/j.eswa.2021.115843]

40. Rani, P.; Elagiri Ramalingam, R.; Rajamani, K.T.; Kandemir, M.; Singh, D. Multiple instance learning: Robust validation on retinopathy of prematurity. Int. J. Ctrl. Theory Appl.; 2016; 9, pp. 451-459.

41. Yildiz, V.M.; Tian, P.; Yildiz, I.; Brown, J.M.; Kalpathy-Cramer, J.; Dy, J.; Ioannidis, S.; Erdogmus, D.; Ostmo, S.; Kim, S.J. Plus disease in retinopathy of prematurity: Convolutional neural network performance using a combined neural network and feature extraction approach. Transl. Vis. Sci. Technol.; 2020; 9, 10. [DOI: https://dx.doi.org/10.1167/tvst.9.2.10] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/32704416]

42. Huang, Y.-P.; Vadloori, S.; Chu, H.-C.; Kang, E.Y.-C.; Wu, W.-C.; Kusaka, S.; Fukushima, Y. Deep learning models for automated diagnosis of retinopathy of prematurity in preterm infants. Electronics; 2020; 9, 1444. [DOI: https://dx.doi.org/10.3390/electronics9091444]

43. International Committee for the Classification of Retinopathy of Prematurity. The international classification of retinopathy of prematurity revisited. Arch. Ophthalmol.; 2005; 123, pp. 991-999. [DOI: https://dx.doi.org/10.1001/archopht.123.7.991] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/16009843]

44. Agarwal, K.; Jalali, S. Classification of retinopathy of prematurity: From then till now. Community Eye Health; 2018; 31, S4. [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/30275659]

45. Hu, J.; Chen, Y.; Zhong, J.; Ju, R.; Yi, Z. Automated analysis for retinopathy of prematurity by deep neural networks. IEEE Trans. Med. Imaging; 2018; 38, pp. 269-279. [DOI: https://dx.doi.org/10.1109/TMI.2018.2863562] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/30080144]

46. Zhang, W.; Zhong, J.; Yang, S.; Gao, Z.; Hu, J.; Chen, Y.; Yi, Z. Automated identification and grading system of diabetic retinopathy using deep neural networks. Knowl. Based Syst.; 2019; 175, pp. 12-25. [DOI: https://dx.doi.org/10.1016/j.knosys.2019.03.016]

47. Hasan, A.M.; AL-Jawad, M.M.; Jalab, H.A.; Shaiba, H.; Ibrahim, R.W.; AL-Shamasneh, A.R. Classification of Covid-19 coronavirus, pneumonia and healthy lungs in CT scans using Q-deformed entropy and deep Learning FEATURES. Entropy; 2020; 22, 517. [DOI: https://dx.doi.org/10.3390/e22050517] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/33286289]

48. Zhou, Y.; Sun, X.; Luo, C.; Zha, Z.-J.; Zeng, W. Spatiotemporal fusion in 3D CNNs: A probabilistic view. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition; Seattle, WA, USA, 14–19 June 2020; pp. 9829-9838.

49. Wei, L.; Su, R.; Wang, B.; Li, X.; Zou, Q.; Gao, X. Integration of deep feature representations and handcrafted features to improve the prediction of N6-methyladenosine sites. Neurocomputing; 2019; 324, pp. 3-9. [DOI: https://dx.doi.org/10.1016/j.neucom.2018.04.082]

50. Attallah, O. CoMB-Deep: Composite deep learning-based pipeline for classifying childhood medulloblastoma and its classes. Front. Neuroinf.; 2021; 15, 21. [DOI: https://dx.doi.org/10.3389/fninf.2021.663592] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/34122031]

51. Amin, S.U.; Alsulaiman, M.; Muhammad, G.; Mekhtiche, M.A.; Hossain, M.S. Deep learning for EEG motor imagery classification based on multi-layer CNNs feature fusion. Future Gener. Comput. Syst.; 2019; 101, pp. 542-554. [DOI: https://dx.doi.org/10.1016/j.future.2019.06.027]

52. Xu, Q.; Wang, Z.; Wang, F.; Gong, Y. Multi-feature fusion CNNs for drosophila embryo of interest detection. Phys. A Stat. Mech. Appl.; 2019; 531, 121808. [DOI: https://dx.doi.org/10.1016/j.physa.2019.121808]

53. Zhang, Q.; Li, H.; Sun, Z.; Tan, T. Deep feature fusion for iris and periocular biometrics on mobile devices. IEEE Trans. Inf. Forensics Secur.; 2018; 13, pp. 2897-2912. [DOI: https://dx.doi.org/10.1109/TIFS.2018.2833033]

54. Attallah, O.; Anwar, F.; Ghanem, N.M.; Ismail, M.A. Histo-CADx: Duo cascaded fusion stages for breast cancer diagnosis from histopathological images. PeerJ Comput. Sci.; 2021; 7, e493. [DOI: https://dx.doi.org/10.7717/peerj-cs.493] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/33987459]

55. Perez, L.; Wang, J. The effectiveness of data augmentation in image classification using deep learning. arXiv; 2017; arXiv: 1712.04621

56. Shorten, C.; Khoshgoftaar, T.M. A survey on image data augmentation for deep learning. J. Big Data; 2019; 6, 60. [DOI: https://dx.doi.org/10.1186/s40537-019-0197-0]

57. Ahmed, N.; Rao, K.R. Orthogonal Transforms for Digital Signal Processing; Springer Science & Business Media: Berlin/Heidelberg, Germany, 2012.

58. Subathra, M.S.P.; Mohammed, M.A.; Maashi, M.S.; Garcia-Zapirain, B.; Sairamya, N.J.; George, S.T. Detection of focal and non-focal electroencephalogram signals using fast walsh-hadamard transform and artificial neural network. Sensors; 2020; 20, 4952.

59. Attallah, O.; Gadelkarim, H.; Sharkas, M.A. Detecting and classifying fetal brain abnormalities using machine learning techniques. Proceedings of the 2018 17th IEEE International Conference on Machine Learning and Applications (ICMLA); Orlando, FL, USA, 17–20 December 2018; pp. 1371-1376.

60. Wang, Y.; Yao, H.; Zhao, S. Auto-encoder based dimensionality reduction. Neurocomputing; 2016; 184, pp. 232-242. [DOI: https://dx.doi.org/10.1016/j.neucom.2015.08.104]

61. Antonini, M.; Barlaud, M.; Mathieu, P.; Daubechies, I. Image coding using wavelet transform. IEEE Trans. Image Process.; 1992; 1, pp. 205-220. [DOI: https://dx.doi.org/10.1109/83.136597]

62. Demirel, H.; Ozcinar, C.; Anbarjafari, G. Satellite image contrast enhancement using discrete wavelet transform and singular value decomposition. IEEE Geosci. Remote Sens. Lett.; 2009; 7, pp. 333-337. [DOI: https://dx.doi.org/10.1109/LGRS.2009.2034873]

63. Hatamimajoumerd, E.; Talebpour, A. A temporal neural trace of wavelet coefficients in human object vision: An MEG study. Front. Neural Circuits; 2019; 13, 20. [DOI: https://dx.doi.org/10.3389/fncir.2019.00020] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/31001091]

64. Attallah, O.; Sharkas, M.A.; Gadelkarim, H. Fetal brain abnormality classification from MRI images of different gestational age. Brain Sci.; 2019; 9, 231. [DOI: https://dx.doi.org/10.3390/brainsci9090231] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/31547368]

65. Li, M.; Zhang, T.; Chen, Y.; Smola, A.J. Efficient mini-batch training for stochastic optimization. Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining; New York, NY, USA, 24–27 August 2014; pp. 661-670.

66. Attallah, O. Multi-tasks biometric system for personal identification. Proceedings of the 2019 IEEE International Conference on Computational Science and Engineering (CSE) and IEEE International Conference on Embedded and Ubiquitous Computing (EUC); New York, NY, USA, 1–3 August 2019; IEEE: Piscataway, NJ, USA, 2019; pp. 110-114.

67. Colquhoun, D. An investigation of the false discovery rate and the misinterpretation of p-values. R. Soc. Open Sci.; 2014; 1, 140216. [DOI: https://dx.doi.org/10.1098/rsos.140216]

68. Ellis, P.D. The Essential Guide to Effect Sizes: Statistical Power, Meta-Analysis, and the Interpretation of Research Results; Cambridge University Press: Cambridge, UK, 2010.

69. Thrun, S.; Pratt, L. Learning to learn: Introduction and overview. Learning to Learn; Springer: Berlin/Heidelberg, Germany, 1998; pp. 3-17.

70. Zheng, J.; Rakovski, C. On the application of principal component analysis to classification problems. Data Sci. J.; 2021; 20, 26. [DOI: https://dx.doi.org/10.5334/dsj-2021-026]

71. Ramamurthy, M.; Robinson, Y.H.; Vimal, S.; Suresh, A. Auto encoder based dimensionality reduction and classification using convolutional neural networks for hyperspectral images. Microprocess. Microsyst.; 2020; 79, 103280. [DOI: https://dx.doi.org/10.1016/j.micpro.2020.103280]

72. Lahmiri, S.; Boukadoum, M. Hybrid discrete wavelet transform and gabor filter banks processing for features extraction from biomedical images. J. Med. Eng; 2013; 2013, 104684. [DOI: https://dx.doi.org/10.1155/2013/104684] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/27006906]

73. A Five-LEVEL Wavelet Decomposition and Dimensional Reduction Approach for Feature Extraction and Classification of MR and CT Scan Images. Available online: https://www.hindawi.com/journals/acisc/2017/9571262/ (accessed on 12 March 2019).

74. Jadoon, M.M.; Zhang, Q.; Haq, I.U.; Butt, S.; Jadoon, A. Three-class mammogram classification based on descriptive CNN features. Hindawi BioMed Res. Int.; 2017; 2017, 3640901. [DOI: https://dx.doi.org/10.1155/2017/3640901] [PubMed: https://www.ncbi.nlm.nih.gov/pubmed/28191461]

版权说明:
本文由 youcans@xidian 对论文【DIAROP: Automated Deep Learning-Based Diagnostic Tool for Retinopathy of Prematurity】进行摘编和翻译。该论文版权属于原文期刊和作者,本译文只供研究学习使用。

youcans@xidian 作品,转载必须标注原文链接:
【医学影像 AI】DIAROP:基于深度学习的ROP 自动诊断工具(https://youcans.blog.csdn.net/article/details/151350745)
Crated:2025-09


网站公告

今日签到

点亮在社区的每一天
去签到