基于深度学习的宫颈原位腺癌图像识别方法

刘畅, 郑宇超, 谢文倩, 李晨, 李晓晗

刘畅, 郑宇超, 谢文倩, 李晨, 李晓晗. 基于深度学习的宫颈原位腺癌图像识别方法[J]. 协和医学杂志, 2023, 14(1): 159-167. DOI: 10.12290/xhyxzz.2022-0109
引用本文: 刘畅, 郑宇超, 谢文倩, 李晨, 李晓晗. 基于深度学习的宫颈原位腺癌图像识别方法[J]. 协和医学杂志, 2023, 14(1): 159-167. DOI: 10.12290/xhyxzz.2022-0109
LIU Chang, ZHENG Yuchao, XIE Wenqian, LI Chen, LI Xiaohan. Image Recognition Method of Cervical Adenocarcinoma in Situ Based on Deep Learning[J]. Medical Journal of Peking Union Medical College Hospital, 2023, 14(1): 159-167. DOI: 10.12290/xhyxzz.2022-0109
Citation: LIU Chang, ZHENG Yuchao, XIE Wenqian, LI Chen, LI Xiaohan. Image Recognition Method of Cervical Adenocarcinoma in Situ Based on Deep Learning[J]. Medical Journal of Peking Union Medical College Hospital, 2023, 14(1): 159-167. DOI: 10.12290/xhyxzz.2022-0109

基于深度学习的宫颈原位腺癌图像识别方法

详细信息
    通讯作者:

    李晨, E-mail:lichen@bmie.neu.edu.cn

    李晓晗, E-mail:li_xiaohan1975@hotmail.com

  • 中图分类号: R737

Image Recognition Method of Cervical Adenocarcinoma in Situ Based on Deep Learning

More Information
  • 摘要:
      目的  基于深度学习算法构建宫颈原位腺癌(cervical adenocarcinoma in situ, CAIS)病理图像诊断模型。
      方法  回顾性收集2019年1月至2021年12月中国医科大学附属盛京医院病理科保存的CAIS患者病变组织、慢性宫颈炎患者正常宫颈管腺体病理切片。图像采集后,均按4∶3∶3的比例随机分为训练集、验证集和测试集。使用训练集、验证集数据对VGG16、VGG19、Inception V3、Xception、ResNet50和DenseNet201共6种网络模型进行迁移学习训练和参数调试,构建可识别CAIS病理图像的卷积神经网络二分类模型,并将模型进行组合,构建集成学习模型。基于测试集数据,采用运算时间、准确率、精确率、召回率、F1值、受试者操作特征曲线下面积(area under the curve,AUC)对模型识别CAIS病理图像的性能进行评价。
      结果  共入选符合纳入和排除标准的CAIS患者病理切片104张、慢性宫颈炎患者正常宫颈管腺体病理切片90张。共收集CAIS、正常宫颈管腺体病理图像各500张,其中训练集、验证集、测试集图像分别400张、300张、300张。6种模型中,ResNet50模型的准确率(87.33%)、精确率(90.00%)、F1值(86.90%)及AUC(0.87)均最高,召回率(84.00%)居第2位,运算时间较短(2062.04 s),整体性能最佳,VGG19模型次之,Inception V3与Xception模型的性能最差。6种集成学习模型中,ResNet50与DenseNet201集成模型的整体性能最优,其准确率、精确率、召回率、F1值、AUC分别为89.67%、84.67%、94.07%、89.12%、0.90,VGG19与ResNet50集成模型次之。
      结论  通过深度学习算法构建CAIS病理图像识别模型具有可行性,其中ResNet50模型的整体性能较高。集成学习可提高单一模型对病理图像的识别效果。
    Abstract:
      Objective  To construct a pathological image diagnostic model of cervical adenocarcinoma in situ(CAIS) based on deep learning algorithm.
      Methods  Pathological tissue sections of CAIS and normal cervical canal and gland sections of chronic cervicitis stored in the Pathology Department of Shengjing Hospital, China Medical University from January 2019 to December 2021 were retrospectively collected. After image collection, they were randomly divided into training set, validation set and test set with a ratio of 4∶3∶3. The data of training set and validation set were used to conduct transfer learning training and parameter debugging for 6 network models, including VGG16, VGG19, Inception V3, Xception, ResNet50 and DenseNet201, and the convolutional neural network binary classification model that could recognize pathological images of CAIS was constructed. The models were combined to build the ensemble learning model. Based on the test set data, the performance of pathological image recognition of single model and ensemble learning model was evaluated. The results were expressed by operation time, accuracy, precision, recall, F1 score and area under the curve(AUC) of receiver operating characteristic.
      Results  A total of 104 pathological sections of CAIS and 90 pathological sections of normal cervical duct and gland with chronic cervicitis were selected. A total of 500 pathological images of CAIS and normal cervical duct glands were collected, including 400 images of training set, 300 images of validation set and 300 images of test set, respectively. Among the 6 models, ResNet50 model, with the highest accuracy(87.33%), precision(90.00%), F1 score(86.90%) and AUC(0.87), second highest recall(84.00%) and shorter operation time(2062.04 s), demonstrated the best overall performance; VGG19 model was the second; and Inception V3 and Xception model had the worst performance.Among the 6 kinds of ensemble learning models, ResNet50 and DenseNet201 showed the best overall performance, and their accuracy, precision, recall, F1 score and AUC were 89.67%, 84.67%, 94.07%, 89.12% and 0.90, respectively. VGG19 and ResNet50 ensemble model followed.
      Conclusions  It is feasible to construct CAIS pathological image recognition models by deep learning algorithm, among which ResNet50 models has higher overall performance. Ensemble learning can improve the recognition effect on pathological images by single model.
  • 随着社会经济的快速发展,人民群众对健康和医疗服务的需求日益增长,但目前我国优质医疗卫生资源不足,具备较高素质和专业技术水平的医师数量仍存在较大缺口。北京协和医院(下文简称“协和”)作为国家住院医师规范化培训示范基地,积极探索创新型临床医学人才培养模式,2015年联合国内7家教学医院,牵头成立了“中国住院医师培训精英教学医院联盟”。2016年在住院医师规范化培训的基础上,协和设立了临床医学博士后培养项目,旨在为国家培养高层次复合型医学精英人才。

    协和内科学系坚持以“住院医师规范化培训”为基础,以培养“住院医师核心胜任力”为目标,以“临床培训”为核心,创新性设置了“病房临床医学博士后小组”分层培养模式、阶梯式培养评估反馈体系和360°评价体系,并采用先进的模拟教学方法和设备,在传统病例巡诊的基础上,开设内科危重症模拟培训课程与考评。该培养模式已成为协和内科学系临床医学博士后项目的突出特色,可全面提升临床医学博士后的职业素养、知识技能、病人照护、沟通合作、教学能力和终生学习6项核心胜任力[1]。现总结协和内科学系临床医学博士后项目的实践经验,为培养具有国际视野的复合型医学精英人才提供借鉴和参考。

    随着我国内科学各专科的深入发展,病房收治患者的病种专科化趋势日益突出。内科住院医师规范化培训要求住院医师需在各专科病房轮转2~3个月,期间由1~2名主治医师指导其临床工作,以熟悉或掌握各专科疾病的诊治。协和内科学系既往施行的住院医师培训方案,主要为国内常见的、扁平化的、专科轮转培养模式(图 1A),住院医师完成3年轮转培训后择优担任内科总值班,承担常规和急诊会诊医疗任务,同时参与统筹和协调内科临床、教学、管理等事务。而美国医院的内科综合病房比较常见,收治患者病种多样,涵盖各专科疾病,病房设置由主治医师负责指导的医疗小组,住院医师可在医疗小组内直接或辅助管理各类专科常见疾病病例,而医疗小组的临床工作主要由高年资住院医师在主治医师的指导下进行管理(图 1B),在此培训模式下高年资住院医师的临床能力可以得到更全面的提升。为达到螺旋式提升临床医学博士后核心胜任力的培养目标,内科学系借鉴美国内科住院医师临床培训模式,设计并实施了“病房临床医学博士后小组”分层培养模式。从第2年临床医学博士后学员中择优选出预期可胜任小组长职责的学员,在适合开展该模式的特定病房医疗小组中,开设组中组——“病房临床医学博士后小组”,在负责病房带教和医疗管理的主治医师的指导下,由临床医学博士后作为小组长、带领低年资住院医师和医学生完成临床及教学任务,并向上级主治医师汇报工作,由主治医师对其核心胜任力作出评价和反馈; 而小组外的住院医师仍由病房主治医师直接带教,指导其完成医疗工作; 医疗组所有患者的诊疗仍由病房主治医师总体负责(图 1C)[2]

    图  1  病房医疗组运行模式对比示意图

    协和内科学系通过设置病房临床医学博士后小组长,在传统的平行轮转模式基础上采用分层培养模式,可全方位培养临床医学博士后学员的职业素养、医学知识(知识技能)、患者照顾(病人照护)、人际沟通(沟通合作)、教学能力和自省改进(终生学习)6项核心胜任力(表 1),实现了提升临床医学博士后综合能力的培养目标,与内科学系传统培养模式中要求培养住院医师“医、教、研、管”4方面能力相呼应,且要求更为全面、具体,便于开展系统、细致的评估和反馈,有针对性地制订下一阶段的改进方案。分层培养模式运行期间,患者可以得到来自低年资住院医师、高年资住院医师和病房主治医师的多层照护,保障了医疗工作的有效性和安全性; 同时,临床医学博士后小组长及组员可接受多重评估和反馈,有助于其核心胜任力的培养和提升。实施分层培养模式具有2个关键点:一方面依据科室专科特点和收治患者情况选择适合运行该培养模式的病房; 另一方面依据360°评价体系选择适合担任病房临床医学博士后小组长的学员[2]。可根据各培训基地的具体轮转情况及各专科病房的工作特点,选择适合的科室开展分层培养模式。

    表  1  临床医学博士后6项核心胜任力及阶梯式培养评估反馈体系的评估问题
    核心胜任力 评估问题
    患者照顾 (1)能够正确采集病史和查体,正确收集检验/检查资料并总结分析,总结患者主要临床问题的能力
    (2)能够基于临床信息,形成诊断、鉴别诊断,并制订进一步诊治计划的能力
    (3)能正确实施治疗方案,随访、观察、分析和应对治疗反应的能力
    (4)在保证患者安全的情况下,临床操作的掌握程度
    (5)安全有效地在卫生系统内转运患者的能力
    (6)申请及执行会诊意见的能力
    医学知识 (7)临床知识储备
    (8)及时更新临床知识的能力
    自省改进 (9)自省、接受批评、反馈并改进的能力
    职业素养 (10)尊重患者及其家属,尊重团队中其他成员,乐于帮助同事
    (11)表现出专业、正直、有道德的职业操守
    (12)承担责任和任务跟进的能力
    人际沟通 (13)与患者及其家属有效沟通的能力
    (14)在合作团队中高效工作的能力
    教学能力 (15)教学意识与教学能力
    注:该核心胜任力项目及评价问题作为试行初版,形成于《中国住院医师培训精英教学医院联盟住院医师核心胜任力框架共识》发布之前,故项目名称具体描述与框架共识存在差异
    下载: 导出CSV 
    | 显示表格

    协和内科学系拥有悠久的住院医师规范化培训传统和成熟的管理体系,建立了独立值班考核、出科考核、年度考核、客观结构化临床考试(objective structured clinical examination,OSCE)、内科培训基地入站及出站考核、电子化培训管理考核等体系[3-4]。学员进入内科培训基地时需参加入科考核(OSCE),每年的年度考核也包含OSCE环节、临床思维笔试等内容,以全面评估学员的核心胜任力。但实施OSCE对时间、人员、场地、设备、标准化病人培训等基地投入均有较高的要求,不宜频繁开展。因此,内科学系策划构建一个以提高住院医师核心胜任力为主要目标的形成性评价体系,以便动态监测、评估学员的表现,并阶段性地进行反馈,有针对性地帮助学员提升综合能力。

    在美国毕业后医学教育认证委员会(Accreditation Council for Graduate Medical Education,ACGME)“Outcome”项目以及ACGME与美国内科学会(American Board of Internal Medicine,ABIM)联合设立的里程碑(milestone)评价及反馈体系的基础上,协和内科学系建立了适用于临床医学博士后学员的阶梯式培养评估反馈体系。该体系可围绕核心胜任力对临床医学博士后学员进行多方面评价,在及时性反馈、针对性改进、达成不同层次目标方面收到了良好效果。表 1列举了针对6项核心胜任力培养目标设置的15项评估问题; 图 2展示了2名内科学系临床医学博士后学员连续3年的核心胜任力评价结果,雷达图可直观地反映其核心胜任力提升过程。从图 2可以看出,1名临床医学博士后学员入站即表现较为优秀,并一直保持着较高水平的核心胜任力表现(图 2A),另1名学员在3年内逐步成长、达到了螺旋式上升的培训目标(图 2B)。根据评估结果,向每位临床医学博士后学员进行当面反馈,协助其制订下一阶段的轮转和培养计划[5]。此评估体系不仅可反映临床医学博士后的整体水平,还可个体化反映个人存在的不足,以便进行及时反馈。将阶梯式培养评估反馈体系运用至临床实践中,对临床医学博士后学员进行监测性、形成性、阶段性评估,具有较强的可行性和重要教学价值。

    图  2  北京协和医院2名内科学系临床医学博士后学员连续3年的核心胜任力评估雷达图

    针对第2年临床医学博士后学员开展的“病房临床医学博士后小组”方案中,除定期进行阶梯式培养评估反馈外,还进一步针对学员的表现设置了360°评价体系,涵盖了老师对学员、学员对老师、护士对学员、低年资住院医师对临床医学博士后学员以及临床医学博士后学员对低年资住院医师等多个维度的评估反馈环节,以帮助小组每位成员——特别是临床医学博士后学员,更加全面地了解自身的长处和不足,从而达到全体、全面提升的目的。阶梯式培养评估反馈体系及360°评价体系已提交专利申请,获批后可向开展类似培训项目的基地授权,协助推广实施。

    协和内科学系临床医学博士后项目基于培训细则,先后打造了内科常见疾病基本理论课程、内科基本技能课程、内科专科疾病高级理论课程、内科专科高级技能课程等多种理论和技能课程,采用集中授课或小组讨论等多种授课形式,充分利用协和医院自主学习平台,提供线上自学与线下讨论相结合的学习方法,拓宽临床医学博士后获取知识和技能的途径[1]

    调查发现,内科住院医学规范化培训学员普遍存在危重症病例暴露过低、抢救经验不足的情况[6]。内科学系利用高仿真模拟人设备,组织一批青年教师接受“优化模拟教学指导方法”课程师资培训后,自主研发了一套内科三级专科危重症巡诊及模拟教学课程(图 3)。在模拟教学课程的测试阶段,同期录制标准讲解视频; 并组织来自各专科的青年教学骨干,配套设置了互动式巡诊课程。科室定期组织临床医学博士后学员、高年资住院医师、低年资住院医师和医学生采用互动式巡诊、标准视频教学、线上自学、现场操作及实时考评反馈等形式开展内科危重症培训,以弥补内科学系学员普遍存在危重症病例暴露不足问题。

    图  3  北京协和医院内科学系危重症模拟培训流程图

    该课程的创新之处在于对内科危重症病例进行模拟培训,通过打造接近真实情况的危重症抢救情境(剧本),以团队合作实施抢救的形式进行培训,让学员身临其境。与传统教学模式相比更接近临床真实情境,可同时组织面向不同教学对象的培训(如抢救的指挥者、执行者或参与者等),进行分层教学,这样组建的培训团队角色分工明确,有助于提高团队成员的合作交流能力及指挥者的组织管理能力。该培训方法是模拟培训在内科学系住院医师规范化培训中的积极尝试,可暴露学员在核心胜任力不同维度上存在的问题,为下一阶段的培训提供指导方向[6]

    在危重症模拟培训过程中,可对学员的表现进行及时评价和反馈,学员的评分与其在年度考核OSCE环节中的表现具有很好的相关性,提示内科学系危重症模拟培训考评涵盖患者照顾、医学知识、职业素养、人际沟通、自省改进和教学能力6项核心胜任力(表 2),可全面反映学员的临床能力。该课程体系的标准视频已完成后期制作,巡诊课程由授课教师编写,拟经内科学系教学专家审定后集结成册,与标准视频同期配套发行,以供其他教学医院及内科住院医师规范化培训基地和学员参考。

    表  2  北京协和医院内科学系危重症模拟培训评分表
    内容 评分 内容 评分
    知识掌握 熟练度
    病史采集 病情交代
    决策水平 病情汇报
    药物选择 应变能力
    指令清晰度 领导力
    注:每项满分为10分; 10分表示“杰出,所见过的最好水平”; 8分表示“优秀,比所见的大多数表现优秀”; 6分表示“合格,表现与年资相符但不出众”; 4分表示“欠佳,表现比同年资医师偏弱”; 2分表示“较差,表现比大多数同年资医师差”; 0分表示“极差,所见过的最差水平,需重新训练”
    下载: 导出CSV 
    | 显示表格

    北京协和医院内科学系临床医学博士后培养项目基于全面提升6项核心胜任力的理念,打破既往扁平化的轮转培养模式,开创性设置了“病房临床医学博士后小组”的分层培养模式,实现了核心胜任力培养的螺旋式上升; 建立健全了阶梯式培养评估反馈体系和360°评价体系,实现对临床医学博士后学员的多维度评价和实时反馈,有助于发现学员个人和项目整体不足,有针对性地制订改进方案; 课程设置引入模拟教学方法、先进教学理念和设备,开创内科学系危重症模拟培训及配套互动式巡诊课程,是对学员核心胜任力全面评估的一种新形式。项目实施过程中,内科学系教师的临床带教、评估反馈、模拟教学能力也得到了充分培养和全面提升,助力内科学系教学体系建设的稳步发展。协和内科学系临床医学博士后项目为培养高层次、国际化的临床医学领军人才创造了良好的成长环境和提升平台,值得国内同行借鉴。

    作者贡献:刘畅负责研究设计、临床病理数据收集、病理诊断判读与论文撰写;郑宇超负责研究设计、模型构建与数据分析;谢文倩负责临床病理数据收集与图像采集;李晨、李晓晗负责指导研究设计与论文审校。
    利益冲突:所有作者均声明不存在利益冲突
  • 图  1   宫颈原位腺癌组织病理图像(×100)

    A.正常宫颈管组织(HE染色,箭头);B.宫颈原位腺癌组织(HE染色,箭头);C.免疫组化示P16强阳性表达;D.免疫组化示癌胚抗原阳性;E.免疫组化示雌激素受体阴性;F.免疫组化示Ki-67指数增高(约90%)

    图  2   6种模型训练结果

    图  3   6种模型对测试集图像识别效果的受试者操作特征曲线图

    图  4   6种模型对测试集图像识别效果的混淆矩阵

    CAIS:宫颈原位腺癌;normal:正常宫颈管腺体

    图  5   集成学习模型的受试者操作特征曲线图

    图  6   集成学习模型对测试集图像识别效果的混淆矩阵

    CAIS、normal:同图 4

    表  1   6种模型对测试集图像识别效果的评价指标

    模型 运算时间(s) 准确率(%) 精确率(%) 召回率(%) F1值(%) AUC
    VGG16 2071.33 80.33 86.40 72.00 78.55 0.80
    VGG19 2147.58 84.67 84.67 84.67 84.67 0.85
    Inception V3 2115.85 64.67 61.83 76.67 68.45 0.65
    ResNet50 2062.04 87.33 90.00 84.00 86.90 0.87
    Xception 2061.44 65.00 73.68 46.67 57.14 0.65
    DenseNet201 2124.49 80.33 80.13 80.67 80.40 0.80
    AUC:曲线下面积
    下载: 导出CSV

    表  2   6种集成学习模型对测试集图像识别效果的评价指标

    集成学习模型 准确率(%) 精确率(%) 召回率(%) F1值(%) AUC
    VGG16+VGG19 83.67 77.33 88.55 82.56 0.84
    VGG16+ResNet50 86.00 79.33 91.54 85.00 0.86
    VGG16+DenseNet201 86.33 82.00 89.78 85.71 0.86
    VGG19+ResNet50 88.33 87.33 89.12 88.22 0.88
    VGG19+DenseNet201 87.33 86.00 88.36 87.16 0.87
    ResNet50+DenseNet201 89.67 84.67 94.07 89.12 0.90
    AUC: 同表 1
    下载: 导出CSV
  • [1]

    Cao W, Chen HD, Yu YW, et al. Changing profiles of cancer burden worldwide and in China: a secondary analysis of the global cancer statistics 2020[J]. Chin Med J, 2021, 134: 783-791. DOI: 10.1097/CM9.0000000000001474

    [2]

    Baalbergen A, Helmerhorst TJ. Adenocarcinoma in situ of the uterine cervix: a systematic review[J]. Int J Gynecol Cancer, 2014, 24: 1543-1548. DOI: 10.1097/IGC.0000000000000260

    [3]

    Cleveland AA, Gargano JW, Park IU, et al. Cervical adenocarcinoma in situ: human papillomavirus types and incidence trends in five states, 2008—2015[J]. Int J Cancer, 2020, 146: 810-818. DOI: 10.1002/ijc.32340

    [4] 刘从容. 宫颈腺上皮病变病理学相关问题及其研究进展[J]. 中华妇幼临床医学杂志, 2016, 12: 2-6. DOI: 10.3877/cma.j.issn.1673-5250.2016.01.001

    Liu CR. Pathologic problems and research progress of cervical adenoepithelial lesions[J]. Zhonghua Fuyou Linchuang Yixue Zazhi, 2016, 12: 2-6. DOI: 10.3877/cma.j.issn.1673-5250.2016.01.001

    [5]

    Liu J, Li L, Wang L. Acetowhite region segmentation in uterine cervix images using a registered ratio image[J]. Comput Biol Med, 2018, 93: 47-55. DOI: 10.1016/j.compbiomed.2017.12.009

    [6]

    Xin TL, Chen L, Md Mamunur R, et al. A comprehensive review of computer-aided whole-slide image analysis: from datasets to feature extraction, segmentation, classification and detection approaches[J]. Artifi Intell Rev, 2022, 55: 4809-4878. DOI: 10.1007/s10462-021-10121-0

    [7]

    Song D, Kim E, Huang X, et al. Multimodal entity coreference for cervical dysplasia diagnosis[J]. IEEE Trans Med Imaging, 2015, 34: 229-245. DOI: 10.1109/TMI.2014.2352311

    [8]

    Asiedu MN, Simhal A, Chaudhary U, et al. Development of algorithms for automated detection of cervical pre-cancers with a low-cost, point-of-care, Pocket Colposcope[J]. IEEE Trans Biomed Eng, 2019, 66: 2306-2318. DOI: 10.1109/TBME.2018.2887208

    [9]

    Li C, Chen H, Li XY, et al. A review for cervical histopathology image analysis using machine vision approaches[J]. Artifi Intell Rev, 2020, 53: 4821-4862. DOI: 10.1007/s10462-020-09808-7

    [10] 庄福振, 罗平, 何清, 等. 迁移学习研究进展[J]. 软件学报, 2015, 26: 26-39. https://www.cnki.com.cn/Article/CJFDTOTAL-RJXB201501003.htm

    Zhuang FZ, Luo P, He Q, et al. Research progress of transfer learning[J]. Ruanjian Xuebao, 2015, 26: 26-39. https://www.cnki.com.cn/Article/CJFDTOTAL-RJXB201501003.htm

    [11]

    Jun L, Guang YL, Xiang RT, et al. Transfer learning enhanced generative adversarial networks for multi-channel MRI reconstruction[J]. Comput Biol Med, 2021, 134: 104504. DOI: 10.1016/j.compbiomed.2021.104504

    [12]

    Niu S, Liu M, Liu Y, et al. Distant Domain Transfer Learning for Medical Imaging[J]. IEEE J Biomed Health Inform, 2021, 25: 3784-3793. DOI: 10.1109/JBHI.2021.3051470

    [13] 颜悦, 陈丽萌, 李锦涛, 等. 基于深度学习和组织病理图像的癌症分类研究进展[J]. 协和医学杂志, 2021, 12: 742-748. DOI: 10.12290/xhyxzz.2021-0452

    Yan Y, Chen LM, Li JT, et al. Progress in cancer classification based on deep learning and histopathological images[J]. Xiehe Yixue Zazhi, 201, 12: 742-748. DOI: 10.12290/xhyxzz.2021-0452

    [14] 杨志明, 李亚伟, 杨冰, 等. 融合宫颈细胞领域特征的多流卷积神经网络分类算法[J]. 计算机辅助设计与图形学学报, 2019, 31: 531-540. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJF201904003.htm

    Yang ZM, Li YW, Yang B, et al. Multi-flow convolutional neural network classification algorithm based on domain features of cervical cells[J]. Jisuanji Fuzhu Sheji Yu Tuxingxue Xuebao, 2019, 31: 531-540. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJF201904003.htm

    [15]

    Qiao ZH, Herve D, Nicolas D, et al. 3-D consistent and robust segmentation of cardiac images by deep learning with spatial propagation[J]. IEEE Trans Med Imaging, 2018, 37: 2137-2148. DOI: 10.1109/TMI.2018.2820742

    [16]

    Yang H, Sun J, Li H, et al. Neural multi-atlas label fusion: Application to cardiac MR images[J]. Med image Anal, 2018, 49: 60-75. DOI: 10.1016/j.media.2018.07.009

    [17]

    Jamaludin A, Kadir T, Zisserman A. SpineNet: automated classification and evidence visualization in spinal MRIs[J]. Med image Anal, 2017, 41: 63-73. DOI: 10.1016/j.media.2017.07.002

    [18]

    Sato M, Horie K, Hara A, et al. Application of deep learning to the classification of images from colposcopy[J]. Oncol lett, 2018, 15: 3518-3523.

    [19]

    Simonyan K, Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition[J]. Comput Sci, 2014. https://doi.org/10.48550/arXiv.1409.1556.

    [20]

    Russakovsky O, Deng J, Su H, et al. Imagenet large scale visual recognition challenge[J]. Int J Comput Vision, 2015, 115: 211-252.

    [21]

    Szegedy C, Liu W, Jia Y, et al. Going deeper with convolutions[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015: 1-9.

    [22]

    Chollet F. Xception: Deep learning with depthwise separable convolutions[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 1251-1258.

    [23]

    He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]. Proceedings of the IEEE Confer-ence on Computer Vision and Pattern Recognition, 2016: 770-778.

    [24]

    Huang G, Liu Z, Van DML, et al. Densely connected convolutional networks[C]. Proceedings of the IEEE Confer-ence on Computer VIsion and Pattern Recognition, 2017: 4700-4708.

    [25]

    Al-Haija QA, Adebanjo A. Breast Cancer Diagnosis in Histopathological Images Using ResNet-50 Convolutional Neural Network[C]. 2020 IEEE International IOT, Electronics and Mechatronics Conference (IEMTRONICS). IEEE, 2020.

  • 期刊类型引用(1)

    1. 高姗姗,付梦真,王永莉. 基于深度神经网络的超声弹性成像鉴别宫颈占位性病变良恶性的智能系统构建及效能分析. 齐齐哈尔医学院学报. 2024(17): 1663-1667 . 百度学术

    其他类型引用(3)

图(6)  /  表(2)
计量
  • 文章访问数:  843
  • HTML全文浏览量:  140
  • PDF下载量:  102
  • 被引次数: 4
出版历程
  • 收稿日期:  2022-03-09
  • 录用日期:  2022-05-25
  • 网络出版日期:  2022-09-19
  • 刊出日期:  2023-01-29

目录

/

返回文章
返回
x 关闭 永久关闭