Research Progress on Generative Adversarial Network in Cross-modal Medical Image Reconstruction
-
摘要: 单一模态的医学影像所包含的疾病特征信息有限,临床医生可通过综合分析多种模态的医学影像信息以明确诊断,但由于医疗资源及诊疗时间受限,医生一般无法在短时间内获得所需的多模态影像信息。跨模态医学影像重建技术能够生成临床所需的多种模态医学影像,有望辅助临床医生对疾病进行精准诊疗。目前,传统跨模态重建技术已实现部分临床场景的应用,但重建影像的生成质量有待进一步提高,生成对抗网络可重建出临床所需的高质量多模态医学影像,最大程度地节约医疗资源并缩短患者就诊时间。本文就生成对抗网络在X线、CT、MRI、PET等多模态影像之间的跨模态重建应用研究作一综述,以期为开发更先进的跨模态重建技术提供借鉴。Abstract: Single-modal medical images contain limited disease-specific information. To analyze and diagnose patients, clinicians often need to integrate multiple modal images. However, due to limited medical resources and treatment time, it may be difficult to obtain multi-modal images. Cross-modal image reconstruction can generate medical images for clinical needs, thus assisting clinicians in accurately diagnosing and treating diseases. Traditional cross-modal reconstruction techniques have been applied in some clinical scenarios, but the quality of the reconstructed images needs further improvement. Generative adversarial network (GAN) can recover high-quality and complete image data from low-quality or incomplete medical image data, maximally savings medical equipment resources and accelerating medical treatment speed. This article summarizes the applications of GAN technology in cross-modal image reconstruction across X-ray imaging, computed tomography imaging, magnetic resonance imaging, and positron emission tomography imaging, to provide reference for the development of more advanced cross-modal reconstruction techniques.
-
多模态医学影像是采用不同的医学成像技术[包括X线、CT、MRI、正电子发射断层显像(positron emission computed tomography, PET)等]获取影像学数据,临床医生可通过综合分析不同的影像信息明确患者的诊断[1]。例如,肿瘤科医生可通过CT、MRI和PET/CT等评估肿瘤的部位、大小、形态、浸润深度及其与周围组织的关系。然而,由于存在医疗设备资源短缺及诊疗时间受限等问题,医生一般无法在短时间内获得所需的多模态影像信息[2]。而跨模态医学影像重建技术能够生成临床所需的多模态医学影像,辅助医生对疾病进行精准诊疗,具体流程见图 1。其中,传统跨模态医学影像重建技术主要包括基于图集、稀疏编码和传统机器学习的方法,但其耗时、耗力、稳定性及通用性较差[3-7]。近年来,自编码器(auto encoder,AE)[8]、卷积神经网络(convolutional neural network, CNN)[9-10]及生成对抗网络(generative adversarial network, GAN)[11]等新技术陆续产生。其中,AE在编码-解码的过程中可能造成信息丢失,导致重建影像质量较差,CNN对图像中的噪声和伪影较为敏感,影响重建的准确性和稳定性。而GAN可重建出临床所需的高质量多模态医学影像,最大程度地节约医疗设备资源并加快就诊速度。本文就GAN在X线、CT、MRI、PET等多模态影像之间的跨模态重建应用研究作一综述,以期为开发更先进的跨模态重建技术提供借鉴。
1. GAN模型
GAN模型是一种生成模型,由Goodfellow等[11]于2014年首次提出,引起了学术界和工业界的广泛关注。GAN包含生成器和判别器2个基础网络,见图 2。其中,生成器(下文简称“G”)的目标是生成与真实数据类似的假数据,判别器(下文简称“D”)的目标则是最大程度地区分真实数据和假数据[12]。GAN采用对抗训练策略,即当G生成的假数据越来越真时,D为保持准确性,必须向判别能力越来越强的方向迭代;当D越来越强大时,G为了降低D的准确性,必须生成越来越真的数据。两者在博弈过程中不断迭代,共同进化[13]。
现有GAN模型通过学习源模态至目标模态的全局样本空间映射,已被广泛用于跨模态医学影像重建[14]。由于采用对抗训练策略,GAN对影像的细节具有更好的生成性能[15]。与其他生成模型相比,GAN具有从训练数据中学习原始数据分布和生成高分辨率图像的能力[16]。近年来,随着计算能力的提升及大规模数据集可用性的提高,GAN在理论与模型应用方面得以飞速发展,并被广泛用于医疗领域,协助医生进行术前规划、术中植入物位置评估和术后评估。
2. GAN在X线与CT之间的跨模态重建应用
目前,GAN在X线与CT之间的跨模态重建应用研究主要基于X线影像重建生成CT影像或还原出器官的3D结构,并用于手术导航等领域[17-18]。Ying等[19]提出X2CT-GAN网络,将双平面X线影像重建生成CT影像,并在公开的胸部CT数据集上验证其有效性,通过使用数字图像重建技术(digitally reconstructed radiograph,DRR)生成模拟X线,用以训练网络,重建生成的肺部CT影像表面结构清晰合理,但小解剖结构仍存在伪影。Yang等[20]对X2CT-GAN网络加以改进,提出2D to 3D GAN网络,结合放射科医生的经验调整输入信号,使用不同骨骼信号、不同大小的脊柱数据集比较重建效果,采用ResNet代替DenseNet进行特征提取,需要的显存更小,训练时间更短。使用基于图形处理器(graphic processing unit, GPU)的层析迭代工具(tomographic iterative GPU-based reconstruction toolbox, TIGRE)的反投影合成X线训练网络,可提供更多植入物细节信息,提示GAN在脊柱2D/3D影像配准方面具有临床应用潜力。
双平面(前后位和侧位)X线中包含互补信息,二者结合更有利于CT重建,但在特殊情况下双平面影像获取受限,只有单平面X线影像可用。Schock等[21]在X2CT-GAN的基础上,仅使用单个前后位X线影像进行CT重建,但涉及肿瘤影像时,重建的影像结构不完整。医学影像中的结构和组织存在广泛的空间关联,关键信息可能分布在不同区域,Sinha等[22]提出基于引导注意力机制的生成对抗网络(guided attention generative adversarial network,GA-GAN),在生成器中引入空间和通道的注意力模块以提高重建的CT影像质量,可根据不同尺度的特征重要性进行加权,更好地处理医学影像尺度变化(表 1)。
表 1 X射线与CT之间的跨模态重建模型重建方向 部位 模型名称 模型改进 重建结果 X线→3D结构[18] 脊柱 X-CTRSNet 将用于重建的SpaDRNet模块、用于分割的MulSISNet模块以及RSC学习模块结合 重建并分割出椎骨3D结构,可应用于手术导航等领域 单平面X线→CT[21] 胸部 X2CT-GAN 仅使用单个前后位X线进行CT重建;使用KNN或PCA预测方法补充缺失影像 涉及肿瘤的影像重建时,重建得到的影像结构不完整 双平面X线→CT[19] 胸部 X2CT-GAN 使用DRR技术合成X线用以训练网络; 使用DenseNet构建生成器;提出一种全新的跳跃连接结构 重建得到的肺部影像表面结构清晰合理,但小解剖结构仍存在伪影 双平面X线→CT[20] 脊柱 2D to 3D GAN 使用基于GPU的层析迭代工具的反投影合成X线;使用ResNet代替DenseNet进行特征提取 重建结果可提供更多植入物的细节信息,更具有时间成本效益 双平面X线→CT[22] 胸部 GA-GAN 生成器中引入空间和通道的注意力模块;使用矢量量化法进行重建 模型内存使用减少的同时可提高重建CT影像质量 X-CTRSNet:用于重建的互耦合SpaDRNet模块、用于分割的MulSISNet模块以及用于任务一致性的RSC学习模块相结合的架构;X2CT-GAN:X线到计算断层扫描生成对抗网络;2D to 3D GAN:二维到三维生成对抗网络;GA-GAN:引导注意力机制生成对抗网络;KNN:K近邻预测方法;PCA:主成分分析预测方法;DRR:数字图像重建技术;DenseNet:密集连接网络;GPU: 图形处理器;ResNet:残差网络 使用GAN实现X线影像到CT影像的跨模态重建具有临床应用前景,重建得到的CT影像可辅助医生判断空间结构,可应用于髋关节假体置换术的规划、测量器官(如肺、心脏)大小、检测器官位置以及制订放疗计划。目前,GAN模型虽可成功重建出高质量医学影像,但在处理细微结构和纹理方面仍有所欠缺,在处理细节时常出现模糊、不真实或缺失的情况。
3. GAN在CT与MRI之间的跨模态重建应用
基于CT影像重建MRI影像,可解决特殊患者MRI检查的难题,如接受人工关节置换的患者、心脏起搏器患者[23]。Jiang等[24]设计一种肿瘤感知的无监督跨域适应方法,引入针对肿瘤的特异性感知损失,可更好地保留肿瘤信息。Jin等[25]结合双循环一致损失和体素损失提出MR-GAN网络,可实现将脑CT影像重建生成脑MRI影像。
基于MRI影像重建CT影像,已广泛用于制定癌症放疗计划,可获得与实际CT影像相似的组织密度信息,更准确地计算辐射剂量。Maspero等[26]使用骨盆MRI影像训练pix2pix网络重建CT影像,有助于前列腺癌患者的剂量计算。王蕾等[27]结合GAN模型和U-Net模型建立鼻咽癌MRI影像与CT影像的映射模型,在MRI影像引导的放疗过程中重建CT影像。Abu-Srhan等[28]提出无监督注意力引导生成对抗网络(unsupervised attention guided generative adversarial network,UagGAN),实现了MRI影像与CT影像之间的双向转换,可应用于辅助诊断、手术规划和导航等方面。
不同模态影像之间的配对结果影响重建影像的生成质量,且获取配对准确的CT影像和MRI影像较为困难。为此,循环生成对抗网络(cycle-consistent generative adversarial networks,Cycle GAN) 被提出,如图 3所示,Cycle GAN可学习源影像与目标影像之间的映射关系,影像配对结果不影响其训练过程,实现未配对的不同模态影像间的相互转换[29]。吴香奕等[30]利用Cycle GAN实现盆腔部位的未配对MRI影像与CT影像之间的相互转换,重建得到的盆腔CT影像符合临床剂量精度要求。Cycle GAN技术可在脑、心脏和盆腔等部位实现不同模态影像之间的转换,为医学影像研究及医疗实践提供了新思路。
但Cycle GAN也会生成一些不可靠的结果,导致误诊。为此,研究者对Cycle GAN进行了诸多改进,Zhang等[31]将形状一致性损失融入到Cycle GAN中,实现了心血管CT影像和MRI影像之间的相互转换,解决了配对跨模态心脏数据获取难题。Lei等[32]使用密集模块构建Cycle GAN生成器,可在较短时间内重建高质量CT影像,为后续实时MRI治疗提供了依据。Yang等[33]提出一种无监督MRI-CT合成的结构约束Cycle GAN,可应用于未配对的脑腹部MRI-CT影像重建。Liu等[34]基于3D Cycle GAN架构,新增密集模块和新型复合损失函数,使用腹部MRI影像重建CT影像。Wang等[35]将改进的可变形卷积块集成到网络架构中,并提出新型周期一致性损失和图像对齐损失,在多序列脑部MRI数据和多模态腹部MRI数据中证明了该方法的有效性,解决了源数据与目标数据对齐的难题。
使用Cycle GAN实现CT影像与MRI影像的跨模态重建,重建出的影像伪影较少且分辨率较高,但Cycle GAN网络的重建结果受训练数据的配对程度影响(表 2)。此外,上述方法难以重建复杂病变区域,易忽略病灶的定位、结构等细节信息,进而影响病变区域的重建效果。
表 2 CT与MRI之间的跨模态重建模型重建方向 部位 模型名称 模型改进 重建结果 CT→MRI[24] 肺部 GAN 引入一种针对肿瘤的特异性感知损失 重建的MRI影像可更好地保留肿瘤细节信息 CT→MRI[25] 脑部 MR-GAN 结合双循环一致损失和体素损失 重建结果明显优于使用未配对数据的结果 MRI→CT[26] 骨盆 CGAN 使用配对好的切片数据训练CGAN 重建的CT影像有助于前列腺癌患者剂量计算 MRI→CT[32] 脑部 Cycle GAN 密集模块构建Cycle GAN生成器 实现较短时间内重建高质量CT影像 MRI→CT[34] 腹部 Cycle GAN 新增密集模块和新型复合损失函数 重建结果相比于其他模型结构一致性提高 MRI→CT[33] 腹部 3D Cycle GAN 定义新的结构一致性损失 重建效果明显优于传统Cycle GAN MRI→CT[27] 咽喉 GAN+U-Net 使用改进的U-Net网络构建生成器 重建结果更接近真实CT影像 CT=MRI[31] 心脏 Cycle GAN 将形状一致性损失融入到Cycle GAN 可解决配对跨模态心脏数据获取困难的问题 CT=MRI[28] 脑部 UagGAN 使用配对数据进行预训练;之后在未配对的数据上重新训练 MRI→CT重建效果良好;CT→MRI重建效果一般 CT=MRI[30] 盆腔 Cycle GAN 使用FCN构建生成器和判别器 重建的盆腔CT影像符合临床剂量精度要求 GAN:同表 1;MR-GAN: 磁共振生成对抗网络;CGAN: 条件生成对抗网络;Cycle GAN:循环生成对抗网络;U-Net:U型卷积神经网络;UagGAN:无监督注意力引导生成对抗网络; FCN:全卷积神经网络 4. GAN在MRI与PET之间的跨模态重建应用
跨模态重建MRI影像和PET影像可提供互补的疾病信息[36],用于诊断阿尔茨海默症(alzheimer's disease, AD)等脑部疾病[37]。然而,由于PET费用较高且放射性药物使用许可受到限制,其临床应用受限。基于MRI影像重建的PET影像可协助医生诊断疾病。Hu等[38]提出用双向映射生成对抗网络(bidirec-tional mapping generative adversarial networks, BMGAN)重建PET影像,并在AD数据集中验证了该方法的有效性,结合重建的PET影像和MRI影像进行AD分类。Pan等[39]基于Cycle GAN提出了AD诊断和轻度认知损伤(mild cognitive impairment,MCI)预测模型。Gao等[40]提出任务导向的金字塔和注意力生成对抗网络(task-induced pyramid and attention-generative adversarial network, TPA-GAN),基于给定配对的MRI影像重建PET影像。PET影像还可用于定位癫痫致癫区,Yaakub等[41]提出3DGAN模型,重建得到的PET影像可作为辅助医生诊断的客观补充。Wei等[42]提出定义特定损失函数的生成对抗网络(sketcher-refiner GAN),从MRI重建PET衍生的髓鞘含量图预测病变区域的脱髓鞘含量。
PET影像的清晰度较MRI更低,但也有研究从PET影像重建MRI影像。如Choi等[43]优化pix2pix网络,从淀粉样蛋白(amyloid β-protein,Aβ)的PET影像成功重建MRI影像,可用于精确的Aβ定量分析,但重建MRI影像在视觉上很难区分灰质和白质,且具有一定的伪影(表 3)。后续研究人员对GAN模型作出不同改进,使重建MRI影像显示的诊断信息更加丰富[44-45]。
表 3 MRI与PET之间的跨模态重建模型重建方向 部位 模型名称 模型改进 重建结果 MRI→PET[38] 脑部 BMGAN 提出3D-Dense U-Net构建生成器 重建的PET影像可辅助MRI影像进行阿尔茨海默症分类 MRI→PET[39] 脑部 Cycle GAN 3D CGAN网络和LM3IL网络分别学习MRI与PET之间的双向映射 重建的PET影像与MRI影像共同进行脑疾病分类效果更好 MRI→PET[42] 脑部 Sketcher-Refiner GAN 先使用Sketcher大体绘制结构信息; 再使用Refiner细致绘制影像纹理信息 重建的PET影像在病变区域可保留更多细节信息 MRI→PET[41] 脑部 3D GAN 提出两个阶段的3D-GAN框架 重建的PET影像可作为医生诊断的客观补充 MRI→PET[40] 脑部 TPA-GAN 将金字塔卷积模块和注意力模块引入到GAN中 重建结果有助于插补缺失影像和脑部疾病诊断 PET→MRI[43] 脑部 CGAN 使用U-Net构建生成器 能够重建出逼真的MRI影像,但存在一定的伪影 Cycle GAN、CGAN、U-Net:同表 2;PET:正电子发射断层显像;BMGAN:双向映射生成对抗网络;Sketcher-Refiner GAN:草图生成-精细生成生成对抗网络;3D GAN:3D生成对抗网络;TPA-GAN:任务导向的金字塔和注意力生成对抗网络; 3D-Dense-U-Net:3D密集连接U型卷积神经网络;3D CGAN: 3D循环生成对抗网络;LM3IL:基于地标的多模态实例学习网络 使用GAN模型实现MRI影像和PET影像的跨模态重建可提供多模态影像信息并补充缺失的病理信息,但仍存在数据不匹配的问题,如何准确地将两种模态的数据对齐,以保持特征的一致性和准确性,是未来改进的方向。
5. GAN在CT与PET之间的跨模态重建应用
基于CT影像重建PET影像,可实现仅有CT影像的情况下进行病变检测,减少对患者的辐射。Ben-Cohen等[46]将全卷积神经网络(fully convolutional network, FCN)与条件生成对抗网络(conditional generative adversarial nets, CGAN)相结合,从CT影像重建PET影像,更易识别恶性肝脏病变区域,无需在训练前手动标记病变区域。
基于PET影像重建CT影像,可应用于PET数据的衰减校正。Dong等[47]对Cycle GAN进行改进,以自注意力U-Net构建生成器,重建得到的CT影像与真实CT影像相似且在软组织上显示出良好的对比度。Armanious等[48]提出专门用于医学影像转换的生成对抗网络(medical image translation using GANs, MedGAN) 架构,连接多个FCN构建生成器,确保重建出高分辨率清晰的CT影像。Upadhyay等[49]提出渐进式生成对抗网络(uncertainty-guided progres-sive GAN, UP-GAN),通过级联MedGAN模型,以渐进方式训练GAN的注意力图,逐渐生成保真度增加的CT影像(表 4)。
表 4 CT与PET之间的跨模态重建模型重建方向 部位 模型名称 模型改进 重建结果 CT→PET[46] 肝脏 FCN-CGAN 使用全卷积神经网络构建生成器;使用自定义损失函数 无需手动标记病变区域数据 PET→CT[47] 肺部 Cycle GAN 使用自注意力U-Net构建生成器 重建的CT影像与真实CT影像相似且在软组织上显示出良好的对比度 PET→CT[48] 脑部 Med-GAN 将多个全卷积神经网络通过跳跃连接结构连接在一起,构建生成器 重建得到高分辨率的CT影像 PET→CT[49] 脑部 UP-GAN 将几个Med-GAN模型级联 重建得到保真度增加的CT影像 PET: 同表 3;Cycle GAN、U-Net:同表 2;FCN-CGAN:全卷积条件生成对抗网络;Med-GAN:医学影像转换生成对抗网络;UP-GAN:渐进式生成对抗网络 使用GAN实现PET影像与CT影像的跨模态重建有助于识别病变以及PET数据的衰减校正,但仍存在以下不足:PET影像包含较多的噪声,而CT影像较为清晰,但噪声预处理问题需要解决;PET影像和CT影像的分辨率和对比度不同,如要解决解剖结构和医学特征的对应问题,需更高级的图像配准和分割算法。
6. GAN在多种模态影像之间的跨模态重建应用
现有的GAN模型变体是通过学习从源模态到目标模态的全局样本空间映射,并将该映射应用于整个空间中的所有样本进行预测。但医学数据集稀缺且获取存在难度,在数量有限的数据集上学习出适用于所有医学影像的跨模态重建模型存在一定的挑战性。目前,已有研究提出可应用于重建多种模态医学影像的模型,例如,Tomar等[50]提出一种基于GAN网络的自适应医学影像重建方法,在多模态心脏和脑肿瘤数据集上验证了该方法的有效性;Chen等[51]提出新型目标感知生成对抗网络(target-aware generative adver-sarial network, Tar-GAN),其是一种通用的多种模态医学影像转换模型,能够在不依赖配对数据的情况下实现多种模态转换;Yu等[52]提出样本自适应生成对抗网络(sample-adaptive generative adversarial network,SA-GAN),其不仅学习从源模态到目标模态的全局样本空间映射,还学习每个样本独有的特征,新增的样本适应路径使SA-GAN网络可根据不同样本进行自我调整,大幅提升了重建模型性能,此外,SA-GAN中提及的样本自适应策略可改进各种GAN网络,并根据实际需求进行调整。
7. 小结与展望
高质量多模态医学影像是实现临床疾病诊疗的关键组成部分,在相同的生理状态下,对同一病灶进行多种模态的影像重建,充分利用不同模态的互补作用,可辅助医生快速作出诊断决策,并用于术前方案制定、智能医疗和医学大数据分析等研究领域。GAN在不同场景下的医学影像跨模态重建应用已取得一定成果,但仍存在如下不足:(1)泛化程度受限:单一模型实现多种模态之间的重建尚有难度,且现有的重建方法通常在特定数据集上训练,难以在不同数据集或不同场景中泛化,跨域泛化成为限制跨模态重建结果的一个关键挑战。(2)重建准确性不足:不同模态医学影像各自携带了不同的信息,在跨模态重建中,由于部分信息缺失,可能无法完全捕捉到两种模态的细微变化和相关特征,从而影响重建结果的准确性和完整性。(3) 评估指标不准确:缺乏一致的评估指标和标准。如何客观、准确地评估跨模态重建结果的质量和可行性亟待解决。(4)算法过于复杂:现有的跨模态重建方法涉及复杂的网络架构、多阶段的训练过程或迭代优化,导致计算复杂度较高,耗时较长,限制其在临床应用中的效率和实时性。(5)算法可解释性不足:多模态算法不仅需重建出高质量的影像,还应提供可解释的医学信息,以便医生作出准确的诊断。
未来应着眼于建立更强大、更通用、更轻量化的网络模型,以现有模型为基础,开发更先进的跨模态重建技术,以期在医学影像领域发挥更重要的作用,为医生提供更加准确和全面的诊断信息。
作者贡献:李卓远、徐国豪负责论文撰写和修订;王峻晨、王赛硕负责文献检索;翟吉良、王传涛负责论文审校。利益冲突:所有作者均声明不存在利益冲突 -
表 1 X射线与CT之间的跨模态重建模型
重建方向 部位 模型名称 模型改进 重建结果 X线→3D结构[18] 脊柱 X-CTRSNet 将用于重建的SpaDRNet模块、用于分割的MulSISNet模块以及RSC学习模块结合 重建并分割出椎骨3D结构,可应用于手术导航等领域 单平面X线→CT[21] 胸部 X2CT-GAN 仅使用单个前后位X线进行CT重建;使用KNN或PCA预测方法补充缺失影像 涉及肿瘤的影像重建时,重建得到的影像结构不完整 双平面X线→CT[19] 胸部 X2CT-GAN 使用DRR技术合成X线用以训练网络; 使用DenseNet构建生成器;提出一种全新的跳跃连接结构 重建得到的肺部影像表面结构清晰合理,但小解剖结构仍存在伪影 双平面X线→CT[20] 脊柱 2D to 3D GAN 使用基于GPU的层析迭代工具的反投影合成X线;使用ResNet代替DenseNet进行特征提取 重建结果可提供更多植入物的细节信息,更具有时间成本效益 双平面X线→CT[22] 胸部 GA-GAN 生成器中引入空间和通道的注意力模块;使用矢量量化法进行重建 模型内存使用减少的同时可提高重建CT影像质量 X-CTRSNet:用于重建的互耦合SpaDRNet模块、用于分割的MulSISNet模块以及用于任务一致性的RSC学习模块相结合的架构;X2CT-GAN:X线到计算断层扫描生成对抗网络;2D to 3D GAN:二维到三维生成对抗网络;GA-GAN:引导注意力机制生成对抗网络;KNN:K近邻预测方法;PCA:主成分分析预测方法;DRR:数字图像重建技术;DenseNet:密集连接网络;GPU: 图形处理器;ResNet:残差网络 表 2 CT与MRI之间的跨模态重建模型
重建方向 部位 模型名称 模型改进 重建结果 CT→MRI[24] 肺部 GAN 引入一种针对肿瘤的特异性感知损失 重建的MRI影像可更好地保留肿瘤细节信息 CT→MRI[25] 脑部 MR-GAN 结合双循环一致损失和体素损失 重建结果明显优于使用未配对数据的结果 MRI→CT[26] 骨盆 CGAN 使用配对好的切片数据训练CGAN 重建的CT影像有助于前列腺癌患者剂量计算 MRI→CT[32] 脑部 Cycle GAN 密集模块构建Cycle GAN生成器 实现较短时间内重建高质量CT影像 MRI→CT[34] 腹部 Cycle GAN 新增密集模块和新型复合损失函数 重建结果相比于其他模型结构一致性提高 MRI→CT[33] 腹部 3D Cycle GAN 定义新的结构一致性损失 重建效果明显优于传统Cycle GAN MRI→CT[27] 咽喉 GAN+U-Net 使用改进的U-Net网络构建生成器 重建结果更接近真实CT影像 CT=MRI[31] 心脏 Cycle GAN 将形状一致性损失融入到Cycle GAN 可解决配对跨模态心脏数据获取困难的问题 CT=MRI[28] 脑部 UagGAN 使用配对数据进行预训练;之后在未配对的数据上重新训练 MRI→CT重建效果良好;CT→MRI重建效果一般 CT=MRI[30] 盆腔 Cycle GAN 使用FCN构建生成器和判别器 重建的盆腔CT影像符合临床剂量精度要求 GAN:同表 1;MR-GAN: 磁共振生成对抗网络;CGAN: 条件生成对抗网络;Cycle GAN:循环生成对抗网络;U-Net:U型卷积神经网络;UagGAN:无监督注意力引导生成对抗网络; FCN:全卷积神经网络 表 3 MRI与PET之间的跨模态重建模型
重建方向 部位 模型名称 模型改进 重建结果 MRI→PET[38] 脑部 BMGAN 提出3D-Dense U-Net构建生成器 重建的PET影像可辅助MRI影像进行阿尔茨海默症分类 MRI→PET[39] 脑部 Cycle GAN 3D CGAN网络和LM3IL网络分别学习MRI与PET之间的双向映射 重建的PET影像与MRI影像共同进行脑疾病分类效果更好 MRI→PET[42] 脑部 Sketcher-Refiner GAN 先使用Sketcher大体绘制结构信息; 再使用Refiner细致绘制影像纹理信息 重建的PET影像在病变区域可保留更多细节信息 MRI→PET[41] 脑部 3D GAN 提出两个阶段的3D-GAN框架 重建的PET影像可作为医生诊断的客观补充 MRI→PET[40] 脑部 TPA-GAN 将金字塔卷积模块和注意力模块引入到GAN中 重建结果有助于插补缺失影像和脑部疾病诊断 PET→MRI[43] 脑部 CGAN 使用U-Net构建生成器 能够重建出逼真的MRI影像,但存在一定的伪影 Cycle GAN、CGAN、U-Net:同表 2;PET:正电子发射断层显像;BMGAN:双向映射生成对抗网络;Sketcher-Refiner GAN:草图生成-精细生成生成对抗网络;3D GAN:3D生成对抗网络;TPA-GAN:任务导向的金字塔和注意力生成对抗网络; 3D-Dense-U-Net:3D密集连接U型卷积神经网络;3D CGAN: 3D循环生成对抗网络;LM3IL:基于地标的多模态实例学习网络 表 4 CT与PET之间的跨模态重建模型
重建方向 部位 模型名称 模型改进 重建结果 CT→PET[46] 肝脏 FCN-CGAN 使用全卷积神经网络构建生成器;使用自定义损失函数 无需手动标记病变区域数据 PET→CT[47] 肺部 Cycle GAN 使用自注意力U-Net构建生成器 重建的CT影像与真实CT影像相似且在软组织上显示出良好的对比度 PET→CT[48] 脑部 Med-GAN 将多个全卷积神经网络通过跳跃连接结构连接在一起,构建生成器 重建得到高分辨率的CT影像 PET→CT[49] 脑部 UP-GAN 将几个Med-GAN模型级联 重建得到保真度增加的CT影像 PET: 同表 3;Cycle GAN、U-Net:同表 2;FCN-CGAN:全卷积条件生成对抗网络;Med-GAN:医学影像转换生成对抗网络;UP-GAN:渐进式生成对抗网络 -
[1] Yu B, Wang Y, Wang L, et al. Medical image synthesis via deep learning[J]. Adv Exp Med Biol, 2020, 1213: 23-44.
[2] Luo Y, Nie D, Zhan B, et al. Edge-preserving MRI image synthesis via adversarial network with iterative multi-scale fusion[J]. Neurocomputing, 2021, 452: 63-77. DOI: 10.1016/j.neucom.2021.04.060
[3] Avants BB, Epstein CL, Grossman M, et al. Symmetric diffeomorphic image registration with cross-correlation: evaluat-ing automated labeling of elderly and neurodegenerative brain[J]. Med Image Anal, 2008, 12: 26-41. DOI: 10.1016/j.media.2007.06.004
[4] Roy S, Carass A, Shiee N, et al. MR contrast synthesis for lesion segmentation[C]. Proc IEEE Int Symp Biomed Imaging, 2010, 2010: 932-935.
[5] Ye DH, Zikic D, Glocker B, et al. Modality propagation: coherent synthesis of subject-specific scans with data-driven regularization[C]. Med Image Comput Comput Assist Interv, 2013, 16: 606-613.
[6] Huynh T, Gao Y, Kang J, et al. Estimating CT image from MRI data using structured random forest and auto-context model[J]. IEEE Trans Med Imaging, 2016, 35: 174-183. DOI: 10.1109/TMI.2015.2461533
[7] Jog A, Carass A, Roy S, et al. Random forest regression for magnetic resonance image synthesis[J]. Med Image Anal, 2017, 35: 475-488. DOI: 10.1016/j.media.2016.08.009
[8] Jiang J, Veeraraghavan H. Unified cross-modality feature disentangler for unsupervised multi-domain MRI abdomen organs segmentation[C]. Med Image Comput Comput Assist Interv, 2020, 12262: 347-358.
[9] Xiong Z, Stiles MK, Yao Y, et al. Automatic 3D surface reconstruction of the left atrium from clinically mapped point clouds using convolutional neural networks[J]. Front Physiol, 2022, 13: 880260. DOI: 10.3389/fphys.2022.880260
[10] Shen L, Zhao W, Xing L. Patient-specific reconstruction of volumetric computed tomography images from a single projection view via deep learning[J]. Nat Biomed Eng, 2019, 3: 880-888. DOI: 10.1038/s41551-019-0466-4
[11] Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial nets[J]. Adv Neural Inf Process Syst, 2014, 27: 2672-2680.
[12] Aggarwal A, Mittal M, Battineni G. Generative adversarial network: An overview of theory and applications[J]. Int J Inf Manage, 2021, 1: 100004.
[13] Wang K, Gou C, Duan Y, et al. Generative adversarial networks: introduction and outlook[J]. IEEE/CAA J Autom Sin, 2017, 4: 588-598. DOI: 10.1109/JAS.2017.7510583
[14] Singh NK, Raza K. Medical image generation using generative adversarial networks: A review[J]. Health Informatics J, 2021: 77-96.
[15] Zhou J. Research on Generative Adversarial Networks and Their Applications in Image Generation[C]. IEEE Int Conf Adv Electr Eng Comput Appl, 2022: 1144-1147.
[16] Ravi D, Blumberg SB, Ingala S, et al. Degenerative adversarial neuroimage nets for brain scan simulations: Applica-tion in ageing and dementia[J]. Med Image Anal, 2022, 75: 102257. DOI: 10.1016/j.media.2021.102257
[17] Jecklin S, Jancik C, Farshad M, et al. X23D-Intraopera-tive 3D Lumbar Spine Shape Reconstruction Based on Sparse Multi-View X-ray Data[J]. J Imaging, 2022, 8: 271. DOI: 10.3390/jimaging8100271
[18] Ge R, He Y, Xia C, et al. X-CTRSNet: 3D cervical vertebra CT reconstruction and segmentation directly from 2D X-ray images[J]. Knowl Based Syst, 2022, 236: 107680. DOI: 10.1016/j.knosys.2021.107680
[19] Ying X, Guo H, Ma K, et al. X2CT-GAN: reconstructing CT from biplanar X-rays with generative adversarial networks[C]. Proc IEEE Comput Soc Vision Pattern Recognit, 2019: 10619-10628.
[20] Yang CJ, Lin CL, Wang CK, et al. Generative Adversarial Network (GAN) for Automatic Reconstruction of the 3D Spine Structure by Using Simulated Bi-Planar X-ray Images[J]. Diagnostics, 2022, 12: 1121. DOI: 10.3390/diagnostics12051121
[21] Schock J, Lan YC, Truhn D, et al. Monoplanar CT Reconstruction with GANs[C]. IPTA, 2022: 1-6.
[22] Sinha A, Sugawara Y, Hirano Y. GA-GAN: CT reconstruction from biplanar DRRs using GAN with guided attention[J]. CORR, 2019. doi: 10.48550/arXiv.1909.12525.
[23] Zhan B, Xiao J, Cao C, et al. Multi-constraint generative adversarial network for dose prediction in radiotherapy[J]. Med Image Anal, 2022, 77: 102339. DOI: 10.1016/j.media.2021.102339
[24] Jiang J, Hu YC, Tyagi N, et al. Tumor-aware, adversarial domain adaptation from CT to MRI for lung cancer segmentation[C]. Med Image Comput Comput Assist Interv, 2018: 777-785.
[25] Jin CB, Kim H, Liu M, et al. Deep CT to MR synthesis using paired and unpaired data[J]. Sensors, 2019, 19: 2361. DOI: 10.3390/s19102361
[26] Maspero M, Savenije MHF, Dinkla AM, et al. Dose evaluation of fast synthetic-CT generation using a generative adversarial network for general pelvis MR-only radiotherapy[J]. Phys Med Biol, 2018, 63: 185001. DOI: 10.1088/1361-6560/aada6d
[27] 王蕾, 李媛茜. 基于生成对抗网络的CT图像生成[J]. 成都信息工程大学学报, 2021, 36: 286-292. https://www.cnki.com.cn/Article/CJFDTOTAL-CDQX202103008.htm [28] Abu-Srhan A, Almallahi I, Abushariah MAM, et al. Paired-unpaired Unsupervised Attention Guided GAN with transfer learning for bidirectional brain MR-CT synthesis[J]. Comput Biol Med, 2021, 136: 104763. DOI: 10.1016/j.compbiomed.2021.104763
[29] Zhu JY, Park T, Isola P, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks[C]. Proc IEEE Comput Soc Vision Pattern Recognit, 2017: 2223-2232.
[30] 吴香奕, 曹锋, 曹瑞芬, 等. 基于循环一致性生成对抗网络的盆腔伪CT生成方法[J]. 中国医学物理学杂志, 2021, 38: 21-29. https://www.cnki.com.cn/Article/CJFDTOTAL-YXWZ202101006.htm [31] Zhang Z, Yang L, Zheng Y. Translating and segmenting multimodal medical volumes with cycle-and shape-consistency generative adversarial network[C]. Proc IEEE Comput Soc Vision Pattern Recognit, 2018: 9242-9251.
[32] Lei Y, Harms J, Wang T, et al. MRI-only based synthetic CT generation using dense cycle consistent generative adversarial networks[J]. Med Phys, 2019, 46: 3565-3581. DOI: 10.1002/mp.13617
[33] Yang H, Sun J, Carass A, et al. Unsupervised MR-to-CT synthesis using structure-constrained Cycle GAN[J]. IEEE Trans Med Imaging, 2020, 39: 4249-4261 DOI: 10.1109/TMI.2020.3015379
[34] Liu Y, Lei Y, Wang T, et al. Liver synthetic CT generation based on a dense-Cycle GAN for MRI-only treatment planning[C]. Image Processing, 2020, 11313: 659-664.
[35] Wang C, Yang G, Papanastasiou G, et al. DiCyc: GAN-based deformation invariant cross-domain information fusion for medical image synthesis[J]. Inf Fusion, 2021, 67: 147-160. DOI: 10.1016/j.inffus.2020.10.015
[36] Wang R, Bashyam V, Yang Z, et al. Applications of generative adversarial networks in neuroimaging and clinical neuroscience[J]. Neuroimage, 2023, 269: 119898. DOI: 10.1016/j.neuroimage.2023.119898
[37] Zhang J, He X, Qing L, et al. BPGAN: Brain PET synthesis from MRI using generative adversarial network for multi-modal Alzheimer's disease diagnosis[J]. Comput Meth Prog Bio, 2022, 217: 106676. DOI: 10.1016/j.cmpb.2022.106676
[38] Hu S, Lei B, Wang S, et al. Bidirectional mapping generative adversarial networks for brain MR to PET synthesis[J]. IEEE Trans Med Imaging, 2021, 4: 145-157.
[39] Pan Y, Liu M, Lian C, et al. Synthesizing missing PET from MRI with cycle-consistent generative adversarial networks for Alzheimer's disease diagnosis[C]. Med Image Comput Comput Assist Interv, 2018: 455-463.
[40] Gao X, Shi F, Shen D, et al. Task-induced pyramid and attention GAN for multimodal brain image imputation and classification in alzheimer's disease[J]. IEEE J Biomed Health Inf, 2021, 26: 36-43.
[41] Yaakub SN, McGinnity CJ, Clough JR, et al. Pseudo-normal PET synthesis with generative adversarial networks for localising hypometabolism in epilepsies[C]. SASHIMI, 2019: 42-51.
[42] Wei W, Poirion E, Bodini B, et al. Learning myelin content in multiple sclerosis from multimodal MRI through adver-sarial training[C]. Med Image Comput Comput Assist Interv, 2018: 514-522.
[43] Choi H, Lee DS. Generation of structural MR images from amyloid PET: application to MR-less quantification[J]. J Nucl Med, 2018, 59: 1111-1117. DOI: 10.2967/jnumed.117.199414
[44] Zhan B, Li D, Wang Y, et al. LR-CGAN: Latent representation based conditional generative adversarial network for multi-modality MRI synthesis[J]. Biomed Signal Process Control, 2021, 66: 102457. DOI: 10.1016/j.bspc.2021.102457
[45] Zhan B, Zhou L, Li Z, et al. D2FE-GAN: Decoupled dual feature extraction based GAN for MRI image synthesis[J]. Knowl Based Sys, 2022, 252: 109362. DOI: 10.1016/j.knosys.2022.109362
[46] Ben-Cohen A, Klang E, Raskin SP, et al. Cross-modality synthesis from CT to PET using FCN and GAN networks for improved automated lesion detection[J]. Eng Appl Artif Intell, 2019, 78: 186-194. DOI: 10.1016/j.engappai.2018.11.013
[47] Dong X, Wang T, Lei Y, et al. Synthetic CT generation from non-attenuation corrected PET images for whole-body PET imaging[J]. Phys Med Biol, 2019, 64: 215016. DOI: 10.1088/1361-6560/ab4eb7
[48] Armanious K, Jiang C, Fischer M, et al. MedGAN: Medical image translation using GANs[J]. Comput Med Imag Grap, 2020, 79: 101684. DOI: 10.1016/j.compmedimag.2019.101684
[49] Upadhyay U, Chen Y, Hepp T, et al. Uncertainty-guided progressive GANs for medical image translation[C]. Med Image Comput Comput Assist Interv, 2021: 614-624.
[50] Tomar D, Lortkipanidze M, Vray G, et al. Self-attentive spatial adaptive normalization for cross-modality domain adaptation[J]. IEEE Trans Med Imaging, 2021, 40: 2926-2938. DOI: 10.1109/TMI.2021.3059265
[51] Chen J, Wei J, Li R. TarGAN: target-aware generative adversarial networks for multi-modality medical image translation[C]. Med Image Comput Comput Assist Interv, 2021: 24-33.
[52] Yu B, Zhou L, Wang L, et al. Sample-adaptive GANs: linking global and local mappings for cross-modality MR image synthesis[J]. IEEE Trans Med Imaging, 2020, 39: 2339-2350. DOI: 10.1109/TMI.2020.2969630
-
期刊类型引用(0)
其他类型引用(2)