- · 《中国耳鼻咽喉头颈外科[01/26]
- · 《中国耳鼻咽喉头颈外科[01/26]
- · 中国耳鼻咽喉头颈外科版[01/26]
基于组合网络的图像头颈放疗危及器官自动分割
作者:网站采编关键词:
摘要:贺宝春, 贾富仓. 基于组合 U-Net 网络的 CT 图像头颈放疗危及器官自动分割 [J]. 集成技术, 2020, 9(2): 17-24.He BC, Jia FC. Head and neck CT segmentation based on a combined U-Net model [J]. Journal of Integration T
贺宝春, 贾富仓. 基于组合 U-Net 网络的 CT 图像头颈放疗危及器官自动分割 [J]. 集成技术, 2020, 9(2): 17-24.He BC, Jia FC. Head and neck CT segmentation based on a combined U-Net model [J]. Journal of Integration Technology, 2020, 9(2): 17-24.
1 引 言
放疗是癌症治疗的重要手段之一,术前针对肿瘤及普通器官放射剂量计划是手术的关键步骤。放疗计划的目的在于确保肿瘤接受足够剂量的辐射,并防止放疗时高危及器官正常细胞受到过多损伤[1-2]。危及器官对辐射非常敏感,如视神经和视交叉不能接受太多放疗,否则病人容易失明。而放疗计划的关键一步就是高危及器官的边界识别。因此,高危及器官的自动分割有助于减少医生放疗计划的工作量,无论是从时间还是经济角度都能够减少放疗的整体代价。此外,CT 头颈高危及器官的分割存在对比度低、器官边界不清、图像扫描间距过大导致的冠状面和矢状面分辨率模糊等问题,其中最主要的是过小的器官视交叉和脑垂体带来的类不平衡问题。
头颈分割方法主要包括传统的多图谱方法[3]、基于形状模型的方法[4]及近些年基于深度学习的方法[5-10]。其中,传统基于配准的多图谱方法对于微小器官分割精度很低。基于形状模型方法的缺点是局部结构对比度低导致模型难以收敛到结构边界。深度学习方法能够非线性刻画多个器官的局部和全局特征,分割精度更高,但针对头颈 CT 图像的分割,深度学习方法主要的挑战是极小器官带来的类不平衡问题。Gao 等[7]和 Zhu 等[11]提出使用焦点损失代价函数解决类不平衡问题,并在网络中减少池化次数,降低下采样对微小器官分割的副作用。Gao 等[7]提出的 FocusNet 使用额外的网络去单独训练微小器官,以解决类不平衡问题。
目前,绝大多数医学图像深度学习分割方法都是基于全卷积网络(Fully Convolutional Network,FCN)[12]或 U-Net 网络结构[13],根据分割图像模态、器官或肿瘤以及图像维度等特点,在网络的宽度、深度、损失函数、预处理方法以及注意力机制等方面进行个性化设计,以获得最优分割效果。对于尺寸较大的三维图像分割来说,内存是制约分割精度的关键因素。在输入到三维网络前,需要对三维图像进行裁剪或下采样,这导致输入信息必然有所损失。为解决上述问题,已有的方法通过并行或串行方式提取上下文信息和高分辨率信息。如 Kamnitsas 等[14]提出一种两路并行 FCN 方法解决脑肿瘤分割问题,其中一路使用下采样但具有较多的上下文信息,另一路则使用原始分辨率的局部感兴趣区域作为输入,两路特征最后通过裁剪形式进行信息融合共同决策。Zhou 等[15]提出一种串行的固定点胰腺分割模型,即以一个固定点提取感兴趣区域(Region of Interest,ROI)进行分割,得到的分割结果再进行更精确的 ROI 提取,如此迭代直到收敛。Han[16]和 Li 等[17]则都使用了粗分割结果提取肝脏的感兴趣区域。Isensee 等[18]提出的 nnU-Net (no-new U-Net)方法包含 3 种模型:2D U-Net 模型、3D U-Net 模型和级联的 3D U-Net 模型。其中,级联的 3D U-Net 模型使用了下采样图像的粗分割结果作为高分辨率输入网络的一个通道输入,以此实现上下文信息与高分辨率信息的兼顾。该方法最终在 MICCAI 2018 Medical Decathlon Segmentation 竞赛的 13 项任务中取得了最佳分割精度,表明得到良好训练的 U-Net 结构即可获得有竞争力的结果。
本文方法的提出建立在上述已有方法的研究成果之上,主要基于 nnU-Net 网络的训练策略,针对头颈 CT 图像的特点,提出新的图像裁剪和预处理方法,并使用独立的网络训练最小的两个器官以解决类不平衡问题。
2 方 法
本文提出一种组合 U-Net 模型,具体如图 1 所示。其中,2D U-Net 模型以原始横断面切片作为输入,3D U-Net 模型则将图像裁剪作为初始图像,3D-small U-Net 模型则通过 2D U-Net 模型分割结果计算最小器官的中心点,并以此提取最小器官的 ROI。在预测阶段,根据器官在模型中的表现对比,确定最终的组合策略。最终分割结果的不同器官来自于不同的分割模型,如图 1 所示,标签值为 4、5、6、15、16、19 的器官来自于 2D 模型,标签值为 8 和 11 的器官的分割结果来自于 3D-small 模型,其他器官的分割结果则来自于 3D 模型。选取该组合策略的具体原因参见结果部分中对不同模型、不同器官的分割结果的分析。
2.1 图像预处理
图像采用 z-score 归一化方法,不进行任何重采样操作。其中,3D U-Net 模型的裁剪操作定义为:以起始点,裁剪尺寸为的区域。这里用表示图像的原始尺寸,其目的是去除不含分割器官对象的信息区域,如左右胳膊、身体前方空气及后部扫描床,从而缩小图像尺寸,最终在训练 3D 模型时能够在不进行下采样的同时覆盖大部分器官区域,具体如图 2 所示。
文章来源:《中国耳鼻咽喉头颈外科》 网址: http://www.zgebyhtgwk.cn/qikandaodu/2021/0708/570.html
上一篇:一觉醒来落枕了怎么办
下一篇:头颈动脉数字减影应用自动毫安与能谱成像的辐