当前位置: 代码迷 >> 综合 >> 论文阅读——Multiple Organ Localization in CT Image Using Triple-Branch Fully Convolutional Networks
  详细解决方案

论文阅读——Multiple Organ Localization in CT Image Using Triple-Branch Fully Convolutional Networks

热度:35   发布时间:2024-03-09 15:17:48.0

论文【Multiple Organ Localization in CT Image Using Triple-Branch Fully Convolutional Networks】2019

CT器官定位是器官分割、损伤检测、图像配准等许多CT图像分析任务的预处理步骤,但也是一项有挑战性的工作。

本文作者提出了一种新颖的3D CNN模型CT图像器官定位方法,其流程主要分为三部分:

  1. 对原始CT图像进行增强,将原图、梯度图、器官强化图联成三通道图像作为网络输入。
  2. 用一种新颖的三分支网络分别预测器官在三个方向(axial, coronal, sagittal)上的存在概率曲线。
  3. 根据2中的结果计算各种器官的bounding box。

一、网络输入增强
在这里插入图片描述
上图为输入增强的流程图,将一通道的原始CT图像增强为三通道的输入图像。

其中Enhanced density map指的是在原图中增强HU值[-50, 250]区间,大多数器官的HU都在这个区间内,增强这个区间可以让目标器官与复杂背景拥有更大区别。

增强公式为:Id=exp[?(I0?WlWw)2]I_{d} = exp[-(\frac{I_{0}-W_{l}}{W_{w}})^{2}]Id?=exp[?(Ww?I0??Wl??)2],其中I0I_{0}I0?为增强前的HU值,IdI_{d}Id?为增强后的HU值,WlW_{l}Wl?为100,WwW_{w}Ww?为150。

Gradient map指的是将上述Enhanced density map用sobel算子计算梯度图后的结果,清晰的器官边界也会带来帮助。

这一步增强数据集为算法带来的很大的提升,11个器官的平均IOU上升了3%左右。

二、输入分辨率与backbone
在这里插入图片描述
作者实验了多种输入分辨率和backbone网络带来的影响,上表为最终实验结果,可以看出由于显存问题不得不对网络规模进行限制。

三、三分支网络
在这里插入图片描述
输入图像经过中的backbone网络提取特征以后,特征图将被送入三个分支子网络中,这三个子网络分别预测CT图像在Axial、Coronal、Sagittal方向上各种器官的存在概率曲线。

比如:256 x 256 x 512 x 3大小的输入图像经过三个分支的卷积以后,最终三个分支网络输出分别为256 x N x 2、 256 x N x 2 、 512 x N x 2。

其中的256、256、512分别为三个方向上的切片数量,N表示N个器官,2表示该器官在每张切片上存在于不存在概率,相当于二分类。作者采用0.5的固定阈值结合三个分支上的结果就可以得出每个器官在三个方向上的存在范围,整合起来就得到了3D bounding box。

三分支网络结构图如下:
在这里插入图片描述

四、实验结果
作者在CT器官定位领域的公开数据集LiTS上进行了实验,这原本是MICCAI2017肝脏肿瘤分割挑战数据集,[1]2019年在这个数据集上进行了11个器官的定位标注并公开,这应该是目前CT器官定位领域内第一个公开数据集。器官数据及标注在[2][3]中,如有需要自行下载。

作者先评估了IOU指标,与当前一些好的方法进行比较,本文方法达到了state-of-the-arts的水平。
在这里插入图片描述

在Mean of wall distance和Mean of centroid distance这两个指标中也由于其他方法。
在这里插入图片描述
【1】X. Xu, F. Zhou, B. Liu, D. Fu, and X. Bai, Efficient Multiple Organ Localization in CT Image Using 3D Region Proposal Network. IEEE Trans. Medical Imaging?38(8): 1885-1898 (2019)
【2】https://competitions.codalab.org/competitions/17094#learn_the_details, 比赛官网注册一个号下载即可,他提供的网盘有时候可能打不开,翻墙就行了。(如果你在CSDN下载或者其他网盘里看到了,往往他们没有提供测试集数据,测试集可能还要去官网)
【3】https://github.com/superxuang/caffe_3d_faster_rcnn/tree/master/annotations_on_LiTS,【1】中作者给出的标注数据。
【4】https://ieee-dataport.org/documents/annotations-body-organ-localization-based-miccai-lits-dataset,这里是标注数据的描述,注意作者的标注并非依据固定坐标轴,而是与CT图像方向有关的。

  相关解决方案