Bendi新闻
>
医学顶刊MedIA 2024 | 残差对齐网络(RAN):多器官的非连续性形变配准

医学顶刊MedIA 2024 | 残差对齐网络(RAN):多器官的非连续性形变配准

9月前

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【医学影像】交流群

扫描下方二维码,加入CVer学术星球可以获得最新顶会/顶刊上的论文ideaCV从入门到精通资料,及最前沿应用!发论文搞科研,强烈推荐!

在医学领域,图像配准是一项关键技术,它涉及将不同时间或不同模态扫描的图像进行精准对齐。这在腹部器官的成像分析中尤为重要,因为腹部器官常常会因为呼吸、消化等生理活动而移动或形变。牛津大学医学图像研究团队探讨了在腹部医学影像配准中遇到的一个尚未解决的难题:多器官间的非连续滑动或分离运动。这些运动的复杂性为准确识别和跟踪各器官带来了困难。

本文的研究重点是解决多器官非连续形变配准问题。文中提出了一个创新的量化指标 —— 运动可分离度(Motion Separability)。这个指标旨在衡量深度学习网络预测器官非连续形变的能力。基于这一指标,文中设计了一种新型的网络结构骨架 —— 运动分离骨架(Motion-Separable structure)。此外,我们还引入了运动解耦模块(Motion disentanglement),帮助网络区分并处理不同器官间的复杂运动模式。

为了验证这一量化指标的有效性以及我们方法的准确性和高效性,文中进行了一系列的非监督配准实验。这些实验涵盖了腹部的九个主要器官及肺部图像。实验结果显示,文中的方法不仅能够有效识别和处理各器官间的复杂运动,还提高了配准的准确性和效率。

其中的主要贡献包括:

  • 非连续配准网络:这是第一个基于深度学习网络的针对非连续性形变配准的定量研究。

  • 理论分析:本文量化并定义了神经网络中的最大可捕获运动范围和运动可分离上界,为运动可分离的上限提供了理论分析。这有助于我们理解网络能识别的运动范围,指导网络结构和参数设置的优化。   

  • 运动可分的骨架结构:基于本文的理论分析,文中设计了一个新型的多尺度骨架结构。这个结构通过在高分辨率特征图上使用优化的扩张卷积,使网络能够有效预测更大可分离上界的运动模式,同时保持可捕获的运动范围与较低的计算复杂度。

  • 运动解耦和细化模块:此外,我们提出的残差对齐模块(Residual Aligner module),利用置信度和基于语义及上下文信息的机制,来区分不同器官或区域中预测的位移。这意味着我们的方法可以更准确地处理每个区域的特定运动。

  • 准确且高效的配准结果:上述所提出的组件构成了新颖的残差对齐网络(RAN),在公开的肺部和腹部CT数据上执行高效、粗到细、可分离运动的无监督配准,取得了更高的精确度和更低的计算成本。

论文发表于 Medical Image Analysis:
https://doi.org/10.1016/j.media.2023.103038
代码即将开源于: 
https://github.com/jianqingzheng/res_aligner_net
研究背景

在医学成像领域,变形图像配准,即估算不同图像间的空间变换,涉及将不同时间或不同模态扫描的图像进行精准对齐。

现有的深度学习配准网络可以大致分类为:直接拟合网络(direct regression,如voxelmorph[1]),基于注意力机制网络(attention-based network,如transmorph[2]),级联网络(Cascaded network,如Recursive Cascaded network[3] 和 Composite-net[4]),和特征图金字塔网络(Feature Pyramid,如Dual-PRNet[5])

深度学习技术已被证明可以高效地进行三维图像配准。然而,目前的配准策略往往只关注形变的平滑性,从而忽略了复杂的运动模式(如分离运动或滑动运动),尤其是器官的交汇处。因此,在处理附近多个物体、器官的不连续运动时,预测的形变场中会出现相近器官的粘连问题,从而限制配准网络预测的性能上限,在临床应用中会造成不理想的预测结果,如病变或其他异常的误识别和误定位。

因此,本文提出了一种新颖的深度学习网络配准方法(Residual Aligner Network),专门解决这一问题:采用新型的运动可分网络骨架(Motion-Separable structures, MS structure)来捕捉分离运动,并通过残差对齐模块(Residual Aligner module)对多个相邻物体/器官的预测运动进行解耦和精细化。

运动可分网络骨架设计

本文首先介绍了有粗到细(Coarse-to-fine)的配准框架,然后分析和量化了粗细配准网络在捕捉大变形(可捕捉运动范围,Accessible motion range)和保持不连续性(预测运动的可分性,Motion Separability)方面的能力。为增强网络在保持大不连续性的同时捕捉大变形的能力,其中提出了一种新的运动可分网络骨架设计方法,即运动可分全卷积网络(MSFCN)。该网络骨架通过升采样来得到相对高分别率的稠密形变位移场(Dense Displacement field, DDF),并用空洞卷积(Atrous/dilated convolution)来提取特征图以保证足够大的感受野(Receptive field),从而保证足够大的可捕捉运动范围。其中可分离度模式(MS pattern)层数$`q`$用来调整每层的池化大小$`p_k`$与空洞率$`r_k`$,从而保证在相同的可捕捉运动范围情况下,$`q`$越大的网络获得更大的预测运动的可分性。并且当$`q=0`$,则该网络等价于普通的全卷积网络(FCN)。   

## 可分性上界理论分析 ## 

在文中将该神经网络所预测运动的可分性定义为:

通过理论分析即得到预测运动的可分性上界与池化大小$`p_k`$与空洞率$`r_k`$的量化关系($` a_k\approx p_k(1+2||r_k||_1)/2 `$):

从而可以计算得到不同可分离度模式层数$`q=0`$下对应的可捕捉运动范围大小$`a_k`$和不同距离($`p`$)运动之间的可分离度$`\Delta_\infty(p)`$:   

从这一理论分析结果可以看出$`q`$的增加可以保持相同的可捕捉运动范围,并获得更大的预测运动的可分性。

运动解耦与精细化模块

残差对齐模块旨在通过递归变形将一个图像的特征图映射到另一个图像上,进而改善形变配准的准确性。该模块包含一个拟合器(Regressor)预测了一个多头形变位移场(M-H DDF)与一个额外的属性图($`\theta`$),其中后者用于拟合一组多头掩码(M-H mask)和一个置信度图(confidence map)。多头掩码对应不连续区域,用于解耦多头形变位移场中这些区域的位移场。置信度图对应估计位移准确性的置信度,用于在后续卷积层中改善纹理稀缺区域的位移向量估计准确性。

实验结果

本文在两个公开数据集上对RAN进行了无监督的变形配准评估与对比,这些数据集包含了腹部CT和肺CT中9个小器官。通过对比配准后两图的器官注释之间的Dice Similarity Coefficient (DSC), 平均表面距离(ASD)和最大表面距离(HD)来评估其准确度。

配准定性对比

实验结果展示了RAN在非连续配准中的对于准确度的提升,尤其是不同器官之间的分界处:

### 配准定量对比 ###

相比于之前的配准网络,RAN基于相对更少的计算成本获得了更准确的配准结果:

融合实验

通过可视化RAN网络在配准中的一组多头掩码,文中展示了多头掩码从粗到细逐渐解耦不同区域运动的过程:

通过逐个像素比对位移向量差值和对应器官配准准确性,文中画出了RAN在不同可分离度模式层数下($`q\in\{0,3,4\}`$),位移差异值(运动分离度)与像素距离之间的分布关系,印证了此前针对运动分离的理论分析结果:

参考文献

[1] Balakrishnan, G., Zhao, A., Sabuncu, M.R., Guttag, J., Dalca, A.V., 2019. Voxelmorph: a learning framework for deformable medical image registration. IEEE Transactions on Medical Imaging 38, 1788–1800.
[2] Chen, J., Frey, E.C., He, Y., Segars, W.P., Li, Y., Du, Y., 2022. Transmorph: Transformer for unsupervised medical image registration. Medical image analysis 82, 102615.
[3] Zhao, S., Dong, Y., Chang, E.I., Xu, Y., et al., 2019a. Recursive cascaded networks for unsupervised medical image registration, in: Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 10600–10610.
[4] Hu, Y., Modat, M., Gibson, E., Li, W., Ghavami, N., Bonmati, E., Wang, G., Bandula, S., Moore, C.M., Emberton, M., et al., 2018. Weakly-supervised convolutional neural networks for multimodal image registration. Medical Image Analysis 49, 1–13.
[5] Kang, M., Hu, X., Huang, W., Scott, M.R., Reyes, M., 2022. Dual-stream pyramid registration network. Medical Image Analysis 78, 102379.

在CVer微信公众号后台回复:论文,即可下载论文pdf链接!快学起来!

点击进入—>【CV技术和求职】交流群

医学影像交流群成立

扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-医学影像微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。


一定要备注:研究方向+地点+学校/公司+昵称(如医学影像+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer444,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!


扫码加入星球学习


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

来源:CVer

相关新闻

MICCAI 2024 | 港科大提出ViP:利用LLM的通用知识对齐医学图像分析任务局势升级!美军基地连续遭袭,多人受伤!黎巴嫩真主党宣布对以色列发动袭击,伊朗:已做好严惩以色列的准备!美国警告:后果很严重医学顶刊TMI 2024!首个研究医疗AI算法公平性的眼科图像分类数据集顶刊MIA 2023!PUNet:参数高效医学图像分割的提示微调提升房价预测准确性!论文一作详解:神经网络为房价的空间异质性提供新解释【2024 NECINA 年会】与哈佛医学院CSSA联合主办 “共创未来:AI技术应用与AI对生物医药创新的促进”图像解码器;多头混合专家网络;视觉模型美学对齐;医学视觉任务适应基准填补空白!黄荷凤院士团队一项综合性无创产前筛查技术成果登上医学顶刊【2024年】占25%!申请到美国住院医师的非美国医学院毕业生(IMGs),报名人数和成功人数连创新高!劳务派遣也要医学硕士!学医8年给医院当“临时工”,网友:这是对学历的践踏2024年类器官大会:生物谷携手上海交通大学医学院松江研究院,展望类器官发展前景!全世界都在关注的奥运老兵,暨:老年医学,审稿最快、发文最多的期刊大数据分析(2024)ICLR 2024 首个!Harvard FairSeg:第一个用于医学分割的公平性数据集夏日将至,这两种水果可抵抗紫外线所引发的皮肤老化!南大医学院最新研究:葡萄、蓝莓中的天然成分白藜芦醇对皮肤光老化具有保护作用2024国自然本子提交DDL在即!医学人真的哭死:一个月完成的能中吗?(内含干货)可执行单元校验:在 IDE 中提升 AI 智能体代码的准确性有一种不顾你死活的准时!多伦多各区儿童玩水公园开放了:听话~天热了再去玩今日Arxiv最热NLP大模型论文:MIT推出新方法,大幅提升LLMs的连贯性、准确性和可更新性!9点1氪:库迪咖啡称已做好“全场9.9元促销”三年的准备;阿里巴巴宣布对大公司病开刀;黄仁勋身家达913亿美元终于对俄罗斯“亮剑”!北约高层:我们做好了和俄罗斯冲突的准备2024美国企业报税提醒:企业税务申报的时间节点以及需要准备什么?【SCI选刊】检验医学审稿最快、发文最多的SCI期刊大全;及各医院SCI发文掠影(2024)【SCI选刊】运动医学审稿最快、发文最多的SCI期刊大全;及各医院SCI发文掠影(2024)为明年做好准备:IRS预扣税估算器有助于确保2024年预扣正确的税额
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。