0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA SWI UNETR模型在医疗中的应用

星星科技指导员 来源:NVIDIA 作者:Vanessa Braunstein 2022-04-06 16:07 次阅读

NVIDIA 数据科学家本周在享有盛誉的MICCAI 2021医学成像会议上,在脑肿瘤分割挑战验证阶段占据了前 10 名的三位。

现在已经进入第十个年头, BraTS 挑战项目要求申请者提交最先进的人工智能模型,用于在多参数磁共振成像( mpMRI )研究中分割异质性脑胶质母细胞瘤亚区域,这是一项极具挑战性的任务。

参与者还可以关注分类方法的第二项任务,以预测 MGMT 启动子甲基化状态。

2000 多个 AI 模型被提交给了挑战,该挑战由医学图像计算和计算机辅助干预学会、北美放射学会和美国神经放射学会联合组织。

NVIDIA 开发者在挑战验证阶段排名第一、第二和第七,每个人都创建了不同类型的用于肿瘤分割的 AI 模型方法,包括优化的 U-Net 模型、具有自动超参数优化的 SegResNet 模型和基于 transformer 的计算机视觉方法的 Swin-UNETR 模型。

NVIDIA 获奖者都使用了开源 PyTorch 框架MONAI(人工智能医疗开放网络),这是一个由学术界和行业领袖构建的免费、社区支持的计划,旨在将医疗成像深度学习的最佳实践标准化。

用于脑肿瘤分割的优化 U-Net –排名# 1

该优化 DU 网络模型是一种编码器 – 解码器类型的卷积网络体系结构,用于快速、精确的图像分割,它首先处于 BraTS 验证阶段。它的标准化统计排名得分为 0 。 267 。

设计优化 U 型网络的起点是 BraTS 2020 获奖解决方案:神经网络在脑肿瘤分割中的应用。该团队的目标是优化 U-Net 体系结构以及培训计划。为了找到最佳的模型结构,数据科学家进行了广泛的烧蚀研究,发现香草 U-Net 和深度监督产生了最好的结果。

进一步优化 U-Net 模型,在输入端添加额外通道,对前景体素进行一次热编码,将编码器深度和卷积通道数量增加一个级别。通过在较低的解码器级别上添加两个额外的输出头,可以更好地实现梯度流和更准确的预测,从而在深度监督下更好更快地训练模型。MONAI用于数据预处理,以清除数据并去除数据中的噪声,以及推断模型。 NVIDIA 数据加载库( DALI )使用并支持数据扩充,这是一种用于人为扩大数据集大小的技术,它通过将数据扩充卸载到 GPU 来解决 CPU 瓶颈问题。

带有最新 PyTorch、cuDNN 和 CUDA 版本的 NVIDIA PyTorch 容器用于优化 U-Net 模型以进行快速训练。自动混合精度 (AMP) 用于将 AI 模型的内存占用减少 2 倍并加快训练速度。训练在 8 个 NVIDIA A100 GPU 上完成 1000 个 epoch,与 V100 GPU 相比,速度提高了 2 倍。几乎 100% 的 GPU 被使用,展示了网络优化以高效使用 GPU。此 3D U-Net 模型可用于任何 3D 模式,例如 MRI 和 CT。了解更多 GPU 高效的 nnU-Net 实现。

poYBAGJNSl6ARnyGAADmVzkZxtM922.png

图 1 。挑战验证数据集上的预测。在第一行, T2 模态是可视化的。第二行显示以下颜色的模型预测:紫色 – 背景、蓝色 -NCR 、绿松石色 -ED 、黄色 -ET 。

SegResNet : 3D 大脑磁共振成像语义分割中的冗余减少–排名# 2

该方法在 BRAT 挑战中排名第二,将在 MONAI 中提供,基于 MONAI 组件,旨在展示其应用的实用性和灵活性。主要模型是 MONAI 中的 SegResNet 架构,这是一种基于标准编码器 – 解码器的卷积神经网络( CNN ),类似于 U-Net 。该方法是 MONAI 自动化( AutoML )计划的一部分,使用超参数优化和调优自动选择超参数。

该方法在验证阶段的排行榜( team NVAUTO )中取得了最佳性能,并在基于个案排名和扰动分析的综合排名中取得了 0 。 272 的排名。组织者表示,该排名与第一排名的解决方案在统计上没有显著差异,两种方法被认为在统计上相似。

这项工作增加了两项新贡献,以进一步提高性能。首先,对训练过程进行修改,以在学习的特征表示上强制执行某些属性。通过借鉴自监督文献中的思想,将特征维度正则化,使不同解剖区域之间的冗余度最小。同时,相同解剖结构的区域被鼓励相似。这允许更好的网络行为和泛化。其次,采用自适应融合技术自适应地选择模型子集进行融合。这有助于避免某些模型预测中的潜在异常值,并进一步提高最终的集合性能。

该方法在 MONAI 中实现,以 PyTorch 为基础,并在四个 NVIDIA V100 GPU 上使用骰子损失函数进行了为期 16 小时的 300 个历元的训练。该团队使用 NVIDIA 提供的 PyTorch 容器和 AMP 在超参数优化过程中实现快速训练。该方法通过 5 倍交叉验证进行训练,并从每个折叠中保留表现最佳的检查点。总的来说,保存了 25 个模型检查点,但使用自适应加密,只有一半用于最终预测。由于该方法是完全基于 CNN 的,推理时间很快,并且可以在整个输入图像上一步完成,无需任何滑动窗口。单模型推理只需不到一秒钟的时间,这使得高通量和几乎实时的结果成为可能,这在临床环境中非常重要。

pYYBAGJNSl-AWQP3AAEM4Ke9Nis269.png

图 2 。一个典型的分割示例,预测的标签覆盖在 MRI 轴向、矢状面和冠状面切片上。整个肿瘤( WT )类别包括所有

可见标签(绿色、黄色和红色标签的结合),肿瘤核心( TC )类别为

红色和黄色的结合,增强肿瘤核心( ET )级别显示为黄色

(过度活跃的肿瘤部分)。

Swin UNETR :用于脑肿瘤三维语义分割的移位窗口 transformers –排名第 7

在 BraTS 挑战赛中排名第七的 Swin UNETR 是一个基于 transformer 的模型,而不是 CNN 模型。在 MONAI 中实现,它在整个肿瘤、肿瘤核心和增强肿瘤分割类中的平均 Dice 得分为 92 。 94% , Ha USD orff 距离为 1 。 7 。

transformers 是一类新的基于深度学习的模型,用于序列到序列的预测任务。在其原始公式中,它们由编码器和解码器组成。编码器由多个层次组成,多个层次的感知器跟随多个层次的自我注意。每个模块的输入通过剩余块添加到输出,并进行归一化。自我注意层学习从隐藏层计算的值的加权和,可以突出给定输入序列的重要特征。虽然它们最初被提议用于自然语言处理中的机器翻译任务,但后来它们已成功应用于计算机视觉和蛋白质药物生成等其他领域,并在各种基准测试中取得了最先进的性能。在计算机视觉中, transformer s 在各种基准方面取得了新的最先进的表现。 Swin UNETR 是一种利用 GPU 体系结构和性能不断进步来构建模型的新方法。

Swin transformers 是分层 transformer s ,其表示是使用移位窗口( Swin )计算的。这些 transformer 非常适合计算机视觉任务,如目标检测、图像分类、语义分割等。 Swin transformers 可以更有效地模拟两个域之间的差异,例如对象比例的变化和图像中像素的高分辨率,并且可以作为通用的视觉管道。该 NVIDIA SWN UNETR 模型利用 SWN transformer 编码器直接利用输入数据的 3D 补丁,而不依赖 CNN 进行特征提取。这使得 Swin UNETR 能够访问输入数据中的上下文多模态信息,并将其作为标记化嵌入 transformer 编码器进行有效处理。然后,基于 transformer 的 Swin UNETR 编码器通过跳过连接连接到 U 形架构中的 CNN 解码器,以进行最终分段预测。

poYBAGJNSmGAJpZ7AAE3VSs5d3w717.png

图 3 。使用 BraTS2021 验证数据集,覆盖在 4 种单独成像模式上的 TC 、 WT 和 ET 区域的 Swin UNETR 分割输出。

NVIDIA 的 SWI UNETR 模型在 NVIDIA DGX-1 团簇上使用八个 GPU 进行训练,初始学习率为 0 。 0008 ,并使用 AdamW 优化算法。使用 128 * 128 * 128 输入数据的随机面片以及随机轴镜像翻转和强度偏移的数据增强策略。 每轮培训需要 24 小时才能完成。与常用的基于 CNN 的分割模型相比, Swin UNETR 在失败次数方面更有效,在可训练参数数量方面具有中等的模型复杂度。它可以被有效地训练和用于推理。对于模型优化,使用一个通用的软骰子损失函数学习分割不同的脑肿瘤区域,每个类有一个单独的输出通道。在整个 BRATS21 训练集上使用 5 倍交叉验证方案对模型进行训练,其中通过平均 2 个不同 5 倍交叉验证的 10 个模型的输出来计算最终分割输出。

从 MONAI 开始。

在这里查找 BRAT 参与者的完整排行榜。

pYYBAGJNSmKALeKCAAJxtxQlz00759.png

关于作者

Vanessa Braunstein 在 NVIDIA 的医疗团队从事产品营销工作。此前,她在基因组学、医学成像、制药、化学和诊断公司从事产品开发和营销。她学习分子和细胞生物学、公共卫生和商业。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4978

    浏览量

    102988
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4729

    浏览量

    128890
收藏 人收藏

    评论

    相关推荐

    NVIDIA推出全新生成式AI模型Fugatto

    NVIDIA 开发了一个全新的生成式 AI 模型。利用输入的文本和音频,该模型可以创作出包含任意的音乐、人声和声音组合的作品。
    的头像 发表于 11-27 11:29 333次阅读

    使用NVIDIA AI平台确保医疗数据安全

    三井物产株式会社子公司借助 NVIDIA AI 平台实现数据集的安全共享并使用在这些数据集上建立的强大模型加速药物研发。
    的头像 发表于 11-20 09:37 172次阅读

    NVIDIA加速计算如何推动医疗健康

    近日,NVIDIA 企业平台副总裁 Bob Pette AI Summit 一场演讲重点谈论了 NVIDIA 加速计算如何推动医疗健康
    的头像 发表于 11-20 09:10 290次阅读

    NVIDIA CorrDiff生成式AI模型能够精准预测台风

    NVIDIA GPU 上运行的一个扩散模型向天气预报工作者展示了加速计算如何实现新的用途并提升能效。
    的头像 发表于 09-13 17:13 696次阅读

    NVIDIA助力提供多样、灵活的模型选择

    本案例,Dify 以模型中立以及开源生态的优势,为广大 AI 创新者提供丰富的模型选择。其集成的 NVIDIAAPI Catalog、NVIDI
    的头像 发表于 09-09 09:19 460次阅读

    NVIDIA Nemotron-4 340B模型帮助开发者生成合成训练数据

    Nemotron-4 340B 是针对 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 优化的模型系列,该系列包含最先进的指导和奖励模型,以及一个用于生成式 AI
    的头像 发表于 09-06 14:59 301次阅读
    <b class='flag-5'>NVIDIA</b> Nemotron-4 340B<b class='flag-5'>模型</b>帮助开发者生成合成训练数据

    NVIDIA AI Foundry 为全球企业打造自定义 Llama 3.1 生成式 AI 模型

    借助 NVIDIA AI Foundry,企业和各国现在能够使用自有数据与 Llama 3.1 405B 和 NVIDIA Nemotron 模型配对,来构建“超级模型
    发表于 07-24 09:39 706次阅读
    <b class='flag-5'>NVIDIA</b> AI Foundry 为全球企业打造自定义 Llama 3.1 生成式 AI <b class='flag-5'>模型</b>

    蓝牙模块远程医疗的创新应用

    随着科技的快速发展,远程医疗已经成为现代医疗服务的重要组成部分。蓝牙模块作为一种无线通信技术,远程医疗领域展现出了其独特的创新应用,为患者和医护人员带来了极大的便利。本文将探讨蓝牙模
    的头像 发表于 07-19 14:01 356次阅读

    NVIDIA Omniverse 将为全新 OpenPBR 材质模型提供原生支持

      NVIDIA 与 OpenUSD 联盟(AOUSD)早前共同宣布成立 OpenUSD 联盟材质工作组,推动通用场景描述(OpenUSD)格式材质交换的标准化。作为用于 3D 世界内进行描述
    的头像 发表于 06-14 11:23 625次阅读
    <b class='flag-5'>NVIDIA</b> Omniverse 将为全新 OpenPBR 材质<b class='flag-5'>模型</b>提供原生支持

    NVIDIA 通过 Holoscan 为 NVIDIA IGX 提供企业软件支持,实现边缘实时医疗、工业和科学 AI 应用

    美敦力、SETI协会以及领先的制造商正在构建  NVIDIA IGX 系统, 为  AI 工业边缘赋能     COMPUTEX — 2024 年 6 月 2 日 — NVIDIA 今日宣布,集成
    发表于 06-03 09:48 302次阅读
      <b class='flag-5'>NVIDIA</b> 通过 Holoscan 为 <b class='flag-5'>NVIDIA</b> IGX 提供企业软件支持,实现边缘实时<b class='flag-5'>医疗</b>、工业和科学 AI 应用

    NVIDIA与Google DeepMind合作推动大语言模型创新

    支持 NVIDIA NIM 推理微服务的谷歌最新开源模型 PaliGemma 首次亮相。
    的头像 发表于 05-16 09:44 445次阅读

    MathWorks与NVIDIA携手革新医疗技术工作流

    医疗科技领域,软件定义工作流正迎来新的突破。全球知名的数学计算软件巨头MathWorks与图形处理器领导者NVIDIA近日宣布达成深度合作,将MATLAB®软件成功集成至NVIDIA
    的头像 发表于 05-11 10:17 371次阅读

    NVIDIA加速微软最新的Phi-3 Mini开源语言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微软最新的 Phi-3 Mini 开源语言模型。TensorRT-LLM 是一个开源库,用于优化从 PC 到云端的 NVID
    的头像 发表于 04-28 10:36 549次阅读

    NVIDIA的专用AI平台如何推动下一代医疗健康行业的发展

    医疗科技创新企业 GTC 上介绍了 NVIDIA 的专用 AI 平台如何推动下一代医疗健康行业的发展。
    的头像 发表于 04-09 10:10 1271次阅读

    NVIDIA加速识因智能AI大模型落地应用方面的重要作用介绍

    本案例介绍了 NVIDIA 加速识因智能 AI 大模型落地应用方面的重要作用。生成式大模型已广泛应用于各领域,通过学习人类思维方式,能快速挖掘海量内容,满足不同需求。
    的头像 发表于 03-29 15:28 622次阅读