0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

使用NVIDIA Clara AGX深度学习减少MRI扫描次数

星星科技指导员 来源:NVIDIA 作者:NVIDIA 2022-04-17 16:15 次阅读

磁共振成像( MRI )是一种有用的软组织或分子扩散成像技术。然而,获取 MR 图像的扫描时间可能相当长。有几种方法可以用来减少扫描时间,包括矩形视场( RFOV )、部分傅里叶成像和采样截断。这些方法要么导致信噪比( SNR )降低,要么导致分辨率降低。有关更多信息,请参阅k 空间教程:更好地理解 k 空间的 MRI 教育工具。

当使用采样截断技术以减少扫描和数据传输时间时,吉布斯现象也称为振铃或截断伪影,会出现在结果图像中。通常,通过平滑图像来消除吉布斯现象,从而降低图像分辨率。

在这篇文章中,我们探索了一种使用 NVIDIA Clara AGX 开发者套件的深度学习方法,以消除磁共振图像中的吉布斯现象和噪声,同时保持高图像分辨率。

信号可以表示为频率和相位变化的正弦波的无限和。 MR 图像通过使用相对较少的 h ARM 电子近似,从而导致吉布斯现象的存在。图 1 显示了一个类似的一维情况,即仅用几个 h ARM 电子近似方波,右侧 MRI 模型中的吉布斯现象。

poYBAGJbzKSAH5onAADVpqwjTNQ793.png

图 1 。(左)截断伪影,也称为吉布斯现象,仅使用五个 h ARM 源近似方波时显示:Wikipedia. (右)二维 MRI 模型中显示的吉布斯现象。

数据集和模型

我们扩展了现有的用于 Gibbs 和噪声消除的深度学习方法 dldegibbs 的工作。有关更多信息,请参阅扩散磁共振成像中 Gibbs 神经网络的训练与去噪。该白皮书的代码在/mmuckley/dldegibbs GitHub repo 中。

在他们的工作中,大约 130 万张模拟吉布斯现象和高斯噪声的 ImageNet 图像被用作训练数据。在我们的项目中,我们测试了 Muckley 等人开发的一些预训练 dldegibbs 模型,并使用开放图像数据集训练了我们自己的模型。我们最后用 MRI 扩散数据测试了不同的模型。

为什么要模拟吉布斯现象?

与其他网络相比,使用 dldegibbs 的一个好处是它不需要访问原始 MRI 数据和系统参数。该数据很难获得,因为该数据的存储要求很高,并且在图像重建后通常不会保留该数据。

另一个好处是不需要专有信息或与供应商签署研究协议。此外,还可以节省收集和分发医疗数据的时间,这可能是一项挑战。使用异构数据集(如 ImageNet 或 Open Images )对模型进行训练有可能使该方法应用于其他 MRI 序列或成像模式,因为训练数据本质上是对象不可知的。

dldegibbs 的数据加载程序为每个加载的映像创建两个映像:一个训练映像和一个目标映像。在傅里叶域中模拟原始图像上的吉布斯现象生成训练图像。将调整原始图像的大小并将其用作目标图像。数据加载程序包括标准数据增强方法(随机翻转、裁剪),然后是随机相位模拟和椭圆裁剪。接下来,对原始图像进行 FFT 处理,进行 Gibbs 裁剪,添加复高斯噪声,并模拟部分傅里叶变换。最后,应用逆 FFT 对图像进行归一化处理。图 2 显示了模拟管道。

pYYBAGJbzKWAUKX0AABMWr4ZCDw973.png

图 2 。吉布斯现象方框图与噪声模拟。

在这个项目中,我们使用了由 170 多万张训练图像组成的开放图像数据集。然后,我们在由 170 名患者( 996424 个轴向切片)[5]组成的磁共振扩散数据集上测试训练模型。图 3 显示了一个示例 MRI 扩散切片。

poYBAGJbzKaAOUyLAAD85yGWQsY595.png

图 3 。测试集中使用的 MRI 扩散轴向切片示例。

结果

图 4 显示了使用 dldegibbs 模型测试的验证图像示例,该模型使用完全开放的图像训练数据集进行训练。图 5 显示了相应的错误。训练图像在傅里叶空间从 256 × 256 裁剪到 100 × 100 。该模型未模拟部分傅里叶成像。

pYYBAGJbzKeAQfvYAADlAEF9hKo735.png

图 4 。示例 dldegibbs 输入(数据)、输出(估计)和来自 Open Images 验证数据集的目标图像。

poYBAGJbzKiATM-JAAIWKkzFA4E614.png

图 5 。数据输入和目标之间的误差(左)和估计输出和目标之间的误差(右)。

数据与目标之间的平均 MSE 为 13 。 2 ± 9 。 2% 。估计值与目标值之间的平均误差为 2 。 9 ± 2 。 7% 。对于此图像, dldegibbs 模型可使图像质量提高 10% 以上。

概括

在这篇文章中,我们提供了一个可以与 Clara AGX 开发工具包一起使用的解决方案,使用以下资源从 MR 图像中去除噪声和吉布斯现象:

一种商用数据集,称为 Open Images

一个开源的 ML 模型,称为 dldegibbs

关于作者

Emily Anaya 是 NVIDIA Clara AGX团队的实习生,致力于消除磁共振成像(MRI)中的吉布斯现象和噪音。她也是一名博士。斯坦福大学电子工程专业的候选人,她的顾问是克雷格·莱文博士。她的研究重点是解决正电子发射断层成像和磁共振成像(PET/MRI)组合中的光子衰减问题。

Emmett McQuinn 是 NVIDIA Clara AGX 团队的高级工程师。埃米特之前是一家助听器初创公司的创始工程师,领导机器学习DSP 团队,具有自主机器人、科学可视化和超低功耗神经网络芯片的工作经验。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    449

    文章

    48580

    浏览量

    413084
  • 神经网络
    +关注

    关注

    42

    文章

    4606

    浏览量

    99465
  • NVIDIA
    +关注

    关注

    14

    文章

    4682

    浏览量

    102117
收藏 人收藏

    评论

    相关推荐

    如何使用硬件FIFO来减少接收中断次数

    本文给介绍如何使用带FIFO的串口来减少接收中断次数,通过一种自定义通讯协议格式,给出帧打包方法;之后介绍一种特殊的串口数据发送方法,可在避免使用串口发送中断的情况下,提高系统的响应速度。
    发表于 11-06 12:22 386次阅读
    如何使用硬件FIFO来<b class='flag-5'>减少</b>接收中断<b class='flag-5'>次数</b>

    深度学习的由来 深度学习的经典算法有哪些

    深度学习作为机器学习的一个分支,其学习方法可以分为监督学习和无监督学习。两种方法都具有其独特的
    发表于 10-09 10:23 410次阅读
    <b class='flag-5'>深度</b><b class='flag-5'>学习</b>的由来 <b class='flag-5'>深度</b><b class='flag-5'>学习</b>的经典算法有哪些

    使用 DLA 在 NVIDIA Jetson Orin 上最大限度地提高深度学习性能

    深度学习加速器(DLA)中用于深度学习工作负载的专用深度学习推理引擎 用于图像处理和计算机视
    的头像 发表于 08-22 19:20 767次阅读
    使用 DLA 在 <b class='flag-5'>NVIDIA</b> Jetson Orin 上最大限度地提高<b class='flag-5'>深度</b><b class='flag-5'>学习</b>性能

    AI 大模型引发算力变革!NVIDIA 带您直击“Wave Summit 2023 深度学习开发者大会”精彩盛况!

    8 月 16 日,由深度学习技术及应用国家工程研究中心主办的 WAVE SUMMIT 深度学习开发者大会 2023 在北京举行。 NVIDIA
    的头像 发表于 08-17 19:15 708次阅读
    AI 大模型引发算力变革!<b class='flag-5'>NVIDIA</b> 带您直击“Wave Summit 2023 <b class='flag-5'>深度</b><b class='flag-5'>学习</b>开发者大会”精彩盛况!

    深度学习服务器怎么做 深度学习服务器diy 深度学习服务器主板用什么

    深度学习服务器怎么做 深度学习服务器diy 深度学习服务器主板用什么  随着人工智能的飞速发展,
    的头像 发表于 08-17 16:11 639次阅读

    深度学习框架和深度学习算法教程

    深度学习框架和深度学习算法教程 深度学习是机器学习
    的头像 发表于 08-17 16:11 846次阅读

    深度学习框架是什么?深度学习框架有哪些?

    深度学习框架是什么?深度学习框架有哪些?  深度学习框架是一种软件工具,它可以帮助开发者轻松快速
    的头像 发表于 08-17 16:03 2151次阅读

    什么是深度学习算法?深度学习算法的应用

    什么是深度学习算法?深度学习算法的应用 深度学习算法被认为是人工智能的核心,它是一种模仿人类大脑
    的头像 发表于 08-17 16:03 1669次阅读

    深度学习算法简介 深度学习算法是什么 深度学习算法有哪些

    深度学习算法简介 深度学习算法是什么?深度学习算法有哪些?  作为一种现代化、前沿化的技术,
    的头像 发表于 08-17 16:02 7691次阅读

    一文预览 | 8 月 16 日 NVIDIA 在 WAVE SUMMIT 深度学习开发者大会 2023 精彩亮点抢先看!

    深度学习技术及应用国家工程研究中心主办,百度飞桨和文心大模型承办的 WAVE SUMMIT 深度学习开发者大会 2023,将于 8 月 16 日在北京与大家见面。
    的头像 发表于 08-14 17:25 1641次阅读
    一文预览 | 8 月 16 日 <b class='flag-5'>NVIDIA</b> 在 WAVE SUMMIT <b class='flag-5'>深度</b><b class='flag-5'>学习</b>开发者大会 2023 精彩亮点抢先看!

    用于3D MRI和CT扫描深度学习模型总结

    医学成像数据与其他我们日常图像的最大区别之一是它们很多都是3D的,比如在处理DICOM系列数据时尤其如此。DICOM图像由很多的2D切片组成了一个扫描或身体的特定部分。
    的头像 发表于 08-11 10:54 1197次阅读
    用于3D <b class='flag-5'>MRI</b>和CT<b class='flag-5'>扫描</b>的<b class='flag-5'>深度</b><b class='flag-5'>学习</b>模型总结

    学习资源 | NVIDIA TensorRT 全新教程上线

    NVIDIA TensorRT   是一个用于高效实现已训练好的深度学习模型推理过程的软件开发工具包,内含推理优化器和运行环境两部分,其目的在于让深度
    的头像 发表于 08-04 17:45 538次阅读
    <b class='flag-5'>学习</b>资源 | <b class='flag-5'>NVIDIA</b> TensorRT 全新教程上线

    深度学习如何让Turing 显卡如虎添翼

    NVIDIA 首席执行官畅谈深度学习让 Turing 显卡如虎添翼
    的头像 发表于 08-01 14:55 401次阅读

    京东和美团已选用NVIDIA Jetson AGX Xavier 平台

    电商巨头选用NVIDIA Jetson AGX Xavier打造下一代配送机器人 京东、美团采用NVIDIA AI计算平台,以满足大量处理需求
    的头像 发表于 08-01 14:54 636次阅读

    深度学习如何挑选GPU?

    NVIDIA的标准库使在CUDA中建立第一个深度学习库变得非常容易。早期的优势加上NVIDIA强大的社区支持意味着如果使用NVIDIA GP
    发表于 07-12 11:49 462次阅读
    <b class='flag-5'>深度</b><b class='flag-5'>学习</b>如何挑选GPU?