0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

GPU及由其驱动的深度学习技术推动智能医疗的无限接近

NVIDIA英伟达企业解决方案 2017-12-09 11:51 次阅读

几个世纪以来,医生都试图借助更好的医疗工具来深入检查病人的身体状况,让他们远离病痛的折磨。CT扫描、3D超声和MRI(磁共振成像)等诊断成像技术在医学上的运用已经帮助挽救了数百万人的生命。如今,GPU及由其驱动的深度学习技术正在为智能医学仪器打开一扇全新的大门。

智能医学仪器其实都是可运行复杂数学运算的计算机,将传感器捕捉的信号转化为2D和3D图像以供医生读取。医生们除了要求这些仪器能够安全、简便地运行,还希望能够提高生成图像的分辨率和保真度。

基于Volta架构的GPU加快信号和算法的处理速度

如今,医生们的诉求成为了可能。凭借大规模并行计算能力,NVIDIA基于Volta架构的GPU能够高速处理信号和成像算法。

在深度学习神经网络处理方面,借助全新的NVIDIA Volta GPU,嵌入式人工智能计算机可以每秒进行320万亿次操作,并且运行功耗不超过500瓦。这相当于使用原来1/60的功耗实现60个CPU服务器节点的性能。

深度学习、NVIDIA GPU计算和医学成像的结合开启了智能医疗仪器的新时代。通过使用NVIDIA GPU,众多诊断成像领域的先驱已经在医学成像领域的各个主要环节取得了令人惊艳的成果。

全新的图像重建深度学习框架

图像重建是将数据采集阶段获取的信号转化为图像的过程。

在过去十年间,人类在信号处理算法方面取得多项进展,不仅提高了重建CT图像的质量,还将 X 光的用量减少了将近 80%。GE Healthcare全新推出的Revolution Frontier CT就在使用NVIDIA GPU来进行超级计算,用以处理复杂的重建算法。

来自麻省总医院、A.A.Martinos生物医学成像中心和哈佛大学的研究人员开发了一种全新的名为“AUTOMAP”的图像重建深度学习框架。

传统的图像重建需要使用离散变换和各种过滤算法,并在实施时使用手动信号处理。而AUTOMAP则使用统一的图像重建框架取代了这种方法,无需任何专业知识就可以学习传感器与图像域之间的重建关系。

左边为传统图像重建,右边为AUTOMAP新型框架。

除了重建外,医学成像的图像处理阶段还包括检查、分类和分割。

用于3D分割的立体卷积神经网络

慕尼黑工业大学、慕尼黑大学和约翰·霍普金斯大学的研究人员开发了一种名为“V-net”的立体卷积神经网络,可执行前列腺MRI数据的3D分割。在此过程中,系统会对需要注意的器官进行划分,对3D图像中器官的每个体素进行分类并分配相同的标签

通过执行立体分割以处理3D数据的完全卷积神经网络示意图。

V-net在描绘前列腺状况的MRI图像体上接受端到端的训练,学习一次便可预测整体的分割。V-net 分割图像中会存在数百万个3D体素,训练其中每一个体素都需要大量的计算,因此这个团队使用了NVIDIA GPU。

如今,医生们无需尝试分析多张2D图像,仅使用立体渲染即可生成全方位3D图像。通过功能强大的NVIDIA GPU,医生可以从不同角度控制并查看图像,以更好地了解解剖结构的空间关系。

使用电影渲染实现解剖结构可视化

在约翰·霍普金斯大学,Elliot Fishman博士和Siemens的研究人员开发了一种名为“电影渲染”的新方法,使用基于物理性质的光扩散模拟,以生成逼真的人体图像。电影渲染受到了电脑动画电影中使用的计算机绘图和GPU技术的启发,使用全局照明,通过数千条直接和间接光线制作出一张逼真的图像。

电影渲染可以生成逼真的图像,这些图像有可能更准确地描绘解剖细节和复杂的解剖结构。“电影渲染:原理、应用和在CT中的观察结果”,

通过这些令人惊艳的图像,放射科医生可以识别出细微的纹理变化和周围解剖结构的空间关系。另外,Fishman博士和霍普金斯的团队正在研究深度学习算法是否可以从电影渲染的图像保真度中获益。

实现新一轮的成果突破

NVIDIA GPU计算和深度学习将带来新一轮的成果突破,提高图像保真度、降低放射量并进一步实现微型化。

通过NVIDIA GPU,未来的医学成像系统将成为小型人工智能超级计算机。它能够赋予医生超人般的透视能力,让医生即时查找和重点关注需要注意的解剖区域。

早期检测往往是治愈疾病的关键,而这些智能医学仪器正在不断增强早期检测的成效,拯救越来越多人的生命。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 智能医疗
    +关注

    关注

    27

    文章

    1383

    浏览量

    74472
  • 深度学习
    +关注

    关注

    73

    文章

    5500

    浏览量

    121112

原文标题:由GPU驱动的深度学习技术正在为智能医学仪器敞开大门

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    深度学习工作负载中GPU与LPU的主要差异

    当前,生成式AI模型的参数规模已跃升至数十亿乃至数万亿之巨,远远超出了传统CPU的处理范畴。在此背景下,GPU凭借出色的并行处理能力,已成为人工智能加速领域的中流砥柱。然而,就在GPU
    的头像 发表于 12-09 11:01 246次阅读
    <b class='flag-5'>深度</b><b class='flag-5'>学习</b>工作负载中<b class='flag-5'>GPU</b>与LPU的主要差异

    GPU深度学习中的应用 GPUs在图形设计中的作用

    随着人工智能技术的飞速发展,深度学习作为核心部分,已经成为推动技术进步的重要力量。
    的头像 发表于 11-19 10:55 435次阅读

    NPU在深度学习中的应用

    随着人工智能技术的飞速发展,深度学习作为核心驱动力之一,已经在众多领域展现出了巨大的潜力和价值。NPU(Neural Processing
    的头像 发表于 11-14 15:17 509次阅读

    GPU深度学习应用案例

    GPU深度学习中的应用广泛且重要,以下是一些GPU深度学习应用案例: 一、图像识别 图像识别是
    的头像 发表于 10-27 11:13 382次阅读

    深度学习GPU加速效果如何

    图形处理器(GPU)凭借强大的并行计算能力,成为加速深度学习任务的理想选择。
    的头像 发表于 10-17 10:07 185次阅读

    《AI for Science:人工智能驱动科学创新》第一章人工智能驱动的科学创新学习心得

    ,无疑为读者铺设了一条探索人工智能(AI)如何深刻影响并推动科学创新的道路。在阅读这一章后,我深刻感受到了人工智能技术在科学领域的广泛应用潜力以及其带来的革命性变化,以下是我个人的学习
    发表于 10-14 09:12

    FPGA做深度学习能走多远?

    、高效的开发工具和编程模型,降低 FPGA 的开发门槛,吸引更多的开发者参与到 FPGA 在深度学习中的应用开发中来,进一步推动发展。 • 挑战方面: • 编程复杂性:FPGA 的编
    发表于 09-27 20:53

    深度学习模型有哪些应用场景

    深度学习模型作为人工智能领域的重要分支,已经在多个应用场景中展现出巨大的潜力和价值。这些应用不仅改变了我们的日常生活,还推动了科技进步和产
    的头像 发表于 07-16 18:25 1909次阅读

    深度学习中的时间序列分类方法

    时间序列分类(Time Series Classification, TSC)是机器学习深度学习领域的重要任务之一,广泛应用于人体活动识别、系统监测、金融预测、医疗诊断等多个领域。随
    的头像 发表于 07-09 15:54 877次阅读

    深度学习中的模型权重

    深度学习这一充满无限可能性的领域中,模型权重(Weights)作为核心组成部分,扮演着至关重要的角色。它们不仅是模型学习的基石,更是模型
    的头像 发表于 07-04 11:49 1215次阅读

    人工智能、机器学习深度学习是什么

    在科技日新月异的今天,人工智能(Artificial Intelligence, AI)、机器学习(Machine Learning, ML)和深度学习(Deep Learning,
    的头像 发表于 07-03 18:22 1266次阅读

    深度学习与传统机器学习的对比

    在人工智能的浪潮中,机器学习深度学习无疑是两大核心驱动力。它们各自以其独特的方式推动
    的头像 发表于 07-01 11:40 1326次阅读

    新手小白怎么学GPU云服务器跑深度学习?

    新手小白想用GPU云服务器跑深度学习应该怎么做? 用个人主机通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不动,如何实现更经济便捷的实现GPU云服务器
    发表于 06-11 17:09

    人工智能(AI)驱动的传感技术发展综述

    机器学习(ML)和深度学习(DL)技术正在迅速推动传感技术的发展,显著提升了
    的头像 发表于 05-24 09:36 1944次阅读
    人工<b class='flag-5'>智能</b>(AI)<b class='flag-5'>驱动</b>的传感<b class='flag-5'>技术</b>发展综述

    FPGA在深度学习应用中或将取代GPU

    现场可编程门阵列 (FPGA) 解决了 GPU 在运行深度学习模型时面临的许多问题 在过去的十年里,人工智能的再一次兴起使显卡行业受益匪浅。英伟达 (Nvidia) 和 AMD 等公
    发表于 03-21 15:19