0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

MBL研究团队采用深度学习大大减少图像分析时间

如意 来源:健康网 作者:健康网 2020-06-30 11:19 次阅读

马萨诸塞州伍兹霍尔-图片只值一千字-但前提是要清楚其描绘的内容。在显微生活的图像或录像制作中也存在摩擦。尽管现代显微镜可以在几秒钟内从活组织或细胞中生成大量图像数据,但从这些数据中提取有意义的生物学信息却需要花费数小时甚至数周的艰苦分析。

为了缓解这一主要瓶颈,由MBL研究员Hari Shroff领导的团队设计了深度学习和其他计算方法,可将图像分析时间显着减少几个数量级-在某些情况下,与数据采集本身的速度相匹配。他们本周在《自然生物技术》中报告了他们的结果。

Shroff说:“这就像从水喉中喝水而无法消化您所喝的水一样。”常见的问题是成像数据过多,而后处理能力不足。团队的改进来自海洋生物实验室(MBL)的持续合作,它通过三种主要方式加快了图像分析的速度。

首先,显微镜下的成像数据通常会因模糊而损坏。为了减轻模糊,使用了迭代的“去卷积”过程。计算机在模糊图像和实际物体的估计之间来回移动,直到达到对真实物体的最佳估计的收敛为止。

通过修改经典的反卷积算法,Shroff及其合作者将反卷积加速了10倍以上。Shroff说,他们改进的算法可广泛应用于“几乎所有荧光显微镜”。“我们认为这是一次严格的胜利。我们已经发布了代码,其他组织已经在使用它。”

接下来,他们解决了3D配准的问题:对齐和融合从不同角度拍摄的物体的多个图像。Shroff说:“事实证明,注册大型数据集(如光片显微镜)要比对它们进行去卷积要花费更长的时间。”他们发现了几种加速3D注册的方法,包括将其移动到计算机的图形处理单元(GPU)。与使用计算机的中央处理器CPU)相比,这使他们的处理速度提高了10到100倍以上。

Shroff说:“我们在配准和解卷积方面的改进意味着,对于适合图形卡的数据集,图像分析原则上可以跟上采集速度。”“对于更大的数据集,我们找到了一种有效地将它们分割成块,将每个块传递到GPU,进行配准和解卷积然后将这些块缝合在一起的方法。如果要对大块组织成像,这非常重要例如,从海洋动物身上获取的,或者如果您正在清理一个器官以使其透明,则可以将其放在显微镜上。这两种进展确实使某些形式的大型显微镜成为现实,并加速了发展。”

最后,该团队使用深度学习来加速“复杂的反卷积”-难以处理的数据集,其中模糊在图像的不同部分发生明显变化。他们培训了计算机,以识别严重模糊的数据(输入)与经过清理,反卷积的图像(输出)之间的关系。然后他们给它提供了前所未有的模糊数据。Shroff说:“它确实运作良好;训练有素的神经网络可以非常快速地产生反卷积结果。”“这就是我们在反卷积速度上获得了数千倍的改进的地方。”

Shroff说,尽管深度学习算法的效果出乎意料的出色,但“警告是它们很脆弱”。“意思是说,一旦训练了神经网络以识别一种图像类型,例如具有线粒体的细胞,它将很好地使这些图像解卷积。但是,如果您给它提供的图像有些不同,则说细胞的质膜,它会产生伪像。很容易愚弄神经网络。”研究的活跃领域是创建以更通用的方式工作的神经网络。

Shroff说:“深度学习增强了可能性。”“这是分析数据集的好工具,而这是其他方法很难做到的。”

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 图像分析
    +关注

    关注

    0

    文章

    82

    浏览量

    18679
  • 深度学习
    +关注

    关注

    73

    文章

    5503

    浏览量

    121148
收藏 人收藏

    评论

    相关推荐

    GPU深度学习应用案例

    GPU在深度学习中的应用广泛且重要,以下是一些GPU深度学习应用案例: 一、图像识别 图像识别是
    的头像 发表于 10-27 11:13 393次阅读

    激光雷达技术的基于深度学习的进步

    信息。这使得激光雷达在自动驾驶、无人机、机器人等领域具有广泛的应用前景。 二、深度学习技术的发展 深度学习是机器学习的一个分支,它通过模拟人
    的头像 发表于 10-27 10:57 378次阅读

    FPGA加速深度学习模型的案例

    FPGA(现场可编程门阵列)加速深度学习模型是当前硬件加速领域的一个热门研究方向。以下是一些FPGA加速深度学习模型的案例: 一、基于FPG
    的头像 发表于 10-25 09:22 220次阅读

    FPGA做深度学习能走多远?

    ,FPGA 也需要不断适应和改进。研究人员和开发者将致力于针对 FPGA 的特点对深度学习算法进行优化,例如探索更高效的模型压缩方法、量化技术以及硬件友好的算法结构等,以进一步提高 FPGA 在
    发表于 09-27 20:53

    【《时间序列与机器学习》阅读体验】+ 了解时间序列

    学习方法对该序列数据进行分析,可以得到结论或预测估计,因此时间序列分析的用途是非常多的,比如: 可以反映社会经济现象的发展变化过程,描述现象的发展状态和结果。 可以
    发表于 08-11 17:55

    利用Matlab函数实现深度学习算法

    在Matlab中实现深度学习算法是一个复杂但强大的过程,可以应用于各种领域,如图像识别、自然语言处理、时间序列预测等。这里,我将概述一个基本的流程,包括环境设置、数据准备、模型设计、训
    的头像 发表于 07-14 14:21 2196次阅读

    深度学习中的时间序列分类方法

    的发展,基于深度学习的TSC方法逐渐展现出其强大的自动特征提取和分类能力。本文将从多个角度对深度学习时间序列分类中的应用进行综述,探讨常用
    的头像 发表于 07-09 15:54 912次阅读

    深度学习中的无监督学习方法综述

    深度学习作为机器学习领域的一个重要分支,近年来在多个领域取得了显著的成果,特别是在图像识别、语音识别、自然语言处理等领域。然而,深度
    的头像 发表于 07-09 10:50 709次阅读

    基于深度学习的小目标检测

    在计算机视觉领域,目标检测一直是研究的热点和难点之一。特别是在小目标检测方面,由于小目标在图像中所占比例小、特征不明显,使得检测难度显著增加。随着深度学习技术的快速发展,尤其是卷积神经
    的头像 发表于 07-04 17:25 882次阅读

    深度学习常用的Python库

    深度学习作为人工智能的一个重要分支,通过模拟人类大脑中的神经网络来解决复杂问题。Python作为一种流行的编程语言,凭借其简洁的语法和丰富的库支持,成为了深度学习
    的头像 发表于 07-03 16:04 645次阅读

    深度神经网络模型cnn的基本概念、结构及原理

    深度神经网络模型CNN(Convolutional Neural Network)是一种广泛应用于图像识别、视频分析和自然语言处理等领域的深度学习
    的头像 发表于 07-02 10:11 9736次阅读

    深度解析深度学习下的语义SLAM

    随着深度学习技术的兴起,计算机视觉的许多传统领域都取得了突破性进展,例如目标的检测、识别和分类等领域。近年来,研究人员开始在视觉SLAM算法中引入深度
    发表于 04-23 17:18 1290次阅读
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>学习</b>下的语义SLAM

    FPGA在深度学习应用中或将取代GPU

    基础设施,人们仍然没有定论。如果 Mipsology 成功完成了研究实验,许多正受 GPU 折磨的 AI 开发者将从中受益。 GPU 深度学习面临的挑战 三维图形是 GPU 拥有如此大的内存和计算能力
    发表于 03-21 15:19

    【技术科普】主流的深度学习模型有哪些?AI开发工程师必备!

    接近于人工智能。它通过学习样本数据的内在规律和表示层次,对文字、图像和声音等数据进行解释。深度学习的目标是让机器像人一样具有分析
    的头像 发表于 01-30 15:26 626次阅读
    【技术科普】主流的<b class='flag-5'>深度</b><b class='flag-5'>学习</b>模型有哪些?AI开发工程师必备!

    详解深度学习、神经网络与卷积神经网络的应用

    在如今的网络时代,错综复杂的大数据和网络环境,让传统信息处理理论、人工智能与人工神经网络都面临巨大的挑战。近些年,深度学习逐渐走进人们的视线,通过深度学习解决若干问题的案例越来越多。一
    的头像 发表于 01-11 10:51 2038次阅读
    详解<b class='flag-5'>深度</b><b class='flag-5'>学习</b>、神经网络与卷积神经网络的应用