0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

GPU 引领的深度学习

母猪会上树 2023-01-04 11:17 次阅读

早期的机器学习是基于搜索的,主要依赖于经过一些优化的蛮力方法。但随着机器学习的成熟,它专注于加速成熟的统计方法和优化问题。深度学习也出现了,它找到了一个不太可能的优化来源。在这里,我们将了解现代机器学习如何找到新方法来带来规模和速度。

人工智能的转变

在本系列的第 1 部分中,我们探讨了 AI 的一些历史以及从 Lisp 到现代编程语言和深度学习等计算智能新范式的旅程。我们还讨论了依赖于优化搜索形式的早期人工智能应用、在海量数据集上训练的现代神经网络架构,以及解决十年前认为不可能解决的问题。今天的重点是双重的;进一步加速这些应用程序并将它们限制在智能手机等功率优化环境中。

今天大多数加速的重点是深度学习。深度学习是一种神经网络架构,它依赖于许多层次的神经网络,其中层可以支持不同的特征检测功能。这些深度神经网络依赖于可以轻松受益于并行性的向量运算。这些架构代表了神经网络层的分布式计算以及层内许多神经元的并行计算的机会。

使用 GPU 加速机器学习

加速深度学习应用程序的不太可能的来源是图形处理单元或 GPU。GPU 是一种特殊设备,用于加速输出到显示设备的帧缓冲区(内存)的构建。GPU 卸载帧缓冲区中的图像渲染,而不是依赖处理器来执行此操作。GPU 由数千个独立内核组成,这些内核并行运行并执行特定类型的计算,例如矢量数学。尽管最初的 GPU 专为视频应用而设计,但人们发现它们还可以加速科学计算中的运算,例如矩阵乘法。

GPU 供应商乐于提供 API,允许开发人员将 GPU 处理集成到他们的应用程序中,但这项工作也可以通过适用于各种不同环境的标准包来完成。R 编程语言和环境包括与 GPU 配合使用以加速处理的包,例如gputools、gmatrix和gpuR。GPU 也可以通过各种库(例如numba包或Theano )与 Python 一起使用。

这些软件包使任何有意使用它们的人都可以使用 GPU 加速机器学习。但更专业的方法也在路上。2019 年,英特尔®以 20 亿美元的价格收购了 Habana Labs。Habana Labs 为服务器中的各种机器学习加速器开发了定制芯片。在此之前,2017 年以 150 亿美元的价格收购了 Mobileye 的自动驾驶芯片技术

定制硅和说明

除了服务器和台式机中的 GPU 加速之外,机器学习加速器正在超越传统平台,进入功率受限的嵌入式设备和智能手机。这些加速器采用多种形式,从 U 盘、API 到智能手机神经网络加速器,以及用于深度学习加速的矢量指令。

智能手机的深度学习

深度学习工具包已经从 PC 发展到适用于更受限网络的智能手机。TensorFlow Lite 和 Core ML 等框架已经部署在移动设备上用于机器学习应用程序。Apple ®最近发布了 A12 仿生芯片,其中包含一个 8 核神经网络引擎,用于开发更节能的神经网络应用程序。这将扩展 Apple 智能手机上的深度学习应用程序。

Google 为 Android ® 8.1 发布了具有机器学习功能的神经网络 API (NNAPI)。这些在 Google Lens 应用程序的自然语言处理和图像识别环境中用于 Google Assistant。NNAPI 类似于其他深度学习工具包,但专为 Android 智能手机环境及其资源限制而构建。

深度学习 USB

英特尔发布了其神经计算棒的更新版本,以 USB 棒的形式加速深度学习应用程序。这可以被各种机器学习框架使用,例如 TensorFlow、Caffe 和 PyTorch。当 GPU 不可用时,该设备是一个有趣的选择,而且还允许深度学习应用程序的快速原型设计。

深度学习说明

最后,虽然机器学习计算已从 CPU 转移到 GPU,但英特尔已使用新指令优化其至强指令集以加速深度学习。这些称为 AVX-512 扩展的新指令(称为向量神经网络指令或 VNNi)提高了卷积神经网络操作的吞吐量。

概括

GPU 在机器学习中的应用创造了为各种应用程序构建和部署大规模深度神经网络的能力。机器学习框架使构建深度学习应用程序变得简单。但也不甘示弱,智能手机供应商已经为受限应用程序集成了节能的神经网络加速器(以及用于自定义应用程序使用的 API)。现在也可以找到其他加速器来卸载到 USB 硬件,许多新的初创公司正在挖掘这个加速器空间以用于未来的机器学习应用程序。

审核编辑hhy

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4700

    浏览量

    128688
  • 机器学习
    +关注

    关注

    66

    文章

    8375

    浏览量

    132400
  • 深度学习
    +关注

    关注

    73

    文章

    5492

    浏览量

    120970
收藏 人收藏

    评论

    相关推荐

    GPU深度学习中的应用 GPUs在图形设计中的作用

    随着人工智能技术的飞速发展,深度学习作为其核心部分,已经成为推动技术进步的重要力量。GPU(图形处理单元)在深度学习中扮演着至关重要的角色,
    的头像 发表于 11-19 10:55 233次阅读

    NPU在深度学习中的应用

    设计的硬件加速器,它在深度学习中的应用日益广泛。 1. NPU的基本概念 NPU是一种专门针对深度学习算法优化的处理器,它与传统的CPU和GPU
    的头像 发表于 11-14 15:17 283次阅读

    pcie在深度学习中的应用

    深度学习模型通常需要大量的数据和强大的计算能力来训练。传统的CPU计算资源有限,难以满足深度学习的需求。因此,GPU(图形处理单元)和TPU
    的头像 发表于 11-13 10:39 284次阅读

    PyTorch GPU 加速训练模型方法

    深度学习领域,GPU加速训练模型已经成为提高训练效率和缩短训练时间的重要手段。PyTorch作为一个流行的深度学习框架,提供了丰富的工具和
    的头像 发表于 11-05 17:43 443次阅读

    GPU深度学习应用案例

    GPU深度学习中的应用广泛且重要,以下是一些GPU深度学习应用案例: 一、图像识别 图像识别是
    的头像 发表于 10-27 11:13 326次阅读

    AI大模型与深度学习的关系

    AI大模型与深度学习之间存在着密不可分的关系,它们互为促进,相辅相成。以下是对两者关系的介绍: 一、深度学习是AI大模型的基础 技术支撑 :深度
    的头像 发表于 10-23 15:25 364次阅读

    深度学习GPU加速效果如何

    图形处理器(GPU)凭借其强大的并行计算能力,成为加速深度学习任务的理想选择。
    的头像 发表于 10-17 10:07 153次阅读

    FPGA做深度学习能走多远?

    。例如,在数据中心中,可以将 FPGA 与 CPU 或 GPU 结合使用,根据不同的任务需求进行灵活的资源分配和协同计算,提高整个系统的性能和效率。 • 算法优化和创新:随着深度学习算法的不断发展和优化
    发表于 09-27 20:53

    深度学习中的时间序列分类方法

    时间序列分类(Time Series Classification, TSC)是机器学习深度学习领域的重要任务之一,广泛应用于人体活动识别、系统监测、金融预测、医疗诊断等多个领域。随着深度
    的头像 发表于 07-09 15:54 701次阅读

    深度学习与nlp的区别在哪

    深度学习和自然语言处理(NLP)是计算机科学领域中两个非常重要的研究方向。它们之间既有联系,也有区别。本文将介绍深度学习与NLP的区别。 深度
    的头像 发表于 07-05 09:47 811次阅读

    新手小白怎么学GPU云服务器跑深度学习?

    新手小白想用GPU云服务器跑深度学习应该怎么做? 用个人主机通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不动,如何实现更经济便捷的实现GPU云服务器
    发表于 06-11 17:09

    深度解析深度学习下的语义SLAM

    随着深度学习技术的兴起,计算机视觉的许多传统领域都取得了突破性进展,例如目标的检测、识别和分类等领域。近年来,研究人员开始在视觉SLAM算法中引入深度学习技术,使得
    发表于 04-23 17:18 1237次阅读
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>学习</b>下的语义SLAM

    FPGA在深度学习应用中或将取代GPU

    现场可编程门阵列 (FPGA) 解决了 GPU 在运行深度学习模型时面临的许多问题 在过去的十年里,人工智能的再一次兴起使显卡行业受益匪浅。英伟达 (Nvidia) 和 AMD 等公司的股价也大幅
    发表于 03-21 15:19

    为什么深度学习的效果更好?

    导读深度学习是机器学习的一个子集,已成为人工智能领域的一项变革性技术,在从计算机视觉、自然语言处理到自动驾驶汽车等广泛的应用中取得了显著的成功。深度
    的头像 发表于 03-09 08:26 594次阅读
    为什么<b class='flag-5'>深度</b><b class='flag-5'>学习</b>的效果更好?

    GPU深度学习中的应用与优势

    人工智能的飞速发展,深度学习作为其重要分支,正在推动着诸多领域的创新。在这个过程中,GPU扮演着不可或缺的角色。就像超级英雄电影中的主角一样,GPU
    的头像 发表于 12-06 08:27 1205次阅读
    <b class='flag-5'>GPU</b>在<b class='flag-5'>深度</b><b class='flag-5'>学习</b>中的应用与优势