0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于5个问题阐述GPU在增强AI和机器学习技术中的作用

半导体产业纵横 来源:半导体产业纵横 2023-01-30 10:42 次阅读

基于5个问题阐述GPU在增强AI机器学习技术中的作用。

在21世纪初期,研究人员意识到,由于机器学习算法通常具有与图形处理算法相同类型的计算,因此GPU可以为机器学习提供基于CPU计算的更有效的替代方案。尽管近年来基于CPU的可用性和成本限制,但基于GPU的计算已经成为机器学习或神经网络训练的事实标准。基于5个问题阐述GPU 在增强 AI 和机器学习技术中的作用。

GPU是什么?

顾名思义,专业的图形处理单元(GPU)最初是在几十年前设计的,用于高效的执行图像和视频处理等常见的操作。这些过程以基于矩阵的数学计算为特色。人们通常更熟悉中央处理器(CPU),它存在于笔记本电脑手机智能设备中,可以执行许多不同类型的操作。

在21世纪初期,研究人员意识到,由于机器学习算法通常具有与图形处理算法相同类型的计算,因此GPU可以为机器学习提供基于CPU计算的更有效的替代方案。尽管近年来基于CPU的可用性和成本限制,但基于GPU的计算已经成为机器学习或神经网络训练的事实标准。

使用GPU的好处是什么?

使用GPU最关键的好处就是效率高。GPU提供的计算效率不仅仅是简化了分析过程,它还促进了更广泛的模型训练以获得更高的准确性,扩大了模型搜索过程的范围以防止替代规范,使以前无法实现的某些模型变得可行,并允许对替代数据集增加额外的敏感性以确保其稳健性。

3661a1fe-a029-11ed-bfe3-dac502259ad0.png

GPU如何支持专家证词?

基于人工智能的系统用数据驱动的决策取代了人类决策。这可以使得在处理大量复杂信息时减少主观性和错误。我们利用人工智能和机器学习来推动越来越复杂的任务的自动化,并解锁新的分析方法,包括使用监督和非监督学习,这些技术都由我们内部的GPU支持。

数据科学中心如何利用GPU进行计算?

我们在案例生命周期的所有阶段(从发现到经济分析)以及从标准表格数据到文本和图像的所有类型的数据都使用GPU。其中一些应用程序依赖于GPU计算已经被广泛使用的应用程序,如神经网络,而另一些应用程序则依赖于更定制的分析框架。下面是一些例子。

矩阵运算

GPU使我们能够快速地执行自定义矩阵运算。例如,在反垄断问题中,我们经常需要计算所有供应商和所有消费者之间的距离(坐标对)。将计算从CPU迁移到GPU使我们能够每秒计算近1亿个坐标对之间的距离。

深层神经网络

围绕基于GPU计算的许多关注的重点都集中在神经网络上。虽然能够处理常规的分类和回归问题,但附加的特定于任务的神经网络体系结构为文本、图像和声音的特定分析提供了一个框架。考虑到这些模型的复杂性和生成可靠结果所需的数据量,如果没有GPU计算资源,它们的使用实际上是无法实现的。当在GPU上训练一个流行的多类图像模型时,与在单个CPU上运行相同的进程相比,我们体验到了25,000%的速度提高。我们在针对消费者欺诈问题的内容分析中利用了这种效率,我们设计文本和图像分类器来表征有问题的营销材料的目标受众。

增强树

随着GPU计算变得越来越普遍,流行的机器学习软件包越来越多地在其产品中包含基于GPU的计算选项。我们经常在回归和分类问题中使用增强树。这些模型依次将多个简单的决策树聚合为一个更大、更准确的学习器。与可能具有数亿个参数的深度神经网络相比,这些模型更小,因此需要更少的数据和训练时间来产生可概括的推理。这些优势使得它们在我们经常遇到的许多类型的分析中比深度神经网络更有用。切换到基于GPU的训练过程使我们能够为这些任务训练模型,其速度比相应的 CPU 规范快近 100 倍。

语言模型

语言模型通常基于一种或多种深度学习技术,可以对文本进行分类、解析和生成。我们使用大型语言模型来提取特定的信息片段,解析实体之间的关系,识别语义关系,并在文本分类问题中补充传统的基于术语的特征,例如在诽谤事件中量化围绕公共实体的社交媒体情绪。

不出所料,考虑到这些模型可以做的所有事情,利用CPU通过这些模型处理文档会给分析过程带来显著的延迟。仅仅使用一个GPU,我们就可以将文档分割成独立的组件,并且每秒可以完全处理几百个句子。

未来我们可以期待这个领域的哪些发展?

GPU和与其相关的软件将继续发展。新的硬件可能具有更多的内核、更快的内核和更多的内存,以适应更大的模型和数据批。新的软件可能会使跨多个GPU,共享模型和数据变得更加容易。

其他发展可能涉及完全不同的设备。为了解决GPU计算中仍然存在的一些效率低下的问题,机器学习从业者越来越多地转向应用特定的集成电路(ASIC)和现场可编程门阵列(FPGA)。例如,谷歌的张量处理单元(TPU)是一个专门为其机器学习TensorFlow软件包执行计算而设计的ASIC。FPGA提供了更大的灵活性,通常用于在需要低延迟、高带宽和最低能耗的生产环境中部署机器学习模型。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4700

    浏览量

    128677
  • AI
    AI
    +关注

    关注

    87

    文章

    30085

    浏览量

    268348
  • 机器学习
    +关注

    关注

    66

    文章

    8373

    浏览量

    132395

原文标题:GPU 在增强 AI 和机器学习技术中的作用

文章出处:【微信号:ICViews,微信公众号:半导体产业纵横】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    GPU深度学习的应用 GPUs图形设计作用

    随着人工智能技术的飞速发展,深度学习作为其核心部分,已经成为推动技术进步的重要力量。GPU(图形处理单元)深度
    的头像 发表于 11-19 10:55 202次阅读

    eda机器学习的应用

    机器学习项目中,数据预处理和理解是成功构建模型的关键。探索性数据分析(EDA)是这一过程不可或缺的一部分。 1. 数据清洗 数据清洗 是机器
    的头像 发表于 11-13 10:42 143次阅读

    【书籍评测活动NO.51】具身智能机器人系统 | 了解AI的下一浪潮!

    解和响应人类情感方面的一重要步骤;谷歌的 Atlas 机器人和特斯拉的 Tesla Bot 展 示了物理能力和智能控制方面的先进成果;丰田的 T-HR3 机器人则在遥控操作
    发表于 11-11 10:20

    恩智浦eIQ AI机器学习开发软件增加两款新工具

    恩智浦eIQ AI机器学习开发软件增加了带有检索增强生成(RAG)与微调的生成式人工智能(
    的头像 发表于 11-01 11:39 376次阅读

    GPU深度学习应用案例

    GPU深度学习的应用广泛且重要,以下是一些GPU深度学习应用案例: 一、图像识别 图像识别是
    的头像 发表于 10-27 11:13 324次阅读

    AI for Science:人工智能驱动科学创新》第二章AI for Science的技术支撑学习心得

    for Science的技术支撑”的学习心得,可以从以下几个方面进行归纳和总结: 1. 技术基础的深入理解 阅读第二章的过程,我对于
    发表于 10-14 09:16

    AI for Science:人工智能驱动科学创新》第一章人工智能驱动的科学创新学习心得

    人工智能:科学研究的加速器 第一章清晰地阐述了人工智能作为科学研究工具的强大功能。通过机器学习、深度学习等先进技术
    发表于 10-14 09:12

    RISC-V如何支持不同的AI机器学习框架和库?

    RISC-V如何支持不同的AI机器学习框架和库?还请坛友们多多指教一下。
    发表于 10-10 22:24

    GPU服务器AI训练的优势具体体现在哪些方面?

    GPU服务器AI训练的优势主要体现在以下几个方面: 1、并行处理能力:GPU服务器拥有大量的并行处理核心,这使得它们能够同时处理成千上万
    的头像 发表于 09-11 13:24 322次阅读

    名单公布!【书籍评测活动NO.43】 算力芯片 | 高性能 CPU/GPU/NPU 微架构分析

    力,全球范围内,对于推动科技进步、经济发展及社会整体的运作具有至关重要的作用。随着信息技术的高速发展,高性能计算(HPC)和人工智能(AI)等技术
    发表于 09-02 10:09

    PythonAI的应用实例

    Python人工智能(AI)领域的应用极为广泛且深入,从基础的数据处理、模型训练到高级的应用部署,Python都扮演着至关重要的角色。以下将详细探讨PythonAI
    的头像 发表于 07-19 17:16 919次阅读

    ai开发需要什么配置

    较高核心数和主频的CPU,如Intel Xeon或AMD Ryzen系列。此外,多线程技术也可以提高AI开发的性能。 1.2 GPU 深度学习AI
    的头像 发表于 07-02 09:54 1065次阅读

    AI训练,为什么需要GPU

    ,ArtificialIntelligence)的主要技术。人工智能与深度学习人工智能是一历史非常长的学科。自上世纪50年代以来,多个技术
    的头像 发表于 04-24 08:05 1075次阅读
    <b class='flag-5'>AI</b>训练,为什么需要<b class='flag-5'>GPU</b>?

    FPGA深度学习应用或将取代GPU

    硬件公司供货的不断增加,GPU 深度学习的市场需求还催生了大量公共云服务,这些服务为深度学习项目提供强大的
    发表于 03-21 15:19

    GPU深度学习的应用与优势

    人工智能的飞速发展,深度学习作为其重要分支,正在推动着诸多领域的创新。在这个过程GPU扮演着不可或缺的角色。就像超级英雄电影的主角一样,GPU
    的头像 发表于 12-06 08:27 1201次阅读
    <b class='flag-5'>GPU</b><b class='flag-5'>在</b>深度<b class='flag-5'>学习</b><b class='flag-5'>中</b>的应用与优势