0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

选择FPGA和GPU用于基于AI的应用的好处

星星科技指导员 来源:embedded 作者:V Srinivas Durga Pras 2023-05-04 11:12 次阅读

尽管模仿人类思想和想法的软件算法人工智能的基础,但硬件也是一个重要的组成部分,这就是现场可编程门阵列(FPGA)和图形处理单元发挥至关重要的作用。

人工智能AI) 是指能够以与人类相同的方式做出决策的非人类机器智能。这包括沉思、适应性、意图能力和判断力。机器视觉机器人自动化、认知计算、机器学习计算机视觉都是人工智能市场的应用。人工智能正在汽车、消费电子、媒体和娱乐以及半导体等各种行业领域迅速获得牵引力,预示着下一次重大技术变革。

预计未来几年半导体制造的范围将扩大。随着全球对机器学习设备的需求不断增长,属于EDA电子设计自动化)、显卡、游戏、多媒体行业的许多主要市场参与者都在投资提供创新和高速计算处理器。虽然人工智能主要基于模仿人类思想和想法的软件算法,但硬件也是一个重要的组成部分。现场可编程门阵列 (FPGA) 和图形处理单元 (GPU) 是大多数 AI 操作的两种主要硬件解决方案。根据优先研究小组的数据,10 年全球硬件市场中的人工智能价值为 41.2021 亿美元,预计到 89 年将达到 22.2030 亿美元,26 年至 96 年的复合年增长率为 2022.2030%。

FPGA 概述

具有可重编程逻辑门的硬件电路称为现场可编程门阵列(FPGA)。当芯片在现场使用时,用户可以通过覆盖配置来设计独特的电路。这与无法重新编程的标准芯片形成鲜明对比。借助 FPGA 芯片,您可以构建从简单逻辑门到多核芯片组的任何内容。FPGA的使用非常流行,其中本征电路至关重要,并且预计会发生变化。FPGA 应用涵盖了 ASIC 原型设计、汽车、多媒体、消费电子以及更多领域。根据应用要求,选择低端、中端或高端FPGA配置。莱迪思半导体的ECP3和ECP5系列、赛灵思的Artix-7/Kintex-7系列以及英特尔的Stratix系列是一些流行的低功耗和低设计密度FPGA设计。

逻辑块使用输入有限的查找表 (LUT) 构建,并使用基本存储器(如 SRAM 或闪存)构建以存储布尔函数。每个LUT都连接到多路复用器和触发器寄存器,以支持顺序电路。同样,许多LUT可用于创建复杂的功能。阅读我们的 FPGA 博客,了解有关其架构的更多信息

FPGA 更适合嵌入式应用,并且比 CPU 和 GPU 功耗更低。这些电路不受 GPU 等设计的限制,可以与定制数据类型一起使用。此外,FPGA 的可编程性使其更容易修改以解决安全和安全问题。

使用 FPGA 的优势

节能

借助 FPGA,设计人员可以精确调整硬件以满足应用的要求。凭借其低功耗能力,可以将 AI 和 ML 应用的总体功耗降至最低。这可以延长设备的使用寿命并降低培训的总体成本。

易于灵活

FPGA 为处理 AI/ML 应用提供了可编程性的灵活性。可以根据要求对单个块或整个块进行编程。

减少延迟

FPGA 擅长处理短批处理短语,并减少延迟。减少延迟是指计算系统以最小延迟响应的能力。这在实时数据处理应用中至关重要,例如视频监控、视频预处理和后处理以及文本识别,在这些应用中,每一微秒都很重要。由于 FPGA 和 ASIC 在没有操作系统的裸机环境中运行,因此它们比 GPU 更快。

并行处理

FPGA 能够同时承载多个任务,甚至为特定功能指定器件的特定部分,从而显著提高其操作和能效。少量分布式存储器包含在FPGA特殊架构的结构中,使它们更接近处理器。

图形用户界面概述

图形处理单元 (GPU) 的最初目的是创建计算机图形和虚拟现实环境,这些环境依赖于复杂的计算和浮点功能来渲染几何对象。没有它们,现代人工智能基础设施将是不完整的,并且非常适合深度学习过程。

人工智能需要大量的数据来研究和学习才能成功。要运行AI算法并移动大量数据,需要大量的计算能力。GPU 可以执行这些任务,因为它们是为了快速处理生成图形和视频所需的大量数据而创建的。它们在机器学习和人工智能应用中的广泛使用部分归功于它们的高计算能力。

GPU 可以同时处理多个计算。因此,训练过程可以分发,从而大大加快了机器学习活动的速度。使用 GPU,您可以添加多个资源要求较低的内核,而不会影响性能或功耗。市场上有各种类型的 GPU,通常分为以下几类,例如数据中心 GPU、消费级 GPU 和企业级 GPU。

使用 GPU 的优势

内存带宽

GPU 具有良好的内存带宽,因此它们倾向于在深度学习应用程序的情况下快速执行计算。GPU 在大型数据集上训练模型时消耗的内存更少。凭借高达 750GB 的内存带宽,它们可以真正加速 AI 算法的快速处理。

多核

通常,GPU 由许多可以组合在一起的处理器集群组成。这使得可以大大提高系统的处理能力,特别是对于具有并行数据输入、卷积神经网络 (CNN) 和 ML 算法训练的 AI 应用程序。

灵活性

由于 GPU 的并行功能,您可以将 GPU 分组到集群中,并在这些集群之间分配作业。另一种选择是使用具有专用集群的单个 GPU 来训练特定算法。具有高数据吞吐量的 GPU 可以对多个数据点并行执行相同的操作,从而能够以无与伦比的速度处理大量数据。

数据集大小

对于模型训练,AI 算法需要一个大型数据集,该数据集需要占用大量内存计算。GPU 是高效处理具有许多大小大于 100GB 的数据点的数据集的最佳选择之一。自并行处理开始以来,它们提供了有效处理基本相同或非结构化数据所需的原始计算能力。

运行 AI 应用程序的两个主要硬件选择是 FPGA 和 GPU。尽管 GPU 可以处理 AI 和深度学习所需的大量数据,但它们在能源效率、散热问题、耐用性以及使用新的 AI 算法更新应用程序的能力方面存在局限性。FPGA 为神经网络和 ML 应用提供了显著的优势。其中包括 AI 算法更新的便利性、可用性、耐用性和能源效率。

此外,在创建FPGA软件方面也取得了重大进展,使编译和编程变得更加简单。若要使 AI 应用程序成功,必须调查硬件的可能性。正如所说,在确定行动方案之前,请仔细权衡您的选择。

Softnautics AI/ML 专家在为各种边缘平台(包括 CPU、GPU、TPU 和神经网络编译器)创建高效的机器学习解决方案方面拥有丰富的专业知识。我们还通过结合最佳设计方法和适当的技术堆栈,提供安全的嵌入式系统开发和FPGA设计服务。我们帮助企业跨各种平台构建高性能云和基于边缘的 AI/ML 解决方案,例如关键短语/语音命令检测、面部/手势识别、物体/车道检测、人工计数等。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 计算机
    +关注

    关注

    19

    文章

    6842

    浏览量

    85713
  • 人工智能
    +关注

    关注

    1781

    文章

    44948

    浏览量

    232362
  • 机器学习
    +关注

    关注

    66

    文章

    8189

    浏览量

    131225
收藏 人收藏

    评论

    相关推荐

    自动驾驶主流架构方案对比:GPUFPGA、ASIC

    当前主流的AI芯片主要分为三类,GPUFPGA、ASIC。GPUFPGA均是前期较为成熟的芯片架构,属于通用型芯片。ASIC属于为
    发表于 02-14 11:03 2822次阅读

    FPGA在深度学习应用中或将取代GPU

    对神经网络进行任何更改,也不需要学习任何新工具。不过你可以保留你的 GPU 用于训练。” Zebra 提供了将深度学习代码转换为 FPGA 硬件指令的抽象层 AI 硬件前景
    发表于 03-21 15:19

    为什么微软选择FPGAAI

    微软却全面拥抱FPGA作为AI计算平台。同时,亚马逊和百度也是FPGA路线。百度在一个电路板上集成了CPU、GPUFPGA,称为“XPU”
    发表于 08-21 09:50

    用于FPGAGPU和ASIC系统的电源管理

      在 FPGAGPU 或 ASIC 控制的系统板上,仅有为数不多的几种电源管理相关的设计挑战,但是由于需要反复调试,所以这类挑战可能使系统的推出时间严重滞后。不过,如果特定设计或类似设计已经得到
    发表于 10-15 10:30

    用于FPGAGPU和ASIC系统的电源管理

      在 FPGAGPU 或 ASIC控制的系统板上,仅有为数不多的几种电源管理相关的设计挑战,但是由于需要反复调试,所以这类挑战可能使系统的推出时间严重滞后。不过,如果特定设计或类似设计已经得到
    发表于 11-20 10:46

    ai芯片和gpu的区别

    ai芯片和gpu的区别▌车载芯片的发展趋势(CPU-GPU-FPGA-ASIC)过去汽车电子芯片以与传感器一一对应的电子控制单元(ECU)为主,主要分布与发动机等核心部件上。...
    发表于 07-27 07:29

    AI遇上FPGA会产生怎样的反应

    是人工智能大跃进的基础,在线下模型训练中Xeon-Phi、GPU等发挥着巨大的作用,而在线上的推理任务中,浪潮FPGA深度学习加速解决方案则能够实现7倍以上的能效比提升。 卷积网络之父、Facebook
    发表于 09-17 17:08

    什么是深度学习?使用FPGA进行深度学习的好处

    上述分类之外,还被用于多项任务(下面显示了四个示例)。在 FPGA 上进行深度学习的好处我们已经提到,许多服务和技术都使用深度学习,而 GPU 大量
    发表于 02-17 16:56

    传三星要自行研发GPU 自研GPU好处是什么

    记者调查可知,三星目前正在招募GPU的技术研发人才,计划要自己研发GPU,三星强大的芯片研发实力证明自行研发GPU是完全没问题的。但是有人不解自研GPU能够给三星带来什么样的
    发表于 12-28 14:24 1852次阅读

    FPGA为什么比CPU和GPU

    FPGA仿真篇-使用脚本命令来加速仿真二 基于FPGA的HDMI高清显示借口驱动 基于FPGA灰度图像高斯滤波算法的实现 FPGA为什么比CPU和G
    发表于 02-20 20:49 1559次阅读

    浅析GPUFPGA、ASIC三种主流AI芯片的区别

    当前主流的AI芯片主要分为三类,GPUFPGA、ASIC。其中GPUFPGA均是前期较为成熟的芯片架构,属于通用型芯片。ASIC属于为
    发表于 03-07 14:39 2.9w次阅读

    FPGA有什么优势,可以让FPGA替代GPU

    目前,在AI计算平台使用最广泛的两种加速部件是GPUFPGAGPU可适用于具备计算密集、高并行、SIMD(SingleInstructi
    发表于 11-01 15:07 2753次阅读

    FPGAGPU架构的背景

    FPGA 可提供一种不同的 AI 优化的硬件方法。与 GPU 不同,FPGA 提供独特的精细化空间可重构性。这意味着我们可以配置 FPGA
    的头像 发表于 06-13 09:58 1148次阅读

    自动驾驶主流芯片:GPUFPGA、ASIC

    当前主流的AI芯片主要分为三类,GPUFPGA、ASIC。GPUFPGA均是前期较为成熟的芯片架构,属于通用型芯片。ASIC属于为
    发表于 03-17 11:05 1655次阅读

    科普:GPUFPGA,有何异同

    来源:内容由半导体行业观察(ID:icbank)编译自techspot,谢谢。图形处理单元(GPU)和现场可编程门阵列(FPGA)是用于成像和其他繁重计算的三种主要处理器类型中的两种。中央处理器
    的头像 发表于 06-15 08:27 294次阅读
    科普:<b class='flag-5'>GPU</b>和<b class='flag-5'>FPGA</b>,有何异同