0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

采用创新的FPGA 器件来实现更经济且更高能效的大模型推理解决方案

马华1 来源:马华1 作者:马华1 2024-06-19 15:53 次阅读

作者:Bob Siller,Achronix半导体产品营销总监

摘要:本文根据完整的基准测试,将Achronix Semiconductor公司推出的Speedster7t FPGAGPU解决方案进行比较,在运行同一个Llama2 70B参数模型时,该项基于FPGA的解决方案实现了超越性的LLM推理处理。

采用 FPGA器件来加速LLM性能,在运行 Llama2 70B参数模型时,Speedster7t FPGA如何与 GPU解决方案相媲美?证据是令人信服的——Achronix Speedster7t FPGA通过提供计算能力、内存带宽和卓越能效的最佳组合,在处理大型语言模型(LLM)方面表现出色,这是当今LLM复杂需求的基本要求。

像 Llama2这样的 LLM的快速发展正在为自然语言处理(NLP)开辟一条新路线,有望提供比以往任何时候都更像人类的交互和理解。这些复杂的 LLM是创新的催化剂,推动了对先进硬件解决方案的需求,以满足其密集处理需求。

我们的基准测试突出了 Speedster7t系列处理 Llama2 70B模型复杂性的能力,重点关注 FPGA和 LLM性能。这些测试(可根据要求提供结果)显示了Achronix FPGA对于希望将LLM的强大功能用于其NLP应用程序的开发人员和企业的潜力。这些基准测试展示了 Speedster7t FPGA如何超越市场,提供无与伦比的性能,同时降低运营成本和环境影响。

Llama2 70B LLM运行在 Speedster7t FPGA上

2023年 7月,Microsoft和 Meta推出了他们的开源 LLM,Llama2开创了 AI驱动语言处理的新先例。Llama2采用多种配置设计,以满足各种计算需求,包括 700亿、130亿和 700亿个参数,使其处于 LLM创新的最前沿。Achronix和我们的合作伙伴 Myrtle.ai对700亿参数的Llama2模型进行了深入的基准分析,展示了使用Speedster7t FPGA进行LLM加速的优势。

基准测试结果:Speedster7t FPGA与业界领先的 GPU对比

我们在 Speedster7t FPGA上测试了 Llama2 70B模型的推理性能,并将其与领先的 GPU进行了比较。该基准测试是通过对输入、输出序列长度(1,128)和批处理大小 =1进行建模来完成的。结果表明,Speedster7t AC7t1500在LLM处理中的有效性。

FPGA成本基于由 Speedster7t FPGA提供支持的 VectorPath加速卡的标价。同样,我们在此分析中使用了可比GPU卡的标价。使用这些成本信息和每秒产生的输出令牌数量,我们计算出基于 FPGA的解决方案的 $/token提高了 200%。除了成本优势外,在比较 FPGA和 GPU卡的相对功耗时,我们观察到与基于 GPU的解决方案相比,产生的 kWh/token提高了 200%。这些优势表明 FPGA如何成为一种经济且能效高效的 LLM解决方案。

wKgZomZyje-AcBKyAAGXKpdnlrw187.png

面向 LLM的 FPGA:Speedster7t的优势

Achronix Speedster7t系列FPGA旨在优化LLM操作,平衡LLM硬件的关键要求,包括:

高性能计算 –具有高性能计算能力的尖端硬件对于管理 LLM推理核心的复杂矩阵计算至关重要。

高带宽内存 –高效的 LLM推理依赖于高带宽内存,通过模型的网络参数快速馈送数据,而不会出现瓶颈。

扩展和适应能力 –现代 LLM推理需要能够随着模型规模的增长而扩展并灵活适应 LLM架构的持续进步的硬件。

高能效处理 –可持续的 LLM推理需要硬件能够最大限度地提高计算输出,同时最大限度地降低能耗,从而降低运营成本和环境影响。

Speedster7t FPGA提供以下功能,以应对实施现代 LLM处理解决方案的挑战:

计算性能–通过其灵活的机器学习处理器(MLP)模块支持复杂的 LLM任务。

高 GDDR6 DRAM带宽 –确保以 4 Tbps的内存带宽快速处理大型 LLM数据集。

大量的 GDDR6 DRAM容量 –可容纳 Llama2等扩展的 LLM,每个 FPGA的容量为 32 GB。

用于 LLM的集成 SRAM –提供低延迟、高带宽的存储,具有 190 Mb的 SRAM,非常适合存储激活和模型权重。

多种本机数字格式 –适应 LLM需求,支持块浮点(BFP)、FP16、bfloat16等。

高效的片上数据传输 – 2D NoC超过 20 Tbps,简化片上数据流量。

扩展横向扩展带宽 –支持多达32个112 Gbps SerDes满足 LLM需求,增强连接性。

自适应逻辑级可编程 –使用 690K 6输入 LUT为 LLM的快速发展做好准备。

针对 LLM推理优化的 FPGA

在快速变化的人工智能和自然语言处理领域,使用 FPGA而不是 GPU来加速 LLM是一个相当新的想法。该基准测试展示了设计人员如何从使用Achronix的FPGA技术中受益。Achronix Speedster7t系列FPGA是这一变化的关键技术,在高性能、高带宽存储器、易于扩展和电源效率之间实现了出色的平衡。

基于详细的基准分析,将 Speedster7t FPGA与领先的 GPU在处理 Llama2 70B模型方面的能力进行比较,结果表明 Speedster7t FPGA能够提供高水平的性能,同时大大降低运营成本和环境影响,突出了它在未来 LLM创建和使用中的重要作用。

如果希望进一步了解如何使用FPGA器件来加速您的LLM程序,以及 FPGA加速 LLM解决方案的未来发展机遇。请联系Achronix,获取详细的基准测试结果,并帮助您确定Achronix FPGA技术如何加速您的LLM设计。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • FPG
    FPG
    +关注

    关注

    1

    文章

    54

    浏览量

    79942
  • 大模型
    +关注

    关注

    2

    文章

    2321

    浏览量

    2474
收藏 人收藏

    评论

    相关推荐

    高效大模型推理综述

    模型由于其在各种任务中的出色表现而引起了广泛的关注。然而,大模型推理的大量计算和内存需求对其在资源受限场景的部署提出了挑战。业内一直在努力开发旨在提高大模型
    的头像 发表于 11-15 11:45 214次阅读
    高效大<b class='flag-5'>模型</b>的<b class='flag-5'>推理</b>综述

    FPGA和ASIC在大模型推理加速中的应用

    随着现在AI的快速发展,使用FPGA和ASIC进行推理加速的研究也越来越多,从目前的市场来说,有些公司已经有了专门做推理的ASIC,像Groq的LPU,专门针对大语言模型
    的头像 发表于 10-29 14:12 204次阅读
    <b class='flag-5'>FPGA</b>和ASIC在大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>加速中的应用

    李开复:中国擅长打造经济实惠的AI推理引擎

    10月22日上午,零一万物公司的创始人兼首席执行官李开复在与外媒的交流中透露,其公司旗下的Yi-Lightning(闪电模型)在推理成本上已实现了显著优势,比OpenAI的GPT-4o模型
    的头像 发表于 10-22 16:54 314次阅读

    解决方案丨EasyGo新能源系统实时仿真应用

    添加更多的教学或创新型的实验内容。 所有实验均包含离线程序,控制算法实时程序,电路仿真实时程序等。其中,仿真侧模型采用实时仿真器,实现1微秒的高速仿真运行;控制侧
    发表于 10-18 09:37

    使用TPS2116实现建筑自动化应用的高能

    电子发烧友网站提供《使用TPS2116实现建筑自动化应用的高能.pdf》资料免费下载
    发表于 09-25 11:12 0次下载
    使用TPS2116<b class='flag-5'>实现</b>建筑自动化应用的<b class='flag-5'>高能</b><b class='flag-5'>效</b>

    AMD助力HyperAccel开发全新AI推理服务器

    HyperAccel 是一家成立于 2023 年 1 月的韩国初创企业,致力于开发 AI 推理专用型半导体器件和硬件,最大限度提升推理工作负载的存储器带宽使用,并通过将此解决方案应用于
    的头像 发表于 09-18 09:37 329次阅读
    AMD助力HyperAccel开发全新AI<b class='flag-5'>推理</b>服务器

    【《大语言模型应用指南》阅读体验】+ 基础知识学习

    今天学习大语言模型在自然语言理解方面的原理以及问答回复实现。 主要是基于深度学习和自然语言处理技术。 大语言模型涉及以下几个过程: 数据收
    发表于 08-02 11:03

    基于瑞萨RZ/V2H AI微处理器的解决方案:高性能视觉AI系统

    RZ/V2H嵌入式AI微处理器,采用瑞萨最新的DRP-AI3技术,可提供高达8TOPS(Dense模型)/80TOPS(sparse模型)的AI推理能力,以及10 TOPS/W的
    发表于 07-02 18:36 450次阅读
    基于瑞萨RZ/V2H AI微处理器的<b class='flag-5'>解决方案</b>:高性能视觉AI系统

    STM32如何诠释电机控制创新 如何更高智能

    为了提高电机系统的效率,电机控制技术大有可为。通过采用性能更高、集成度更高的半导体器件,功能强大安全的微控制器,
    发表于 06-06 10:44 731次阅读
    STM32如何诠释电机控制<b class='flag-5'>创新</b> 如何<b class='flag-5'>更高</b>效<b class='flag-5'>更</b>智能

    Simcenter 车辆能量管理解决方案——使用虚拟原型设计加速创新

    使用虚拟原型设计加速创新在性能和能之间实现最佳平衡限制物理原型数量跟踪从概念到后期改进阶段的车辆能源效率功能为仿真解决方案提供单一套件,支持所有开发阶段提供数字连续性,跟踪车辆节能情
    的头像 发表于 05-22 08:35 1310次阅读
    Simcenter 车辆能量管<b class='flag-5'>理解决方案</b>——使用虚拟原型设计加速<b class='flag-5'>创新</b>

    多端口能量路由实时控制仿真系统解决方案

    RCP多端口设备电力电子教学产品结合CBox设备,通过MATLAB及相关硬件的模块化设计,为解决教学内容复杂、理论与实际脱节等问题提供了一种创新解决方案。 RCP多端口设备可实现几乎大部分经典电力
    发表于 05-10 11:05

    【大语言模型:原理与工程实践】大语言模型的评测

    评测任务则重点评估模型在提供方法论和实践建议方面的能力。这类任务要求模型能像经验丰富的导师或专家那样,为用户提供有价值的建议和解决方案。总之,这套综合性的评测框架为全面评估大语言模型
    发表于 05-07 17:12

    【大语言模型:原理与工程实践】揭开大语言模型的面纱

    超出预期的能力和表现。这种能力主要体现在学习能力提升、语言理解和生成能力,以及创新和探索等方面。大语言模型拥有更大的参数空间和表征能力,能学习复杂、
    发表于 05-04 23:55

    莱迪思半导体Drive™解决方案荣获2024 BIG创新

    莱迪思半导体近日宣布其最新的莱迪思Drive™解决方案集合凭借实现高能、可扩展安全的车载体验而荣获2024 BIG
    的头像 发表于 03-20 14:42 422次阅读

    HarmonyOS:使用MindSpore Lite引擎进行模型推理

    场景介绍 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件设备 AI 模型推理的功能,目前已经在图像分类、目标识别、人脸识别、文字识别等应用中广泛使用。 本文介绍
    发表于 12-14 11:41