0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

采用创新的FPGA 器件来实现更经济且更高能效的大模型推理解决方案

马华1 来源:马华1 作者:马华1 2024-06-19 15:53 次阅读

作者:Bob Siller,Achronix半导体产品营销总监

摘要:本文根据完整的基准测试,将Achronix Semiconductor公司推出的Speedster7t FPGAGPU解决方案进行比较,在运行同一个Llama2 70B参数模型时,该项基于FPGA的解决方案实现了超越性的LLM推理处理。

采用 FPGA器件来加速LLM性能,在运行 Llama2 70B参数模型时,Speedster7t FPGA如何与 GPU解决方案相媲美?证据是令人信服的——Achronix Speedster7t FPGA通过提供计算能力、内存带宽和卓越能效的最佳组合,在处理大型语言模型(LLM)方面表现出色,这是当今LLM复杂需求的基本要求。

像 Llama2这样的 LLM的快速发展正在为自然语言处理(NLP)开辟一条新路线,有望提供比以往任何时候都更像人类的交互和理解。这些复杂的 LLM是创新的催化剂,推动了对先进硬件解决方案的需求,以满足其密集处理需求。

我们的基准测试突出了 Speedster7t系列处理 Llama2 70B模型复杂性的能力,重点关注 FPGA和 LLM性能。这些测试(可根据要求提供结果)显示了Achronix FPGA对于希望将LLM的强大功能用于其NLP应用程序的开发人员和企业的潜力。这些基准测试展示了 Speedster7t FPGA如何超越市场,提供无与伦比的性能,同时降低运营成本和环境影响。

Llama2 70B LLM运行在 Speedster7t FPGA上

2023年 7月,Microsoft和 Meta推出了他们的开源 LLM,Llama2开创了 AI驱动语言处理的新先例。Llama2采用多种配置设计,以满足各种计算需求,包括 700亿、130亿和 700亿个参数,使其处于 LLM创新的最前沿。Achronix和我们的合作伙伴 Myrtle.ai对700亿参数的Llama2模型进行了深入的基准分析,展示了使用Speedster7t FPGA进行LLM加速的优势。

基准测试结果:Speedster7t FPGA与业界领先的 GPU对比

我们在 Speedster7t FPGA上测试了 Llama2 70B模型的推理性能,并将其与领先的 GPU进行了比较。该基准测试是通过对输入、输出序列长度(1,128)和批处理大小 =1进行建模来完成的。结果表明,Speedster7t AC7t1500在LLM处理中的有效性。

FPGA成本基于由 Speedster7t FPGA提供支持的 VectorPath加速卡的标价。同样,我们在此分析中使用了可比GPU卡的标价。使用这些成本信息和每秒产生的输出令牌数量,我们计算出基于 FPGA的解决方案的 $/token提高了 200%。除了成本优势外,在比较 FPGA和 GPU卡的相对功耗时,我们观察到与基于 GPU的解决方案相比,产生的 kWh/token提高了 200%。这些优势表明 FPGA如何成为一种经济且能效高效的 LLM解决方案。

wKgZomZyje-AcBKyAAGXKpdnlrw187.png

面向 LLM的 FPGA:Speedster7t的优势

Achronix Speedster7t系列FPGA旨在优化LLM操作,平衡LLM硬件的关键要求,包括:

高性能计算 –具有高性能计算能力的尖端硬件对于管理 LLM推理核心的复杂矩阵计算至关重要。

高带宽内存 –高效的 LLM推理依赖于高带宽内存,通过模型的网络参数快速馈送数据,而不会出现瓶颈。

扩展和适应能力 –现代 LLM推理需要能够随着模型规模的增长而扩展并灵活适应 LLM架构的持续进步的硬件。

高能效处理 –可持续的 LLM推理需要硬件能够最大限度地提高计算输出,同时最大限度地降低能耗,从而降低运营成本和环境影响。

Speedster7t FPGA提供以下功能,以应对实施现代 LLM处理解决方案的挑战:

计算性能–通过其灵活的机器学习处理器(MLP)模块支持复杂的 LLM任务。

高 GDDR6 DRAM带宽 –确保以 4 Tbps的内存带宽快速处理大型 LLM数据集。

大量的 GDDR6 DRAM容量 –可容纳 Llama2等扩展的 LLM,每个 FPGA的容量为 32 GB。

用于 LLM的集成 SRAM –提供低延迟、高带宽的存储,具有 190 Mb的 SRAM,非常适合存储激活和模型权重。

多种本机数字格式 –适应 LLM需求,支持块浮点(BFP)、FP16、bfloat16等。

高效的片上数据传输 – 2D NoC超过 20 Tbps,简化片上数据流量。

扩展横向扩展带宽 –支持多达32个112 Gbps SerDes满足 LLM需求,增强连接性。

自适应逻辑级可编程 –使用 690K 6输入 LUT为 LLM的快速发展做好准备。

针对 LLM推理优化的 FPGA

在快速变化的人工智能和自然语言处理领域,使用 FPGA而不是 GPU来加速 LLM是一个相当新的想法。该基准测试展示了设计人员如何从使用Achronix的FPGA技术中受益。Achronix Speedster7t系列FPGA是这一变化的关键技术,在高性能、高带宽存储器、易于扩展和电源效率之间实现了出色的平衡。

基于详细的基准分析,将 Speedster7t FPGA与领先的 GPU在处理 Llama2 70B模型方面的能力进行比较,结果表明 Speedster7t FPGA能够提供高水平的性能,同时大大降低运营成本和环境影响,突出了它在未来 LLM创建和使用中的重要作用。

如果希望进一步了解如何使用FPGA器件来加速您的LLM程序,以及 FPGA加速 LLM解决方案的未来发展机遇。请联系Achronix,获取详细的基准测试结果,并帮助您确定Achronix FPGA技术如何加速您的LLM设计。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • FPG
    FPG
    +关注

    关注

    1

    文章

    54

    浏览量

    79930
  • 大模型
    +关注

    关注

    2

    文章

    2252

    浏览量

    2314
收藏 人收藏

    评论

    相关推荐

    FPGA和ASIC在大模型推理加速中的应用

    随着现在AI的快速发展,使用FPGA和ASIC进行推理加速的研究也越来越多,从目前的市场来说,有些公司已经有了专门做推理的ASIC,像Groq的LPU,专门针对大语言模型
    的头像 发表于 10-29 14:12 118次阅读
    <b class='flag-5'>FPGA</b>和ASIC在大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>加速中的应用

    解决方案丨EasyGo新能源系统实时仿真应用

    添加更多的教学或创新型的实验内容。 所有实验均包含离线程序,控制算法实时程序,电路仿真实时程序等。其中,仿真侧模型采用实时仿真器,实现1微秒的高速仿真运行;控制侧
    发表于 10-18 09:37

    使用TPS2116实现建筑自动化应用的高能

    电子发烧友网站提供《使用TPS2116实现建筑自动化应用的高能.pdf》资料免费下载
    发表于 09-25 11:12 0次下载
    使用TPS2116<b class='flag-5'>实现</b>建筑自动化应用的<b class='flag-5'>高能</b><b class='flag-5'>效</b>

    AMD助力HyperAccel开发全新AI推理服务器

    HyperAccel 是一家成立于 2023 年 1 月的韩国初创企业,致力于开发 AI 推理专用型半导体器件和硬件,最大限度提升推理工作负载的存储器带宽使用,并通过将此解决方案应用于
    的头像 发表于 09-18 09:37 296次阅读
    AMD助力HyperAccel开发全新AI<b class='flag-5'>推理</b>服务器

    【《大语言模型应用指南》阅读体验】+ 基础知识学习

    今天学习大语言模型在自然语言理解方面的原理以及问答回复实现。 主要是基于深度学习和自然语言处理技术。 大语言模型涉及以下几个过程: 数据收
    发表于 08-02 11:03

    基于瑞萨RZ/V2H AI微处理器的解决方案:高性能视觉AI系统

    RZ/V2H嵌入式AI微处理器,采用瑞萨最新的DRP-AI3技术,可提供高达8TOPS(Dense模型)/80TOPS(sparse模型)的AI推理能力,以及10 TOPS/W的
    发表于 07-02 18:36 402次阅读
    基于瑞萨RZ/V2H AI微处理器的<b class='flag-5'>解决方案</b>:高性能视觉AI系统

    STM32如何诠释电机控制创新 如何更高智能

    为了提高电机系统的效率,电机控制技术大有可为。通过采用性能更高、集成度更高的半导体器件,功能强大安全的微控制器,
    发表于 06-06 10:44 688次阅读
    STM32如何诠释电机控制<b class='flag-5'>创新</b> 如何<b class='flag-5'>更高</b>效<b class='flag-5'>更</b>智能

    【大语言模型:原理与工程实践】大语言模型的评测

    评测任务则重点评估模型在提供方法论和实践建议方面的能力。这类任务要求模型能像经验丰富的导师或专家那样,为用户提供有价值的建议和解决方案。总之,这套综合性的评测框架为全面评估大语言模型
    发表于 05-07 17:12

    【大语言模型:原理与工程实践】揭开大语言模型的面纱

    超出预期的能力和表现。这种能力主要体现在学习能力提升、语言理解和生成能力,以及创新和探索等方面。大语言模型拥有更大的参数空间和表征能力,能学习复杂、
    发表于 05-04 23:55

    莱迪思半导体Drive™解决方案荣获2024 BIG创新

    莱迪思半导体近日宣布其最新的莱迪思Drive™解决方案集合凭借实现高能、可扩展安全的车载体验而荣获2024 BIG
    的头像 发表于 03-20 14:42 394次阅读

    HarmonyOS:使用MindSpore Lite引擎进行模型推理

    场景介绍 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件设备 AI 模型推理的功能,目前已经在图像分类、目标识别、人脸识别、文字识别等应用中广泛使用。 本文介绍
    发表于 12-14 11:41

    FPGA的电源管理解决方案

    电子发烧友网站提供《FPGA的电源管理解决方案.pdf》资料免费下载
    发表于 11-24 14:42 0次下载
    <b class='flag-5'>FPGA</b>的电源管<b class='flag-5'>理解决方案</b>

    高能AC-DC开关稳压器方案

    电子发烧友网站提供《高能AC-DC开关稳压器方案.doc》资料免费下载
    发表于 11-14 14:26 0次下载
    <b class='flag-5'>高能</b><b class='flag-5'>效</b>AC-DC开关稳压器<b class='flag-5'>方案</b>

    安科瑞数据中心能管理系统:提升能,降低运营成本

    数据中心能管理系统是一套功能强大、应用广泛、优势明显的能理解决方案。通过该系统,数据中心可以实现对能源的精细化、智能化管理,提高能源利
    的头像 发表于 11-07 15:57 526次阅读
    安科瑞数据中心能<b class='flag-5'>效</b>管理系统:提升能<b class='flag-5'>效</b>,降低运营成本

    使用rk3588多npu推理模型模型推理时间还增加了,这怎么解释

    使用rk3588多npu推理模型模型推理时间还增加了,这怎么解释
    发表于 11-05 18:22