0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

FPGA加速器支撑ChatGPT类大语言模型创新

半导体芯科技SiSC 来源:半导体芯科技SiSC 作者:半导体芯科技SiS 2023-09-04 16:55 次阅读

作者:Bill Jenkins,Achronix人工智能/机器学习产品营销总监

探索FPGA加速语言模型如何通过更快的推理、更低的延迟和更好的语言理解来重塑生成式人工智能

简介:大语言模型

近年来,大型语言模型(Large Language Models,LLM)彻底改变了自然语言处理领域,使机器能够生成类似人类的文本并进行有意义的对话。这些模型,例如OpenAI的GPT,拥有惊人的语言理解和生成能力。它们可以被用于广泛的自然语言处理任务,包括文本生成、翻译、自动摘要、情绪分析等。

大语言模型通常是基于深度学习技术来构建,特别是广泛使用了transformer架构。Transformer是一类神经网络模型,擅长捕捉语言序列中的远关联关系,这使得它们非常适合于语言理解和生成任务。训练一种大语言模型的方法是将模型暴露给大量文本数据中,这些文本数据通常来源于书籍、网站和其它文本资源。该模型学会了预测句子中的下一个单词,或者根据它所看到的上下文填充缺失的单词。通过这个过程,它获得了关于语法、句法的知识,甚至是一定程度的世界知识。

与大语言模型相关的主要挑战之一是其巨大的计算和内存需求。这些模型由数十亿个参数组成,需要强大的硬件和大量的计算资源来有效地训练和部署它们,正如Nishant Thakur在2023年3月于领英发布的文章《ChatGPT背后令人难以置信的处理能力和成本:构建终极AI聊天机器人需要什么?》中所讨论的。资源有限的组织机构和研究人员在充分利用这些模型的潜力方面经常遇到瓶颈,因为云端需要大量的处理能力或资金。此外,在生成响应时,为创建适当的符号、单词或单词子部分,上下文长度会急剧增长,对内存和计算资源产生更多的需求。

这些计算挑战导致更高的延迟,这使得大语言模型的采用变得更加困难,并且不是实时的,因此不那么自然。在这篇博客中,我们将深入研究大语言模型遇到的困难,并探索潜在的解决方案,这些解决方案可以为其增强的可用性和可靠性铺平道路。

大语言模型的加速

大语言模型的构建通常需要一个大规模的系统来执行该模型,这个模型会持续变大,在其发展到一定程度后,仅靠在CPU上的运行就不再具有成本、功耗或延迟的优势了。使用GPU或FPGA这样的加速器可显著提高计算能效、大幅降低系统延迟,并以更小的规模实现更高的计算水平。虽然GPU无疑正在成为硬件加速的标准选择,主要是因为它具有的可访问性和易于编程特性;实际上,在低延迟方面,FPGA架构比GPU有更卓越的性能。

由于本质上GPU是采用扭曲锁定(warp-locked)架构,跨多个内核并行执行超过32个SIMT线程,因此它们通常也需要批量处理大量数据,以尝试和偏移warp-locked架构并保持流水线被充满。这等同于更大的延迟和更多系统内存的需求。同时,FPGA可构建自定义数据路径来同时在多个数据模块上执行多个不同的指令,这意味着它可以非常有效地运行,一直到批量大小为1,这是实时的,延迟要低得多,同时最大限度地减少外部存储器需求。因此,与其他竞争性架构相比,FPGA能够显著提高其TOPs的利用率——随着系统规模扩展到ChatGPT系统大小时,这种性能差距只会继续增加。

当系统规模扩展到需要超过8个处理器件时(GPT3的训练需要使用10,000个GPU),用Achronix的FPGA来执行大语言模型可在吞吐量和延迟方面胜过GPU。如果模型可以使用INT8精度,那么使用GPT-20B作为参考的Achronix FPGA则具有更大的优势,如下表所示。这些数据说明使用FPGA是有优势的,因为GPU需要较长的交付时间(高端GPU超过一年)、得到的用户支持可能也很少,并且比FPGA贵得多(每块GPU的成本可能超过10,000美元)。

wKgaomT1m32AaulqAADYZOC_jmI990.jpg

Speedster7t FPGA芯片与GPU的性能比较

将大语言模型映射到Achronix的FPGA加速器上

Achronix的Speedster7t FPGA具有一个独特的架构,使其非常适合这些类型的模型。首先,它有一个硬二维片上网络(2D NoC),解决了整个器件的数据传输以及输入输出。此外,它使用了带有紧耦合RAM的机器学习处理器(MLP),以便在计算之间实现高效的结果重用。最后,与GPU类似但与其他FPGA不同,Achronix的Speedster7t FPGA具有八组高效的GDDR6存储器IP,可支持更高的带宽,并且能够以4 Tbps的速度加载参数。

由于这些系统需要可扩展性,FPGA可以实现各种标准接口,以将加速卡互连在一起,并可实现卡之间无缝地传输数据。Achronix的Speedster7t AC7t1500器件具有32个100 Gbps的SerDes通道,不需要诸如NVLink这样的专有且成本高昂的解决方案。

大语言模型的未来:升级为增强型语言理解方案及领域特定方案

由于这些大语言模型需要巨大的规模才能以最小的延迟影响来执行训练和推理,模型的复杂性将继续增加,这将使得不断发展的语言理解、生成,甚至预测能力具有令人难以置信的准确性。虽然目前许多GPT类模型都是通用的,很可能接下来会出现针对某些领域,如医学、法律、工程或金融等而训练的专用模型。总之,在很长一段时间内,这些系统将协助人类专家处理由人工智能系统处理的更多平凡的任务,并为提供解决方案建议或协助完成创造性的任务。

联系Achronix,了解我们如何帮助您加速这些大语言模型系统。

在即将于9月14-15日在深圳市深圳湾万丽酒店举办的“2023全球AI芯片峰会”(第10号展位)上,Achronix将展出其最新的自动语音识别(Accelerated Automatic Speech Recognition, ASR)加速方案。它具有领先的超低延迟、大并发实时处理的特性,运行在VectorPath加速卡上的Speedster7t FPGA中。作为一种带有外接主机API的完整解决方案,其应用不需要具备RTL或FPGA知识。

Achronix还将介绍针对高带宽、计算密集型和实时处理应用的最新的FPGA和eFPGA IP解决方案,包括Speedster®7t系列FPGA芯片、Speedcore™ eFPGA IP和VectorPath®加速卡。

关于Achronix半导体公司

Achronix半导体公司是一家总部位于美国加利福尼亚州圣克拉拉市的无晶圆厂半导体公司,提供基于高端FPGA的高性能数据加速解决方案,旨在满足高性能、密集型计算和实时性处理的应用需求。Achronix是唯一一家同时提供高性能高密度的独立FPGA芯片和可授权的eFPGA IP解决方案的供应商。通过面向人工智能、机器学习、网络和数据中心应用的即用型VectorPath®加速卡,Achronix 的Speedster®7t系列FPGA和Speedcore™ eFPGA IP产品得到进一步增强。所有的Achronix产品都由Achronix工具套件完全支持,使客户能够快速开发自己的定制应用。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • FPGA
    +关注

    关注

    1620

    文章

    21510

    浏览量

    598898
  • 人工智能
    +关注

    关注

    1787

    文章

    46060

    浏览量

    234979
  • 语言模型
    +关注

    关注

    0

    文章

    487

    浏览量

    10201
  • ChatGPT
    +关注

    关注

    28

    文章

    1517

    浏览量

    6924
收藏 人收藏

    评论

    相关推荐

    数据中心加速器就看GRVI Phalanx FPGA加速器

    数据中心采用FPGA加速器已经成为主流,像MS的Catapult,Amazon基于Xilinx FPGA的AWS F1,Intel的Altera,Baidu公司等
    的头像 发表于 10-16 11:49 8786次阅读
    数据中心<b class='flag-5'>加速器</b>就看GRVI Phalanx <b class='flag-5'>FPGA</b><b class='flag-5'>加速器</b>

    【国产FPGA+OMAPL138开发板体验】(原创)6.FPGA连接ChatGPT 4

    方面。而且,由于ChatGPT 4是一个大型的语言模型。通常,FPGA会用于处理一些底层的数据流或执行特定的硬件加速任务,而
    发表于 02-14 21:58

    一个模型带你了解#回旋加速器原理

    加速器DIY
    jf_49445761
    发布于 :2022年08月28日 08:57:57

    #硬声创作季 电子制作:磁性加速器

    加速器DIY
    Mr_haohao
    发布于 :2022年10月19日 00:19:38

    机器学习实战:GNN加速器FPGA解决方案

    的场景。如上所述种种设计挑战的存在,使得业界急需一种可以支持高度并发实时计算、巨大内存容量和带宽、以及在数据中心范围可扩展的GNN加速解决方案。5. GNN加速器FPGA设计方案Achronix 公司
    发表于 10-20 09:48

    华秋硬创联合安创加速器加速创新赋能技术驱动型创业者

    167亿,获2轮及以上融资的企业占比达54%。 02****生态伙伴介绍:安创加速器 **安创加速器作为Arm全球唯一加速器,依托于Arm全球庞大的生态系统资源及行业领先的技术,**通过创业
    发表于 08-18 14:37

    高级语言(HLL)标准扩展大大简化基于FPGA加速器的应用程序的开发

    扩展和利用FPGA实现加速的应用等内容。Convey公司制造了一整套的基于FPGA的硬件加速器板卡,支持PCIe计算接口和服务系统包裹Wo
    发表于 02-08 12:34 392次阅读
    高级<b class='flag-5'>语言</b>(HLL)标准扩展大大简化基于<b class='flag-5'>FPGA</b><b class='flag-5'>加速器</b>的应用程序的开发

    基于FPGA的通用CNN加速设计

    基于FPGA的通用CNN加速器整体框架如下,通过Caffe/Tensorflow/Mxnet等框架训练出来的CNN模型,通过编译的一系列优化生成
    发表于 10-27 14:09 1w次阅读
    基于<b class='flag-5'>FPGA</b>的通用CNN<b class='flag-5'>加速</b>设计

    优化基于FPGA的深度卷积神经网络的加速器设计

    CNN已经广泛用于图像识别,因为它能模仿生物视觉神经的行为获得很高识别准确率。最近,基于深度学习算法的现代应用高速增长进一步改善了研究和实现。特别地,多种基于FPGA平台的深度CNN加速器被提出
    发表于 11-17 13:31 7894次阅读

    基于Xilinx FPGA的Memcached硬件加速器的介绍

    本教程讨论基于Xilinx FPGA的Memcached硬件加速器的技术细节,该硬件加速器可为10G以太网端口提供线速Memcached服务。
    的头像 发表于 11-27 06:41 3630次阅读

    数据中心加速器也许会是FPGA最高的细分市场

    近日,FPGA的数据加速器件和高性能嵌入式FPGA半导体知识产权Achronix公司与Molex旗下的一家领先企业级FPGA加速器产品供应商
    发表于 11-08 15:11 1126次阅读

    什么是AI加速器 如何确需要AI加速器

    AI加速器是一专门的硬件加速器或计算机系统旨在加速人工智能的应用,主要应用于人工智能、人工神经网络、机器视觉和机器学习。
    发表于 02-06 12:47 4314次阅读

    ChatGPT浪潮下,看中国大语言模型产业发展

    ChatGPT的横空出世拉开了大语言模型产业和生成式AI产业蓬勃发展的序幕。本报告将着重分析“OpenAI ChatGPT的成功之路”、“中国
    的头像 发表于 06-01 16:49 936次阅读
    <b class='flag-5'>ChatGPT</b>浪潮下,看中国大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>产业发展

    基于FPGA的Wide&Deep模型加速器解决方案

    电子发烧友网站提供《基于FPGA的Wide&Deep模型加速器解决方案.pdf》资料免费下载
    发表于 09-13 10:37 1次下载
    基于<b class='flag-5'>FPGA</b>的Wide&Deep<b class='flag-5'>模型</b><b class='flag-5'>加速器</b>解决方案

    Rapanda流加速器-实时流式FPGA加速器解决方案

    电子发烧友网站提供《Rapanda流加速器-实时流式FPGA加速器解决方案.pdf》资料免费下载
    发表于 09-13 10:17 0次下载
    Rapanda流<b class='flag-5'>加速器</b>-实时流式<b class='flag-5'>FPGA</b><b class='flag-5'>加速器</b>解决方案