0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

刷屏的Groq芯片,速度远超英伟达GPU!成本却遭质疑

Carol Li 来源:电子发烧友 作者:李弯弯 2024-02-22 09:06 次阅读

电子发烧友网报道(文/李弯弯)英伟达遇到劲敌了?近日,Groq芯片计算速度超过英伟达GPU的消息刷屏。Groq是一家成立于2016年的AI创企,该公司近日开放了自家产品的免费试用,相比其他AI聊天机器人,Groq闪电般的响应速度迅速引爆朋友圈,经网友测试,Groq每秒生成速度接近500 tok/s,碾压GPT-4的40 tok/s。

而这样的速度背后,源于Groq自研了一种名为张量流处理器(TSP)的新型处理单元,Groq将其命名为语言处理单元,即LPU,它的工作原理与GPU截然不同。

Groq芯片跑大模型的速度有多快

Groq芯片跑大模型最突出的特点,便是快。有网友震惊地说:“它回复的速度比我眨眼还快。”在传统生成AI中,等待是很平常的事,经常是字符一个个往外蹦,回答完需要挺长时间。而有网友称,在Groq近日开放的云服务体验平台上,你可以看到,当模型收到提示后,几乎能够立即生成答案。

电子邮件初创企业OthersideAI的首席执行官兼联合创始人马特·舒默在演示中亲自体验了Groq的强大功能。他称赞Groq快如闪电,能够在不到一秒钟的时间内生成数百个单词的事实性、引用性答案。更令人惊讶的是,它超过3/4的时间用于搜索信息,而生成答案的时间却短到只有几分之一秒。

需要说明的是,Groq并没有研发新模型,它只是一个模型启动器,主页上运行的是开源模型Mixtral 8x7B-32k和Llama 270B-4k。而驱动模型的硬件便是Groq自研的一种名为张量流处理器(TSP)的新型处理单元,Groq将其命名为语言处理单元,即LPU(Language Processing Units),它的工作原理与GPU截然不同。

各种测试结果和网友的体验,都显示Groq LPU的计算速度相当快。根据2024年一月的测试结果,由Groq LPU驱动Meta Llama 2模型,推理性能遥遥领先,是顶级云计算供应商的18倍。有报道称,Groq LPU搭配Meta Llama 2 70B能在7分钟内就能生成与莎士比亚《哈姆雷特》相同数量的单词,比普通人的打字速度快75倍。

有网友测试同时用Gemini、GPT-4和Groq完成一个代码调试问题,结果,Groq的输出速度比Gemini快10倍,比GPT-4快18倍。

有从事人工智能开发的用户称赞,Groq是追求低延迟产品的“游戏规则改变者”。有用户认为,Groq的LPU可能成为英伟达A100和H100芯片的“高性能硬件”的有力替代品。不过,也有AI行业的专家表示,Groq的LPU从成本上来看并不具优势,目前并不能代替英伟达。

Groq 开发的LPU与GPU有何不同

Groq开发的LPU到底是个怎样的产品?据其官网介绍,LPU是一种专为AI推理所设计的芯片。驱动包括GPT等主流大模型的GPU,是一种为图形渲染而设计的并行处理器,有数百个内核。而LPU架构则与GPU使用的SIMD(单指令,多数据)不同,这种设计可以让芯片更有效地利用每个时钟周期,确保一致的延迟和吞吐量,也降低了复杂调度硬件的需求。

Groq的LPU推理引擎不是普通的处理单元;它是一个端到端系统,专为需要大量计算和连续处理的应用(如LLM)提供最快的推理而设计。通过消除外部内存瓶颈,LPU推理引擎的性能比传统GPU高出几个数量级。

根据与Groq关系密切的投资人k_zeroS分享,LPU的工作原理与GPU截然不同。它采用了时序指令集计算机(TemporalInstructionSetComputer)架构,这意味着它无需像使用高带宽存储器(HBM)的GPU那样频繁地从内存中加载数据。这一特点不仅有助于避免HBM短缺的问题,还能有效降低成本。

Groq创始人兼首席执行官Jonathan Ross此前在接受采访的时候就谈到,在大模型推理场景,Groq LPU芯片的速度比英伟达GPU快10倍,但价格和耗电量都仅为后者的十分之一。

Ross认为,对于在产品中使用人工智能的公司来说,推理成本正在成为一个问题,因为随着使用这些产品的客户数量增加,运行模型的成本也在迅速增加。与英伟达GPU相比,Groq LPU集群将为大模型推理提供更高的吞吐量、更低的延迟和更低的成本。

他强调,由于技术路径不同,Groq的LPU芯片不依赖于三星或SK海力士的HBM,也不依赖于台积电将外部HBM焊接到芯片上的CoWoS封装技术。它在供应方面比英伟达更充足,不会被台积电或者SK海力士等供应商卡脖子。

可以看到,Groq LPU芯片相当于是去掉了HBM,而只是依靠SRAM来计算。虽然这样计算速度确实相当惊艳,然而其更低成本的问题却遭到质疑。

有AI专家表示,Groq芯片的实际成本并不低,如人工智能专家贾扬清分析称,因为Groq小的可怜的内存容量(230MB),在运行Llama-270b模型时,需要305张Groq卡才足够,而用H100则只需要8张卡。从目前的价格来看,这意味着在同等吞吐量下,Groq的硬件成本是H100的40倍,能耗成本是10倍。

当然也有SRAM行业的专家非常看好这种架构模式,他认为,贾扬清对Groq成本的估算不是很对,因为没有考虑到Groq的per token cost明显低于GPGPU。

可以看到,作为一种新的架构模式,Groq LPU当前必然还面临一些潜在问题,然而它的出现,也让人们看到GPU之外的可能路径。

Groq LPU芯片未来能否肩负起运行大模型的重任,或许再等等,就能看到明确答案。事实上,在去年年底的采访中,Ross就表示,考虑到GPU的短缺和高昂的成本,他相信Groq未来的发展潜力。他说到:“在未来12个月内,我们可以部署10万个LPU,在24个月内,我们可以部署100万个LPU。”

写在最后

过去一年多时间,全球众多科技公司都在研发大模型,今年将会是大模型落地部署的重要一年,而如众多大模型的训练和推理却依赖英伟达的GPU。业界亟需除英伟达GPU之外的芯片,能够用于大模型的部署推理,Groq的LPU芯片可以说是带来了新的探索方向。

虽然Groq公司对自己的LPU芯片在性能和成本上都自信满满,然而业界对于其成本问题还是有所质疑。如果今年LPU芯片能够如规划那样进行较大规模的部署,或许就能一定程度证明LPU芯片在成本上也在众多用户所能接受的范围之内。












声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4667

    浏览量

    128547
  • 英伟达
    +关注

    关注

    22

    文章

    3718

    浏览量

    90625
  • Groq
    +关注

    关注

    0

    文章

    9

    浏览量

    72
收藏 人收藏

    评论

    相关推荐

    英伟GPU新品规划与HBM市场展望

    在COMPUTEX 2024主题演讲中,英伟(NVIDIA)公布了其GPU产品的未来规划。据英伟透露,B100、B200和GB200系列
    的头像 发表于 06-13 09:44 726次阅读

    进一步解读英伟 Blackwell 架构、NVlink及GB200 超级芯片

    英伟最新机架解决方案 GB200 提升了性能,降低了 CPU:GPU 配比,有助于降低客户的总拥有成本(TCO)。 这些应用将有助于推动数据中心的发展,为人工智能、云计算等领域提供
    发表于 05-13 17:16

    英伟、AMD、英特尔GPU产品及优势汇总

    主导地位,其销售额预计将达到400亿美元,远超过竞争对手AMD和英特尔。那么这三家公司都有哪些GPU产品,各自的产品有何优势呢?   英伟                      
    的头像 发表于 05-10 00:59 4691次阅读

    英伟发布新一代AI芯片架构Blackwell GPU

    近日,英伟首席执行官黄仁勋在GTC 2024会议上发表主题演讲,重磅推出全新AI芯片架构Blackwell GPU。这一创新技术的首款芯片
    的头像 发表于 03-26 11:19 791次阅读

    Groq声称碾压英伟GPU 国产芯片如何借鉴?

    洞见分析
    电子发烧友网官方
    发布于 :2024年03月15日 09:30:26

    英伟擅用版权作品起诉 AI训练数据和版权的矛盾凸显

    英伟擅用版权作品起诉 AI训练数据和版权的矛盾凸显 据外媒路透社的报道,AI训练数据和版权之间的矛盾日益凸显。英伟达因为擅用版权作品训练其NeMo人工智能平台而
    的头像 发表于 03-11 14:17 513次阅读

    英伟要小心了!爆火的Groq芯片能翻盘吗?AI推理速度「吊打」英伟

    随着科技的飞速发展,人工智能公司Groq挑战了英伟的王者地位,其AI芯片不仅展现出卓越的实力,还拥有巨大的潜力。Groq设计了一种独特的推
    的头像 发表于 03-08 09:44 827次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b>要小心了!爆火的<b class='flag-5'>Groq</b><b class='flag-5'>芯片</b>能翻盘吗?AI推理<b class='flag-5'>速度</b>「吊打」<b class='flag-5'>英伟</b><b class='flag-5'>达</b>?

    Groq收购Definitive intelligence,提升云平台能力

     Groq去年1月发布新型人工智能芯片LPU(语言处理单元),近来引发市场热烈反响——众多公开测试以及客户实测显示,其低延迟与高吞吐量优势显著,尤其是AI推理运算速度相较于英伟
    的头像 发表于 03-04 09:49 455次阅读

    英伟被控延迟出货,阻碍竞争

    据报道,若发现客户寻找新的商业发展机遇,英伟可能因此推迟数据中心GPU的出货。Groq这家人工智能芯片初创企业的首席执行官罗斯(Jonat
    的头像 发表于 02-29 09:53 481次阅读

    “网红”芯片Groq英伟蒸发5600亿

    鉴于ChatGPT的广泛应用,引发了AI算力需求的迅猛增长,使得英伟的AI芯片供不应求,出现大规模短缺。如今,英伟似乎在面对更多挑战。
    的头像 发表于 02-27 15:10 1068次阅读
    “网红”<b class='flag-5'>芯片</b><b class='flag-5'>Groq</b>让<b class='flag-5'>英伟</b><b class='flag-5'>达</b>蒸发5600亿

    Groq推出大模型推理芯片 超越了传统GPU和谷歌TPU

    Groq推出了大模型推理芯片,以每秒500tokens的速度引起轰动,超越了传统GPU和谷歌TPU。
    的头像 发表于 02-26 10:24 928次阅读
    <b class='flag-5'>Groq</b>推出大模型推理<b class='flag-5'>芯片</b> 超越了传统<b class='flag-5'>GPU</b>和谷歌TPU

    盘点英伟24年来最差的五款GPU

    英伟GPU也可能失败。
    的头像 发表于 01-04 17:06 1540次阅读

    英伟用AI设计GPU算术电路有何优势

    大量的算术电路阵列为英伟GPU提供了动力,以实现前所未有的AI、高性能计算和计算机图形加速。因此,改进这些算术电路的设计对于提升 GPU 性能和效率而言至关重要。
    发表于 12-05 11:05 383次阅读

    英伟RTX 4090D显卡爆料:全新GPU芯片,符合出口管制

    11月30日,rtx 4090d显卡由ad102-250 gpu芯片驱动,rtx 4090使用ad102-300/301。根据英伟的惯例,同样的显卡可以配置不同号码的
    的头像 发表于 12-01 14:19 1872次阅读

    英伟特供版芯片性能降80%!

    报道中提到,英伟的这三款AI芯片并非“改良版”,而是“缩水版”,其分别是HGX H20、L20 PCle和L2 PCle。用于AI模型训练的HGX H20在带宽、计算速度等方面均有所
    的头像 发表于 11-14 17:09 873次阅读