0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

爆红智能AI如何看待DPU

芯启源 来源:芯启源 2023-02-10 14:30 次阅读

上线仅2个月,OpenAI最新一代产品-AI聊天机器人ChatGPT月活用户接近1亿。

作为自然语言处理(NLP)领域的前沿研究成果之一,ChatGPT已成为AIGC里程碑式的产品。

这周我们也与ChatGPT聊了聊他/她对大规模预训练背后所需资源的看法。

让我们一起来看看ChatGPT的回答是否能让你满意呢?

9f63de06-a8df-11ed-bfe3-dac502259ad0.png

9f8cfb56-a8df-11ed-bfe3-dac502259ad0.png

9fb5eda4-a8df-11ed-bfe3-dac502259ad0.png

强大的语言生成能力现在引起更多讨论的是规模预训练。在过去的很长一段时间里,许多的AI厂商都是通过本地设备来进行训练的。

GPT-3所训练的参数约为1750亿个,这部分需要大量的算力,而目前我们已知ChatGPT导入了至少1万颗英伟达高端GPU来训练模型。

a0011ebe-a8df-11ed-bfe3-dac502259ad0.png

a01a0bf4-a8df-11ed-bfe3-dac502259ad0.png

a034200c-a8df-11ed-bfe3-dac502259ad0.png

业界部分专家认为GPT-4训练参数可能会达到100万亿个参数,如此大规模、长时间的GPU集群训练任务,也对网络互联底座的性能、可靠性、成本等各方面都提出了极致的要求。

面对千亿、万亿参数规模的大模型训练,仅仅是单次计算迭代内梯度同步需要的通信量就高达TB量级。此外还有各种并行模式、加速框架引入的通信需求,使得传统低速网络的带宽远远无法支撑GPU集群的高效计算,甚至成为了其中关键的瓶颈。

因此要充分发挥GPU计算资源的强大算力,必须构建一个全新的高性能网络底座,用高速网络的大带宽来助推整个集群计算的高效率。

a0b178ae-a8df-11ed-bfe3-dac502259ad0.png

a0e8cb24-a8df-11ed-bfe3-dac502259ad0.png

CPU+GPU的异构计算模型已经成为高性能计算领域中的主流计算架构。而高吞吐、低延时是高性能计算场景中最为迫切的应用需求。

a124efc8-a8df-11ed-bfe3-dac502259ad0.png

a14629cc-a8df-11ed-bfe3-dac502259ad0.png

a1dac668-a8df-11ed-bfe3-dac502259ad0.png

我们可以知道,GPUDirect RDMA是RDMA在异构计算场景中的应用延伸,使得GPU之间的通信不在依赖CPU转发,从而进一步提升高性能计算场景中整体算力。

从DPU芯片的实现角度看,不同DPU厂商的核心竞争壁垒在于专用加速引擎的硬件实现上。由于DPU是数据中心中所有服务器的流量入口,并以处理报文的方式处理数据,在网络芯片领域积累更多的厂商将更有优势。

a1fea060-a8df-11ed-bfe3-dac502259ad0.png

传统的GPU在访问存储时,需要将数据先搬移到系统内存,再由系统内存搬移到目标设备。而采用DPU介入后可以绕过CPU,直接通过PCIe访问远端的NVMe设备,加速AI训练,大大降低CPU的开销。

在AI/ML领域的工作负载对于存储系统的要求十分苛刻,目前此类应用已主要采用全闪存存储,其中NVMe全闪存逐渐成为主流趋势。同时存储与前端应用主机的网络存储协议开始采用NVMe over Fabrics(NVMe-oF)。

NVMe-oF是一种存储网络协议,通过网络将NVMe命令传送到远程NVMe子系统,以利用NVMe 全闪存的并行访问和低延迟,该规范定义了一个协议接口,旨在与高性能fabric技术配合使用,包括通过实现RDMA技术的InfiniBand、RoCE v2、iWARP或TCP。

NVMe-oF是一种使用NVMe协议将访问扩展到远程存储系统的非易失性存储器(NVM)设备的方法。这使得前端接口能够连接到存储系统中,扩展到大量NVMe设备,并延长数据中心内可以访问NVMe子系统的距离。NVMe-oF的目标是显著改善数据中心网络延迟,并为远程NVMe设备提供近似于本地访问的延迟,目标为10us。

我们知道AI对计算的需求非常大,目前主流的AI加速还是以GPU、FPGA和一些专门的AI芯片等为主。在GPU、AI芯片用于AI计算之前都是CPU承担计算的任务,CPU的效率难以满足需求,从而产生CPU+GPU+ASIC的异构计算。随着DPU的出现,这种异构计算的发展更加彻底,可以更大提供并行处理能力,适合大规模计算的发展。

a217cd2e-a8df-11ed-bfe3-dac502259ad0.png

支持Chiplet技术的超异构算力芯片,伴随着AI/ML的发展将会得到更好的应用,而支持Die-To-Die互联技术将能够提供互联其他AI芯片和算力单元的巨大能力,摆脱一直以来PCIe发展的限制。 ‍‍拿芯启源自身举例,以支持高级AI为主要目标之一的芯启源最新的DPU芯片,其架构中就应用Chiplet技术。不仅提升了自有智能网卡的性能,通过支持与第三方芯片的Die-To-Die互联,还可以集成更多的特定专业领域的芯片,比如AI训练中的GPU芯片。

虽然PCIe非常的标准,但是带宽非常有限的,PCIe Gen3的理论带宽是32GB/s,PCIe Gen4的理论带宽是64GB/s,而实测带宽大概分别是24GB/s和48GB/s。

在AI训练中,每完成一轮计算,都要同步更新一次参数,也就是权系数。模型规模越大,参数规模一般也会更大,这样算力芯片的效率会收到PCIe架构的限制,支持更高能力层次的互联技术讲彻底解决带宽限制和瓶颈,极大提升单节点计算效率。

和ChatGPT聊了那么多,最后再让我们来看看他/她对于DPU应用了解多少呢?

a2a5aea0-a8df-11ed-bfe3-dac502259ad0.png

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    30117

    浏览量

    268406
  • DPU
    DPU
    +关注

    关注

    0

    文章

    354

    浏览量

    24127
  • chiplet
    +关注

    关注

    6

    文章

    417

    浏览量

    12558

原文标题:爆红智能AI如何看待DPU ChatGPT这样说

文章出处:【微信号:corigine,微信公众号:芯启源】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    魔9S Pro+ AI游戏手机实力如何

    自品牌成立以来,魔一直致力打造满足用户期待的专业游戏装备。不久前,魔推出了搭载第三代骁龙8移动平台的全新AI游戏旗舰——魔9S Pro+,新机不仅拥有
    的头像 发表于 11-08 11:17 484次阅读

    AI for Science:人工智能驱动科学创新》第4章-AI与生命科学读后感

    很幸运社区给我一个阅读此书的机会,感谢平台。 《AI for Science:人工智能驱动科学创新》第4章关于AI与生命科学的部分,为我们揭示了人工智能技术在生命科学领域中的广泛应用和
    发表于 10-14 09:21

    AI for Science:人工智能驱动科学创新》第二章AI for Science的技术支撑学习心得

    非常高兴本周末收到一本新书,也非常感谢平台提供阅读机会。 这是一本挺好的书,包装精美,内容详实,干活满满。 关于《AI for Science:人工智能驱动科学创新》第二章“AI
    发表于 10-14 09:16

    人工智能ai4s试读申请

    目前人工智能在绘画对话等大模型领域应用广阔,ai4s也是方兴未艾。但是如何有效利用ai4s工具助力科研是个需要研究的课题,本书对ai4s基本原理和原则,方法进行描诉,有利于总结经验,拟
    发表于 09-09 15:36

    名单公布!【书籍评测活动NO.44】AI for Science:人工智能驱动科学创新

    ! 《AI for Science:人工智能驱动科学创新》 这本书便将为读者徐徐展开AI for Science的美丽图景,与大家一起去了解: 人工智能究竟帮科学家做了什么? 人工
    发表于 09-09 13:54

    硬件开发如何看待硬件开发的行业区别

    硬件开发中是否存在“行业歧视”,如工业、汽车行业会鄙视家电行业。如何看待家电行业产品的硬件技术性及技术后续发展呢?
    发表于 07-31 16:05

    IaaS+on+DPU(IoD)+下一代高性能算力底座技术白皮书

    DPU 是当下算力基础设施的核心创新之一。如果把 CPU 比做大脑,那么 GPU 就好比是肌肉,而 DPU 就是神经中枢。CPU 承载了应用生态,提供了通用型算力;GPU 提供了高密度各类精度的算
    发表于 07-24 15:32

    魔9S Pro系列AI游戏手机正式发布

    在万众瞩目中,魔电竞宇宙今日迎来了激动人心的时刻——全新魔9S Pro+与魔9S Pro两款AI游戏手机正式揭开神秘面纱,以颠覆性的姿态引领游戏手机市场迈入“游戏
    的头像 发表于 07-04 15:15 694次阅读

    DPU技术赋能下一代AI算力基础设施

    4月19日,在以“重构世界 奔赴未来”为主题的2024中国生成式AI大会上,中科驭数作为DPU新型算力基础设施代表,受邀出席了中国智算中心创新论坛,发表了题为《以网络为中心的AI算力底座构建之路》主题演讲,勾勒出在通往AGI之路
    的头像 发表于 04-20 11:31 804次阅读

    明天线上见!DPU构建高性能云算力底座——DPU技术开放日最新议程公布!

    算力,是数字经济时代的新质生产力。随着人工智能、智算中心建设等需求不断拓展,DPU在各行各业数据中心的应用逐步深入。异构算力代表DPU在新质生产力建设中,能否给出别开生面的答案,应战算力难题?
    的头像 发表于 04-03 18:12 976次阅读

    NanoEdge AI的技术原理、应用场景及优势

    NanoEdge AI 是一种基于边缘计算的人工智能技术,旨在将人工智能算法应用于物联网(IoT)设备和传感器。这种技术的核心思想是将数据处理和分析从云端转移到设备本身,从而减少数据传输延迟、降低
    发表于 03-12 08:09

    《数据处理器:DPU编程入门》DPU计算入门书籍测评

    一、DPU计算框架 通过一周多的时间翻阅这本书,基本上这本书是一本比较全面的,面向架构的新手指导数据。它在书中详尽介绍了关于DPU在计算机架构中的应用。 对于DPU来说,是一种平行于CPU和GPU
    发表于 12-24 10:54

    《数据处理器:DPU编程入门》读书笔记

    AI、机器学习、安全、电信和存储等应用,并提升性能,减轻虚拟化Hypervisor的工作负载。同时,它还具备开放性集成功能,未来支持更多功能集成。NVIDIA的DPU还提供统一的面向各种应用的编程接口
    发表于 12-21 10:47

    浅谈DPU和CPU、GPU的关系

    把CPU的一大部分算力卸载给GPU之后,人们发现可以把很多其他功能也外包出去,于是又有了智能网卡,或者叫做DPU
    发表于 12-14 11:44 842次阅读
    浅谈<b class='flag-5'>DPU</b>和CPU、GPU的关系

    《数据处理器:DPU编程入门》+初步熟悉这本书的结构和主要内容

    成本和提高性能。 2.人工智能和机器学习:DPU可以在人工智能和机器学习应用中发挥重要作用。它可以加速模型训练和推理过程,提高算法的执行效率和响应速度。这对于需要实时决策和处理大量数据的应用非常关键,如
    发表于 12-08 18:03