0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

GPU如何克服负载计算工作量提升带来的挑战

lPCU_elecfans 来源:电子发烧友网 作者:电子发烧友网 2022-10-09 09:30 次阅读

电子发烧友网报道(文/周凯扬)在AI和大数据时代到来之后,GPU单兵作战就变成了奢望,以现在的数据中心和超算为例,动辄就是成千上万张GPU,庞大的GPU网络交换机和光模块的支持下代表了这个计算时代下最高的算力。但并非只有数据中心和超算里的GPU才需要这样的扩展性,嵌入式GPU和专业GPU同样如此。

物理限制的嵌入式GPU随着各种传感器的性能持续走高,譬如多线激光雷达、高分辨率的图像传感器等,我们对边缘计算单元尤其是GPU的需求也在持续增加。但在实现的过程中,我们还有一些物理限制没法消除,像是尺寸、重量和功耗等。

为了解决这一系列问题,美国政府和行业方案提供商们成立了SOSA联盟,以求开发开放的标准和最好的方案来实现高性价比、互操作性强的传感器系统。如何克服这些负载计算工作量提升带来的挑战,又能不增加宝贵的物理资源呢?答案自然还是将GPU、DPU等技术集成到嵌入式结构中去。

这类嵌入式GPU并非用来单独售卖,而是交给合作伙伴整合到不同的边缘计算系统中,比如研华、凌华、EIZO、Mercury Systems等,然后交付给美国空军、洛克希德·马丁这类军事、航空、工业客户。

即便选择了嵌入式结构,也还有着不少的路线,比如GPU、FPGAASIC等等。SOSA联盟主席,来自美国空军的Ilya Lipkin表示,如果想要更快的运行速度,快速部署软件,自然是选择GPU最好。但他们也面临着空间的问题,因为嵌入式GPU往往会被塞到3U或者6U的服务器里,他们想要做到更小的体积,甚至是手掌大小,可这样一来就不得不牺牲带宽、容量。

所以,虽然嵌入式GPU仍然在这些嵌入式传感系统中可以保持领先地位,但他们并没有像获得数据中心那样不算严格的空间要求。目前的MXM嵌入式GPU可以做到PCIe GPU五分之一的尺寸,但这对于嵌入式GPU的扩展性来说还不算完美。在边缘计算上,反倒是一些FPGA和ASIC方案在能耗比和扩展性上占优,如果嵌入式GPU不能做到更强大的扩展性,很有可能会被后来者颠覆。

显卡交火时代的结束不管是最新发布的RTX4090消费级显卡,还是RTX 6000这样的专业显卡,都象征了英伟达在新架构GPU上的又一次创新。在台积电4N工艺的加持下,无论是晶体管数目还是CUDA核心都做到了极致。

然而,原本变成了专属英伟达高端消费显卡和专业显卡的交火技术NVLink,在RTX4090和RTX 6000上却无处可寻,难不成英伟达彻底放弃显卡交火技术,也就此放弃NVLink了?根据英伟达CEO黄仁勋的说法,他们省下了NVLink连接器的空间,释放了更多的空间来处理更多的AI计算。

在上一代显卡的NVLink中,通过连接两块英伟达显卡,使用高端显卡和专业显卡的专业系统能够获得更高的带宽和双倍的显存容量。这样的提升对于个人或专业用户来说是极大的提升,那么为何英伟达会放弃NVLink呢?笔者也在英伟达GTC的一次分享会议上提出了这一问题。

英伟达方面表示,就RTX 6000这类专业显卡而言,他们取消NVLink后省下了足够的空间,塞入了更多的计算单元来提升单卡的性能。与此同时,虽然这些专业显卡的NVLink支持被取消,不代表英伟达放弃了这一技术。英伟达决心将NVLink的重心放在数据中心产品上,比如Grace CPU、Hopper GPU,他们通过NVLink Die to Die和Chip to Chip的互联可以实现更好的扩展性。

但这确实象征着一个时代的结束,过去AMD的交火和英伟达的SLI也是两家竞争最火热的一项技术,可随着AMD放弃了交火支持,英伟达的SLI在换成NVLink后如今也迎来了终结。

但显卡交火的落幕也情有可原,且不说这种互联方式的受众群体一再变少,要想享受到显卡交火的性能也需要软件追加更新支持。或许专业显卡的目标还是追求单卡性能就好,多卡互联的支持还是让给数据中心吧。

审核编辑:彭静
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 传感器
    +关注

    关注

    2552

    文章

    51324

    浏览量

    755361
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4762

    浏览量

    129153
  • 显卡
    +关注

    关注

    16

    文章

    2443

    浏览量

    67931
  • AI
    AI
    +关注

    关注

    87

    文章

    31335

    浏览量

    269695

原文标题:GPU在不同形态下的扩展性问题

文章出处:【微信号:elecfans,微信公众号:电子发烧友网】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    相关推荐

    2024年GPU出货增长显著,超越CPU

    6%的同比增长,总量超过2.51亿颗,这一数据不仅彰显了GPU市场的繁荣,也反映了当前市场对于图形处理能力的巨大需求。 尤为值得一提的是,与同样作为计算机核心部件的CPU相比,GPU在2024年的出货
    的头像 发表于 01-17 14:12 72次阅读

    解锁新应用:探索GPU扩展是如何提升渲染农场的工作效率

    联瑞GPU扩展方案在渲染农场的应用,是在原有计算机设备的基础上增加GPU的数量,不用额外购买GPU服务器,有效的帮助企业降本增效.
    的头像 发表于 01-09 17:13 96次阅读
    解锁新应用:探索<b class='flag-5'>GPU</b>扩展是如何<b class='flag-5'>提升</b>渲染农场的<b class='flag-5'>工作</b>效率

    借助NVIDIA GPU提升鲁班系统CAE软件计算效率

    本案例中鲁班系统高性能 CAE 软件利用 NVIDIA 高性能 GPU,实现复杂产品的快速仿真,加速产品开发和设计迭代,缩短开发周期,提升产品竞争力。
    的头像 发表于 12-27 16:24 197次阅读

    《CST Studio Suite 2024 GPU加速计算指南》

    GPU Computing Guide》是由Dassault Systèmes Deutschland GmbH发布的有关CST Studio Suite 2024的GPU计算指南。涵盖GP
    发表于 12-16 14:25

    深度学习工作负载GPU与LPU的主要差异

    ,一个新的竞争力量——LPU(Language Processing Unit,语言处理单元)已悄然登场,LPU专注于解决自然语言处理(NLP)任务中的顺序性问题,是构建AI应用不可或缺的一环。 本文旨在探讨深度学习工作负载GPU
    的头像 发表于 12-09 11:01 385次阅读
    深度学习<b class='flag-5'>工作</b><b class='flag-5'>负载</b>中<b class='flag-5'>GPU</b>与LPU的主要差异

    GPU加速计算平台是什么

    GPU加速计算平台,简而言之,是利用图形处理器(GPU)的强大并行计算能力来加速科学计算、数据分析、机器学习等复杂
    的头像 发表于 10-25 09:23 268次阅读

    边缘计算的技术挑战与解决方案

    边缘计算作为一种新型的计算架构,在带来诸多优势的同时,也面临着一些技术挑战。以下是对边缘计算的技术挑战
    的头像 发表于 10-24 14:36 635次阅读

    GPU计算主板学习资料第735篇:基于3U VPX的AGX Xavier GPU计算主板 信号计算主板 视频处理 相机信号

    GPU计算主板学习资料第735篇:基于3U VPX的AGX Xavier GPU计算主板 信号计算主板 视频处理 相机信号
    的头像 发表于 10-23 10:09 295次阅读
    <b class='flag-5'>GPU</b><b class='flag-5'>计算</b>主板学习资料第735篇:基于3U VPX的AGX Xavier <b class='flag-5'>GPU</b><b class='flag-5'>计算</b>主板 信号<b class='flag-5'>计算</b>主板 视频处理 相机信号

    基于FPA的软件工作量综合评估研究与实践

    在软件工程监理项目中如何对软件开发系统进行工作量评估,如何在实施过程中对承建单位已完成的工作量进行审核是实施信息化项目的难题。本文在分析专家经验评估法、FPA功能点分析法等方法的基础上,给出了一种
    发表于 10-15 10:45 0次下载

    降压转换器电容器集成可减少满足CISPR 25 5类标准所需的工作量

    电子发烧友网站提供《降压转换器电容器集成可减少满足CISPR 25 5类标准所需的工作量.pdf》资料免费下载
    发表于 08-27 10:41 0次下载
    降压转换器电容器集成可减少满足CISPR 25 5类标准所需的<b class='flag-5'>工作量</b>

    大模型发展下,国产GPU的机会和挑战

    电子发烧友网站提供《大模型发展下,国产GPU的机会和挑战.pdf》资料免费下载
    发表于 07-18 15:44 10次下载
    大模型发展下,国产<b class='flag-5'>GPU</b>的机会和<b class='flag-5'>挑战</b>

    借助NVIDIA Aerial CUDA增强5G/6G的DU性能和工作负载整合

    Aerial CUDA 加速无线接入网 (RAN)可加速电信工作负载,使用 CPU、GPU 和 DPU 在云原生加速计算平台上提供更高水平的频谱效率 (SE)。
    的头像 发表于 05-24 11:10 629次阅读
    借助NVIDIA Aerial CUDA增强5G/6G的DU性能和<b class='flag-5'>工作</b><b class='flag-5'>负载</b>整合

    大模型时代,国产GPU面临哪些挑战

    电子发烧友网报道(文/李弯弯)随着人工智能技术的快速发展,对GPU计算能力的需求也越来越高。国内企业也正在不断提升GPU性能,以满足日益增长的应用需求。然而,相较于国际巨头,国内
    的头像 发表于 04-03 01:08 4712次阅读
    大模型时代,国产<b class='flag-5'>GPU</b>面临哪些<b class='flag-5'>挑战</b>

    FPGA在深度学习应用中或将取代GPU

    基础设施,人们仍然没有定论。如果 Mipsology 成功完成了研究实验,许多正受 GPU 折磨的 AI 开发者将从中受益。 GPU 深度学习面临的挑战 三维图形是 GPU 拥有如此
    发表于 03-21 15:19

    高通NPU和异构计算提升生成式AI性能 

    异构计算的重要性不可忽视。根据生成式AI的独特需求和计算负担,需要配备不同的处理器,如专注于AI工作负载的定制设计的NPU、CPU和GPU
    的头像 发表于 03-06 14:15 855次阅读