0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

通过分布式分解优化边缘

星星科技指导员 来源:militaryembedded 作者:ANTON CHUCHKOV 2022-11-14 16:31 次阅读

在边缘扩展坚固的任务关键型处理资源的范例正在迅速发展。分解处理现在正在通过高速以太网连接在边缘实现低延迟、网络连接的所有内容,从 GPU 服务器到 NVMe 结构存储设备。

随着技术的不断创新,处理和存储性能呈指数级增长,以满足数字世界的需求,必须考虑新的计算架构。随着边缘环境限制功耗、占用空间和延迟的要求,分解计算资源正在成为构建边缘处理的新方法。

对于国防和航空航天领域的边缘计算应用,任务平台通常需要保持活动时间远远超过底层处理组件。考虑到 CPU 制造商(如英特尔)每两到三年发布一次新一代 x86 服务器级处理器。为了在给定平台上保持最先进的计算能力,系统集成商采用的默认技术更新方法是使用最新的处理器重新指定新的服务器配置,这意味着每隔几年更换一次设备机架。

每一代处理器都会推出新的创新,包括 PCIe 带宽翻倍、更多 PCIe 通道以获得更好的硬件支持、更快的内存速度和更新的安全功能。然而,每次新的处理刷新都会带来越来越大的热挑战。例如,英特尔服务器级 CPU 的散热设计功耗 (TDP) 等级在过去四代更新中翻了一番——从 Broadwell 处理器一代的 50 至 145 W 范围到第三代至强可扩展处理器的当前 105 至 300 W 范围。因此,将旧服务器与更新的替换服务器交换可能会与有限的功率预算发生冲突。

处理被推到边缘

尽管存在这些挑战,但高级计算资源继续从数据中心转移到部署的边缘平台,从而为雷达信号处理等应用提高效率和新功能。这种高性能边缘系统必须能够快速分配和重新分配并行处理资源,以通过各种类型的算法处理来自多个传感器源的数据流,例如用于人工智能AI) 的深度学习/机器学习 (ML) 神经网络

为了优化架构,某些计算任务与其他硬件(如图形处理单元 (GPU))一起分配给传统 CPU,给定数学密集型任务,其中并行处理非常适合。值得注意的是,GPU已被证明在涉及推理和训练的计算和数据密集型用例中超过了通用处理器的能力。

一个示例用例是认知雷达,它应用 AI 技术从接收到的返回信号中提取信息,然后使用该信息来改进发射参数,例如频率、波形形状和脉冲重复频率。为了有效,认知雷达必须近乎实时地执行这些人工智能算法。反过来,这需要在处理链中使用强大的 GPU。在 NVIDIA 执行的 AI 推理基准测试中,A100 GPU 的性能比 CPU 高出 249 倍。通过将推理和训练等任务卸载到 GPU,不再需要过度指定 CPU,这反过来又提供了降低 TDP 的机会。

使命需要跟上

将任务从 CPU 卸载到 GPU 所带来的增量功耗改进加起来,但不足以跟上边缘环境的需求。在 2022 年 NVIDIA GTC 活动中,洛克希德·马丁公司副研究员本·卢克(Ben Luke)描述了边缘功耗、延迟和传感器数据的这个问题:“现代传感器的一大挑战是数据速率不断提高。..。..还有强烈的愿望移动该处理。..更接近边缘,这会导致尺寸、重量和功率限制,这些限制正在推动该架构。

尽管技术更新最初可能会由于 CPU 生命周期障碍而出现,但很明显,通过更新到最新硬件可以获得固有的优势。每一代处理都有关键的改进,使系统能够跟上传感器数据的加速增长,并减轻对手的进步。与Ben Luke的评论直接相关的是硬件提供减少延迟和决策时间的能力。

在关于边缘计算和人工智能未来的 datacenterHawk 播客中,NVIDIA 解决方案架构总监 Rama Darba 表示:“你不能通过实时在云中做出人工智能或计算决策;存在延迟问题,存在计算挑战。非最新信息不再与做出明智决策相关。特别是在边缘,通过以推理为中心的硬件做出实时决策,利用经过训练的模型,在很大程度上依赖于对低延迟的需求。

分布式处理使能因素

边缘坚固耐用的数据中心可以通过采用数据处理单元 (DPU) 等硬件立即从分解中受益。DPU,例如NVIDIA Bluefield,有时被描述为智能 NIC [网络接口卡],具有额外的集成功能,例如 CPU 处理内核、高速数据包处理、内存和高速连接(例如,100 Gb/sec/200 Gb/s 以太网)。这些元素协同工作,使 DPU 能够执行网络数据路径加速引擎的多种功能。

对边缘应用非常重要的一项功能是能够使用直接内存访问 (DMA) 将网络数据直接馈送到 GPU,而无需系统 CPU 参与。DPU 不仅仅是一个智能网卡,还可以用作独立的嵌入式处理器,使用 PCIe 交换机架构作为 GPU、NVMe 存储和其他 PCIe 设备的根或端点运行。这样做可以改变系统架构:DPU 现在允许在最需要的地方共享 GPU 资源,而不是指定配备 GPU 和通用计算服务器的某种预定组合。

进入分解分布式处理范例

理解从现状到新启用的系统架构的范式转变的一种功能性方法是将数据中心视为整个资源处理池,而不是服务器子集,每个服务器都有专用功能。换句话说,现状是让单独的服务器执行任务 - 一些用于存储,另一些用于并行处理,另一些用于一般服务。虽然此模型基本上是按功能分解的,但缺少的关键要素是这些功能在多个系统中的分布不足。

考虑分布式分解传感器处理架构的框图(图 2)。传感器数据等关键任务信息的并行处理在支持 GPU 的系统上发送和执行,通过高速网络中继到 DPU,并共享到任何联网服务器以采取行动。

62e00f78c1c40-Mercury-Figure_2.jpg

[图2 |框图显示了平台中数据处理单元的用例。

这种架构还可以保持从传感器到 GPU 再到联网服务器的端到端低延迟,无论服务器堆栈中的 CPU 代次如何。为了促进这种新架构,Mercury 坚固耐用的分布式处理 1U 服务器等产品分解 GPU 资源,并将见解直接分发到网络上,而无需独立的 x86 主机 CPU。(图 3。

62e00fda8983f-Mercury-Figure_3.jpg

[图3 |框图显示了Mercury坚固耐用的分布式处理服务器的构成。

通过跨网络分布,可以使用大部分资源。与其在每个系统中指定 GPU 并使用每个 GPU 的一定百分比,可以使用更少的 GPU 并将其分发到更多数量的系统,从而缓解热增加的趋势。与使用更少的GPU有关,NVIDIA的Darba将降低成本确定为这种架构的另一个关键改进:“最大的优势之一是,现在,因为你不在你知道你被锁定的地方,必须在这台服务器上运行这个应用程序,你实际上可以大大降低服务器成本和服务器大小。

DPU 用例不仅限于 GPU 和并行处理。例如,GPU卡可以是一个驱动器池,联网并显示为任何系统的本地存储。无论是并行处理还是存储,拥有可用于网络的资源都可以实现未来的可扩展性,并更新到更新、功能更强大的硬件,而无需对现有系统进行彻底检修或牺牲功率预算或低延迟。

硬件不仅可以进行分解,还可以实现资源分配,它提供了一个机会,通过创新的系统架构方法,使坚固的任务关键型平台的需求与最新技术保持一致。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • cpu
    cpu
    +关注

    关注

    68

    文章

    10816

    浏览量

    210961
  • 服务器
    +关注

    关注

    12

    文章

    8988

    浏览量

    85124
  • 数据中心
    +关注

    关注

    16

    文章

    4652

    浏览量

    71921
收藏 人收藏

    评论

    相关推荐

    分布式光纤测温解决方案

    分布式光纤测温解决方案
    的头像 发表于 11-12 01:02 47次阅读
    <b class='flag-5'>分布式</b>光纤测温解决方案

    分布式光纤测温是什么?应用领域是?

    时,该处的散射光特性会受到影响。通过高速信号采集与数据处理技术,可以准确地定位发生温度变化的位置,并给出实时的温度信息。简而言之,分布式光纤测温技术将整条传输光纤作为传感器,光纤上的每一点都兼具“传”和“感”
    的头像 发表于 10-24 15:30 193次阅读
    <b class='flag-5'>分布式</b>光纤测温是什么?应用领域是?

    分布式工业物联网平台:引领智能制造的新篇章

    产品销往世界各地,以最小的成本创造最大的利润。 分布式工业物联网平台的定义与特点 分布式工业物联网平台是一种基于云计算架构,通过分布式网络实现设备连接、数据收集、处理和分析的系统。它集成了工业智能网关、无线
    的头像 发表于 09-27 17:09 186次阅读

    鸿蒙开发接口数据管理:【@ohos.data.distributedData (分布式数据管理)】

    分布式数据管理为应用程序提供不同设备间数据库的分布式协同能力。通过调用分布式数据各个接口,应用程序可将数据保存到分布式数据库中,并可对
    的头像 发表于 06-07 09:30 883次阅读
    鸿蒙开发接口数据管理:【@ohos.data.distributedData (<b class='flag-5'>分布式</b>数据管理)】

    HarmonyOS实战案例:【分布式账本】

    Demo基于Open Harmony系统使用ETS语言进行编写,本Demo主要通过设备认证、分布式拉起、分布式数据管理等功能来实现。
    的头像 发表于 04-12 16:40 1257次阅读
    HarmonyOS实战案例:【<b class='flag-5'>分布式</b>账本】

    分布式控制系统的七个功能和应用

    控制系统广泛应用于工业生产、交通运输、能源管理等领域,下面将详细介绍分布式控制系统的七个功能和应用。 一、分布式数据采集与处理 分布式控制系统可以通过分布在不同位置的控制单元实时采集和
    的头像 发表于 02-01 10:51 1264次阅读

    鸿蒙OS 分布式任务调度

    鸿蒙OS 分布式任务调度概述 在 HarmonyO S中,分布式任务调度平台对搭载 HarmonyOS 的多设备构筑的“超级虚拟终端”提供统一的组件管理能力,为应用定义统一的能力基线、接口
    的头像 发表于 01-29 16:50 446次阅读

    什么是分布式架构?

    分布式架构是指将一个系统或应用拆分成多个独立的节点,这些节点通过网络连接进行通信和协作,以实现共同完成任务的一种架构模式。这种架构模式旨在提高系统的可扩展性、可靠性和性能表现。 一、分布式架构的特点
    的头像 发表于 01-12 15:04 1140次阅读
    什么是<b class='flag-5'>分布式</b>架构?

    分布式IO工业自动化数据采集与分析的核心

    代替人工操纵机器和机器体系进行加工生产的趋势,分布式I/O可以与各种传感器、执行器和控制系统相连接,实现生产线的自动化控制。通过实时采集和传输数据,分布式I/O能够精确控制生产过程中的各种参数,如温度
    发表于 12-28 14:47

    分布式锁的三种实现方式

    ,下面将分别介绍三种常见的实现方式。 一、基于数据库实现的分布式锁 在分布式系统中,数据库是最常用的共享资源之一。因此,可以通过数据库的特性来实现分布式锁。常见的方式是创建一个专门用于
    的头像 发表于 12-28 10:01 849次阅读

    鸿蒙原生应用开发——分布式数据对象

    01、什么是分布式数据对象 在可信组网环境下,多个相互组网认证的设备将各自创建的对象加入同一个 sessionId,使得加入的多个数据对象之间可以同步数据,也就是说,当某一数据对象属性发生
    发表于 12-08 10:01

    分布式系统硬件资源池原理和接入实践

    的使用习惯;手机导航接续到车机后,车机的 GPS 信号可以共享给手机,结合手机 GPS 信号提供更高精度的定位数据;可以看到,在智慧出行场景中,可以通过分布式硬件资源池结合手机和车机的优势硬件,为用户
    发表于 12-06 10:02

    redis分布式锁三个方法

    的三种常见的分布式锁实现方法:基于SETNX命令的简单分布式锁、基于SET命令的带过期时间的分布式锁、以及基于Redlock算法的高级分布式锁。通过
    的头像 发表于 12-04 11:22 1387次阅读

    zookeeper分布式原理

    Zookeeper是一个开源的分布式协调服务,可以用于构建高可用、高性能的分布式系统。它提供了一个简单且高效的层次命名空间,可以用来存储配置信息、状态信息、命名服务等。Zookeeper的设计目标
    的头像 发表于 12-03 16:33 605次阅读

    分布式通信是什么 分布式网络搭建

    智能机器人的功能繁多,全都放在一个计算机里,经常会遇到计算能力不够、处理出现卡顿等情况,如果可以将这些任务拆解,分配到多个计算机中运行岂不是可以减轻压力? 这就是分布式系统,可以实现多计算平台
    的头像 发表于 11-27 15:49 733次阅读
    <b class='flag-5'>分布式</b>通信是什么 <b class='flag-5'>分布式</b>网络搭建