0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

优化AI可传输计算架构

星星科技指导员 来源:嵌入式计算设计 作者:Braden Cooper 2022-11-07 11:20 次阅读

军事电子行业的人工智能AI)正在以超现实的速度增长。各个领域的最新创新恰逢将计算、传感器技术和软件方面最强大的进步带到关键任务场景中。正如GPU在原始计算能力方面继续超过摩尔定律一样,新的传感器和网络接口带来了越来越大的数据集需要计算。这些新技术为将商业和科学人工智能进步的力量带入军事可运输设施提供了关键机会。民用数据中心型人工智能应用和军用可运输部署之间的主要区别(和障碍)是任务的环境、电力和安全要求。

需要在边缘部署人工智能系统的一个明显例子是军用陆地、空中或海上车辆的威胁检测。与民用自动驾驶汽车物体识别一样,军事威胁检测系统正在捕获传入的传感器数据,将数据提供给预先训练的AI模型,并在传感器数据中推断威胁的迹象。此工作流虽然只有几个步骤,但需要几个不同的复杂硬件层。传感器向计算节点提供数据流,计算节点又将可操作的智能分发到适当的子系统,所有这些子系统都在高速存储和互连的框架上运行。

构建硬件架构图成为根据车辆的尺寸、重量和功率 (SWaP) 限制优化连续数据吞吐量的一项练习。虽然可以通过添加另一个计算机系统机架来优化民用数据中心的工作流程,但大多数军用车辆的独特功率、外形和环境条件使得对优化的人工智能可移动系统的挑战和需求显而易见。

应对此工作流程挑战的可能解决方案是将传感器数据流广播到远程或移动数据中心,这可以支持边缘优化程度较低的计算机系统;从而消除了对 AI 计算节点进行加固的需要。然而,随着数据量的增长,传感器数据存储与“云”或远程数据中心之间的通信路径很快成为吞吐量瓶颈。为了在军事可移动人工智能应用中充分利用最新的人工智能技术,应使用边缘优化的融合系统来集成整个工作流程。

这些坚固耐用的军用系统可最大限度地提高传感器数据摄取速率,并将其与整个计算、存储和网络速度相匹配。在这种无瓶颈体系结构中,平衡的数据流可以以可缩放的方式满足数据的计算需求,该方式可以随着数据的增长而增长。无需远程计算意味着可以捕获、处理传感器数据并将其用于实时推理和决策。

打破对远程数据中心和云计算的依赖可以优化AI工作流程的吞吐量,但确实带来了新的挑战。与军用车辆中的所有电子系统一样,融合AI系统的设计必须满足严格的MIL-STD环境条件以及各自车辆的独特动力传输系统。为数据中心构建的商用现货 (COTS) 服务器可在配备 220VAC 单相电源的空调房中运行。为了真正优化通常在不太理想条件下运行的军用车辆的AI工作流程,托管AI构建块的系统必须经过设计,测试和认证,以满足它们将继续支持的任务的严格要求。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 传感器
    +关注

    关注

    2550

    文章

    51056

    浏览量

    753263
  • 人工智能
    +关注

    关注

    1791

    文章

    47229

    浏览量

    238340
收藏 人收藏

    评论

    相关推荐

    《算力芯片 高性能 CPUGPUNPU 微架构分析》第3篇阅读心得:GPU革命:从图形引擎到AI加速器的蜕变

    对卷积核优化的思考。 GPU的存储体系采用了独特的倒金字塔结构,在我看来这是其计算性能的关键。大容量寄存器设计破解了传统冯诺依曼架构的内存瓶颈,合并访存机制巧妙解决了内存带宽限制。NVIDIA GPU
    发表于 11-24 17:12

    NPU技术如何提升AI性能

    设计的处理器,与传统的CPU和GPU相比,它在执行深度学习任务时具有更高的效率和更低的能耗。NPU通过专门优化的硬件结构和指令集,能够更快地处理神经网络中的大量并行计算任务。 1. 优化硬件
    的头像 发表于 11-15 09:11 429次阅读

    华迅光通AI计算加速800G光模块部署

    ChatGPT引爆的AI大模型市场,数据中心的东西流量和内部服务器流量比例增加。 更新数据中心拓扑结构 数据中心计算规模和东西向流量不断扩大,数据中心网络架构也在不断变化。在传统的三层拓扑结构中
    发表于 11-13 10:16

    如何优化SOC芯片性能

    的核心数量、频率和架构。例如,对于高性能计算应用,可能需要高频率、多核心的设计;而对于低功耗应用,则可能需要优化功耗效率的核心。 总线与接口优化
    的头像 发表于 10-31 15:50 440次阅读

    AI云平台与传统云计算的区别

    AI云平台与传统云计算在定义、技术架构、应用场景和服务模式等方面存在显著差异。
    的头像 发表于 10-14 10:08 353次阅读

    3D DRAM内嵌AI芯片,AI计算性能暴增

    当前高带宽内存(HBM)中的DRAM芯片,通过在3D DRAM中实现AI处理来解决数据总线问题。   通常来说,当前的 AI芯片架构将数据存储在高带宽内存中,并通过数据总线将数据传输
    的头像 发表于 08-16 00:08 3203次阅读
    3D DRAM内嵌<b class='flag-5'>AI</b>芯片,<b class='flag-5'>AI</b><b class='flag-5'>计算</b>性能暴增

    AI云服务器:开启智能计算新时代

    一、AI云服务器的定义与特点 AI云服务器的定义 AI云服务器是一种基于云计算技术,专为处理人工智能相关工作负载而构建的服务器。它集成了强大的计算
    的头像 发表于 08-09 16:08 864次阅读

    ai服务器是什么架构类型

    AI服务器,即人工智能服务器,是专门为人工智能应用设计的高性能计算服务器。AI服务器的架构类型有很多种,以下是一些常见的架构类型: CPU
    的头像 发表于 07-02 09:51 1058次阅读

    进一步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片

    2024年3月19日,[英伟达]CEO[黄仁勋]在GTC大会上公布了新一代AI芯片架构BLACKWELL,并推出基于该架构的超级芯片GB200,将助推数据处理、工程模拟、电子设计自动化、计算
    发表于 05-13 17:16

    risc-v多核芯片在AI方面的应用

    在极低的能耗下实现高效的AI元器件的运行。这对于需要长时间运行和依赖电池供电的AI设备来说尤为重要。 其次,RISC-V的模块化架构允许其不同部分以模块化的方式串在一起,从而满足各种不同的应用需求。这使
    发表于 04-28 09:20

    NanoEdge AI的技术原理、应用场景及优势

    ,可以减少数据在传输过程中被窃取或篡改的风险,提高数据安全性。 - 低能耗:通过优化神经网络模型和硬件设计,NanoEdge AI 可以在有限的资源下实现高效的计算,降低设备的能耗。
    发表于 03-12 08:09

    国科微:将持续优化边缘AI战略布局

    国科微近日在接受调研时透露,公司正积极推进搭载自研NPU架构的芯片研发,主要聚焦在边缘侧应用。公司表示,将持续优化边缘AI战略布局,加快AI技术在全系芯片中的普及化应用进程。
    的头像 发表于 02-23 11:23 847次阅读

    荷兰AI芯片设计公司Axelera计划推出新型汽车芯粒AI架构

    荷兰边缘人工智能(AI)芯片设计领域的领军企业Axelera AI Solutions正在积极开发一款新型的汽车芯粒(chiplet)内存计算AI
    的头像 发表于 01-18 18:24 1815次阅读

    加速计算卡与AI显卡有什么区别?

    与原理 1. 加速计算卡:加速计算卡是一种用于高性能计算的硬件设备,主要用于加速复杂计算任务,如科学计算、数据分析和大规模模拟等。它采用专用
    的头像 发表于 01-09 14:10 1469次阅读

    6G网络架构的核心方案报告

    6G网络将同时支持连接、感知、AI计算、数据等多种服务,网络架构设计应进行网络逻辑功能的重构、接口及协议的优化﹐避免简单地功能和服务叠加造成架构
    发表于 01-04 11:18 490次阅读
    6G网络<b class='flag-5'>架构</b>的核心方案报告