0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

将可能变为现实:利用Arm技术实现边缘AI和ML

Arm社区 来源:Arm 2024-04-26 10:47 次阅读

作者:Arm 高级副总裁兼物联网事业部总经理 Paul Williamson

谈到人工智能 (AI) 和机器学习 (ML) 时,您会联想到拖拉机吗?答案应该是不会,但是《经济学人》[1]中的这个类比或许能为您带来些启发。

虽然拖拉机在二十世纪初一经问世就引起轰动,但农场主们对于新技术的接受速度是非常缓慢的。到 1940 年,仅有 23% 的美国农场采用了拖拉机。为何普及速度如此缓慢?主要原因是拖拉机功能有限、可靠性较差、维护困难,以及价格过于昂贵。但即使如此,大多数农场主心里也明白,一旦这些问题得到解决,且当这个产品更具经济吸引力,将带来巨大的变革。

当今技术的普及速度远远超过二十世纪的农业领域,但从拖拉机发展历程中得出的经验,对于 AI 和 ML 在边缘领域的早期应用依然具有重要借鉴意义。换言之,对 AI 系统的竞相投资不能只停留在对美好未来的憧憬上,而要重视切实可行的实施计划。正如二十世纪 40 年代,从一开始农民看到拖拉机时的惊奇,转向切实地提高农业效率,实现农业多样化和集约化,以及为拖拉机开发更多专用附件和服务。

然而,要在边缘侧实现 AI 和 ML 的规模化应用,目前仍需克服重重挑战。

碎片化格局

市场上针对不同应用和场景的硬件类型五花八门,这构成了在边缘侧部署 AI 和 ML 的一大挑战。通常,丰富多样的硬件选择会导致开发者必须为特定硬件定制模型和代码,这无疑会增加开发过程的复杂性和管理成本。

现实情况是,与移动设备和高性能物联网类似,大多数 ML 模型都是在 CPU 上运行。而物联网又广泛构建于 Arm 架构之上。2020 年,Arm 推出了 Helium 技术,它是 Arm Cortex-M 指令集的矢量扩展,支持在超低功耗设备上实现 ML 加速。引入 Helium 的 Cortex-M 能够帮助开发者将 ML 应用的性能提升多达 15 倍,并将其能效提高至少五倍。目前已有超过 35 家合作伙伴推出了采用 Helium 技术的设备,其中包括恩智浦半导体瑞萨电子、Ambiq 和 Alif Semiconductor。

Arm Ethos NPU 系列产品旨在为边缘 ML 工作负载提供更优异的性能和能效表现,为您的性能提升之路保驾护航。Ethos NPU 兼具可扩展性和可配置性,能够针对不同应用提供不同级别的性能和功耗,适用于计算机视觉、自然语言处理、语音识别推荐系统等多种应用场景。Ethos NPU 可以与任何基于 Arm 技术的 SoC 集成,为从智能音箱到安全摄像头等各种设备提供无缝的 ML 加速解决方案。

AI 模型生命周期

另一挑战是 AI 模型的生命周期,其中包括训练、调整和部署等环节。为了在边缘部署 AI 模型,开发者需要考虑如何针对特定硬件优化模型。这涉及选择正确的模型架构、数据格式、量化方案和推理引擎,以便使其能够在嵌入式设备上高效运行。此外,开发者需要选择能够充分利用设备硬件功能(如 Ethos NPU 或 Helium 技术)的推理引擎,以加速模型的执行。

Arm 能够让开发者轻松地在嵌入式设备上使用 PyTorch 和 ExecuTorch 等主流 ML 框架。例如,Arm Keil MDK 是可用于简化嵌入式应用程序开发和调试的集成开发环境 (IDE),能支持 CMSIS 工具包,而后者为设备能力和 ML 模型提供了通用的抽象层。借助经简化的开发流程,开发者仅需单一工具链和经验证的单一架构便可以实现 AI 功能。迄今,基于 Cortex-M 的设备出货量已超过 1000 亿台,在全球范围内拥有 100 多家 ML 生态系统合作伙伴。

利用 Arm 解决方案,开发者可以减少嵌入式设备中 ML 应用开发所需的时间和成本,同时获得更优越的性能和能效表现。

使用嵌入式设备

嵌入式开发面临的主要挑战之一在于,需要在资源受限的设备上优化 ML 应用的性能和效率。不同于基于云端的解决方案,可利用服务器强大的计算和存储能力,嵌入式设备通常必须在严苛的功耗和延迟性约束之下,在本地运行 ML 模型。为了实现所需的 ML 性能,开发者通常不得不在初代产品的价格或功耗上做出妥协。

而 Arm 虚拟硬件的推出带来了一种创新思路,它是一款基于 Arm 架构的云端模拟解决方案,使开发者可以在不依赖物理硬件的情况下开发和测试 ML 应用。该解决方案可与 AWS SageMaker 和 Google Cloud AI Platform 等 MLOps 解决方案无缝集成,有效简化了 ML 模型在各种设备上的部署和管理。这些平台提供的工具和服务支持自动执行 ML 生命周期的每一个阶段,涵盖了从数据管理和模型训练到部署和监控等环节。通过将 Arm 虚拟硬件与 MLOps 解决方案相结合,开发者可以更快地将嵌入式 ML 应用推向市场、降低成本并增强其可扩展性。

部署和保护知识产权

在数以百万计的端侧设备中部署和保护宝贵的知识产权,也是一项重大挑战。ML 模型本质上是数学函数,任何有权访问设备或数据流的人都可以提取和复制它。因此,设备和数据可能会被篡改、操控或恶意攻击,从而导致其功能和可靠性受到损害。开发者必须确保其 ML 模型受到保护,不会轻易被逆向工程破解。

Arm 致力于帮助开发者在边缘设备上部署 ML 模型并保障其安全,方法之一便是在 PSA Certified 提供的框架内操作。PSA Certified 是平台安全架构 (PSA) 的缩写,是 Arm 与合作伙伴为帮助保护物联网设备而制定的最佳实践和规范。经 PSA Certified 认证,用户可以验证和信任物联网产品的安全性,并确保其符合相关法规和标准的要求。

嵌入式边缘 AI

AI 和 ML 正在重新塑造嵌入式系统的发展面貌。

去年,我们与合作伙伴共同探讨了应对嵌入式开发中一些常见挑战的各种方法,例如:类似 Arm 虚拟硬件等的开发解决方案、新行业标准,或通过采用 Arm 架构以实现灵活性、高效率并最大限度地降低安全风险。

今年,我们将直面 AI 和 ML 在边缘领域飞速创新的成果,并切身感受这些变化给 Arm 开发者生态系统带来的影响。物联网边缘互联设备日渐增多,数据量呈指数级增长,这为 AI 算法处理数据并实时提供洞察带来了大量机遇。尽管生成式 AI 和大语言模型 (LLM) 备受瞩目,但部署到边缘物联网设备(如:树莓派)上的较小模型也开始崭露头角。Transformer 架构模型正在边缘侧掀起波澜,因其固有的出色灵活性,使其与传统的卷积神经网络 (CNN) 区别开来。

变革的步伐之快令人惊叹。Arm 非常高兴能够在支持高性能物联网设备和系统实现 AI 方面发挥关键作用。Arm 的愿景是提供安全的智能设备和系统,进而推动创新并改善人们的生活。通过以下举措,Arm 持续致力于帮助开发者应对挑战:

通过优化高性能物联网中部署 AI 的硬件和软件,以实现性能、功耗、成本效益、安全性与可扩展性的优异平衡。

简便易用的工具和平台,让高性能物联网中的 AI 开发和部署变得更加容易,让更多具有不同知识背景的开发者和系统搭建者都能根据自身需求构建和定制解决方案。

强大的生态系统支持和战略合作伙伴关系,加速推动了在高性能物联网中 AI 的普及并最大限度的发挥其效用,鼓励各利益相关方和行业之间开展合作与共创。

这些是 Arm 实现物联网边缘 AI 愿景的重要支柱。我们坚信,就像拖拉机曾经大幅改变了农业和食物供应链一样,边缘 AI 也将转变我们与物理世界的互动方式,开启人类创新创造的崭新篇章。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • ARM
    ARM
    +关注

    关注

    134

    文章

    8737

    浏览量

    363331
  • AI
    AI
    +关注

    关注

    87

    文章

    27476

    浏览量

    265150
  • ML
    ML
    +关注

    关注

    0

    文章

    140

    浏览量

    34340
  • 机器学习
    +关注

    关注

    66

    文章

    8192

    浏览量

    131242
  • 边缘AI
    +关注

    关注

    0

    文章

    61

    浏览量

    4805

原文标题:将可能变为现实:利用 Arm 技术实现边缘 AI 和 ML

文章出处:【微信号:Arm社区,微信公众号:Arm社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    利用TinyML在MCU上实现AI/ML推论工作

    众所皆知,MCU运算力有限(相对于IoT网关、手机、计算机),而AI/ML向来耗用运算力,如此TinyML的技术主张岂不矛盾?事实上,MCU的运算力也非如刻板印象中那样一直不堪,MCU运算力也在提升,如此可用来执行简单(相对于云
    发表于 09-20 11:10 1954次阅读

    NanoEdge AI技术原理、应用场景及优势

    NanoEdge AI 是一种基于边缘计算的人工智能技术,旨在将人工智能算法应用于物联网(IoT)设备和传感器。这种技术的核心思想是将数据处理和分析从云端转移到设备本身,从而减少数据传
    发表于 03-12 08:09

    揭秘:AI 的神话与现实

    ,甚至导致危险的决策。这一现实使企业领导者感到困惑,阻碍了他们以适当方式采用先进的AI技术。目前,不少企业选择少量采用ML算法以快速获得收益,但是这
    发表于 05-06 16:46

    硬件帮助将AI移动到边缘

    虽然人工智能和机器学习计算通常在数据中心中大规模地执行,但是最新的处理设备使得能够将AI / ML能力嵌入到网络边缘的IoT设备中。边缘AI
    发表于 05-29 10:38

    EdgeBoard FZ5 边缘AI计算盒及计算卡

    ` 随着应用场景的多样化,利用人工智能技术边缘侧部署一系列创新应用解决方案,对企业传统的业务形态进行升级,加速业务增长,增强竞争优势,起着至关重要的作用。 在市场需求和产业趋势的推动下,米尔
    发表于 08-31 14:12

    【HarmonyOS HiSpark AI Camera】边缘计算安全监控系统

    项目名称:边缘计算安全监控系统试用计划:理由:本人热爱嵌入式技术,希望通过嵌入式智能技术改善人们生活。希望基于鸿蒙系和linux统构建一个边缘计算的智能监控平台,来保证工厂运行的安全。
    发表于 09-25 10:11

    网络边缘实施AI的原因

    AI推向边缘的影响通过在边缘运行ML模型可以使哪些具体的AI项目更容易运行?
    发表于 02-23 06:21

    嵌入式边缘AI应用开发指南

    保驾护航。下面让我们来了解如何不借助手动工具或手动编程来选择模型、随时随地训练模型并将其无缝部署到TI处理器上,从而实现硬件加速推理。图1: 边缘AI应用的开发流程第1步:选择模型边缘
    发表于 11-03 06:53

    如何在STM32上开始使用ML &AI的选项?

    我对在 STM32 上使用 MLAI 很感兴趣,在花了一些时间查看 ST 文档后,我认为使用 NanoEdge AI Studio + ST 板是帮助我理解事物的最快方法。据我所知,ST
    发表于 12-06 07:35

    ST MCU边缘AI开发者云 - STM32Cube.AI

    意法半导体(ST)为嵌入式AI开发人员和数据科学家扩展了面向嵌入式AI开发人员和数据科学家的解决方案,推出了一套业界首创的全新工具和服务,通过辅助硬件和软件决策,将边缘AI
    发表于 02-02 09:52

    企业如何利用AIML

    无论AIML变得多么先进,熟练和知识渊博的人员在许多部门都将是不可替代的,并且将是管理流程并确保馈入这些系统的数据和信息质量的不可或缺的一部分。
    的头像 发表于 01-25 09:29 1712次阅读

    ML-EXray:云到边缘部署验证框架

      嵌入式AIML边缘的部署不断增加,无疑引入了从云到边缘的新性能变化。尽管边缘设备上的
    的头像 发表于 10-18 14:31 553次阅读

    如何优化ML模型与硬件实现TinyML?Arm归纳出5种作法

    近几年,因应AIML应用趋势浪潮,越来越多企业开始尝试将这样的能力带到靠近数据源的边缘设备或IoT装置,来发展各种Edge AI或AIoT应用。例如结合语音指令来控制机器人作业,或是
    的头像 发表于 01-07 09:20 971次阅读

    ML模型推向边缘实现AI的新用例

    如前文所讨论的那样,ML模型通常依赖于大量的并行运算。本质上讲,它们需要原始的计算能力。但是,在算力和设备消耗的实际功率之间始终要进行权衡与取舍。要将ML模型推向边缘,需要消耗功率尽可能
    的头像 发表于 05-09 09:51 692次阅读

    AI边缘计算是什么意思?边缘ai是什么?AI边缘计算应用

    AI边缘计算是什么意思?边缘ai是什么?AI边缘计算应用  随着人工智能
    的头像 发表于 08-24 15:18 1656次阅读