0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

在AI网络边缘最小化算法足迹和训练

星星科技指导员 来源:嵌入式计算设计 作者:Yasser Khan 2022-06-20 14:26 次阅读

数据处理当然不是一个新概念,算法也不是。然而,训练和运行算法的地方正在迅速发展。近年来,由于能够利用临时计算资源来执行这些数据密集型任务,机器学习 (ML) 算法的训练大体上已在云环境中进行。

如今,人们大力推动尽可能靠近源头处理数据。这是由于物联网IoT) 的出现以及现在正在生成大量数据的各种技术。所有这些数据都让组织争先恐后地以具有成本效益的方式充分利用它。组织需要考虑数据从源头传输到处理位置的成本,以及存储和处理数据的成本,这通常也是在资源密集型服务器/云环境中。

人工智能AI) 技术开始出现,可以在 ESP32 和基于 Cortex M4 的微控制器单元 (MCU) 等低计算功率设备上而非更大的微处理器单元 (MPU) 上进行 ML 模型训练和执行。这允许数据保持在本地,并且仅在必要时才在云中传输已处理的数据。

通过将训练和运行 ML 模型的总体占用空间要求降至 100kb 以下,嵌入式计算中的 AI 正在进入一个新领域。例如,冒泡排序算法可能比合并排序算法更受嵌入式算法工程师的欢迎,因为前者使用了现有的内存。尽管已经存在许多算法,但正在开发新的基于 AI 的时间序列预测算法并针对嵌入式环境进行优化。通过这种新方法,AI/ML 模型在嵌入式板上进行训练。然后,这些模型用于在执行期间进行多变量统计推断。

这些新的基于 AI 的时间序列预测算法具有三个优势:

该解决方案与网络延迟无关,因为计算是在本地板上进行的,因此性能得到了提高。

由于原始信号/数据仅在本地出现,因此保证了原始数据的安全/隐私。

对于每个嵌入式板,都会训练一个新的 ML/AI 模型。这可能是这种方法的核心优势,因为在典型的工业案例中,由于环境变体、传感器的缺陷和机器变体,不可能使用单个 ML/AI 模型来覆盖一组机器的特征。使用云服务器为每个嵌入式板训练模型也不是负担得起的。

技术突破

算法在嵌入式计算中发挥着重要作用。通常,嵌入式设备执行的算法任务包括传感器数据清理/过滤、数据编码/解码和控制信号生成。由于有限的内存容量、CPU 能力和不同的架构,嵌入式计算环境中“最佳算法”的定义可能与 PC 和云服务器中的大不相同。

在过去的几年里,人工智能/机器学习算法取得了突破性的进展和非常迅速的进展。许多努力都集中在将 AI/ML 模型(这些模型在其他地方训练过)应用于嵌入式上下文。换句话说,要成功部署 AI/ML 模型,需要优化内存/CPU 使用率和算法的功耗。

人工智能正在缩小,可以运行这些高级算法。技术进步现在允许人工智能和预测性维护从基于 MPU 的设备转移到基于 MCU 的设备,占用空间小,价格显着降低。基于 MCU 的设备现在可以在网络边缘执行任务——例如预测性维护——以前只能在 MPU 上使用。这一新功能使芯片制造商、原始设备制造商 (OEM) 和智能设备制造商能够降低成本并提供差异化​​的产品

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • mcu
    mcu
    +关注

    关注

    146

    文章

    17141

    浏览量

    351080
  • 人工智能
    +关注

    关注

    1791

    文章

    47234

    浏览量

    238351
  • 机器学习
    +关注

    关注

    66

    文章

    8412

    浏览量

    132600
收藏 人收藏

    评论

    相关推荐

    AI模型部署边缘设备的奇妙之旅:目标检测模型

    介绍了大量计算并且达到检测而不是分类的最优。此框架仅需两步:(1)检测数据集上训练 one-shot超网,(2)使用 EA(evolutionary algorithm,进化算法算法
    发表于 12-19 14:33

    AI模型部署边缘设备的奇妙之旅:如何实现手写数字识别

    。 校准(可选):为了最小化量化误差,可以通过少量数据集进行校准,调整量化参数。 这种方法的优点是不需要重新训练模型,但可能导致一定程度的精度损失。 (2)量化感知训练 量化感知训练
    发表于 12-06 17:20

    为什么最小化光纤电缆中的DB损耗很重要

    现代通信系统中,光纤电缆因其高速、高带宽和抗干扰能力强等优势,已成为数据传输的主要媒介。然而,光纤电缆传输光信号时,由于多种因素会导致信号的衰减,这种衰减通常用分贝(dB)来表示,即DB损耗。最小化光纤电缆中的DB损耗对于确
    的头像 发表于 11-28 10:18 123次阅读

    边缘计算AI算法盒子停放充电区域AI智慧监控的应用

    随着新能源汽车的普及,停放充电区域的安全与效率问题日益凸显。边缘计算盒子(AI算法盒子)的引入,为这一领域带来了革命性的智慧监控解决方案,极大地提升了停放充电区域的管理水平。边缘计算盒
    的头像 发表于 08-27 15:00 353次阅读
    <b class='flag-5'>边缘</b>计算<b class='flag-5'>AI</b><b class='flag-5'>算法</b>盒子<b class='flag-5'>在</b>停放充电区域<b class='flag-5'>AI</b>智慧监控的应用

    最小化启动期间的输出纹波

    电子发烧友网站提供《最小化启动期间的输出纹波.pdf》资料免费下载
    发表于 08-26 11:44 0次下载
    <b class='flag-5'>最小化</b>启动期间的输出纹波

    平衡创新与伦理:AI时代的隐私保护和算法公平

    ,如果医生和患者都能了解AI推荐治疗方案的原因,将大大增加对技术的接受度和信任。 算法公平性的保障同样不可或缺。AI系统设计时就需要考虑到多样性和包容性,避免因为
    发表于 07-16 15:07

    BP神经网络的学习机制

    (Backpropagation Algorithm,简称BP算法)来不断调整网络的权重和阈值,以最小化网络输出与目标值之间的误差。本文将从BP神经
    的头像 发表于 07-10 15:49 588次阅读

    神经网络如何用无监督算法训练

    标记数据的处理尤为有效,能够充分利用互联网上的海量数据资源。以下将详细探讨神经网络如何用无监督算法进行训练,包括常见的无监督学习算法训练
    的头像 发表于 07-09 18:06 790次阅读

    神经网络优化算法有哪些

    神经网络优化算法是深度学习领域中的核心技术之一,旨在通过调整网络中的参数(如权重和偏差)来最小化损失函数,从而提高模型的性能和效率。本文将详细探讨神经
    的头像 发表于 07-03 16:01 540次阅读

    神经网络反向传播算法的原理、数学推导及实现步骤

    神经网络反向传播算法(Backpropagation Algorithm)是一种用于训练多层神经网络算法,其基本原理是通过梯度下降法来
    的头像 发表于 07-03 11:16 786次阅读

    神经网络反向传播算法原理是什么

    神经网络反向传播算法(Backpropagation Algorithm)是一种用于训练多层前馈神经网络的监督学习算法。它通过
    的头像 发表于 07-02 14:16 627次阅读

    主流边缘AI算法安防、零售、交通等领域的应用

    电子发烧友网报道(文/李弯弯)边缘AI,是边缘设备部署AI算法,其计算发生在靠近用户和数据的
    的头像 发表于 05-13 01:56 2974次阅读

    risc-v多核芯片在AI方面的应用

    得RISC-V多核芯片能够更好地适应AI算法的不同需求,包括深度学习、神经网络等,从而提高芯片的性能和效率,降低成本,使AI边缘计算晶片更具
    发表于 04-28 09:20

    关于窗口最小化的实现

    我想实现一个按钮然后窗口最小化,为什么一运行就直接最小化了呢
    发表于 04-16 10:56

    NanoEdge AI的技术原理、应用场景及优势

    NanoEdge AI 是一种基于边缘计算的人工智能技术,旨在将人工智能算法应用于物联网(IoT)设备和传感器。这种技术的核心思想是将数据处理和分析从云端转移到设备本身,从而减少数据传输延迟、降低
    发表于 03-12 08:09