0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Edge AI在深度学习应用中超越云计算

星星科技指导员 来源:嵌入式计算设计 作者:Saumitra Jagdale 2022-07-10 11:07 次阅读

什么是边缘人工智能

Edge AI硬件上本地处理和实施机器学习算法。这种形式的本地计算减少了数据传输的网络延迟,并解决了一切都发生在设备本身上的安全挑战。

边缘人工智能的流程

Edge AI 的本地处理并不意味着机器学习模型的训练应该在本地进行。通常,训练在具有更大计算能力的平台上进行,以处理更大的数据集。最后,这个经过训练的模型可以部署在系统的处理器或硬件上。该系统具有人工智能加速功能以及用于实时数据处理应用程序的部署模型。

随着对 GPU、NPU、TPU 和 AI 加速器的需求增加,Edge AI 技术经历了巨大的增长。随着机器学习和人工智能已成为当前情况下的趋势技术,这种需求是显而易见的。因此,由于当前应用程序的需求,Edge AI 在硬件中找到了自己的位置。硬件中对本地高级处理和计算能力的需求解释了 Edge AI 的重要性。

云 AI 能比边缘 AI 活得更久吗?

Cloud AI 通过在云端远程提供计算能力来支持硬件处理。由于处理是远程进行的,因此系统在性能和处理方面更加强大。此外,云计算增加了有关架构和设计的选项。由于高级处理发生在云上,它降低了系统硬件功耗的复杂性。然而,正如引言中所讨论的,这些好处是以延迟和安全问题为代价的。

云AI的流程

当计算需求非常密集并且需要大量数据处理时,云人工智能可以比边缘人工智能更长寿。如果应用程序可以在延迟和安全性方面做出妥协,那么 Cloud AI 是比 Edge AI 更好的选择。Cloud AI 还可以解决功耗问题。但是,它不能被视为选择 Cloud AI 而不是 Edge AI 的决定因素。

边缘人工智能与云人工智能

在 Edge AI 和 Cloud AI 之间进行选择的不确定性主要发生在机器学习或深度学习用例中。由于深度学习算法需要密集处理,因此硬件的性能成为一个重要因素。Cloud AI 绝对可以为系统提供更好的性能,但大多数深度学习应用程序无法在数据传输延迟和网络安全威胁方面妥协。因此,对于人工智能应用,Edge AI 比 Cloud AI 寿命更长。

如前所述,功耗因素总是会影响边缘 AI 处理器。这是可以理解的,因为繁重的计算需要更高的电源。但是当前的 Edge AI 处理器具有 AI 加速器,可提供更高的性能和更低的功耗。然而,GPU 和 TPU 仍然需要更高的功率,但设计和电路架构的改进将克服这个问题。

由于单独的云并不是人工智能应用程序的绝佳选择,边缘和云人工智能的混合可以提供更好的性能。可能会影响延迟的部分处理可以在云上完成,其余部分则在硬件本身上完成。

示例:由于训练后的模型需要根据实时数据进行更新,因此可以在云端完成更新后的训练。但实时数据通过 Edge AI 在硬件上进行处理以生成输出。

因此,处理的划分带来了两种技术的最佳效果。因此,它可能是 AI 应用程序的更好选择。但是,大多数应用程序都需要更快的实时更新训练,因此 Edge AI 比 Cloud AI 技术寿命更长。因此,Edge AI 在深度学习应用方面正在超越 Cloud AI。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4661

    浏览量

    128528
  • AI
    AI
    +关注

    关注

    87

    文章

    29611

    浏览量

    267910
  • 深度学习
    +关注

    关注

    73

    文章

    5456

    浏览量

    120856
收藏 人收藏

    评论

    相关推荐

    AI大模型与深度学习的关系

    人类的学习过程,实现对复杂数据的学习和识别。AI大模型则是指模型的参数数量巨大,需要庞大的计算资源来进行训练和推理。深度
    的头像 发表于 10-23 15:25 253次阅读

    AI大模型图像识别的优势

    AI大模型图像识别展现出了显著的优势,这些优势主要源于其强大的计算能力、深度学习算法以及大规
    的头像 发表于 10-23 15:01 233次阅读

    AI for Science:人工智能驱动科学创新》第二章AI for Science的技术支撑学习心得

    for Science的技术支撑”的学习心得,可以从以下几个方面进行归纳和总结: 1. 技术基础的深入理解 阅读第二章的过程,我对于AI for Science所需的技术基础有了
    发表于 10-14 09:16

    AI平台的优势与应用

    AI平台,作为AI技术与计算深度融合的产物,正以其独特的优势,
    的头像 发表于 10-12 09:44 124次阅读

    显存技术不断升级,AI计算如何选择合适的显存

    电子发烧友网报道(文/李弯弯)显存,是显卡上用于存储图像数据、纹理、帧缓冲区等的内存。它的大小直接决定了显卡能够同时处理的数据量。   AI计算,显存的大小对处理大规模数据集、
    的头像 发表于 09-11 00:11 2692次阅读

    AI服务器:开启智能计算新时代

    一、AI服务器的定义与特点 AI服务器的定义 AI服务器是一种基于
    的头像 发表于 08-09 16:08 634次阅读

    FPGA人工智能的应用有哪些?

    定制化的硬件设计,提高了硬件的灵活性和适应性。 综上所述,FPGA人工智能领域的应用前景广阔,不仅可以用于深度学习的加速和计算的加速,还
    发表于 07-29 17:05

    PythonAI的应用实例

    Python人工智能(AI)领域的应用极为广泛且深入,从基础的数据处理、模型训练到高级的应用部署,Python都扮演着至关重要的角色。以下将详细探讨PythonAI
    的头像 发表于 07-19 17:16 830次阅读

    深度学习视觉检测的应用

    深度学习是机器学习领域中的一个重要分支,其核心在于通过构建具有多层次的神经网络模型,使计算机能够从大量数据自动
    的头像 发表于 07-08 10:27 559次阅读

    深度学习计算机视觉领域的应用

    随着人工智能技术的飞速发展,深度学习作为其中的核心技术之一,已经计算机视觉领域取得了显著的成果。计算机视觉,作为
    的头像 发表于 07-01 11:38 609次阅读

    新手小白怎么学GPU服务器跑深度学习?

    新手小白想用GPU服务器跑深度学习应该怎么做? 用个人主机通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不动,如何实现更经济便捷的实现GPU服务器
    发表于 06-11 17:09

    FPGA深度学习应用或将取代GPU

    硬件公司供货的不断增加,GPU 深度学习的市场需求还催生了大量公共服务,这些服务为深度
    发表于 03-21 15:19

    GPU深度学习的应用与优势

    人工智能的飞速发展,深度学习作为其重要分支,正在推动着诸多领域的创新。在这个过程,GPU扮演着不可或缺的角色。就像超级英雄电影的主角一样,GPU
    的头像 发表于 12-06 08:27 1171次阅读
    GPU<b class='flag-5'>在</b><b class='flag-5'>深度</b><b class='flag-5'>学习</b><b class='flag-5'>中</b>的应用与优势

    深度学习人工智能的 8 种常见应用

    深度学习简介深度学习是人工智能(AI)的一个分支,它教神经网络学习和推理。近年来,它解决复杂问题
    的头像 发表于 12-01 08:27 3166次阅读
    <b class='flag-5'>深度</b><b class='flag-5'>学习</b><b class='flag-5'>在</b>人工智能<b class='flag-5'>中</b>的 8 种常见应用

    深度学习技术AI智能分析盒子人数统计的应用与优势

    AI盒子的人数统计,当多人同时出入视野范围时,传统的算法模型很难准确识别和计算人数,容易导致重复统计。为解决这一难题,AI算法模型可以采
    的头像 发表于 11-29 09:07 469次阅读