0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Edge AI在深度学习应用中超越云计算

星星科技指导员 来源:嵌入式计算设计 作者:Saumitra Jagdale 2022-07-10 11:07 次阅读

什么是边缘人工智能

Edge AI 在硬件上本地处理和实施机器学习算法。这种形式的本地计算减少了数据传输的网络延迟,并解决了一切都发生在设备本身上的安全挑战。

边缘人工智能的流程

Edge AI 的本地处理并不意味着机器学习模型的训练应该在本地进行。通常,训练在具有更大计算能力的平台上进行,以处理更大的数据集。最后,这个经过训练的模型可以部署在系统的处理器或硬件上。该系统具有人工智能加速功能以及用于实时数据处理应用程序的部署模型。

随着对 GPU、NPU、TPU 和 AI 加速器的需求增加,Edge AI 技术经历了巨大的增长。随着机器学习和人工智能已成为当前情况下的趋势技术,这种需求是显而易见的。因此,由于当前应用程序的需求,Edge AI 在硬件中找到了自己的位置。硬件中对本地高级处理和计算能力的需求解释了 Edge AI 的重要性。

云 AI 能比边缘 AI 活得更久吗?

Cloud AI 通过在云端远程提供计算能力来支持硬件处理。由于处理是远程进行的,因此系统在性能和处理方面更加强大。此外,云计算增加了有关架构和设计的选项。由于高级处理发生在云上,它降低了系统硬件功耗的复杂性。然而,正如引言中所讨论的,这些好处是以延迟和安全问题为代价的。

云AI的流程

当计算需求非常密集并且需要大量数据处理时,云人工智能可以比边缘人工智能更长寿。如果应用程序可以在延迟和安全性方面做出妥协,那么 Cloud AI 是比 Edge AI 更好的选择。Cloud AI 还可以解决功耗问题。但是,它不能被视为选择 Cloud AI 而不是 Edge AI 的决定因素。

边缘人工智能与云人工智能

在 Edge AI 和 Cloud AI 之间进行选择的不确定性主要发生在机器学习或深度学习用例中。由于深度学习算法需要密集处理,因此硬件的性能成为一个重要因素。Cloud AI 绝对可以为系统提供更好的性能,但大多数深度学习应用程序无法在数据传输延迟和网络安全威胁方面妥协。因此,对于人工智能应用,Edge AI 比 Cloud AI 寿命更长。

如前所述,功耗因素总是会影响边缘 AI 处理器。这是可以理解的,因为繁重的计算需要更高的电源。但是当前的 Edge AI 处理器具有 AI 加速器,可提供更高的性能和更低的功耗。然而,GPU 和 TPU 仍然需要更高的功率,但设计和电路架构的改进将克服这个问题。

由于单独的云并不是人工智能应用程序的绝佳选择,边缘和云人工智能的混合可以提供更好的性能。可能会影响延迟的部分处理可以在云上完成,其余部分则在硬件本身上完成。

示例:由于训练后的模型需要根据实时数据进行更新,因此可以在云端完成更新后的训练。但实时数据通过 Edge AI 在硬件上进行处理以生成输出。

因此,处理的划分带来了两种技术的最佳效果。因此,它可能是 AI 应用程序的更好选择。但是,大多数应用程序都需要更快的实时更新训练,因此 Edge AI 比 Cloud AI 技术寿命更长。因此,Edge AI 在深度学习应用方面正在超越 Cloud AI。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4739

    浏览量

    128945
  • AI
    AI
    +关注

    关注

    87

    文章

    30887

    浏览量

    269079
  • 深度学习
    +关注

    关注

    73

    文章

    5503

    浏览量

    121158
收藏 人收藏

    评论

    相关推荐

    GPU深度学习的应用 GPUs图形设计的作用

    。 GPU的并行计算能力 GPU最初被设计用于处理图形和图像的渲染,其核心优势在于能够同时处理成千上万的像素点。这种并行处理能力使得GPU非常适合执行深度学习的大规模矩阵运算。
    的头像 发表于 11-19 10:55 505次阅读

    NPU深度学习的应用

    设计的硬件加速器,它在深度学习的应用日益广泛。 1. NPU的基本概念 NPU是一种专门针对深度学习算法优化的处理器,它与传统的CPU和G
    的头像 发表于 11-14 15:17 566次阅读

    pcie深度学习的应用

    深度学习模型通常需要大量的数据和强大的计算能力来训练。传统的CPU计算资源有限,难以满足深度学习
    的头像 发表于 11-13 10:39 400次阅读

    AI大模型与深度学习的关系

    人类的学习过程,实现对复杂数据的学习和识别。AI大模型则是指模型的参数数量巨大,需要庞大的计算资源来进行训练和推理。深度
    的头像 发表于 10-23 15:25 728次阅读

    AI大模型图像识别的优势

    AI大模型图像识别展现出了显著的优势,这些优势主要源于其强大的计算能力、深度学习算法以及大规
    的头像 发表于 10-23 15:01 659次阅读

    AI for Science:人工智能驱动科学创新》第二章AI for Science的技术支撑学习心得

    for Science的技术支撑”的学习心得,可以从以下几个方面进行归纳和总结: 1. 技术基础的深入理解 阅读第二章的过程,我对于AI for Science所需的技术基础有了
    发表于 10-14 09:16

    AI平台的优势与应用

    AI平台,作为AI技术与计算深度融合的产物,正以其独特的优势,
    的头像 发表于 10-12 09:44 216次阅读

    显存技术不断升级,AI计算如何选择合适的显存

    电子发烧友网报道(文/李弯弯)显存,是显卡上用于存储图像数据、纹理、帧缓冲区等的内存。它的大小直接决定了显卡能够同时处理的数据量。   AI计算,显存的大小对处理大规模数据集、
    的头像 发表于 09-11 00:11 3072次阅读

    AI服务器:开启智能计算新时代

    一、AI服务器的定义与特点 AI服务器的定义 AI服务器是一种基于
    的头像 发表于 08-09 16:08 874次阅读

    FPGA人工智能的应用有哪些?

    定制化的硬件设计,提高了硬件的灵活性和适应性。 综上所述,FPGA人工智能领域的应用前景广阔,不仅可以用于深度学习的加速和计算的加速,还
    发表于 07-29 17:05

    PythonAI的应用实例

    Python人工智能(AI)领域的应用极为广泛且深入,从基础的数据处理、模型训练到高级的应用部署,Python都扮演着至关重要的角色。以下将详细探讨PythonAI
    的头像 发表于 07-19 17:16 1087次阅读

    深度学习视觉检测的应用

    深度学习是机器学习领域中的一个重要分支,其核心在于通过构建具有多层次的神经网络模型,使计算机能够从大量数据自动
    的头像 发表于 07-08 10:27 729次阅读

    深度学习计算机视觉领域的应用

    随着人工智能技术的飞速发展,深度学习作为其中的核心技术之一,已经计算机视觉领域取得了显著的成果。计算机视觉,作为
    的头像 发表于 07-01 11:38 806次阅读

    新手小白怎么学GPU服务器跑深度学习?

    新手小白想用GPU服务器跑深度学习应该怎么做? 用个人主机通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不动,如何实现更经济便捷的实现GPU服务器
    发表于 06-11 17:09

    FPGA深度学习应用或将取代GPU

    硬件公司供货的不断增加,GPU 深度学习的市场需求还催生了大量公共服务,这些服务为深度
    发表于 03-21 15:19