0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

在微软云机器学习平台Azure ML上利用OpenVINO快速实现AI推理

英特尔中国 来源:英特尔中国 作者:武卓博士 2022-07-25 11:21 次阅读

作者

英特尔AI软件布道师

武卓博士

曾主持国家级及省部级科研项目十余项,已授权国际国内专利十余项。

目前,数字化浪潮席卷全球,人类社会已经进入智能时代。万物互联的数字化浪潮下,端—边—云协同是实现数字化智能化的重要架构之一。本文我们将简要分析边云协同的必要性,并介绍如何使用英特尔开源的OpenVINO工具套件,在“端—边—云”快速实现高性能人工智能推理。

1边云协同的必要性及

OpenVINO工具套件简介

众所周知,18世纪60年代人类开始了第一次工业革命,从此进入“蒸汽时代”,接着进入了电气时代和信息时代,当前人类社会正在发生第四次工业革命,即智能时代。英特尔首席执行官帕特·基辛格在2021年世界互联网大会乌镇峰会上指出,要拥抱四大超级技术力量。这四大超级技术力量分别是:第一,无所不在的计算。计算能力正渗透到我们生活的方方面面,作为人和技术的交互点,跨越现有和新兴设备。第二,无处不在的连接,即万物互联。第三,从云到边缘的基础设施。它创造一个动态可靠的路径来连接计算和数据,实现规模和容量无限扩展的云与无限延伸的智能边缘相结合。第四是人工智能。这四大超级技术力量并不是技术孤岛,而且相互协同,相互融合,共同推动产业的巨大变革。

a5368f52-042c-11ed-ba43-dac502259ad0.png

四大超级技术力量使得数据一旦产生之后,能够在相应的节点做快速且及时的处理,从而减少数据处理的延时;高价值数据经过边缘提取后,高效率的传递到云端,借助云端的超级计算力量挖掘数据背后隐含的价值,让用户可以开发相应的服务,实现科技向善。没有边云协同,这四大超级技术力量将被割裂,数据将成为孤岛,智能时代要求的智能化、无人化和集群化将无法实现。如下图所示,将云端规模开发的优势与边缘端推理的好处结合起来,能够使得边云协同的优势发挥到最大化,将无限的数据变成可操作的洞察力。

a5589ef8-042c-11ed-ba43-dac502259ad0.png

下图是一个智能制造工厂中,利用“端—边—云”协同架构,利用人工智能技术实现实时产品缺陷检测的例子。在这个场景中,每个工位构成了“端”,在工位上架设的摄像头可以每秒采集超过400张产品生产过程中的图片。因此,在端这一侧利用 AI 推理技术,对实时产生的大量图片进行 AI 推理,从而避免将海量数据同时传输到云端产生的高成本及延时。生产流水线构成了这个场景中的“边”,一些更为复杂的推理任务可以实时的在边侧完成,并进行跨工位的调度。最终所有的推理结果可以进一步推送到云端,进行数据集中以及更为深层次的分析,同时边缘端产生的部分数据也可以推送至云端,作为训练数据的补充,用于对深度学习模型进行重训练,以获得更高的准确性。

a579a26a-042c-11ed-ba43-dac502259ad0.png

a58cb472-042c-11ed-ba43-dac502259ad0.png

通过上述的例子,我们可以看出,在边云协同的架构中,一个很重要的步骤就是将 AI 的推理扩展到边缘端,避免边缘端产生的大量数据向云端同时进行传输所引起的高成本,可以获得接近或处于边缘的近实时决策。而能够实现边缘端方便进行 AI 模型部署及推理加速的重要工具之一,就是由英特尔开源的OpenVINO工具套件。

a59d034a-042c-11ed-ba43-dac502259ad0.png

OpenVINO工具套件经过近四年的发展和演进,现已正式发布了迄今为止变化最大的版本,即 OpenVINO 2022.1版本。在这一版本中,不仅支持包括基于 Tensorflow,PyTorch 在内的深度学习框,更可以支持深受中国开发者喜爱的 PaddlePaddle 飞桨深度学习框架。同时,为了方便开发者在边缘端部署深度学习模型,实现“一次撰写,任意部署(Write once,deploy anywhere)”的目的,OpenVINO可以支持包括英特尔 CPU、集成 GPU(iGPU)以及 VPU 在内的多个硬件平台的部署。只需要改动一行代码,就可以实现多硬件平台部署。

尤为值得一提的是,在 OpenVINO2022.1版本中,为了使得开发者更加便捷的使用 OpenVINO进行深度学习的推理,更推出了 AUTO 插件(“auto device”)。开发者只需要使用这样的一行代码

a5c8a518-042c-11ed-ba43-dac502259ad0.png

就可以在边缘端实施 AI 推理时,由 AUTO 插件自动化的检测开发者环境中可以用来进行 AI 推理的设备,并自动化的选择更为合适的硬件设备进行 AI 推理。另外,根据不同使用场景的使用需求不同,AUTO 插件在使用时,还允许开发者选择不同的“performance hint”性能指标模式,从而按照使用需求,获得高吞吐量或者低延时的推理性能。

a5d9c3b6-042c-11ed-ba43-dac502259ad0.png

2在微软云机器学习平台 Azure ML 上利用

OpenVINO快速实现 AI 推理

除了在边缘端可以很方便地利用 OpenVINO工具套件进行快速部署以外,在云端,比如微软云 Azure 的机器学习平台 Azure ML 上,也可以利用 OpenVINO工具套件快速实现深度学习模型的部署,并进行相应的深度学习模型的优化及推理加速。实现步骤如下:

步骤一

在 Azure 上注册个人账号,并在机器学习平台上建立自己的工作室,就类似于建立一个自己运行推理的专用路径。工作室建立好之后,每次运行 AI 推理时,只需要点击“启动工作室”之后,就可以进入可以进行模型部署及推理的页面了。

a5f8da30-042c-11ed-ba43-dac502259ad0.png

步骤二

在启动工作室之后,即进入以下页面。由于我们是利用OpenVINOnotebooks的 notebook代码示例资源,因此,我们在页面上相应选择Notebooks,即进入可以使用Jupyter Notebook 运行代码,进行 AI 推理的页面。

页面地址:https://github.com/openvinotoolkit/openvino_notebooks

a61dd466-042c-11ed-ba43-dac502259ad0.png

步骤三

在进入 Notebooks 页面后,即可根据界面提示由本地上传所有 Notebooks 文件夹中的代码示例。也可以新建终端 Terminals,在终端页面以 git clone 的方式,直接将OpenVINO Notebooks 在 GitHub 上的资源导入在 Azure ML 平台上的工作室。

a640644a-042c-11ed-ba43-dac502259ad0.png

所有 notebooks 代码示例导入过后,即可看到文件夹内包含的所有代码示例。

a67075b8-042c-11ed-ba43-dac502259ad0.png

步骤四

申请 Azure 上的计算资源,运行 notebook 代码。

a6909226-042c-11ed-ba43-dac502259ad0.png

以运行 Notebook 213 机器问答代码示例,在申请好并打开计算资源的使用后,运行机器问答 notebook 代码示例,运行结果如下,

a6ae5bd0-042c-11ed-ba43-dac502259ad0.gif

3小结:

在上面的内容中,我们跟大家分享了边云协同的必要性,以及在边缘端能够实现快速深度学习模型优化、推理及任意部署的英特尔开源 OpenVINO工具套件。并通过一个实例,向大家展示了如何在 Azure 机器学习平台上利用 OpenVINO快速实现深度学习模型的推理。

关于英特尔 OpenVINO开源工具套件的详细资料,包括其中我们提供的三百多个经验证并优化的预训练模型的详细资料,请您点击:

https://www.intel.com/content/www/us/en/developer/tools/openvino-toolkit/overview.html

除此之外,为了方便大家了解并快速掌握 OpenVINO工具套件的使用,我们还提供了一系列开源的 Jupyter notebook demo。运行这些 notebook,就能快速了解在不同场景下如何利用 OpenVINO工具套件实现一系列、包括 OCR 在内的、计算机视觉及自然语言处理任务。OpenVINO notebooks的资源可以在 Github 以下地址下载安装:

https://github.com/openvinotoolkit/openvino_notebooks

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英特尔
    +关注

    关注

    60

    文章

    9855

    浏览量

    171229
  • 机器学习
    +关注

    关注

    66

    文章

    8340

    浏览量

    132276
  • 微软云
    +关注

    关注

    0

    文章

    11

    浏览量

    2958

原文标题:使用OpenVINO™ 在“端—边—云”快速实现高性能人工智能推理

文章出处:【微信号:英特尔中国,微信公众号:英特尔中国】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    微软Azure首获英伟达GB200 AI服务器

    微软Azure社交平台上宣布了一项重要进展,公司已经成功获得了搭载英伟达最新GB200超级芯片的AI服务器。这一举措使
    的头像 发表于 10-10 17:01 424次阅读

    AI引擎机器学习阵列指南

    云端动态工作负载以及超高带宽网络,同时还可提供高级安全性功能。AI 和数据科学家以及软硬件开发者均可充分利用高计算密度的优势来加速提升任何应用的性能。AI 引擎机器
    的头像 发表于 09-18 09:16 275次阅读
    <b class='flag-5'>AI</b>引擎<b class='flag-5'>机器</b><b class='flag-5'>学习</b>阵列指南

    Palantir计划在微软Azure平台上部署其人工智能产品

    数据分析领域的领军企业Palantir宣布与微软达成重要合作,双方将共同推动AI技术政府领域的深度应用。Palantir计划将其核心产品,包括知名的Gotham软件,部署于微软
    的头像 发表于 08-12 16:07 664次阅读

    如影数字人生成平台SenseAvatar上线微软全球市场

    近日,如影数字人生成平台SenseAvatar正式微软全球市场Microsoft Azure Marketplace上线,为客户提供高质
    的头像 发表于 07-24 17:21 626次阅读

    简单两步使用OpenVINO™搞定Qwen2的量化与部署任务

    英特尔 OpenVINO™ 工具套件是一款开源 AI 推理优化部署的工具套件,可帮助开发人员和企业加速生成式人工智能 (AIGC)、大语言模型、计算机视觉和自然语言处理等 AI 工作负
    的头像 发表于 04-26 09:39 1513次阅读
    简单两步使用<b class='flag-5'>OpenVINO</b>™搞定Qwen2的量化与部署任务

    机器学习ML推理主要计算之存内计算芯片

    机器学习ML)应用已经汽车、医疗保健、金融和技术等各个领域变得无处不在。这导致对高性能、高能效 ML 硬件解决方案的需求不断增加。
    发表于 04-07 10:48 989次阅读
    <b class='flag-5'>机器</b><b class='flag-5'>学习</b>(<b class='flag-5'>ML</b>)<b class='flag-5'>推理</b>主要计算之存内计算芯片

    简单三步使用OpenVINO™搞定ChatGLM3的本地部署

    英特尔 OpenVINO™ 工具套件是一款开源 AI 推理优化部署的工具套件,可帮助开发人员和企业加速生成式人工智能 (AIGC)、大语言模型、计算机视觉和自然语言处理等 AI 工作负
    的头像 发表于 04-03 18:18 1972次阅读
    简单三步使用<b class='flag-5'>OpenVINO</b>™搞定ChatGLM3的本地部署

    FPGA深度学习应用中或将取代GPU

    微软 就是其中一家,它将基于 FPGA 的机器学习技术作为其 Azure 服务产品的一部分来提供。 不过 FPGA 的缺陷是难于编程。配
    发表于 03-21 15:19

    是德科技推出AI数据中心测试平台旨在加速AI/ML网络验证和优化的创新

    2024年2月29日,是德科技(Keysight Technologies,Inc.)宣布,针对人工智能(AI)和机器学习ML)基础设施生态系统,推出了
    的头像 发表于 02-29 09:32 565次阅读
    是德科技推出<b class='flag-5'>AI</b>数据中心测试<b class='flag-5'>平台</b>旨在加速<b class='flag-5'>AI</b>/<b class='flag-5'>ML</b>网络验证和优化的创新

    快速下载OpenVIN Notebooks中的AI大模型

    OpenVINO Notebooks 是 Jupyter Notebook 形式的 OpenVINO 范例程序大集合,方便开发者快速学习并掌握 Op
    的头像 发表于 12-16 10:22 991次阅读
    <b class='flag-5'>快速</b>下载OpenVIN Notebooks中的<b class='flag-5'>AI</b>大模型

    新闻快讯 | 瑞萨推出基于的开发环境,以加速车用AI软件的开发与评估

    AI工程师云端实现车载软件的设计、模拟和调试。 借助这一开发环境,工程师能够即刻利用微软(Microsoft)
    的头像 发表于 12-15 16:10 417次阅读
    新闻快讯 | 瑞萨推出基于<b class='flag-5'>云</b>的开发环境,以加速车用<b class='flag-5'>AI</b>软件的开发与评估

    如何快速下载OpenVINO Notebooks中的AI大模型

    OpenVINO Notebooks是Jupyter Notebook形式的OpenVINO范例程序大集合,方便开发者快速学习并掌握OpenVINO
    的头像 发表于 12-12 14:40 1047次阅读
    如何<b class='flag-5'>快速</b>下载<b class='flag-5'>OpenVINO</b> Notebooks中的<b class='flag-5'>AI</b>大模型

    同步模式下OpenVINO2023 SDK的推理方式

    OpenVINO2023版本的SDK支持同步与异步推理模式相比之前OpenVINO2021版本更加的简洁,易用。同时支持创建多个Requst然后基于多个Requst实现流水线方式的
    的头像 发表于 11-21 10:03 821次阅读
    同步模式下<b class='flag-5'>OpenVINO</b>2023 SDK的<b class='flag-5'>推理</b>方式

    Azure AI 基础设施强势升级!进一步扩展人工智能能力

    微软 Azure AI 基础设施是微软扩展产品和服务的核心支柱,为开发人员提供在 Azure 平台
    的头像 发表于 11-21 08:15 483次阅读
    <b class='flag-5'>Azure</b> <b class='flag-5'>AI</b> 基础设施强势升级!进一步扩展人工智能能力

    Azure 机器学习上充分发挥 NVIDIA AI Enterprise 的强大功能

    的方式实现这些技术的落地。 NVIDIA AI Enterprise 是一款全面的软件套件,专门用于帮助企业大规模实现企业就绪的 AI机器
    的头像 发表于 11-17 21:30 517次阅读
    <b class='flag-5'>在</b> <b class='flag-5'>Azure</b> <b class='flag-5'>机器</b><b class='flag-5'>学习上</b>充分发挥 NVIDIA <b class='flag-5'>AI</b> Enterprise 的强大功能