0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

用于深度学习推理的高性能工具包

星星科技指导员 来源:嵌入式计算设计 作者:Saumitra Jagdale 2022-08-16 11:27 次阅读

近年来,深度神经网络在将计算机视觉算法的准确性提升到一个新的水平方面取得了重大进展。OpenVINO 工具包就是这样一个示例,它可以在提供高性能的同时优化 DNN 模型。

英特尔其 OpenVINO 工具套件的最新版本 (2022.1),可为任何地方的开发人员提供更简单的部署。OpenVINO 是“Open Visual Inference and Neural Network Optimization”的缩写,是一个跨平台的深度学习工具包,可提供额外的深度学习模型、设备可移植性和更高的推理性能,代码更改更少。它专注于通过一次写入、随处部署的方法来增强深度神经网络推理,从而优化应用程序的开发生命周期。

该工具包有两个版本,一个开源 OpenVINO 工具包和一个英特尔 Distribution of OpenVINO 工具包。OpenVINO 工具包主要用于开发各种问题的快速解决方案,如模拟人类视觉、语音识别、自然语言处理、推荐系统等。它为开发人员在其 AI 界面上工作以及采用和维护提供了一种更简单的替代方案他们的代码。OpenVINO 建立在最新一代人工神经网络 (ANN) 的基础上,例如卷积神经网络 (CNN) 以及循环和基于注意力的网络。

在英特尔硬件中,OpenVINO 包含计算机视觉和非计算机视觉工作负载。通过其众多功能,它确保了最大的性能并加快了应用程序的开发。它提供了来自自己的 Open Model Zoo 的预训练模型,这些模型提供了优化的模型。OpenVINO 提供了模型优化器 API,可以转换您提供的模型并为推理做好准备。推理引擎允许用户通过编译优化的网络和管理特定设备上的推理操作来调整性能。而且由于该工具包与大多数框架兼容,因此干扰最小,性能最高。

英特尔的 OpenVINO 工具套件分发版旨在促进和简化高性能计算机视觉和深度学习推理应用程序在广泛使用的英特尔平台上的开发、创建和部署。OpenVINO 的应用范围从自动化和安全到农业、医疗保健等等。

版本 2022.1 的功能

此版本为之前的 2021.3 版本提供了错误修复和功能更改。

更新,更清洁的 API

这个新版本使维护开发人员的代码变得更加容易。它可以与最小化转换的 TensorFlow 约定集成。此版本减少了模型优化器中的 API 参数,以最大限度地降低复杂性。另一方面,在开放式神经网络交换 (ONNX*) 模型上的模型转换性能得到了显着提升。

更广泛的模型支持

用户可以在包括自然语言处理 (NLP)、双精度和计算机视觉在内的各种深度学习模型中轻松部署应用程序。以 NLP 为重点,以及额外类别的异常检测,预训练模型可用于工业检查、降噪、问答、翻译和文本到语音。

便携性和性能

此版本承诺通过跨 CPUGPU 等的自动设备发现、负载平衡和动态推理并行性来提升性能。

OpenVINO 工具包附加组件

计算机视觉注释工具

数据集管理框架

深度学习流媒体

神经网络压缩框架

OpenVINO 模型服务器

OpenVINO 安全插件

培训扩展

OpenVINO 的工作原理

pYYBAGL7DraAFN7pAADFgyCkOOQ706.png

图片来源:Viso.ai

OpenVINO 工具包由各种开发和部署工具组成,其中包括一套完全配置的预训练模型和用于评估的硬件。以下步骤描述了 OpenVINO 的工作原理:

先决条件:设置 OpenVINO

在开始实际工作流程之前,请确保您选择了主机、目标平台和模型。该工具支持 Linux、Windows、macOS 和 Raspbian 等操作系统。至于深度学习模型训练框架,它支持TensorFlow、Caffe、MXNet、Kaldi,以及开放神经网络交换(ONNX)模型格式。

第 1 步:训练模型

第一步是准备和训练深度学习模型。您可以从 Open Model Zoo 中找到预训练的模型,也可以构建自己的模型。OpenVINO 为公共模型提供经过验证的支持,并在存储库中提供一系列代码示例和演示。您可以使用脚本为用于训练模型的框架配置模型优化器。

第 2 步:转换和优化模型

配置模型后,您可以运行模型优化器将模型转换为中间表示 (IR),该中间表示 (IR) 以一对文件(.xml 和 .bin)的形式表示。除了这对文件(.xml 和 .bin)之外,模型优化器还通过输出诊断消息来帮助进一步调整。

第 3 步:调整性能

在这一步中,推理引擎用于编译优化模型。推理引擎是一种高级(C、C++Python*)推理 API,它作为每种硬件类型的动态加载插件实现。它为每个硬件提供最佳性能,无需维护多个代码路径。

第 4 步:部署应用程序

推理引擎用于部署应用程序。使用部署管理器,您可以通过将模型、IR 文件、应用程序和相关依赖项组装到目标设备的运行时包中来创建开发包。

综上所述,这个新版本的 OpenVINO 工具包提供了许多好处,不仅优化了用户部署应用程序的体验,还增强了性能参数。它使用户能够开发具有易于部署、更多深度学习模型、更多设备可移植性和更高推理性能且代码更改更少的应用程序。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • Linux
    +关注

    关注

    87

    文章

    11219

    浏览量

    208873
  • C++
    C++
    +关注

    关注

    22

    文章

    2104

    浏览量

    73480
  • 深度学习
    +关注

    关注

    73

    文章

    5491

    浏览量

    120958
收藏 人收藏

    评论

    相关推荐

    GPU深度学习应用案例

    能力,可以显著提高图像识别模型的训练速度和准确性。例如,在人脸识别、自动驾驶等领域,GPU被广泛应用于加速深度学习模型的训练和推理过程。 二、自然语言处理 自然语言处理(NLP)是
    的头像 发表于 10-27 11:13 324次阅读

    FPGA仿真工具包软件EasyGo Vs Addon介绍

    EasyGo Vs Addon是一款领先的FPGA仿真工具包软件,它强大地连接了VeriStand软件与Matlab/Simulink,为实时测试和验证领域带来了前所未有的便利和效率,特别适用于汽车、航空航天和能源电力等实时测试和验证至关重要的行业。
    的头像 发表于 10-24 15:55 233次阅读
    FPGA仿真<b class='flag-5'>工具包</b>软件EasyGo Vs Addon介绍

    澎峰科技高性能大模型推理引擎PerfXLM解析

    自ChatGPT问世以来,大模型遍地开花,承载大模型应用的高性能推理框架也不断推出,大有百家争鸣之势。在这种情况下,澎峰科技作为全球领先的智能计算服务提供商,在2023年11月25日发布了针对大语言
    的头像 发表于 09-29 10:14 377次阅读
    澎峰科技<b class='flag-5'>高性能</b>大模型<b class='flag-5'>推理</b>引擎PerfXLM解析

    FPGA做深度学习能走多远?

    并行计算的能力,可以在硬件层面并行处理大量数据。这种并行处理能力使得 FPGA 在执行深度学习算法时速度远超传统处理器,能够提供更低的延迟和更高的吞吐量,从而加速模型训练和推理过程,满足实时性要求较高
    发表于 09-27 20:53

    采用德州仪器 (TI) 工具包进行模拟前端设计应用说明

    电子发烧友网站提供《采用德州仪器 (TI) 工具包进行模拟前端设计应用说明.pdf》资料免费下载
    发表于 09-09 11:21 0次下载
    采用德州仪器 (TI) <b class='flag-5'>工具包</b>进行模拟前端设计应用说明

    深度学习编译器和推理引擎的区别

    深度学习编译器和推理引擎在人工智能领域中都扮演着至关重要的角色,但它们各自的功能、应用场景以及优化目标等方面存在显著的差异。以下是对两者区别的详细探讨。
    的头像 发表于 07-17 18:12 1186次阅读

    深度学习编译工具链中的核心——图优化

    等,需要调整优化网络中使用的算子或算子组合,这就是深度学习编译工具链中的核心——图优化。图优化是指对深度学习模型的计算图进行分析和优化的过程
    的头像 发表于 05-16 14:24 828次阅读
    <b class='flag-5'>深度</b><b class='flag-5'>学习</b>编译<b class='flag-5'>工具</b>链中的核心——图优化

    QE for Motor V1.3.0:汽车开发辅助工具解决方案工具包

    电子发烧友网站提供《QE for Motor V1.3.0:汽车开发辅助工具解决方案工具包.pdf》资料免费下载
    发表于 02-19 10:44 0次下载
    QE for Motor V1.3.0:汽车开发辅助<b class='flag-5'>工具</b>解决方案<b class='flag-5'>工具包</b>

    求助,请问有没有labview opc ua工具包 2018 啊

    如题,求助,请问有没有labview opc ua工具包 2018 啊。只要2018的哦
    发表于 01-25 20:14

    利用ProfiShark 构建便携式网络取证工具包

    网络安全领域日益重视便携式取证工具的灵活应用。本文介绍了如何构建一个以ProfiShark1G为核心的便携式网络取证工具包,以提高网络取证的效率和实效性
    的头像 发表于 01-13 08:04 1533次阅读
    利用ProfiShark 构建便携式网络取证<b class='flag-5'>工具包</b>

    Torch TensorRT是一个优化PyTorch模型推理性能工具

    那么,什么是Torch TensorRT呢?Torch是我们大家聚在一起的原因,它是一个端到端的机器学习框架。而TensorRT则是NVIDIA的高性能深度学习
    的头像 发表于 01-09 16:41 1505次阅读
    Torch TensorRT是一个优化PyTorch模型<b class='flag-5'>推理性能</b>的<b class='flag-5'>工具</b>

    解决方案工具包QE显示[RX,RA]V3.2.0:用于显示应用程序的开发辅助工具

    电子发烧友网站提供《解决方案工具包QE显示[RX,RA]V3.2.0:用于显示应用程序的开发辅助工具.pdf》资料免费下载
    发表于 01-03 09:59 0次下载
    解决方案<b class='flag-5'>工具包</b>QE显示[RX,RA]V3.2.0:<b class='flag-5'>用于</b>显示应用程序的开发辅助<b class='flag-5'>工具</b>

    用上这个工具包,大模型推理性能加速达40倍

    作者: 英特尔公司 沈海豪、罗屿、孟恒宇、董波、林俊 编者按: 只需不到9行代码, 就能在CPU上实现出色的LLM推理性能。 英特尔  Extension for Transformer 创新工具包
    的头像 发表于 12-01 20:40 1095次阅读
    用上这个<b class='flag-5'>工具包</b>,大模型<b class='flag-5'>推理性能</b>加速达40倍

    深度学习在人工智能中的 8 种常见应用

    深度学习简介深度学习是人工智能(AI)的一个分支,它教神经网络学习推理。近年来,它解决复杂问题
    的头像 发表于 12-01 08:27 3230次阅读
    <b class='flag-5'>深度</b><b class='flag-5'>学习</b>在人工智能中的 8 种常见应用

    为IoT和IIoT应用选择微控制器开发工具包的介绍性指南

    为IoT和IIoT应用选择微控制器开发工具包的介绍性指南
    的头像 发表于 11-30 15:51 518次阅读
    为IoT和IIoT应用选择微控制器开发<b class='flag-5'>工具包</b>的介绍性指南