0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

使用GPUNet在NVIDIA GPU上击败SOTA推理性能

星星科技指导员 来源:NVIDIA 作者:NVIDIA 2022-10-11 10:14 次阅读

GPUNet 由 AI 为 AI 精心打造,是一类卷积神经网络,旨在使用 NVIDIA TensorRT 最大化 NVIDIA GPU 的性能。

使用新的神经架构搜索( NAS )方法构建, GPUNet 展示了最先进的推理性能,比 EfficientNet-X 和 FBNet-V3 快两倍。

NAS 方法有助于为广泛的应用构建 GPUNet ,以便深度学习工程师可以根据相对精度和延迟目标直接部署这些神经网络。

GPUNet NAS 设计方法

高效的体系结构搜索和部署就绪模型是 NAS 设计方法的关键目标。这意味着几乎不与领域专家进行交互,并且有效地使用集群节点来培训潜在的架构候选。最重要的是,生成的模型已准备好部署。

人工智能制作

为目标设备寻找性能最佳的架构搜索可能很耗时。 NVIDIA 构建并部署了一种新型的 NAS AI 代理,该代理可以有效地做出构建 GPUNET 所需的艰难设计选择,使 GPUNET 比当前的 SOTA 模型领先 2 倍。

此 NAS AI 代理在中自动协调数百个 GPU Selene 超级计算机 而不需要领域专家的任何干预。

使用 TensorRT 为 NVIDIA GPU 优化

GPUNet 通过相关的 TensorRT 推理延迟成本,提升 GPU 友好的运算符(例如,较大的筛选器)而不是内存绑定运算符(例如花哨的激活)。它在 ImageNet 上提供了 SOTA GPU 延迟和精度。

部署就绪

GPUNet 报告的延迟包括 TensorRT 发货版本中可用的所有性能优化,包括融合内核、量化和其他优化路径。构建的 GPune 已准备好部署。

构建 GPune :端到端 NAS 工作流

在高层次上,神经架构搜索( NAS ) AI 代理分为两个阶段:

根据推理延迟对所有可能的网络架构进行分类。

使用适合延迟预算的这些网络的子集,并优化其准确性。

在第一阶段,由于搜索空间是高维的,代理使用 Sobol 采样来更均匀地分布候选。使用延迟查找表,然后将这些候选对象分类到子搜索空间,例如, NVIDIA V100 GPU 上总延迟低于 0.5 毫秒的网络子集。

此阶段中使用的推断延迟是一个近似成本,通过将延迟查找表中每个层的延迟相加来计算。延迟表使用输入数据形状和层配置作为键来查找查询层上的相关延迟。

在第二阶段,代理建立贝叶斯优化损失函数,以在子空间的延迟范围内找到性能最佳的高精度网络:

latex.php?latex=loss+%3D+CrossEntropy%28model+weights%29+%2B+%5Calpha+%2A+latency%28architecture+candidate%29%5E%7B%5Cbeta%7D&bg=ffffff&fg=000&s=0&c=20201002

poYBAGNE0ZWAfpN4AAZjlhzwduA410.png

图 2. NVIDIA NAS AI 代理端到端工作流

AI 代理使用客户端 – 服务器分布式训练控制器来跨多个网络架构同时执行 NAS 。 AI 代理在一个服务器节点上运行,提出并训练在集群上多个客户端节点上运行的网络候选。

根据结果,只有满足目标硬件的准确度和延迟目标的有前途的网络体系结构候选者得到排名,从而产生了一些性能最佳的 GPUNET ,可以使用 TensorRT 部署在 NVIDIA GPU 上。

GPUNet 模型体系结构

GPUNet 模型架构是一个八级架构,使用 EfficientNet-V2 作为基线架构。

搜索空间定义包括搜索以下变量:

操作类型

跨步数

内核大小

层数

激活函数

IRB 扩展比

输出通道滤波器

挤压激励( SE )

表 1 显示了搜索空间中每个变量的值范围。

pYYBAGNE0cyAb-dPAABepAmXNoQ430.png

前两个阶段使用卷积搜索磁头配置。受 EfficientNet-V2 的启发,第二级和第三级使用融合 IRB 。然而,融合的 IRB 会导致更高的延迟,因此在第 4 至 7 阶段,这些被 IRB 取代。

专栏层显示阶段中的层范围。例如,阶段 4 中的[1 , 10]表示该阶段可以具有 1 到 10 个 IRB 。专栏过滤器显示阶段中各层的输出通道滤波器范围。该搜索空间还调整 IRB /融合 IRB 内部的扩展比( ER )、激活类型、内核大小和压缩激励( SE )层。

最后,在步骤 32 ,从 224 到 512 搜索输入图像的尺寸。

来自搜索空间的每个 GPUNet 候选构建被编码为 41 宽的整数向量(表 2 )。

poYBAGNE0d6AeAogAABY43CPSkc651.png

在 NAS 搜索结束时,返回的排序候选是这些性能最佳的编码的列表,这些编码又是性能最佳的 GPUNET 。

总结

鼓励所有 ML 从业人员阅读 CVPR 2022 GPUNet 研究报告 ,并在 NVIDIA /深度学习示例 GitHub repo ,并在 协作实例 在可用云上 GPU 。 GPUNet 推理也可在 PyTorch hub colab 运行实例使用 NGC 集线器上托管的 GPUNet 检查点。这些检查点具有不同的准确性和延迟折衷,可以根据目标应用程序的要求应用。

关于作者

Satish Salian 是 NVIDIA 的首席系统软件工程师,为开发人员利用 NVIDIA GPU 的能力构建端到端技术和解决方案。他目前专注于神经架构搜索( NAS )方法,为 NVIDIA GPU 搜索高性能神经架构。

Carl (Izzy) Putterman 最近加入 NVIDIA ,担任深度学习算法工程师。他毕业于加利福尼亚大学,伯克利在应用数学和计算机科学学士学位。在 NVIDIA ,他目前致力于时间序列建模和图形神经网络,重点是推理。

Linnan Wang 是 NVIDIA 的高级深度学习工程师。 2021 ,他在布朗大学获得博士学位。他的研究主题是神经架构搜索,他的 NAS 相关著作已在 ICML 、 NeurIPS 、 ICLR 、 CVPR 、 TPMAI 和 AAAI 上发表。在 NVIDIA , Lin Nan 继续进行 NAS 的研发,并将 NAS 优化模型交付给 NVIDIA 核心产品

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4759

    浏览量

    100445
  • NVIDIA
    +关注

    关注

    14

    文章

    4862

    浏览量

    102741
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4684

    浏览量

    128630
收藏 人收藏

    评论

    相关推荐

    英特尔FPGA 助力Microsoft Azure机器学习提供AI推理性能

    Machine Learning SDK 相集成以供预览。客户可以使用 Azure 大规模部署的英特尔® FPGA(现场可编程逻辑门阵列)技术,为其模型提供行业领先的人工智能 (AI) 推理性能
    的头像 发表于 05-16 17:25 6337次阅读

    NVIDIA扩大AI推理性能领先优势,首次Arm服务器取得佳绩

    最新MLPerf基准测试表明,NVIDIA已将其AI推理性能和能效方面的高标准扩展到Arm以及x86计算机。
    发表于 09-23 14:18 2607次阅读
    <b class='flag-5'>NVIDIA</b>扩大AI<b class='flag-5'>推理性能</b>领先优势,首次<b class='flag-5'>在</b>Arm服务器<b class='flag-5'>上</b>取得佳绩

    NVIDIA打破AI推理性能记录

     NVIDIA凭借A100进一步扩大了MLPerf基准测试中的领先优势,实现了比CPU快237倍的AI推理性能,助力企业将AI研究转化为生产力。
    发表于 10-22 14:07 789次阅读

    NVIDIA 首个AI推理基准测试中大放异彩

    首个独立AI推理基准测试 ——MLPerf Inference 0.5中取得第一名。由于推理一直是AI市场中最大、同时也是最具竞争力的领域,业内此前一直希望能够有一套客观的推理性能测试指标。
    发表于 11-08 19:44

    Ubuntu使用Nvidia GPU训练模型

    问题最近在Ubuntu使用Nvidia GPU训练模型的时候,没有问题,过一会再训练出现非常卡顿,使用nvidia-smi查看发现,显示GPU
    发表于 01-03 08:24

    充分利用Arm NN进行GPU推理

    的是要知道它提供的选项来提高推理性能。作为开发人员,您会寻找可以压缩的每一毫秒,尤其是需要实现实时推理时。让我们看一下Arm NN中可用的优化选项之一,并通过一些实际示例评估它可能产生
    发表于 04-11 17:33

    求助,为什么将不同的权重应用于模型会影响推理性能

    生成两个 IR文件(相同的 .xml 文件,但不同的 .bin 文件) 具有不同重量的类似模型,以不同的 fps (27fps 和 6fps) 运行 更多样化的权重是否会影响 Myriad X 推理性能
    发表于 08-15 07:00

    如何提高YOLOv4模型的推理性能

    使用 PyTorch 对具有非方形图像的 YOLOv4 模型进行了训练。 将 权重转换为 ONNX 文件,然后转换为中间表示 (IR)。 无法确定如何获得更好的推理性能
    发表于 08-15 06:58

    利用NVIDIA模型分析仪最大限度地提高深度学习的推理性能

    你已经建立了你的深度学习推理模型并将它们部署到 NVIDIA Triton Inference Serve 最大化模型性能。 你如何进一步加快你的模型的运行速度? 进入 NVIDIA
    的头像 发表于 10-21 19:01 603次阅读

    NVIDIA A100 GPU推理性能237倍碾压CPU

    )的12个提交者增加了近一倍。 结果显示,今年5月NVIDIANvidia)发布的安培(Ampere)架构A100 Tensor Core GPU云端
    的头像 发表于 10-23 17:40 4265次阅读
    <b class='flag-5'>NVIDIA</b> A100 <b class='flag-5'>GPU</b><b class='flag-5'>推理性能</b>237倍碾压CPU

    NVIDIA GPU助力提升模型训练和推理性价比

    ,其中的模型数量达数千个,日均调用服务达到千亿级别。无量推荐系统,模型训练和推理都能够进行海量Embedding和DNN模型的GPU计算,是目前业界领先的体系结构设计。 传统推荐系统面临挑战 传统推荐系统具有以下特点: 训练是
    的头像 发表于 08-23 17:09 4761次阅读

    NVIDIA Triton推理服务器的基本特性及应用案例

    推理识别是人工智能最重要的落地应用,其他与深度学习相关的数据收集、标注、模型训练等工作,都是为了得到更好的最终推理性能与效果。
    的头像 发表于 10-26 09:43 1926次阅读

    NGC 玩转新一代推理部署工具 FastDeploy,几行代码搞定 AI 部署

    模型,并提供开箱即用的云边端部署体验,实现 AI 模型端到端的推理性能优化。 欢迎广大开发者使用 NVIDIA 与飞桨联合深度适配的 NGC 飞桨容器, NVIDIA
    的头像 发表于 12-13 19:50 1189次阅读

    Nvidia 通过开源库提升 LLM 推理性能

    加利福尼亚州圣克拉拉——Nvidia通过一个名为TensorRT LLM的新开源软件库,将其H100、A100和L4 GPU的大型语言模型(LLM)推理性能提高了一倍。 正如对相同硬件一轮又一轮改进
    的头像 发表于 10-23 16:10 600次阅读

    开箱即用,AISBench测试展示英特尔至强处理器的卓越推理性能

    。 中国电子技术标准化研究院赛西实验室依据国家标准《人工智能服务器系统性能测试规范》(征求意见稿)相关要求,使用AISBench 2.0测试工具,完成了第五代英特尔至强可扩展处理器的AI大模型推理性能和精度测试。测试中,第五代英特尔至强
    的头像 发表于 09-06 15:33 264次阅读
    开箱即用,AISBench测试展示英特尔至强处理器的卓越<b class='flag-5'>推理性能</b>