0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA NGC目录中的GPU优化容器

NVIDIA英伟达企业解决方案 来源:NVIDIA英伟达企业解决方案 作者:NVIDIA英伟达企业解 2022-07-01 11:21 次阅读

借助 NVIDIA NGC 目录中的 GPU 优化容器,更快地开发和部署应用。

什么是容器?

容器是一种便携式软件单元,可将应用及其所有依赖项合并为一个软件包,该软件包不受底层主机操作系统限制。这样无需再构建复杂的环境,并简化了应用开发到部署的过程。

NVIDIA NGC 目录包含一系列用于深度学习机器学习、可视化和高性能计算(HPC)应用的 GPU 优化容器,这些容器均已经过了性能、安全性和可扩展性测试。

NGC 目录中的容器的优势

轻松部署

内置库和依赖项可让您轻松部署和运行应用。

加快训练速度

TensorFlow 和 PyTorch 等 NVIDIA AI 容器每月会提供针对性能优化的更新版本,以便加快 AI 训练和推理速度。

运行位置不受限制

在 bare metal、虚拟机(VM)和 Kubernetes 上,将容器部署在任意位置(云端、内部私有云和边缘)的多 GPU/多节点系统上。

放心部署

容器经过常见漏洞和暴露(CVE)扫描(附有安全报告),并通过 NVIDIA AI Enterprise 得到了可选的企业支持。

性能优化

NVIDIA 构建的 Docker 容器每月都会更新,第三方软件也会定期更新,以提供所需的功能,便于您从现有基础架构中获得出色性能,并缩短找出解决方案的时间。

借助 BERT-Large 进行自然语言处理

BERT-Large 利用 VoltaV100 和 Ampere A100 GPU 上的混合精度运算和 Tensor Core,在保持目标准确性的同时缩短训练时间。

在单节点的 8x V100 (16GB) 和 A100 (40GB) 上使用 TensorFlow 时,BERT-Large 和训练的性能表现。混合精度。BERT 的批量大小:3 (V100)、24(A100)

用于图像处理的 ResNet50 v1.5

此模型使用 Volta、Turing 和 NVIDIA Ampere GPU 体系架构上的 Tensor Core 进行混合精度训练,以加快训练速度。

在单节点 8x V100 (16GB) 和 A100 (40GB) 上使用 TensorFlow 时,ResNet 50 的性能表现。混合精度。ResNet50 批量大小:26

用于深度学习的 Matlab

持续开发 Matlab 深度学习容器可提高训练和推理性能。

Windows 10Intel Xeon E5-2623 @2.4GHz,NVIDIA Titan V 12GB GPU

用于各种工作负载的容器

AI 容器

TensorFlow

TensorFlow 是一个用于高性能数值计算的开源软件库。

PyTorch

PyTorch 是具有 Python 前端的 GPU 加速型张量计算框架。

NVIDIA Triton 推理服务器

NVIDIA Triton 推理服务器是一种开源推理解决方案,可更大限度地提高 GPU 的利用率和性能。

NVIDIA TensorRT

NVIDIA TensorRT 是一个C++ 库,可加快 NVIDIA GPU 上的高性能推理。

应用框架

NVIDIA Clara

用于医疗成像的 NVIDIA Clara Train 是一个应用框架,包含超过 20 个先进的预训练模型、迁移学习和联合学习工具、AutoML,以及 AI 辅助的标记数据。

DeepStream

DeepStream 是一款流分析工具包,可用于基于 AI 的视频音频和图像理解和多传感器处理。

NVIDIA Riva

NVIDIA Riva 是一个应用框架,适用于在 GPU 上提供实时性能的多模态对话式 AI 服务。

Merlin Training

Merlin HugeCTR 是 NVIDIA Merlin 的组件,是一款专为推荐系统设计的深度神经网络训练框架。

HPC 容器

NAMD

NAMD 是一段并行分子动力学代码,旨在实现生物大分子系统的高性能模拟

GROMACS

GROMACS 是一款热门的分子动力学应用,用于模拟蛋白质和脂质。

Relion

Relion 采用经验贝叶斯方法分析低温电子显微镜(cryo EM)。

NVIDIA HPC SDK

NVIDIA HPC SDK 是编译器、库和工具的综合套件,用于构建、部署和管理 HPC 应用。

点击阅读原文,了解更多 AI 和 HPC 容器相关内容

NVIDIA 深度学习培训中心

我们的 NVIDIA 深度学习培训中心还推出了 AI 和 HPC 容器及 NGC 相关课程,您可以复制链接查看课程详情。

使用容器实现高性能计算

学习使用容器化环境开发高性能计算(HPC)应用程序,降低编码的复杂性和可移植性,从而提高开发效率。

原文标题:DevZone | AI和HPC容器

文章出处:【微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5107

    浏览量

    104466
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4830

    浏览量

    129778
  • 容器
    +关注

    关注

    0

    文章

    500

    浏览量

    22194

原文标题:DevZone | AI和HPC容器

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    0xmd公司通过NVIDIA GPU打造医疗AI解决方案

    本案例,0xmd 公司通过 NVIDIA GPU 打造医疗 AI 解决方案,覆盖影像分析和文本解读等领域。
    的头像 发表于 01-14 16:23 247次阅读

    NVIDIA和GeForce RTX GPU专为AI时代打造

    NVIDIA 和 GeForce RTX GPU 专为 AI 时代打造。
    的头像 发表于 01-06 10:45 308次阅读

    借助NVIDIA GPU提升鲁班系统CAE软件计算效率

    本案例鲁班系统高性能 CAE 软件利用 NVIDIA 高性能 GPU,实现复杂产品的快速仿真,加速产品开发和设计迭代,缩短开发周期,提升产品竞争力。
    的头像 发表于 12-27 16:24 333次阅读

    《CST Studio Suite 2024 GPU加速计算指南》

    的各个方面,包括硬件支持、操作系统支持、许可证、GPU计算的启用、NVIDIA和AMD GPU的详细信息以及相关的使用指南和故障排除等内容。 1. 硬件支持 - NVIDIA
    发表于 12-16 14:25

    Supermicro推出直接液冷优化NVIDIA Blackwell解决方案

    机架NVIDIA HGX B200 8-GPU系统数量,与Supermicro目前领先业界的搭载NVIDIA HGX H100和H200的液冷型SuperCluster相比,
    发表于 11-25 10:39 582次阅读
    Supermicro推出直接液冷<b class='flag-5'>优化</b>的<b class='flag-5'>NVIDIA</b> Blackwell解决方案

    如何构建及优化GPU云网络

    并从计算节点成本优化、集群网络与拓扑的选择等方面论述如何构建及优化GPU云网络。
    的头像 发表于 11-06 16:03 580次阅读
    如何构建及<b class='flag-5'>优化</b><b class='flag-5'>GPU</b>云网络

    AMD与NVIDIA GPU优缺点

    在图形处理单元(GPU)市场,AMD和NVIDIA是两大主要的竞争者,它们各自推出的产品在性能、功耗、价格等方面都有着不同的特点和优势。 一、性能 GPU的性能是用户最关心的指标之一。在高端市场
    的头像 发表于 10-27 11:15 1414次阅读

    暴涨预警!NVIDIA GPU供应大跳水

    gpu
    jf_02331860
    发布于 :2024年07月26日 09:41:42

    NVIDIA全面转向开源GPU内核模块

    借助 R515 驱动程序,NVIDIA 于 2022 年 5 月发布了一套开源的 Linux GPU 内核模块,该模块采用双许可证,即 GPL 和 MIT 许可。初始版本主要面向数据中心计算 GPU,而 GeForce 和工作站
    的头像 发表于 07-25 09:56 639次阅读
    <b class='flag-5'>NVIDIA</b>全面转向开源<b class='flag-5'>GPU</b>内核模块

    NVIDIA加速微软最新的Phi-3 Mini开源语言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微软最新的 Phi-3 Mini 开源语言模型。TensorRT-LLM 是一个开源库,用于优化从 PC 到云端的 NVID
    的头像 发表于 04-28 10:36 710次阅读

    NVIDIA推出两款基于NVIDIA Ampere架构的全新台式机GPU

    两款 NVIDIA Ampere 架构 GPU 为工作站带来实时光线追踪功能和生成式 AI 工具支持。
    的头像 发表于 04-26 11:25 780次阅读

    NVIDIA全面加快Meta Llama 3的推理速度

    Meta 最新开源大语言模型采用 NVIDIA 技术构建,其经过优化后可在云、数据中心、边缘和 PC 的 NVIDIA GPU 上运行。
    的头像 发表于 04-23 09:52 584次阅读

    利用NVIDIA组件提升GPU推理的吞吐

    本实践,唯品会 AI 平台与 NVIDIA 团队合作,结合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)将推理的稠密网络和热
    的头像 发表于 04-20 09:39 883次阅读

    FPGA在深度学习应用或将取代GPU

    现场可编程门阵列 (FPGA) 解决了 GPU 在运行深度学习模型时面临的许多问题 在过去的十年里,人工智能的再一次兴起使显卡行业受益匪浅。英伟达 (Nvidia) 和 AMD 等公司的股价也大幅
    发表于 03-21 15:19

    NVIDIA 发布全新交换机,全面优化万亿参数级 GPU 计算和 AI 基础设施

    NVIDIA Quantum-X800 InfiniBand 网络,打造性能最强大的 AI 专用基础设施 NVIDIA Spectrum-X800 以太网络,数据中心必备的优化 AI 网络
    发表于 03-19 10:05 451次阅读
    <b class='flag-5'>NVIDIA</b> 发布全新交换机,全面<b class='flag-5'>优化</b>万亿参数级 <b class='flag-5'>GPU</b> 计算和 AI 基础设施