0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Microsoft Azure推出VIDIA A100 GPU VM系列

NVIDIA英伟达 来源:NVIDIA英伟达 作者:NVIDIA英伟达 2021-06-11 16:53 次阅读

近日 Microsoft Azure 宣布正式推出 ND A100 v4 VM 系列,这是适用于超级计算级 AI 和 HPC 负载的强大虚拟机,由 NVIDIA A100 Tensor Core GPU 和 NVIDIA HDR InfiniBand 提供支持。

NVIDIA 与 Azure 合作构建了这款新的纵向扩展和横向扩展 AI 平台,整合了开创性 NVIDIA Ampere 架构 GPU、NVIDIA 网络技术以及 Azure 高性能互联和虚拟机网络的强大功能,让人人都能使用 AI 超级计算。

在应对 AI 和高性能计算面临的巨大挑战时,规模是重中之重。得益于加速计算,自然语言处理、推荐系统、医疗健康研究、药物研发和能源以及其他领域均取得了巨大进展。

大部分进展源自大规模运行的应用程序。为加速这一趋势,应用程序所基于的运行架构必须灵活易用,并且可以纵向扩展和横向扩展。

ND A100 v4 VM 在单个 VM 中汇集了八个 NVIDIA A100 GPU,并且搭载 NVIDIA HDR InfiniBand,使每个 GPU 都获得 200 Gb/s 的数据带宽。总体每个 VM 的互联带宽高达 1.6 Tb/s。

对于要求严苛的 AI 和高性能计算工作负载,可以进一步扩展为数千个 NVIDIA A100 GPU 规模同时维持相同的超低延迟 InfiniBand 网络,为多节点分布式计算提供强大的计算和网络功能。

适合开发者

开发者有多种选择,可通过 ND A100 v4 VM 中的 NVIDIA A100 GPU 为其应用程序提供出色性能,这些应用程序部署后,既用于应用程序开发,也用于管理基础设施。

为简化和加速开发,NVIDIA NGC 目录提供即用型 GPU 优化应用程序框架、容器、预训练模型、库、SDK 和 Helm 图表。借助 Azure Marketplace 上适用于 AI 和高性能计算的预构建 NVIDIA GPU 优化镜像,开发者只需单击几下即可开始从 NGC 目录使用 GPU 加速软件。

ND A100 v4 VM 还支持在 Azure 机器学习服务中使用,适用于交互式 AI 开发、分布式训练、批量推理和 ML 运算自动化。

使用 ND A100 v4 VM 在生产环境中部署机器学习管线,这一流程因 NVIDIA Triton 推理服务器而得到进一步简化。NVIDIA Triton 推理服务器是一款开源推理服务应用程序,与 Azure ML 集成,可更大限度地提高 GPU 和 CPU 的性能和利用率,从而将部署运营成本降至更低。

开发者和基础设施经理很快也能使用 Azure Kubernetes Service,这是一项完全托管的 Kubernetes 服务,用于部署和管理 ND A100 v4 VM(支持 NVIDIA A100 GPU)上的容器化应用程序。

更多相关信息,请点击“阅读原文”,观看《Azure:借助势头正劲的 AI 和高性能计算赋能世界》 GTC21 主题演讲。

原文标题:Microsoft Azure 宣布正式推出 NVIDIA A100 GPU VM

文章出处:【微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

责任编辑:haq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4984

    浏览量

    103018
  • AI
    AI
    +关注

    关注

    87

    文章

    30815

    浏览量

    268966
  • Microsoft
    +关注

    关注

    0

    文章

    214

    浏览量

    6855

原文标题:Microsoft Azure 宣布正式推出 NVIDIA A100 GPU VM

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    基于Arm Neoverse的微软全新Azure虚拟机上线

    软件的优化来满足此类需求。近期,微软宣布基于 Azure Cobalt 100 处理器的新 Azure 虚拟机 (VM) 全面上线,其中 Azure
    的头像 发表于 10-27 11:00 423次阅读

    微软为Azure推出全新H200 v5系列虚拟机

    微软近日宣布,其Azure云平台迎来全新H200 v5系列虚拟机。该系列虚拟机专为增强基于云的AI超级计算能力而设计,旨在满足企业日益增长的AI工作负载需求。
    的头像 发表于 10-09 18:18 485次阅读

    基于Arm架构的Azure虚拟机助力云原生应用开发

    定制芯片有助于解决现代基础设施所面临的计算挑战,例如人工智能 (AI) 时代与日俱增的计算复杂性。Microsoft Azure Cobalt 100 等采用 Arm Neoverse 计算
    的头像 发表于 09-05 15:54 1792次阅读

    Microsoft AI 推进行业企业智慧化创新

    突破与进展,并同步更新了在Microsoft Build 2024全球开发者大会上发布的一系列Azure AI新服务与新功能、加速壮大的Microsoft Copilot智能副驾驶 技
    的头像 发表于 06-17 16:59 1015次阅读

    英伟达GPU新品规划与HBM市场展望

    在COMPUTEX 2024主题演讲中,英伟达(NVIDIA)公布了其GPU产品的未来规划。据英伟达透露,B100、B200和GB200系列GPU将于今年第四季度正式
    的头像 发表于 06-13 09:44 804次阅读

    微软Build大会将展示多项云端软硬件新技术

    早先在2023年11月Ignite大会上,微软首次宣布自研芯片计划,包括用于Azure云端通用计算和AI任务的Arm架构芯片“Microsoft Azure Cobalt 100”及专
    的头像 发表于 05-17 11:15 346次阅读

    Microsoft Azure墨西哥区域正式发布(GA)!

    Azure是全球三大公有云中第一家上线墨西哥区域的云平台!
    的头像 发表于 05-13 10:27 379次阅读

    凌华科技推出首款基于Intel GPU的显卡—A380E

    凌华科技推出首款基于Intel GPU的显卡——A380E,提供卓越性能的同时,还兼容凌华科技的游戏平台。
    的头像 发表于 04-10 14:20 481次阅读

    微软推出Microsoft Copilot及Microsoft Azure OpenAI,引领AI风潮

    数据、算法、算力三大关键要素的交织作用,加速了人工智能技术在千行百业的广泛落地,人类正在进入 AI 应用的星辰大海。
    的头像 发表于 03-26 10:51 539次阅读

    英伟达H200和A100的区别

    英伟达H200和A100两款芯片在性能、架构、内存以及应用场景等多个方面存在显著的区别。
    的头像 发表于 03-07 16:23 3603次阅读

    英伟达H200和A100的差异

    英伟达H200和A100在多个方面存在差异。
    的头像 发表于 03-07 16:18 2549次阅读

    英伟达缩短AI GPU交付周期,持续推进算力产业链发展

    与此同时,随着人工智能的迅猛发展及其广泛应用,对像H100A100这类专为数据中心设计的高性能GPU的需求也大幅增长。而包括Yotta在内的多家公司因此纷纷加大向英伟达的采购力度,导致这些产品出现短缺现象。
    的头像 发表于 02-18 09:36 513次阅读

    2024年,GPU能降价吗?

    首当其冲的就是A100GPU。OpenAI使用的是3,617台HGXA100服务器,包含近3万块英伟达GPU。国内云计算相关专家认为,做好AI大模型的算力最低门槛是1万枚英伟达A100
    的头像 发表于 01-03 15:57 847次阅读
    2024年,<b class='flag-5'>GPU</b>能降价吗?

    英伟达和华为/海思主流GPU型号性能参考

    一句话总结,H100 vs. A100:3 倍性能,2 倍价格 值得注意的是,HCCS vs. NVLINK的GPU 间带宽。 对于 8 卡 A800 和 910B 模块而言,
    发表于 12-29 11:43 6052次阅读
    英伟达和华为/海思主流<b class='flag-5'>GPU</b>型号性能参考

    英伟达vs.华为/海思:GPU性能一览

    NVIDIA NVLink采用全网状拓扑,如下所示,(双向)GPU-to-GPU 最大带宽可达到400GB/s (需要注意的是,下方展示的是8*A100模块时的600GB/s速率,8*A800也是类似的全网状拓扑);
    的头像 发表于 12-27 16:49 1915次阅读
    英伟达vs.华为/海思:<b class='flag-5'>GPU</b>性能一览