Meta的AI超级计算机是迄今为止最大的NVIDIA DGX A100客户系统。该系统将为Meta的AI研究人员提供5百亿亿次级AI计算性能,采用了最先进的NVIDIA系统、InfiniBand网络和软件,实现了数千个GPU集群的系统优化。
Meta Platforms非常认可NVIDIA,为其有望成为有史以来最强大的研究系统选择了NVIDIA的先进技术。
于今日发布的AI研究超级集群(AI Research SuperCluster,缩写RSC)已在训练新模型以推动AI发展。
全面部署后,Meta的RSC预计将成为最大的NVIDIA DGX A100客户系统。
Meta在一篇博客文章中表示:“我们希望RSC帮助我们建立全新的AI系统,例如可以为多个不同语言的团队提供实时语音翻译,使他们可以在研究项目上无缝协作,甚至一起玩AR游戏。”
训练最大的AI模型
当RSC在今年晚些时候完全建成时,Meta将用它来训练具有超过1万亿个参数的AI模型。这将推动自然语言处理等领域的发展,比如实时识别不法内容等工作。
除了实现规模性能之外,Meta还将超高的可靠性、安全性、隐私性以及处理“各类AI模型”的灵活性作为RSC的关键指标。
Meta的AI研究超级集群拥有数百个NVIDIA DGX系统并通过NVIDIA Quantum InfiniBand网络相连接,助力Meta AI研究团队提高工作速率。
性能大揭秘
目前,此全新AI超级计算机已经部署了760个NVIDIA DGX A100系统作为其计算节点。共有6080个NVIDIA A100 GPU,通过NVIDIA Quantum 200Gb/s InfiniBand网络连接,可提供1895(千万亿次)TF32计算性能。
尽管受到新冠疫情的影响,这样一台可运行的AI超级计算机从想法到实现,RSC仅用了18个月!“功臣”之一便是采用NVIDIA DGX A100技术作为基石。
Penguin Computing是NVIDIA合作伙伴网络中负责RSC交付的合作伙伴。除了760个DGX A100系统和InfiniBand网络之外,Penguin还为Meta提供管理服务和AI基础架构优化,包括一个46PB高速缓存的Altus系统。
性能提升20倍
这是Meta第二次选择NVIDIA技术作为其研究平台的基础。2017年,Meta打造了第一代AI研究基础架构,配备了22000个NVIDIA V100 Tensor Core GPU,每日可处理35000项AI训练工作。
Meta的早期基准测试显示,RSC训练大型NLP模型的速度比之前的系统快3倍,运行计算机视觉工作的速度比之前的系统快20倍。
在今年晚些时候的第二阶段,RSC将扩展至16000个GPU。Meta认为届时RSC将提供高达5百亿亿次级混合精度AI计算性能,并且Meta希望通过扩展RSC的存储系统,以每秒16TB的速度提供高达1EB的数据。
可扩展架构
NVIDIA AI技术适用于任何规模的企业应用。
NVIDIA DGX包含一个完整的NVIDIA AI软件栈,可以轻松地从单个系统扩展至完整的DGX SuperPOD,可以在本地或主机托管商处运行。客户亦可以通过NVIDIA DGX Foundry租用DGX系统。
原文标题:Meta与NVIDIA联合打造大型AI研究超级计算机
文章出处:【微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。
审核编辑:汤梓红
-
NVIDIA
+关注
关注
14文章
4843浏览量
102694 -
计算机
+关注
关注
19文章
7337浏览量
87614 -
AI
+关注
关注
87文章
29660浏览量
267990
原文标题:Meta与NVIDIA联合打造大型AI研究超级计算机
文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论