3月19日上午,英伟达2024 GTC AI大会,黄仁勋发布了英伟达最新一代AI芯片Blackwell GPU,AI算力能力较上代提升30倍!
黄仁勋说:"我们已经来到了一个临界点,因此需要一种新的计算方式来加速整个行业的发展效率。那么英伟达能够做什么?当然,答案就是——更大的芯片。”接着,英伟达新一代图形计算平台Blackwell正式登场,它被英伟达称为 “新工业革命的引擎”。
采用全新Blackwell架构的B200和GB200系列芯片正式到来。
Blackwell以第一位入选美国国家科学院的黑人学者、数学家David Harold Blackwell的名字命名,它将允许客户能够在万亿参数大型语言模型上构建和运行实时生成人工智能。
Blackwell平台引入了六项开创性技术来支持高达10万亿参数的AI模型训练和大语言模型的实时推理。有望在数据处理、工程模拟、电子设计自动化、计算机辅助药物设计、量子计算和生成人工智能等领域实现新的突破。用黄仁勋的原话来说,它就是“当今世界上最强大的芯片”。这六项技术分别为:
更大芯片:Blackwell 架构 GPU 拥有2080亿个晶体管,尺寸是Hopper(800亿晶体管)的两倍多。Blackwell B200不是传统的单一GPU,而是由两个紧密耦合的芯片组成,这两个芯片通过10 TB/秒的芯片到芯片链路连接成了一个统一的GPU 。
第二代Transformer引擎:配备了新的微张量缩放支持和先进的动态范围管理算法,通过创新的4位浮点AI推理功能使计算和模型大小加倍。
第五代 NVLink 网络技术:最新的NVLink迭代增强了数万亿参数AI模型的性能,为每个GPU提供了高达1.8TB/s的双向吞吐量,确保当今最复杂的大语言模型能在多达576个GPU之间实现无缝高速通信。
RAS引擎:Blackwell驱动的GPU集成了专用引擎和基于人工智能的预防性维护功能,可确保可靠性、可用性和可维护性,从而最大限度地延长系统运行时间并最大限度地降低运营成本。
安全人工智能:全新的机密计算功能可在不影响性能的情况下保护人工智能模型和客户数据,并支持新的本机接口加密协议,在传输过程中、静止状态和计算时都能保证安全。
解压缩引擎:通过支持最新格式加速数据库查询,增强数据分析和数据科学性能,彻底改变数据处理。
英伟达表示,此前训练一个1.8万亿参数模型需要用到8000个Hopper GPU和 15兆瓦的功率。而如今,同样的训练量2000个Blackwell GPU就可以做到,功耗仅为4兆瓦。
基于Blackwell,此次英伟达还推出了其AI超级芯片GB2000。GB2000由两个B200 Blackwell GPU和一个基于Arm的Grace CPU组成,可以为大语言模型推理工作负载提供30倍的性能,而成本能耗要比其“前辈”Hopper低25倍。在具有1750亿个参数的GPT-3 LLM基准测试中,GB200的性能是H100的7倍,训练速度是H100的4倍。
GB200还将成为英伟达全新大型机架系统GB200 NVL72的基石。该系统拥有72个Blackwell GPU和36个Grace GPU,拥有1.4 exaflops的AI性能和30TB的快速内存。英伟达表示,该系统可以部署27万亿参数的模型,而目前最大的模型GPT-4仅约有1.7万亿个参数,因此能够加快释放生成式AI的能力。
审核编辑:刘清
-
人工智能
+关注
关注
1791文章
46738浏览量
237313 -
英伟达
+关注
关注
22文章
3727浏览量
90754 -
AI芯片
+关注
关注
17文章
1852浏览量
34881 -
大模型
+关注
关注
2文章
2298浏览量
2404
原文标题:刚刚!英伟达发布“AI核弹”!
文章出处:【微信号:CSF211ic,微信公众号:中国半导体论坛】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论