英伟达在3月18日GTC 2024年盛会上推出了搭载自家创新结构Blackwell的B200 GPU芯片,选用了台积电最先进的N4P制程工艺,性能较之前翻番。然而,Meta公司在次日披露称,预计今年无法获得这款最新的AI芯片,至少在2025年后才能用上。
英伟达宣称,B200在性能上比以往最好的GPU快30倍不止。由它构成的服务器集群相比上一代,运算能力飞跃性提升,甚至能使大语言模型的训练速度翻番。
财务长科莱特•克雷斯于同日向财经分析人士保证,“我们确信新款GPU产品将在今年内面世。”新款GPU的规模生产预计需等到2025年。
脸书(即Meta)作为英伟达的主要买家之一,已经购买了数十万块英伟达AI芯片,用以训练生成式AI和强化内容推荐功能。首席执行官马克•扎克伯格曾在年初表示,今年底将拥有约35万个H100芯片。这些芯片与其他型号GPU结合使用,总共将提供60万个H100所代表的运算力。
在英伟达发布B200后不久,Meta宣布将利用该芯片训练公司的LIama大型模型。据悉,Meta正在动用两个包含约2.4万个H100GPU的GPU集群来训练第三代LIama模型。Meta公司发言人表示,他们打算继续使用这两座集群训练LIama 3,并期待未来用Blackwell硬件训练更多世代的大型模型。
-
服务器
+关注
关注
12文章
8921浏览量
85028 -
语言模型
+关注
关注
0文章
496浏览量
10232 -
英伟达
+关注
关注
22文章
3707浏览量
90596
发布评论请先 登录
相关推荐
评论