谷歌正迅速成为 BFF Nvidia 的强大对手——为其超级计算机提供动力的 TPU v5p AI 芯片速度更快,内存和带宽比以往任何时候都多,甚至击败了强大的 H100
TPU v5p——谷歌最强大的定制设计人工智能加速器——已被部署为该公司的“人工智能超级计算机”提供动力。 这是一种专门为运行人工智能应用程序而构建的超级计算架构,而不是通常运行科学工作负载的超级计算机,因为 TPU 不适合于此。
最新版本的 TPU 每个 Pod 有 8,960 个芯片(构成系统),而 v4 中有 4,096 个芯片,并且就每个 Pod 的 FLOP 总可用性而言,其可扩展性是其四倍。 这些新 Pod 提供 4,800Gbps 的吞吐量。 新 Pod 还配备 95GB 高带宽内存 (HBM),而 TPU v4 中则配备 32GB HBM RAM。
与Nvidia 提供 GPU 供其他公司购买不同,谷歌的定制 TPU 仍保留在内部,供其自己的产品和服务使用。 谷歌的 TPU 长期以来一直用于为其 Gmail、YouTube 和 Android 等服务提供支持,最新版本也用于训练 Gemini。
它的功能甚至足以与 Nvidia 广受欢迎的 H100 GPU 相媲美,后者是处理 AI 工作负载的最佳显卡之一。 根据该公司自己的数据,该组件在训练工作负载方面比 Nvidia 的 A100 GPU 快四倍。
与此同时,根据 4 月份发布的研究显示,谷歌 TPU v4 的速度预计比 A100 快 1.2 至 1.7 倍。 因此,令人难以置信的粗略计算表明,TPU v5p 的速度大约是 A100 的 3.4 到 4.8 倍,这使其与 H100 相当!
审核编辑:刘清
-
加速器
+关注
关注
2文章
789浏览量
37655 -
RAM
+关注
关注
8文章
1354浏览量
114426 -
TPU
+关注
关注
0文章
138浏览量
20684 -
HBM
+关注
关注
0文章
363浏览量
14674 -
人工智能芯片
+关注
关注
1文章
119浏览量
28955
原文标题:TPU v5p人工智能芯片
文章出处:【微信号:计算机视觉芯片设计,微信公众号:计算机视觉芯片设计】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论