近日,据英国《金融时报》引述知情人士报道,中国网络巨头百度、字节跳动、腾讯和阿里巴巴向英伟达下单10亿美元,约10万片A800处理器芯片,预定今年交货。据悉,这些网络公司进一步采购价值40亿美元的GPU,预计2024年交货。
英伟达对报道不予置评,但是表示消费性网络公司和云端服务商,每年都为数据中心零组件投资数十亿美元,通常都是提前好几个月下订单。美国政府自去年10月宣布针对中国的出口管制,试图冻结中国半导体的发展,英伟达因为美国禁令停止出口两款AI芯片,改而针对中国市场推出符合管制的A800芯片。
外媒报道,云端基础设施供应新创商 CoreWeave 透露,英伟达等级最高的人工智能(AI)芯片今年恐怕都会缺货。CoreWeave共同创办人兼技术长Brian Venturo受访时表示,从4月初开始,绘图处理器(GPU)市场变得异常吃紧,原本合理的前置时间,在短短一周内大幅延长至今年底。需求不只来自云端服务供货商(CSP),大型企业、AI实验室也都加入抢货行列。
客戶究竟何時才能買到英伟达最高阶AI芯片“H100”时,Venturo响应说,对物流、资源有合理规划的人,目前预测的到货时间点落在明年第1~2季。他表示,CoreWeave已开始为明年Q2、Q3的部署进行采购。
图:英伟达 GH200 Grace Hopper 超级芯片 图片来自英伟达官方微信
日前在全球知名的计算机图形大会上,英伟达CEO黄仁勋宣布推出新一代GH200 Grace Hopper 超级芯片,它能够连接多个GPU,以实现卓越的性能和易于扩展的服务器设计,与上一代产品相比,双配置的内存容量增加了3.5倍,带宽增加了3倍,包括一台具有144个Arm Neoverse核心、8 petaflops的AI性能和282GB最新HBM3e内存技术的单服务器。领先的系统制造商预计将在2024年第二季度交付基于该平台的系统。
新平台采用了 Grace Hopper 超级芯片,可以通过 NVIDIA NVLink™ 与其他超级芯片连接,使它们能够协同工作,从而部署当下大型生成式 AI 模型。这种高速、一致性技术使 GPU 可以完全访问 CPU 内存,在双配置中可提供总计 1.2TB 的快速内存。
HBM3e 内存比当前 HBM3 快 50%,可提供总计 10TB/s 的带宽。这使得新平台能够运行比上一版本大 3.5 倍的模型,同时凭借快 3 倍的内存带宽提升性能。
本文由电子发烧友原创,转载请注明以上来源。微信号zy1052625525。需入群交流,请添加微信elecfans999,投稿爆料采访需求,请发邮箱zhangying@huaqiu.com。
-
英伟达
+关注
关注
22文章
3743浏览量
90806 -
AI服务器
+关注
关注
2文章
100浏览量
4876 -
ChatGPT
+关注
关注
29文章
1548浏览量
7478 -
A800
+关注
关注
0文章
14浏览量
246
发布评论请先 登录
相关推荐
评论