0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达特供版芯片将上市:性能最高不到H100的20%

CVer 来源:机器之心 2023-11-13 16:44 次阅读

国内芯片未来能否实现替代?

10 月 17 日,美国商务部放出最严对华出口管制规定,H800 等 AI 加速器成为制裁的焦点。因为制裁涉及显卡功率和算力的限制,继 H100 之后,英伟达专为符合要求设计的定制芯片也因此受限。

新的禁令已在 10 月 23 日生效。有经销商表示,在 A800 和 H800 GPU 无法进口后,英伟达为国内市场专门开发了一款新服务器芯片和两款新 GPU,英伟达将在未来几天内向国内制造商交付三款新芯片。

c662d43c-81ef-11ee-939d-92fbcf53809c.png

继 A800 和 H800 GPU 之后,英伟达开发了 HGX H20 以及 GPU L20 和 L2,它们分别对应人工智能的训练、推理和端侧应用场景,将于今年底发布并量产。

本周四,一些媒体首次报道了英伟达特供芯片的消息。报道称,这三款新产品是在 H100 GPU 的基础版本基础上进行修改的,采用的是最新架构,但性能大幅度缩减。H100 GPU 是一种用于人工智能训练的高端 GPU,已于 2022 年 8 月被禁止在国内销售。

其中,HGX L20 是基于 Hopper 架构的 HGX 形式加速卡。该型号提供高规格 HBM3 内存,容量为 96 GB,带宽达到 4Tb/s。在计算性能方面,该型号的 INT8 算力为 296 TFLOPS,通过 Tensor Core 在 BF16 中可达到 148 TFLOPS,在 FP32 中为 44 TFLOPS,在 FP64 中为 1 TFLOP。最后,它具有 PCIe 5.0 接口以及 900 GB/s NVLINK 链路。

L20 和 L2 是分别配备 48 GB 和 24 GB GDDR6 的 PCIe 卡,内存带宽分别为 864 GB/s 和 300 GB/s。它们的 GPU 核心型号是 AD102,公布的性能数据如下:

L20:239 TFLOPS (FP8) – BF16 中为 119.5 TFLOPS – FP32 中为 59.8 TFLOP

L2:193 TFLOPS (FP8) – BF16 中为 96.5 TFLOPS – FP32 中为 24.1 TFLOP

c689fd1e-81ef-11ee-939d-92fbcf53809c.png

与目前业内标杆 H100 相比,这些显卡在内存和带宽方面相近,功耗更低,但算力数字非常有限,特别是在 TFLOPS 方面:H20 的纸面算力不及 H100 的 20%。

显然,目前的规格完全是按照新的出口限制设计的。

它们比之前以 H800 和 A800 形式提供的性能也要差得多,但如果英伟达用于 AI 和 HPC 的软件堆栈对于一些客户来说无法放弃,为了获得最新的 Hopper 架构,人们或许仍然愿意采用降低规格后的产品

c6b26ef2-81ef-11ee-939d-92fbcf53809c.png

分销商表示,其已于本周早些时候听取了有关进展情况的简报,并表示符合美国最新出口规则的新芯片将作为 A800 和 H800 的替代品提供给国内客户。

在业务受阻的情况下,英伟达仍然努力寻求遵守限制,提供产品,这表明了中国市场对于芯片公司的重要性。英伟达数据中心业务面向中国的收入占整体的 20% 至 25%,而该业务是英伟达目前营收最大的部门。

上月底曾有报道称,英伟达可能因为新的禁令被迫取消了价值 50 亿美元的先进芯片订单。

另一方面,近日也有消息称,国内科技公司正在采购国产 910B 芯片作为英伟达芯片的替代,其能力已经基本做到可对标英伟达 A100。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    453

    文章

    50364

    浏览量

    421649
  • AI
    AI
    +关注

    关注

    87

    文章

    30077

    浏览量

    268346
  • 英伟达
    +关注

    关注

    22

    文章

    3739

    浏览量

    90790

原文标题:英伟达特供版芯片将上市:性能最高不到H100的20%

文章出处:【微信号:CVer,微信公众号:CVer】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    英伟H100芯片市场降温

    随着英伟新一代AI芯片GB200需求的不断攀升,其上一代明星产品H100芯片却遭遇了市场的冷落。据业内人士透露,搭载
    的头像 发表于 10-28 15:42 338次阅读

    英伟下调中国特供H20芯片价格

    英伟近日针对中国市场调整了其特供的AI芯片H20系列的价格,以应对需求不佳的局面。据供应链人士透露,目前中国服务器经销商以每组约人民币10
    的头像 发表于 05-28 09:44 1521次阅读

    英特尔的最强AI芯片要来了,声称性能完胜英伟H100

    增加了近1.5倍。 与竞争对手的正面对标也不落下风。英特尔声称Gaudi3已全面超越英伟去年发布的H100芯片:运行
    的头像 发表于 04-11 23:36 419次阅读

    英伟H200上市时间

    英伟H200于2023年11月13日正式发布。然而,由于HBM3e芯片供应问题,其实际开售时间有所延迟。英伟
    的头像 发表于 03-07 16:46 2160次阅读

    英伟H200带宽狂飙

    英伟H200带宽的显著提升主要得益于其强大的硬件配置和先进的技术创新。H200配备了高达141GB的HBM3e显存,与前代产品H100相比
    的头像 发表于 03-07 16:44 882次阅读

    英伟H200和A100的区别

    英伟H200和A100两款芯片性能、架构、内存以及应用场景等多个方面存在显著的区别。
    的头像 发表于 03-07 16:23 3361次阅读

    英伟H200显卡价格

    英伟H200显卡的具体价格尚未公布。根据上一代H100显卡的价格范围,预计H200的单片价格将超过40000美元。由于新
    的头像 发表于 03-07 16:09 3856次阅读

    英伟H200和H100的比较

    英伟H200和H100是两款不同的AI芯片,它们各自具有独特的特点和优势。以下是关于这两款芯片
    的头像 发表于 03-07 15:53 4223次阅读

    英伟:预计下一代AI芯片B100短缺,计划扩产并采用新架构

    近期热门的 H100 芯片运期短缩数天后,英伟新型 AI 旗舰芯片 B100搭载全新的 Bla
    的头像 发表于 02-25 09:29 864次阅读

    消息称英伟中国特定AI芯片H20开启预售

    据报道,英伟最近推出了专为中国市场设计的AI芯片H20系列,并已经开始接受经销商的预购。定价方面,H20系列与国产的华为Ascend 91
    的头像 发表于 02-04 14:31 1173次阅读

    英伟中国特供AI芯片开始预订

    英伟近期为中国市场推出了特供AI芯片H20,引发了业界和消费者的广泛关注。据知情人士透露,H20
    的头像 发表于 02-03 09:30 631次阅读

    英伟与中国市场的博弈 英伟特供芯片遇冷

    英伟在面临美国新规的挑战时,迅速为中国市场开发了特供版AI芯片,旨在满足中国对尖端人工智能技术的需求。
    的头像 发表于 01-08 17:07 1077次阅读

    AI计算需求激增,英伟H100功耗成挑战

    根据预测,若H100的年利用率保持在61%,那么单台设备每年将耗电3740千瓦小时左右。如果英伟在2023年售出150万块H100,2024年再增加至200万块,那么到2024年底,
    的头像 发表于 12-28 09:29 2216次阅读

    AMD正式发布 MI300X AI 加速器,力压英伟H100

    争夺剩余的市场而战。然而,MI300X对英伟H100构成了有力的竞争,甚至微软的首席技术官最近都表示,他认为AMD最终在这个市场上将非常有竞争力。
    的头像 发表于 12-10 11:30 915次阅读
    AMD正式发布 MI300X AI 加速器,力压<b class='flag-5'>英伟</b><b class='flag-5'>达</b><b class='flag-5'>H100</b>

    英伟H100,没那么缺货了 !RTX 4090 ,大涨

    这样,在云端使用 H100 GPU 的排队时间可能会缩短。数据中心提供商和前比特币挖矿公司正在开设具有 H100 集群的数据中心。这些公司承诺以大型云提供商成本的一小部分提供 H100 GPU 计算,而大型云提供商对
    的头像 发表于 11-23 15:59 1702次阅读