0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

微软砍单英伟达H100减少至8万台

晶扬电子 来源:晶扬电子 2023-12-13 11:45 次阅读

微软明年减少H100 订单至8 万台,大摩指出,但这是因为要改单拿B100,价格虽较H100 贵5 成,但算力是HBM 的2 倍,并会拿些许AMD MI300,而英伟达可能会延迟对台积电明年下半年CoWoS 产能的预付款,但这不是砍单,主要是B100 芯片产能需要2 倍的CoWoS 产能。

大摩表示,微软可能会将2024 年H100 AI 伺服器的订单,从12 万台减少至8 万台,并将部分订单转移到B100,预计2024 年第四季出货,因为B100 的运算能力至少是H100 的2 倍,但价格仅高出 50~60%。

大摩指出,微软从2024 年第二季开始将透过英业达将部分订单转移到MI300X,而且NVIDIA 在2024 年第二季对台积电CoWoS 产能的预付款可能会有所延迟,但这并不意味着NVIDIA 在2024 年对台积电CoWoS 的需求减少,反而是B100 需要2 倍的CoWoS 产能。

中国GPU 方面,大摩指出,美国商务部长提出警告,华盛顿将「改变」出口管制措施,以阻止NVIDIA 专门针对中国市场进行芯片改良,而L20S 的云端推理似乎符合效能密度规则,并没有使用高效能的HBM,并预计年底前就准备好出货,至于华为910B 需求畅旺,但代工能力却不足。

散热方面,大摩指出, 散热解决方案供应商预计AWS AI AISC 伺服器的出货量将在2023 年第四季成长,而AI AISC 的3D VC 售价接近100 美元,预计微软Maia 的水冷板出货量最快要到2024 年第一季增加。

2023年Q3,英伟达AI GPU销量达50万块

据市场跟踪公司 Omdia 的统计分析,英伟达在 2023 年第三季度大约卖出了 50 万台 H100 和 A100 GPU,此前,Omdia 通过英伟达第二季度的销售额,估计其大概卖出了 900 吨 GPU。据英伟达财报显示,在本财年第三季度,Nvidia 在数据中心硬件上获得了 145 亿美元的收入,比去年同期几乎翻了两番。这显然得益于随着人工智能和高性能计算(HPC)的发展而变得炙手可热的 H100 GPU。

416efeac-98d5-11ee-8b88-92fbcf53809c.jpg

市场跟踪公司 Omdia 表示,Nvidia 售出了近 50 万个 A100 和 H100 GPU,庞大的需求量也导致了,基于 H100 的服务器需要 36~52 周的时间才能交付。

Meta 和微软是最大买家。它们各自采购了多达 15 万个 H100 GPU,大大超过了谷歌、亚马逊、甲骨文和腾讯采购的数量(各 5 万个)。

英伟达明年推新AI芯片,加速CoWoS封装需求

人工智能(AI)芯片带动先进封装需求,市场预期AI芯片大厂英伟达(Nvidia)明年将推出新一代绘图芯片架构,加速CoWoS封装需求,台湾,韩国、美国、日本、甚至中国等半导体大厂,积极布局2.5D先进封装。

AI芯片带动先进封装需求,加速AI芯片效能,CoWoS先进封装扮演关键角色,不过CoWoS产能仍短缺,影响包括英伟达在内的大厂AI芯片出货进度。

天风国际证券分析师郭明錤预期,先进封装CoWoS供应在第4季可显著改善,有利未来生产能见度。美系外资法人表示,随着CoWoS产能扩充,英伟达AI芯片出货量看增,这也反向带动CoWoS产能需求成长。

外资评估,英伟达H100绘图芯片(GPU)模组第4季供应量可到80万至90万个,较第3季约50万个增加,预估明年第1季供应量可到100万个,主要是CoWoS产能持续提升。

至于CoWoS产能配置,外资法人评估,英伟达可从台积电取得5000至6000片CoWoS晶圆产量,也将从后段专业委外封测代工(OSAT)厂取得2000至3000片CoWoS产量。

市场预期,英伟达明年将推出新一代B100绘图芯片架构,外资和本土投顾评估,B100架构可能采用台积电的4纳米制程,推估采用结合2颗GPU晶粒和8颗高频宽记忆体(HBM ),因此也将带动CoWoS先进封装需求。

本土期货法人分析,CoWoS先进封装主要有3种技术架构,其中矽中介层(CoWoS-S)封装是目前主流,包括英伟达H100芯片和超微(AMD)MI300芯片均采用CoWoS-S封装,效能佳不过成本较高。

至于导入重布线层(RDL)的有机中介层(CoWoS-R)封装可降低成本,另外CoWoS-L封装在矽中介层加进主动元件LSI层提升芯片设计及封装弹性,可支援更多颗高频宽记忆体堆叠,预期明年CoWoS-R与CoWoS-L封装应用将明显增加。

台积电已卡位CoWoS先进封装3种技术架构,后段封测厂日月光半导体也布局扇出型FOCoS-Bridge(Fan-Out-Chip-on-Substrate-Bridge)封装技术,并推出跨平台整合的先进封装设计平台工具。

亚系外资和本土投顾指出,包括英特尔Intel)、韩国三星(Samsung)、艾克尔(Amkor)、联电、中国江苏长电、通富微电等也布局2.5D先进封装,此外,日本索尼(Sony)、力成、美国德州仪器TI)、韩国SK海力士(SK Hynix)等也急起直追。

417c5674-98d5-11ee-8b88-92fbcf53809c.jpg

值得注意的是,大多数服务器 GPU 都供应给了超大规模云服务提供商。而服务器原始设备制造商(如戴尔、联想、HPE)目前还无法获得足够的 AI 和 HPC GPU。

Omdia 预计,到 2023 年第四季度,Nvidia 的 H100 和 A100 GPU 的销量将超过 50 万台。

不过,几乎所有大量采购 Nvidia H100 GPU 的公司都在为人工智能、HPC 和视频工作负载开发定制自己的芯片。

因此,随着他们转向使用自己的芯片,对 Nvidia 硬件的采购量可能会逐渐减少。

审核编辑:黄飞

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 微软
    +关注

    关注

    4

    文章

    6545

    浏览量

    103837
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4652

    浏览量

    128499
  • 服务器
    +关注

    关注

    12

    文章

    8883

    浏览量

    84995
  • 英伟达
    +关注

    关注

    22

    文章

    3695

    浏览量

    90554

原文标题:传微软砍单英伟达H100

文章出处:【微信号:晶扬电子,微信公众号:晶扬电子】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    英伟发布新一代H200,搭载HBM3e,推理速度是H100两倍!

    电子发烧友网报道(文/李弯弯)日前,英伟正式宣布,在目前最强AI芯片H100的基础上进行一次大升级,发布新一代H200芯片。H200拥有1
    的头像 发表于 11-15 01:15 3317次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b>发布新一代<b class='flag-5'>H</b>200,搭载HBM3e,推理速度是<b class='flag-5'>H100</b>两倍!

    英伟H100芯片市场降温

    随着英伟新一代AI芯片GB200需求的不断攀升,其上一代明星产品H100芯片却遭遇了市场的冷落。据业内人士透露,搭载H100的服务器通常以8
    的头像 发表于 10-28 15:42 87次阅读

    英伟GB200芯片售价7美元,服务器单价或30

    汇丰银行分析师预测,英伟“入门级”B100 GPU的平均销售价将在33.5美元之间,与
    的头像 发表于 05-15 14:31 1581次阅读

    英伟H200带宽狂飙

    英伟H200带宽的显著提升主要得益于其强大的硬件配置和先进的技术创新。H200配备了高达141GB的HBM3e显存,与前代产品H100相比
    的头像 发表于 03-07 16:44 825次阅读

    英伟H200显卡价格

    英伟H200显卡的具体价格尚未公布。根据上一代H100显卡的价格范围,预计H200的单片价格将超过40000美元。由于新芯片通常定价较高,
    的头像 发表于 03-07 16:09 3495次阅读

    英伟H200和H100的比较

    英伟H200和H100是两款不同的AI芯片,它们各自具有独特的特点和优势。以下是关于这两款芯片的一些比较。
    的头像 发表于 03-07 15:53 3863次阅读

    AI计算需求激增,英伟H100功耗成挑战

    根据预测,若H100的年利用率保持在61%,那么设备每年将耗电3740千瓦小时左右。如果英伟在2023年售出150
    的头像 发表于 12-28 09:29 2047次阅读

    AMD正式发布 MI300X AI 加速器,力压英伟H100

    争夺剩余的市场而战。然而,MI300X对英伟H100构成了有力的竞争,甚至微软的首席技术官最近都表示,他认为AMD最终在这个市场上将非常有竞争力。
    的头像 发表于 12-10 11:30 887次阅读
    AMD正式发布 MI300X AI 加速器,力压<b class='flag-5'>英伟</b><b class='flag-5'>达</b><b class='flag-5'>H100</b>

    英伟H100 GPU Q3售出50块,科技巨头争抢

    这款产品最大购买客户是Meta与微软,各自购买了15块;谷歌、亚马逊、甲骨文、腾讯各自购买了5块,榜单中还出现了百度、阿里巴巴、字节跳动这几家中国公司。集微网了解到,目前H100
    的头像 发表于 12-07 15:18 1053次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b><b class='flag-5'>H100</b> GPU Q3售出50<b class='flag-5'>万</b>块,科技巨头争抢

    英伟H100,没那么缺货了 !RTX 4090 ,大涨

    这样,在云端使用 H100 GPU 的排队时间可能会缩短。数据中心提供商和前比特币挖矿公司正在开设具有 H100 集群的数据中心。这些公司承诺以大型云提供商成本的一小部分提供 H100 GPU 计算,而大型云提供商对
    的头像 发表于 11-23 15:59 1588次阅读

    英伟推出新款AI芯片H200 性能飙升90%但是估计依然被出口管制

    生成式AI火爆全球之后,英伟的AI芯片一张难求,就在英伟重量级选手H100 AI芯片目前依然是一货难求的情况下,
    的头像 发表于 11-14 16:45 1428次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b>推出新款AI芯片<b class='flag-5'>H</b>200 性能飙升90%但是估计依然被出口管制

    英伟特供版芯片将上市:性能最高不到H100的20%

    本周四,一些媒体首次报道了英伟特供芯片的消息。报道称,这三款新产品是在 H100 GPU 的基础版本基础上进行修改的,采用的是最新架构,但性能大幅度缩减。H100 GPU 是一种用于
    的头像 发表于 11-13 16:44 879次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b>特供版芯片将上市:性能最高不到<b class='flag-5'>H100</b>的20%

    揭秘:英伟H100最强替代者

    目前,用于高端推理的 GPU 主要有三种:NVIDIA A100、NVIDIA H100 和新的 NVIDIA L40S。我们将跳过NVIDIA L4 24GB,因为它更像是低端推理卡。
    的头像 发表于 11-13 16:13 1462次阅读
    揭秘:<b class='flag-5'>英伟</b><b class='flag-5'>达</b><b class='flag-5'>H100</b>最强替代者

    英伟新AI芯片H20综合算力比H100降80%

    但据悉,三种新型AI芯片不是“改良型”,而是“缩小型”。用于ai模型教育的hgx h20的带宽和计算速度是有限的。整体计算能力理论上比nvidia的h100 gpu芯片低80%左右。h20是h
    的头像 发表于 11-13 09:41 1594次阅读

    英伟H100的最强替代者

    首先,我们首先要说的是,如果您现在想要训练基础模型(例如 ChatGPT),那么 NVIDIA H100 80GB SXM5 仍然是首选 GPU。一旦基础模型经过训练,通常可以在成本和功耗显着降低的部件上根据特定领域的数据或推理来定制模型。
    的头像 发表于 11-08 15:35 948次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b><b class='flag-5'>H100</b>的最强替代者