0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

H100 GPU供应改善,AI市场需求依旧强劲

微云疏影 来源:综合整理 作者:综合整理 2024-02-29 16:10 次阅读

据海外报道,NVIDIA目前热门AI芯片H100的交货周期已明显缩短,先前需半年,现仅需三四个月即可。此外,由于各大云服务供应商如AWS、谷歌云和Microsoft Azure提供便捷的AI计算服务,使得之前批量采购H100 GPU的企业决定出售。

值得注意的是,H100 GPU的供求关系已经缓解,且维护成本高起,部分客户正在置换这类硬件以转向云服务,这种转变在过去的市场紧缩中很少见到。同时,市场上虽然有其他选择如AMD的MI300 GPU,性能稳定且价格低廉。

根据TrendForce研究机构预测,2024年全球高级AI服务器需求将激增至1.5亿台,NVIDIA、AMD等领先ASIC芯片厂商将主导这一市场,分别占据至少六七成以上份额。其中,NVIDIA的H100芯片仍处于前列,预计于2024年在整体需求中的占比逾70%。

然而,NVIDIA在AI领域面临潜在威胁。首当其冲的便是美国对华科技出口限制,这可能减损NVIDIA在中国市场的销售业绩;其次,大型科技公司亚马逊AWS、Google、Microsoft和Meta等已经开始研发自有的ASIC芯片;再者,AMD以其高性价比产品给NVIDIA造成竞争压力,尤其在旗舰客户市场的争夺上,预计到2024年,Microsoft将成为AMD Mi300 GPU解决方案的最大客户之一。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • amd
    amd
    +关注

    关注

    25

    文章

    5377

    浏览量

    133517
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4604

    浏览量

    128289
  • AI芯片
    +关注

    关注

    17

    文章

    1831

    浏览量

    34730
收藏 人收藏

    评论

    相关推荐

    英伟达发布新一代H200,搭载HBM3e,推理速度是H100两倍!

    电子发烧友网报道(文/李弯弯)日前,英伟达正式宣布,在目前最强AI芯片H100的基础上进行一次大升级,发布新一代H200芯片。H200拥有141GB的内存、4.8TB/秒的带宽,并将与
    的头像 发表于 11-15 01:15 3178次阅读
    英伟达发布新一代<b class='flag-5'>H</b>200,搭载HBM3e,推理速度是<b class='flag-5'>H100</b>两倍!

    首批1024块H100 GPU,正崴集团将建中国台湾最大AI计算中心

    中国台湾当地正崴集团5月27日宣布,将与日本公司Ubitus共同打造人工智能(AI)计算中心,其中第一期将导入128个机柜,共计1024张英伟达H100旗舰计算卡,旨在构建台湾最大的AI计算中心。
    的头像 发表于 05-29 10:05 811次阅读

    英伟达预计2026年营收将超1300亿美元,AI领域仍居主导地位

    该分析师特别指出,英伟达已在AI GPU市场拥有绝对优势,现阶段主流产品H100 AI GPU
    的头像 发表于 03-14 14:36 400次阅读

    英伟达H200和H100的比较

    英伟达H200和H100是两款不同的AI芯片,它们各自具有独特的特点和优势。以下是关于这两款芯片的一些比较。
    的头像 发表于 03-07 15:53 3477次阅读

    戴尔绩后暴涨20% AI服务器需求激增

    尽管面临先进计算机芯片供应瓶颈,戴尔科技依然努力满足市场需求。Jeff Clarke表明,尽管需求持续高涨,但公司看到英伟达H100芯片交货时间有所
    的头像 发表于 03-01 15:53 849次阅读

    NVIDIA H100 GPU交货周期缩短,部分公司转向销售或减单

    根据The Information报导,由于芯片供应状况改善、交货期的骤然缩短,一些公司开始抛售他们所持有的GPU或削减订单。然而,尽管如此,AI芯片
    的头像 发表于 02-27 14:56 575次阅读

    英伟达:预计下一代AI芯片B100短缺,计划扩产并采用新架构

    近期热门的 H100 芯片运期短缩数天后,英伟达新型 AI 旗舰芯片 B100搭载全新的 Blackwell,有望使 AI 计算性能提升至 2~3 倍。鉴于
    的头像 发表于 02-25 09:29 763次阅读

    AI计算需求激增,英伟达H100功耗成挑战

    根据预测,若H100的年利用率保持在61%,那么单台设备每年将耗电3740千瓦小时左右。如果英伟达在2023年售出150万块H100,2024年再增加至200万块,那么到2024年底,将有350万块H100芯片投入使用,其总年用
    的头像 发表于 12-28 09:29 1934次阅读

    英伟达H100,没那么缺货了 !RTX 4090 ,大涨

    这样,在云端使用 H100 GPU 的排队时间可能会缩短。数据中心提供商和前比特币挖矿公司正在开设具有 H100 集群的数据中心。这些公司承诺以大型云提供商成本的一小部分提供 H100
    的头像 发表于 11-23 15:59 1487次阅读

    英伟达特供版芯片将上市:性能最高不到H100的20%

    本周四,一些媒体首次报道了英伟达特供芯片的消息。报道称,这三款新产品是在 H100 GPU 的基础版本基础上进行修改的,采用的是最新架构,但性能大幅度缩减。H100 GPU 是一种用于
    的头像 发表于 11-13 16:44 812次阅读
    英伟达特供版芯片将上市:性能最高不到<b class='flag-5'>H100</b>的20%

    揭秘:英伟达H100最强替代者

    目前,用于高端推理的 GPU 主要有三种:NVIDIA A100、NVIDIA H100 和新的 NVIDIA L40S。我们将跳过NVIDIA L4 24GB,因为它更像是低端推理卡。
    的头像 发表于 11-13 16:13 1323次阅读
    揭秘:英伟达<b class='flag-5'>H100</b>最强替代者

    传英伟达新AI芯片H20综合算力比H100降80%

    但据悉,三种新型AI芯片不是“改良型”,而是“缩小型”。用于ai模型教育的hgx h20的带宽和计算速度是有限的。整体计算能力理论上比nvidia的h100
    的头像 发表于 11-13 09:41 1510次阅读

    英伟达H100的最强替代者

    首先,我们首先要说的是,如果您现在想要训练基础模型(例如 ChatGPT),那么 NVIDIA H100 80GB SXM5 仍然是首选 GPU。一旦基础模型经过训练,通常可以在成本和功耗显着降低的部件上根据特定领域的数据或推理来定制模型。
    的头像 发表于 11-08 15:35 889次阅读
    英伟达<b class='flag-5'>H100</b>的最强替代者

    疯狂的H100:现代GPU体系结构浅析,从算力焦虑开始聊起

    ,GPT-5 的训练可能需要 3 万到 5 万张 H100,尽管之后被 Sam Altman 否认,也可窥见大模型训练对于算力的巨大需求
    的头像 发表于 10-29 09:48 8151次阅读
    疯狂的<b class='flag-5'>H100</b>:现代<b class='flag-5'>GPU</b>体系结构浅析,从算力焦虑开始聊起

    AI需求大增!传英伟达 B100 提前至明年Q2发布

    市场有关负责人表示,h100是英伟达gpu中规格最高的技术,但b100的影响力比h100更大,今后将采用3至4纳米工程和芯片设计。随着sk海
    的头像 发表于 10-17 09:23 881次阅读