0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达H100 GPU交货等待时间大幅缩短

微云疏影 来源:综合整理 作者:综合整理 2024-04-11 10:48 次阅读

据Digitimes报道,因NVIDIA H100 GPU广泛应用于人工智能计算,造成其供需失衡。如今,根据台湾地区总经理Terence Liao介绍,近期该产品交货周期已大幅度缩短,由原先的3-4个月缩减为当前的2-3个月(即8-12周)。同时,服务器制造商也证实,相较于2023年几乎无法购买到H100的状况,目前供应紧张局面正逐渐得到缓解。

尽管交货周期有所缩短,Liao强调,人工智能硬件市场需求依然强劲。尽管价格较高,但人工智能服务器的采购量正在超过普通服务器。他指出,过长的交付周期是导致需求看似持续增长的主因。

值得关注的是,目前2-3个月的交货周期已是NVIDIA H100 GPU历史最短纪录。仅在半年前,等待期还长达11个月,大部分客户需等待近一年才能获得所需的人工智能GPU。

自2024年初起,H100 GPU交货周期持续明显缩短。今年初,等待期已由数月缩短至3-4个月;现今再度缩短一个月。按照此趋势,预计今年底或更早,无需再等待。

部分原因可能源于部分公司持有过多的H100 GPU库存,并选择出售以降低库存维护成本。此外,亚马逊科技(AWS)提供云端租赁服务,使得用户能够更加便捷地使用H100 GPU,从而缓解了部分需求压力。

现阶段,仅有少数大型企业如OpenAI等仍受供应限制影响,因其正在开发自身的大型语言模型(LLM)。由于此类模型训练需大量GPU支持,故这些企业仍面临供应难题。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4672

    浏览量

    128551
  • 服务器
    +关注

    关注

    12

    文章

    8947

    浏览量

    85065
  • 人工智能
    +关注

    关注

    1789

    文章

    46615

    浏览量

    236960
收藏 人收藏

    评论

    相关推荐

    英伟发布新一代H200,搭载HBM3e,推理速度是H100两倍!

    兼容,在推理速度上几乎达到H100的两倍。H200预计将于明年二季度开始交付。此外,英伟还透露,下一代Blackwell B100
    的头像 发表于 11-15 01:15 3380次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b>发布新一代<b class='flag-5'>H</b>200,搭载HBM3e,推理速度是<b class='flag-5'>H100</b>两倍!

    英伟H100芯片市场降温

    随着英伟新一代AI芯片GB200需求的不断攀升,其上一代明星产品H100芯片却遭遇了市场的冷落。据业内人士透露,搭载H100的服务器通常以8卡的形式进行出售或出租,而在去年,这类服务
    的头像 发表于 10-28 15:42 240次阅读

    英伟H200带宽狂飙

    英伟H200带宽的显著提升主要得益于其强大的硬件配置和先进的技术创新。H200配备了高达141GB的HBM3e显存,与前代产品H100相比
    的头像 发表于 03-07 16:44 852次阅读

    英伟H200显卡价格

    英伟H200显卡的具体价格尚未公布。根据上一代H100显卡的价格范围,预计H200的单片价格将超过40000美元。由于新芯片通常定价较高,
    的头像 发表于 03-07 16:09 3703次阅读

    英伟H200和H100的比较

    英伟H200和H100是两款不同的AI芯片,它们各自具有独特的特点和优势。以下是关于这两款芯片的一些比较。
    的头像 发表于 03-07 15:53 4018次阅读

    NVIDIA H100 GPU交货周期缩短,部分公司转向销售或减单

    根据The Information报导,由于芯片供应状况改善、交货期的骤然缩短,一些公司开始抛售他们所持有的GPU或削减订单。然而,尽管如此,AI芯片需求仍大于供应,特别是OpenAI之类的大型语言模型训练机构。
    的头像 发表于 02-27 14:56 651次阅读

    英伟大幅缩短AI GPU交付周期

    根据瑞银分析师最近提供给投资者的备忘录,英伟已经显著缩短了其AI GPU的交付周期。这一周期已经从去年年底的8-11个月迅速缩短至目前的3
    的头像 发表于 02-18 17:31 792次阅读

    英伟缩短AI GPU交付周期,持续推进算力产业链发展

    与此同时,随着人工智能的迅猛发展及其广泛应用,对像H100和A100这类专为数据中心设计的高性能GPU的需求也大幅增长。而包括Yotta在内的多家公司因此纷纷加大向
    的头像 发表于 02-18 09:36 468次阅读

    AI计算需求激增,英伟H100功耗成挑战

    根据预测,若H100的年利用率保持在61%,那么单台设备每年将耗电3740千瓦小时左右。如果英伟在2023年售出150万块H100,2024年再增加至200万块,那么到2024年底,
    的头像 发表于 12-28 09:29 2117次阅读

    AMD正式发布 MI300X AI 加速器,力压英伟H100

    争夺剩余的市场而战。然而,MI300X对英伟H100构成了有力的竞争,甚至微软的首席技术官最近都表示,他认为AMD最终在这个市场上将非常有竞争力。
    的头像 发表于 12-10 11:30 896次阅读
    AMD正式发布 MI300X AI 加速器,力压<b class='flag-5'>英伟</b><b class='flag-5'>达</b><b class='flag-5'>H100</b>

    英伟H100,没那么缺货了 !RTX 4090 ,大涨

    这样,在云端使用 H100 GPU 的排队时间可能会缩短。数据中心提供商和前比特币挖矿公司正在开设具有 H100 集群的数据中心。这些公司承
    的头像 发表于 11-23 15:59 1643次阅读

    英伟推出用于人工智能工作的顶级芯片HGX H200

    近日,英伟推出了一款用于人工智能工作的顶级芯片HGX H200。新的GPU升级了需求巨大的H100,内存带宽增加了1.4倍,内存容量增加了
    的头像 发表于 11-15 14:34 1419次阅读

    英伟特供版芯片将上市:性能最高不到H100的20%

    本周四,一些媒体首次报道了英伟特供芯片的消息。报道称,这三款新产品是在 H100 GPU 的基础版本基础上进行修改的,采用的是最新架构,但性能大幅
    的头像 发表于 11-13 16:44 905次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b>特供版芯片将上市:性能最高不到<b class='flag-5'>H100</b>的20%

    揭秘:英伟H100最强替代者

    目前,用于高端推理的 GPU 主要有三种:NVIDIA A100、NVIDIA H100 和新的 NVIDIA L40S。我们将跳过NVIDIA L4 24GB,因为它更像是低端推理卡。
    的头像 发表于 11-13 16:13 1514次阅读
    揭秘:<b class='flag-5'>英伟</b><b class='flag-5'>达</b><b class='flag-5'>H100</b>最强替代者

    英伟新AI芯片H20综合算力比H100降80%

    但据悉,三种新型AI芯片不是“改良型”,而是“缩小型”。用于ai模型教育的hgx h20的带宽和计算速度是有限的。整体计算能力理论上比nvidia的h100 gpu芯片低80%左右。h
    的头像 发表于 11-13 09:41 1628次阅读