近日,英伟达(NVIDIA)的主要高带宽存储器(HBM)供应商南韩SK集团会长崔泰源透露,英伟达执行长黄仁勋已要求SK海力士提前六个月交付用于英伟达下一代AI芯片平台Rubin的HBM4存储芯片。这一消息意味着英伟达下一代AI芯片平台的问世时间将提前半年。
据业界分析,Rubin平台打造的AI芯片将拥有更强大的功能,其相关服务器机柜的价格也有望再创新高。随着英伟达新一代AI芯片的推出,鸿海和广达等台厂预计将获得大量订单,并伴随着单价提升,其运营状况将进一步改善。
据了解,英伟达最新的Blackwell平台已经开始量产,其中高阶款GB200 NVL72机柜的平均单价约为300万美元(约合新台币9600万元)。而Rubin作为Blackwell的下一代平台,其算力更强,机柜单价预计将轻松突破新台币1亿元。
在台厂中,鸿海在英伟达高阶AI服务器机柜的占比最大,广达也占据一定份额。若英伟达下一代Rubin平台提前半年问世,鸿海和广达在出货GB200机柜的同时,将很快接到Rubin平台的订单,且单价更高,这将为其运营注入更多动力。
英伟达每年都会升级AI芯片产品,今年底最新出货的是Blackwell平台的B200与GB200芯片,而原计划在2026年推出的下一代Rubin平台的R100芯片,由于黄仁勋要求SK海力士提前交付HBM4,其上市时间有望提前半年。
据悉,R100将采用台积电N3制程与CoWoS-L封装,而GB200则采用台积电N4P制程,同样是CoWoS-L封装。Rubin平台搭载的高带宽存储器规格为最新的HBM4,SK海力士为其主力供应商。原本SK海力士计划在2025年下半年供应HBM4,但现已提前至黄仁勋要求的时间。
英伟达目前在其B100 AI芯片中使用的是最快的HBM3E,但为了保持技术领先,计划在未来升级到更强的HBM4。随着Rubin平台的推出,R100将能够利用HBM4的高性能,提供更高的算力。
鸿海目前正在全力冲刺GB200 AI服务器的出货,并计划在墨西哥打造全球最大的GB200服务器生产基地,以满足英伟达Blackwell平台服务器的强劲需求以及地缘政治考量。业界认为,鸿海作为英伟达最大的AI服务器组装伙伴,每一代AI芯片产品的更迭都将为其带来更多订单。
同时,广达也受益于英伟达AI服务器的强劲出货,今年第二季度AI服务器营收占比已突破五成,下半年出货动能持续升温。随着英伟达Blackwell和Rubin平台的接力推出,广达的运营也将持续升温。
-
存储
+关注
关注
13文章
4213浏览量
85554 -
英伟达
+关注
关注
22文章
3718浏览量
90625 -
HBM
+关注
关注
0文章
363浏览量
14674
发布评论请先 登录
相关推荐
评论