中国台湾当地正崴集团5月27日宣布,将与日本公司Ubitus共同打造人工智能(AI)计算中心,其中第一期将导入128个机柜,共计1024张英伟达H100旗舰计算卡,旨在构建台湾最大的AI计算中心。
据业界消息,所有硬件将由华硕独家供应,此外后续视市场需求,持续争取英伟达GB200服务器的搭建,GB200平台的一个机柜组合将包含72台服务器,算力可与40个机柜的H100相当。
正崴董事长郭台强表示,AI是全球最热门的话题,中国台湾电子制造业正处于中心。目前计算中心第一期项目将斥资20亿元新台币,预计第四季度可完成128台H100服务器搭建,其中H100 GPU单颗算力为989 TFlops。
正崴集团与旗下森崴能源、合作伙伴优必达(Ubitus)共同成立“优崴超级运算公司”来运营该项目。优崴超算由正崴持股41%、森崴能源10%、优必达49%。
除了提供AI算力,该项目还将提供相关的应用服务,如算力租借(PAAS)及SAAS服务。正崴集团希望通过此项目提升企业和台湾的整体竞争力,协助企业将“产业AI化”与“AI产业化”。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
相关推荐
电子发烧友网报道(文/李弯弯)日前,英伟达正式宣布,在目前最强AI芯片H100的基础上进行一次大升级,发布新一代H200芯片。H200拥有141GB的内存、4.8TB/秒的带宽,并将与
发表于 11-15 01:15
•3370次阅读
随着英伟达新一代AI芯片GB200需求的不断攀升,其上一代明星产品H100芯片却遭遇了市场的冷落。据业内人士透露,搭载H100的服务器通常以8卡的形式进行出售或出租,而在去年,这类服务器的售价普遍
发表于 10-28 15:42
•221次阅读
全球知名半导体企业美光科技正积极筹划在中国台湾扩大其投资布局,不仅将聚焦于高带宽存储器(HBM)的先进制程制造,还透露出可能在中国台湾设立第二个研发中心的意向。这一战略调整,无疑将进一步巩固美光在全球半导体产业链中的重要地位。
发表于 08-13 14:27
•650次阅读
1. 传苹果将在中国台湾设数据中心,与当地厂商合作 目前国际大厂竞相前往中国台湾建设数据中心,除云服务商亚马逊AWS、谷歌、微软之外,据了解苹果也计划在
发表于 06-25 09:45
•656次阅读
在COMPUTEX 2024展会上,鸿海科技集团(富士康)与英伟达两大科技巨头共同宣布了一项重大合作计划。鸿海科技集团计划在中国台湾高雄建立一个以NVIDIA Blackwell平台为核心的先进
发表于 06-06 09:37
•364次阅读
英伟达公司CEO黄仁勋近日宣布,公司计划在未来五年内于中国台湾设立一座大型设计中心,并预计至少将雇用1000名工程师。此次扩张不仅彰显了英伟达对中国台湾技术人才的重视,也进一步巩固了其在全球A
发表于 06-04 11:24
•938次阅读
近日,正崴集团宣布与日本优必达(Ubitus)达成合作,将共同出资成立优崴超级运算中心公司,在台湾
发表于 05-30 09:25
•573次阅读
近日,美国德克萨斯大学宣称他们将创建一个学术界最强大的生成性人工智能(AI)研究中心,该中心将配备600个Nvidia H100 GPU用于
发表于 05-28 09:06
•673次阅读
英伟达H200和H100是两款不同的AI芯片,它们各自具有独特的特点和优势。以下是关于这两款芯片的一些比较。
发表于 03-07 15:53
•3990次阅读
值得注意的是,H100 GPU的供求关系已经缓解,且维护成本高起,部分客户正在置换这类硬件以转向云服务,这种转变在过去的市场紧缩中很少见到。同时,市场上虽然有其他选择如AMD的MI300 GPU,性能稳定且价格低廉。
发表于 02-29 16:10
•629次阅读
根据预测,若H100的年利用率保持在61%,那么单台设备每年将耗电3740千瓦小时左右。如果英伟达在2023年售出150万块H100,2024年再增加至200万块,那么到2024年底,
发表于 12-28 09:29
•2111次阅读
这款产品最大购买客户是Meta与微软,各自购买了15万块;谷歌、亚马逊、甲骨文、腾讯各自购买了5万块,榜单中还出现了百度、阿里巴巴、字节跳动这几家中国公司。集微网了解到,目前
发表于 12-07 15:18
•1075次阅读
这样,在云端使用 H100 GPU 的排队时间可能会缩短。数据中心提供商和前比特币挖矿公司正在开设具有 H100 集群的数据中心。这些公司承
发表于 11-23 15:59
•1628次阅读
本周四,一些媒体首次报道了英伟达特供芯片的消息。报道称,这三款新产品是在 H100 GPU 的基础版本基础上进行修改的,采用的是最新架构,但性能大幅度缩减。H100 GPU 是一种用于
发表于 11-13 16:44
•901次阅读
但据悉,三种新型AI芯片不是“改良型”,而是“缩小型”。用于ai模型教育的hgx h20的带宽和计算速度是有限的。整体计算能力理论上比nvi
发表于 11-13 09:41
•1623次阅读
评论