0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA全新Hopper架构H100 GPU芯片的特别之处

lPCU_elecfans 来源:电子发烧友网 作者:电子发烧友网 2022-03-26 10:45 次阅读

电子发烧友网报道(文/程文智)GTC大会自2020年开始举办后,成为了AI开发者非常关注的一个会议,每次会议,NVIDIA的CEO黄仁勋都会发布一个主题演讲,会介绍NVIDIA最新的进展,以及重磅新品。本次GTC 2022春季大会也不例外。

GTC2022依然是在线上举办,NVIDIA首席执行官黄仁勋在数字孪生技术支持下的虚拟NVIDIA总部大楼里发表了主题演讲。在他看来,随着AI技术的发展,AI的发展方向也在发生着改变,“第一波AI学习是感知和推理,比如图像识别、语音理解、推荐视频商品;下一波AI的发展方向将是机器人,也就是使用AI来规划行动,数字机器人、虚拟形象和实体机器人将完成感知、规划,并采取行动。”

AI正在各个方向加速发展,包括新的架构、新的学习策略、更大和更可靠的模型,同时,AI也在很多新的科学、新的应用、新的行业等方面加速发展。比如说,如今的AI不仅学习理解图像、声音和语言,还正在学习生物学、化学,甚至是量子物理学等等。

“数据中心规模的加速计算于机器学习相结合,可以将计算速度提高百万倍。正式由于加速计算的推动,像Transfermer这样的革命性AI模型和自监督学习成为了可能。”黄仁勋特别指出,“各公司都在处理和完善自己的数据、开发AI软件,并使自己成为智能的生产商。他们 数据中心正在逐步演变为AI工厂。”这也意味着AI工厂时代的来临。

为了应对AI工厂时代对AI的需求,NVIDIA带来了全新的Hopper架构H100 GPU芯片、Grace CPU超级芯片、DGX H100系统、DGX SuperPOD、融合加速器H100 CNX、AI 超级计算机NVIDIA Eos、Spectrum-4、Jetson AGX Orin开发者套件等一系列新品。下面就让我们来看一看这些新品都有什么特别之处。

H100 GPU:全新Hopper架构,800亿个晶体管

NVIDIA H100 GPU集成了800亿个晶体管,它也是NVIDIA发布的首款采用Hopper架构的GPU。Hopper架构是以美国计算机领域的先驱科学家Grace Hopper 的名字命名的,它将取代两年前推出的 NVIDIA Ampere架构。

据黄仁勋介绍,H100 是全球范围内最大的性能出众的加速器,拥有革命性的 Transformer 引擎和高度可扩展的 NVIDIA NVLink互连技术等突破性功能,可推动庞大的 AI 语言模型、深度推荐系统、基因组学和复杂数字孪生的发展。

从技术角度来看,H100带来了6项突破性创新:

强大的性能 —— H100 由 800 亿个晶体管构建而成,这些晶体管采用了专为 NVIDIA 加速计算需求设计的TSMC 4N工艺,因而能够显著提升AI、HPC、显存带宽、互连和通信的速度,并能够实现近 5TB/s 的外部互联带宽。H100 是首款支持 PCIe 5.0 的 GPU,也是首款采用 HBM3 的 GPU,可实现 3TB/s 的显存带宽。20个 H100 GPU 便可承托相当于全球互联网的流量,使其能够帮助客户推出先进的推荐系统以及实时运行数据推理的大型语言模型。

新的 Transformer 引擎 —— Transformer 现在已成为自然语言处理的标准模型方案,也是深度学习模型领域最重要的模型之一。H100 加速器的 Transformer 引擎旨在不影响精度的情况下,将这些网络的速度提升至上一代的六倍。

第二代安全多实例 GPU —— MIG 技术支持将单个 GPU 分为七个更小且完全独立的实例,以处理不同类型的作业。与上一代产品相比,在云环境中 Hopper 架构通过为每个 GPU 实例提供安全的多租户配置,将 MIG 的部分能力扩展了 7 倍。

机密计算 —— H100 是全球首款具有机密计算功能的加速器,可保护 AI 模型和正在处理的客户数据。客户还可以将机密计算应用于医疗健康和金融服务等隐私敏感型行业的联邦学习,也可以应用于共享云基础设施。

第 4 代 NVIDIA NVLink —— 为加速大型 AI 模型,NVLink 结合全新的外接 NVLink Switch,可将 NVLink 扩展为服务器间的互联网络,最多可以连接多达 256 个 H100 GPU,相较于上一代采用 NVIDIA HDR Quantum InfiniBand网络,带宽高出9倍。

DPX 指令 —— 新的 DPX 指令可加速动态规划,适用于包括路径优化和基因组学在内的一系列算法,与 CPU 和上一代 GPU 相比,其速度提升分别可达 40 倍和 7 倍。Floyd-Warshall 算法与 Smith-Waterman 算法也在其加速之列,前者可以在动态仓库环境中为自主机器人车队寻找最优线路,而后者可用于 DNA 和蛋白质分类与折叠的序列比对。

具体来说,H100 将支持聊天机器人使用功能超强大的monolithic Transformer 语言模型 Megatron 530B,吞吐量比上一代产品高出 30 倍,同时满足实时对话式 AI 所需的次秒级延迟。利用 H100,研究人员和开发者能够训练庞大的模型,如包含 3950 亿个参数的混合专家模型,训练速度加速高达9倍,将训练时间从几周缩短到几天。

H100将提供SXM和PCIe两种规格,可满足各种服务器设计需求。NVIDIA H100 SXM 提供 4 GPU 和 8 GPU 配置的 HGX H100 服务器主板,主要用于高性能服务器,可助力企业将应用扩展至一台服务器和多台服务器中的多个 GPU。H100 PCIe相对来说更加实惠,用于主流服务器。与上一代相比,这两种外形尺寸的功率要求都显著提高。

NVIDIA为SXM版本的显卡提供了700W TDP,比A100官方的400W TDP高出了75%。官方推荐的冷却方式是风冷和液冷两种。但在如此功率下,估计液冷会更受用户青睐,毕竟这个价格不菲,要是由于散热问题而导致出问题就不划算了。

同时,H100 PCIe卡的TDP提高到了350W,冷却方式也是风冷和液冷两种。当然,如果像降低散热压力,也可以通过配置方式来降低显卡的功耗,只是这么做就要牺牲一些性能了。

为了将Hopper的强大算力引入主流服务器,英伟达推出了全新的融合加速器H100 CNX。它将网络与GPU直接相连,耦合H100 GPU与英伟达ConnectX-7 400Gb/s InfiniBand和以太网智能网卡,使网络数据通过DMA以50GB/s的速度直接传输到H100,能够避免带宽瓶颈,为I/O密集型应用提供更强劲的性能。

Grace CPU超级芯片:144个CPU核心

除了GPU产品,NVIDIA还发布了其第一款转为数据中心设计的,基于Arm Neoverse的数据中心专属CPU------ Grace CPU超级芯片,其可提供最高的性能,是当今领先服务器芯片内存带宽和能效的两倍。

NVIDIA Grace CPU超级芯片由两个CPU芯片组成,它们之间通过NVLink-C2C互连在一起。NVLink-C2C 是一种新型的高速、低延迟、芯片到芯片的互连技术。

Grace CPU超级芯片是去年NVIDIA发布的首款由 CPU-GPU 集成的“Grace Hopper 超级芯片”的模块,它将与基于 NVIDIA Hopper架构的 GPU一同应用于大型 HPC 和AI 应用。这两款超级芯片采用相同的底层 CPU 架构及 NVLink-C2C 互连。

Grace CPU 超级芯片专为提供最高的性能而打造,能够在单个插座(socket)中容纳 144 个 Arm 核心。NVIDIA宣称,在SPECrate 2017_int_base基准测试中,Grace CPU超级芯片的模拟性能得分为740,据NVIDIA实验室使用同类编译器估算,这一结果相比当前DGX A100搭载的双CPU高1.5倍以上。

Grace CPU 超级芯片依托带有纠错码的LPDDR5x 内存组成的创新的内存子系统,可实现速度和功耗的最佳平衡。LPDDR5x 内存子系统提供两倍于传统DDR5设计的带宽,可达到每秒1 TB ,同时功耗也大幅降低 ,CPU加内存整体功耗仅500瓦。

此外,Grace CPU 超级芯片基于最新的数据中心架构 Arm v9,具备最高的单线程核心性能,并支持 Arm 新一代矢量扩展。

Grace CPU超级芯片可运行所有的英伟达计算软件栈,结合NVIDIA ConnectX-7网卡,能够灵活地配置到服务器中,或作为独立的纯CPU系统,或作为GPU加速服务器,可以搭配1块、2块、4块或8块基于Hopper的GPU。

也就是说,用户只维护一套软件栈,就能针对自身特定的工作负载做好性能优化。

NVIDIA正在通过 Grace CPU超级芯片扩展其目标市场,现在涵盖超大规模计算、云、数据分析、HPC 和 AI 工作负载,有效地瞄准了通用服务器市场。Grace CPU超级芯片支持NVIDIA的整个CUDA 堆栈,并将运行NVIDIA的所有应用程序,包括NVIDIA RTX、NVIDIA AI、HPC 和 Omniverse。

关于出货方面,Grace CPU超级芯片将于 2023 年上半年开始出货。

DGX H100系统:企业级AI基础设施

第四代 NVIDIA DGX系统,是全球首个基于全新 NVIDIA H100 Tensor Core GPU的AI平台。该系统能够满足大型语言模型、推荐系统、医疗健康研究和气候科学的大规模计算需求。每个 DGX H100 系统配备8块 NVIDIA H100 GPU,并由 NVIDIA NVLink 连接,能够在新的 FP8 精度下达到 32 Petaflop 的 AI 性能,比上一代系统性能高 6 倍。

DGX H100 系统是新一代 NVIDIA DGX POD 和 NVIDIA DGX SuperPOD AI 基础设施平台的构建模块。新的 DGX SuperPOD 架构采用了一个全新的 NVIDIA NVLink Switch 系统,通过这一系统最多可连接 32 个节点,总计 256 块 H100 GPU。 新一代 DGX SuperPOD 提供 1 Exaflops 的 FP8 AI 性能,比上一代产品性能高 6 倍,能够运行具有数万亿参数的庞大 LLM 工作负载,从而推动 AI 的前沿发展。 NVIDIA 创始人兼首席执行官黄仁勋表示:“AI 已经从根本上改变了软件的功能和产出方式。利用 AI 来革新自身所处行业的公司也意识到了自身 AI 基础设施的重要性。NVIDIA 全新 DGX H100 系统将赋能企业 AI 工厂,助力其从数据中提炼出我们最具价值的资源,即‘智能’。"

除了8块 H100 GPU 以及总计 6400 亿个晶体管之外,每个 DGX H100 系统还包含两个 NVIDIA BlueField-3 DPU,以用于卸载、加速和隔离高级网络、存储及安全服务。

8个 NVIDIA ConnectX-7 Quantum-2 InfiniBand 网卡能够提供 400 GB/s 的吞吐量,可用于连接计算和存储,这一速度比上一代系统提升了一倍。第四代 NVLink 与 NVSwitch相结合,能够在每个 DGX H100 系统中的各个 GPU 之间实现 900 GB/s 的连接速度,是上一代系统的 1.5 倍。 DGX H100 系统使用双 x86 CPU,能够与 NVIDIA 网络和 NVIDIA 合作伙伴提供的存储设备相结合,使 DGX POD 能够灵活用于各种规模的 AI 计算。 借助 DGX H100 系统,DGX SuperPOD 可成为具有可扩展性的卓越的企业级 AI 中心。DGX SuperPOD 中的 DGX H100 节点和 H100 GPU 由 NVLink Switch 系统和 NVIDIA Quantum-2 InfiniBand 连接,带宽速度可达 70 TB/s,比上一代产品高 11 倍。NVIDIA 合作伙伴提供的存储设备将经过测试和认证,以满足 DGX SuperPOD AI 计算的需求。

多个 DGX SuperPOD 单元可组合使用,为汽车、医疗健康、制造、通信、零售等行业提供开发大型模型所需的 AI 性能。

NVIDIA Eos:运行速度最快的超计算机

NVIDIA 将使用突破性的新型 AI 架构来构建 DGX SuperPOD,赋能 NVIDIA 研究人员的研究工作,推动气候科学、数字生物学和 AI 未来的发展。 “Eos”超级计算机将于今年晚些时候开始运行,共配备 576 台 DGX H100 系统,共计 4608 块 DGX H100 GPU,有望成为全球运行速度最快的 AI 系统。 NVIDIA Eos 预计将提供 18.4 Exaflops 的 AI 计算性能,比日本的 Fugaku 超级计算机快 4 倍,后者是目前运行速度最快的系统。在传统的科学计算方面,Eos 预计将提供 275 Petaflop 的性能。 对于 NVIDIA 及其 OEM 和云计算合作伙伴,Eos 将成为其先进 AI 基础设施的蓝图。

其他新品

NVIDIA早已经不是一个单纯的芯片供应商了,它们已经转型成了一个全栈公司,除了GPU之外,还提供CPU、DPU产品,甚至还会跟很多OEM等合作伙伴,把整个系统都做出来,而且提供各种加速引擎,或者SDK,针对不同的领域提供不同的解决方案。比如医疗领域的Clara、智慧城市的Metropolis,自动驾驶领域的Drive等等。

在本次GTC大会上,NVIDIA也介绍了相关行业的一些解决方案,比如Clara Holoscan MGX,这是一个可供医疗设备行业在边缘开发和部署实时 AI 应用的平台,专为满足必要的监管标准而设计。

Clara Holoscan MGX 能够扩展 Clara Holoscan 平台,提供一体化的医疗级参考架构以及长期软件支持,以加速医疗设备行业的创新。它通过处理高吞吐量数据流来提供实时洞见,将最新的传感器创新带到了边缘计算。从机器人手术到研究生物学的新方法,外科医生和科学家需要医疗设备逐步发展成为持续传感系统,进而更好地推动疾病的研究和治疗。

Clara Holoscan MGX 将高性能 NVIDIA Jetson AGX Orin 工业级模块、NVIDIA RTX A6000 GPU 和 NVIDIA ConnectX-7 智能网卡整合到一个可扩展的 AI 平台中,提供高达每秒 254-619 万亿次运算的 AI 性能。 对于高吞吐量设备,ConnectX-7 能够提供高达 200 GbE 的带宽以及用于 GPU 处理的 GPUDirect RDMA 路径,有助于加快处理速度。它还集成了最新嵌入式安全模块,该模块包含负责监控关键操作、提供远程软件更新和系统恢复的控制器,以及可实现最先进嵌入式安全的硬件信任根。 医疗设备制造商可以直接嵌入 Clara Holoscan MGX,或将其连接到现有的医疗设备安装平台,从而使开发者能够加速 AI 部署和监管审批。 Clara Holoscan SDK 专为高性能流式数据应用程序而设计,用于构建新一代软件定义设备。它汇集了预训练模型和可扩展微服务框架,允许在设备和边缘数据中心管理和部署应用程序,开创了行业的软件即服务业务模式。Clara Holoscan 开发者套件现已开始供货。

此外,NVIDIA还发布了60多个针对CUDA-X的一系列库、工具和技术的更新,以加速量子计算和6G研究、网络安全、基因组学、药物研发等领域的研究进展。

来自NVIDIA、加州理工学院、伯克利实验室、普渡大学、密歇根大学和莱斯大学的研究人员,开发了一个名为FourCastNet的天气预报AI模型。FourCastNet是一种基于物理信息的深度学习模型,可以预测飓风,大气河、以及极端降水等天气事件。

FourCastNet以欧洲中期天气预报中心长达40年的模拟增强型真值数据为基础,学会了如何预测天气。深度学习模型首次在降水预测方面达到了比先进的数值模型更高的准确率和技能,并使预测速度提高了4到5个数量级。也就是说传统的数值模拟需要一年的时间,而现在只需要几分钟。

大气河是天空中巨大的水汽河流,每条河流的水量都比亚马逊河的还要多。他们一方面为美国西部提供了关键的降水来源,但另一方面,这些巨大的强风暴也会导致灾难性的洪灾和暴雪。

NVIDIA创建了Physics-ML模型,该模型可以模拟全球天气模式的动态变化。以超乎想象的速度和准确性预测大气河等极端天气事件。此GPU加速的AI数字孪生模型名为FourCastNet,由傅里叶神经算子提供动力支持,基于10TB的气球系统数据进行训练,依托这些数据,以及NVIDIA Modulus和Omniverse,我们能够提前一周预测灾难性大气河的精确路线,在一个NVIDIA GPU的助力下,FourCastNet只需要几分之一秒即可完成预测。

在黄仁勋看来,Transformer模型开启了自监督学习,并解除了人工标记数据的需求。因此,我们可以使用庞大的训练集来训练Transformer模型,学习更充分且可靠的特征。

得益于Transformer,模型和数据的规模皆已扩大增长,而模型技能和准确性也因此快速提升。用于语言理解的Google BERT,用于药物研发的NVIDIA MegaMolBart,以及DeepMind的AlphaFold,都是基于Transformer模型的突破性成果。

NVIDIA Triton是一款开源的、超大规模的模型推理服务器,是AI部署的“中央车站”,Triton支持在每一代NVIDIA GPU、X86和Arm CPU上部署模型,并具备支持AWS Inferentia等加速器的接口。Triton支持各类模型:CNN、RNN、Transformer、GNN、决策树,还支持各类框架:TensorFlow、PyTorch、Python、ONNX、XGBoost;Triton支持各类查询类型:实时、离线、批处理,或串流视频和音频

Triton支持各类机器学习平台:AWS、Azure、Google、阿里巴巴、VMWare、Domino Data Lab、OctoML等。

Triton可以在各个地方运行,云、本地、边缘或嵌入式设备。

Amazon Shopping正在使用Triton进行实时拼写检查,而微软正藉由Triton为翻译服务提供支持,Triton已经被25000位客户下载超过100万次。

NVIDIA Riva是一种先进且基于深度学习的端到端语音AI,它可以自定义调整优化。Riva已经过预训练,具有世界一流的识别率,客户可以使用定制数据调优。使其学习行业、国家和地区,或公司的特定话术。黄仁勋认为,Riva是对话式AI服务的理想选择。

Maxine是一个AI模型工具包,现已拥有30个先进模型,可优化实时视频通信的视听效果。比如开远程视频会议时,Maxine可实现说话者与所有参会者保持眼神交流,并能将说的语言实时切换成另一种语言,而且音色听起来不变。

还有面向推荐系统的AI框架Merlin的1.0版本,Merlin可帮助企业快速构建、部署和扩展先进的AI推荐系统。比如,微信用Merlin将短视频推荐延迟缩短为原来的1/4,并将吞吐量提升了10倍。从CPU迁移至GPU,腾讯在该业务上的成本减少了1/2。

以及Omniverse,在黄仁勋看来,作为虚拟世界的仿真引擎,Omniverse平台能遵循物理学定律,构建一个趋真的数字世界,可以应用于使用不同工具的设计师之间的远程协作,以及工业数字孪生。

用于构建数字挛生的NVIDIA Omniverse 软件,以及全新数据中心NVIDIA OVX系统,将成为“以行动为导向的AI"的组成部分。

"Omniverse是我们机器人平台的核心。像 NASA和亚马逊一样,我们和机器人以及工业自动化领域的客户都意识到了数字挛生和Omniverse 的重要性。"

黄仁勋解释说,OVX将使用Omniverse数字挛生进行大规模模拟,使多个自主系统在同一时空运行。

OVX 的骨干是其网络编织架构,为此他发布了NVIDIA Spectrum-4高性能数据基础架构平台。

全球首400Gbps端到端网络平台NVIDIA Spectrum -4由Spectrum-4 交换机系列、NVIDIA ConnectX-7 SmartNIC、NVIDIA BlueField-3 DPU 和 NVIDIA DOCA 数据中心基础设施软件组成。

为了让更多的用户能够使用Omniverse, 黄仁勋发布了Omniverse Cloud。现在只需简单的点击操作,协作者就可以通过云端Omniverse 进行连接。

另外,黄仁勋认为下一波AI浪潮是机器人,NVIDIA正在构建多个机器人平台,包括用于自动驾驶汽车的DRIVE、用于操纵和控制系统的Isaac、用于自主式基础架构的Metropolis、用于医疗设备的Holoscan等。

原文标题:AI工厂时代来临,黄教主带来全新Hopper架构GPU、超级计算机和软件等新品

文章出处:【微信公众号:电子发烧友网】欢迎添加关注!文章转载请注明出处。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4981

    浏览量

    103000
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4729

    浏览量

    128902
  • 晶体管
    +关注

    关注

    77

    文章

    9684

    浏览量

    138105
  • AI
    AI
    +关注

    关注

    87

    文章

    30763

    浏览量

    268914
  • H100
    +关注

    关注

    0

    文章

    31

    浏览量

    287

原文标题:​AI工厂时代来临,黄教主带来全新Hopper架构GPU、超级计算机和软件等新品

文章出处:【微信号:elecfans,微信公众号:电子发烧友网】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    USB AOC线缆有哪些特别之处

    USB AOC(有源光缆)是结合了光纤的线缆,用于长距离、高速数据传输。与传统的铜质USB线缆相比,USB AOC线缆具有许多特别之处,适用于多种应用场景。本期我们将围绕USB AOC线缆进行详细解析。
    的头像 发表于 12-04 11:44 232次阅读

    东京裸机云大宽带服务器的特别之处

    东京裸机云大宽带服务器,作为亚洲地区重要的数据中心节点,凭借其卓越的性能和配置,正逐步成为企业和个人用户的优选。那么,它究竟有何特别之处呢?
    的头像 发表于 12-02 09:44 82次阅读

    《算力芯片 高性能 CPUGPUNPU 微架构分析》第3篇阅读心得:GPU革命:从图形引擎到AI加速器的蜕变

    在数据挖掘工作中,我经常需要处理海量数据的深度学习任务,这让我对GPU架构和张量运算充满好奇。阅读《算力芯片》第7-9章,让我对这些关键技术有了全新认识。
    发表于 11-24 17:12

    英伟达H100芯片市场降温

    随着英伟达新一代AI芯片GB200需求的不断攀升,其上一代明星产品H100芯片却遭遇了市场的冷落。据业内人士透露,搭载H100的服务器通常以8卡的形式进行出售或出租,而在去年,这类服务
    的头像 发表于 10-28 15:42 522次阅读

    英伟达Blackwell架构,行业首选

    ,到2022年的Hopper,再到2024年的Blackwell,每次的革新都为AI应用带来了巨大的飞跃。以H100为例,作为Hopper架构的代表,市场反响热烈;而B200作为Bla
    的头像 发表于 06-05 15:28 641次阅读

    进一步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片

    H100 Tensor Core GPU 快 6 倍。 采用液体冷却的 GB200 计算托盘可实现高能效和高计算精密度 NVIDIA GB200 Grace Blackwell超级芯片
    发表于 05-13 17:16

    NVIDIA推出两款基于NVIDIA Ampere架构全新台式机GPU

    两款 NVIDIA Ampere 架构 GPU 为工作站带来实时光线追踪功能和生成式 AI 工具支持。
    的头像 发表于 04-26 11:25 621次阅读

    英特尔发布人工智能芯片新版,对标Nvidia

    为应对AI行业对高性能芯片的巨大需求,英特尔推出了全新Gaudi 3芯片,据称这一款芯片在训练大语言模型方面的速度较之NVIDIA最新
    的头像 发表于 04-10 09:26 360次阅读

    英伟达发布超强AI加速卡,性能大幅提升,可支持1.8万亿参数模的训练

    得益于NVIDIA每两年进行一次GPU架构升级以提高性能的策略,全新的基于Blackwell的加速卡比之前的H100更为强大,尤其适用于AI
    的头像 发表于 03-19 12:04 789次阅读

    英伟达H200和H100的比较

    英伟达H200和H100是两款不同的AI芯片,它们各自具有独特的特点和优势。以下是关于这两款芯片的一些比较。
    的头像 发表于 03-07 15:53 4609次阅读

    H100 GPU供应改善,AI市场需求依旧强劲

    值得注意的是,H100 GPU的供求关系已经缓解,且维护成本高起,部分客户正在置换这类硬件以转向云服务,这种转变在过去的市场紧缩中很少见到。同时,市场上虽然有其他选择如AMD的MI300 GPU,性能稳定且价格低廉。
    的头像 发表于 02-29 16:10 701次阅读

    NVIDIA的Maxwell GPU架构功耗不可思议

    整整10年前的2013年2月19日,NVIDIA正式推出了新一代Maxwell GPU架构,它有着极高的能效,出场方式也非常特别
    的头像 发表于 02-19 16:39 1015次阅读
    <b class='flag-5'>NVIDIA</b>的Maxwell <b class='flag-5'>GPU</b><b class='flag-5'>架构</b>功耗不可思议

    巨头豪购35万块NVIDIA最强GPU H100

    NVIDIA AI GPU无疑是当下的硬通货,从科技巨头到小型企业都在抢。
    的头像 发表于 01-29 09:58 1091次阅读
    巨头豪购35万块<b class='flag-5'>NVIDIA</b>最强<b class='flag-5'>GPU</b> <b class='flag-5'>H100</b>

    鸿蒙系统和安卓的区别 鸿蒙系统有什么特别之处

    鸿蒙系统是华为公司自主研发的一款全新操作系统,旨在替代安卓系统。鸿蒙系统与安卓系统在多个方面存在不同,下面将详细介绍鸿蒙系统与安卓系统的区别以及鸿蒙系统的特别之处。 一、架构差异: 鸿蒙系统采用
    的头像 发表于 01-18 11:45 1.2w次阅读

    NVIDIA GPU因出口管制措施推迟发布

    据之前所披露的详细数据,英伟达HGX H20虽属与H100H200同系列,共享英伟达Hopper架构,但拥有高达96GB的HBM3显存及4
    的头像 发表于 01-03 09:25 740次阅读
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>GPU</b>因出口管制措施推迟发布