0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

RTX AI PC和工作站提供强大AI性能

NVIDIA英伟达 来源:NVIDIA英伟达 2024-08-23 16:57 次阅读

由 NVIDIA RTX 和 GeForce RTX 技术驱动的 AI PC 时代已经到来。在这一背景下,一种评估 AI 加速性能的新方法应运而生,同时还带来了一套新术语,这套术语成了用户选择台式电脑和笔记本电脑的参考标准。

虽然 PC 游戏玩家了解每秒帧数(FPS)及类似的统计数据,但衡量 AI 性能需要新的指标。

TOPS 脱颖而出

TOPS,即每秒万亿次运算是首要的基准指标。“万亿”是这里的关键词:生成式 AI 任务背后的处理运算量是巨大的。您可以将 TOPS 视为原始性能指标,类似于发动机的额定功率。这个数值自然是越大越好。

例如,比较一下微软最近发布的 Windows 11 AI PC,其中就包含每秒至少可执行 40 万亿次运算的神经处理单元(NPU)。40 TOPS 的算力足以胜任一些轻量级 AI 辅助任务,例如询问本地聊天机器人昨天的笔记在哪里。

但许多生成式 AI 的算力需求远不止于此。NVIDIA RTX 和 GeForce RTX GPU 可在所有生成式任务中提供卓越的性能,其中 GeForce RTX 4090 GPU 的算力可达 1177 TOPS。这就是处理 AI 辅助数字内容创作(DCC)、PC 游戏 AI 超分辨率、根据文本或视频生成图像、与本地大语言模型(LLM)交互等任务所需的算力。

以 Token 衡量性能

TOPS 只是一项基础衡量指标。LLM 的性能以模型生成的 Token 数量来衡量。

Token 是 LLM 的输出,它可以是句子中的一个词,甚至可以是标点符号或空格这类更小的片段。AI 加速任务的性能可以用“每秒 Token 数”来衡量。

另一个重要因素则是 batch size,也就是在一次推理过程中可同时处理的输入数量。由于大语言模型(LLM)是许多现代 AI 系统的核心,处理多个输入(例如来自单个应用或跨多个应用)的能力将成为关键的差异化因素。虽然较大的 batch size 可以提升并发输入的性能,但也需要占用更多的内存,尤其是运行较大的模型时。

RTX GPU 非常适合 LLM,因为它们拥有大量专用的显存(VRAM)、Tensor Core 和 TensorRT-LLM 软件。

GeForce RTX GPU 最多可提供 24GB 的高速 VRAM,而 NVIDIA RTX GPU 最多可提供 48GB 的高速 VRAM,可支持更大的模型和更大的 batch size。RTX GPU 还可利用 Tensor Core,这是一种专用的 AI 加速器,可显著加速深度学习和生成式 AI 模型中的计算密集型运算。应用在使用 NVIDIA TensorRT 软件开发套件(SDK)的情况下可轻松实现超高性能。该套件可在超过 1 亿台由 RTX GPU 驱动的 Windows PC 和工作站上解锁超高性能生成式 AI。

结合了大显存、专用 AI 加速器和优化的软件,RTX GPU 的吞吐量得到了巨大提升,尤其是在 batch size 增加的情况下。

文本生图像,速度超以往

测量图像生成速度是评估性能的另一种方法。最直接的一个方法是使用 Stable Diffusion,这是一种基于图像的热门 AI 模型,可让用户轻松地将文本描述转换为复杂的视觉画面。

借由 Stable Diffusion,用户可以通过输入关键词快速获得想要的图像相比于 CPU 或 NPU,使用 RTX GPU 运行 AI 模型时可以更快生成所需结果。

在热门的 Automatic1111 界面使用 TensorRT 扩展程序时,相应性能表现甚至会更好。借助 SDXL 模型,RTX 用户通过提示生成图像的速度至多可提升至原来的 2 倍,这可大幅简化 Stable Diffusion 工作流。

另一个热门的 Stable Diffusion 用户界面 ComfyUI 在上周也支持了 TensorRT 加速。现在,RTX 用户文生图的速度可提升多达 60%。RTX 用户还可使用 Stable Video Diffusion 将这些图像转换为视频,在 TensorRT 的助力下,转换速度甚至可提升多达 70%。

全新的 UL Procyon AI 图像生成基准测试现已支持 TensorRT 加速。与最快的非 TensorRT 加速状态相比,TensorRT 加速可在 GeForce RTX 4080 SUPER GPU 上带来 50% 的速度提升。

适用于 Stable Diffusion 3 的 TensorRT 加速近期发布,前者是 Stability AI 备受期待的全新文本转图像模型。此外,全新的 TensorRT-Model Optimizer 可进一步提升性能。与非 TensorRT 加速状态相比,它可带来显著的速度提升,同时减少显存消耗。

当然,眼见方能为实。真正的考验来自于不断迭代提示词这种真实场景。在 RTX GPU 上,用户通过改进提示词来优化图像的速度可得到显著提升,每次迭代只需数秒即可完成。而在 Macbook Pro M3 Max 上,完成相同的迭代需要耗费数分钟。此外,如果在由 RTX 驱动的 PC 或工作站上本地运行,用户可以同时享受到速度和安全性方面的优势,并让所有内容保持私密。

测试结果出炉,相关技术开源

不过,且不要仅听我们的一面之词。开源的 Jan.ai 背后的 AI 研究人员和工程师团队最近将 TensorRT-LLM 集成到了其本地聊天机器人应用中,然后亲自测试了这些优化效果。

研究人员在社区使用的各种 GPU 和 CPU 上,以开源的 llama.cpp 推理引擎为对照,测试了 TensorRT-LLM 的实际表现。他们发现 TensorRT“在相同硬件上比 llama.cpp 快 30-70%”,并且在进行连续处理时效率更高。该团队还提供了测试方法,邀请其他人亲自测试生成式 AI 的性能。

无论是游戏还是生成式 AI,速度才是其致胜法宝。在确定性能冠军时,TOPS、每秒 Token 数和 batch size 均需纳入考量。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4792

    浏览量

    102414
  • PC
    PC
    +关注

    关注

    9

    文章

    2028

    浏览量

    153517
  • 内存
    +关注

    关注

    8

    文章

    2901

    浏览量

    73509
  • AI
    AI
    +关注

    关注

    87

    文章

    28791

    浏览量

    266101

原文标题:解码 RTX AI PC 和工作站上的 AI 性能

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    NVIDIA RTX AI套件简化AI驱动的应用开发

    NVIDIA 于近日发布 NVIDIA RTX AI套件,这一工具和 SDK 集合能够帮助 Windows 应用开发者定制、优化和部署适用于 Windows 应用的 AI 模型。该套件免费提供
    的头像 发表于 09-06 14:45 222次阅读

    宁畅推出自驱式相变液冷AI工作站

    6月25日至6月27日,第五届中国智算中心全栈技术大会暨中国数据中心绿色能源大会于上海召开。宁畅现场发布了自驱式相变液冷AI工作站,并发表了《人工智能服务器液冷设计典型特点及趋势》主题演讲。本次发布
    的头像 发表于 07-01 16:26 623次阅读

    AMD Radeon PRO W7900双槽工作站显卡发布上市

    的高性能平台进行了优化,可为专业设计人员以及AI开发人员提供强大的,可扩展的专业解决方案。   其核心功能特性如下: 卓越的性能:配备了96
    的头像 发表于 06-29 15:23 480次阅读

    技嘉推出全新AMD Radeon PRO W7000系列工作站显卡

    随着技术的不断进步,工作站显卡在专业人士、创作者和AI开发人员中的需求日益增长。为了满足这一市场需求,技嘉于6月22日正式推出了全新的AMD Radeon PRO W7000系列工作站显卡,两款主力
    的头像 发表于 06-22 11:51 965次阅读

    AI PC:真正的AI PC,敢于下场

    在过去的半年里,我们无一不在聆听关于人工智能(AIPC的种种声音,然而当步入现实生活时,恐怕仍有众多读者对此感到迷茫:这些AI PC究竟具有哪些A
    的头像 发表于 06-11 15:02 523次阅读

    宁畅推出首款专业级AI桌面工作站W350 G50

    宁畅近日推出了其首款专业级AI桌面工作站W350 G50,此举标志着智算中心的概念已延伸至桌面端。这款工作站集成了NVIDIA RTX™ Ada架构GPU,为用户
    的头像 发表于 06-06 09:25 552次阅读

    技嘉科技与英伟达携手打造全新高阶RTX AI PC体验

     在科技日新月异的今天,高性能计算与人工智能的结合已成为行业发展的重要趋势。技嘉科技,作为全球知名的电脑硬件制造商,与英伟达这一图形处理器领域的佼佼者,共同布署了全线高阶RTX AI PC
    的头像 发表于 06-05 16:15 589次阅读

    NVIDIA推出用于支持在全新GeForce RTX AI笔记本电脑上运行的AI助手及数字人

    RTX 支持的 AI 助手技术演示 Demo,可为 PC 游戏和应用提供上下文感知帮助。G-Assist 项目的技术 Demo 将首度亮相于 Studio Wildcard 推出的《
    的头像 发表于 06-04 10:19 562次阅读

    惠普推出多款商用AI PC新品

    惠普近日发布了一系列商用AIPC新品及创新AI服务,以满足不同企业的需求。新品阵容中,EliteBook系列高端AI商务本专为大型企业用户量身打造,而针对中小型企业,惠普推出了战系列AI商务本。同时,针对算力需求较高的用户,惠普
    的头像 发表于 05-11 09:21 344次阅读

    全新NVIDIA RTX A400和A1000 GPU全面加强AI设计与生产力工作

    两款 NVIDIA Ampere 架构 GPU 为工作站带来实时光线追踪功能和生成式 AI 工具支持。
    的头像 发表于 04-18 10:29 332次阅读

    惠普推出新一代AI游戏本,并计划推出首个AI PC本地AI解决方案

    近日,惠普发布了新一代AI游戏笔记本电脑,这些新款笔记本在性能AI功能方面都有显著提升。其中,14英寸暗影精灵10 SLIM被公认为惠普目前最轻的游戏笔记本,它搭载了酷睿Ultra 7-155H处理器和
    的头像 发表于 01-22 15:58 773次阅读

    全面解析CPU和工作站的大比拼

    配备第13代酷睿移动CPU的戴尔Precision 5680。在当今的工作站市场中,移动工作站的出货量超过固定工作站约 45%–55%,这与 2010 年代形成鲜明对比,当时固定工作站
    发表于 01-16 11:46 853次阅读
    全面解析CPU和<b class='flag-5'>工作站</b>的大比拼

    AI PC是什么?如何变革PC产业(2023)

    AI PC整合了轻量化AI模型,将实现各种生成式AI应用的离线稳态运行。作为设备、边缘计算和云技术的混合体,AI
    的头像 发表于 12-27 17:37 1292次阅读
    <b class='flag-5'>AI</b> <b class='flag-5'>PC</b>是什么?如何变革<b class='flag-5'>PC</b>产业(2023)

    AI PC:深入变革PC产业(2023)

    软件方面,AI PC整合了轻量化AI模型,将实现各种生成式AI应用的离线稳态运行。作为设备、边缘计算和云技术的混合体,AI
    的头像 发表于 11-22 17:48 1829次阅读
    <b class='flag-5'>AI</b> <b class='flag-5'>PC</b>:深入变革<b class='flag-5'>PC</b>产业(2023)

    点亮未来:TensorRT-LLM 更新加速 AI 推理性能,支持在 RTX 驱动的 Windows PC 上运行新模型

    的 Windows PC工作站提高生产力带来前所未有的机会。NVIDIA RTX 技术使开发者更轻松地创建 AI 应用,从而改变人们使用计算机的方式。 在微软 Ignite 20
    的头像 发表于 11-16 21:15 594次阅读
    点亮未来:TensorRT-LLM 更新加速 <b class='flag-5'>AI</b> 推理<b class='flag-5'>性能</b>,支持在 <b class='flag-5'>RTX</b> 驱动的 Windows <b class='flag-5'>PC</b> 上运行新模型