0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

魔搭社区借助NVIDIA TensorRT-LLM提升LLM推理效率

NVIDIA英伟达企业解决方案 来源:NVIDIA英伟达企业解决方案 2024-08-23 15:48 次阅读

“魔搭社区是中国最具影响力的模型开源社区,致力给开发者提供模型即服务的体验。魔搭社区利用NVIDIA TensorRT-LLM,大大提高了大语言模型的推理性能,方便了模型应用部署,提高了大模型产业应用效率,更大规模地释放大模型的应用价值。”

——周文猛,魔搭社区技术负责人,阿里巴巴通义实验室技术总监

魔搭上线 NVIDIA TensorRT-LLM

支持开源LLM 推理加速

魔搭社区于 2022 年 11 月初创建,首次在业界提出了 “模型即服务” (MaaS, Model as a Service) 的理念。在过去一年半的时间里,MaaS 这一理念不仅实现了技术落地,也被行业广泛接纳,并成为继 IaaS、PaaS、SaaS 服务的又一新的技术范式。

2023 年 7 月,Meta 宣布开源 Llama 2 模型,改变了整个大语言模型 (LLM) 行业的竞争格局。通过繁荣的开源生态,大语言模型迎来了群策群力的技术迭代和突破。

国内外优秀的大语言模型,如 ChatGLM、零一万物、书生·浦语系列、通义千问等,都将魔搭社区作为开源模型首发平台。魔搭社区成为了大模型发展的技术风向标,在中国的开发者群体中,形成了广泛的 “找模型,用模型,上魔搭社区” 的观念认同,从而建成了中国最大开源模型社区。

魔搭社区现在上线了 NVIDIA TensorRT-LLM,TensorRT-LLM 提供了易于使用的应用程序编程接口 (API),以定义和运行大语言模型,支持社区上的各类开源大语言模型 (LLM) 的推理加速。开发者仅通过简短几行代码即可将优化的模型部署到 GPU 上。

目前 NVIDIA TensorRT-LLM 在魔搭社区上已支持的模型类型和推理精度,几乎涵盖了所有主流的大语言/多模态模型以及常用的量化方法,包括 FP32、FP16、BF16、INT8 和 INT4,适用于不同的环境。

LLM 推理面临的挑战

计算资源消耗巨大:开源大语言模型参数规模越来越大,比如 Qwen1.5-110B 参数规模高达千亿级,对计算资源的需求庞大。在没有优化的情况下直接部署,不仅成本高昂,而且对硬件要求高。

推理延迟高:大语言模型的推理时间长,尤其是在实时交互式应用中,如聊天机器人、语音助手等,高延迟会严重影响用户体验。

能效比低:计算密集型工作流意味着更高的能耗,这对于追求绿色计算和可持续发展的现代数据中心而言是一个重要问题。

部署复杂度高:模型优化、适配不同硬件平台、以及持续维护升级等都是挑战,尤其对于非专业用户来说,部署一个高性能的语言模型服务并不容易。

NVIDIA TensorRT-LLM

如何提升 LLM 推理效率

极致性能优化:NVIDIA TensorRT-LLM 是基于 NVIDIA TensorRT API 生态系统构建的,专为大规模语言模型优化的推理引擎。它利用 GPU 的强大并行计算能力,通过算法优化、层融合、量化等技术显著减少模型推理所需的计算量和内存占用,从而提升推理速度,降低延迟。

高效率与低功耗:通过精心设计的优化策略,TensorRT-LLM 能够在不牺牲模型精度的前提下,大幅提高能效比,这对于数据中心的成本控制和环境友好至关重要。

简化部署流程:提供一键式的模型优化与部署工具,简化了从训练到推理的整个流程。即便是复杂的模型结构,开发者也能轻松地将其部署到 GPU 上,大大降低了技术门槛,加速了产品上市时间。

广泛兼容性与可扩展性:支持魔搭社区的多种主流的深度学习框架和开源模型架构,如 Transformer 系列模型。TensorRT-LLM 设计灵活,便于未来适应更多先进的模型技术和算法创新的更新,保持技术领先性。

在 NVIDIA TensorRT-LLM 和NVIDIA Triton 推理服务器的加持下,魔搭社区正在为开发者提供更为全面、高效、快捷的模型推理部署方案。未来,魔搭社区计划将在生成式 AI 的模型和软件加速库层面,与 NVIDIA 相关团队继续开展合作,推动大语言模型的广泛应用和落地。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4792

    浏览量

    102414
  • 模型
    +关注

    关注

    1

    文章

    3028

    浏览量

    48331
  • LLM
    LLM
    +关注

    关注

    0

    文章

    247

    浏览量

    278

原文标题:魔搭社区利用 NVIDIA TensorRT-LLM 加速开源大语言模型推理

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    NVIDIA Nemotron-4 340B模型帮助开发者生成合成训练数据

    Nemotron-4 340B 是针对 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 优化的模型系列,该系列包含最先进的指导和奖励模型,以及一个用于生成式 AI 训练的数据集。
    的头像 发表于 09-06 14:59 123次阅读
    <b class='flag-5'>NVIDIA</b> Nemotron-4 340B模型帮助开发者生成合成训练数据

    LLM大模型推理加速的关键技术

    LLM(大型语言模型)大模型推理加速是当前人工智能领域的一个研究热点,旨在提高模型在处理复杂任务时的效率和响应速度。以下是对LLM大模型推理
    的头像 发表于 07-24 11:38 474次阅读

    什么是LLMLLM的工作原理和结构

    随着人工智能技术的飞速发展,大型语言模型(Large Language Model,简称LLM)逐渐成为自然语言处理(NLP)领域的研究热点。LLM以其强大的文本生成、理解和推理能力,在文本
    的头像 发表于 07-02 11:45 4043次阅读

    NVIDIA加速微软最新的Phi-3 Mini开源语言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微软最新的 Phi-3 Mini 开源语言模型。TensorRT-LLM 是一个开源库,用于优化从 PC 到云端的
    的头像 发表于 04-28 10:36 385次阅读

    自然语言处理应用LLM推理优化综述

    当前,业界在将传统优化技术引入 LLM 推理的同时,同时也在探索从大模型自回归解码特点出发,通过调整推理过程和引入新的模型结构来进一步提升推理
    发表于 04-10 11:48 439次阅读
    自然语言处理应用<b class='flag-5'>LLM</b><b class='flag-5'>推理</b>优化综述

    利用NVIDIA产品技术组合提升用户体验

    本案例通过利用NVIDIA TensorRT-LLM加速指令识别深度学习模型,并借助NVIDIA Triton推理服务器在
    的头像 发表于 01-17 09:30 557次阅读

    如何在 NVIDIA TensorRT-LLM 中支持 Qwen 模型

    背景介绍 大语言模型正以其惊人的新能力推动人工智能的发展,扩大其应用范围。然而,由于这类模型具有庞大的参数规模,部署和推理的难度和成本极高,这一挑战一直困扰着 AI 领域。此外,当前存在大量支持模型
    的头像 发表于 12-04 20:25 783次阅读
    如何在 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT-LLM</b> 中支持 Qwen 模型

    点亮未来:TensorRT-LLM 更新加速 AI 推理性能,支持在 RTX 驱动的 Windows PC 上运行新模型

    微软 Ignite 2023 技术大会发布的新工具和资源包括 OpenAI Chat API 的 TensorRT-LLM 封装接口、RTX 驱动的性能改进 DirectML for Llama 2
    的头像 发表于 11-16 21:15 594次阅读
    点亮未来:<b class='flag-5'>TensorRT-LLM</b> 更新加速 AI <b class='flag-5'>推理</b>性能,支持在 RTX 驱动的 Windows PC 上运行新模型

    TensorRT-LLM初探(一)运行llama

    TensorRT-LLM正式出来有半个月了,一直没有时间玩,周末趁着有时间跑一下。
    的头像 发表于 11-16 17:39 1058次阅读
    <b class='flag-5'>TensorRT-LLM</b>初探(一)运行llama

    浅析tensorrt-llm搭建运行环境以及库

    之前玩内测版的时候就需要cuda-12.x,正式出来仍是需要cuda-12.x,主要是因为tensorr-llm中依赖的CUBIN(二进制代码)是基于cuda12.x编译生成的,想要跑只能更新驱动。
    的头像 发表于 11-13 14:42 2217次阅读
    浅析<b class='flag-5'>tensorrt-llm</b>搭建运行环境以及库

    Hugging Face LLM部署大语言模型到亚马逊云科技Amazon SageMaker推理示例

     本篇文章主要介绍如何使用新的Hugging Face LLM推理容器将开源LLMs,比如BLOOM大型语言模型部署到亚马逊云科技Amazon SageMaker进行推理的示例。我们将部署12B
    的头像 发表于 11-01 17:48 763次阅读
    Hugging Face <b class='flag-5'>LLM</b>部署大语言模型到亚马逊云科技Amazon SageMaker<b class='flag-5'>推理</b>示例

    现已公开发布!欢迎使用 NVIDIA TensorRT-LLM 优化大语言模型推理

    NVIDIA 于 2023 年 10 月 19 日公开发布 TensorRT-LLM ,可在 NVIDIA GPU 上加速和优化最新的大语言模型(Large Language Models)的
    的头像 发表于 10-27 20:05 791次阅读
    现已公开发布!欢迎使用 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT-LLM</b> 优化大语言模型<b class='flag-5'>推理</b>

    周四研讨会预告 | 注册报名 NVIDIA AI Inference Day - 大模型推理线上研讨会

    由 CSDN 举办的 NVIDIA AI Inference Day - 大模型推理线上研讨会,将帮助您了解 NVIDIA 开源大型语言模型(LLM
    的头像 发表于 10-26 09:05 278次阅读

    Nvidia 通过开源库提升 LLM 推理性能

    加利福尼亚州圣克拉拉——Nvidia通过一个名为TensorRT LLM的新开源软件库,将其H100、A100和L4 GPU的大型语言模型(LLM)
    的头像 发表于 10-23 16:10 519次阅读

    对比解码在LLM上的应用

    为了改进LLM推理能力,University of California联合Meta AI实验室提出将Contrastive Decoding应用于多种任务的LLM方法。实验表明,所提方法能有效改进
    发表于 09-21 11:37 492次阅读
    对比解码在<b class='flag-5'>LLM</b>上的应用