0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA发布Riva语音AI和大型LLM软件

星星科技指导员 来源:NVIDIA 作者:Siddharth Sharma 2022-04-01 16:27 次阅读

NVIDIA 发布了 NVIDIA Riva 在语音人工智能方面的新突破, NVIDIA NeMo 在大规模语言建模( LLM )方面的新突破。 Riva 是一款 GPU 加速语音人工智能 SDK ,用于企业为其品牌和虚拟助手生成富有表现力的类人语音。 NeMo 是语音和 NLU 的加速培训框架,它现在有能力开发具有数万亿参数的大规模语言模型。

语音和语言人工智能的这些进步使企业和研究机构能够轻松构建针对其行业和领域定制的最先进的对话人工智能功能。

英伟达 Riva

NVIDIA 发布了一个具有定制语音功能的新版本,企业只需 30 分钟的语音数据即可轻松创建独特的语音来代表其品牌。

此外, NVIDIA 宣布了Riva Enterprise,这是一项付费计划,包括为需要大规模 Riva 部署的企业提供 NVIDIA 专家支持。 Riva 仍然免费提供给工作量较小的客户和合作伙伴。

亮点包括:

在 A100 上用一天 30 分钟的音频数据创建一个新的神经语音。

细粒度控件以生成富有表现力的声音。

A100 上的 Fastpitch + HiFiGAN 比 V100 上的 Tacotron2 + WaveGlow 性能高 12 倍。

支持五种其他语言的世界级语音识别

扩展到成百上千的实时流。

在任何云端、本地和边缘运行。

注册以接收有关 Riva Enterprise 的最新消息和更新,以进行大规模部署 》》

使用 Riva 开发应用程序

阅读此introductory post to了解 Riva 工作流中的组件。

接下来,按照本教程构建您自己的端到端语音识别服务:

Parthart: 1-EC6

Parthart: H2-Em7

Parthut: 3-ECEN-18

有关构建virtual assistants和transcription with entity recognition等语音应用程序的更多教程,请访问Riva Getting Started. 》》

NVIDIA NeMo Megatron 、 Triton 多 – GPU 多节点推理和 Megatron 530B

NVIDIA 还推出了为企业构建、定制和部署大型语言模型的功能。 NeMo Megatron 是 NeMo 框架中的一项新功能,用于培训多达数万亿个参数的大型语言模型( LLM )。

它包括Megatron方面的进步,这是一个由 NVIDIA 研究人员领导的开源项目,旨在开发有效培训法学硕士的技术。企业可以使用 NeMo Megatron 定制 LLM ,如 Megatron 530B ,并使用 NVIDIA Triton 推理服务器跨多个 GPU 和节点进行部署。

亮点包括:

在包含数十亿页文本的庞大数据集上自动化数据整理。

为新的域和语言培训Megatron 530B等模型。

从单节点扩展到超级计算机,包括数十个DGX A100系统。

导出到多个节点和 GPU s ,用于使用 NVIDIA Triton 推理服务器进行实时推理。

关于作者

Siddharth Sharma 是NVIDIA 加速计算的高级技术营销经理。在加入NVIDIA 之前, Siddharth 是 Mathworks Simulink 和 Stateflow 的产品营销经理,与汽车和航空航天公司密切合作,采用基于模型的设计来创建控制软件。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4978

    浏览量

    102974
  • 服务器
    +关注

    关注

    12

    文章

    9122

    浏览量

    85317
  • 人工智能
    +关注

    关注

    1791

    文章

    47181

    浏览量

    238173
  • LLM
    LLM
    +关注

    关注

    0

    文章

    286

    浏览量

    327
收藏 人收藏

    评论

    相关推荐

    解锁NVIDIA TensorRT-LLM的卓越性能

    NVIDIA TensorRT-LLM 是一个专为优化大语言模型 (LLM) 推理而设计的库。它提供了多种先进的优化技术,包括自定义 Attention Kernel、Inflight
    的头像 发表于 12-17 17:47 101次阅读

    NVIDIA TensorRT-LLM Roadmap现已在GitHub上公开发布

    感谢众多用户及合作伙伴一直以来对NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 现已在 GitHub 上公开发布
    的头像 发表于 11-28 10:43 249次阅读
    <b class='flag-5'>NVIDIA</b> TensorRT-<b class='flag-5'>LLM</b> Roadmap现已在GitHub上公开<b class='flag-5'>发布</b>

    NVIDIA助力Amdocs打造生成式AI智能体

    正在使用NVIDIA DGX Cloud 与 NVIDIA AI Enterprise软件开发和交付基于商用大语言模型(LLM)和领域适配
    的头像 发表于 11-19 14:48 323次阅读

    NVIDIA AI Foundry 为全球企业打造自定义 Llama 3.1 生成式 AI 模型

    借助 NVIDIA AI Foundry,企业和各国现在能够使用自有数据与 Llama 3.1 405B 和 NVIDIA Nemotron 模型配对,来构建“超级模型” NVIDIA
    发表于 07-24 09:39 704次阅读
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Foundry 为全球企业打造自定义 Llama 3.1 生成式 <b class='flag-5'>AI</b> 模型

    什么是LLMLLM的工作原理和结构

    随着人工智能技术的飞速发展,大型语言模型(Large Language Model,简称LLM)逐渐成为自然语言处理(NLP)领域的研究热点。LLM以其强大的文本生成、理解和推理能力,在文本
    的头像 发表于 07-02 11:45 7547次阅读

    【算能RADXA微服务器试用体验】+ GPT语音与视觉交互:1,LLM部署

    。环境变量的配置,未来在具体项目中我们会再次提到。 下面我们正式开始项目。项目从输入到输出分别涉及了语音识别,图像识别,LLM,TTS这几个与AI相关的模块。先从最核心的LLM开始。
    发表于 06-25 15:02

    AI初创公司Alembic攻克LLM虚假信息难题

    近日,AI领域的创新者Alembic公司宣布了一项重大突破:其全新AI系统成功解决了LLM大型语言模型)中的虚假信息生成问题。这一成就标志着长久以来困扰
    的头像 发表于 06-18 14:26 531次阅读

    NVIDIA 通过 Holoscan 为 NVIDIA IGX 提供企业软件支持

    Enterprise-IGX软件现已在NVIDIA IGX平台上正式可用,以满足工业边缘对实时 AI 计算日益增长的需求。它们将共同帮助医疗、工业和科学计算领域的解决方案提供商利用企业级软件
    的头像 发表于 06-04 10:21 496次阅读

    NVIDIA 通过 Holoscan 为 NVIDIA IGX 提供企业软件支持,实现边缘实时医疗、工业和科学 AI 应用

    NVIDIA Holoscan 的 NVIDIA AI Enterprise-IGX 软件现已在 NVIDIA IGX 平台上正式可用,以
    发表于 06-03 09:48 301次阅读
      <b class='flag-5'>NVIDIA</b> 通过 Holoscan 为 <b class='flag-5'>NVIDIA</b> IGX 提供企业<b class='flag-5'>软件</b>支持,实现边缘实时医疗、工业和科学 <b class='flag-5'>AI</b> 应用

    研华与英伟达深化合作, 成为NVIDIA AI Enterprise软件全球分销商

    )的软件平台。近日发布NVIDIA AI Enterprise 5.0将为用户提供一系列微服务,其中包括NVIDIA NIM。这是一套用于
    发表于 05-07 11:21 346次阅读
    研华与英伟达深化合作, 成为<b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Enterprise<b class='flag-5'>软件</b>全球分销商

    英伟达H200性能显著提升,年内将推出B200新一代AI半导体

    同一天,NVIDIA发布了H200的性能评估报告,表明在与美国Meta公司的大型语言模型——LLM“Llama 2”的对比中,H200使AI
    的头像 发表于 04-01 09:36 1397次阅读

    基于NVIDIA Megatron Core的MOE LLM实现和训练优化

    本文将分享阿里云人工智能平台 PAI 团队与 NVIDIA Megatron-Core 团队在 MoE (Mixture of Experts) 大语言模型(LLM)实现与训练优化上的创新工作。
    的头像 发表于 03-22 09:50 759次阅读
    基于<b class='flag-5'>NVIDIA</b> Megatron Core的MOE <b class='flag-5'>LLM</b>实现和训练优化

    TensorRT LLM加速Gemma!NVIDIA与谷歌牵手,RTX助推AI聊天

    NVIDIA今天在其官方博客中表示,今天与谷歌合作,在所有NVIDIA AI平台上为Gemma推出了优化。
    的头像 发表于 02-23 09:42 596次阅读
    TensorRT <b class='flag-5'>LLM</b>加速Gemma!<b class='flag-5'>NVIDIA</b>与谷歌牵手,RTX助推<b class='flag-5'>AI</b>聊天

    安霸发布全新N1系列生成式AI芯片

    安霸在CES 2024上发布了全新的N1系列生成式AI芯片,这是一款专门为前端设备设计的芯片,支持本地运行大型语言模型(LLM)应用。其单颗SoC能够支持1至340亿参数的多模态大模型
    的头像 发表于 01-09 15:32 1359次阅读

    NVIDIA DOCA 2.5 长期支持版本发布

    正值 NVIDIA DOCA 面世三周年之际,NVIDIA 于近日发布了适用于 NVIDIA BlueField-3 网络平台的 NVIDIA
    的头像 发表于 12-26 18:25 402次阅读
    <b class='flag-5'>NVIDIA</b> DOCA 2.5 长期支持版本<b class='flag-5'>发布</b>