0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA与Google DeepMind合作推动大语言模型创新

NVIDIA英伟达企业解决方案 来源:NVIDIA英伟达企业解决方案 2024-05-16 09:44 次阅读

支持 NVIDIA NIM 推理微服务的谷歌最新开源模型 PaliGemma 首次亮相。

驱动生成式 AI 的大语言模型创新前赴后继,处理文本、图像和声音等多种类型数据的模型正变得日益普遍。

然而,构建和部署这些模型仍具有挑战性。开发者需要一种方法来快速体验和评估模型,在确定最适合其用例的模型后,再以一种经济高效并能带来最佳性能的方式来优化模型性能。

为了让开发者更加轻松地创建具有世界一流性能的 AI 应用,NVIDIA 和谷歌在 2024 谷歌 I/O 开发者大会上宣布了三项新的合作。

Gemma + NIM

借助TensorRT-LLM,NVIDIA 正在与谷歌一同优化在此次大会上推出的两个新模型:Gemma 2 和 PaliGemma。这两个模型由与构建 Gemini 模型相同的研究和技术构建而成,每个模型都专注于一个特定领域:

Gemma 2是具有广泛用途的新一代 Gemma 模型,借助全新的架构来实现突破性的性能和效率。

PaliGemma是受 PaLI-3 启发的开源视觉语言模型(VLM)。PaliGemma 基于 SigLIP 视觉模型和 Gemma 语言模型等开放组件构建而成,专门用于视觉语言任务,例如图像和短视频字幕、视觉问题解答、图像文本理解、对象检测和对象分割等。PaliGemma 在各种视觉语言任务中具有领先于同类模型的微调性能,并且还得到NVIDIA JAX-Toolbox的支持。

Gemma 2 和 PaliGemma 将与NVIDIA AI Enterprise软件平台中的NVIDIA NIM推理微服务一起提供,可简化 AI 模型的大规模部署。从今天开始,PaliGemma 的 API 目录可提供对这两个新模型的 NIM 支持,两个新模型也将很快在NVIDIA NGC和 GitHub 上以容器的形式发布。

将加速数据分析引入 Colab

谷歌还宣布开源 GPU 数据框架库 RAPIDS cuDF 将默认支持谷歌 Colab,这是最受数据科学家欢迎的开发者平台之一。现在,谷歌 Colab 的 1000 万月度用户只需几秒钟,就能使用NVIDIATensor Core GPU将基于 pandas 的 Python 工作流加速高达 50 倍,而且无需修改代码。

借助 RAPIDS cuDF,使用谷歌 Colab 的开发者可以加快探索性分析和生产数据管道的速度。虽然 pandas 因其直观的 API 而成为全球最流行的数据处理工具之一,但随着数据规模的增长,应用程序往往会捉襟见肘。即便数据只有 5-10 GB ,许多简单的操作在 CPU 上也需要数分钟才能完成,从而降低了探索性分析和生产数据管道的速度。

RAPIDS cuDF 旨在通过在适用的 GPU 上无缝加速 pandas 代码来解决这个问题,而在不适用的 GPU 上则退回到 CPU-pandas。由于 Colab 默认使用 RAPIDS cuDF,世界各地的开发者都能用上加速数据分析。

随时随地使用 AI

谷歌和 NVIDIA 还宣布借助搭载NVIDIA RTX显卡的 AI PC 来开展一项 Firebase Genkit 的合作,使应用开发者能够轻松地将生成式 AI 模型(例如新的 Gemma 模型系列)集成到他们的网络和移动应用中,以便提供自定义内容、进行语义搜索和回答问题。开发者可以先使用本地 RTX GPU 启动工作流,然后将工作无缝迁移到谷歌云基础设施。

更加方便的是,开发者可以通过 Genkit 使用 JavaScript(一种移动开发者在构建应用时常用的编程语言)来构建应用。

创新无止境

NVIDIA 和谷歌云正在多个领域开展合作,共同推进 AI 的发展。无论是即将推出的 Grace Blackwell 架构 DGX Cloud 平台和 JAX 框架支持,还是将NVIDIA NeMo框架引入 Google Kubernetes Engine,两家公司的全栈合作为客户在谷歌云上借助 NVIDIA 技术使用 AI 带来了更多可能性。

审核编辑:刘清
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4687

    浏览量

    102119
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4511

    浏览量

    127562
  • 大模型
    +关注

    关注

    2

    文章

    1884

    浏览量

    1506
  • 生成式AI
    +关注

    关注

    0

    文章

    427

    浏览量

    334

原文标题:Gemma + NIM:NVIDIA 与 Google DeepMind 合作推动大语言模型创新

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    语言模型:原理与工程时间+小白初识大语言模型

    开拓深度学习的思路。对于新涌现的大语言模型的能力,主要是表现在学习能力的提升、语言理解和生成能力、创新和探索的能力。 基础技术 词表示技术 词表示一般分为三种,主要是词的独热表示(On
    发表于 05-12 23:57

    【大语言模型:原理与工程实践】大语言模型的应用

    、娱乐等行业,推动这些领域的创新和发展。例如,大语言模型可能会生成创新性的艺术、音乐、故事和其他文艺作品,为人类带来全新的艺术体验。同时,提
    发表于 05-07 17:21

    【大语言模型:原理与工程实践】大语言模型的评测

    至关重要。 在大语言模型应用中,翻译类评测任务主要聚焦于两大核心要求:高质量翻译和多语言适应性。高质量翻译作为跨文化和跨地域信息传播的基础,对全球化背景下的商业活动、科研合作和多元文
    发表于 05-07 17:12

    【大语言模型:原理与工程实践】大语言模型的预训练

    语言模型的核心特点在于其庞大的参数量,这赋予了模型强大的学习容量,使其无需依赖微调即可适应各种下游任务,而更倾向于培养通用的处理能力。然而,随着学习容量的增加,对预训练数据的需求也相应
    发表于 05-07 17:10

    【大语言模型:原理与工程实践】揭开大语言模型的面纱

    的进步,大语言模型的应用范围和影响力将持续扩大,成为AI领域的重要推动力。其中,GPT系列模型的发展尤为引人注目,从GPT到GPT-2,再到如今的GPT-4,其
    发表于 05-04 23:55

    NVIDIA加速微软最新的Phi-3 Mini开源语言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微软最新的 Phi-3 Mini 开源语言模型。TensorRT-LLM 是一个开源库,用于优化从 PC 到云端的
    的头像 发表于 04-28 10:36 259次阅读

    谷歌模型软件有哪些功能

    谷歌模型软件通常指的是谷歌推出的一系列人工智能模型和软件工具,其中最具代表性的是Google Gemini。Google Gemini是谷歌Deep
    的头像 发表于 03-01 16:20 292次阅读

    Google Gemma优化后可在NVIDIA GPU上运行

    2024 年 2 月 21 日,NVIDIA 携手 Google 在所有 NVIDIA AI 平台上发布面向 Gemma 的优化功能,Gemma 是 Google 最先进的新型轻量级
    的头像 发表于 02-25 11:01 308次阅读

    研讨会回顾:NVIDIA 助力汽车行业大语言模型创新与发展

    10 月 28 日,汽车行业大语言模型研讨会正式结束。 NVIDIA 解决方案架构师陈文恺 在研讨会中讲解了 汽车行业如何开发企业级大语言模型
    的头像 发表于 11-03 19:10 472次阅读

    现已公开发布!欢迎使用 NVIDIA TensorRT-LLM 优化大语言模型推理

    NVIDIA 于 2023 年 10 月 19 日公开发布 TensorRT-LLM ,可在 NVIDIA GPU 上加速和优化最新的大语言模型(Large Language Mode
    的头像 发表于 10-27 20:05 658次阅读
    现已公开发布!欢迎使用 <b class='flag-5'>NVIDIA</b> TensorRT-LLM 优化大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>推理

    语言模型无损压缩方面超越PNG和FLAC

    Google DeepMind 和 Meta 的研究人员发表论文《Language Modeling Is Compression》,他们发现 DeepMind 的大语言
    的头像 发表于 10-08 11:24 681次阅读
    大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>无损压缩方面超越PNG和FLAC

    谷歌云与 NVIDIA 扩大合作,共同推进 AI 计算、软件和服务的发展

    谷歌 DeepMind 与谷歌研究团队所使用的 NVIDIA 生成式 AI 技术已经过优化,现可供全球谷歌云客户使用 Google Cloud Next  — 2023 年 8 月 29
    的头像 发表于 08-31 13:05 502次阅读
    谷歌云与 <b class='flag-5'>NVIDIA</b> 扩大<b class='flag-5'>合作</b>,共同推进 AI 计算、软件和服务的发展

    谷歌云与 NVIDIA 进一步深化合作

    两家 AI 领军企业一同优化谷歌云,使更多生成式 AI 领域的初创企业能够构建下一代应用。 生成式 AI 和大语言模型(LLM)不断推动创新,使训练和推理工作的算力需求以惊人的速度增长
    的头像 发表于 08-31 13:00 294次阅读
    谷歌云与 <b class='flag-5'>NVIDIA</b> 进一步深化<b class='flag-5'>合作</b>

    语言模型做先验,统一强化学习智能体,DeepMind选择走这条通用AI之路

    在智能体的开发中,强化学习与大语言模型、视觉语言模型等基础模型的进一步融合究竟能擦出怎样的火花?谷歌 D
    的头像 发表于 07-24 16:55 398次阅读
    <b class='flag-5'>语言</b><b class='flag-5'>模型</b>做先验,统一强化学习智能体,<b class='flag-5'>DeepMind</b>选择走这条通用AI之路

    NVIDIA DLI 实战培训 | 加速大语言模型开发的核心技能

    实战开发技能 | 实时讲师授课 实验用 GPU 环境 | 实名 NVIDIA 证书 大语言模型的发展宛如一场风潮席卷全球,激发了企业、学术界和科研机构的无限热情。其庞大且复杂的规模和计算需求,令加速
    的头像 发表于 07-14 19:40 316次阅读
    <b class='flag-5'>NVIDIA</b> DLI 实战培训 | 加速大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>开发的核心技能