0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

谷歌发布语言模型PaLM2,突破3.6万亿个令牌的训练数量

电子热友 2023-05-18 11:15 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

人工智能AI技术的应用,是目前很大领域比较重视的部分,而至这个领域的谷歌也拥有不小的实力,就在近日,谷歌最新发布的语言模型PaLM2就具备很强的竞争力。

据悉,令牌是指训练大语言模型所使用的单词串,它们对于教导模型如何预测字符串中可能出现的下一个单词至关重要。

而在去年发布的上一代模型PaLM仅使用了7800亿个令牌,而PaLM2则提升到了3.6万亿个令牌。同时PaLM2在编程、数学和创意写作方面表现更为优秀,得益于其庞大的训练数据。而这些也将有效提升用户的工作效率,减轻工作量。

另据报道,PaLM2是基于3400亿个参数进行训练的,而初始版本的PaLM则基于5400亿个参数,而这也造就PaLM2比现有的任何模型都更加强大。

该模型采用了一种名为“计算机优化扩张”的新技术,使得大语言模型具备更高的效率和整体性能,包括加快推理速度、减少参数调用和降低服务成本。

相信随着社会科技的进步,Ai技术的应用也将给我们的生活带来诸多的变化。

以上源自互联网,版权归原作所有

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 谷歌
    +关注

    关注

    27

    文章

    6257

    浏览量

    111945
  • 人工智能
    +关注

    关注

    1819

    文章

    50292

    浏览量

    266843
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    壁仞科技光速支持阿里Qwen3.6-35B-A3B大模型

    4月16日晚,阿里巴巴通义实验室正式宣布全量开源Qwen3.6-35B-A3B大模型。该模型为混合专家(MoE)模型,总参数量为350亿,激
    的头像 发表于 04-20 17:50 1379次阅读

    阿里云发布新一代千问Qwen3.6-Plus,媲美Claude系列最强模型

    继今年2月16日,阿里云发布Qwen3.5 Plus之后,4月2日,阿里云发布新一代大语言模型Q
    的头像 发表于 04-03 14:00 1.1w次阅读
    阿里云<b class='flag-5'>发布</b>新一代千问Qwen<b class='flag-5'>3.6</b>-Plus,媲美Claude系列最强<b class='flag-5'>模型</b>

    训练到推理:大模型算力需求的新拐点已至

    在大模型产业发展的早期阶段,行业焦点主要集中在大模型训练所需的算力投入。一万亿参数大模型
    的头像 发表于 02-05 16:07 1004次阅读
    从<b class='flag-5'>训练</b>到推理:大<b class='flag-5'>模型</b>算力需求的新拐点已至

    什么是大模型,智能体...?大模型100问,快速全面了解!

    一、概念篇1.什么是大模型?大模型是指参数规模巨大(通常达到数十亿甚至万亿级别)、使用海量数据训练而成的人工智能模型
    的头像 发表于 02-02 16:36 1116次阅读
    什么是大<b class='flag-5'>模型</b>,智能体...?大<b class='flag-5'>模型</b>100问,快速全面了解!

    谷歌正式发布Gemma Scope 2模型

    语言模型 (LLM) 具备令人惊叹的推理能力,但其内部决策过程在很大程度上仍然不透明。如果系统未按预期运行,对其内部运作机制缺乏可见性将难以准确定位问题根源。过去,我们通过发布 Gemma
    的头像 发表于 01-24 14:01 712次阅读

    摩尔线程新一代大语言模型对齐框架URPO入选AAAI 2026

    近日,摩尔线程在人工智能前沿领域取得重要突破,其提出的新一代大语言模型对齐框架——URPO统一奖励与策略优化,相关研究论文已被人工智能领域的国际顶级学术会议AAAI 2026收录。这一成果标志着摩尔线程在大
    的头像 发表于 11-17 16:03 593次阅读
    摩尔线程新一代大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>对齐框架URPO入选AAAI 2026

    谷歌与耶鲁大学合作发布最新C2S-Scale 27B模型

    我们很荣幸发布与耶鲁大学合作研究的 Cell2Sentence-Scale 27B (C2S-Scale),这是一新的 270 亿参数基础模型
    的头像 发表于 11-06 10:35 997次阅读

    在Ubuntu20.04系统中训练神经网络模型的一些经验

    本帖欲分享在Ubuntu20.04系统中训练神经网络模型的一些经验。我们采用jupyter notebook作为开发IDE,以TensorFlow2训练框架,目标是
    发表于 10-22 07:03

    借助NVIDIA Megatron-Core大模型训练框架提高显存使用效率

    随着模型规模迈入百亿、千亿甚至万亿参数级别,如何在有限显存中“塞下”训练任务,对研发和运维团队都是巨大挑战。NVIDIA Megatron-Core 作为流行的大模型
    的头像 发表于 10-21 10:55 1373次阅读
    借助NVIDIA Megatron-Core大<b class='flag-5'>模型</b><b class='flag-5'>训练</b>框架提高显存使用效率

    摩尔线程发布模型训练仿真工具SimuMax v1.0

    近日,摩尔线程正式发布并开源大模型分布式训练仿真工具SimuMax 1.0版本。该版本在显存和性能仿真精度上实现突破性提升,同时引入多项关键功能,进一步增强了
    的头像 发表于 09-11 18:19 3872次阅读
    摩尔线程<b class='flag-5'>发布</b>大<b class='flag-5'>模型</b><b class='flag-5'>训练</b>仿真工具SimuMax v1.0

    Vicor电源模块突破数据中心AI电力困境

    尽管底层硅芯片的性能有了巨大的飞跃,但人工智能 (AI) 训练仍在推动数据中心电力的突破。斯坦福大学最新的 AI 指数报告显示,最先进的 AI 模型越来越大,现已达到高达 1 万亿
    的头像 发表于 08-19 15:07 1576次阅读

    面向万亿级参数大模型,“超节点”涌现

    UniPoD系列超节点产品,旨在为万亿级参数大模型训练与推理提供更强劲、更智能且更绿色的算力支持。   H3C UniPoD系列超节点产品基于领先的Scale-up南向互联技术,可实现单机柜最高64卡GPU间的高速互联互通,
    的头像 发表于 08-03 02:37 9100次阅读
    面向<b class='flag-5'>万亿</b>级参数大<b class='flag-5'>模型</b>,“超节点”涌现

    万亿参数!元脑企智一体机率先支持Kimi K2模型

    应用大模型提供高处理性能和完善的软件工具平台支持。   Kimi K2是月之暗面推出的开源万亿参数大模型,创新使用了MuonClip优化器进行训练
    的头像 发表于 07-22 09:27 666次阅读
    <b class='flag-5'>万亿</b>参数!元脑企智一体机率先支持Kimi K<b class='flag-5'>2</b>大<b class='flag-5'>模型</b>

    【「DeepSeek 核心技术揭秘」阅读体验】书籍介绍+第一章读后心得

    token(模型处理文本的基本单位)激活370亿参数。该模型在14.8万亿高质量token上进行预
    发表于 07-17 11:59

    NVIDIA GTC巴黎亮点:全新Cosmos Predict-2世界基础模型与CARLA集成加速智能汽车训练

    。这种向使用大模型的过渡大大增加了对用于训练、测试和验证的高质量、基于物理学传感器数据的需求。 为加速下一代辅助驾驶架构的开发,NVIDIA 发布了 NVIDIA Cosmos Predict-
    的头像 发表于 06-12 10:00 1218次阅读