0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

腾讯发布开源MoE大语言模型Hunyuan-Large

科技绿洲 来源:网络整理 作者:网络整理 2024-11-06 10:57 次阅读

近日,腾讯公司宣布成功推出业界领先的开源MoE(Mixture of Experts,专家混合)大语言模型——Hunyuan-Large。这款模型不仅在参数量上刷新了业界纪录,更在效果上展现出了卓越的性能,标志着腾讯在自然语言处理领域迈出了重要的一步。

据了解,Hunyuan-Large的总参数量高达389B(即3890亿),这一数字远超当前许多主流的大语言模型。而其激活参数也达到了惊人的52B(即520亿),这意味着模型在处理复杂任务时能够展现出更强的学习能力和泛化性能。

除了参数量上的优势,Hunyuan-Large在训练数据上也下足了功夫。据悉,该模型训练时所使用的token数量达到了7T(即7万亿),这确保了模型能够充分学习到语言的多样性和复杂性。同时,Hunyuan-Large还支持最大上下文长度为256K的文本输入,这一特性使得模型在处理长文本或对话场景时能够更准确地捕捉上下文信息,从而生成更加连贯和自然的回复。

腾讯此次推出的Hunyuan-Large大语言模型,不仅展示了其在人工智能领域的深厚技术积累,也为整个自然语言处理领域的发展注入了新的活力。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1789

    文章

    46584

    浏览量

    236905
  • 腾讯
    +关注

    关注

    7

    文章

    1635

    浏览量

    49375
  • 语言模型
    +关注

    关注

    0

    文章

    498

    浏览量

    10236
  • 自然语言
    +关注

    关注

    1

    文章

    285

    浏览量

    13319
收藏 人收藏

    评论

    相关推荐

    搭建开源语言模型服务的方法

    本文我们将总结5种搭建开源语言模型服务的方法,每种都附带详细的操作步骤,以及各自的优缺点。
    的头像 发表于 10-29 09:17 94次阅读

    昆仑万维开源2千亿稀疏大模型Skywork-MoE

    近日,昆仑万维公司宣布开源一款名为Skywork-MoE的稀疏大模型,该模型拥有高达2千亿参数,不仅性能强劲,而且推理成本更低,为人工智能领域带来了新的突破。
    的头像 发表于 06-04 14:44 521次阅读

    浪潮信息发布“源2.0-M32”开源模型

    浪潮信息近日推出了革命性的“源2.0-M32”开源模型。该模型在源2.0系列基础上,引入了“基于注意力机制的门控网络”技术,构建了一个包含32个专家的混合专家模型
    的头像 发表于 05-29 09:08 585次阅读

    腾讯云大模型价格调整:混元-lite、混元-standard免费,混元-pro降价

    据了解,腾讯混元大模型腾讯全链路自研的万亿参数大模型,采用混合专家模型MoE)结构,
    的头像 发表于 05-23 17:05 720次阅读

    红帽发布RHEL AI开发者预览版,集成IBM Granite模型,简化AI开发流程

    RHEL AI依托InstructLab开源项目,结合IBM Research的开源授权Granite大型语言模型与InstructLab模型
    的头像 发表于 05-08 15:01 446次阅读

    Mistral Large模型现已在Amazon Bedrock上正式可用

    的 Mistral 7B 和 Mixtral 8x7B模型。今天,Mistral AI最新且最前沿的大语言模型(LLM)Mistral Large又在Amazon Bedrock上正式
    的头像 发表于 04-08 16:26 496次阅读

    Mistral发布Mistral Large旗舰模型,但没有开源

    昨夜,被称为“法国版 OpenAI”的 Mistral AI 再放大招,正式发布 Mistral Large 旗舰模型,并且推出对标 ChatGPT 的对话产品:Le Chat,直接杀到 OpenAI 家门口。
    的头像 发表于 02-27 13:34 685次阅读
    Mistral<b class='flag-5'>发布</b>Mistral <b class='flag-5'>Large</b>旗舰<b class='flag-5'>模型</b>,但没有<b class='flag-5'>开源</b>

    昆仑万维发布新版MoE语言模型天工2.0

    昆仑万维科技今日震撼发布全新升级的「天工2.0」MoE语言模型以及配套的新版「天工AI智能助手」APP。此次更新标志着国内首个搭载MoE
    的头像 发表于 02-06 16:19 1207次阅读

    模型开源开放评测体系司南正式发布

    近日,大模型开源开放评测体系司南(OpenCompass2.0)正式发布,旨在为大语言模型、多模态模型
    的头像 发表于 02-05 11:28 978次阅读

    Meta发布CodeLlama70B开源模型

    Meta发布CodeLlama70B开源模型 Meta发布开源模型CodeLlama70B
    的头像 发表于 01-31 10:30 1342次阅读

    字节发布机器人领域首个开源视觉-语言操作大模型,激发开源VLMs更大潜能

    对此,ByteDance Research 基于开源的多模态语言视觉大模型 OpenFlamingo 开发了开源、易用的 RoboFlamingo 机器人操作
    的头像 发表于 01-23 16:02 457次阅读
    字节<b class='flag-5'>发布</b>机器人领域首个<b class='flag-5'>开源</b>视觉-<b class='flag-5'>语言</b>操作大<b class='flag-5'>模型</b>,激发<b class='flag-5'>开源</b>VLMs更大潜能

    幻方量化发布了国内首个开源MoE模型—DeepSeekMoE

    幻方量化旗下组织深度求索发布了国内首个开源 MoE模型 —— DeepSeekMoE,全新架构,免费商用。
    的头像 发表于 01-23 11:28 1397次阅读
    幻方量化<b class='flag-5'>发布</b>了国内首个<b class='flag-5'>开源</b><b class='flag-5'>MoE</b>大<b class='flag-5'>模型</b>—DeepSeekMoE

    机器人基于开源的多模态语言视觉大模型

    ByteDance Research 基于开源的多模态语言视觉大模型 OpenFlamingo 开发了开源、易用的 RoboFlamingo 机器人操作
    发表于 01-19 11:43 345次阅读
    机器人基于<b class='flag-5'>开源</b>的多模态<b class='flag-5'>语言</b>视觉大<b class='flag-5'>模型</b>

    对标OpenAI GPT-4,MiniMax国内首个MoE语言模型全量上线

    MoE 架构全称专家混合(Mixture-of-Experts),是一种集成方法,其中整个问题被分为多个子任务,并将针对每个子任务训练一组专家。MoE 模型将覆盖不同学习者(专家)的不同输入数据。
    的头像 发表于 01-16 15:34 822次阅读
    对标OpenAI GPT-4,MiniMax国内首个<b class='flag-5'>MoE</b>大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>全量上线

    语言模型推断中的批处理效应

    随着开源预训练大型语言模型Large Language Model, LLM )变得更加强大和开放,越来越多的开发者将大语言
    的头像 发表于 01-04 12:32 564次阅读
    大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>推断中的批处理效应