0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

ChatGLM2-6B:性能大幅提升,8-32k上下文,推理提速42%,在中文榜单位列榜首

深度学习自然语言处理 来源:GLM大模型 2023-06-26 14:30 次阅读

自3月14日发布以来, ChatGLM-6B 深受广大开发者喜爱,截至 6 月24日,来自 Huggingface 上的下载量已经超过 300w。

为了更进一步促进大模型开源社区的发展,我们再次升级 ChatGLM-6B,发布 ChatGLM2-6B 。

在主要评估LLM模型中文能力的 C-Eval 榜单中,截至6月25日 ChatGLM2 模型以 71.1 的分数位居 Rank 0 ,ChatGLM2-6B 模型以 51.7 的分数位居 Rank 6,是榜单上排名最高的开源模型。

140cd216-13e9-11ee-962d-dac502259ad0.png

* CEval榜单,ChatGLM2暂时位居Rank 0,ChatGLM2-6B位居 Rank 6

性能升级

ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:

更强大的性能:基于 ChatGLM 初代模型的开发经验,我们全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。

更长的上下文:基于 FlashAttention 技术,我们将基座模型的上下文长度(Context Length)由 ChatGLM-6B 的 2K 扩展到了 32K,并在对话阶段使用 8K 的上下文长度训练,允许更多轮次的对话。但当前版本的 ChatGLM2-6B 对单轮超长文档的理解能力有限,我们会在后续迭代升级中着重进行优化。

更高效的推理:基于 Multi-Query Attention 技术,ChatGLM2-6B 有更高效的推理速度和更低的显存占用:在官方的模型实现下,推理速度相比初代提升了 42%,INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。

更开放的协议:ChatGLM2-6B 权重对学术研究完全开放,在获得官方的书面许可后,亦允许商业使用。如果您发现我们的开源模型对您的业务有用,我们欢迎您对下一代模型 ChatGLM3 研发的捐赠。

评测结果

我们选取了部分中英文典型数据集进行了评测,以下为 ChatGLM2-6B 模型在 MMLU (英文)、C-Eval(中文)、GSM8K(数学)、BBH(英文) 上的测评结果。

1419a234-13e9-11ee-962d-dac502259ad0.png

143a4e6c-13e9-11ee-962d-dac502259ad0.png

14582450-13e9-11ee-962d-dac502259ad0.png

1473a1ee-13e9-11ee-962d-dac502259ad0.png

推理性能

ChatGLM2-6B 使用了 Multi-Query Attention,提高了生成速度。生成 2000 个字符的平均速度对比如下

1479fecc-13e9-11ee-962d-dac502259ad0.png

Multi-Query Attention 同时也降低了生成过程中 KV Cache 的显存占用,此外,ChatGLM2-6B 采用 Causal Mask 进行对话训练,连续对话时可复用前面轮次的 KV Cache,进一步优化了显存占用。因此,使用 6GB 显存的显卡进行 INT4 量化的推理时,初代的 ChatGLM-6B 模型最多能够生成 1119 个字符就会提示显存耗尽,而 ChatGLM2-6B 能够生成至少 8192 个字符。

14a132a8-13e9-11ee-962d-dac502259ad0.png

我们也测试了量化对模型性能的影响。结果表明,量化对模型性能的影响在可接受范围内。

14bcdb84-13e9-11ee-962d-dac502259ad0.png

示例对比

相比于初代模型,ChatGLM2-6B 多个维度的能力都取得了提升,以下是一些对比示例。更多 ChatGLM2-6B 的可能,等待你来探索发现!

数理逻辑

14d50420-13e9-11ee-962d-dac502259ad0.png

14dd503a-13e9-11ee-962d-dac502259ad0.png

知识推理

1525b352-13e9-11ee-962d-dac502259ad0.png

15689690-13e9-11ee-962d-dac502259ad0.png

长文档理解

158ad99e-13e9-11ee-962d-dac502259ad0.png

1597b092-13e9-11ee-962d-dac502259ad0.png

ChatGLM2-6B的安装请参考官方:

https://github.com/THUDM/ChatGLM2-6B

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 开源
    +关注

    关注

    3

    文章

    3123

    浏览量

    42062
  • 模型
    +关注

    关注

    1

    文章

    3028

    浏览量

    48340
  • 数据集
    +关注

    关注

    4

    文章

    1197

    浏览量

    24526

原文标题:ChatGLM2-6B:性能大幅提升,8-32k上下文,推理提速42%,在中文榜单位列榜首

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    关于进程上下文、中断上下文及原子上下文的一些概念理解

    。而中断信号的发生是随机的,中断处理程序及软中断并不能事先预测发生中断时当前运行的是哪个进程,所以中断上下文中引用current是可以的,但没有意义。 事实上,对于A进程希望等待的中断信号,可能在B
    发表于 09-06 09:58

    进程上下文与中断上下文的理解

    :(1)进程上文:其是指进程由用户态切换到内核态是需要保存用户态时cpu寄存器中的值,进程状态以及堆栈上的内容,即保存当前进程的进程上下文,以便再次执行该进程时,能够恢复切换时的状态,继续执行。(2
    发表于 12-11 19:45

    进程上下文/中断上下文及原子上下文的概念

    为什么会有上下文这种概念进程上下文/中断上下文及原子上下文的概念
    发表于 01-13 07:17

    基于交互上下文的预测方法

    传统的上下文预测是单用户的上下文基础上进行的,忽视了实际普适计算环境中由于用户交互活动导致的上下文变化因素。为了合理、有效地解决上述局限性问题,该文提出基
    发表于 10-04 14:08 7次下载

    新鲜度敏感的上下文推理实时调度算法

    由于普适计算中上下文具有时效性,上下文推理器必须支持推理任务的实时调度。针对上下文推理结果在一段
    发表于 11-18 14:00 10次下载

    基于Pocket PC的上下文菜单实现

    介绍了基于 Pocket PC 中的点按操作概念, 论述了Pocket PC 中上下文菜单的实现原理及方法, 并给出了基于MFC 下的Windows CE 应用程序实现上下文菜单的步骤和代码实例。
    发表于 07-25 18:26 17次下载

    基于Pocket PC的上下文菜单实现

    本文介绍了基于 Pocket PC 中的“点按”操作概念 论述了 Pocket PC 中上下文菜单的实现原理及方法 并给出了基于 MFC 下的 Windows CE 应用程序实现上下文菜单的步骤和代码实例 。
    发表于 04-18 10:46 0次下载

    基于上下文相似度的分解推荐算法

    模型,再对目标用户的K个邻居用户建立移动用户一上下文一移动服务三维张量分解模型,获得目标用户的移动服务预测值,生成移动推荐。实验结果显示,与余弦相似性方法、Pearson相关系数方法和Cosinel改进相似度模型相比,所提UCS-TF算法表现
    发表于 11-27 17:42 0次下载

    如何分析Linux CPU上下文切换问题

    我的上一篇文章:《探讨 Linux CPU 的上下文切换》中,我谈到了 CPU 上下文切换的工作原理。快速回顾一下,CPU 上下文切换是保证 Linux 系统正常运行的核心功能。可分
    的头像 发表于 05-05 20:11 1833次阅读

    切换k8s上下文有多快

    use-context 命令就会很低效。 今天介绍3个工具会让你在多k8s集群环境中工作的很轻松。我将从以下几个方面来评估工具实用性: 速度 如果你有多个k8s集群可选择,你切换k8s上下文
    的头像 发表于 05-29 15:26 641次阅读
    切换<b class='flag-5'>k8</b>s<b class='flag-5'>上下文</b>有多快

    下载量超300w的ChatGLM-6B再升级:8-32k上下文推理提速42%

    基于 FlashAttention 技术,项目团队将基座模型的上下文长度(Context Length)由 ChatGLM-6B2K 扩展到了 32K,并在对话阶段使用
    的头像 发表于 06-29 16:15 1244次阅读
    下载量超300w的<b class='flag-5'>ChatGLM-6B</b>再升级:<b class='flag-5'>8-32k</b><b class='flag-5'>上下文</b>,<b class='flag-5'>推理</b><b class='flag-5'>提速</b><b class='flag-5'>42</b>%

    ChatGLM2-6B解析与TPU部署

    ChatGLM2-6B解析与TPU部署
    的头像 发表于 08-18 11:28 685次阅读
    <b class='flag-5'>ChatGLM2-6B</b>解析与TPU部署

    探索ChatGLM2算能BM1684X上INT8量化部署,加速大模型商业落地

    |探索ChatGLM2-6B模型与TPU部署》。为了进一步提升模型的推理效率与降低存储空间,我们对模型进行了INT8量化部署,整体性能
    的头像 发表于 10-10 10:18 3270次阅读
    探索<b class='flag-5'>ChatGLM2</b><b class='flag-5'>在</b>算能BM1684X上INT<b class='flag-5'>8</b>量化部署,加速大模型商业落地

    全新近似注意力机制HyperAttention:对长上下文友好、LLM推理提速50%

    本文介绍了一项近似注意力机制新研究,耶鲁大学、谷歌研究院等机构提出了 HyperAttention,使 ChatGLM2 32k 上下文长度上的
    的头像 发表于 11-20 09:15 476次阅读
    全新近似注意力机制HyperAttention:对长<b class='flag-5'>上下文</b>友好、LLM<b class='flag-5'>推理</b><b class='flag-5'>提速</b>50%

    chatglm2-6bP40上做LORA微调

    chatglm2-6b相比于chatglm有几方面的提升: 1. 性能提升: 相比初代模型,升级了 C
    的头像 发表于 08-13 17:12 245次阅读
    <b class='flag-5'>chatglm2-6b</b><b class='flag-5'>在</b>P40上做LORA微调