0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

下载量超300w的ChatGLM-6B再升级:8-32k上下文,推理提速42%

OSC开源社区 来源:OSC开源社区 2023-06-29 16:15 次阅读

GLM 技术团队宣布再次升级 ChatGLM-6B,发布 ChatGLM2-6B。ChatGLM-6B 于 3 月 14 日发布,截至 6 月 24 日在 Huggingface 上的下载量已经超过 300w。 截至 6 月 25 日,ChatGLM2 模型在主要评估 LLM 模型中文能力的 C-Eval 榜单中以 71.1 的分数位居 Rank 0;ChatGLM2-6B 模型则以 51.7 的分数位居 Rank 6,是榜单上排名最高的开源模型。

e88cc704-15a0-11ee-962d-dac502259ad0.png

ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:

更强大的性能:基于 ChatGLM 初代模型的开发经验,全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。

更长的上下文:基于 FlashAttention 技术,项目团队将基座模型的上下文长度(Context Length)由 ChatGLM-6B 的 2K 扩展到了 32K,并在对话阶段使用 8K 的上下文长度训练,允许更多轮次的对话。但当前版本的 ChatGLM2-6B 对单轮超长文档的理解能力有限,我们会在后续迭代升级中着重进行优化。

更高效的推理:基于 Multi-Query Attention 技术,ChatGLM2-6B 有更高效的推理速度和更低的显存占用:在官方的模型实现下,推理速度相比初代提升了 42%,INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。

更开放的协议:ChatGLM2-6B 权重对学术研究完全开放,在获得官方的书面许可后,亦允许商业使用。

评测结果

以下为 ChatGLM2-6B 模型在 MMLU (英文)、C-Eval(中文)、GSM8K(数学)、BBH(英文) 上的测评结果。

e8c601e0-15a0-11ee-962d-dac502259ad0.png

推理性能

ChatGLM2-6B 使用了 Multi-Query Attention,提高了生成速度。生成 2000 个字符的平均速度对比如下

e908b06c-15a0-11ee-962d-dac502259ad0.png

Multi-Query Attention 同时也降低了生成过程中 KV Cache 的显存占用,此外,ChatGLM2-6B 采用 Causal Mask 进行对话训练,连续对话时可复用前面轮次的 KV Cache,进一步优化了显存占用。因此,使用 6GB 显存的显卡进行 INT4 量化的推理时,初代的 ChatGLM-6B 模型最多能够生成 1119 个字符就会提示显存耗尽,而 ChatGLM2-6B 能够生成至少 8192 个字符。

e93eb04a-15a0-11ee-962d-dac502259ad0.png

项目团队也测试了量化对模型性能的影响。结果表明,量化对模型性能的影响在可接受范围内。

e9538a2e-15a0-11ee-962d-dac502259ad0.png

示例对比

相比于初代模型,ChatGLM2-6B 多个维度的能力都取得了提升,以下是一些对比示例。 数理逻辑

e975b338-15a0-11ee-962d-dac502259ad0.png

e99b519c-15a0-11ee-962d-dac502259ad0.png

知识推理

e9dd13ac-15a0-11ee-962d-dac502259ad0.png

ea0bf118-15a0-11ee-962d-dac502259ad0.png

长文档理解

ea33526c-15a0-11ee-962d-dac502259ad0.png

ea6b3e98-15a0-11ee-962d-dac502259ad0.png

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 开源
    +关注

    关注

    3

    文章

    3341

    浏览量

    42487
  • 模型
    +关注

    关注

    1

    文章

    3241

    浏览量

    48832
  • 数据集
    +关注

    关注

    4

    文章

    1208

    浏览量

    24697

原文标题:下载量超300w的ChatGLM-6B再升级:8-32k上下文,推理提速42%

文章出处:【微信号:OSC开源社区,微信公众号:OSC开源社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    UCC28063EVM-723 300W交错式PFC预调节器手册

    电子发烧友网站提供《UCC28063EVM-723 300W交错式PFC预调节器手册.pdf》资料免费下载
    发表于 12-18 14:52 0次下载
    UCC28063EVM-723 <b class='flag-5'>300W</b>交错式PFC预调节器手册

    UCC28060EVM 300W交错式PFC预调节器手册

    电子发烧友网站提供《UCC28060EVM 300W交错式PFC预调节器手册.pdf》资料免费下载
    发表于 12-16 10:55 0次下载
    UCC28060EVM <b class='flag-5'>300W</b>交错式PFC预调节器手册

    SystemView上下文统计窗口识别阻塞原因

    SystemView工具可以记录嵌入式系统的运行时行为,实现可视化的深入分析。在新发布的v3.54版本中,增加了一项新功能:上下文统计窗口,提供了对任务运行时统计信息的深入分析,使用户能够彻底检查每个任务,帮助开发人员识别阻塞原因。
    的头像 发表于 08-20 11:31 436次阅读

    chatglm2-6b在P40上做LORA微调

    chatglm2-6b相比于chatglm有几方面的提升: 1. 性能提升: 相比初代模型,升级ChatGLM2-6B 的基座模型,同时在各项数据集评测上取得了不错的成绩; 2.
    的头像 发表于 08-13 17:12 486次阅读
    <b class='flag-5'>chatglm2-6b</b>在P40上做LORA微调

    大联大推出基于Innoscience产品的300W电源适配器方案

    不仅能为手机、平板、笔记本电脑提供快速充电,更高功率要求的家用设备同样适用!大联大诠鼎集团推出基于InnoGaN INN700D140C & INN700DA140C 设计的300W适配器电源方案,与常规Si MOS的适配器对比,功率密度提高8W/in^3,体积减小30%
    的头像 发表于 06-21 10:24 717次阅读
    大联大推出基于Innoscience产品的<b class='flag-5'>300W</b>电源适配器方案

    鸿蒙Ability Kit(程序框架服务)【应用上下文Context】

    [Context]是应用中对象的上下文,其提供了应用的一些基础信息,例如resourceManager(资源管理)、applicationInfo(当前应用信息)、dir(应用文件路径)、area
    的头像 发表于 06-06 09:22 494次阅读
    鸿蒙Ability Kit(程序框架服务)【应用<b class='flag-5'>上下文</b>Context】

    微软发布PhI-3-Vision模型,提升视觉AI效率

    Phi-3-vision 是一种小型多模式语言模型(SLM),主要适用于本地人工智能场景。其模型参数高达 42 亿,上下文序列包含 128k 个符号,可满足各种视觉推理和其他任务需求。
    的头像 发表于 05-28 11:35 482次阅读

    PMP31052.1-汽车类四开关、大于 300W 降压/升压 PCB layout 设计

    电子发烧友网站提供《PMP31052.1-汽车类四开关、大于 300W 降压/升压 PCB layout 设计.pdf》资料免费下载
    发表于 05-22 15:13 1次下载
    PMP31052.1-汽车类四开关、大于 <b class='flag-5'>300W</b> 降压/升压 PCB layout 设计

    编写一个任务调度程序,在上下文切换后遇到了一些问题求解

    大家好, 我正在编写一个任务调度程序,在上下文切换后遇到了一些问题。 为下一个任务恢复上下文后: __builtin_tricore_mtcr_by_name(\"pcxi\"
    发表于 05-22 07:50

    STM32F051K8U632K程序写入就挂怎么解决?

    如题,STM32F051K8U6MCU,当程序在32K以下时,编程或在线调试都没问题。但当程序32
    发表于 04-10 06:45

    STM32L4R5VGT6 flash512K时,无法下载的原因?

    the File 当flash低于512K时,就能正常下载。 2、当注释掉Fatfs相关函数,发现512K也是可以正常下载的。使用Fat
    发表于 03-27 07:18

    TC397收到EVAL_6EDL7141_TRAP_1SH 3上下文管理EVAL_6EDL7141_TRAP_1SH错误怎么解决?

    我收到EVAL_6EDL7141_TRAP_1SH 3 类(TIN4-Free 上下文列表下溢)上下文管理EVAL_6EDL7141_TRAP_1SH错误。 请告诉我解决这个问题的办法
    发表于 03-06 08:00

    请问risc-v中断还需要软件保存上下文和恢复吗?

    risc-v中断还需要软件保存上下文和恢复吗?
    发表于 02-26 07:40

    ISR的上下文保存和恢复是如何完成的?

    函数:ifxCPU_enableInterrupts ();如果我让更高优先级的 ISR 中断优先级较低的 ISR,那么 ISR 的上下文保存和恢复是如何完成的?
    发表于 01-22 06:28

    ChatGLM3-6B在CPU上的INT4量化和部署

    ChatGLM3 是智谱 AI 和清华大学 KEG 实验室联合发布的新一代对话预训练模型。ChatGLM3-6BChatGLM3 系列中的开源模型,在填写问卷进行登记后亦允许免费商业使用。
    的头像 发表于 01-05 09:36 916次阅读
    <b class='flag-5'>ChatGLM3-6B</b>在CPU上的INT4量化和部署