0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

准确性超Moshi和GLM-4-Voice,端到端语音双工模型Freeze-Omni

智能感知与物联网技术研究所 来源:智能感知与物联网技术研 2024-12-17 10:21 次阅读

GPT-4o 提供的全双工语音对话带来了一股研究热潮,目前诸多工作开始研究如何利用 LLM 来实现端到端的语音到语音(Speech-to-Speech)对话能力,但是目前大部分开源方案存在以下两个问题:

LLM 灾难性遗忘:由于现有方案在语音模态与 LLM 进行对齐时,会或多或少对 LLM 进行微调,但由于要采集到与 LLM 本身训练的文本数据同等量级的语音数据是非常困难的,所以这一微调过程往往会导致 LLM 出现遗忘现象,造成 LLM 的聪明度下降

语音问答(Spoken Question Answering)任务的评估:多数工作对于语音问答的准确性并没有进行定量评估,从已有的一些评估结果也可以看出同一模型语音问答和文本问答相比准确性会有明显的差距

针对上述这些问题,近日腾讯&西工大&南大的研究人员提出了一种低延迟的端到端语音双工对话模型 Freeze-Omni(VITA 大模型系列第二个工作),其可以在完全冻结 LLM 的情况下,为 LLM 接入语音输入和输出,使其能够支持端到端的语音对话能力,且通过一系列优化使得其具备低延迟的双工对话能力,其主要特性如下:

在整个训练过程中,LLM 的参数被完全冻结,确保大型语言模型的知识能力被完全保留;

训练过程中所依赖的数据规模较小,消耗的计算资源也较少。Freeze-Omni 仅需要文本-语音配对数据(如 ASR 和 TTS 训练数据,比较容易获得)以及仅少量的文本模态的问答数据,语音问答准确性显著超越 Moshi 与 GLM-4-Voice 等目前 SOTA 的模型;

Freeze-Omni 可以支持任何具有文本模态的(多模态)大语言模型,能够保留基底大语言模型的能力,如提示服从和角色扮演等。此外,如果有必要改变大语言模型的领域或者回应方式,只需要用相应的文本数据对大语言模型进行微调即可,不需要采集大量语音的问答和对话数据。

04a1c67c-b61a-11ef-93f3-92fbcf53809c.png

论文标题:

Freeze-Omni: A Smart and Low Latency Speech-to-speech Dialogue Model with Frozen LLM

论文链接:

https://arxiv.org/abs/2411.00774

项目主页:

https://freeze-omni.github.io/

开源代码:

https://github.com/VITA-MLLM/Freeze-Omni

三阶段训练策略实现语音输入输出能力

Freeze-Omni 的整体结构如图 1 所示,其包含有语音编码器(Speech Encoder)和语音解码器(Speech Decoder)以及基底 LLM 三部分。 在运行过程中,流式的语音输入通过语音编码器形成分块(Chunk)特征,然后通过 Adapter 连接到 LLM,LLM 生成的 Hidden State 和文本 Token 的在分块分割后,分别以块的形式送入非自回归前缀语音解码器(NAR Prefix Speech Decoder)和非自回归语音解码器(NAR Speech Decoder)以进行 Prefill 操作。 最后自回归语音解码器(AR Speech Decoder)将会完成 Generate 操作以生成语音 Token,并由 Codec Decoder 将其流式解码为语音信号输出。

04b173c4-b61a-11ef-93f3-92fbcf53809c.png

▲ 图1. Freeze-Omni框架图 Freeze-Omni 各个模块的三阶段训练策略如下: 流式语音编码器的三阶段训练:如图 2 所示,第一阶段(a)会先使用 ASR 数据训练一个具有 ASR 能力的语音编码。 第二阶段(b)会以 ASR 任务为优化目标,将语音编码器与 LLM 做模态对齐,这个过程中 LLM 是处于冻结状态的。 第三阶段(c)会使用由 TTS 系统合成的语音输入-文本回答的多轮 QA 数据进行训练,这里会使用第二阶段训练好的语音编码器,但是其参数保持冻结以保留其语音鲁棒性,而可训练的参数只有每个问题前的 Prompt Embedding,用于指导 LLM 从 ASR 任务迁移到 QA 任务中。

04c4933c-b61a-11ef-93f3-92fbcf53809c.png

▲ 图2. 流式语音编码器的三阶段训练示意图 流式语音解码器的三阶段训练:如图 3 所示,第一阶段(a)会先训练一个单码本的语音编解码模型,使用单码本的目的主要是为了降低计算复杂度和时延。 第二阶段(b)将会训练 NAR 语音编码器和 AR 语音编码器,这里会使用文本-语音的 TTS 数据,其文本会通过基底 LLM 的 Tokenizer 转化为 Token,再经过基底 LLM 的 Embedding 层转化为文本特征,这个过程中 Embedding 的参数是冻结的,训练目标的语音 Token 是由第一阶段的语音编码器提供。 第三阶段(c)将会冻结第二阶段训练得到的所有网络,但同时加入了一个 NAR Prefix 语音编码器,其用于接受 LLM 输出的 Hidden State,并将输出的 kv-cache 作为第二阶段模型的初始 kv-cache,该过程使用的数据是文本输入-语音输出的 QA 数据,主要目的是为了使得语音编码器迁移到 LLM 的输出领域中。

04e17d44-b61a-11ef-93f3-92fbcf53809c.png

▲ 图3. 流式语音解码器的三阶段训练示意图 双工对话的状态标签训练:如图 4 所示,为了实现双工交互,Freeze-Omni 在语音编码器训练的第三阶段中,会为每个 Chunk 的最后一个语音帧对应的 LLM 输出 Hidden State 加入一个额外的分类层进行多任务训练,其目的主要是为了输出状态标签。 当使用 VAD 激活语音流输入后,状态标签 0 表示 LLM 将会继续接受语音 Chunk 的输入,状态标签 1 表示 LLM 将会停止接收语音,且会打断用户并进入 LLM 的 Generate 阶段输出回复,状态标签 2 表示 LLM 也会停止接收语音,但不会打断用户,相当于对这次语音激活做了拒识。

050cf406-b61a-11ef-93f3-92fbcf53809c.png

▲ 图4. 全双工对话的状态标签训练示意图

模型性能测评

训练配置:Freeze-Omni 在训练过程中,使用了开源 Qwen2-7B-Instruct 作为基底模型,语音编码器在训练过程中使用了 11 万小时中文英文混合的 ASR 数据,语音解码器训练过程使用了 3000 小时由 TTS 系统合成的文本-语音数据,所提到的 QA 数据是由 6 万条从 moss-003-sft-data 中抽取的多轮对话经过 TTS 系统合成得到的。 语音输入理解能力评估:Freeze-Omni 提供了其在常见的英文测试集上的 ASR 性能测试结果,从中可以看出,其 ASR 准确性处于较为领先的水平。

05343ed0-b61a-11ef-93f3-92fbcf53809c.png

▲ 图5. 语音理解能力评估 语音输出质量评估:Freeze-Omni 提供了其在 1000 条 LLM 输出的 Hidden State 与 Text Token 上语音解码器生成的语音在使用 ASR 模型测试得到的词错误率(CER),从结果中可以看出 NAR Prefix 语音解码器的引入会有效降低词错误率,提高生成语音的质量。

0555afac-b61a-11ef-93f3-92fbcf53809c.png

▲ 图6. 语音输出质量评估 语音问答准确性评估:Freeze-Omni 提供了其在 LlaMA-Questions, Web Questions, 和 Trivia QA 三个集合上的语音问答准确率评估。 从结果中可以看出 Freeze-Omni 的准确率具有绝对的领先水平,超越 Moshi 与 GLM-4-Voice 等目前 SOTA 的模型,并且其语音模态下的准确率相比其基底模型 Qwen2-7B-Instruct 的文本问答准确率而言,差距明显相比 Moshi 与其文本基底模型 Helium 的要小,足以证明 Freeze-Omni 的训练方式可以使得 LLM 在接入语音模态之后,聪明度和知识能力受到的影响最低。

05601294-b61a-11ef-93f3-92fbcf53809c.png

▲ 图7. 语音问答准确性评估 系统延迟评估:Freeze-Omni 还提供了端到端时延分析(即用户说完后到 LLM 输出音频的时间差),作者将其分为了可统计时延和不可统计时延两部分,其中可统计时延的总时长平均数仅为 745ms,而作者也提到如果经过测量考虑到网络延迟和不可统计时延部分,则系统的平均响应时延在 1.2s 左右,在行业内仍为领先水平。

0592eb88-b61a-11ef-93f3-92fbcf53809c.png

▲ 图8. 系统延迟评估

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 模型
    +关注

    关注

    1

    文章

    3217

    浏览量

    48801
  • LLM
    LLM
    +关注

    关注

    0

    文章

    285

    浏览量

    325

原文标题:准确性超Moshi和GLM-4-Voice!端到端语音双工模型Freeze-Omni

文章出处:【微信号:tyutcsplab,微信公众号:智能感知与物联网技术研究所】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    阶跃星辰发布国内首个千亿参数语音模型

    近日,阶跃星辰在官方公众号上宣布了一项重大突破——推出Step-1o千亿参数语音模型。该模型
    的头像 发表于 12-17 13:43 75次阅读

    利用OpenVINO部署GLM-Edge系列SLM模型

    近期智谱发布了其最新的GLM-Edge系列SLM模型GLM-Edge 系列是智谱在面向侧真实落地使用的场景下的一次尝试,由两种尺寸的大语言对话
    的头像 发表于 12-09 16:12 701次阅读

    智谱推出四个全新模型 携英特尔按下AI普及加速键

    GLM-Edge-4B-chat、GLM-Edge-1.5B-chat为侧大语言模型GLM-Edge-V-5B、
    的头像 发表于 12-02 17:13 183次阅读
    智谱推出四个全新<b class='flag-5'>端</b>侧<b class='flag-5'>模型</b> 携英特尔按下AI普及加速键

    如何提升ASR模型准确性

    提升ASR(Automatic Speech Recognition,自动语音识别)模型准确性语音识别技术领域的核心挑战之一。以下是一些提升ASR
    的头像 发表于 11-18 15:14 708次阅读

    连接视觉语言大模型自动驾驶

    自动驾驶在大规模驾驶数据上训练,展现出很强的决策规划能力,但是面对复杂罕见的驾驶场景,依然存在局限性,这是因为
    的头像 发表于 11-07 15:15 206次阅读
    连接视觉语言大<b class='flag-5'>模型</b>与<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>自动驾驶

    如何评估 ChatGPT 输出内容的准确性

    评估 ChatGPT 输出内容的准确性是一个复杂的过程,因为它涉及多个因素,包括但不限于数据的质量和多样模型的训练、上下文的理解、以及输出内容的逻辑一致
    的头像 发表于 10-25 17:48 556次阅读

    InfiniBand网络解决LLM训练瓶颈

    的,这需要大量的计算资源和高速数据传输网络。InfiniBand(IB)网络作为高性能计算和AI模型训练的理想选择,发挥着重要作用。在本文中,我们将深入探讨大型语言
    的头像 发表于 10-23 11:26 363次阅读
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>InfiniBand网络解决LLM训练瓶颈

    以太网端口双工模式是什么意思

    以太网端口双工模式是指以太网端口在数据传输过程中,能够同时发送和接收数据的能力或方式。双工模式对于网络性能和数据传输效率具有重要影响。以下是关于以太网端口双工模式的详细介绍,包括其定义、分类、配置方式、注意事项以及应用场景等方面
    的头像 发表于 10-08 10:14 721次阅读

    测试用例怎么写

    测试方法,旨在验证整个应用程序从前端后端的流程是否能够按照预期工作。它涉及多个系统组件和接口的交互,确保业务流程的完整和正确。 二、编写
    的头像 发表于 09-20 10:29 428次阅读

    智能硬件接入主流大模型语音交互(附文心一言、豆包、kimi、智谱glm、通义千问示例)

    到output1。● 链路2: 可通过web对话页调用大模型节点,最终将大模型结果输出到对话页面上。● 链路3: 可通过开发板调用大模型节点,最终将大模型输出的结果进行
    发表于 08-21 19:13

    电阻的电流和电压是如何区分的

    电阻,又称为四测量电阻或凯尔文电阻,是一种特殊的电阻器,主要用于精密测量电路中的电阻值。四电阻的电流和电压的区分对于测量的
    的头像 发表于 08-05 10:48 1125次阅读

    循环神经网络在语音识别中的应用

    , LSTM)和门控循环单元(Gated Recurrent Unit, GRU)等,展现了强大的性能。本文将深入探讨循环神经网络在语音识别中的应用,包括其背景、核心算法原理、具
    的头像 发表于 07-08 11:09 559次阅读

    小鹏汽车发布模型

    小鹏汽车近日宣布,其成功研发并发布了“国内首个量产上车”的模型,该模型可直接通过传感器输入内容来控制车辆,标志着智能驾驶技术的新突破
    的头像 发表于 05-21 15:09 671次阅读

    理想汽车自动驾驶模型实现

    理想汽车在感知、跟踪、预测、决策和规划等方面都进行了模型化,最终实现了模型。这种模型不仅
    发表于 04-12 12:17 443次阅读
    理想汽车自动驾驶<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>模型</b>实现

    Sparse4D-v3:稀疏感知的性能优化及拓展

    上限,解决更多的corner case,让系统更加鲁棒。因此,在Sparse4D-v3中,我们主要做了两部分工作,其一是进一步提升模型的检测性能,另一是将Sparse4D拓展为一个
    的头像 发表于 01-23 10:20 1352次阅读
    Sparse<b class='flag-5'>4</b>D-v3:稀疏感知的性能优化及<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>拓展