0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

TTS和ASR的概念区别!TTS的评判标准

nlfO_thejiangme 来源:未知 作者:李倩 2018-10-13 09:52 次阅读

TTS(Text-To-Speech,语音合成),目前是一个“小而美”的AI领域,但我个人觉得非常有意思,感觉TTS在未来会被行业真正重视起来,并且会出现做得不错的创业公司

本文,是作者收集了很多线上/线下的相关信息后,提炼出的AI产品经理“最必要”了解的TTS技术知识和行业现状(多了没必要,少了又不足以入门、准备面试或工作实战);不仅帮大家节省了时间,更是过滤了很多无用信息和过于技术的内容。

目录

一、核心概念

二、当前技术边界

三、瓶颈和机会(重点)

一、核心概念

1、TTS和ASR的概念区别

我们比较熟悉的ASR技术(Automatic Speech Recognition,语音识别),是将声音转化为文字,可类比于人类的耳朵。

而TTS技术(Text-To-Speech,语音合成),是将文字转化为声音(朗读出来),类比于人类的嘴巴。大家在Siri等各种语音助手中听到的声音,都是由TTS来生成的,并不是真人在说话。

TTS的技术实现方法,主要有两种:“拼接法”和“参数法”。

2、拼接法

1)定义:从事先录制的大量语音中,选择所需的基本单位拼接而成。这样的单位可以是音节、音素等等;为了追求合成语音的连贯性,也常常用使用双音子(从一个音素的中央到下一个音素的中央)作为单位。

2)优点:语音质量较高

3)缺点:数据库要求太大。一般需要几十个小时的成品预料。企业级商用的话,需要至少5万句,费用成本在几百万元。

3、参数法

1)定义:根据统计模型来产生每时每刻的语音参数(包括基频、共振峰频率等),然后把这些参数转化为波形。主要分为3个模块:前端、后端和声码器。

前端做的事情,是把文本进行解析,决定每个字的发音是什么,这句话用什么样的语气语调,用什么样的节奏来读,哪些地方是需要强调的重点等等。常见的语气相关的数据描述包含但不限于下面这些:韵律边界,重音,边界调,甚至情感。 还有更多的信息甚至是难以客观描述的,目前的算法只能暂且忽略。

注:拼接法和参数法,都有前端模块,拼接和参数的区别主要是后端声学建模方法的区别。

2)优点:数据库要求相对较小一些。

如果只需要出声(做demo),大概500句就可以,但是效果肯定不行。

通用TTS,一般至少需要5000句,6个小时(一般录制800句话,需要1个小时)。——从前期的准备、找人、找录音场地、录制、数据筛选、标注,最终成为“可以用的数据”,可能至少需要3个月。(讯飞在各方面比较成熟,用时会短很多)

个性化TTS,大多数是用“参数”方法的。(adobe、微软也有尝试过拼接法,不过相对参数方法来说不是太成熟,效果也并不是太通用)

3)缺点:质量比拼接法差一些。因为受制于发声算法,有损失。

因为主要弱点和难点就是声码器。声码器的作用是复现声音信号,难在重现声音细节,并且让人听不出各种杂音、沉闷、机械感等等。目前常见的声码器都是对声音信号本身作各种理论模型以及简化假设,可以说对细节的描述近似于忽略。

注:DeepMind的WaveNet,基本解决了声码器的问题。因为他们直接对语音样本进行预测,不依赖任何发音理论模型。最后出来的音质细节十分丰富,基本达到了与原始语音类似的音质水准(所谓质量提高了50%,就是这里),而且几乎可以对任意声音建模(这就太牛了)。

4、TTS的评判标准

1)主观测试(自然度),以MOS为主

A)MOS(Mean Opinion Scores),专家级评测(主观);1-5分,5分最好。

注:微软小冰公开宣传是4.3分,但有业内朋友认为,也不能据此就说其“绝对”比科大讯飞好,因为每次评审的专家人选都不一样。说白了,目前整个AI行业内,还是各家说自己好的节奏。

B)ABX,普通用户评测(主观)。让用户来试听两个TTS系统,进行对比,看哪个好。

C)每次主观测评应该有区分。比如这次着重听多音字,下次主要听语气词等。

2)客观测试

A)对合成系统产生的声学参数进行评估,一般是计算欧式距离等(RMSE,LSD)。

B)对合成系统工程上的测试:实时率(合成耗时/语音时长)、首包响应时间(用户发出请求到用户感知到的第一包到达时间)、内存占用、CPU占用、3*24小时crash率等。

二、技术边界

1、通用TTS

1)在用户预期不苛刻的场景(APP/硬件),能满足商业化需求,比如语音助手/滴滴/高德/智能音箱/机器人);但如果用户预期非常高的话,是很难满足的,因为还是会有“机器感/机械感”,不能非常自然的模拟人声。

2)目前行业各家公司的产品效果差不多,都基本能商用。

2、个性化TTS

1)在用户预期不苛刻的场景,能“基本”满足商业化需求,但是效果没通用TTS那么好。但如果用户预期非常高的话,暂时是满足不了的。

2)目前行业内能成熟商用的,主要还是科大讯飞,也有些创业公司在这个领域有所布局,如微量分贝(HEARD)这家致力于海量内容音频化的企业,对声音进行了分门别类的生成和储备,他们瞄准的企业级需求也会更为个性化、品牌化,诸如阿里巴巴旗下的“动物园”品牌(如天猫、闲鱼、盒马、菜鸟等),都会生成诸如“小猪佩奇”这样的角色化TTS 并被商用。

3、情感TTS

1)目前业界的情感合成更多了,是因为数据本身变多了、更有节奏了,超过了传统的播音风格,但并不是真正的“喜怒哀乐”等情感合成(想高兴就高兴的这种智能)。

2)在情感TTS的理论方面,学术界是有储备的,但是,整个行业目前都没怎么做(或者没做好),是因为情感TTS很依赖“情感意图识别”,“情感特征挖掘”、“情感数据”以及“情感声学技术”等,是个系统工程。其中第1点,即是和自然语言处理相关,比如需要知道“什么时侯该高兴或悲伤”;同时,具有情感演绎的语音数据的储备,也非常重要。

三、瓶颈和机会

主要有5个方向的瓶颈(同时也是机会)。

1、基础技术

1)TTS技术正处于重大变革:端到端(End-to-End)的TTS建模方法,加上WaveNet 的声码器思想,是未来TTS的发展方向。

端到端TTS,一般指tacotron,tacotron只是Google提出的合并了原先时长模型和声学模型的中段结构,可以接任何TTS前端和TTS后端。TTS前端如中文分词、注音、词性,都会提升tacotron性能;后端,参数、拼接、wavenet都可以选用。

关于WaveNet技术的商业化:Google今年初将第二代WaveNet技术商业化了,速度比第一代快一万倍。而国内各家公司,基本也仿制出来了(论文算法),但工程化还需要时间,而且成本还是太高,短期内应该没法商用。

关于效果:TTS最终效果好坏,技术只占50%不到,在技术都差不多的情况下,声优质量和数据量最重要,其次是相同部署规模和成本的TTS才能相互比较,即,不能简单的说哪家公司的效果比另一家更好,a)比如,拿百度/腾讯/阿里/图灵等很多家AI公司的WaveNet v1的效果,一般都能超过讯飞线上的接口,但部署成本高几万倍,且不实时;WaveNet V2商业化以后,虽然能实时,但部署成本至少也比高配拼接TTS高10倍左右。b)成本,部分和采样率相关,例如,讯飞/百度TTS的采样率都是16k,如果用24k和48k,主观体验至少强50%,但成本会翻倍;也就是说,其他AI公司的24kTTS的MOS,能吊打讯飞/百度的API,但不能说他们的技术就比讯飞/百度强,因为在商业化时,会牺牲效果来降低成本。

2)如何让离线版效果达到在线版水平。很多客户希望(奢望)有离线版本,并且效果和在线版本一样好……现阶段来说,可能真是“臣妾做不到啊”。

2、数据缺乏

一方面,特别是个性化TTS,需要数据量更大。比如默认男孩声音,要转成女孩,就比较难。

另一方面,数据的获取(制作)成本和周期,也是各家在初期的竞争着力点,比如,一般来说,一款(套)TTS数据,至少需要先录制2-3万句话,再加上数据标注,通常耗时在3个月以上(且需要主播全力配合),对于30小时的数据,价格通常在30-50万,而上文提到的微量分贝(HEARD)这家公司,调动了8000+位优质播音人员,在给不同内容配音的同时,也做了大量结构化数据的存储(库存化)。

这样,针对大部分客户的数据需求,并不需要再找主播进行录制,而是直接从仓库调取数据进行解冻即可(数据标注);通过将这种“边进行业务边赚取数据”的流程标准化,其获取数据的成本大大降低到行业的五分之一,并且一旦有需求,可以在1个月内进行交付。这家公司在南方搭建的数据标注工场的规模,也是巨大的,包括华为等公司都从其采购语音合成数据。

3、人才匮乏

不仅没法跟NLP、CV等热门AI人才比,就算跟同样不算热门的ASR比,TTS的人才都还要少一些。

4、产品化难度

由于技术限制,现阶段不可能有非常完美的TTS效果,所以:

1)尽量选择用户预期不苛刻的场景,或者在产品体验设计时,管理好用户预期(比如打车软件,郭德纲/林志玲的声音,差不多就行)。

2)选择“参数法”还是“拼接法”,和公司的技术储备、成本、以及产品目标相关。在垂直领域,现有的TTS技术(参数或者拼接)都可以针对产品做得很好。现在行业还没有太好的效果,很大原因是因为产品经理还没有深入介入,有很多细节的坑要踩(产品设计+工程化实现)——未来应该会有惊艳的产品出现。

3)体验细节设计,和一般互联网产品很不同,比如:

A)文案设计,非常重要;因为在语音交互场景,不能太长,用户没耐心和时间听完的。

B)可以加入背景音乐,掩盖杂音等细节瑕疵。

C)特殊场景,还有特别的需求,比如远场场景和戴耳机场景相比,还是会有区别的。

D)中英文混合TTS。比如用户想播首英语歌曲,困难在于:所有中文的发音当中,中文和英文合拍念出来是很难的,为什么呢?因为往往录音的人。录中文是一批人,录英文又是一批人。两种语言结合起来,再用机器学习学出来,声音就会变得非常怪。这方面,小雅音箱曾经花了很大的精力和成本去“死磕”解决。

5、商业化压力

1)如果要有足够的市场竞争力,至少需要12个月的时间,2~6人团队(如果有人做过前端相关工作,会节省巨大成本——工作量主要在中文前端NLP部分,比如分词、注音、词性文本规整化等),几百万资金投入(1个GPU一年十万,支持并发只有几十个)。并且,大公司的先发优势巨大,小公司必须切细分场景。

2)我个人认为,个性化TTS、情感TTS会在各细分场景得到更大的应用,比如知识付费、明星IP、智能硬件、车联网、实体/虚拟机器人等。

附:相关资料

1、相关高校及实验室

语音合成涉及专业领域较广,包含语言学、听觉与发声机理、自然语言分析、深度学习、信号处理等诸多领域,是一门综合性学科。

国际上,英国爱丁堡大学Simon King教授,卡耐基梅隆大学Alan W Black教授, 日本和歌山大学Kawahara教授,谷歌Heiga Zen所在的实验室均为国际顶级实验室。

国内来说,中国学术届也一直走在行业的前列,国际语音合成挑战赛blizzard challenge已经连续10多年冠军在中国。国内大部分的语音合成人才,均来自于中科大、中科院自动化所、中科院声学所、清华大学、西北工业大学等几家单位,比如西北工业大学的谢磊老师组,已向语音合成届输送了大量人才,在微软、百度、搜狗、小米、IBM、讯飞、流利说、出门问问、猎户星空、同盾等公司的核心岗位上,都有来自西工大的学生。

2、参考文章

《目前,人工智能语音在说中文时的语气感觉上还比较机械,怎样使人工智能语音的语气更自然一些?》http://t.cn/RFnP7EH

《如何评价谷歌下一代语音合成系统WaveNet?》http://t.cn/RFnPUkA

《TTS(Text-To-Speech)的原理是什么?》http://t.cn/RFnPfP1

《百度Deep Voice作者与Bengio团队探讨五大技术细节,端到端的语音合成还有多远?》http://t.cn/RoUvHAg

3、相关产品

讯飞配音app、讯飞朗读助手app、闪电配(http://www.soundems.com )等。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    29611

    浏览量

    267911
  • 语音识别
    +关注

    关注

    38

    文章

    1708

    浏览量

    112465
  • TTS
    TTS
    +关注

    关注

    0

    文章

    41

    浏览量

    10750

原文标题:语音合成(TTS)技术的概念、技术边界与未来机会

文章出处:【微信号:thejiangmen,微信公众号:将门创投】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    使用google-translate和wwe合并后无法使用google-tts怎么解决?

    我打算使用lyrat-mini做一个使用唤醒词唤醒然后后续通过google-sr和google-tts进行交流的聊天机器人,但是当我合并了adf的例子中的wwe和google-translate之后
    发表于 06-28 06:05

    整合离线语音识别ASRTTS,内存映射时发生内存不足怎么解决?

    整合TTSASR,发现识别模型和TTS字典映射冲突,应该是只有4M的数据空间可以映射导致的,换了16M模组也不行,应该不是flash的问题,测试找到返回错误0x101的位置是 按页映射的函数里
    发表于 06-28 07:34

    求助,TTS能够直接使用IO口输出到PA吗?

    TTS能够直接使用IO口输出到PA吗?不经过I2C和I2S解码芯片
    发表于 06-28 06:02

    【WRTnode2R申请】TTS中文语音处理

    申请理由:想用WRTnode做TTS中文语音处理项目描述:想用WRTnode做TTS中文语音处理
    发表于 09-10 11:26

    怎样通过ekho8.0去实现tts技术呢

    本文通过ekho8.0实现的tts技术能够准确读出英文、初步实现语法语义分析。能识别大部分多音字成语、正确读出年月日。并且由于ekho采用基于人录音的语料库的声音较其他大部分开源TTS引擎都平滑自然。支持普通话、***话、客家话、藏语和英语等。
    发表于 11-04 06:01

    TTS文字转语音模块的学习资料分享

    引言这个计划到今天也就完成了,原本按照计划是要实行三步走策略:1.TTS文字转语音模块的学习2.LD3320 语音识别模块的学习3.单片机吧两者结合起来骚想法之后浮现了一个骚想法:我只接就把语音识别
    发表于 02-15 06:01

    CB5654开发应用TTS

    前段时间实现一个播放SD的里的音乐的功能!今天试着实现读取SD卡里的文件,并用TTS播放文件内容!从文档里我们可以知道该功能只用到了部分功能,如图: 比如文件内容如下:沁园春·雪作者*** 朝代
    发表于 03-08 06:37

    基于TTS技术和脑电采集设备的精神疲劳实验系统设计

    在精神疲劳研究中,能客观地反映精神疲劳状态的实验系统是研究的基础。本文基于语音合成技术TTS,结合脑电采集设备,利用Microsoft Speech SDK语音开发包、TTS引擎和微软MFC基础类库,
    发表于 04-15 18:53 19次下载
    基于<b class='flag-5'>TTS</b>技术和脑电采集设备的精神疲劳实验系统设计

    LP-TTS V2.0中文语音合成模块使用说明.pdf

    TTS语音合成模块syn6288资料
    发表于 05-21 11:04 27次下载

    液晶电源p42TTS-0060电路图纸

    p42TTS-0060电路图纸免费下载。
    发表于 12-27 11:45 0次下载

    使用balena部署Basics Station TTS LoRa网关

    电子发烧友网站提供《使用balena部署Basics Station TTS LoRa网关.zip》资料免费下载
    发表于 06-15 10:10 0次下载
    使用balena部署Basics Station <b class='flag-5'>TTS</b> LoRa网关

    TTS语音合成技术及其应用

    TTS语音合成技术是一种将文本转换为自然语音的技术,它利用计算机技术和人工智能技术来模拟人声的发音和语调。该技术通过将文本转换为音素序列,并使用声学模型对每个音素进行参数化,最终生成自然语音
    的头像 发表于 06-24 02:28 1156次阅读

    TTS语音合成技术的挑战和未来发展

    TTS语音合成技术在实现过程中面临着一些挑战和问题。 首先,TTS语音合成技术需要处理自然语言理解和语音识别等复杂的问题,如何提高技术的准确率和效率是TTS语音合成技术需要解决的问题之一。其次
    的头像 发表于 06-24 03:18 1047次阅读

    基于GPS和TTS的自动报站器方案设计

    电子发烧友网站提供《基于GPS和TTS的自动报站器方案设计.pdf》资料免费下载
    发表于 10-08 10:21 0次下载
    基于GPS和<b class='flag-5'>TTS</b>的自动报站器方案设计

    玩转语音合成芯片(TTS芯片),看这一篇就够了

    什么是语音合成芯片:语音合成芯片也称为TTS芯片,即文字转语音芯片,是一种能够将输入的文字信息转换为语音输出的芯片。通过TTS芯片,我们可以将文字信息转化为自然语音,实现人机语音交互。
    的头像 发表于 03-19 18:13 1242次阅读
    玩转语音合成芯片(<b class='flag-5'>TTS</b>芯片),看这一篇就够了