0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

在X3派上玩转一亿参数量超大Transformer,DIY专属你的离线语音识别

地瓜机器人 2023-02-21 16:08 次阅读

Transformer模型在自然语言领域被提出后,目前已经扩展到了计算机视觉、语音等诸多领域。然而,虽然Transformer模型在语音识别领域有着更好的准确率,但还面临着一个问题,计算复杂度和内存储存开销会随着语音时长的增加而变大。

技术普及在于产品价格亲民,而价格亲民在于技术易落地易实现,离线语音识别应运而生,运用深度学习等技术且只需在本地进行运算就可实现人机语音交互,而且具备实时的响应速度、无需联网的特点,能更好的应用在大小家电、照明、车载、健康仪器、教育设备等行业。

本次内容由社区优秀开发者、首百第四批新品体验官——宋星辰将带领大家DIY个人专属离线语音识别,在X3派上玩转一亿参数量的超大Transformer。欢迎感兴趣的旭友们点击注册地平线开发者社区交流讨论,相关文档详见地平线开发者社区。

技术详解

Step-1:模型转换的环境准备

环境准备本身没有什么奇技淫巧,这里想重点描述的是:pytorch版本的升级对精度瓶颈和速度瓶颈分析所带来的跨越式的体验提升。

在地平线开发者社区官方提供的安装包中,为了兼容训练算法包海图(HAT),安装的 pytorch版本为1.10.0。pytorch版本本身对模型转换的精度不会有什么影响,但是不同版本的pytorch所导出的onnx,在节点(node, 或称op)命名上有很大的区别。

就一般情况而言,当torch版本为1.10.0时,Node的命名采用了“optype+数字”的形式,这种形式的缺点是:当模型 Layer/SubLayer数量非常多(比如本文一亿参数量的Transformer,包含的 OP 有上千个),我们很难一眼定位 Conv_xx 到底是第几层的第几个卷积

1.png


torch 1.10.0版本结果

通常一个量化明显掉点的模型,会从中间某一个OP开始有鲜明的Cosine Similarity损失,在当前的命名格式下,为了找到这个OP在原始模型中的位置(第x Layer的第y SubLayer),我们需要从头开始一个一个数,这无疑是效率低下的。当然,随着对模型细节的熟悉,定位的速度会越来越快,但这不能从根本上解决效率问题。

相反,当torch版本升级到1.13.0时Node的命名采用了“Layer+SubLayer+Attribute+OP”的形式,一眼定位,一眼丁真,大大节省了开发人员定位精度问题(哪层的OP相似度下降严重)or 速度问题(哪层的OP跑在CPU)的时间。

2.png


torch 1.13.0版本结果

Step-2:C++ Demo 的编译

由于X3派板端内存有限,编译C++ Demo时笔者采用了交叉编译的形式,在开发机上sudo安装aarch gcc即可。至于使用C++实现BPU模型的板上推理,实现推理的逻辑本身是一件很容易的事情,无论是使用python实现亦或是C++实现,其流程都是固定的,也即:

3.png

关于这四个步骤的API调用范例,官方 C++ 文档中都给出了比较详细的 know-how 示例,但是大多数都是单模型 + 单输入的简单case,在语音识别模型中,会涉及到 多模型(多个bin串联)+ 多输入(一个bin有多个输入)的情况,这里给出本文的针对性示例:

// BPUAsrModel 类定义 using hobot::easy_dnn::Model; using hobot::easy_dnn::DNNTensor; using hobot::easy_dnn::TaskManager; using hobot::easy_dnn::ModelManager; class BPUAsrModel : public AsrModel { public: BPUAsrModel() = default; ~BPUAsrModel(); BPUAsrModel(const BPUAsrModel& other); void Read(const std::string& model_dir); void PrepareEncoderInput(const std::vector>& chunk_feats); // 其他成员函数... protected: void ForwardEncoderFunc(const std::vector>& chunk_feats, std::vector>* ctc_prob) override; private: // models std::shared_ptr encoder_model_ = nullptr; std::shared_ptr ctc_model_ = nullptr; // input/output tensors, 使用vector方便应对单模型多输入的情况 std::vector> encoder_input_, encoder_output_; std::vector> ctc_input_, ctc_output_; // 其他成员变量... };

Step-3:正式开始模型转换

(一)一行代码 改写Transformer模型

使用工具链去转换NLP领域的原生Transformer模型,体验可能会是非常糟糕的(甚至会在转换过程中直接报错)。这是因为NLP中的Transformer,输入tensor的维度通常是二维或三维,类型既包含float也包含long 。而XJ3芯片在设计时只着重考虑了视觉任务,通常都是浮点的四维图像输入,工具链也只对这类视觉模型有比较极致的体验优化。

那么,为了转换NLP类的Transformer,我们是否需要重头训练一个四维数据流的模型呢?答案显然是否定的,本文通过等价替换和抽象封装,实现了一行代码将原生Transformer等价改写为BPU友好的Transformer:

# 一键完成 3D数据流 Transformer 等价转换 4D数据流 Transformer Encoder4D = wenet.bin.export_onnx_bpu.BPUTransformerEncoder(Encoder3D)

这里的BPU TransformerEncoder就像是科幻电影中的“外骨骼机甲”一样,其内核没变(权重参数值没变),但是功能上实现了针对性升级。具体而言,在 BPUTransformerEncoder 的构造过程中,会逐OP遍历原生的 Encoder3D,并对其中的 BPU 不友好的 OP 实施等价改写。

(二) 一句命令 走完转换全流程

一个完整pytorch模型到bpu模型的转换流程,一般要经过如下四步:

①pytorch 模型 转 onnx 模型;

②构造 Calibration 数据;

③构造 config.yaml;

④调用 hb_mapper 执行 onnx 转 bpu bin。

在WeNet开源的代码中,我们用人民群众喜闻乐见的python把这四个步骤 “粘” 到了一起,使用如下命令,就可走完全流程。

python3 $WENET_DIR/tools/onnx2horizonbin.py \ --config ./model_subsample8_parameter110M/train.yaml \ --checkpoint ./model_subsample8_parameter110M/final.pt \ --output_dir ./model_subsample8_parameter110M/sample50_chunk8_leftchunk16 \ --chunk_size 8 \ --num_decoding_left_chunks 16 \ --max_samples 50 \ --dict ./model_subsample8_parameter110M/units.txt \ --cali_datalist ./model_subsample8_parameter110M/calibration_data/data.list

其中:

config(描述了模型配置,几层layer等);

checkpoint(pytorch 浮点模型);

output_dir(.bin 文件输出目录);

chunk_size(跟识别有关的解码参数);

num_decoding_left_chunks(跟识别有关的解码参数);

max_samples(使用多少句数据制作calibration data);

dict(字典);

cali_datalist(描述了标定数据的位置)。

综上,我们对如下这四个步骤实现了完完全全的 python化封装 和 一体化串联 ,真正实现了一句命令(python3 $WENET_DIR/tools/onnx2horizonbin.py ...)走完全部转换流程。

Demo展示

硬件配置:

4.png

模型配置:

5.png

解码速度对比(单核单线程,量化后的模型):

6.png

本文转自地平线开发者社区
原作者:xcsong

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 嵌入式
    +关注

    关注

    5087

    文章

    19150

    浏览量

    306319
  • 语音识别
    +关注

    关注

    38

    文章

    1742

    浏览量

    112734
  • 人工智能
    +关注

    关注

    1792

    文章

    47458

    浏览量

    239101
  • Transformer
    +关注

    关注

    0

    文章

    144

    浏览量

    6026
收藏 人收藏

    评论

    相关推荐

    离线语音识别技术引领智能语音灯具市场——NRK3502

    智能语音灯具集高科技与人性化设计,内置NRK3502离线语音识别芯片,支持远场识别与自定义指令,提供便捷智能体验,推动智能家居行业发展。
    的头像 发表于 12-30 15:04 143次阅读
    <b class='flag-5'>离线</b><b class='flag-5'>语音</b><b class='flag-5'>识别</b>技术引领智能<b class='flag-5'>语音</b>灯具市场——NRK3502

    NRK3502系列芯片 | 制氧机离线语音识别方案

    NRK3502芯片制氧机离线语音识别方案制氧机离线语音识别方案是基于NRK3502蓝牙双模智能
    的头像 发表于 12-04 01:02 171次阅读
    NRK3502系列芯片 | 制氧机<b class='flag-5'>离线</b><b class='flag-5'>语音</b><b class='flag-5'>识别</b>方案

    离线语音芯片让家电变得智能

    目前智能语音有多种方式,常见的有在线语音离线语音。因为智能语音处理需要用到算力,所以刚开始都是云端服务器提供算力来进行
    的头像 发表于 11-27 01:00 194次阅读
    <b class='flag-5'>离线</b><b class='flag-5'>语音</b>芯片让家电变得智能

    EVS103智能纯离线语音识别芯片介绍

    EVS103是一颗亚毫瓦级超低功耗面向带电池和便携式产品,以及对功耗有严苛要求的各类产品推出的智能纯离线语音识别芯片。依托于POROSVOC语音
    的头像 发表于 11-11 11:34 277次阅读
    EVS103智能纯<b class='flag-5'>离线</b><b class='flag-5'>语音</b><b class='flag-5'>识别</b>芯片介绍

    影响离线语音识别灵敏度的因素

    有用户反馈离线语音识别不灵敏,跟着笔者一起分析原因吧。笔者知识能力有限,难免会误,还请大家批评指正。
    的头像 发表于 10-25 17:13 510次阅读
    影响<b class='flag-5'>离线</b><b class='flag-5'>语音</b><b class='flag-5'>识别</b>灵敏度的因素

    物联网系统智能控制产品的语音识别方案_离线语音识别芯片分析

    01 物联网系统中为什么要使用离线语音识别芯片 物联网系统中使用离线语音识别芯片的原因主要基于以
    的头像 发表于 09-26 17:56 676次阅读
    物联网系统智能控制产品的<b class='flag-5'>语音</b><b class='flag-5'>识别</b>方案_<b class='flag-5'>离线</b><b class='flag-5'>语音</b><b class='flag-5'>识别</b>芯片分析

    九芯电子NRK330X智能风扇离线语音控制方案

    随着科技的快速发展,离线语音识别技术逐渐成为智能家居领域的重要组成部分。它能够将人类的语音转化为计算机可识别的数字信号,并在不需要联网的情况
    的头像 发表于 09-21 08:02 322次阅读
    九芯电子NRK330<b class='flag-5'>X</b>智能风扇<b class='flag-5'>离线</b><b class='flag-5'>语音</b>控制方案

    智能玩具用离线语音识别芯片有什么优势

    随着科技的发展,很多智能电子产品和儿童玩具实现了与人类的交互,语音芯片在这些人机交互中起到了不可替代的作用,语音识别芯片在智能玩具中的应用就为其带来了更多的优势。‌离线
    的头像 发表于 09-20 10:00 298次阅读
    智能玩具用<b class='flag-5'>离线</b><b class='flag-5'>语音</b><b class='flag-5'>识别</b>芯片有什么优势

    智能玩具用离线语音识别芯片有什么优势

    离线语音识别芯片NRK3301智能玩具中应用广泛,其高识别率、低成本、低功耗等特性,提升了用户体验和互动性,支持本地和云端处理,适合无网络
    的头像 发表于 09-19 10:00 620次阅读
    智能玩具用<b class='flag-5'>离线</b><b class='flag-5'>语音</b><b class='flag-5'>识别</b>芯片有什么优势

    什么是离线语音识别芯片?与在线语音识别的区别

    离线语音识别芯片适用于智能家电等,特点为小词汇量、低成本、安全性高、响应快,无需联网。在线语音识别功能更广泛、
    的头像 发表于 07-22 11:33 431次阅读

    Transformer模型语音识别语音生成中的应用优势

    随着人工智能技术的飞速发展,语音识别语音生成作为人机交互的重要组成部分,正逐渐渗透到我们生活的各个方面。而Transformer模型,自其诞生以来,凭借其独特的自注意力机制和并行计算
    的头像 发表于 07-03 18:24 1208次阅读

    智能故事机离线语音识别芯片,儿童教育新体验!

    产品如虎添翼,成为了市场上的热销产品。 智能故事机离线语音识别芯片的方案 故事机中置入NRK3301语音
    的头像 发表于 05-22 09:21 542次阅读

    **十万级口语识别离线自然说技术,让智能照明更懂你**

    ,调节灯光的亮度、色温,定时,场景控制等,实现安全、节能、舒适、高效的照明体验。 智能照明中,语音控制因其便捷性而备受青睐。然而,传统的离线语音控制方式存在诸多局限,如支持的词条
    发表于 04-29 17:09

    离线自然说,无需记固定唤醒词也能语音控制设备!

    电子发烧友网报道(文/李弯弯)离线语音识别是指不需要依赖网络,本地设备实现语音识别的过程,通常
    的头像 发表于 04-29 09:12 4662次阅读
    <b class='flag-5'>离线</b>自然说,无需记固定唤醒词也能<b class='flag-5'>语音</b>控制设备!

    澎湃微离线语音识别应用实例

    随着科技的飞速发展,人机交互的方式也不断演变。键盘、触摸屏之后,语音识别技术正逐渐成为人机交互的新宠。从技术路线上来讲语音
    发表于 03-15 14:11 454次阅读
    澎湃微<b class='flag-5'>离线</b><b class='flag-5'>语音</b><b class='flag-5'>识别</b>应用实例