0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何使用MLC-LLM在A100/Mac M2上部署RWKV模型

jf_pmFSk4VX 来源:GiantPandaCV 2023-10-29 16:39 次阅读

0x0. 前言

这篇文章主要是填一下 MLC-LLM 部署RWKV World系列模型实战(3B模型Mac M2解码可达26tokens/s) 这里留下来的坑,这篇文章里面介绍了如何使用 MLC-LLM 在A100/Mac M2上部署 RWKV 模型。但是探索在Android端部署一个RWKV对话模型的app时却碰到了诸多问题,解决的周期也很长,之前留了issue在MLC-LLM的repo,这周@chentianqi大佬回复说之前编译出的app会在模型初始化阶段卡住的问题已经解决了,所以我又重新开始踩了一些坑最终完成了在手机上运行RWKV World4 3B模型的目的。这里把踩的坑和Android编译方法都描述一下。

我这里编译了一个RWKV4 World 3B模型的权重int4量化版本的apk,地址为:https://github.com/BBuf/run-rwkv-world-4-in-mlc-llm/releases/download/v1.0.0/app-debug.apk 。感兴趣的小伙伴可以下载这个apk到android手机上来运行,需要注意的是由于要在线拉取HuggingFace的权重,所以手机上需要可以访问HuggingFace需要代理。

在我的Redmik50手机上进行测试,效果和速度如下:

9c0883fc-7633-11ee-939d-92fbcf53809c.png

每一秒大概可以解码8个token,我感觉速度勉强够用了。由于RWKV5迭代到了第5个版本,后续希望能支持RWKV5的模型,当然也可以寻求新的优化机会提升解码速度。

0x1. 踩坑

之前写这篇文章 MLC-LLM 部署RWKV World系列模型实战(3B模型Mac M2解码可达26tokens/s) 的时候发现android app在初始化的时候一直会卡住,即使换成官方编译的app也是如此,所以提了issue之后就放弃了。现在这个bug被修复了,不过我没有找到具体的改动pr是什么,但我在mlc-llm的android部分没有发现相关改动,所以大概率是relax本身的bug,就不深究了。

这次仍然是按照之前的方法进行编译,但是也踩了几个坑,具体体现在下方的改动:

9c3b78de-7633-11ee-939d-92fbcf53809c.png

这个改动只是为了在本地可以编译出RWKV的android app,有坑的地方体现在下面的2个改动:

9c55d116-7633-11ee-939d-92fbcf53809c.png

第一个坑是在dump_mlc_chat_config的时候,对于RWKV World模型应该使用工程下面的tokenzier_model文件作为tokenzie的文件,但是之前没考虑这个问题(dump出的config中tokenizer_files字段为空)就会导致编译出的app在初始化阶段报错:

9c77d2de-7633-11ee-939d-92fbcf53809c.png

经过上面的修改之后重新在mlc-llm下面pip install .,然后编译模型就可以得到可以正常初始化的config了。这个问题是通过在Android Studio里面通过Device Explore查看下载的文件夹发现的,我发现少了一个tokenizer_model文件才注意的。

第二个坑是初始化完成之后聊天的时候不出字,我在mac上去复现了这个错误,然后发现是因为在RWKV里面把max_window_size这个属性设置成了1。

9c94482e-7633-11ee-939d-92fbcf53809c.png

然后在mlc_chat.cc里面通过max_window_size判断结束符时没有考虑-1,所以第一个token生成之后程序就终止了。所以在这里加一个特判进行了修复。

9cb44552-7633-11ee-939d-92fbcf53809c.png

解决了上面2个问题,编译出新的apk之后就可以正常运行了。

0x2. 详细教程

下面是编译出apk的详细教程。在这之前请阅读:MLC-LLM 部署RWKV World系列模型实战(3B模型Mac M2解码可达26tokens/s) ,这是前置内容。

对于Android,你可以按照https://mlc.ai/mlc-llm/docs/deploy/android.html的教程在你的手机上编译apk。

根据官方教程,这里有一些需要修改的地方:

  1. 修改这个文件。更新的内容应该是:
{
"model_libs":[
"RWKV-4-World-3B-q4f16_1"
],
"model_list":[
{
"model_url":"https://huggingface.co/BBuf/RWKV-4-World-3B-q4f16_1/",
"local_id":"RWKV-4-World-3B-q4f16_1"
}
],
"add_model_samples":[]
}
  1. 将代码的这个部分修改为:
compileOptions{
sourceCompatibilityJavaVersion.VERSION_17
targetCompatibilityJavaVersion.VERSION_17
}
kotlinOptions{
jvmTarget='17'
}
  1. 如果你遇到错误:“Android Gradle插件要求运行Java 17。你目前使用的是Java 11”,请按照https://stackoverflow.com/questions/76362800/android-gradle-plugin-requires-java-17-to-run-you-are-currently-using-java-11 的方法清除缓存并重新编译。

一旦你完成了APK的编译,你可以在你的手机上启用开发者模式并安装APK以供使用。

以小米手机为例,你可以按照下面的教程启用开发者模式并将APK传输到你的手机上。

  • 第一步:在手机上启用USB调试

    • 首先,前往你的手机的"设置 -> 我的设备 -> 所有规格 -> MIUI版本",连续点击"MIUI版本"七次以进入开发者模式。
    • 接下来,导航至"设置 -> 额外设置 -> 开发者选项",打开"USB调试"和"USB安装"。
  • 第二步:配置Android Studio

    • 打开你的Android Studio项目,前往"运行 -> 编辑配置",如下图所示,选择"打开选择部署目标对话框"。这将在每次你调试时提示设备选择对话框。注意:如果你直接选择"USB设备",你可能无法在调试过程中检测到你的手机。
  • 第三步:在线调试

    • 通过USB将你的手机连接到电脑。通常会自动安装必要的驱动程序。当你运行程序时,将出现设备选择对话框。选择你的手机,APK将自动安装并运行。

一个编译好的apk: https://github.com/BBuf/run-rwkv-world-4-in-mlc-llm/releases/download/v1.0.0/app-debug.apk

0x3. 总结

这篇文章分享了一下使用MLC-LLM将RWKV模型跑在Android手机上遭遇的坑以及编译的详细教程,接下来也会尝试一下RWKV5。想在andorid手机上本地运行开源大模型的伙伴们可以考虑一下MLC-LLM,他们的社区还是比较活跃的,如果你提出一些问题一般都会有快速的回复或者解决方法。

0x4. 相关link

  • https://github.com/mlc-ai/tokenizers-cpp/pull/14
  • https://github.com/mlc-ai/mlc-llm/pull/1136
  • https://github.com/mlc-ai/mlc-llm/pull/848
  • https://mlc.ai/mlc-llm/docs/
  • StarRing2022/RWKV-4-World-1.5B
  • StarRing2022/RWKV-4-World-3B
  • StarRing2022/RWKV-4-World-7B
  • https://github.com/mlc-ai/mlc-llm/issues/862
  • https://github.com/mlc-ai/mlc-llm/issues/859



声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 模型
    +关注

    关注

    1

    文章

    3298

    浏览量

    49147
  • 编译
    +关注

    关注

    0

    文章

    661

    浏览量

    32997
  • MLC
    MLC
    +关注

    关注

    0

    文章

    41

    浏览量

    17325

原文标题:0x4. 相关link

文章出处:【微信号:GiantPandaCV,微信公众号:GiantPandaCV】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    深度学习模型部署与优化:策略与实践;L40S与A100、H100的对比分析

    随着生成式AI应用的迅猛发展,我们正处在前所未有的大爆发时代。在这个时代,深度学习模型部署成为一个亟待解决的问题。尽管GPU训练和推理中扮演着关键角色,但关于它在生成式AI领域的误解仍然存在。近期英伟达L40S GPU架构成
    的头像 发表于 10-07 09:43 1634次阅读
    深度学习<b class='flag-5'>模型</b><b class='flag-5'>部署</b>与优化:策略与实践;L40S与<b class='flag-5'>A100</b>、H<b class='flag-5'>100</b>的对比分析

    搭载M2 Ultra的Mac Pro,真能兼具高性能和灵活扩展吗?

    芯片换代。新款Mac Pro保证超高自身性能的同时,也将扩展性做到了极致,但与前代产品相比,还是留有一些遗憾的。   M2 U ltra 性能突破   新款Mac Pro上最引人注目
    的头像 发表于 06-15 01:59 2059次阅读

    介绍STM32cubeIDE上部署AI模型的系列教程

    介绍STM32cubeIDE上部署AI模型的系列教程,开发板型号STM32H747I-disco,值得一看。MCUAI原文链接:【嵌入式AI开发】篇四|部署篇:STM32cubeID
    发表于 12-14 09:05

    Arm虚拟硬件上部署PP-PicoDet模型

    1、Arm虚拟硬件上部署PP-PicoDet模型  经典的深度学习工程是从确认任务目标开始的,我们首先来简单地介绍一下目标检测任务以及本期部署实战课程中我们所使用的工具和平台。  目
    发表于 09-16 14:42

    NVIDIA推出了基于A100的DGX A100

    发布A100 80GB加速卡之后,NVIDIA也更新了自家的DGX A100产品线,最多可达640GB HBM2e显存了。此外,还有全新的DGX Station
    的头像 发表于 11-17 10:26 4459次阅读

    苹果M2芯片将搭载新Mac系列设备6月份发布

      目前,苹果官宣将在6月初的WWDC 2022中公布M2芯片,将搭载与今年下半年推出的新Mac系列设备中。首款搭载M2自研芯片的设备为新款13英寸MacBook Pro、24英寸iMac和M
    的头像 发表于 04-06 11:46 5252次阅读

    OpenNCC上部署人脸检测模型

    电子发烧友网站提供《OpenNCC上部署人脸检测模型.zip》资料免费下载
    发表于 06-27 10:34 0次下载
    <b class='flag-5'>在</b>OpenNCC<b class='flag-5'>上部署</b>人脸检测<b class='flag-5'>模型</b>

    英伟达a100和h100哪个强?

    英伟达a100和h100哪个强? 英伟达A100比H100更强。英伟达A100处理大型
    的头像 发表于 08-07 17:32 1.5w次阅读

    英伟达a100a800的区别

    英伟达a100a800的区别 英伟达A100A800是两种不同的产品, 主要区别如下: 1. 架构不同:A100使用Ampere架构,
    的头像 发表于 08-07 17:57 4.5w次阅读

    英伟达A100和4090的区别

    2. 核心数量:英伟达A100的核心数量是6912个,4090中是4608个。 3. 性能:英伟达A100的理论最高浮点计算性能为19.5FP32/9.7FP64 exaFLOP
    的头像 发表于 08-08 11:59 3w次阅读

    英伟达A100的优势分析

    HBM2显存。 英伟达A100是一款高性能的GPU,其主要优势如下: 1. 支持高效的AI计算:A100采用了新一代的Tensor Core技术,能够AI计算方面提供卓越的性能,为A
    的头像 发表于 08-08 15:25 3384次阅读

    MLC-LLM的编译部署流程

    MLC-LLM部署各种硬件平台的需求,然后我就开始了解MLC-LLM的编译部署流程和RWKV
    的头像 发表于 09-04 09:22 3010次阅读
    <b class='flag-5'>MLC-LLM</b>的编译<b class='flag-5'>部署</b>流程

    深度学习模型部署与优化:策略与实践;L40S与A100、H100的对比分析

    、TensorFlow、PyTorch、Batchnorm、Scale、Crop算子、L40S、A100、H100A800、H800
    的头像 发表于 09-22 14:13 1222次阅读
    深度学习<b class='flag-5'>模型</b><b class='flag-5'>部署</b>与优化:策略与实践;L40S与<b class='flag-5'>A100</b>、H<b class='flag-5'>100</b>的对比分析

    mlc-llm对大模型推理的流程及优化方案

    MLC-LLM 部署RWKV World系列模型实战(3B模型
    发表于 09-26 12:25 987次阅读
    <b class='flag-5'>mlc-llm</b>对大<b class='flag-5'>模型</b>推理的流程及优化方案

    使用MLC-LLM支持RWKV-5推理的过程思考

    LLM的理解比较有限,从代码实现的角度来说,RWKV的状态和KV Cache不同,不依赖序列长度,这让RWKV模型各种长度下运行内存和运
    的头像 发表于 11-19 15:58 1036次阅读
    使用<b class='flag-5'>MLC-LLM</b>支持<b class='flag-5'>RWKV</b>-5推理的过程思考