0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

100%在树莓派上执行的LLM项目

jf_cVC5iyAO 来源:易心Microbit编程 2024-02-29 16:29 次阅读

ChatGPT的人性口语化回复相信许多人已体验过,也因此掀起一波大型语言模型(Large Language Model, LLM)热潮,LLM即ChatGPT背后的主运作技术,但LLM运作需要庞大运算力,因此目前多是在云端(Cloud)上执行。

然而在云端执行也有若干缺点,一是Internet断线时无法使用;二是或多或少会泄漏个资隐私;三是上传的话语内容会被审查,但审查标准难以捉摸,且已有诸多矫枉过正的案例;四是因为模型已放在云端与人共享,也可能已被他人误导,俗称模型被教坏了。

所以有些人也希望LLM能在本地端(Local)、本机端执行,如此就不怕断线、泄漏隐私、内容审查、误导等缺点。但要能在本地端执行,其LLM就不能太大,目前已经有诸多信息技术专家提出各种尝试,期望能将云端的LLM轻量化、减肥减肥,以便能在运算力有限的本机端执行。

全世界最简单的类GPT语音助理

对此已有创客发起项目,项目名就叫World’s Easiest GPT-like Voice Assistant,即世界上最简单的类GPT语音助理,以此实现完全在本机端执行的GPT语音服务,不需要任何Internet联机。

至于具体技术作法,首先是找一片树莓派单板计算机,例如RPi 4,然后装上麦克风与喇叭,成为语音互动对话的输入输出,而后安装Whisper这套软件,可以将麦克风接收到的语音转成文字,文字喂给LLM。

LLM接收输入后进行推论处理,处理后的结果以文字输出,输出的文字则透过另一个安装软件进行转化,即eSpeak,把文字转成语音后,再透过喇叭发声回复。

TinyLlama-1.1B模型来实现类GPT语音助理项目

麦克风与喇叭只是末梢,重点是在LLM,哪来的轻量型、本机端执行的LLM?答案是llamafile项目,这个项目将LLM打包成单一个档案,如此可方便地分发(分发distribute,通俗而言指可以轻易地下载文件、传递分享档案)与执行,项目发起者运用llamafile项目中的TinyLlama-1.1B模型来实现类GPT语音助理。

b27941ae-d6db-11ee-a297-92fbcf53809c.png

图3 llamafile项目官网画面(图片来源:GitHub)

TinyLlama-1.1B确实是一个娇小的LLM,以GPT-3而言就有175B,B即Billion指的是10亿,LLM的大小通常以参数数目为准,1,750亿个参数的LLM已相当庞大,需要对应强大的运算力才能顺畅执行。

其他庞大的LLM还有MT-NLG,有5,300亿个参数,或5,400亿个的PaLM等,都难以下放到本机端执行,本机端很难有对应强大的运算力来跑模型。而TinyLlama-1.1B顾名思义只有11亿个参数,参数大大减少下,本机端是有足够运算力执行该模型。

b29b6400-d6db-11ee-a297-92fbcf53809c.png

图4 llamafile项目提供多种预训练模型,目前以TinyLlama-1.1B最小,仅760MB(图片来源:GitHub)

当然,上述所言均是预训练模型(Pre-Train Model),或近期常称为基础模型(Foundation Model, FM),后续还是可以依据个人需要再行训练与调整,以便有更精准、更切合需求的推论结果。

这个类GPT语音助理项目完成上述后,实际测试的结果是,多数的发话询问后需要15秒左右的时间才能回复,复杂的询问则要更久的时间。有人可以等或觉得这时间还可以,若觉得太慢或许可以改用运算力更强的RPi 5单板计算机,可能可以快一点。

值得注意的是,这个项目不是用语音关键词(如Hey! Siri或OK! Google)来唤醒助理,而是设置一个按钮,按下去后才让树莓派开始接收语音询问。

另外,这整个项目用的都是开放源代码及免授权费的软件与模型,所以实现成本大概只有单板计算机、喇叭、麦克风、按钮等硬件而已。

其他技术细节包含llamafile与Raspberry Pi OS不兼容,所以在树莓派上是改安装Ubuntu Linux,更具体而言是64位的Ubuntu Server 22.04.3 LTS。另外,当然也要安装Python才能操控树莓派的GPIO接脚,从而能读取按钮状态(是否被按下)。

小结

最后,这肯定不是第一个也不是最后一个LLM本地端化的尝试,各种尝试正前仆后继地进行着,有的是提供压缩工具将原本肥大的LLM加以缩小,有的干脆是原生训练出轻量的LLM,现阶段可谓是百家争鸣。

而笔者个人的看法,1.1B的LLM已经很小,或许未来可以更小,但现阶段可能改用更强的硬件会更务实,例如使用有GPU的桌面计算机,或给树莓派加装AI硬件加速器等,以便让类GPT语音助理更快速响应。




审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • GPIO
    +关注

    关注

    16

    文章

    1204

    浏览量

    52055
  • 硬件加速器
    +关注

    关注

    0

    文章

    42

    浏览量

    12766
  • 树莓派
    +关注

    关注

    116

    文章

    1706

    浏览量

    105610
  • LLM
    LLM
    +关注

    关注

    0

    文章

    286

    浏览量

    327

原文标题:不怕脱机!100%在树莓派上执行的LLM项目

文章出处:【微信号:易心Microbit编程,微信公众号:易心Microbit编程】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    干货来喽!实用树莓派Linux编译指南

    不友好,有没有好的解决办法? 今天来分享一下我的私藏干货——树莓派Linux编译。编译好之后,开发板只需插到树莓派上连接电脑就可以直接用了,极其方便。 本文以树莓派为例,其他板子只要带
    的头像 发表于 12-18 16:31 50次阅读
    干货来喽!实用<b class='flag-5'>树莓</b>派Linux编译指南

    树莓派跑LLM难上手?也许你可以试试Intel哪吒开发板

    的兴起,现在有潜力更小巧、便携的设备上部署这些模型。例如,Raspberry Pi 树莓派和 Intel 哪吒开发套件等单片机。尽管体积小巧,但它们具备足够的能力运行某些精简版本的模型。本文就两款单片机上运行LLM做一个对比,
    的头像 发表于 12-02 09:43 302次阅读
    <b class='flag-5'>树莓</b>派跑<b class='flag-5'>LLM</b>难上手?也许你可以试试Intel哪吒开发板

    什么是LLMLLM自然语言处理中的应用

    所未有的精度和效率处理和生成自然语言。 LLM的基本原理 LLM基于深度学习技术,尤其是变换器(Transformer)架构。变换器模型因其自注意力(Self-Attention)机制而闻名,这种机制使得模型能够捕捉文本中的长距离依赖关系。
    的头像 发表于 11-19 15:32 528次阅读

    如何在树莓派上安装Docker容器

    1. 准备工作 开始之前,请确保你的树莓派已经安装了最新版本的Raspberry Pi OS。如果没有,请按照以下步骤操作: 下载最新的Raspberry Pi OS镜像:访问 Raspberry
    的头像 发表于 11-11 11:38 502次阅读

    树莓派上部署YOLOv5进行动物目标检测的完整流程

    卓越的性能。本文将详细介绍如何在性能更强的计算机上训练YOLOv5模型,并将训练好的模型部署到树莓派4B上,通过树莓派的摄像头进行实时动物目标检测。 一、电脑上训练YOLOv5模型
    的头像 发表于 11-11 10:38 927次阅读
    <b class='flag-5'>在</b><b class='flag-5'>树莓</b><b class='flag-5'>派上</b>部署YOLOv5进行动物目标检测的完整流程

    LLM技术对人工智能发展的影响

    。 一、LLM技术人工智能领域的应用 自然语言处理(NLP) LLM技术自然语言处理领域发挥着重要作用。通过训练模型识别和生成语言模式,LLM
    的头像 发表于 11-08 09:28 347次阅读

    LLM和传统机器学习的区别

    人工智能领域,LLM(Large Language Models,大型语言模型)和传统机器学习是两种不同的技术路径,它们处理数据、模型结构、应用场景等方面有着显著的差异。 1. 模型结构
    的头像 发表于 11-08 09:25 409次阅读

    树莓派和单片机的优缺点是什么

    树莓派(Raspberry Pi)和单片机(Microcontroller)是两种广泛应用于电子项目和嵌入式系统的硬件平台。它们各自具有独特的优缺点,适用于不同的应用场景。 树莓
    的头像 发表于 08-30 18:21 1618次阅读

    树莓派gui开发用什么ide

    树莓派(Raspberry Pi)是一款功能强大的微型计算机,可以运行多种操作系统,如Raspbian、Ubuntu等。树莓派上进行GUI(图形用户界面)开发,可以使用多种集成开发环
    的头像 发表于 08-30 16:49 850次阅读

    llm模型训练一般用什么系统

    LLM(Large Language Model,大型语言模型)是近年来自然语言处理领域取得显著成果的一种深度学习模型。它通常需要大量的计算资源和数据来进行训练。以下是关于LLM模型训练系统的介绍
    的头像 发表于 07-09 10:02 398次阅读

    LLM模型的应用领域

    本文中,我们将深入探讨LLM(Large Language Model,大型语言模型)的应用领域。LLM是一种基于深度学习的人工智能技术,它能够理解和生成自然语言文本。近年来,随着计算能力的提高
    的头像 发表于 07-09 09:52 575次阅读

    什么是LLMLLM的工作原理和结构

    随着人工智能技术的飞速发展,大型语言模型(Large Language Model,简称LLM)逐渐成为自然语言处理(NLP)领域的研究热点。LLM以其强大的文本生成、理解和推理能力,文本
    的头像 发表于 07-02 11:45 7615次阅读

    【算能RADXA微服务器试用体验】+ GPT语音与视觉交互:1,LLM部署

    。环境变量的配置,未来具体项目中我们会再次提到。 下面我们正式开始项目项目从输入到输出分别涉及了语音识别,图像识别,LLM,TTS这几个
    发表于 06-25 15:02

    精选推荐!看大佬用树莓派4做个迷你版PS5

    作者树莓派4上设置了RetroPie,并制作了一个3D打印的定制外壳,灵感来自PlayStation 5的设计。就像是PlayStation 5的迷你版,虽然它无法运行现代游戏,不过,这仍然是
    发表于 05-13 10:24

    解锁LLM新高度—OpenVINO™ 2024.1赋能生成式AI高效运行

    LLM 的发展仍保持着惊人的速度。尽管现有的 LLM 已经具备强大的功能,但通过 OpenVINO™ 的优化和推理加速,可以对这些复杂模型的执行进行精炼,实现更快、更高效的处理,减少计算开销并最大限度发挥硬件潜力,这将直接导致
    的头像 发表于 05-10 10:36 521次阅读