Firefly开源团队推出了 Llama3 部署包,提供简易且完善的部署教程,过程无需联网,简单快捷完成本地化部署。
Step.1
准备部署包
在电脑上以管理员身份打开cmd:
执行 scp 命令传输部署包至AIBOX,并输入密码 linaro 获取访问权限。
scpllama3.tarlinaro@:~/
其中为模型实际的文件路径, 是 AIBOX-BM1684X 的 IP 地址
例:scp C:\Users\Administrator\Downloads\llama3.tar linaro@192.168.150.1:~/
Step.2
部署Llama3
完成部署包的传输后,执行登录命令,连接 AIBOX,并输入密码 linaro。
sshlinaro@192.168.150.1
执行以下解压命令,解压部署包,等到解压完成。
tar-xvf./llama3.tar
解压完成后,执行部署脚本,等待部署完成。
./talk_to_llama3.sh
使用Llama3
部署完成后,即可使用 Llama3。
Tip:部署过程中无需联网,首次部署 Llama3 需要花费较长时间进行相应的软件安装(3-5min),请耐心等待。
-
软件
+关注
关注
69文章
5034浏览量
88184 -
Firefly
+关注
关注
2文章
538浏览量
7147
发布评论请先 登录
相关推荐
用Ollama轻松搞定Llama 3.2 Vision模型本地部署
![用Ollama轻松搞定<b class='flag-5'>Llama</b> 3.2 Vision模型本地<b class='flag-5'>部署</b>](https://file1.elecfans.com/web1/M00/F5/55/wKgZoWc7JxyAIjH6AAOAYWrMm0s290.png)
Llama 3 的未来发展趋势
Llama 3 适合的行业应用
Llama 3 语言模型应用
使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct模型
![使用OpenVINO 2024.4在算力魔方上<b class='flag-5'>部署</b><b class='flag-5'>Llama</b>-3.2-1B-Instruct模型](https://file1.elecfans.com/web2/M00/0A/3C/wKgaomcJ07qARxhNAAAZSqvUA0U340.png)
[技术] 【飞凌嵌入式OK3576-C开发板体验】llama2.c部署
源2.0-M32大模型发布量化版 运行显存仅需23GB 性能可媲美LLaMA3
![源2.0-M32大模型发布量化版 运行显存仅需23GB 性能可媲美<b class='flag-5'>LLaMA3</b>](https://file1.elecfans.com//web2/M00/05/0E/wKgaombLOmGAMfOeAACBJMP6AFU808.jpg)
【算能RADXA微服务器试用体验】+ GPT语音与视觉交互:1,LLM部署
使用OpenVINO™在你的本地设备上离线运行Llama3之快手指南
![使用OpenVINO™在你的本地设备上离线运行<b class='flag-5'>Llama3</b>之快<b class='flag-5'>手指南</b>](https://file1.elecfans.com/web2/M00/DA/D8/wKgZomYrBtOAbFzBAAAO-hL00A4165.png)
Llama 3 王者归来,Airbox 率先支持部署
![<b class='flag-5'>Llama</b> <b class='flag-5'>3</b> 王者归来,Airbox 率先支持<b class='flag-5'>部署</b>](https://file1.elecfans.com/web2/M00/A6/4A/wKgaomUTnHiADnB2AAAtr1gPdQM010.png)
评论