Ollama 是一个开源的大语言模型服务工具,它的核心目的是简化大语言模型(LLMs)的本地部署和运行过程,请参考《Gemma 2+Ollama在算力魔方上帮你在LeetCode解题》,一条命令完成Ollama的安装。
一,Llama3.2 Vision简介
Llama 3.2 Vision是一个多模态大型语言模型(LLMs)的集合,它包括预训练和指令调整的图像推理生成模型,有两种参数规模:11B(110亿参数)和90B(900亿参数)。Llama 3.2 Vision在视觉识别、图像推理、字幕以及回答有关图像的通用问题方面进行了优化,在常见的行业基准上优于许多可用的开源和封闭多模式模型。
二,在算力魔方4060版上完成部署
算力魔方®4060版是一款包含4060 8G显卡的迷你主机,运行:
ollama run llama3.2-vision
完成Llama 3.2 Vision 11B模型下载和部署。
三,Llama 3.2实现图片识别
将图片输入Llama3.2-Vision,然后直接输入问题,即可获得图片信息,如下面视频所示:
视频若无加载,请移步至主页查看关联视频。
四,总结
在算力魔方®4060版上,用Ollama轻松搞定Llama 3.2 Vision模型本地部署。
更多精彩内容请关注“算力魔方®”!
审核编辑 黄宇
-
模型
+关注
关注
1文章
3374浏览量
49320 -
Vision
+关注
关注
1文章
199浏览量
18308
发布评论请先 登录
相关推荐
添越智创基于 RK3588 开发板部署测试 DeepSeek 模型全攻略
在龙芯3a6000上部署DeepSeek 和 Gemma2大模型
在算力魔方上本地部署Phi-4模型
![在算力魔方上<b class='flag-5'>本地</b><b class='flag-5'>部署</b>Phi-4<b class='flag-5'>模型</b>](https://file1.elecfans.com/web3/M00/06/0A/wKgZPGeHLW-ABC3FAAFm4cCBsoA793.png)
使用NVIDIA TensorRT提升Llama 3.2性能
![](https://file1.elecfans.com/web1/M00/F5/55/wKgZoWc7J36AauuyAATOAfChJJ0572.png)
Meta发布Llama 3.2量化版模型
使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct模型
![使用OpenVINO 2024.4在算力魔方上<b class='flag-5'>部署</b><b class='flag-5'>Llama-3.2</b>-1B-Instruct<b class='flag-5'>模型</b>](https://file1.elecfans.com/web2/M00/0A/3C/wKgaomcJ07qARxhNAAAZSqvUA0U340.png)
评论