0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

deepin 25+DeepSeek-R1+Ollama本地搭建全流程

深度操作系统 来源:深度操作系统 2025-02-19 10:43 次阅读

日前,为了使 deepin 和 UOS AI 更加开放,我们正式开放了 UOS AI 的模型接入接口。这意味着,所有符合 OpenAI 接口格式的大模型,都可以无缝接入 UOS AI。大家可以根据自身需求,自由接入心仪的大模型,让 UOS AI 成为更具个性化的智能伙伴。

在上一篇文章中,我们为大家详细介绍了 UOS AI 如何离线或在线接入 DeepSeek-R1 模型。今天我们将进一步深入,为大家详细讲解如何借助 Ollama 在本地部署并运行 DeepSeek-R1 模型。

* 感谢社区用户「Feelup」提供的教程,本次本地部署在 deepin 25 Preview 环境中通过Ollama 完成。

1

Ollama 部署

进入 Ollama 网站并复制 Linux 下需要使用的命令,并粘贴到终端中执行。

51bcb4a0-ede0-11ef-9310-92fbcf53809c.png

Ollama下载完成后,通过以下命令可查看当前 Ollama 版本

ollama --version

2

Ollama 服务配置

说明1:若您只希望简单使用,可跳过此处服务配置。 说明2:此处 Ollama 服务配置主要调整了 Ollama 下载模型文件的保存位置和服务访问限制调整。

sudo vim /etc/systemd/system/ollama.service
默认的配置文件内容
[Unit]
Description=Ollama Service
After=network-online.target


[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"


[Install]
WantedBy=default.target

非 deepin 25 服务修改参考

该 Ollama 服务配置适用于 Ubuntu、RedHat、deepin 23 等大多数 Linux 系统

[Unit]
Description=Ollama Service
After=network-online.target


[Service]
ExecStart=/usr/local/bin/ollama serve
User=nano      #此处为当前的用户名(可选:如果调整了模型的下载保存位置的话,可解决权限问题)
Group=nano     #此处为当前的用户名(可选:如果调整了模型的下载保存位置的话,可解决权限问题)
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_MODELS=/media/nano/Date/Ollama_Models"   #可选:设置模型的下载位置
Environment="OLLAMA_HOST=0.0.0.0:11434"  #可选:设置可访问ollama服务的地址与端口(此处表示任意IP地址都可以从端口11434访问此ollama服务)


[Install]
WantedBy=default.target

deepin 25 服务修改参考

由于 deepin 25 采用了不可变系统设计,Ollama 安装完成后,程序的执行文件位置出现了一些变化。

51c7f7ca-ede0-11ef-9310-92fbcf53809c.png

在进行 Ollama 服务配置时也需要做相应的修改(否则可能会出现服务运行异常)

[Unit]
Description=Ollama Service
After=network-online.target


[Service]
ExecStart=/var/usrlocal/bin/ollama serve    #此处调整了ollama程序的位置
User=nano      #此处为当前的用户名(可选:如果调整了模型的下载保存位置的话,可解决权限问题)
Group=nano     #此处为当前的用户名(可选:如果调整了模型的下载保存位置的话,可解决权限问题)
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_MODELS=/media/nano/Date/Ollama_Models"   #可选:设置模型的下载位置
Environment="OLLAMA_HOST=0.0.0.0:11434"  #可选:设置可访问ollama服务的地址与端口(此处表示任意IP地址都可以从端口11434访问此ollama服务)


[Install]
WantedBy=default.target

3

Ollama服务启动

更新服务配置:

sudo systemctl daemon-reload
重启 Ollama 服务:
sudo systemctl restart ollama.service
查看 Ollama 服务运行状态:
systemctl status ollama.service

4

DeepSeek-R1模型下载

在 Ollama 站内检索您所需要下载的模型名称关键字,根据个人电脑配置选择合适大小的参数模型,点击复制模型下载命令,并将命令粘贴到终端中进行下载即可。

51e61566-ede0-11ef-9310-92fbcf53809c.png

本例选择下载 1.5b 参数量大小的模型,模型下载完成后将自动运行,此时可以使用如下命令在「终端」中与它进行对话:

ollama run deepseek-r1:1.5b
下面是一个简单的运行示例

51fdb05e-ede0-11ef-9310-92fbcf53809c.png

5

在 UOS AI 中添加 DeepSeek-R1

打开 UOS AI 的「设置」选项,在「模型配置」中选择「私有化部署模型-添加」,进入 UOS AI 的模型添加界面。

522e78b0-ede0-11ef-9310-92fbcf53809c.png

完成添加窗口中的内容填写,并点击确定即可,本例中使用到的信息参考如下:

账号名称:DeepSeek-R1 模型名:deepseek-r1:1.5b 请求地址:http://127.0.0.1:11434/v1

5246d19e-ede0-11ef-9310-92fbcf53809c.png

填写完毕并提交确定后,程序会验证对应的大模型是否可用,验证成功后,DeepSeek-R1 便被添加至本地模型。

52680972-ede0-11ef-9310-92fbcf53809c.png

随后即可在 UOS AI 中选择 DeepSeek-R1 模型进行使用。

52a561a0-ede0-11ef-9310-92fbcf53809c.png

注:以上本地部署流程不仅仅适用于 DeepSeek-R1 模型,同样也适用于其它模型的本地部署。

附录:

[1]deepin UOS AI 离线、在线接入 DeepSeek-R1 教程 [2] deepin UOS AI 如何配置自定义模型

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    32929

    浏览量

    272562
  • UOS系统
    +关注

    关注

    0

    文章

    8

    浏览量

    2238
  • DeepSeek
    +关注

    关注

    1

    文章

    696

    浏览量

    572

原文标题:deepin 25 + DeepSeek-R1 + Ollama 本地搭建全流程

文章出处:【微信号:linux_deepin,微信公众号:深度操作系统】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    相关推荐

    如何在RakSmart服务器上用Linux系统部署DeepSeek

    ://ollama.com/install.sh | sh`,并配置服务监听所有网络接口(修改 `/etc/systemd/system/ollama.service` 添加 `OLLAMA_HOST=0.0.0.0`)。 2.
    的头像 发表于 03-14 11:53 186次阅读

    在MAC mini4上安装Ollama、Chatbox及模型交互指南

    作者:算力魔方创始人/英特尔创新大使刘力 一,简介 本文将指导您如何在MAC mini4上安装Ollama和Chatbox,并下载Deepseek-r1:32b模型。Ollama是一个用于管理和运行
    的头像 发表于 03-11 17:17 382次阅读
    在MAC mini4上安装<b class='flag-5'>Ollama</b>、Chatbox及模型交互指南

    技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode

    OllamaDeepseek-R1、AnythingLLM 搭建强大的本地个人知识库,并详细介绍 Continue 在 VScode 中的本地
    的头像 发表于 03-04 14:47 228次阅读
    技术融合实战!<b class='flag-5'>Ollama</b>携手<b class='flag-5'>Deepseek</b><b class='flag-5'>搭建</b>知识库,Continue入驻VScode

    RK3588开发板上部署DeepSeek-R1大模型的完整指南

    DeepSeek作为国产AI大数据模型的代表,凭借其卓越的推理能力和高效的文本生成技术,在全球人工智能领域引发广泛关注。DeepSeek-R1作为该系列最新迭代版本,实现了长文本处理效能跃迁、多模态
    发表于 02-27 16:45

    9.9万元用上“满血”DeepSeek R1一体机,本地部署成新商机?引发外媒热议

    本地部署的热潮 DeepSeek R1作为一款强大的AI大模型,其本地部署能够带来诸多优势,如保护数据安全和隐私、避免核心数据传输至第三方云端等。因此,
    的头像 发表于 02-27 09:20 963次阅读

    行芯完成DeepSeek-R1大模型本地化部署

    近日,行芯正式宣布完成 DeepSeek-R1 大模型本地化部署,实现在多场景、多产品中应用。解锁“芯”玩法,开启“芯”未来!
    的头像 发表于 02-24 15:17 392次阅读

    宇芯基于T527成功部署DeepSeek-R1

    近日,宇芯成功在志T527 Linux系统上本地部署并运行了DeepSeek-R1 1.5B模型。
    的头像 发表于 02-15 09:06 613次阅读
    宇芯基于T527成功部署<b class='flag-5'>DeepSeek-R1</b>

    了解DeepSeek-V3 和 DeepSeek-R1两个大模型的不同定位和应用选择

    设计到GDSII文件生成的流程AI辅助 需定制开发中间件实现工具间数据传递 四、局限性说明 即使是R1也存在以下局限,需人工复核: 数值精度问题 :浮点计算可能引入微小误差(需与仿真工具交叉验证
    发表于 02-14 02:08

    【实测】用志A733平板搭建一个端侧Deepseek算力平台

    ​ 随着DeepSeek 的蒸馏技术的横空出世,端侧 SoC 芯片上运行大模型成为可能。那么端侧芯片跑大模型的效果如何呢?本文将在志 A733 芯片平台上部署一个 DeepSeek-R1:1.5B
    发表于 02-13 10:19

    实战案例 | 眺望RK3588 RKLLM部署DeepSeek-R1流程

    前言:在RK3588上部署Deepseek有两种方法,分别是使用Ollama工具部署和使用瑞芯微官方的RKLLM量化部署。Ollama是一个开源的大模型服务工具,调用的是CPU进行的运算,如果要将
    的头像 发表于 02-12 08:31 3114次阅读
    实战案例 | 眺望RK3588 RKLLM部署<b class='flag-5'>DeepSeek-R1</b><b class='flag-5'>全</b><b class='flag-5'>流程</b>

    AIBOX 系产品已适配 DeepSeek-R1

    国产AI大模型DeepSeek以出色的性价比和高效的模型技术,迅速成为全球AI关注的焦点。Firefly开源团队率先实现AIBOX系列产品对DeepSeek-R1的全面适配。R1模型性能数据
    的头像 发表于 02-08 17:30 329次阅读
    AIBOX <b class='flag-5'>全</b>系产品已适配 <b class='flag-5'>DeepSeek-R1</b>

    DeepSeek-R1本地部署指南,开启你的AI探索之旅

    的进一步使用。 论文链接:https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf 1|0一、什么是
    的头像 发表于 02-08 10:30 4506次阅读
    <b class='flag-5'>DeepSeek-R1</b><b class='flag-5'>本地</b>部署指南,开启你的AI探索之旅

    deepin UOS AI接入DeepSeek-R1模型

    DeepSeek-R1 模型自发布以来吸引了众多用户关注,为了让 deepin 用户更好地体验这一前沿技术,UOS AI 现已适配接入 DeepSeek-R1 端侧模型!无需忍受服务器崩溃,两步即可在
    的头像 发表于 02-08 09:52 605次阅读

    在龙芯3a6000上部署DeepSeek 和 Gemma2大模型

    serve 2.运行deepseek-r1大模型 到以下网站选择不同参数的大模型 https://ollama.com/library/deepseek-r1 新开一个终端执行如下命令 $
    发表于 02-07 19:35

    DeepSeek-R1尺寸版本上线Gitee AI

    DeepSeek 全套蒸馏模型以及 V3 版本上线后,经过 Gitee AI 和沐曦团队两天紧锣密鼓的适配和机器筹备,DeepSeek-R1尺寸版本现在已上线 Gitee AI 供开发者们使用。
    的头像 发表于 02-07 15:25 707次阅读