0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何为Orca-2-13B创建一个与OpenAI兼容的API服务呢?

jf_wN0SrCdH 来源:Second State 2023-11-27 10:46 次阅读

Orca-2-13B[1] 是微软最新发布的 Orca 2 系列中的一款模型,Orca 2 另外还提供 7B 版本。Orca 2系列模型是由 LLAMA 2 基础模型中微调而来。Orca 2系列模型擅长推理、文本总结、数学问题解决和理解任务,是在原始 13B Orca 模型的基础上进一步发展而来,模仿更强大的 AI 系统推理过程从而提高小型模型在复杂任务中的能力。

本文将以 Orca-2-13B 为例,将介绍:

如何在你自己的设备上运行 Orca-2-13B

如何为 Orca-2-13B 创建一个与 OpenAI 兼容的 API 服务

你也可以使用同样的方式运行 Orca-2-7B 模型,只需要替换 Orca-2-7B模型的 GGUF 格式的下载链接。

我们将用 Rust + Wasm 技术栈来开发和部署这个模型的应用程序。无需安装复杂的 Python 包或 C++ 工具链!了解我们为什么选择 Rust+Wasm 技术栈[2]。

在自己的设备上运行 Orca-2-13B

步骤 1:通过以下命令行安装 WasmEdge[3]。

curl-sSfhttps://raw.githubusercontent.com/WasmEdge/WasmEdge/master/utils/install.sh|bash-s----pluginwasi_nn-ggml

步骤 2:下载模型 GGUF 文件[4]。由于模型文件有几 GB,所以可能需要很长时间。

curl-LOhttps://huggingface.co/second-state/Orca-2-13B-GGUF/resolve/main/Orca-2-13b-ggml-model-q4_0.gguf

步骤 3:下载一个跨平台的可移植 Wasm 文件,用于聊天应用。该应用能让你用命令行与模型进行交流。戳这里[5]查看该应用的 Rust 源代码。

curl-LOhttps://github.com/second-state/llama-utils/raw/main/chat/llama-chat.wasm

就这样。接下来,可以通过输入以下命令在终端与模型进行聊天。

wasmedge--dir.:.--nn-preloaddefaultAUTO:Orca-2-13b-ggml-model-q4_0.ggufllama-chat.wasm-pchatml-s'YouareOrca,anAIlanguagemodelcreatedbyMicrosoft.Youareacautiousassistant.Youcarefullyfollowinstructions.Youarehelpfulandharmlessandyoufollowethicalguidelinesandpromotepositivebehavior.'--stream-stdout

这个可移植的 Wasm 应用会自动利用你设备上的硬件加速器(如 GPU)。

在我的 Mac M1 32G 内存设备上,它的速度约为每秒 9.15 个token。

[USER]:What isanOrca?

[ASSISTANT]:
Anorca,orkillerwhale,isalargetoothedpredatorbelongingtotheoceanicdolphinfamily.Theyarehighlyintelligentandsocialanimals,knownfortheircuriosityandplayfulness.

[USER]:

为 Orca-2-13B 创建一个与 OpenAI 兼容的 API 服务

一个与 OpenAI 兼容的网络 API 能让 Orca-2-13B 与大量的 LLM 工具和代理框架(如 flows.network、LangChain 和 LlamaIndex)一起工作。

首先,先下载一个 API 服务器应用。它也是一个可以在许多 CPU 和 GPU 设备上运行的跨平台可移植 Wasm 应用。

curl-LOhttps://github.com/second-state/llama-utils/raw/main/api-server/llama-api-server.wasm

然后,使用以下命令行启动模型的 API 服务器。

wasmedge--dir.:.--nn-preloaddefaultAUTO:Orca-2-13B.Q5_K_M.ggufllama-api-server.wasm-pchatml

从另一个终端,你可以使用 curl 与 API 服务器进行交互。

curl-XPOSThttp://0.0.0.0:8080/v1/chat/completions-H'accept:application/json'-H'Content-Type:application/json'-d'{"messages":[{"role":"system","content":"YouareahelpfulAIassistant"},{"role":"user","content":"WhatisthecapitalofFrance?"}],"model":"Orca-2-13B"}'

就这样。WasmEdge 是运行 Orca-2-13B 大模型应用程序最简单、最快、最安全的方式[6]。试试看吧!





审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • C++语言
    +关注

    关注

    0

    文章

    147

    浏览量

    6897
  • python
    +关注

    关注

    53

    文章

    4705

    浏览量

    83705
  • 硬件加速器
    +关注

    关注

    0

    文章

    40

    浏览量

    12659
  • Rust
    +关注

    关注

    1

    文章

    225

    浏览量

    6443
  • OpenAI
    +关注

    关注

    9

    文章

    923

    浏览量

    6075

原文标题:跨设备运行微软最新大语言模型 Orca-2-13B,只需4个命令行

文章出处:【微信号:Rust语言中文社区,微信公众号:Rust语言中文社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    OpenAI断供API,国产大模型替代方案低成本迁移

    访问API服务的国家和地区列表中总计188个国家和地区,不包括中国内地与中国香港。   这意味着,OpenAI宣布终止对中国开发者提供API服务
    的头像 发表于 06-27 09:04 2609次阅读

    OpenAI“停服” ,国产大模型能否接棒?

    AGI行业将迎来新格局。在人工智能领域,OpenAI的一举一动牵动着全球从业者的心。近日,OpenAI宣布停止对中国的API服务,将对中国“断供”。北京时间6月25日凌晨,有开发者收到
    的头像 发表于 06-30 08:04 198次阅读
    <b class='flag-5'>OpenAI</b>“停服” ,国产大模型能否接棒?

    OpenAI将终止对中国提供API服务

    近日,人工智能领域的领军企业OpenAI通过官方渠道向全球用户发布了一则重要通知,引起了业界的广泛关注。自6月24日晚间起,不少中国用户收到了来自OpenAI的邮件,邮件内容明确指出了其服务调整的新动向。
    的头像 发表于 06-26 18:18 723次阅读

    OpenAI发出警告信:多国开发者面临API封锁 OpenAI API解决方案

    事件背景 2024年7月9日,OpenAI宣布将封锁对不支持国家的API访问,许多开发者因此收到了警告信。这一决定引起了广泛的关注和讨论,尤其是在那些受影响的国家和地区。 警告信的内容 OpenAI
    的头像 发表于 06-26 11:29 338次阅读
    <b class='flag-5'>OpenAI</b>发出警告信:多国开发者面临<b class='flag-5'>API</b>封锁 <b class='flag-5'>OpenAI</b> <b class='flag-5'>API</b>解决方案

    初始化GPIO使用gpio_install_isr_service创建中断服务函数,调用ADF的API时发生install错误怎么解决?

    1.初始化GPIO时候使用过次gpio_install_isr_service创建中断服务函数 调用ADF的API时发生install错误...是不是只能单独用gpio_isr_re
    发表于 06-26 08:14

    OpenAI API Key获取:开发人员申请GPT-4 API Key教程

      OpenAI的GPT-4模型因其卓越的自然语言理解和生成能力,成为了许多开发者的首选工具。获取GPT-4 API Key并将其应用于项目,如开发一个ChatGPT聊天应用,不仅是实践人工智能技术
    的头像 发表于 06-24 17:40 524次阅读
    <b class='flag-5'>OpenAI</b> <b class='flag-5'>API</b> Key获取:开发人员申请GPT-4 <b class='flag-5'>API</b> Key教程

    ChatGPT-4 API 密钥:官方申请指南及国内直连使用攻略

    API Key: 访问 OpenAI 官方网站。 寻找 API 部分并选择 「获取 API Key 」 选项。 二、配置 ChatGPT 4.0
    的头像 发表于 05-29 17:08 2083次阅读
    ChatGPT-4 <b class='flag-5'>API</b> 密钥:官方申请指南及国内直连使用攻略

    OpenAI 深夜抛出王炸 “ChatGPT- 4o”, “她” 来了

    当地时间5月13OpenAI推出ChatGPT-4o,代表了人工智能向前迈出的大步。在GPT-4turbo的强大基础上,这种迭代拥有显著的改进。在发布会的演示中,OpenAI展示
    发表于 05-27 15:43

    OpenAI API Key获取与充值教程:助开发者解锁GPT-4.0 API

    OpenAIAPI Key,以及如何使用这个 Key 来调用 GPT-4.0 API。 第一步:获取 OpenAI API Key
    的头像 发表于 04-28 16:35 3887次阅读
    <b class='flag-5'>OpenAI</b> <b class='flag-5'>API</b> Key获取与充值教程:助开发者解锁GPT-4.0 <b class='flag-5'>API</b>

    Eclipse EZ-USB1.3.5为CX3创建新的配置项目时报向导无法启动的原因?怎么解决?

    当尝试在最新的 Eclipse EZ-USB 套件 1.3.5 集成开发环境中为 CX3 创建新的配置项目时,该工具报告了以下错误: 所选向导无法启动。 插件“com.CYPRESS
    发表于 03-04 07:45

    优于10倍参数模型!微软发布Orca 2 LLM

    微软发布 Orca 2 LLM,这是 Llama 2 的一个调优版本,性能与包含 10 倍参数的模型相当,甚至更好。
    的头像 发表于 12-26 14:23 397次阅读

    鸿蒙原生应用/元服务开发-AGC分发如何下载管理Profile

    发布Profile 1.前提条件 已在AGC创建HarmonyOS应用。 2.操作步骤 发布Profile格式为.p7b,包含HarmonyOS应用的包名、数字证书信息、应用允许申请的证书权限列表,以及
    发表于 11-29 15:10

    OpenHarmony 应用开发SDK、API 与基础工具

    、整体说明 ArkTS 语言是鸿蒙系统主推的应用开发语言。因此鸿蒙系统提供给开发者的 API 绝大部分也是 ArkTS 语言的。 鸿蒙系统提供的 API 范围非常全面,包括应用服务
    发表于 09-19 15:45

    何为自己的ZYNQ板卡创建Pynq镜像

    Xilinx Pynq 框架允许我们将 Python 和可编程逻辑结合起来。让我们看看如何为自己的ZYNQ板卡创建 Pynq 镜像。
    发表于 08-07 09:26 1289次阅读
    如<b class='flag-5'>何为</b>自己的ZYNQ板卡<b class='flag-5'>创建</b>Pynq镜像

    OpenAI宣布GPT-4 API全面开放使用!

    OpenAI 在博客文章中写道:“自 3 月份以来,数百万开发者请求访问 GPT-4 API,并且利用 GPT-4 的创新产品范围每天都在增长。” “我们设想基于对话的模型未来可以支持任何用例。”
    的头像 发表于 07-12 14:55 1006次阅读