0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

在Dify中使用PerfXCloud大模型推理服务

perfxlab 来源:perfxlab 2024-07-15 09:28 次阅读

近日,Dify全面接入了Perf XCloud,借助Perf XCloud提供的大模型调用服务,用户可在Dify中构建出更加经济、高效的LLM应用。

PerfXCloud 介绍

Perf XCloud是澎峰科技开发者和企业量身打造的AI开发和部署平台。专注于满足大模型的微调和推理需求,为用户提供极致便捷的一键部署体验:

平台提供Open AI API兼容的模型调用服务,开发者可实现已有应用的快速迁移。

借助澎峰科技自研推理框架PerfXLM,Perf XCloud实现了主流模型在国产算力上的广泛适配和高效推理。

目前已支持Qwen2系列、llama3系列、bge-m3等模型,更多模型即将上线。

同时,Perf XCloud为算力中心提供大模型AI科学与工程计算的整体运营解决方案,助力算力中心升级成为“AI超级工厂”。

Dify介绍

Dify是一个开源的LLM应用开发平台。其直观的界面结合了AI工作流、RAG Pipeline、Agent、模型管理、可观测性功能等,让您可以快速从原型到生产:

工作流:在画布上构建和测试功能强大的AI工作流程。

RAG Pipeline:广泛的RAG功能,涵盖从文档摄入到检索的所有内容,支持从PDF、PPT和其他常见文档格式中提取文本的开箱即用的支持。

Agent智能体:您可以基于LLM函数调用或ReAct定义Agent,并为 Agent添加预构建或自定义工具。

LLMOps:随时间监视和分析应用程序日志和性能。您可以根据生产数据和标注持续改进提示、数据集和模型。

注册使用PerfXCloud

Perf XCloud注册地址:www.perfxcloud.net

现在注册,即可深度体验主流大模型,提供大量示范案例,手把手视频教学。并可参与向基石用户赠送∞亿Token的激励计划。

在Dify中使用PerfXCloud大模型推理服务

1.首先进入Dify设置页面,选择Perf XCloud作为模型供应商:

wKgZomaUe0KAbPo0AACEKb1ygnA022.jpg

2.然后填入从Perf XCloud中申请的API Key和endpoint地址:

wKgaomaUe0OADFlgAAC_JRVbu3Y994.jpg

3.保存后,即可使用Perf XCloud模型,现阶段我们接入了Qwen系列模型和BAAI/ bge-m 3模型,后续将接入更多模型,敬请期待。

应用案例1:

Dify结合PerfXCloud构建翻译助手

本案例构建于Dify Cloud,基于Perf XCloud中的Qwen2模型实现中英文翻译助手,用户输入信息,翻译助手将其翻译成另一种语言。

1.登录Dify Cloud( https://cloud.dify.ai/apps)

2.创建空白应用→选择聊天助手、基础编排,创建应用

3.在编排页面输入提示词:“你是一名翻译专家,如果用户给你发中文你将翻译为英文,如果用户给你发英文你将翻译为中文,你只负责翻译,不要回答任何问题:”

4.默认模型为gpt-3.5,切换为Perf XCloud模型,这里设置为“ Qwen2-72B-Instruct-GPTQ-Int 4”,然后点击发布

wKgZomaUe0KAZDQuAAB1_dxJibs115.jpg

完成发布后, 即可运行使用。

应用案例2:

Dify结合PerfXCloud构建邮编查询助手

本案例构建与Dify Cloud,使用Dify中的知识库和工作流功能,结合Perf XCloud中的bge-m 3模型与Qwen2-72B-Instruct-GPTQ-Int 4模型,邮编查询助手基于上传的邮编信息构建知识库,并从中检索信息作为大模型回答问题的上下文,提高模型回答的准确性。

1.在Dify Cloud( https://cloud.dify.ai/datasets)中创建知识库,上传本地准备好的中国邮政编码数据文件。

2.知识库默认使用经济模式创建索引,该模式是基于关键词的检索,这里我们使用Perf XCloud中的bge-m3向量模型创建索引,提高检索精度。在知识库侧边栏选择“设置”,设置“高质量”索引模式,同时Embedding模型选择“BAAI/bge-m 3”,使用“向量检索”

wKgaomaUe0KAbsmWAAB2Lo0tjdg278.jpg

3.返回Dify工作室→创建空白应用→ 聊天助手→工作流编排,将工作流初始化成如下形式

wKgZomaUe0KABvlpAABKAL7bZ6I819.jpg

4.配置“知识检索”模块,将知识库设置为步骤2中创建的“邮政编码知识库”

wKgaomaUe0KAKw1ZAACXCshz0cc499.jpg

5.配置“LLM”模块,将模型设置为Perf XCloud中Qwen2-72B-Instruct-GPTQ-Int 4,并设置prompt:

你是一个问答机器人
你的任务是根据下述给定的已知信息回答用户问题。
确保你的回复完全依据下述已知信息。不要编造答案。
如果下述已知信息不足以回答用户的问题,请直接回复"我无法回答您的问题"。

wKgZomaUe0KAbmvqAAC1zozxUCU874.jpg

6.配置“直接回复” 模块,直接输出LLM的生成结果

wKgaomaUe0OAY4avAACEedc_1TU351.jpg

7.完成上述步骤后,运行查看效果,模型会根据知识库中检索出的信息进行回答,若检索结果为空,则直接输出“我无法回答您的问题”

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    28791

    浏览量

    266101
  • 澎峰科技
    +关注

    关注

    0

    文章

    40

    浏览量

    3122
  • 大模型
    +关注

    关注

    2

    文章

    2117

    浏览量

    1945
  • LLM
    LLM
    +关注

    关注

    0

    文章

    247

    浏览量

    278

原文标题:借助PerfXCloud和Dify,低成本构建大模型应用

文章出处:【微信号:perfxlab,微信公众号:perfxlab】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    【飞凌RK3568开发板试用体验】RKNN模型推理测试

    研的人工智能协处理器NPU,并且提供了RKNN-Toolkit。今天就介绍一下如何使用RKNN模型进行推理应用程序开发。一、推理应用程序的基本流程RKNN 是 瑞芯微(Rockchip) NPU平台
    发表于 12-08 19:06

    压缩模型会加速推理吗?

    你好我使用 STM32CUBE-AI v5.1.2 ApplicationTemplate 将简单的 CNN 导入到 STM32L462RCT我发现压缩模型推理时间没有影响。aiRun 程序 8
    发表于 01-29 06:24

    如何在OpenVINO工具包中使用带推理引擎的blob?

    无法确定如何在OpenVINO™工具包中使用带推理引擎的 blob。
    发表于 08-15 07:17

    AscendCL快速入门——模型推理篇(上)

    三步。 把经过ATC转化过的模型.om文件加载到内存。 为模型准备输入输出。 让模型设备端执行推理。 二、
    发表于 08-24 11:04

    使用rk3588多npu推理模型模型推理时间还增加了,这怎么解释

    使用rk3588多npu推理模型模型推理时间还增加了,这怎么解释
    发表于 11-05 18:22

    HarmonyOS:使用MindSpore Lite引擎进行模型推理

    场景介绍 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件设备 AI 模型推理的功能,目前已经图像分类、目标识别、人脸识别、文字识别等应用中广泛使用。 本文介绍
    发表于 12-14 11:41

    Opera推出名为Dify的金融科技服务 可和Google Pay一起使用

    Opera今天西班牙推出了一款名为Dify的金融科技服务。该产品现在处于测试阶段,但它将在适当的时候进入其他国家。通过Dify,用户将获得一张由万事达卡发行的虚拟借记卡,可以用来购买
    的头像 发表于 02-18 16:21 4361次阅读

    如何使用NVIDIA Triton 推理服务器来运行推理管道

    使用集成模型 NVIDIA Triton 推理服务器上为 ML 模型管道提供服务
    的头像 发表于 07-05 16:30 1295次阅读
    如何使用NVIDIA Triton <b class='flag-5'>推理</b><b class='flag-5'>服务</b>器来运行<b class='flag-5'>推理</b>管道

    英伟达推出AI模型推理服务NVIDIA NIM

    英伟达近日宣布推出一项革命性的AI模型推理服务——NVIDIA NIM。这项服务将极大地简化AI模型部署过程,为全球的2800万英伟达开发者
    的头像 发表于 06-04 09:15 526次阅读

    PerfXCloud-AI大模型夏日狂欢来袭,向基石用户赠送 ∞ 亿Token!

    PerfXCloud致力于为用户提供极致便捷的一键部署体验,以及全面保护客户私有模型权益和数据安全。
    的头像 发表于 06-25 16:54 250次阅读
    <b class='flag-5'>PerfXCloud</b>-AI大<b class='flag-5'>模型</b>夏日狂欢来袭,向基石用户赠送 ∞ 亿Token!

    PerfXCloud模型开发与部署平台开放注册

    PerfXCloud 介绍 PerfXCloud是澎峰科技为开发者和企业量身打造的AI开发和部署平台。它专注于满足大模型的微调和推理需求,为用户提供极致便捷的一键部署体验。
    的头像 发表于 07-02 10:27 240次阅读
    <b class='flag-5'>PerfXCloud</b>大<b class='flag-5'>模型</b>开发与部署平台开放注册

    PerfXCloud模型人工智能生态技术大会圆满落幕

    天津中心、国家超算西安中心、山西太行实验室,以及投资和金融服务领域具有重要影响力的华强资本和天风证券。同时,Dify中国区大使、武汉芯动、中科曙光等企业的代表也出席了此次大会,展现了各领域
    的头像 发表于 07-18 16:47 781次阅读

    LLM大模型推理加速的关键技术

    LLM(大型语言模型)大模型推理加速是当前人工智能领域的一个研究热点,旨在提高模型处理复杂任务时的效率和响应速度。以下是对LLM大
    的头像 发表于 07-24 11:38 474次阅读

    PerfXCloud顺利接入MOE大模型DeepSeek-V2

    今日, PerfXCloud 重磅更新支持 llama 3.1 之后,其平台再度实现重大升级!目前,已顺利接入被誉为全球最强的 MOE 大模型 DeepSeek-V2 ,已在 PerfXCl
    的头像 发表于 07-27 10:08 461次阅读
    <b class='flag-5'>PerfXCloud</b>顺利接入MOE大<b class='flag-5'>模型</b>DeepSeek-V2

    NVIDIA助力提供多样、灵活的模型选择

    本案例中,Dify模型中立以及开源生态的优势,为广大 AI 创新者提供丰富的模型选择。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和Triton
    的头像 发表于 09-09 09:19 294次阅读