0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

2023 LLM技术报告—— LLM的工具和平台

OSC开源社区 来源:OSC开源社区 2024-01-29 15:59 次阅读

在开源开发者圈子来看,2023 年是大模型 LLM 年、生成式 AI GenAI 年,LLM 领域大放异彩。

LLM 是利用深度学习和大数据训练的人工智能系统,专门设计来理解、生成和回应自然语言。这些模型通过分析大量的文本数据来学习语言的结构和用法,从而能够执行各种语言相关任务。

本篇将为大家介绍一下 LLM 相关的工具和平台。

LLMOps

LLMOps 平台专注于提供大模型的部署、运维和优化服务,旨在帮助企业和开发者更高效地管理和使用这些先进的 AI 模型,快速完成从模型到应用的跨越,如 Dify.AI 、LangChain等。

ad9c3fe4-b9dd-11ee-8b88-92fbcf53809c.png

开源框架 LangChain 是一个帮助开发者使用 LLM 创建应用的开源框架,它可以将 LLM 与外部数据源进行连接,并允许与 LLM进行交互。LangChain 于 2022 年 10 月作为开源项目推出,并于2023 年 4 月注册成立公司,累计获得超过 3000 万美元的投资,估值达到了 2 亿美元。在 GitHub 上,LangChain 已经获得了超过 7 万个 Star 和超过 2000 名贡献者。

ada0e53a-b9dd-11ee-8b88-92fbcf53809c.png

大模型聚合平台

大模型聚合平台主要用于整合和管理多个大型机器学习模型,在聚合平台之上,衍生出 MaaS(Model-as-a- Service,大模型即服务)的服务模式——通过提供统一的接口和框架,以更高效地部署、运行和优化这些模型,Hugging Face、Replicate 以及 Gitee AI 均为 MaaS 平台。

ada4e40a-b9dd-11ee-8b88-92fbcf53809c.png

Gitee AI 是开源中国旗下的 MaaS 平台,提供模型、数据集,以及应用托管能力,同时接入了丰富的国产算力平台,为开发者提供了更高效、实惠的微调方案,降低使用门槛,目前已进入内测阶段。

adb1bf72-b9dd-11ee-8b88-92fbcf53809c.png

开发工具

其它开发相关的 LLM 工具,如云原生构建多模态AI应用的工具 Jina,嵌入式数据库 txtai 等。

adc3750a-b9dd-11ee-8b88-92fbcf53809c.png

比较有代表性的 LLM 开发工具有:

PromptPerfect:帮助用户极致优化给大模型的提示词(prompt),使得对大语言模型提问时,可以获得更理想的输出。

adcfc8dc-b9dd-11ee-8b88-92fbcf53809c.png

txtai:用于语义搜索、LLM 编排和语言模型工作流的一体化嵌入数据库,可以使用SQL、对象存储、主题建模、图形分析和多模态索引进行矢量搜索。

imgcook:专注以 Sketch、PSD、静态图片等形式的视觉稿作为输入,通过智能化技术一键生成可维护的前端代码,包含视图代码、数据字段绑定、组件代码、部分业务逻辑代码。

另一个视角来看,在大模型繁荣发展的背后,少不了工具和平台的发力,如 LLMOps 平台、大模型聚合平台以及相关的开发工具,此外还有它们所依赖的最重要的资源——算力。在这些工具、平台和资源的有力支撑下,大模型才得以一步一个台阶,引领全球开发者步入一个技术新时代。

add42648-b9dd-11ee-8b88-92fbcf53809c.png

以上内容出自《2023 LLM 技术报告》,此报告浓墨重彩地梳理了 2023 年 LLM 的技术行情。报告整体围绕 LLM Tech Map 梳理逻辑来展开,从基础设施、大模型、Agent、AI 编程、工具和平台,以及算力几个方面,为开发者整理了当前 LLM 中最为热门和硬核的技术领域以及相关的软件产品和开源项目。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 深度学习
    +关注

    关注

    73

    文章

    5339

    浏览量

    120188
  • 大模型
    +关注

    关注

    2

    文章

    1909

    浏览量

    1523
  • LLM
    LLM
    +关注

    关注

    0

    文章

    225

    浏览量

    254

原文标题:2023 LLM技术报告—— LLM的工具和平台

文章出处:【微信号:OSC开源社区,微信公众号:OSC开源社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    什么是LLMLLM的工作原理和结构

    随着人工智能技术的飞速发展,大型语言模型(Large Language Model,简称LLM)逐渐成为自然语言处理(NLP)领域的研究热点。LLM以其强大的文本生成、理解和推理能力,在文本
    的头像 发表于 07-02 11:45 124次阅读

    大语言模型(LLM)快速理解

    自2022年,ChatGPT发布之后,大语言模型(LargeLanguageModel),简称LLM掀起了一波狂潮。作为学习理解LLM的开始,先来整体理解一下大语言模型。一、发展历史大语言模型的发展
    的头像 发表于 06-04 08:27 417次阅读
    大语言模型(<b class='flag-5'>LLM</b>)快速理解

    100%在树莓派上执行的LLM项目

    ChatGPT的人性口语化回复相信许多人已体验过,也因此掀起一波大型语言模型(Large Language Model, LLM)热潮,LLM即ChatGPT背后的主运作技术,但LLM
    的头像 发表于 02-29 16:29 904次阅读
    100%在树莓派上执行的<b class='flag-5'>LLM</b>项目

    LLM推理加速新范式!推测解码(Speculative Decoding)最新综述

    这个问题随着LLM规模的增大愈发严重。并且,如下左图所示,目前LLM常用的自回归解码(autoregressive decoding)在每个解码步只能生成一个token。这导致GPU计算资源利用率
    的头像 发表于 01-29 15:54 1022次阅读
    <b class='flag-5'>LLM</b>推理加速新范式!推测解码(Speculative Decoding)最新综述

    2023LLM大模型研究进展

    作为做LLM应用的副产品,我们提出了RLCD[11],通过同时使用正例和负例prompt,自动生成带标签的生成样本不需人工标注,然后可以接大模型微调,或者用于训练reward models
    发表于 01-19 13:55 369次阅读

    低比特量化技术如何帮助LLM提升性能

    针对大语言模型 (LLM) 在部署过程中的性能需求,低比特量化技术一直是优化效果最佳的方案之一,本文将探讨低比特量化技术如何帮助 LLM 提升性能,以及新版 OpenVINO 对于低比
    的头像 发表于 12-08 15:26 797次阅读
    低比特量化<b class='flag-5'>技术</b>如何帮助<b class='flag-5'>LLM</b>提升性能

    在线研讨会 | 基于 Jetson 边缘计算平台构建 Azure OpenAI LLM 安全护栏

    NVIDIANeMo Guardrails 是一个开源工具库,致力于使 LLM 大语言模型的使用更加合法合规。它可以轻松地为基于 LLM 的对话系统添加可编程护栏,用以避免大语言模型输出违法违规内容
    的头像 发表于 10-21 16:35 280次阅读
    在线研讨会 | 基于 Jetson 边缘计算<b class='flag-5'>平台</b>构建 Azure OpenAI <b class='flag-5'>LLM</b> 安全护栏

    Continuous Batching:解锁LLM潜力!让LLM推断速度飙升23倍,降低延迟!

    本文介绍一篇 LLM 推理加速技术 相关的文章,值得读一读。 LLMs 在现实应用中的计算成本主要由服务成本所主导,但是传统的批处理策略存在低效性。在这篇文章中,我们将告诉你
    的头像 发表于 10-15 20:25 420次阅读
    Continuous Batching:解锁<b class='flag-5'>LLM</b>潜力!让<b class='flag-5'>LLM</b>推断速度飙升23倍,降低延迟!

    mlc-llm对大模型推理的流程及优化方案

    在 MLC-LLM 部署RWKV World系列模型实战(3B模型Mac M2解码可达26tokens/s) 中提到要使用mlc-llm部署模型首先需要一个编译过程,将原始的基于Realx搭建的模型
    发表于 09-26 12:25 562次阅读
    mlc-<b class='flag-5'>llm</b>对大模型推理的流程及优化方案

    对比解码在LLM上的应用

    为了改进LLM的推理能力,University of California联合Meta AI实验室提出将Contrastive Decoding应用于多种任务的LLM方法。实验表明,所提方法能有效改进LLM的推理能力。让我们走进
    发表于 09-21 11:37 442次阅读
    对比解码在<b class='flag-5'>LLM</b>上的应用

    检索增强LLM的方案全面的介绍

    OpenAI 研究科学家 Andrej Karpathy 前段时间在微软 Build 2023 大会上做过一场关于 GPT 模型现状的分享 State of GPT[3],这场演讲前半部分分享了
    的头像 发表于 09-08 16:39 1018次阅读
    检索增强<b class='flag-5'>LLM</b>的方案全面的介绍

    MLC-LLM的编译部署流程

    MLC-LLM部署在各种硬件平台的需求,然后我就开始了解MLC-LLM的编译部署流程和RWKV World模型相比于MLC-LLM已经支持的Raven系列模型的特殊之处。 MLC-
    的头像 发表于 09-04 09:22 2156次阅读
    MLC-<b class='flag-5'>LLM</b>的编译部署流程

    LLM的长度外推浅谈

    苏神最早提出的扩展LLM的context方法,基于bayes启发得到的公式
    的头像 发表于 07-28 17:37 1688次阅读
    <b class='flag-5'>LLM</b>的长度外推浅谈

    适用于各种NLP任务的开源LLM的finetune教程~

    ChatGLM2-6b是清华开源的小尺寸LLM,只需要一块普通的显卡(32G较稳妥)即可推理和微调,是目前社区非常活跃的一个开源LLM
    的头像 发表于 07-24 09:04 1510次阅读
    适用于各种NLP任务的开源<b class='flag-5'>LLM</b>的finetune教程~

    最新综述!当大型语言模型(LLM)遇上知识图谱:两大技术优势互补

    LLM 是黑箱模型,缺乏可解释性,因此备受批评。LLM 通过参数隐含地表示知识。因此,我们难以解释和验证 LLM 获得的知识。此外,LLM 是通过概率模型执行推理,而这是一个非决断性的
    的头像 发表于 07-10 11:35 1631次阅读
    最新综述!当大型语言模型(<b class='flag-5'>LLM</b>)遇上知识图谱:两大<b class='flag-5'>技术</b>优势互补