电子发烧友App

硬声App

0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

电子发烧友网>人工智能>基于LLM的表格数据的大模型推理综述

基于LLM的表格数据的大模型推理综述

收藏

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

评论

查看更多

相关推荐

SolidWorks表格驱动应用详解

SolidWorks的参数化功能有多种实现方式,本文详细介绍了利用Excel表格驱动SolidWorks模型的方法:通过Excel输入参数,利用Excel表格ActiveX控件、方便的数据计算能力,结合SolidWorks方程式及宏
2011-06-03 18:32:1917840

如何使用FasterTransformer进行单机及分布式模型推理

最近几个月,随着ChatGPT的现象级表现,大模型如雨后春笋般涌现。而模型推理是抽象的算法模型触达具体的实际业务的最后一公里。 但是在这个环节中,仍然还有很多已经是大家共识的痛点和诉求,比如: 任何
2023-05-18 14:35:172000

对比解码在LLM上的应用

为了改进LLM推理能力,University of California联合Meta AI实验室提出将Contrastive Decoding应用于多种任务的LLM方法。实验表明,所提方法能有效改进LLM推理能力。让我们走进论文一探究竟吧!
2023-09-21 11:37:55327

大型语言模型的逻辑推理能力探究

最新研究揭示,尽管大语言模型LLMs在语言理解上表现出色,但在逻辑推理方面仍有待提高。为此,研究者们推出了GLoRE,一个全新的逻辑推理评估基准,包含12个数据集,覆盖三大任务类型。
2023-11-23 15:05:16476

低比特量化技术如何帮助LLM提升性能

针对大语言模型 (LLM) 在部署过程中的性能需求,低比特量化技术一直是优化效果最佳的方案之一,本文将探讨低比特量化技术如何帮助 LLM 提升性能,以及新版 OpenVINO 对于低比特量化技术的支持。
2023-12-08 15:26:45554

使用基于Transformers的API在CPU上实现LLM高效推理

英特尔 Extension for Transformers是英特尔推出的一个创新工具包,可基于英特尔 架构平台,尤其是第四代英特尔 至强 可扩展处理器(代号 SapphireRapids,SPR)显著加速基于Transformers的大语言模型( LargeLanguageModel,LLM)。
2024-01-22 11:11:061823

LLM风口背后,ChatGPT的成本问题

趁着ChatGPT这一热门话题还未消退,我们来聊一聊这类大规模语言模型LLM)或通用人工智能(AGI)背后的细节。毕竟目前相关的概念股跟风大涨,但还是有不少人在持观望态度。无论是国外还是国内
2023-02-15 01:19:004129

LLM3225-R56H

LLM3225-R56H - Wire Wound Chip Inductors - TOKO, Inc
2022-11-04 17:22:44

AscendCL快速入门——模型推理篇(上)

一、概述本文介绍了AscendCL模型推理相关知识,介绍了AscendCL接口加载离线模型,为离线模型准备数据结构以及调用离线模型进行推理的过程。简单来说,曻腾的AscendCL的推理工程可以问为
2023-08-24 11:04:14

Dllite_micro (轻量级的 AI 推理框架)

DLLite-Micro 是一个轻量级的 AI 推理框架,可以为 OpenHarmony OS 的轻量设备和小型设备提供深度模型推理能力DLLite-Micro 向开发者提供清晰、易上手的北向接口
2021-08-05 11:40:11

HarmonyOS/OpenHarmony应用开发-FA模型综述

/documentation/doc-guides/fa-brief-0000001333640861*附件:HarmonyOSOpenHarmony应用开发-FA模型综述.docx
2022-12-07 10:39:19

HarmonyOS:使用MindSpore Lite引擎进行模型推理

使用 MindSpore Lite 推理引擎进行模型推理的通用开发流程。 基本概念 在进行开发前,请先了解以下概念。 张量 :它与数组和矩阵非常相似,是 MindSpore Lite 网络运算中的基本数据
2023-12-14 11:41:13

k210可以采集传感器的数据进行模型推理吗?

k210可以采集传感器的数据进行模型推理吗?
2023-09-14 08:52:56

pytorch模型转为rknn后没有推理结果

使用rknn的api读取我的模型,进行转换api可以成功转换出rknn模型,但遇到的问题是:我使用测试数据调用rknn.inference进行推理,每一次的输出结果都为[array([nan, nan
2023-01-11 18:45:48

【飞凌RK3568开发板试用体验】RKNN模型推理测试

研的人工智能协处理器NPU,并且提供了RKNN-Toolkit。今天就介绍一下如何使用RKNN模型进行推理应用程序开发。一、推理应用程序的基本流程RKNN 是 瑞芯微(Rockchip) NPU平台
2022-12-08 19:06:16

使用rk3588多npu推理模型模型推理时间还增加了,这怎么解释

使用rk3588多npu推理模型模型推理时间还增加了,这怎么解释
2023-11-05 18:22:42

压缩模型会加速推理吗?

你好我使用 STM32CUBE-AI v5.1.2 ApplicationTemplate 将简单的 CNN 导入到 STM32L462RCT我发现压缩模型推理时间没有影响。aiRun 程序在 8
2023-01-29 06:24:08

大家是怎么压榨CNN模型

【技术综述】为了压榨CNN模型,这几年大家都干了什么
2019-05-29 14:49:27

如何提高YOLOv4模型推理性能?

使用 PyTorch 对具有非方形图像的 YOLOv4 模型进行了训练。 将 权重转换为 ONNX 文件,然后转换为中间表示 (IR)。 无法确定如何获得更好的推理性能。
2023-08-15 06:58:00

怎样使用PyTorch Hub去加载YOLOv5模型

在Python>=3.7.0环境中安装requirements.txt,包括PyTorch>=1.7。模型数据集从最新的 YOLOv5版本自动下载。简单示例此示例从
2022-07-22 16:02:42

怎样去解决rk1808相同模型推理速度变慢的问题呢

  rk1808 相同模型速度变慢:  rknn_server 0.9.4 (2078225 build: 2019-03-07 20:07:28)  librknn_runtime version
2022-04-21 11:36:29

有限集模型预测控制策略综述

有限集模型预测控制的综述
2019-11-20 11:27:46

求助,为什么将不同的权重应用于模型会影响推理性能?

生成两个 IR文件(相同的 .xml 文件,但不同的 .bin 文件) 具有不同重量的类似模型,以不同的 fps (27fps 和 6fps) 运行 更多样化的权重是否会影响 Myriad X 上的推理性能?
2023-08-15 07:00:25

深度剖析OpenHarmony AI调度管理与推理接口

│││├── threadpool #线程池管理│││└── time #时间接口││├── protocol│││├── data_channel#推理数据通道管理
2022-03-25 11:15:36

特征选择在减少预测推理时间方面的有效性展示

(indices=True)我们使用元估计器的重要性权重(线性模型的系数)从训练数据中选择重要特征。这是一种简单而快速的选择特征的方法,因为我们处理后的数据可以使用通常应用于表格回归任务的相同技术来执行。在直接
2022-09-07 14:46:38

用tflite接口调用tensorflow模型进行推理

摘要本文为系列博客tensorflow模型部署系列的一部分,用于实现通用模型的部署。本文主要实现用tflite接口调用tensorflow模型进行推理。相关源码见链接引言本文为系列博客
2021-12-22 06:51:18

请问模型推理只用到了kpu吗?可以cpu,kpu,fft异构计算吗?

请问模型推理只用到了kpu吗?可以cpu,kpu,fft异构计算吗?
2023-09-14 08:13:24

请问在新CPU上推断INT8模型的速度是否比旧CPU快?

与采用旧 CPU 的推理相比,在新 CPU 上推断的 INT8 模型推理速度更快。
2023-08-15 08:28:42

读取excel表格数据问题

目前在联系excel表格的相关操作,但是出现个问题,不知道为何,当我读取excel表格数据时,每次读出来的都是空的,没有数据。程序如下:excel表格的sheet1里面是有数据的,sheet号输入的是1。
2017-02-10 08:19:23

概率XML数据模型综述

首先介绍了概率XML数据管理技术的概念,特点和挑战;其次综述了概率XML数据和概率XML数据模型,各种模型的核心思想都来自于可能世界模型,通过选择孩子节点以及删除节点可得到一
2011-12-26 11:08:3920

反激式开关电源电子的数据表格

反激式开关电源电子的数据表格
2017-09-12 15:09:4041

逼真生成表格数据的非时间属性关联模型

针对数据仿真过程中表格数据属性间关联难的问题,提出一种刻画表格数据中非时间属性间关联特征的H模型。首先,从数据集中提取评价主体和被评价主体关键属性,进行两重频数统计,得到关于关键属性的4个关系
2017-11-28 11:48:180

一种基于机器学习的流簇大小推理模型

数据中心网络需要更加高效的推理模型提升流簇大小判断的准确性和敏感性。提岀了一种基于机器学习的流簇大小推理模型( Mlcoflow),利用极限学习杋(ELM)以最小训练误差为求解目标建立推理模型,并且使用不完全信息建模以提升敏感度。实验证
2021-04-02 11:38:1634

跨媒体数据分析与推理技术综述

当前,以网络数据为代表的跨媒体数据呈现爆炸式増长的趋势,呈现岀了跨模态、跨数据源的复杂关联及动态演化特性,跨媒体分析与推理技术针对多模态信息理解、交互、内容管理等需求,通过枃建跨模态、跨平台
2021-04-08 10:29:0815

基于深度学习的文本主题模型研究综述

基于深度学习的文本主题模型研究综述
2021-06-24 11:49:1868

文本挖掘之概率主题模型综述

文本挖掘之概率主题模型综述
2021-06-24 14:16:5416

基于模板驱动的神经机器翻译模型综述

基于模板驱动的神经机器翻译模型综述
2021-06-24 15:31:3516

基于主题模型的Web服务聚类方法综述

基于主题模型的Web服务聚类方法综述
2021-06-24 16:47:238

面向学分银行的区块链学习成果管控模型综述

面向学分银行的区块链学习成果管控模型综述
2021-06-25 15:46:565

基于变量依赖关系模型的变量重要性度量综述

基于变量依赖关系模型的变量重要性度量综述
2021-07-02 14:44:080

抖动按键技术及双狄拉克模型综述

抖动按键技术及双狄拉克模型综述
2021-07-16 14:15:222

车辆侧滑角估计:方法、模型和创新文献综述

车辆侧滑角估计:方法、模型和创新文献综述
2021-07-18 09:15:562

深度学习工程之道|MegEngine推理性能优化技术综述,CPU上极限加速

MegEngine「训练推理一体化」的独特范式,通过静态图优化保证模型精度与训练时一致,无缝导入推理侧,再借助工业验证的高效卷积优化技术...
2022-02-07 10:59:490

基于e-CARE的因果推理相关任务

因果推理是人类的一项核心认知能力。借助因果推理能力,人类得以理解已观测到的各种现象,并预测将来可能发生的事件。然而,尽管当下的各类因果推理模型已经在现有的因果推理数据集上取得了令人印象深刻的性能,然而,这些模型与人类的因果推理能力相比仍存在显著差距。
2022-05-16 16:21:261081

BLIP-2:下一代多模态模型的雏形

众所周知,NLP领域一直领先于CV领域的发展。得益于更丰富的语料库,NLP领域的已经拥有了一些具有初步推理能力模型的研究,特别是LLM模型的出现。
2023-03-02 13:54:421620

LeCun新作:全面综述下一代「增强语言模型

最近图灵奖得主Yann LeCun参与撰写了一篇关于「增强语言模型」的综述,回顾了语言模型推理技能和使用工具的能力相结合的工作,并得出结论,这个新的研究方向有可能解决传统语言模型的局限性,如可解释性、一致性和可扩展性问题。
2023-03-03 11:03:20673

GTC 2023:多模态短视频模型推理优化方案解析

  多卡推理--流水线并行:将模型数据切分,以流水线形式计算,提高GPU利用率。模型切分策略:依照各部分的计算时间和参数量设计。
2023-03-23 18:17:331921

利用大语言模型做多模态任务

大型语言模型LLM(Large Language Model)具有很强的通用知识理解以及较强的逻辑推理能力,但其只能处理文本数据
2023-05-10 16:53:15701

如何利用LLM做多模态任务?

大型语言模型LLM(Large Language Model)具有很强的通用知识理解以及较强的逻辑推理能力,但其只能处理文本数据。虽然已经发布的GPT4具备图片理解能力,但目前还未开放多模态输入接口并且不会透露任何模型上技术细节。因此,现阶段,如何利用LLM做一些多模态任务还是有一定的研究价值的。
2023-05-11 17:09:16648

LLM性能的主要因素

目前主要的模型的参数 LLaMA系列是否需要扩中文词表 不同任务的模型选择 影响LLM性能的主要因素 Scaling Laws for Neural Language Models OpenAI的论文
2023-05-22 15:26:201148

如何利用LLM做多模态任务?

大型语言模型LLM(Large Language Model)具有很强的通用知识理解以及较强的逻辑推理能力,但其只能处理文本数据。虽然已经发布的GPT4具备图片理解能力,但目前还未开放多模态输入接口
2023-05-22 15:57:33466

中国研究人员提出StructGPT,提高LLM对结构化数据的零样本推理能力

尽管结构化数据的体量往往非常巨大,但不可能容纳输入提示中的所有数据记录(例如,ChatGPT 的最大上下文长度为 4096)。将结构化数据线性化为 LLM 可以轻松掌握的语句是解决此问题的简单方法。工具操作技术激励他们增强 LLM 解决上述困难的能力。
2023-05-24 16:02:162156

大型语言模型LLM)的自定义训练:包含代码示例的详细指南

近年来,像 GPT-4 这样的大型语言模型LLM) 因其在自然语言理解和生成方面的惊人能力而受到广泛关注。但是,要根据特定任务或领域定制LLM,定制培训是必要的。本文提供了有关自定义训练 LLM 的详细分步指南,其中包含代码示例和示例。
2023-06-12 09:35:431782

基准数据集(CORR2CAUSE)如何测试大语言模型(LLM)的纯因果推理能力

  因果推理是人类智力的标志之一。因果关系NLP领域近年来引起了人们的极大兴趣,但其主要依赖于从常识知识中发现因果关系。本研究提出了一个基准数据集(CORR2CAUSE)来测试大语言模型(LLM
2023-06-20 15:39:051223

基于Transformer的大型语言模型LLM)的内部机制

工作原理变得越来越重要。更好地理解这些模型是如何做出决策的,这对改进模型和减轻其故障(如幻觉或推理错误)至关重要。 众所周知,最近 LLM 成功的一个重要因素是它们能够从上下文中学习和推理LLM 对这些上下文的学习能力通常归功于 Transformer 架构,特别
2023-06-25 15:08:49991

如何使用NVIDIA Triton 推理服务器来运行推理管道

使用集成模型在 NVIDIA Triton 推理服务器上为 ML 模型管道提供服务
2023-07-05 16:30:341082

最新综述!当大型语言模型LLM)遇上知识图谱:两大技术优势互补

LLM 是黑箱模型,缺乏可解释性,因此备受批评。LLM 通过参数隐含地表示知识。因此,我们难以解释和验证 LLM 获得的知识。此外,LLM 是通过概率模型执行推理,而这是一个非决断性的过程。对于 LLM 用以得出预测结果和决策的具体模式和功能,人类难以直接获得详情和解释。
2023-07-10 11:35:001354

适用于各种NLP任务的开源LLM的finetune教程~

ChatGLM2-6b是清华开源的小尺寸LLM,只需要一块普通的显卡(32G较稳妥)即可推理和微调,是目前社区非常活跃的一个开源LLM
2023-07-24 09:04:221311

三种主流模型部署框架YOLOv8推理演示

深度学习模型部署有OpenVINO、ONNXRUNTIME、TensorRT三个主流框架,均支持Python与C++的SDK使用。对YOLOv5~YOLOv8的系列模型,均可以通过C++推理实现模型
2023-08-06 11:39:171677

MLC-LLM的编译部署流程

MLC-LLM部署在各种硬件平台的需求,然后我就开始了解MLC-LLM的编译部署流程和RWKV World模型相比于MLC-LLM已经支持的Raven系列模型的特殊之处。 MLC-LLM的编译部署流程
2023-09-04 09:22:461569

检索增强LLM的方案全面的介绍

分分享了 ChatGPT 这类模型是如何一步一步训练的,后半部分主要分享了 LLM 模型的一些应用方向,其中就对检索增强 LLM 这个应用方向做了简单介绍。
2023-09-08 16:39:55799

大语言模型LLM)预训练数据集调研分析

model 训练完成后,使用 instruction 以及其他高质量的私域数据集来提升 LLM 在特定领域的性能;而 rlhf 是 openAI 用来让model 对齐人类价值观的一种强大技术;pre-training dataset 是大模型在训练时真正喂给 model 的数据,从很多 paper 能看到一些观
2023-09-19 10:00:06506

从原理到代码理解语言模型训练和推理,通俗易懂,快速修炼LLM

要理解大语言模型LLM),首先要理解它的本质,无论预训练、微调还是在推理阶段,核心都是next token prediction,也就是以自回归的方式从左到右逐步生成文本。
2023-09-19 16:25:47519

mlc-llm对大模型推理的流程及优化方案

在 MLC-LLM 部署RWKV World系列模型实战(3B模型Mac M2解码可达26tokens/s) 中提到要使用mlc-llm部署模型首先需要一个编译过程,将原始的基于Realx搭建的模型
2023-09-26 12:25:55383

主流大模型推理框架盘点解析

vLLM是一个开源的大模型推理加速框架,通过PagedAttention高效地管理attention中缓存的张量,实现了比HuggingFace Transformers高14-24倍的吞吐量。
2023-10-10 15:09:581556

TPU-MLIR量化敏感层分析,提升模型推理精度

背景介绍TPU-MLIR编译器可以将机器学习模型转换成算能芯片上运行的bmodel模型。由于浮点数的计算需要消耗更多的计算资源和存储空间,实际应用中往往采用量化后的模型(也称定点模型)进行推理。相比
2023-10-10 10:17:42484

Nvidia 通过开源库提升 LLM 推理性能

加利福尼亚州圣克拉拉——Nvidia通过一个名为TensorRT LLM的新开源软件库,将其H100、A100和L4 GPU的大型语言模型(LLM)推理性能提高了一倍。 正如对相同硬件一轮又一轮改进
2023-10-23 16:10:19284

周四研讨会预告 | 注册报名 NVIDIA AI Inference Day - 大模型推理线上研讨会

由 CSDN 举办的 NVIDIA AI Inference Day - 大模型推理线上研讨会,将帮助您了解 NVIDIA 开源大型语言模型LLM推理加速库 TensorRT-LLM  及其功能
2023-10-26 09:05:02174

现已公开发布!欢迎使用 NVIDIA TensorRT-LLM 优化大语言模型推理

NVIDIA 于 2023 年 10 月 19 日公开发布 TensorRT-LLM ,可在 NVIDIA GPU 上加速和优化最新的大语言模型(Large Language Models)的推理
2023-10-27 20:05:02478

知识图谱与大模型结合方法概述

;3)LLM+KG协同使用,主要用于知识表示和推理两个方面。该文综述了以上三个路线的代表性研究,探讨了未来可能的研究方向。 知识图谱(KG)和大语言模型LLM)都是知识的表示
2023-10-29 15:50:01530

Hugging Face LLM部署大语言模型到亚马逊云科技Amazon SageMaker推理示例

 本篇文章主要介绍如何使用新的Hugging Face LLM推理容器将开源LLMs,比如BLOOM大型语言模型部署到亚马逊云科技Amazon SageMaker进行推理的示例。我们将部署12B
2023-11-01 17:48:42422

使用MLC-LLM支持RWKV-5推理的过程思考

LLM的理解比较有限,从代码实现的角度来说,RWKV的状态和KV Cache不同,不依赖序列长度,这让RWKV模型在各种长度下运行内存和运行速度都是趋于稳定的,所以我感觉工程价值是比基于Transformer架构比如Llama更好的,部署的性价比会天然更优。
2023-11-19 15:58:57502

LLM的幻觉问题最新综述

幻觉被描述为无意义或不忠实于所提供源内容的生成内容。根据与源内容的矛盾,这些幻觉又进一步分为内在幻觉和外在幻觉。在LLMs中,幻觉的范围包含了一个更广泛、更全面的概念,主要集中在事实错误上。本文重新定义了幻觉的分类,为LLM应用程序提供了一个更定制的框架。
2023-11-22 17:40:41467

澎峰科技发布大模型推理引擎PerfXLLM

自从2020年6月OpenAI发布chatGPT之后,基于 Transformer 网络结构的 语言大模型LLM) 引发了全世界的注意与追捧,成为了人工智能领域的里程碑事件。 但大模型推理所需
2023-11-25 15:35:01383

Long-Context下LLM模型架构全面介绍

随着ChatGPT的快速发展,基于Transformer的大型语言模型(LLM)为人工通用智能(AGI)铺平了一条革命性的道路,并已应用于知识库、人机界面和动态代理等不同领域。然而,存在一个普遍
2023-11-27 17:37:36440

LLM真的能推理和规划吗?

在研究人员选择的模型中,GPT-3 davinci(非指令微调)、GPT-3 textdavinci-001(指令微调)和GPT-3 textdavinci-003(InstructGPT)都是以前观察到过涌现能力的模型。这一选择主要是出于模型可用性的考虑。
2023-11-30 09:45:30260

怎样使用Accelerate库在多GPU上进行LLM推理呢?

大型语言模型(llm)已经彻底改变了自然语言处理领域。随着这些模型在规模和复杂性上的增长,推理的计算需求也显著增加。
2023-12-01 10:24:52396

用上这个工具包,大模型推理性能加速达40倍

工具包中的LLM Runtime为诸多模型显著降低时延,且首个token和下一个token的推理速度分别提升多达40倍和2.68倍,还能满足更多场景应用需求。 英特尔  Extension
2023-12-01 20:40:03552

如何在 NVIDIA TensorRT-LLM 中支持 Qwen 模型

背景介绍 大语言模型正以其惊人的新能力推动人工智能的发展,扩大其应用范围。然而,由于这类模型具有庞大的参数规模,部署和推理的难度和成本极高,这一挑战一直困扰着 AI 领域。此外,当前存在大量支持模型
2023-12-04 20:25:01419

全面解析大语言模型LLM

internal feedback:使用LLM去预测生成的plan取得成功的概率、Tree of Thought去对比不同的plan(有点类似AlphaGo的蒙特卡诺搜索的意思)、对中间结果进行评估并作为长期记忆存储
2023-12-05 14:49:47857

一文详解LLM模型基本架构

LLM 中非常重要的一个概念是 Token,我们输入给 LLM 和它输出的都是 Token。Token 在这里可以看做语言的基本单位,中文一般是词或字(其实字也是词)。比如:”我们喜欢 Rust
2023-12-25 10:38:38657

优于10倍参数模型!微软发布Orca 2 LLM

微软发布 Orca 2 LLM,这是 Llama 2 的一个调优版本,性能与包含 10 倍参数的模型相当,甚至更好。
2023-12-26 14:23:16247

自动驾驶和多模态大语言模型的发展历程

多模态大语言模型(MLLM) 最近引起了广泛的关注,其将 LLM推理能力与图像、视频和音频数据相结合,通过多模态对齐使它们能够更高效地执行各种任务,包括图像分类、将文本与相应的视频对齐以及语音检测。
2023-12-28 11:45:21151

2023年大语言模型(LLM)全面调研:原理、进展、领跑者、挑战、趋势

大型语言模型(LLM)是基于人工智能的先进模型,经过训练,它可以密切反映人类自然交流的方式处理和生成人类语言。这些模型利用深度学习技术和大量训练数据来全面理解语言结构、语法、上下文和语义。
2024-01-03 16:05:25441

首个无需依赖SAM的高效像素级推理模型PixelLM问世

进一步,为了支持这一研究领域的模型训练和评估,研究团队在LVIS数据集的基础之上,借助GPT-4V构建了一个面向多目标推理分割场景的数据集MUSE,它包含20万个以上的问题-答案对,涉及90万个以上的实例分割掩码。
2024-01-04 15:08:12250

安霸发布N1系列生成式AI芯片支持前端设备运行本地LLM应用

单颗 SoC 支持 1 至 340 亿参数的多模态大模型(Multi-Modal LLM推理,实现前端低功耗生成式 AI。
2024-01-09 15:19:33597

关于大模型在软件测试领域应用的全面综述

模型LLM)由于其卓越的自然语言理解、推理等能力,已经被应用于各种场景,取得了前所未有的效果。
2024-01-18 09:33:501157

2023年LLM模型研究进展

作为做LLM应用的副产品,我们提出了RLCD[11],通过同时使用正例和负例prompt,自动生成带标签的生成样本不需人工标注,然后可以接大模型微调,或者用于训练reward models
2024-01-19 13:55:33178

LLM推理加速新范式!推测解码(Speculative Decoding)最新综述

这个问题随着LLM规模的增大愈发严重。并且,如下左图所示,目前LLM常用的自回归解码(autoregressive decoding)在每个解码步只能生成一个token。这导致GPU计算资源利用率
2024-01-29 15:54:24261

Groq推出大模型推理芯片 超越了传统GPU和谷歌TPU

Groq推出了大模型推理芯片,以每秒500tokens的速度引起轰动,超越了传统GPU和谷歌TPU。
2024-02-26 10:24:46289

100%在树莓派上执行的LLM项目

ChatGPT的人性口语化回复相信许多人已体验过,也因此掀起一波大型语言模型(Large Language Model, LLM)热潮,LLM即ChatGPT背后的主运作技术,但LLM运作需要庞大运算力,因此目前多是在云端(Cloud)上执行。
2024-02-29 16:29:59476

OpenVINO™助力谷歌大语言模型Gemma实现高速智能推理

大型语言模型LLM)正在迅速发展,变得更加强大和高效,使人们能够在广泛的应用程序中越来越复杂地理解和生成类人文本。
2024-03-17 17:17:08504

深度探讨VLMs距离视觉演绎推理还有多远?

通用大型语言模型LLM推理基准:研究者们介绍了多种基于文本的推理任务和基准,用于评估LLMs在不同领域(如常识、数学推理、常识推理、事实推理和编程)的性能。这些研究包括BIG-bench、HELM、SuperGLUE和LAMA等。
2024-03-19 14:32:5569

已全部加载完成