0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

LLaMA论文研读:小参数+大数据的开放、高效基础语言模型阅读笔记

深度学习自然语言处理 来源:老刘说NLP 2023-03-03 10:53 次阅读

Meta最近提出了LLaMA(开放和高效的基础语言模型)模型参数包括从7B到65B等多个版本。最值得注意的是,LLaMA-13B的性能优于GPT-3,而体积却小了10倍以上,LLaMA-65B与Chinchilla-70B和PaLM-540B具有竞争性。

Meta表示,该模型在数以万亿计的token上进行训练,并表明有可能完全使用公开的数据集来训练最先进的模型,而不需要求助于专有的和不可获取的数据集。

特别的,LLaMA-13B在大多数基准上超过了GPT-3(175B),LLaMA-65B与最好的模型Chinchilla-70B和PaLM-540B具有明显竞争力。

为了了解该工作,本文主要通过研读该论文,供大家一起参考。

该论文介绍了对模型架构的修改(Vaswani等人,2017),给出了具体的训练方法,并报告了模型的性能以及在一组标准基准上与其他LLMs进行了比较。

地址:https://github.com/facebookresearch/llama

一、工作简介与问题的提出

在大量的文本语料库中训练的大型语言模型(LLMs)已经显示出它们能够从文本指令或少数例子中形成新的任务(Brown等人,2020)。

在将模型扩展到足够大的规模时,首次出现了这些少见的特性(Kaplan等人,2020年),从而形成了一个专注于进一步扩展这些模型的工作路线(Chowdhery等人,2022年;Rae等人,2021年)。

这些努力都是基于这样的假设:更多的参数会带来更好的性能。然而,Hoffmann等人(2022)最近的工作表明,在给定的计算预算下,最好的性能不是由最大的模型实现的,而是由在更多数据上训练的较小的模型实现的。

Hoff-mann等人(2022)的缩放定律的目标是确定如何在特定的训练计算预算下最佳地扩展数据集和模型大小。然而,这个目标忽略了推理预算,而推理预算在大规模服务语言模型时变得至关重要。

在这种情况下,给定一个目标性能水平,首选的模型不是训练速度最快的,而是推理速度最快的,尽管训练一个大的模型以达到一定的性能水平可能更便宜,但训练时间较长的小模型最终会在推理中更便宜。

例如,Hoffmann等人(2022年)曾建议在200B的token上训练一个10B的模型,但研究发现7B的模型的性能甚至在1T的token之后还能继续提高。

因此,该工作的重点是训练一系列语言模型,通过对比通常使用的更多的token进行训练,在不同的推理预算下达到最佳的性能。

该工作得到的模型被称为LLaMA,参数范围从7B到65B,与现有的最佳LLM相比,具有竞争力的性能。

尽管LLaMA-13B比GPT-3小10倍,但在大多数基准测试中都超过了GPT-3。这个模型将有助于增强对LLM的访问和研究,因为它可以在单个GPU上运行。此外,65B参数模型也可以与最好的大型语言模型(如Chinchilla或PaLM-540B)竞争。

特别的,与Chinchilla、PaLM或GPT-3不同的是,该工作只使用公开可用的数据,这使得工作符合开源原则,而大多数现有模型所依赖的数据要么没有公开可用,要么没有记录(例如 "书籍-2TB "或 "社交媒体对话")。

接下来,我们分别从训练数据等方面进行介绍。

二、预训练数据的来源与清洗策略

LLaMA的训练数据集由几个来源混合而成,涵盖了各种不同的领域,如下表所示:

8fa89250-b91e-11ed-bfe3-dac502259ad0.png

1、英语CommonCrawl,占比67%

由于CommonCraw数据较为杂乱,该工作采用CCNet pipleline的方式(Wenzek等人,2020)预处理了从2017年到2020年的CommonCrawl网页。

具体的,

该工作首先在行的层面上对数据进行了删除,用fastText线性分类器进行语言识别,以去除非英语页面,并用n-gram语言模型过滤低质量内容。

其次,训练了一个线性模型来对维基百科中用作参考的页面与随机抽样的页面进行分类,并丢弃了未被归类为参考的页面。

2、C4 ,占比15%

在探索性实验中,该工作观察到,使用不同的预处理Com-monCrawl数据集可以提高性能。

因此,该工作将公开的C4数据集(Raffel等人,2020)也纳入我们的数据。

C4的预处理也包含重复数据删除和语言识别步骤,其与CCNet的主要区别在于质量过滤,它主要依赖于不存在的标点符号或网页中的单词和句子数量等判例。

3、Github,占比4.5%

在代码方面,该工作使用了谷歌BigQuery上的GitHub公共数据集,并只保留在Apache、BSD和MIT许可下发布的项目。

此外,为了提高数据质量,还用基于行长或字母数字字符比例的启发式方法过滤了低质量的文件,并用规范的表达式删除了如标题在内的模板化内容。

最后在文件层面上对结果数据集进行重复计算,并进行精确匹配。

4、维基百科,占比4.5%

该工作添加了2022年6月至8月期间的维基百科转储数据,涵盖20种语言,这些语言使用拉丁字母或西里尔字母,具体是:BG、CA、CS、DA、DE、EN、ES、FR、HR、HU、IT、NL、PL、UP、RO、RU、SL、SR、SV、UK。

此外,该工作对数据进行处理,以删除超链接、评论和其他格式化的模板。

5、GutenbergProject和Books3,占比4.5%

书籍也是重要的语料来源,该工作的训练数据集包括两个书籍语料库:古腾堡计划(GutenbergProject)和ThePile(Gao等人,2020)的Books3部分,后者是一个可用于训练大型语言模型的公开数据集。

在数据处理上,该工作在书的层面上进行了去重处理,删除了内容重叠度超过90%的书。

6、ArXiv,占比2.5%

科研文献对于提升专业性也有重要作用,该工作对arXiv的Latex文件进行处理,将科学数据添加到预训练数据集中。

按照Lewkowycz等人(2022年)的做法,该工作删除了第一节之前的所有内容以及书目。

此外,还删除了.tex文件中的评论,以及用户写的内联扩展定义和宏,以增加论文之间的一致性。

7、Stack Exchange,占比2%

QA数据对于提升垂直的专业问题也有帮助。

该工作还使用了Stack Exchange的开放数据,Stack Exchange是一个高质量的问题和答案的网站,涵盖了从计算机科学到化学的不同领域。

具体的,该工作保留了28个最大的网站的数据,从文本中去除HTML标签,并按分数(从高到低)对答案进行排序。

值得注意的是,我们将所有数字拆分为单个数字,并退回到字节来分解未知的UTF-8字符。

最后,在Tokenizer进行切分方面,该工作我们用bytepairencoding(BPE)算法(Sennrich等人,2015)对数据进行切分,并使用Sentence-Piece(Kudo和Richardson,2018)进行实现。值得注意的是,该将所有数字拆分为单个数字,并退回到字节来分解未知的UTF-8字符。

8fc9e734-b91e-11ed-bfe3-dac502259ad0.png

总的来说,我们的整个训练数据集在切分之后包含了大约1.4T的token,如表2所示。

另外,在数据采样方面,对于大多数训练数据,每个token在训练过程中只采样一次,但维基百科和图书领域除外,对这些领域进行了大约两个epochs。

三、训练细节:架构选择以及优化策略

1、架构选择

在架构选型上,该工作同样采用是Transformer架构(Vaswani等人,2017),并利用随后提出的各种改进,在不同的模型中进行使用,如PaLM。这里是与原始架构的主要区别主要包括:

1)Pre-normalization VS GPT3

为了提高训练的稳定性,我们对每个变换子层的输入进行规范化,而不是对输出进行规范化。

并使用Zhang和Sennrich(2019)介绍的RMSNorm归一化函数。

2)SwiGLU activation function VS PaLM

采用SwiGLU激活函数取代由Shazeer(2020)介绍的ReLU非线性方法,以提高性能。此外,在维度上使用的维度是2/3*4d,而不是PaLM中的4d。

3)Rotary Embeddings VS GPTNeo

在位置编码上,删除了绝对位置嵌入,而在网络的每一层增加了Su等人(2021)介绍的旋转位置嵌入(RoPE)。

2、Optimizer设计

该模型使用AdamW优化器(Loshchilov和Hutter,2017)进行训练,超参数设置为β1=0.9,β2=0.95。

此外,使用余弦学习率方式,使最终学习率等于最大学习率的10%,并使用0.1的权重衰减和1.0的梯度剪裁。最并使用2,000个warm up策略,并根据模型的大小改变学习率和批次大小。

8fe0640a-b91e-11ed-bfe3-dac502259ad0.png

3、 模型加速优化

在模型训练加速方面,该工作进行了一些优化,以提高模型的训练速度。

首先,该工作使用了一个高效的因果多头注意力方式的实现,灵感来自Rabe和Staats(2021)以及Dao等人(2022),这个实现可在xformers库中找到,可以有效减少了内存的使用和计算。

具体原理为通过不存储注意力权重和不计算由于语言建模任务的因果性质而被掩盖的键/查询分数来实现的。

其次,为了进一步提高训练效率,减少了在check point的后向传递中重新计算的激活量,在实现上,通过手动实现trasnformer层的后向函数来进行操作。为了充分受益于这种优化,还通过如Korthikanti等人(2022)中采用的方法,进行使用模型和序列并行来减少模型的内存使用。

最后,该工作还尽可能地重叠激活的计算和GPU之间在网络上的通信

因此,最终的优化性能效果为:当训练一个65B参数的模型时,代码在2048A100的GPU上处理大约380个token/秒/GPU,并耗费80GB的内存,这意味着对包含1.4Ttoken的数据集进行训练大约花费了21天。

四、实验结果分析:zero shot与few shot性能对比测试

按照以前的工作(Brown等人,2020年),该工作选择了zero-shot和 few-shot的任务,并报告了总共20个基准的结果,如表4、5所示:

其中:

zero-shot任务指的是提供了任务的文字描述和一个测试例子,该任务要么使用开放式生成提供一个答案,要么对提议的答案进行排序。

Few-shot任务指的是提供任务的几个例子(1到64个之间)和一个测试例子。该任务将这些文本作为输入,并生成答案或对不同的选项进行排序。

900bd7ac-b91e-11ed-bfe3-dac502259ad0.png

在模型对比上,将LLaMA与其他基础模型进行比较,包括:公开的语言模型GPT-3(Brown等人,2020)、Gopher(Rae)和Lauren等人。2020)、Gopher(Raeet al.,2021)、Chinchilla(Hoffmann等,2022)和PaLM(Chowdhery等,2022),以及开源的OPT模型(Zhang等,2022)、GPT-J(Wang和Komatsuzaki,2021)和GPTneo(Black等,2022)。

此外,该工作还简要比较了LLaMA与OPT-IML(Iyer等人,2022)和Flan-PaLM(Chung等人,2022)等指令微调模型。

1、Common Sense Reasoning评测

该工作选择了八个标准的常识推理基准:BoolQ(Clark等人,2019),PIQA(Bisk等人,2020),SIQA(Sap等人,2019),HellaSwag(Zellers等人,2019),WinoGrande(Sakaguchiet al.,2021),ARC easy and challenge(Clarket al.,2018)和OpenBookQA(Mihaylov等,2018)。

这些数据集包括Cloze和Winograd style的任务,以及多选题回答。

如表3所示:

90298b30-b91e-11ed-bfe3-dac502259ad0.png

LLaMA-65B在所有报告的基准上都优于Chinchilla-70B,但BoolQ除外。

该模型除了在BoolQ和WinoGrande上,在其他地方都超过了PaLM-540B。

也就是说,LLaMA-13B模型在大多数基准上也超过了GPT-3,尽管它要小10倍。

2、Closed-book Question Answering评测

闭卷答题测评任务指的是闭卷情况下的精确匹配性能,即模型不能访问包含回答问题的证据的文件。

表4和表5分别展示了NaturalQuestions以及TriviaQA的性能。

903701e8-b91e-11ed-bfe3-dac502259ad0.png

结果发现:

LLaMA-65B在0-sot和少数sot设置中都达到了最先进的性能。更重要的是,LLaMA-13B在这些基准测试中与GPT-3和Chinchilla相比也很有竞争力,尽管其体积小了5-10倍。

在推理过程中,该模型在单个V100 GPU上运行。

3、Reading Comprehension评测

RACE阅读理解评测指的是从为中国初中和高中学生设计的英语阅读理解考试,效果如表6所示:

9055d60e-b91e-11ed-bfe3-dac502259ad0.png

LLaMA-65B与PaLM-540B具有竞争力,LLaMA-13的性能比GPT-3好几个百分点。

4、Mathematical reasoning评测

为了验证模型的推理能力,该工作在两个数学推理基准上MATH(Hendrycks等人,2021)和GSM8k(Cobbe等人,2021)进行了测试。

其中,MATH是一个用LaTeX编写的12K初中和高中数学问题的数据集。GSM8k是一套初中数学问题。

906b1eb0-b91e-11ed-bfe3-dac502259ad0.png

表7显示了与PaLM和Minerva(Lewkowycz等人,2022)的测试效果。

Minerva是在从ArXiv和Math网页中提取的38.5B个符号上进行微调的一系列PaLM模型,而PaLM或LaMA都是在数学数据上进行微调的。

指标maj1@k表示对每个问题产生k个样本并进行多数投票的评价(Wanget al., 2022)。在GSM8k上,可以发现,尽管还没有在数学数据上进行微调,LLaMA-65B优于Minerva-62B。

5、Code generation评测

该工作在两个基准上评估了模型从自然语言描述中写入代码的能力,包括HumanEval(Chen等人,2021)和MBPP(Austin等人,2021)两个测评。

其中,在HumanEval测试中,它会收到一个函数签名,提示被格式化为自然码,并在docstring中提供文本描述和测试。该模型需要生成一个符合描述并满足测试案例的Python程序。

906b1eb0-b91e-11ed-bfe3-dac502259ad0.png


表8显示了当前模型与现有没有经过代码微调的语言模型,即PaLM和LaMDA(Thopilan等人,2022)的比较结果,其中:pass@1的结果通过温度为0.1的采样,pass@100和pass@80的指标通过温度为0.8时得到,性能如下:

对于类似的参数数量,LLaMA优于其他通用模型,如LaMDA和PaLM,它们没有专门针对代码进行训练或微调。

LLaMA在HumanEval和MBPP上以13B以上的参数优于LaMDA 137B。

即使它的训练时间更长,LLaMA 65B也优于PaLM 62B。

6、Massive Multitask Language Understanding评测

由Hendryckset al.(2020)介绍的大规模多任务语言理解基准,或称MMLU,由涵盖各种知识领域的多项选择题组成,包括人文、STEM和社会科学。

该工作在5-shot的环境中进行了模型评估,效果如,表9所示:

90c26e0e-b91e-11ed-bfe3-dac502259ad0.png

LLaMA-65B在大多数领域都比Chinchilla-70B和PaLM-540B平均落后几个百分点。

一个潜在的解释是,该模型在预训练数据中使用了有限的书籍和学术论文,即ArXiv、Gutenberg和Books3,总共只有177GB,而这些模型是在高达2TB的书籍上训练的。

因此,Gopher、Chinchilla和PaLM所使用的大量书籍可能也解释了为什么Gopher在这个基准上优于GPT-3,而在其他基准上却不相上下。

7、Evolution of performance during training评测

此外。该工作还跟踪了在训练过程中,模型在一些问题回答和常识性基准上的表现,并如图1、2所示:

90d49778-b91e-11ed-bfe3-dac502259ad0.png

90ecaac0-b91e-11ed-bfe3-dac502259ad0.png

在大多数基准上,性能很快就会提高,并与模型的训练困惑度相关。

不过,SIQA和WinoGrande很例外,最值得注意的是,在SIQA上,该工作发现很多性能上的差异,这可能表明这个基准并不可靠。

此外,在WinoGrande上,性能与训练困惑度的相关性不大:LLaMA-33B和LLaMA-65B在训练期间的性能相似。

五、Instruction Finetuning下带来的性能测试

Instruction Finetuning的实验表明:

尽管非微调版本的LLaMA-65B已经能够遵循基本指令,但非常小的微调就能提高MMLU的性能,并进一步提高模型遵循指令的能力。

由于这不是本文的重点,该工作只进行了一次实验,在模型上采用与Chung等人(2022)相同的方法训练一个指令模型,得到LLaMA-I。

910d9b86-b91e-11ed-bfe3-dac502259ad0.png

表10显示了微调模型LLaMA-I在MMLU评测上与现有的中等规模的指令微调模型,即OPT-IML(Iyer等人,2022)和Flan-PaLM系列(Chung等人,2022)的结果。

正如表中所示:

尽管这里使用的指令微调方法很简单,但该模型在MMLU上达到了68.9%。

LLaMA-I(65B)在MMLU上超过了现有的中等规模的指令微调模型,但离最先进的水平有较大的差距,即GPT代码-DAVINCI-002在MMLU上的表现为77.4%(数字取自Iyer等人(2022))。

六、Bias, Toxicity and Misinformation上的分析测试

大型语言模型已被证明可以重现和放大训练数据中存在的偏见(Sheng等人,2019年;Kurita等人,2019年),并产生有毒或攻击性内容(Gehman等人,2020年)。

由于该模型训练数据集包含了很大一部分来自网络的数据,因此,评估模型产生这种内容的可能性是至关重要的。

为了了解LLaMA-65B的潜在危害,该工作在不同的基准上进行评估,这些基准衡量了有毒内容的产生和刻板印象的检测

1、RealToxicityPrompts毒性测试

语言模型可以产生有毒的语言,例如,侮辱、仇恨言论或威胁。一个模型可以产生的有毒内容范围非常大,这使得彻底的评估具有挑战性。

最近的一些工作(Zhang等人,2022;Hoffmann等人,2022)已经考虑了RealToxicityPrompts基准(Gehman等人,2020)作为他们的模型的毒性指标。

RealToxicityPrompts由模型必须完成的大约10万个提示组,;然后通过向PerspectiveAPI 3提出请求来自动评估毒性分数。

但由于无法控制第三方PerspectiveAPI使用的流程,因此很难与以前的模型进行比较,所以仅进行了单一模型实验,每个提示的得分范围从0(无毒)到1(有毒),结果如表11所示:

912fb36a-b91e-11ed-bfe3-dac502259ad0.png

可以看到,毒性随着模型的大小而增加,特别是对于尊重提示,这在以前的工作中也观察到了(Zhang等人,2022),但Hoffmann等人(2022)是个明显的例外,他们没有看到Chinchilla和Gopher之间的差异。
不过,这可以解释为较大的模型Gopher的性能比Chinchilla差,这表明毒性和模型大小之间的关系可能只适用于一个模型系列。

2、CrowS-Pairs社会偏见评测

在偏见测试上,该工作在CrowSPairs(Nangia等人,2020)上进行了评估。

这个数据集允许测量9个类别的偏见:性别、宗教、种族/肤色、性取向、年龄、国籍、残疾、外貌和社会经济地位。

每个例子都由一个刻板印象和一个反刻板印象组成,该工作在zero-shot场景下使用两个句子的复杂度来衡量模型对刻板印象句子的偏好。

表12中显示了该模型与GPT-3和OPT-175B的对比结果:

9151f998-b91e-11ed-bfe3-dac502259ad0.png

从表中的结果我们发现,该模型与这两个模型相比,平均来说略胜一筹。

特别的,在宗教类别中特别有偏见(与OPT-175B相比+10),其次是年龄和性别(与最佳模型相比各+6)。

因此,从数据的角度上,可以发展,尽管有多个过滤步骤,预计这些偏见来自CommonCrawl,毕竟数据太杂了。

3、WinoGender性别偏见评测

为了进一步研究该模型在性别类别上的偏差,WinoGenderbenchmark(Rudinger等人,2018)数据集也作为了测评任务。

WinoGender是由Winogradschema构成的,通过确定模型的共同参考解决性能是否受到代词性别的影响来评估偏见。

更确切地说,每个句子有三个提及:一个 "职业",一个 "参与者 "和一个 "代词",其中代词是共同参考职业或参与者。

该任务要求该模型确定共同参照关系,并根据句子的上下文来衡量它是否正确,其目的是揭示与职业相关的社会偏见是否被模型所捕捉。

例如,WinoGender数据集中的一个句子是 "护士通知病人,他的班将在一小时后结束。",后面的 "他的 "是指。然后,我们比较了护士和病人的连续性的困惑,用模型进行共同参考解决。

具体的,该工作评估了使用3个代词时的表现:"her/her/she","his/him/he "和 "they/them/someone"(不同的选择对应于代词的语法功能。

在表13显示了数据集中包含的三个不同代词的共同参考得分。

916fd396-b91e-11ed-bfe3-dac502259ad0.png

可以看到,该模型在解决 "他们/他们/某人 "代词的共同参照方面明显优于 "她/她/他 "和 "他/他/他 "代词,这在以前的工作中也有类似的观察(Raeet al., 2021; Hoffmann et al., 2022),这可能是性别偏见的表现。

事实上,在 "她/他 "和 "他/他 "代词的情况下,模型可能使用职业的多数性别来进行共同参考解析,而不是使用句子的证据。

为了进一步研究这一假设,该工作研究了WinoGender数据库中 "她/他 "和 "他/他 "代词的 "疑难 "案例。这些情况对应于代词与职业的多数性别不匹配的句子,而职业是正确答案。

进一步的,我们发现,LLaMA-65B在有问题的例子上犯了更多的错误,清楚地表明它捕捉到了与性别和职业有关的社会偏见。"她/她/她 "和 "他/他 "代词的性能下降,这表明了与性别无关的偏见。

4、TruthfulQA可信度评测

TruthfulQA(Lin等人,2021)旨在衡量一个模型的真实性,即它识别一个主张是真的能力。

Lin等人(2021)认为 "真实 "的定义是指 "关于现实世界的字面意义上的真实",而不是指在信仰体系或传统背景下才是真实的主张。这些问题以不同的风格写成,涵盖了38个类别,并被设计成对抗性的。

表14显示了该模型在这两个问题上的表现,以衡量真实的模型和真实与信息的交集。

91954d88-b91e-11ed-bfe3-dac502259ad0.png

如上表所示:与GPT-3相比,模型在这两个类别中得分较高,但正确答案的比率仍然很低,这表明我们的模型很可能会产生幻觉的错误答案。【这是大模型的一个通病】

七、Carbon footprint:算力强的消耗

为了进一步说明模型在训练成本上的消耗,表15对总的能源消耗和由此产生的碳足迹进行了分类。

在计算方式上,采用Wu等人(2022)的公式来估计训练模型所需的瓦特小时,以及碳排放吨数,tCO2eq。

具体的,对于Wh,使用的公式是:Wh=GPU-h×(GPU功耗)×PUE,其中将电源使用效率(PUE)设定为1.1。

91babd84-b91e-11ed-bfe3-dac502259ad0.png

由此产生的碳排放取决于用于训练网络的数据中心的位置。

例如:

BLOOM使用的网格排放0.057千克二氧化碳当量/千瓦时,导致27吨二氧化碳当量;

OPT的网格排放0.231千克二氧化碳当量/千瓦时,导致82吨二氧化碳当量。

为了比较这些模型在同一数据中心训练时的碳排放成本,该工作采用了不考虑数据中心的位置的数据,而使用美国全国平均碳强度系数0.385 kg CO2eq/KWh。

碳排放量的以下公式:tCO2eq = MWh × 0.385,

因此,可以对OPT和BLOOM采用相同的公式进行公平比较。

对于OPT,该工作假设在992个A100-80B上训练了34天。

而在llama模型的训练上,使用了2048个A100-80GB,大约5个月的时间的成本,根据假设,开发这些模型将花费约2638兆瓦时,总排放量为1015吨二氧化碳当量。

八、LLaMA在实际场景的效果案例

1、Generations from LLaMA-65B

下面展示了一些用LLaMA-65B(没有指令微调)获得的世代的例子。prompt提示用粗体字表示。

91d4e682-b91e-11ed-bfe3-dac502259ad0.png

91fc34b2-b91e-11ed-bfe3-dac502259ad0.png

921bf19e-b91e-11ed-bfe3-dac502259ad0.png

3、Generations from LLaMA-I

下图展示了几个用LLaMA-I生成的例子,即用Chung等人(2022)的基准和指令数据集微调的LLaMA-65B。

922ff09a-b91e-11ed-bfe3-dac502259ad0.png

92523812-b91e-11ed-bfe3-dac502259ad0.png

926ce7e8-b91e-11ed-bfe3-dac502259ad0.png

9292b7de-b91e-11ed-bfe3-dac502259ad0.png

总结

Meta最近提出了LLaMA大规模语言模型,模型参数包括从7B到65B等多个版本,根据论文的描述,其在较小模型参数上,依旧取得了在诸多任务上超越GPT3的效果。

值得注意的是,在多个任务上,LLaMA-13B的性能优于GPT-3,而体积却小了10倍以上,LLaMA-65B与Chinchilla-70B和PaLM-540B具有竞争性,这样是否意味着小模型参数使用大规模数据集也是一条可以研究的方向。

与以前的研究不同,该工作通过完全在公开可用的数据上进行训练,而不求助于专有数据集,是可以达到最先进的性能。

虽然,对于该工作的代码和权重是否开源,开源的程度如何,需要我们再等等看,但其中对于数据的处理、选择和加工等环节,可以有一定的参考性,比如CCNet的流程。

感兴趣的,可以进一步研究开放的代码,进一步跟进

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 语言模型
    +关注

    关注

    0

    文章

    530

    浏览量

    10297
  • 数据集
    +关注

    关注

    4

    文章

    1208

    浏览量

    24737
  • 大数据
    +关注

    关注

    64

    文章

    8897

    浏览量

    137523

原文标题:Meta最新语言模型LLaMA论文研读:小参数+大数据的开放、高效基础语言模型阅读笔记

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    【飞腾派4G版免费试用】仙女姐姐的嵌入式实验室之五~LLaMA.cpp及3B“小模型”OpenBuddy-StableLM-3B

    预训练语言模型。该模型最大的特点就是基于以较小的参数规模取得了优秀的性能,根据官网提供的信息,LLaMA
    发表于 12-22 10:18

    【大语言模型:原理与工程实践】揭开大语言模型的面纱

    更好地拟合训练数据,并在推理和泛化时表现出色。此外,特征复用通过共享参数高效率和性能,使得大语言模型能够更有效地利用学到的特征。最后,优化
    发表于 05-04 23:55

    【大语言模型:原理与工程实践】大语言模型的预训练

    语言模型的核心特点在于其庞大的参数量,这赋予了模型强大的学习容量,使其无需依赖微调即可适应各种下游任务,而更倾向于培养通用的处理能力。然而,随着学习容量的增加,对预训练
    发表于 05-07 17:10

    【《大语言模型应用指南》阅读体验】+ 俯瞰全书

    ,了解此书的主要内容: 书分四篇,基础、入门、进阶和展望。 基础篇从人工智能起源开始、之后又介绍了机器学习、神经网络和大语言模型的基础知识,如果读者学习过机器学习相关课程,那这个基础篇的阅读就会很轻
    发表于 07-21 13:35

    【《大语言模型应用指南》阅读体验】+ 基础篇

    今天开始学习《大语言模型应用指南》第一篇——基础篇,对于人工智能相关专业技术人员应该可以轻松加愉快的完成此篇阅读,但对于我还是有许多的知识点、专业术语比较陌生,需要网上搜索学习更多的资料才能理解书中
    发表于 07-25 14:33

    【《大语言模型应用指南》阅读体验】+ 基础知识学习

    今天来学习大语言模型在自然语言理解方面的原理以及问答回复实现。 主要是基于深度学习和自然语言处理技术。 大语言
    发表于 08-02 11:03

    “伶荔”(Linly) 开源大规模中文语言模型

    Linly-Chinese-LLaMA:中文基础模型,基于 LLaMA 在高质量中文语料上增量训练强化中文语言能力,现已开放 7B、13B
    的头像 发表于 05-04 10:29 1120次阅读
    “伶荔”(Linly) 开源大规模中文<b class='flag-5'>语言</b><b class='flag-5'>模型</b>

    Meta发布一款可以使用文本提示生成代码的大型语言模型Code Llama

    今天,Meta发布了Code Llama,一款可以使用文本提示生成代码的大型语言模型(LLM)。
    的头像 发表于 08-25 09:06 1524次阅读
    Meta发布一款可以使用文本提示生成代码的大型<b class='flag-5'>语言</b><b class='flag-5'>模型</b>Code <b class='flag-5'>Llama</b>

    语言模型简介:基于大语言模型模型全家桶Amazon Bedrock

    本文基于亚马逊云科技推出的大语言模型与生成式AI的全家桶:Bedrock对大语言模型进行介绍。大语言模型
    的头像 发表于 12-04 15:51 812次阅读

    LLaMA 2是什么?LLaMA 2背后的研究工作

    Meta 发布的 LLaMA 2,是新的 sota 开源大型语言模型 (LLM)。LLaMA 2 代表着 LLaMA 的下一代版本,并且具有
    的头像 发表于 02-21 16:00 1137次阅读

    Llama 3 语言模型应用

    在人工智能领域,语言模型的发展一直是研究的热点。随着技术的不断进步,我们见证了从简单的关键词匹配到复杂的上下文理解的转变。 一、Llama 3 语言
    的头像 发表于 10-27 14:15 297次阅读

    Llama 3 模型与其他AI工具对比

    、技术架构 Llama 3模型 采用了最新的Transformer架构,并结合了自注意力机制和分组查询关注(GQA)机制。 引入了高效的tokenizer和RoPE位置编码,提高了语言
    的头像 发表于 10-27 14:37 431次阅读

    用Ollama轻松搞定Llama 3.2 Vision模型本地部署

    Ollama的安装。 一,Llama3.2 Vision简介 Llama 3.2 Vision是一个多模态大型语言模型(LLMs)的集合,它包括预训练和指令调整的图像推理生成
    的头像 发表于 11-23 17:22 1230次阅读
    用Ollama轻松搞定<b class='flag-5'>Llama</b> 3.2 Vision<b class='flag-5'>模型</b>本地部署

    使用NVIDIA TensorRT提升Llama 3.2性能

    Llama 3.2 模型集扩展了 Meta Llama 开源模型集的模型阵容,包含视觉语言
    的头像 发表于 11-20 09:59 256次阅读

    NVIDIA推出开放Llama Nemotron系列模型

    作为 NVIDIA NIM 微服务,开放Llama Nemotron 大语言模型和 Cosmos Nemotron 视觉语言
    的头像 发表于 01-09 11:11 155次阅读