0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

为什么要使用预训练模型?8种优秀预训练模型大盘点

电子工程师 来源:lp 2019-04-04 11:26 次阅读

如今,自然语言处理(NLP)可谓遍地开花,可以说正是我们了解它的好时机。

NLP的快速增长主要得益于通过预训练模型实现转移学习的概念。在NLP中,转移学习本质上是指在一个数据集上训练模型,然后调整该模型以便在不同数据集上实现NLP的功能。

这一突破使NLP应用变得如此简单,尤其是那些没有时间或资源从头开始构建NLP模型的人。或者,对于想要学习或者从其他领域过渡到NLP的新手来说,这简直就是完美。

为什么要使用预训练模型?

模型的作者已经设计出了基准模型,这样我们就可以在自己的NLP数据集上使用该预训练模型,而无需从头开始构建模型来解决类似的问题

尽管需要进行一些微调,但这为我们节省了大量的时间和计算资源

在本文中展示了那些助你开始NLP之旅的顶级预训练模型,以及该领域的最新研究成果。要查看关于计算机视觉中的顶级预训练模型的文章,请参阅:

https://www.analyticsvidhya.com/blog/2018/07/top-10-pretrained-models-get-started-deep-learning-part-1-computer-vision/?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

本文涵盖的NLP预训练模型

我根据应用场景将预训练模型分为三类:

多用途NLP模型

ULMFiT

Transformer

谷歌的BERT

Transformer-XL

OpenAI的GPT-2

词嵌入NLP模型

ELMo

Flair

其他预训练模型

StanfordNLP

多用途NLP模型

多用途模型在NLP领域里一直为人们所关注。这些模型为提供了许多令人感兴趣的NLP应用 - 机器翻译、问答系统、聊天机器人、情感分析等。这些多用途NLP模型的核心是语言建模的理念。

简单来说,语言模型的目的是预测语句序列中的下一个单词或字符,在我们了解各模型时就会明白这一点。

如果你是NLP爱好者,那么一定会喜欢现在这部分,让我们深入研究5个最先进的多用途NLP模型框架。这里我提供了每种模型的研究论文和预训练模型的链接,来探索一下吧!

ULMFiT模型

ULMFiT由fast.ai(深度学习网站)的Jeremy Howard和DeepMind(一家人工智能企业)的Sebastian Ruder提出并设计。可以这么说,ULMFiT开启了转移学习的热潮。

正如我们在本文中所述,ULMFiT使用新颖的NLP技术取得了令人瞩目的成果。该方法对预训练语言模型进行微调,将其在WikiText-103数据集(维基百科的长期依赖语言建模数据集Wikitext之一)上训练,从而得到新数据集,通过这种方式使其不会忘记之前学过的内容。

ULMFiT比许多先进的文本分类模型还要好。我喜爱ULMFiT是因为它只需要很少的数据就可以来产生令人印象深刻的结果,使我们更容易理解并在机器上实现它!

也许你不知道ULMFiT其实是Universal Language Model Fine-Tuning(通用语言模型微调)的简称。“通用”一词在这里非常贴切 - 该框架几乎可以应用于任何NLP任务。

想知道有关ULMFiT的更多信息,请参阅以下文章和论文:

使用ULMFiT模型和Python 的fastai库进行文本分类(NLP)教程

https://www.analyticsvidhya.com/blog/2018/11/tutorial-text-classification-ulmfit-fastai-library/?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

ULMFiT的预训练模型论文

https://www.paperswithcode.com/paper/universal-language-model-fine-tuning-for-text

其他研究论文

https://arxiv.org/abs/1801.06146

Transformer模型

Transformer架构是NLP近期最核心的发展,2017年由谷歌提出。当时,用于语言处理任务(如机器翻译和问答系统)的是循环神经网络(RNN)。

Transformer架构的性能比RNN和CNN(卷积神经网络)要好,训练模型所需的计算资源也更少,这对于每个使用NLP的人来说都是双赢。看看下面的比较:

各模型的英德翻译质量

根据Google的说法,Transformer模型“应用了一种自注意力机制,可直接模拟句子中所有单词之间的关系,而无需理会其各自的位置如何”。它使用固定长度上下文(也就是前面的单词)来实现。太复杂了?没事,我们举一例子简单说明。

有句话“She found the shells on the bank of the river.”此时模型需要明白,这里的“bank”是指岸边,而不是金融机构(银行)。Transformer模型只需一步就能理解这一点。我希望你能阅读下面链接的完整论文,以了解其工作原理。它肯定会让你大吃一惊。

谷歌去年发布了一款名为Universal Transformer的改进版Transformer模型。它还有一个更新,更直观的名字,叫Transformer-XL,我们将在后面介绍。

想学习和阅读更多有关Transformer的信息,请访问:

谷歌官方博文

https://ai.googleblog.com/2017/08/transformer-novel-neural-network.html

Transformer预训练模型论文《Attention Is All You Need》

https://www.paperswithcode.com/paper/attention-is-all-you-need

其他研究论文

https://arxiv.org/abs/1706.03762

BERT模型(谷歌)

谷歌发布BERT框架并开放其源代码在业界掀起波澜,甚至有人认为这是否标志着“ NLP新时代”的到来。但至少有一点可以肯定,BERT是一个非常有用的框架,可以很好地推广到各种NLP任务中。

BERT是BidirectionalEncoderRepresentations(双向编码器表征)的简称。这个模型可以同时考虑一个词的两侧(左侧和右侧)上下文,而以前的所有模型每次都是只考虑词的单侧(左侧或右侧)上下文。这种双向考虑有助于模型更好地理解单词的上下文。此外,BERT可以进行多任务学习,也就是说,它可以同时执行不同的NLP任务。

BERT是首个无监督的、深度双向预训练NLP模型,仅使用纯文本语料库进行训练。

在发布时,谷歌称BERT进行了11个自然语言处理(NLP)任务,并产生高水平的结果,这一壮举意义深远!你可以在短短几个小时内(在单个GPU上)使用BERT训练好自己的NLP模型(例如问答系统)。

想获得更多有关BERT的资源,请参阅:

谷歌官方博文

https://ai.googleblog.com/2018/11/open-sourcing-bert-state-of-art-pre.html

BERT预训练模型论文

https://www.paperswithcode.com/paper/bert-pre-training-of-deep-bidirectional#code

其他研究论文

https://arxiv.org/pdf/1810.04805.pdf

Transformer-XL模型(谷歌)

从长期来看,谷歌发布的版本对NLP而言是非常重要的。如果你是初学者,这个概念可能会有点棘手,所以我鼓励你多读几遍来掌握它。我还在本节下面提供了多种资源来帮助你开始使用Transformer-XL。

想象一下——你刚读到一本书的一半,突然出现了这本书开头提到的一个词或者一句话时,就能回忆起那是什么了。但可以理解,机器很难建立长期的记忆模型。

如上所述,要达成这个目的的一种方法是使用Transformers,但它们是在固定长度的上下文中实现的。换句话说,如果使用这种方法,就没有太大的灵活性。

Transformer-XL很好地弥补了这个差距。它由Google AI团队开发,是一种新颖的NLP架构,能够帮助机器理解超出固定长度限制的上下文。Transformer-XL的推理速度比传统的Transformer快1800倍。

通过浏览下面谷歌发布的两个gif文件,你就会明白这其中的区别:

正如你现在可能已经预测到的,Transformer-XL在各种语言建模基准/数据集上取得了最新的技术成果。以下是他们页面上的一个小表格,说明了这一点:

之前给过链接并将在下面提到的Transformer-XL GitHub存储库包含了PyTorch和TensorFlow中的代码。

学习和阅读更多Transformer-XL有关信息的资源:

谷歌的官方博客文章

https://ai.googleblog.com/2019/01/transformer-xl-unleashing-potential-of.html

Transformer-XL的预训练模型

https://www.paperswithcode.com/paper/transformer-xl-attentive-language-models

研究论文

https://arxiv.org/abs/1901.02860

GPT-2模型(OpenAI)

这是一个十分有争议的模型,一些人会认为GPT-2的发布是OpenAI的营销噱头。我可以理解他们的想法,但是我认为至少应该要先对OpenAI发布的代码进行尝试。

首先,为那些不知道我在说什么的人提供一些背景信息。OpenAI在2月份发表了一篇博客文章,他们声称已经设计了一个名为GPT-2的NLP模型,这个模型非常好,以至于担心被恶意使用而无法发布完整的版本,这当然引起了社会的关注。

GPT-2经过训练,可以用来预测40GB的互联网文本数据中的下一个出现的词。 该框架也是一个基于transformer的模型,而这个模型是基于800万个web页面的数据集来进行训练。他们在网站上发布的结果简直令人震惊,因为该模型能够根据我们输入的几个句子编写出一个完整的故事。看看这个例子:

难以置信,是吧?

开发人员已经发布了一个更小版本的GPT-2,供研究人员和工程师测试。原始模型有15亿个参数——开放源码示例模型有1.17亿个参数。

学习和阅读更多GPT-2有关信息的资源:

OpenAI的官方博客文章

https://openai.com/blog/better-language-models/

GPT-2的预训练模型

https://github.com/openai/gpt-2

研究论文

https://d4mucfpksywv.cloudfront.net/better-language-models/language-models.pdf

词嵌入(word embedding)模型

我们使用的大多数机器学习和深度学习算法都无法直接处理字符串和纯文本。这些技术要求我们将文本数据转换为数字,然后才能执行任务(例如回归或分类)。

因此简单来说, 词嵌入(word embedding)是文本块,这些文本块被转换成数字以用于执行NLP任务。词嵌入(word embedding)格式通常尝试使用字典将单词映射到向量。

你可以在下面的文章中更深入地了解word embedding、它的不同类型以及如何在数据集中使用它们。如果你不熟悉这个概念,我认为本指南必读:

对词嵌入的直观理解:从计算向量到Word2Vec

https://www.analyticsvidhya.com/blog/2019/03/pretrained-models-get-started-nlp/

在本节中,我们将介绍NLP的两个最先进的词嵌入(word embedding)。我还提供了教程链接,以便你可以对每个主题有实际的了解。

ELMo模型

这个ELMo并不是《芝麻街》里的那个角色,但是这个ELMo(Embeddings from Language Models(语言模型嵌入)的缩写)在构建NLP模型的上下文中非常有用。

ELMo是一种用向量和嵌入表示单词的新方法。这些ELMo 词嵌入(word embedding)帮助我们在多个NLP任务上实现最先进的结果,如下图所示:

让我们花点时间来了解一下ELMo是如何工作的。回想一下我们之前讨论过的双向语言模型。从这篇文章中我们能够得到提示,“ELMo单词向量是在双层双向语言模型(biLM)的基础上进行计算的。这个biLM模型有两层叠加在一起,每一层都有2个通道——前向通道和后向通道:

ELMo单词表示考虑计算词嵌入(word embedding)的完整输入语句。因此,“read”这单词在不同的上下文中具有不同的ELMo向量。这与旧版的词嵌入(word embedding)大不相同,旧版中无论在什么样的上下文中使用单词“read”,分配给该单词的向量是相同的。

学习和阅读更多ELMo有关信息的资源:

循序渐进的NLP指南,了解ELMo从文本中提取特征

https://www.analyticsvidhya.com/blog/2019/03/learn-to-use-elmo-to-extract-features-from-text/?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

预训练模型的GitHub存储库

https://github.com/allenai/allennlp/blob/master/tutorials/how_to/elmo.md

研究论文

https://arxiv.org/pdf/1802.05365.pdf

Flair模型

Flair不是一个词嵌入(word embedding),而是它的组合。我们可以将Flair称为结合了GloVe、BERT与ELMo等嵌入方式的NLP库。Zalando Research的优秀员工已经开发了开源的Flair。

该团队已经为以下NLP任务发布了几个预训练模型:

名称 - 实体识别(NER)

词性标注(PoS)

文本分类

培训定制模型

不相信吗?那么,这个对照表会帮你找到答案:

“Flair Embedding”是Flair库中打包的签名嵌入,它由上下文字符串嵌入提供支持。了解支持Flair的核心组件可以阅读这篇文章:

https://www.analyticsvidhya.com/blog/2019/02/flair-nlp-library-python/?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

我特别喜欢Flair的地方是它支持多种语言,而这么多的NLP发行版大多都只有英文版本。如果NLP要在全球获得吸引力,我们需要在此基础上进行扩展。

学习和阅读更多有关Flair的资源:

Flair for NLP简介:一个简单但功能强大的最先进的NLP库

https://www.analyticsvidhya.com/blog/2019/02/flair-nlp-library-python/?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

Flair的预训练模型

https://github.com/zalandoresearch/flair

其他预训练模型

StanfordNLP (斯坦福)

提到扩展NLP使其不局限于英语,这里有一个已经实现该目的的库——StanfordNLP。其作者声称StanfordNLP支持超过53种语言,这当然引起了我们的注意。

我们的团队是第一批使用该库并在真实数据集上发布结果的团队之一。我们通过尝试,发现StanfordNLP确实为在非英语语言上应用NLP技术提供了很多可能性,比如印地语、汉语和日语。

StanfordNLP是一系列经过预先训练的最先进的NLP模型的集合。这些模型不仅是在实验室里进行测试——作者在2017年和2018年的CoNLL竞赛中都使用了这些模型。在StanfordNLP中打包的所有预训练NLP模型都是基于PyTorch构建的,可以在你自己的注释数据上进行训练和评估。

我们认为你应该考虑使用StanfordNLP的两个主要原因是:

用于执行文本分析的完整神经网络管道,包括。

标记化

多字令牌(MWT)拓展

词形还原

词性(POS)和词形特征标记

依存语法分析

稳定的Stanford CoreNLP软件的官方Python接口

学习和阅读更多StanfordNLP有关信息的资源:

StanfordNLP简介:一个不可思议的支持53种语言的最先进NLP库 (使用Python代码)

https://www.analyticsvidhya.com/blog/2019/02/stanfordnlp-nlp-library-python/?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

StanfordNLP的预训练模型

https://github.com/stanfordnlp/stanfordnlp

尾注

这绝不是一个预训练NLP模型的详尽列表,有更多能用的可以在这个网站上找到:https://paperswithcode.com

以下是学习NLP的一些有用资源:

使用Python课程进行自然语言处理https://courses.analyticsvidhya.com/courses/natural-language-processing-nlp?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

认证项目:NLP初学者https://courses.analyticsvidhya.com/bundles/nlp-combo?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

自然语言处理(NLP)系列文章https://www.analyticsvidhya.com/blog/category/nlp/?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

我很想听听你对这份清单的看法。你以前用过这些预训练过的模型吗?或者你已经探索过其他的模型?请在下面的评论区告诉我——我很乐意搜索它们并添加到这个列表中。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据集
    +关注

    关注

    4

    文章

    1205

    浏览量

    24644
  • 自然语言处理

    关注

    1

    文章

    614

    浏览量

    13507
  • nlp
    nlp
    +关注

    关注

    1

    文章

    487

    浏览量

    22012

原文标题:8种优秀预训练模型大盘点,NLP应用so easy!

文章出处:【微信号:BigDataDigest,微信公众号:大数据文摘】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    什么是大模型、大模型是怎么训练出来的及大模型作用

    ,基础模型。   大模型是一个简称,完整的叫法,应该是“人工智能训练模型”。
    的头像 发表于 11-25 09:29 82次阅读
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>训练</b>出来的及大<b class='flag-5'>模型</b>作用

    直播预约 |数据智能系列讲座第4期:训练的基础模型下的持续学习

    鹭岛论坛数据智能系列讲座第4期「训练的基础模型下的持续学习」10月30日(周三)20:00精彩开播期待与您云相聚,共襄学术盛宴!|直播信息报告题目
    的头像 发表于 10-18 08:09 163次阅读
    直播预约 |数据智能系列讲座第4期:<b class='flag-5'>预</b><b class='flag-5'>训练</b>的基础<b class='flag-5'>模型</b>下的持续学习

    训练和迁移学习的区别和联系

    训练和迁移学习是深度学习和机器学习领域中的两个重要概念,它们在提高模型性能、减少训练时间和降低对数据量的需求方面发挥着关键作用。本文将从定义、原理、应用、区别和联系等方面详细探讨
    的头像 发表于 07-11 10:12 841次阅读

    大语言模型训练

    能力,逐渐成为NLP领域的研究热点。大语言模型训练是这一技术发展的关键步骤,它通过在海量无标签数据上进行训练,使模型学习到语言的通用知识
    的头像 发表于 07-11 10:11 389次阅读

    LLM训练的基本概念、基本原理和主要优势

    在人工智能和自然语言处理(NLP)领域,大型语言模型(Large Language Model,简称LLM)的兴起极大地推动了技术的进步和应用的发展。LLM通过在大规模文本数据上进行训练,获得了
    的头像 发表于 07-10 11:03 999次阅读

    人脸识别模型训练流程

    人脸识别模型训练流程是计算机视觉领域中的一项重要技术。本文将详细介绍人脸识别模型训练流程,包括数据准备、模型选择、
    的头像 发表于 07-04 09:19 841次阅读

    训练模型的基本原理和应用

    训练模型(Pre-trained Model)是深度学习和机器学习领域中的一个重要概念,尤其是在自然语言处理(NLP)和计算机视觉(CV)等领域中得到了广泛应用。
    的头像 发表于 07-03 18:20 2384次阅读

    摩尔线程和滴普科技完成大模型训练与推理适配

    近日,摩尔线程与滴普科技宣布了一项重要合作成果。摩尔线程的夸娥(KUAE)千卡智算集群与滴普科技的企业大模型Deepexi已完成训练及推理适配,共同实现了700亿参数LLaMA2大语言模型
    的头像 发表于 05-30 10:14 519次阅读

    大语言模型:原理与工程时间+小白初识大语言模型

    语言模型进行训练,此处训练为自然语言处理领域的里程碑 分词技术(Tokenization)
    发表于 05-12 23:57

    【大语言模型:原理与工程实践】大语言模型训练

    大语言模型的核心特点在于其庞大的参数量,这赋予了模型强大的学习容量,使其无需依赖微调即可适应各种下游任务,而更倾向于培养通用的处理能力。然而,随着学习容量的增加,对训练数据的需求也相
    发表于 05-07 17:10

    【大语言模型:原理与工程实践】大语言模型的基础技术

    全面剖析大语言模型的核心技术与基础知识。首先,概述自然语言的基本表示,这是理解大语言模型技术的前提。接着,详细介绍自然语言处理训练的经典结构Transformer,以及其工作原理,
    发表于 05-05 12:17

    【大语言模型:原理与工程实践】核心技术综述

    训练和微调,直到模型的部署和性能评估。以下是对这些技术的综述: 模型架构: LLMs通常采用深层的神经网络架构,最常见的是Transformer网络,它包含多个自注意力层,能够捕
    发表于 05-05 10:56

    谷歌模型训练软件有哪些功能和作用

    谷歌模型训练软件主要是指ELECTRA,这是一新的训练方法,源自谷歌AI。ELECTRA不仅拥有BERT的优势,而且在效率上更胜一筹。
    的头像 发表于 02-29 17:37 747次阅读

    混合专家模型 (MoE)核心组件和训练方法介绍

    随着 Mixtral 8x7B (announcement, model card) 的推出,一称为混合专家模型 (Mixed Expert Models,简称 MoEs
    的头像 发表于 01-13 09:37 1175次阅读
    混合专家<b class='flag-5'>模型</b> (MoE)核心组件和<b class='flag-5'>训练</b>方法介绍

    通过视图合成增强训练的2D扩散模型的可扩展技术

    现有的3D物体检测方法通常需要使用完全注释的数据进行训练,而使用训练的语义特征可以带来一些优势。
    的头像 发表于 12-14 10:00 422次阅读
    一<b class='flag-5'>种</b>通过视图合成增强<b class='flag-5'>预</b><b class='flag-5'>训练</b>的2D扩散<b class='flag-5'>模型</b>的可扩展技术