0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

关于“NLP中的迁移学习”的教程

DPVg_AI_era 来源:lq 2019-06-23 10:11 次阅读

近日,在美国明尼苏达州明尼阿波利斯的NAACL2019上,Sebastian Ruder, Matthew Peters, Swabha Swayamdipta和Thomas Wolf分享了一个长达238页PPT关于“NLP中的迁移学习”的教程,今天拿来和大家分享。

经典的监督机器学习范式是基于对使用单个数据集的任务的单个预测模型的孤立学习。这种方法需要大量的训练示例,并且对于定义明确、范围狭窄的任务效果最好。迁移学习指的是一组方法,这些方法通过利用来自其他域或任务的数据来训练具有更好泛化特性的模型来扩展此方法。

近两年来,自然语言处理(NLP)领域出现了几种转移学习方法和体系结构,这些方法和体系结构大大提高了NLP任务的先进性。

这些改进,加上这些方法的广泛可用性和易集成性,使人们想起了导致计算机视觉中预训练字嵌入和ImageNet预训练成功的因素,并表明这些方法很可能成为NLP中的一种常用工具以及一个重要的研究方向。

我们将概述NLP中的现代迁移学习方法,如何对模型进行预培训,它们所学习的表示捕获哪些信息,并回顾有关如何在下游NLP任务中集成和适应这些模型的示例和案例研究。

什么是迁移学习?

(a)传统机器学习的学习过程:

任务1:学习系统

任务2:学习系统

任务3:学习系统

(b)迁移学习的学习过程:

源任务:知识

目标任务:学习系统

为什么是NLP迁移学习?

许多NLP任务都有共同的语言知识(例如语言表示、结构相似性)

任务可以互相通知,例如语法和语义

注释数据很少,尽可能多地利用监督

从经验上讲,迁移学习已经在SOTA形成了许多被监督的NLP任务(例如分类、信息提取、问答等)

为什么是NLP迁移学习?(凭经验)

在命名实体识别(NER)CONLL-2003(英语)上随着时间推移的表现

NLP中迁移学习的类型

本教程到底讲什么?

本教程讲的是什么,不讲的是什么:

目标:提供NLP中迁移方法的广泛概述,重点介绍截至目前(2019年年中)最成功的经验方法。

提供实用的、实际操作的建议→在教程结束时,每个人都有能力将最新进展应用到文本分类任务中。

不讲的是什么:全面的(不可能在一个教程中涵盖所有相关的论文!)

(Bender Rule: 本教程主要是针对用英语完成的工作,其他语言的可扩展性取决于监督是否可用。)

框架:

1、介绍

2、预训练

3、代表中有什么?

4、适应

5、下游

6、开放问题

顺序迁移学习

了解一个任务/数据集,然后迁移到另一个任务/数据集

预训练:

word2vec

GloVe

skip-thought

InferSent

ELMo

ULMFiT

GPT

BERT

适应:

分类

序列标记

问答

预培训任务和数据集

未标记数据和自我监督:

易于收集的大型语料库:维基百科、新闻、网络爬虫、社交媒体等。

训练利用了分布假设:“你应该知道它所保存的一个词”(Firth,1957),通常形式化为训练某种语言模型的变体。

注重高效算法利用丰富的数据

监督预培训:

在视觉上非常常见,由于缺乏大的监控数据集,在NLP中较少见。

机器翻译

句子表达的NLI

从一个问答数据集到另一个问答数据集的任务特定传输

目标任务和数据集

目标任务通常是受监控的,跨越一系列常见的NLP任务:

句子或文档分类(如情感)

句子对分类(如NLI、释义)

字级(例如序列标记、提取性问答)

结构化预测(如解析)

生成(例如对话、总结)

具体示例——词向量

单词嵌入方法(例如word2vec)每个单词学习一个向量

主题:从单词到语境中的单词

主题:从单词到语境中的单词

词向量 句子/doc向量 语境中词向量

主题:LM预训练

许多成功的预培训方法都是基于语言建模的

非正式地,LM学习p(文本)或p(文本/其他文本)

不需要人工注释

许多语言有足够的文本来学习大容量模型

多才多艺,能学习句子和词的表达,具有多种客观功能

主题:由浅入深

1层 24层

主题:预培训与目标任务

预培训和目标任务的选择是耦合

句子/文档表示法对单词级预测无效

词向量可以跨上下文汇集,但通常比其他方法更好。

在语境词向量中,双向语境很重要

一般来说:

类似的预培训和目标任务→最佳结果

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • nlp
    nlp
    +关注

    关注

    1

    文章

    488

    浏览量

    22035
  • 迁移学习
    +关注

    关注

    0

    文章

    74

    浏览量

    5561

原文标题:【干货】NLP中的迁移学习教程来啦!(238页PPT下载)

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    基于稀疏编码的迁移学习及其在行人检测的应用

    一定进展,但大都需要大量的训练数据.针对这一问题,提出了一种基于迁移学习的半监督行人分类方法:首先基于稀疏编码,从任意的未标记样本,学习到一个紧凑、有效的特征表示;然后通过
    发表于 04-24 09:48

    迁移学习

    PDA、Source-Free DA上的应用。六、迁移学习前沿应用迁移学习在语义分割的应用迁移
    发表于 04-21 15:15

    专栏 | 深度学习NLP的运用?从分词、词性到机器翻译、对话系统

    从分词、词性等基础模块,到机器翻译、知识问答等领域,本文列举并分析一些深度学习NLP 领域的具体运用,希望对大家研究深度学习NLP 有所帮助。
    的头像 发表于 08-18 17:06 7559次阅读
    专栏 | 深度<b class='flag-5'>学习</b>在<b class='flag-5'>NLP</b><b class='flag-5'>中</b>的运用?从分词、词性到机器翻译、对话系统

    对2017年NLP领域中深度学习技术应用的总结

    本文作者Javier Couto是tryo labs公司的一名研发科学家,专注于NLP技术。这篇文章是他对2017年NLP领域中深度学习技术应用的总结,也许并不全面,但都是他认为有价值、有意义的成果。Couto表示,2017年是
    的头像 发表于 12-28 10:02 5620次阅读
    对2017年<b class='flag-5'>NLP</b>领域中深度<b class='flag-5'>学习</b>技术应用的总结

    NLP的介绍和如何利用机器学习进行NLP以及三种NLP技术的详细介绍

    本文用简洁易懂的语言,讲述了自然语言处理(NLP)的前世今生。从什么是NLP到为什么要学习NLP,再到如何利用机器学习进行
    的头像 发表于 06-10 10:26 7.7w次阅读
    <b class='flag-5'>NLP</b>的介绍和如何利用机器<b class='flag-5'>学习</b>进行<b class='flag-5'>NLP</b>以及三种<b class='flag-5'>NLP</b>技术的详细介绍

    面向NLP任务的迁移学习新模型ULMFit

    除了能够更快地进行训练之外,迁移学习也是特别有趣的,仅在最后一层进行训练,让我们可以仅仅使用较少的标记数据,而对整个模型进行端对端训练则需要庞大的数据集。标记数据的成本很高,在无需大型数据集的情况下建立高质量的模型是很可取的方法。
    的头像 发表于 08-22 08:11 5629次阅读

    NLP的深度学习技术概述

    该项目是对基于深度学习的自然语言处理(NLP)的概述,包括用来解决不同 NLP 任务和应用的深度学习模型(如循环神经网络、卷积神经网络和强化学习
    的头像 发表于 03-01 09:13 4816次阅读
    <b class='flag-5'>NLP</b><b class='flag-5'>中</b>的深度<b class='flag-5'>学习</b>技术概述

    迁移学习与模型预训练:何去何从

    把我们当前要处理的NLP任务叫做T(T称为目标任务),迁移学习技术做的事是利用另一个任务S(S称为源任务)来提升任务T的效果,也即把S的信息迁移到T
    的头像 发表于 07-18 11:29 7884次阅读
    <b class='flag-5'>迁移</b><b class='flag-5'>学习</b>与模型预训练:何去何从

    NLP迁移学习面临的问题和解决

    自然语言处理(NLP)最近取得了巨大的进步,每隔几天就会发布最新的结果。排行榜疯狂是指最常见的NLP基准,如GLUE和SUPERGLUE,它们的得分越来越接近人类的水平。这些结果大多是通过超大(数十亿个参数)模型从大规模数据集中迁移
    的头像 发表于 05-04 12:03 3154次阅读
    <b class='flag-5'>NLP</b><b class='flag-5'>迁移</b><b class='flag-5'>学习</b>面临的问题和解决

    NLP 2019 Highlights 给NLP从业者的一个参考

    自然语言处理专家elvis在medium博客上发表了关于NLP在2019年的亮点总结。对于自然语言处理(NLP)领域而言,2019年是令人印象深刻的一年。在这篇博客文章,我想重点介绍
    的头像 发表于 09-25 16:56 1728次阅读

    迁移学习的意图识别在口语理解的应用

    获得大量数据,因此为搭建新领域的深度学习模型提出了挑战。迁移学习是深度学习的一种特殊应用,在迁移学习
    发表于 04-12 11:18 4次下载
    <b class='flag-5'>迁移</b><b class='flag-5'>学习</b>的意图识别在口语理解<b class='flag-5'>中</b>的应用

    迁移学习Finetune的四种类型招式

    迁移学习方法。例如NLP的预训练Bert模型,通过在下游任务上Finetune即可取得比直接使用下游数据任务从零训练的效果要好得多。
    的头像 发表于 04-02 17:35 3175次阅读

    NLP迁移学习:利用预训练模型进行文本分类

    迁移学习彻底改变了自然语言处理(NLP)领域,允许从业者利用预先训练的模型来完成自己的任务,从而大大减少了训练时间和计算资源。在本文中,我们将讨论迁移
    发表于 06-14 09:30 454次阅读

    一文详解迁移学习

    迁移学习需要将预训练好的模型适应新的下游任务。然而,作者观察到,当前的迁移学习方法通常无法关注与任务相关的特征。在这项工作,作者探索了重新
    的头像 发表于 08-11 16:56 6328次阅读
    一文详解<b class='flag-5'>迁移</b><b class='flag-5'>学习</b>

    深度学习nlp的区别在哪

    深度学习和自然语言处理(NLP)是计算机科学领域中两个非常重要的研究方向。它们之间既有联系,也有区别。本文将介绍深度学习NLP的区别。 深度学习
    的头像 发表于 07-05 09:47 930次阅读