0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NLP迁移学习面临的问题和解决

汽车玩家 来源: AI公园 作者:Muhammad Khalifa 2020-05-04 12:03 次阅读

导读

NLP迁移学习中的一些问题,感觉有点道理。

自然语言处理(NLP)最近取得了巨大的进步,每隔几天就会发布最新的结果。排行榜疯狂是指最常见的NLP基准,如GLUE和SUPERGLUE,它们的得分越来越接近人类的水平。这些结果大多是通过超大(数十亿个参数)模型从大规模数据集中迁移学习得到的。本文的目的是指出迁移学习面临的问题和挑战,并提出一些可能的解决方法。

计算量

目前NLP中最成功的迁移学习形式是序列迁移学习(STL),通常采用语言预训练的形式(https://arxiv.org/abs/1801.06146)。最近几乎所有的SOTA结果主要是由两步方案驱动的:

大型通用语料库上进行语言模型的建模(数据越多越好)。

Finetune目标任务上的模型(或其子集)。

ELMO, BERT, GPT, GPT-2, XLNET and RoBERTa是都是用的同样的技术。这些方法的一个主要问题是巨大的资源需求。我所说的资源是指数据和计算能力。例如,据估计,在512个TPU v3芯片上训练XLNET大约需要25万美元,相比于在3/4的数据集中训练的BERT,只提升了1-2%。

这就引出了下一个问题:

难以复现

可复现性已经成为机器学习研究中的一个问题。例如,Dacrema et al.)分析了18个不同的基于神经的推荐系统,发现其中只有7个经过合理的努力是可复现的。一般来说,为了能够使用或建立在一个特定的研究理念,这个理念必须易于复现。由于需要大量的计算资源来训练这些巨大的NLP模型并复现它们的结果,小型科技公司、初创公司、研究实验室和独立研究人员将无法竞争。

不再需要排行榜的任务

Anna Rogers在她的博客文章为什么“更多的数据和计算= SOTA”不是研究新闻。她认为,排行榜的主要问题在于,一个模型的排名完全取决于它的任务分数,而没有考虑到达到这个分数所需的数据量、计算量或训练时间。

Rohit Pgarg建议在任务精度和计算资源的二维尺度上比较模型的性能。请看下面的图表。我建议我们添加另一个维度,它对应于模型训练时候的数据量。但是,这种可视化并不能洞察哪种模型通常更好。还有Alexandr Savinov的一个非常有趣的评论,他建议使用算法能够在一单位CPU时间内将多少输入信息“打包”到一单位输出(模型参数)表示中。

NLP迁移学习面临的问题和解决

在比较模型性能时,使用计算资源作为任务准确性的额外度量

这不像是我们学习的方式

孩子们通过嘈杂、模糊的输入和极少的监督来学习语言。一个孩子只要接触一个单词几次,就能开始理解它的意思。这与STL设置中使用的训练前步骤非常不同,在STL设置中,模型需要查看数百万个上下文,其中包括一个特定的单词,以掌握该单词的含义。一个非常重要的问题是,是否可以只从原始文本中学习语义而不受任何外部监督。如果你对关于这个话题的twitter辩论感兴趣,请访问这个帖子:https://twitter.com/jacobandreas/status/1023246560082063366。如果答案是否定的,那就意味着在训练前,这些模型实际上并没有给他们真正的语言理解能力。然而,我们在日常生活中确实使用了迁移学习。例如,如果我们知道如何驾驶一辆手动汽车,我们就很容易利用所学的知识(如使用刹车和油门踏板)来驾驶一辆自动汽车。但这是人类学习语言的必经之路吗?不太可能。然而,有人可能会说,只要一种方法能产生好的结果,它是否与人类的学习方式相似实际上并不重要。不幸的是,这些模型产生的一些好的结果是有问题的,我们将在下一节看到。

从另一个角度来看,人类在语言学习上采取了一种持续终生的学习方式。每当我们学习一个新任务时,这种学习通常不会干扰之前学习过的任务。另一方面,当新的训练数据的分布发生变化的时候,普通的只在一个任务上训练过的机器学习模型(包括迁移学习方法)通常不能利用过去学到知识,这种现象称为灾难性的遗忘。

肤浅的语言理解

语言建模任务的确是一个复杂的任务。例如这个句子:“The man in the red shirt is running fast. He must be…”,为了让模型完成这句话,模型必须理解running fast通常意味着being in a hurry。那么这些预先训练过的模型到底能理解多少语言呢?不幸的是,事实并非如此。Niven et al., 2019分析了BERT在论证推理和理解任务(ARCT)上的表现。ARCT可以这样描述:给定一个声明和一个推理,任务是选择正确的证据,而不是另一个干扰项。正确的证明应符合,而其他证明应符合。参见下图。

NLP迁移学习面临的问题和解决

论证和理解任务的范例

值得一提的是,BERT在这项任务中获得了极具竞争力的77%的准确性,仅比人类基线低3分。首先,这说明BERT有很强的推理能力。为了进一步调查,Niven et al., 2019使用了所谓的“探针”。也就是说,他们在这个任务上对BERT进行了finetune,但是对BERT的输入只是正确的和可选的证据,而没有暴露它的声明或推理。假设是,如果BERT依赖证据中的一些统计线索,即使他只看到证据而没有其他信息,他也应该表现良好。有趣的是,他们的研究结果显示,与使用推理和声明相比,他们的准确率仅下降了6%。这表明,BERT实际上并没有进行任何类型的推理,但证明本身有足够的线索,使BERT能够达到如此高的准确性。值得注意的是,用一个没有BERT所依赖的这些线索的对抗性的测试集代替了这个测试集,BERT只能达到53%的正确率,刚好高于随机概率。

另一篇相关论文是“Can a Machine Really Finish your Sentence?”(Zellers et al., 2019)。他们考虑的是常识自然语言推理的任务,即机器应该选择最可能的后续语句。例如,给定句子:“the team played so well”,系统应该选择“They won the game”作为后续。作者认为,尽管BERT能够达到86%的正确率(仅比人类基线低2点),如此高的正确率并不是由于BERT的高级推理形式,而是由于BERT学会了识别数据集特有的分布偏差。他们发现,通过对抗性筛选(一种旨在为任何可能的训练、测试分割生成对抗性数据集的技术)创建一个更困难的数据集(HellaSwag), BERT准确率下降到53%。本文讨论了数据集性能和任务性能之间的细微差别。对特定任务的数据集执行得非常好并不意味着解决了底层任务。

NLP迁移学习面临的问题和解决

BERT在SWAG上的表现与HellaSwag相比

很明显,这里发生了一些事情。是否可能BERT的好结果实际上是由它利用各种分布线索和偏差劫持目标数据集的能力驱动的?对BERT的研究结果进行更多的调查能得出其他类似的发现和结论吗?如果是这样,我相信我们不仅需要建立更好的模型,还需要建立更好的数据集。我们需要的数据集能够真实地反映底层任务的困难,而不是让模型很容易达到欺骗的准确性和排行榜分数。

高碳不环保

信不信由你,但是训练这些壮观的模型对环境有负面影响。Strubell等人比较了训练大型Transformer架构产生的 排放与其他来源造成的排放。令人惊讶的是,使用神经结构搜索训练单个Transformer arhcitectue所释放的 大约是一辆汽车一生所释放的 的6.0倍。

NLP迁移学习面临的问题和解决

Schwartz等人介绍了他们所谓的“绿色人工智能”,这是一种实践,使人工智能更加“高效”和“包容”。与我们上面讨论的类似,他们强烈建议除了任务准确性之外,还应该增加效率。他们还认为,研究论文有必要包括“价格标签”或模型训练的成本。这将鼓励对更高效、更少资源需求的模型架构的研究。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • nlp
    nlp
    +关注

    关注

    1

    文章

    488

    浏览量

    22035
  • 迁移学习
    +关注

    关注

    0

    文章

    74

    浏览量

    5561
收藏 人收藏

    评论

    相关推荐

    GPU深度学习应用案例

    能力,可以显著提高图像识别模型的训练速度和准确性。例如,在人脸识别、自动驾驶等领域,GPU被广泛应用于加速深度学习模型的训练和推理过程。 二、自然语言处理 自然语言处理(NLP)是深度学习的另一个重要应用领域。GPU可以加速
    的头像 发表于 10-27 11:13 394次阅读

    大算力芯片面临的技术挑战和解决策略

    在湾芯展SEMiBAY2024《HBM与存储器技术与应用论坛》上,亿铸科技创始人、董事长兼CEO熊大鹏发表了题为《超越极限:大算力芯片面临的技术挑战和解决策略》的演讲。
    的头像 发表于 10-23 14:50 418次阅读

    预训练和迁移学习的区别和联系

    预训练和迁移学习是深度学习和机器学习领域中的两个重要概念,它们在提高模型性能、减少训练时间和降低对数据量的需求方面发挥着关键作用。本文将从定义、原理、应用、区别和联系等方面详细探讨预训
    的头像 发表于 07-11 10:12 1047次阅读

    nlp逻辑层次模型的特点

    NLP(自然语言处理)逻辑层次模型是一种用于理解和生成自然语言文本的计算模型。它将自然语言文本分解为不同的层次,以便于计算机更好地处理和理解。以下是对NLP逻辑层次模型特点的分析: 词汇层次 词汇
    的头像 发表于 07-09 10:39 394次阅读

    nlp神经语言和NLP自然语言的区别和联系

    来改变我们的行为和情感。NLP的目标是帮助人们实现自我改进,提高沟通技巧,增强领导力和解决问题的能力。 NLP的主要组成部分包括: 感知:了解我们如何接收和处理信息。 语言:研究我们如何使用语言来表达我们的思想和情感。 编程:研
    的头像 发表于 07-09 10:35 779次阅读

    nlp自然语言处理框架有哪些

    自然语言处理(Natural Language Processing,简称NLP)是计算机科学和人工智能领域的一个重要分支,它致力于使计算机能够理解和处理人类语言。随着技术的发展,NLP领域出现了
    的头像 发表于 07-09 10:28 563次阅读

    nlp自然语言处理的主要任务及技术方法

    自然语言处理(Natural Language Processing,简称NLP)是人工智能和语言学领域的一个分支,它研究如何让计算机能够理解、生成和处理人类语言。NLP技术在许多领域都有广泛
    的头像 发表于 07-09 10:26 1120次阅读

    nlp自然语言处理模型怎么做

    自然语言处理(Natural Language Processing,简称NLP)是人工智能领域的一个重要分支,它涉及到计算机对人类语言的理解和生成。随着深度学习技术的发展,NLP领域取得了显著
    的头像 发表于 07-05 09:59 635次阅读

    nlp自然语言处理模型有哪些

    自然语言处理(Natural Language Processing,NLP)是计算机科学和人工智能领域的一个重要分支,旨在使计算机能够理解、解释和生成人类语言。以下是对NLP领域一些模型的介绍
    的头像 发表于 07-05 09:57 729次阅读

    深度学习nlp的区别在哪

    深度学习和自然语言处理(NLP)是计算机科学领域中两个非常重要的研究方向。它们之间既有联系,也有区别。本文将介绍深度学习NLP的区别。 深度学习
    的头像 发表于 07-05 09:47 930次阅读

    迁移学习的基本概念和实现方法

    迁移学习(Transfer Learning)是机器学习领域中的一个重要概念,其核心思想是利用在一个任务或领域中学到的知识来加速或改进另一个相关任务或领域的学习过程。这种方法在数据稀缺
    的头像 发表于 07-04 17:30 1647次阅读

    NLP技术在机器人中的应用

    人类语言的能力,还使得机器人能够以更加自然、流畅的方式与人类进行交互,从而在服务、教育、医疗、娱乐等多个领域展现出巨大的潜力和价值。本文将从NLP技术在机器人中的应用现状、核心技术、应用场景、面临的挑战及未来发展趋势等方面进行深入探讨。
    的头像 发表于 07-04 16:04 505次阅读

    NLP技术在人工智能领域的重要性

    在自然语言处理(Natural Language Processing, NLP)与人工智能(Artificial Intelligence, AI)的交织发展中,NLP技术作为连接人类语言与机器
    的头像 发表于 07-04 16:03 532次阅读

    NLP模型中RNN与CNN的选择

    在自然语言处理(NLP)领域,循环神经网络(RNN)与卷积神经网络(CNN)是两种极为重要且广泛应用的网络结构。它们各自具有独特的优势,适用于处理不同类型的NLP任务。本文旨在深入探讨RNN与CNN
    的头像 发表于 07-03 15:59 536次阅读

    什么是自然语言处理 (NLP)

    自然语言处理(Natural Language Processing, NLP)是人工智能领域中的一个重要分支,它专注于构建能够理解和生成人类语言的计算机系统。NLP的目标是使计算机能够像人类一样
    的头像 发表于 07-02 18:16 1177次阅读