0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

OpenAI最新突破性进展:语言模型可以解释语言模型中的神经元

深度学习自然语言处理 来源:深度学习自然语言处理 2023-05-12 11:35 次阅读

大家好,我是zenRRan。

OpenAI在昨天发布了一篇论文:《Language models can explain neurons in language models》,可谓是深度学习可解释性又向前迈了一大步!谁又能想到,使用GPT-4来解释模型的可解释性,用魔法打败魔法,666。

e77cb674-ef0f-11ed-90ce-dac502259ad0.png

大致内容

使用 GPT-4 自动编写大型语言模型中神经元行为的解释,并对这些解释进行打分,并为 GPT-2 中的每个神经元发布了这些(不完美的)解释和分数的数据集。

介绍一下

语言模型变得更强大,部署更广泛,但我们对它们内部工作原理的理解仍然非常有限。例如,可能很难从它们的输出中检测到它们是使用有偏见的启发式方法还是进行胡编乱造。可解释性研究旨在通过查看模型内部来发现更多信息

可解释性研究的一种简单方法是首先了解各个组件(神经元和注意力头)在做什么。传统上,这需要人类手动检查神经元,以确定它们代表数据的哪些特征。这个过程不能很好地扩展:很难将它应用于具有数百或数千亿个参数神经网络。OpenAI提出了一个自动化过程,该过程使用 GPT-4 来生成神经元行为的自然语言解释并对其进行评分,并将其应用于另一种语言模型中的神经元。

这项工作是对齐研究方法的第三个支柱的一部分:希望使对齐研究工作本身自动化。这种方法的一个有前途的方面是它可以随着人工智能发展的步伐而扩展。随着未来的模型作为助手变得越来越智能和有用,我们会找到更好的解释。

具体如何工作的呢

他们的方法包括在每个神经元上运行 3 个步骤。

第 1 步:使用 GPT-4 生成解释

给定一个 GPT-2 神经元,通过向 GPT-4 显示相关文本序列和激活来生成对其行为的解释。

OpenAI一共举了12个例子,这里我就随便拿出几个代表性的吧。

e793c9ae-ef0f-11ed-90ce-dac502259ad0.png

漫威漫画的氛围

模型生成的解释:参考自电影、角色和娱乐。

e7bea372-ef0f-11ed-90ce-dac502259ad0.png

similes,相似

模型生成的解释:比较和类比,常用“喜欢(like)”这个词。

e7d9db4c-ef0f-11ed-90ce-dac502259ad0.png

shared last names,姓氏

模型生成的解释:姓氏,它们一般跟在名字后面。

第 2 步:使用 GPT-4 进行模拟

再次使用 GPT-4 模拟为解释而激活的神经元会做什么。

e7f7708a-ef0f-11ed-90ce-dac502259ad0.png

漫威漫画的氛围

第 3 步:比较

根据模拟激活与真实激活的匹配程度对解释进行评分

e8209794-ef0f-11ed-90ce-dac502259ad0.png

举例:漫威漫画的氛围

e849ba66-ef0f-11ed-90ce-dac502259ad0.png

举例:漫威漫画的氛围

最终得出比较的分数为:0.34

发现了什么

使用OpenAI自己的评分方法,可以开始衡量技术对网络不同部分的工作情况,并尝试改进目前解释不力的部分的技术。例如,我们的技术对于较大的模型效果不佳,可能是因为后面的层更难解释。

e86d1420-ef0f-11ed-90ce-dac502259ad0.png

正在解释的模型中的参数量

尽管我们的绝大多数解释得分很低,但我们相信我们现在可以使用 ML 技术来进一步提高我们产生解释的能力。例如,我们发现我们可以通过以下方式提高分数:

迭代解释。我们可以通过要求 GPT-4 提出可能的反例,然后根据它们的激活修改解释来提高分数。

使用更大的模型来给出解释。随着解释器模型能力的提高,平均分数也会上升。然而,即使是 GPT-4 也给出了比人类更差的解释,这表明还有改进的余地。

更改已解释模型的架构。具有不同激活函数的训练模型提高了解释分数。

我们正在开源我们的数据集和可视化工具,用于 GPT-4 对 GPT-2 中所有 307,200 个神经元的书面解释,以及使用 OpenAI API 上公开可用的模型[1]进行解释和评分的代码。我们希望研究界能够开发新技术来生成更高分的解释,并开发更好的工具来使用解释来探索 GPT-2。

我们发现超过 1,000 个神经元的解释得分至少为 0.8,这意味着根据 GPT-4,它们解释了神经元的大部分顶级激活行为。大多数这些很好解释的神经元都不是很有趣。然而,也发现了许多 GPT-4 不理解的有趣神经元。希望随着解释的改进,能够快速发现对模型计算的有趣的定性理解。

神经元跨层激活,更高的层更抽象:

e87e391c-ef0f-11ed-90ce-dac502259ad0.png

以Kat举例

展望

我们的方法目前有很多局限性[2],我们希望在未来的工作中能够解决这些问题。

我们专注于简短的自然语言解释,但神经元可能具有非常复杂的行为,无法简洁地描述。例如,神经元可以是高度多义的(代表许多不同的概念),或者可以代表人类不理解或无法用语言表达的单一概念。

我们希望最终自动找到并解释实现复杂行为的整个神经回路,神经元和注意力头一起工作。我们当前的方法仅将神经元行为解释为原始文本输入的函数,而没有说明其下游影响。例如,一个在句号上激活的神经元可以指示下一个单词应该以大写字母开头,或者递增一个句子计数器。

我们解释了神经元的行为,但没有试图解释产生这种行为的机制。这意味着即使是高分解释也可能在分布外的文本上表现很差,因为它们只是描述了相关性。

我们的整个过程是计算密集型的。

我们对我们方法的扩展和推广感到兴奋。最终,我们希望使用模型来形成、测试和迭代完全通用的假设,就像可解释性研究人员所做的那样。

最终,OpenAI希望将最大的模型解释为一种在部署前后检测对齐和安全问题的方法。然而,在这些技术能够使不诚实等行为浮出水面之前,我们还有很长的路要走。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经元
    +关注

    关注

    1

    文章

    363

    浏览量

    18450
  • 语言模型
    +关注

    关注

    0

    文章

    523

    浏览量

    10277
  • OpenAI
    +关注

    关注

    9

    文章

    1087

    浏览量

    6503

原文标题:OpenAI最新突破性进展:语言模型可以解释语言模型中的神经元

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    【《大语言模型应用指南》阅读体验】+ 基础知识学习

    并捕捉长距离依赖关系的神经网络结构。Transformer通过编码器(Encoder)和解码器(Decoder)两部分实现语言的编码和解码。 注意力机制:Transformer的注意力机制使得
    发表于 08-02 11:03

    【《大语言模型应用指南》阅读体验】+ 基础篇

    。首先结合ChatGPT的4次迭代升级介绍了什么是大语言模型,大语言模型的特点:参数多、通用强;之后用较大的篇幅详细讲解了自然
    发表于 07-25 14:33

    人工神经元模型的基本构成要素

    ,它能够接收、处理和传递信息。在人工神经元模型神经元的基本结构包括输入、输出和激活函数。 1.1 输入 神经元的输入是一组数值,通常用向量表示。这些数值
    的头像 发表于 07-11 11:28 1267次阅读

    人工神经元模型的基本原理是什么

    人工神经元模型是人工智能领域中的一个重要概念,它模仿了生物神经系统神经元行为,为机器学习和深度学习提供了基础。 一、人工神经元模型的历史
    的头像 发表于 07-11 11:26 746次阅读

    人工神经元模型由哪两部分组成

    人工神经元模型是深度学习、机器学习和人工智能领域的基础,它模仿了生物神经元的工作原理,为构建复杂的神经网络提供了基础。 一、人工神经元模型的起源 生物
    的头像 发表于 07-11 11:24 893次阅读

    人工神经元模型的基本原理及应用

    人工神经元模型是人工智能和机器学习领域的一个重要概念,它模仿了生物神经元的工作方式,为计算机提供了处理信息的能力。 一、人工神经元模型的基本原理 生物神经元的结构和功能 生物
    的头像 发表于 07-11 11:15 868次阅读

    人工神经元模型的三要素是什么

    人工神经元模型是人工智能和机器学习领域中非常重要的概念之一。它模仿了生物神经元的工作方式,通过数学和算法来实现对数据的处理和学习。 一、人工神经元模型的基本概念 1.1 生物神经元与人
    的头像 发表于 07-11 11:13 915次阅读

    基于神经网络的语言模型有哪些

    文本或预测文本的下一个词。随着深度学习技术的飞速发展,涌现出了多种不同类型的神经网络语言模型。以下将详细介绍几种主流的基于神经网络的
    的头像 发表于 07-10 11:15 739次阅读

    名单公布!【书籍评测活动NO.34】大语言模型应用指南:以ChatGPT为起点,从入门到精通的AI实践教程

    ,对使用者的技术要求更高,但具备更强的可定制。不管是开源模型还是闭源模型,都提供了模型微调的能力。OpenAI 甚至提供了
    发表于 06-03 11:39

    【大语言模型:原理与工程实践】大语言模型的应用

    实际应用前需解决的挑战。为提升大语言模型的性能,高级的提示词技术可以促进大语言模型与环境进行动态交互,引导其生成和推理规划。 检索增强生成
    发表于 05-07 17:21

    【大语言模型:原理与工程实践】大语言模型的评测

    和安全。行业模型的评测则针对特定领域的能力,整体能力的评测则从宏观角度评估模型的通用。在基座模型的评测
    发表于 05-07 17:12

    【大语言模型:原理与工程实践】大语言模型的基础技术

    向量可以随着任务更新、调整。这类语言模型一般分为静态词向量语言模型(如Word2vec、GloVe)和动态词向量
    发表于 05-05 12:17

    【大语言模型:原理与工程实践】核心技术综述

    应用,需要考虑到性能、可扩展性和安全等因素。 大语言模型正在快速发展,新技术不断涌现。未来的研究可能集中在提高模型效率、理解和可
    发表于 05-05 10:56

    【大语言模型:原理与工程实践】揭开大语言模型的面纱

    能力,使其能够应对更复杂和抽象的语言任务。神经网络的前向传播和反向传播算法是其核心技术。前向传播模型根据输入文本的上下文和先前知识生成相关输出;而在反向传播
    发表于 05-04 23:55

    语言模型(LLMs)如何处理多语言输入问题

    研究者们提出了一个框架来描述LLMs在处理多语言输入时的内部处理过程,并探讨了模型是否存在特定于语言神经元
    发表于 03-07 14:44 616次阅读
    大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>(LLMs)如何处理多<b class='flag-5'>语言</b>输入问题