0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何从大脑活动中解码自然语言呢?

深度学习自然语言处理 来源:赛尔实验室 2023-11-25 15:57 次阅读

1 简介

  语言不仅是人类交流的工具,更是思维和智能的基础。大脑如何解码和处理语言信息是揭示人类智能本质的关键。随着脑机接口(BCI)等技术的迅速发展,我们有了从大脑活动中解码自然语言的可能。这一研究方向不仅对认知科学和神经科学领域的发展至关重要,也为因神经退行性疾病和创伤而失去语言能力的人提供了新的希望。该方向的发展将极大地拓展我们对人类大脑处理语言的理解,并可能开启全新的沟通方式。

  从大脑活动中解码自然语言的最大需求出现在那些因锥体束或下运动神经元的急性或退行性损伤而导致运动和语言障碍的患者中。当运动和语言障碍特别严重,如在锁定综合征(LIS)中,患者可能完全失去运动控制,从而无法独立发起或维持交流,仅限于用眨眼或眼球运动等轻微动作回答简单问题。BCI技术提供了大脑与外界之间的桥梁,读取人脑产生的信号并将它们转换成所需的认知任务,使得那些由于运动障碍而不能说话的人可以仅通过他们的脑信号进行交流,而无需移动任何身体部分。

  在协助这类患者交流上,很多BCI范式已经取得了重大进展,包括P300、稳态视觉诱发电位(SSVEP)和运动想象(MI)等。P300和SSVEP利用外部刺激,如闪烁的屏幕或听觉蜂鸣声,以诱发有区分性的大脑模式。基于运动想象的系统则识别人脑自发的运动意图,无需外部刺激的辅助。然而,这些范式通常只能通过意念打字的形式输出文本,无法替代口头交流的速度和灵活性。在日常对话中,每分钟交流的平均单词数通常能达到意念打字速度的7倍。因此,从大脑活动中解码自然语言,更具体而言是从言语或想象言语时的大脑活动解码自然语言,相比之前的BCI范式具有明显的速度优势,同时也允许患者用更少的努力进行沟通。

2 数据采集

  为获取大脑在言语或想象言语过程中产生的信号,已经有多种神经影像学方法被应用。这些方法主要包括脑电图(EEG)、脑磁图(MEG)、功能性磁共振成像(fMRI)等非侵入性方法,以及皮质脑电图(ECoG)等侵入性方法。侵入性方法能提供足够的时空分辨率,同时具有较高的信噪比(SNR),但更高的医疗风险限制了它们在临床和日常使用中的普及。这使得基于非侵入性方法的大脑活动解码也得到了关注和广泛研究。

e76de928-8ab4-11ee-939d-92fbcf53809c.png

图1 几种神经影像学方法的比较

2.1 ECoG

  皮质脑电图(ECoG)是一种侵入性的神经记录技术,它通过在大脑硬脑膜下空间植入电极阵列来测量大脑皮层表面的电活动。这些电极通常是由铂铱制成的圆盘形电极,嵌入在柔软的硅胶片中。ECoG记录的信号具有很高的时空分辨率,可以提供关于大脑活动的精确信息。由于其准确性和较高的信噪比,ECoG在临床神经科学中有着广泛的应用,特别是识别药物难治性癫痫患者的癫痫发作源头,以及确定对大脑功能至关重要的皮质区域,以便在切除手术期间保留这些区域。ECoG的一个主要优点是它能够在皮层表面覆盖较广的区域,同时提供足够的空间分辨率,这对于研究广泛分布的神经网络,如语言和运动控制网络,具有重要的价值和意义。

2.2 EEG

  脑电图(EEG)是一种广泛使用的非侵入性神经记录技术,通过在头皮上放置电极来测量大脑活动产生的电信号。EEG主要用于监测和研究大脑的电生理活动,特别是用于诊断和研究癫痫、睡眠障碍、大脑损伤以及各种神经系统疾病。作为一种非侵入性方法,EEG有着较高的时间分辨率,能够捕捉大脑电活动的快速变化,提供亚毫秒级的时间信息,这对于研究大脑如何在短时间内处理信息非常有用。然而EEG的空间分辨率相对较低,难以精确定位大脑内特定区域的电活动,限制了其在精确脑映射方面的应用。EEG的另一个局限性在于信噪比(SNR)较低。信号中的目标成分难以从背景活动中识别出来,这些背景活动可能来自于肌肉或器官活动、眼球运动或眨眼。尽管存在上述问题,鉴于EEG的非侵入性、便携性和低成本,EEG仍然是神经科学、临床神经学和脑机接口研究中极其重要的工具。

e783cf90-8ab4-11ee-939d-92fbcf53809c.png

图3 EEG示意图

2.3 MEG

  脑磁图(MEG)是一种非侵入性神经成像技术,通过记录大脑神经元活动引发的磁场变化来测量大脑活动。在细胞层面上,大脑中的单个神经元具有电化学特性,导致带电离子通过细胞流动。这种缓慢的离子电流流动的净效果会产生电磁场。虽然单个神经元产生的场强度可以忽略不计,但特定区域内大量神经元共同激活时,会在头部外产生可测量的磁场。大脑产生的这些神经磁信号非常微弱,因此MEG扫描仪需要使用超导传感器,并置于磁屏蔽室中进行测量。MEG能够提供精度达到亚毫秒级的大脑活动时序特征,并提供比EEG更准确的神经活动空间定位。尽管MEG的使用条件相对严格,但其时空分辨率上的优势使其成为了神经科学和临床研究领域中极为重要的技术手段。

e7882360-8ab4-11ee-939d-92fbcf53809c.png

图4 MEG示意图

2.4 fMRI

  fMRI(功能磁共振成像)的原理是利用BOLD(血氧水平依赖性)对比来检测大脑中的活动变化。BOLD对比利用了血液中氧合血红蛋白和脱氧血红蛋白在磁性质上的差异。当大脑的某一部分活跃时,它需要更多的氧来支持其功能。为了满足这一需求,血流会增加以带来更多的氧合血红蛋白。氧合血红蛋白和脱氧血红蛋白在磁性上有所不同:氧合血红蛋白是磁性中性的,而脱氧血红蛋白是磁性的。因此,当一个区域的血流增加时,该区域的BOLD信号也会增加。

  fMRI具有较高的空间分辨率和较低的时间分辨率。fMRI一次扫描可以测量约100,000个体素,而MEG的传感器通常在300个以下。然而,一个神经活动的脉冲可能导致BOLD在大约10秒内上升和下降;对于自然说出的英语,每次扫描采集的大脑图像可能受到超过20个单词的影响。这意味着大脑活动的解码是一个不适定问题。尽管这为解码连续语言提出了挑战,仍然有一些工作在该方向做出了探索和尝试。

3 前沿工作

  下面将介绍几篇最近几年从大脑活动中解码自然语言的相关工作。目前比较主流的方法是从大脑活动端到端地解码文本。这些工作通常采用编码器—解码器的模型结构,将脑信号映射到连续文本。随着预训练语言模型的出现,前沿工作逐渐将其应用于大脑活动解码,通常作为解码器,和随机初始化的编码器共同训练。也有工作尝试使用非端到端的方式对大脑活动进行解码。在解码文本之外,还有工作研究将脑信号对齐到预训练模型生成的高质量表征,从而将脑信号映射到预训练模型输出构成的良好向量空间中。

3.1 端到端的解码

Machine translation of corticalcactivity to text with an encoder-decoder framework(Nature neuroscience 2020)

  在这篇工作之前,大多数从大脑活动中解码自然语言的工作通常局限于孤立的音素或单音节词。解码连续文本的工作相对较少,且效果不佳。文章将问题建模为机器翻译问题,脑信号视为源语言,对应的连续文本视作目标语言,从而将机器翻译领域的模型方法迁移到大脑活动解码这一任务上。

  文章设计了一个简单的编码器—解码器结构的神经网络,以从ECoG信号中解码连续文本。如下图所示,对于输入的原始ECoG信号,模型首先在时间维进行跨步卷积,以提取时序特征并下采样到16HZ,然后输入编码器—解码器结构的LSTM网络以解码得到连续文本。为了引导编码器编码有意义的信息,除了端到端地训练模型从ECoG信号中解码连续文本,文章在训练阶段还额外添加了一个辅助损失,强迫模型基于编码器每个时间步的隐藏层表征准确预测对应时刻语音的音频表征。(这里采用音频的梅尔频率倒谱系数MFCC作为音频的低阶表征)

e7c4223e-8ab4-11ee-939d-92fbcf53809c.png

图6 文章提出的编码器—解码器框架

  文章从每位受试者收集了30至50个句子的重复口述,以及同一时间大脑临侧裂区大约250个电极记录下的ECoG信号。文章提出的方法在准确性方面相较以往研究有着显著提升,其中一部分参与者的平均词错误率(WER)降至了7%,这一成果显著优于以往研究中超过60%的错误率,为未来的研究提供了重要的参考意义。

  在神经科学和脑机接口领域,大脑活动数据的采集通常面临一系列挑战,最终导致采集的数据集规模通常较小,成为相关研究和应用发展的重要限制。由于缺乏训练数据,传统的从大脑活动中解码自然语言的工作通常局限在小而封闭的词表上,且难以泛化到训练集之外的单词和句子上。这篇工作首次使用预训练语言模型(文章使用BART)进行EEG信号的连续文本解码。借助预训练语言模型在理解句法特征、语义特征以及长距离依赖方面的能力,这篇工作得以将词表扩展到约50000的规模(即BART的词表大小),同时在数据稀缺的条件下保持较好的泛化能力。

  文章将人脑视作一种特殊的文本编码器,并提出了一个称作BrainBART的新颖框架。该框架将EEG特征序列视为编码的连续文本,并通过额外的编码器将输入的EEG特征序列映射到BART的嵌入层表征,如下图所示。训练期间的目标是最小化文本重建的交叉熵损失。此外,文章还提出了一个零样本情感分类方法,该方法首先将EEG特征序列转换为文本,然后通过文本分类器预测情感标签

e7da11de-8ab4-11ee-939d-92fbcf53809c.png

图7 BrainBART框架

  这篇工作使用了ZuCo数据集,其中包含被试者进行自然阅读任务时记录的EEG和眼动追踪数据。BrainBART在连续文本解码上达到了40.1%的BLEU-1分数,并在零样本的三元情感分类上达到了55.6%的F1分数,显著优于有监督的基线。

  尽管EEG信号的连续文本解码已取得一定成功,但从fMRI信号生成连续文本的研究相对较少,这主要是因为fMRI的低时间分辨率。之前的fMRI信号解码方法通常依赖于对预定义的感兴趣区(ROI)进行特征提取,未能有效利用时间序列信息,且通常忽略高效编码的重要性。为解决这些问题,并避免使用单独的复杂流程从特定模态的脑信号解码语言,文章提出了一个通用的脑信号解码框架,称作UniCoRN(统一认知信号重构),可应用于各种模态脑信号的解码。UniCoRN采用编码器—解码器框架,利用了预训练语言模型的强大解码能力,并通过快照和序列重建构建了一个有效的编码器,使模型能够分析单个快照及快照序列之间的时间依赖性,从而最大化地提取脑信号中的信息。

  下面以fMRI信号解码为例介绍模型的整体框架。UniCoRN包含两个阶段:脑信号重建,以针对特定模态的脑信号训练编码器;以及脑信号解码,即将第一阶段中脑信号的表征转换为自然语言。文章这里的深层思想是将脑信号的每个快照(如单个fMRI帧)视为“人脑所说语言”的单词级表征,并通过编码器获得这种语言的词嵌入,最终像传统的机器翻译任务一样,将其转换为真实的人类语言。脑信号重建阶段可细分为快照重建和序列重建两个子阶段,以训练编码器整合每个快照的内部特征和时间序列中快照间的时间关系。如图所示,快照重建阶段(phase 1)通过快照编码器分别编码每个fMRI帧,并以重建原始的fMRI帧作为训练目标;序列重建阶段(phase 2)将连续fMRI帧的编码表征输入序列编码器以生成序列化表征,并使用和上一阶段相同的目标继续训练。在脑信号重建阶段之后,之前用于重建原始fMRI帧的解码器被替换为文本解码器,以进行最终的文本生成(phase 3)。文章在这里选择BART作为文本解码器,并使用交叉熵损失进行训练。

e7e8f9ce-8ab4-11ee-939d-92fbcf53809c.png

图8 UniCoRN框架

  UniCoRN在fMRI信号的连续文本解码任务上(Narratives数据集)达到了34.77%的BLEU-4分数,并在EEG的连续文本解码任务上(ZuCo数据集)达到了62.90%的BLEU-4分数,从而超越了之前的基线。实验结果表明从fMRI信号中解码语言是可行的,并且使用统一结构解码不同模态的脑信号是有效的。

3.2 非端到端解码

  这篇工作提出了一种方法,从fMRI信号重建受试者正在听到或想象的听觉刺激(以自然语言的形式)。实现这一点需要克服fMRI的低时间分辨率。为解决这一问题,文章提出的解码器并未采用端到端的解码方式,而是通过猜测候选单词序列,评估每个候选项引发当前测得的大脑反应的可能性,然后选择最佳候选项来实现解码。

  方法的框架如下图所示。三名受试者听了16小时的叙事故事,并记录了基于血氧水平依赖(BOLD)的功能磁共振成像(fMRI)反应。文章针对每位受试者训练了一个编码模型,以从文本刺激的语义表征预测对应的大脑反应。为了从大脑活动中重建语言,文章采用beam search算法以逐词生成候选序列。文章提出的方法维持着若干个最可能的候选序列,当通过大脑听觉和语言区域的活动检测到新词时,使用语言模型为每个候选序列生成最可能的若干延续。然后,使用之前训练的编码模型对每个延续引发当前测得的大脑反应的可能性进行评分,并保留最可能的延续。实验结果表明,方法的识别准确度明显高于偶然预期,证明了方法的有效性。

e7f1421e-8ab4-11ee-939d-92fbcf53809c.png

图9 文章提出的fMRI信号解码方法

3.3 信号对齐研究

  这篇工作提出了一种使用单一架构的数据驱动方法,从MEG或EEG信号中解码自然语言。文章引入了一个卷积神经网络作为脑信号的编码器,并使用对比目标进行训练,以对齐预训练语音自监督模型wav2vec-2.0生成的深层音频表征。

  理论上,可以通过回归损失训练脑信号编码器,预测对应音频的梅尔频率倒谱系数,并将编码器的输出作为脑信号的一种表征。然而在实践中,文章观察到这种直接回归方法生成的表征通常由不可区分的宽带成分主导。对于这一问题,文章首先推断回归可能是一种无效的损失,并将其替换为了CLIP模型的对比损失,该损失最初被设计用于匹配对齐文本和图像两种模态的深层表征。文章进一步判断梅尔频率倒谱系数不太可能与丰富的大脑活动相匹配,因为其仅包含声音的低阶表征。文章在这里将梅尔频率倒谱系数替换为wav2vec-2.0的输出表征,该模型有效地编码了多层次的语言特征,且有研究表明其与大脑的激活之间存在线性关系。最后,文章提出了一个考虑被试者差异的CNN网络,作为大脑活动的编码器。

e80502e0-8ab4-11ee-939d-92fbcf53809c.png

图10 文章提出的脑信号对齐方法

  文章在四个公开的MEG/EEG数据集上进行了验证,模型能够用3秒的MEG/EEG信号,识别匹配的音频片段(即零样本解码),在MEG上达到最高72.5%TOP-10准确率,在EEG上达到最高19.1%的TOP-10准确率。尽管文章中的实验仅限于音频片段和单个词的解码,但其方法和思想可以作为后续工作的基础,有效地迁移到包括连续文本解码在内的诸多任务上。

4 总结

  本文回顾了从大脑活动中解码自然语言这一任务及前沿方法。前沿方法的不断发展不仅加深了我们对语言和大脑交互的理解,也为发展先进的脑机接口技术打下了坚实的基础。尽管已取得显著进展,但这一领域仍面临着缺少大脑活动数据,非侵入性方法信噪比低等问题,限制了方法在实际应用中的可用性。对于未来工作,一方面需要获取更高质量和更大规模的大脑活动数据,另一方面也需要算法和模型的创新,以最大限度利用有限的数据。最后,跨学科的合作,如神经科学、语言学、计算机科学的结合,将为理解大脑处理语言的复杂机制提供新的视角,推动该领域朝着更加精确和实用的方向发展。






审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 传感器
    +关注

    关注

    2548

    文章

    50646

    浏览量

    751782
  • 信噪比
    +关注

    关注

    3

    文章

    253

    浏览量

    28588
  • SNR
    SNR
    +关注

    关注

    3

    文章

    195

    浏览量

    24366
  • 磁共振成像
    +关注

    关注

    0

    文章

    20

    浏览量

    8585
  • 电信号
    +关注

    关注

    1

    文章

    789

    浏览量

    20530

原文标题:从大脑活动中解码自然语言:任务与前沿方法

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    什么是LLM?LLM在自然语言处理的应用

    所未有的精度和效率处理和生成自然语言。 LLM的基本原理 LLM基于深度学习技术,尤其是变换器(Transformer)架构。变换器模型因其自注意力(Self-Attention)机制而闻名,这种机制使得模型能够捕捉文本的长距离依赖关系。LLM通过在大规模语料库上
    的头像 发表于 11-19 15:32 270次阅读

    ASR与自然语言处理的结合

    ASR(Automatic Speech Recognition,自动语音识别)与自然语言处理(NLP)是人工智能领域的两个重要分支,它们在许多应用紧密结合,共同构成了自然语言理解和生成的技术体系
    的头像 发表于 11-18 15:19 261次阅读

    自然语言处理与机器学习的区别

    在人工智能的快速发展自然语言处理(NLP)和机器学习(ML)成为了两个核心的研究领域。它们都致力于解决复杂的问题,但侧重点和应用场景有所不同。 1. 自然语言处理(NLP) 定义: 自然语
    的头像 发表于 11-11 10:35 327次阅读

    图像识别技术包括自然语言处理吗

    计算机视觉技术对图像进行处理、分析和理解,从而实现对图像的目标、场景、行为等信息的识别和理解。图像识别技术包括图像预处理、特征提取、分类器设计、模型训练等多个环节。 1.2 自然语言处理的定义 自然语言处理(Natural L
    的头像 发表于 07-16 10:54 620次阅读

    Transformer架构在自然语言处理的应用

    随着人工智能技术的飞速发展,自然语言处理(NLP)领域取得了显著的进步。其中,Transformer架构的提出,为NLP领域带来了革命性的变革。本文将深入探讨Transformer架构的核心思想、组成部分以及在自然语言处理领域的应用,旨在帮助读者全面理解并应用这一革命性的
    的头像 发表于 07-09 11:42 691次阅读

    自然语言处理技术有哪些

    自然语言处理(Natural Language Processing,简称NLP)是人工智能领域的一个分支,它致力于使计算机能够理解、解释和生成人类语言自然语言处理技术的发展已经取得了显著的进展
    的头像 发表于 07-03 14:30 935次阅读

    自然语言处理模式的优点

    得到了广泛的应用,如搜索引擎、语音助手、机器翻译、情感分析等。 1. 提高信息获取效率 自然语言处理技术能够快速地大量文本数据中提取关键信息,帮助用户节省查找和筛选信息的时间。例如,搜索引擎通过NLP技术理解用户的查询意图,提供更准确、更相关的搜索结果。
    的头像 发表于 07-03 14:24 641次阅读

    自然语言处理技术的核心是什么

    自然语言处理(Natural Language Processing,简称NLP)是人工智能领域的一个重要分支,其核心目标是使计算机能够理解、生成和处理人类语言。NLP技术的发展已经取得了显著的进展
    的头像 发表于 07-03 14:20 570次阅读

    自然语言处理是什么技术的一种应用

    自然语言处理(Natural Language Processing,简称NLP)是人工智能和语言学领域的一个分支,它涉及到使用计算机技术来处理、分析和生成自然语言文本。自然语言处理技
    的头像 发表于 07-03 14:18 607次阅读

    自然语言处理包括哪些内容

    自然语言处理(Natural Language Processing,简称NLP)是人工智能领域的一个重要分支,它涉及到计算机与人类语言之间的交互。NLP的目标是让计算机能够理解、生成和处理人类语言
    的头像 发表于 07-03 14:15 718次阅读

    自然语言列举法描述法各自的特点

    自然语言文本。在自然语言处理,列举法和描述法是两种常见的方法。 列举法 列举法是一种基于规则的方法,它通过列举所有可能的情况来解决问题。在自然语言处理
    的头像 发表于 07-03 14:13 955次阅读

    自然语言处理属于人工智能的哪个领域

    之间的交互,旨在使计算机能够理解、生成和处理自然语言自然语言处理:人工智能的皇冠上的明珠 引言 人工智能作为一门跨学科的研究领域,涵盖了计算机科学、数学、心理学、语言学等多个学科。在人工智能的众多分支
    的头像 发表于 07-03 14:09 1120次阅读

    什么是自然语言处理 (NLP)

    自然语言处理(Natural Language Processing, NLP)是人工智能领域中的一个重要分支,它专注于构建能够理解和生成人类语言的计算机系统。NLP的目标是使计算机能够像人类一样
    的头像 发表于 07-02 18:16 1033次阅读

    自然语言处理技术的原理的应用

    自然语言处理(Natural Language Processing, NLP)作为人工智能(AI)领域的一个重要分支,旨在使计算机能够理解和处理人类自然语言。随着互联网的普及和大数据技术的发展
    的头像 发表于 07-02 12:50 442次阅读

    神经网络在自然语言处理的应用

    自然语言处理(NLP)是人工智能领域中的一个重要分支,它研究的是如何使计算机能够理解和生成人类自然语言。随着人工智能技术的飞速发展,神经网络在自然语言处理的应用逐渐展现出其强大的潜力
    的头像 发表于 07-01 14:09 429次阅读