0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于xLSTM和Transformer的模型评估:xLSTM在“语言能力”的表现

微云疏影 来源:综合整理 作者:综合整理 2024-05-13 10:31 次阅读

据了解,1997年,两位科学家Sepp Hochreiter和Jürgen Schmidhuber共同创建了长短期记忆(LSTM)神经网络结构,用于改善循环神经网络(RNN)的长期记忆功能。

近期,Hochreiter在arXiv平台发表论文,推出了一款新型的XLSTM(扩展LSTM)架构,有效克服了传统LSTM互联网结构“仅能按时间顺序处理信息”的局限性,有望挑战当前热门的Transformer架构。

该论文指出,Hochreiter在新的XLSTM架构中运用了指数型门控循环网络,并引入了“sLSTM”和“mLSTM”两种记忆规则,使神经网络能够更高效地利用RAM,实现类似于Transformer的并行化处理。

研究团队通过对基于XLSTM和Transformer架构的两款模型进行150亿个Token的训练和测试,结果显示,XLSTM表现更为出色,特别是在“语言能力”方面表现尤为突出。因此,研究人员预测,未来XLSTM有可能与Transformer展开竞争。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4732

    浏览量

    100372
  • RAM
    RAM
    +关注

    关注

    8

    文章

    1353

    浏览量

    114411
  • 架构
    +关注

    关注

    1

    文章

    506

    浏览量

    25429
收藏 人收藏

    评论

    相关推荐

    【《大语言模型应用指南》阅读体验】+ 基础知识学习

    的表达方式和生成能力。通过预测文本中缺失的部分或下一个词,模型逐渐掌握语言的规律和特征。 常用的模型结构 Transformer架构:大
    发表于 08-02 11:03

    Transformer语言模型简介与实现过程

    自然语言处理(NLP)领域,Transformer模型以其卓越的性能和广泛的应用前景,成为了近年来最引人注目的技术之一。Transformer
    的头像 发表于 07-10 11:48 1040次阅读

    Transformer模型语音识别和语音生成中的应用优势

    随着人工智能技术的飞速发展,语音识别和语音生成作为人机交互的重要组成部分,正逐渐渗透到我们生活的各个方面。而Transformer模型,自其诞生以来,凭借其独特的自注意力机制和并行计算能力
    的头像 发表于 07-03 18:24 886次阅读

    使用PyTorch搭建Transformer模型

    Transformer模型自其问世以来,自然语言处理(NLP)领域取得了巨大的成功,并成为了许多先进模型(如BERT、GPT等)的基础。本
    的头像 发表于 07-02 11:41 1357次阅读

    语言模型:原理与工程时间+小白初识大语言模型

    解锁 我理解的是基于深度学习,需要训练各种数据知识最后生成自己的的语言理解和能力的交互模型。 对于常说的RNN是处理短序列的数据时表现出色,耳真正厉害的是
    发表于 05-12 23:57

    【大语言模型:原理与工程实践】大语言模型的应用

    类任务上表现出色,甚至零样本条件下也能取得良好效果。另一类则需要逐步推理才能完成的任务,类似于人类的系统2,如数字推理等。然而,随着参数量的增加,大语言模型在这类任务上并未出现质的飞
    发表于 05-07 17:21

    【大语言模型:原理与工程实践】大语言模型的评测

    度、多角度的解释或回答。通过这些评测任务,我们能够全面而深入地了解模型中文语言理解方面的实际能力。 常识百科类评测任务:此类评测任务主要评估
    发表于 05-07 17:12

    【大语言模型:原理与工程实践】大语言模型的基础技术

    处理各种自然语言任务时都表现出了惊人的能力。这促使一个新的研究方向诞生——基于Transformer 的预训练语言
    发表于 05-05 12:17

    【大语言模型:原理与工程实践】揭开大语言模型的面纱

    了随着模型规模扩大,其性能和能力提升速度的变化规律。这一定律深度学习中表现模型规模与性能改进之间的关系,通常表明扩大
    发表于 05-04 23:55

    【大语言模型:原理与工程实践】探索《大语言模型原理与工程实践》

    处理中预训练架构Transformer,以及这些技术现实世界中的如何应用。通过具体案例的分析,作者展示了大语言模型解决实际问题中的强大
    发表于 04-30 15:35

    模型战略评估系统中的应用有哪些

    智慧华盛恒辉大模型,顾名思义,是指参数规模超过千万的机器学习模型。这些模型主要应用于自然语言处理、计算机视觉、语音识别等领域,大场景下的
    的头像 发表于 04-24 13:48 231次阅读

    基于Transformer模型的压缩方法

    基于Transformer架构的大型模型人工智能领域中发挥着日益重要的作用,特别是自然语言处理(NLP)和计算机视觉(CV)领域。
    的头像 发表于 02-22 16:27 578次阅读
    基于<b class='flag-5'>Transformer</b><b class='flag-5'>模型</b>的压缩方法

    语言模型背后的Transformer,与CNN和RNN有何不同

      电子发烧友网报道(文/李弯弯)近年来,随着大语言模型的不断出圈,Transformer这一概念也走进了大众视野。Transformer是一种非常流行的深度学习
    的头像 发表于 12-25 08:36 3554次阅读
    大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>背后的<b class='flag-5'>Transformer</b>,与CNN和RNN有何不同

    Transformer迎来强劲竞争者 新架构Mamba引爆AI圈!

    作为通用序列模型的骨干,Mamba 语言、音频和基因组学等多种模态中都达到了 SOTA 性能。语言建模方面,无论是预训练还是下游
    发表于 12-07 14:14 464次阅读
    <b class='flag-5'>Transformer</b>迎来强劲竞争者 新架构Mamba引爆AI圈!

    大型语言模型的逻辑推理能力探究

    最新研究揭示,尽管大语言模型LLMs语言理解上表现出色,但在逻辑推理方面仍有待提高。为此,研究者们推出了GLoRE,一个全新的逻辑推理
    的头像 发表于 11-23 15:05 885次阅读
    大型<b class='flag-5'>语言</b><b class='flag-5'>模型</b>的逻辑推理<b class='flag-5'>能力</b>探究