0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

清华大学联合提出了用于半监督学习的图随机神经网络

ss 来源:学术头条 作者:学术头条 2020-12-01 15:25 次阅读

导读:在 NeurIPS 2020 上,清华大学联合微众银行、微软研究院以及博世人工智能中心提出了 Graph Random Neural Network (GRAND),一种用于图半监督学习的新型图神经网络框架。在模型架构上,GRAND 提出了一种简单有效的图数据增强方法 Random Propagation,用来增强模型鲁棒性及减轻过平滑。基于 Random Propagation,GRAND 在优化过程中使用一致性正则(Consistency Regularization)来增强模型的泛化性,即除了优化标签节点的 cross-entropy loss 之外,还会优化模型在无标签节点的多次数据增强的预测一致性。GRAND 不仅在理论上有良好的解释,还在三个公开数据集上超越了 14 种不同的 GNN 模型,取得了 SOTA 的效果。

这项研究被收入为 NeurIPS 2020 的 Oral paper (105/9454)。

论文名称:GraphRandom Neural Network for Semi-Supervised Learning on Graphs

研究背景

图是用于建模结构化和关系数据的一种通用的数据结构。在这项工作中,我们重点研究基于图的半监督学习问题,这个问题的输入是一个节点带属性的无向图,其中只有一小部分节点有标签,我们的目的是要根据节点属性,图的结构去预测无标签节点的标签。近几年来,解决这个问题一类有效的方法是以图卷积神经网络(GCN)[1]为代表的图神经网络模型(GNN)。其主要思想是通过一个确定性的特征传播来聚合邻居节点的信息,以此来达到对特征降噪的目的。

但是,最近的研究表明,这种传播过程会带来一些固有的问题,例如:

1) 过平滑,图卷积可以看做是一种特殊形式的拉普拉斯平滑,叠加多层之后节点之间的feature就会变得不可区分。

2)欠鲁棒,GNN中的特征传播会使得节点的预测严重依赖于特定的邻居节点,这样的模型对噪音的容忍度会很差,例如KDD’18的best paper[2]就表明我们甚至可以通过间接攻击的方式通过改变目标节点邻居的属性来达到攻击目标节点的目的。

3)过拟合,在半监督节点分类的任务中,有标签的节点很少,而一般GNN仅仅依靠这些少量的监督信息做训练,这样训练出来的模型泛化能力会比较差。

模型介绍

为了解决这些问题,在这个工作中我们提出了图随机神经网络(GRAND),一种简单有效的图半监督学习方法。与传统GNN不同,GRAND采用随机传播(Random Propagation)策略。具体来说,我们首先随机丢弃一些节点的属性对节点特征做一个随机扰动,然后对扰动后的节点特征做一个高阶传播。这样一来,每个节点的特征就会随机地与其高阶邻居的特征进交互,这种策略会降低节点对某些特定节点的依赖,提升模型的鲁棒性。

除此之外,在同质图中,相邻的节点往往具有相似的特征及标签,这样节点丢弃的信息就可以被其邻居的信息补偿过来。因此这样形成的节点特征就可以看成是一种针对图数据的数据增强方法。基于这种传播方法,我们进而设计了基于一致性正则(consistency regularization)的训练方法,即每次训练时进行多次Random Propagation 生成多个不同的节点增强表示,然后将这些增强表示输入到一个MLP中,除了优化交叉熵损失之外,我们还会去优化MLP模型对多个数据增强产生预测结果的一致性。这种一致性正则损失无需标签,可以使模型利用充足的无标签数据,以弥补半监督任务中监督信息少的不足,提升模型的泛化能力,减小过拟合的风险。

图一

图二

我们对GRAND进行了理论分析,分析结果表明,这种Random propagation + Consistency Regularization 的训练方式实际上是在优化模型对节点与其邻居节点预测置信度之间的一致性。

实验结果

我们在GNN基准数据集中的实验结果对GRAND进行了评测,实验结果显示GRAND在3个公开数据集中显著超越了14种不同种类的GNN模型,取得了SOTA的效果。实验结果(图三):

图三

此外我们还对模型泛化性,鲁棒性,过平滑等问题进行了分析,实验结果显示1)Consistency Regularization 和Random Propagation均能提升模型的泛化能力(图四);2)GRAND具有更好的对抗鲁棒性(图五);3)GRAND可以减轻过平滑问题(图六)。

图四

图五

图六

责任编辑:xj

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4771

    浏览量

    100698
  • 半监督学习
    +关注

    关注

    0

    文章

    20

    浏览量

    2518
收藏 人收藏

    评论

    相关推荐

    博世与清华大学续签人工智能研究合作协议

    近日,博世与清华大学宣布,双方续签人工智能领域的研究合作协议,为期五年。在此期间,博世将投入5000万元人民币。基于2020年成立的清华大学—博世机器学习联合研究中心(以下简称“
    的头像 发表于 11-20 11:37 311次阅读

    SynSense时识科技与海南大学联合研究成果发布

    近日,SynSense时识科技与海南大学联合在影响因子高达7.7的国际知名期刊《Computers in Biology and Medicine》上发表了最新研究成果,展示了如何用低维信号通用类脑
    的头像 发表于 10-23 14:40 289次阅读
    SynSense时识科技与海南<b class='flag-5'>大学联合</b>研究成果发布

    【《大语言模型应用指南》阅读体验】+ 基础篇

    章节最后总结了机器学习的分类:有监督学习、无监督学习监督学习、自监督学习和强化
    发表于 07-25 14:33

    BP神经网络学习机制

    BP神经网络(Backpropagation Neural Network),即反向传播神经网络,是一种基于梯度下降算法的多层前馈神经网络,其学习机制的核心在于通过反向传播算法
    的头像 发表于 07-10 15:49 576次阅读

    神经网络如何用无监督算法训练

    神经网络作为深度学习的重要组成部分,其训练方式多样,其中无监督学习是一种重要的训练策略。无监督学习旨在从未标记的数据中发现数据内在的结构、模式或规律,从而提取有用的特征表示。这种训练方
    的头像 发表于 07-09 18:06 774次阅读

    前馈神经网络的基本结构和常见激活函数

    和激活函数的非线性变换,能够学习和模拟复杂的函数映射,从而解决各种监督学习任务。本文将详细阐述前馈神经网络的基本结构,包括其组成层、权重和偏置、激活函数等,并介绍几种常见的激活函数及其特性。
    的头像 发表于 07-09 10:31 765次阅读

    卷积神经网络与循环神经网络的区别

    在深度学习领域,卷积神经网络(Convolutional Neural Networks, CNN)和循环神经网络(Recurrent Neural Networks, RNN)是两种极其重要
    的头像 发表于 07-03 16:12 3182次阅读

    反向传播神经网络和bp神经网络的区别

    神经网络在许多领域都有广泛的应用,如语音识别、图像识别、自然语言处理等。然而,BP神经网络也存在一些问题,如容易陷入局部最优解、训练时间长、对初始权重敏感等。为了解决这些问题,研究者们提出了一些改进的BP
    的头像 发表于 07-03 11:00 784次阅读

    如何使用神经网络进行建模和预测

    神经网络是一种强大的机器学习技术,可以用于建模和预测变量之间的关系。 神经网络的基本概念 神经网络是一种受人脑启发的计算模型,由大量的节点(
    的头像 发表于 07-03 10:23 736次阅读

    神经网络反向传播算法原理是什么

    神经网络反向传播算法(Backpropagation Algorithm)是一种用于训练多层前馈神经网络监督学习算法。它通过最小化损失函数来调整
    的头像 发表于 07-02 14:16 613次阅读

    神经网络架构有哪些

    神经网络架构是机器学习领域中的核心组成部分,它们模仿了生物神经网络的运作方式,通过复杂的网络结构实现信息的处理、存储和传递。随着深度学习技术
    的头像 发表于 07-01 14:16 687次阅读

    鼾声监测神经网络

    自动打鼾检测的混合卷积神经网络(CNN)模型。该模型由处理原始信号的一维(1D)CNN和表示通过可见性方法映射的图像的二维(2D)CNN组成。在我们的实验中,我们的算法实现了89.3%的平均
    发表于 05-15 12:14

    助听器降噪神经网络模型

    抑制任务是语音增强领域的一个重要学科, 随着深度神经网络的兴起,提出了几种基于深度模型的音频处理新方法[1,2,3,4]。然而,这些通常是为离线处理而开发的,不需要考虑实时性。当使用神经网络
    发表于 05-11 17:15

    清华大学联合中交兴路发布《中国公路货运大数据碳排放报告》

    为践行并推动实现“双碳”目标,清华大学联合中交兴路发布《中国公路货运大数据碳排放报告》(以下简称:《报告》)。
    的头像 发表于 05-09 14:47 359次阅读
    <b class='flag-5'>清华大学联合</b>中交兴路发布《中国公路货运大数据碳排放报告》

    详解深度学习神经网络与卷积神经网络的应用

    在如今的网络时代,错综复杂的大数据和网络环境,让传统信息处理理论、人工智能与人工神经网络都面临巨大的挑战。近些年,深度学习逐渐走进人们的视线,通过深度
    的头像 发表于 01-11 10:51 2019次阅读
    详解深度<b class='flag-5'>学习</b>、<b class='flag-5'>神经网络</b>与卷积<b class='flag-5'>神经网络</b>的应用