当前位置:   article > 正文

Graph Neural Networks: A Review of Methods and Applications-2018-arXiv论文阅读笔记_dynamic graph neural networks: a review of models,

dynamic graph neural networks: a review of models, applications, and challen

首先决定看这篇论文是直接在知乎上搜索“图卷积”,看到的一篇总结:图神经网络综述:模型与应用 - 张俊的文章 - 知乎。这篇总结主要是总结了标题中这篇论文大概都介绍了什么,于是觉得这篇论文很有必要阅读。

1. Introduction

神经网络的应用

图是一种数据结构,能够将物体及其关系建模为结点node和边edge得益于其强大的表示能力,图神经网络主要应用在以下几个方面:

  • 社交网络
  • 自然科学(生物系统,protein-protein interaction networks)
  • 知识图谱

图神经网络的动机

  1. 第一个动机——卷积神经网络
    卷积神经网络能够提取多尺度的局部空间特征,为机器学习领域带来很大的突破,但是卷积神经网络只作用在规则的欧几里得数据,比如1D序列,2D网格状数据。但是这些数据结构可以看做是图这种数据结构的一个实例,或者说一种特殊情况。卷积神经网络有以下几个特性:
  • 稀疏链接(或者叫局部连接)
  • 权重共享
  • 多层叠加
    (之前的博客中也有总结过卷积神经网络:《深度学习第九章》——阅读笔记
    这几特性在解决图领域的问题中也尤为重要:
  • 图是最典型的一种局部连接结构
  • 权重共享同样可以减少计算量(这句太懂,谱域图理论不清楚:shared weights reduce the computational cost compared with traditional spectral graph theory [10].)
  • 多层结构同样可以通过感受野的增大捕获不同尺度的特征
    因此我们很容易就想到将应用于欧几里得空间的CNN泛化到非欧几里得图领域。然而正如图1中显示的,我们很难定义一个局部卷积核和池化操作:
    在这里插入图片描述
  1. 第二个动机——graph embedding
    什么是graph embedding呢?从字面上理解就是嵌入图。这应该是自然语言处理领域中的术语,我也不是很懂,就说说自己浅显的理解:
    graph embedding是基于表示学习的一种方法,什么是表示学习呢?一本书上是这样说的:

     learning representations of the data that make it easier to extract useful information when building classifiers or other predictors。graph embedding
    
    • 1

    意思就是用图先将数据表示出来。
    之前的一些graph embedding的方法有两个缺陷:

    • 参数不共享,造成计算量和结点个数成正比;
    • 直接将图嵌入,缺乏泛化能力,无法处理动态图或者泛化为新的图。

总结一下研究神经网络的动机:1.CNN的三大特性满足图

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/366278
推荐阅读
相关标签
  

闽ICP备14008679号