Category Archives: Stanford CS224W: Machine Learning with Graphs

CS224W(1.14)Lecture 2. Traditional Methods for ML on Graphs-针对图的特征工程方法

针对图的特征工程方法主要是核方法(Kernel methods),这里的核方法和SVM中的核方法是一个意思,都是把特征映射到高维空间,在高维空间的特征交互可以用低维空间的核矩阵来表示。

图上的核方法的核心思想是bag-of-words,即统计不同子图(相当于words)的个数,比如下图子图4中是统计不同度的节点的个数,则这里度为k的节点就是一个不同的word,最后得到bag-of-words向量,比如[1,2,1]。前面介绍针对节点的特征工程时,其中的GDV向量本质上是bag of graphlets。

在介绍针对图的特征工程方法时,会介绍两种核方法:Graphlet Kernel和Weisfeiler-Lehman Kernel。

Continue reading

CS224W(1.14)Lecture 2. Traditional Methods for ML on Graphs-针对边的特征工程方法

针对边<A,B>的特征工程方法,固然可以把节点A和B的节点特征concat起来作为边<A,B>的特征,但是丢失了很多边特有的信息,效果不一定好。专门针对边设计的特征工程方法有三个,下面分别介绍:

  • 基于距离的特征(Distance-based feature)
  • 局部邻居重叠比例(Local neighborhood overlap)
  • 全局邻居重叠比例(Global neighborhood overlap)
Continue reading

CS224W(1.14)Lecture 2. Traditional Methods for ML on Graphs-针对节点的特征工程方法

前言

这节课主要介绍传统的图机器学习方法。传统方法主要分为两步,第一步人工设计特征,第二步使用各种机器学习方法进行预测。因此,特征工程在传统图机器学习方法中有很重要的地位。本节课主要介绍图上的特征工程方法,分别介绍针对节点(node-level)、边(link-level)和图(graph-level)的特征工程方法。

Continue reading

CS224W(1.12)Lecture 1. Introduction; Machine Learning for Graphs

前言

最近的工作涉及到图神经网络,打算系统学习下这方面的内容。首先搜集了相关的教材,发现市面上的教材大多数是罗列论文的形式,不太适合初学者入门。后来找到了斯坦福CS224W这门公开课,打算入坑,一是之前学习过斯坦福CS224N,感觉不错;二是CS224W这门课的老师是GraphSAGE的作者Jure Leskovec,有大佬背书错不了。

CS224W主页:http://web.stanford.edu/class/cs224w/
Winter 2021版主页:http://snap.stanford.edu/class/cs224w-2020/
Winter 2021版视频:https://www.youtube.com/playlist?list=PLoROMvodv4rPLKxIpqhjhPgdQy7imNkDn,Jure Leskovec是斯洛文尼亚人,英语不是很标准,建议打开YouTube的字幕。

Continue reading