以下文章来源于NewBeeNLP ,作者Rosey
永远有料,永远有趣
作者 | Rosey
拜读了Jure Leskovec的《Representation Learning on Networks》才明白图神经网络到底在学什么,是如何学的,不同GNN模型之间的关系是什么。总的来说,不同类型的模型都是在探讨「如何利用图的节点信息去生成节点(图)的embedding表示」。
图表示学习的两大主流思想
「目标」:编码节点使其在embedding空间的相似性「近似」为在原网络的相似性
可以看出,前两步是node embedding的核心。
参考word2vec,借助embedding-lookup就可以
「1. Adjacency-based similarity」
「2. Multi-hop similarity」
考虑 k-hop 节点
上述方法的大致思想都是:
「3.Random walk approaches」
DeepWalk,Node2vec等,具体可参见之前的文章
图G定义为:
「如何表示节点」
核心思想:根据邻居节点生成节点的embedding
每个节点拥有独立的计算图
how to aggregate information across the layers
最简单的方法就是 求均值
其他方法......
定义loss训练模型
下面不同的GNN算法都是在「探索如何利用邻域节点生成当前节点的embedding表示」
「GNN基础思想」
「GCN」
「GraphSAGE」
AGG函数可以定义为:
Mean
Pool
LSTM
「Gated Graph Neural Networks」
「上述方法都是nodel-level embeddings」,如何embedding图?
Subgraph Embeddings
以上内容仅是对图神经网络初步了解的学习,《Representation Learning on Networks》[1]非常适合入门GNN,推荐大家阅读,有问题欢迎交流。
《Representation Learning on Networks》: http://snap.stanford.edu/proj/embeddings-www/
[2]Graph Representation Learning: https://jian-tang.com/files/AAAI19/aaai-grltutorial-part0-intro.pdf
- END -
关于AINLP
AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。
阅读至此了,分享、点赞、在看三选一吧🙏