
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
Bipartite Graph Neural Networks for Efficient Node Representation Learning
在大规模图上遇到节点爆炸问题,可以参考下面的文献。

[1]第三课.图变分自编码器&图对抗生成网络[2]【GNN】VGAE:利用变分自编码器完成图重构[3]【GNN五大类 VGAE】(变分图自编码器):Variational Graph Auto-Encoders[4]图自编码器的起源和应用
ICLR’22| 将局部子图融入消息传递提升GNN模型
[1]【每周一读】在图神经网络中挖掘利用边的特征信息[2]图上的边信息怎么办:GNNs与edge feature
参考文献【1】是数学上的解读参考文献【2】是升级版本,有空来填坑。

在之前的基础介绍中我们已经从谱图理论过渡到图傅里叶变换再到图卷积,那么在这一小节中我们根据图卷积的定义介绍几种基础的图卷积的模型。此文内容为自学内容的笔记,其中多有参考借鉴他人博客的地方,一并在参考文献中给出链接。【图机器学习】图神经网络入门(一)谱图理论【图机器学习】图神经网络入门(二)图上的傅里叶变换【图机器学习】图神经网络入门(三)从图傅里叶变换到图卷积【图机器学习入门】拉普拉斯算子与拉普拉
[1]深度学习中激活函数的优缺点(1)[2]深度学习中激活函数的优缺点(2)
学习高斯混合模型主要是因为在学习生成模VAE的过程中有许多不理解的地方,经过学习发现很多前置知识都是来源于高斯混合模型和EM算法,因此需要掌握高斯混合模型和EM算法。换言之概率模型表示了观测数据在总体中的概率分布,它是由K个子分部组成的混合分布。一般来说,一个混合模型可以使用任何概率分布,这里使用高斯混合模型是因为高斯分布具备很好的数学性质以及良好的计算性能。在使用之前需要对概率分布进行归一化,即
1]什么是「互信息」?[2]DIM:通过最大化互信息来学习深度表征[3]【互信息 Deep InfoMax】Learning Deep Representations by Mutual Information Estimation and Maximization[4]ICLR 2020 | 互信息视角下的表征学习[5]互信息的深度理解(总结的不错值得一看)[6]互信息在深度学习的应用[6]对比
