
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文提出消息传递神经网络(MPNN)框架,统一了多种图结构数据学习模型,并将其应用于分子性质预测。MPNN通过消息传递和顶点更新两阶段处理图数据,保持图同构不变性。在QM9数据集13个量子化学性质预测任务中,11个达到DFT计算精度,5个仅基于拓扑结构即实现化学精度。研究展示了MPNN在分子建模中的潜力,为药物发现和材料科学提供了有效工具。未来工作将探索更大分子规模和高精度数据集的适用性。

摘要:门控图序列神经网络(GGS-NNs)通过多步GG-NN顺序运行处理图结构数据,包含共享传播模型的简化变体可提升效率。实验显示其在bAbI推理任务(如路径查找)和算法学习(最短路径、欧拉回路)中显著优于RNN/LSTM,仅需50样本即达高精度。在程序验证领域,GGS-NNs能自动生成分离逻辑公式描述堆内存状态,准确率89.96%,支持批量预测并成功验证链表算法。模型通过节点标注机制实现序列预测

本文提出门控图序列神经网络(GGS-NN),通过改进经典图神经网络结构,引入GRU门控机制和现代优化技术,实现图结构输入的序列输出能力。相比纯序列模型,该模型在图结构问题中具有更优的归纳偏置。实验表明,GGS-NN在bAbI任务、图算法学习及程序验证等任务中表现优异,特别是在程序验证的子图抽象数据结构描述任务中达到最优性能。该模型通过节点标注机制、改进的传播模型和灵活的输出模型设计,有效解决了图结

本文介绍了图注意力网络(GAT)在直推式和归纳式学习任务中的评估结果。在三个标准引文网络数据集(Cora、Citeseer、Pubmed)和蛋白质相互作用(PPI)数据集上的实验表明,GAT模型在所有任务中均达到或超越当前最优性能。通过采用注意力机制,GAT能够为邻居节点分配差异化权重,在Cora和Citeseer上比GCN提升1.5-1.6%,在PPI数据集上比GraphSAGE提升20.5%。

本文介绍了图注意力网络(GAT)的核心架构及其技术优势。GAT通过引入注意力机制,在计算节点特征时动态分配不同权重,解决了传统图神经网络的一些局限性。文章详细阐述了单图注意力层的实现,包括输入特征转换、注意力系数计算和多头注意力机制。GAT具有计算高效、可并行化、能处理有向图等优点,其时间复杂度与GCN相当。相比现有方法,GAT能隐式分配节点重要性,不依赖全局结构信息,适用于归纳学习任务。文章还探

本文提出了一种基于小批量随机梯度下降的GraphSAGE图神经网络算法,重点阐述了其小批量前向传播机制和邻域采样策略。算法通过分层采样和聚合实现高效计算,支持节点分类等任务。实验部分详细说明了PPI、Reddit和WoS数据集的构建方法,以及超参数调优策略。理论分析证明了池化聚合器在特定条件下能够学习节点聚类系数,并讨论了嵌入方法的对齐问题和正交不变性特性。实验结果表明,该方法在不同数据集上表现良

GraphSAGE是一种基于图神经网络的归纳式表示学习方法,其核心在于通过采样和聚合邻居特征实现层次化表征学习。算法采用K层迭代结构,每层节点聚合其邻域信息并更新表示。该方法支持均值、LSTM和池化三种聚合器架构,具有对称性和可训练性。参数学习通过随机梯度下降优化基于图结构的损失函数,使相邻节点表示相似。GraphSAGE与Weisfeiler-Lehman同构测试存在理论关联,通过固定大小邻居采

《图注意力网络(GAT)技术解析》摘要: GAT提出了一种基于自注意力机制的新型图神经网络架构,通过掩码注意力层突破传统图卷积方法的局限。该模型使节点能自适应关注邻居特征,动态分配差异化权重,无需复杂矩阵运算或完整图结构信息。采用多头注意力机制替代传统卷积操作,显著降低计算复杂度,支持端到端学习节点关系。实验表明,GAT在Cora等四个基准数据集上均达到SOTA水平,尤其在蛋白质相互作用数据集中展
本文提出NoteLLM-2框架,旨在解决大语言模型(LLMs)在多模态商品推荐(I2I)中的视觉信息忽视问题。研究发现直接微调的LLMs存在文本偏向性,为此创新性地设计了两种方法:基于提示词的多模态上下文学习(mICL)分离视觉与文本内容,以及晚期融合技术直接整合视觉信息。实验表明,该框架显著提升了多模态表征性能,在召回任务中优于传统方法。研究首次探索了LLM辅助的多模态表征在推荐场景的应用,为跨

推到n-gram语言模型平滑处理稀疏性生成语言







