
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
上,例如学习用户在不同模态下的多方面偏好(如MELON),以及设计新颖的复合图卷积网络结构并结合双阶段融合策略(如COHESION)以增强模态间的协同。同时,研究热点也集中在。bias:图解耦去偏应用于POI推荐,探索用户、数据和推荐系统反馈回路中源偏见的放大机制,以及在LLM推荐中进行双重去偏。(例如LLM被用于增强双曲空间图推荐、辅助知识图谱的理解、以及实现图上的提示学习,常结合由粗到精的框架

代码:https://github.com/user683/CausalDiffRec.关键词:图神经网络,分布外数据,不变学习,扩散模型:模型的训练;评估;evaluate;input_data;preprocess:数据读取预处理等工作;中包括了:diffusion和DNN(扩散模型的前向和反向 作者这论文里明确说了借鉴Diffrec,这就是diffrec扩散模型的代码);environmen

研究了多行为推荐中的流行度偏差及其导致的不公平现象。通过构建因果图和利用因果干预技术,提出了一个多行为去偏框架来缓解由流行度偏差引起的不公平。在模型训练过程中考虑流行度和质量的双重影响,通过后门调整和因果干预,在推理阶段有效去除流行度的负面影响。

这篇论文提出了去混淆和调整人气偏差(Popularity-bias Deconfounding and Adjusting, PDA)的框架,通过因果推断技术来解决推荐系统中的人气偏差问题。

研究了多行为推荐中的流行度偏差及其导致的不公平现象。通过构建因果图和利用因果干预技术,提出了一个多行为去偏框架来缓解由流行度偏差引起的不公平。在模型训练过程中考虑流行度和质量的双重影响,通过后门调整和因果干预,在推理阶段有效去除流行度的负面影响。

模型流程:HIN 嵌入生成使用异构信息网络提取用户嵌入 hu、物品嵌入 hv、属性嵌入 ei,统一表示用户、物品及其属性的多样化关系,为后续的强化学习和反事实解释生成提供输入。强化学习框架利用强化学习找到最小的属性修改集合 V^*,优化推荐结果的公平性。状态表示:通过 GRU提取用户推荐历史的序列信息,结合当前推荐列表嵌入生成状态 st。动作选择:使用注意力机制筛选与当前状态最相关的属性,剔除无

通过行为模式计算、特征生成、贝叶斯推理评分计算,实现了 多行为推荐 的目标。它结合了用户与物品的交互信息,通过 行为模式路径 和 特征矩阵 的加权计算,为用户生成准确的推荐。








