logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

SIGIR25-推荐论文整理

上,例如学习用户在不同模态下的多方面偏好(如MELON),以及设计新颖的复合图卷积网络结构并结合双阶段融合策略(如COHESION)以增强模态间的协同。同时,研究热点也集中在。bias:图解耦去偏应用于POI推荐,探索用户、数据和推荐系统反馈回路中源偏见的放大机制,以及在LLM推荐中进行双重去偏。(例如LLM被用于增强双曲空间图推荐、辅助知识图谱的理解、以及实现图上的提示学习,常结合由粗到精的框架

文章图片
#人工智能#推荐算法
因果推荐-代码阅读|分布外推荐的因果扩散图表示学习

代码:https://github.com/user683/CausalDiffRec.关键词:图神经网络,分布外数据,不变学习,扩散模型:模型的训练;评估;evaluate;input_data;preprocess:数据读取预处理等工作;中包括了:diffusion和DNN(扩散模型的前向和反向 作者这论文里明确说了借鉴Diffrec,这就是diffrec扩散模型的代码);environmen

文章图片
#学习
因果推荐|因果干预在多行为推荐中的公平性研究

研究了多行为推荐中的流行度偏差及其导致的不公平现象。通过构建因果图和利用因果干预技术,提出了一个多行为去偏框架来缓解由流行度偏差引起的不公平。在模型训练过程中考虑流行度和质量的双重影响,通过后门调整和因果干预,在推理阶段有效去除流行度的负面影响。

文章图片
#论文阅读#推荐算法#学习 +1
因果推荐|利用推荐中流行度偏差的因果干预

这篇论文提出了去混淆和调整人气偏差(Popularity-bias Deconfounding and Adjusting, PDA)的框架,通过因果推断技术来解决推荐系统中的人气偏差问题。

文章图片
#推荐算法#深度学习#论文阅读
因果推荐|因果干预在多行为推荐中的公平性研究

研究了多行为推荐中的流行度偏差及其导致的不公平现象。通过构建因果图和利用因果干预技术,提出了一个多行为去偏框架来缓解由流行度偏差引起的不公平。在模型训练过程中考虑流行度和质量的双重影响,通过后门调整和因果干预,在推理阶段有效去除流行度的负面影响。

文章图片
#论文阅读#推荐算法#学习 +1
TOIS24|推荐公平性的反事实解释

模型流程:HIN 嵌入生成使用异构信息网络提取用户嵌入 hu、物品嵌入 hv、属性嵌入 ei,统一表示用户、物品及其属性的多样化关系,为后续的强化学习和反事实解释生成提供输入。强化学习框架利用强化学习找到最小的属性修改集合 V^*,优化推荐结果的公平性。状态表示:通过 GRU提取用户推荐历史的序列信息,结合当前推荐列表嵌入生成状态 st​。动作选择:使用注意力机制筛选与当前状态最相关的属性,剔除无

文章图片
#人工智能
SIGIR24-多行为|基于行为模式挖掘的多行为推荐

通过行为模式计算、特征生成、贝叶斯推理评分计算,实现了 多行为推荐 的目标。它结合了用户与物品的交互信息,通过 行为模式路径 和 特征矩阵 的加权计算,为用户生成准确的推荐。

文章图片
#推荐算法#论文阅读#人工智能 +1
到底了