
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
围绕多语言图文检索模型mCLIP论文展开学习,论文提出了一种多语言视觉-语言预训练模型。核心创新在于通过三角形跨模态知识蒸馏(TriKD),将冻结的CLIP图像编码器与增强后的多语言文本编码器XLM-R对齐。该方法仅训练少量新增投影层,高效地实现了多语言对齐。为提升XLM-R的检索能力,论文进一步设计了结合神经机器翻译和对比损失的两阶段增强方案,强化了token级与句子级的跨语言表示。在实践环节,
多语言视觉-语言模型的核心矛盾——语言中立性与文化感知的张力。技术演进经历了从融合编码器、双编码器到多模态大语言模型的范式转移。评估体系正从基于翻译的基准向文化根基基准转型。未来发展方向聚焦于三大层面:数据层面构建文化数据引擎,模型层面采用可插拔文化适配器,评估层面建立多维文化素养基准。实验方面,成功部署服务器环境并跑通基线代码,为后续设计验证奠定基础。为了找出设计模型的一些点,搜索看了一篇综述论
本文基于ACM网络搜索与数据挖掘国际会议的一篇论文,介绍了名为 LLMRec 的创新推荐系统框架。该框架的核心是利用大型语言模型对推荐系统的交互图进行三方面增强,以解决传统推荐系统长期面临的数据稀疏、冷启动和语义信息缺失等核心痛点。本周学习了一篇关于推荐算法较新的论文,有很多基础知识未了解透彻,需要学习,不过找论文学习知识的方式没问题。
学习了无监督学习(PCA)、强化学习(Q-learning)的核心原理,以及神经网络与推荐算法结合的实践实现。阐述 PCA 作为线性降维方法的原理、步骤、应用场景,分析其在大模型和深度神经网络中不适用的原因及有限应用场景;其次介绍强化学习的核心框架、Q-learning 算法的原理与贝尔曼更新方程,以及神经网络如何解决传统强化学习的维度灾难问题;
一、介绍了一篇论文如何利用LLM增强推荐系统的数据,解决数据稀疏性问题,提升推荐性能。关键技术:结构化Prompt,候选池筛选,BPR损失优化。二、针对高维多目标优化问题,传统算法NSGA-II在10目标WFG4问题上,拥挤距离机制因维度爆炸失效,学习RVEA算法如何通过参考向量引导机制克服传统算法的缺陷,获得更好的多样性和收敛性。在看论文的基础上,分析了论文的数据流程,学习在传统推荐算法上如何采
本周学习智能体强化学习(Agentic RL)与视觉语言预训练模型CLIP的应用。Agentic RL通过“决策-反馈-改进”闭环实现智能体自主迭代,解决工业级Agent开发的成本-效率平衡难题,并结合微软Agent-Lightning框架和GRPO算法提升小模型工具调用准确率与泛化能力。另一方面,CLIP利用大规模图文对训练,通过对比学习实现零样本迁移,在CIFAR-10等任务上展现强大泛化性能
一、介绍了一篇论文如何利用LLM增强推荐系统的数据,解决数据稀疏性问题,提升推荐性能。关键技术:结构化Prompt,候选池筛选,BPR损失优化。二、针对高维多目标优化问题,传统算法NSGA-II在10目标WFG4问题上,拥挤距离机制因维度爆炸失效,学习RVEA算法如何通过参考向量引导机制克服传统算法的缺陷,获得更好的多样性和收敛性。在看论文的基础上,分析了论文的数据流程,学习在传统推荐算法上如何采
本周继续学习深度学习,并实践。学习了深度学习的倾斜数据误差指标(下面CNN实践用上)、决策树、回归树;在CNN学习实践中,对上周训练加了可视化,并增加了新的数据识别。深度学习内容马上需要换课程学习,下周计划多找些内容,CNN需要进行新的项目-图像分类(基础)。pytorch实践本周并没进行,下周加上。论文学习需要加上。
学习了无监督学习(PCA)、强化学习(Q-learning)的核心原理,以及神经网络与推荐算法结合的实践实现。阐述 PCA 作为线性降维方法的原理、步骤、应用场景,分析其在大模型和深度神经网络中不适用的原因及有限应用场景;其次介绍强化学习的核心框架、Q-learning 算法的原理与贝尔曼更新方程,以及神经网络如何解决传统强化学习的维度灾难问题;








