
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
协同过滤是个比较直观且解释性较强的一类模型算法,但是没有较强的泛化能力,也就是两两物品的相似性无法推广到其他商品相似度计算中,这样就会存在一个很严重的问题,就是对于近期具有头部热门商品,容易跟大量物品产生相似性,而尾部的稀疏向量就无法与其他物品产生相似性计算而减少对其的推荐。总结一下来说,推荐结果头部效应比较明显,但处理稀疏向量能力弱。对于解决此类问题,我们可以引用矩阵分解技术来增强模型的泛化能力

文章目录Wide&Deep模型的结构Wide&Deep模型结构图模型的记忆能力模型的泛化能力Wide&Deep模型的应用场景Wide&Deep模型的TensorFlow实现Wide&Deep模型的结构Wide&Deep模型结构图Wide&Deep是Google提出的在业界有着巨大影响力的推荐模型。模型结构图如下:上图的左侧为Wide部分,它的
文章目录强化学习的基本概念强化学习推荐系统框架强化学习推荐模型的特点深度强化学习推荐模型中的DQNDRN的学习过程DRN竞争梯度下降算法强化学习的基本概念强化学习的基本概念就是一个智能体通过与环境进行交互,不断学习强化自己的智力,来指导自己的下一步行动,以取得最大化的预期利益。强化学习框架的六大要素智能体(Agent):强化学习的主体也就是作出决定的“大脑”;环境(Environment):智能体
文章目录深度学习模型需要加强处理特征交叉的能力传统的机器学习模型FM深度学习模型DeepFM特征交叉新方法:元素积操作DeepFM的TensorFlow实现深度学习模型需要加强处理特征交叉的能力传统的Embedding MLP和Wide&Deep模型都没有针对性的处理特征交叉问题。虽然MLP有拟合任意函数的能力,但这是建立在MLP有任意多层网络,以及任意多个神经元的前提下的。因为在训练资源
文章目录案例介绍数据集加载相似度计算备注User-Based CF 预测评分评分预测公式实现评分预测predict实现预测全部评分predict_all添加过滤规则预测根据预测评分为指定用户进行TOP-N推荐Item-Based CF 预测评分评分预测公式案例介绍我们要通过两种最基本的实现方案:User-Based CF和Item-Based CF,利用真实的数据来进行案例的分析演练。数据这边我们
上一篇讲到过YouTubeDNN论文部分内容,但是没有代码部分。最近网上教学视频里看到一段关于YouTubeDNN召回算法的代码,现在我分享一下给大家参考看一下,并附上一些我对代码的理解。代码中提到的离散特征和变长特征该如何选择?答:首先我们要理解一下什么事离散特征,什么是变长特征?离散特征:是指具有有限取值或离散类别的特征,例如性别、国家、城市等(用户画像信息)。对于离散特征,可以使用embed
我们可以把召回模型的结构分为三层。输入层:输入层总共有四种特征。用户看过视频的 Embedding(embedded video watches)用户搜索的关键词的 Embedding 向量(embedded search tokens)用户所在的地理位置的特征(geographic embedding)适用于冷启动用户基本特征(example age, gender)

文章目录协同过滤与NeuralCFNeuralCF模型的结构NeuralCF双塔模型协同过滤与NeuralCF协同过滤是推荐算法中最经典的,但是随着技术的发展,协同过滤相比深度学习模型的弊端就日益显现出来了,因为它是通过直接利用非常稀疏的共现矩阵进行预测的,所以模型的泛化能力非常弱,遇到历史行为非常少的用户,就没法产生准确的推荐结果了。虽然可以通过矩阵分解算法可以提高泛化能力。但是矩阵分解中的计算
文章目录矩阵分解的发展史Traditional SVDFunk SVD (LFM )Bias SVDSVD++基于矩阵分解的CF算法——LFMLFM原理解析矩阵分解的发展史Traditional SVD通常SVD矩阵分解指的是SVD(奇异值)分解技术,在这我们姑且将其命名为Traditional SVD。其公式如下图所示:Traditional SVD分解的形式为3个矩阵相乘,中间矩阵为奇异值矩阵
文章目录Embedding+MLP模型的结构最经典的模型Deep CrossingEmbedding+MLP模型的实战特征选择和模型设计基于TensorFlow的模型实现Embedding+MLP模型的结构MLP(Multilayer Perceptron)是多层感知机的缩写。感知机是神经元的另外一种叫法,所以多层感知机就是多层神经网络。最经典的模型Deep Crossing微软在2016年提出的