logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

搜广推校招面经十五

极大似然法(Maximum Likelihood Estimation, MLE)是一种,旨在找到使观测数据出现的概率最大的模型参数。在深度学习中−。

文章图片
#机器学习#深度学习#pytorch +3
搜广推校招面经十一

模型名称低阶交互建模高阶交互建模需要人工特征工程共享 Embedding手工特征 (Wide)DNN (Deep)✅ 需要人工特征❌ 不共享WideFMFMDNN❌ 不需要人工特征❌ 不共享DeepFMFMDNN❌ 不需要人工特征✅ 共享xDeepFM(eXtreme Deep Factorization Machine) 是在 DeepFM 之后提出的一种推荐系统模型,主要用于 自动学习高阶特征

#搜索引擎#推荐算法#深度学习 +2
力扣hot100_链表(3)_python版本

【代码】力扣hot100_链表(3)_python版本。

文章图片
#leetcode#链表#python +2
搜广推校招面经八十七

本文摘要: Bagging与Boosting对比:Bagging并行训练模型减少方差,Boosting串行训练纠正偏差;Bagging对数据有放回采样,Boosting加权采样误差样本;Bagging抗过拟合强,Boosting需调参防过拟合。 梯度下降与梯度提升:梯度下降优化参数空间,更新模型参数;梯度提升优化函数空间,逐步逼近最优函数;前者用于参数化模型,后者构建复合模型(如XGBoost)。

文章图片
#机器学习#人工智能#python +3
搜广推校招面经四十一

当优化一个任务时,另一个任务的性能下降。任务之间的损失函数相互竞争,导致模型难以同时优化所有任务。

文章图片
#人工智能#pytorch#推荐算法 +2
力扣hot100_子串_python版本

【代码】力扣hot100_子串_python版本。

文章图片
#leetcode#python#算法 +2
Pyspark学习一:概述

允许 Python 开发者轻松使用 Spark 进行大规模数据处理。,比 Hadoop MapReduce 更快,适用于。的 Python API,提供了。Spark 本身是一个。

文章图片
#学习#深度学习#人工智能 +2
搜广推校招面经四十五

倾向分消偏主要通过计算个体的倾向分来调整不同组别的样本,使其在统计上更加可比。IPS 和 DR 消偏提供了一种基于加权和双重稳健的方法来进一步减少偏差。消偏塔采用分层处理的方式,从原始数据到最终模型,逐步减少选择偏差,提升模型的稳健性。使用显式特征的在线交互感知提升网络(EFIN)

文章图片
#机器学习#算法#人工智能 +1
搜广推校招面经三十九

Python 装饰器(Decorator)是一种用于修改或扩展函数或方法行为的特殊语法。它本质上是一个高阶函数,接受一个函数作为输入,并返回一个新的函数。装饰器通常用于在不修改原函数代码的情况下,为函数添加额外的功能(如日志记录、权限检查、性能测试等)。

文章图片
#数据挖掘#人工智能#机器学习 +3
搜广推校招面经一百零一

Triplet Loss 用于强化 anchor 和 positive 的距离比 anchor 和 negative 的距离更近,通常用于 embedding 学习。BPR Loss 是推荐召回中非常经典的pairwise ranking loss,目的是让正样本得分比负样本得分高。model.eval()# 设置为推理模式,使用moving统计量。model.train()# 设置为训练模式,使

文章图片
#机器学习#深度学习#人工智能 +3
    共 51 条
  • 1
  • 2
  • 3
  • 6
  • 请选择