logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

搜广推面经九十八

项目NCELoss本质分类任务(正 vs 负)Softmax 近似是否校正偏差❌ 否(拟合二分类目标)✅ 是(log 采样概率校正)推理一致性❌ 不一致✅ 一致(训练/推理)采样分布要求灵活需明确估计qyq(y)qyNCELoss 多用于 word2vec、representation learning 等 embedding 学习场景Sampled Softmax 多用于大规模分类任务、推荐系统

#机器学习#人工智能#推荐算法 +2
搜广推校招面经一

bg:多模态和大模型出身。

文章图片
#python#搜索引擎#推荐算法 +2
搜广推校招面经一百零一

Triplet Loss 用于强化 anchor 和 positive 的距离比 anchor 和 negative 的距离更近,通常用于 embedding 学习。BPR Loss 是推荐召回中非常经典的pairwise ranking loss,目的是让正样本得分比负样本得分高。model.eval()# 设置为推理模式,使用moving统计量。model.train()# 设置为训练模式,使

文章图片
#机器学习#深度学习#人工智能 +3
搜广推校招面经十一

模型名称低阶交互建模高阶交互建模需要人工特征工程共享 Embedding手工特征 (Wide)DNN (Deep)✅ 需要人工特征❌ 不共享WideFMFMDNN❌ 不需要人工特征❌ 不共享DeepFMFMDNN❌ 不需要人工特征✅ 共享xDeepFM(eXtreme Deep Factorization Machine) 是在 DeepFM 之后提出的一种推荐系统模型,主要用于 自动学习高阶特征

#搜索引擎#推荐算法#深度学习 +2
搜广推校招面经二十一

见【搜广推校招面经六、七、十一】nn.ReLU(),nn.ReLU(),# 输出层:FM 和 DNN 部分的输出拼接self.output_layer = nn.Linear(1 + 1, 1) # FM 输出与 DNN 输出拼接# FM 部分:计算特征的二阶交互# DNN 部分:通过嵌入层和神经网络计算高阶特征交互# 输出层:将 FM 和 DNN 的输出拼接起来# 示例n_features =

文章图片
#python#算法#推荐算法 +2
catboost调用gpu就内核崩溃

上个月做一个竞赛,由于cpu实在太慢想着说调用gpu, 在网上看了一些教程以为要安装gpu版本的catboost,后面发现似乎直接把 task_type 参数改为 ‘GPU’ 便可。但是不知道为啥一运行就会出现内核死亡的问题, 在网上简单看了一下, 有的人使用xgboost也会出现这个问题,因为当时比较忙没有来得及解决,在这里标记一下。

#python#机器学习#数据挖掘
catboost调用gpu就内核崩溃

上个月做一个竞赛,由于cpu实在太慢想着说调用gpu, 在网上看了一些教程以为要安装gpu版本的catboost,后面发现似乎直接把 task_type 参数改为 ‘GPU’ 便可。但是不知道为啥一运行就会出现内核死亡的问题, 在网上简单看了一下, 有的人使用xgboost也会出现这个问题,因为当时比较忙没有来得及解决,在这里标记一下。

#python#机器学习#数据挖掘
力扣hot100_链表(3)_python版本

【代码】力扣hot100_链表(3)_python版本。

文章图片
#leetcode#链表#python +2
搜广推校招面经一百零一

Triplet Loss 用于强化 anchor 和 positive 的距离比 anchor 和 negative 的距离更近,通常用于 embedding 学习。BPR Loss 是推荐召回中非常经典的pairwise ranking loss,目的是让正样本得分比负样本得分高。model.eval()# 设置为推理模式,使用moving统计量。model.train()# 设置为训练模式,使

文章图片
#机器学习#深度学习#人工智能 +3
搜广推校招面经七十六

对于一个类别分布Pp1p2pnPp1​p2​...pn​其中pip_ipi​表示第 i 类的概率,熵越大,表示分布越均匀(不确定性越高)。遍历每一个特征。对每个特征尝试所有可能的划分方式(取值、切分点)。根据分裂准则计算“划分优度”(如信息增益、信息增益率、Gini)。选择最优特征和划分点进行分裂。对子节点递归执行上述步骤,直到满足停止条件。

文章图片
#深度学习#人工智能#pytorch +1
    共 40 条
  • 1
  • 2
  • 3
  • 4
  • 请选择