logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

机器学习中常见的最优化算法

梯度下降法(Gradient Descent)梯度下降法是最早最简单,也是最为常用的最优化方法。梯度下降法实现简单,当目标函数是凸函数时,梯度下降法的解是全局解。一般情况下,其解不保证是全局最优解,梯度下降法的速度也未必是最快的。梯度下降法的优化思想是用当前位置负梯度方向作为搜索方向,因为该方向为当前位置的最快下降方向,所以也被称为是”最速下降法“。最速下降法越接近目标值,步长越小,前进越慢...

#机器学习
神经网络之LSTM算法详解(Long short-termmemory )

前馈神经网络VS 反馈神经网络在深度学习领域,传统的前馈神经网络(feed-forward neural net,简称FNN)具有出色的表现,取得了许多成功,它曾在许多不同的任务上——包括手写数字识别和目标分类上创造了记录。甚至到了今天,FNN在解决分类任务上始终都比其他方法要略胜一筹。尽管如此,大多数专家还是会达成共识:FNN可以实现的功能仍然相当有限。究其原因,人类的大脑有着惊人的计算功能..

#深度学习#机器学习#神经网络
推荐系统之LFM算法详解

个性化召回召回:从item中选取一部分作为候选集1)不同的用户喜欢不同的item2)部分作为候选集,降低系统的负担根据用户的属性行为上下文等信息从物品全集中选取其感兴趣的物品作为候选集;召回的重要作用:召回决定了最终推荐结果的天花板个性化召回解析分三种:1.基于用户行为2.基于user profile3.基于隐语义的 LFM工业届个性化召回架构:个性化召回算法LFM(latent...

集成学习之Stacking详解

1、Stacking原理stacking 就是当用初始训练数据学习出若干个基学习器后,将这几个学习器的预测结果作为新的训练集,来学习一个新的学习器。最初的想法是:1:用数据集D来训练h1,h2,h3…,2:用这些训练出来的初级学习器在数据集D上面进行预测得到次级训练集。3:用次级训练集来训练次级学习器。但是这样的实现是有很大的缺陷的。在原始数据集D上面训练的模型,然后用这些模型再D上...

#机器学习
面试题汇总2(吐血整理)

2021届校招算法岗知识点总结:机器学习基础统计学习 方法(LR,SVM,EM,最大篇,集成学习等),值得反复看好几遍,每一遍都会加深理解;尤其是学习理论:贝叶斯决策理论/假设空间概念/经验风险,结构风险/各类损失函数之间的区别与联系/极大似然估计,最大后验估计,贝叶斯估计的区别与联系。·树模型系列论文深入理解,gbdt,xgboost,lightgbm;·深度学习基础:过拟合解决方法,dropo

#机器学习#自然语言处理#深度学习 +1
面试题汇总2(吐血整理)

2021届校招算法岗知识点总结:机器学习基础统计学习 方法(LR,SVM,EM,最大篇,集成学习等),值得反复看好几遍,每一遍都会加深理解;尤其是学习理论:贝叶斯决策理论/假设空间概念/经验风险,结构风险/各类损失函数之间的区别与联系/极大似然估计,最大后验估计,贝叶斯估计的区别与联系。·树模型系列论文深入理解,gbdt,xgboost,lightgbm;·深度学习基础:过拟合解决方法,dropo

#机器学习#自然语言处理#深度学习 +1
[NLP] 文本分类之TextCNN模型原理和实现(超详细)

1. 模型原理1.1论文Yoon Kim在论文(2014 EMNLP) Convolutional Neural Networks for Sentence Classification提出TextCNN。将卷积神经网络CNN应用到文本分类任务,利用多个不同size的kernel来提取句子中的关键信息(类似于多窗口大小的n-gram),从而能够更好地捕捉局部相关性。1.2 网络结构Te...

#机器学习#神经网络
[NLP] 文本分类之TextCNN模型原理和实现(超详细)

1. 模型原理1.1论文Yoon Kim在论文(2014 EMNLP) Convolutional Neural Networks for Sentence Classification提出TextCNN。将卷积神经网络CNN应用到文本分类任务,利用多个不同size的kernel来提取句子中的关键信息(类似于多窗口大小的n-gram),从而能够更好地捕捉局部相关性。1.2 网络结构Te...

#机器学习#神经网络
    共 12 条
  • 1
  • 2
  • 请选择