logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习基础之-5.1非线性分类-二分类(神经元解决异或问题)

逻辑异或门样本1234x10011x20101y0110理想分类结果实践证明两层神经网络可以解决问题。我们可以模拟这个思路,用两层神经网络搭建如下模型:输入层两个特征值x1, x2 {(0, 0),(0, 1),(1,0),(1, 1)}隐层2x2的权重矩阵和2x1的偏移矩阵隐层由两个神经元构成输出层有一个神经元使...

机器学习之-XGBoost2.0 -实践

目录1.0 XGBoost如何评价特征的重要性2.0 XGBooost参数调优的一般步骤2.1 确定learning rate和estimator的数量2.2 max_depth和 min_child_weight2.3 gamma2.4 subsample, colsample_bytree2.5 正则化参数2.6 降低学习率3.0 XGBoost参数详解3.1 常规参数3.2 模型参数3.2.

#机器学习
深度学习-卷积神经网络发展

文章目录1. LeNet(1998)2. AlexNet(2012)3. VGG(2014)3.1 网络结构3.2 其他细节4. Inception Net(2014)4.1 Inception V1(GoogLeNet)4.2 Inception V2(2015)4.3 Inception V3(2015)4.3.1 关于四条设计神经网络的原则4.3.2 关于如何分解大卷积核的卷积层4.3.3

#神经网络#深度学习
深度学习-卷积神经网络发展

文章目录1. LeNet(1998)2. AlexNet(2012)3. VGG(2014)3.1 网络结构3.2 其他细节4. Inception Net(2014)4.1 Inception V1(GoogLeNet)4.2 Inception V2(2015)4.3 Inception V3(2015)4.3.1 关于四条设计神经网络的原则4.3.2 关于如何分解大卷积核的卷积层4.3.3

#神经网络#深度学习
深度学习基础之-3.3线性二分类的神经网络实现

线性二分类的神经网络实现提出问题回忆历史,公元前206年,楚汉相争,当时刘邦项羽麾下的城池地理位置如下:0.红色圆点,项羽的城池1.绿色叉子,刘邦的城池其中,在边界处有一些红色和绿色重合的城池,表示双方激烈争夺的拉锯战。样本序号123…119经度相对值0.0254.109…7.767纬度相对值3.4088.012…1.872...

#神经网络#python
机器学习之-XGBoost1.0 -原理

目录写在前面1.0 决策树参考链接写在前面毕业之后开始做推荐,接触了很多机器学习的知识和技能,依旧是从小白做起,认真学习,认真记录,从Xgb开始,当然一些很基础的知识,比如叶节点之类的就不在此赘述.1.0 决策树目前最流行的两类算法是 基于深度学习的-神经网络 和 基于机器学习的 树形算法 主要是决策树, 决策树分为 1. 分类决策树:处理离散数据 2. 回归决策树:处理连续数据决策树是将空间用超

#算法#决策树#机器学习
深度学习基础之-2.2用梯度下降法求解w,b

用梯度下降法求解w,b。预设函数 Hypothesis Functionz=wx+bz = wx+bz=wx+b损失函数 Loss FunctionJ(w,b)=12(z−y)2J(w,b) = \frac{1}{2}(z-y)^2J(w,b)=21​(z−y)2z是预测值,y是样本标签值。求w的梯度我们用J的值作为基准,去求w对它的影响,也就是J对w的偏导数(链式求导):∂J(w...

深度学习基础之-1.4损失函数

损失函数损失就是所有样本的误差的总和,亦即: 损失=∑i=1m误差i损失 = \sum^m_{i=1}误差_i损失=i=1∑m​误差i​在黑盒子的例子中,我们如果说“某个样本的损失”是不对的,只能说“某个样本的误差”,如果我们把神经网络的参数调整到完全满足一个样本的输出误差为0,通常会令其它样本的误差变得更大,这样作为误差之和的损失函数值,就会变得更大。所以,我们通常会在根据某个样本的误差调整..

深度学习基础之-5.1非线性分类-二分类(神经元解决异或问题)

逻辑异或门样本1234x10011x20101y0110理想分类结果实践证明两层神经网络可以解决问题。我们可以模拟这个思路,用两层神经网络搭建如下模型:输入层两个特征值x1, x2 {(0, 0),(0, 1),(1,0),(1, 1)}隐层2x2的权重矩阵和2x1的偏移矩阵隐层由两个神经元构成输出层有一个神经元使...

深度学习基础之-2.6标签值归一化

提出问题在计算Loss时,会达到172.287,337.246这样大的数值,一般Loss都应该小于1.解决问题标签值也归一化公式如下:(1)ynew=y−yminymax−ymin=y−yminyrangey_{new} = \frac{y-y_{min}}{y_{max}-y_{min}} = \frac{y-y_{min}}{y_{range}} \tag{1}ynew​=ymax​−...

    共 11 条
  • 1
  • 2
  • 请选择