
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本节的话我们开始讲解sklearn里面的实战:先看下代码:from sklearn.neural_network import MLPClassifierX = [[0, 0],[1, 1]]y = [0, 1]clf = MLPClassifier(solver='sgd', alpha=1e-5, activation='logistic',...
大白话5分钟带你走进人工智能-第二十节逻辑回归和Softmax多分类问题(5)上一节中,我们讲解了逻辑回归的优化,本节的话我们讲解逻辑回归做多分类问题以及传统的多分类问题,我们用什么手段解决。先看一个场景,假如我们现在的数据集有3个类别,我们想通过逻辑回归建模给它区分出来。但我们知道逻辑回归本质上是区分二分类的算法模型。难道没有解决办法了吗?...
大白话5分钟带你走进人工智能-第二十九节集成学习之随机森林随机方式 ,out of bag data及代码(2)上一节中我们讲解了随机森林的基本概念,本节的话我们讲解随机森林的随机方式,以及一些代码。目录1-随机森林随机方式2-out of baf data3-代码1-随机森林随机方式我们先来回顾下随机森林中都有哪些...
一、前述架构:问题:1、压缩会损失信息2、长度会影响准确率解决办法:Attention机制:聚焦模式“高分辨率”聚焦在图片的某个特定区域并以“低分辨率”,感知图像的周边区域的模式。通过大量实验证明,将attention机制应用在机器翻译,摘要生成,阅读理解等问题上,取得的成效显著。比如翻译:“”知识”只是聚焦前两个字。每个C取不同的概率和值:...
一、前述本文通过一个案例来讲解Q-Learning二、具体1、案例假设我们需要走到5房间。转变为如下图:先构造奖励,达到5,即能够走得5的action则说明奖励比较高设置成100,没有达到5说明奖励比较低,设置成0。Q-learning实现步骤:2、案例详解:第一步的Q(1,5):最开始的Q矩阵都是零矩阵,迭代完之后Q(1,5)是...
一、前述调优对于模型训练速度,准确率方面至关重要,所以本文对神经网络中的调优做一个总结。二、神经网络超参数调优1、适当调整隐藏层数对于许多问题,你可以开始只用一个隐藏层,就可以获得不错的结果,比如对于复杂的问题我们可以在隐藏层上使用足够多的神经元就行了, 很长一段时间人们满足了就没有去探索深度神经网络,但是深度神经网络有更高的参数效率,神经元个数可以指数倍减少,并且训练起来也更快...
一、前述怎么样对训练出来的模型进行评估是有一定指标的,本文就相关指标做一个总结。二、具体1、混淆矩阵混淆矩阵如图:第一个参数true,false是指预测的正确性。第二个参数true,postitives是指预测的结果。相关公式:检测正列的效果:检测负列的效果:公式解释:fp_rate:tp_rate:...
一、前述强化学习是学习一个最优策略(policy),可以让本体(agent)在特定环境(environment)中,根据当前的状态(state),做出行动(action),从而获得最大回报(G or return)。通俗点说:学习系统没有像很多其它形式的机器学习方法一样被告知应该做出什么行为,必须在尝试了之后才能发现哪些行为会导致奖励的最大化,当前的行为可能不仅仅会影响即时奖励,还会影响下...
第三节最大似然推导mse损失函数(深度解析最小二乘来源) 在第二节中,我们介绍了高斯分布的来源,以及其概率密度函数对应的参数的解释。本节的话,我们结合高斯分布从数学原理部分解释为什么损失函数是最小二乘。 我们再来回归下高斯分布的概率密度函数实际上是这个形式的:f(x)=1σ2πe−(x−u)22σ2f(x)=\frac{1}{\sigma ...
目录大白话5分钟带你走进人工智能-第一节开篇介绍以及线性回归简介篇大白话5分钟带你走进人工智能-第二节概率基础及高斯分布大白话5分钟带你走进人工智能-第三节最大似然推导m...







