
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
从一下四个角度分析:一、异常值分析:1.连续异常值:例如平均收入,一个超级土豪可能拉高一部分人的工资(舍弃或者取边界值代替)2.离散异常值:...
首先有三部分代码:第一部分是绘制地图代码,第二部分是Q-Learning的代码,第三部分是运行代码地图如下:黄色圆形 :机器人红色方形 :炸弹[reward = -1]绿色方形 :宝藏[reward = +1]其他方格 :平地[reward = 0]代码如下(env.py):# -*- coding: UTF-8 -...
(有关公式、基本理论等大量内容摘自《动手学深度学习》(TF2.0版))什么是softmax回归?前面学的线性回归最后结果为预测的连续值,而softmax回归更适合预测离散值。这句话可能不太理解。先说一下softmax的定义:它把一些输入映射为0-1之间的实数,并且归一化保证和为1,因此多分类的概率之和也刚好为1。这些映射的实数的个数是认为设定的。例如我们要识别数字图片,则0-9的概率是我们想要知道
学习视频来源为b站动手学深度学习系列视频:https://space.bilibili.com/209599371/channel/detail?cid=23541由于上述视频为MXNet/Gluon框架编写,所以代码部分参考网站为:https://trickygo.github.io/Dive-into-DL-TensorFlow2.0/#/本文主要是学习该系列视频所整理笔记,可能很多内容直接原
学习视频来源为b站动手学深度学习系列视频:https://space.bilibili.com/209599371/channel/detail?cid=23541由于上述视频为MXNet/Gluon框架编写,所以代码部分参考网站为:https://trickygo.github.io/Dive-into-DL-TensorFlow2.0/#/本文主要是学习该系列视频所整理笔记,可能很多内容直接原
卷积神经网络CNN的结构一般包含这几个层:输入层:用于数据的输入卷积层:使用卷积核进行特征提取和特征映射激励层:由于卷积也是一种线性运算,因此需要增加非线性映射池化层:进行下采样,对特征图稀疏处理,减少数据运算量。全连接层:通常在CNN的尾部进行重新拟合,减少特征信息的损失输出层:用于输出结果归一化层(Batch Normalization):在CNN中对特征的归一化...
本文将会从实际的训练过程来依次讲解,用到哪些知识点就将~BP神经网络是一种按误差反向传播(简称误差反传)训练的多层前馈网络,其算法称为BP算法,它的基本思想是梯度下降法,利用梯度搜索技术,以期使网络的实际输出值和期望输出值的误差均方差为最小。基本BP算法包括信号的前向传播和误差的反向传播两个过程。即计算误差输出时按从输入到输出的方向进行,而调整权值和阈值则从输出到输入的方向进行。正向传播...
也叫f检验。例:SST:总变差平方和SSM:平均平方和SSE:残差平方和检车统计量F:做假设检验【F满足自由度(m-1,n-m)的F分布】计算后:所以可以拒绝原假设。...
分为三种情况:正相关、负相关、不相关1.正相关:相关系数越大、越接近1,说明:正向同步,即都变大或者都变小。2.负相关:相关系数越小、越接近-1,说明:反向同步,即一个变大另一个变小。3.不相关:相关系数趋向0,则认为没相关性。用的有两种相关系数:1.Pearson相关系数:...
首先,来进行异常值分析(注意异常值是查看各种单属性的各种数值后得出的结论),然后进行分组比较、切片比较、自定义比较。这些比较也是用来更好的观察数据的。import pandas as pdimport scipy.stats as ssimport numpy as npdf=pd.read_csv("/Users/ren/PycharmProjects/untitled7/data/...







