logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Pandas数据分析(中)|一文入门pandas数据处理

本文包括以下几部分数据筛选数据统计空值/NaN处理字符类型处理时间序列类型处理数据筛选按照筛选方式的不同,可以将数据筛选分为以下两种:两者的区别在于前者返回满足条件的数据,后者将不满足条件的以NaN值填充。使用表达式/布尔值筛选,即直接在“下标”中写出过滤条件,返回满足条件的数据。使用where()方法筛选数据,通过DataFrame.where(表达式) 可以筛选出满足条件的数据,同时不满足表达

文章图片
#数据分析#python#pandas
scikit-learn机器学习--特征处理

参考并推荐:菜菜的sklearn课堂:http://edu.cda.cn/course/982目录1.归一化:preprocessing.MinMaxScaler1.1实战部分:1.2实战部分:numpy实现归一化2.标准化 preprocessing.StandardScaler2.1实战部分3.汇总4.缺失值处理4.1实战部分4.2实战部分:panda...

#sklearn#scikit-learn
机器学习实战之K近邻(KNN)-python/sklearn实现

目录简单理论介绍kNN算法之约会网站配对(Python)scikit-learn实现简单理论介绍K最近邻(k-Nearest Neighbor,KNN)分类算法应该是最简单的机器学习算法了。它采用测量不同特征值之间的距离方法进行分类。它的思想很简单:与它附近的k个样本比较,与它最相似(即特征空间中最邻近)的这K个样本中,大多数属于某一个类别,则该样本就属于这个类别。对于两个...

#python#sklearn
【精简推导】线性回归、岭回归、Lasso回归(最小二乘法)

线性回归岭回归(Ridge)Lasso回归线性回归线性回归模型方程形式:矩阵形式:线性回归的任务就是要构造一个预测函数来映射,输入的特征矩阵和标签的线性关系。这个预测函数的本质就是我们需要构建的模型,而构造预测函数的核心就是找出模型的参数向量 。损失函数:是样本i的真实标签,是预测标签。从损失函数可以看出其实这就是L2范式的平方。L2范...

#线性回归#最小二乘法
机器学习实战之朴素贝叶斯--python/scikit-learn实现

目录理论基础知识基本思想贝叶斯模型手动计算实例一:实战项目--屏蔽社区留言板的侮辱性言论Python版本Scikit-learn版本One more thing1.连续特征的处理方式2.零概率问题--拉普拉斯平滑理论基础知识贝叶斯与大多数机器学习算法不同,如:决策树,逻辑回归,支持向量机等都是判别方法,也就是直接学习出特征输出Y和特征X之间的...

#scikit-learn
深度之眼【Pytorch】--自动求导与逻辑回归(pytorch 与 keras实现)

本文主要为深度之眼pytorch训练营二期学习笔记,详细课程内容移步:深度之眼https://ai.deepshare.net/index目录求导逻辑回归逻辑回归-Pytorch实现Keras实现求导逻辑回归逻辑回归-Pytorch实现import torchimport torch.nn as nnimpor...

#逻辑回归
链式法则的求导证明(复合函数求导)

本文给出两种证明方式,第一种高等数学(复杂),第二种维基百科(简单)一:同济大学高等数学教材给的证明:二:维基百科给的证明以下给出一个简单的证明:设函数和, 其中 x 为自变量,f(g(x))在个g(x)处可导 ,g(x)在x出可导。根据可导的定义得:其中当时(这里的就是高等数学书上说的增量 Δx)同理:其中时现...

为什么用-Relu

ReLU起源于神经科学的研究:2001年,Dayan、Abott从生物学角度模拟出了脑神经元接受信号更精确的激活模型,如下图:Attwell等神经科学家通过研究大脑的能量消耗过程,推测神经元的工作方式具有稀疏性和分布性;因此Relu也有了单侧抑制性,让神经网络也具备稀疏性。(具备稀疏性计算都不要那么多了,很舒服很轻松,同时稀疏性也能够突显重要特征。)相比于其它激活函数来说,Re...

到底了