logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

用sklearn进行PCA降维——基于python语言

1. sklearn的PCA类在sklearn中,与PCA相关的类都在sklearn.decomposition包中,主要有:sklearn.decomposition.PCA最常用的PCA类,接下来会在2中详细讲解。KernelPCA类,主要用于非线性数据的降维,需要用到核技巧。因此在使用的时候需要选择合适的核函数并对核函数的参数进行调参。IncrementalPCA类,主要解决单机内存限制。有

#python#pycharm#sklearn +1
随机操作——python的random库和np.random

1python自带的random库随机生成一个n-m之间的整数:random.randint(1,10)随机生成一个浮点数:random.random(),什么参数都不需要给,随机生成一个0到1之间的浮点数;random.uniform(1.1,5.4),随机生成一个1.1到5.4之间的浮点数。从给定序列中 随机选择一个元素:random.choice([98,95,34,45,50]),随机从该

#python#pycharm#开发语言
wps打字超级卡顿,试了很多办法都没用?

你有遇到过wps打字超级卡顿,反应迟钝,而且其他文档和其他软件打字正常,只有独独这一个文档如此“可恨”的情况吗?如果你尝试了各种方法,比如把wps中的文件-选项-自动更正全部去掉勾,换输入法,重装wps,转文档格式,换键盘,重启电脑,给电脑一锤子,依旧这一个文档卡的要死的话,那么…请你看看文档中是不是插入了不少公式!!太多的公式会让文档变卡!!!别问我怎么知道的!!!希望大家少踩坑,在科研道路上一

#其他
特征相关性分析

有时候即便Pearson相关系数是 0,也不能断定这两个特征是独立的(有可能是非线性相关);如果距离相关系数是 0,那么这两个特征就是独立的。计算特征的方差,如果方差接近于0,也就是该特征的特征值之间基本上没有差异,说明这个特征对于样本的区分没什么用,可以剔除。当特征之间的关系接近线性相关时,Pearson相关系数仍然是不可替代的。如果协方差为正,说明两个特征正相关,协方差越大说明相关程度越高;如

神经网络(neural network)

从头开始学习深度学习的起源——神经网络,包括公式推导,图解,和一些典型神经网络模型,还在不断完善中,立志一篇总结自学的所有神经网络知识点。

#神经网络#机器学习#深度学习
海鸥优化算法(Seagull Optimization Algorithm,SOA)

这是一篇关于海鸥优化算法SOA的总结博客,包括算法思想,算法步骤,算法应用(Python求解函数最值),算法进阶等,持续更新ing。

#算法
麻雀搜索算法(Sparrow Search Algorithm,SSA)

这是一篇麻雀搜索算法总结博客,包括算法思想,算法步骤,Python代码实现,算法改进等,会不断更新。

#算法
用sklearn进行PCA降维——基于python语言

1. sklearn的PCA类在sklearn中,与PCA相关的类都在sklearn.decomposition包中,主要有:sklearn.decomposition.PCA最常用的PCA类,接下来会在2中详细讲解。KernelPCA类,主要用于非线性数据的降维,需要用到核技巧。因此在使用的时候需要选择合适的核函数并对核函数的参数进行调参。IncrementalPCA类,主要解决单机内存限制。有

#python#pycharm#sklearn +1
到底了