logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

redis运维

vm.overcommit_memory=1#如果这个参数没有修改,可能会引起redis参数丢失,参数很重要。net.core.somaxconn=10240#调大somaxconn数。调整参数后kill掉redis进程,重启redis就不会报以上警告了。systemctl status redis#查看服务。requirepass redispwd :设置redis密码。设置完该参数后,终端退出

文章图片
#redis#运维#数据库
三种梯度下降(全量梯度下降,随机梯度下降,小批量梯度下降)

三种梯度下降方式区别仅在于求梯度所用到的X数据集的样本数量不同!全量梯度下降(BGD)全部的样本都用上优点:每次都会朝着正确的方向进行,最终保证收敛到极值点缺点:每次学习实践过长,并且如果训练集很大以至于需要消耗大量的内存,不能进行在线参数模型更新。随机梯度下降(SGD)每次从训练集中选择一个样本进行学习优点:每次只选择一个样本学习,那么学习的速度非常快,并且可以在线更新模型。缺点:每次更新可能不

#机器学习#深度学习
SVM简介&sklearn中的应用

1.支持向量机SVM本身是做二元分类的算法,对感知机算法模型的扩展。2.在高维空间找到m个样本作为支持向量,支撑起一个超平面,这个超平面就是分界。3.逻辑回归本质也是线性的分类器,但是它可以做非线性的分类。4.在集成学习前...

#支持向量机#机器学习#算法
模型选择与调优(交叉验证&网格搜索)

交叉验证:拿到训练数据,分为训练集和验证集。将数据分成5分,其中一份作为验证集,经过5次测试,每次更换不同的验证集,得到5组模型的结果,最终取平均值,又称5折交叉验证。交叉验证的目的是让结果更具可信度。网格搜索:通常情况下,很多超参数是需要我们手动指定的,但是说动过程繁杂,所以需要需要对模型预设几种超参数组合,每组超参数都采用交叉验证进行评估。最后选出最优的参数组合建立模型。通常情况加网格搜索和交

#sklearn
线性回归最小二乘法计算步骤以及sklearn参数介绍

介绍线性回归是特征与标签之间建立一个关系来描绘特征和标签之间的关系。预测函数的本质就是我们构建的模型,而构造的函数核心就是找出模型的参数向量w最小二乘法(解析解)求解W通过已知的MSE损失函数,推导出来线性回归解析解求解公式先将损失函数换一个写法(表达形式),写成线性代数的表达形式。2. 对表达式进行推导梯度:某个点上切线的斜率叫做梯度(对某个驻点求一阶导就是切线的斜率)(不管是全局最优解还是局部

#机器学习
深度学习之神经网络

神经网络有监督的算法。神经网络算法既能做回归又能做分类。我们说人工智能做的就是拟人,神经网络就做的最佳的拟人。神经元神经网络是由很多神经元组成。神经元的每个输入是机器学习中的每个特征维度X,每个连接是权重W,将特征维度和权重相乘再相加汇总,经过一个非线性变换(函数变换)后的结果,就是一个神经元的输出。也是下层神经元的输入。也就是说对于一个神经元,有可能就是一个线性回归,也有可能就是一个逻辑回归,这

#深度学习
jieba&hanlp(分词、命名实体识别、词性标注)

jieba分词:按照字序列的一定顺序重新组合作用:帮助人更好的理解文字的意思jieba通常有三种用法:精确模式, 全模式, 搜索引擎模式import jieba# jieba.cutl如果不给参数,默认是精确模式content = "工信处女干事每月经过下属科室都要亲口交代24口交换机等技术性器件的安装工作"# jieba.cut(content, cut_all=False)# 返回一个生成器对

#python
机器学习文本特征提取

1.特征工程直接影响模型预测结果。python用sklearn库做特征工程两种文本特征抽取方法(Count, tf-idf)(1)特征抽取API(统计单词次数)sklearn.feature_extractionpython调用sklearn.feature_extraction 的DictVectorizer实现字典特征抽取# 字典特征抽取def dictvec():# 特征数据是字符串的话不能

#sklearn
卷积神经网络介绍&CNN架构

基本介绍:CNN里面最重要的构建单元就是卷积层。卷积层是局部连接,卷积是参数共享(一个卷积核去扫描整个图像)经过每层卷积层得到的结果我们叫做Feature map(特征图)。神经元在第一个卷积层不是连接输入图片的每个像素,知识链接他们感受野的像素,以此类推第二个卷积层的每一个神经元仅连接位于第一个卷积层的小方块的神经元。图像维介绍度:一个图像有三个维度(h,w,c)== (高,宽 ,通道),那么,

#深度学习
拉格朗日函数-带约束条件的优化问题如何去做?

1.我们已知SVM损失函数是带有约束条件的损失函数,对于无约束条件的损失函数求最小我们知道可以对x求导等于0求得x等于多少时y最小,但是如果我们给定一个约束条件,那么下相应的结果也会改变。2.对于SVM带有约束条件的损失函数,我们如何求W?用拉格朗日函数解决带有约束条件的最优化问题。我们要求一个函数的最优解,求这个函数最小的时候所对应的x是何值,这个函数有带有两个约束条件,,,只要问题可以写成这种

#支持向量机#机器学习#人工智能
    共 32 条
  • 1
  • 2
  • 3
  • 4
  • 请选择