logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

机器学习基础(五)——线性回归/岭回归/lasso回归

线性回归的本质就是:y=wTx+by = w^Tx+by=wTx+b求解:wTw^TwT(wT,b)(w^T,b)(wT,b)是系数(coefficient),xxx是特征值,yyy是目标值(label)。目的是找到最小损失对应的W:通常有两种方法,一种是正规方程,一种是梯度下降。(1)正规方程:w=(XTX)−1XTyw = (X^TX)^{-1}X^Tyw=(XTX)−1XTy(2)梯度下降:

文章图片
#机器学习#线性回归
机器学习基础(六)——逻辑回归Logistic Regression

逻辑回归是用来做二分类任务的,输出为:hθ(x)=g(θTx)=11+e−θTxh_\theta(x)=g(\theta^Tx)=\frac{1}{1+e{-\theta^Tx}}hθ​(x)=g(θTx)=1+e−θTx1​g(z)=11+e−zg(z)=\frac1{1+e^{-z}}g(z)=1+e−z1​其中,zzz是线性回归的结果。cost(hθ(x),y)={−log(hθ(x))y=

文章图片
#机器学习#逻辑回归#python
机器学习基础(六)——逻辑回归Logistic Regression

逻辑回归是用来做二分类任务的,输出为:hθ(x)=g(θTx)=11+e−θTxh_\theta(x)=g(\theta^Tx)=\frac{1}{1+e{-\theta^Tx}}hθ​(x)=g(θTx)=1+e−θTx1​g(z)=11+e−zg(z)=\frac1{1+e^{-z}}g(z)=1+e−z1​其中,zzz是线性回归的结果。cost(hθ(x),y)={−log(hθ(x))y=

文章图片
#机器学习#逻辑回归#python
机器学习基础(四)——决策树与随机森林

一、知识概要(一)决策树思想的来源非常朴素,程序设计中的条件分支结构就是if-then结构,最早的决策树就是利用这类结构分割数据的一种分类学习方法。信息熵:H=−(p1logp1+p2logp2+...p3logp3) H = -(p_1logp_1+p_2logp_2+...p_3logp_3)H=−(p1​logp1​+p2​logp2​+...p3​logp3​)H称之为信息熵,单位为比特。

文章图片
#决策树#机器学习#随机森林
机器学习基础(二)——训练集和测试集的划分

注意返回值:训练集 trainx_train, y_train测试集testx_test, y_test以上展示了两种不同类型的数据集,一种target为离散型(类别),一种为连续型(价格)。fit( ): Method calculates the parameters μ and σ and saves them as internal objects.可以理解为在对数据集进行转换操作之前,对

文章图片
#机器学习#python#人工智能
到底了