
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
python 股票技术分析库 Ta-lib(talib) 的安装方法
决策树简介决策树是一种基本的分类与回归方法,这里主要讨论用于分类的决策树。决策树模型是一种树形结构,在分类问题中表示基于特征对实例进行分类的过程。决策树的学习主要包括3个步骤:特征选择,决策树的生成,决策树的剪枝。决策树模型与学习决策树模型分类决策树是一种描述对实例分类的属性结构,决策树由节点和有向边组成,节点分为叶节点(leaf node)和内部节点(internal node),内部节点表示一
文章目录1. 统计学习方法是什么?1.1 举个例子说明1.2 为什么要假设数据是独立同分布的?2. 统计学习方法的三要素:模型、策略和算法2.1 模型2.1.1 常见的回归模型:2.1.2常见的二分类(一般只能用于二分类)模型:2.1.3常见的多分类(也可用于二分类)模型:2.2 策略2.2.1 损失函数、期望风险函数、经验风险函数、结构风险函数2.2.2常见的损失函数分类任务常用损失函数回归任务

安装torchtext导致torch版本自动更新,无法用gpu进行加速
凸函数:和高数上不一样,不是看形状,而是看定义f[(x1+x2)/2]<=[f(x1)+f(x2)]/2f[(x1+x2) /2] <=[f(x1)+f(x2)]/2f[(x1+x2)/2]<=[f(x1)+f(x2)]/2f(x)=x直线也是凸函数,但不严格严格凸函数f[(x1+x2)/2]<[f(x1)+f(x2)]/2f[(x1+x2) /2] < [f(x1)
文章目录1、函数f(x)f(x)f(x)在点x0x_0x0极限存在的充要条件2、函数f(x)f(x)f(x)在点x0x_0x0连续的充要条件3、函数f(x)f(x)f(x)在点x0x_0x0可微3.1一元函数可导的充要条件3.2多元函数偏导的定义4、函数f(x)f(x)f(x)在点x0x_0x0连续可微首先声明一下本篇博客的函数为n元函数,即x ∈Rn∈R^{n}∈Rn。1、函数f(x)f
文章目录1. sklearn.linear_model.Perceptron参数解释2. sklearn.linear_model.Perceptron属性解释3. sklearn.linear_model.Perceptron实战关于感知机算法的原理,数学推导,python手动实现可以查看本人的这篇文章1. sklearn.linear_model.Perceptron参数解释用于创建感知机模型
机器学习之感知机(perceptron)1.感知机模型介绍感知机是一个二分类的线性分类模型,二分类是指输出YYY的分类只有两个值,取+1和-1,线性分类是指模型将训练数据集用一个线性超平面(如果特征空间XXX⊆\sube⊆RnR^nRn,那么该线性超平面就是n-1维)。感知机模型属于判别模型,即通过输入的样本直接学习到fff(xxx),而没有学习到XXX 与YYY的联合分布函数FFF(XXX,YY
1. k-NN算法简介k近邻法是基本且简单的分类与回归方法,利用数据集对特征向量空间进行划分,可以进行多分类。如下图:三角形与矩形分别代表两类数据,标签已知。现要对新输入的为分类点(绿色)进行分类,k-NN的做法是寻找与该绿点相邻最近的k个点(k-NN算法的k的含义,图中的距离为欧式距离),然后通过多数表决的方式把绿点划分到这k个最近点出现频数最高的类。例如如果k取3,则绿点最近的3个点中频数最高
文章目录1. 统计学习方法是什么?1.1 举个例子说明1.2 为什么要假设数据是独立同分布的?2. 统计学习方法的三要素:模型、策略和算法2.1 模型2.1.1 常见的回归模型:2.1.2常见的二分类(一般只能用于二分类)模型:2.1.3常见的多分类(也可用于二分类)模型:2.2 策略2.2.1 损失函数、期望风险函数、经验风险函数、结构风险函数2.2.2常见的损失函数分类任务常用损失函数回归任务
