
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
题目解题步骤:既然弱分类器是决策树,那就先用决策树分类吧。常见的决策树算法有ID3,C4.5和CART树,这里我选用CART树。1,确定权值 因为是第一次计算,所以每个权值初始化为0.1,即W1 = (w11, w12, ..., w110) = (0.1,0.1, ..., 0.1)2,确定弱分类器: 用A, B, C表示“
本总结是是个人为防止遗忘而作,不得转载和商用。 层次聚类: 层次聚类的思想有两种:凝聚的层次聚类、分裂的层次聚类。 以有A, B, C, D,E, F, G这7个样本为例。凝聚的层次聚类1, 将每个对象作为一个簇,这时就有7个簇。2, 自底向上合并接近的簇,假设合并成了三个簇:AB,CDE,FG。3, 重复第二步直到数量达到规定
关于如何求一个矩阵A的特征向量X和特征值λ,在上学时我们通常使用如下方法: AX =λX =λIX (I:单位阵) => |A -λI| = 0 => 求出λ =>代入AX =λX求出X 但在实际应用中这样没啥实际价值
前提说明:为了方便查阅,我将整个凸优化的内容分成了很多部分,因为后面的部分用到了前面的知识,所以,如果你的目的是查看后面的内容但对前面的某个知识点不甚了解的话可以根据标题查看前面的部分。凸集 既然是讲解凸优化,那不了解凸集怎么能行,不过在此之前先了解个和凸集有“一点点”不同的仿射集。 仿射集:若通过集合C中任意两个不同点的直线仍在集合C内,则称集
前提说明:为了方便查阅,我将整个凸优化的内容分成了很多部分,因为后面的部分用到了前面的知识,所以,如果你的目的是查看后面的内容但对前面的某个知识点不甚了解的话可以根据标题查看前面的部分。Jensen不等式 还记得凸函数的定义吗? 也就是这个公式:f(θx+ (1-θ)y) ≤θf(x) + (1-θ)f(y) 用大白话说的话就是:函数
介绍 CART是在给定输入变量X条件下,输出随机变量Y的条件概率分布的学习方法。 CART假设决策树是二叉树,内部节点特征取值为“是”或“否”,左分支是取值为“是”的分支,右分支是取值为“否”的分支。这样决策树等价于递归的二分每个特征(即使数据有多个取值,也把数据分成两部分) CART算法由以下两步组成:
平时都是对一个数求导,那对向量求导呢?看下面的例子: 假设有下面这样的矩阵A和向量X 我们很容易求出 现在另 y = A·X,那矩阵y对向量x求偏导的结果是多少? 我们来分析一下,既然是矩阵y对向量x求偏导,那就的让矩阵y中的每一个
概念:若n阶矩阵A满足ATA=I,则A为正交矩阵,简称正交阵。 ATA=I解释的话就是: “A的第i行”*“A的第i列”= 1 “A的第i行”*“A的非第i列”= 0。 其他: 1,A是正交阵,x为向量,则A·x称作正交变换;
声明: 1,本篇为个人对《2012.李航.统计学习方法.pdf》的学习总结,不得用作商用,欢迎转载,但请注明出处(即:本帖地址)。 2,由于本人在学习初始时有很多数学知识都已忘记,所以为了弄懂其中的内容查阅了很多资料,所以里面应该会有引用其他帖子的小部分内容,如果原作者看到可以私信我,我会将您的帖子的地址付到下面。 3,如果有内容错误或不
本总结是是个人为防止遗忘而作,不得转载和商用。 说明:此篇是作者对“隐马尔可夫模型”的第二次总结,因此可以算作对上次总结的查漏补缺以及更进一步的理解,所以很多在第一次总结中已经整理过的内容在本篇中将不再重复,如果你看的有些吃力,那建议你看下我的第一次总结: http://blog.csdn.net/xueyingxue001/article/details/514







