
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
并给出“每个Quarter一套Capstone题库”(更贴合招聘:推荐/风控/增长/搜索/多模态应用各一套)。下面每个Quarter都按“3硬课 + 1写作/研讨/实践”安排;你可按校内条件替换课程名,但。:每人每学期有 4–6 个 “late days”,用完后按天扣分。如果你愿意,我可以把上面每门课进一步展开成。你可以把它理解成“斯坦福式时间盒”。

实现bagging及随机森林(回归)数据预处理bagging 实现随机森林实现参考本文我们依然使用波士顿房价数据作为案例,进行分析。数据预处理# 从 sklearn.datasets 导入波士顿房价数据读取器。from sklearn.datasets import load_boston# 从读取房价数据存储在变量 boston 中。boston = load_boston()# 从sklear
无监督学习与监督学习不同,无监督学习是指对没有标签的数据进行学习,或者说对没有正确答案的数据进行学习,一个例子如下所示。我们希望我们的机器学习算法能够自动的将图中的数据分为左下和右上这两类。类似这种探寻数据内在结构,通过算法对无标签数据进行划分族群的算法称为聚类分析。比如我们在网上看新闻的时候我们会发现类似的新闻会被归为一类,例如体育,娱乐,经济,政治等等。我们知道成数十万以上的新闻是不可能有标签
正则化实例还是使用前面“比萨饼价格预测”的例子:(1)L1 范数正则化—— Lasso 模型在 4 次多项式特征上的拟合表现# 输入训练样本的特征以及目标值,分别存储在变量 X_train 与 y_train 之中X_train = [[6], [8], [10], [14], [18]]y_train = [[7], [9], [13], [17.5], [18]]# 从 sklearn.lin
k近邻回归与波士顿房价案例一、K 近邻(回归)理论(1)K 近邻回归原理(2)K 近邻加权法(3)算法流程(4)优缺点二、K 近邻(回归)具体案例操作参考文献:一、K 近邻(回归)理论(1)K 近邻回归原理K 近邻算法( K-Nearest Neighbor ,KNN )不仅可以用于分类,还可以用于回归。思路与前面的 KNN 分类器类似,通过找出一个样本的 k 个最近邻居,将这些邻居的属性的平均值
人工智能的三个小故事西洋棋1959年,美国前IBM员工塞缪尔(Arthur Samuel)开发了一个西洋棋游戏,这个西洋棋程序能够使得计算机自己跟自己下棋,然后根据下棋的经历来不断提升计算机自身的棋艺。由于计算机运行速度非常快,可以在一天的时间里能够下数千局棋,以目前的计算机计算速度甚至可以达到数万局棋或者更多,随着下棋局数的增加,计算机渐渐学会了如何下棋,才能提高获胜的概率。4年后神奇的事情发生
实现bagging及随机森林(回归)数据预处理bagging 实现随机森林实现参考本文我们依然使用波士顿房价数据作为案例,进行分析。数据预处理# 从 sklearn.datasets 导入波士顿房价数据读取器。from sklearn.datasets import load_boston# 从读取房价数据存储在变量 boston 中。boston = load_boston()# 从sklear
boosting集成学习boosting :训练过程为阶梯状,基模型按次序一一进行训练(实现上可以做到并行),基模型的训练集按照某种策略每次都进行一定的转化。对所有基模型预测的结果进行线性综合产生最终的预测结果。通俗来说,对于基模型1,我们使用训练集X0X_0X0,Y0Y_0Y0来训练,得到预测结果Y0^\hat{Y_0}Y0^,然后我们将Y0−Y0^Y_0-\hat{Y_0}Y0−Y0
无监督学习与监督学习不同,无监督学习是指对没有标签的数据进行学习,或者说对没有正确答案的数据进行学习,一个例子如下所示。我们希望我们的机器学习算法能够自动的将图中的数据分为左下和右上这两类。类似这种探寻数据内在结构,通过算法对无标签数据进行划分族群的算法称为聚类分析。比如我们在网上看新闻的时候我们会发现类似的新闻会被归为一类,例如体育,娱乐,经济,政治等等。我们知道成数十万以上的新闻是不可能有标签
k近邻回归与波士顿房价案例一、K 近邻(回归)理论(1)K 近邻回归原理(2)K 近邻加权法(3)算法流程(4)优缺点二、K 近邻(回归)具体案例操作参考文献:一、K 近邻(回归)理论(1)K 近邻回归原理K 近邻算法( K-Nearest Neighbor ,KNN )不仅可以用于分类,还可以用于回归。思路与前面的 KNN 分类器类似,通过找出一个样本的 k 个最近邻居,将这些邻居的属性的平均值







