
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
7.1.主成分分析对人脸图像降维1)题目:在这个练习中,你将运用主成分分析(PCA)来实现降维。首先,你将用一个二维的样本集来实验,从而对PCA如何运行的有一个直观的感受,然后再在一个更大的由5000个人脸图像组成的数据集上实现PCA。数据集链接: https://pan.baidu.com/s/1cEgQIvehUcLxZ0WVhxcPuQ 提取码: xejn2)知识点概括:降维(...
想在自己的Spyder上运行下XGBoost试试看效果,但是import xgboost就会提醒conda install -c anaconda py-xgboostProceed ([y]/n)? ypip install xgboost
6.1.SVM建立垃圾邮件分类器1)题目:如今,许多电子邮件服务提供垃圾邮件过滤器,能够将电子邮件精确地分类为垃圾邮件和非垃圾邮件。在本部分练习中,您将使用SVM构建自己的垃圾邮件过滤器。您将训练一个分类器来分类给定的电子邮件x是垃圾邮件(y = 1)还是非垃圾邮件(y = 0)。特别地,你需要将每封电子邮件转换成一个特征向量x∈Rnx\in R^nx∈Rn。本练习中包含的数据集是基于Sp...
GDBT是与Friedman等人的《Additive logistic regression: a statistical view of boosting》这篇文章有极大的联系,基本上可以说是由这篇文章发展而来的,但是由于GDBT自己有着很好的实践效果,因此对于学习集成学习来说读一读原本的论文也是很必要的。因此这篇博客主要是对GDBT的原论文进行精读和理解。《Greedy function a.
Adaboost是Yoav Freund和Robert E. Schapire在1995年的the Second European Conference on Computational Learning Theory首次提出(详见Proceedings of the Second European Conference on Computational Learning Theory, Barc
一个多月除了上课自习,就是在coursera和网易云课堂上学习吴恩达机器学习的课程,现在学完了,以下是一个多月来完成的作业目录,整理一下以便使用:1.0 单变量线性回归1.1 多变量线性回归2.0 Logistic 回归2.1 正则化的Logistic回归3.0 逻辑回归解决多元分类3.1 前馈神经网络4.0 神经网络反向传播(BP算法)5.0 偏差与方差6.0 支持向量机(SV...
在CS230的lecture 9中主要讲了深度强化学习(Deep Reinforcement Learning)大体上是如何实施的,以及一些应用场景。课后coursera上遗留的最后C5M3的课程及其编程作业,这一部分主要是讲序列模型中的集束搜索(Beam Search)、注意力机制(Attention)以及语音识别中触发词的检测。目录回顾知识点集束搜索(Beam Search)注意力机制(Att
一个多月除了上课自习,就是在coursera和网易云课堂上学习吴恩达机器学习的课程,现在学完了,以下是一个多月来完成的作业目录,整理一下以便使用:1.0 单变量线性回归1.1 多变量线性回归2.0 Logistic 回归2.1 正则化的Logistic回归3.0 逻辑回归解决多元分类3.1 前馈神经网络4.0 神经网络反向传播(BP算法)5.0 偏差与方差6.0 支持向量机(SV...







