
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
思维导图:14.1试写出分裂聚类算法,自上而下地对数据进行聚类,并给出其算法复杂度。i. 计算n个样本两两之间的距离,并将所有样本看作一个类,将样本间最大距离作为类直径;ii. 对于类直径最大的类,将其中相距最远,也就是距离为类直径的两个样本分成两个新类,该类其他样本就近(相对于那两个选中的样本)归于两个类之一;iii. 如果类别个数达到停止条件(预设的分类书)则停止,否则回到ii.步骤。模型复杂

代码主要参考《python机器学习及实践》一书分类学习Logistics 回归 和 SGD分类器模型import pandas as pdimport numpy as npcolumn_names = ['Sample code number', 'Clump Thickness', 'Uniformity of Cell Size','Uniformity of Cell Shape', 'M
支持向量机(Support Vector Machine,SVM)的主要目的就是在特征空间中找到距离正反例最远的分离超平面,由于是“最远”因此与上一章感知机里初值敏感,由误分类点修正最后得到的“初值敏感”的超平面不同,对于线性可分的(linearly separable)数据集,SVM确定的分离超平面是唯一的,超平面上的点可以用“平面”方程表示:wTx+b=0\boldsymbol{w}^{\ma

习题8.1import numpy as npdata_array = np.array([[0, 1, 3],[0, 3, 1],[1, 2, 3],[1, 1, 3],[1, 2, 3],[0, 1, 2],[

01aimport numpy as npimport src.util as utildef calc_grad(X, Y, theta):"""Compute the gradient of the loss with respect to theta."""m, n = X.shapemargins = Y * X.dot(theta)probs = 1. / (1 + np.exp(mar

10.1import numpy as npfrom collections import CounterA = np.array([[0.5, 0.2, 0.3],[0.3, 0.5, 0.2],[0.2, 0.3, 0.5]])B = np.array([[0.5, 0.5],[0.4, 0.6],[0.7, 0.3]])pi = np.array([[0.2, 0..

15.1试求矩阵A=[120202]A=\left[\begin{array}{lll}1 & 2 & 0 \\ 2 & 0 & 2\end{array}\right]A=[122002]的奇异值分解。手算了一下结果,U=15[122−1],Σ=[300020],VT=15[53234302−1−212]U = \frac{1}{\sqrt{5}}\left[

16.1对以下样本数据进行主成分分析:X=[233457245568]X = \left[\begin{array}{llllll}2 & 3 & 3 & 4 & 5 & 7 \\ 2 & 4 & 5 & 5 & 6 & 8\end{array}\right]X=[223435455678]由于手解数据不是

思维导图:假设方阵A是随机矩阵,即其每个元素非负,每列元素之和为1,证明AkA^{k}Ak仍然是随机矩阵,其中kkk是自然数。证明:将AAA左乘一个维度匹配的全1行向量1⃗\vec{1}1,由于AAA的每列和为1,很容易得到:1⃗A=1⃗\vec{1}A=\vec{1}1A=1对上式左右两边同时右乘AAA:1⃗AA=1⃗A=1⃗\vec{1}AA=\vec{1}A=\vec{1}1AA=1A=1继

思维导图:19.1用蒙特卡罗积分法求:∫−∞∞x2exp(−x22)dx\int_{-\infty}^{\infty} x^{2} \exp \left(-\frac{x^{2}}{2}\right) d x∫−∞∞x2exp(−2x2)dx首先将被积函数分解为分布函数与待求期望的函数的乘积:KaTeX parse error: No such environment: align at p
