
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
pycharm 打开Remote Host小窗口使用pycharm时,总会手滑关掉一些小窗口,比如Remote Host。关了之后还找不到,今天特别记录一下以免忘记。打开方式Tools> Deployment > Browse Remote Host
解决opencv打开摄像头慢,启动时间长最近发现一个神奇的问题。opencv打开摄像头慢,启动时间长,粗略统计起码超过1分钟。opencv-python==3.4.3 慢opencv-python==3.4.0.12 快解决办法pip installopencv-python==3.4.0.12重装不局限于我指出的版本,总之慢就换OpenCV版本欢迎大家交流学习,任何问题都可以留言...
SVM支持向量机又称最大间距分类器。可以解决“线性可分”和“线性不可分”问题SVM的“三宝”:最大间距、对偶性和核函数。算法推导:入上图所示图中红线为决策边界。两条平行黑线共同组成最大间距。*“支撑向量”*为两条平行黑线上的点。决策边界公式θTx+b=0 \theta^Tx + b = 0θTx+b=0**“支撑向量”到决策边界的距离公式 **d=∣yi∣∣∣θ∣∣ d = \frac{|y_{i
K-Means算法K-Means聚类算法是非监督学习方法。对于样本数据,按样本之间的距离大小,将样本划分为K个簇。让簇内的点之间距离尽可能的小,同时让簇之间的距离尽可能的大。簇划分为(C1,C2,C3,…,Ck)(C_1, C_2, C_3, …, C_k)(C1,C2,C3,…,Ck)目标函数,最小化平方误差E=∑i=1k∑x∈Ci∣∣x−μi∣∣22 E = \sum_{i=1} ^
PCA算法PCA算法:主成分分析是一种非监督的降维方法,降维可以做特征筛选,降低训练复杂度。在信号学里,信噪比越大,说明数据质量越好。其中信号有较大的方差,噪声有较小的方差。PCA正好可以借鉴信噪比这一理论,让数据在主轴上的投影方差最大。方差公式V(x)=1m∑i=1m(xi−x‾)2 V(x) = \frac{1}{m} \sum_{i=1} ^ m (x_i - \overline{x})^2
决策树可用于分类和预测。常见的决策树算法有ID3、C4.5和CART。信息熵:不确定性的度量,事物越混乱就越不确定,信息熵越小越事物越确定。信息增益:信息增益越大,事物的不确定性下降的越快,也就是说事物越趋近于确定,信息增益越大不确定性下降越快。信息增益率:信息增益率越大,事物越确定。基尼系数:不确定性的度量,事物越混乱就越不确定,基尼系数越小越事物越确定。信息熵公式Entropy(D)=−∑i=
机器学习【KNN】(入门必备)KNN的全称是K Nearest Neighbors。顾名思义,k个最接近的邻居。可以用于分类,也可以用于回归。如上图所示。中心点为测试数据,其他五边形和五角星为训练数据。k=3,测试数据属于五边形;k=5,测试数据属于五角星。距离公式欧式距离d(x,y)=(x1−y1)2+(x2−y2)2+⋅⋅⋅+(xn−yn)2=∑i=1n(xi−yi)2(2.1) d(x, y
解决ImportError: numpy.core.umath failed to import报错信息ImportError: numpy.core.umath failed to import解决办法pip install numpy==1.19.0欢迎大家交流学习,任何问题都可以留言
error: lto-wrapper failed collect2: error: ld returned 1 exit status报错信息error: lto-wrapper failed collect2: error: ld returned 1 exit status解决办法查看当前系统安装所有版本的gccls /usr/bin/gcc* -l下载gcc-4.8su
npm ERR! code ENOLOCAL npm ERR! Could not install from “” as it does not contain a package.json file. npm ERR! A complete log of this run can be found in: npm ERR!yarn安装执行操作npm i -g -yarn报错信息npm ERR!







