
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
一、程序及函数1.引导脚本ex7_pca.m%% Machine Learning Online Class%Exercise 7 | Principle Component Analysis and K-Means Clustering%%Instructions%------------------------------------------------------------%%This
西电计科大数据方向机器学习课程复习笔记
学校思政实践要收集1500份问卷,待在家里无聊就简单写了个用selenium模块实现的自动填写问卷xing问卷的小程序。 基本思路很简单: 1.先打开问卷的网址,按F12进开发者模式分析页面HTML,找到题目的选项按钮对应的HTML代码(例如:Q1的四个选项按钮都在a标签内,且rel属性值分别为q1_1,q1_2,q1_3,q1_4); 2.在py中用slenium的find_eleme
实验内容1. 将指定数据区的字符串数据以ASCII码形式显示在屏幕上,并通过DOS功能调用完成必要提示信息的显示。2. 在屏幕上显示自己的学号姓名信息。3. 循环从键盘读入字符并回显在屏幕上,然后显示出对应字符的ASCII码,直到输入”Q”或“q”时结束。4. 自主设计输入显示信息,完成编程与调试,演示实验结果。流程图实验源码data segmentstringdb'Name:I❥XDU; ID:
逻辑回归(Logistic Regression)是一种用于解决二分类(0 | 1)问题的机器学习方法,用于估计某事件发生的可能性。比如某用户购买某商品的可能性,某病人患有某种疾病的可能性,以及某广告被用户点击的可能性等。那么逻辑回归与线性回归是什么关系呢?逻辑回归与线性回归都是一种广义线性模型。逻辑回归假设因变量 y 服从伯努利分布,而线性回归假设因变量 y 服从高斯分布。 因此与线性回归有很多
Andrew Ng在他的机器学习课程中讲述bp神经网络时,并没有深究这算法背后的推导过程,只是给了我们一个大体的执行步骤,实现了这个算法但却不知道这个算法背后的原理是件很痛苦的事。在看了知乎、csdn、简书后发现有很多人采用矩阵求偏导之类的推导步骤。诚然,这么干可以使公式变得很紧凑,在编程时也能有效减少代码行数,提高运行效率,但是矩阵形式的推导有两个小小的不足: 1. 矩阵、向量的求导、求偏
1.为conda配置清华源打开cmd输入以下命令:conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/conda c
Matlab实现sift特征检测+图像拼接共有12个m文件,其中main为主程序,点击运行即可。一、部分代码示例close all;clear;clc;im1=imread('test3.png');im2=imread('test4.png');gray1=img2gray(im1);gray2=img2gray(im2);[des1,loc1]=sift(gray1);[des2,loc2]=
逻辑回归(Logistic Regression)是一种用于解决二分类(0 | 1)问题的机器学习方法,用于估计某事件发生的可能性。比如某用户购买某商品的可能性,某病人患有某种疾病的可能性,以及某广告被用户点击的可能性等。那么逻辑回归与线性回归是什么关系呢?逻辑回归与线性回归都是一种广义线性模型。逻辑回归假设因变量 y 服从伯努利分布,而线性回归假设因变量 y 服从高斯分布。 因此与线性回归有很多
对于本实验的距离计算而言,我测试了(1) 使用朴素的平方再开根求距离,(2) 使用np.linalg.norm(x - y)求距离,(3) 使用numba+平方再开根求距离,(4) 使用numba+np.linalg.norm求距离这四种求距离的方法,并且比较了它们求解两点距离的速度,发现使用np.linalg.norm比原始方法快30%,而。在corel数据集上实现LSH(局部敏感哈希)索引,并








