logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

吴恩达机器学习编程作业ex7 Part2 PCA主成分分析

一、程序及函数1.引导脚本ex7_pca.m%% Machine Learning Online Class%Exercise 7 | Principle Component Analysis and K-Means Clustering%%Instructions%------------------------------------------------------------%%This

#机器学习
xducs机器学习复习笔记

西电计科大数据方向机器学习课程复习笔记

#人工智能#机器学习#经验分享
Python selenium自动化刷问卷+绕过智能验证

  学校思政实践要收集1500份问卷,待在家里无聊就简单写了个用selenium模块实现的自动填写问卷xing问卷的小程序。  基本思路很简单:  1.先打开问卷的网址,按F12进开发者模式分析页面HTML,找到题目的选项按钮对应的HTML代码(例如:Q1的四个选项按钮都在a标签内,且rel属性值分别为q1_1,q1_2,q1_3,q1_4);  2.在py中用slenium的find_eleme

#python#selenium#爬虫 +1
微原实验一 汇编语言编程实验

实验内容1. 将指定数据区的字符串数据以ASCII码形式显示在屏幕上,并通过DOS功能调用完成必要提示信息的显示。2. 在屏幕上显示自己的学号姓名信息。3. 循环从键盘读入字符并回显在屏幕上,然后显示出对应字符的ASCII码,直到输入”Q”或“q”时结束。4. 自主设计输入显示信息,完成编程与调试,演示实验结果。流程图实验源码data segmentstringdb'Name:I❥XDU; ID:

Logistic Regression 参数更新公式推导

逻辑回归(Logistic Regression)是一种用于解决二分类(0 | 1)问题的机器学习方法,用于估计某事件发生的可能性。比如某用户购买某商品的可能性,某病人患有某种疾病的可能性,以及某广告被用户点击的可能性等。那么逻辑回归与线性回归是什么关系呢?逻辑回归与线性回归都是一种广义线性模型。逻辑回归假设因变量 y 服从伯努利分布,而线性回归假设因变量 y 服从高斯分布。 因此与线性回归有很多

#概率论#机器学习#人工智能
吴恩达机器学习中BP神经网络算法公式的详细推导

  Andrew Ng在他的机器学习课程中讲述bp神经网络时,并没有深究这算法背后的推导过程,只是给了我们一个大体的执行步骤,实现了这个算法但却不知道这个算法背后的原理是件很痛苦的事。在看了知乎、csdn、简书后发现有很多人采用矩阵求偏导之类的推导步骤。诚然,这么干可以使公式变得很紧凑,在编程时也能有效减少代码行数,提高运行效率,但是矩阵形式的推导有两个小小的不足:  1. 矩阵、向量的求导、求偏

#神经网络#机器学习
两步解决conda安装pytorch时下载速度慢or超时的问题

1.为conda配置清华源打开cmd输入以下命令:conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/conda c

#pytorch#python
Matlab实现sift特征检测+图像拼接

Matlab实现sift特征检测+图像拼接共有12个m文件,其中main为主程序,点击运行即可。一、部分代码示例close all;clear;clc;im1=imread('test3.png');im2=imread('test4.png');gray1=img2gray(im1);gray2=img2gray(im2);[des1,loc1]=sift(gray1);[des2,loc2]=

#matlab#计算机视觉
Logistic Regression 参数更新公式推导

逻辑回归(Logistic Regression)是一种用于解决二分类(0 | 1)问题的机器学习方法,用于估计某事件发生的可能性。比如某用户购买某商品的可能性,某病人患有某种疾病的可能性,以及某广告被用户点击的可能性等。那么逻辑回归与线性回归是什么关系呢?逻辑回归与线性回归都是一种广义线性模型。逻辑回归假设因变量 y 服从伯努利分布,而线性回归假设因变量 y 服从高斯分布。 因此与线性回归有很多

#概率论#机器学习#人工智能
多媒体数据处理实验4:LSH索引

对于本实验的距离计算而言,我测试了(1) 使用朴素的平方再开根求距离,(2) 使用np.linalg.norm(x - y)求距离,(3) 使用numba+平方再开根求距离,(4) 使用numba+np.linalg.norm求距离这四种求距离的方法,并且比较了它们求解两点距离的速度,发现使用np.linalg.norm比原始方法快30%,而。在corel数据集上实现LSH(局部敏感哈希)索引,并

文章图片
#算法#机器学习
    共 38 条
  • 1
  • 2
  • 3
  • 4
  • 请选择