
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
埃拉托斯特尼筛法先用2去筛,即把2留下,把2的倍数剔除掉;再用下一个素数,也就是3筛,把3留下,把3的倍数剔除掉;接下去用下一个素数5筛,把5留下,把5的倍数剔除掉;不断重复下去…import numpy as npa= np.arange(1, 101)n_max = int(np.sqrt(len(a)))is_prime = np.ones(len(a),dtype=bool) #创建 10
本节内容:首先是要导入数据,看数据有多少个样本,有多少个特征标签,对其进行模型训练,用线性回归的方式对80%的训练集进行训练,发现训练的score比较低,优化为多项式模型,画学习曲线判断哪个多项式最符合,然后就训练出房价。导入模块%matplotlib inlineimport matplotlib.pyplot as pltimport numpy as np导入数据并且看有多少样本from s
在李宏毅老师的视频中,并没有一开始就讲解什么是GAN,他先引入一个问题,为什么会有生成式对抗网络呢?他采用了一个小游戏进行介绍。游戏说明:一个小精灵可以从一个出发点出发到任意画面的位置去,我们根据小精灵的到达位置去训练一个network模型,从而预测到小精灵的位置。然而,出现了一个很离谱的画面:小精灵在转弯的时候居然分裂成了两个,还带上了虚影(??这是什么离谱位置,转弯不成,直接分裂人物??)为什
DAY3:课程3.1矩阵的定义(matrix)课程3.2矩阵的加减乘除法则课程3.3矩阵与矩阵相乘(多×单)课程3.4课程3.5矩阵的特性课程3.6逆矩阵 - inverse课程3.7转置矩阵课程3.1矩阵的定义(matrix)矩阵另一种说法可以称其为二维数组矩阵的内部规定:字符含义(内部规定)大写(ABC)矩阵小写(abc)向量矩阵的写法:矩阵内部数字的表示:矩阵的特定维度表示:课程3.2矩阵的

文章目录一、常见的三种网络结构二、激活函数(1)S型激活函数logistic函数和Tanh函数:hard-logistic函数和hard-Tanh函数:(2)ReLU函数带泄露的ReLU【leaky ReLU】带参数的ReLU【Parametric ReLU或者PReLU】指数线性单元【ELU】ReLU函数的平滑版本【SoftPlus】四种函数的图像(3)Swish函数(4)GELU函数(5)Ma
过拟合与欠拟合过拟合:对已有数据拟合的非常好,但是对新数据拟合很差欠拟合:对已有数据和新数据拟合都不好1、创建0到1中20个随机点,带入y中的表达式%matplotlib inlineimport matplotlib.pyplot as pltimport numpy as npn_dots = 20x = np.linspace(0, 1, n_dots)# [0, 1] 之间创建 20 个点
矩形转换正方形image保存的数据是个啥设置新图片的参数以及大小思路:读取文件,找到需要修改的图片,变成规定的格式,保存在文件夹中,结束由于我学的知识有限,目前只对这个代码进行理解,粘贴复制修改地址,就能使用import cv2import osfrom PIL import Image# 读取函数,用来读取文件夹中的所有函数,输入参数是文件名def read_directory(director

本章看完以后的感受:1、我们先对数据进行加载,由于确定了数据是没有问题的,所以不用对数据进行清洗2、然后确定每行每列,找到我们需要的目标值,也就是target,在本书中的target为0或者13、找到目标值以后,将目标值与非目标值分离,再将数据按照比例分为测试集和训练集。4、选择的是knn的三种模型,一种是原基础的knn,一种是带有权重的knn,还有一种是确定了半径的knn(上一篇中的knn的俩个
博客由来写在前面:由于计组老师要求我们课后查一下进制转换,因为底层的都是01二进制进行编码的,故而想到用python进行传统的进制转换手推理解,配上python本身的函数进行答案对比,故有此篇博客。每一个进制之间转换包含俩种算法,一种是直接调用python的进制转换包,一种是用人工计算进制转换的思路写的(其中2进制转为16进制,是采用2进制局部转为10进制再转为16进制的方法)