logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【机器学习】(四)一些数据集:forge、wave、cancer、bosten、two-moons

forge数据集可以用于模拟二分类问题,数据集包含26个数据点和2个特征,两种输出。import mglearnimport matplotlib.pyplot as plt# 生成数据集X, y = mglearn.datasets.make_forge() # 输入,目标# 数据集绘图mglearn.discrete_scatter(X[:, 0], X[:, 1], y) # 第一个特征为x

#机器学习
【sklearn】菜菜的机器学习-决策树案例(分类树、回归树)

实例:分类树在合成数集上的表现实例:一维回归图像的绘制

#python#机器学习#jupyter
【机器学习】(二十)数据表示与特征工程:One-Hot编码(adult数据集),特征分箱,多项式回归,自动化特征选择

特征工程:如何找到最佳的数据表示。连续特征:由一系列浮点数组成的数组描述。分类特征/离散特征:以不连续的方式变化描述一件产品的属性。分类变量分类特征是一系列固定的可能取值(而不是一个范围),表示的是定性属性(而不是数量)。数据的输入特征,当这个特征是数据时,一系列计算公式才有意义。于是需要换一种方式来表示数据。One-Hot编码/N取一编码/虚拟变量通常将一个分类特征的k个可能取值编码为k-1个特

#机器学习
【深度学习】(一)感知机:与门、与或门、或门、异或门

感知机(perceptron)是具有输入和输出的算法。给定一个输入以后,将输出一个既定的值。类似于用编程实现数字逻辑中的电路。感知机将权重和偏置设定为参数。感知机会计算输入信号和权重的乘积,然后加上偏置,如果这个值大于0则输出1,否则输出0。b+w1x1+w2x2可以看作一位数组做得矩阵乘积[x1,x2]*[w1,w2]+b权重ω是控制输入信号的重要性的参数,偏置b是调整神经元被激活的容易程度(输

#深度学习#python#算法
【深度学习】(二)神经网络:激活函数、MNIST

感知机需要人为设定符合预期输入输出的权重。神经网络可以自动地从数据中心学习到合适的参数。质朴感知机:指单层网络,激活函数使用了阶跃函数的模型。多层感知机:指神经网络,使用平滑的激活函数的多层网络。激活函数激活函数是将输入信号的总和转换为输出信号的函数。y = h(∑xi*wi)阶跃函数阶跃函数以阈值为界,一旦输入超过阈值,就切换输出。感知机中流动的是0或1的二元信号。import numpy as

#python#深度学习
【深度学习】(一)感知机:与门、与或门、或门、异或门

感知机(perceptron)是具有输入和输出的算法。给定一个输入以后,将输出一个既定的值。类似于用编程实现数字逻辑中的电路。感知机将权重和偏置设定为参数。感知机会计算输入信号和权重的乘积,然后加上偏置,如果这个值大于0则输出1,否则输出0。b+w1x1+w2x2可以看作一位数组做得矩阵乘积[x1,x2]*[w1,w2]+b权重ω是控制输入信号的重要性的参数,偏置b是调整神经元被激活的容易程度(输

#深度学习#python#算法
【深度学习】(一)感知机:与门、与或门、或门、异或门

感知机(perceptron)是具有输入和输出的算法。给定一个输入以后,将输出一个既定的值。类似于用编程实现数字逻辑中的电路。感知机将权重和偏置设定为参数。感知机会计算输入信号和权重的乘积,然后加上偏置,如果这个值大于0则输出1,否则输出0。b+w1x1+w2x2可以看作一位数组做得矩阵乘积[x1,x2]*[w1,w2]+b权重ω是控制输入信号的重要性的参数,偏置b是调整神经元被激活的容易程度(输

#深度学习#python#算法
【StyleGan】环境搭建tensorflow-gpu,运行stylegan

StyleGan的学习摸摸索索着开始了,大部分参照别的博主大佬。会附上所有的学习链接。环境安装WIN10+CUDA10 +CUDNN7.5+ TENSORFLOW-GPU1.13.1 + python3.7 运行NVIDIA STYLEGAN 的安装过程和踩坑实录学习http://www.seeprettyface.com/research_notes.html...

#代理模式#java#开发语言
【机器学习】(二十)数据表示与特征工程:One-Hot编码(adult数据集),特征分箱,多项式回归,自动化特征选择

特征工程:如何找到最佳的数据表示。连续特征:由一系列浮点数组成的数组描述。分类特征/离散特征:以不连续的方式变化描述一件产品的属性。分类变量分类特征是一系列固定的可能取值(而不是一个范围),表示的是定性属性(而不是数量)。数据的输入特征,当这个特征是数据时,一系列计算公式才有意义。于是需要换一种方式来表示数据。One-Hot编码/N取一编码/虚拟变量通常将一个分类特征的k个可能取值编码为k-1个特

#机器学习
【机器学习】(十五)预处理和缩放:StandardScaler、RobustScaler、MinMaxScalar、Normalizer

预处理:对数据的一种简单的按特征的缩放和移动。不同类型的预处理这是一个有两个特征(x/y)的二分类数据集,四种预处理方法:StandardScaler:确保每个特征的平均值为0,方差为1。RobustScaler:使用中位数和四分位数(四分之一),确保每个特征的统计属性都位于同一范围。MinMaxScalar:移动数据,使所有特征都刚好位于0-1之间。Normalizer:对每个数据点进行缩放,使

#机器学习
    共 17 条
  • 1
  • 2
  • 请选择