logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习网课及其他资源

汇总1 cs231n 计算机视觉

[坑]python数字可视化vpython包

1、vpython安装pip install vpython2、vpython基本使用2.1 查看球体from visual import *sphere()2.2 bounce.py简单实现from visual import *floor = box(length=4, height=0.5, width=4, color=color.blue)ball = sphere(pos=(0,4,0

Pyqt5运行pyqt4各种错误解决方法汇总

1.NameError: name 'QApplication' is not definedfrom PyQt5.QtWidgets import QApplication2.NameError: name 'QLabel' is not definedfrom PyQt5.QtWidgets import *3.NameError: name 'QDialog' is ...

算法:支持向量机回归模型SVR的python实现

1、SVR做回归<span style="font-family:Microsoft YaHei;">#-*-coding:utf-8-*-'''Created on 2016年5月4日@author: Gamer Think'''import numpy as npfrom sklearn.svm import SVRimport matplotlib.pyplot as plt###

CTR模型:FNN模型

1. 简介FNN 模型是2016年提出的,基于传统机器学习模型,如LR,FM等,的CTR预测方案被称为基于浅层模型的方案。 优点是模型简单,预测性能较好,可解释性强。缺点是,很难自动提取高阶组合特征携带的信息。于是, 基于因子分解即的神经网络(Factorization Machine supported Neural Network, FNN)被提出。2. FNN模型输入的类别特征是 field

随机森林random forest及python实现

引言想通过随机森林来获取数据的主要特征1、理论根据个体学习器的生成方式,目前的集成学习方法大致可分为两大类,即个体学习器之间存在强依赖关系,必须串行生成的序列化方法,以及个体学习器间不存在强依赖关系,可同时生成的并行化方法;前者的代表是Boosting,后者的代表是Bagging和“随机森林”(RandomForest)随机森林在以决策树为基学习器构建Baggi

#随机森林#python
浅谈Attention UNet

1 理论其中,g就是解码部分的矩阵,xl是编码(左边)的矩阵,x经过乘于系数(完成Attention)和g一起concat,进入下一层解码。数学公式:2 实践Pytorch Attention Unet:class Attention_block(nn.Module):def __init__(self,F_g,F_l,F_int):super(Atte...

TCN时间卷积网络介绍

绪论TCN, Temporal Convolutional Network,时间卷积网络,是一种能够处理时间序列数据的网络结构,论文还评为2018年10大论文。1. 模型输入: x0,x1,...,xt{x_0, x_1,..., x_t}x0​,x1​,...,xt​;输出:y0,y1,...,yt{y_0, y_1,..., y_t}y0​,y1​,...,yt​根据输入序列,推断新...

解决样本稀疏/稀缺问题的方法

1、方法1首先,数据量不够,你就把1个当8、9、10······个用,裁剪裁剪,变换变换,翻转翻转。其次,学习特征不够,人工先验来凑。2、方法2人工增加训练集的大小. 通过平移, 翻转, 加噪声等方法从已有数据中创造出一批”新”的数据.Regularization. 数据量比较小会导致模型过拟合, 使得训练误差很小而测试误差特别大. 通过在Loss Function

Tennessee Eastman(TE过程)简介

1、简介田纳西-伊斯曼(TE)仿真平台 依据实际化工反应过程,美国 Eastman 化学公司开发了具有开放性和挑战性的化工模型仿真平台-TennesseeEastman(TE)仿真平台,其产生的数据具有时变、强耦合和非线性特征,广泛用于测试复杂工业过程的控制和故障诊断模型。2、使用1 在官网上华盛顿Te code上下载了MATLAB代码;2. 利用MATLAB把所有的代码都跑了一遍,应该是

    共 55 条
  • 1
  • 2
  • 3
  • 6
  • 请选择