logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Tensorflow1.x系列(4): 神经网络在TensorFlow实现

1.引言1.1神经网络的术语1.偏置bias:2.激活函数:sigmoid函数;tanh函数;Relu函数。3.损失函数:最小平方误差准则(MSE)、交叉熵(cross-entropy)、对数似然函数(log-likelihood)、指数损失函数(exp-loss)、Hinge损失函数(Hinge-loss)、0-1损失函数、绝对值损失函数4.反向传播优化算

#神经网络
TensorFlow DBN深度信念网络搭建2

1、改进1:层数改变通过修改rbm的层数,可以看到重构误差是变小了,但是,我发现只是修改rbm,并没有影响到最终的accuracy,而且更加诡异的是,这个accuracy,只从我修改了数据集以来,无论怎么修改,都是同一个数,0.391999,即使是同一个数据集,多次运行,结果也不可能一直不变的。因此,针对数据不变,也许是我的突破点。'rbm_layers', '52,80,52,3

TensorFlow 中 tf.app.flags.FLAGS 的用法介绍

1、用法tf.app.flags.FLAGS 用来传递参数。参考:tf.app.flags.FLAGS用法

贝叶斯神经网络 BNN

1. 简介贝叶斯神经网络不同于一般的神经网络,其权重参数是随机变量,而非确定的值。如下图所示:2. 模型假设 NN 的网络参数为 W,p(W) 是参数的先验分布,给定观测数据 D={X,Y},这里 X 是输入数据,Y 是标签数据。BNN 希望给出以下的分布:其中:这里 P(W|D) 是后验分布,P(D|W) 是似然函数,P(D) 是边缘似然。从公式(53)中可以看出,用 BNN ...

数学中几种积:点积(数量积/标量积/内积)、叉积(叉乘/向量积)、外积(张量积/Kronecker积)、哈达玛积(元素积)

1 点积点积(dot product),又称数量积、标量积.输入:一种接受两个等长的数字序列(通常是坐标向量);输出:返回单个数字。在欧几里几何空间中,向量的点积运算又称为内积。表示代数定义推广矩阵的点积/内积,为对应矩阵元素的积之和。A,B是定义为两个相同大小的矩阵。值得注意的是,一些对于A,B大小不同,可以分别把它们组成的向量进行内积。比如在numpy中:im...

数学概念:协方差

1 计算1 covariance 讲解

均匀分布叠加与正态分布叠加

1 理论2 实践均匀分布生成一个标准正态分布import numpy as npimport matplotlib.pyplot as plt#-1~1 uniformu = 2*np.random.uniform(size=30000)-1normal_rv = [300 * np.mean(2*np.random.uniform(size=30000)-1) for i in r...

Tennessee Eastman(TE过程)简介

1、简介田纳西-伊斯曼(TE)仿真平台 依据实际化工反应过程,美国 Eastman 化学公司开发了具有开放性和挑战性的化工模型仿真平台-TennesseeEastman(TE)仿真平台,其产生的数据具有时变、强耦合和非线性特征,广泛用于测试复杂工业过程的控制和故障诊断模型。2、使用1 在官网上华盛顿Te code上下载了MATLAB代码;2. 利用MATLAB把所有的代码都跑了一遍,应该是

Mask R-CNN

简介mask-rnn是何恺明在 faster R-CNN后又一论文,而且是ICCV 2017的最佳论文。(没有了解CV之前就听到何恺明的大名了,最近看语义分割资料,真的太佩服这位大神了,竞赛保上清华,高考状元, Facebook AI Research等)原论文;开源代码。1 Mask RCNNFaster R-CNN,包含两个阶段,一个阶段是 区域提取网络(Region Proposa...

Numpy数组array和矩阵matrix相互转换

1、ndarray转换成matriximport numpy as npfrom numpy import random,matr_arr=random.rand(4,4)print('r_arr',r_arr)r_mat=mat(r_arr)print(r_mat.I)#求逆运行结果:r_arr [[ 0.656035920.399084380.447223510.926527

    共 34 条
  • 1
  • 2
  • 3
  • 4
  • 请选择