logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

MINIST数据集 28*28

MNIST数据集是一个手写体数据集,简单说就是一堆这样东西MNIST的官网地址是MNIST; 通过阅读官网我们可以知道,这个数据集由四部分组成,分别是;也就是一个训练图片集,一个训练标签集,一个测试图片集,一个测试标签集;我们可以看出这个其实并不是普通的文本文件或是图片文件,而是一个压缩文件,下载并解压出来,我们看到的是二进制文件,其中训练图片集的内容部分如此这些二进制...

卷积核和padding的计算关系

原博:https://blog.csdn.net/qq_41670192/article/details/79231732通过卷积层与池化层后,特征图的大小怎么计算这里引入cs231n中的课件说明一下:卷积层:参数:W:宽 H:高 D:深度 K:卷积核的个数 F:卷积核的大小 S:步长 P:用0填充W/H=[(输入大小-卷积核大小+2*P)/步长] +1.举...

pytorch指定使用GPU编号

方法1:import osos.environ["CUDA_VISIBLE_DEVICES"] = "1"#使用1号方法2:手动敲入CUDA_VISIBLE_DEVICES = 1

pytorch使用多个GPU并行跑

https://blog.csdn.net/gaishi_hero/article/details/81139045

Noisy OR (NOR)model

Noisy OR (NOR)model如下图所示,Y结点有父亲结点Z1到Zk,OR关系的意思即只有Z1到Zk全部不发生,那么才有Y=0,而Zi是否发生受到随机变量Xi的影响,如果把最后Y看成教授的推荐信,那么X1到Xk可以看做学生的某项表现,学生第i项表现优异的情况下被教授欣赏的概率为λi,这个图的意思就是如果教授至少欣赏了学生的某一项优异表现,则有推荐信。那么Z0是什么呢?这个概率称为lea..

LSTM以及三重门,遗忘门,输入门,输出门

文章简介:LSTM 思路LSTM 的前向计算LSTM 的反向传播LSTM长短时记忆网络(Long Short Term Memory Network, LSTM),是一种改进之后的循环神经网络,可以解决RNN无法处理长距离的依赖的问题,目前比较流行。长短时记忆网络的思路:原始 RNN 的隐藏层只有一个状态,即h,它对于短期的输入非常敏感。再增加一个状态,即c,让它来保存...

目标追踪(tracking)简介

视觉目标跟踪是计算机视觉中的一个重要研究方向,有着广泛的应用,如:视频监控,人机交互,无人驾驶等。过去二三十年视觉目标跟踪技术取得了长足的进步,特别是最近两年利用深度学习的目标跟踪方法取得了令人满意的效果,使目标跟踪技术获得了突破性的进展。本文旨在简要介绍:目标跟踪的基本流程与框架,目标跟踪存在的挑战,目标跟踪相关方法,以及目标跟踪最新的进展等,希望通过这篇文章能让读者对视觉...

concatenation级联神经网络

在看论文的时候碰到concatenation,作为小白的我,不知道是什么。百度百科:级联相关神经网络是从一个小网络开始,自动训练和添加隐含单元,最终形成一个多层的结构。级联相关神经网络具有以下优点:学习速度快;自己决定神经元个数和深度;训练集变化之后还能保持原有的结构;不需要后向传播错误信号。...

图像操作为什么要使用卷积?卷积的真正含义

CNN 又叫 Convolutional neural network, 中文名有叫卷积神经网络,它怎么来的,它有多牛逼,这就不多说了,大家网上查。希望大家在看之前有一点点基本的computer vision 和CNN 的基本知识。我们第一部分先讲 Convolution,到底什么是卷积,别忙,大家都用过某美颜软件吧,比如我老婆新垣结衣:美的不要的不要的...

对数似然函数理解

对数似然函数(log likelihood)机器学习里面,对模型的训练都是对Loss function进行优化,在分类问题中,我们一般使用最大似然估计(Maximum likelihood estimation)来构造损失函数。对于输入的x,其对应的类标签为t,我们的目的是找到使p(t|x)最大的模型f(x),y=f(x)为模型的预测值。在二分类问题中:可以看到,多分类问题中,上述...

    共 19 条
  • 1
  • 2
  • 请选择