logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习与神经网络(三)——多层感知机 & 反向传播 & 优化实战

介绍一个完完整整的,与我们实际使用一摸一样的多层感知机的反向传播方式多层感知机MLP & 反向传播2D函数优化实例

#深度学习#神经网络
Pytorch清空显存缓冲区(torch.cuda.empty_cache)

torch.cuda.empty_cache()写代码的好习惯是在程序最后执行以下这句话

#pytorch
深度学习与神经网络(十)—— LSTM

LSTM——long short-term memoryLSTM能够解决梯度弥散的情况。LSTM还解决了记忆长度的问题以前RNN只能记住比较短的时间序列,LSTM就把短的short-term给你延长了,所以才叫long short-term memory我们之前学的RNN就是最基本的RNN版本,它也就是short-term memory我们换一种画法Wxh也叫Wih这就是原始的RNN的表达结构设计

#深度学习#神经网络
深度学习与神经网络(五)——全连接层(nn.Linear())

之前那个多分类问题实战是手写了每个层其实我们可以使用nn.Linear,就不用手写了

#深度学习#神经网络
深度学习中的batchsize, iter和epoch

Batch Size是一次训练所选取的样本数。Batch Size的大小影响模型的优化程度和速度。同时其直接影响到GPU内存的使用情况,假如你GPU内存不大,该数值最好设置小一点。epoch是训练轮数...

#神经网络
PyTorch多卡/多GPU/分布式DPP的基本概念(node&rank&local_rank&nnodes&node_rank&nproc_per_node&world_size)

node物理节点,可以是一台机器也可以是一个容器,节点内部可以有多个GPU。rank & local_rank用于表示进程的编号/序号(在一些结构图中rank指的是软节点,rank可以看成一个计算单位),每一个进程对应了一个rank的进程,整个分布式由许多rank完成。local_rank: rank是指在整个分布式任务中进程的序号;local_rank是指在一个node上进程的相对序号,

nvidia-smi 实时刷新 实时显示GPU显存使用情况

在linux中watch -n 0.5 -d nvidia-smi#每隔0.5秒刷新一次

#GPU#linux
lmdb数据库

LMDB 全称为 Lightning Memory-Mapped Database,就是非常快的内存映射型数据库,LMDB使用内存映射文件,可以提供更好的输入/输出性能,对于用于神经网络的大型数据集( 比如 ImageNet ),可以将其存储在 LMDB 中...

python可视化神器——pyecharts(词云图&雷达图&极坐标系)

与基本的Matplotlib绘图相比,pyecharts的交互以及可视化更为友好,更适合于项目开发、商业报告。github.com/pyecharts/pyechartspyecharts 分为 v0.5.X 和 v1 两个大版本,v0.5.X 和 v1 间不兼容,v1 是一个全新的版本,很多函数的用法出现了变更第一个pyecharts程序bar.add_x/ya...

文章图片
#python
OHEM(Online Hard Example Mining)在线难例挖掘(在线困难样例挖掘) & Pytorch实现 & HNM (目标检测)

Hard Negatie Mining与Online Hard Example Mining(OHEM)都属于难例挖掘,它是解决目标检测老大难问题的常用办法,运用于R-CNN,fast R-CNN,faster rcnn等two-stage模型与SSD等(有anchor的)one-stage模型训练时的训练方法。OHEM和难负例挖掘名字上的不同。Hard Negative Mining只注意难负例

    共 338 条
  • 1
  • 2
  • 3
  • 34
  • 请选择