logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

CVPR 2020 多目标跟踪算法 FairMOT代码解读

总览1、训练(1)数据(2)损失函数(3)跟踪2、测试(1)跟踪(2)跟踪后处理1、训练(1)数据数据集类JointDataset在src\lib\datasets\dataset\jde.py文件中:首先__getitem__方法中读取图片和对应的标签,做简单的数据增强,统计所有数据集的ID最大值,也就是最多有多少个需要跟踪的对象。由于FairMOT的...

#pytorch
目标检测数据层参数解析(caffe)

数据层名:AnnotatedData1、transform_param作用:数据变换transform_param {# 镜像,左右翻转mirror: true# 三个通道均值mean_value: 104.0mean_value: 117.0mean_value: 123.0#将输入图像resi...

#目标检测#caffe
finished with exit code -1073740791 (0xC0000409)总结(caffe框架,pycharm)

一、可能原因:(1)caffe协议文件中的某些层不存在(2)deploy文件中的输入层没有添加(3)deploy协议文件中某些层的训练参数没有删除(4)疏忽所致,deploy文件的语法错误,或者某些标点或编码错误。(5)显存不足二、解决办法(1)修改caffe的源文件,添加相关的层,然后重新编译。(2,3)如果是在测试中报错,那就检查deploy.prototxt文...

#人工智能
目标检测数据层参数解析(caffe)

数据层名:AnnotatedData1、transform_param作用:数据变换transform_param {# 镜像,左右翻转mirror: true# 三个通道均值mean_value: 104.0mean_value: 117.0mean_value: 123.0#将输入图像resi...

#目标检测#caffe
RNN中的的反向传播推导(通俗版)

反向传播其实就是链式求导法则的重复使用,链式法则其实就是先计算外层函数的导数,再计算内层函数的导数,一直重复。误差反向传播的过程,就是层层求导的过程。在看RNN的反向传播之前,先看看简单网络的反向传播。1、反向传播,链式求导看一个小例子,如下图所示,其中f函数由x,y,z三种变量的组合来决定,x和y并不是直接和f相连。假设,x+y用q来表示,作为中间结果q=x+y。首先来看一下前向传播过程...

#深度学习
pytorch冻结网络参数,requires_grad与optimizer顺序的关系

问题说明:pytorch迁移学习时,需要对某些层冻结参数,不参与方向传播,具体实现是将要冻结的参数的requires_grad属性置为false,如下:

#人工智能#python#pytorch
windows下几种深度学习平台检查是否可以成功调用GPU加速

前提是正确安装cuda和cudnn,以及对应的平台。1、caffecaffe有个命令行参数:device_query 可以查看指定GPU的信息如:在命令行输入 caffedevice_query -gpu 02、pytorch直接在python环境下输入以下命令,显示true就表示可以调用gpuimport torchprint (torch.cuda.is_...

#人工智能
caffe训练日志可视化代码(acc,train_loss,test_loss,lr 画在同一张图中)

caffe自带可视化训练log的脚本程序但是这个程序会将:train_loss,test_loss,lr,acc每个指标单独画一张图(根据参数可选则画什么),如下:我觉得这样生成的图片太多了,而且train_loss和test_loss(实际上是训练过程中的val_loss)通常是要放在一起对比来看的,所以放在同一张图中会更清晰的看出是否过拟合或者欠拟合。因此我自己写了个程序提取...

#caffe
tensorflow 1.13.1 安装采坑

环境:win10 x64位,cuda10.1,cudnn 7.5,vs2013,vs2015 distributed ,GTX1060按照网上的教程安装,如下面博客https://blog.csdn.net/huanyingzhizai/article/details/89298964我最后的安装位置:anaconda2下面的虚拟环境py3下面新建虚拟环境:tensorflow-g...

#人工智能
    共 11 条
  • 1
  • 2
  • 请选择