logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

windows10+ python3 + cuda 11.2 + vs2019 + tensortx_yolov5 + bug

12.12本来想在自己的电脑上跑一下python版本的推理,中间遇到的问题记录一下以放自己以后忘了耽误时间

文章图片
#pytorch
OHEM - non_local - smooth L1 loss - Libra R-CNN

OHEM - non_local - smooth L1 loss - Libra R-CNN文章还是主要讲libra rcnn 和一些拓展知识我C我这一看我每天实习的内容不就是hard neagtive mining吗 ,还是人工的那种☹️☹️☹️OHEM正常的hard negative minine 确实存在训练慢的问题,比如我自己每次训练完模型都得重新弄一套测试+重新训练的pipeline

#cnn#libra#目标检测 +2
transformer - RelationNet

transformer - RelationNet先挂参考链接relationet从做法上来看,简直参考了transformer太多的东西,我没去看文章,以后会补上,如果要是不说明白每一步为什么这么设计,这个工作也太… ????????????挂一张李宏毅老师讲解transformer的图就能明白这两个有多像了网上也有很多不错的trnasformer的讲解啦,但是我就想看这个直观的关系图也一直找不

#transformer#深度学习#人工智能
advGAN代码笔记

这是一种使用GAN来生成对抗样本的模型代码:首先来看一个训练过程代码中首先训练的是D首先用generator生成干扰项 perturbation,然后与原图相加形成对抗样本 adv_images当然训练一个D的loss分为了两部分,loss_D_real旨在拉近吃正样本之后的输出与1的距离loss_D_fake旨在拉近吃负样本之后与0的距离,这里的负样本就是对抗样本,输入的时候不要忘了detach

#深度学习
OHEM - non_local - smooth L1 loss - Libra R-CNN

OHEM - non_local - smooth L1 loss - Libra R-CNN文章还是主要讲libra rcnn 和一些拓展知识我C我这一看我每天实习的内容不就是hard neagtive mining吗 ,还是人工的那种☹️☹️☹️OHEM正常的hard negative minine 确实存在训练慢的问题,比如我自己每次训练完模型都得重新弄一套测试+重新训练的pipeline

#cnn#libra#目标检测 +2
到底了