
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
12.12本来想在自己的电脑上跑一下python版本的推理,中间遇到的问题记录一下以放自己以后忘了耽误时间

OHEM - non_local - smooth L1 loss - Libra R-CNN文章还是主要讲libra rcnn 和一些拓展知识我C我这一看我每天实习的内容不就是hard neagtive mining吗 ,还是人工的那种☹️☹️☹️OHEM正常的hard negative minine 确实存在训练慢的问题,比如我自己每次训练完模型都得重新弄一套测试+重新训练的pipeline
transformer - RelationNet先挂参考链接relationet从做法上来看,简直参考了transformer太多的东西,我没去看文章,以后会补上,如果要是不说明白每一步为什么这么设计,这个工作也太… ????????????挂一张李宏毅老师讲解transformer的图就能明白这两个有多像了网上也有很多不错的trnasformer的讲解啦,但是我就想看这个直观的关系图也一直找不
这是一种使用GAN来生成对抗样本的模型代码:首先来看一个训练过程代码中首先训练的是D首先用generator生成干扰项 perturbation,然后与原图相加形成对抗样本 adv_images当然训练一个D的loss分为了两部分,loss_D_real旨在拉近吃正样本之后的输出与1的距离loss_D_fake旨在拉近吃负样本之后与0的距离,这里的负样本就是对抗样本,输入的时候不要忘了detach
OHEM - non_local - smooth L1 loss - Libra R-CNN文章还是主要讲libra rcnn 和一些拓展知识我C我这一看我每天实习的内容不就是hard neagtive mining吗 ,还是人工的那种☹️☹️☹️OHEM正常的hard negative minine 确实存在训练慢的问题,比如我自己每次训练完模型都得重新弄一套测试+重新训练的pipeline