
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
先说结论结论1、检查自己有没有被封2、确保自己的网络有正确设置:https://blog.csdn.net/qq_26035563/article/details/802099763、检查代码,将urllib替换为requests库,或者不让urllib全程使用代理 问题分析 出现这个问题第一反应是被封,但随即否定,自己设置了较合理的等待时间,并且在学校内部,一般...
文章目录前言SimCLR简述实验数据增强对性能的影响Unsupervised contrastive learning benefits (more) from bigger modelsA nonlinear projection head improves the representation quality of the layer before itContrastive learning
文章目录前言GMVAE的生成过程GMVAE的损失函数reconstruction termconditional prior term前言传统的VAE,隐变量服从标准高斯分布(单峰),但有时候,单个高斯分布可能不能完全表达图像x的特征,比如MINIST数据集有0~9这10个数字,直觉上使用10个高斯分布来替代单个高斯分布更为合理,因此有学者将混合高斯分布模型(GMM)与VAE进行结合,其结果便是G
文章目录前言猜想实验实验思路网络结构——position encoding network评价指标实验结果前言卷积神经网络在图像领域性能十分卓越,不仅可应用于图像识别,也可应用于目标检测与语义分割。目标检测与语义分割都需要定位目标在图像中的位置,而卷积神经网络在这两类任务中表现优异,是否意味着卷积神经网络可以编码目标的绝对位置(目标在图像中的位置,而不是目标相对于图像中的其他事物的位置)信息呢..
文章目录主要工作什么是Dropout运作模式灵感来源从集成学习的角度从有性繁殖的角度dropout是否是一个好的正则化技术?为什么dropout可以提高网络的泛化能力dropout对神经元提取特征的影响dropout对稀疏性的影响dropout的缺点训练dropout网络的技巧网络大小学习率与动量值Max-Norm 正则化Dropout率主要工作神经网络的学习能力很强,很容易过拟合训练数据,为..
文章目录主要工作算法介绍符号约定Cosine NormalizationLess-Forget ConstraintInter-Class Separation损失函数实验Ablation Study个人理解主要工作类别不平衡导致增量学习出现灾难性遗忘,本论文设计了一种loss函数,以抵抗类别不平衡造成的负面影响。本论文提出的算法需要examplarexamplarexamplar算法介...
文章目录主要工作算法介绍总体流程步骤一:构建训练数据步骤二:模型训练loss函数介绍步骤三:finetuning步骤四:管理examplarexamplarexamplar实验Fixed memory sizeFixed number of samplesAblation studies个人理解主要工作论文提出了一种算法,以解决增量学习中的灾难性遗忘问题,与iCaRL将特征提取器的学习与分类器..
文章目录前言motivationmethod前言我将看过的增量学习论文建了一个github库,方便各位阅读地址,本文总结的论文位于Regularization文件夹本文总结2019年ICCV论文《Continual Learning by Asymmetric Loss Approximation with Single-Side Overestimation》,这篇文献的出发点非常有趣,其...
文章目录前言self attention前言目前transformer在计算机视觉中非常火热,在面试过程中,也被面试官询问过相应内容,在此做一个简单的总结self attentionTransformer中的self attention和CV中的attention机制非常近似,都是通过建立一组输入数据之间的联系,来决定哪部分数据更为重要。本节将介绍self attention的具体流程首先,sel
文章目录主要工作什么是Dropout运作模式灵感来源从集成学习的角度从有性繁殖的角度dropout是否是一个好的正则化技术?为什么dropout可以提高网络的泛化能力dropout对神经元提取特征的影响dropout对稀疏性的影响dropout的缺点训练dropout网络的技巧网络大小学习率与动量值Max-Norm 正则化Dropout率主要工作神经网络的学习能力很强,很容易过拟合训练数据,为..







