logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

python爬虫——使用urllib设置代理出现由于目标计算机积极拒绝,无法连接

先说结论结论1、检查自己有没有被封2、确保自己的网络有正确设置:https://blog.csdn.net/qq_26035563/article/details/802099763、检查代码,将urllib替换为requests库,或者不让urllib全程使用代理  问题分析 出现这个问题第一反应是被封,但随即否定,自己设置了较合理的等待时间,并且在学校内部,一般...

深度学习(自监督:SimCLR)——A Simple Framework for Contrastive Learning of Visual Representations

文章目录前言SimCLR简述实验数据增强对性能的影响Unsupervised contrastive learning benefits (more) from bigger modelsA nonlinear projection head improves the representation quality of the layer before itContrastive learning

深度学习(生成式模型GMVAE)——deep unsupervised clustering with gaussian mixture variational autoencoders

文章目录前言GMVAE的生成过程GMVAE的损失函数reconstruction termconditional prior term前言传统的VAE,隐变量服从标准高斯分布(单峰),但有时候,单个高斯分布可能不能完全表达图像x的特征,比如MINIST数据集有0~9这10个数字,直觉上使用10个高斯分布来替代单个高斯分布更为合理,因此有学者将混合高斯分布模型(GMM)与VAE进行结合,其结果便是G

#深度学习#人工智能#机器学习
深度学习——卷积神经网络是否能编码位置信息?

文章目录前言猜想实验实验思路网络结构——position encoding network评价指标实验结果前言卷积神经网络在图像领域性能十分卓越,不仅可应用于图像识别,也可应用于目标检测与语义分割。目标检测与语义分割都需要定位目标在图像中的位置,而卷积神经网络在这两类任务中表现优异,是否意味着卷积神经网络可以编码目标的绝对位置(目标在图像中的位置,而不是目标相对于图像中的其他事物的位置)信息呢..

深度学习论文笔记:Dropout: A Simple Way to Prevent Neural Networks from Overfitting

文章目录主要工作什么是Dropout运作模式灵感来源从集成学习的角度从有性繁殖的角度dropout是否是一个好的正则化技术?为什么dropout可以提高网络的泛化能力dropout对神经元提取特征的影响dropout对稀疏性的影响dropout的缺点训练dropout网络的技巧网络大小学习率与动量值Max-Norm 正则化Dropout率主要工作神经网络的学习能力很强,很容易过拟合训练数据,为..

深度学习论文笔记(增量学习)——Learning a Unified Classifier Incrementally via Rebalancing

文章目录主要工作算法介绍符号约定Cosine NormalizationLess-Forget ConstraintInter-Class Separation损失函数实验Ablation Study个人理解主要工作类别不平衡导致增量学习出现灾难性遗忘,本论文设计了一种loss函数,以抵抗类别不平衡造成的负面影响。本论文提出的算法需要examplarexamplarexamplar算法介...

深度学习论文笔记(增量学习)——End-to-End Incremental Learning

文章目录主要工作算法介绍总体流程步骤一:构建训练数据步骤二:模型训练loss函数介绍步骤三:finetuning步骤四:管理examplarexamplarexamplar实验Fixed memory sizeFixed number of samplesAblation studies个人理解主要工作论文提出了一种算法,以解决增量学习中的灾难性遗忘问题,与iCaRL将特征提取器的学习与分类器..

#深度学习#人工智能#机器学习
深度学习(增量学习)—— Continual Learning by Asymmetric Loss Approximation with Single-Side Overestimation

文章目录前言motivationmethod前言我将看过的增量学习论文建了一个github库,方便各位阅读地址,本文总结的论文位于Regularization文件夹本文总结2019年ICCV论文《Continual Learning by Asymmetric Loss Approximation with Single-Side Overestimation》,这篇文献的出发点非常有趣,其...

深度学习——transformer

文章目录前言self attention前言目前transformer在计算机视觉中非常火热,在面试过程中,也被面试官询问过相应内容,在此做一个简单的总结self attentionTransformer中的self attention和CV中的attention机制非常近似,都是通过建立一组输入数据之间的联系,来决定哪部分数据更为重要。本节将介绍self attention的具体流程首先,sel

深度学习论文笔记:Dropout: A Simple Way to Prevent Neural Networks from Overfitting

文章目录主要工作什么是Dropout运作模式灵感来源从集成学习的角度从有性繁殖的角度dropout是否是一个好的正则化技术?为什么dropout可以提高网络的泛化能力dropout对神经元提取特征的影响dropout对稀疏性的影响dropout的缺点训练dropout网络的技巧网络大小学习率与动量值Max-Norm 正则化Dropout率主要工作神经网络的学习能力很强,很容易过拟合训练数据,为..

    共 83 条
  • 1
  • 2
  • 3
  • 9
  • 请选择