
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
Q-learning是经典的强化学习算法,它通过学习动作价值函数,让智能体在所处环境中做出更合理的选择,来获得最大化奖励。所涉及以下几个概念在deep Q-learing中。策略P以及价值函数Q都由神经网络代替,通过采样大量的环境交互数据训练模型。在本节内容中,笔者会用一个走出迷宫的例子,来解释DQN算法。同时通过手撕DQN代码实践,帮助读者对DQN有更深刻的认识。如上图所示,迷宫的起点是红色位置

你是否苦闷于教研室卡不多,卡显存不大,很多模型没法跑,是否发愁不能用很大的batch size导致loss没法降低。如果你使用的是PyTorch,恭喜你,你完全可以使用APEX从中解脱出来。APEX是什么APEX是英伟达开源的,完美支持PyTorch框架,用于改变数据格式来减小模型显存占用的工具。其中最有价值的是amp(Automatic Mixed Precision),将模型的大部分操作都..
IOU,全称为intersection of union, 中文名“交并比”。这个概念理解起来不难,本文将从原理以及代码实践来解读IOU。首先要说明的是,IOU在检测领域和分割领域都有应用,但这两个领域的IOU计算方式是不一样的。所以本文就分为两个部分。分别讲解在分割和检测两个领域的IOU计算方式。分割领域的IOU计算方式假设白色区域为1,黑色区域为0。根据IOU计算公式:iou=A∩...
grid_sample底层是应用双线性插值,把输入的tensor转换为指定大小。那它和interpolate有啥区别呢?interpolate是规则采样(uniform),但是grid_sample的转换方式,内部采点的方式并不是规则的,是一种更为灵活的方式。torch.nn.functional.grid_sample(input, grid, mode=‘bilinear’, padding_
Q-learning是经典的强化学习算法,它通过学习动作价值函数,让智能体在所处环境中做出更合理的选择,来获得最大化奖励。所涉及以下几个概念在deep Q-learing中。策略P以及价值函数Q都由神经网络代替,通过采样大量的环境交互数据训练模型。在本节内容中,笔者会用一个走出迷宫的例子,来解释DQN算法。同时通过手撕DQN代码实践,帮助读者对DQN有更深刻的认识。如上图所示,迷宫的起点是红色位置

重参数化的思想本质上就是利用线性模型的可加性。在工业界就在conv和bn层融合上有所应用。最近几年一直有re-parameter的工作。RepVGG是一个比较好的应用。VGG是直筒式模型,因为没有skip connnection,导致训练更深层的vgg会出现模型的退化。但如resnet等,skip connnect为端上设备增加了运行耗时,在数据的存取上有不小的消耗。因此RepVGG,将重参数的思
背景Resent可以被视作卷积神经网络的发展里程碑,它的出现解决了更深的网络训练带来的退化问题,使得卷积神经网络在各种计算机视觉任务上的表现更加优秀,对计算机视觉的发展做出了很重要的贡献。其中的亮点就是shortCut,走捷径这种方式并不是何凯明第一个发现,但是他在前人的基础上做了很多的实验,证明了残差能有效解决深度网络的退化问题。在此之后还有DenseNet的出现,也是残差网络的另一种形式这..
写在之前:初看这篇论文,觉得很惊艳,很巧妙,非常值得细读和动手实践,本人调通的Pytorch代码也会在后面详解。另一篇更具有新颖性的人脸特征变换的论文是FaceID-GAN。附我的FaceID-GAN论文解读摘要在人脸识别领域,两张脸之间的大角度差异是一个关键的挑战。。论文提出一种能学到一种和姿势无关的人脸特征,将脸部的pose信息从特征中分离出去,这样用于人脸识别的特征提取就能适用于...
在图像分割领域,我们会常常遇到类别不平衡的问题。比如要分割的目标(前景)可能只占图像的一小部分,因此负样本的比重很大,导致训练结果用来做预测,网络倾向于将样本判断为负样本。这篇博客为大家带来一些用于处理类别不平衡的损失函数的原理讲解和代码实现。时间关系会不断更新,而不是一次性写完。Weighted cross entropy思路是想用一个系数描述样本在loss的重要性。对于小数目样本,我们加强..
IOU,全称为intersection of union, 中文名“交并比”。这个概念理解起来不难,本文将从原理以及代码实践来解读IOU。首先要说明的是,IOU在检测领域和分割领域都有应用,但这两个领域的IOU计算方式是不一样的。所以本文就分为两个部分。分别讲解在分割和检测两个领域的IOU计算方式。分割领域的IOU计算方式假设白色区域为1,黑色区域为0。根据IOU计算公式:iou=A∩...







