logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习之联邦学习

什么是联邦学习联邦学习(federated learning)能够让AI算法借助位于不同站点的数据中获得经验。该方法能够让多个组织协作开发模型,而且不需要彼此之间直接共享敏感的数据在多次训练迭代过程中,共享模型所覆盖的数据范围会比任何一个组织内部拥有的数据都要大得多。联邦学习如何工作难点:不仅仅是数据量的问题,数据集还需要极高的多样化。但是考虑到隐私性,这些数据一般无法共享。解决办法:联邦学习摒弃

#机器学习#深度学习
深度学习之SENet

参考1参考2SENet-2017Squeeze-and-Excitation Networks最后一届 ImageNet 2017 竞赛 Image Classification 任务的冠军,并被邀请在 CVPR 2017 的 workshop(Beyond ImageNet)中给出算法介绍.核心思想SENet的核心思想在于通过网络根据loss去学习特征权重,使得有效的feature map权重大

#深度学习#神经网络#网络
目标检测之MAP计算方式

precision表示某一类样本预测有多准。 Recall表示某一类样本,预测正确的与所有Ground Truth的比例。  Recall和Precision一样,脱离类别是没有意义的。说道这两个指标,一定指的是某个类别的。以Recall为横轴,Precision为纵轴,就可以画出一条PR曲线,PR曲线下的面积就定义为AP。所有类别的平均即为MAPimport numpy as npde

#深度学习#python
深度学习之optimizer优化器

optimizer优化算法通常只考虑最小化目标函数。其实,任何最大化问题都可以很容易地转化为最小化问题。很多优化问题并不存在解析解,而需要使用基于数值方法的优化算法找到近似解,即数值解。为了求得最小化目标函数的数值解,我们将通过优化算法有限次迭代模型参数来尽可能降低损失函数的值。深度学习模型的目标函数可能有若干局部最优值。当一个优化问题的数值解在局部最优解附近时,由于目标函数有关解的梯度接近或变成

#深度学习#机器学习
目标检测之小目标检测和遮挡问题

小目标检测trick小目标难检测原因小目标在原图中尺寸比较小,通用目标检测模型中,一般的基础骨干神经网络(VGG系列和Resnet系列)都有几次下采样处理:导致小目标在特征图的尺寸基本上只有个位数的像素大小,导致设计的目标检测分类器对小目标的分类效果差。如果分类和回归操作在经过几层下采样处理的 特征层进行,小目标特征的感受野映射回原图将可能大于小目标在原图的尺寸,造成检测效果差。小目标在原图中的数

#计算机视觉#深度学习
目标检测之Focal Loss

focal loss的提出是在目标检测领域,为了解决正负样本比例严重失衡的问题。是由log loss改进而来的,为了于log loss进行对比,公式如下:其基本思想就是,对于类别极度不均衡的情况下,网络如果在log loss下会倾向于只预测负样本,并且负样本的预测概率pip_ipi​也会非常的高,回传的梯度也很大。但是如果添加(1−pi)γ(1−p_i)^{\gamma}(1−pi​)γ则会使预测

#深度学习
深度学习之卷积层和池化层有什么区别

卷积层和池化层有什么区别卷积层池化层功能提取特征压缩特征图,提取主要特征操作可惜是二维的,对于三维数据比如RGB图像(3通道),卷积核的深度必须同输入的通道数,输出的通道数等于卷积核的个数。卷积操作会改变输入特征图的通道数。池化只是在二维数据上操作的,因此不改变输入的通道数。对于多通道的输入,这一点和卷积区别很大。特性权值共享:减少了参数的数量,并利用了图像目标的平移不变性。稀疏连接:输出的每个值

#深度学习
目标检测之FPN(feature pyramid networks)

本文参考以下链接,如有侵权,联系删除参考feature pyramid networks for object detection-2017概述原来多数的object detection算法都是只采用顶层特征做预测,但我们知道低层的特征语义信息比较少,但是目标位置准确;高层的特征语义信息比较丰富,但是目标位置比较粗略。另外虽然也有些算法采用多尺度特征融合的方式,但是一般是采用融合后的特征做预测,而

#计算机视觉#深度学习#算法 +1
深度学习之空洞卷积

参考链接:知乎空洞卷积 Dilated ConvolutionsMulti-Scale Context Aggregation by Dilated Convolutions-ICLR 2016Dilated/Atrous Convolution 或者是 Convolution with holes 从字面上就很好理解,是在标准的 convolution map 里注入空洞,以此来增加 recep

#网络
深度学习之常用激活函数

引言激活函数的目标是,将神经网络非线性化。激活函数是连续的且可导的。连续的:当输入值发生较小的改变时,输出值也发生较小的改变;可导的:在定义域中,每一处都是存在导数;常见的激活函数:sigmoid,tanh,relu。sigmoidsigmoid是平滑的阶梯函数,可导。sigmoid可以将任何值转换为0~1概率,用于二分类。当使用sigmoid作为激活函数时,随着神经网络隐含层(hidden la

#深度学习#神经网络
    共 26 条
  • 1
  • 2
  • 3
  • 请选择