logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

第七章 MobileNetv2网络详解

本文介绍了一种新的移动架构,MobileNetV2,该架构在多项任务和基准测试中改进了移动模型的性能,并且在不同模型大小的光谱中都有所提高。我们还描述了一种有效的方法,将这些移动模型应用于我们称之为SSDLite的新型框架中的目标检测。此外,我们演示了如何通过我们称之为Mobile DeepLabv3的简化形式的DeepLabv3来构建移动语义分割模型。该架构是基于一种倒置残差结构,其中快捷连接在

文章图片
#机器学习#网络#python
第四章:SSD网络详解

摘要:本文提出了一种使用单个深度神经网络在图像中检测物体的方法。我们的方法名为SSD,它将边界框的输出空间离散化为每个特征图位置上不同长宽比和尺度的一组默认框。在预测时,网络为每个默认框中每个物体类别的存在生成得分,并对框进行调整以更好地匹配物体形状。此外,网络结合了具有不同分辨率的多个特征图的预测,以自然地处理不同大小的物体。相对于需要物体提议的方法,SSD非常简单,因为它完全消除了提议生成和后

文章图片
#python
第九章:RefineNet——多路径细化网络用于高分辨率语义分割

最近,非常深的卷积神经网络(CNN)在目标识别方面表现出色,并且也是密集分类问题(如语义分割)的首选。然而,在深度CNN中,重复的子采样操作(如池化或卷积跳跃)会导致初始图像分辨率的显著降低。因此,我们提出了RefineNet,这是一个通用的多路径细化网络,明确利用沿着降采样过程可用的所有信息,通过长程残差连接实现高分辨率预测。通过这种方式,能够直接利用较早卷积层的细粒度特征来精确调整捕获高级语义

文章图片
#网络
PSANet: 场景解析的逐点空间注意力网络_PSANet:Point-wise Spatial Attention Network for Scene Parsing

我们在图2中展示了PSA模块的框架。PSA模块以空间特征图X作为输入。我们将X的空间大小表示为H×W。通过两个分支生成每个特征图位置的像素级全局注意力图,通过几个卷积层。根据公式(8),我们根据注意力图聚合输入特征图,生成与长程上下文信息结合的新特征表示,即来自“collect”分支的Zc和来自“distribute”分支的Zd。我们将新的表示Zc和Zd连接起来,并应用一个带有批量归一化和激活层的

文章图片
#机器学习#人工智能#深度学习 +1
第十二章 EfficientNetv2网络详解

1.本文介绍了EfficientNetV2,这是一种比以前的模型具有更快的训练速度和更好参数效率的卷积网络。2.本研究的背景是为了开发一种具有更好训练速度和参数效率的卷积网络。3.本文的主要论点是EfficientNetV2可以比以前的模型更快地训练,同时更小巧。4.过去的研究方法主要是使用神经架构搜索和缩放来寻找更优秀的模型,但是这些方法效率低下且耗时较长。5.本文提出了一种结合神经架构搜索和缩

文章图片
#python#数据挖掘#机器学习
第七章 MobileNetv2网络详解

本文介绍了一种新的移动架构,MobileNetV2,该架构在多项任务和基准测试中改进了移动模型的性能,并且在不同模型大小的光谱中都有所提高。我们还描述了一种有效的方法,将这些移动模型应用于我们称之为SSDLite的新型框架中的目标检测。此外,我们演示了如何通过我们称之为Mobile DeepLabv3的简化形式的DeepLabv3来构建移动语义分割模型。该架构是基于一种倒置残差结构,其中快捷连接在

文章图片
#机器学习#网络#python
三十七章:Slide-Transformer:Hierarchical Vision Transformer with Local Self-Attention ——具有局部自注意力的分层视觉的TF

在本节中,我们首先概述了自注意力模块及其各种形式。与广泛使用的稀疏全局注意力和窗口注意力范式相比,局部注意力往往是最自然的实现方式,但在效率方面存在限制。在计算机视觉领域中,自注意力机制的实现从来都不是一项简单的任务。就像一枚硬币有两面一样,自注意力机制的高度灵活性导致了更高的计算复杂性和更低的硬件效率。因此,为了在性能和效率之间取得更好的平衡,先前的研究通过设计不同的注意力模式,调查了将不同的归

文章图片
#transformer#深度学习#人工智能 +2
二十六章:Pyramid Vision Transformer ——金字塔视觉Transformer:一种无卷积的用于密集预测的多功能主干网络

虽然卷积神经网络(CNN)在计算机视觉领域取得了巨大成功,但本研究探讨了一种更简单、无卷积的骨干网络,适用于许多密集预测任务。与最近提出的专门用于图像分类的Vision Transformer(ViT)不同,我们引入了克服了将Transformer应用于各种密集预测任务的困难。与当前最先进的方法相比,PVT具有几个优点:(1)与通常输出低分辨率结果且计算和内存开销较高的ViT不同,

文章图片
#transformer#深度学习#人工智能 +4
第十四章 Vision Transformer网络详解

虽然Transformer架构已经成为自然语言处理任务的事实标准,但它在计算机视觉方面的应用仍然有限。在视觉中,注意力要么与卷积网络一起应用,要么用来替换卷积网络的某些组件,同时保持它们的总体结构。我们表明,这种依赖于CNN的做法并非必要的,一种纯Transformer可直接应用于图像块序列上,在图像分类任务中表现非常出色。

文章图片
#神经网络#机器学习#学习 +4
第十四章 Vision Transformer网络详解

虽然Transformer架构已经成为自然语言处理任务的事实标准,但它在计算机视觉方面的应用仍然有限。在视觉中,注意力要么与卷积网络一起应用,要么用来替换卷积网络的某些组件,同时保持它们的总体结构。我们表明,这种依赖于CNN的做法并非必要的,一种纯Transformer可直接应用于图像块序列上,在图像分类任务中表现非常出色。

文章图片
#神经网络#机器学习#学习 +4
    共 17 条
  • 1
  • 2
  • 请选择