logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

神经网络的基本组成之卷积层(Conv Layer)&& 利用 Pytorch 搭建神经网络 && 空洞卷积对比普通卷积

图1 卷积网络中的 layers目录(1)卷积层(2)本文章设计的函数列表,以及函数的参数解读(3)代码示例(4)空洞卷积(1)卷积层卷积本是分析数学中的一种运算,在深度学习中使用的卷积运算通常是离散的。作为卷积神经网络中最基础的组成部分,卷积的本质是用卷积核的参数来提取数据的特征,通过矩阵点乘运算与求和运算来得到结果。如图2 所示为一个基本二维卷积的运算过程,公式为y=ωx+b。这 里的特征图(

文章图片
#pytorch#神经网络#深度学习 +2
使用 Opencv and OS or pathlib.Path 获取路径名称和图像名称,并保存图像到指定路径

os.path 和 pathlib.Path 相似,但是后者简化了很多操作,有很多前者没有的优点。(1)os 库os 模块提供了非常丰富的方法用来处理文件和目录。Python基础教程,链接直达:Python OS 文件/目录方法 | 菜鸟教程 (runoob.com)其中,os.path() 模块使用频率最高,通常用来获取文件的属性,里面有很多函数,本文仅此介绍:os.path.join() #

文章图片
#opencv#python#人工智能 +1
YOLO 系列论文精读 & YOLOv4

YOLO系列的论文已经告一段落,期间也精读了DETR系列的一些论文,颇有感受。YOLOv4更像是一篇总结性的文章,具体描述了整个模型的各个阶段,并对每个阶段的经典算法进行了研究和消融实验,值得我们重新思考神经网络模型的框架。我们提供了一个最先进的探测器,它比所有可用的替代探测器更快( FPS )和更准确的( MS COCO AP50 ... 95和AP50)。所描述的探测器可以在具有8 - 16G

文章图片
#深度学习#计算机视觉#人工智能 +1
DETR 论文精读,并解析模型结构

我们提出了一种新的方法,将目标检测视为一个直接的集合预测问题。我们的方法精简了检测管道,有效地消除了许多手工设计的组件,如非极大值抑制过程或锚生成,这些组件显式地编码了我们关于任务的先验知识。新框架的主要组成部分,称为DEtectTRansformer或DETR,是一个基于集合的全局损耗,通过二分匹配和一个转换器编码器-解码器架构强制进行唯一的预测。给定一个固定的小规模学习对象查询集,DETR根据

文章图片
#深度学习#计算机视觉#transformer +1
Dropout层、BN层、Linear层 & 神经网络的基本组成

图1 卷积网络中的 layers承接上三篇博客:卷积层(空洞卷积对比普通卷积)、激活函数层、池化层 & 感受野目录(1)Dropout层(2)BN层(BatchNormal)(3)全连接层(1)Dropout层在深度学习中,当参数过多而训练样本又比较少时,模型容易产生过拟合现象。过拟合是很多深度学习乃至机器学习算法的通病,具体表现为在训练集上预测准确率高,而在测试集上准确率大幅下降。201

文章图片
#神经网络#深度学习#机器学习 +2
C++配置opencv环境,并实现基本语句的运行

Demo success 需要5步(1)opencv官网下载直达: https://sourceforge.net/projects/opencvlibrary/files/此处建议下载opencv-3.4.16-vc14_vc15.exe(因4.5版本可能会报错,如下图所示)(2)安装opencv,本人安装路径:G:\c++_machine_learning\(3)配置电脑系统环境:G:\c++

文章图片
#c++#opencv#机器学习
池化层(pooling layer) & 感受野(Receptive Field) & 神经网络的基本组成

目录(1)本文涉及的函数(2)池化层(3)感受野(4)代码示例(含注释)承接上两篇博客:卷积层(空洞卷积对比普通卷积)、激活函数层(1)本文涉及的函数import torchimport torch.nn as nnfrom torch import autogradnn.MaxPool1d# 1 维最大池化(max pooling)操作nn.MaxPool2d...

文章图片
#cnn#神经网络#python +2
《Attention Is All You Need》论文精读,并解析Transformer模型结构

建议:结合《Attention Is All You Need》论文观看此文章。Transformer的模型结构如下图所示,通过把“My money don't jiggle jiggle”翻译成“我的钱不摇晃摇晃”来分析Transformer的工作过程。训练过程中,每一次解码器的输出与数据集中的翻译值通过交叉熵计算错误率(一次送入batch_size大小个token,计算错误率),从而对权重进行

文章图片
#transformer#深度学习#机器翻译 +2
YOLOv3 论文精读

我们对YOLO做了一些更新!我们做了一堆小的设计变更,使其变得更好。我们还训练了这个非常庞大的新网络。它比上次大一点,但更准确。不过还是很快的,不用担心。在320 × 320时,YOLOv3在22 ms内以28.2 mAP运行,与SSD一样精确,但速度快3倍。当我们查看旧的0.5 IOU的mAP检测度量YOLOv3是相当不错的。在Titan X上,它在51ms内达到 57.9,而RetinaNet

文章图片
#人工智能#深度学习#计算机视觉 +1
经典BN很NB,精读论文《Batch Normalization》

首先看摘要和结论,然后分析核心思想,最后总结表格内容和实验细节。训练深度神经网络是一个复杂的事实,在训练过程中每一层的输入分布随着前一层的参数变化而变化。这就需要较低的学习速率和仔细的参数初始化来减缓训练速度,并且使得具有饱和非线性的模型的训练变得非常困难。我们将这一现象称为内部协变量偏移(internal covariateshift),并通过归一化层输入来解决这个问题。我们的方法从将规范化作为

文章图片
#计算机视觉#深度学习#神经网络 +2
    共 51 条
  • 1
  • 2
  • 3
  • 6
  • 请选择