logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习-卷积神经网络CNN-批量归一化 BatchNorm

以 batch-0 为例: 把 3×2×2 = 12 个数拉成一条向量: {1, 3, 5, 7, 2, 4, 6, 8, 0, 2, 4, 6}以 R 通道为例: 共有 2×2×2 = 8 个像素值:{1, 3, 5, 7, 2, 4, 6, 8}输入:手写数字灰度图,只保留 2 个像素 → 输入 x 形状 (batch, 2)。归一化维度:在 (B, H, W) 三个维度上求均值/方差,每个通

#深度学习#cnn#人工智能 +2
深度学习-计算机视觉-数据增广/图像增广

摘要:数据增广是提升深度学习模型泛化能力的关键技术,通过多种图像变换方法增加训练数据多样性。常用方法包括几何变换(翻转、裁剪)、色彩调整(亮度、色调)等,需根据任务特点选择合适策略。代码示例展示了使用PyTorch实现随机翻转、裁剪和颜色变换的方法,以及如何组合多种增广方式。数据增广可有效解决数据稀缺问题,但需注意避免过度增广导致数据失真。该技术在AlexNet等模型成功中发挥了重要作用。

文章图片
#深度学习#计算机视觉#人工智能 +3
深度学习-计算机视觉-目标检测三大算法-R-CNN、SSD、YOLO

目标检测算法主要分为两类:两阶段(Two-Stage)和单阶段(One-Stage)。两阶段算法如R-CNN系列,先提取候选区域再进行分类和回归,精度高但速度慢。R-CNN对每个候选区域单独处理;Fast R-CNN通过共享特征图提高效率;Faster R-CNN引入RPN实现端到端训练。单阶段算法如SSD和YOLO,直接在网络中预测目标的类别和位置,速度快但精度略低。SSD利用多尺度特征图检测不

文章图片
#深度学习#计算机视觉#目标检测
深度学习-计算机视觉-风格迁移

本文介绍基于卷积神经网络的图像风格迁移方法。该方法通过预训练的VGG-19网络提取内容图像和风格图像的特征,使用内容损失、风格损失和全变分损失定义优化目标,通过迭代更新合成图像。具体实现包括:预处理图像、定义特征提取网络、计算Gram矩阵表达风格特征,以及训练过程中优化损失函数。实验结果表明,该方法能有效保留内容图像的主体结构,同时迁移风格图像的艺术风格特征(如色彩分布和笔触纹理),最终生成具有艺

文章图片
#深度学习#计算机视觉#人工智能
深度学习-梯度爆炸与梯度消失

深度学习训练中常遇到梯度消失和梯度爆炸问题。梯度消失导致深层网络参数难以更新,表现为训练停滞;梯度爆炸则使参数剧烈波动,导致训练失控。解决方案包括使用ReLU激活函数、梯度裁剪等技术。此外,模型推理时需调用model.eval()切换Dropout和BatchNorm层至推理模式,常与torch.no_grad()配合使用以保证稳定性和效率。这些方法对CV、NLP等任务至关重要。

#深度学习#人工智能
深度学习-卷积神经网络CNN-多输入输出通道

每个图像有多个通道和多层卷积层。例如彩色图像具有标准的RGB通道来代表红、绿和蓝。但是到目前为止(详细见前面几章知识点),我们仅展示了单个输入和单个输出通道的简化例子。这使得我们可以将输入、卷积核和输出看作二维张量。当我们添加通道时,我们的输入和隐藏的表示都变成了三维张量。例如,每个RGB输入图像具有 3*h*w 的形状。我们将这个大小为的轴称为。本节将更深入地研究具有多输入和多输出通道的卷积核。

#深度学习#cnn#人工智能
深度学习-读写模型网络文件

模型网络文件是深度学习模型的存储形式,保存了模型的架构、参数等信息。读写模型网络文件是深度学习流程中的关键环节,方便模型的训练、测试、部署与共享。

#深度学习#人工智能
深度学习-模型评估与选择

模型在训练数据上的误差。问题:过度追求低训练误差 → 过拟合(模型记忆噪声,泛化能力差)。:模型在新数据上的误差,也称为。目标:最小化测试误差 → 确保模型泛化能力。:模型预测与真实值的系统性差距。本质:模型忽略了多少真实规律高偏差 → 欠拟合(模型过于简单,忽略数据规律)。:模型对训练数据扰动的敏感性。本质:模型学习了多少噪声高方差 → 过拟合(模型复杂,过度拟合噪声)。:数据固有噪声σ。关键:

#机器学习#python#深度学习
深度学习-计算机视觉-微调 Fine-tune

迁移学习通过利用预训练模型(如ImageNet上的ResNet-18)学习到的通用视觉特征(边缘、纹理、形状等),将其迁移到新任务(如热狗识别)以提升性能。核心方法包括:1)替换输出层适配新任务;2)微调模型参数(特征层使用小学习率,输出层大学习率)。实验表明,微调预训练模型(测试准确率93.9%)显著优于从头训练(84.3%),尤其适合小数据集场景。代码实现了数据增强、模型结构调整和分层学习率优

文章图片
#深度学习#计算机视觉#人工智能 +3
深度学习-梯度爆炸与梯度消失

深度学习训练中常遇到梯度消失和梯度爆炸问题。梯度消失导致深层网络参数难以更新,表现为训练停滞;梯度爆炸则使参数剧烈波动,导致训练失控。解决方案包括使用ReLU激活函数、梯度裁剪等技术。此外,模型推理时需调用model.eval()切换Dropout和BatchNorm层至推理模式,常与torch.no_grad()配合使用以保证稳定性和效率。这些方法对CV、NLP等任务至关重要。

#深度学习#人工智能
到底了