logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

工程实践_深度学习模型后台训练不挂断命令

nohup和&组合使用nohup python file.py > filelog.txt 2>&1 &上述代码的组合使用就能够避免终端关闭、服务器断开等情况导致的模型训练终止。参数解释:filelog.txt:> 表示把标准输出(STDOUT)重定向到这个文件,这里重定向到了当前目录下的filelog.txt里,若没有此文件会自动生成。若没有特别指定,默

#python#深度学习#linux +1
深度学习_GAN_LSGAN

LSGAN(Least Squares GAN)这篇文章主要针对标准GAN的稳定性和图片生成质量不高做了一个改进。作者将原始GAN的交叉熵损失采用最小二乘损失替代。LSGAN的Loss:min⁡DJ(D)=min⁡D[12Ex∼pdata(x)[D(x)−a]2+12Ez∼pz(z)[D(G(z))−b]2]\mathop{\min }\limits_DJ(D)=\mathop{\min}\li.

#深度学习#机器学习#神经网络
深度学习_人脸检测概述

在目标检测领域可以划分为人脸检测与通用目标检测,往往人脸检测这方面会有专门的算法(包括人脸检测、人脸识别、人脸其他属性的识别等等),并且和通用目标检测(识别)会有一定的差别,这主要是因为人脸的特殊性(有时候目标比较小、人脸之间特征不明显、遮挡问题等),下面我们将从人脸检测和通用检测两个方面来讲解目标检测。...

#深度学习#机器学习#神经网络 +2
深度学习_深度学习基础_使用BCE损失进行多标签分类

其中iii为每一个类别。针对类别不均衡问题,增加权重项:多标签分类时,BCE损失结合sigmoid来使用,经过classifier分类过后的输出为(batch_sizze,num_class)为每个数据的标签,标签不是one-hot的主要体现在sigmoid(output)之后进行bceloss计算的时候:sigmoid输出之后,仍然为(batch_sizze,num_class)大小的,但是是每

#深度学习#机器学习#神经网络
深度学习_深度学习基础知识_最小二乘损失和最小均方误差损失(L2损失)的区别

首先,最小二乘法适用于有限样本。而最小均方误差适用于无限样本。通常我们所说的狭义的最小二乘,是指在线性回归下采用最下二乘准则,进行线性拟合参数求解。由于是基于线性回归,所以可以很容器求出全局最优解,而不是像梯度下降那样一点点的迭代优化最后达到极值点。而广义的最小二乘,本质上是一种目标函数。比如说我们在优化深度神经网络模型时,也可以用最小二乘去衡量某一拟合结果相对于ground truth的偏差程度

#深度学习#机器学习#最小二乘法 +1
深度学习框架_PyTorch_torchvision.transforms.functional.pad()函数

torchvision.transforms.functional.pad(img, padding, fill=0, padding_mode='constant')这个函数用于用指定的填充模式和填充值填充PIL图像。参数:img(PIL图像)-- 要填充的图像。padding(int或tuple)-- 各边的填充值。如果指定为int,表示所有边都按照这个值进行填充。如果指定为长为2...

#python#pytorch#深度学习 +1
深度学习框架_PyTorch_repeat()函数

PyTorch中的repeat()函数可以对张量进行复制。当参数只有两个时,第一个参数表示的是复制后的列数,第二个参数表示复制后的行数。当参数有三个时,第一个参数表示的是复制后的通道数,第二个参数表示的是复制后的列数,第三个参数表示复制后的行数。接下来我们举一个例子来直观理解一下:>>> x = torch.tensor([6,7,8])>>> x.r...

#深度学习#机器学习#人工智能
深度学习_数据集_Wider face数据集理解

Wider face数据集地址Widerface数据集是一个人脸检测的主流数据集。里面有32203张人脸图像,393703个标注人脸,且各类场景十分复杂。为了深入分析各类误检,作者还对每个人脸bbox还标注了多属性:遮挡、姿态、事件等,可以全方位多角度的评估算法的性能。wider face可以划分为60类事件,每类事件中的图像按照:训练 / 验证 / 测试:40% / 10% / 50%的比例划分

#机器学习#深度学习#算法 +1
深度学习_图像分割_Dice系数

Dice系数在图像分割和目标检测中比较常用。它的取值范围是0-1之间,越接近1说明模型效果越好。Dice系数是像素级别的,真实的目标出现在某片区域A,我们的模型预测的目标区域为B,那么Dice系数公式如下所示:...

#深度学习#机器学习#计算机视觉
深度学习_深度学习基础知识_FLOPs及相关概念详解

FLOPS(全大写) :是floating point operations per second的缩写,意指每秒浮点运算次数,理解为计算速度。是一个衡量硬件性能的指标。FLOPs(s小写) :是floating point operations的缩写(s表示复数),意指浮点运算数,理解为计算量。可以用来衡量算法/模型的复杂度。我们来计算一个卷积的FLPOs:卷积层(不考虑激活函数):(2×Cin

#深度学习#机器学习#神经网络
    共 29 条
  • 1
  • 2
  • 3
  • 请选择