logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

图像上采样方法 - 插值 反卷积 反池化

有3种常见的方法:双线性插值(bilinear)反卷积(Transposed Convolution)反池化(Unpooling)pytorch 上采样: https://pytorch.org/docs/stable/_modules/torch/nn/modules/upsampling.html双线性插值 (bilinear)import torch.nn as nnnn....

#深度学习
OPENCV C++ 找到最大内接矩形(正方形)

OPENCV-C++ 找到最大内接矩形(正方形)这源代码本来是检测最大内接圆形的,本人想要矩形,所以变成了正方形;谨慎使用;不是严格意义上的最大内接矩形;cv::Mat map_one_label = cv::imread("src.png",cv2.IMREAD_GRAYSCALE); //默认灰度图std::vector<Rect> max_in_quare_rect= ...

文章图片
#opencv#c++
Opencv C++ 判断一个点是否在一个矩形内(RECT)

OPENCV C++ 判断一个点是否在一个矩形内(RECT)在这里,线上的点也算在矩形内;如果不算线上的点,将isPointInRect中判断<= 和>= 都改为< 和>;// A code C++// An highlighted blockbool isPointInRect(Point P, Rect rect) {Point A = rec...

#c++#opencv
PyTorch torch.optim.lr_scheduler 学习率设置 调参-- CyclicLR

torch.optim.lr_scheduler 学习率设置– CyclicLR学习率的参数调整是深度学习中一个非常重要的一项,Andrew NG(吴恩达)认为一般如果想调参数,第一个一般就是学习率。作者初步学习者,有错误直接提出,热烈欢迎,共同学习。(感谢Andrew ng的机器学习和深度学习的入门教程)【来源: https://pytorch.org/docs/stable/opti...

#pytorch#深度学习
激活函数--Sigmoid,tanh,RELU,RELU6,Mish,Leaky ReLU等

激活函数目前自己使用比较多的激活函数RELU, RELU6; LeakyReLU; SELU; Mish;激活函数看:计算量;准确率;大多数激活函数pytorch里有已经包装好了: Non-linear Activations (weighted sum, nonlinearity)Non-linear Activations (other)[https://pytorch.org/docs/st

#深度学习
PyTorch torch.optim.lr_scheduler 学习率 - LambdaLR;StepLR;MultiStepLR;ExponentialLR

PyTorch学习率调整策略通过torch.optim.lr_scheduler接口实现。PyTorch提供的学习率调整策略分为三大类,分别是有序调整:等间隔调整(Step),按需调整学习率(MultiStep),指数衰减调整(Exponential)和余弦退火CosineAnnealing。自适应调整:自适应调整学习率 ReduceLROnPlateau。自定义调整:自定义调整学习率 L...

#深度学习#pytorch
PyTorch torch.optim.lr_scheduler 学习率设置 调参 -- CosineAnnealingLR

lr_scheduler 学习率学习率的参数调整是深度学习中一个非常重要的一项,Andrew NG(吴恩达)认为一般如果想调参数,第一个一般就是学习率。作者初步学习者,有错误直接提出,热烈欢迎,共同学习。(感谢Andrew ng的机器学习和深度学习的入门教程)PyTorch学习率调整策略通过torch.optim.lr_scheduler接口实现。PyTorch提供的学习率调整策略分为三大类,..

#pytorch#深度学习
到底了