logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

搭建多人共用GPU服务器

                背景                需求                调研                安装                配置                    配置LXD                    配置网桥                    新建容器                    安装驱动    ...

pytorch中常见loss函数归纳(二分类、多分类、检测、分割、回归)

PyTorch中的loss函数源码通常可以在torch.nn.functional模块中找到。这些函数接受模型的输出和真实标签作为输入,并计算出模型预测的误差,从而帮助优化器调整模型参数。二分类任务只有两个类别,如判断一张图片是猫还是狗。常用的损失函数有:(1)BCELoss(Binary Cross Entropy Loss):二分类交叉熵损失函数,适合输出为概率值的情况。

文章图片
#pytorch#人工智能#深度学习
optimizer.zero_grad(), loss.backward(), optimizer.step()的理解及使用

这三个函数的作用是将梯度归零(optimizer.zero_grad()),然后反向传播计算得到每个参数的梯度值(loss.backward()),最后通过梯度下降执行一步参数更新(optimizer.step())。简单的说就是进来一个batch的数据,先将梯度归零,计算一次梯度,更新一次网络。另外一种:将**optimizer.zero_grad()放在optimizer.step()**后面

#深度学习#人工智能#神经网络
RANSAC原理及二次/三次多项式曲线拟合

RANSAC(RANdom SAmple Consensus)是一种经典的模型拟合算法,用于从一组杂乱的数据中找出最佳的模型。它的基本思想是随机选取一定数量的数据点,使用这些数据点来拟合模型,然后将所有数据点带入模型中,统计符合模型的数据点数量,如果符合数量超过阈值,则认为这些数据点符合这个模型,即它们是局内点(inlier)。重复以上过程,多次迭代之后,找到的最佳模型是拟合最优的模型,符合该模型

文章图片
#算法#机器学习#python
pytorch中常见loss函数归纳(二分类、多分类、检测、分割、回归)

PyTorch中的loss函数源码通常可以在torch.nn.functional模块中找到。这些函数接受模型的输出和真实标签作为输入,并计算出模型预测的误差,从而帮助优化器调整模型参数。二分类任务只有两个类别,如判断一张图片是猫还是狗。常用的损失函数有:(1)BCELoss(Binary Cross Entropy Loss):二分类交叉熵损失函数,适合输出为概率值的情况。

文章图片
#pytorch#人工智能#深度学习
OpenCV将两张图片拼接成一张图片

【代码】OpenCV将两张图片拼接成一张图片。

文章图片
#opencv#人工智能#计算机视觉
准确率、精确率、召回率、F1-score

追求召回率高,则通常会影响精确率。F1值为算数平均数除以几何平均数,且越大越好,将Precision和Recall的上述公式带入会发现,当F1值小时,True Positive相对增加,而false相对减少,即Precision和Recall都相对增加,即F1对Precision和Recall都进行了加权。直白的意思就是模型预测为正例的样本中,其中真正的正例占预测为正例样本的比例,用此标准来评估预

#机器学习#人工智能#深度学习
ubuntu:命令行修改apt&pip源到国内源

命令行修改apt源如果想用清华源同理改为@mirrors.tuna.tsinghua.edu.cn即可。

#ubuntu#linux#服务器
多头注意力(Multi-Head Attention)和交叉注意力(Cross-Attention)是两种常用的注意力机制的原理及区别

在类的初始化函数中,我们需要设置注意力头数num_heads,以及每个注意力头的k维度k_dim和v维度v_dim。在前向传播函数中,我们使用全连接层将x1投影到k_dim * num_heads维度,x2投影到k_dim * num_heads和v_dim * num_heads的空间,再将结果按注意力头和k_dim/v_dim维度进行调整。注意力计算完成后,将得分与v相乘,再将结果按注意力头和

文章图片
#人工智能#深度学习
到底了