
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
文章目录目标检测问题定义介绍目标检测和图像分类、图像分割的区别目标检测问题方法传统目标检测深度学习目标检测传统 Vs 深度学习传统目标检测综述Viola-JonesHOG+SVMDPMNMS 非极大值抑制目标检测问题定义介绍目标种类与数量问题:种类不同。种类越多,难度越大。数量越多(遮挡),难度越大。目标尺度问题:同一种类的物体,也会有不同的尺度。尺度变化越大,目标检测的难度越大。尤其是在尺度非常
文章目录41 不平衡数据是否会影响神经网络的分类效果?41 无监督降维提供的是帮助还是摧毁?42 是否可以将任何非线性作为激活函数?43 批大小如何影响测试正确率?44 初始化如何影响训练?45 不同层的权重是否以不同的速度收敛?46 正则化如何影响权重?47 多标签loss48 多标签分类的准确率49 数据类不平衡50 欠拟合和过拟合41 不平衡数据是否会影响神经网络的分类效果?当数据集不平衡时
文章目录医疗影像种类与存储种类存储方式影像分割任务及数据集影像分割模型U-NET3D U-NETV-NETFC-DenseNet病理切片数据病理切片分析医疗影像种类与存储种类存储方式影像分割任务及数据集影像分割模型U-NET3D U-NETV-NETFC-DenseNet病理切片数据病理切片分析...
f(x)=w1x1+w2x2,是三维空间的一条直线。MSE均方误差(平方求和再平均)。最小二乘(least square mehtod)。英文是最小平方的方法。就是求误差平方的最小值问题。注意,因为是线性回归模型,而且损失函数是凸函数,所以可以通过将损失函数求导,2阶凸函数的导数为0的点,就是最小值点。w**2是正数,就是一饿抛物线。开口向上。为什么多元线性回归不用最小二乘法,因为那样的话,计算的
文章目录51 Resnet和Transformer的模型结构ResnetTransformer52 CNN和RNN优缺点53 介绍LSTM54 讲下Self-Attention55 常见激活函数和特点56 Layer norm和Batch norm的区别57 卷积的本质58 概率的知识点59 Sigmoid 、MSELoss 及 CELoss 的来源60 讲一下目标检测 OneStage、 Two
文章目录71 请介绍 k-mean 算法的原理72 逻辑回归怎么分类非线性数据?73 请介绍几种常用的参数更新方法。74 Xgboost、lightGBM 和 Catboost 之间的异同?75 讲讲 dropout 原理76 怎么解决过拟合?怎么做图像增广?77 Sigmoid 有哪些特性?激活函数了解多少?78 lr 为什么要用极大似然 ?79 讲一下 lgb 的直方图是怎么用的 ?80 集成
文章目录目标检测问题定义介绍目标检测和图像分类、图像分割的区别目标检测问题方法传统目标检测深度学习目标检测传统 Vs 深度学习传统目标检测综述Viola-JonesHOG+SVMDPMNMS 非极大值抑制目标检测问题定义介绍目标种类与数量问题:种类不同。种类越多,难度越大。数量越多(遮挡),难度越大。目标尺度问题:同一种类的物体,也会有不同的尺度。尺度变化越大,目标检测的难度越大。尤其是在尺度非常
文章目录41 不平衡数据是否会影响神经网络的分类效果?41 无监督降维提供的是帮助还是摧毁?42 是否可以将任何非线性作为激活函数?43 批大小如何影响测试正确率?44 初始化如何影响训练?45 不同层的权重是否以不同的速度收敛?46 正则化如何影响权重?47 多标签loss48 多标签分类的准确率49 数据类不平衡50 欠拟合和过拟合41 不平衡数据是否会影响神经网络的分类效果?当数据集不平衡时
文章目录目标检测问题定义介绍目标检测和图像分类、图像分割的区别目标检测问题方法传统目标检测深度学习目标检测传统 Vs 深度学习传统目标检测综述Viola-JonesHOG+SVMDPMNMS 非极大值抑制目标检测问题定义介绍目标种类与数量问题:种类不同。种类越多,难度越大。数量越多(遮挡),难度越大。目标尺度问题:同一种类的物体,也会有不同的尺度。尺度变化越大,目标检测的难度越大。尤其是在尺度非常
f(x)=w1x1+w2x2,是三维空间的一条直线。MSE均方误差(平方求和再平均)。最小二乘(least square mehtod)。英文是最小平方的方法。就是求误差平方的最小值问题。注意,因为是线性回归模型,而且损失函数是凸函数,所以可以通过将损失函数求导,2阶凸函数的导数为0的点,就是最小值点。w**2是正数,就是一饿抛物线。开口向上。为什么多元线性回归不用最小二乘法,因为那样的话,计算的







