logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

caffe安装:cuda_runtime.h: No such file or directory

转载:https://gitter.im/BVLC/caffe/archives/2015/08/20Hi guysneed some help!I have this error when trying to install caffeCXX src/caffe/parallel.cppsrc/caffe/parallel.cpp:2:26: fatal error: cuda...

#caffe
目标检测之Loss:FasterRCNN中的SmoothL1Loss

多任务损失(来自Fast R-CNN) multi-task数据结构Fast R-CNN网络有两个同级输出层(cls score和bbox_prdict层),都是全连接层,称为multi-task。① clsscore层:用于分类,输出k+1维数组p,表示属于k类和背景的概率。对每个RoI(Region of Interesting)输出离散型概率分布通常,p由k+1类的全连接层利用softmax

深度学习剖根问底:最优化方法总结

我们每个人都会在我们的生活或者工作中遇到各种各样的最优化问题,比如每个企业和个人都要考虑的一个问题“在一定成本下,如何使利润最大化”等。最优化方法是一种数学方法,它是研究在给定约束之下如何寻求某些因素(的量),以使某一(或某些)指标达到最优的一些学科的总称。随着学习的深入,博主越来越发现最优化方法的重要性,学习和工作中遇到的大多问题都可以建模成一种最优化模型进行求解,比如我们现在学习的机器学习算法

目标检测中Loss函数:Focal Loss反向求导

focal Loss梯度求导的链式法则:转载: https://blog.csdn.net/linmingan/article/details/77885832     反向传播网络的工作过程是首先进行信息的前馈,计算出各个节点的输入输出值,网络最终的输出,并把各个节点的输入输出值进行存储,利用损失函数求出最终的损失,然后进行损失的反向传播,在损失反向传播的过程中实际上是对各个节点的输出进行求梯度

SSD算法详解default box

SSD算法详解default box

faster RCNN的Python的画出来loss曲线图

faster RCNN的Python的画出来loss曲线图

深度学习中常用的层:Full Connect全连接层

全连接层的推导全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的。全连接层的前向计算下图中连线最密集的2个地方就是全连接层,这很明显的可以看出全连接层的参数的确很多。在前向计算过程,也就是一个线性的加权求和的过程,全连接层的每一个输出都可以看成前一层的每一个结点乘以一个权重系数W,最后加上一个偏置值b得到,即 。如下图中第

模型调参:绘制loss曲线图

模型调参:绘制loss曲线图

#caffe
centerloss的论文解读

centerloss的论文解读

图像大模型面试题

DDIM 与DDPM相比,忽略了条件[公式] ,是一个更一般的过程。在前向扩散中,DDPM尽管有累积公式,但其过程本质上是逐步的,每一步都依赖于前一步,符合马尔科夫链的定义。DDIM公式结构直接生成 [公式] ​,使得每一步都是独立的,不符合马尔科夫链的定义。在采样过程中,直接用 [公式] 替换 [公式] ,表示 [公式] 是独立的,使得整个过程不再是一个马尔科夫链,实现了跳步操作加速运算。1:d

#AIGC
    共 29 条
  • 1
  • 2
  • 3
  • 请选择