
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
AlexNet是第一个深度卷积网络模型,赢得了2012年ImageNet图像分类竞赛的冠军,自98年的LeNet后再次将深度学习研究引热,创造性的提出了很多方法且影响至今,如使用GPU进行训练使用ReLU 作为非线性激活函数使用 Dropout 防止过拟合使用数据增强来提高模型准确率等。论文地址VGGNet是牛津大学视觉几何组(Visual Geometry Group)提出的模型,该模型在201

anchor不是候选框(Proposal),后面会提到二者的区别。我们在特征图中找一个点,就可以在原图中找到对应的一个像素点,以该像素点为中心,画出9个不同大小和长宽比的框,称为anchor。如下图所示,这些anchor里面可能包含目标,也可能没有目标。因为我们在一张图中想找的的目标的大小和长宽比并不是固定的,所以这里用9个不同大小和长宽比的anchor来进行预测。那么为什么是9个anchor呢?

AlexNet是第一个深度卷积网络模型,赢得了2012年ImageNet图像分类竞赛的冠军,自98年的LeNet后再次将深度学习研究引热,创造性的提出了很多方法且影响至今,如使用GPU进行训练使用ReLU 作为非线性激活函数使用 Dropout 防止过拟合使用数据增强来提高模型准确率等。论文地址VGGNet是牛津大学视觉几何组(Visual Geometry Group)提出的模型,该模型在201

AlexNet是第一个深度卷积网络模型,赢得了2012年ImageNet图像分类竞赛的冠军,自98年的LeNet后再次将深度学习研究引热,创造性的提出了很多方法且影响至今,如使用GPU进行训练使用ReLU 作为非线性激活函数使用 Dropout 防止过拟合使用数据增强来提高模型准确率等。论文地址VGGNet是牛津大学视觉几何组(Visual Geometry Group)提出的模型,该模型在201

anchor不是候选框(Proposal),后面会提到二者的区别。我们在特征图中找一个点,就可以在原图中找到对应的一个像素点,以该像素点为中心,画出9个不同大小和长宽比的框,称为anchor。如下图所示,这些anchor里面可能包含目标,也可能没有目标。因为我们在一张图中想找的的目标的大小和长宽比并不是固定的,所以这里用9个不同大小和长宽比的anchor来进行预测。那么为什么是9个anchor呢?

LSTM 可以学习只保留相关信息来进行预测,并忘记不相关的数据。简单说,因记忆能力有限,记住重要的,忘记无关紧要的。LSTM通过刻意的设计来避免长期依赖问题。记住长期的信息在实践中是LSTM的默认行为,而非需要付出很大代价才能获得的能力!所有RNN都具有一种重复神经网络模块的链式的形式。在标准的RNN中,这个重复的模块只有一个非常简单的结构,例如一个tanh层。激活函数 Tanh 作用在于帮助调节








