logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习基础--LSTM学习笔记(李沐《动手学习深度学习》)

忘记门(遗忘门):将朝着0减少输入门:决定是不是要忽略输入数据输出门:决定是不是要使用隐状态👀提示:一下数学公式组合成一块,我感觉就不是那么容易理解了,但是能大概理解即可,后面在案例中实践学习。LSTM原理具体细节确实复杂,但是我感觉可以结合实践慢慢理解,毕竟小编还是本科生🤠🤠.

文章图片
#深度学习#lstm#学习 +4
深度学习基础--目标检测入门简介

📚 一句话,找出图像中感兴趣的物体,确定其位置和类别。由于物体类别不同,其形状、外观、姿态都不同,而且还受环境的影响,故在cv领域,目标检测一直都是一个很热门的话题。🐶 目标检测任务:找出每个物体,类别标注出来,还需要找出具体的位置,位置通常用边缘框表示。边缘框概念用一个边框框主一个物体,如图:这个图要注意一下:坐标系和普通不太一样,主要是坐标。所以,如果物体很多,那需要的成本也是需要很高的。

文章图片
#深度学习#目标检测#人工智能 +3
深度学习基础--CNN经典网络之InceptionV1研究与复现(pytorch)

Network-in-Network(NiN)是一种深度学习架构,它在2013年由Lin等人提出,旨在提高传统卷积神经网络(CNNs)的性能。卷积核来降维,这样虽然加大了网络深度,但是也减少了参数量和计算量,网络结构如上图b所示。去掉两个辅助分支,只复现主要分支(详细请看网络结构),并进行实验,对猴痘病图片进行分类。黄色是头部,主要用于数据处理的,绿色是上面介绍的Inception Module结

文章图片
#深度学习#cnn#网络 +4
基于C++“简单且有效”的“数据库连接池”

表示连接池事先会和 MySQL Serve r创建最小个数的连接,当应用发起 MySQL 访问时,不用再创建和 MySQL Server 新的连接,直接从连接池中获取一个可用的连接即可,使用完成后并不去释放连接,而是把连接再归还到连接池当中。

文章图片
#c++#数据库#adb +4
深度学习基础案例2--从0到1构建CNN卷积神经网络(以识别CIFR10为例)

函数原型:输入通道数:输出通道数:卷积层大小stride:卷积步伐大小padding:添加到输入的所有四个边的填充。默认值:0dilation:扩张操作,控制kernel点(卷积核点)的间距,默认值:1。groups:将输入通道分组成多个子组,每个子组使用一组卷积核来处理。默认值为 1,表示不进行分组卷积。:‘zeros’, ‘reflect’, ‘replicate’或’circular’. 默

文章图片
#深度学习#cnn#人工智能 +4
C/C++语言基础--C++检测内存泄露方法、RALL思想模型

RAII (Resource Acquisition Is Initialization),也称为**“资源获取就是初始化”,是C++语言的一种管理资源、避免泄漏的惯用法**。C++标准保证任何情况下,已构造的对象最终会销毁,即它的析构函数最终会被调用。🛰换句话说RAII就是在创建出一个对象后,保证这个对象在他的有效生命周期中一直存在,一旦离开了他的生命周期,就会释放掉,结合类的构造和析构函数,

文章图片
#c语言#c++#java +4
深度学习基础--目标检测常见算法简介(R-CNN、Fast R-CNN、Faster R-CNN、Mask R-CNN、SSD、YOLO)

本文介绍了常见的目标检测算法,主要分为两阶段(Two-Stage)和单阶段(One-Stage)两大类。两阶段算法包括R-CNN、Fast R-CNN、Faster R-CNN和Mask R-CNN,其核心思想是通过区域建议网络(RPN)生成候选区域,再进行分类和边界框回归。R-CNN是最早的模型,但计算量大;Fast R-CNN通过共享卷积特征提高了效率;Faster R-CNN引入RPN进一步

文章图片
#深度学习#目标检测#算法 +3
深度学习基础--CNN经典网络之基于ResNet和DenseNet混合架构网络论文的复现(pytorch实现)

前言常见的一些模型融合方法有:本文采用的是第三种,参考论文:论文Resnet模型和DenseNet模型特点:在《论文》中,作者发现:ResNet更侧重于特征的复用,而DenseNet则更侧重于特征的生成。故作者提出了DPN网络,如图所示:这个图比较难看懂,换个更清晰的图看:这个图就容易看懂多了,DPN网络核心的就是上图中,蓝框和红框的东西,在DPN中,训练模块Block中,将输出的信息进行分拆,然

文章图片
#深度学习#网络#pytorch +4
《Python数据科学手册》---Numpy学习笔记(万字)

c = a + bd = a + 5结果:广播允许在不同大小的数组上执行这些类型的二进制操作——例如,我们可以很容易地向数组中添加标量.MM + a虽然这些示例相对容易理解,但更复杂的情况可能涉及两个数组的广播。print(a)print(b)结果:[0 1 2][[0][1][2]]a + b[1, 2, 3],

文章图片
#python#numpy#学习 +3
深度学习基础--11个专题带你入门Pytorch下篇(包括自动微分、模型保存、使用深度学习构建线性回归案例等)

make_regression() 作用:用来随机生成回归数据n_samples:数据集中样本的数量。n_features:每个样本的特征数量。n_informative:在生成的特征中,有多少个是真正影响目标变量的。n_targets:目标变量的数量,可以用于多元回归。bias:在目标变量中添加的常数偏置。effective_rank:如果指定,创建低秩矩阵来模拟相关性。tail_strengt

文章图片
#深度学习#pytorch#线性回归 +2
    共 30 条
  • 1
  • 2
  • 3
  • 请选择