logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习笔记:超萌玩转卷积神经网络(CNN)(炼丹续篇)

经过前面的步骤,咱们的“丹药”终于要炼成啦!全连接层就像炼丹炉的“出丹口”,它把前面提取的特征整合起来,做出最终的判断(分类或回归)。它会综合考虑所有的特征,就像咱们判断一颗丹药是否炼成一样,要综合考虑颜色、气味、形状等多个方面,然后给出一个最终的“成丹”结果!宝子们,咱们这趟“炼丹”之旅是不是越来越有趣啦?从深度学习这口“大炼丹炉”,到CNN这位“炼丹小能手”,咱们一步步揭开了它们的神秘面纱。

文章图片
#深度学习#cnn
【深度学习框架终极PK】TensorFlow/PyTorch/MindSpore深度解析!选对框架效率翻倍

TensorFlow + Horovod > PyTorch + DDP > MindSpore自动并行。:MindSpore联邦学习 > PySyft > TensorFlow Federated。🔥 建议掌握PyTorch+TensorFlow(覆盖90%场景)"你正在使用哪个框架?✅ TensorFlow(工业标准,长期维护)✅ PyTorch(学界标准,方便复现论文)✅ MindSpor

文章图片
#深度学习#tensorflow#pytorch +2
Darknet网络详解:从YOLO的骨干到高效深度学习框架

在目标检测领域,YOLO(You Only Look Once)系列算法以其惊人的速度和较高的准确率闻名于世。而支撑这一系列算法的"发动机",正是我们今天要深入探讨的Darknet。Darknet其实有双重身份:它既是一个轻量级深度学习框架,也是YOLO系列算法所采用的主干网络架构。这种"两位一体"的设计使得YOLO能够在性能和效率之间找到完美平衡🚀。高效性:通过精心设计的卷积组合和残差块,实现

文章图片
#网络#深度学习
深度学习笔记:从零开始的“炼丹”之旅

本文为零基础读者定制深度学习入门指南。首先拆解神经网络三层结构,结合猫狗分类案例,用Keras代码演示CNN模型搭建(卷积层+池化层+全连接层),并解析关键参数(如输入尺寸28x28、激活函数ReLU)。训练环节聚焦数据集划分(8:1:1)与fit()参数调优(epochs/batch_size),同步给出三大常见问题解决方案:过拟合用Dropout+正则化,梯度异常用ReLU+BatchNorm

文章图片
#学习#人工智能#深度学习 +1
深度学习“记忆大师”——RNN模型大揭秘

宝子们,RNN模型就像深度学习江湖中的一位“记忆大师”,凭借它独特的循环结构,在处理序列数据方面有着独特的优势。虽然它有长期依赖这个“小烦恼”,但它的改进模型LSTM和GRU已经很好地解决了这个问题。在未来的深度学习应用中,RNN及其改进模型还会在更多的领域发光发热。希望今天对RNN的介绍能让大家对这个神奇的模型有更深入的了解😜!

文章图片
#深度学习#rnn#人工智能 +1
【深度学习框架终极PK】TensorFlow/PyTorch/MindSpore深度解析!选对框架效率翻倍

TensorFlow + Horovod > PyTorch + DDP > MindSpore自动并行。:MindSpore联邦学习 > PySyft > TensorFlow Federated。🔥 建议掌握PyTorch+TensorFlow(覆盖90%场景)"你正在使用哪个框架?✅ TensorFlow(工业标准,长期维护)✅ PyTorch(学界标准,方便复现论文)✅ MindSpor

文章图片
#深度学习#tensorflow#pytorch +2
深度学习常用激活函数:炼丹界的“十八般武艺”

在深度学习的炼丹江湖里,选择合适的激活函数就像给我们的模型挑选一件称手的“神兵利器”。二分类问题输出层,Sigmoid 函数这位老江湖偶尔还能露两手;多分类问题输出层,SoftMax 函数这位皇帝稳坐江山;回归问题输出层,Identity 函数这个小精灵默默发挥作用;而隐藏层中,ReLU 及其小伙伴 LeakReLU、ELU 等就像各路武林高手,各有各的绝招,我们要根据具体的“江湖形势”(数据特点

文章图片
#深度学习#人工智能
非极大值抑制(NMS)详解:目标检测中的“去重神器”

​​NMS是什么​​:目标检测的后处理算法,用于​​去除冗余框​​;核心思想​​:​​保留局部最高分框​​,抑制与其高度重叠的框;​​关键参数​​:IoU阈值(常用0.5~0.7);​​代码实现​​:10行Python即可搞定(排序 + IoU计算 + 迭代抑制);​​适用场景​​:任何输出多个候选框的目标检测模型(YOLO、SSD等)。🌟 ​​一句话牢记NMS​​:​​“只留最自信的框,重叠太

文章图片
#目标检测#人工智能#计算机视觉 +1
深度学习笔记:超萌玩转卷积神经网络(CNN)(炼丹续篇)

经过前面的步骤,咱们的“丹药”终于要炼成啦!全连接层就像炼丹炉的“出丹口”,它把前面提取的特征整合起来,做出最终的判断(分类或回归)。它会综合考虑所有的特征,就像咱们判断一颗丹药是否炼成一样,要综合考虑颜色、气味、形状等多个方面,然后给出一个最终的“成丹”结果!宝子们,咱们这趟“炼丹”之旅是不是越来越有趣啦?从深度学习这口“大炼丹炉”,到CNN这位“炼丹小能手”,咱们一步步揭开了它们的神秘面纱。

文章图片
#深度学习#cnn
非极大值抑制(NMS)详解:目标检测中的“去重神器”

​​NMS是什么​​:目标检测的后处理算法,用于​​去除冗余框​​;核心思想​​:​​保留局部最高分框​​,抑制与其高度重叠的框;​​关键参数​​:IoU阈值(常用0.5~0.7);​​代码实现​​:10行Python即可搞定(排序 + IoU计算 + 迭代抑制);​​适用场景​​:任何输出多个候选框的目标检测模型(YOLO、SSD等)。🌟 ​​一句话牢记NMS​​:​​“只留最自信的框,重叠太

文章图片
#目标检测#人工智能#计算机视觉 +1
    共 29 条
  • 1
  • 2
  • 3
  • 请选择