logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

卷积神经网络 - 转置卷积

本文,围绕转置卷积,举了4个例子,虽然篇幅有点长,但是每个例子都体现了不同的思想,需要一些耐性来研读,这样也有助于大家深入理解和掌握转置卷积。

文章图片
#cnn#深度学习#神经网络 +2
deepseek对知识库的切割策略,会影响知识库的利用率和准确性吗?

本文我们来了解一下不同的切割策略,可能造成的DeepSeek对于知识库应用的影响。DeepSeek默认的按字符切割方式在特定场景下可能对知识库的利用率和准确性产生影响,但其效果取决于具体应用场景和文本类型。

#人工智能
神经网络优化 - 高维变量的非凸优化

本文我们来学习高维变量(空间)的非凸优化,深度神经网络是一个高度非线性的模型,其风险函数是一个非凸函数,因此风险最小化是一个非凸优化问题。此外,深度神经网络还存在梯度消失问题。因此,深度神经网络的优化是一个具有挑战性的问题。

文章图片
#人工智能#深度学习#神经网络 +1
机器学习 - 容易混淆的目标函数和损失函数

目标函数和损失函数这两个术语在机器学习中经常被提到,有时候会被混用,但其实它们有不同的含义。目标函数通常是优化问题的核心,是我们想要最大化或最小化的那个函数。而损失函数则更多地用于衡量模型预测与真实值之间的差异,是目标函数中的一部分。

文章图片
#机器学习#人工智能
神经网络优化 - 小批量梯度下降

在训练深度神经网络时,训练数据的规模通常都比较大。如果在梯度下降 时,每次迭代都要计算整个训练数据上的梯度,这就需要比较多的计算资源。另外大规模训练集中的数据通常会非常冗余,也没有必要在整个训练集上计算梯度。因此,在训练深度神经网络时,经常使用小批量梯度下降法(Mini-Batch Gradient Descent)。

文章图片
#神经网络#人工智能#深度学习 +1
机器学习 - 进一步理解最大似然估计和高斯分布的关系

积分通常用于计算连续随机变量在某一区间内的概率。然而,在MLE中,我们关注的是给定参数下观测数据出现的联合概率,而不是某一区间内的概率质量。因此,对于独立同分布的观测数据,直接将每个数据点的概率相乘即可得到联合概率,这就是似然函数。

文章图片
#机器学习#概率论#人工智能
卷积神经网络 - LeNet-5

LeNet-5 是卷积神经网络(CNN)的早期代表之一,由 Yann LeCun 等人在 1998 年提出,主要用于手写数字识别任务(如 MNIST 数据集)。 本文我们从其网络结构、各层功能以及整体设计思想入手理解 LeNet-5。

文章图片
#cnn#深度学习#人工智能 +2
神经网络 - 函数饱和性、软性门、泰勒级数

在接下来对于神经网络的学习中,我们会涉及到函数饱和性、软性门的概念,还需要用到泰勒级数,本文我们来理解这些基础知识,为后续学习神经网络的激活函数做准备。

文章图片
#神经网络#机器学习#人工智能 +1
如何理解神经网络回归

神经网络回归是基于人工神经网络(ANN)实现的一种回归分析方法。它通过模拟人类神经元的工作原理,利用神经元和权重的组合,从输入数据中学习复杂的非线性关系,从而预测一个连续值(即回归任务)。

文章图片
#回归#数据挖掘#人工智能
卷积神经网络 - ResNet(残差网络)

残差网络(Residual Network,简称 ResNet)是一种特殊的深度神经网络结构,由 Kaiming He 等人在 2015 年提出,目的是解决深层网络训练中出现的退化问题和梯度消失问题,本文我们来学习残差网络。

文章图片
#cnn#网络#人工智能 +3
    共 142 条
  • 1
  • 2
  • 3
  • 15
  • 请选择