
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
整理各种模型的公式,以后面试复习用RNN公式:ht=f(W⋅[ht−1,xt]+b)h_{t}=f\left(W \cdot\left[h_{t-1}, x_{t}\right]+b\right)ht=f(W⋅[ht−1,xt]+b)LSTM公式:遗忘门:ft=σ(Wf⋅[ht−1,xt]+bf)f_{t}=\sigma\left(W_{f} \cdot\left[h_{t-1}, x_{t

矩阵是什么?我们都知道映射指的是一个空间 Rm\mathbb{R}^mRm到另一个空间 Rn\mathbb{R}^nRn的变换关系,狭义的函数其实是映射的一种特例,特指实数集间 R1\mathbb{R}^1R1的映射关系。在所有映射中,我们最常见的是线性映射,对这种线性映射关系,我们是用矩阵来刻画,比如我们要将一个向量x∈Rmx \in \mathbb{R}^mx∈Rm映射到另外一个空间Rn\..
一些前置知识,期望、方差、协方差概念及其相关公式参见定义皮尔逊相关系数,简称相关系数,严格来说,应该称为“线性相关系数”。这是因为,相关系数只是刻画了X,Y之间的“线性”关系程度。换句话说,假如X与Y有其它的函数关系但非线性关系时,用相关系数来衡量是不合理的。相关系数定义为:ρX,Y=cov(X,Y)σXσY=E((X−μX)(Y−μY))σXσY=E(XY)−E(X)E(Y)E(X2)−E2(
主成分分析(Principal components analysis)PCA是一个很重要的降维算法,可以用来降噪、消除冗余信息等,只要和数据打交道几乎是必学的。它需要一些前置知识,我自己学的时候总是一知半解,后来才知道是这些前置知识基础没打牢固,为了彻底搞明白,我另外写了几篇文章,理清了其中用到的一些知识,基础不好的同学可以先过一下:带你深入理解期望、方差、协方差的含义一文读懂特征值分解EVD与
最小二乘法是一种最常用的解决回归问题的方法,它通过最小化误差的平方和来寻找 拟合数据的最佳匹配函数,本文详细介绍了最小二乘法的原理,并从几何角度解释了最小二乘法的几何意义
主成分分析(Principal components analysis)PCA是一个很重要的降维算法,可以用来降噪、消除冗余信息等,只要和数据打交道几乎是必学的。它需要一些前置知识,我自己学的时候总是一知半解,后来才知道是这些前置知识基础没打牢固,为了彻底搞明白,我另外写了几篇文章,理清了其中用到的一些知识,基础不好的同学可以先过一下:带你深入理解期望、方差、协方差的含义一文读懂特征值分解EVD与
最小二乘法是一种最常用的解决回归问题的方法,它通过最小化误差的平方和来寻找 拟合数据的最佳匹配函数,本文详细介绍了最小二乘法的原理,并从几何角度解释了最小二乘法的几何意义
最小二乘法是一种最常用的解决回归问题的方法,它通过最小化误差的平方和来寻找 拟合数据的最佳匹配函数,本文详细介绍了最小二乘法的原理,并从几何角度解释了最小二乘法的几何意义







