logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

吴恩达 深度学习 梯度下降法

关于梯度下降法 在这个是关于w和b的两个变量 因此产生的代价函数J是三维的 那么在这里我们对w和b来进行梯度下降法 就可以得到最优解 三维的不是很直观 因此下面将采用二维的来进行说明梯度下降法如图所示 在这里你可以理解为先固定齐整一个参数 对另外一个参数进行更新 则关于代价函数 变成了一个二维的图形 如上图所示 那么二维图形就将直观很多 比如这里固定的是b 则是关于一个w的函数 那么求w函数的最.

#深度学习
Error: listen EADDRINUSE: address already in use :::8080

这是端口被占用了 解决办法如下netstat-ano // 在终端也就是命令行中输入 去找到你项目的被占用的端口号例如我的是8080的端口 然后记住最右边的数字在命令行继续输入tskill 19144 // 这样就杀死了这个端口号的进程再去重新运行你的项目就好了...

吴恩达-深度学习-各个变量的求导

这是关于损失函数对各变量的求导 是单样本实例的 在这里 是假设样本有两个特征值 那么对应的有两个权重 但是偏差是一样的 所以关于z的函数则如上图所示 关于da/dz的求导 是因为 a = σ(z)=1/(1+ⅇ^(-z) ) 所以对于da/dz的求导等于a(1-a) 而L(a,y) = -(...

吴恩达 深度学习 梯度下降法

关于梯度下降法 在这个是关于w和b的两个变量 因此产生的代价函数J是三维的 那么在这里我们对w和b来进行梯度下降法 就可以得到最优解 三维的不是很直观 因此下面将采用二维的来进行说明梯度下降法如图所示 在这里你可以理解为先固定齐整一个参数 对另外一个参数进行更新 则关于代价函数 变成了一个二维的图形 如上图所示 那么二维图形就将直观很多 比如这里固定的是b 则是关于一个w的函数 那么求w函数的最.

#深度学习
RPCA的算法推导-增广拉格朗日乘子法- PPT讲解

大家好,今天我要讲的是RPCA,那么什么是RPCA呢,它又有什么作用呢,在这里我分了四个部分去讲,背景和意义,RPCA的研究内容,也就是算法的推导,RPCA在现实中的应用。在很多的具体问题中,我们可以将信号或是数据来用矩阵来表示,使得对于数据的理解,建模,处理和分析更为的方便,然而这些数据经常面临着确实,损坏,受到噪声污染等问题,而如何在各种情况下得到干净的,准确的,结构性良好的数据,就是我们要.

到底了