
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
1.首先配置虚拟机,在node-1上,固定IP,设置好防火墙,然后克隆出节点2和3,修改一下IP和节点hostname。[root@localhost network-scripts]# vim ifcfg-eth0DEVICE=eth0#HWADDR=00:0C:29:57:1E:97(注释掉)TYPE=Ethernet#UUID=b3b4e88b-6f57-480b-...
一、神经网络起源:线性回归 1.线性回归: (1)概念:线性关系来藐视输入到输出的映射关系 (2)应用场景:网络分析,银行风向分析 (3)线性回归问题: 优化方法:梯度下降法SGD 梯度下降总结: 2.线性回归多个y值的输出 (1)多目标学习的过程,通过合并多个任务loss,一般能够产生比单个...
1.S 型神经元和感知器类似,但是被修改为权重和偏置的微小改动只引起输出的微小变化2.S型神经元结构: S型函数: 带有x1,x2,........,权重w1,w2.....,和偏置b的S型神经元的输出是: sigmoid函数图像转载于:https://www.cnblogs.com/bigdata-stone/p/10257566....
1.左边是梯度下降算法,右边是线性回归模型 我们要做的是将梯度下降算法应用到最小化平方差代价函数 在计算梯度下降时,不断的重复计算直至最后收敛。 上式(1)中是对θ0进行求偏导,(2)是对θ1求偏导。在凸函数中,转载于:https://www.cnblogs.com/bigdata-stone/p/10303608.html...
1.矩阵:由数字组成的矩形阵列,并写在方括号内2.向量:只有一列的矩阵,从0开始做下标3.矩阵乘法没有交换律:AXB!=BXA(矩阵的乘法没有交换律) 矩阵乘法有结合律:AxBxC=(AxB)xC=Ax(BxC)4.单位矩阵。nxn单位矩阵,不同的单位矩阵有不同的维度n5.对于任意矩阵A,乘以单位矩阵后的结果都等于矩阵A。 6.矩阵的逆运算以及矩阵的转置...
1.向量内积: (1)假设有u和v这两个二维向量:,接下来看一下u的转置乘以v的结果,u的转置乘以v也叫做向量u和向量v的内积,u是一个二维向量,可以将其在图上画出来,如下图所示向量u: 在横轴上它的值就是某个u_1,在纵轴上它的高度就是某个值u_2,即U的第二个分量,那么现在就容易得出向量u的范数,||u||就表示u的范数或者u的欧几里得长度,即 同理对于向量...