logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

从零开始搭建大数据平台

1.首先配置虚拟机,在node-1上,固定IP,设置好防火墙,然后克隆出节点2和3,修改一下IP和节点hostname。[root@localhost network-scripts]# vim ifcfg-eth0DEVICE=eth0#HWADDR=00:0C:29:57:1E:97(注释掉)TYPE=Ethernet#UUID=b3b4e88b-6f57-480b-...

#大数据#java#开发工具
传统神经网络

一、神经网络起源:线性回归  1.线性回归:    (1)概念:线性关系来藐视输入到输出的映射关系    (2)应用场景:网络分析,银行风向分析    (3)线性回归问题:        优化方法:梯度下降法SGD      梯度下降总结:  2.线性回归多个y值的输出    (1)多目标学习的过程,通过合并多个任务loss,一般能够产生比单个...

#人工智能#数据结构与算法
神经网络之:S型神经元

1.S 型神经元和感知器类似,但是被修改为权重和偏置的微小改动只引起输出的微小变化2.S型神经元结构:   S型函数:    带有x1,x2,........,权重w1,w2.....,和偏置b的S型神经元的输出是:  sigmoid函数图像转载于:https://www.cnblogs.com/bigdata-stone/p/10257566....

#人工智能
吴恩达机器学习14:梯度下降以及平方差代价函数

1.左边是梯度下降算法,右边是线性回归模型  我们要做的是将梯度下降算法应用到最小化平方差代价函数  在计算梯度下降时,不断的重复计算直至最后收敛。    上式(1)中是对θ0进行求偏导,(2)是对θ1求偏导。在凸函数中,转载于:https://www.cnblogs.com/bigdata-stone/p/10303608.html...

#人工智能
吴恩达机器学习12:矩阵和向量

1.矩阵:由数字组成的矩形阵列,并写在方括号内2.向量:只有一列的矩阵,从0开始做下标3.矩阵乘法没有交换律:AXB!=BXA(矩阵的乘法没有交换律) 矩阵乘法有结合律:AxBxC=(AxB)xC=Ax(BxC)4.单位矩阵。nxn单位矩阵,不同的单位矩阵有不同的维度n5.对于任意矩阵A,乘以单位矩阵后的结果都等于矩阵A。  6.矩阵的逆运算以及矩阵的转置...

#人工智能
吴恩达机器学习103:SVM之大间隔分类器的数学原理

1.向量内积:  (1)假设有u和v这两个二维向量:,接下来看一下u的转置乘以v的结果,u的转置乘以v也叫做向量u和向量v的内积,u是一个二维向量,可以将其在图上画出来,如下图所示向量u:    在横轴上它的值就是某个u_1,在纵轴上它的高度就是某个值u_2,即U的第二个分量,那么现在就容易得出向量u的范数,||u||就表示u的范数或者u的欧几里得长度,即  同理对于向量...

#人工智能#数据结构与算法
神经网络之:感知器

  在神经网络中,我们主要使用的是一种称为S型神经元的神经元模型。感知器就是我们所谓的“人工神经元”。那么感知器怎么工作的呢,接下来我们来谈谈。  1.感知器工作机制:    上图中有x1,x2和x3输入,一般情况下我们可以引入权重w1,w2和w3来表示输入对输出的重要性,这时可以计算w1 * x1 +w2 * x2 +w3 * x3,即分配权重后的总和 ∑j wjxj。当...

#人工智能
到底了