
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
1、导数定义:设函数y=f(x)在点x0的某个邻域内有定义,当自变量x在x0处有增量Δx,(x0+Δx)也在该邻域内时,相应地函数取得增量Δy=f(x0+Δx)-f(x0);如果Δy与Δx之比当Δx→0时极限存在,则称函数y=f(x)在点x0处可导,并称这个极限为函数y=f(x)在点x0处的导数记作需要指出的是:两者在数学上是等价的。导函数如果函数y=f...
1、假设,线性线的函数是:f(x) = θ0+θ1*x11 + θ2*x12传说中的激活函数,将数值转换为概率值:sigmoid,relu 函数:g(z) = 1/(1+e(-z)) # e=2.718z = f(x)# 逻辑回归问题的假设函数:h(x) = 1/(1+e^(-(θ0+θ1*x11 + θ2*x12)))[0, 1] 0.5为分界线 >= 0.7 ...
1、学习前必须了解的概念:张量和数据流图1.1、张量:可以认为是数组和常量的总称呼在数学上,我们通常用一维数组和多维数组表示一组数据,比如:我们要表示一个人的身高,体重,年龄可以写成 [175, 70, 30]这样的一维数组形式这个数组的第一个元素表示身高,第二元素表示体重,第三个元素表示年龄,这个一维数组可以认为是一维张量如果要表示3个人的身高体重,可以写成二维结构[ [...
1、核心算法代码说明:算法是使用的梯度下降算法,成本函数是使用的最小二乘法:求残差的平方和的极小值import numpy as np# 定义假设函数:X是一个矩阵W是一个列向量def hyFunction(X, W):return X.dot(W)# 一次计算所有的样本结果pass# 梯度函数:X是样本矩阵,W是系数,y是实际结果def grad...
1、导数定义:设函数y=f(x)在点x0的某个邻域内有定义,当自变量x在x0处有增量Δx,(x0+Δx)也在该邻域内时,相应地函数取得增量Δy=f(x0+Δx)-f(x0);如果Δy与Δx之比当Δx→0时极限存在,则称函数y=f(x)在点x0处可导,并称这个极限为函数y=f(x)在点x0处的导数记作需要指出的是:两者在数学上是等价的。导函数如果函数y=f...
1、RNN单向循环神经网络实现2、隐藏层激活使用的是tanh、输出层使用的激活函数是softmax3、代码纯手写import numpy as npfrom activator.softmax import SoftMaxfrom activator.tanh import Tanh'''@author: liuhaibing'''# 手写循环神经网络# 全连接层只用三层input-hidden-
1.剪刀石头布小游戏,练习if else和while等import java.util.Scanner;import java.util.Random;/*** <p>Title: JavaGame.java</p>* <p>Description: 实现人机对战的剪刀、石头、布猜拳游戏</p>* <p>C...
1、导数定义:设函数y=f(x)在点x0的某个邻域内有定义,当自变量x在x0处有增量Δx,(x0+Δx)也在该邻域内时,相应地函数取得增量Δy=f(x0+Δx)-f(x0);如果Δy与Δx之比当Δx→0时极限存在,则称函数y=f(x)在点x0处可导,并称这个极限为函数y=f(x)在点x0处的导数记作需要指出的是:两者在数学上是等价的。导函数如果函数y=f...
1、核心算法代码说明:算法是使用的梯度下降算法,成本函数是使用的最小二乘法:求残差的平方和的极小值import numpy as np# 定义假设函数:X是一个矩阵W是一个列向量def hyFunction(X, W):return X.dot(W)# 一次计算所有的样本结果pass# 梯度函数:X是样本矩阵,W是系数,y是实际结果def grad...
1、RNN单向循环神经网络实现2、隐藏层激活使用的是tanh、输出层使用的激活函数是softmax3、代码纯手写import numpy as npfrom activator.softmax import SoftMaxfrom activator.tanh import Tanh'''@author: liuhaibing'''# 手写循环神经网络# 全连接层只用三层input-hidden-







