
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
BP神经网络方法描述方法思想:使用复合函数f(x)=fm(f(m−1)(...f1(x)))f(x)=f^m(f^{(m-1)}(...f^1(x)))f(x)=fm(f(m−1)(...f1(x)))拟合输入样本集XXX到标签集YYY之间的映射针对一个样本xix_ixi进行计算的过程是正向的,从f1(x)f^1(x)f1(x)到fm(x)f^m(x)fm(x)一步步计算,称作正向传播优化复合函
T-SNE(T-Stochastic Neighbor Embedding)核心思想:对无监督聚类问题:PCA目的是在样本空间内找到子空间,以变换矩阵W对样本矩阵XXX实现原空间到子空间的映射,属于线性聚类方法;其方法核心在于最小化投影后方差LPP方法,本身结合了非线性流形学习方法LE(拉普拉斯特征映射)的思想,引入线性变换的假设,虽然从本质上说属于线性方法,但有效地保留原始高维数据内部的非线性结
线性判别分析(LDA)算法描述核心思想:LDA方法属于有监督降维,其需要由标签信息输入算法目标是将样本矩阵X经过线性映射W投影到子空间,使降维后样本类间距离尽可能远,类内方差足够小(最大化类间距离,最小化类内距离)相关定义:输入数据集X=[x1,x2,...,xN]X=[x_1,x_2,...,x_N]X=[x1,x2,...,xN]定义指示矩阵F,矩阵大小为N*C(样本数*类别数);该矩阵
LPP方法概述核心思想有映射Ym∗n=f(Xd∗n)\underset{m*n}{Y}=f(\underset {d*n}X)m∗nY=f(d∗nX),能够实现将d维的样本变换到m维空间之中假设:对于一个好的降维方法,在高维空间下距离近(相似度高)的两个点,在低维空间下依旧保持相近的关系考虑映射Y=WTXY=W^TXY=WTX,即原样本空间中有xix_ixi与xjx_jxj距离近,yiy_
支持向量回归(SVR)方法描述核心思想:用线性模型(f(x)=wTx+bf(x)=w^Tx+bf(x)=wTx+b)对回归问题进行拟合确定的线性模型对应w,bw,bw,b唯一确定一个超平面wTx+b=0w^Tx+b=0wTx+b=0不同于一般线性模型,在超平面两侧定义间隔ϵ\epsilonϵ,在间隔带内则不计算损失,当且仅当f(x)与y之间的差距的绝对值大于ϵ\epsilonϵ才计算损失通过最大化
LPP方法概述核心思想有映射Ym∗n=f(Xd∗n)\underset{m*n}{Y}=f(\underset {d*n}X)m∗nY=f(d∗nX),能够实现将d维的样本变换到m维空间之中假设:对于一个好的降维方法,在高维空间下距离近(相似度高)的两个点,在低维空间下依旧保持相近的关系考虑映射Y=WTXY=W^TXY=WTX,即原样本空间中有xix_ixi与xjx_jxj距离近,yiy_
卷积神经网络CNN相关概念卷积不同于学意义上的卷积,深度学习中的卷积是卷积核在原始图像上遍历,对应元素相乘再求和单核在单通道张量上卷积过程大致如下:卷积神经网络中,数据的格式主要是以张量(多维向量)形式存储,一般格式为行*列*通道数,卷积核格式为核数×行×列×通道数多通道卷积操作是每次取出卷积核中的一个(通道数与张量一致),对应通道的张量和卷积核进行二维卷积,得到各通道结果,再将各通道卷积结果相加
预测问题任务描述任务目标:总体来说,分类问题与回归问题的目的是一致的,都是为了预测根据预测目标不同,可以将预测问题分为以下三类分类:预测目标值无顺序意义且为有限个数离散量预测目标值只有单纯的类别区别,各类之间的差距一致(只有相同和不同的差别)回归:预测目标值为有顺序意义的连续变量取值范围为任意实数序回归:预测目标值为有顺序意义的有限个数离散变量例如:评价(非常满意、满意、一般、不满意、非常不满意)
支持向量回归(SVR)方法描述核心思想:用线性模型(f(x)=wTx+bf(x)=w^Tx+bf(x)=wTx+b)对回归问题进行拟合确定的线性模型对应w,bw,bw,b唯一确定一个超平面wTx+b=0w^Tx+b=0wTx+b=0不同于一般线性模型,在超平面两侧定义间隔ϵ\epsilonϵ,在间隔带内则不计算损失,当且仅当f(x)与y之间的差距的绝对值大于ϵ\epsilonϵ才计算损失通过最大化
K-Means方法 & fuzzy C-Means方法算法描述核心思想:k-means方法无监督聚类算法,输入数据为样本矩阵D=[x1,x2,...xn]D=[x_1,x_2,...x_n]D=[x1,x2,...xn],目标是获得簇划分C={C1,C2,...,Ck}C=\{C_1,C_2,...,C_k\}C={C1,C2,...,Ck},每个簇对应簇心u={u1,u2,.