这一章一开始阅读对P是什么把握的不好,下面是具体的讲解

本书的部分章节内容可以参考:https://github.com/jermwatt/machine_learning_refined

机器学习精讲(基础、算法及应用)——Jeremy Watt 杰瑞米·瓦特;Reza Borhani 雷萨·博哈尼 ;Aggelos K. Katsaggelos 阿格洛斯·K·卡萨格罗斯  杨博(译者)——my postgraduate tutor 嘿嘿嘿 吹一波

5.1.1向量逼近

向量逼近的思想来自于线性代数,R^{P}表示的由元素为实数并且长度为P的全部列向量组成的集合,且其中的任意向量y都可被P个线性无关的列向量组成的基完美表示(证明过程先不用理解),给定R^{P}上的一组线性无关的向量\sum_{p=1}^{P} x_{p}\omega _{p}=y,例如:

R^{P}=\left \{ x1,x2,x3,...,x_{P} \right \}; x_{p}=\left\{a1,a2,a3,...,a_{P}\right\}

假如只能让M个列向量表示P,(M≤P),则有\sum_{m=1}^{M} x_{m}\omega _{m}=y ——注意这里的m,M只是表示向量的多少,x向量本身的维度还是P

5.1.2从向量到连续函数

R^{P}内的每一个向量y看成定义在【0,1】内的离散函数,所以R^{P}得P个向量组成了P个不同的离散函数,因为每一个y的P个向量的表示都不尽相同,他们分别用\left\{(x_{p},y_{p})\right\}_{p=1}^{P}对的形式进行表示,它表示的是P个不同的函数。

 

————————————————————————————————————————————

分割线

下面是最主要的部分,请注意,函数逼近方法其实可以看做是向量逼近的一种特殊情况。

函数逼近的思想,通俗来说就是用不同的函数来逼近一个特定的函数,比如:g(x)是一个一元多次的函数,那么我们可以用一些已知的函数去逼近这个g(x),这也就是所说的基函数,对应向量逼近的基向量。具体例子是:泰勒级数逼近,用的是m个多项式基,x,2^2,x^3....x^m表示m个基函数。当m趋近于无穷大的时候,使用这样的一组基函数可以得到一个完美逼近。

 

这么来考虑,yR^{P},y有P个值,y=(y_{1},y_{2},...,y_{P}),然后有一组x=(x_{1},x_{2},...,x_{P})与之对应,形成了一系列的散点,表示为\left\{(x_{p},y_{p})\right\}_{p=1}^{P}。对于这样的散点,我们直观上的感觉就是y=f(x)。那它是怎么和向量逼近联系的呢?我们在矩阵的角度下看这一组y值得时候,它是在R^{P}中的一个维度为P的名称为y的向量。那么肯定有P个向量可以对他进行完美的向量逼近。如果我们这个时候对x向量进行函数变换,就可以得到P个线性无关的向量,使用这P个线性无关的向量就可以对向量y进行逼近。在对x进行变换过程中使用的每一个函数称之为一个基函数。当y中的元素越来越多的时候,构造出来的P就会越多,此时使用向量逼近中M个向量近似逼近的思想,通过M个基函数( f(x)_{m} )构造出M个P维向量进行逼近,最后得到了该P值下y的函数逼近。

 

根据这样的一个效果,使用一些常见的基函数,可以很好的对任何函数进行逼近,以此来达到自动设计特征的效果,这就是神经网络的基础

 

Logo

瓜分20万奖金 获得内推名额 丰厚实物奖励 易参与易上手

更多推荐