神经网络的学习中的“学习”是指从训练数据中自动获取最优权重参数的过程。

为了使神经网络能进行学习,将导入损失函数这一指标。而学习的目的就是以该损失函数为基准,找出能使它的值达到最小的权重参数。为了找出尽可能小的损失函数的值,我们将介绍利用函数斜率的梯度法。

神经网络的学习通过某个指标表示现在的状态。然后,以这个指标为基准,寻找最优权重参数。

神经网络的学习中所用的指标称为损失函数(loss function)。这个损失函数可以使用任意函数,但一般用均方误差和交叉熵误差等。

损失函数是表示神经网络性能的“恶劣程度”的指标,即当前的神经网络对监督数据在多大程度上不拟合,在多大程度上不一致。

1. 为什么要设定损失函数

在神经网络的学习中,寻找最优参数(权重和偏置)时,要寻找使损失函数的值尽可能小的参数。为了找到使损失函数的值尽可能小的地方,需要计算参数的导数(确切地讲是梯度),然后以这个导数为指引,逐步更新参数的值。

假设有一个神经网络,现在我们来关注这个神经网络中的某一个权重参数。此时,对该权重参数的损失函数求导,表示的是“如果稍微改变这个权重参数的值,损失函数的值会如何变化”。

  • 如果导数的值为负,通过使该权重参数向正方向改变,可以减小损失函数的值;
  • 如果导数的值为正,则通过使该权重参数向负方向改变,可以减小损失函数的值;
  • 当导数的值为 0 时,无论权重参数向哪个方向变化,损失函数的值都不会改变,此时该权重参数的更新会停在此处。

2. 损失函数分类

2.1 均方误差

可以用作损失函数的函数有很多,其中最有名的是均方误差(mean squared error )。均方误差如下式所示。
均方误差
这里,yk 是表示神经网络的输出,tk 表示监督数据,k 表示数据的维数。

举例如下:手写数字识别的例子中,yk、tk 是由如下10 个元素构成的数据。

In [1]: y = [0.1, 0.05, 0.6, 0.0, 0.05, 0.1, 0.0, 0.1, 0.0, 0.0]

In [2]: t = [0, 0, 1, 0, 0, 0, 0, 0, 0, 0]

In [3]: 

数组元素的索引从第一个开始依次对应数字 0, 1, 2 …… 这里,神经网络的输出 ysoftmax 函数的输出。

由于 softmax 函数的输出可以理解为概率,因此上例表示 0 的概率是0.1,1 的概率是 0.05,2 的概率是 0.6 等。

t 是监督数据,将正确解标签设为 1,其他均设为 0。这里,标签 2 为 1,表示正确解是 2 。

将正确解标签表示为 1,其他标签表示为 0 的表示方法称为 one-hot 表示。

代码实现如下:

In [3]: import numpy as np

In [4]: def mean_square(y, t):
   ...:     return 0.5 * np.sum((y - t)**2)
  
In [5]: 

实际使用示例:

# 假设 2 为正确的预测值
In [5]: t = [0, 0, 1, 0, 0, 0, 0, 0, 0, 0]	

# 2 的概率最高为 0.6
In [6]: y = [0.1, 0.05, 0.6, 0.0, 0.05, 0.1, 0.0, 0.1, 0.0, 0.0]

In [7]: mean_square(np.array(y), np.array(t))
Out[7]: 0.09750000000000003

# 7 的概率最高为 0.6
In [8]: y = [0.1, 0.05, 0.1, 0.0, 0.05, 0.1, 0.0, 0.6, 0.0, 0.0]

In [9]: mean_square(np.array(y), np.array(t))
Out[9]: 0.5975

In [10]: 

第一个例子中,正确解是 2 ,神经网络的输出的最大值是概率值为 2;
第二个例子中,正确解是 2, 神经网络的输出的最大值是概率值为 7;

如实验结果所示,我们发现第一个例子的损失函数的值更小,和监督数据之间的误差较小。也就是说,均方误差显示第一个例子的输出结果与监督数据更加吻合。

2.2 交叉熵误差

交叉熵误差(cross entropy error)也经常被用作损失函数。交叉熵误差如下式所示。
交叉熵误差
这里,log 表示以 e 为底数的自然对数(log e)。yk 是神经网络的输出,tk是正确解标签。并且,tk 中只有正确解标签的索引为1,其他均为 0(one-hot 表示)。因此,式(4.2)实际上只计算对应正确解标签的输出的自然对数。

In [10]: np.log(np.e)
Out[10]: 1.0

In [11]: np.log(np.e **2)
Out[11]: 2.0

In [12]: 

比如,假设正确解标签的索引是 2 ,

  • 与之对应的神经网络的输出是0.6,则交叉熵误差是−log 0.6 = 0.51;
  • 若 2 对应的输出是 0.1,则交叉熵误差为−log 0.1 = 2.30;

也就是说,交叉熵误差的值是由正确解标签所对应的输出结果决定的。

自然对数的代码和图像如下所示:

import numpy as np
import matplotlib.pylab as plt

def log_e(x):
    return np.log(x)

x = np.arange(-5.0, np.e, 0.1)
y = log_e(x)
plt.plot(x, y)
plt.xlabel("x") # x轴标签
plt.ylabel("y") # y轴标签
plt.ylim(-2, 1.2)     # 指定y轴的范围
plt.title('log_e') # 标题
plt.legend()
plt.show()

自然对数图像
如上图所示,x 等于1 时,y 为0;随着 x 向 0 靠近,y 逐渐变小。因此,正确解标签对应的输出越大,式(4.2)的值越接近 0;当输出为 1 时,交叉熵误差为 0。此外,如果正确解标签对应的输出较小,则式(4.2)的值较大。

用代码实现如下:

In [1]: import numpy as np

In [2]: def cross_entropy(y, t):
   ...:     delta = 1e-7
   ...:     return -np.sum(t*np.log(y+delta))
   ...:     

In [3]: 1e-7
Out[3]: 1e-07

In [4]: 

参数 ytNumPy 数组。函数内部在计算 np.log 时,加上了一个微小值 delta 。这是因为,当出现np.log(0) 时,np.log(0) 会变为负无限大的 -inf ,这样一来就会导致后续计算无法进行。作为保护性对策,添加一个微小值可以防止负无限大的发生。

In [4]: t = [0, 0, 1, 0, 0, 0, 0, 0, 0, 0]

In [5]: y = [0.1, 0.05, 0.6, 0.0, 0.05, 0.1, 0.0, 0.1, 0.0, 0.0]

In [6]: cross_entropy(np.array(y), np.array(t))
Out[6]: 0.510825457099338

In [7]: y = [0.1, 0.05, 0.1, 0.0, 0.05, 0.1, 0.0, 0.6, 0.0, 0.0]

In [8]: cross_entropy(np.array(y), np.array(t))
Out[8]: 2.302584092994546

In [9]: 

第一个例子中,正确解标签对应的输出为 0.6,此时的交叉熵误差大约为 0.51。
第二个例子中,正确解标签对应的输出为0.1 的低值,此时的交叉熵误差大约为 2.3。

由此可以看出,与前面的理论描述是一致的。

2.3 mini-batch学习

2.4 mini-batch版交叉熵误差的实现

参考:《深度学习入门:基于Python的理论与实现》

更多推荐