←上一篇↓↑下一篇→
1.7 总结习题回到目录2.2 Logistic 回归

二元分类 (Binary Classification)

这周我们将学习神经网络的基础知识,其中需要注意的是,当实现一个神经网络的时候,我们需要知道一些非常重要的技术和技巧。例如有一个包含 m m m 个样本的训练集,你很可能习惯于用一个for循环来遍历训练集中的每个样本,但是当实现一个神经网络的时候,我们通常不直接使用for循环来遍历整个训练集,所以在这周的课程中你将学会如何处理训练集。

另外在神经网络的计算中,通常先有一个叫做前向暂停(forward pause)或叫做前向传播(foward propagation)的步骤,接着有一个叫做反向暂停(backward pause) 或叫做反向传播(backward propagation)的步骤。所以这周我也会向你介绍为什么神经网络的训练过程可以分为前向传播和反向传播两个独立的部分。

在课程中我将使用逻辑回归(logistic regression)来传达这些想法,以使大家能够更加容易地理解这些概念。即使你之前了解过逻辑回归,我认为这里还是有些新的、有趣的东西等着你去发现和了解,所以现在开始进入正题。

逻辑回归是一个用于二分类(binary classification)的算法。首先我们从一个问题开始说起,这里有一个二分类问题的例子,假如你有一张图片作为输入,比如这只猫,如果识别这张图片为猫,则输出标签1作为结果;如果识别出不是猫,那么输出标签0作为结果。现在我们可以用字母 来 表示输出的结果标签,如下图所示:
在这里插入图片描述
我们来看看一张图片在计算机中是如何表示的,为了保存一张图片,需要保存三个矩阵,它们分别对应图片中的红、绿、蓝三种颜色通道,如果你的图片大小为64x64像素,那么你就有三个规模为64x64的矩阵,分别对应图片中红、绿、蓝三种像素的强度值。为了便于表示,这里我画了三个很小的矩阵,注意它们的规模为5x4 而不是64x64,如下图所示:

在这里插入图片描述
为了把这些像素值放到一个特征向量中,我们需要把这些像素值提取出来,然后放入一个特征向量 x x x 。为了把这些像素值转换为特征向量 x x x ,我们需要像下面这样定义一个特征向量 x x x 来表示这张图片,我们把所有的像素都取出来,例如255、231等等,直到取完所有的红色像素,接着最后是255、134、…、255、134等等,直到得到一个特征向量,把图片中所有的红、绿、蓝像素值都列出来。如果图片的大小为64x64像素,那么向量 x x x 的总维度,将是64乘以64乘以3,这是三个像素矩阵中像素的总量。在这个例子中结果为 n x = 12 , 288 n_x=12,288 nx=12,288 。现在我们用,来表示输入特征向量的维度,有时候为了简洁,我会直接用小写 n n n 的来表示输入特征向量 x x x 的维度。所以在二分类问题中,我们的目标就是习得一个分类器,它以图片的特征向量作为输入,然后预测输出 y y y 结果为1还是0,也就是预测图片中是否有猫:
在这里插入图片描述
接下来我们说明一些在余下课程中,需要用到的一些符号。

符号定义 :

x : x: x
表示一个 n x n_x nx 维数据,为输入数据,维度为 ( n x , 1 ) (n_x,1) (nx,1)

y : y: y
表示输出结果,取值为 ( 0 , 1 ) (0,1) (0,1)

( x ( i ) , y ( i ) ) : (x^{(i)},y^{(i)}): (x(i),y(i))
表示第组数据,可能是训练数据,也可能是测试数据,此处默认为训练数据;

X = [ x ( 1 ) , x ( 2 ) , ⋯   , x ( m ) ] X=[x^{(1)},x^{(2)},\cdots,x^{(m)}] X=[x(1),x(2),,x(m)]
表示所有的训练数据集的输入值,放在一个 n x ∗ m n_x * m nxm 的矩阵中,其中 m m m 表示样本数目;

Y = [ y ( 1 ) , y ( 2 ) , ⋯   , y ( m ) ] Y=[y^{(1)},y^{(2)},\cdots,y^{(m)}] Y=[y(1),y(2),,y(m)]
对应表示所有训练数据集的输出值,维度为 1 ∗ m 1*m 1m

用一对 ( x , y ) (x,y) (x,y) 来表示一个单独的样本, x x x 代表 n x n_x nx 维的特征向量, y y y 表示标签(输出结果)只能为0或1。 而训练集将由 m m m 个训练样本组成,其中 ( x ( 1 ) , y ( 1 ) ) (x^{(1)},y^{(1)}) (x(1),y(1)) 表示第一个样本的输入和输出, ( x ( 2 ) , y ( 2 ) ) (x^{(2)},y^{(2)}) (x(2),y(2)) 表示第二个样本的输入和输出,直到最后一个样本 ( x ( m ) , y ( m ) ) (x^{(m)},y^{(m)}) (x(m),y(m)) ,然后所有的这些一起表示整个训练集。有时候为了强调这是训练样本的个数,会写作 M t r a i n M_{train} Mtrain,当涉及到测试集的时候,我们会使用来 M t e s t M_{test} Mtest 表示测试集的样本数,所以这是测试集的样本数:
在这里插入图片描述
最后为了能把训练集表示得更紧凑一点,我们会定义一个矩阵用大写的 X X X 表示,它由输入向量 x ( 1 ) x^{(1)} x(1) x ( 2 ) x^{(2)} x(2) 等组成,如下图放在矩阵的列中,所以现在我们 x ( 1 ) x^{(1)} x(1) 把作为第一列放在矩阵中, x ( 2 ) x^{(2)} x(2) 作为第二列, x ( m ) x^{(m)} x(m) 放到第 m m m 列,然后我们就得到了训练集矩阵 X X X。所以这个矩阵有 m m m 列, m m m 是训练集的样本数量,然后这个矩阵的高度记为 n x n_x nx,注意有时候可能因为其他某些原因,矩阵 X X X 会由训练样本按照行堆叠起来而不是列,如下图所示: x ( 1 ) x^{(1)} x(1) 的转置 x ( m ) x^{(m)} x(m) 直到的转置,但是在实现神经网络的时候,使用左边的这种形式,会让整个实现的过程变得更加简单:
在这里插入图片描述
现在来简单温习一下: X X X 是一个规模为 n x n_x nx 乘以 m m m 的矩阵,当你用Python实现的时候,你会看到X.shape,这是一条Python命令,用于显示矩阵的规模,即X.shape等于 ( n x , m ) (n_x,m) (nx,m) X X X 是一个规模为 n x n_x nx 乘以 m m m 的矩阵。所以综上所述,这就是如何将训练样本(输入向量 X X X 的集合)表示为一个矩阵。

那么输出标签 y y y 呢?同样的道理,为了能更加容易地实现一个神经网络,将标签 y y y 放在列中将会使得后续计算非常方便,所以我们定义大写的 Y Y Y 等于 y ( 1 ) , y ( 2 ) , ⋯   , y ( m ) y^{(1)},y^{(2)},\cdots,y^{(m)} y(1),y(2),,y(m),所以在这里是一个规模为1乘以 m m m 的矩阵,同样地使用Python将表示为Y.shape等于,表示这是一个规模为1乘以 m m m 的矩阵。
在这里插入图片描述
当你在后面的课程中实现神经网络的时候,你会发现,一个好的符号约定能够将不同训练样本的数据很好地组织起来。而我所说的数据不仅包括 x x x 或者 y y y 还包括之后你会看到的其他的量。将不同的训练样本的数据提取出来,然后就像刚刚我们对 x x x 或者 y y y 所做的那样,将他们堆叠在矩阵的列中,形成我们之后会在逻辑回归和神经网络上要用到的符号表示。如果有时候你忘了这些符号的意思,比如什么是 m m m,或者什么是 n n n,或者忘了其他一些东西,我们也会在课程的网站上放上符号说明,然后你可以快速地查阅每个具体的符号代表什么意思,好了,我们接着到下一个视频,在下个视频中,我们将以逻辑回归作为开始。 备注:附录里也写了符号说明。

课程板书

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


←上一篇↓↑下一篇→
1.7 总结习题回到目录2.2 Logistic 回归

Logo

CSDN联合极客时间,共同打造面向开发者的精品内容学习社区,助力成长!

更多推荐