您现在的位置是:首页 >学无止境 >6. 神经网络网站首页学无止境

6. 神经网络

秃头少女Emily 2024-06-14 17:18:23
简介6. 神经网络

6.1 非线性假设

假设有一个监督学习分类问题,训练集如图

 如果利用logistic回归来解决这个问题,我们可以构造一个包含很多非线性项的logistic回归函数。

但在这个训练集只给出了两个特征,如果一旦特征变多了,多项式就会变得很多。就会出现过拟合、计算量大的问题。

以识别一张图片是否为汽车为例子:

 对于识别图像中的一个门把手,对于我们人来说一下子就能看出来,但是对于计算机则是要通过一个像素亮点矩阵来告诉我们这些数值代表一个汽车门把手。

具体说来,用机器学习算法构造一个汽车识别器时,我们要做的就是提供一个带标签的样本集,其中一些样本是各类汽车,另一部分样本不是车,将这个样本集输入给学习算法来训练出一个分类器。然后我们进行测试,输入一幅新的图片,让分类器判定这是什么东西,理想情况下是能识别出是什么。

 假设我们用的图片像素为50 * 50,有2500个像素点,因此特征向量N为2500。这还是在使用灰色图像的情况下,如果是RGB彩色图像,则有7500个像素点。

在简单的非线性假设上,使用logistic回归是没有问题的 ,但是在复杂的非线性假设上就不太适用了。而这个时候,神经网络在学习复杂的非线性假设上被证明是一种好得多的算法。

6.2 神经元与大脑

神经网络的起源:人们想设计出模仿大脑的算法,它的理念就是如果我们想要建立学习系统,那为什么不去模仿我们所认识的、最神奇的学习机器——人类的大脑呢?

讲述了一些大脑学会“看”“听”的例子

6.3 模型展示

在运用神经网络时,我们该如何表示我们的假设或模型?

神经网络模仿了大脑中的神经元或者神经网络,为了解释如何表示假设模型

 简而言之:神经元是一个计算单元,它从输入通道接受一定数目的信息并做一些计算,然后将结果通过它的轴突(Axon)传送到其他节点或者大脑中的其他神经元。

现在我们将神经元模拟成一个逻辑单元

 一般就会写出三个参数,有时候会额外添加一个参数:x_{0},有时也被称作偏置单元或者偏置神经元。但因为x_{0}总是等于1,有时候会表达出来有时候不会,取决于具体例子。

 关于神经网络的术语

  • 有时我们会说上述的逻辑单元是一个带有sigmoid或者logistic激活函数的人工神经元。其中激活函数是指非线性函数g(z) = frac{1}{1+e^{-z}}的另一个术语。
  • 我们之前所使用的	heta参数集合都是默认说是模型的参数,但在有一些文献里面也被称为权重,但两者其实是一样的东西。
  • 在网络中的第一层也被称作为输入层,最后一层则被称作输出层,中间层第二层被称为隐藏层(在下图所示的例子中)

上面途中所表示的只是单个神经元,但其实神经网络就是一组神经元连接在一起的集合。具体来说,下图是我们的输入单元是x_{1},x_{2},x_{3}(可以额外加x_{0}),紧接着是三个神经元a_{1}^{(2)},a_{2}^{(2)},a_{3}^{(2)}(也可以额外加a_{0}^{(2)}),最后的一个节点进行计算并输出。

为了更好的解释这个神经网络的具体步骤,还需要记一些记号:

  • a_{i}^{(j)}:表示第j层第i个神经元或单元的激活项(激活项是指由一个具体的神经元计算并输出的值)
  • Theta^{(j)}:神经网络被这些矩阵参数化也就是	heta^{(j)},权重矩阵。它控制从某一层,比如说从第一层到第二层或者第二层到第三层的映射的参数矩阵。

下面是计算的过程

如果一个网络在第j层有s_j个单元,在j+1层有s_j+1个单元,那么矩阵Theta^{(j)}即控制第j层到第j+1层的映射的矩阵,它的维度是s_{j+1}*(s_{j}+1),就比如上图的Theta^{(j)}就是3X4的矩阵。

神经网络的向量化:

 在这里的输入层的x可以更换成a^{(1)},在上图中的计算过程被称作前向传播,这样叫的原因是:我们从输入单元的激活项开始,然后进行前向传播给隐藏层,计算隐藏层的激活项,继续前向传播并计算输出层的激活项。这个依次计算激活项,从输入层到隐藏层再到输出层的过程叫前向传播。

如果把输入层遮住,只看隐藏层和输出层,会发现很像逻辑回归。表面上是类似的,但实际上是不同的,因为输入的特征变化了,逻辑回归的输入特征是x而神经网络的输入变成了处理后的a。

6.4 神经网络计算的例子

 XOR(异或):相同为0,相异为1;XNOR:相同为1,相异为0。

先从AND开始理解:假设有2个二进制的输入x_{1},x_{2}in {0,1}y = x_{1} AND x_{2}

 可以看到右下角的真值表,会发现是逻辑与的结果

再来看看逻辑或

结合上面的,现在来推演XNOR

 6.5 多元分类

 6.6 代价函数

重点会放在神经网络在分类问题中的应用。

 代价函数:

logistic regression(逻辑回归):

J(	heta) = -frac{1}{m}left [ sum_{i=1}^{m}y^{(i)}log h_{	heta}(x^{(i)}) + (1-y^{(i)}) log (1-h_{	heta}(x^{(i)})) 
ight ] + frac{lambda }{2m}sum_{j=1}^{n}	heta_{j}^{2}

大括号后面那一项是额外的正则项,因为我们并没有把偏差项	heta_{0}正则化,所以j从1到n。

Neural network(神经网络):

h_{Theta}(x)in mathbb{R}^{K}(h_{Theta}(x))_{i}=i^{th}

J(Theta) = -frac{1}{m}left [ sum_{i=1}^{m}sum_{k=1}^{K}y_{k}^{(i)}log( h_{Theta}(x^{(i)}))_{k} + (1-y_{k}^{(i)}) log (1-(h_{Theta}(x^{(i)}))_{k}) 
ight ] + frac{lambda }{2m}sum_{l=1}^{L-1}sum_{i=1}^{s_{l}}sum_{j=1}^{s_{l+1}}(Theta_{ji}^{(l)})^{2}

其中:l代表层数、i代表当前层的输入参数个数、j代表当前的单元数;L表示第几个层,s_{l}表示当前的输出层的,s_{l}+1表示输出的个数(即几个y)。

 6.7 反向传播算法

利用梯度下降或者其他什么高级优化算法,我们需要做的就是写一段代码,获得输入参数Theta,然后计算J(Theta),和偏导项。

 当我们只有一个训练样本的情况时,也就是一个实数对(x, y),我们来看看计算的顺序是什么。首先我们应用前向传播方法来计算在给定输入时,假设函数是否会真的输出结果。具体地说,这里的a^{(1)}就是第一层的激活值,然后我们来计算z^(2),紧接着a^{(2)} = g(z^{(2)}),g是一个sigmoid激活函数,一直重复上述步骤,具体过程如下图。

 而反向传播算法从直观上说就是对每个结点,我们计算这样一项delta _{j}^{(l)},就用这种方式代表了第l层第j个结点的误差。a_{j}^{(l)}则表示第l层第j个单元的激活值。这个delta项从某种意义上就捕捉到了我们在这个神经结点的激活值的误差,所以我们可能希望这个结点的激活值稍微不一样。具体地讲,我们用下图有四层的神经网络结构作为例子。

计算过程如下:对于每一个输入单元,我们将计算delta项,所以第四层的第j个单元的delta = 第j单元的激活值 - 训练样本第j个元素的真实值0。所以a_{j}^{(4)}项可以写成(h_{Theta}(x))_{j}。所以delta这一项就是假设的输出值和训练集y值之间的差。

 第一层是输入的值,不用考虑误差项。

总结一般情况的反向传播算法:

 其中 那个三角形的符号就是delta的大写。

6.7 反向传播算法

为了更好的研究反向传播算法步骤,先来研究一下前向传播的过程

 再来看看代价函数

 

cost(i)是针对的是最后一层的总误差,所以我们得通过这种递推的方法往前推,求解最后的误差和倒数第三层,倒数第四层那些中间值的关系,直到我们得到了最后的误差和所有中间值的关系。

并且这个小delta不是对theta的导数,是对激活输入的导数。

 

风语者!平时喜欢研究各种技术,目前在从事后端开发工作,热爱生活、热爱工作。