【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

文章目录

  网上关于卷积神经网络的相关知识以及数不胜数,所以本文在学习了前人的博客和知乎,在别人博客的基础上整理的知识点,便于自己理解,以后复习也可以常看看,但是如果侵犯到哪位大神的权利,请联系小编,谢谢。好了下面言归正传:

  在深度学习领域中,已经经过验证的成熟算法,目前主要有深度卷积网络(DNN)和递归网络(RNN),在图像识别,视频识别,语音识别领域取得了巨大的成功,正是由于这些成功,能促成了当前深度学习的大热。与此相对应的,在深度学习研究领域,最热门的是AutoEncoder、RBM、DBN等产生式网络架构,但是这些研究领域,虽然论文比较多,但是重量级应用还没有出现,是否能取得成功还具有不确定性。但是有一些比较初步的迹象表明,这些研究领域还是非常值得期待的。比如AutoEncoder在图像、视频搜索领域的应用,RBM对非结构化数据的处理方面,DBN网络在结合人工智能领域两大流派连接主义和符号主义,都具有巨大的前景,有理由期待产生重量级成果。我们在后续会对这些网络逐一进行介绍和实现,除了给出重构后的Theano实现代码外,还会逐步补充这些算法在实际应用的中的实例,我们会主要将这些算法应用在创业公司数据中,从几万家创业公司及投融资数据中,希望能挖掘出哪些公司更可能获得投资,特定公司更有可能获得哪家投资机构的投资。

  卷积神经网络(CNN),这是深度学习算法应用最成功的领域之一,卷积神经网络包括一维卷积神经网络,二维卷积神经网络以及三维卷积神经网络。一维卷积神经网络主要用于序列类的数据处理,二维卷积神经网络常应用于图像类文本的识别,三维卷积神经网络主要应用于医学图像以及视频类数据识别。

  下面我的学习分为四部分,首先利用一个形象的例子说明电脑是如何识别图像的,然后在说明什么是神经网络,什么是卷积神经网络,最后介绍常见的几种卷积神经网络。大体的结构就是这样的。

一、如何帮助神经网络识别图像?

  人类大脑是一非常强大的机器,每秒内能看(捕捉)多张图,并在意识不到的情况下就完成了对这些图的处理。但机器并非如此。机器处理图像的第一步是理解,理解如何表达一张图像,进而读取图片。

  简单来说,每个图像都是一系列特定排序的图点(像素)。如果你改变像素的顺序或颜色,图像也随之改变。举个例子,存储并读取一张上面写着数字 4 的图像。

  基本上,机器会把图像打碎成像素矩阵,存储每个表示位置像素的颜色码。在下图的表示中,数值 1 是白色,256 是最深的绿色(为了简化,我们示例限制到了一种颜色)。

  【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  一旦你以这种格式存储完图片信息,下一步就是让神经网络理解这种排序与模式。(表征像素的数值是以特定的方式排序的)

  那么如何帮助神经网络识别图像?

  假设我们尝试使用全连接网络识别图像,应该如何做?

  全连接网络可以通过平化它,把图像当作一个数组,并把像素值当作预测图像中数值的特征。明确地说,让网络理解理解下面图中发生了什么,非常的艰难。

  【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  即使人类也很难理解上图中表达的含义是数字 4。我们完全丢失了像素的空间排列。

  我们能做什么呢?可以尝试从原图中提取特征,从而保留空间排序。

案例一
  这里我们使用一个权重乘以初始像素值 【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  现在裸眼识别出这是「4」就变得更简单了。但把它交给全连接网络之前,还需要平整化(flatten) 它,要让我们能够保留图像的空间排列。

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

案例二
  现在我们可以看到,把图像平整化完全破坏了它的排列。我们需要想出一种方式在没有平整化的情况下把图片馈送给网络,并且还要保留空间排列特征,也就是需要馈送像素值的 2D/3D 排列。

  我们可以尝试一次采用图像的两个像素值,而非一个。这能给网络很好的洞见,观察邻近像素的特征。既然一次采用两个像素,那也就需要一次采用两个权重值了。

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  希望你能注意到图像从之前的 4 列数值变成了 3 列。因为我们现在一次移用两个像素(在每次移动中像素被共享),图像变的更小了。虽然图像变小了,我们仍能在很大程度上理解这是「4」。而且,要意识到的一个重点是,我们采用的是两个连贯的水平像素,因此只会考虑水平的排列。

  这是我们从图像中提取特征的一种方式。我们可以看到左边和中间部分,但右边部分看起来不那么清楚。主要是因为两个问题:

   1. 图片角落左边和右边是权重相乘一次得到的。

   2. 左边仍旧保留,因为权重值高;右边因为略低的权重,有些丢失。

  现在我们有两个问题,需要两个解决方案。

案例三
  遇到这样的问题是图像左右两角只被权重通过一次,我们需要做的是让网络像考虑其他像素一样考虑角落。我们有一个简单的方法解决这一问题:把零放在权重运动的两边。 【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识  你可以看到通过添加零,来自角落的信息被再训练。图像也变得更大。这可被用于我们不想要缩小图像的情况下。
案例四
  这里我们试图解决的问题是右侧角落更小的权重值正在降低像素值,因此使其难以被我们识别。我们所能做的是采取多个权重值并将其结合起来。

  (1,0.3) 的权重值给了我们一个输出表格

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  同时表格 (0.1,5) 的权重值也将给我们一个输出表格。

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  两张图像的结合版本将会给我们一个清晰的图片。因此,我们所做的是简单地使用多个权重而不是一个,从而再训练图像的更多信息。最终结果将是上述两张图像的一个结合版本。

案例五
  我们到现在通过使用权重,试图把水平像素(horizontal pixel)结合起来。但是大多数情况下我们需要在水平和垂直方向上保持空间布局。我们采取 2D 矩阵权重,把像素在水平和垂直方向上结合起来。同样,记住已经有了水平和垂直方向的权重运动,输出会在水平和垂直方向上低一个像素。   【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识
所以我们做了什么?
  上面我们所做的事是试图通过使用图像的空间的安排从图像中提取特征。为了理解图像,理解像素如何安排对于一个网络极其重要。上面我们所做的也恰恰是一个卷积网络所做的。我们可以采用输入图像,定义权重矩阵,并且输入被卷积以从图像中提取特殊特征而无需损失其有关空间安排的信息。

  这个方法的另一个重大好处是它可以减少图像的参数数量。正如所见,卷积图像相比于原始图像有更少的像素。

二、什么是神经网络?

  这里的神经网络,也指人工神经网络(Artificial Neural Networks,简称ANNs),是一种模仿生物神经网络行为特征的算法数学模型,由神经元、节点与节点之间的连接(突触)所构成,如下图:

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  每个神经网络单元抽象出来的数学模型如下,也叫感知器,它接收多个输入(x1,x2,x3…),产生一个输出,这就好比是神经末梢感受各种外部环境的变化(外部刺激),然后产生电信号,以便于转导到神经细胞(又叫神经元)。

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  单个的感知器就构成了一个简单的模型,但在现实世界中,实际的决策模型则要复杂得多,往往是由多个感知器组成的多层网络,如下图所示,这也是经典的神经网络模型,由输入层、隐含层、输出层构成。

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  人工神经网络可以映射任意复杂的非线性关系,具有很强的鲁棒性、记忆能力、自学习等能力,在分类、预测、模式识别等方面有着广泛的应用。

三、什么是卷积神经网络?

  卷积神经网络是近年发展起来的,并引起广泛重视的一种高效识别方法,20世纪60年代,Hubel和Wiesel在研究猫脑皮层中用于局部敏感和方向选择的神经元时发现其独特的网络结构可以有效地降低反馈神经网络的复杂性,继而提出了卷积神经网络(Convolutional Neural Networks-简称CNN)。现在,CNN已经成为众多科学领域的研究热点之一,特别是在模式分类领域,由于该网络避免了对图像的复杂前期预处理,可以直接输入原始图像,因而得到了更为广泛的应用。 K.Fukushima在1980年提出的新识别机是卷积神经网络的第一个实现网络。随后,更多的科研工作者对该网络进行了改进。其中,具有代表性的研究成果是Alexander和Taylor提出的“改进认知机”,该方法综合了各种改进方法的优点并避免了耗时的误差反向传播。

  这听起来像是一个奇怪的生物学和数学的结合,但是这些网络已经成为计算机视觉领域最具影响力的创新之一。2012年是神经网络成长的第一年,Alex Krizhevsky用它们赢得了当年的ImageNet竞赛(基本上是计算机视觉年度奥运会),把分类错误记录从26%降到了15%,这个惊人的提高从那以后,许多公司一直在以服务为核心进行深度学习。Facebook使用自动标记算法的神经网络,谷歌的照片搜索,亚马逊的产品推荐,Pinterest的家庭饲料个性化和Instagram的搜索基础设施。

  一般的,CNN的基本结构包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征。一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来;其二是特征映射层,网络的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等。特征映射结构采用影响函数核小的sigmoid函数作为卷积网络的**函数,使得特征映射具有位移不变性。此外,由于一个映射面上的神经元共享权值,因而减少了网络自由参数的个数。卷积神经网络中的每一个卷积层都紧跟着一个用来求局部平均与二次提取的计算层,这种特有的两次特征提取结构减小了特征分辨率。

   CNN主要用来识别位移、缩放及其他形式扭曲不变性的二维图形,该部分功能主要由池化层实现。由于CNN的特征检测层通过训练数据进行学习,所以在使用CNN时,避免了显式的特征抽取,而隐式地从训练数据中进行学习;再者由于同一特征映射面上的神经元权值相同,所以网络可以并行学习,这也是卷积网络相对于神经元彼此相连网络的一大优势。卷积神经网络以其局部权值共享的特殊结构在语音识别和图像处理方面有着独特的优越性,其布局更接近于实际的生物神经网络,权值共享降低了网络的复杂性,特别是多维输入向量的图像可以直接输入网络这一特点避免了特征提取和分类过程中数据重建的复杂度。

  说了这么多,接下来将以图像识别为例子,来介绍卷积神经网络的原理。

3.1 案例

  假设给定一张图(可能是字母X或者字母O),通过CNN即可识别出是X还是O,如下图所示,那怎么做到的呢

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

3.2 图像输入

  如果采用经典的神经网络模型,则需要读取整幅图像作为神经网络模型的输入(即全连接的方式),当图像的尺寸越大时,其连接的参数将变得很多,从而导致计算量非常大。

  而我们人类对外界的认知一般是从局部到全局,先对局部有感知的认识,再逐步对全体有认知,这是人类的认识模式。在图像中的空间联系也是类似,局部范围内的像素之间联系较为紧密,而距离较远的像素则相关性较弱。因而,每个神经元其实没有必要对全局图像进行感知,只需要对局部进行感知,然后在更高层将局部的信息综合起来就得到了全局的信息。这种模式就是卷积神经网络中降低参数数目的重要神器:局部感受野。

  【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

3.3 提取特征

  如果字母X、字母O是固定不变的,那么最简单的方式就是图像之间的像素一一比对就行,但在现实生活中,字体都有着各个形态上的变化(例如手写文字识别),例如平移、缩放、旋转、微变形等等,如下图所示:

  【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  我们的目标是对于各种形态变化的X和O,都能通过CNN准确地识别出来,这就涉及到应该如何有效地提取特征,作为识别的关键因子。

  回想前面讲到的“局部感受野”模式,对于CNN来说,它是一小块一小块地来进行比对,在两幅图像中大致相同的位置找到一些粗糙的特征(小块图像)进行匹配,相比起传统的整幅图逐一比对的方式,CNN的这种小块匹配方式能够更好的比较两幅图像之间的相似性。如下图:

  【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  以字母X为例,可以提取出三个重要特征(两个交叉线、一个对角线),如下图所示:

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  假如以像素值"1"代表白色,像素值"-1"代表黑色,则字母X的三个重要特征如下:

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  那么这些特征又是怎么进行匹配计算呢?

3.4 卷积(convolution)

  这时就要请出今天的重要嘉宾:卷积。那什么是卷积呢,不急,下面慢慢道来。

当给定一张新图时,CNN并不能准确地知道这些特征到底要匹配原图的哪些部分,所以它会在原图中把每一个可能的位置都进行尝试,相当于把这个feature(特征)变成了一个过滤器。这个用来匹配的过程就被称为卷积操作,这也是卷积神经网络名字的由来。

  卷积的操作如下图所示:

  【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识]

  是不是很像把毛巾沿着对角卷起来,下图形象地说明了为什么叫「卷」积

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  在本案例中,要计算一个feature(特征)和其在原图上对应的某一小块的结果,只需将两个小块内对应位置的像素值进行乘法运算,然后将整个小块内乘法运算的结果累加起来,最后再除以小块内像素点总个数即可(注:也可不除以总个数的)。

  如果两个像素点都是白色(值均为1),那么11 = 1,如果均为黑色,那么(-1)(-1) = 1,也就是说,每一对能够匹配上的像素,其相乘结果为1。类似地,任何不匹配的像素相乘结果为-1。具体过程如下(第一个、第二个……、最后一个像素的匹配结果):

  【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  根据卷积的计算方式,第一块特征匹配后的卷积计算如下,结果为1

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  对于其它位置的匹配,也是类似(例如中间部分的匹配)

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  计算之后的卷积如下

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  以此类推,对三个特征图像不断地重复着上述过程,通过每一个feature(特征)的卷积操作,会得到一个新的二维数组,称之为feature map。其中的值,越接近1表示对应位置和feature的匹配越完整,越是接近-1,表示对应位置和feature的反面匹配越完整,而值接近0的表示对应位置没有任何匹配或者说没有什么关联。如下图所示:

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  可以看出,当图像尺寸增大时,其内部的加法、乘法和除法操作的次数会增加得很快,每一个filter的大小和filter的数目呈线性增长。由于有这么多因素的影响,很容易使得计算量变得相当庞大。

3.5 池化(Pooling)

  为了有效地减少计算量,CNN使用的另一个有效的工具被称为“池化(Pooling)”。池化就是将输入图像进行缩小,减少像素信息,只保留重要信息。

  池化的操作也很简单,通常情况下,池化区域是2x2大小,然后按一定规则转换成相应的值,例如取这个池化区域内的最大值(max-pooling)、平均值(mean-pooling)等,以这个值作为结果的像素值。

  下图显示了左上角 2x2池化区域的max-pooling结果,取该区域的最大值max(0.77,-0.11,-0.11,1.00),作为池化后的结果,如下图:

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  池化区域往左,第二小块取大值max(0.11,0.33,-0.11,0.33),作为池化后的结果,如下图:

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  其它区域也是类似,取区域内的最大值作为池化后的结果,最后经过池化后,结果如下:

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

对所有的feature map执行同样的操作,结果如下:

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  最大池化(max-pooling)保留了每一小块内的最大值,也就是相当于保留了这一块最佳的匹配结果(因为值越接近1表示匹配越好)。也就是说,它不会具体关注窗口内到底是哪一个地方匹配了,而只关注是不是有某个地方匹配上了。

  通过加入池化层,图像缩小了,能很大程度上减少计算量,降低机器负载。

3.6 **函数RelU (Rectified Linear Units)

  常用的**函数有sigmoid、tanh、relu等等,前两者sigmoid/tanh比较常见于全连接层,后者ReLU常见于卷积层。

  回顾一下前面讲的感知机,感知机在接收到各个输入,然后进行求和,再经过**函数后输出。**函数的作用是用来加入非线性因素,把卷积层输出结果做非线性映射。

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  在卷积神经网络中,**函数一般使用ReLU(The Rectified Linear Unit,修正线性单元),它的特点是收敛快,求梯度简单。计算公式也很简单,max(0,T),即对于输入的负值,输出全为0,对于正值,则原样输出。

   下面看一下本案例的ReLU**函数操作过程:

   第一个值,取max(0,0.77),结果为0.77,如下图

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  第二个值,取max(0,-0.11),结果为0,如下图

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  以此类推,经过ReLU**函数后,结果如下:

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  对所有的feature map执行ReLU**函数操作,结果如下:

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

3.7 深度神经网络

  通过将上面所提到的卷积、**函数、池化组合在一起,就变成下图:

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

通过加大网络的深度,增加更多的层,就得到了深度神经网络,如下图:

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

3.8 全连接层(Fully connected layers)

  全连接层在整个卷积神经网络中起到“分类器”的作用,即通过卷积、**函数、池化等深度网络后,再经过全连接层对结果进行识别分类。

  首先将经过卷积、**函数、池化的深度网络后的结果串起来,如下图所示:

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  由于神经网络是属于监督学习,在模型训练时,根据训练样本对模型进行训练,从而得到全连接层的权重(如预测字母X的所有连接的权重)

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  在利用该模型进行结果识别时,根据刚才提到的模型训练得出来的权重,以及经过前面的卷积、**函数、池化等深度网络计算出来的结果,进行加权求和,得到各个结果的预测值,然后取值最大的作为识别的结果(如下图,最后计算出来字母X的识别值为0.92,字母O的识别值为0.51,则结果判定为X)

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  上述这个过程定义的操作为”全连接层“(Fully connected layers),全连接层也可以有多个,如下图:

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

3.9 卷积神经网络(Convolutional Neural Networks)

  将以上所有结果串起来后,就形成了一个“卷积神经网络”(CNN)结构,如下图所示:

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

  最后,再回顾总结一下,卷积神经网络主要由两部分组成,一部分是特征提取(卷积、**函数、池化),另一部分是分类识别(全连接层),下图便是著名的手写文字识别卷积神经网络结构图:

【Keras】学习笔记11:深入学习卷积神经网络,CNN的原理知识

3.10 对卷积神经网络的总结

  卷积网络在本质上是一种输入到输出的映射,它能够学习大量的输入与输出之间的映射关系,而不需要任何输入和输出之间的精确的数学表达式,只要用已知的模式对卷积网络加以训练,网络就具有输入输出对之间的映射能力。

  CNN一个非常重要的特点就是头重脚轻(越往输入权值越小,越往输出权值越多),呈现出一个倒三角的形态,这就很好地避免了BP神经网络中反向传播的时候梯度损失得太快。

  卷积神经网络CNN主要用来识别位移、缩放及其他形式扭曲不变性的二维图形。由于CNN的特征检测层通过训练数据进行学习,所以在使用CNN时,避免了显式的特征抽取,而隐式地从训练数据中进行学习;再者由于同一特征映射面上的神经元权值相同,所以网络可以并行学习,这也是卷积网络相对于神经元彼此相连网络的一大优势。卷积神经网络以其局部权值共享的特殊结构在语音识别和图像处理方面有着独特的优越性,其布局更接近于实际的生物神经网络,权值共享降低了网络的复杂性,特别是多维输入向量的图像可以直接输入网络这一特点避免了特征提取和分类过程中数据重建的复杂度。