卷积神经网络介绍
2018-12-25 16:04:47 梦悠网
卷积神经网络是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习的代表算法之一。由于卷积神经网络能够进行平移不变分类,因此也被称为“平移不变人工神经网络”。对卷积神经网络的研究始于二十世纪80至90年代,时间延迟网络和LeNet-5是最早出现的卷积神经网络;在二十一世纪后,随着深度学习理论的提出和数值计算设备的改进,视神经卷积神经网络得到了快速发展,并被大量应用于计算机视觉、自然语言处理等领域。下面就随 梦悠情感小编 一起来看看吧。
一、卷积神经网络历史
对卷积神经网络的研讨可追溯至日本学者福岛邦彦(KunihikoFukushima)提出的neocognition模型。在其1979和1980年发表的论文中,福岛仿制生物的视觉皮层(visualcortex)规划了以“neocognition”命名的神经网络。neocognition是一个具有深度结构的神经网络,并且是最早被提出的深度学习算法之一,其隐含层由S层(Simple-layer)和C层(Complex-layer)替换构成。其间S层单元在感受野(receptivefield)内对图像特征进行提取,C层单元接纳和呼应不同感受野回来的相同特征。neocognition的S层-C层组合能够进行特征提取和挑选,部分完成了卷积神经网络中卷积层(convolutionlayer)和池化层(poolinglayer)的功能,被认为是启发了卷积神经网络的开创性研讨。
第一个卷积神经网络是1987年由AlexanderWaibel等提出的时间延迟网络(TimeDelayNeuralNetwork,TDNN)。TDNN是一个应用于语音识别问题的卷积神经网络,运用FFT预处理的语音信号作为输入,其隐含层由2个一维卷积核组成,以提取频率域上的平移不变特征。由于在TDNN呈现之前,人工智能范畴在反向传播算法(Back-Propagation,BP)的研讨中取得了突破性发展,因而TDNN得以运用BP结构内进行学习。在原作者的比较试验中,TDNN的表现超过了同等条件下的隐马尔可夫模型(HiddenMarkovModel,HMM),而后者是二十世纪80年代语音识别的主流算法。
二、视神经网络结构
1、输入层
卷积神经网络的输入层可以处理多维数据,常见地,一维卷积神经网络的输入层接纳一维或二维数组,其间一维数组一般为时刻或频谱采样;二维数组或许包括多个通道;二维卷积神经网络的输入层接纳二维或三维数组;三维卷积神经网络的输入层接纳四维数组。因为卷积神经网络在计算机视觉范畴有广泛应用,因而许多研讨在介绍其结构时预先假设了三维输入数据,即平面上的二维像素点和RGB通道。
与其它神经网络算法相似,因为使用梯度下降进行学习,卷积神经网络的输入特征需求进行标准化处理。具体地,在将学习数据输入卷积神经网络前,需在通道或时刻/频率维对输入数据进行归一化,若输入数据为像素,也可将散布于的原始像素值归一化至区间。输入特征的标准化有利于提升算法的运转功率和学习体现。
2、隐含层
卷积神经网络的隐含层包括卷积层、池化层和全衔接层3类常见构筑,在一些更为现代的算法中或许有Inception模块、残差块(residualblock)等杂乱构筑。在常见构筑中,卷积层和池化层为卷积神经网络特有。卷积层中的卷积核包括权重系数,而池化层不包括权重系数,因而在文献中,池化层或许不被认为是独立的层。以LeNet-5为例,3类常见构筑在隐含层中的顺序一般为:输入-卷积层-池化层-卷积层-池化层-全衔接层-输出。
梦悠情感,国内领先的一站式女性情感成长学习平台。
注册成为梦悠会员,畅听百门情感课程>>> 立即注册