深度学习|【深度学习】基于卷积神经网络(tensorflow)的人脸识别项目(三)

?

活动地址:CSDN21天学习挑战赛

目录
  • 前言
  • 基本思路
  • 激活函数
    • Sigmoid函数
    • Tanh/双曲正切激活函数
    • ReLU激活函数
  • 损失函数
    • 作用
  • 建立神经网络模型
    • 参数说明
    • CNN模型
    • 网络结构
  • 训练模型
    • 训练结果
  • 评估模型
    • 加载模型
    • 评估测试
    • 测试结果
  • 总结

前言 经过前段时间研究,从LeNet-5手写数字入门到最近研究的一篇天气识别。我想干一票大的,因为我本身从事的就是C++/Qt开发,对Qt还是比较熟悉,所以我想实现一个基于Qt的界面化的一个人脸识别。
对卷积神经网络的概念比较陌生的可以看一看这篇文章:卷积实际上是干了什么
想了解神经网络的训练流程、或者环境搭建的可以看这篇文章:环境搭建与训练流程
如果想学习本项目请先去看第一篇:基于卷积神经网络(tensorflow)的人脸识别项目(一)
第二篇:基于卷积神经网络(tensorflow)的人脸识别项目(二)
基本思路 具体步骤如下:
  1. 首先需要收集数据,我的想法是通过OpenCV调用摄像头进行收集人脸照片。
  2. 然后进行预处理,主要是对数据集分类,训练集、验证集、测试集。
  3. 开始训练模型,提前创建好标签键值对。
  4. 测试人脸识别效果,通过OpenCV捕获人脸照片然后对图片进行预处理最后传入模型中,然后将识别的结果通过文字的形式打印在屏幕上,以此循环,直到输入q退出。
本篇主要是对上述步骤中的第三步进行实现。
激活函数 由于神经网络每一层的I/O全是线形求合的全过程,只要我们对它的上一层进行一系列的线性变换,就可以成功的求出下一层所要输出的东西。如果没有激活函数,无论你搭建的神经网络多么复杂,无论是几层,最后输出全是键入的线性组合,因此单纯的线性组合不可以处理更繁杂的问题。引入激活函数后,你就会发现一般的激活函数全是非线性,因而,根据在神经细胞中引入非线性,神经网络可以贴近非线性元素,神经网络可以运用于大量非线性模型。
Sigmoid函数 Sigmoid函数平滑易于求导;其取值范围为[0, 1]。圆周系统中解决三角函数计算问题,线性系统中解决乘法和除法问题。公式如下所示:
深度学习|【深度学习】基于卷积神经网络(tensorflow)的人脸识别项目(三)
文章图片

如图所示。可以应用于圆周系统、线性系统和双曲系统等,在不同的系统内解决不同的复杂计算问题。
深度学习|【深度学习】基于卷积神经网络(tensorflow)的人脸识别项目(三)
文章图片

Tanh/双曲正切激活函数 它是双曲激活函数的一种,在数学语言上一般写作tanh,虽然它能够使Sigmoid函数的以0为中心输出,但梯度消失问题依旧存在。因为它的本质是,很多层进行一次次的传递,如果数据太小而层数很多,最后可能变成了零。所以在之后我们控制了函数的导数,才使这个问题得到了一定程度上的解决。
深度学习|【深度学习】基于卷积神经网络(tensorflow)的人脸识别项目(三)
文章图片

ReLU激活函数 它全名为线性整流函数,在人工神经网络中非常常见,它是一种非线性函数,通常是由斜坡函数以及它衍生出来的一系列变种。
深度学习|【深度学习】基于卷积神经网络(tensorflow)的人脸识别项目(三)
文章图片

它有很多优点,比如:只要你的输入值是一个正数,它就不会进入饱和区,而且它与其他激活函数相比,计算速度会快很多。但它有一个问题一直没有成功解决,那就是当它输入一个负数值时,此函数就会完全失效,此时的梯度会为零。当然,前面所提到的Sigmoid和tanh函数也有同样的问题。而且它还不是以0为中心的函数,这也就意味着它求导非常困难,而且需要大量的函数来支撑它。公式:深度学习|【深度学习】基于卷积神经网络(tensorflow)的人脸识别项目(三)
文章图片

损失函数 损失函数(loss function)就是用来度量模型的预测值f(x)与真实值Y的差异程度的运算函数,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。
作用 损失函数使用主要是在模型的训练阶段,每个批次的训练数据送入模型后,通过前向传播输出预测值,然后损失函数会计算出预测值和真实值之间的差异值,也就是损失值。得到损失值之后,模型通过反向传播去更新各个参数,来降低真实值与预测值之间的损失,使得模型生成的预测值往真实值方向靠拢,从而达到学习的目的。
建立神经网络模型 参数说明 每次都会有一堆参数,这里我先对参数进行一个介绍。
batch_size:指定每次迭代训练样本抓取的数量
nb_epoch:训练轮换次数
border_mode:卷积层的参数 选择为same,那么卷积操作的输入和输出尺寸会保持一致。如果选择valid,那卷积过后,尺寸会变小。
verbose:日志显示 0 为不在标准输出流输出日志信息 1 为输出进度条记录 2 为每个epoch输出一行记录
CNN模型 共18层,其中卷积层4个,激活层6个,池化层2个,Dropout层3个,Dense层2个,Flatten层一个。
def build_model(self, dataset, nb_classes=9): # 构建一个空的网络模型,它是一个线性堆叠模型,各神经网络层会被顺序添加,专业名称为序贯模型或线性堆叠模型 self.model = Sequential()# 以下代码将顺序添加CNN网络需要的各层,一个add就是一个网络层 self.model.add(Convolution2D(32, 3, 3, border_mode='same', input_shape=dataset.input_shape))# 1 2维卷积层 self.model.add(Activation('relu'))# 2 激活函数层self.model.add(Convolution2D(32, 3, 3))# 3 2维卷积层 self.model.add(Activation('relu'))# 4 激活函数层self.model.add(MaxPooling2D(pool_size=(2, 2)))# 5 池化层 self.model.add(Dropout(0.25))# 6 Dropout层self.model.add(Convolution2D(64, 3, 3, border_mode='same'))# 72维卷积层 self.model.add(Activation('relu'))# 8激活函数层self.model.add(Convolution2D(64, 3, 3))# 92维卷积层 self.model.add(Activation('relu'))# 10 激活函数层self.model.add(MaxPooling2D(pool_size=(2, 2)))# 11 池化层 self.model.add(Dropout(0.25))# 12 Dropout层self.model.add(Flatten())# 13 Flatten层 self.model.add(Dense(512))# 14 Dense层,又被称作全连接层 self.model.add(Activation('relu'))# 15 激活函数层 self.model.add(Dropout(0.5))# 16 Dropout层 self.model.add(Dense(nb_classes))# 17 Dense层 self.model.add(Activation('softmax'))# 18 分类层,输出最终结果# 输出网络结构 self.model.summary()

网络结构 下面为该神经网络的结构,总参数量6M。
Model: "sequential_1" _________________________________________________________________ Layer (type)Output ShapeParam # ================================================================= conv2d_1 (Conv2D)(None, 64, 64, 32)896 _________________________________________________________________ activation_1 (Activation)(None, 64, 64, 32)0 _________________________________________________________________ conv2d_2 (Conv2D)(None, 62, 62, 32)9248 _________________________________________________________________ activation_2 (Activation)(None, 62, 62, 32)0 _________________________________________________________________ max_pooling2d_1 (MaxPooling2 (None, 31, 31, 32)0 _________________________________________________________________ dropout_1 (Dropout)(None, 31, 31, 32)0 _________________________________________________________________ conv2d_3 (Conv2D)(None, 31, 31, 64)18496 _________________________________________________________________ activation_3 (Activation)(None, 31, 31, 64)0 _________________________________________________________________ conv2d_4 (Conv2D)(None, 29, 29, 64)36928 _________________________________________________________________ activation_4 (Activation)(None, 29, 29, 64)0 _________________________________________________________________ max_pooling2d_2 (MaxPooling2 (None, 14, 14, 64)0 _________________________________________________________________ dropout_2 (Dropout)(None, 14, 14, 64)0 _________________________________________________________________ flatten_1 (Flatten)(None, 12544)0 _________________________________________________________________ dense_1 (Dense)(None, 512)6423040 _________________________________________________________________ activation_5 (Activation)(None, 512)0 _________________________________________________________________ dropout_3 (Dropout)(None, 512)0 _________________________________________________________________ dense_2 (Dense)(None, 10)5130 _________________________________________________________________ activation_6 (Activation)(None, 10)0 ================================================================= Total params: 6,493,738 Trainable params: 6,493,738 Non-trainable params: 0

训练模型 不懂就看代码中的注释哦。
def train(self, dataset, batch_size=20, nb_epoch=10, data_augmentation=True): # 参数batch_size的作用即在于此,其指定每次迭代训练样本的数量 # nb_epoch 训练轮换次数 sgd = SGD(lr=0.01, decay=1e-6, momentum=0.9, nesterov=True)# 采用SGD+momentum的优化器进行训练,首先生成一个优化器对象 self.model.compile(loss='categorical_crossentropy', optimizer=sgd, metrics=['accuracy'])# 完成实际的模型配置工作# 不使用数据提升,所谓的提升就是从我们提供的训练数据中利用旋转、翻转、加噪声等方法创造新的 # 训练数据,有意识的提升训练数据规模,增加模型训练量 if not data_augmentation: self.model.fit(dataset.train_images, dataset.train_labels, batch_size=batch_size, nb_epoch=nb_epoch, validation_data=https://www.it610.com/article/(dataset.valid_images, dataset.valid_labels), shuffle=True, verbose = 1) # 使用实时数据提升 else: # 定义数据生成器用于数据提升,其返回一个生成器对象datagen,datagen每被调用一 # 次其生成一组数据(顺序生成),节省内存,其实就是python的数据生成器 datagen = ImageDataGenerator( featurewise_center=False,# 是否使输入数据去中心化(均值为0), samplewise_center=False,# 是否使输入数据的每个样本均值为0 featurewise_std_normalization=False,# 是否数据标准化(输入数据除以数据集的标准差) samplewise_std_normalization=False,# 是否将每个样本数据除以自身的标准差 zca_whitening=False,# 是否对输入数据施以ZCA白化 rotation_range=20,# 数据提升时图片随机转动的角度(范围为0~180) width_shift_range=0.2,# 数据提升时图片水平偏移的幅度(单位为图片宽度的占比,0~1之间的浮点数) height_shift_range=0.2,# 同上,只不过这里是垂直 horizontal_flip=True,# 是否进行随机水平翻转 vertical_flip=False)# 是否进行随机垂直翻转# 计算整个训练样本集的数量以用于特征值归一化、ZCA白化等处理 datagen.fit(dataset.train_images)# 利用生成器开始训练模型 self.model.fit_generator(datagen.flow(dataset.train_images, dataset.train_labels, batch_size=batch_size), samples_per_epoch=dataset.train_images.shape[0], nb_epoch=nb_epoch, validation_data=(dataset.valid_images, dataset.valid_labels), verbose = 1)

训练结果 最后识别效果也达到了99.28%。
Epoch 1/10 - 45s - loss: 1.5003 - accuracy: 0.4488 - val_loss: 0.2484 - val_accuracy: 0.9661 Epoch 2/10 - 45s - loss: 0.5669 - accuracy: 0.8032 - val_loss: 0.1429 - val_accuracy: 0.9331 Epoch 3/10 - 46s - loss: 0.3572 - accuracy: 0.8778 - val_loss: 0.3107 - val_accuracy: 0.8703 Epoch 4/10 - 45s - loss: 0.2577 - accuracy: 0.9139 - val_loss: 0.0277 - val_accuracy: 0.9940 Epoch 5/10 - 46s - loss: 0.2046 - accuracy: 0.9350 - val_loss: 0.0275 - val_accuracy: 0.9940 Epoch 6/10 - 45s - loss: 0.1824 - accuracy: 0.9400 - val_loss: 0.0242 - val_accuracy: 0.9930 Epoch 7/10 - 46s - loss: 0.1512 - accuracy: 0.9473 - val_loss: 0.1970 - val_accuracy: 0.9341 Epoch 8/10 - 46s - loss: 0.1426 - accuracy: 0.9541 - val_loss: 0.0149 - val_accuracy: 0.9960 Epoch 9/10 - 46s - loss: 0.1474 - accuracy: 0.9541 - val_loss: 0.0391 - val_accuracy: 0.9930 Epoch 10/10 - 45s - loss: 0.1103 - accuracy: 0.9666 - val_loss: 0.0133 - val_accuracy: 0.9928

评估模型 用于确认模型的精度是否能达到要求。
加载模型
def load_model(self, file_path=MODEL_PATH): self.model = load_model(file_path)

评估测试
def evaluate(self, dataset): score = self.model.evaluate(dataset.test_images, dataset.test_labels, verbose=1) print("%s: %.2f%%" % (self.model.metrics_names[1], score[1] * 100))

测试结果 正确率99.16%。
深度学习|【深度学习】基于卷积神经网络(tensorflow)的人脸识别项目(三)
文章图片

总结 【深度学习|【深度学习】基于卷积神经网络(tensorflow)的人脸识别项目(三)】本章节 主要的难度在于模型的设计上,一直需要微调模型。再就是需要了解一些什么是损失函数、激活函数等等一些概念性东西。

    推荐阅读