基于CNN的婴儿睡觉状态识别(上)—模型训练
前言
?? 最近在和同学做一个智能婴儿床的创业项目,项目涉及到了对婴儿的睡眠状态的识别,整个流程下来相当于一次简单的CNN图像分类,虽然只是个Toy Model,但作为练手也是很有收获的,识别内容主要有两点:
1、很多婴儿在睡觉时候会乱动踢掉被子,识别婴儿有没有盖着被子反馈给温控器,如果被子被踢掉了,就相应升高温度。
文章图片
2、婴儿长时间不换睡姿容易得扁头症,识别婴儿的睡姿,若持续时间太长则辅助婴儿翻身。
文章图片
扁头症 以下主要介绍识别的实现流程,首先是采集训练集
训练集采集
训练集主要用模型娃娃,然后拿单反拍摄,效果如下
文章图片
好像有点吓人 【基于CNN的婴儿睡觉状态识别(上)—模型训练】??为了识别结果的鲁棒性,训练集应该尽量全面一些,因此我们对于不同被子褶皱纹理、不同被子倾斜角度、婴儿不同睡姿:平躺、左侧躺、右侧躺、趴睡等不同睡姿,甚至于灯光的角度亮度都做了变化,不盖被子状态也是同理,最终共拍摄不盖被子样本+盖被子样本共277张。
??但是显然,277张样本对于CNN来说不够多,过拟合的风险很高,因此需要数据增强。
数据增强
??所谓数据增强,就是把图片缩小一点,放大一点,旋转一点,翻转一下来扩充训练集,如果不这么做的话,过拟合的几率是非常大的,直接上代码
导入图片
from PIL import Image
import numpy as np
import matplotlib.pyplot as plt
img = Image.open('./baby.png')
img = np.array(img)
plt.imshow(img)
plt.show()
翻转
flipped_img = np.fliplr(img)
plt.imshow(flipped_img)
plt.show()
平移
for i in range(HEIGHT, 1, -1):
for j in range(WIDTH):
if (i < HEIGHT-20):
img[j][i] = img[j][i-20]
elif (i < HEIGHT-1):
img[j][i] = 0
plt.imshow(img)
plt.show()
其余不再赘述,可自行查看相关博客。
最终图像增强了大概4倍,得到训练集共1300张左右。
训练集预处理 前处理主要包括两点:压缩图像,归一化,做完前处理后才能丢进网络训练。
图像压缩 ??我们的单反非常牛啤,每张都有4K的分辨率(4096×2160)。。。 因此图像压缩是必要的,否则这么大的图像不知道训练到猴年马月了。
??通常训练的图像会把图像压缩至32X32的像素大小( 李飞飞的Imagenet好像就是这么做的)不过我们本身样本不多,而且网络不大,压到这么小会严重失真,因此我们最终把图像压缩到128X128像素大小,上代码
from PIL import Image
import os
from glob import glob
fpath = filepath+"baby"
size = (128, 128)# 要调整成为的尺寸
files = glob( fpath + "**/*.JPG", recursive=True) + glob(fpath + "**/*.jpg", recursive=True)
total = len(files) #总文件数
cur = 1 #当前文件序号
print("共有" + str(total) + "个文件,开始处理")
print("-----------------------------------")
for infile in files:
try:
# 分离文件名和后缀
print("进度:" + str(cur) + "/" + str(total) + "" + infile)
img = Image.open(infile) # 打开图片文件
mg.thumbnail(size, Image.ANTIALIAS) # 使用抗锯齿模式生成缩略图(压缩图片)
img.save(infile, "JPEG") # 自动覆盖源文件cur = cur + 1
except OSError:
print(infile + "文件错误,忽略")
我们来看下缩小后的效果
文章图片
未压缩.png
文章图片
压缩后.png 归一化 ??归一化是通过特定操作,让输入等比例缩放或平移,最终保持在(0,1)的范围内。归一化非常有必要,否则很难收敛甚至不能收敛,归一化同时能有效增加收敛速度,提高模型精度。
未归一化:
文章图片
归一化:
文章图片
??可见归一化能有效防止训练时梯度走之子型,步长也能比较均等,对于训练的收敛是有帮助的。
??对于RGB图像类数据,每个像素点有RGB三通道,每个通道的值为0~255之间,通常图像归一化有两种方法:
?? 1.以0.5为中心的压缩方式,将每个像素的RGB值简单除以255,就能将所有值压缩到0~1的范围内了。
?? 2.以0为中心的压缩方式,将每个像素的RGB值除以127.5,这样值在0~2之间,之后再减去一个1,使得值的分布为(-1—1)之间。
??我采用的是方法1,方法1与2的区别应该只是表达习惯的区别,实际上对训练结果应当不影响。
Tensorflow下小型CNN模型建立 ??以前做类似图像二分类的时候用过迁移学习,就是把VGG-16的网络最后几层包括softmax拆掉,补上两层全连接,再对全连接层的参数做训练即可。
??然而因为此次需要把模型导入至树莓派,内存不能超过500M,而VGG-16光是参数就好几个G了,所以需要自己写小型CNN来实现。
1、读取训练集 先前归一化后的训练集用numpy保存为了train_x.npy与train_y.npy两个文件,用Load指令加载到环境中,因为要采用Mini—batch的方式,对训练集作了打乱
train_x = np.load("C:/Users/Administrator/Desktop/fzdl/data/train_x.npy")
train_y = np.load("C:/Users/Administrator/Desktop/fzdl/data/train_y.npy")
index=np.arange(1108)
np.random.shuffle(index)
train_x = train_x[index]
train_y = train_y[index]
2、定义权重、偏置、卷积层、池化操作 唯一要注意的是权重要用tf.truncated_normal的方式来定义,以实现权重初始化的随机性,否则可能造成梯度无法下降导致训练失败。
卷积层与池化层都采用了same padding,即操作时会自动在图像外围补充一圈数字0,使得卷积或池化操作后图像规格不会小一圈;池化采用了常用的最大池化max_pool
def weight_variable(shape, name):
initializer = tf.truncated_normal(shape, stddev=0.1)
return tf.Variable(initializer, name = name)def bias_variable(shape, name):
initializer = tf.constant(0.1, shape=shape)
return tf.Variable(initializer, name = name)def conv2d(x, W):return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')def max_pool_2x2(x, name):return tf.nn.max_pool(x, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME', name = name)
3、搭建网络 来到最关键的部分,首先定义两个placeholder做参数传入,要记得给输入xs命名,因为以后单片机模型转化过程会需要输入节点名字
第一维参数定义成None,代表可以为任意的值,这样传多大的batch进去都不用回头修改,是比较方便的写法
xs = tf.placeholder(tf.float32, [None, 128, 128,3], name = 'input')# 128x128
ys = tf.placeholder(tf.float32, [None, 2])
来到正式搭建网络步骤,我们将网络写成一个inference(x)的函数,规格为两层卷积,两层全连接,最后softmax输出。
激活函数统一采用relu,每层卷积操作后接最大池化,卷积层过度到全连接层要reshape一遍
def inference(x):W_conv1 = weight_variable([3, 3, 3, 16], 'W_conv1') # patch 5x5, in size 3, out size 16
b_conv1 = bias_variable([16], 'b_conv1')
h_conv1 = tf.nn.relu((conv2d(x, W_conv1) + b_conv1), name = 'conv1') # output size 128x128x16
h_pool1 = max_pool_2x2(h_conv1, 'pool1')# output size 64x64x16## conv2 layer
W_conv2 = weight_variable([3, 3, 16, 32], 'W_conv2') # patch 5x5, in size 16, out size 32
b_conv2 = bias_variable([32], 'b_conv2')
h_conv2 = tf.nn.relu((conv2d(h_pool1, W_conv2) + b_conv2), name = 'conv2') # output size 64x64x32
h_pool2 = max_pool_2x2(h_conv2, name = 'pool2')# output size 32x32x32## flatten
h_pool_flat = tf.reshape(h_pool2, [-1, 32 * 32 * 32])## fc1 layer
W_fc1 = weight_variable([32 * 32 * 32, 64], 'W_fc1')
b_fc1 = bias_variable([64], 'b_fc1')
h_fc1 = tf.nn.relu((tf.matmul(h_pool_flat, W_fc1) + b_fc1), name = 'fc1')
h_fc1 = tf.nn.dropout(h_fc1, keep_prob = 0.9, name = 'dropout')## fc2 layer
W_fc2 = weight_variable([64, 2], 'W_fc2')
b_fc2 = bias_variable([2], 'b_fc2')
prediction = tf.nn.bias_add(tf.matmul(h_fc1, W_fc2), b_fc2, name = 'output')
prediction = tf.nn.softmax(prediction, name = 'softmax_output')return prediction
4、损失函数、优化器 损失函数为交叉熵,优化器为adam,很平常的选择,没什么好说的
prediction = inference(xs)
cross_entropy = tf.nn.softmax_cross_entropy_with_logits(labels = ys, logits = prediction)
_loss = tf.reduce_mean(cross_entropy)
train_step = tf.train.AdamOptimizer(1e-4).minimize(_loss)
5、开始训练 首先定义准确率acc,再定义saver以保存训练好的模型,然后就把定义好的各种东西直接run就好了。
bool_acc = tf.equal(tf.arg_max(prediction, 1), tf.arg_max(ys, 1))
acc = tf.reduce_mean(tf.cast(bool_acc, tf.float32))
saver = tf.train.Saver()with tf.Session() as sess:init = tf.global_variables_initializer()
summary_writer = tf.summary.FileWriter(log_dir, sess.graph)
sess.run(init)loss_vec = []
acc_vec = []for i in range(max_epoch):
start = time.clock()
loss, accuracy, _ = sess.run([_loss, acc, train_step],feed_dict={xs: train_x, ys: train_y})loss_vec.append(loss)time_cost = time.clock() - start
print ('step %d, loss = %.4f, accuracy = %.4f, it costs %g' % (i + 1, loss, accuracy, time_cost),'s')if i + 1 == max_epoch:
accc = sess.run(_acc, feed_dict={xs: train_x, ys:train_y})
print(accc)
saver.save(sess, os.path.join(model_save_path,model_name), global_step = i)
另外,本来打算用mini-batch的,然而发现运行的飞快,根本用不着了,最后还是用fullbatch完成了训练,共训练250步,约220步的时候就达到收敛,Loss降到了0.01左右,accuracy达到了100%
文章图片
训练结果 结语
??实际上还是缺了一些步骤,做得还不够讲究:
??比如没有防止过拟合的措施,应该加入dropout;
??没有分割出一部分交叉训练集,准确率虽然在训练集上很高,但是可能是过拟合造成的假象;
??按Andrew ng的说法,还应该调整各种参数去画学习曲线,然后觉得下一步的优化;
??不过由于项目时间有限,目前以能用就行作为唯一要求,而且在后续导入树莓派后发现运气很好的,并没有过拟合,识别效果非常好~~~
??不过未来有时间总之还是得继续优化的。。
模型训练的代码请移步至我的github:https://github.com/huangchuhccc/baby_recognition_by_Horned_sungem_using_tensorflow
后续嵌入树莓派+角峰鸟的流程请移步至下篇
https://www.jianshu.com/p/dd190c5dcbcd
后续又实现了利用婴儿是否入睡的判定与微信的实时提醒,请移步这篇博客:
https://www.jianshu.com/p/45918d2ed025
推荐阅读
- 热闹中的孤独
- JAVA(抽象类与接口的区别&重载与重写&内存泄漏)
- 放屁有这三个特征的,请注意啦!这说明你的身体毒素太多
- 一个人的旅行,三亚
- 布丽吉特,人生绝对的赢家
- 慢慢的美丽
- 尽力
- 一个小故事,我的思考。
- 家乡的那条小河
- 《真与假的困惑》???|《真与假的困惑》??? ——致良知是一种伟大的力量