python之tensorflow手把手实例讲解猫狗识别实现
目录
- 一,猫狗数据集数目构成
- 二,数据导入
- 三,数据集构建
- 四,模型搭建
- 五,模型训练
- 六,模型测试
一,猫狗数据集数目构成
train | cats:1000 ,dogs:1000 |
---|---|
test | cats: 500,dogs:500 |
validation | cats:500,dogs:500 |
二,数据导入
train_dir = 'Data/train'test_dir = 'Data/test'validation_dir = 'Data/validation'train_datagen = ImageDataGenerator(rescale=1/255,rotation_range=10,width_shift_range=0.2,#图片水平偏移的角度height_shift_range=0.2,#图片数值偏移的角度shear_range=0.2,#剪切强度 zoom_range=0.2,#随机缩放的幅度horizontal_flip=True,#是否进行随机水平翻转#fill_mode='nearest')train_generator = train_datagen.flow_from_directory(train_dir,(224,224),batch_size=1,class_mode='binary',shuffle=False)test_datagen = ImageDataGenerator(rescale=1/255)test_generator = test_datagen.flow_from_directory(test_dir,(224,224),batch_size=1,class_mode='binary',shuffle=True)validation_datagen = ImageDataGenerator(rescale=1/255)validation_generator = validation_datagen.flow_from_directory(validation_dir,(224,224),batch_size=1,class_mode='binary')print(train_datagen)print(test_datagen)print(train_datagen)
三,数据集构建
我这里是将ImageDataGenerator类里的数据提取出来,将数据与标签分别存放在两个列表,后面在转为np.array,也可以使用model.fit_generator,我将数据放在内存为了后续调参数时模型训练能更快读取到数据,不用每次训练一整轮都去读一次数据(应该是这样的…我是这样理解…)
注意我这里的数据集构建后,三种数据都是存放在内存中的,我电脑内存是16g的可以存放下。
train_data=https://www.it610.com/article/[]train_labels=[]a=0for data_train, labels_train in train_generator:train_data.append(data_train)train_labels.append(labels_train)a=a+1if a>1999:breakx_train=np.array(train_data)y_train=np.array(train_labels)x_train=x_train.reshape(2000,224,224,3)
test_data=https://www.it610.com/article/[]test_labels=[]a=0for data_test, labels_test in test_generator:test_data.append(data_test)test_labels.append(labels_test)a=a+1if a>999:breakx_test=np.array(test_data)y_test=np.array(test_labels)x_test=x_test.reshape(1000,224,224,3)
validation_data=https://www.it610.com/article/[]validation_labels=[]a=0for data_validation, labels_validation in validation_generator:validation_data.append(data_validation)validation_labels.append(labels_validation)a=a+1if a>999:breakx_validation=np.array(validation_data)y_validation=np.array(validation_labels)x_validation=x_validation.reshape(1000,224,224,3)
四,模型搭建
model1 = tf.keras.models.Sequential([# 第一层卷积,卷积核为,共16个,输入为150*150*1tf.keras.layers.Conv2D(16,(3,3),activation='relu',padding='same',input_shape=(224,224,3)),tf.keras.layers.MaxPooling2D((2,2)),# 第二层卷积,卷积核为3*3,共32个,tf.keras.layers.Conv2D(32,(3,3),activation='relu',padding='same'),tf.keras.layers.MaxPooling2D((2,2)),# 第三层卷积,卷积核为3*3,共64个,tf.keras.layers.Conv2D(64,(3,3),activation='relu',padding='same'),tf.keras.layers.MaxPooling2D((2,2)),# 数据铺平tf.keras.layers.Flatten(),tf.keras.layers.Dense(64,activation='relu'),tf.keras.layers.Dropout(0.5),tf.keras.layers.Dense(1,activation='sigmoid')])print(model1.summary())
模型summary:
文章图片
五,模型训练
model1.compile(optimize=tf.keras.optimizers.SGD(0.00001),loss=tf.keras.losses.binary_crossentropy,metrics=['acc'])history1=model1.fit(x_train,y_train,#validation_split=(0~1)选择一定的比例用于验证集,可被validation_data覆盖validation_data=https://www.it610.com/article/(x_validation,y_validation),batch_size=10,shuffle=True,epochs=10)model1.save('cats_and_dogs_plain1.h5')print(history1)
文章图片
plt.plot(history1.epoch,history1.history.get('acc'),label='acc')plt.plot(history1.epoch,history1.history.get('val_acc'),label='val_acc')plt.title('正确率')plt.legend()
文章图片
可以看到我们的模型泛化能力还是有点差,测试集的acc能达到0.85以上,验证集却在0.65~0.70之前跳动。
六,模型测试
model1.evaluate(x_validation,y_validation)
文章图片
最后我们的模型在测试集上的正确率为0.67,可以说还不够好,有点过拟合,可能是训练数据不够多,后续可以数据增广或者从验证集、测试集中调取一部分数据用于训练模型,可能效果好一些。
【python之tensorflow手把手实例讲解猫狗识别实现】到此这篇关于python之tensorflow手把手实例讲解猫狗识别实现的文章就介绍到这了,更多相关python tensorflow 猫狗识别内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!
推荐阅读
- PMSJ寻平面设计师之现代(Hyundai)
- 太平之莲
- 闲杂“细雨”
- 七年之痒之后
- 深入理解Go之generate
- 由浅入深理解AOP
- 期刊|期刊 | 国内核心期刊之(北大核心)
- 生活随笔|好天气下的意外之喜
- 感恩之旅第75天
- python学习之|python学习之 实现QQ自动发送消息