人脸识别实战之Opencv+SVM实现人脸识别
目录
- 前言
- 项目结构
- 编码
- 训练人脸识别模型
- 识别图像中的人脸
- 摄像头识别人脸
前言 在本文中,您将学习如何使用 OpenCV 进行人脸识别。文章分三部分介绍:
第一,将首先执行人脸检测,使用深度学习从每个人脸中提取人脸量化为128位的向量。
第二, 在嵌入基础上使用支持向量机(SVM)训练人脸识别模型。
第三,最后使用 OpenCV 识别图像和视频流中的人脸。
项目结构
文章图片
编码 新建face_embeddings.py脚本,写入如下代码:
# import the necessary packagesimport numpy as npimport pickleimport cv2import osimport os
导入需要的包。然后定义几个函数:
def list_images(basePath, contains=None):# return the set of files that are validreturn list_files(basePath, validExts=image_types, contains=contains)def list_files(basePath, validExts=None, contains=None):# loop over the directory structurefor (rootDir, dirNames, filenames) in os.walk(basePath):# loop over the filenames in the current directoryfor filename in filenames:# if the contains string is not none and the filename does not contain# the supplied string, then ignore the fileif contains is not None and filename.find(contains) == -1:continue# determine the file extension of the current fileext = filename[filename.rfind("."):].lower()# check to see if the file is an image and should be processedif validExts is None or ext.endswith(validExts):# construct the path to the image and yield itimagePath = os.path.join(rootDir, filename)yield imagePathdef resize(image, width=None, height=None, inter=cv2.INTER_AREA):dim = None(h, w) = image.shape[:2]# 如果高和宽为None则直接返回if width is None and height is None:return image# 检查宽是否是Noneif width is None:# 计算高度的比例并并按照比例计算宽度r = height / float(h)dim = (int(w * r), height)# 高为Noneelse:# 计算宽度比例,并计算高度r = width / float(w)dim = (width, int(h * r))resized = cv2.resize(image, dim, interpolation=inter)# return the resized imagereturn resized
list_images函数,读取数据集文件夹下面的图片。
resize函数,等比例resize图片。接下来定义一些变量:
dataset_path='dataset'embeddings_path='output/embeddings.pickle'detector_path='face_dete_model'embedding_model='nn4.small2.v1.t7'confidence_low=0.5
dataset_path:数据集路径
embeddings_path:输出编码文件的路径
detector_path:人脸检测模型的路径
embedding_model:编码模型
confidence_low:最低的置信度。
接下来就是代码的最重要的部分:
print("loading face detector...")protoPath = os.path.sep.join([detector_path, "deploy.proto.txt"])modelPath = os.path.sep.join([detector_path,"res10_300x300_ssd_iter_140000_fp16.caffemodel"])detector = cv2.dnn.readNetFromCaffe(protoPath, modelPath)# 加载序列化的人脸编码模型print("loading face recognizer...")embedder = cv2.dnn.readNetFromTorch(embedding_model)# 获取数据集中输入图像的路径print("quantifying faces...")imagePaths = list(list_images(dataset_path))# 初始化我们提取的面部编码列表和相应的人名knownEmbeddings = []knownNames = []# 初始化处理的人脸总数total = 0# loop over the image pathsfor (i, imagePath) in enumerate(imagePaths):# extract the person name from the image pathprint("processing image {}/{}".format(i + 1,len(imagePaths)))name = imagePath.split(os.path.sep)[-2]# 加载图像,将其调整为宽度为 600 像素(同时保持纵横比),然后抓取图像尺寸image = cv2.imread(imagePath)image = resize(image, width=600)(h, w) = image.shape[:2]# 从图像构建一个 blobimageBlob = cv2.dnn.blobFromImage(cv2.resize(image, (300, 300)), 1.0, (300, 300),(104.0, 177.0, 123.0), swapRB=False, crop=False)# 使用 OpenCV 的基于深度学习的人脸检测器来定位输入图像中的人脸detector.setInput(imageBlob)detections = detector.forward()# ensure at least one face was foundif len(detections) > 0:# 假设每个图像只有一张脸,所以找到概率最大的边界框i = np.argmax(detections[0, 0, :, 2])confidence = detections[0, 0, i, 2]# 确保最大概率的检测也意味着我们的最小概率测试(从而帮助过滤掉弱检测)if confidence > confidence_low:# 计算人脸边界框的 (x, y) 坐标box = detections[0, 0, i, 3:7] * np.array([w, h, w, h])(startX, startY, endX, endY) = box.astype("int")# 提取人脸ROI并抓取ROI维度face = image[startY:endY, startX:endX](fH, fW) = face.shape[:2]# 确保人脸宽度和高度足够大if fW < 20 or fH < 20:continue# 为人脸 ROI 构造一个 blob,然后将 blob 通过我们的人脸嵌入模型来获得人脸的 128-d 量化faceBlob = cv2.dnn.blobFromImage(face, 1.0 / 255,(96, 96), (0, 0, 0), swapRB=True, crop=False)embedder.setInput(faceBlob)vec = embedder.forward()# 将人名+对应的人脸嵌入添加到各自的列表中knownNames.append(name)knownEmbeddings.append(vec.flatten())total += 1# 保存编码文件print("serializing {} encodings...".format(total))data = https://www.it610.com/article/{"embeddings": knownEmbeddings, "names": knownNames}f = open(embeddings_path, "wb")f.write(pickle.dumps(data))f.close()
加载人脸检测器和编码器:
检测器:使用基于Caffe的DL人脸检测器来定位图像中的人脸。
编码器:模型基于Torch,负责通过深度学习特征提取来提取人脸编码。
接下来,让我们抓取图像路径并执行初始化。
遍历 imagePaths。从路径中提取人名。
构造了一个 blob。
然后,通过将 imageBlob 通过检测器网络来检测图像中的人脸。
检测列表包含定位图像中人脸的概率和坐标。
假设我们至少有一个检测,将进入 if 语句的主体。
假设图像中只有一张脸,因此提取具有最高置信度的检测并检查以确保置信度满足用于过滤弱检测的最小概率阈值。
假设已经达到了这个阈值,提取面部 ROI 并抓取/检查尺寸以确保面部 ROI 足够大。
然后,我们将利用编码器 并提取人脸编码。
继续构建另一个 blob。
随后,将 faceBlob 通过编码器 。 这会生成一个 128 维向量 (vec) 来描述面部。
然后我们简单地将名称和嵌入 vec 分别添加到 knownNames 和 knownEmbeddings 中。
继续循环图像、检测人脸并为数据集中的每个图像提取人脸编码的过程。
循环结束后剩下的就是将数据转储到磁盘。
运行结果:
loading face detector...
loading face recognizer...
quantifying faces...
processing image 1/19
processing image 2/19
processing image 3/19
processing image 4/19
processing image 5/19
processing image 6/19
processing image 7/19
processing image 8/19
processing image 9/19
processing image 10/19
processing image 11/19
processing image 12/19
processing image 13/19
processing image 14/19
processing image 15/19
processing image 16/19
processing image 17/19
processing image 18/19
processing image 19/19
serializing 19 encodings...
Process finished with exit code 0
训练人脸识别模型 已经为每张脸提取了 128 维编码——但是我们如何根据这些嵌入来识别一个人呢?
答案是我们需要在嵌入之上训练一个“标准”机器学习模型(例如 SVM、k-NN 分类器、随机森林等)。
今天我们使用SVM实现
打开 train_face.py 文件并插入以下代码:
from sklearn.preprocessing import LabelEncoderfrom sklearn.svm import SVCimport pickleembeddings_path='output/embeddings.pickle'recognizer_path='output/recognizer.pickle'lable_path='output/le.pickle'# 加载编码模型print("[INFO] loading face embeddings...")data = https://www.it610.com/article/pickle.loads(open(embeddings_path,"rb").read())# 给label编码print("[INFO] encoding labels...")le = LabelEncoder()labels = le.fit_transform(data["names"])# 训练用于接受人脸 128-d 嵌入的模型,然后产生实际的人脸识别recognizer = SVC(C=1.0, kernel="linear", probability=True)recognizer.fit(data["embeddings"], labels)# 保存模型f = open(recognizer_path, "wb")f.write(pickle.dumps(recognizer))f.close()# 保存lablef = open(lable_path, "wb")f.write(pickle.dumps(le))f.close()
导入包和模块。 我们将使用 scikit-learn 的支持向量机 (SVM) 实现,这是一种常见的机器学习模型。
定义变量。
- embeddings_path:序列化编码。
- recognizer_path:这将是我们识别人脸的输出模型。 它基于 SVM。
- lable_path:标签编码器输出文件路径
然后初始化 scikit-learn LabelEncoder 并编码名称标签。
训练模型。本文使用的是线性支持向量机 (SVM),但如果您愿意,您可以尝试使用其他机器学习模型进行试验。
训练模型后,我们将模型和标签编码器保存到电脑上。
运行train_face.py 脚本。
识别图像中的人脸 新建脚本文件recognize_face.py,插入一下代码:
import numpy as npimport pickleimport cv2import os
导入包,然后我们需要新增一个resize方法。
def resize(image, width=None, height=None, inter=cv2.INTER_AREA):dim = None(h, w) = image.shape[:2]# 如果高和宽为None则直接返回if width is None and height is None:return image# 检查宽是否是Noneif width is None:# 计算高度的比例并并按照比例计算宽度r = height / float(h)dim = (int(w * r), height)# 高为Noneelse:# 计算宽度比例,并计算高度r = width / float(w)dim = (width, int(h * r))resized = cv2.resize(image, dim, interpolation=inter)# return the resized imagereturn resized
等比例resize图像,定义变量:
image_path = '11.jpg'detector_path = 'face_dete_model'embedding_path = 'nn4.small2.v1.t7'recognizer_path = 'output/recognizer.pickle'label_path = 'output/le.pickle'confidence_low = 0.5
这六个变量的含义如下:
- image_path :输入图像的路径。
- detector_path:OpenCV 深度学习人脸检测器的路径。 使用这个模型来检测人脸 ROI 在图像中的位置。
- embedding_path : OpenCV 深度学习人脸编码模型的路径。 我们将使用这个模型从人脸 ROI 中提取 128 维人脸嵌入——然后将把数据输入到识别器中。
- recognizer_path :识别器模型的路径。
- label_path : 标签编码器的路径。
- confidence_low:过滤弱人脸检测的可选阈值。
# 加载序列化人脸检测器print("[INFO] loading face detector...")protoPath = os.path.sep.join([detector_path, "deploy.proto.txt"])modelPath = os.path.sep.join([detector_path,"res10_300x300_ssd_iter_140000_fp16.caffemodel"])detector = cv2.dnn.readNetFromCaffe(protoPath, modelPath)# 加载我们序列化的人脸编码模型print("[INFO] loading face recognizer...")embedder = cv2.dnn.readNetFromTorch(embedding_path)# 加载实际的人脸识别模型和标签编码器recognizer = pickle.loads(open(recognizer_path, "rb").read())le = pickle.loads(open(label_path, "rb").read())# 加载图像,将其调整为宽度为 600 像素(同时保持纵横比),然后抓取图像尺寸image = cv2.imread(image_path)image = resize(image, width=600)(h, w) = image.shape[:2]# 从图像构建一个 blobimageBlob = cv2.dnn.blobFromImage(cv2.resize(image, (300, 300)), 1.0, (300, 300),(104.0, 177.0, 123.0), swapRB=False, crop=False)# 应用 OpenCV 的基于深度学习的人脸检测器来定位输入图像中的人脸detector.setInput(imageBlob)detections = detector.forward()# loop over the detectionsfor i in range(0, detections.shape[2]):# 提取与预测相关的置信度(即概率)confidence = detections[0, 0, i, 2]# filter out weak detectionsif confidence > confidence_low:# 计算人脸边界框的 (x, y) 坐标box = detections[0, 0, i, 3:7] * np.array([w, h, w, h])(startX, startY, endX, endY) = box.astype("int")# 提取人脸ROIface = image[startY:endY, startX:endX](fH, fW) = face.shape[:2]# 确保人脸宽度和高度足够大if fW < 20 or fH < 20:continue# 为人脸 ROI 构造一个 blob,然后将 blob 通过我们的人脸嵌入模型来获得人脸的 128-d 量化faceBlob = cv2.dnn.blobFromImage(face, 1.0 / 255, (96, 96),(0, 0, 0), swapRB=True, crop=False)embedder.setInput(faceBlob)vec = embedder.forward()# 执行分类以识别人脸preds = recognizer.predict_proba(vec)[0]j = np.argmax(preds)proba = preds[j]name = le.classes_[j]# 绘制人脸的边界框以及相关的概率text = "{}: {:.2f}%".format(name, proba * 100)y = startY - 10 if startY - 10 > 10 else startY + 10cv2.rectangle(image, (startX, startY), (endX, endY),(0, 0, 255), 2)cv2.putText(image, text, (startX, y),cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 0, 255), 2)# 展示结果cv2.imshow("Image", image)cv2.waitKey(0)
我们在这个块中加载三个模型。 冒着冗余的风险,我想明确提醒您模型之间的差异:
- 检测器:一个预训练的 Caffe DL 模型,用于检测人脸在图像中的位置。
- embedder:一个预训练的 Torch DL 模型,用于计算我们的 128-D 人脸嵌入。
- 识别器:线性 SVM 人脸识别模型。
加载标签编码器,其中包含我们的模型可以识别的人的姓名。
将图像加载到内存中并构建一个 blob。
通过我们的检测器定位图像中的人脸。
您将从步骤 1 中识别出此块。 我在这里再解释一遍:
遍历检测并提取每个检测的置信度。
然后将置信度与命令行 最小概率检测阈值进行比较,确保计算出的概率大于最小概率。
我们提取人脸 ROI并确保它的空间维度足够大。
下面是识别人脸 ROI代码:
首先,构建一个 faceBlob)并将其通过编码器以生成描述面部的 128 维向量
然后,我们将 vec 通过我们的 SVM 识别器模型,其结果是我们对面部 ROI 中的人的预测。
我们取最高概率指数并查询我们的标签编码器以找到名称。
循环中识别每一张脸(包括“未知”)人:
在构造了一个包含名称和概率的文本字符串。
然后在脸部周围绘制一个矩形并将文本放在框上方。
最后我们在屏幕上可视化结果,直到按下某个键。
文章图片
可以看出使用机器学习的方式准确率还是比较低的,但是优点是速度快。
摄像头识别人脸 这里我用视频代替,代码和图像中识别人脸的步骤一致,直接上代码。
新建recognize_video.py脚本,插入一下代码:
import numpy as npimport pickleimport timeimport cv2import osdef resize(image, width=None, height=None, inter=cv2.INTER_AREA):dim = None(h, w) = image.shape[:2]# 如果高和宽为None则直接返回if width is None and height is None:return image# 检查宽是否是Noneif width is None:# 计算高度的比例并并按照比例计算宽度r = height / float(h)dim = (int(w * r), height)# 高为Noneelse:# 计算宽度比例,并计算高度r = width / float(w)dim = (width, int(h * r))resized = cv2.resize(image, dim, interpolation=inter)# return the resized imagereturn resizedout_put='output.avi'video_path = '1.mp4'detector_path = 'face_dete_model'embedding_path = 'nn4.small2.v1.t7'recognizer_path = 'output/recognizer.pickle'label_path = 'output/le.pickle'confidence_low = 0.5# load our serialized face detector from diskprint("[INFO] loading face detector...")protoPath = os.path.sep.join([detector_path, "deploy.proto.txt"])modelPath = os.path.sep.join([detector_path,"res10_300x300_ssd_iter_140000_fp16.caffemodel"])detector = cv2.dnn.readNetFromCaffe(protoPath, modelPath)# load our serialized face embedding model from diskprint("[INFO] loading face recognizer...")embedder = cv2.dnn.readNetFromTorch(embedding_path)# load the actual face recognition model along with the label encoderrecognizer = pickle.loads(open(recognizer_path, "rb").read())le = pickle.loads(open(label_path, "rb").read())# initialize the video stream, then allow the camera sensor to warm upprint("[INFO] starting video stream...")#vs = cv2.VideoCapture(0) #摄像头vs=cv2.VideoCapture(video_path)# 视频time.sleep(2.0)# start the FPS throughput estimatorwriter=None# loop over frames from the video file streamwhile True:# grab the frame from the threaded video streamret_val, frame = vs.read()if ret_val is False:break# resize the frame to have a width of 600 pixels (while# maintaining the aspect ratio), and then grab the image# dimensionsframe = resize(frame, width=600)(h, w) = frame.shape[:2]# construct a blob from the imageimageBlob = cv2.dnn.blobFromImage(cv2.resize(frame, (300, 300)), 1.0, (300, 300),(104.0, 177.0, 123.0), swapRB=False, crop=False)# apply OpenCV's deep learning-based face detector to localize# faces in the input imagedetector.setInput(imageBlob)detections = detector.forward()# loop over the detectionsfor i in range(0, detections.shape[2]):# extract the confidence (i.e., probability) associated with# the predictionconfidence = detections[0, 0, i, 2]# filter out weak detectionsif confidence >confidence_low:# compute the (x, y)-coordinates of the bounding box for# the facebox = detections[0, 0, i, 3:7] * np.array([w, h, w, h])(startX, startY, endX, endY) = box.astype("int")# extract the face ROIface = frame[startY:endY, startX:endX](fH, fW) = face.shape[:2]# ensure the face width and height are sufficiently largeif fW < 20 or fH < 20:continue# construct a blob for the face ROI, then pass the blob# through our face embedding model to obtain the 128-d# quantification of the facefaceBlob = cv2.dnn.blobFromImage(face, 1.0 / 255,(96, 96), (0, 0, 0), swapRB=True, crop=False)embedder.setInput(faceBlob)vec = embedder.forward()# perform classification to recognize the facepreds = recognizer.predict_proba(vec)[0]j = np.argmax(preds)proba = preds[j]name = le.classes_[j]# draw the bounding box of the face along with the# associated probabilitytext = "{}: {:.2f}%".format(name, proba * 100)y = startY - 10 if startY - 10 > 10 else startY + 10cv2.rectangle(frame, (startX, startY), (endX, endY),(0, 0, 255), 2)cv2.putText(frame, text, (startX, y),cv2.FONT_HERSHEY_SIMPLEX, 0.45, (0, 0, 255), 2)if writer is None and out_put is not None:fourcc = cv2.VideoWriter_fourcc(*"MJPG")writer = cv2.VideoWriter(out_put, fourcc, 20,(frame.shape[1], frame.shape[0]), True)# 如果 writer 不是 None,则将识别出人脸的帧写入磁盘if writer is not None:writer.write(frame)# show the output framecv2.imshow("Frame", frame)key = cv2.waitKey(1) & 0xFF# if the `q` key was pressed, break from the loopif key == ord("q"):break# do a bit of cleanupcv2.destroyAllWindows()vs.release()if writer is not None:writer.release()
运行结果:
【人脸识别实战之Opencv+SVM实现人脸识别】以上就是人脸识别实战之Opencv+SVM实现人脸识别的详细内容,更多关于Opencv SVM人脸识别的资料请关注脚本之家其它相关文章!
推荐阅读
- 人脸识别|【人脸识别系列】| 实现自动化妆
- 《机器学习实战》高清中文版PDF英文版PDF+源代码下载
- --木木--|--木木-- 第二课作业#翼丰会(每日一淘6+1实战裂变被动引流# 6+1模式)
- Spring|Spring 框架之 AOP 原理剖析已经出炉!!!预定的童鞋可以识别下发二维码去看了
- 2020-07-29《吴军·阅读与写作50讲》24实战才能转化效能
- 识别人才
- Python实战计划学习笔记(9)为大规模爬取准备
- 从前沿科技到现实应用,人脸识别智能门禁加速走进智慧社区
- 韵达基于云原生的业务中台建设 | 实战派
- 【V课会】第3季-30天小学思维导图实战营