正在阅读:

Python机器学习SVM人脸识别实例

1、前言应用

在上一篇文章中讲了一下SVM在线性可分的情况下的的基本应用,是一个分类器将两种点分类的程序。这篇文章主要讲一下SVM在线性不可分的情况下的应用建模。在机器学习中SVM中一直都是比较优秀的,在人脸识别和手写文字识别上面也算是少有对手。

现在我们就拿人脸识别在做一个应用测试,使用的数据集是sklearn中自带的图片数据,具体的下载使用下面讲。

2、线性不可分的SVM应用测试

训练集:sklearn自带的人脸图片数据集。

先说一下,这个图片的数据集中得到特征值是比较多的,我们需要进行降维,用到了pca的降维方法。下面我们一步一步讲

首先介绍一下我们需要用到的几个库


1
2
3
4
5
6
7
8
9
10
#coding:utf8
from time import time
import logging
from sklearn.cross_validation import train_test_split
from sklearn.datasets import fetch_lfw_people
from sklearn.grid_search import GridSearchCV
from sklearn.metrics import classification_report
from sklearn.metrics import confusion_matrix
from sklearn.decomposition import RandomizedPCA
from sklearn.svm import SVC

logging是用来打印程序的运行日志的

train_test_split大家应该都知道,是用来分割数据集的,将数据分为训练数据和测试数据

fetch_lfw_people就是我们用到的人脸数据集

GridSearchCV是寻找合适的SVM参数组合的

classfusion_report和confusion_matrix是后面用来给模型打分的

RandomizedPCA就是我们用来降维的

SVC就不用说了,我们的主

继续看代码:


1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
#打印日志信息
logging.basicConfig(level=logging.INFO, format='%(asctime)s%(message)s')

###########################数据预处理#############################
#装载人脸的数据集
lfw_people = fetch_lfw_people(min_faces_per_person=70, resize=0.4)
print lfw_people

n_samples, h, w = lfw_people.images.shape  #实例数(图片数)、h、w
print n_samples,h,w

= lfw_people.data #所有的训练数据,1288张图片,每张图片1850个特征值
print "训练数据的X.shape:", X.shape

n_features = X.shape[1] #特征向量的维度1850

= lfw_people.target   #对应的人脸标记
target_names = lfw_people.target_names
print "需要识别的人名字:",target_names
n_classes = target_names.shape[0] #几个人需要识别
#分割训练集和测试集
X_train,X_test,y_train,y_test = train_test_split(X, Y, test_size=0.25)

注意一下fetch_lfw_people这一行,我们是加载图片数据的,在第一次运行的时候电脑上是没有这些图片数据的,程序会自带去网上下载,下载所需的时间比较长,大小在200+M。下载后的图片默认保存位置在C:\Users\kTWO\scikit_learn_data\lfw_home\lfw_funneled,其中kTWO是我电脑的用户名,你懂得。

上面的代码就是对数据集进行的预处理,当然这个数据集是比较完整的,我们主要干了个分割的事情,将0.75的数据集分割成了训练集,0.25的测试集。另外我们还发现,特征向量的维度高达1850,这个数值太大了,有很多都是无用的特征值,所以我们下面就要进行降维处理。

降维主要分为两个步骤:

1、使用无监督学习简历PCA模型。

2、视频PCA模型对数据进行降维。

看代码:


1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
#############################降维度#####################################

n_components= 150   #降维的参数,组成元素的数量,即保留下来的特征个数
t0 = time()
#随机将高维的特征向量降低为低维的,先建立模型
pca = RandomizedPCA(n_components=n_components,whiten=True).fit(X_train)
print ("time:%0.3fs" % (time()-t0))
print pca
#提取人脸的特征值
#eigenface = pca.components_.reshape((n_components, h, w))
#print pca.components_

#使用进行数据模型降维,降成了150
t0 = time()
X_train_pca = pca.transform(X_train)
X_test_pca = pca.transform(X_test)
print X_train_pca.shape
print X_test_pca.shape
print ("time:%0.3fs" % (time()-t0))
代码中的n_comonents参数就是我们要降成的维度,这个降维使用的是随机降维。PCA模型建立好之后就可以执行pac.transform进行数据降维了。

数据已经准备好了,下一步就可以进行建立SVM模型的建立了。建模的时候要注意一点,有两个参数需要填写,C参数和gamma参数,这两个参数是不确定的,我们会给定几个数值,使用GridSearchCV进行自由组合,最终确定合适的组合。

看建模代码:

print "开始建模"
t0 = time()
#C 是对错误部分的惩罚;gamma 合成点
param_grid = {'C'[1e3, 5e3, 1e4, 5e4, 1e5],
              'gamma'[0.0001, 0.0005, 0.001, 0.005,0.01, 0.1],}
#rbf处理图像较好,C和gamma组合,琼剧出最好的一个组合
clf = GridSearchCV(SVC(kernel='rbf', class_weight='auto'), param_grid)
print clf
#建模
clf = clf.fit(X_train_pca, y_train)
print ("time:%0.3fs" % (time()-t0))
print clf.best_estimator_   #最好的模型的信息

在模型建立好之后,打印clf.best_estimator_可以看到这个模型的SVM的参数信息。

ok,下一步我们就使用测试集进行人脸的识别预测。

代码:


1
2
3
4
5
6
7
8
9
10
#############################数据预测#################################
t0 = time()
y_pred = clf.predict(X_test_pca)
print ("time:%0.3fs" % (time()-t0))
#打印预测成绩报告
print classification_report(y_test,y_pred,target_names=target_names)
#打印预测成绩混淆矩阵
print confusion_matrix(y_test,y_pred,labels=range(n_classes))
print y_test
print y_pred

看一下预测的结果:

classification_report结果:

blob.png

解释一下,precision是预测的准确率,recall是召回率f1-score是一个兼顾考虑了Precision和Recall的评估指标。他们的数值越接近1说明预测的越准。

confusion_matrix混淆矩阵验证结果:

1.png

在这个矩阵中,如果全部都是100%预测,那么数据应该都排列在对角线上,也就是说,每一个行列对应之后就会在对角线上+1,可已看出,第一行上有15个预测正确,另外有9个预测失败,这个正确率比较低,不过剩下的几个就比较高了。

留下脚印,证明你来过。

*

*

流汗坏笑撇嘴大兵流泪发呆抠鼻吓到偷笑得意呲牙亲亲疑问调皮可爱白眼难过愤怒惊讶鼓掌