软件学报  2014, Vol. 25 Issue (9): 2102-2118   PDF    
基于图像分解的人脸特征表示
李照奎1,2, 丁立新1, 何进荣1, 胡庆辉1    
1. 软件工程国家重点实验室(武汉大学 计算机学院), 湖北 武汉 430072;
2. 沈阳航空航天大学 计算机学院, 辽宁 沈阳 110136
摘要:提出一种基于图像分解的人脸特征表示方法(FRID),首先通过多方向操作,把一幅图像分解成一系列方向子图像;然后,通过欧拉映射操作,把每幅方向子图像分解成实部和虚部图像,针对每幅实部和虚部图像,分别划分出多个不重叠的局部图像块,通过统计图像块上不同数值的个数生成相应的实部和虚部直方图,一幅图像的所有实部和虚部直方图被串联成一个超级特征向量;最后,利用线性判别分析方法对超级特征向量进行维数约简,以获得每幅图像的低维表示.实验显示该方法在多个人脸数据库上获得了优于时新算法的识别结果,并且表现得更为稳定.
关键词图像分解     多方向操作     欧拉映射     人脸识别    
Face Feature Representation Based on Image Decomposition
LI Zhao-Kui1,2, DING Li-Xin1, HE Jin-Rong1, HU Qing-Hui1    
1. State Key Laboratory of Software Engineering (School of Computer, Wuhan University), Wuhan 430072, China;
2. School of Computer, Shenyang Aerospace University, Shenyang 110136, China
Corresponding author: DING Li-Xin, E-mail: lxding@whu.edu.cn, http://www.whu.edu.cn
Abstract: This paper presents a face feature representation method based on image decomposition (FRID). FRID first decomposes an image into a series of orientation sub-images by executing multiple orientations operator. Then, each orientation sub-image is decomposed into a real part image and an imaginary part image by applying Euler mapping operator. For each real and imaginary part image, FRID divides them into multiple non-overlapping local blocks. The real and imaginary part histograms are calculated by accumulating the number of different values of image blocks respectively. All the real and imaginary part histograms of an image are concatenated into a super-vector. Finally, the dimensionality of the super-vector is reduced by linear discriminant analysis to yield a low-dimensional, compact, and discriminative representation. Experimental results show that FRID achieves better results in comparison with state-of-the-art methods, and is the most stable method.
Key words: image decomposition     multiple orientations operator     Euler mapping     face recognition    

人脸识别被广泛应用在信息安全和访问控制、法律实施、人机接口以及更普遍的图像理解上[1],如何提取人脸特征是一个关键步骤.一般来说,人脸特征可以分为全局特征和局部特征两大类:全局特征是指其特征向量的每一维都包含了人脸图像上所有部分(甚至所有像素)的信息,因此反映的是人脸的整体属性;与全局特征不同,局部特征的每一维都只对应人脸图像上的一个局部区域,因此侧重于提取人脸的细节特征.在人脸识别的研究中,基于子空间方法是一类主要的全局特征,该类方法主要把人脸图像投影到低维子空间上,主成分分析(principal component analysis,简称PCA)[2]和线性判别分析(linear discriminant analysis,简称LDA)[3]作为两个著名的线性子空间学习方法,已经被广泛应用在模式识别和计算机视觉上.Yan等人[4]从图嵌入角度重新解释了子空间学习方法,从而把各种子空间方法,如ISOMAP[5],LLE[6], LPP[7],NPE[8],MFA[4]等纳入到统一的图嵌入框架.进而,为了处理非线性的人脸特征空间,各种基于核的方法把线性特征表示方法(如PCA和LDA)扩展到任意的希尔伯特空间进行[9, 10].这些方法的主要思想是:通过一个隐式的非线性映射,把输入数据映射到高维的希尔伯特空间,然后在该高维特征空间上执行线性特征提取方法,所有的计算都通过特征空间的内积进行.一般的线性特征算法都有其相对应的核算法.

在面对表情、姿态、光照、遮挡时,基于全局特征识别算法的性能明显下降.近年来,局部特征被认为对人脸的光照、表情和遮挡等变化不敏感,因此被越来越多地用于人脸特征表示.已有的局部特征主要分为两类:(1) 稀疏局部特征;(2) 稠密局部特征.稀疏局部特征首先探测给定图像的关键点,然后对局部块进行采样并形成相应的不变特征.尺度不变特征变换(scale invariant feature transform,简称SIFT)[11]和梯度方向直方图(histogram of oriented gradients,简称HOG)[12]是两种典型的稀疏局部特征.稠密局部特征通常直接基于像素把人脸图像划分多个局部块,在每块中,特征分别被提取,然后利用信息融合策略把多个块的特征融合成一个单个特征去识别,或者融合每一块的识别结果.比较常用的稠密局部特征包括局部二值模式(local binary pattern,简称LBP)[13]、Gabor小波[14, 15]等.Gabor小波主要获取相应的空间频率(尺度)、空间位置和方向的局部结构,实验证实,Gabor小波特征对光照和表情变化比较稳健.LBP描述中心点与四周邻居点的变化情况,在某种程度上对于光照变化比较稳健.许多LBP的改进算法已经取得成功[16, 17],随后,通过组合LBP和Gabor的一些局部特征也已被提出.相比于单个特征,这些组合特征获得了更好的识别效果.文献[18]提出在Gabor幅值上进行LBP特征提取.文献[19]提出在Gabor相位上进行LBP特征提取.在文献[20]中,不仅仅通过图像空间,而且通过多尺度多方向的Gabor滤波去进行LBP特征提取.文献[21]提出融合Gabor幅值和Gabor相位进行LBP特征提取.另外也有通过组合局部和全局特征来获取新的局部特征并获得较好的识别效果.在2008年和2012年,文献[22, 23]分别提出利用傅里叶频谱的相位信息进行LBP特征提取(LPQ).2011年,文献[24]提出利用傅里叶频谱的幅度信息和相位信息进行LBP特征提取(LFD).2013年,文献[25]在LPQ的基础上提出了多尺度的LPQ,并使用核级融合策略对多个LBP特征进行融合.2002年,文献[15]提出Gabor特征和FLDA特征的组合进行人脸识别.2009年,文献[26]提出Gabor特征和傅里叶变换后的低频特征集合方法进行人脸识别.近来,基于稀疏表示的分类方法(SRC)[27]被应用到人脸识别后,越来越多的研究人员把研究兴趣转移到稀疏编码的研究上,比较流行的方法有基于协作表示的分类方法(CRC)[28]、基于宽松的协作表示分类方法(RCR)[29].

在2013年,Qian等人[30]提出一种基于局部结构信息的特征表示方法,该方法利用回归对图像进行分解以获得图像局部结构信息,然后,结合LDA进行维数约简.受此启发,本文提出一种新的基于图像分解的人脸特征表示方法FRID.为了获取更加丰富的局部结构信息,本文引入多方向操作(包括多交叉梯度方向和多拉普拉斯方向),通过多方向操作,一幅输入图像被分解成多幅不同的方向子图像;此外,通过引入鲁棒的余弦相关性度量方式[31],进而得出一种明确的非线性欧拉映射方法,通过执行该欧拉映射,每幅方向子图像被分解成两幅不同的图像:实部图像和虚部图像;针对实部图像和虚部图像,分别划分出多个不重叠的局部图像块,通过统计子图像块上不同数值的个数,生成相应的实部直方图和虚部直方图,所有的实部直方图和虚部直方图被串联成一个新的超级特征向量;最后,通过LDA对超级特征向量进行维数约简,以获得每幅输入图像的低维表示方法.FRID方法的整体流程如图 1所示.

Fig. 1 Overview of the FRID method图 1 FRID的整体流程

本文第1节介绍多方向图像分解.第2节提出相应的欧拉分解方法.第3节设计相应的直方图表示方法.第4节描述相应的维数约简方法.实验结果与分析在第5节.最后,在第6节进行总结.

1 多方向图像分解 1.1 多交叉梯度方向图像分解

梯度算子是一阶微分算子,主要目的是增强图像轮廓,突出图像细节.对于输入图像F(x,y),它的梯度值是一个向量:

该向量的幅值被表示为

该向量的方向角表示为

假定在图像F(x,y)中有M×N个像素,把图像中第i个像素作为中心,然后用city-block距离在一个半径为R的正方形中选择它的t个邻居像素,这些邻居像素形成一个方形的对称邻居集.图 2列出了某个中心像素的不同邻居集.针对图像中的每个像素,通常通过不同的模板来计算它的梯度信息,图 3展示了半径为1的图像模板T,在模板T中,fc表示中心位置像素的强度值,fj(j=1,2,…,8)表示fc的第j个邻居.为了获取更丰富的局部结构信息,在半径为1的图像模板中引入8种交叉梯度方向操作,具体交叉操作模板如图 4所示.图 4(a)~图 4(h)分别表示8种不同的交叉梯度方向操作,这些操作共同的特点是,GyGx分别交叉计算,图 4(a)~图 4(h)所对应的8种交叉梯度方向计算见公式(4)~公式(11).

Fig. 2 Squarely symmetric neighbor sets for radius R 图 2 不同半径下的方形对称邻居集

Fig. 3 Image template (R=1)图 3 图像模板(R=1)

Fig. 4 Cross-Gradient orientation operator图 4 交叉梯度方向操作

针对多交叉梯度方向算子设计的8种模板,目的为了获取不同区域的边缘信息:

· 对于模板(a),计算方法对应公式(4),主要为了获取参考点fc左上区域(f1,f2,f4,fc)的交叉边缘信息(f1«fc走向的边缘或f2«f4走向的边缘),如果a1=0,则代表在左上区域拥有f2«f4走向的边缘信息;

· 同理,通过模板(b)获取参考点fc右上区域(f2,f3,fc,f5)的交叉边缘信息;

· 通过模板(c)获取参考点fc左下区域(f4,fc,f6,f7)的交叉边缘信息;

· 通过模板(d)获取参考点fc右下区域(fc,f5,f7,f8)的交叉边缘信息;

· 而对于模板(g)和模板(h),都是为了获取交叉穿过参考点fc的边缘信息,其中,模板(g)获取的是倾斜交叉,模板(h)获取的是垂直交叉;

·至于模板(e)和模板(f),分别是模板(g)和模板(h)更细化的设计,相对于模板(g)和模板(h),模板(e)和模板(f)获取的边缘信息更细节化.

针对图像F(x,y)的任意一个像素,首先根据公式(4)~公式(11)分别计算它的8个交叉梯度方向αs(x,y) (s=1,…,8),最终,一幅输入图像F(x,y)将被分解为8幅不同的交叉梯度方向图像Φs(x,y)(s=1,…,8),图 5展示了多交叉梯度方向图像的计算实例.

Fig. 5 Illustration of the computation of multiple cross-gradient orientation images图 5 多交叉梯度方向图像的计算实例
1.2 多拉普拉斯方向图像分解

拉普拉斯算子是二阶微分算子,具有各向同性和位移不变性,从而满足不同走向图像边缘的锐化要求.

对于连续图像F(x,y),其拉普拉斯算子为

对于数字图像F(x,y),其拉普拉斯算子为

其中,

同理,

公式(13)中的二维拉普拉斯算子实现可由两个分量相加得到:

公式(16)给出了以90°旋转的各向同性的结果.对角线方向也可以加入到离散拉普拉斯变换的定义中,由于每个对角线方向上的项还包含一个-2f(x,y),所以总共减去8f(x,y).以图 3中半径为1的图像模板为例,中心像素fc的两个拉普拉斯操作可以计算如下:

通常假定图像中相邻像素的强度值比较接近,为了平滑变化过大的像素差值,引入拉普拉斯方向操作,具体定义如下:

拉普拉斯方向操作如图 6所示,其中,图 6(a)、图 6(b)分别对应公式(19)、公式(20).针对图像F(x,y)的任意一个像素,首先根据公式(19)、公式(20)分别计算它的2个拉普拉斯方向βt(x,y)(t=1,2),最终,一副输入图像F(x,y)将被分解为2幅不同的拉普拉斯方向图像Γt(x,y)(t=1,2).图 7展示了两个拉普拉斯方向图像的计算实例.对于一幅输入图像F(x,y),通过执行交叉梯度方向和拉普拉斯方向操作,分别得到8幅交叉梯度方向图像和2幅拉普拉斯方向图像.在方向值的计算中,通过反正切函数来平滑变化过快的像素强度差,输入图像F(x,y)中的像素值取值范围在[0, 255],经过分解后的方向子图像的每个像素值的取值被限制在(-p/2,p/2).多交叉梯度方向和多拉普拉斯方向的计算,从多个角度加强了图像的边缘信息和细节信息.

Fig. 6 Laplacian orientation operator图 6 拉普拉斯方向操作

Fig. 7 Illustration of the computation of multiple Laplacian orientation images图 7 拉普拉斯方向图像的计算实例
2 欧拉图像分解

对于给定的输入图像FÎÂM×N,根据第1.1节和第1.2节可以计算相应的交叉梯度方向图像Φs(x,y)(s=1,…,8)和拉普拉斯方向图像Γt(x,y)(t=1,2).为方便起见,统一用OÎÂM×N表示两类方向图像,用bj,bk分别表示图像Oj,Ok对应的列向量,则对图像Oj,Ok间的相关性计算可用如下鲁棒的余弦函数计算[31]:

这里,p=M×N,bj(q)表示bj的第q维.文献[33]显示:公式(21)等价于Andrews的M-估计,是一种更鲁棒的图像相关

性度量方式.基于公式(21)进行如下推导:

这里设:

故,公式(22)可重新写为

公式(24)显示,把方向图像之间的余弦相关距离转变成了希尔伯特空间的欧式距离.很明显,对于一幅图像,可以通过公式(23)进行重新表示.由于公式(21)的鲁棒性,公式(23)实际上是一种新的鲁棒的表示方法.这里,公式(23)可以变换为

根据公式(25),一幅图像被分解成一幅实部图像和一幅虚部图像,此分解被称为欧拉分解,分解结果如下:

这里,,实部图像对应余弦函数,虚部图像对应正弦函数.

第1节的多方向操作通常捕获了更多的图像边缘信息,方向图像实际是高频图像.方向图像的计算把每个像素对应的方向值限定在一个更小的区间(-π/2,π/2)中.图 8展示了在该区间中,实部和虚部函数对方向值的影响.给定方向图像中的一个方向值是一个有符号值,用表示方向值的幅度值,正负值分别表示方向值的正向和负向.在图 8中,虚部函数的变化趋势近似于直线函数,因此在区间(-π/2,π/2)中,对于不同的方向值,虚部函数实际上起到了保持的作用.也就是说,虚部函数保留了方向值的方向性(正负方向保持不变),零值左右的方向值完全保持不变(包括幅度值和方向).随着方向值变大(向p/2趋近)或变小(向-p/2趋近),虚部函数起到了抑制过快变化的作用.因此可以认为:虚部函数一方面保留了方向图像的主要信息,另一方面又起到了对方向图像的平滑作用.由于方向图像是高频图像,因此虚部图像是一种具有一定平滑程度的高频图像.针对实部函数,从图 8可以看出:所有方向值的方向性都被转为正向,零值左右方向值的幅度值被实部函数放大;随着方向值变大(向π/2趋近)或变小(向-π/2趋近),实部函数压低了方向值的幅度值.与虚部图像相比,实部图像中的所有值都变为正向值,因此相比于高频的虚部图像,实部图像显然是一种低频图像.图 9展示了一幅原始的微笑图像:多方向分解图像、欧拉分解图像(实部图像和虚部图像),以及这些图像相应的傅里叶频谱.从图 9可以看出:虚部图像的频谱和方向图像的频谱近似,因此虚部图像属高频图像.而从实部图像的频谱可以明显看出,实部图像属于低频图像.针对方向图像进行的欧拉分解,实际上综合考虑了方向图像的高频信息和低频信息,因此具有更好的判别性.

Fig. 8 Effect of the real part and the imaginary part图 8 实部和虚部的作用

Fig. 9 An original smile image , the orientation images, the imaginary part images, the real part images, and the corresponding Fourier spectrums of these images图 9 原始微笑图像、方向图像、虚部图像和实部图像,以及这些图像相应的傅里叶频谱
3 直方图表示

本节主要针对欧拉分解后的实部图像Ereal和虚部图像Eimag设计空间直方图编码局部图像块的统计信息, 这里把分开表示,主要因为两类图像的像素取值范围不一致.为了获得更有效的直方图表示,分别把实部和虚部图像划分成L个非重叠的局部图像块Ereal=[b1,…,bj,…,bL],bjÎÂwxwEimag=[c1,…,cj,…,cL],cjÎÂwxw,其中,w=3,5.由于实部图像和虚部图像的直方图表示方法类似,下面仅对实部图像的直方图表示进行详细说明.

对于实部图像的每个局部块bj(j=1,2,…,L),计算其相应的子直方图,r表示连续的取值区间个数(例如r=4),Ajk通过累加第j个子块中落入第k个区间的像素个数来计算.子直方图Hjreal的横坐标表示r个相等的连续取值区间,纵坐标表示落入每个区间中的像素个数.对于一幅实部图像,串联所有的子直方图Hjreal以形成一个更具判别性的直方图,用hreal表示D维(D=Lxr)实部列向量.图 10展示了一幅方向图像的实部直方图和实部列向量的表示过程,同理可以得到一幅方向图像的虚部直方图和虚部列向量.

Fig. 10 Illustration of the computation of the real histogram of an orientation image图 10 一幅方向图像的实部直方图计算实例

为了综合考虑实部和虚部图像,下面着重描述实部直方图和虚部直方图的合并过程.假定有n个输入图像{Fi},在半径为1的局部邻域内,通过多方向分解,每个输入图像被分解成10个方向图像.每个方向图像,又被欧拉方法解成实部图像和虚部图像.对于实部图像,可以获得实部直方图和对应的列向量(如图 10所示),同理可以获得虚部直方图和对应的列向量.因此,可以得到两个直方图列向量矩阵,每个直方图列向量通过z-score方法进行标准化.分别用表示的标准化向量,的第q维用如下方法计算:

在以上计算中,分别是的第q维.可以根据公式(27)~公式(29)计算的所有维.同理可以得到虚部标准化列向量的所有维.对于一幅图像Fi,让表示其所对应的实部直方图的标准化列向量,表示其所对应的虚部直方图的标准化列向量.接下来,把所有的串联成一个新的超级特征向量因此对于一幅输入图像,通过图像分解、直方图表示,最终得到一个更有判别性的超级特征向量.

4 维数约简

由于新的超级特征向量维数较高,接下来用LDA进行维数约简.LDA的基本思想是:将高维的模式样本投影到最佳鉴别矢量空间,以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样本在新的子空间有最大的类间距离和最小的类内距离,即模式在该空间中有最佳的可分离性.因此,它是一种有效的特征抽取方法.使用这种方法,能够使投影后模式样本的类间散布矩阵Sb最大,并且同时类内散布矩阵Sw最小.因此,它能够保证投影后模式样本在新的空间中有最小的类内距离和最大的类间距离,即,模式在该空间中有最佳的可分离性.

SbSw分别定义如下:

这里,C代表总共的类别个数,ci,c是第c类中的第i张脸,mc是第c类中所有样本的均值脸,lc是第c类中的样本个数,m是所有类中样本的均值.LDA的子空间通过一系列列向量Q扩张而成,这里,Q满足如下式子:

因此,Q能够通过求解χi,c的特征向量来获得,Q映射原始的P维空间到一个最终的d维特征空间.为了避免Sw的奇异性,采用如下的正则化方法:

这里,e是一个小的正则化常量(取10-3以下),I是一个单位矩阵.

对于一个超级特征向量χ,最终通过φ=QTχ投影到一个优化的判别空间,jc的低维特征向量.当进行图像分类时,基于余弦的最近邻分类方法(1-NN)被采用,具体的余弦度量方法见公式(34):

这里,jjjq分别表示两个不同的低维特征向量.

本文算法的时间复杂度主要包含多方向图像分解、欧拉图像分解、直方图表示和特征分解等4个方面,算法运行时间与训练样本个数n、维数p等有关.多方向图像分解的时间复杂度为O(pn),欧拉图像分解的时间复杂度为O(1),直方图表示的时间复杂度为O(n),特征分解的时间复杂度为O(p3).所以,整个算法的时间复杂度为O(pn+n+p3).

5 实验结果与分析

本节将在3个公开的人脸数据库AR[32],Extended Yale B[33]和CMU PIE[34]上评估FRID算法的效果,并与时新的算法进行比较.图 11展示了AR数据库的图像样例.图 12展示了Extended Yale B数据库的图像样例.图 13展示了CMU PIE数据库的图像样例.在下面的实验中,将设置相关方法的参数.针对提出的FRID方法,主要包括维数约简阶段的正则化参数e、多方向计算中的邻居半径R、直方图表示中图像分块尺寸w和连续的取值区间个数r.在实验中:e=0.001;不同的数据库中,R,wr取值不尽相同.

Fig. 11 Face images of the same subject taken from the AR database图 11 来自于AR的同一个人的多张图像

Fig. 12 Partial face images of the same subject taken from the Extended Yale B database图 12 来自于Extended Yale B的同一个人的多张图像

· 在AR中参数设置为R=1,w=3和r=3;

· 在Yale B参数设置为R=2,w=3和r=3;

·在PIE中参数设置为R=2,w=3和r=3.

此外,所比较的算法的优化参数设置如下:

· 对于LBP特征,在Extended Yale B和PIE上图像块设置为8×8,在AR上图像块设置为16×15,每块对应一个59维的直方图;

· 对于TPLBP特征,r1=2,S=8和w=5;

· 对于LTP和LTP/DT特征,编码的极值设置为0.02,DT距离的参数α设置为1,截断DT距离的极值设置为6,在AR上的图像块设置为16×15,其他数据库的图像块设置为8×8;

· 对于ID-LARK和LARK,在Yale B上的局部窗体尺寸设置为3×3,其他数据库的设置为7×7;

·对于比较的Gabor特征,每张脸使用40个Gabor滤波器,包括5个尺度和8个方向,关于下采样因子在PIE中设置为4,其他数据库中设置为8;

· 对于IDLS特征,岭回归的正则化参数δ=0.01,下采样因子l=2,邻居半径取2,宏像素尺寸设置为3.

Fig. 13 Sample images of a person under different illuminations and five poses in the CMU PIE database图 13 来自于CMU PIE的同一个人的多张图像
5.1AR人脸数据库

AR人脸库包括4 000多张正面人脸图像,包括126个人(70个男性、56个女性).每人有26张图像,被分作两部分:第1部分每个人有13张图像,从1~13进行编号,其中包括不同的人脸表情(1~4)、光照变化(5~7)以及在不同光照条件下的不同遮挡(8~13);第2部分与第1部分类似.120个人(65个男性、55个女性)的14张图像(每部分的1~7)用在本实验中,每张图像的人脸部分被裁剪成100×90.在本实验中,第1部分的7张人脸图像(1~7)被用作训练,第2部分的7张人脸图像(1~7)被用作测试.然后,PCA,LDA,LARK,ID-LARK,LBP+Chi2,LTP+Chi2, LTP/DT,TPLBP+Chi2,Gabor+LDA,IDLS-Distance,IDLS与本文提出的FRID分别被用来进行特征提取.在LDA的PCA阶段,主成分的个数被设置为200.NN分类器被用来分类,所有方法的识别结果被列举在表 1中.

Table 1 Recognition rates of different methods on the ar database representation of LDA and HDP 表 1 在AR人脸库中不同识别方法的识别率
表 1可以看出:PCA,LDA和LARK的性能并不令人满意,说明这些方法在不同表情和光照变化下的人脸识别并不鲁棒.相比较来说,Gabor特征、ID-LARK、LBP、TPLBP、LTP和IDLS表现的更鲁棒,且获得了更好的结果.值得注意的是:IDLS获得了很好的结果,这主要归因于IDLS通过图像分解的方法获得了更多的图像局部结构信息.然而在本实验中,IDLS仍然弱于FRID,主要原因有3点:

· FRID通过多方向进行图像分解,从而从多角度获得了更丰富的局部结构信息;

· 通过引入一种鲁棒的余弦相关度量方法,进而推导出一种新的图像分解方法,该分解方法实际上综合考虑了方向图像的高频信息和低频信息;

· 通过对高频图像和低频图像分别采用稠密的局部直方图表示,最终得到一种更有判别性的直方图表示方法.

5.2Extended Yale B数据库

Extended Yale B人脸库包含2 414张正面人脸图像,包括38个人,每个人有大约64张图像,这些图像是在不同光照条件下采集的.尽管图像的姿态变化不大,但极度的光照条件对大多数人脸识别方法来说仍然是一个不小的挑战.所有标记为P00的前脸图像被应用在本实验中,每张图像的分辨率被调整为96x84.本实验为每个人随机选择K个图像作为训练集,剩下的图像作为测试集.这里,K分别取4,8,12,16,20,24.对于K的每种选择,分别随机生成10种不同的训练集进行实验,所有方法的平均识别率和标准差被展示在表 2中.

Table 2 Average recognition rates (percent) and std of different methods on the Extended Yale B database 表 2 在Extended Yale B人脸库中不同识别方法的平均识别率和标准差
表 2可以看出:PCA和TPLBP的识别率相对较低;虽然LTP/DT,LTP+Chi2,LDA,Gabor+FLDA,LARK和IDLS-Distance的识别率有些提高,但仍不令人满意.ID-LARK,LBP+Chi2和IDLS获得了比以上方法更好的结果.值得注意的是:IDLS获得了很好的结果,特别当训练样本很少时,IDLS也获得了很好的结果.IDLS通过图像分解获得图像更多的局部结构信息,从而获得了更好的结果.然而在本实验中,IDLS仍然弱于FRID,FRID在表 2的识别结果有两个明显特点:第一,FRID优于所有的方法,这表明FRID在光照变化上表现的更鲁棒;第二,FRID在不同大小的训练样本下几乎都获得了将近100%的识别率,并且每种情况下的标准差都小于0.3,这表明FRID方法表现的更稳定.

5.3CMU PIE数据库

CMU PIE人脸数据库包含41 368张人脸图像,包括68个人,每个人的图像有13种不同的姿态、43种不同的光照条件和4种不同的表情.本实验选择PIE数据库的子集[35],该子集中每人包含50张人脸图像,这50张图像分属5种不同的姿态,每种姿态包含10张图像.所有图像的分辨率被设置为64x64.

本实验为每个人随机选择K个图像作为训练集,剩下的图像作为测试集.这里,K分别取5,10,15,20,25.对于K的每种选择,分别随机生成10种不同的训练集进行实验,所有方法的平均识别率和标准差被展示在表 3中.

表 3可以看出,FRID获得了最好的识别效果.值得注意的是:当训练样本为5时,FRID获得了远高于其他方法的识别率和更低的标准差;尽管随着训练样本的增多,Gabor,LTP,ID-LARK和IDLS也获得了较好的结果,但FRID仍然获得了近乎完美的结果.和Extended Yale B实验中的表现类似,FRID表现的更稳定.这充分说明了FRID特征的鲁棒性.

Table 3 Average recognition rates(percent) and std of different methods on the CMU-PIE database 表 3 在CMU PIE人脸库中不同识别方法的平均识别率和标准差
5.4FRID的参数分析

本节讨论FRID方法中不同参数的选择,这里重点讨论多方向计算中的邻居半径R、直方图表示中图像分块尺寸w和连续的取值区间个数r.多方向计算中的邻居半径R被展示在图 2中.不同的邻居半径,计算的方向个数不同.当R取1时,共有10个方向被计算(其中8个交叉梯度方向,2个拉普拉斯方向),如图 4图 6所示;当R取2时,共有15个方向被计算(其中12个交叉梯度方向,3个拉普拉斯方向),如图 14所示(图 14(a)~图 14(i)是交叉梯度方向,其中,图 14(a)表示4个交叉梯度方向;图 14(j)~图 14(l)是拉普拉斯方向);当R取3时,共有19个方向被计算(其中16个交叉梯度方向,3个拉普拉斯方向),如图 15所示(图 15(a)~图 15(m)是交叉梯度方向,其中,图 15(a)表示4个交叉梯度方向;图 15(n)~图 15(p)是拉普拉斯方向).

Fig. 14 Multiple orientations operator (R=2) 图 14 多方向操作(R=2)

Fig. 15 Multiple orientations operator (R=3)图 15 多方向操作(R=3)

针对不同的邻居半径R、不同的分块尺寸w和不同的连续取值区间个数r,表 4~表 6分别展示了3个数据库上的识别率.从表 4~表 6可以有如下观察:

Table 4 Recognition rates (percent) of FRID with different parameters on the AR database 表 4 在AR人脸库中,不同参数下FRID的识别率

Table 5 Average recognition rates (percent) of FRID with different parameters on the Yale B database 表 5 在Yale B人脸库中,不同参数下FRID的平均识别率

Table 6 Average recognition rates (percent) of FRID with different parameters on the PIE database 表 6 在PIE人脸库中,不同参数下FRID的平均识别率

(1) 无论哪一个数据库的实验结果,在相同取值区间r和相同邻居半径R下,分块尺寸w为3的识别率都要高于分块尺寸w为5的识别率.说明分块尺寸w取3更合适;

(2) 当区间r取3时,在不同邻居半径下,不同分块尺寸w所对应的识别率分别要高于区间r取2和4所对应的识别结果.说明区间r取3更合适;

(3) 当区间r取3、分块尺寸w取3、邻居半径R取2时,YaleB和PIE数据库都获得最好的识别率.而对于AR数据库,当区间r取3、分块尺寸w取3、邻居半径R取1时,获得最好识别率;但当邻居半径R取2时,FRID获得了较好的识别率.

综上分析,针对不同人脸数据库,通常选取的最佳参数配置为:区间r取3,分块尺寸w取3,邻居半径R取2.

6 结束语

本文提出一种基于图像分解的人脸特征表示方法(FRID),该方法首先通过多方向操作把一幅图像分解成一系列方向子图像,这些方向子图像从多个角度刻画了图像的边缘信息和细节信息,从而获得了丰富的局部结构信息;然后,通过非线性欧拉映射把每幅方向子图像分解成实部与虚部图像,分析得知虚部和实部图像分别对应高频和低频信息.欧拉分解实际上综合考虑了方向图像的高频和低频信息.针对实部和虚部图像,分别划分出多个不重叠的局部图像块,通过统计子图像块上不同数值的个数,生成相应的实部和虚部直方图,所有的实部和虚部直方图被串联成一个更有判别性的超级特征向量;最后,通过线性判别分析方法对超级特征向量进行维数约简,以获得每幅输入图像的低维表示.实验结果显示:该方法在多个人脸数据库上获得了优于时新算法的识别结果,并且表现得更加稳定.

致谢 在此向对本文的工作给予支持和建议的同行,尤其是武汉大学软件工程国家重点实验室丁立新教授、余旌胡教授领导的讨论班上的老师和同学表示感谢.

参考文献
[1] Zhao W, Chellappa R, Phillips PJ, Rosenfeld A. Face recognition: A literature survey. ACM Computing Surveys, 2003,34(4): 399−485. [doi: 10.1145/954339.954342].
[2] Turk M, Pentland A. Eigenfaces for recognition. Journal of Cognitive Neuroscience, 1991,3(1):71-86 .
[3] Belhumeur PN, Hespanha JP, Kriegman DJ. Eigenfaces versus Fisherfaces: Recognition using class specific linear projection. IEEE Trans. on Pattern Analysis and Machine Intelligence, 1997,19(7):711-720 .
[4] Yan SC, Xu D, Zhang BY. Graph embedding and extensions: A general framework for dimensionality reduction. IEEE Trans. on Pattern Analysis and Machine Intelligence, 2007,29(1):40-51 .
[5] Tenenbaum JB, De Silva V, Langford JC. A global geometric framework for nonlinear dimensionality reduction. Science, 2000, 290(5500):2319-2323 .
[6] Roweis ST, Saul LK. Nonlinear dimensionality reduction by locally linear embedding. Science, 2000,290(5500):2323-2326 .
[7] He X, Yan S, Hu Y, Niyogi P, Zhang H. Face recognition using laplacianfaces. IEEE Trans. on Pattern Analysis and Machine Intelligence, 2005,27(3):328-340 .
[8] He X, Cai D, Yan S, Zhang H. Neighborhood preserving embedding. In: Proc. of the IEEE Int’l Conf. on Computer Vision. 2005. 1208-1213 .
[9] Mika S, Ratsch G, Weston J, Scholkopf B, Smola A, Muller KR. Constructing descriptive and discriminative nonlinear features: Rayleigh coefficients in kernel feature spaces. IEEE Trans. on Pattern Analysis and Machine Intelligence, 2003,25(5):623-628 .
[10] Yang J, Frangi AF, Yang JY, Zhang D, Jin Z. KPCA plus LDA: A complete kernel fisher discriminant framework for feature extraction and recognition. IEEE Trans. on Pattern Analysis and Machine Intelligence, 2005,27(2):230-244 .
[11] Lowe DG. Distinctive image features from scale invariant key points. Int’l Journal of Computer Vision, 2004,60(2):91-110 .
[12] Dalal N, Triggs B. Histograms of oriented gradients of human detection. In: Proc. of the CVPR. 2005.886-893 .
[13] Ahonen T, Hadid A, Pietikainen M. Face description with local binary patterns: Application to face recognition. IEEE Trans. on Pattern Analysis and Machine Intelligence, 2006,28(12):2037-2041 .
[14] Ojala T, Pietikainen M, Maenpaa T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns. IEEE Trans. on Pattern Analysis and Machine Intelligence, 2002,24(7):971-987 .
[15] Liu CJ, Wechsler H. Gabor feature based classification using the enhanced Fisher linear discriminant model for face recognition. IEEE Trans. on Image Processing, 2002,11(4):467-476 .
[16] Tan XY, Triggs B. Enhanced local texture feature sets for face recognition under difficult lighting conditions. IEEE Trans. on Image Processing, 2010,19(6):1635-1650 .
[17] Zhang BC, Gao YS, Zhao SQ, Liu J. Local derivative pattern versus local binary pattern: Face recognition with high-order local pattern descriptor. IEEE Trans. on Image Processing, 2010,19(2):533-544 .
[18] Zhang WC, Shan SG, Gao W, Chen X, Zhang H. Local gabor binary pattern histogram sequence (LGBPHS): A novel non-statistical model for face representation and recognition. In: Proc. of the 10th IEEE Int’l Conf. on Computer Vision. 2005. 786-791 .
[19] Zhang BH, Shan SG, Chen XL, Gao W. Histogram of gabor phase patterns (HGPP): A novel object representation approach for face recognition. IEEE Trans. on Image Processing, 2007,16(1):57-68 .
[20] Lei Z, Liao SC, Pietikainen M, Li SZ. Face recognition by exploring information jointly in space, scale and orientation. IEEE Trans. on Image Processing, 2011,20(1):247-256 .
[21] Xie SF, Shan SG, Chen XL, Chen J. Fusing local patterns of gabor magnitude and phase for face recognition. IEEE Trans. on Image Processing, 2010,19(5):1349-1361 .
[22] Ahonen T, Rahtu E, Ojansivu V, Heikkila J. Recognition of blurred faces using local phase quantization. In: Proc. of the Int’l Conf. on Pattern Recognition. 2008. 1-4 .
[23] Rahtu E, Heikkilä J, Ojansivu V, Ahonen T. Local phase quantization for blur-insensitive image analysis. Image and Vision Computing, 2012,30:501-512 .
[24] Lei Z, Ahonen T, Pietikainen M, Li SZ. Local frequency descriptor for low-resolution face recognition. In: Proc. of the 2011 IEEE Int’l Conf. on Automatic Face & Gesture Recognition and Workshops (FG 2011). 2011. 161-166 .
[25] Chan CH, Tahir MA, Kittler J. Multiscale local phase quantization for robust component-based face recognition using kernel fusion of multiple descriptors. IEEE Trans. on Pattern Analysis and Machine Intelligence, 2013,35(5):1164-1176 .
[26] Su Y, Shan SG, Chen XL. Hierarchical ensemble of global and local classifiers for face recognition. IEEE Trans. on Image Processing, 2009,18(8):1885-1896 .
[27] Wright J, Yang AY, Ganesh A, Sastry SS, Ma Y. Robust face recognition via sparse representation. IEEE Trans. on Pattern Analysis and Machine Intelligence, 2009,31(2):210-227 .
[28] Zhang L, Yang M, Feng XC. Sparse representation or collaborative representation which helps face recognition? In: Proc. of the 13th IEEE Int’l Conf. on Computer Vision (ICCV). Barcelona, 2011. 471-478 .
[29] Yang M, Zhang L, Zhang D, Wang S. Relaxed collaborative representation for pattern classification. In: Proc. of the 25th IEEE Conf. on Computer Vision and Pattern Recognition (CVPR). Providence, 2012. 2224-2231 .
[30] Qian JJ, Yang J, Xu Y. Local structure-based image decomposition for feature extraction with applications to face recognition. IEEE Trans. on Image Processing, 2013,22(9):3591-3603 .
[31] Fitch AJ, Kadyrov A, Christmas WJ, Kittler J. Fast robust correlation. IEEE Trans. on Image Processing, 2005,14(8):1063-1073 .
[32] Martinez AM, Benavente R. The AR face database. CVC Technical Report, #24, 1998.
[33] Lee KC, Ho J, Kriegman DJ. Acquiring linear subspaces for face recognition under variable lighting. IEEE Trans. on Pattern Analysis and Machine Intelligence, 2005,27(5):684-698 .
[34] Sim T, Baker S, Bsat M. The CMU pose, illumination, and expression database. IEEE Trans. on Pattern Analysis and Machine Intelligence, 2003,25(12):1615-1618 .
[35] Cai D, He XF, Han JW. Spectral regression for efficient regularized subspace learning. In: Proc. of the IEEE 11th Int’l Conf. on Computer Vision. 2007. 1-8 .