手机版

基于视频的人脸识别研究进展(3)

发布时间:2021-06-07   来源:未知    
字号:

基于视频的人脸识别研究进展

880

计算机学报

量和运动矢量作为状态变量从而引进时间和空间的信息;利用序贯重要度采样(Sequential

Importance

上述方法中都采用贝叶斯理论引进了时间信息。极大地提高了识别率.并且采用序贯重要度采样克服非高斯分布和非线性系统带来的难以估计概率密度的问题.但是估计概率密度需要大量的粒子,导致其计算量比较大.

3.2“视频一视频”人脸识别

“视频一视频”人脸识别是指输入和数据库中的人脸均是以视频的形式存在.大量的文献对如何同时利用输入和数据库中的人脸视频进行了深入的研究.现有文献中对视频中人脸信息的描述方式总结起来有下面几种:

(1)利用一幅代表性的图像得到的特征(矢量表示),如主成分分析(PCA)降维后的矢量等;

(2)利用所有图像得到的特征(矩阵表示),如特征空间、示例(exemplar)等;

(3)利用概率密度函数刻画视频中的人脸分布,如高斯模型等;

(4)利用动态模型刻画视频中人脸随时间的动态变化,如隐马尔可夫模型等;

(5)利用流形(manifold)刻画视频中的人脸分布,如分段线性PCA子空间等.

上述各种描述方式(矢量、矩阵、概率密度、动态模型、流形)之间可能的度量如表2所示.

Sampling,SIS)的方法有效估计出身份变量和运动矢量的联合后验概率分布,通过边缘化提取出身份变量的概率分布.实验结果表明了该算法的有效性.不过当姿态变化时识别率只有57%.之所以出现姿态变化时识别率低的原因是对时间连续性的利用体现在人脸外观一致上,而随着光照或姿态的变化会导致外观的明显不同.因此文献[11]进一步提出了自适应外观变化模型并且采用自适应运动模型更准确地处理姿态的变化,对运动模型中噪声的方差和采样算法中的粒子数根据计算得到外观模型的误差进行更新,采用鲁棒统计学(robuststatistics)处理脸部遮挡问题.利用基于贝叶斯人脸识别[30]方法的似然函数进行权重更新使得整个算法更加有效.

文献[31—32]通过对输入视频中人脸的脸部特

征或外观的跟踪进行人脸验证.基本思想是,如果是

正确的输入(对应数据库中要验证的人脸),则跟踪的轨迹基本一致;而如果是不正确的输入,则跟踪轨迹没有规律性.相应的数学模型就是考虑所得到的运动矢量分布,如果呈现尖峰(一致的运动参数)则认为是正确的人脸.如果没有呈现尖峰,而是类似均匀分布,则认为是错误的人脸.

表2描述方式之间的度量

表2中d代表两个模型之间的距离或相似度,,(X),M(x)代表概率/距离累加或多数投票,D(X)代表各帧后验概率.

下面按照对输入描述方式的不同,分成矢量、矩阵、概率、动态模型、流形5个小节分别给予介绍.

3.2.1矢量

基于视频的人脸验证方法,采用形状和归一化纹理的联合外观模型(Active

AppearanceModel,AAM)

来表示人脸,通过加入类别信息的改进线性鉴别分

析(LinearDiscriminantAnalysis,LDA)分离出身

份变量(identity)和其他变化因素(姿态、光照和表情).采用卡尔曼滤波器(Kalmanfilter)对身份变量进行跟踪得到的稳定值就是身份稳定估计量.人脸验证就可以通过对输入人脸视频进行跟踪得到的估计量和数据库得到的身份估计量进行比较看是否大于某个阈值来实现.与基于静止图像的人脸验证方法相比,采用基于视频的人脸验证能利用更多的信息,效果更好.算法采用ASM(Active

ShapeModel)

利用矢量作为输入描述方式的基本思想是利用视频得到一个反映输入人脸视频特性(如均值人脸图像、最好的正面图像等)的特征(矢量表示),和数据库中的人脸视频描述方式进行匹配.数据库中人脸视频的描述方式可以是矢量、矩阵、概率、动态模型、流形等.

文献[33]对数据库中的每类人脸建立一个PCA子空间,利用与各个人脸子空间的距离对输入视频中的所有人脸进行标注.文献[34]介绍了一种

进行人脸定位可以避免误配准带来的影响.但是一旦定位不准,则对后继的参数跟踪会产生很大的误差,导致识别率下降.并且对于达到稳定估计值需要

万方数据 

基于视频的人脸识别研究进展(3).doc 将本文的Word文档下载到电脑,方便复制、编辑、收藏和打印
×
二维码
× 游客快捷下载通道(下载后可以自由复制和排版)
VIP包月下载
特价:29 元/月 原价:99元
低至 0.3 元/份 每月下载150
全站内容免费自由复制
VIP包月下载
特价:29 元/月 原价:99元
低至 0.3 元/份 每月下载150
全站内容免费自由复制
注:下载文档有可能出现无法下载或内容有问题,请联系客服协助您处理。
× 常见问题(客服时间:周一到周五 9:30-18:00)