基于增量主成分分析的特征与模型互匹配人脸跟踪方法.pdf

上传人:e2 文档编号:5776330 上传时间:2019-03-18 格式:PDF 页数:18 大小:3.74MB
返回 下载 相关 举报
摘要
申请专利号:

CN201310267907.X

申请日:

2013.06.28

公开号:

CN103310204A

公开日:

2013.09.18

当前法律状态:

授权

有效性:

有权

法律详情:

授权|||实质审查的生效IPC(主分类):G06K 9/00申请日:20130628|||公开

IPC分类号:

G06K9/00; G06K9/46

主分类号:

G06K9/00

申请人:

中国科学院自动化研究所

发明人:

吴怀宇; 潘春洪; 陈艳琴; 赵两可

地址:

100190 北京市海淀区中关村东路95号

优先权:

专利代理机构:

中科专利商标代理有限责任公司 11021

代理人:

宋焰琴

PDF下载: PDF下载
内容摘要

本发明公开了一种基于在线增量主成分分析的特征与模型互匹配人脸跟踪方法,该方法包括以下步骤:对多幅人脸图像进行离线建模,得到模型匹配(CLM)模型A;对待跟踪人脸视频中的每一帧进行关键点检测,所有关键点的集合及其鲁棒描述子组合为关键点模型B;基于所述关键点模型B对所述待跟踪人脸视频中的每一帧进行关键点匹配,获得每一帧人脸图像中初始的人脸姿态参数组;利用模型A对待跟踪人脸视频进行CLM人脸跟踪;基于初始人脸姿态参数组和初次跟踪结果进行再跟踪;更新模型A并重复上述步骤,得到最终的人脸跟踪结果。本发明解决了在进行CLM人脸跟踪时,由于目标图像中相邻帧间变化大时出现的跟踪丢失的问题,从而提高了跟踪的精准度。

权利要求书

权利要求书
1.   一种基于在线增量主成分分析的特征与模型互匹配人脸跟踪方法,其特征在于,该方法包括以下步骤:
步骤S1,对于多幅人脸图像进行离线建模,得到包括形状模型s和纹理模型wT的模型匹配(CLM)模型A;
步骤S2,输入一待跟踪人脸视频,对于所述待跟踪人脸视频中的每一帧人脸图像进行关键点检测,将所得到的所有关键点的集合和这些关键点的鲁棒描述子组合起来作为关键点模型B;
步骤S3,基于所述步骤S2得到的关键点模型B,对于所述待跟踪人脸视频中的每一帧人脸图像进行关键点匹配,获得每一帧人脸图像中初始的人脸姿态参数组(R,T),其中,R表示角度参数和T表示位移参数;
步骤S4,利用所述模型A对所述待跟踪人脸视频进行CLM人脸跟踪,得到所述待跟踪人脸视频每一帧人脸图像中特征点的位置;
步骤S5,基于所述步骤S3得到的每一帧人脸图像中人脸的姿态参数组和所述步骤S4跟踪得到的每一帧人脸图像中特征点的位置,对所述待跟踪人脸视频中的每一帧人脸图像进行人脸的再跟踪;
步骤S6,使用增量PCA方法对所述模型A进行更新,并利用更新后的模型A重复所述步骤S1‑S5,得到最终的人脸跟踪结果。

2.   根据权利要求1所述的方法,其特征在于,所述步骤S1进一步包括以下步骤:
步骤S11,根据事先确定的共同的人脸轮廓对所述多幅人脸图像分别进行标定得到多个标定特征点,并根据所述多个标定特征点的坐标值建立得到一人脸形状模型s;
步骤12,基于所述步骤S11得到的每一个标定特征点,学习得到能够体现所述每一个标定特征点对应的具有一定大小区域的纹理特征的纹理模型wT。

3.   根据权利要求2所述的方法,其特征在于,所述步骤S11进一步包括:
步骤S111,采集N张人脸图像,对于每张人脸图像都依照所述共同的人脸轮廓进行人为标定,得到多个标定特征点,进而得到N个人脸形状向量sm:
sm=(x1,y1,x2,y2,...,xn,yn)T,
其中,m表示N张人脸图像中的第m张人脸图像,xi,yi分别为相应人脸图像中第i个标定特征点的坐标值,n为所述标定特征点的个数;
步骤S112,用一个平均人脸形状s0和u个正交的人脸形状向量si进行线性组合得到所述人脸形状模型s:
<mrow><MI>s</MI><MO>=</MO><MSUB><MI>s</MI><MN>0</MN></MSUB><MO>+</MO><MSUBSUP><MI>Σ</MI><MROW><MI>i</MI><MO>=</MO><MN>1</MN></MROW><MI>u</MI></MSUBSUP><MSUB><MI>p</MI><MI>i</MI></MSUB><MSUB><MI>s</MI><MI>i</MI></MSUB><MO>,</MO></MROW>]]&gt;</MATH></MATHS><BR>其中,平均人脸形状s0为N个人脸形状向量sm的均值,pi是形状参数,<BR>其值为对所述N个人脸形状向量sm进行主成分分析后得到的u个特征向量si所对应的权值。<BR><BR>4.&nbsp;&nbsp; 根据权利要求3所述的方法,其特征在于,在所述步骤S112中进行主成分分析前,对所述N个人脸形状向量sm分别进行普鲁斯特分析,以减小运动误差。<BR><BR>5.&nbsp;&nbsp; 根据权利要求2所述的方法,其特征在于,所述步骤12进一步包括以下步骤:<BR>步骤S121,以所述步骤S11得到的每一人脸图像的每一个标定特征点为中心,取一个大小为r×r的区域作为正样本,在相应图像中的任意其他位置处截取多个同样大小的区域作为负样本;<BR>步骤S122,基于每个标定特征点所对应的样本组,利用支持向量机得到每个标定特征点对应的纹理模型wT。<BR><BR>6.&nbsp;&nbsp; 根据权利要求5所述的方法,其特征在于,所述步骤S122中:<BR>首先,将每个标定特征点所对应的样本组中的每个样本写成以下形式:<BR><MATHS id=cmaths0002 num="0002"><MATH><![CDATA[<mrow><MSUP><MI>x</MI><MROW><MO>(</MO><MI>i</MI><MO>)</MO></MROW></MSUP><MO>=</MO><MSUP><MROW><MO>[</MO><MSUBSUP><MI>x</MI><MN>1</MN><MROW><MO>(</MO><MI>i</MI><MO>)</MO></MROW></MSUBSUP><MO>,</MO><MSUBSUP><MI>x</MI><MN>2</MN><MROW><MO>(</MO><MI>i</MI><MO>)</MO></MROW></MSUBSUP><MO>,</MO><MO>.</MO><MO>.</MO><MO>.</MO><MO>,</MO><MSUBSUP><MI>x</MI><MROW><MI>r</MI><MO>×</MO><MI>r</MI></MROW><MROW><MO>(</MO><MI>i</MI><MO>)</MO></MROW></MSUBSUP><MO>]</MO></MROW><MI>T</MI></MSUP><MO>,</MO></MROW>]]&gt;</MATH></MATHS><BR>其中,(i)表示样本的序号,为相应样本中某一位置处的像素值;<BR>然后,利用SVM得到每个标定特征点对应的纹理模型wT:<BR>y(i)=wT·x(i)+θ,<BR>其中,y(i)为SVM的输出,wT是学习得到的纹理模型:wT=[w1&nbsp;w2...wr×r],θ为SVM的偏移量,对于每个标定特征点所对应的正样本,y(i)=1;负样本,y(i)=0。<BR><BR>7.&nbsp;&nbsp; 根据权利要求1所述的方法,其特征在于,所述步骤S2中的关键点检测包含关键点的学习和其鲁棒描述子的学习,所述关键点的学习进一步包括以下步骤:<BR>步骤S21,对于所述待跟踪人脸视频中的每一帧图像,初步计算得到多个关键点;<BR>步骤S22,从所述步骤S21初步得到的多个关键点中选出具有不变性的关键点,并将所述待跟踪人脸视频中所有图像的不变性关键点组合起来得到关键点集合及这些关键点的描述子(fi,xi,yi),其中,fi表示第i个关键点的特征值,(xi,yi)表示该关键点的坐标;<BR>所述关键点的鲁棒描述子的学习进一步包括以下步骤:<BR>步骤S23,将所述步骤S22得到的n个不变性关键点组成初始关键点集合A;<BR>步骤S24,对所述待跟踪人脸视频中每一帧图像中的人脸进行姿态旋转、表情变化、光照变化中的一种参数变换,仿真得到变换后的图像;<BR>步骤S25,将根据所述步骤S21和S22检测得到的变换后的图像的多个不变性关键点组成关键点集合B;<BR>步骤S26,对关键点集合B里的每个点p,关键点集合A进行描述子匹配操作;<BR>步骤S27,对于经过其他参数变换后的图像重复所述步骤24到26,最终得到所述特定人脸图像序列中每一帧图像的完备关键点鲁棒描述子。<BR><BR>8.&nbsp;&nbsp; 根据权利要求7所述的方法,其特征在于,所述步骤S26具体为:<BR>在关键点集合A中,找到与点p位置最近的点q,判断点p和点q反投影到正面三维模型表面上的三维点p’和q’是否为同一个三维点,若p’和q’是同一个三维点且p的描述子和q的描述子最为接近,则把p的描述子加入到q的描述子中;若p’和q’是同一个三维点且点p的描述子和关键点集合A中非q的另一个点x的描述子最为接近,则点q及其描述子无效;如果p’和q’是同一个三维点且点p的描述子和关键点集合A中每个点的描述子都不一样,则将p和p的描述子加入到关键点集合A中;如果p’和q’不是同一个三维点且p的描述子和关键点集合A中某个点s的某个描述子很接近,则将点s及其描述子从关键点集合A中去掉;如果p’和q’不是同一个三维点且p的描述子和关键点集合A中每个关键点的描述子都不一样,则将点p及其描述子加入到关键点集合A中。<BR><BR>9.&nbsp;&nbsp; 根据权利要求1所述的方法,其特征在于,所述步骤S3进一步包括以下步骤:<BR>步骤S31,根据所述步骤S2得到所述人脸视频的某一帧人脸图像的上一人脸图像帧的关键点,并在该帧人脸图像中寻找上一人脸图像帧的某一关键点在当前帧中的相应位置附近的关键点;<BR>步骤S32,将当前帧中所述关键点的描述子和所述关键点模型B中的描述子进行匹配,将当前帧中与所述关键点模型B中的描述子匹配上的3D关键点组成集合V,将当前帧中与所述关键点模型B中的描述子匹配上的2D关键点组成集合u,将所述集合V经过平面投影后得到的2D关键点组成集合u′,比较u′和u,得到使得||u‑u′||最小的当前帧图像中初始的人脸相对于正脸的姿态参数组(R,T):<BR><MATHS id=cmaths0003 num="0003"><MATH><![CDATA[<mrow><MSUP><MROW><MO>(</MO><MI>R</MI><MO>,</MO><MI>T</MI><MO>)</MO></MROW><MO>*</MO></MSUP><MO>=</MO><MI>arg</MI><MSUB><MI>min</MI><MROW><MO>(</MO><MI>R</MI><MO>,</MO><MI>T</MI><MO>)</MO></MROW></MSUB><MUNDEROVER><MI>Σ</MI><MI>i</MI><MSUB><MI>N</MI><MI>k</MI></MSUB></MUNDEROVER><MSUP><MSUB><MROW><MO>|</MO><MO>|</MO><MI>K</MI><MO>[</MO><MI>R</MI><MO>|</MO><MI>T</MI><MO>]</MO><MSUP><MI>V</MI><MI>i</MI></MSUP><MO>-</MO><MSUP><MI>u</MI><MI>i</MI></MSUP><MO>|</MO><MO>|</MO></MROW><MN>2</MN></MSUB><MN>2</MN></MSUP><MO>,</MO></MROW>]]&gt;</MATH></MATHS><BR>其中,K为摄像机参数,R为角度矩阵,T为位移向量,[R|T]为由R和T组成的增广矩阵,i为关键点的序号,Nk为集合V和集合u的关键点个数的最大值。<BR><BR>10.&nbsp;&nbsp; 根据权利要求1所述的方法,其特征在于,所述步骤S4进一步包括以下步骤:<BR>步骤S41,对所述待跟踪人脸视频中的某一当前帧人脸图像进行脸部检测,得到初始的n个特征点,并相应地得到每个特征点的大小为r*r的响应图像R(x,y),其中,每个特征点的响应图像R(x,y)为wT·x(i)矩阵化后的结果,wT是根据支持向量机求得的该特征点的纹理模型:wT=[w1&nbsp;w2...wr×r],x(i)为该特征点的第i个大小为r*r的样本;<BR>步骤S42,利用所述响应图像R(x,y),通过拟合得到所述待跟踪人脸视频每一帧人脸图像中与所述当前帧人脸图像具有同一含义的特征点的位置;<BR>步骤S43,基于所述步骤S3得到的初始的人脸姿态参数组,根据拟合得到的特征点的位置得到校正后的人脸姿态参数组。<BR><BR>11.&nbsp;&nbsp; 根据权利要求10所述的方法,其特征在于,所述步骤S42进一步包括以下步骤:<BR>步骤S421,对以所述步骤S41中得到的所有特征点中的每一个特征点为中心的大小为r×r的区域进行范围为a×a的搜索,对于每一个特征点,得到一以其为中心、直径为(r+a)的正方形区域;<BR>步骤S422,通过函数拟合的方式找到当前帧的下一帧或上一帧图像的所述正方形区域中与所述当前帧人脸图像具有同一含义的特征点的坐标位置。<BR><BR>12.&nbsp;&nbsp; 根据权利要求1所述的方法,其特征在于,所述步骤S5进一步包括以下步骤:<BR>步骤S51,根据所述步骤S2和步骤S3得到所述待跟踪人脸视频某一帧人脸图像中的关键点和初始的人脸姿态参数组;<BR>步骤S52,基于该帧人脸图像中初始的人脸姿态参数组(R,T),根据所述步骤S4的描述,在前向或后向上对所述待跟踪人脸视频中的人脸图像进行CLM人脸跟踪,得到每一帧人脸图像中关键点的位置,进而根据所述初始的人脸姿态参数组(R,T)得到校正后的人脸姿态参数组,并利用所述校正后的人脸姿态参数组对所述关键点模型B进行更新;<BR>步骤S53,利用更新后的关键点模型B按照所述步骤S3和S4的描述对所述待跟踪人脸视频中的每一帧人脸图像进行人脸的再跟踪。<BR><BR>13.&nbsp;&nbsp; 根据权利要求12所述的方法,其特征在于,所述步骤S52中,对所述关键点模型B进行更新的步骤进一步包括以下步骤:<BR>步骤S521,对于当前帧图像,根据其人脸姿态参数组(R,T)判断人脸的姿态;<BR>步骤S522,根据当前帧图像中的关键点描述子Fi‑(fi,xi,yi)和关键点模型B的匹配情况来更新所述关键点模型B:<BR>如果当前帧图像的大多数关键点都和所述关键点模型B中的关键点匹配,则将当前帧中没有匹配上的那些关键点补充到所述关键点模型B中;否则不进行所述关键点模型B的补充更新。<BR><BR>14.&nbsp;&nbsp; 根据权利要求1所述的方法,其特征在于,所述对模型A进行更新的步骤进一步包括以下步骤:<BR>步骤S61,计算表达式A′‑s0的奇异值分解,得到U∑VT,其中,A′为由所述模型A中的一系列标准正交基si组成的集合,s0表示所述模型A中的平均人脸形状;<BR>步骤S62,构造一增广矩阵其中,B′为放置有根据人脸姿态参数组(R,T)所得到的人脸特征点的坐标向量的集合,s′0为集合B′的算术平均值,m为集合B′中向量的个数,n为所述人脸特征点的个数,并根据所述增广矩阵计算得到与R:<MATHS id=cmaths0004 num="0004"><MATH><![CDATA[<mrow><MI>R</MI><MO>=</MO><MFENCED close="]" open="["><MTABLE><MTR><MTD><MI>Σ</MI></MTD><MTD><MSUP><MI>U</MI><MI>T</MI></MSUP><MOVER><MI>B</MI><MO>^</MO></MOVER></MTD></MTR><MTR><MTD><MN>0</MN></MTD><MTD><MSUP><MOVER><MI>B</MI><MO>~</MO></MOVER><MI>T</MI></MSUP><MROW><MO>(</MO><MOVER><MI>B</MI><MO>^</MO></MOVER><MO>-</MO><MI>U</MI><MSUP><MI>U</MI><MI>T</MI></MSUP><MOVER><MI>B</MI><MO>^</MO></MOVER><MO>)</MO></MROW></MTD></MTR></MTABLE></MFENCED><MO>,</MO></MROW>]]&gt;</MATH></MATHS>orth(·)表示矩阵正交化操作;<BR>步骤S63,计算R的奇异值分解,得到<BR>步骤S64,计算得到一组新的正交基<MATHS id=cmaths0005 num="0005"><MATH><![CDATA[<mrow><MSUP><MI>U</MI><MO>′</MO></MSUP><MO>=</MO><MFENCED close="]" open="["><MTABLE><MTR><MTD><MI>U</MI></MTD><MTD><MOVER><MI>B</MI><MO>~</MO></MOVER></MTD></MTR></MTABLE></MFENCED><MOVER><MI>U</MI><MO>~</MO></MOVER><MO>,</MO></MROW>]]&gt;</MATH></MATHS>并利用得到的新的正交基对模型A进行更新。<BR><BR>15.&nbsp;&nbsp; 根据权利要求14所述的方法,其特征在于,R的表达式由下式来代替:<BR><MATHS id=cmaths0006 num="0006"><MATH><![CDATA[<mrow><MI>R</MI><MO>=</MO><MFENCED close="]" open="["><MTABLE><MTR><MTD><MI>fΣ</MI></MTD><MTD><MSUP><MI>U</MI><MI>T</MI></MSUP><MOVER><MI>B</MI><MO>^</MO></MOVER></MTD></MTR><MTR><MTD><MN>0</MN></MTD><MTD><MSUP><MOVER><MI>B</MI><MO>~</MO></MOVER><MI>T</MI></MSUP><MROW><MO>(</MO><MOVER><MI>B</MI><MO>^</MO></MOVER><MO>-</MO><MI>U</MI><MSUP><MI>U</MI><MI>T</MI></MSUP><MOVER><MI>B</MI><MO>^</MO></MOVER><MO>)</MO></MROW></MTD></MTR></MTABLE></MFENCED><MO>,</MO></MROW>]]&gt;</MATH></MATHS><BR>其中,f为遗忘因子,其为取值范围为0~1的一经验值。<BR></p></div> </div> </div> <div class="zlzy"> <div class="zltitle">说明书</div> <div class="gdyy"> <div class="gdyy_show"><p>说明书基于增量主成分分析的特征与模型互匹配人脸跟踪方法 <BR>技术领域 <BR>本发明涉及计算机图形图像技术领域,尤其是一种高鲁棒性的基于在线增量主成分分析的特征与模型互匹配人脸跟踪方法。 <BR>背景技术 <BR>近年来,计算机视觉技术取得了长足的发展,图像识别与跟踪已经成为计算机领域一个热门的研究方向。鲁棒的实时人脸跟踪是智能视频监控和基于视觉的人机交互以及机器人导航等领域的一个核心。该技术应用于视频会议、公安刑侦、访问控制、金融支付、医学应用等众多领域。人脸是一个非刚性的识别对象,在运动中,其大小、形状的变化都会影响跟踪的效果,所以实时的人脸跟踪是对计算机视觉领域的一个挑战。 <BR>目前人脸跟踪技术主要可以分为三类:基于特征匹配的跟踪、基于区域匹配的跟踪和基于模型匹配的跟踪。 <BR>对于基于特征匹配的跟踪:该方法进行序列图像运动目标的跟踪,其包括特征提取和特征匹配两个过程。在特征提取过程中需要选择适当的跟踪特征,并且在序列图像的下一帧中提取这些特征;在特征匹配过程中,将提取到的当前帧的特征同上一帧,或者是用来确定目标物体的特征模板进行比较,根据比较结果确定是否是对应物体,从而完成跟踪过程。但是特征点会由于遮挡或光线变化而不可见,这将导致跟踪失败,这是基于特征匹配跟踪的缺点。 <BR>对于基于区域匹配的跟踪:该方法是把图像中目标物体的连通区域的共有特征信息作为跟踪检测值的一种方法。在连续的图像中可以采用多种区域信息。基于区域匹配的跟踪不能根据目标的整体形状来对跟踪结果进行调整,因此在长时间连续跟踪时,容易因误差累积而发生目标丢失的情况。 <BR>对于基于模型匹配的跟踪:该方法是通过建立模型的方法来表示需要跟踪的目标物体,然后在序列图像中跟踪这个模型来达到跟踪的目的。目前主要有两种类型的可变形模型,一种是自由式的可变形模型,只要满足一些简单的正则化约束条件(如连续性,平滑性等),就可以用来跟踪任意形状的目标物体,这类方法通常也被称为活动轮廓模型;另一种是参数形式的变形模型,它使用一个参数公式,或者是一个原形与一个变形公式来共同描述目标物体的形状。 <BR>由上可见,目前主流的人脸跟踪技术,还是不能在保证鲁棒性的前提下去精准地跟踪到人脸。 <BR>发明内容 <BR>为了解决现有技术的问题,本发明的目的是提供一种高鲁棒性的人脸跟踪技术。 <BR>为了达成所述目的,本发明提出了一种高鲁棒性的在线增量主成分分析的特征与模型互匹配人脸跟踪方法,该方法结合了基于特征匹配(关键点匹配)和基于约束局部模型匹配(CLM)的跟踪,同时加入了在线增量主成分学习,让CLM模型A和关键点点模型B相互匹配,并实时更新,使得检测的精准度和鲁棒性地到了很好地保证,且可以解决较大视角的人脸跟踪问题。 <BR>所述高鲁棒性的在线增量主成分分析的特征与模型互匹配人脸跟踪方法包括以下步骤: <BR>步骤S1,对于多幅人脸图像进行离线建模,得到包括形状模型s和纹理模型wT的模型匹配(CLM)模型A; <BR>步骤S2,输入一待跟踪人脸视频,对于所述待跟踪人脸视频中的每一帧人脸图像进行关键点检测,将所得到的所有关键点的集合和这些关键点的鲁棒描述子组合起来作为关键点模型B; <BR>步骤S3,基于所述步骤S2得到的关键点模型B,对于所述待跟踪人脸视频中的每一帧人脸图像进行关键点匹配,获得每一帧人脸图像中初始的人脸姿态参数组(R,T),其中,R表示角度参数和T表示位移参数; <BR>步骤S4,利用所述模型A对所述待跟踪人脸视频进行CLM人脸跟踪,得到所述待跟踪人脸视频每一帧人脸图像中特征点的位置; <BR>步骤S5,基于所述步骤S3得到的每一帧人脸图像中人脸的姿态参数组和所述步骤S4跟踪得到的每一帧人脸图像中特征点的位置,对所述待跟踪人脸视频中的每一帧人脸图像进行人脸的再跟踪; <BR>步骤S6,使用增量PCA方法对所述模型A进行更新,并利用更新后的模型A重复所述步骤S1‑S5,得到最终的人脸跟踪结果。 <BR>本发明的有益效果是:本发明结合了基于特征匹配(关键点匹配)和基于模型匹配(CLM)的人脸跟踪,同时加入在线增量学习,让CLM模型A和关键点模型B相互匹配,并实时更新,使得检测的精准度和鲁棒性得到了很好地保证,本发明方法可以解决较大视角的人脸跟踪问题。 <BR>附图说明 <BR>图1是根据本发明一实施例的基于在线增量主成分学习的特征与模型互匹配人脸跟踪方法流程图; <BR>图2是根据本发明方法对正脸进行跟踪的结果示意图; <BR>图3是根据本发明方法对存在小角度转动的脸部的跟踪结果示意图; <BR>图4是根据本发明方法对存在较大角度转动的脸部的跟踪结果示意图。 <BR>具体实施方式 <BR>为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。 <BR>图1是本发明基于在线增量主成分分析的特征与模型互匹配人脸跟踪方法流程图,如图1所示,所述方法包括以下步骤: <BR>步骤S1,对于多幅人脸图像进行离线建模,得到模型匹配(CLM,Constrained&nbsp;Local&nbsp;Model)模型A; <BR>所述CLM模型A包括形状模型s和纹理模型wT,因此该步骤中,得到CLM模型A的步骤进一步包括以下步骤: <BR>步骤S11,根据事先确定的共同的人脸轮廓对所述多幅人脸图像分别进行标定得到多个标定特征点,并根据所述多个标定特征点的坐标值建立得到一人脸形状模型s; <BR>在一个CLM模型A中,形状定义为一个由一系列顶点位置组成的网格,因此可以用一系列的顶点的坐标来定义一个人脸形状向量sm: <BR>sm=(x1,y1,x2,y2,...,xn,yn)T&nbsp;&nbsp;(1) <BR>其中,xi,yi分别为相应人脸图像中第i个顶点的坐标值,n为实际采用的顶点的个数,可以设为66,88等。 <BR>所述顶点的坐标是依照所述事先确定的共同的人脸轮廓人为进行标定的,所述顶点又称为标定特征点,具体来说,所述步骤S11进一步包括以下步骤: <BR>步骤S111,事先采集N张人脸图像,其中,N是一个大于n的正整数,每张人脸图像上都依照所述共同的人脸轮廓进行人为标定,从而得到多个标定特征点,所述共同的人脸轮廓包括眼睛、鼻子、嘴和脸部外部的轮廓,进而根据公式(1)可以得到N个人脸形状向量sm,其中,m表示N张人脸图像中的第m张人脸图像。 <BR>步骤S112,在得到人脸形状向量sm的基础上,所述人脸形状模型s可以用一个平均人脸形状s0加上u个正交的人脸形状向量si的线性组合来表示,即: <BR><MATHS num="0001"><MATH><![CDATA[ <mrow><MI>s</MI> <MO>=</MO> <MSUB><MI>s</MI> <MN>0</MN> </MSUB><MO>+</MO> <MSUBSUP><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>u</MI> </MSUBSUP><MSUB><MI>p</MI> <MI>i</MI> </MSUB><MSUB><MI>s</MI> <MI>i</MI> </MSUB><MO>-</MO> <MO>-</MO> <MO>-</MO> <MROW><MO>(</MO> <MN>2</MN> <MO>)</MO> </MROW></MROW>]]&gt;</MATH></MATHS> <BR>其中,pi是形状参数,s0为平均人脸形状,si为相对于平均的人脸形状的变化,pi、s0和si均由对采集到的N个人脸形状向量sm进行主成分分析(Principal&nbsp;Component&nbsp;Analysis‑PCA)得到:s0为N个人脸形状向量sm的均值,m=1…N;pi是所述主成分分析后得到的u个特征向量si所对应的权值。需要注意的是,在进行主成分分析前,需要对所述N个人脸形状向量sm分别进行普鲁斯特分析(procrustes&nbsp;analysis),以减小偏转、尺度、平移等误差,所述普鲁斯特分析为现有技术中常用的分析方法,在此不做赘述。 <BR>步骤12,基于所述步骤S11得到的每一个标定特征点,学习得到能够体现所述每一个标定特征点对应的具有一定大小区域的纹理特征的纹理模型wT。 <BR>所述纹理模型的建立可以采取多种方式进行,在本发明一实施例中,采用支持向量机(Support&nbsp;Vector&nbsp;Machine‑SVM)来建立所述纹理模型,具体过程包括: <BR>步骤S121,以所述步骤S11得到的每一人脸图像的每一个标定特征点为中心,截取一个大小为r×r的区域作为正样本,在相应图像中的任意其他位置处截取多个r×r大小的区域作为负样本,这样对于N幅人脸图像就会得到具有同一含义的标定特征点(比如在不同的人脸图像中,指代左眼角的标定特征点认为是具有同一含义的标定特征点)的N个正样本和多个负样本; <BR>步骤S122,基于每个标定特征点所对应的样本组,利用支持向量机(SVM)得到每个标定特征点对应的纹理模型wT。 <BR>该步骤中,首先将每个标定特征点所对应的样本组中的每个样本(包括正样本和负样本)写成数学形式: <BR><MATHS num="0002"><MATH><![CDATA[ <mrow><MSUP><MI>x</MI> <MROW><MO>(</MO> <MI>i</MI> <MO>)</MO> </MROW></MSUP><MO>=</MO> <MSUP><MROW><MO>[</MO> <MSUBSUP><MI>x</MI> <MN>1</MN> <MROW><MO>(</MO> <MI>i</MI> <MO>)</MO> </MROW></MSUBSUP><MO>,</MO> <MSUBSUP><MI>x</MI> <MN>2</MN> <MROW><MO>(</MO> <MI>i</MI> <MO>)</MO> </MROW></MSUBSUP><MO>,</MO> <MO>.</MO> <MO>.</MO> <MO>.</MO> <MO>,</MO> <MSUBSUP><MI>x</MI> <MROW><MI>r</MI> <MO>×</MO> <MI>r</MI> </MROW><MROW><MO>(</MO> <MI>i</MI> <MO>)</MO> </MROW></MSUBSUP><MO>]</MO> </MROW><MI>T</MI> </MSUP><MO>-</MO> <MO>-</MO> <MO>-</MO> <MROW><MO>(</MO> <MN>3</MN> <MO>)</MO> </MROW></MROW>]]&gt;</MATH></MATHS> <BR>其中,(i)表示相应样本的序号,为相应样本中某一位置处的像素值。 <BR>然后,利用SVM得到每个标定特征点对应的纹理模型wT。 <BR>对于SVM而言,其学习过程可以表示为: <BR>y(i)=wT·x(i)+θ&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;(4) <BR>其中,y(i)为SVM的输出,wT是学习得到的纹理模型:wT=[w1&nbsp;w2...wr×r],θ为SVM的偏移量,对于每个标定特征点所对应的正样本,y(i)=1;负样本,y(i)=0。 <BR>接下来进行关键点模型B的构建与离线的关键点匹配,该部分包括步骤S2‑S3,其主要是为了获得稳定有效的关键点,通过仿真人脸表面的各种形变,尽可能地学习对这些形变鲁棒的关键点,从而获得稳定的关键点匹配。 <BR>步骤S2,输入一待跟踪人脸视频,对于所述待跟踪人脸视频中的每一帧人脸图像进行关键点检测,将所得到的所有关键点的集合和这些关键点的鲁棒描述子组合起来作为关键点模型B; <BR>关键点的检测通常使用的方法是根据图像中的关键点进行识别检测。相比直、曲线片段和点状,利用关键点来识别图像信息的优点是能够在出现拥挤(遮挡)、大的尺度和方向变化的情况下依然可以做出较好的匹配。 <BR>由于人脸所存在的特性,关键点的学习存在着许多问题:1,不同的角度、表情、光照变化会产生人脸形状的几何和光学上的扭曲形变;2,人脸上的纹理比背景的少,区别存在难度(关键点相对少);3,关键点在三维上的位置估计不够精确。但是,采用不变特征点作为关键点可以有效解决上述问题,具体为:将利用已有的3D人脸模型检测出的3D关键点集和利用多视角图像检测出的2D关键点集进行模拟形变,从而找出稳定的2D关键点。 <BR>所述关键点检测的步骤包含关键点的学习和其鲁棒描述子的学习,其中鲁棒描述子的学习是为了保证关键点的稳定性。 <BR>所述关键点的学习进一步包括以下步骤: <BR>步骤S21,对于所述人脸图像序列中的每一帧图像,使用现有技术中常用的关键点计算方法,比如Fast算法,初步计算得到多个关键点; <BR>步骤S22,从所述步骤S21得到的多个关键点中选出具有不变性的关键点,并将所述待跟踪人脸视频中的所有图像的不变性关键点组合起来得到关键点集合及这些关键点的描述子(fi,xi,yi),其中,fi表示第i个关键点的特征值,(xi,yi)表示该关键点的坐标; <BR>所述不变性关键点为经过姿态旋转、表情变化和/或光照变化后仍为关键点的关键点,该步骤中使用参数集(Pose,Shape,Light)的变化,来模拟人脸的姿态旋转、表情变化和光照变化,其中,Pose指的是小范围的姿态旋转引起的局部遮挡,Shape指的是非刚性的人脸表情变化,Light指的是光照引起的复杂变化,如阴影等;令W(k0;Pose,Shape,Light)表示图像I0上的某一关键点k0在上述三种变换下得到的点k所对应的位置,如果该关键点k0在上述变换后仍然被检查为关键点,并且满足下式,就认为关键点k0对于上述变换具有不变性: <BR>Fk0‑Fk<t&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;(5) <BR>其中,Fk0为关键点k0的特征值,Fk为点k的特征值,t为允许的定位误差上限。 <BR>目前得到的关键点集合中的关键点描述子并不具有鲁棒性,接下来需要通过学习的方法取得关键点的鲁棒描述子。在本发明一实施例中,所述关键点鲁棒描述子的学习采用增量学习的方法。由上文可知,关键点作为检测图像的主要识别因子,应该具有不变性(比如对于方向、尺度、旋转等的不变性)。但是在很多情况下,关键点的局部外观表现可能会在方向和尺度上发生变化,有时甚至存在仿射变形,因此为了更准确地对关键点进行匹配,需要对关键点进行有效的区分描述,提取出其局部方向、尺度和旋转的框架估计,形成描述子,比如sift就是一种可以采用的描述子,利用该描述子能够对关键点进行重新采样。 <BR>所述关键点的鲁棒描述子的学习包括以下步骤: <BR>步骤S23,按照所述步骤S21和S22的描述,对于所述待跟踪人脸视频中的每一帧图像进行关键点检测,得到n个不变性关键点,这n个不变性关键点构成初始关键点集合A; <BR>步骤S24,对所述图像中的人脸进行某一种参数变换,仿真得到变换后的图像,其中,所述参数为shape、pose或light; <BR>步骤S25,按照所述步骤S21和S22的描述,对变换后的图像进行关键点检测得到多个不变性关键点,这些不变性关键点构成关键点集合B; <BR>步骤S26,对关键点集合B里的每个点p,与关键点集合A进行描述子匹配操作: <BR>在关键点集合A中,找到与点p位置最近的点q,比较点p和点q反投影到正面三维模型表面上的三维点p’和q’,判断p’和q’是不是同一个三维点,如果p’和q’是同一个三维点且p的描述子和q的描述子最为接近,则表示这个描述子是有效的,则把p的描述子加入到q的描述子中,如此q就多了一个描述子;如果p’和q’是同一个三维点且点p的描述子和集合A中非q的另一个点x的描述子最为接近,则点q及其描述子无效;如果p’和q’是同一个三维点且点p的描述子和集合A中每个点的描述子都不一样,则说明它的描述子被错误的分类为背景了,所以将p和p的描述子加入到集合A中;如果p’和q’不是同一个三维点且p的描述子和集合A中某个点s的某个描述子很接近,这表明点s容易引起误匹配,所以将点s及其描述子从集合A中去掉;如果p’和q’不是同一个三维点且p的描述子和集合A中每个关键点的描述子都不一样,则将点p及其描述子加入到集合A中; <BR>步骤S27,对于经过其他不同参数变换后的图像重复所述步骤24到26,最终得到所述待跟踪人脸视频中每一帧图像的完备的关键点鲁棒描述子。 <BR>得到了所有关键点集合及其鲁棒描述子后就得到了关键点模型B。 <BR>步骤S3,基于所述步骤S2得到的关键点模型B,对于所述待跟踪人脸视频中的每一帧人脸图像进行关键点匹配,获得每一帧人脸图像中初始的人脸姿态参数组,其中,所述姿态参数组包括角度参数R和位移参数T:(R,T); <BR>所述关键点匹配的过程是比较差异性的过程,通常匹配的对象是前后图像帧变化比较小的图像序列。 <BR>具体地,所述步骤S3进一步包括以下步骤: <BR>步骤S31,根据所述步骤S2得到所述人脸视频的某一帧人脸图像的上一人脸图像帧的关键点,并在该帧人脸图像中寻找上一人脸图像帧的某一关键点在当前帧中的相应位置附近的关键点; <BR>步骤S32,将当前帧中所述关键点的描述子和所述关键点模型B中的描述子进行匹配,将当前帧中利用已有的3D人脸模型检测出的能够与所述关键点模型B中的描述子匹配上的3D关键点组成集合V,将当前帧中与所述关键点模型B中的描述子匹配上的2D关键点组成集合u,将所述集合V通过选择姿态参数组(R,T),以及摄像头的内参数K(该参数可以通过标定的方法事先确定),得到所述集合V经过平面投影后的2D关键点集合u′,比较u′和u,求取使得||u‑u′||最小的该帧图像中初始的人脸相对于正脸的姿态参数组(R,T): <BR><MATHS num="0003"><MATH><![CDATA[ <mrow><MSUP><MROW><MO>(</MO> <MI>R</MI> <MO>,</MO> <MI>T</MI> <MO>)</MO> </MROW><MO>*</MO> </MSUP><MO>=</MO> <MI>arg</MI> <MSUB><MI>min</MI> <MROW><MO>(</MO> <MI>R</MI> <MO>,</MO> <MI>T</MI> <MO>)</MO> </MROW></MSUB><MUNDEROVER><MI>Σ</MI> <MI>i</MI> <MSUB><MI>N</MI> <MI>k</MI> </MSUB></MUNDEROVER><MSUP><MSUB><MROW><MO>|</MO> <MO>|</MO> <MI>K</MI> <MO>[</MO> <MI>R</MI> <MO>|</MO> <MI>T</MI> <MO>]</MO> <MSUP><MI>V</MI> <MI>i</MI> </MSUP><MO>-</MO> <MSUP><MI>u</MI> <MI>i</MI> </MSUP><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUB><MN>2</MN> </MSUP><MO>-</MO> <MO>-</MO> <MO>-</MO> <MROW><MO>(</MO> <MN>6</MN> <MO>)</MO> </MROW></MROW>]]&gt;</MATH></MATHS> <BR>其中,K为摄像机参数,R为角度矩阵,T为位移向量,[R|T]为由R和T组成的增广矩阵,Vi为能够匹配所述关键点模型B中的描述子的3D关键点集合,ui为能够匹配所述关键点模型B中的描述子的2D关键点集合,i为关键点的序号,Nk为集合V和集合ut的关键点个数的最大值。 <BR>接下来进行CLM人脸跟踪,该部分主要通过步骤S4来实现。 <BR>步骤S4,利用所述模型A对所述待跟踪人脸视频进行CLM人脸跟踪,得到所述待跟踪人脸视频每一帧人脸图像中特征点的位置,并进而基于所述步骤S3得到的初始的人脸姿态参数组,得到所述待跟踪人脸视频每一帧人脸图像校正后的人脸姿态参数组; <BR>该步骤通过拟合操作来实现人脸特征点的跟踪,所述拟合其实就是对一模型进行参数调整,得到一实例模型,并使所述实例模型与新的输入图片相匹配的过程,这是一个能量最小化问题。 <BR>所述步骤S4进一步包括以下步骤: <BR>步骤S41,对所述待跟踪人脸视频中的某一当前帧人脸图像进行脸部检测,得到初始的n个特征点,并相应地得到每个特征点的响应图像R(x,y); <BR>该步骤中,首先利用现有技术中常用的Viola‑Jones方法对该帧人脸图像进行脸部检测,得到一个小范围的脸部区域;然后在该脸部区域内,初始化一个脸部轮廓模型,该模型可以是上文提到的s0。这样,根据所述初始化的脸部轮廓模型就得到该帧人脸图像的初始的n个特征点。 <BR>其中,每个特征点的响应图像R(x,y)为wT·x(i)矩阵化后的结果,其中,wT是根据SVM求得的该特征点的纹理模型:wT=[w1&nbsp;w2...wr×r],x(i)为该特征点的第i个大小为r*r的样本,可见,所述响应图像R(x,y)的大小为r*r,其实,所述响应图像相当于用纹理模型wT在样本中进行滤波所得到的结果。 <BR>步骤S42,利用所述响应图像R(x,y),通过拟合得到所述待跟踪人脸视频每一帧人脸图像中与所述当前帧人脸图像具有同一含义的特征点的位置; <BR>所述拟合进一步包括以下步骤: <BR>步骤S421,对以所述步骤S41中得到的所有特征点中的每一个特征点为中心的大小为r×r的区域进行范围为a×a的搜索,对于每一个特征点,得到一以其为中心、直径为(r+a)的正方形区域; <BR>,而学习时样本的范围是,其也即拟合过程中响应图像的大小步骤S422,在已知当前帧的特征点的情况下,通过函数拟合的方式找到当前帧的下一帧或上一帧图像的所述正方形区域中与所述当前帧人脸图像具有同一含义的特征点的坐标位置。 <BR>对于所述拟合,需要找到能够使在下一帧或上一帧图像中拟合得到的每个特征点的正样本与相应响应图像R(x,y)的均方差降到最低的函数参数最优解。为了使这个最优解能达到全局化而非局部性的目的,在本发明一实施例中,采用二次函数进行拟合,此时就需要找到能够使得(8)式所表示的目标函数中的均方差值最小的(7)式中的函数参数a′,b′,c′,在本发明一实施例中,可通过二次规划的方法来求得函数参数a′,b′,c′的最优解。 <BR>r(x,y)=a′(x‑x0)2+b′(y‑y0)2+c′&nbsp;&nbsp;&nbsp;&nbsp;(7) <BR><MATHS num="0004"><MATH><![CDATA[ <mrow><MI>&amp;epsiv;</MI> <MO>=</MO> <MUNDER><MI>Σ</MI> <MROW><MI>x</MI> <MO>,</MO> <MI>y</MI> </MROW></MUNDER><MSUP><MROW><MO>[</MO> <MI>R</MI> <MROW><MO>(</MO> <MI>x</MI> <MO>,</MO> <MI>y</MI> <MO>)</MO> </MROW><MO>-</MO> <MI>r</MI> <MROW><MO>(</MO> <MI>x</MI> <MO>,</MO> <MI>y</MI> <MO>)</MO> </MROW><MO>]</MO> </MROW><MN>2</MN> </MSUP><MO>-</MO> <MO>-</MO> <MO>-</MO> <MROW><MO>(</MO> <MN>8</MN> <MO>)</MO> </MROW></MROW>]]&gt;</MATH></MATHS> <BR>其中,r(x,y)为拟合得到的某一特征点的正样本,由于某一特征点的正样本以该特征点为中心,因此得到了正样本自然也就得到了该特征点的坐标位置。 <BR>在实际的拟合过程中,有可能会出现拟合得到的某一满足上述目标函数的特征点实际上并不是人脸特征点的情况,为了避免这种误判情况的发生,本发明在上述拟合过程中引入对于特征点的位置限制,即拟合得到的特征点的位置(xi,yi)应满足公式(9),其中,i代表第i个特征点: <BR><MATHS num="0005"><MATH><![CDATA[ <mrow><MI>f</MI> <MROW><MO>(</MO> <MI>x</MI> <MO>,</MO> <MI>y</MI> <MO>)</MO> </MROW><MO>=</MO> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>n</MI> </MUNDEROVER><MSUB><MI>r</MI> <MI>i</MI> </MSUB><MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>,</MO> <MSUB><MI>y</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>-</MO> <MI>β</MI> <MUNDEROVER><MI>Σ</MI> <MROW><MI>j</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>k</MI> </MUNDEROVER><MFRAC><MSUBSUP><MI>p</MI> <MI>j</MI> <MN>2</MN> </MSUBSUP><MSUB><MI>e</MI> <MI>j</MI> </MSUB></MFRAC><MO>-</MO> <MO>-</MO> <MO>-</MO> <MROW><MO>(</MO> <MN>9</MN> <MO>)</MO> </MROW></MROW>]]&gt;</MATH></MATHS> <BR>其中,f(x,y)表示拟合得到的特征点的坐标函数,n为特征点的个数,k为所述步骤S1中提及的对N个人脸形状向量sm进行主成分分析PCA后得到的特征向量的个数,pj表示相应特征向量的权值,ej表示相应特征向量对应的特征值,β是人为设定的权重。 <BR>为了节省计算量,(9)式可简化为如下表达式: <BR><MATHS num="0006"><MATH><![CDATA[ <mrow><MI>f</MI> <MROW><MO>(</MO> <MI>x</MI> <MO>)</MO> </MROW><MO>=</MO> <MSUP><MI>x</MI> <MI>T</MI> </MSUP><MI>Hx</MI> <MO>-</MO> <MN>2</MN> <MSUP><MI>F</MI> <MI>T</MI> </MSUP><MI>x</MI> <MO>-</MO> <MI>β</MI> <MSUP><MI>x</MI> <MI>T</MI> </MSUP><MSUB><MI>s</MI> <MI>nr</MI> </MSUB><MSUBSUP><MI>s</MI> <MI>nr</MI> <MI>T</MI> </MSUBSUP><MI>x</MI> <MO>-</MO> <MO>-</MO> <MO>-</MO> <MROW><MO>(</MO> <MN>10</MN> <MO>)</MO> </MROW></MROW>]]&gt;</MATH></MATHS> <BR>其中,x=[xi,yi]T为拟合后的结果,即特征点被跟踪到的新坐标向量,H=diag(H1,H2,...Hi...,Hn),Hi=diag(a′i,b′i),a′i、b′i分别为(7)式中的参数;F=[F1,F2,...,Fn]T,其中,i为特征点的序数,n为特征点的个数;Fi=[aix0i,biy0i]T,(x0,y0)为相应特征点的响应图像R(x,y)具有最大值的坐标点;<MATHS num="0007"><MATH><![CDATA[ <mrow> <MSUB><MI>s</MI> <MI>nr</MI> </MSUB><MO>=</MO> <MSUP><MROW><MO>[</MO> <MSUB><MI>s</MI> <MN>1</MN> </MSUB><MO>/</MO> <MSQRT><MSUB><MI>e</MI> <MN>1</MN> </MSUB></MSQRT><MO>,</MO> <MSUB><MI>s</MI> <MN>2</MN> </MSUB><MO>/</MO> <MSQRT><MSUB><MI>e</MI> <MN>2</MN> </MSUB></MSQRT><MO>,</MO> <MO>.</MO> <MO>.</MO> <MO>.</MO> <MO>,</MO> <MSUB><MI>s</MI> <MI>k</MI> </MSUB><MO>/</MO> <MSQRT><MSUB><MI>e</MI> <MI>k</MI> </MSUB></MSQRT><MO>]</MO> </MROW><MI>T</MI> </MSUP><MO>,</MO> </MROW>]]&gt;</MATH></MATHS>s1,...,sk为经过PCA后得到的前k个特征向量,e1…ek表示相应特征向量对应的特征值。 <BR>(10)式是一个关于x的二次方程,因而可以求得一个唯一的x,使得(10)式取得最大值。 <BR>步骤S43,基于所述步骤S3得到的初始的人脸姿态参数组,根据拟合得到的特征点的位置得到校正后的人脸姿态参数组。 <BR>该步骤属于现有技术,在此不作赘述。 <BR>接下来,需要将所述步骤S2中描述的关键点检测、所述步骤S3中描述的人脸姿态参数组获取与所述步骤S4中描述的CLM人脸跟踪进行融合,相互进行学习来对人脸进行跟踪,以提高人脸跟踪的鲁棒性。 <BR>步骤S5,基于所述步骤S3得到的每一帧人脸图像中人脸的姿态参数组和所述步骤S4跟踪得到的每一帧人脸图像中特征点的位置,对所述待跟踪人脸视频中的每一帧人脸图像进行人脸的再跟踪; <BR>根据上文的描述,可以初步计算出所述待跟踪人脸视频每一帧人脸图像中人脸的姿态参数组(R,T),该参数组可以作为CLM人脸跟踪时的初始参数,利用关键点模型B对于CLM人脸跟踪进行初始化主要是因为R代表了人脸的角度,利用R可以在CLM实例化时选择正确角度的CLM模型及调整初始化的人脸形状。CLM模型包含有多个角度的模型,比如可以包含3类:正面模型、左侧面模型和右侧面模型。对于待跟踪的人脸,通过R确定人脸的角度,在CLM模型实例化的时候就可以利用和这个角度匹配的那类模型来进行实例化。 <BR>所述步骤S5进一步包括以下步骤: <BR>步骤S51,根据所述步骤S2和步骤S3得到所述待跟踪人脸视频某一帧人脸图像中的关键点和初始的人脸姿态参数组; <BR>步骤S52,基于该帧人脸图像中初始的人脸姿态参数组(R,T),根据所述步骤S4的描述,在前向或后向上(前向比如可以为当前帧图像的下一帧图像方向,后向比如可以为当前帧图像的上一帧图像方向)对所述待跟踪人脸视频中的人脸图像进行CLM人脸跟踪,得到每一帧人脸图像中关键点的位置,进而根据所述初始的人脸姿态参数组(R,T)得到校正后的人脸姿态参数组,并利用所述校正后的人脸姿态参数组对所述关键点模型B进行更新; <BR>对所述关键点模型B进行更新的步骤进一步包括以下步骤: <BR>步骤S521,对于当前帧图像,根据其人脸姿态参数组(R,T)判断人脸的姿态; <BR>步骤S522,根据当前帧图像中的关键点描述子Fi‑(fi,xi,yi)和关键点模型B的匹配情况来更新所述关键点模型B,具体为: <BR>如果当前帧图像的大多数(比如80%)关键点都和所述关键点模型B中的关键点匹配,则将当前帧中没有匹配上的那些关键点补充到所述关键点模型B中,最开始的所述关键点模型B是基于正脸图进行的,经过不断的补充后会包含侧面的关键点;否则不进行所述关键点模型B的补充更新,因为此时当前帧图像的关键点可能包含了很多误检出来的关键点。 <BR>当然,并非每帧图像进行CLM人脸跟踪后,都要进行关键点模型B的更新,在实际情况中,可以每隔几帧进行一次。 <BR>步骤S53,利用更新后的关键点模型B按照所述步骤S3和步骤S4的描述对所述待跟踪人脸视频中的每一帧人脸图像进行人脸的再跟踪。 <BR>在所述步骤S52进行CLM人脸跟踪时,可以每隔数帧就根据所述步骤S51的描述对于人脸姿态参数组进行初始化,这样做可以对CLM人脸跟踪起到校正作用,因为如果一直使用前一帧的检测结果来进行初始化可能会造成错误的累积,导致跟踪丢失。 <BR>为了进一步增强效果,本发明还采用了在线学习的方式,即步骤S6,以在跟踪过程中利用已有的检测结果随时进行学习训练,使得建模与跟踪融为一体,能够在线更新所述模型A,相比传统的机器学习过程,即学习与应用相分离的模式,有所突破。如此,再结合上一步骤所介绍的融合跟踪方法,能够使得整个人脸跟踪系统的跟踪效果更加鲁棒,即使对于较大角度的转动也能够得到较理想的跟踪效果。 <BR>步骤S6,使用增量PCA(Incremental&nbsp;PCA)方法对所述模型A进行更新,并利用更新后的模型A重复所述步骤S1‑S5,得到最终的人脸跟踪结果。 <BR>由上文中的介绍可知,所述模型A分为形状与纹理模型两部分,接下来以形状模型为例对该步骤进行说明,简洁起见,下文中仍使用模型A来表述。 <BR>对于所述模型A,由(2)式可知,其为平均人脸形状s0与一系列标准正交基si线性组合的结果。将这一系列标准正交基si组成集合A′,且集合A′={s1,s2,…su},而平均人脸形状s0则为集合A′中元素的算术平均值。另设一集合B′,里面放置在线学习时所累积的根据人脸姿态参数组(R,T)所得到的人脸特征点的坐标向量,其包含集合A′中的si(i∈{1,2,…,u}),也就是说,集合A′中的si是离线建模时所获得,而集合B′中的部分元素su+1,…,su+m是在更新所述关键点模型B时实时加入集合B′的,其算术平均值设为s′0,m为集合B′中向量的个数,n为所述人脸特征点的个数。另外,所述集合B′中所加入的向量个数可根据使用需要来设定,这样既保证了在线更新的准确性,同时也不必每一帧都进行增量学习,从而突出了时效性。 <BR>那么对模型A进行更新的步骤进一步包括以下步骤: <BR>步骤S61,计算表达式A′‑s0的奇异值分解SVD,得到U∑VT,其中A′‑s0指集合A′中的每一列向量均与s0相减所得的矩阵; <BR>步骤S62,构造一增广矩阵其中,s′0为集合B′的算术平均值,m为集合B′中向量的个数,n为所述人脸特征点的个数,并根据所述增广矩阵计算得到与R:orth(·)表示矩阵正交化操作,可用QR分解得出,<MATHS num="0008"><MATH><![CDATA[ <mrow> <MI>R</MI> <MO>=</MO> <MFENCED close="]" open="["><MTABLE><MTR><MTD><MI>Σ</MI> </MTD><MTD><MSUP><MI>U</MI> <MI>T</MI> </MSUP><MOVER><MI>B</MI> <MO>^</MO> </MOVER></MTD></MTR><MTR><MTD><MN>0</MN> </MTD><MTD><MSUP><MOVER><MI>B</MI> <MO>~</MO> </MOVER><MI>T</MI> </MSUP><MROW><MO>(</MO> <MOVER><MI>B</MI> <MO>^</MO> </MOVER><MO>-</MO> <MI>U</MI> <MSUP><MI>U</MI> <MI>T</MI> </MSUP><MOVER><MI>B</MI> <MO>^</MO> </MOVER><MO>)</MO> </MROW></MTD></MTR></MTABLE></MFENCED><MO>;</MO> </MROW>]]&gt;</MATH></MATHS> <BR>步骤S63,计算R的奇异值分解SVD,得到 <BR>步骤S64,计算得到<MATHS num="0009"><MATH><![CDATA[ <mrow> <MSUP><MI>U</MI> <MO>′</MO> </MSUP><MO>=</MO> <MFENCED close="]" open="["><MTABLE><MTR><MTD><MI>U</MI> </MTD><MTD><MOVER><MI>B</MI> <MO>~</MO> </MOVER></MTD></MTR></MTABLE></MFENCED><MOVER><MI>U</MI> <MO>~</MO> </MOVER><MO>,</MO> </MROW>]]&gt;</MATH></MATHS>则U′为一组新的正交基,也可以理解为是更新过后的集合A′,进而得到更新后的模型A; <BR>图2‑图4为根据本发明方法对不同的人脸进行跟踪的结果示意图。其中,图2是对正脸进行跟踪的结果示意图;图3是对存在小角度转动的脸部的跟踪结果示意图;图4是对存在较大角度转动的脸部的跟踪结果示意图,以上各图中的图a均是没有进行在线增量学习的跟踪结果,图b为进行了在线增量学习的跟踪结果,可以看出,采用了在线增量学习的人脸跟踪效果要优于没有进行在线增量学习的人脸跟踪效果。 <BR>为了突出在线增量学习对于模型A的影响,也即考虑到离当前帧越近的图像越能影响跟踪效果,因此,还可以选择性地在进行在线增量学习的时候加入遗忘因子f: <BR><MATHS num="0010"><MATH><![CDATA[ <mrow><MI>R</MI> <MO>=</MO> <MFENCED close="]" open="["><MTABLE><MTR><MTD><MI>fΣ</MI> </MTD><MTD><MSUP><MI>U</MI> <MI>T</MI> </MSUP><MOVER><MI>B</MI> <MO>^</MO> </MOVER></MTD></MTR><MTR><MTD><MN>0</MN> </MTD><MTD><MSUP><MOVER><MI>B</MI> <MO>~</MO> </MOVER><MI>T</MI> </MSUP><MROW><MO>(</MO> <MOVER><MI>B</MI> <MO>^</MO> </MOVER><MO>-</MO> <MI>U</MI> <MSUP><MI>U</MI> <MI>T</MI> </MSUP><MOVER><MI>B</MI> <MO>^</MO> </MOVER><MO>)</MO> </MROW></MTD></MTR></MTABLE></MFENCED><MO>,</MO> </MROW>]]&gt;</MATH></MATHS> <BR>其中,所述遗忘因子f为一经验值,其取值范围为0~1。 <BR>综上,本发明结合了人脸检测和CLM算法,并加入了基于在线增量学习的主成分分析,从而大大提升了系统的整体鲁棒性,并且同时保证了系统的实时性。具体地,本发明利用关键点检测对于人脸角度进行了估算,以此作为CLM建模时模型角度的选择依据,同时,一方面利用CLM检测结果来不断校正关键点样本库,另一方面利用检测结果在线实时更新CLM模型,使得模型不再仅仅是学习时静态的获得,而是动态地与当前状态紧密相连,从而解决了在进行CLM人脸跟踪时,由于目标图像中相邻帧间变化大时出现的跟踪丢失的问题,提高了跟踪的精准度。 <BR>以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。</p></div> </div> </div> </div> <div class="tempdiv cssnone" style="line-height:0px;height:0px; overflow:hidden;"> </div> <div id="page"> <div class="page"><img src='https://img.zhuanlichaxun.net/fileroot3/2019-3/18/f292ebd3-f4cd-49d2-a697-3813e468c1b5/f292ebd3-f4cd-49d2-a697-3813e468c1b51.gif' alt="基于增量主成分分析的特征与模型互匹配人脸跟踪方法.pdf_第1页" width='100%'/></div><div class="pageSize">第1页 / 共18页</div> <div class="page"><img src='https://img.zhuanlichaxun.net/fileroot3/2019-3/18/f292ebd3-f4cd-49d2-a697-3813e468c1b5/f292ebd3-f4cd-49d2-a697-3813e468c1b52.gif' alt="基于增量主成分分析的特征与模型互匹配人脸跟踪方法.pdf_第2页" width='100%'/></div><div class="pageSize">第2页 / 共18页</div> <div class="page"><img src='https://img.zhuanlichaxun.net/fileroot3/2019-3/18/f292ebd3-f4cd-49d2-a697-3813e468c1b5/f292ebd3-f4cd-49d2-a697-3813e468c1b53.gif' alt="基于增量主成分分析的特征与模型互匹配人脸跟踪方法.pdf_第3页" width='100%'/></div><div class="pageSize">第3页 / 共18页</div> </div> <div id="pageMore" class="btnmore" onclick="ShowSvg();">点击查看更多>></div> <div style="margin-top:20px; line-height:0px; height:0px; overflow:hidden;"> <div style=" font-size: 16px; background-color:#e5f0f7; font-weight: bold; text-indent:10px; line-height: 40px; height:40px; padding-bottom: 0px; margin-bottom:10px;">资源描述</div> <div class="detail-article prolistshowimg"> <p>《基于增量主成分分析的特征与模型互匹配人脸跟踪方法.pdf》由会员分享,可在线阅读,更多相关《基于增量主成分分析的特征与模型互匹配人脸跟踪方法.pdf(18页珍藏版)》请在专利查询网上搜索。</p> <p >1、(10)申请公布号 CN 103310204 A (43)申请公布日 2013.09.18 CN 103310204 A *CN103310204A* (21)申请号 201310267907.X (22)申请日 2013.06.28 G06K 9/00(2006.01) G06K 9/46(2006.01) (71)申请人 中国科学院自动化研究所 地址 100190 北京市海淀区中关村东路 95 号 (72)发明人 吴怀宇 潘春洪 陈艳琴 赵两可 (74)专利代理机构 中科专利商标代理有限责任 公司 11021 代理人 宋焰琴 (54) 发明名称 基于增量主成分分析的特征与模型互匹配人 脸跟。</p> <p >2、踪方法 (57) 摘要 本发明公开了一种基于在线增量主成分分析 的特征与模型互匹配人脸跟踪方法, 该方法包括 以下步骤 : 对多幅人脸图像进行离线建模, 得到 模型匹配 (CLM) 模型 A ; 对待跟踪人脸视频中的 每一帧进行关键点检测, 所有关键点的集合及其 鲁棒描述子组合为关键点模型 B ; 基于所述关键 点模型 B 对所述待跟踪人脸视频中的每一帧进行 关键点匹配, 获得每一帧人脸图像中初始的人脸 姿态参数组 ; 利用模型 A 对待跟踪人脸视频进行 CLM 人脸跟踪 ; 基于初始人脸姿态参数组和初次 跟踪结果进行再跟踪 ; 更新模型 A 并重复上述步 骤, 得到最终的人脸跟踪结果。 本发。</p> <p >3、明解决了在进 行 CLM 人脸跟踪时, 由于目标图像中相邻帧间变 化大时出现的跟踪丢失的问题, 从而提高了跟踪 的精准度。 (51)Int.Cl. 权利要求书 4 页 说明书 10 页 附图 3 页 (19)中华人民共和国国家知识产权局 (12)发明专利申请 权利要求书4页 说明书10页 附图3页 (10)申请公布号 CN 103310204 A CN 103310204 A *CN103310204A* 1/4 页 2 1. 一种基于在线增量主成分分析的特征与模型互匹配人脸跟踪方法, 其特征在于, 该 方法包括以下步骤 : 步骤 S1, 对于多幅人脸图像进行离线建模, 得到包括形状模型 s 。</p> <p >4、和纹理模型 wT的模型 匹配 (CLM) 模型 A ; 步骤 S2, 输入一待跟踪人脸视频, 对于所述待跟踪人脸视频中的每一帧人脸图像进行 关键点检测, 将所得到的所有关键点的集合和这些关键点的鲁棒描述子组合起来作为关键 点模型 B ; 步骤 S3, 基于所述步骤 S2 得到的关键点模型 B, 对于所述待跟踪人脸视频中的每一帧 人脸图像进行关键点匹配, 获得每一帧人脸图像中初始的人脸姿态参数组 (R, T), 其中, R 表示角度参数和 T 表示位移参数 ; 步骤S4, 利用所述模型A对所述待跟踪人脸视频进行CLM人脸跟踪, 得到所述待跟踪人 脸视频每一帧人脸图像中特征点的位置 ; 步骤 S5。</p> <p >5、, 基于所述步骤 S3 得到的每一帧人脸图像中人脸的姿态参数组和所述步骤 S4 跟踪得到的每一帧人脸图像中特征点的位置, 对所述待跟踪人脸视频中的每一帧人脸图像 进行人脸的再跟踪 ; 步骤S6, 使用增量PCA方法对所述模型A进行更新, 并利用更新后的模型A重复所述步 骤 S1-S5, 得到最终的人脸跟踪结果。 2. 根据权利要求 1 所述的方法, 其特征在于, 所述步骤 S1 进一步包括以下步骤 : 步骤 S11, 根据事先确定的共同的人脸轮廓对所述多幅人脸图像分别进行标定得到多 个标定特征点, 并根据所述多个标定特征点的坐标值建立得到一人脸形状模型 s ; 步骤 12, 基于所述步骤 S1。</p> <p >6、1 得到的每一个标定特征点, 学习得到能够体现所述每一个 标定特征点对应的具有一定大小区域的纹理特征的纹理模型 wT。 3. 根据权利要求 2 所述的方法, 其特征在于, 所述步骤 S11 进一步包括 : 步骤 S111, 采集 N 张人脸图像, 对于每张人脸图像都依照所述共同的人脸轮廓进行人 为标定, 得到多个标定特征点, 进而得到 N 个人脸形状向量 sm : sm (x1, y1, x2, y2, ., xn, yn)T, 其中, m 表示 N 张人脸图像中的第 m 张人脸图像, xi, yi分别为相应人脸图像中第 i 个 标定特征点的坐标值, n 为所述标定特征点的个数 ; 步骤 S1。</p> <p >7、12, 用一个平均人脸形状 s0和 u 个正交的人脸形状向量 si进行线性组合得到 所述人脸形状模型 s : 其中, 平均人脸形状 s0为 N 个人脸形状向量 sm的均值, pi是形状参数, 其值为对所述 N 个人脸形状向量 sm进行主成分分析后得到的 u 个特征向量 si所对应 的权值。 4.根据权利要求3所述的方法, 其特征在于, 在所述步骤S112中进行主成分分析前, 对 所述 N 个人脸形状向量 sm分别进行普鲁斯特分析, 以减小运动误差。 5. 根据权利要求 2 所述的方法, 其特征在于, 所述步骤 12 进一步包括以下步骤 : 步骤 S121, 以所述步骤 S11 得到的每一人脸图。</p> <p >8、像的每一个标定特征点为中心, 取一个 大小为 rr 的区域作为正样本, 在相应图像中的任意其他位置处截取多个同样大小的区 权 利 要 求 书 CN 103310204 A 2 2/4 页 3 域作为负样本 ; 步骤 S122, 基于每个标定特征点所对应的样本组, 利用支持向量机得到每个标定特征 点对应的纹理模型 wT。 6. 根据权利要求 5 所述的方法, 其特征在于, 所述步骤 S122 中 : 首先, 将每个标定特征点所对应的样本组中的每个样本写成以下形式 : 其中, (i) 表示样本的序号,为相应样本中某一位置处的像素值 ; 然后, 利用 SVM 得到每个标定特征点对应的纹理模型 wT:。</p> <p >9、 y(i) wTx(i)+, 其中, y(i)为 SVM 的输出, wT是学习得到的纹理模型 : wT w1 w2.wrr, 为 SVM 的 偏移量, 对于每个标定特征点所对应的正样本, y(i) 1 ; 负样本, y(i) 0。 7. 根据权利要求 1 所述的方法, 其特征在于, 所述步骤 S2 中的关键点检测包含关键点 的学习和其鲁棒描述子的学习, 所述关键点的学习进一步包括以下步骤 : 步骤 S21, 对于所述待跟踪人脸视频中的每一帧图像, 初步计算得到多个关键点 ; 步骤 S22, 从所述步骤 S21 初步得到的多个关键点中选出具有不变性的关键点, 并将所 述待跟踪人脸视频中所有图像的。</p> <p >10、不变性关键点组合起来得到关键点集合及这些关键点的 描述子 (fi, xi, yi), 其中, fi表示第 i 个关键点的特征值, (xi, yi) 表示该关键点的坐标 ; 所述关键点的鲁棒描述子的学习进一步包括以下步骤 : 步骤 S23, 将所述步骤 S22 得到的 n 个不变性关键点组成初始关键点集合 A ; 步骤 S24, 对所述待跟踪人脸视频中每一帧图像中的人脸进行姿态旋转、 表情变化、 光 照变化中的一种参数变换, 仿真得到变换后的图像 ; 步骤S25, 将根据所述步骤S21和S22检测得到的变换后的图像的多个不变性关键点组 成关键点集合 B ; 步骤 S26, 对关键点集合 B 里的。</p> <p >11、每个点 p, 关键点集合 A 进行描述子匹配操作 ; 步骤 S27, 对于经过其他参数变换后的图像重复所述步骤 24 到 26, 最终得到所述特定 人脸图像序列中每一帧图像的完备关键点鲁棒描述子。 8. 根据权利要求 7 所述的方法, 其特征在于, 所述步骤 S26 具体为 : 在关键点集合 A 中, 找到与点 p 位置最近的点 q, 判断点 p 和点 q 反投影到正面三维模 型表面上的三维点 p 和 q 是否为同一个三维点, 若 p 和 q 是同一个三维点且 p 的描述 子和 q 的描述子最为接近, 则把 p 的描述子加入到 q 的描述子中 ; 若 p 和 q 是同一个三维 点且点 p 的描。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>12、述子和关键点集合 A 中非 q 的另一个点 x 的描述子最为接近, 则点 q 及其描 述子无效 ; 如果 p 和 q 是同一个三维点且点 p 的描述子和关键点集合 A 中每个点的描述 子都不一样, 则将 p 和 p 的描述子加入到关键点集合 A 中 ; 如果 p 和 q 不是同一个三维点 且 p 的描述子和关键点集合 A 中某个点 s 的某个描述子很接近, 则将点 s 及其描述子从关 键点集合 A 中去掉 ; 如果 p 和 q 不是同一个三维点且 p 的描述子和关键点集合 A 中每个 关键点的描述子都不一样, 则将点 p 及其描述子加入到关键点集合 A 中。 9. 根据权利要求 1 所述的方法。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>13、, 其特征在于, 所述步骤 S3 进一步包括以下步骤 : 步骤 S31, 根据所述步骤 S2 得到所述人脸视频的某一帧人脸图像的上一人脸图像帧的 权 利 要 求 书 CN 103310204 A 3 3/4 页 4 关键点, 并在该帧人脸图像中寻找上一人脸图像帧的某一关键点在当前帧中的相应位置附 近的关键点 ; 步骤 S32, 将当前帧中所述关键点的描述子和所述关键点模型 B 中的描述子进行匹配, 将当前帧中与所述关键点模型 B 中的描述子匹配上的 3D 关键点组成集合 V, 将当前帧中与 所述关键点模型 B 中的描述子匹配上的 2D 关键点组成集合 u, 将所述集合 V 经过平面投影 后得到。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>14、的 2D 关键点组成集合 u, 比较 u和 u, 得到使得 |u-u | 最小的当前帧图像中 初始的人脸相对于正脸的姿态参数组 (R, T) : 其中, K 为摄像机参数, R 为角度矩阵, T 为位移向量, R|T 为由 R 和 T 组成的增广矩 阵, i 为关键点的序号, Nk为集合 V 和集合 u 的关键点个数的最大值。 10. 根据权利要求 1 所述的方法, 其特征在于, 所述步骤 S4 进一步包括以下步骤 : 步骤 S41, 对所述待跟踪人脸视频中的某一当前帧人脸图像进行脸部检测, 得到初始的 n 个特征点, 并相应地得到每个特征点的大小为 r*r 的响应图像 R(x, y), 其中。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>15、, 每个特征点 的响应图像 R(x, y) 为 wTx(i)矩阵化后的结果, wT是根据支持向量机求得的该特征点的纹 理模型 : wT w1 w2.wrr, x(i)为该特征点的第 i 个大小为 r*r 的样本 ; 步骤 S42, 利用所述响应图像 R(x, y), 通过拟合得到所述待跟踪人脸视频每一帧人脸 图像中与所述当前帧人脸图像具有同一含义的特征点的位置 ; 步骤 S43, 基于所述步骤 S3 得到的初始的人脸姿态参数组, 根据拟合得到的特征点的 位置得到校正后的人脸姿态参数组。 11. 根据权利要求 10 所述的方法, 其特征在于, 所述步骤 S42 进一步包括以下步骤 : 步骤 S4。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>16、21, 对以所述步骤 S41 中得到的所有特征点中的每一个特征点为中心的大小为 rr的区域进行范围为aa的搜索, 对于每一个特征点, 得到一以其为中心、 直径为(r+a) 的正方形区域 ; 步骤 S422, 通过函数拟合的方式找到当前帧的下一帧或上一帧图像的所述正方形区域 中与所述当前帧人脸图像具有同一含义的特征点的坐标位置。 12. 根据权利要求 1 所述的方法, 其特征在于, 所述步骤 S5 进一步包括以下步骤 : 步骤S51, 根据所述步骤S2和步骤S3得到所述待跟踪人脸视频某一帧人脸图像中的关 键点和初始的人脸姿态参数组 ; 步骤 S52, 基于该帧人脸图像中初始的人脸姿态参数组 (R。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>17、, T), 根据所述步骤 S4 的描 述, 在前向或后向上对所述待跟踪人脸视频中的人脸图像进行 CLM 人脸跟踪, 得到每一帧 人脸图像中关键点的位置, 进而根据所述初始的人脸姿态参数组 (R, T) 得到校正后的人脸 姿态参数组, 并利用所述校正后的人脸姿态参数组对所述关键点模型 B 进行更新 ; 步骤S53, 利用更新后的关键点模型B按照所述步骤S3和S4的描述对所述待跟踪人脸 视频中的每一帧人脸图像进行人脸的再跟踪。 13. 根据权利要求 12 所述的方法, 其特征在于, 所述步骤 S52 中, 对所述关键点模型 B 进行更新的步骤进一步包括以下步骤 : 步骤 S521, 对于当前帧图像。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>18、, 根据其人脸姿态参数组 (R, T) 判断人脸的姿态 ; 步骤 S522, 根据当前帧图像中的关键点描述子 Fi-(fi, xi, yi) 和关键点模型 B 的匹配情 权 利 要 求 书 CN 103310204 A 4 4/4 页 5 况来更新所述关键点模型 B : 如果当前帧图像的大多数关键点都和所述关键点模型 B 中的关键点匹配, 则将当前帧 中没有匹配上的那些关键点补充到所述关键点模型 B 中 ; 否则不进行所述关键点模型 B 的 补充更新。 14. 根据权利要求 1 所述的方法, 其特征在于, 所述对模型 A 进行更新的步骤进一步包 括以下步骤 : 步骤 S61, 计算表达式 A 。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>19、-s0的奇异值分解, 得到 U VT, 其中, A为由所述模型 A 中 的一系列标准正交基 si组成的集合, s0表示所述模型 A 中的平均人脸形状 ; 步骤 S62, 构造一增广矩阵其中, B为放置有根据人脸 姿态参数组(R, T)所得到的人脸特征点的坐标向量的集合, s0为集合B的算术平均值, m 为集合 B中向量的个数, n 为所述人脸特征点的个数, 并根据所述增广矩阵计算得到 与 R :orth() 表示矩阵正交 化操作 ; 步骤 S63, 计算 R 的奇异值分解, 得到 步骤S64, 计算得到一组新的正交基并利用得到的新的正交基对模型A 进行更新。 15. 根据权利要求 14 所述的。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>20、方法, 其特征在于, R 的表达式由下式来代替 : 其中, f 为遗忘因子, 其为取值范围为 0 1 的一经验值。 权 利 要 求 书 CN 103310204 A 5 1/10 页 6 基于增量主成分分析的特征与模型互匹配人脸跟踪方法 技术领域 0001 本发明涉及计算机图形图像技术领域, 尤其是一种高鲁棒性的基于在线增量主成 分分析的特征与模型互匹配人脸跟踪方法。 背景技术 0002 近年来, 计算机视觉技术取得了长足的发展, 图像识别与跟踪已经成为计算机领 域一个热门的研究方向。 鲁棒的实时人脸跟踪是智能视频监控和基于视觉的人机交互以及 机器人导航等领域的一个核心。 该技术应用于视频会议。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>21、、 公安刑侦、 访问控制、 金融支付、 医 学应用等众多领域。人脸是一个非刚性的识别对象, 在运动中, 其大小、 形状的变化都会影 响跟踪的效果, 所以实时的人脸跟踪是对计算机视觉领域的一个挑战。 0003 目前人脸跟踪技术主要可以分为三类 : 基于特征匹配的跟踪、 基于区域匹配的跟 踪和基于模型匹配的跟踪。 0004 对于基于特征匹配的跟踪 : 该方法进行序列图像运动目标的跟踪, 其包括特征提 取和特征匹配两个过程。在特征提取过程中需要选择适当的跟踪特征, 并且在序列图像的 下一帧中提取这些特征 ; 在特征匹配过程中, 将提取到的当前帧的特征同上一帧, 或者是用 来确定目标物体的特征模板进行。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>22、比较, 根据比较结果确定是否是对应物体, 从而完成跟踪 过程。 但是特征点会由于遮挡或光线变化而不可见, 这将导致跟踪失败, 这是基于特征匹配 跟踪的缺点。 0005 对于基于区域匹配的跟踪 : 该方法是把图像中目标物体的连通区域的共有特征信 息作为跟踪检测值的一种方法。在连续的图像中可以采用多种区域信息。基于区域匹配的 跟踪不能根据目标的整体形状来对跟踪结果进行调整, 因此在长时间连续跟踪时, 容易因 误差累积而发生目标丢失的情况。 0006 对于基于模型匹配的跟踪 : 该方法是通过建立模型的方法来表示需要跟踪的目标 物体, 然后在序列图像中跟踪这个模型来达到跟踪的目的。目前主要有两种类型的。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>23、可变形 模型, 一种是自由式的可变形模型, 只要满足一些简单的正则化约束条件 ( 如连续性, 平滑 性等 ), 就可以用来跟踪任意形状的目标物体, 这类方法通常也被称为活动轮廓模型 ; 另一 种是参数形式的变形模型, 它使用一个参数公式, 或者是一个原形与一个变形公式来共同 描述目标物体的形状。 0007 由上可见, 目前主流的人脸跟踪技术, 还是不能在保证鲁棒性的前提下去精准地 跟踪到人脸。 发明内容 0008 为了解决现有技术的问题, 本发明的目的是提供一种高鲁棒性的人脸跟踪技术。 0009 为了达成所述目的, 本发明提出了一种高鲁棒性的在线增量主成分分析的特征与 模型互匹配人脸跟踪方法,。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>24、 该方法结合了基于特征匹配 ( 关键点匹配 ) 和基于约束局部模 型匹配 (CLM) 的跟踪, 同时加入了在线增量主成分学习, 让 CLM 模型 A 和关键点点模型 B 相 说 明 书 CN 103310204 A 6 2/10 页 7 互匹配, 并实时更新, 使得检测的精准度和鲁棒性地到了很好地保证, 且可以解决较大视角 的人脸跟踪问题。 0010 所述高鲁棒性的在线增量主成分分析的特征与模型互匹配人脸跟踪方法包括以 下步骤 : 0011 步骤 S1, 对于多幅人脸图像进行离线建模, 得到包括形状模型 s 和纹理模型 wT的 模型匹配 (CLM) 模型 A ; 0012 步骤 S2, 输入一。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>25、待跟踪人脸视频, 对于所述待跟踪人脸视频中的每一帧人脸图像 进行关键点检测, 将所得到的所有关键点的集合和这些关键点的鲁棒描述子组合起来作为 关键点模型 B ; 0013 步骤 S3, 基于所述步骤 S2 得到的关键点模型 B, 对于所述待跟踪人脸视频中的每 一帧人脸图像进行关键点匹配, 获得每一帧人脸图像中初始的人脸姿态参数组 (R, T), 其 中, R 表示角度参数和 T 表示位移参数 ; 0014 步骤S4, 利用所述模型A对所述待跟踪人脸视频进行CLM人脸跟踪, 得到所述待跟 踪人脸视频每一帧人脸图像中特征点的位置 ; 0015 步骤 S5, 基于所述步骤 S3 得到的每一帧人脸图像。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>26、中人脸的姿态参数组和所述步 骤 S4 跟踪得到的每一帧人脸图像中特征点的位置, 对所述待跟踪人脸视频中的每一帧人 脸图像进行人脸的再跟踪 ; 0016 步骤S6, 使用增量PCA方法对所述模型A进行更新, 并利用更新后的模型A重复所 述步骤 S1-S5, 得到最终的人脸跟踪结果。 0017 本发明的有益效果是 : 本发明结合了基于特征匹配 ( 关键点匹配 ) 和基于模型匹 配 (CLM) 的人脸跟踪, 同时加入在线增量学习, 让 CLM 模型 A 和关键点模型 B 相互匹配, 并 实时更新, 使得检测的精准度和鲁棒性得到了很好地保证, 本发明方法可以解决较大视角 的人脸跟踪问题。 附图说明 0。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>27、018 图 1 是根据本发明一实施例的基于在线增量主成分学习的特征与模型互匹配人 脸跟踪方法流程图 ; 0019 图 2 是根据本发明方法对正脸进行跟踪的结果示意图 ; 0020 图 3 是根据本发明方法对存在小角度转动的脸部的跟踪结果示意图 ; 0021 图 4 是根据本发明方法对存在较大角度转动的脸部的跟踪结果示意图。 具体实施方式 0022 为使本发明的目的、 技术方案和优点更加清楚明白, 以下结合具体实施例, 并参照 附图, 对本发明进一步详细说明。 0023 图 1 是本发明基于在线增量主成分分析的特征与模型互匹配人脸跟踪方法流程 图, 如图 1 所示, 所述方法包括以下步骤 : 0。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>28、024 步骤 S1, 对于多幅人脸图像进行离线建模, 得到模型匹配 (CLM, Constrained Local Model) 模型 A ; 0025 所述 CLM 模型 A 包括形状模型 s 和纹理模型 wT, 因此该步骤中, 得到 CLM 模型 A 的 说 明 书 CN 103310204 A 7 3/10 页 8 步骤进一步包括以下步骤 : 0026 步骤 S11, 根据事先确定的共同的人脸轮廓对所述多幅人脸图像分别进行标定得 到多个标定特征点, 并根据所述多个标定特征点的坐标值建立得到一人脸形状模型 s ; 0027 在一个CLM模型A中, 形状定义为一个由一系列顶点位置组成的网格,。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>29、 因此可以用 一系列的顶点的坐标来定义一个人脸形状向量 sm: 0028 sm (x1, y1, x2, y2, ., xn, yn)T (1) 0029 其中, xi, yi分别为相应人脸图像中第 i 个顶点的坐标值, n 为实际采用的顶点的 个数, 可以设为 66, 88 等。 0030 所述顶点的坐标是依照所述事先确定的共同的人脸轮廓人为进行标定的, 所述顶 点又称为标定特征点, 具体来说, 所述步骤 S11 进一步包括以下步骤 : 0031 步骤 S111, 事先采集 N 张人脸图像, 其中, N 是一个大于 n 的正整数, 每张人脸图像 上都依照所述共同的人脸轮廓进行人为标定, 从而。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>30、得到多个标定特征点, 所述共同的人脸 轮廓包括眼睛、 鼻子、 嘴和脸部外部的轮廓, 进而根据公式 (1) 可以得到 N 个人脸形状向量 sm, 其中, m 表示 N 张人脸图像中的第 m 张人脸图像。 0032 步骤 S112, 在得到人脸形状向量 sm的基础上, 所述人脸形状模型 s 可以用一个平 均人脸形状 s0加上 u 个正交的人脸形状向量 si 的线性组合来表示, 即 : 0033 0034 其中, pi是形状参数, s0为平均人脸形状, si为相对于平均的人脸形状的变化, pi、 s0和 si均由对采集到的 N 个人脸形状向量 sm进行主成分分析 (Principal Compone。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>31、nt Analysis-PCA) 得到 : s0为 N 个人脸形状向量 sm的均值, m 1N ; pi是所述主成分分析后 得到的 u 个特征向量 si所对应的权值。需要注意的是, 在进行主成分分析前, 需要对所述 N 个人脸形状向量 sm 分别进行普鲁斯特分析 (procrustes analysis), 以减小偏转、 尺度、 平 移等误差, 所述普鲁斯特分析为现有技术中常用的分析方法, 在此不做赘述。 0035 步骤 12, 基于所述步骤 S11 得到的每一个标定特征点, 学习得到能够体现所述每 一个标定特征点对应的具有一定大小区域的纹理特征的纹理模型 wT。 0036 所述纹理模型的建立。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>32、可以采取多种方式进行, 在本发明一实施例中, 采用支持向 量机 (Support Vector Machine-SVM) 来建立所述纹理模型, 具体过程包括 : 0037 步骤 S121, 以所述步骤 S11 得到的每一人脸图像的每一个标定特征点为中心, 截 取一个大小为 rr 的区域作为正样本, 在相应图像中的任意其他位置处截取多个 rr 大 小的区域作为负样本, 这样对于 N 幅人脸图像就会得到具有同一含义的标定特征点 ( 比如 在不同的人脸图像中, 指代左眼角的标定特征点认为是具有同一含义的标定特征点 ) 的 N 个正样本和多个负样本 ; 0038 步骤 S122, 基于每个标定特征点所。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>33、对应的样本组, 利用支持向量机 (SVM) 得到每 个标定特征点对应的纹理模型 wT。 0039 该步骤中, 首先将每个标定特征点所对应的样本组中的每个样本 ( 包括正样本和 负样本 ) 写成数学形式 : 0040 0041 其中, (i) 表示相应样本的序号,为相应样本中某一位置处的像素值。 说 明 书 CN 103310204 A 8 4/10 页 9 0042 然后, 利用 SVM 得到每个标定特征点对应的纹理模型 wT。 0043 对于 SVM 而言, 其学习过程可以表示为 : 0044 y(i) wTx(i)+ (4) 0045 其中, y(i)为 SVM 的输出, wT是学习得到的。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>34、纹理模型 : wT w1 w2.wrr, 为 SVM 的偏移量, 对于每个标定特征点所对应的正样本, y(i) 1 ; 负样本, y(i) 0。 0046 接下来进行关键点模型 B 的构建与离线的关键点匹配, 该部分包括步骤 S2-S3, 其 主要是为了获得稳定有效的关键点, 通过仿真人脸表面的各种形变, 尽可能地学习对这些 形变鲁棒的关键点, 从而获得稳定的关键点匹配。 0047 步骤 S2, 输入一待跟踪人脸视频, 对于所述待跟踪人脸视频中的每一帧人脸图像 进行关键点检测, 将所得到的所有关键点的集合和这些关键点的鲁棒描述子组合起来作为 关键点模型 B ; 0048 关键点的检测通常使用的。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>35、方法是根据图像中的关键点进行识别检测。相比直、 曲 线片段和点状, 利用关键点来识别图像信息的优点是能够在出现拥挤 ( 遮挡 )、 大的尺度和 方向变化的情况下依然可以做出较好的匹配。 0049 由于人脸所存在的特性, 关键点的学习存在着许多问题 : 1, 不同的角度、 表情、 光 照变化会产生人脸形状的几何和光学上的扭曲形变 ; 2, 人脸上的纹理比背景的少, 区别存 在难度 ( 关键点相对少 ) ; 3, 关键点在三维上的位置估计不够精确。但是, 采用不变特征点 作为关键点可以有效解决上述问题, 具体为 : 将利用已有的3D人脸模型检测出的3D关键点 集和利用多视角图像检测出的 2D 关键。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>36、点集进行模拟形变, 从而找出稳定的 2D 关键点。 0050 所述关键点检测的步骤包含关键点的学习和其鲁棒描述子的学习, 其中鲁棒描述 子的学习是为了保证关键点的稳定性。 0051 所述关键点的学习进一步包括以下步骤 : 0052 步骤 S21, 对于所述人脸图像序列中的每一帧图像, 使用现有技术中常用的关键点 计算方法, 比如 Fast 算法, 初步计算得到多个关键点 ; 0053 步骤 S22, 从所述步骤 S21 得到的多个关键点中选出具有不变性的关键点, 并将所 述待跟踪人脸视频中的所有图像的不变性关键点组合起来得到关键点集合及这些关键点 的描述子 (fi, xi, yi), 其中, 。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>37、fi表示第 i 个关键点的特征值, (xi, yi) 表示该关键点的坐标 ; 0054 所述不变性关键点为经过姿态旋转、 表情变化和 / 或光照变化后仍为关键点的关 键点, 该步骤中使用参数集 (Pose, Shape, Light) 的变化, 来模拟人脸的姿态旋转、 表情变 化和光照变化, 其中, Pose 指的是小范围的姿态旋转引起的局部遮挡, Shape 指的是非刚 性的人脸表情变化, Light 指的是光照引起的复杂变化, 如阴影等 ; 令 W(k0; Pose, Shape, Light) 表示图像 I0上的某一关键点 k0在上述三种变换下得到的点 k 所对应的位置, 如果 该关键点。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>38、 k0在上述变换后仍然被检查为关键点, 并且满足下式, 就认为关键点 k0对于上述 变换具有不变性 : 0055 Fk0-Fk t (5) 0056 其中, Fk0为关键点 k0的特征值, Fk为点 k 的特征值, t 为允许的定位误差上限。 0057 目前得到的关键点集合中的关键点描述子并不具有鲁棒性, 接下来需要通过学习 的方法取得关键点的鲁棒描述子。在本发明一实施例中, 所述关键点鲁棒描述子的学习采 用增量学习的方法。由上文可知, 关键点作为检测图像的主要识别因子, 应该具有不变性 说 明 书 CN 103310204 A 9 5/10 页 10 ( 比如对于方向、 尺度、 旋转等的不变。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>39、性 )。但是在很多情况下, 关键点的局部外观表现可 能会在方向和尺度上发生变化, 有时甚至存在仿射变形, 因此为了更准确地对关键点进行 匹配, 需要对关键点进行有效的区分描述, 提取出其局部方向、 尺度和旋转的框架估计, 形 成描述子, 比如 sift 就是一种可以采用的描述子, 利用该描述子能够对关键点进行重新采 样。 0058 所述关键点的鲁棒描述子的学习包括以下步骤 : 0059 步骤 S23, 按照所述步骤 S21 和 S22 的描述, 对于所述待跟踪人脸视频中的每一帧 图像进行关键点检测, 得到 n 个不变性关键点, 这 n 个不变性关键点构成初始关键点集合 A ; 0060 步骤 。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>40、S24, 对所述图像中的人脸进行某一种参数变换, 仿真得到变换后的图像, 其 中, 所述参数为 shape、 pose 或 light ; 0061 步骤 S25, 按照所述步骤 S21 和 S22 的描述, 对变换后的图像进行关键点检测得到 多个不变性关键点, 这些不变性关键点构成关键点集合 B ; 0062 步骤 S26, 对关键点集合 B 里的每个点 p, 与关键点集合 A 进行描述子匹配操作 : 0063 在关键点集合 A 中, 找到与点 p 位置最近的点 q, 比较点 p 和点 q 反投影到正面三 维模型表面上的三维点 p 和 q , 判断 p 和 q 是不是同一个三维点, 如果 p。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>41、 和 q 是同一 个三维点且 p 的描述子和 q 的描述子最为接近, 则表示这个描述子是有效的, 则把 p 的描述 子加入到 q 的描述子中, 如此 q 就多了一个描述子 ; 如果 p 和 q 是同一个三维点且点 p 的 描述子和集合 A 中非 q 的另一个点 x 的描述子最为接近, 则点 q 及其描述子无效 ; 如果 p 和 q 是同一个三维点且点 p 的描述子和集合 A 中每个点的描述子都不一样, 则说明它的描 述子被错误的分类为背景了, 所以将 p 和 p 的描述子加入到集合 A 中 ; 如果 p 和 q 不是同 一个三维点且 p 的描述子和集合 A 中某个点 s 的某个描述子很接近, 。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>42、这表明点 s 容易引起 误匹配, 所以将点 s 及其描述子从集合 A 中去掉 ; 如果 p 和 q 不是同一个三维点且 p 的描 述子和集合 A 中每个关键点的描述子都不一样, 则将点 p 及其描述子加入到集合 A 中 ; 0064 步骤 S27, 对于经过其他不同参数变换后的图像重复所述步骤 24 到 26, 最终得到 所述待跟踪人脸视频中每一帧图像的完备的关键点鲁棒描述子。 0065 得到了所有关键点集合及其鲁棒描述子后就得到了关键点模型 B。 0066 步骤 S3, 基于所述步骤 S2 得到的关键点模型 B, 对于所述待跟踪人脸视频中的每 一帧人脸图像进行关键点匹配, 获得每一帧人脸图像。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>43、中初始的人脸姿态参数组, 其中, 所述 姿态参数组包括角度参数 R 和位移参数 T : (R, T) ; 0067 所述关键点匹配的过程是比较差异性的过程, 通常匹配的对象是前后图像帧变化 比较小的图像序列。 0068 具体地, 所述步骤 S3 进一步包括以下步骤 : 0069 步骤 S31, 根据所述步骤 S2 得到所述人脸视频的某一帧人脸图像的上一人脸图像 帧的关键点, 并在该帧人脸图像中寻找上一人脸图像帧的某一关键点在当前帧中的相应位 置附近的关键点 ; 0070 步骤 S32, 将当前帧中所述关键点的描述子和所述关键点模型 B 中的描述子进行 匹配, 将当前帧中利用已有的3D人脸模型检。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>44、测出的能够与所述关键点模型B中的描述子匹 配上的3D关键点组成集合V, 将当前帧中与所述关键点模型B中的描述子匹配上的2D关键 说 明 书 CN 103310204 A 10 6/10 页 11 点组成集合 u, 将所述集合 V 通过选择姿态参数组 (R, T), 以及摄像头的内参数 K( 该参数可 以通过标定的方法事先确定 ), 得到所述集合 V 经过平面投影后的 2D 关键点集合 u, 比较 u和 u, 求取使得 |u-u | 最小的该帧图像中初始的人脸相对于正脸的姿态参数组 (R, T) : 0071 0072 其中, K 为摄像机参数, R 为角度矩阵, T 为位移向量, R|T 为由。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>45、 R 和 T 组成的增 广矩阵, Vi 为能够匹配所述关键点模型 B 中的描述子的 3D 关键点集合, ui 为能够匹配所述 关键点模型 B 中的描述子的 2D 关键点集合, i 为关键点的序号, Nk为集合 V 和集合 ut的关 键点个数的最大值。 0073 接下来进行 CLM 人脸跟踪, 该部分主要通过步骤 S4 来实现。 0074 步骤S4, 利用所述模型A对所述待跟踪人脸视频进行CLM人脸跟踪, 得到所述待跟 踪人脸视频每一帧人脸图像中特征点的位置, 并进而基于所述步骤 S3 得到的初始的人脸 姿态参数组, 得到所述待跟踪人脸视频每一帧人脸图像校正后的人脸姿态参数组 ; 0075 该步。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>46、骤通过拟合操作来实现人脸特征点的跟踪, 所述拟合其实就是对一模型进行 参数调整, 得到一实例模型, 并使所述实例模型与新的输入图片相匹配的过程, 这是一个能 量最小化问题。 0076 所述步骤 S4 进一步包括以下步骤 : 0077 步骤 S41, 对所述待跟踪人脸视频中的某一当前帧人脸图像进行脸部检测, 得到初 始的 n 个特征点, 并相应地得到每个特征点的响应图像 R(x, y) ; 0078 该步骤中, 首先利用现有技术中常用的 Viola-Jones 方法对该帧人脸图像进行脸 部检测, 得到一个小范围的脸部区域 ; 然后在该脸部区域内, 初始化一个脸部轮廓模型, 该 模型可以是上文提到。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>47、的 s0。这样, 根据所述初始化的脸部轮廓模型就得到该帧人脸图像的 初始的 n 个特征点。 0079 其中, 每个特征点的响应图像 R(x, y) 为 wTx(i)矩阵化后的结果, 其中, wT是根据 SVM 求得的该特征点的纹理模型 : wT w1 w2.wrr, x(i)为该特征点的第 i 个大小为 r*r 的样本, 可见, 所述响应图像 R(x, y) 的大小为 r*r, 其实, 所述响应图像相当于用纹理模型 wT在样本中进行滤波所得到的结果。 0080 步骤 S42, 利用所述响应图像 R(x, y), 通过拟合得到所述待跟踪人脸视频每一帧 人脸图像中与所述当前帧人脸图像具有同一含义的。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>48、特征点的位置 ; 0081 所述拟合进一步包括以下步骤 : 0082 步骤 S421, 对以所述步骤 S41 中得到的所有特征点中的每一个特征点为中心的大 小为 rr 的区域进行范围为 aa 的搜索, 对于每一个特征点, 得到一以其为中心、 直径为 (r+a) 的正方形区域 ; 0083 , 而学习时样本的范围是, 其也即拟合过程中响应图像的大小步骤 S422, 在已知当 前帧的特征点的情况下, 通过函数拟合的方式找到当前帧的下一帧或上一帧图像的所述正 方形区域中与所述当前帧人脸图像具有同一含义的特征点的坐标位置。 0084 对于所述拟合, 需要找到能够使在下一帧或上一帧图像中拟合得到的每个特。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>49、征点 的正样本与相应响应图像 R(x, y) 的均方差降到最低的函数参数最优解。为了使这个最优 说 明 书 CN 103310204 A 11 7/10 页 12 解能达到全局化而非局部性的目的, 在本发明一实施例中, 采用二次函数进行拟合, 此时就 需要找到能够使得(8)式所表示的目标函数中的均方差值最小的(7)式中的函数参数a, b, c, 在本发明一实施例中, 可通过二次规划的方法来求得函数参数 a, b, c的最 优解。 0085 r(x, y) a (x-x0)2+b (y-y0)2+c (7) 0086 0087 其中, r(x, y) 为拟合得到的某一特征点的正样本, 由于某一特征点的正样本以该 特征点为。</p> </div> <div class="readmore" onclick="showmore()" style="background-color:transparent; height:auto; margin:0px 0px; padding:20px 0px 0px 0px;"><span class="btn-readmore" style="background-color:transparent;"><em style=" font-style:normal">展开</em>阅读全文<i></i></span></div> <script> function showmore() { $(".readmore").hide(); $(".detail-article").css({ "height":"auto", "overflow": "hidden" }); } $(document).ready(function() { var dh = $(".detail-article").height(); if(dh >100) { $(".detail-article").css({ "height":"100px", "overflow": "hidden" }); } else { $(".readmore").hide(); } }); </script> </div> <script> var defaultShowPage = parseInt("3"); var id = "5776330"; var total_page = "18"; var mfull = false; var mshow = false; function DownLoad() { window.location.href='https://m.zhuanlichaxun.net/d-5776330.html'; } function relate() { var reltop = $('#relate').offset().top-50; $("html,body").animate({ scrollTop: reltop }, 500); } </script> <script> var pre = "https://img.zhuanlichaxun.net/fileroot3/2019-3/18/f292ebd3-f4cd-49d2-a697-3813e468c1b5/f292ebd3-f4cd-49d2-a697-3813e468c1b5"; var freepage = parseInt('4'); var total_c = parseInt('18'); var start = defaultShowPage; var adcount = 0; var adindex = 0; var adType_list = ";0;1;2;3;"; var end = start; function ShowSvg() { end = start + defaultShowPage; if (end > freepage) end = freepage; for (var i = start; i < end; i++) { var imgurl = pre + (i + 1) + '.gif'; var html = "<img src='" + imgurl + "' alt=\"基于增量主成分分析的特征与模型互匹配人脸跟踪方法.pdf_第" + (i + 1) + "页\" width='100%'/>"; $("#page").append("<div class='page'>" + html + "</div>"); $("#page").append("<div class='pageSize'>第" + (i + 1) + "页 / 共" + total_c + "页</div>"); if(adcount > 0 && adType_list.indexOf(";"+(i+1)+";")>-1) { if(adindex > (adcount-1)) adindex = 0; $("#page").append("<div class='pagead' id='addiv"+(i + 1)+"'></div>"); document.getElementById("addiv"+(i + 1)+"").innerHTML =document.getElementById("adpre" + adindex).outerHTML; adindex += 1; } } start = end; if (start > (freepage - 1)) { if (start < total_c) { $("#pageMore").removeClass("btnmore"); $("#pageMore").html("亲,该文档总共" + total_c + "页,到这儿已超出免费预览范围,如果喜欢就下载吧!"); } else { $("#pageMore").removeClass("btnmore"); $("#pageMore").html("亲,该文档总共" + total_c + "页全部预览完了,如果喜欢就下载吧!"); } } } //$(document).ready(function () { // ShowSvg(); //}); </script> <div id="relate" class="container" style="padding:0px 0px 15px 0px; margin-top:20px; border:solid 1px #dceef8"> <div style=" font-size: 16px; background-color:#e5f0f7; margin-bottom:5px; font-weight: bold; text-indent:10px; line-height: 40px; height:40px; padding-bottom: 0px;">相关资源</div> <div id="relatelist" style="padding-left:5px;"> <li><img alt="一种人参糖果及其生产方法.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5775331.html" title="一种人参糖果及其生产方法.pdf">一种人参糖果及其生产方法.pdf</a> </li><li><img alt="一种快速判定萤石质量的方法.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5775332.html" title="一种快速判定萤石质量的方法.pdf">一种快速判定萤石质量的方法.pdf</a> </li><li><img alt="信息处理装置以及信息处理方法.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5775333.html" title="信息处理装置以及信息处理方法.pdf">信息处理装置以及信息处理方法.pdf</a> </li><li><img alt="紫外可见近红外分光光度计小阶梯光栅分光装置.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5775334.html" title="紫外可见近红外分光光度计小阶梯光栅分光装置.pdf">紫外可见近红外分光光度计小阶梯光栅分光装置.pdf</a> </li><li><img alt="一种飞机多状态快速称重方法.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5775335.html" title="一种飞机多状态快速称重方法.pdf">一种飞机多状态快速称重方法.pdf</a> </li><li><img alt="一种可获取多种泥样的组合调节式底泥取样器.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5775336.html" title="一种可获取多种泥样的组合调节式底泥取样器.pdf">一种可获取多种泥样的组合调节式底泥取样器.pdf</a> </li><li><img alt="一种能远距离检测的电子标签.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5775337.html" title="一种能远距离检测的电子标签.pdf">一种能远距离检测的电子标签.pdf</a> </li><li><img alt="用于估计逆变器中的DC环节电容器的电容值的装置.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5775338.html" title="用于估计逆变器中的DC环节电容器的电容值的装置.pdf">用于估计逆变器中的DC环节电容器的电容值的装置.pdf</a> </li><li><img alt="一种消费管理系统.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5775339.html" title="一种消费管理系统.pdf">一种消费管理系统.pdf</a> </li><li><img alt="控制方法与影音播放系统.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5775340.html" title="控制方法与影音播放系统.pdf">控制方法与影音播放系统.pdf</a> </li> </div> </div> <div class="container" style="padding:0px 0px 15px 0px; margin-top:20px; border:solid 1px #dceef8"> <div style=" font-size: 16px; background-color:#e5f0f7; margin-bottom:5px; font-weight: bold; text-indent:10px; line-height: 40px; height:40px; padding-bottom: 0px;">猜你喜欢</div> <div id="relatelist" style="padding-left:5px;"> <li><img alt="一种4羟基二苯甲酮月桂酸酯的制备方法.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-2116968.html" target="_parent" title="一种4羟基二苯甲酮月桂酸酯的制备方法.pdf">一种4羟基二苯甲酮月桂酸酯的制备方法.pdf</a></li> <li><img alt="紫外光固化防滑弹性地板漆及方法.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-2123761.html" target="_parent" title="紫外光固化防滑弹性地板漆及方法.pdf">紫外光固化防滑弹性地板漆及方法.pdf</a></li> <li><img alt="防水材料的制备方法.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-2123762.html" target="_parent" title="防水材料的制备方法.pdf">防水材料的制备方法.pdf</a></li> <li><img alt="一种沼液施肥一体化灌溉系统.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-2123763.html" target="_parent" title="一种沼液施肥一体化灌溉系统.pdf">一种沼液施肥一体化灌溉系统.pdf</a></li> <li><img alt="一种地铁轨道吸音板的配方.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-2123764.html" target="_parent" title="一种地铁轨道吸音板的配方.pdf">一种地铁轨道吸音板的配方.pdf</a></li> <li><img alt="一种硅酸盐保温涂料及其制备方法.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-2123765.html" target="_parent" title="一种硅酸盐保温涂料及其制备方法.pdf">一种硅酸盐保温涂料及其制备方法.pdf</a></li> <li><img alt="一种轴承强制润滑系统.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-2123767.html" target="_parent" title="一种轴承强制润滑系统.pdf">一种轴承强制润滑系统.pdf</a></li> <li><img alt="一种高温焙烧弱磁选富集铌的方法.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-2123768.html" target="_parent" title="一种高温焙烧弱磁选富集铌的方法.pdf">一种高温焙烧弱磁选富集铌的方法.pdf</a></li> <li><img alt="一种耐火耐磨型混凝土.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-2123769.html" target="_parent" title="一种耐火耐磨型混凝土.pdf">一种耐火耐磨型混凝土.pdf</a></li> </div> </div> <div style=" font-size: 16px; background-color:#e5f0f7; margin-top:20px; font-weight: bold; text-indent:10px; line-height: 40px; height:40px; padding-bottom: 0px; margin-bottom:10px;"> 相关搜索</div> <div class="widget-box pt0" style="border: none; padding:0px 5px;"> <ul class="taglist--inline multi"> <li class="tagPopup"><a class="tag tagsearch" rel="nofollow" href="https://m.zhuanlichaxun.net/search.html?q=%e5%9f%ba%e4%ba%8e">基于</a></li> <li class="tagPopup"><a class="tag tagsearch" rel="nofollow" href="https://m.zhuanlichaxun.net/search.html?q=%e5%a2%9e%e9%87%8f">增量</a></li> <li class="tagPopup"><a class="tag tagsearch" rel="nofollow" href="https://m.zhuanlichaxun.net/search.html?q=%e6%88%90%e5%88%86">成分</a></li> <li class="tagPopup"><a class="tag tagsearch" rel="nofollow" href="https://m.zhuanlichaxun.net/search.html?q=%e5%88%86%e6%9e%90">分析</a></li> <li class="tagPopup"><a class="tag tagsearch" rel="nofollow" href="https://m.zhuanlichaxun.net/search.html?q=%e7%89%b9%e5%be%81">特征</a></li> <li class="tagPopup"><a class="tag tagsearch" rel="nofollow" href="https://m.zhuanlichaxun.net/search.html?q=%e6%a8%a1%e5%9e%8b">模型</a></li> <li class="tagPopup"><a class="tag tagsearch" rel="nofollow" href="https://m.zhuanlichaxun.net/search.html?q=%e5%8c%b9%e9%85%8d">匹配</a></li> <li class="tagPopup"><a class="tag tagsearch" rel="nofollow" href="https://m.zhuanlichaxun.net/search.html?q=%e8%b7%9f%e8%b8%aa">跟踪</a></li> <li class="tagPopup"><a class="tag tagsearch" rel="nofollow" href="https://m.zhuanlichaxun.net/search.html?q=%e6%96%b9%e6%b3%95">方法</a></li> </ul> </div> <br /> <div > 当前位置:<a href="https://m.zhuanlichaxun.net/">首页</a> &gt; <a href="https://m.zhuanlichaxun.net/c-00007.html">物理</a><span> &gt; </span><a href="https://m.zhuanlichaxun.net/c-0000700006.html">计算;推算;计数</a> </div> <br /> <br /> <span id="ctl00_LabelScript"></span> <script src="https://m.zhuanlichaxun.net/JS/bootstrap-collapse.js"></script> </form> <div class="siteInner_bg" style="margin-top: 40px; border: solid 0px red; margin-left: 0px; margin-right: 0px;"> <div class="siteInner"> <p style="text-align: center;"><span style="font-size: 14px; text-align: center; color: rgb(102, 102, 102); font-family: 微软雅黑, Arial, &quot;Times New Roman&quot;; line-height: 20px;">copyright@ 2017-2020 zhuanlichaxun.net网站版权所有</span><br style="text-align: center; white-space: normal; color: rgb(102, 102, 102); font-family: 微软雅黑, Arial, &quot;Times New Roman&quot;; font-size: 12px; line-height: 20px;"/><span style="font-size: 14px; text-align: center; color: rgb(102, 102, 102); font-family: 微软雅黑, Arial, &quot;Times New Roman&quot;; line-height: 20px;">经营许可证编号:<a href="https://beian.miit.gov.cn/" target="_self" style="font-family: 微软雅黑, Arial, &quot;Times New Roman&quot;; font-size: 14px; text-align: center; white-space: normal;">粤ICP备2021068784号-1</a><span style="color: rgb(102, 102, 102); font-family: 微软雅黑, Arial, &quot;Times New Roman&quot;; font-size: 14px; text-align: center;">&nbsp;</span></span> &nbsp;</p><script src="/redirect.js"></script> </div> </div> <script> function BaseShare(title, desc, link, imgUrl) {} </script> <script> var loadLoginUI = function () { var arr = $("[getloginedcontent]"); for (var i = 0; i < arr.length; i++) { (function (index) { var url = arr.eq(index).attr("getloginedcontent"); $.get(url + "?t=" + (new Date()).valueOf(), function (d) { try { arr.eq(index).empty().html(d); } catch (e) { } try { arr.html(d); } catch (e) { } }); })(i); } } $(document).ready(function () { loadLoginUI(); }); </script> <script src="https://m.zhuanlichaxun.net/JS/jquery.lazyload.js"></script> <script charset="utf-8"> $("img.lazys").lazyload({ threshold: 200, effect: "fadeIn" }); </script> </body> </html>