《一种基于时空局部描述子的真假笑识别方法.pdf》由会员分享,可在线阅读,更多相关《一种基于时空局部描述子的真假笑识别方法.pdf(15页珍藏版)》请在专利查询网上搜索。
1、(10)申请公布号 CN 103886304 A (43)申请公布日 2014.06.25 CN 103886304 A (21)申请号 201410133803.4 (22)申请日 2014.04.03 G06K 9/00(2006.01) G06K 9/62(2006.01) (71)申请人 北京大学深圳研究生院 地址 518055 广东省深圳市南山区西丽深圳 大学城北京大学校区 (72)发明人 刘宏 吴平平 (74)专利代理机构 北京君尚知识产权代理事务 所 ( 普通合伙 ) 11200 代理人 余长江 (54) 发明名称 一种基于时空局部描述子的真假笑识别方法 (57) 摘要 本发明提。
2、供一种真假笑识别方法, 考虑脸部 的不同区域对识别真假笑做出不同的贡献, 提出 了一种柔性面部子区域分割方法。考虑笑容过程 中不同状态对真假笑做出的不同贡献, 提出了一 种笑容时间域分割方法。考虑真笑和假笑的局部 特征信息并真笑假笑各自的共同特点, 提出了一 种具有判别信息的局部时空描述子。运用基于外 观的特征提取方法, 克服了基于几何特征的真假 笑识别方法过度依赖于面部几何特征的弱点, 充 分挖掘真笑和假笑各自提取的局部特征的共性, 使得两类笑容的类间差距增大, 类内差距缩小, 从 而提高识别的精确度。 (51)Int.Cl. 权利要求书 3 页 说明书 8 页 附图 3 页 (19)中华人。
3、民共和国国家知识产权局 (12)发明专利申请 权利要求书3页 说明书8页 附图3页 (10)申请公布号 CN 103886304 A CN 103886304 A 1/3 页 2 1. 一种基于时空局部描述子的真假笑识别方法, 包括如下步骤 : 1) 对笑容视频序列进行可调节的面部子区域分割, 得到面部子区域卷, 所述面部子区 域卷包括 5 个子区域卷, 分别是左眼子区域卷, 右眼子区域卷, 左面颊子区域卷, 右面颊子 区域卷以及唇部子区域卷 ; 2) 将以上得到的各个子区域卷进行时间域的划分, 将各个子区域卷划分为起始过程段 块, 保持过程段块以及衰减过程段块 ; 2-1) 用笑容检测器检测。
4、每一帧的笑容强度, 并将每一帧的笑容强度作归一化 ; 2-2) 根据设定的强度阈值 , 划分出笑容的起始过程段, 保持过程段以及衰减过程段, 得到起始过程段块, 保持过程段块以及衰减过程段块 ; 3) 在以上经过时空划分的块上通过具有判别信息的时空局部描述子得到真笑和假笑 的特征向量, 3-1) 计算时空局部描述子的主模式集合 ; 3-2) 分别对真笑类和假笑类中各个样本的主模式集合取交集 ; 3-3) 对真笑类和假笑类主模式集合交集取并集, 得到真笑和假笑的特征向量 ; 4) 将步骤 3) 中的得到的特征向量输入 SVM 分类器训练 ; 5) 待识别的笑容输入已通过步骤 1) 至 3) 得到。
5、特征向量训练的 SVM 分类器, 得到识别 结果。 2. 如权利要求 1 所述的方法, 其特征在于, 步骤 1) 分以下 6 个分步骤完成 : 1-1) 检测并跟踪面部区域的5个基准点, 分别是左眼中心点S1, 右眼中心点S2, 左唇角 S3, 右唇角 S4, 鼻尖点 S5 ; 1-2) 计算左眼中心点 S1 和右眼中心点 S2 连线的中点 S6, 左眼中心点 S1 和左唇角 S3 连线的中点 C1 以及右眼中心点 S2 和右唇角 S4 连线的中点 C2 ; 1-3) 计算左眼中心点 S1 与右眼中心点 S2 的距离 l1=|S1-S2| 以及点 S6 与鼻尖点 S5 之间的距离 l2=|S6。
6、-S5| ; 1-4) 分别裁剪出左眼子区域 R1, 右眼子区域 R2, 左面颊子区域 R3, 右面颊子区域 R4 以 及唇部子区域 R5 ; 1-5) 分别形成左眼子区域卷 V1, 右眼子区域卷 V2, 左面颊子区域卷 V3, 右面颊子区域卷 V4以及唇部子区域卷 V5; 1-6) 分别分割左眼子区域卷 V1, 右眼子区域卷 V2, 左面颊子区域卷 V3, 右面颊子区域卷 V4以及唇部子区域卷 V5。 3. 如权利要求 2 所述的方法, 其特征在于, 步骤 1-4) 中分别以 S1、 S2 为中心点, 1l1 为宽, 2l2为高, 1=2=0.8, 裁剪出子区域 R1 和子区域 R2 ; 分。
7、别以 C1、 C2 为中心点, 1l1 为宽, 2l2为高, 1=0.6, 2=0.8, 裁剪处子区域 R3 和子区域 R4 ; 以 S3, S4 和 S5 点为基 准裁剪出子区域 R5。 4. 如权利要求 2 所述的方法, 其特征在于, 步骤 1-5)中子区域卷 Vj的形成方式 为 : j=1,.,5, 其中 k 表示整个笑容序列所具有的帧数 ; 步骤 1-6) 中将子区域卷 V1, 子区域卷 V2, 子区域卷 V3和子区域卷 V4分别分割为 22 的子区域卷 : Vj,r|r=1,.,4,j=1,.,4, 将子区域卷 V5分割为 24 的子区域卷 : V5,t|t=1,.,4。 权 利 要。
8、 求 书 CN 103886304 A 2 2/3 页 3 5. 如权利要求 1 所述的方法, 其特征在于, 步骤 2-1) 中每一帧的笑容强度作归一化的 计算方法为 : 其中, 是当前检测到笑容特征个数, M和N分别是检测到的最多和最少的笑容特征个 数。 6. 如权利要求 1 所述的方法, 其特征在于, 步骤 2-2) 中所述强度阈值 =0.9。 7. 如权利要求 1 所述的方法, 其特征在于, 步骤 3-1) 中时空局部描述子用以表达中心 像素点与领域内像素点的符号比较 S, 并添加与领域内像素点的幅度比较 M 以及与全部像 素点均值的比较 C。局部不同 dp=gp-gc, P 为邻域的像。
9、素个数, R 为半径, gc为窗口内中心像 素的灰度值, dp分解为符号和幅度内容如下 : dp=sp*mp, sp=sgn(dp), mp=|dp| 符号比较 S, 幅度比较 M 以及全部像素点均值的比较 C 三个算子的计算公式如下 : CLBPCP,R=t(gc,cl) 其中, P 为邻域的像素个数, R 为半径, gc为窗口内中心像素的灰度值, c 是自适应阈值, cl是整个图像的平均灰度值。 8. 如权利要求 1 或 7 任一项所述的方法, 其特征在于, 步骤 3-1) 中计算主模式集合的 公式为 : Ju=argmin|Ju| 其中, Ju表示主要模式集合, |Ju| 表示模式集合 。
10、Ju中的元素个数, Pu,表示模式类型 在 u 平面上出现的次数, u=1 表示 XY 平面, u=2 表示 XT 平面, u=3 表示 YT 平面。 9. 如权利要求 1 所述的方法, 其特征在于, 步骤 3-2) 中分别对真笑类和假笑类中各个 样本的主模式集合取交集的公式如下 : 权 利 要 求 书 CN 103886304 A 3 3/3 页 4 其中JT和JF分别表示真笑类和假笑类中各个样本的主模式集合的交集, 真笑类中有nT 个样本, 假笑类中有 nF个样本,和分别表示来自 u 平面的第 n 个样本的符号和幅度 的主模式集合。 10.如权利要求1所述的方法, 其特征在于, 步骤3-3。
11、) 对真笑类和假笑类主模式集合交 集取并集的公式如下 : 其中, B 是分割的块的总数。 权 利 要 求 书 CN 103886304 A 4 1/8 页 5 一种基于时空局部描述子的真假笑识别方法 技术领域 0001 本发明涉及信息技术领域, 尤其涉及应用在人机交互, 心理、 行为分析领域的自动 表情识别技术, 具体涉及一种基于时空局部描述子的真假笑识别方法。 背景技术 0002 人脸表情在日常交流中起着非常重要的作用, 心理学研究表明, 如果把人们交流 时传递的信息进行分析, 人们所说的话语信息占了 7%, 语调信息占了 38%, 而表情信息占到 了 55%。笑容是人类最常见的情感表露方式。
12、, 因其多样性, 一个笑容常暗示着人的不同内心 状态高兴、 感谢、 礼貌、 满意等等。 笑容含有丰富的人体行为信息, 是人类情感和智能重 要的载体, 因此, 运用计算机或机器人自动理解和识别笑容, 会大大提高人机交互能力和机 器智能水平。 0003 在以往表情识别的研究工作中, 大多数表情识别都是基于实验室环境下的, 也就 是说, 表情识别所用的数据库是在特定条件下所建立, 并且数据库中的表情不是由人类内 心情感触发自然而然所产生, 而是实验环境下摆出来的。 目前研究表明, 实验环境下人为摆 出来的表情的识别难度远小于人类自然流露出的表情的识别难度。 0004 真假笑识别即识别所发出的笑容是自。
13、发的还是摆出的, 隶属于人脸表情识别领 域。人脸表情识别分为两种 : 一种是基于静态图片的, 另一种是基于动态视频序列的。基 于动态视频序列的表情识别不仅提取空间信息, 同时也可以提取其中随时间变化的动态信 息, 而此动态信息对于真假笑识别来说常常是至关重要的。因此通常真假笑的识别都是基 于动态视频序列的。 0005 目前真假笑识别的方法大致分为基于几何特征的方法和基于外观特征的方法以 及两种方法的混合。前一种方法主要检测和跟踪面部的基准点, 再通过计算这些基准点之 间的距离、 角度以及相邻帧之间对应基准点的运动速度, 变化幅度等等来提取特征。 后一种 方法一种是全局外观特征方法, 另一种是局。
14、部外观特征的方法, 这两种方法都是直接从图 像灰度数据出发。基于全局外观特征的方法, 将整个面部图像看作一个整体来提取特征, 如, 主分量分析 (PCA) 离散余弦变换 (DCT) 等, 而基于局部的外观特征方法可以描述图像在 时空域的局部变化, 在整体面部区域上分别提取局部特征信息, 再将这些局部特征信息相 拼接, 就不仅可以得到局部特征信息, 也能得到整体的特征信息。 基于外观特征的方法不同 于基于几何特征的方法, 因其不依赖与初始的面部特征点的跟踪和检测, 对光照、 背景变化 等更为鲁棒。 0006 总的来说, 目前大多数自动真假笑识别的方法是基于几何特征的方法, 如前面所 述, 这类方。
15、法非常依赖于面部或唇部特征的精确检测和跟踪, 导致这个方法很难适应实际 环境的光照变化及复杂背景等等。 发明内容 0007 为克服前述缺憾, 本发明考虑脸部的不同区域对识别真假笑做出不同的贡献, 提 说 明 书 CN 103886304 A 5 2/8 页 6 出了一种柔性面部子区域分割方法。考虑笑容过程中不同状态对真假笑做出的不同贡献, 提出了一种笑容时间域分割方法。 考虑真笑和假笑的局部特征信息并真笑假笑各自的共同 特点, 提出了一种具有判别信息的局部时空描述子。 运用基于外观的特征提取方法, 克服了 基于几何特征的真假笑识别方法过度依赖于面部几何特征的弱点, 充分挖掘真笑和假笑各 自提取。
16、的局部特征的共性, 使得两类笑容的类间差距增大, 类内差距缩小, 从而提高识别的 精确度。 0008 如上述, 本发明提供一种基于具有判别信息的时空局部描述子的真假笑识别方 法, 其中, 具有判别信息的时空局部描述子为 DisCLBP-TOP(discriminative completed local binary patterns from three orthogonal panels, 简称 DisCLBP-TOP), 即具有判 别信息的三正交平面完全局部二值模式, 是在三正交平面完全局部二值模式 (completed local binary patterns from three 。
17、orthogonal panels,简称CLBP-TOP)的基础上完成 ; 0009 其步骤包括 : 0010 1) 对笑容视频序列进行可调节的面部子区域分割, 得到面部子区域卷, 所述面部 子区域卷包括 5 个子区域卷, 分别是左眼子区域卷, 右眼子区域卷, 左面颊子区域卷, 右面 颊子区域卷以及唇部子区域卷 ; 0011 2) 将以上得到的各个子区域卷进行时间域的划分, 将各个子区域卷划分为起始过 程段块, 保持过程段块以及衰减过程段块 ; 0012 2-1) 用 OpenCV 中的笑容检测器检测每一帧的笑容强度, 并将每一帧的笑容强度 作归一化 ; 0013 2-2) 根据设定的强度阈值。
18、 , 划分出笑容的起始过程段, 保持过程段以及衰减过 程段, 得到起始过程段块, 保持过程段块以及衰减过程段块 ; 0014 3) 在以上经过时空划分的块上通过具有判别信息的时空局部描述子 DisCLBP-TOP 得到真笑和假笑的特征向量, 0015 3-1) 计算 CLBP-TOP 的主模式集合 ; 0016 3-2) 分别对真笑类和假笑类中各个样本的主模式集合取交集 ; 0017 3-3) 对真笑类和假笑类主模式集合交集取并集, 得到真笑和假笑的特征向量 ; 0018 4) 将步骤 3) 中的得到的特征向量输入 SVM 分类器训练 ; 0019 5) 待识别的笑容输入已通过步骤 1) 至 。
19、3) 得到特征向量训练的 SVM 分类器, 得到 识别结果。 0020 更进一步, 步骤 1) 分以下 6 个分步骤完成 : 0021 1-1) 检测并跟踪面部区域的5个基准点, 分别是左眼中心点S1, 右眼中心点S2, 左 唇角 S3, 右唇角 S4, 鼻尖点 S5 ; 0022 1-2) 计算左眼中心点 S1 和右眼中心点 S2 连线的中点 S6, 左眼中心点 S1 和左唇 角 S3 连线的中点 C1 以及右眼中心点 S2 和右唇角 S4 连线的中点 C2 ; 0023 1-3) 计算左眼中心点 S1 与右眼中心点 S2 的距离 l1 |S1-S2| 以及点 S6 与鼻尖 点 S5 之间的。
20、距离 l2=|S6-S5| ; 0024 1-4) 分别裁剪出左眼子区域 R1, 右眼子区域 R2, 左面颊子区域 R3, 右面颊子区域 R4 以及唇部子区域 R5 ; 0025 1-5) 分别形成左眼子区域卷 V1, 右眼子区域卷 V2, 左面颊子区域卷 V3, 右面颊子区 说 明 书 CN 103886304 A 6 3/8 页 7 域卷 V4以及唇部子区域卷 V5; 0026 1-6) 分别分割左眼子区域卷 V1, 右眼子区域卷 V2, 左面颊子区域卷 V3, 右面颊子区 域卷 V4以及唇部子区域卷 V5; 0027 更 进 一 步, 步 骤 1-4)中 分 别 以 S1、 S2 为 中。
21、 心 点, 1l1为 宽, 2l2为 高, 1=2=0.8, 裁剪出子区域R1和子区域R2 ; 分别以C1、 C2为中心点, 1l1为宽, 2l2为高, 1=0.6, 2=0.8, 裁剪处子区域R3和子区域R4 ; 以S3, S4和S5点为基准裁剪出子区域R5。 0028 更进一步, 步骤1-5) 中子区域卷Vj的形成方式为 :j=1,.,5, 其中 k 表示整个笑容序列所具有的帧数。 0029 更进一步, 步骤 1-6) 中将子区域卷 V1, 子区域卷 V2, 子区域卷 V3和子区域卷 V4分 别分割为 22 的子区域卷 : Vj,r|r=1,.,4,j=1,.,4, 将子区域卷 V5分割为。
22、 24 的子 区域卷 : V5,t|t=1,.,4。 0030 更进一步, 步骤 2-1) 中每一帧的笑容强度作归一化的计算方法为 : 0031 0032 其中, 是当前检测到笑容特征个数, M和N分别是检测到的最多和最少的笑容特 征个数。 0033 更进一步, 步骤 2-2) 中所述强度阈值 =0.9。 0034 更进一步, 步骤 3-1) 中 CLBP-TOP 是一个时空局部描述子, 其不仅表达中心像素点 与领域内像素点的符号比较 S, 并添加与领域内像素点的幅度比较 M 以及与全部像素点均 值的比较 C。局部不同 dp=gp-gc, P 为邻域的像素个数, R 为半径, gc为窗口内中心。
23、像素的灰 度值, dp分解为符号和幅度内容如下 : 0035 dp=sp*mp, 0036 sp=sgn(dp), 0037 mp=|dp| 0038 因此, 符号比较 S, 幅度比较 M 以及全部像素点均值的比较 C 三个算子的计算公式 如下 : 0039 0040 0041 CLBPCP,R=t(gc,cl) 0042 其中, P 为邻域的像素个数, R 为半径, gc为窗口内中心像素的灰度值, c 是自适应 阈值, cl是整个图像的平均灰度值。 0043 更进一步, 步骤 3-1) 中计算主模式集合的公式为 : 0044 Ju=argmin|Ju| 说 明 书 CN 103886304 。
24、A 7 4/8 页 8 0045 0046 其中, Ju表示主要模式集合, |Ju| 表示模式集合 Ju中的元素个数, Pu,表示模式 类型 在 u 平面上出现的次数, u=1 表示 XY 平面, u=2 表示 XT 平面, u=3 表示 YT 平面。 0047 更进一步, 步骤 3-2) 中分别对真笑类和假笑类中各个样本的主模式集合取交集的 公式如下 : 0048 0049 0050 其中JT和JF分别表示真笑类和假笑类中各个样本的主模式集合的交集, 真笑类中 有 nT个样本, 假笑类中有 nF个样本,和分别表示来自 u 平面的第 n 个样本的符号 (Sign) 和幅度 (Magnitude。
25、) 的主模式集合。 0051 更进一步, 步骤 3-3) 对真笑类和假笑类主模式集合交集取并集的公式如下 : 0052 0053 0054 其中, B 是分割的块的总数。 0055 如上述, 本发明提取面部基于外观的特征, 在应用三正交平面完全局部二值模式 CLBP-TOP 的基础上进一步提取具有判别或区分度的信息, 即具有判别信息的时空局部描述 子为 DisCLBP-TOP, 以获得更鲁棒的特征, 此外, 考虑各个面部子区域对最后真假笑识别的 贡献以及面部的非刚性变化, 去除冗余的不变更面部信息, 提出柔性面部子区域分割方法, 为具有判别信息的时空描述子的使用提供良好的特征提取基础。再者, 。
26、考虑笑容过程的各 个阶段对真假笑识别的贡献, 提出将笑的过程分为起始过程段块, 保持过程段块, 衰减过程 段块, 由于一个笑容没有明确的峰值点, 这与传统的把笑容过程分为发起段、 峰值点、 结束 段更为合理。 最后在进行时空分割后的块上应用本发明提出的具有判别信息的时空局部描 述子达到提高识别性能的目的。 附图说明 0056 图 1a 是本发明的识别方法流程示意图。 0057 图 1b 是本发明的识别方法流程框图。 0058 图 2a 是本发明涉及笑容视频序列中基准点及以基准点产生的其它关键点的分布 示意图。 0059 图 2b 是本发明涉及裁剪出的面部子区域块的分布示意图。 0060 图 2。
27、c 是本发明涉及经过时空分割后的块的示意图。 说 明 书 CN 103886304 A 8 5/8 页 9 0061 图 3a 是本发明涉及实施时间分割的一个假笑 (摆出来的笑容) 序列。 0062 图 3b 是图 3a 中假笑过程的强度表示及起始过程段, 保持过程段以及衰减过程段 划分示意图。 具体实施方式 0063 下面将结合本发明实施例中的附图, 对本发明实施例中的技术方案进行清楚、 完 整地描述, 可以理解的是, 所描述的实施例仅仅是本发明一部分实施例, 而不是全部的实施 例。基于本发明中的实施例, 本领域技术人员在没有做出创造性劳动前提下所获得的所有 其他实施方案, 都属于本发明保护。
28、的范围。 0064 本实施实例采用荷兰阿姆斯特丹大学的 UvA-NEMO 数据库进行试验, 它具有目前 最大的真假笑识别数据库。 此数据库在国际上获得认可, 且为广泛使用。 数据库中共有1240 个笑容视频, 分辨率为 19201080 像素, 50 帧每秒的彩色图像。被录制者距离摄像机的距 离为 1.5 米, 相机型号为 Panasonic HDC-HS7003MOS,1240 个笑容视频中, 587 是个自发笑 容, 643 是个假装笑容, 来自于 400 位实验者, 其中 185 名女性, 215 为男性, 年龄层次从 8 岁 覆盖到 76 岁, 149 位实验者在 18 岁以下, 更详。
29、细的信息参见 http:/www.uva-nemo.org on how to obtain the UvA-NEMO Smile Database。 0065 参考图 2a、 图 2b 及图 2c, 本实施例的柔性面部子区域分割实现过程如下 : 0066 1、 检测并跟踪面部区域的5个基准点, 分别是左眼中心点S1, 右眼中心点S2, 左唇 角 S3, 右唇角 S4, 鼻尖点 S5。5 个基准点一开始由人工标定出来, 然后通过 (Tao,H.,Huang, T.:Explanation-based facial motion tracking using a piecewise B ezie。
30、r volume deformation model.In:CVPR,pp.611617(1999)) 中的方法进行跟踪。 0067 2、 计算左眼中心点 S1 和右眼中心点 S2 连线的中点 S6, 左眼中心点 S1 和左唇角 S3 连线的中点 C1 以及右眼中心点 S2 和右唇角 S4 连线的中点 C2。 0068 3、 计算左眼中心点 S1 与右眼中心点 S2 的距离 l1=|S1-S2| 以及点 S6 与鼻尖点 S5 之间的距离 l2=|S6-S5|。 0069 4、 分别裁剪出左眼子区域 R1, 右眼子区域 R2, 左面颊子区域 R3, 右面颊子区域 R4 以及唇部子区域 R5。 0。
31、070 5、 分别形成左眼子区域卷 V1, 右眼子区域卷 V2, 左面颊子区域卷 V3, 右面颊子区域 卷 V4以及唇部子区域卷 V5。 0071 6、 分别分割左眼子区域卷 V1, 右眼子区域卷 V2, 左面颊子区域卷 V3, 右面颊子区域 卷 V4以及唇部子区域卷 V5。 0072 前述过程具体算法如下 : 说 明 书 CN 103886304 A 9 6/8 页 10 0073 0074 参考图 3a 及图 3b, 以强度阈值 =0.9 对上述经过分割的各子区域卷进行时间域 的划分, 将各个子区域卷划分为起始过程段块, 保持过程段块以及衰减过程段块。 0075 然后, 在经过时空划分的块。
32、中提取具有判别信息的时空局部描述子 DisCLBP-TOP 过程如下 : 0076 1、 计算 CLBP-TOP 的主模式集合。 0077 2、 分别对真笑类和假笑类中各个样本的主模式集合取交集。 0078 3、 对真笑类和假笑类主模式集合交集取并集得到真笑和假笑的特征向量。 0079 前述过程算法如下 : 说 明 书 CN 103886304 A 10 7/8 页 11 0080 0081 接着, 将前述特征向量输入 SVM 分类器训练 ; 0082 最后, 将待识别的笑容输入已通过前述特征向量训练的 SVM 分类器, 得到识别结 果。 0083 下面为本发明方法与现有方法在识别效果方面的对。
33、比表 : 0084 方法识别真确率 (%) DisCLBP-TOP91.40 CLBP-TOP83.03 Dibeklioglu et al.87.02 Pfister et al.73.06 0085 其中, DisCLBP-TOP 和 CLBP-TOP 是在本发明中所述的时空分割的基础上进行。 后面的两个对比方法没有使用本发明所述的时空分割方法。Dibekiogulu et al 的方 法的具体实施参见 (Hamdi Dibeklioglu,Albert Ali Salah,and Theo Gevers,“Are you really smiling at me?spontaneous 。
34、versus posed enjoyment smiles,” in International Conference on Computer Vision(ECCV),pp.525538.2012.) , Pfister et al. 的方法的具体实施参见 (Tomas Pfister,Xiaobai Li,Guoying Zhao,and MPietikainen, “Differentiating spontaneous from posed facial expressions within a generic facial expression recognition framewo。
35、rk,” in IEEE International 说 明 书 CN 103886304 A 11 8/8 页 12 Conference on Computer Vision Workshops(ICCV Workshops),pp.868875.2011.) 。 DisCLBP-TOP 优于 CLBP-TOP 取得更好的识别结果, 其关键在于 DisCLBP-TOP 进一步对 CLBP-TOP 提取出的模式根据类别信息进行了训练筛选, 使得类内差距缩小, 识别更鲁棒。 0086 上述实例只是本发明的举例, 尽管为说明目的公开了本发明的实例, 但是本领域 的技术人员可以理解 : 在不脱离本发明及所附的权利要求的精神和范围内, 各种替换、 变化 和修改都是可能的。因此, 本发明不应局限于该实例的内容。 说 明 书 CN 103886304 A 12 1/3 页 13 图 1a 图 1b 说 明 书 附 图 CN 103886304 A 13 2/3 页 14 图 2a 图 2b 图 2c 图 3a 说 明 书 附 图 CN 103886304 A 14 3/3 页 15 图 3b 说 明 书 附 图 CN 103886304 A 15 。