《图像处理方法及装置.pdf》由会员分享,可在线阅读,更多相关《图像处理方法及装置.pdf(21页珍藏版)》请在专利查询网上搜索。
1、(10)申请公布号 CN 103839223 A (43)申请公布日 2014.06.04 CN 103839223 A (21)申请号 201210475602.3 (22)申请日 2012.11.21 G06T 3/40(2006.01) G06T 5/00(2006.01) G06T 7/00(2006.01) (71)申请人 华为技术有限公司 地址 518129 广东省深圳市龙岗区坂田华为 总部办公楼 申请人 华中科技大学 (72)发明人 蔡超 陈梅双 孙谦 (74)专利代理机构 北京同立钧成知识产权代理 有限公司 11205 代理人 刘芳 (54) 发明名称 图像处理方法及装置 (5。
2、7) 摘要 本发明实施例提供一种图像处理方法及装 置。该方法包括 : 获取源图像和目标图像的人脸 部分 ; 对源图像和目标图像的人脸部分进行对比 分析, 得到源图像和目标图像的人脸部分之间的 融合线, 融合线为源图像和目标图像的人脸部分 眉毛以上区域中图像差异最小的像素线, 融合线 位于人脸部分的眉毛以上的区域 ; 将源图像和目 标图像的人脸部分以融合线为分界线, 分别分割 得到对应的第一部分和第二部分, 并在目标图像 中, 将源图像的人脸部分的第一部分代替目标图 像的人脸部分的第一部分, 得到处理后的图像 ; 其中, 第一部分为人脸部分中包括鼻子的部分。 本 发明实施例可应用于源图像的人脸替。
3、换目标图像 的图像处理中, 可提高替换后的图像处理效果。 (51)Int.Cl. 权利要求书 3 页 说明书 13 页 附图 4 页 (19)中华人民共和国国家知识产权局 (12)发明专利申请 权利要求书3页 说明书13页 附图4页 (10)申请公布号 CN 103839223 A CN 103839223 A 1/3 页 2 1. 一种图像处理方法, 其特征在于, 包括 : 获取源图像和目标图像的人脸部分 ; 对所述源图像和目标图像的人脸部分进行对比分析, 得到所述源图像和目标图像的人 脸部分之间的融合线, 所述融合线为所述源图像和目标图像的人脸部分眉毛以上区域中图 像差异最小的像素线, 所。
4、述融合线位于人脸部分的眉毛以上的区域 ; 将所述源图像和目标图像的人脸部分以所述融合线为分界线, 分别分割得到对应的第 一部分和第二部分, 并在所述目标图像中, 将所述源图像的人脸部分的第一部分代替所述 目标图像的人脸部分的第一部分, 得到处理后的图像 ; 其中, 所述第一部分为人脸部分中包括鼻子的部分。 2. 根据权利要求 1 所述的图像处理方法, 其特征在于, 对所述源图像和目标图像的人 脸部分进行对比分析, 得到所述源图像和目标图像的人脸部分之间的融合线, 具体包括 : 获取所述源图像和目标图像的人脸部分的眉毛以上的区域, 并将所述区域作为搜索区 域 ; 在所述搜索区域内, 将所述源图像。
5、中位于眼睛两侧的两个图像特征点作为起始点和目 标点, 其中, 所述起始点和目标点为位于人脸部分的边界的像素点 ; 在所述搜索区域内, 采用 A* 算法, 由所述起始点开始到目标点结束, 搜索得到所述源 图像和目标图像的人脸部分中图像差异最小的像素点形成的像素线, 所述像素线即为融合 线。 3. 根据权利要求 1 或 2 所述的图像处理方法, 其特征在于, 得到处理后的图像之后, 还 包括 : 对所述处理后的图像中的各像素 RGB 值进行线性插值, 调整所述处理后的图像的肤 色。 4. 根据权利要求 1-3 任一所述的图像处理方法, 其特征在于, 所述对所述源图像和目 标图像的人脸部分进行对比分。
6、析, 得到所述源图像和目标图像的人脸部分之间的融合线之 前, 还包括 : 对所述源图像和目标图像的人脸部分进行肤色检测, 将所述源图像的人脸部分的肤色 调整成与所述目标图像的人脸部分的肤色相同。 5. 根据权利要求 1-4 任一所述的图像处理方法, 其特征在于, 所述获取源图像和目标 图像的人脸部分, 具体包括 : 获取源图像和目标图像的人脸区域 ; 在所述源图像和目标图像的人脸区域中, 确定人脸的眼睛区域 ; 基于所述人脸的眼睛区域, 采用 ASM 算法, 在人脸特征模型库中搜索得到所述源图像 和目标图像的人脸的特征点, 其中, 所述人脸特征模型库中设置有人脸的多个特征点, 包括 眉毛区域特。
7、征点、 眼睛区域特征点、 鼻子区域特征点、 嘴区域特征点和下颚特征点。 6. 根据权利要求 1-5 任一所述的图像处理方法, 其特征在于, 所述对所述源图像和目 标图像的人脸部分进行对比分析, 得到所述源图像和目标图像的人脸部分之间的融合线之 前, 还包括 : 根据所述源图像和目标图像的人脸部分中的下颚特征点, 将所述源图像的人脸部分变 形成与所述目标图像的人脸部分大小相同。 权 利 要 求 书 CN 103839223 A 2 2/3 页 3 7. 根据权利要求 6 所述的图像处理方法, 其特征在于, 所述根据所述源图像和目标图 像的人脸部分中的下颚特征点, 将所述源图像的人脸部分变形成与所。
8、述目标图像的人脸部 分大小相同, 具体包括 : 根据所述源图像和目标图像的人脸部分中的下颚特征点, 采用薄板样条算法将所述源 图像的人脸部分变形成与所述目标图像的人脸部分相同。 8. 一种图像处理装置, 其特征在于, 包括 : 人脸获取模块, 用于获取源图像和目标图像的人脸部分 ; 人脸分析模块, 用于对所述源图像和目标图像的人脸部分进行对比分析, 得到所述源 图像和目标图像的人脸部分之间的融合线, 所述融合线为所述源图像和目标图像的人脸部 分中图像差异最小的像素线, 且所述融合线位于人脸部分的眉毛以上的区域 ; 人脸处理模块, 用于将所述源图像和目标图像的人脸部分以所述融合线为分界线, 分 。
9、别分割得到对应的第一部分和第二部分, 并在所述目标图像中, 将所述源图像的人脸部分 的第一部分代替所述目标图像的人脸部分的第一部分, 得到处理后的图像 ; 其中, 所述第一部分为人脸部分中包括鼻子的部分。 9. 根据权利要求 8 所述的图像处理装置, 其特征在于, 所述人脸分析模块包括 : 搜索区域获取单元, 用于获取所述源图像和目标图像的人脸部分的眉毛以上的区域, 并将所述区域作为搜索区域 ; 搜索点获取单元, 用于在所述搜索区域内, 将所述源图像中位于眼睛两侧的两个图 像特征点作为起始点和目标点, 其中, 所述起始点和目标点为位于人脸部分的边界的像素 点 ; 融合线获取单元, 用于在所述搜。
10、索区域内, 采用 A* 算法, 由所述起始点开始到目标点 结束, 搜索得到所述源图像和目标图像的人脸部分中图像差异最小的像素点形成的像素 线, 所述像素线即为融合线。 10. 根据权利要求 8 或 9 所述的图像处理装置, 其特征在于, 还包括 : 肤色调整模块, 用于对所述处理后的图像中的各像素 RGB 值进行线性插值, 调整所述 处理后的图像的肤色。 11. 根据权利要求 8-10 任一所述的图像处理装置, 其特征在于, 还包括 : 肤色检测调整模块, 用于对所述源图像和目标图像的人脸部分进行肤色检测, 将所述 源图像的人脸部分的肤色调整成与所述目标图像的人脸部分的肤色相同。 12. 根据。
11、权利要求 8-11 任一所述的图像处理装置, 其特征在于, 所述人脸获取模块包 括 : 人脸区域获取单元, 用于获取源图像和目标图像的人脸区域 ; 眼睛区域获取单元, 用于在所述源图像和目标图像的人脸区域中, 确定人脸的眼睛区 域 ; 人脸部分确定单元, 用于基于所述人脸的眼睛区域, 采用 ASM 算法, 在人脸特征模型库 中搜索得到所述源图像和目标图像的人脸的特征点, 所述人脸特征模型库中设置有人脸的 多个特征点, 包括眉毛区域特征点、 眼睛区域特征点、 鼻子区域特征点、 嘴区域特征点和下 颚特征点。 13. 根据权利要求 8-12 任一所述的图像处理装置, 其特征在于, 还包括 : 权 利。
12、 要 求 书 CN 103839223 A 3 3/3 页 4 图像调整模块, 用于根据所述源图像和目标图像的人脸部分中的下颚特征点, 将所述 源图像的人脸部分变形成与所述目标图像的人脸部分大小相同。 14. 根据权利要求 13 所述的图像处理装置, 其特征在于, 所述图像调整模块, 具体用于 根据所述源图像和目标图像的人脸部分中的下颚特征点, 采用薄板样条算法将所述源图像 的人脸部分变形成与所述目标图像的人脸部分相同。 权 利 要 求 书 CN 103839223 A 4 1/13 页 5 图像处理方法及装置 技术领域 0001 本发明实施例涉及图像处理技术, 尤其涉及一种图像处理方法及装置。
13、。 背景技术 0002 人脸图像变形处理是图像处理的一个重要方面, 广泛应用于医疗、 刑事侦破、 人脸 图像合成、 三维人脸图像重建、 图像检索以及人脸整形等领域, 其中, 将两个人物图像中的 人脸进行替换, 就是人脸图像变形中的一种。 0003 现有方法对两个人脸图像进行替换时, 通常采用图像融合的方法。电影特技中的 过渡变形方法是 : 首先, 将源图像和目标图像分别采用相关的变形算法进行变形, 然后, 将 变形后的两个图像融合在一起, 得到一个中间图像, 该中间图像就是变形处理后的变形图 像。 人脸替换常用的方法是将变形后的源图像中的人脸全部替换成目标图像的人脸, 同时, 将目标图像中除人。
14、脸之外的部分与源图像中的相应部分进行融合, 这种变形处理后得到的 变形图像人脸与背景之间的融合较差, 导致变形图像效果差, 无法满足实际的人脸图像变 形的需要。 0004 综上, 现有人脸图像变形, 仅是将人脸部分进行简单替换, 得到的变形图像中人脸 部分与其他部分之间的差异较大, 导致人脸图像变形效果较差。 发明内容 0005 本发明实施例提供一种图像处理方法及装置, 可克服现有人脸图像变形所存在的 人脸图像变形较差的问题, 提高人脸图像变形的处理效果。 0006 本发明实施例的第一方面提供一种图像处理方法, 包括 : 0007 获取源图像和目标图像的人脸部分 ; 0008 对所述源图像和目。
15、标图像的人脸部分进行对比分析, 得到所述源图像和目标图像 的人脸部分之间的融合线, 所述融合线为所述源图像和目标图像的人脸部分中图像差异最 小的像素线, 且所述融合线位于人脸部分的眉毛以上的区域 ; 0009 将所述源图像和目标图像的人脸部分以所述融合线为分界线, 分别分割得到对应 的第一部分和第二部分, 并在所述目标图像中, 将所述源图像的人脸部分的第一部分代替 所述目标图像的人脸部分的第一部分, 得到处理后的图像 ; 0010 其中, 所述第一部分为人脸部分中包括鼻子的部分。 0011 结合第一方面, 在第一种可能的实现方式中, 对所述源图像和目标图像的人脸部 分进行对比分析, 得到所述源。
16、图像和目标图像的人脸部分之间的融合线, 具体包括 : 0012 获取所述源图像和目标图像的人脸部分的眉毛以上的区域, 并将所述区域作为搜 索区域 ; 0013 在所述搜索区域内, 将所述源图像中位于眼睛两侧的两个图像特征点作为起始点 和目标点, 其中, 所述起始点和目标点为位于人脸部分的边界的像素点 ; 0014 在所述搜索区域内, 采用 A* 算法, 由所述起始点开始到目标点结束, 搜索得到所 说 明 书 CN 103839223 A 5 2/13 页 6 述源图像和目标图像的人脸部分中图像差异最小的像素点形成的像素线, 所述像素线即为 融合线。 0015 结合第一方面或第一方面的第一种可能。
17、的实现方式, 在第二种可能的实现方式 中, 得到处理后的图像之后, 还包括 : 0016 对所述处理后的图像中的各像素 RGB 值进行线性插值, 调整所述处理后的图像的 肤色。 0017 结合第一方面或第一方面的第一或第二种可能的实现方式, 在第三种可能的实现 方式中, 所述对所述源图像和目标图像的人脸部分进行对比分析, 得到所述源图像和目标 图像的人脸部分之间的融合线之前, 还包括 : 0018 对所述源图像和目标图像的人脸部分进行肤色检测, 将所述源图像的人脸部分的 肤色调整成与所述目标图像的人脸部分的肤色相同。 0019 结合第一方面或第一方面的第一或第二或第三种可能的实现方式, 在第四。
18、种可能 的实现方式中, 所述获取源图像和目标图像的人脸部分, 具体包括 : 0020 获取源图像和目标图像的人脸区域 ; 0021 在所述源图像和目标图像的人脸区域中, 确定人脸的眼睛区域 ; 0022 基于所述人脸的眼睛区域, 采用 ASM 算法, 在人脸特征模型库中搜索得到所述源 图像和目标图像的人脸的特征点, 确定所述源图像和目标图像的人脸部分, 其中, 所述人脸 特征模型库中设置有人脸的多个特征点, 包括眉毛区域特征点、 眼睛区域特征点、 鼻子区域 特征点、 嘴区域特征点和下颚特征点。 0023 结合第一方面或第一方面的第一或第二或第三或第四种可能的实现方式, 在第五 种可能的实现方式。
19、中, 所述对所述源图像和目标图像的人脸部分进行对比分析, 得到所述 源图像和目标图像的人脸部分之间的融合线之前, 还包括 : 0024 根据所述源图像和目标图像的人脸部分中的下颚特征点, 将所述源图像的人脸部 分变形成与所述目标图像的人脸部分大小相同。 0025 结合第一方面的第五种可能的实现方式, 在第二种可能的实现方式中, 所述根据 所述源图像和目标图像的人脸部分中的下颚特征点, 将所述源图像的人脸部分变形成与所 述目标图像的人脸部分大小相同, 具体包括 : 0026 根据所述源图像和目标图像的人脸部分中的下颚特征点, 采用薄板样条算法将所 述源图像的人脸部分变形成与所述目标图像的人脸部分。
20、相同。 0027 本发明的第二方面提供一种图像处理装置, 包括 : 0028 人脸获取模块, 用于获取源图像和目标图像的人脸部分 ; 0029 人脸分析模块, 用于对所述源图像和目标图像的人脸部分进行对比分析, 得到所 述源图像和目标图像的人脸部分之间的融合线, 所述融合线为所述源图像和目标图像的人 脸部分中图像差异最小的像素线, 且所述融合线位于人脸部分的眉毛以上的区域 ; 0030 人脸处理模块, 用于将所述源图像和目标图像的人脸部分以所述融合线为分界 线, 分别分割得到对应的第一部分和第二部分, 并在所述目标图像中, 将所述源图像的人脸 部分的第一部分代替所述目标图像的人脸部分的第一部分。
21、, 得到处理后的图像 ; 0031 其中, 所述第一部分为人脸部分中包括鼻子的部分。 0032 结合第二方面, 在第一种可能的实现方式中, 所述人脸分析模块包括 : 说 明 书 CN 103839223 A 6 3/13 页 7 0033 搜索区域获取单元, 用于获取所述源图像和目标图像的人脸部分的眉毛以上的区 域, 并将所述区域作为搜索区域 ; 0034 搜索点获取单元, 用于在所述搜索区域内, 将所述源图像中位于眼睛两侧的两个 图像特征点作为起始点和目标点, 其中, 所述起始点和目标点为位于人脸部分的边界的像 素点 ; 0035 融合线获取单元, 用于在所述搜索区域内, 采用 A* 算法,。
22、 由所述起始点开始到目 标点结束, 搜索得到所述源图像和目标图像的人脸部分中图像差异最小的像素点形成的像 素线, 所述像素线即为融合线。 0036 结合第二方面或第二方面的第一种可能的实现方式, 在第二种可能的实现方式 中, 所述的图像处理装置还包括 : 0037 肤色调整模块, 用于对所述处理后的图像中的各像素 RGB 值进行线性插值, 调整 所述处理后的图像的肤色。 0038 结合第二方面或第二方面的第一或第二种可能的实现方式, 在第三种可能的实现 方式中, 所述的图像处理装置还包括 : 0039 肤色检测调整模块, 用于对所述源图像和目标图像的人脸部分进行肤色检测, 将 所述源图像的人脸。
23、部分的肤色调整成与所述目标图像的人脸部分的肤色相同。 0040 结合第二方面或第二方面的第一或第二或第三种可能的实现方式, 在第四种可能 的实现方式中, 所述人脸获取模块包括 : 0041 人脸区域获取单元, 用于获取源图像和目标图像的人脸区域 ; 0042 眼睛区域获取单元, 用于在所述源图像和目标图像的人脸区域中, 确定人脸的眼 睛区域 ; 0043 人脸部分确定单元, 用于基于所述人脸的眼睛区域, 采用 ASM 算法, 在人脸特征模 型库中搜索得到所述源图像和目标图像的人脸的特征点, 确定所述源图像和目标图像的人 脸部分, 其中, 所述人脸特征模型库中设置有人脸的多个特征点, 包括眉毛区。
24、域特征点、 眼 睛区域特征点、 鼻子区域特征点、 嘴区域特征点和下颚特征点。 0044 结合第二方面或第二方面的第一或第二或第三或第四种可能的实现方式, 在第五 种可能的实现方式中, 所述的图像处理装置还包括 : 0045 图像调整模块, 用于根据所述源图像和目标图像的人脸部分中的下颚特征点, 将 所述源图像的人脸部分变形成与所述目标图像的人脸部分大小相同。 0046 结合第二方面的第五种可能的实现方式, 在第六种可能的实现方式中, 所述图像 调整模块, 具体用于根据所述源图像和目标图像的人脸部分中的下颚特征点, 采用薄板样 条算法将所述源图像的人脸部分变形成与所述目标图像的人脸部分相同。 0。
25、047 综上, 本发明实施例提供的图像处理方法及装置, 在将源图像中的人脸替换目标 图像中的人脸时, 通过对源图像和目标图像的人脸部分进行对比分析, 得到两个人脸部分 之间的图像差异最小的融合线, 并可以该融合线为分界线, 进行两个人脸部分的替换, 这 样, 目标图像中仅需要替换部分人脸, 且替换的部分人脸与目标图像中的其他部分具有较 好的拼接效果, 目标图像中被代替的人脸部分与其他部分之间的差异较小, 提高了图像的 变形处理效果。 说 明 书 CN 103839223 A 7 4/13 页 8 附图说明 0048 图 1 为本发明实施例一提供的图像处理方法的流程示意图 ; 0049 图 2 。
26、为本发明实施例二提供的图像处理方法的流程示意图 ; 0050 图 3 为本发明实施例三提供的图像处理方法的流程示意图 ; 0051 图 4 为本发明实施例四提供的图像处理装置的结构示意图 ; 0052 图 5 为本发明实施例五提供的图像处理装置的结构示意图 ; 0053 图 6 为本发明实施例六提供的图像处理装置的结构示意图。 具体实施方式 0054 图 1 为本发明实施例一提供的图像处理方法的流程示意图。如图 1 所示, 本实施 例方法可包括如下步骤 : 0055 步骤 101、 获取源图像和目标图像的人脸部分 ; 0056 步骤 102、 对源图像和目标图像的人脸部分进行对比分析, 得到源。
27、图像和目标图像 的人脸部分之间的融合线, 该融合线为源图像和目标图像的人脸部分眉毛以上区域中图像 差异最小的像素线, 该融合线位于人脸部分的眉毛以上的区域 ; 0057 步骤 103、 将源图像和目标图像的人脸部分以融合线为分界线, 分别分割得到对 应的第一部分和第二部分, 并在目标图像中, 将源图像的人脸部分的第一部分代替目标图 像的人脸部分的第一部分, 得到处理后的图像, 其中, 第一部分为人脸部分中包括鼻子的部 分。 0058 本实施例可应用于图像的人脸变形处理中, 具体地, 可应用于在将源图像的人脸 融合到目标图像的人脸的处理中, 在人脸替换时, 可在人脸眉毛以上的区域内, 获得源图像。
28、 和目标图像的人脸部分的融合线, 并将源图像的人脸部分中位于融合线以下的区域, 即包 括鼻子的区域代替目标图像中的相应区域, 从而得到处理后的图像。 这样, 基于该融合线进 行两张图像的人脸部分的融合时, 由于该融合线为两个图像的人脸中图像差异最小的像素 线, 因此, 以该融合线进行两个图像的拼接 (融合) 时, 具有较好的拼接效果, 得到的人脸可 更好的融入目标图像的整个背景中, 使得处理后的图像中被代替的人脸部分与其他部分之 间的差异较小, 提高了图像的变形处理效果。 0059 本领域技术人员可以理解, 本实施例中所述的源图像和目标图像均是指人物图 像, 即包括有人脸部分的图像 ; 其中,。
29、 所述的人脸部分是指图像中人脸图像。 0060 本发明实施例提供的图像变形处理方法, 通过对源图像和目标图像的人脸部分进 行对比分析, 得到两个人脸部分之间的图像差异最小的融合线, 并可以该融合线为分界线, 进行两个人脸部分的替换, 这样, 目标图像中仅需要替换部分人脸, 且替换的部分人脸与目 标图像中的其他部分具有较好的拼接效果, 目标图像中被代替的人脸部分与其他部分之间 的差异较小, 提高了图像的变形处理效果。 0061 图 2 为本发明实施例二提供的图像处理方法的流程示意图。本实施例可基于 A* 算法进行两个人脸部分的融合线的确定, 具体地, 如图 2 所示, 本实施例图像处理方法可包 。
30、括如下步骤 : 0062 步骤 201、 获取源图像和目标图像的人脸部分 ; 0063 步骤 202、 获取源图像和目标图像的人脸部分的眉毛以上的区域, 并将该区域作为 说 明 书 CN 103839223 A 8 5/13 页 9 搜索区域 ; 0064 步骤 203、 在该搜索区域内, 将源图像中位于眼睛两侧的两个图像特征点作为起始 点和目标点, 其中, 该起始点和目标点为位于人脸部分的边界的像素点 ; 0065 步骤 204、 在搜索区域内, 采用 A* 算法, 由起始点开始到目标点结束, 搜索得到源 图像和目标图像的人脸部分中图像差异最小的像素点形成的像素线, 该像素线即为融合 线 ;。
31、 0066 步骤 205、 将源图像和目标图像的人脸部分以融合线为分界线, 分别分割得到对应 的第一部分和第二部分, 并在目标图像中, 将源图像的人脸部分的第一部分代替目标图像 的人脸部分的第一部分, 得到处理后的图像。 0067 上述步骤 201 中, 获取的源图像和目标图像的人脸部分应大小相同, 这样, 在步骤 202-步骤204中, 确定搜索区域, 并在搜索区域中确定A*算法的起始点和目标点时, 才能准 确的找出两个人脸部分对齐位置的边界像素点。同时, 该起始点和目标点可以是确定人脸 部分的特征点, 例如预先设定的位于人脸眼角位置的两个特征点, 或者靠近眉毛位置等的 特征点, 该起始点和。
32、目标点的具体设定可以根据需要而设定或默认设定, 通常为位于人眼 两端处于鬓角位置的两个特征点。 0068 上述步骤 204 中, A* 算法是一种求解最短路径最有效的方法, 本实施例中可将两 个人脸部分中图像差异 (通常为图像的灰度差异) 最小作为搜索策略, 并在设定的搜索区域 内确定上述的融合线。 本领域技术人员可以理解, 人脸部分的图像是由一系列像素点组成, 因此, 基于 A* 算法, 可以搜索得到从起始点到目标点之间的差异最小的像素点集合, 该像 素点集合构成的像素线就是本实施例所要确定的对两张图像的人脸部分进行融合时的拼 接线。其中 A* 算法的具体处理过程在此不再赘述。 0069 上。
33、述步骤 205 中, 在以融合线进行两个人脸部分的划分时, 为确保将源图像中的 人脸能够在目标图像中体现, 因此, 会将能最好的体现源图像的人脸的鼻子、 嘴巴区域的部 分进行替换, 而将额头等部分则保留目标图像中的, 从而可在处理后的图像中, 能够体现源 图像中人脸, 同时该人脸又能更好的融合在目标图像的整个背景 (包括头发等) 中, 使得图 像处理的效果更佳逼真, 效果更好。 0070 本实施例中, 上述步骤 205, 得到处理后的图像之后还可包括对处理后的图像进行 肤色调整的步骤, 具体地, 可对处理后的图像中的各像素 RGB 值进行线性插值, 对处理后的 图像进行肤色调整, 使得在处理后。
34、的图像在融合线处可具有更平滑的过渡, 进一步地提高 图像处理效果。 0071 本实施例中, 上述步骤 202 之前, 还可包括对两张人脸部分的肤色进行调整的步 骤, 具体地, 可对步骤 201 获得的源图像和目标图像的人脸部分进行肤色检测, 将源图像的 人脸部分的肤色调整成与目标图像的人脸部分的肤色相同。这样, 进行肤色调整后的源图 像的人脸部分, 替换到目标图像后, 可更好的融合到目标图像的整个背景中, 提高图像处理 效果。 0072 本实施例中, 上述步骤 201 中获取源图像和目标图像的人脸部分具体可包括以下 步骤 : 0073 步骤 2011、 获取源图像和目标图像的人脸区域 ; 00。
35、74 步骤 2012、 在源图像和目标图像的人脸区域中, 确定人脸的眼睛区域 ; 说 明 书 CN 103839223 A 9 6/13 页 10 0075 步骤 2013、 基于人脸的眼睛区域, 采用 ASM 算法, 在人脸特征模型库中搜索得到源 图像和目标图像的人脸的特征点, 确定源图像和目标图像的人脸部分, 其中, 人脸特征模型 库中设置有人脸的多个特征点, 包括眉毛区域特征点、 眼睛区域特征点、 鼻子区域特征点、 嘴区域特征点和下颚特征点。 0076 其中, 上述特征模型库是通过活动形状模型 (Active Shape Model, ASM) 算法得 到, 该人脸特征库是通过 ASM 。
36、训练阶段得到的人脸特征点训练集合, 且该些特征点是利用 微表情正面人脸图像以固定编号进行手工特征点标定出来的, 从而基于该训练得到的特征 点就可以建立主动形状模型和局部纹理模型, 从而得到平均人脸形状。因此, 基于 ASM 算 法, 就可以通过上述确定的源图像和目标图像的人脸区域中的眼睛区域, 来对训练得到的 平均人脸形状进行缩放、 旋转以及平移操作等估计出源图像和目标图像的人脸部分, 并可 确定该人脸部分的各特征点, 其中, 这些特征点应包括眉毛区域特征点、 眼睛区域特征点、 鼻子区域特征点、 嘴区域特征点和下颚特征点, 这些特征点可准确地确定出人脸部分。 0077 其中, ASM 算法是一。
37、种物体形状描述技术, 可通过选取一组训练样本, 用一组特征 点来描述样本的形状, 然后对各样本的形状进行配准 (使得形状尽可能地相似) , 对这些配 准后的形状向量可利用主分量分析方法进行统计建模, 从而得到物体形状的统计学描述。 因此, 通过 ASM 算法建立的模型在新的图像中搜索物体轮廓, 就可以确定新的图像的轮廓。 本实施例采用 ASM 算法来确定人脸特征点时, 使得特征点的定位准确度、 可靠性、 鲁棒性、 速度上均具有较好的效果, 提高人脸特征点获取的准确性和快速性。 0078 本实施中, 在上述步骤 201 中, 获取源图像和目标图像的人脸部分若要大小相同, 具体可根据上述获取的源图。
38、像和目标图像的人脸部分中的下颚特征点, 将源图像的人脸部 分变形成与目标图像的人脸部分大小相同。具体地, 可根据源图像和目标图像的人脸部分 中的下颚特征点, 采用薄板样条 (ThinPlate Splin, TPS) 算法将源图像的人脸部分变形成 与目标图像的人脸部分相同。其中, TPS 算法是一种插值方法, 通过该算法可寻找一个通过 所有控制点的弯曲最小的光滑曲面 : 就像一个薄铁板, 铁板表面是光滑的, 通过所给定的几 个 “样条” (比如木条) 来逼近铁板, 在控制点的约束下, 薄板样条让平面具有像弯曲的薄钢 板一样的表面性质, 即形变总是具有最小的物理弯曲能量, 本实施例中通过将下颚特。
39、征点 作为控制点来利用 TPS 算法将源图像的人脸部分便形成与目标图像的人脸部分相同, 具有 较好的变形效果。 0079 本实施例中, 通过薄板样条算法可使得待处理的两个图像的人脸部分调整成大小 相同, 这样, 可便于后续 A* 算法进行融合线的搜索处理过程中, 可准确查找得到两个人脸 部分进行融合的最佳融合线。 0080 为便于对本发明实施例技术方案的理解, 下面将以源图像和目标图像的具体处理 过程进行详细说明。 0081 图 3 为本发明实施例三提供的图像处理方法的流程示意图。如图 3 所示, 本实施 例可包括如下步骤 : 0082 步骤 301、 对源图像和目标图像进行预处理。 0083。
40、 本步骤中, 可对源图像和目标图像进行灰度处理, 得到源图像和目标图像的灰度 图像。 同时, 为保证源图像的图像质量与图像信息的完整性, 将源图像的大小调整到目标图 像大小。例如, 在手机上实现图像处理时, 考虑手机的实际效率, 可将源图像和目标图像的 说 明 书 CN 103839223 A 10 7/13 页 11 高度归一化为 512(即 512 像素高度尺寸) 。 0084 其中, 对源图像和目标图像进行灰度处理, 可首先判断目标图像和源图像是否为 彩色图像, 若是则通过以下转化公式将源图像和目标图像转为灰度图像 : 0085 F=0.2989*R+0.5870*G+0.1140*B 。
41、0086 其中, F 为输出的灰度图像, R、 G、 B 分别表示输入的红、 绿、 蓝彩色分量。 0087 本实施例中, 通过对图像进行灰度处理, 可在人脸检测、 眼睛定位以及搜索融合线 的过程中基于灰度图像进行处理。 0088 本实施例中, 将源图像的大小调整到目标图像大小时, 为减少伸缩导致图像局部 的拉伸或者压扁而降低图像质量, 可通过先填充后归一化的方法以保证源图像的信息的完 整性。本实施例以将两张图像归一化到 512 进行说明, 具体过程如下 : 0089 (1) 计算源图像 A 和目标图像 B 的宽度与高度比例。 0090 0091 其中, W 为图像的宽度, H 为图像的高度, 。
42、为图像的宽度和高度比例。 0092 (2) 向下或向右填充源图像 A, 以使其宽度与高度比例与目标图像 B 的一致。 0093 若 A B, 就向下填充源图像 A, 且填充后的源图像 A 的高度就为否 则, 就向右填充图像 A, 且填充后的源图像 A 的宽度就为 WA=HAB。 0094 (3) 利用双线性插值将源图像 A 和目标图像 B 的高度归一化到 512, 此时源图像 A 和目标图像 B 的图像大小均为 512(512B) 。 0095 实际应用中, 可根据需要, 也可将两张图像可归一化到不同的图像尺寸, 具体实现 可与归一化到 512 过程类似。实际应用中, 也可不进行归一化处理, 。
43、而只需要进行灰度处理 即可, 对此本实施例并不做特别限制。 0096 步骤 302、 对源图像和目标图像进行人脸检测, 确定出人脸区域。 0097 本步骤中, 可在上述步骤 301 进行预处理后的图像上, 进行人脸检测, 记录人脸的 位置, 确定包括人脸的矩形区域。其中, 对图像进行人脸检测, 具体可采用 Adaboost 算法实 现人脸检测, 该方法提取类 Harr 特征, 每个类 Harr 特征都相当于一个弱分类器, 这些弱分 类器经由 Adaboost 算法进行选择并加权组合, 提升成为一个强分类器, 最后再将多个强分 类器级联成为多级分类器用于人脸检测, 其具体实现过程在此不再赘述。 。
44、实际应用中, 对图 像进行人脸检测, 确定出人脸区域的具体实现过程也可采用其他人脸检测方式, 其具体实 现过程与传统人脸检测方式可相同或类似, 在此不再赘述。 0098 步骤 303、 在确定的人脸区域内, 确定出人脸的眼睛区域。 0099 在步骤 302 确定出源图像和目标图像的人脸区域内, 可对眼睛进行定位, 确定出 人脸的眼睛位置 (即人脸的眼睛区域) 。 0100 实际应用中, 可基于灰度信息和瞳孔滤波器的人眼定位算法, 在上述步骤 302 确 定出的人脸矩形区域内, 首先通过投影直方图的分析粗检测人眼位置, 然后用神经网络构 造瞳孔滤波器精确定位眼睛位置。具体过程包括 : 首先将检测。
45、到的人脸图像进行灰度和 尺度标准化, 即将其灰度均值和灰度方差调整到给定值, 以消除一些光照影响, 将人脸图像 进行归一化到 8080 像素的大小, 该种情况下瞳孔的大小通常是 55, 眼睛大小通常是 说 明 书 CN 103839223 A 11 8/13 页 12 2515 ; 然后利用眼眉灰度投影直方图信息确定一个同时包含眼睛和眉毛的区域 ; 最后利 用瞳孔滤波器检测完所有人眼候选点周围的点以后, 滤波器最大输出值所对应的坐标点就 是瞳孔中心, 由此得到了眼睛的精确位置, 这些位置信息确定后, 也就确定出人脸的眼睛区 域。 0101 步骤 304、 基于确定的人脸的眼睛区域, 确定源图像。
46、和目标图像的人脸部分。 0102 本步骤中, 可采用 ASM 算法, 基于确定的人脸的眼睛区域位置给出人脸特征模板 的初始位置, 利用局部特征匹配的办法迭代搜索出源图像和目标图像的人脸的特征点精确 位置, 以确定出源图像和目标图像的人脸部分。 0103 具体地, 本步骤可在确定的人脸区域中, 利用确定出的人脸的眼睛区域中人眼的 位置及两眼之间的距离给出人脸特征模板的初始位置, 使其接近于实际的人脸特征位置。 在 ASM 算法的搜索阶段, 利用扩展的二维局部轮廓特征搜索算法搜索各个特征点的实际位 置, 通过逐次迭代, 最终实现快速提取所需的人脸特征点。 0104 本领域技术人员可以理解, 在获取。
47、源图像和目标图像的人脸的特征点之前, 需要 获得人脸特征模型, 该模型具体可利用微表情正面人脸图像以固定编号进行手工特征点标 定, 通过 ASM 算法训练阶段得到特征点训练集, 并建立主动形状模型和局部纹理模型得到 平均人脸形状, 该人脸形状包括眉毛区域特征点、 眼睛区域特征点、 鼻子区域特征点、 嘴区 域特征点和下颚特征点等人脸的多个特征点。该些特征点的数量共有 76 个, 包括两个眉毛 区域特征点 12 个、 两个眼睛区域特征点 18 个、 鼻子区域特征点 12 个、 嘴区域特征点 19 个 和下颚特征点 15 个, 通过获取该特征点, 就可以确定出人脸部分的大小、 形状和位置, 从而 得。
48、到源图像和目标图像的人脸部分。 0105 本步骤利用 ASM 算法可自动获取源图像和目标图像中的人脸的特征点, 从而可确 定出人脸部分的图像, 使得人脸部分的获取更加快速、 准确。 0106 步骤 305、 对源图像的人脸部分的大小进行调整, 将源图像的人脸部分调整至与目 标图像的人脸部分大小相同。 0107 本步骤中, 在不改变源图像大小的前提下, 为保证源图像的人脸部分的五官信息 的完整性, 本实施例可仅利用下颚的15个特征点, 并采用TPS算法, 将源图像的人脸平滑调 整到目标图像的相应的位置与大小。 0108 其中, 利用 TPS 算法将源图像的人脸部分大小调整至与目标图像一致, 具体。
49、可包 括如下步骤 : 0109 (1) 利用源图像 A 和目标图像 B 人脸图像中的 n 个一一对应的特征控制点 (本实 施例中为下颚的 15 个特征点) 坐标i=1,2,n 求解径向函数 f(x,y) : 0110 0111 其中, a1,axx,ayy 为待求解的二维向量, Wi为待求解的 n2 矩阵,为欧 氏距离, 表示点与 (x,y) 的距离, n 表示上述的下颚特征点的个数。 0112 上述公式中的各系数具体可通过以下方式获得 : 0113 定义 (n+3)2 的系数矩阵 : 0114 W=1 2n a1 ax ayT,i (ix,iy)T, am (amx, amy)T,m 1,x,y。 说 明 书 CN 103839223 A 12 9/13 页 13 0115。