训练姿态分类器及物体分类器、物体检测的方法及装置.pdf

上传人:v**** 文档编号:5777955 上传时间:2019-03-18 格式:PDF 页数:35 大小:815.61KB
返回 下载 相关 举报
摘要
申请专利号:

CN201210077224.3

申请日:

2012.03.21

公开号:

CN103324938A

公开日:

2013.09.25

当前法律状态:

撤回

有效性:

无权

法律详情:

发明专利申请公布后的视为撤回IPC(主分类):G06K 9/62申请公布日:20130925|||实质审查的生效IPC(主分类):G06K 9/62申请日:20120321|||公开

IPC分类号:

G06K9/62

主分类号:

G06K9/62

申请人:

日电(中国)有限公司

发明人:

唐绍鹏; 王峰; 刘国翌; 张洪明; 曾炜

地址:

100191 北京市海淀区学院路35号世宁大厦20层

优先权:

专利代理机构:

北京三高永信知识产权代理有限责任公司 11138

代理人:

张耀光

PDF下载: PDF下载
内容摘要

本发明公开了一种训练姿态分类器及物体分类器、物体检测的方法及装置,属于图像处理领域。所述物体检测的方法包括:获取输入图像样本;根据所述姿态分类器对所述输入图像样本进行姿态估计处理;根据所述物体分类器对所述处理后的输入图像样本进行物体检测,获取物体的位置信息,其中所述物体为具有关节的物体。本发明可以对不同姿态的物体进行检测,从而提高了物体的检测率。

权利要求书

权利要求书
1.   一种训练姿态分类器的方法,其特征在于,包括:
获取第一训练图像样本集;
获取所述第一训练图像样本集中指定个训练图像样本的实际姿态信息;
根据所述指定个训练图像样本及其实际姿态信息执行递归训练过程,生成姿态分类器。

2.   根据权利要求1所述的方法,其特征在于,所述根据所述指定个训练图像样本及其实际姿态信息执行递归训练过程,生成姿态分类器包括:
构造损失函数,其中所述损失函数的输入为所述指定个训练图像样本及其实际姿态信息,所述损失函数的输出为所述指定个训练图像样本的实际姿态信息和估计姿态信息之间的差异值;
构造映射函数,其中所述映射函数的输入为所述指定个训练图像样本,所述映射函数的输出为所述指定个训练图像样本的估计姿态信息;
根据所述指定个训练图像样本及其实际姿态信息执行递归,获取使所述损失函数的输出值最小时的映射函数作为姿态分类器。

3.   根据权利要求2所述的方法,其特征在于,所述损失函数为实际姿态信息和估计姿态信息的位置差异。

4.   根据权利要求2所述的方法,其特征在于,所述损失函数为实际姿态信息和估计姿态信息的位置差异和方向差异。

5.   一种利用权利要求1‑4任一项方法生成的姿态分类器训练物体分类器的方法,其特征在于,所述物体为具有关节的物体,所述方法包括:
获取第二训练图像样本集;
根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿态估计处理;
对所述姿态估计处理后的训练图像样本执行训练,生成物体分类器。

6.   根据权利要求5所述的方法,其特征在于,所述根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿态估计处理包括:
根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿态估计,得到所述指定个训练图像样本的估计姿态信息;
根据所述指定个训练图像样本的估计姿态信息对每个具有关节的物体构造多个训练物体包围框,对所述多个训练物体包围框进行归一化处理,使不同物体的同一部分的训练物体包围框的大小和方向一致;
所述对所述姿态估计处理后的训练图像样本执行训练包括:
对所述归一化处理后的训练图像样本执行训练。

7.   根据权利要求6所述的方法,其特征在于,所述得到所述指定个训练图像样本的估计姿态信息之后,进一步包括:
显示所述指定个训练图像样本的估计姿态信息。

8.   根据权利要求6所述的方法,其特征在于,所述对所述多个训练物体包围框进行归一化处理之后,进一步包括:
显示所述归一化处理后的多个训练物体包围框。

9.   根据权利要求5‑8任一项所述的方法,其特征在于,所述估计姿态信息具体为训练物体结构特征点的位置信息,所述训练物体结构特征点包括:
头部中心位置点、腰部中心位置点、左脚中心位置点和右脚中心位置点;
所述根据所述指定个训练图像样本的估计姿态信息对每个具有关节的物体构造多个物体包围框,对所述多个物体包围框进行归一化处理包括:
对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造3个物体包围框,对所述3个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。

10.   根据权利要求5‑8任一项所述的方法,其特征在于,所述估计姿态信息具体为训练物体结构特征点的位置信息,所述训练物体结构特征点包括:
头部中心位置点、腰部中心位置点、左膝盖中心位置点、右膝盖中心位置点、左脚中心位置点和右脚中心位置点;
所述根据所述指定个训练图像样本的估计姿态信息对每个具有关节的物体构造多个物体包围框,对所述多个物体包围框进行归一化处理包括:
对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和右膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造5个物体包围框,对所述5个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。

11.   一种利用权利要求1‑4任一项方法生成的姿态分类器及权利要求5‑10任一项方法生成的物体分类器进行物体检测的方法,其特征在于,所述物体为具有关节的物体,所述方法包括:
获取输入图像样本;
根据所述姿态分类器对所述输入图像样本进行姿态估计处理;
根据所述物体分类器对所述处理后的输入图像样本进行物体检测,获取物体的位置信息。

12.   根据权利要求11所述的方法,其特征在于,所述根据所述姿态分类器对所述输入图像样本进行姿态估计处理包括:
根据所述姿态分类器对所述输入图像样本进行姿态估计,得到所述输入图像样本的估计姿态信息;
根据所述输入图像样本的估计姿态信息对每个具有关节的物体构造多个物体包围框,对所述多个物体包围框进行归一化处理,使不同物体的同一部分的物体包围框的大小和方向一致;
相应的,所述根据所述物体分类器对所述处理后的输入图像样本进行物体检测包括:
根据所述物体分类器对所述归一化处理后的输入图像样本进行物体检测。

13.   根据权利要求12所述的方法,其特征在于,所述得到所述输入图像样本的估计姿态信息之后,进一步包括:
将所述输入图像样本的估计姿态信息进行显示。

14.   根据权利要求12所述的方法,其特征在于,所述对所述多个物体包围框进行归一化处理之后,进一步包括:
将所述归一化处理后的多个物体包围框进行显示。

15.   根据权利要求12‑14任一项所述的方法,其特征在于,所述估计姿态信息具体为物体结构特征点的位置信息,所述物体结构特征点包括:
头部中心位置点、腰部中心位置点、左脚中心位置点和右脚中心位置点;
所述根据所述输入图像样本的估计姿态信息对每个具有关节的物体构造多个物体包围框,对所述多个物体包围框进行归一化处理包括:
对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造3个物体包围框,对所述3个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。

16.   根据权利要求12‑14任一项所述的方法,其特征在于,所述估计姿态信息具体为物体结构特征点的位置信息,所述物体结构特征点包括:
头部中心位置点、腰部中心位置点、左膝盖中心位置点、右膝盖中心位置点、左脚中心位置点和右脚中心位置点;
所述根据所述输入图像样本的估计姿态信息对每个具有关节的物体构造多个物体包围框,对所述多个物体包围框进行归一化处理包括:
对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和右膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造5个物体包围框,对所述5个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。

17.   一种训练姿态分类器的装置,其特征在于,包括:
第一获取模块,用于获取第一训练图像样本集;
第二获取模块,用于获取所述第一训练图像样本集中指定个训练图像样本的实际姿态信息;
第一训练生成模块,用于根据所述指定个训练图像样本及其实际姿态信息执行递归训练过程,生成姿态分类器。

18.   根据权利要求17所述的装置,其特征在于,所述第一训练生成模块包括:
第一构造单元,用于构造损失函数,其中所述损失函数的输入为所述指定个训练图像样本及其实际姿态信息,所述损失函数的输出为所述指定个训练图像样本的实际姿态信息和估计姿态信息之间的差异值;
第二构造单元,用于构造映射函数,其中所述映射函数的输入为所述指定个训练图像样本,所述映射函数的输出为所述指定个训练图像样本的估计姿态信息;
姿态分类器获取单元,用于根据所述指定个训练图像样本及其实际姿态信息执行递归,获取使所述损失函数的输出值最小时的映射函数作为姿态分类器。

19.   根据权利要求18所述的装置,其特征在于,所述损失函数为实际姿态信息和估计姿态信息的位置差异。

20.   根据权利要求18所述的装置,其特征在于,所述损失函数为实际姿态信息和估计姿态信息的位置差异和方向差异。

21.   一种利用权利要求17‑20任一项装置生成的姿态分类器训练物体分类器的装置,其特征在于,所述物体为具有关节的物体,所述装置包括:
第三获取模块,用于获取第二训练图像样本集;
第一姿态估计模块,用于根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿态估计处理;
第二训练生成模块,用于对所述姿态估计处理后的训练图像样本执行训练,生成物体分类器。

22.   根据权利要求21所述的装置,其特征在于,所述第一姿态估计模块包括:
第一姿态估计单元,用于根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿态估计,得到所述指定个训练图像样本的估计姿态信息;
第一构造处理单元,用于根据所述指定个训练图像样本的估计姿态信息对每个具有关节的物体构造多个训练物体包围框,对所述多个训练物体包围框进行归一化处理,使不同物体的同一部分的训练物体包围框的大小和方向一致;
所述第二训练生成模块包括:
训练单元,用于对所述归一化处理后的训练图像样本执行训练。

23.   根据权利要求22所述的装置,其特征在于,进一步包括:
第一图形用户界面,用于在所述得到所述指定个训练图像样本的估计姿态信息之后,显示所述指定个训练图像样本的估计姿态信息。

24.   根据权利要求22所述的装置,其特征在于,进一步包括:
第二图像用户界面,用于在所述对所述多个训练物体包围框进行归一化处理之后,显示所述归一化处理后的多个训练物体包围框。

25.   根据权利要求22‑24任一项所述的装置,其特征在于,所述估计姿态信息具体为训练物体结构特征点的位置信息,所述训练物体结构特征点包括:
头部中心位置点、腰部中心位置点、左脚中心位置点和右脚中心位置点;
所述第一构造处理单元包括:
第一构造子单元,用于对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造3个物体包围框,对所述3个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。

26.   根据权利要求22‑24任一项所述的装置,其特征在于,所述估计姿态信息具体为训练物体结构特征点的位置信息,所述训练物体结构特征点包括:
头部中心位置点、腰部中心位置点、左膝盖中心位置点、右膝盖中心位置点、左脚中心位置点和右脚中心位置点;
所述第一构造处理单元包括:
第二构造子单元,用于对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和右膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造5个物体包围框,对所述5个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。

27.   一种利用权利要求17‑20任一项装置生成的姿态分类器及权利要求21‑26任一项装置生成的物体分类器进行物体检测的装置,其特征在于,所述物体为具有关节的物体,所述装置包括:
第四获取模块,用于获取输入图像样本;
第二姿态估计模块,用于根据所述姿态分类器对所述输入图像样本进行姿态估计处理;
检测模块,用于根据所述物体分类器对所述处理后的输入图像样本进行物体检测,获取物体的位置信息。

28.   根据权利要求27所述的装置,其特征在于,所述第二姿态估计模块包括:
第二姿态估计单元,用于根据所述姿态分类器对所述输入图像样本进行姿态估计,得到所述输入图像样本的估计姿态信息;
第二构造处理单元,用于根据所述输入图像样本的估计姿态信息对每个具有关节的物体构造多个物体包围框,对所述多个物体包围框进行归一化处理,使不同物体的同一部分的训练物体包围框的大小和方向一致;
所述检测模块包括:
检测单元,用于根据所述物体分类器对所述归一化处理后的输入图像样本进行物体检测。

29.   根据权利要求28所述的装置,其特征在于,进一步包括:
第三图形用户界面,用于在所述得到所述输入图像样本的估计姿态信息之后,将所述输入图像样本的估计姿态信息进行显示。

30.   根据权利要求28所述的装置,其特征在于,进一步包括:
第四图形用户界面,用于在所述对所述多个物体包围框进行归一化处理之后,将所述归一化处理后的多个物体包围框进行显示。

31.   根据权利要求28‑30任一项所述的装置,其特征在于,所述估计姿态信息具体为物体结构特征点的位置信息,所述物体结构特征点包括:
头部中心位置点、腰部中心位置点、左脚中心位置点和右脚中心位置点;
所述第二构造处理单元包括:
第三构造子单元,用于对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造3个物体包围框,对所述3个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。

32.   根据权利要求28‑30任一项所述的装置,其特征在于,所述估计姿态信息具体为物体结构特征点的位置信息,所述物体结构特征点包括:
头部中心位置点、腰部中心位置点、左膝盖中心位置点、右膝盖中心位置点、左脚中心位置点和右脚中心位置点;
所述第二构造处理单元包括:
第四构造子单元,用于对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和右膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造5个物体包围框,对所述5个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。

说明书

说明书训练姿态分类器及物体分类器、物体检测的方法及装置
技术领域
本发明涉及图像处理领域,特别涉及一种训练姿态分类器及物体分类器、物体检测的方法及装置。
背景技术
随着电子信息技术的进步和网络化的普及,人们在日常生活中越来越普遍地通过各种各样的图像采集设备,例如监控摄像机、数码摄像机、网络摄像机、数码相机、手机相机以及物联网中的视频传感器等来获取大量的图像和视频数据。面对如此大量的图像和视频数据,如何快速而智能地分析这些数据成为人们的迫切需求。
人体检测技术就是智能地分析这些数据的一个技术途径,如图1所示,对于一幅输入图像而言,人体检测的过程就是在图像中检测人体的存在,并且定位出人体的位置,将所述人体的位置作为检测结果输出。
现有的人体检测方法主要分为三类:
第一类是基于局部特征抽取的方法,该类方法在训练图片的子区域上计算特征,并且将不同子区域的特征按照某种方式排列组合起来作为人体的特征,根据这些人体的特征训练分类器。在检测的过程中,检测并计算输入图片的相应的子区域的特征,分类器对该计算出来的特征进行分类,实现人体的检测。
第二类是基于兴趣点的方法,该类方法首先在训练图片集上计算兴趣点,然后将以该点为中心的一定大小的块抽取出来,所有被抽取的块进行聚类操作生成词典。在检测的过程中,计算输入图像中相同的兴趣点,并且抽取块,然后在词典中查找相似的块,最后根据词典中的块投票决定输入图像中人体的位置,实现人体检测。
第三类是基于模板匹配的方法,该类方法要预先准备人体轮廓的模板。在检测的过程中,计算输入图像的边缘分布图像,在该边缘分布图像中搜索与人体轮廓最相似的区域,实现人体检测。
在实现本发明的过程中,发明人发现现有技术至少存在以下问题:虽然上述三类人体检测方法可以在一定程度上实现人体的检测,但是上述三类人体检测方法一般都是假设人体处于直立行走的状态,忽略了人体作为柔性物体的姿态变化,因此当人体的姿态变化时,现有的人体检测方法很难将人体和背景区域区分,从而降低了人体的检测率。
发明内容
为了提高物体的检测率,本发明实施例提供了一种训练姿态分类器及物体分类器、物体检测的方法及装置。所述技术方案如下:
一方面,本发明实施例提供了一种训练姿态分类器的方法,包括:
获取第一训练图像样本集;
获取所述第一训练图像样本集中指定个训练图像样本的实际姿态信息;
根据所述指定个训练图像样本及其实际姿态信息执行递归训练过程,生成姿态分类器。
在一种实施方式中,所述根据所述指定个训练图像样本及其实际姿态信息执行递归训练过程,生成姿态分类器包括:
构造损失函数,其中所述损失函数的输入为所述指定个训练图像样本及其实际姿态信息,所述损失函数的输出为所述指定个训练图像样本的实际姿态信息和估计姿态信息之间的差异值;
构造映射函数,其中所述映射函数的输入为所述指定个训练图像样本,所述映射函数的输出为所述指定个训练图像样本的估计姿态信息;
根据所述指定个训练图像样本及其实际姿态信息执行递归,获取使所述损失函数的输出值最小时的映射函数作为姿态分类器。
其中,优选的,所述损失函数为实际姿态信息和估计姿态信息的位置差异。
其中,优选的,所述损失函数为实际姿态信息和估计姿态信息的位置差异和方向差异。
另一方面,本发明实施例提供了一种利用上述方法生成的姿态分类器训练物体分类器的方法,所述物体为具有关节的物体,所述方法包括:
获取第二训练图像样本集;
根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿态估计处理;
对所述姿态估计处理后的训练图像样本执行训练,生成物体分类器。
在一种实施方式中,所述根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿态估计处理包括:
根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿态估计,得到所述指定个训练图像样本的估计姿态信息;
根据所述指定个训练图像样本的估计姿态信息对每个具有关节的物体构造多个训练物体包围框,对所述多个训练物体包围框进行归一化处理,使不同物体的同一部分的训练物体包围框的大小和方向一致;
所述对所述姿态估计处理后的训练图像样本执行训练包括:
对所述归一化处理后的训练图像样本执行训练。
在另一实施方式中,所述得到所述指定个训练图像样本的估计姿态信息之后,进一步包括:
显示所述指定个训练图像样本的估计姿态信息。
再一种实施方式中,所述对所述多个训练物体包围框进行归一化处理之后,进一步包括:
显示所述归一化处理后的多个训练物体包围框。
再一种实施方式中,所述估计姿态信息具体为训练物体结构特征点的位置信息,所述训练物体结构特征点包括:
头部中心位置点、腰部中心位置点、左脚中心位置点和右脚中心位置点;
所述根据所述指定个训练图像样本的估计姿态信息对每个具有关节的物体构造多个物体包围框,对所述多个物体包围框进行归一化处理包括:
对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造3个物体包围框,对所述3个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。
再一种实施方式中,所述估计姿态信息具体为训练物体结构特征点的位置信息,所述训练物体结构特征点包括:
头部中心位置点、腰部中心位置点、左膝盖中心位置点、右膝盖中心位置点、左脚中心位置点和右脚中心位置点;
所述根据所述指定个训练图像样本的估计姿态信息对每个具有关节的物体构造多个物体包围框,对所述多个物体包围框进行归一化处理包括:
对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和右膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造5个物体包围框,对所述5个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。
另一方面,本发明实施例提供了一种利用上述方法生成的姿态分类器及上述方法生成的物体分类器进行物体检测的方法,所述物体为具有关节的物体,所述方法包括:
获取输入图像样本;
根据所述姿态分类器对所述输入图像样本进行姿态估计处理;
根据所述物体分类器对所述处理后的输入图像样本进行物体检测,获取物体的位置信息。
在一种实施方式中,所述根据所述姿态分类器对所述输入图像样本进行姿态估计处理包括:
根据所述姿态分类器对所述输入图像样本进行姿态估计,得到所述输入图像样本的估计姿态信息;
根据所述输入图像样本的估计姿态信息对每个具有关节的物体构造多个物体包围框,对所述多个物体包围框进行归一化处理,使不同物体的同一部分的训练物体包围框的大小和方向一致;
相应的,所述根据所述物体分类器对所述处理后的输入图像样本进行物体检测包括:
根据所述物体分类器对所述归一化处理后的输入图像样本进行物体检测。
在另一实施方式中,所述得到所述输入图像样本的估计姿态信息之后,进一步包括:
将所述输入图像样本的估计姿态信息进行显示。
再一种实施方式中,所述对所述多个物体包围框进行归一化处理之后,进一步包括:
将所述归一化处理后的多个物体包围框进行显示。
再一种实施方式中,所述估计姿态信息具体为物体结构特征点的位置信息,所述物体结构特征点包括:
头部中心位置点、腰部中心位置点、左脚中心位置点和右脚中心位置点;
所述根据所述输入图像样本的估计姿态信息对每个具有关节的物体构造多个物体包围框,对所述多个物体包围框进行归一化处理包括:
对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造3个物体包围框,对所述3个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。
再一种实施方式中,所述估计姿态信息具体为物体结构特征点的位置信息,所述物体结构特征点包括:
头部中心位置点、腰部中心位置点、左膝盖中心位置点、右膝盖中心位置点、左脚中心位置点和右脚中心位置点;
所述根据所述输入图像样本的估计姿态信息对每个具有关节的物体构造多个物体包围框,对所述多个物体包围框进行归一化处理包括:
对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和右膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造5个物体包围框,对所述5个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。
另一方面,本发明实施例提供了一种训练姿态分类器的装置,包括:
第一获取模块,用于获取第一训练图像样本集;
第二获取模块,用于获取所述第一训练图像样本集中指定个训练图像样本的实际姿态信息;
第一训练生成模块,用于根据所述指定个训练图像样本及其实际姿态信息执行递归训练过程,生成姿态分类器。
在一种实施方式中,所述第一训练生成模块包括:
第一构造单元,用于构造损失函数,其中所述损失函数的输入为所述指定个训练图像样本及其实际姿态信息,所述损失函数的输出为所述指定个训练图像样本的实际姿态信息和估计姿态信息之间的差异值;
第二构造单元,用于构造映射函数,其中所述映射函数的输入为所述指定个训练图像样本,所述映射函数的输出为所述指定个训练图像样本的估计姿态信息;
姿态分类器获取单元,用于根据所述指定个训练图像样本及其实际姿态信息执行递归,获取使所述损失函数的输出值最小时的映射函数作为姿态分类器。
其中,优选的,所述损失函数为实际姿态信息和估计姿态信息的位置差异。
其中,优选的,所述损失函数为实际姿态信息和估计姿态信息的位置差异和方向差异。
另一方面,本发明实施例提供了一种利用上述装置生成的姿态分类器训练物体分类器的装置,所述物体为具有关节的物体,所述装置包括:
第三获取模块,用于获取第二训练图像样本集;
第一姿态估计模块,用于根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿态估计处理;
第二训练生成模块,用于对所述姿态估计处理后的训练图像样本执行训练,生成物体分类器。
在一种实施方式中,所述第一姿态估计模块包括:
第一姿态估计单元,用于根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿态估计,得到所述指定个训练图像样本的估计姿态信息;
第一构造处理单元,用于根据所述指定个训练图像样本的估计姿态信息对每个具有关节的物体构造多个训练物体包围框,对所述多个训练物体包围框进行归一化处理,使不同物体的同一部分的训练物体包围框的大小和方向一致;
所述第二训练生成模块包括:
训练单元,用于对所述归一化处理后的训练图像样本执行训练。
在另一种实施方式中,所述装置进一步包括:
第一图形用户界面,用于在所述得到所述指定个训练图像样本的估计姿态信息之后,显示所述指定个训练图像样本的估计姿态信息。
再一种实施方式中,所述装置进一步包括:
第二图像用户界面,用于在所述对所述多个训练物体包围框进行归一化处理之后,显示所述归一化处理后的多个训练物体包围框。
再一种实施方式中,所述估计姿态信息具体为训练物体结构特征点的位置信息,所述训练物体结构特征点包括:
头部中心位置点、腰部中心位置点、左脚中心位置点和右脚中心位置点;
所述第一构造处理单元包括:
第一构造子单元,用于对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造3个物体包围框,对所述3个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。
再一种实施方式中,所述估计姿态信息具体为训练物体结构特征点的位置信息,所述训练物体结构特征点包括:
头部中心位置点、腰部中心位置点、左膝盖中心位置点、右膝盖中心位置点、左脚中心位置点和右脚中心位置点;
所述第一构造处理单元包括:
第二构造子单元,用于对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和右膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造5个物体包围框,对所述5个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。
另一方面,本发明实施例提供了一种利用上述装置生成的姿态分类器及上述装置生成的物体分类器进行物体检测的装置,所述物体为具有关节的物体,所述装置包括:
第四获取模块,用于获取输入图像样本;
第二姿态估计模块,用于根据所述姿态分类器对所述输入图像样本进行姿态估计处理;
检测模块,用于根据所述物体分类器对所述处理后的输入图像样本进行物体检测,获取物体的位置信息。
在一种实施方式中,所述第二姿态估计模块包括:
第二姿态估计单元,用于根据所述姿态分类器对所述输入图像样本进行姿态估计,得到所述输入图像样本的估计姿态信息;
第二构造处理单元,用于根据所述输入图像样本的估计姿态信息对每个具有关节的物体构造多个物体包围框,对所述多个物体包围框进行归一化处理,使不同物体的同一部分的训练物体包围框的大小和方向一致;
所述检测模块包括:
检测单元,用于根据所述物体分类器对所述归一化处理后的输入图像样本进行物体检测。
在另一实施方式中,所述装置进一步包括:
第三图形用户界面,用于在所述得到所述输入图像样本的估计姿态信息之后,将所述输入图像样本的估计姿态信息进行显示。
再一种实施方式中,所述装置进一步包括:
第四图形用户界面,用于在所述对所述多个物体包围框进行归一化处理之后,将所述归一化处理后的多个物体包围框进行显示。
再一种实施方式中,所述估计姿态信息具体为物体结构特征点的位置信息,所述物体结构特征点包括:
头部中心位置点、腰部中心位置点、左脚中心位置点和右脚中心位置点;
所述第二构造处理单元包括:
第三构造子单元,用于对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造3个物体包围框,对所述3个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。
再一种实施方式中,所述估计姿态信息具体为物体结构特征点的位置信息,所述物体结构特征点包括:
头部中心位置点、腰部中心位置点、左膝盖中心位置点、右膝盖中心位置点、左脚中心位置点和右脚中心位置点;
所述第二构造处理单元包括:
第四构造子单元,用于对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和右膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造5个物体包围框,对所述5个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。
本发明实施例提供的技术方案带来的有益效果是:采用递归方法对第一训练图像样本集中指定个训练图像样本进行训练,生成姿态分类器,然后根据所述姿态分类器在物体分类器的训练过程和物体检测过程中进行姿态估计,再构造物体包围框并进行归一化处理,从而消除了姿态对物体特征计算的影响,使同一类别的物体即使在不同的姿态下也能得到一致的特征向量,可以对不同姿态的具有关节的物体进行检测,从而提高了物体的检测率。
此外,采用递归方法生成的姿态分类器分别输出至训练物体分类器的过程和物体检测过程用于姿态估计,相对于传统的姿态估计的方法而言,降低了计算复杂度。
优选的,构造的损失函数考虑了方向上的差异,更有利于不同姿态物体的检测,提高了物体的检测率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种训练姿态分类器的方法实施例的流程图;
图2是本发明实施例提供的另一种训练姿态分类器的方法实施例的流程图;
图3是本发明实施例提供的训练图像样本特征提取示意图;
图4是本发明实施例提供的估计位置示意图;
图5是本发明实施例提供的一种训练物体分类器的方法实施例的流程图;
图6是本发明实施例提供的另一种训练物体分类器的方法实施例的流程图;
图7是本发明实施例提供的4个特征点的物体包围框示意图;
图8是本发明实施例提供的6个特征点的物体包围框示意图;
图9是本发明实施例提供的一种物体检测的方法实施例的流程图;
图10是本发明实施例提供的另一种物体检测的方法实施例的流程图;
图11为本发明实施例提供的本发明实施例和现有技术的ROC曲线示意图;
图12为本发明实施例提供的一种训练姿态分类器的装置实施例的结构示意图;
图13为本发明实施例提供的另一种训练姿态分类器的装置实施例的结构示意图;
图14为本发明实施例提供的一种训练物体分类器的装置实施例的结构示意图;
图15为本发明实施例提供的另一种训练物体分类器的装置实施例的结构示意图;
图16是本发明实施例提供的一种物体检测的装置实施例的结构示意图;
图17是本发明实施例提供的另一种物体检测的装置实施例的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
参考图1,图1是本发明实施例提供的一种训练姿态分类器的方法实施例的流程图;所述训练姿态分类器的方法包括:
S101:获取第一训练图像样本集。
S102:获取所述第一训练图像样本集中指定个训练图像样本的实际姿态信息。
S103:根据所述指定个训练图像样本及其实际姿态信息执行递归训练过程,生成姿态分类器。
本实施例中,获取第一训练图像样本集和所述第一训练图像样本集中指定个训练图像样本的实际姿态信息,根据所述指定个训练图像样本及其实际姿态信息执行递归训练过程,生成姿态分类器,使得该姿态分类器可以对不同姿态的物体进行检测,从而提高了物体的检测率。
本发明实施例中的物体具体为具有关节的物体,包括人体、机器人、猴子或狗等物体,但是并不局限于此,本实施例中具体以人体为例进行详细描述,参考图2,图2是本发明实施例提供的另一种训练姿态分类器的方法实施例的流程图;
所述训练姿态分类器的方法包括:
S201:获取第一训练图像样本集。
在训练姿态分类器的过程中,需要将多张图像样本作为训练图像样本执行训练过程,具体地,所述多张图像样本可以是一张张的图片,该图片中可以包含具有关节的物体,例如人体,也可以不包含人体。本发明实施例中,可以将多张训练图像样本以第一训练图像样本集的形式进行存储。
所述第一训练图像样本集中的所有训练图像样本可以是由图像采集设备在同一场景下获取的图像样本,也可以是由图像采集设备在不同场景下获取的图像样本,优选的,本发明实施例中需要多选择一些具有不同姿态人体的图像样本作为训练图像样本存储于所述第一训练图像样本集中,这样可以提高生成的姿态分类器的精确度。
S202:获取所述第一训练图像样本集中指定个训练图像样本的实际姿态信息。
本发明实施例中涉及的实际姿态信息是指人体各部分的位置信息,例如头部的位置信息、腰部的位置信息等;该人体各部分的位置信息可以表示人体各部分的具体位置。所述指定个训练图像样本可以是所述第一训练图像样本集中全部训练图像样本,也可以是所述第一训练图像样本集中部分训练图像样本,优选的,所述指定个训练图像样本为所述第一训练图像样本集中全部训练图像样本,这样可以提高生成的姿态分类器的精确度。
本步骤中,需要对所述指定个训练图像样本中的人体进行手工标注,得到所述指定个训练图像样本中人体的实际姿态信息。
具体地,所述人体各部分可以通过人体结构特征点的形式进行表示,该人体结构特征点是指能够反映人体结构的点,可以是一个点或多个点;优选的,所述人体结构特征点可以为4个特征点或6个特征点。当所述人体结构特征点为4个特征点时,所述人体结构特征点包括:头部中心位置点、腰部中心位置点、左脚中心位置点和右脚中心位置点;当所述人体结构特征点为6个特征点时,所述人体结构特征点包括:头部中心位置点、腰部中心位置点、左膝盖中心位置点、右膝盖中心位置点、左脚中心位置点和右脚中心位置点。但是人体结构特征点并不局限于为4个特征点或6个特征点,在此不再赘述。
S203:构造损失函数,所述损失函数的输入为所述指定个训练图像样本及其实际姿态信息,所述损失函数的输出为所述指定个训练图像样本的实际姿态信息和估计姿态信息之间的差异值。
本发明实施例中,损失函数的输入包括所述指定个训练图像样本,具体为所述指定个训练图像样本的特征向量。参考图3,图3是本发明实施例提供的训练图像样本的特征向量提取示意图;假设训练图像样本为I,其特征向量为X,通过对训练图像样本I进行特征提取,得到特征向量X。其中训练图像样本的特征向量X可以描述了物体的模式信息,例如图像的颜色、灰度、纹理、梯度、形状等信息;在视频中所述训练图像样本的特征向量X还可以描述物体的运行信息。
优选的,所述训练图像样本的特征向量可以为HOG特征。其中HOG特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子,HOG特征的提取方法使用了图像本身的梯度方向特征,是在一个网格密集的大小统一的方格单元上计算,最后将不同网格的特征串联起来作为训练图像样本的特征,而且为了提高精确度使用了重叠的局部对比度归一化的方法。HOG特征的提取方法与现有技术类似,在此不再赘述,可参见现有技术的相关描述。
所述损失函数可以有多种形式,例如,所述损失函数为实际姿态信息和估计姿态信息的位置差异,包括:
<mrow><MSUP><MI>J</MI> <MO>′</MO> </MSUP><MROW><MO>(</MO> <MI>y</MI> <MO>,</MO> <MI>F</MI> <MROW><MO>(</MO> <MI>x</MI> <MO>)</MO> </MROW><MO>)</MO> </MROW><MO>=</MO> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MI>ψ</MI> <MROW><MO>(</MO> <MSUB><MI>y</MI> <MI>i</MI> </MSUB><MO>,</MO> <MI>F</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>)</MO> </MROW><MO>=</MO> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MSUP><MROW><MO>|</MO> <MO>|</MO> <MSUB><MI>y</MI> <MI>i</MI> </MSUB><MO>-</MO> <MI>F</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP><MO>,</MO> </MROW>]]&gt;</MATH></MATHS>其中J′(y,F(x))为损失函数,F(x)为映射函数;y为所述指定个训练图像样本的实际姿态信息,ψ(yi,F(xi))为第i个训练图像样本的映射函数;yi为第i个训练图像样本的实际姿态信息,xi为第i个训练图像样本,F(xi)为第i个训练图像样本的映射函数,N为训练图像样本总数。 <BR>该损失函数J′(y,F(x))并不局限于上述表达形式,在此不再赘述,只要能反映实际姿态信息与估计姿态信息之间位置差异的损失函数都在本发明实施例的保护范围之内。 <BR>另一实施方式中,优选的,所述损失函数为实际姿态信息和估计姿态信息的位置差异和方向差异,包括: <BR><MATHS num="0002"><MATH><![CDATA[ <mrow><MI>J</MI> <MROW><MO>(</MO> <MI>y</MI> <MO>,</MO> <MI>F</MI> <MROW><MO>(</MO> <MI>x</MI> <MO>)</MO> </MROW><MO>)</MO> </MROW><MO>=</MO> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MUNDEROVER><MI>Σ</MI> <MROW><MI>j</MI> <MO>=</MO> <MN>2</MN> </MROW><MI>q</MI> </MUNDEROVER><MO>{</MO> <MSUP><MROW><MO>|</MO> <MO>|</MO> <MSUB><MI>y</MI> <MROW><MI>i</MI> <MO>,</MO> <MN>1</MN> </MROW></MSUB><MO>-</MO> <MI>g</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP><MO>+</MO> <MI>α</MI> <MSUP><MROW><MO>|</MO> <MO>|</MO> <MROW><MO>(</MO> <MSUB><MI>y</MI> <MROW><MI>i</MI> <MO>,</MO> <MI>j</MI> </MROW></MSUB><MO>-</MO> <MSUB><MI>y</MI> <MROW><MI>i</MI> <MO>,</MO> <MN>1</MN> </MROW></MSUB><MO>)</MO> </MROW><MO>-</MO> <MROW><MO>(</MO> <MSUB><MI>F</MI> <MI>j</MI> </MSUB><MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>-</MO> <MI>g</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP><MO>}</MO> <MO>,</MO> </MROW>]]&gt;</MATH></MATHS>其中J(y,F(x))为损失函数,y为所述指定个训练图像样本的实际姿态信息,F(x)为映射函数,yi,1为第i张训练图像样本中根节点的实际位置,g(xi)为第i张训练图像样本中根节点的估计位置;yi,j为第i张训练图像样本中第j个人体结构特征点的实际位置,Fj(xi)为第i张训练图像样本中第j个人体结构特征点的映射函数,N为训练图像样本总数,q为人体结构特征点总数,α为加权系数,且0<α<1。 <BR>损失函数J(y,F(x))中,以腰部中心位置点为根节点,根据所述腰部中心位置点和其他人体结构特征点构造中轴线作为实际姿态信息的中轴线,进而根据所述实际姿态信息的中轴线和相应的估计姿态信息的中轴线之间的向量来表示所述实际姿态信息和估计姿态信息的方向差异,如本发明实施例中也可以通过实际姿态信息与估计姿态信息的中轴线之间的夹角来表示,在此不再赘述。 <BR>所述损失函数J(y,F(x))并不局限于上述表达形式,在此不再赘述,只要能反映实际姿态信息和估计姿态信息之间的位置差异和方向差异的损失函数都在本发明实施例的保护范围之内。 <BR>参考图4,图4是本发明实施例提供的估计位置示意图,对于损失函数J(y,F(x))而言,图4中估计2相比较估计1而言更有效,因为估计2的方向与实际位置的方向一致,这样对于特征提取也更有效。因此,在构造损失函数时考虑实际姿态信息与估计姿态信息之间的位置差异和方向差异可以有利于不同姿态人体的检测。 <BR>S204:构造映射函数,其中所述映射函数的输入为所述指定个训练图像样本,所述映射函数的输出为所述指定个训练图像样本的估计姿态信息。 <BR>本步骤中,首先从预设的弱映射函数池中选择使所述损失函数的输出值最小的弱映射函数,将所述弱映射函数作为初始映射函数,根据所述初始映射函数构造映射函数。 <BR>本发明实施例涉及的弱映射函数池为包含了多个弱映射函数的池子,所述弱映射函数池中的弱映射函数为根据经验构造的弱映射函数,优选的,所述弱映射函数池中包含3025个弱映射函数。其中每个弱映射函数对应一个子窗口,则优选的,本发明实施例中所述若映射函数池中包含3025个子窗口。 <BR>根据损失函数的表达式可知,所述损失函数为映射函数F(x)的函数,将所述弱映射函数池中的每个弱映射函数分别代入所述损失函数中,根据所述指定个训练图像样本及实际姿态信息计算所述损失函数的输出值,获取使所述损失函数的输出值最小的弱映射函数,将所述使所述损失函数的输出值最小的弱映射函数作为初始映射函数F0(x)。 <BR>根据初始映射函数F0(x)构造映射函数F(x),例如,其中所述映射函数F(x)的输入为所述指定个训练图像样本,所述映射函数的输出为所述指定个训练图像样本的估计姿态信息;λt为第t次递归时的最优权值,ht(x)为第t次递归时的最优弱映射函数,T为递归总次数。 <BR>S205:根据所述指定个训练图像样本及其实际姿态信息执行递归,获取使所述损失函数的输出值最小时的映射函数作为姿态分类器。 <BR>本发明实施例中求解F(x)的过程为Regression(递归)的过程,每次递归时,根据预设的公式从弱映射函数池中选择最优弱映射函数ht(x),根据所述ht(x)计算此次递归时的最优权值λt,得到此次递归的映射函数F(x);随着逐次递归,映射函数对应的损失函数的输出值递减,当得到的映射函数F(x)收敛时,停止递归,此时映射函数F(x)对应的所述损失函数的输出值最小,将使所述损失函数的输出值最小的映射函数作为姿态分类器。 <BR>判断映射函数是否收敛的过程,具体包括:假如第T次递归得到的映射函数F(x)收敛,计算第T次递归的映射函数F(x)对应的损失函数的输出值为第(T‑1)次递归的映射函数F(x)对应的损失函数的输出值为则预设阈值,其中所述预设阈值可以为0.01,但是并不局限于此。 <BR>损失函数表示人体的实际姿态信息与估计姿态信息(即映射函数)之间的差异程度,本实施例中可以利用所述损失函数计算姿态分类器,即将损失函数的值最小时对应的映射函数作为姿态分类器,也就是说姿态分类器为最接近实际姿态信息的估计姿态信息。 <BR>下面以损失函数J(y,F(x))为例来描述获取姿态分类器的计算过程。 <BR>对于单个训练图像样本而言,损失函数为: <BR><MATHS num="0003"><MATH><![CDATA[ <mrow><MI>ψ</MI> <MO>=</MO> <MUNDEROVER><MI>Σ</MI> <MROW><MI>j</MI> <MO>=</MO> <MN>1</MN> </MROW><MROW><MI>j</MI> <MO>=</MO> <MI>q</MI> </MROW></MUNDEROVER><MO>{</MO> <MSUP><MROW><MO>|</MO> <MO>|</MO> <MSUB><MI>P</MI> <MROW><MI>root</MI> <MO>,</MO> <MI>j</MI> </MROW></MSUB><MO>-</MO> <MSUBSUP><MI>P</MI> <MROW><MI>root</MI> <MO>,</MO> <MI>j</MI> </MROW><MO>′</MO> </MSUBSUP><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP><MO>+</MO> <MI>α</MI> <MSUP><MROW><MO>|</MO> <MO>|</MO> <MROW><MO>(</MO> <MSUB><MI>P</MI> <MI>j</MI> </MSUB><MO>-</MO> <MSUB><MI>P</MI> <MROW><MI>root</MI> <MO>,</MO> <MI>j</MI> </MROW></MSUB><MO>)</MO> </MROW><MO>-</MO> <MROW><MO>(</MO> <MSUBSUP><MI>P</MI> <MI>j</MI> <MO>′</MO> </MSUBSUP><MO>-</MO> <MSUBSUP><MI>P</MI> <MROW><MI>root</MI> <MO>,</MO> <MI>j</MI> </MROW><MO>′</MO> </MSUBSUP><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP><MO>}</MO> </MROW>]]&gt;</MATH></MATHS> <BR>其中q为人体结构特征点总数,Pj为第j个人体结构特征点的实际位置,P′j为第j个人体结构特征点的估计位置;Proot,j为Pj的根节点的实际位置,其中所述根节点优选为腰部中心位置点;P′root,j为Pj的根节点的估计位置;(Proot,j,Pj)为实际姿态信息的中轴线。 <BR>对于整个第一训练图像样本集而言,损失函数为: <BR><MATHS num="0004"><MATH><![CDATA[ <mrow><MI>J</MI> <MROW><MO>(</MO> <MI>y</MI> <MO>,</MO> <MI>F</MI> <MROW><MO>(</MO> <MI>x</MI> <MO>)</MO> </MROW><MO>)</MO> </MROW><MO>=</MO> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MI>ψ</MI> <MO>=</MO> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MUNDEROVER><MI>Σ</MI> <MROW><MI>j</MI> <MO>=</MO> <MN>2</MN> </MROW><MI>q</MI> </MUNDEROVER><MO>{</MO> <MSUP><MROW><MO>|</MO> <MO>|</MO> <MSUB><MI>y</MI> <MROW><MI>i</MI> <MO>,</MO> <MN>1</MN> </MROW></MSUB><MO>-</MO> <MI>g</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP><MO>+</MO> <MI>α</MI> <MSUP><MROW><MO>|</MO> <MO>|</MO> <MROW><MO>(</MO> <MSUB><MI>y</MI> <MROW><MI>i</MI> <MO>,</MO> <MI>j</MI> </MROW></MSUB><MO>-</MO> <MSUB><MI>y</MI> <MROW><MI>i</MI> <MO>,</MO> <MN>1</MN> </MROW></MSUB><MO>)</MO> </MROW><MO>-</MO> <MROW><MO>(</MO> <MSUB><MI>F</MI> <MI>j</MI> </MSUB><MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>-</MO> <MI>g</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP><MO>}</MO> </MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0005"><MATH><![CDATA[ <mrow><MO>=</MO> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MUNDEROVER><MI>Σ</MI> <MROW><MI>j</MI> <MO>=</MO> <MN>2</MN> </MROW><MI>q</MI> </MUNDEROVER><MSUP><MROW><MO>|</MO> <MO>|</MO> <MSUB><MI>y</MI> <MROW><MI>i</MI> <MO>,</MO> <MN>1</MN> </MROW></MSUB><MO>-</MO> <MI>g</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP><MO>+</MO> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MUNDEROVER><MI>Σ</MI> <MROW><MI>j</MI> <MO>=</MO> <MN>2</MN> </MROW><MI>q</MI> </MUNDEROVER><MI>α</MI> <MSUP><MROW><MO>|</MO> <MO>|</MO> <MROW><MO>(</MO> <MSUB><MI>y</MI> <MROW><MI>i</MI> <MO>,</MO> <MI>j</MI> </MROW></MSUB><MO>-</MO> <MSUB><MI>y</MI> <MROW><MI>i</MI> <MO>,</MO> <MN>1</MN> </MROW></MSUB><MO>)</MO> </MROW><MO>-</MO> <MROW><MO>(</MO> <MSUB><MI>F</MI> <MI>j</MI> </MSUB><MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>-</MO> <MI>g</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP></MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0006"><MATH><![CDATA[ <mrow><MO>=</MO> <MI>q</MI> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MSUP><MROW><MO>|</MO> <MO>|</MO> <MSUB><MI>y</MI> <MROW><MI>i</MI> <MO>,</MO> <MN>1</MN> </MROW></MSUB><MO>-</MO> <MI>g</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP><MO>+</MO> <MI>α</MI> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MUNDEROVER><MI>Σ</MI> <MROW><MI>j</MI> <MO>=</MO> <MN>2</MN> </MROW><MI>q</MI> </MUNDEROVER><MSUP><MROW><MO>|</MO> <MO>|</MO> <MROW><MO>(</MO> <MSUB><MI>y</MI> <MROW><MI>i</MI> <MO>,</MO> <MI>j</MI> </MROW></MSUB><MO>-</MO> <MSUB><MI>y</MI> <MROW><MI>i</MI> <MO>,</MO> <MN>1</MN> </MROW></MSUB><MO>)</MO> </MROW><MO>-</MO> <MROW><MO>(</MO> <MSUB><MI>F</MI> <MI>j</MI> </MSUB><MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>-</MO> <MI>g</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP></MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0007"><MATH><![CDATA[ <mrow><MO>=</MO> <MI>q</MI> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MSUP><MROW><MO>|</MO> <MO>|</MO> <MSUB><MI>y</MI> <MROW><MI>i</MI> <MO>,</MO> <MN>1</MN> </MROW></MSUB><MO>-</MO> <MI>g</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP><MO>+</MO> <MI>α</MI> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MUNDEROVER><MI>Σ</MI> <MROW><MI>j</MI> <MO>=</MO> <MN>2</MN> </MROW><MI>q</MI> </MUNDEROVER><MSUP><MROW><MO>|</MO> <MO>|</MO> <MSUB><MI>u</MI> <MROW><MI>i</MI> <MO>,</MO> <MI>j</MI> </MROW></MSUB><MO>-</MO> <MSUB><MI>k</MI> <MI>j</MI> </MSUB><MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP></MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0008"><MATH><![CDATA[ <mrow><MO>=</MO> <MI>q</MI> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MSUP><MROW><MTEXT>||</MTEXT> <MSUB><MI>y</MI> <MROW><MI>i</MI> <MO>,</MO> <MN>1</MN> </MROW></MSUB><MTEXT>-g</MTEXT> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MTEXT>||</MTEXT> </MROW><MN>2</MN> </MSUP><MO>+</MO> <MI>α</MI> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MSUP><MROW><MO>|</MO> <MO>|</MO> <MSUB><MI>u</MI> <MI>i</MI> </MSUB><MO>-</MO> <MI>k</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP></MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0009"><MATH><![CDATA[ <mrow><MO>=</MO> <MI>M</MI> <MROW><MO>(</MO> <MI>k</MI> <MROW><MO>(</MO> <MI>x</MI> <MO>)</MO> </MROW><MO>)</MO> </MROW></MROW>]]&gt;</MATH></MATHS> <BR>所述J(y,F(x))为所述第一训练图像样本集中全部训练图像样本的损失函数,在构造J(y,F(x))时,规定所有人体包围框的中轴线的起始点为同一特征点,定义所述同一特征点为根节点,优选的,所述根节点为腰部中心位置点,因此,损失函数J(y,F(x))中j的起始点为2,不包括根节点。 <BR>其中,kj(xi)=Fj(xi)‑g(xi),ui,j=yi,j‑yi,1; <BR>对于上述J(y,F(x))而言,通过计算k(x)和g(x)便可以得到F(x)。 <BR>对于g(x),可以采用SVR(Support&nbsp;Vector&nbsp;Regression,支持向量递归)和PCA(Principal&nbsp;Component&nbsp;Analysis,主元成分分析)的方法进行求解,具体为: <BR>1a)输入:<MATHS num="0010"><MATH><![CDATA[ <mrow> <MSUBSUP><MROW><MO>{</MO> <MSUB><MI>y</MI> <MI>i</MI> </MSUB><MO>,</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>}</MO> </MROW><MN>1</MN> <MI>N</MI> </MSUBSUP><MO>,</MO> <MSUB><MI>y</MI> <MI>i</MI> </MSUB><MO>&amp;Element;</MO> <MSUP><MI>R</MI> <MROW><MN>2</MN> <MI>q</MI> </MROW></MSUP><MO>,</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>&amp;Element;</MO> <MSUP><MI>R</MI> <MI>d</MI> </MSUP><MO>;</MO> </MROW>]]&gt;</MATH></MATHS> <BR>2a)计算ri=p(yi,1):R2→R1,用PCA求解; <BR>3a)通过最小化<MATHS num="0011"><MATH><![CDATA[ <mrow> <MFRAC><MN>1</MN> <MN>2</MN> </MFRAC><MSUP><MROW><MO>|</MO> <MO>|</MO> <MI>w</MI> <MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP><MO>+</MO> <MI>C</MI> <MUNDEROVER><MI>Σ</MI> <MROW><MI>n</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MSUB><MROW><MO>|</MO> <MSUB><MI>r</MI> <MI>i</MI> </MSUB><MO>-</MO> <MSUP><MI>g</MI> <MO>′</MO> </MSUP><MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>|</MO> </MROW><MI>ξ</MI> </MSUB></MROW>]]&gt;</MATH></MATHS>计算w,其中<MATHS num="0012"><MATH><![CDATA[ <mrow> <MSUP><MI>g</MI> <MO>′</MO> </MSUP><MROW><MO>(</MO> <MI>x</MI> <MO>)</MO> </MROW><MO>=</MO> <MSUBSUP><MI>Σ</MI> <MROW><MI>n</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MSUBSUP><MSUB><MI>w</MI> <MI>n</MI> </MSUB><MTEXT>k</MTEXT> <MROW><MO>(</MO> <MI>x</MI> <MO>,</MO> <MSUB><MI>x</MI> <MI>n</MI> </MSUB><MO>)</MO> </MROW><MO>,</MO> </MROW>]]&gt;</MATH></MATHS>k(x,xn)为核函数。 <BR>4a)输出:g(x)=p‑1(g′(x)):Rd→R2 <BR>其中,R表示实数域,xi表示第i个训练图像样本,yi表示第j个人体结构特征点的位置;ri表示第i个训练图像样本的根节点的位置,yi,1为第i张训练图像样本中根节点的实际位置;w为向量,表示方程的系数,如z=ax+by,则w=(a,b);C为比例系数,N为训练图像样本总数,g′(xi)表示第i个训练图像样本中根节点的估计位置,ξ表示截断系数。 <BR>对于k(x),采用boosting方法进行计算,具体为: <BR>1b)输入:<MATHS num="0013"><MATH><![CDATA[ <mrow> <MSUBSUP><MROW><MO>{</MO> <MSUB><MI>y</MI> <MI>i</MI> </MSUB><MO>,</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>}</MO> </MROW><MN>1</MN> <MI>N</MI> </MSUBSUP><MO>,</MO> <MSUB><MI>y</MI> <MI>i</MI> </MSUB><MO>&amp;Element;</MO> <MSUP><MI>R</MI> <MROW><MN>2</MN> <MI>q</MI> </MROW></MSUP><MO>,</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>&amp;Element;</MO> <MSUP><MI>R</MI> <MI>d</MI> </MSUP><MO>;</MO> </MROW>]]&gt;</MATH></MATHS> <BR>2b)计算<MATHS num="0014"><MATH><![CDATA[ <mrow> <MSUB><MI>u</MI> <MI>i</MI> </MSUB><MO>=</MO> <MSUBSUP><MROW><MO>{</MO> <MROW><MO>(</MO> <MSUB><MI>y</MI> <MROW><MI>i</MI> <MO>,</MO> <MI>j</MI> </MROW></MSUB><MO>-</MO> <MSUB><MI>y</MI> <MROW><MI>i</MI> <MO>,</MO> <MN>1</MN> </MROW></MSUB><MO>)</MO> </MROW><MO>}</MO> </MROW><MROW><MI>j</MI> <MO>=</MO> <MN>2</MN> </MROW><MI>q</MI> </MSUBSUP><MO>&amp;Element;</MO> <MSUP><MI>R</MI> <MROW><MN>2</MN> <MI>q</MI> <MO>-</MO> <MN>2</MN> </MROW></MSUP><MO>;</MO> </MROW>]]&gt;</MATH></MATHS> <BR>3b)设置k(x)=0; <BR>4b)循环:t:1→T,计算kt(x)=λtht(x),k(x)=k(x)+kt(x),检查k(x)的收敛性,当k(x)收敛时,结束循环,其中,λt为第t次递归时的最优权值,ht(x)为第t次递归时的最优弱映射函数,T为递归总次数。 <BR>其中<MATHS num="0015"><MATH><![CDATA[ <mrow> <MSUB><MI>λ</MI> <MI>t</MI> </MSUB><MO>=</MO> <MFRAC><MROW><MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MSUP><MROW><MROW><MO>(</MO> <MSUB><MI>u</MI> <MI>i</MI> </MSUB><MO>-</MO> <MI>k</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>)</MO> </MROW><MROW><MO>(</MO> <MI>h</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>)</MO> </MROW></MROW><MI>T</MI> </MSUP></MROW><MROW><MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MSUP><MROW><MO>|</MO> <MO>|</MO> <MI>h</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP></MROW></MFRAC><MO>,</MO> </MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0016"><MATH><![CDATA[ <mrow><MROW><MSUB><MI>h</MI> <MI>t</MI> </MSUB><MO>=</MO> </MROW><MUNDER><MROW><MI>arg</MI> <MI>max</MI> </MROW><MI>h</MI> </MUNDER><MO>{</MO> <MI>α</MI> <MFRAC><MSUP><MROW><MO>(</MO> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MSUP><MROW><MROW><MO>(</MO> <MSUB><MI>u</MI> <MI>i</MI> </MSUB><MO>-</MO> <MI>k</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>)</MO> </MROW><MROW><MO>(</MO> <MI>h</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>)</MO> </MROW></MROW><MI>T</MI> </MSUP><MO>)</MO> </MROW><MN>2</MN> </MSUP><MROW><MO>(</MO> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MSUP><MROW><MO>|</MO> <MO>|</MO> <MI>h</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP><MO>)</MO> </MROW></MFRAC><MFRAC><MN>1</MN> <MROW><MI>q</MI> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MSUP><MROW><MO>|</MO> <MO>|</MO> <MSUB><MI>y</MI> <MROW><MI>i</MI> <MO>,</MO> <MN>1</MN> </MROW></MSUB><MO>-</MO> <MI>g</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP><MO>+</MO> <MI>α</MI> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>-</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MSUP><MROW><MO>|</MO> <MO>|</MO> <MSUB><MI>u</MI> <MI>i</MI> </MSUB><MO>-</MO> <MI>k</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP></MROW></MFRAC><MO>}</MO> </MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0017"><MATH><![CDATA[ <mrow><MO>=</MO> <MUNDER><MROW><MI>arg</MI> <MI>max</MI> </MROW><MI>h</MI> </MUNDER><MFRAC><MROW><MO>|</MO> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MSUP><MROW><MROW><MO>(</MO> <MSUB><MI>u</MI> <MI>i</MI> </MSUB><MO>-</MO> <MI>k</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>)</MO> </MROW><MROW><MO>(</MO> <MI>h</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>)</MO> </MROW></MROW><MI>T</MI> </MSUP><MO>|</MO> </MROW><MSQRT><MROW><MO>(</MO> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> </MROW><MI>N</MI> </MUNDEROVER><MSUP><MROW><MO>|</MO> <MO>|</MO> <MI>h</MI> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>i</MI> </MSUB><MO>)</MO> </MROW><MO>|</MO> <MO>|</MO> </MROW><MN>2</MN> </MSUP><MO>)</MO> </MROW></MSQRT></MFRAC></MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0018"><MATH><![CDATA[ <mrow><MO>=</MO> <MUNDER><MROW><MI>arg</MI> <MI>max</MI> </MROW><MI>h</MI> </MUNDER><MI>&amp;epsiv;</MI> <MROW><MO>(</MO> <MI>h</MI> <MO>)</MO> </MROW></MROW>]]&gt;</MATH></MATHS> <BR>5b)输出:<MATHS num="0019"><MATH><![CDATA[ <mrow> <MI>F</MI> <MROW><MO>(</MO> <MI>x</MI> <MO>)</MO> </MROW><MO>=</MO> <MI>J</MI> <MROW><MO>(</MO> <MI>g</MI> <MROW><MO>(</MO> <MI>x</MI> <MO>)</MO> </MROW><MO>,</MO> <MI>k</MI> <MROW><MO>(</MO> <MI>x</MI> <MO>)</MO> </MROW><MO>)</MO> </MROW><MO>:</MO> <MSUP><MI>R</MI> <MI>d</MI> </MSUP><MO>&amp;RightArrow;</MO> <MSUP><MI>R</MI> <MROW><MN>2</MN> <MI>q</MI> </MROW></MSUP><MO>;</MO> </MROW>]]&gt;</MATH></MATHS> <BR>当k(x)收敛时,M(k(x))的值最小,此时对应的映射函数F(x)即为姿态分类器。 <BR>计算k(x)的过程是一个递归的过程,在每一轮的递归中,最优的弱映射函数ht(x)从映射函数池中获取。 <BR>在生成所述姿态分类器后,还可以对所述姿态分类器进行存储,以备后用。具体地,本实施例中生成的姿态分类器还可以用于后续的训练物体分类器的过程和物体检测过程中实现姿态估计。 <BR>本实施例中S203和S205的实现过程具体实现根据所述指定个训练图像样本及其实际姿态信息执行递归训练过程,从而生成姿态分类器。 <BR>本实施例中,获取第一训练图像样本集和所述第一训练图像样本集中指定个训练图像样本的实际姿态信息,根据所述指定个训练图像样本及其实际姿态信息构造映射函数和损失函数,根据所述损失函数的输出值调整所述映射函数直至所述损失函数的输出值最小,获取使所述损失函数的输出值最小时的映射函数作为姿态分类器,实现递归训练过程,使得该姿态分类器可以对不同姿态的具有关节的物体进行检测,从而提高了物体的检测率。 <BR>此外采用Regression方法生成的姿态分类器分别输出至训练物体分类器的过程和物体检测过程用于姿态估计,即本实施例采用了多输出Regression的方法,相对于传统的姿态估计的方法而言,降低了计算复杂度。本实施例构造的损失函数考虑了方向上的差异,更有利于不同姿态物体的检测,提高了物体的检测率。 <BR>参考图5,图5是本发明实施例提供的一种训练物体分类器的方法实施例的流程图;所述物体为具有关节的物体,例如人体、机器人、猴子或狗等物体,但是并不局限于此;本实施例中采用的姿态分类器为上述实施例中生成的姿态分类器。 <BR>所述训练物体分类器的方法包括: <BR>S501:获取第二训练图像样本集。 <BR>S502:根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿态估计处理。 <BR>S503:对所述姿态估计处理后的训练图像样本执行训练,生成物体分类器。 <BR>本实施例中,根据姿态分类器对第二训练图像样本集中指定个训练图像样本进行姿态估计处理,然后对所述姿态估计处理后的训练图像样本执行训练后生成物体分类器,从而使得训练生成的物体分类器消除了姿态对物体特征计算的影响,使同一类别的物体即使在不同的姿态下也能得到一致的特征向量,可以用于对不同姿态的具有关节的物体进行检测,从而提高了物体的检测率。 <BR>本发明实施例中所述物体具体为具有关节的物体,包括人体、机器人、猴子或狗等物体,但是并不局限于此,本实施例中具体以人体为例进行详细描述,参考图6,图6是本发明实施例提供的另一种训练物体分类器的方法实施例的流程图;本实施例中采用的姿态分类器为上述实施例中生成的姿态分类器。 <BR>所述训练物体分类器的方法包括: <BR>S601:获取第二训练图像样本集。 <BR>在训练物体分类器的过程中,需要将多张图像样本作为训练图像样本执行训练过程,具体地,所述多张图像样本可以是一张张的图片,该图片中可以包含具有关节的物体,例如人体,也可以不包含人体。本发明实施例中,将多张训练图像样本以第二训练图像样本集的形式进行存储。 <BR>所述第二训练图像样本集中的所有训练图像样本可以是由图像采集设备在同一场景下获取的图像样本,也可以是由图像采集设备在不同场景下获取的图像样本。 <BR>S602:根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿态估计,得到所述指定个训练图像样本的估计姿态信息。 <BR>所述指定个训练图像样本可以是所述第二训练图像样本集中全部训练图像样本,也可以是所述第二训练图像样本集中部分训练图像样本,优选的,所述指定个训练图像样本为所述第二训练图像样本集中全部训练图像样本,这样可以提高生成的物体分类器的精确度。 <BR>本发明实施例中涉及的估计姿态信息为人体各部分的估计位置信息,具体可以为训练人体结构特征点的位置信息。所述训练人体特征点可以为一个点或多个点,优选的,所述人体结构特征点可以为4个特征点或6个特征点,具体地,当所述人体结构特征点为4个特征点时,所述人体结构特征点包括:头部中心位置点、腰部中心位置点、左脚中心位置点和右脚中心位置点;当所述人体结构特征点为6个特征点时,所述人体结构特征点包括:头部中心位置点、腰部中心位置点、左膝盖中心位置点、右膝盖中心位置点、左脚中心位置点和右脚中心位置点。 <BR>在另一实施方式中,还可以在所述得到所述指定个训练图像样本的估计姿态信息之后,显示所述指定个训练图像样本的估计姿态信息,具体的,显示所述指定个训练图像样本的人体结构特征点的位置信息。 <BR>S603:根据所述指定个训练图像样本的估计姿态信息对每个人体构造多个训练人体包围框,对所述多个训练人体包围框进行归一化处理,使不同人体的同一部分的训练人体包围框的大小和方向一致。 <BR>此步骤中,所述估计姿态信息具体为人体结构特征点的位置信息,则根据所述人体结构特征点的位置信息对每个人体构造多个训练人体包围框;优选的,将腰部中心位置点作为根节点构造人体包围框,但不局限于此。 <BR>具体地,当所述训练人体结构特征点为4个特征点时,对每个人体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造3个人体包围框,如图7所示,图7是本发明实施例提供的4个特征点的人体包围框示意图。 <BR>构造完3个人体包围框后,对所述3个人体包围框进行旋转和缩放处理,即进行归一化处理,使不同人体的同一部分的人体包围框的大小和方向一致;其中所述人体结构特征点位于对应的所述人体包围框内。 <BR>在另一实施方式中,当所述训练人体结构特征点为6个特征点时,对每个人体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和右膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造5个人体包围框,如图8所示,图8是本发明实施例提供的6个特征点的人体包围框示意图。 <BR>构造完5个人体包围框后,对所述5个人体包围框进行旋转和缩放处理,即进行归一化处理,使不同人体的同一部分的人体包围框的大小和方向一致;其中所述人体结构特征点位于对应的所述人体包围框内。 <BR>本实施例中S602和S603的实现过程具体实现根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿态估计处理的过程。 <BR>在另一实施方式中,在所述对所述多个训练物体包围框进行归一化处理之后,显示所述归一化处理后的多个训练物体包围框,具体可以显示进行旋转和缩放处理后的多个训练物体包围框,如图7和图8所示。 <BR>S604:对所述归一化处理后的训练图像样本执行训练,生成物体分类器。 <BR>此步骤中,所述对所述归一化处理后的训练图像样本执行训练,具体为:计算所述归一化处理后的训练图像样本的人体包围框中的特征向量,对所述特征向量执行训练,这样可以消除人体的姿态对于特征计算的影响,使同一类别的物体即使在不同的姿态下也能得到一致的特征向量;其中所述特征向量为HOG向量。 <BR>优选的,所述物体分类器包括:SVM(Support&nbsp;Vector&nbsp;Machine,支持向量机)物体分类器,具体可以为SVM人体分类器,但是并不局限于此。 <BR>可选的,在计算出所述归一化处理后的训练图像样本的人体包围框中的特征向量后,可以对所述特征向量进行存储,以备后用。具体地,本实施例中生成的物体分类器可以用于后续的物体检测过程中实现物体的检测。 <BR>可选的,在获取所述SVM物体分类器后,还可以存储所述SVM物体分类器,以备后用。 <BR>本实施例中,根据姿态分类器对第二训练图像样本集中指定个训练图像样本进行姿态估计处理,然后对所述姿态估计处理后的训练图像样本执行训练后生成物体分类器,从而使得训练生成的物体分类器消除了姿态对物体特征计算的影响,使同一类别的物体即使在不同的姿态下也能得到一致的特征向量,可以用于对不同姿态的具有关节的物体进行检测,从而提高了物体的检测率。 <BR>参考图9,图9是本发明实施例提供的一种物体检测的方法实施例的流程图;本发明实施例中的物体具体为具有关节的物体,例如人体、机器人、猴子或狗等物体,但是并不局限于此,本实施例中采用的姿态分类器和物体分类器为上述实施例中生成的姿态分类器和物体分类器。 <BR>所述物体检测的方法包括: <BR>S901:获取输入图像样本。 <BR>S902:根据所述姿态分类器对所述输入图像样本进行姿态估计处理。 <BR>S903:根据所述物体分类器对所述处理后的输入图像样本进行物体检测,获取物体的位置信息。 <BR>本实施例中,根据姿态分类器对输入图像样本进行姿态估计处理,这样可以消除物体的姿态对于特征计算的影响,使同一类别的物体即使在不同的姿态下也能得到一致的特征向量;然后根据基于姿态估计生成的物体分类器对所述处理后的的输入图像样本进行物体检测,从而获取物体的位置信息,使得在物体检测的过程中充分考虑了物体的姿态信息,可以对不同姿态的具有关节的物体进行检测,从而提高了物体的检测率。 <BR>本发明实施例中所述物体具体为具有关节的物体,包括人体、机器人、猴子或狗等物体,但是并不局限于此,本实施例中具体以人体为例进行详细描述,参考图10,图10是本发明实施例提供的另一种物体检测的方法实施例的流程图;本实施例中采用的姿态分类器和物体分类器为上述实施例中生成的姿态分类器和物体分类器。 <BR>S1001:获取输入图像样本。 <BR>在进行物体检测的过程中,需要对输入图像样本进行检测,检测所述输入图像样本中是否存在具有关节的物体,例如人体,所述输入图像样本可以是一张图片,该图片中可以包含一个或多个人体,也可以不包含人体,对此并不做具体限定。 <BR>S1002:根据所述姿态分类器对所述输入图像样本进行姿态估计,得到所述输入图像样本的估计姿态信息。 <BR>所述估计姿态信息具体为人体结构特征点的位置信息,优选的,所述人体结构特征点可以为4个特征点或6个特征点,具体地,当所述人体结构特征点为4个特征点时,所述人体结构特征点包括:头部中心位置点、腰部中心位置点、左脚中心位置点和右脚中心位置点;当所述人体结构特征点为6个特征点时,所述人体结构特征点包括:头部中心位置点、腰部中心位置点、左膝盖中心位置点、右膝盖中心位置点、左脚中心位置点和右脚中心位置点。 <BR>S1003:根据所述输入图像样本的估计姿态信息对每个人体构造多个人体包围框,对所述多个人体包围框进行归一化处理,使不同人体的同一部分的人体包围框的大小和方向一致。 <BR>S1003与S603的处理过程类似,所不同的就是S603是根据所述第二训练图像样本集中的指定个图像样本的估计姿态信息进行相应处理,S1003是对所述输入图像样本的估计姿态信息进行相应处理,在此不再赘述,具体可参见S603的相关描述。 <BR>本实施例中S1002和S1003的实现过程具体实现根据所述姿态分类器对所述输入图像样本进行姿态估计处理的过程。 <BR>S1004:根据所述物体分类器对所述归一化处理后的输入图像样本进行物体检测,获取物体的位置信息。 <BR>此步骤中,所述根据所述物体分类器对所述归一化处理后的输入图像进行人体检测,具体为:计算所述归一化处理后的输入图像样本的人体包围框中的特征向量,根据所述物体分类器,具体为人体分类器对所述输入图像样本的人体包围框中的特征向量进行人体检测,这样可以消除人体的姿态对于特征计算的影响,使同一类别的物体即使在不同的姿态下也能得到一致的特征向量;其中所述特征向量为HOG向量。 <BR>ROC曲线(receiver&nbsp;operating&nbsp;characteristic&nbsp;curve,受试者工作特征曲线)反映了系统的检测率和误检率之间的关系,其中,检测率=正确检测到的目标物体的数目/测试集中的目标物体的总数目,误检率=错误检测到的目标物体的数目/测试集中所有扫描窗口的总数目;本实施例所述物体检测方法的ROC曲线如图11所示,图11为本发明实施例提供的本发明实施例和现有技术的ROC曲线示意图。从图11可以看出,本发明实施例所述物体检测方法的ROC曲线明显优于现有技术中的物体检测方法。 <BR>本实施例中,根据姿态分类器对输入图像样本进行姿态估计处理,这样可以消除物体的姿态对于特征计算的影响,使同一类别的物体即使在不同的姿态下也能得到一致的特征向量;然后根据基于姿态估计生成的物体分类器对所述处理后的的输入图像样本进行物体检测,从而获取物体的位置信息,使得在物体检测的过程中充分考虑了具有关节的物体的姿态信息,可以对不同姿态的具有关节的物体进行检测,从而提高了物体的检测率。 <BR>参考图12,图12为本发明实施例提供的一种训练姿态分类器的装置实施例的结构示意图;所述训练姿态分类器的装置包括: <BR>第一获取模块1201,用于获取第一训练图像样本集。 <BR>第二获取模块1202,用于获取所述第一训练图像样本集中指定个训练图像样本的实际姿态信息。 <BR>第一训练生成模块1203,用于根据所述指定个训练图像样本及其实际姿态信息执行递归训练过程,生成姿态分类器。 <BR>参见图13,在一种实施方式下,所述第一训练生成模块1203可以包括: <BR>第一构造单元1203a,用于构造损失函数,其中所述损失函数的输入为所述指定个训练图像样本及其实际姿态信息,所述损失函数的输出为所述指定个训练图像样本的实际姿态信息和估计姿态信息之间的差异值。 <BR>第二构造单元1203b,用于构造映射函数,其中所述映射函数的输入为所述指定个训练图像样本,所述映射函数的输出为所述指定个训练图像样本的估计姿态信息。 <BR>姿态分类器获取单元1203c,用于根据所述指定个训练图像样本及其实际姿态信息执行递归,获取使所述损失函数的输出值最小时的映射函数作为姿态分类器。 <BR>其中,所述损失函数为实际姿态信息和估计姿态信息的位置差异。 <BR>或者,所述损失函数为实际姿态信息和估计姿态信息的位置差异和方向差异。 <BR>本实施例中,获取第一训练图像样本集和所述第一训练图像样本集中指定个训练图像样本的实际姿态信息,根据所述指定个训练图像样本及其实际姿态信息构造映射函数和损失函数,根据所述损失函数的输出值调整所述映射函数直至所述损失函数的输出值最小,获取使所述损失函数的输出值最小时的映射函数作为姿态分类器,实现递归训练过程,使得该姿态分类器可以对不同姿态的具有关节的物体进行检测,从而提高了物体的检测率。 <BR>此外采用Regression方法生成的姿态分类器分别输出至训练物体分类器的过程和物体检测过程用于姿态估计,即本实施例采用了多输出Regression的方法,相对于传统的姿态估计的方法而言,降低了计算复杂度。本实施例构造的损失函数考虑了方向上的差异,更有利于不同姿态具有关节的物体的检测,提高了物体的检测率。 <BR>本发明实施例中的物体具体为具有关节的物体,包括人体、机器人、猴子或狗等物体,但是并不局限于此,参考图14,图14为本发明实施例提供的一种训练物体分类器的装置实施例的结构示意图;本实施例中所述训练物体分类器的装置采用上述装置实施例生成的姿态分类器。 <BR>所述训练物体分类器的装置包括: <BR>第三获取模块1401,用于获取第二训练图像样本集。 <BR>第一姿态估计模块1402,用于根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿态估计处理。 <BR>第二训练生成模块1403,用于对所述姿态估计处理后的训练图像样本执行训练,生成物体分类器。 <BR>参见图15,在一种实施方式下,所述第一姿态估计模块1402包括: <BR>第一姿态估计单元1402a,用于根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿态估计,得到所述指定个训练图像样本的估计姿态信息。 <BR>第一构造处理单元1402b,用于根据所述指定个训练图像样本的估计姿态信息对每个具有关节的物体构造多个训练物体包围框,对所述多个训练物体包围框进行归一化处理,使不同物体的同一部分的训练物体包围框的大小和方向一致。 <BR>相应的,所述第二训练生成模块1403包括: <BR>训练单元1403a,用于对所述归一化处理后的训练图像样本执行训练。 <BR>在另一实施方式下,所述装置进一步包括: <BR>第一图形用户界面(GUI,Graphical&nbsp;User&nbsp;Interface),用于在所述得到所述指定个训练图像样本的估计姿态信息之后,显示所述指定个训练图像样本的估计姿态信息。 <BR>在另一实施方式下,所述装置进一步包括: <BR>第二图像用户界面,用于在所述对所述多个训练物体包围框进行归一化处理之后,显示所述归一化处理后的多个训练物体包围框。 <BR>在另一实施方式下,所述估计姿态信息具体为训练物体结构特征点的位置信息,所述训练物体结构特征点包括:头部中心位置点、腰部中心位置点、左脚中心位置点和右脚中心位置点; <BR>所述第一构造处理单元1402b包括: <BR>第一构造子单元,用于对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造3个物体包围框,对所述3个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。 <BR>在另一实施方式下,所述估计姿态信息具体为训练物体结构特征点的位置信息,所述训练物体结构特征点包括:头部中心位置点、腰部中心位置点、左膝盖中心位置点、右膝盖中心位置点、左脚中心位置点和右脚中心位置点; <BR>所述第一构造处理单元1402b包括: <BR>第二构造子单元,用于对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和右膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造5个物体包围框,对所述5个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。 <BR>本实施例中,根据姿态分类器对第二训练图像样本集中指定个训练图像样本进行姿态估计处理,然后对所述姿态估计处理后的训练图像样本执行训练后生成物体分类器,从而使得训练生成的物体分类器消除了姿态对物体特征计算的影响,使同一类别的物体即使在不同的姿态下也能得到一致的特征向量,可以用于对不同姿态的具有关节的物体进行检测,从而提高了物体的检测率。 <BR>本发明实施例中的物体具体为具有关节的物体,包括人体、机器人、猴子或狗等物体,但是并不局限于此,参考图16,图16是本发明实施例提供的一种物体检测的装置实施例的结构示意图;本实施例中所述物体检测的装置采用上述装置实施例中生成的姿态分类器和物体分类器。 <BR>所述物体检测的装置包括: <BR>第四获取模块1601,用于获取输入图像样本。 <BR>第二姿态估计模块1602,用于根据所述姿态分类器对所述输入图像样本进行姿态估计处理。 <BR>检测模块1603,用于根据所述物体分类器对所述处理后的输入图像样本进行物体检测,获取物体的位置信息。 <BR>参见图17,在一种实施方式下,所述第二姿态估计模块1602包括: <BR>第二姿态估计单元1602a,用于根据所述姿态分类器对所述输入图像样本进行姿态估计,得到所述输入图像样本的估计姿态信息。 <BR>第二构造处理单元1602b,用于根据所述输入图像样本的估计姿态信息对每个据有关街的物体构造多个物体包围框,对所述多个物体包围框进行归一化处理,使不同物体的同一部分的物体包围框的大小和方向一致。 <BR>相应的,所述检测模块1603包括: <BR>检测单元1603a,用于根据所述物体分类器对所述归一化处理后的输入图像样本进行物体检测。 <BR>在另一实施方式下,所述装置进一步包括: <BR>第三图形用户界面,用于在所述得到所述输入图像样本的估计姿态信息之后,将所述输入图像样本的估计姿态信息进行显示。 <BR>在另一实施方式下,所述装置进一步包括: <BR>第四图形用户界面,用于在所述对所述多个物体包围框进行归一化处理之后,将所述归一化处理后的多个物体包围框进行显示。 <BR>在另一实施方式下,所述估计姿态信息具体为物体结构特征点的位置信息,所述物体结构特征点包括:头部中心位置点、腰部中心位置点、左脚中心位置点和右脚中心位置点; <BR>所述第二构造处理单元1602b包括: <BR>第三构造子单元,用于对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造3个物体包围框,对所述3个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。 <BR>在另一实施方式下,所述估计姿态信息具体为物体结构特征点的位置信息,所述物体结构特征点包括:头部中心位置点、腰部中心位置点、左膝盖中心位置点、右膝盖中心位置点、左脚中心位置点和右脚中心位置点; <BR>所述第二构造处理单元1602b包括: <BR>第四构造子单元,用于对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴线、以腰部中心位置点和左膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和右膝盖中心位置点所在的直线为中轴线、以腰部中心位置点和左脚中心位置点所在的直线为中轴线,和,以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造5个物体包围框,对所述5个物体包围框进行旋转和缩放处理;其中所述物体结构特征点位于对应的所述物体包围框内。 <BR>本实施例中,根据姿态分类器对输入图像样本进行姿态估计处理,这样可以消除物体的姿态对于特征计算的影响,使同一类别的物体即使在不同的姿态下也能得到一致的特征向量;然后根据基于姿态估计生成的物体分类器对所述处理后的的输入图像样本进行物体检测,从而获取物体的位置信息,使得在物体检测的过程中充分考虑了物体的姿态信息,可以对不同姿态的物体进行检测,从而提高了物体的检测率。 <BR>需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。 <BR>需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。 <BR>本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。 <BR>以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。</p></div> </div> </div> </div> <div class="tempdiv cssnone" style="line-height:0px;height:0px; overflow:hidden;"> </div> <div id="page"> <div class="page"><img src='https://img.zhuanlichaxun.net/fileroot3/2019-3/18/c8dec4e6-1f8d-4bb6-ab24-7409befb8114/c8dec4e6-1f8d-4bb6-ab24-7409befb81141.gif' alt="训练姿态分类器及物体分类器、物体检测的方法及装置.pdf_第1页" width='100%'/></div><div class="pageSize">第1页 / 共35页</div> <div class="page"><img src='https://img.zhuanlichaxun.net/fileroot3/2019-3/18/c8dec4e6-1f8d-4bb6-ab24-7409befb8114/c8dec4e6-1f8d-4bb6-ab24-7409befb81142.gif' alt="训练姿态分类器及物体分类器、物体检测的方法及装置.pdf_第2页" width='100%'/></div><div class="pageSize">第2页 / 共35页</div> <div class="page"><img src='https://img.zhuanlichaxun.net/fileroot3/2019-3/18/c8dec4e6-1f8d-4bb6-ab24-7409befb8114/c8dec4e6-1f8d-4bb6-ab24-7409befb81143.gif' alt="训练姿态分类器及物体分类器、物体检测的方法及装置.pdf_第3页" width='100%'/></div><div class="pageSize">第3页 / 共35页</div> </div> <div id="pageMore" class="btnmore" onclick="ShowSvg();">点击查看更多>></div> <div style="margin-top:20px; line-height:0px; height:0px; overflow:hidden;"> <div style=" font-size: 16px; background-color:#e5f0f7; font-weight: bold; text-indent:10px; line-height: 40px; height:40px; padding-bottom: 0px; margin-bottom:10px;">资源描述</div> <div class="detail-article prolistshowimg"> <p>《训练姿态分类器及物体分类器、物体检测的方法及装置.pdf》由会员分享,可在线阅读,更多相关《训练姿态分类器及物体分类器、物体检测的方法及装置.pdf(35页珍藏版)》请在专利查询网上搜索。</p> <p >1、(10)申请公布号 CN 103324938 A (43)申请公布日 2013.09.25 CN 103324938 A *CN103324938A* (21)申请号 201210077224.3 (22)申请日 2012.03.21 G06K 9/62(2006.01) (71)申请人 日电 (中国) 有限公司 地址 100191 北京市海淀区学院路 35 号世 宁大厦 20 层 (72)发明人 唐绍鹏 王峰 刘国翌 张洪明 曾炜 (74)专利代理机构 北京三高永信知识产权代理 有限责任公司 11138 代理人 张耀光 (54) 发明名称 训练姿态分类器及物体分类器、 物体检测的 方法及装置。</p> <p >2、 (57) 摘要 本发明公开了一种训练姿态分类器及物体分 类器、 物体检测的方法及装置, 属于图像处理领 域。所述物体检测的方法包括 : 获取输入图像样 本 ; 根据所述姿态分类器对所述输入图像样本进 行姿态估计处理 ; 根据所述物体分类器对所述处 理后的输入图像样本进行物体检测, 获取物体的 位置信息, 其中所述物体为具有关节的物体。 本发 明可以对不同姿态的物体进行检测, 从而提高了 物体的检测率。 (51)Int.Cl. 权利要求书 6 页 说明书 20 页 附图 8 页 (19)中华人民共和国国家知识产权局 (12)发明专利申请 权利要求书6页 说明书20页 附图8页 (10)申请公布。</p> <p >3、号 CN 103324938 A CN 103324938 A *CN103324938A* 1/6 页 2 1. 一种训练姿态分类器的方法, 其特征在于, 包括 : 获取第一训练图像样本集 ; 获取所述第一训练图像样本集中指定个训练图像样本的实际姿态信息 ; 根据所述指定个训练图像样本及其实际姿态信息执行递归训练过程, 生成姿态分类 器。 2. 根据权利要求 1 所述的方法, 其特征在于, 所述根据所述指定个训练图像样本及其 实际姿态信息执行递归训练过程, 生成姿态分类器包括 : 构造损失函数, 其中所述损失函数的输入为所述指定个训练图像样本及其实际姿态信 息, 所述损失函数的输出为所述指定。</p> <p >4、个训练图像样本的实际姿态信息和估计姿态信息之间 的差异值 ; 构造映射函数, 其中所述映射函数的输入为所述指定个训练图像样本, 所述映射函数 的输出为所述指定个训练图像样本的估计姿态信息 ; 根据所述指定个训练图像样本及其实际姿态信息执行递归, 获取使所述损失函数的输 出值最小时的映射函数作为姿态分类器。 3. 根据权利要求 2 所述的方法, 其特征在于, 所述损失函数为实际姿态信息和估计姿 态信息的位置差异。 4. 根据权利要求 2 所述的方法, 其特征在于, 所述损失函数为实际姿态信息和估计姿 态信息的位置差异和方向差异。 5. 一种利用权利要求 1-4 任一项方法生成的姿态分类器训练物体。</p> <p >5、分类器的方法, 其特 征在于, 所述物体为具有关节的物体, 所述方法包括 : 获取第二训练图像样本集 ; 根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿态估 计处理 ; 对所述姿态估计处理后的训练图像样本执行训练, 生成物体分类器。 6. 根据权利要求 5 所述的方法, 其特征在于, 所述根据所述姿态分类器对所述第二训 练图像样本集中指定个训练图像样本进行姿态估计处理包括 : 根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿态估 计, 得到所述指定个训练图像样本的估计姿态信息 ; 根据所述指定个训练图像样本的估计姿态信息对每个具有关节的物体构造多个训练。</p> <p >6、 物体包围框, 对所述多个训练物体包围框进行归一化处理, 使不同物体的同一部分的训练 物体包围框的大小和方向一致 ; 所述对所述姿态估计处理后的训练图像样本执行训练包括 : 对所述归一化处理后的训练图像样本执行训练。 7. 根据权利要求 6 所述的方法, 其特征在于, 所述得到所述指定个训练图像样本的估 计姿态信息之后, 进一步包括 : 显示所述指定个训练图像样本的估计姿态信息。 8. 根据权利要求 6 所述的方法, 其特征在于, 所述对所述多个训练物体包围框进行归 一化处理之后, 进一步包括 : 显示所述归一化处理后的多个训练物体包围框。 权 利 要 求 书 CN 103324938 A 2。</p> <p >7、 2/6 页 3 9. 根据权利要求 5-8 任一项所述的方法, 其特征在于, 所述估计姿态信息具体为训练 物体结构特征点的位置信息, 所述训练物体结构特征点包括 : 头部中心位置点、 腰部中心位置点、 左脚中心位置点和右脚中心位置点 ; 所述根据所述指定个训练图像样本的估计姿态信息对每个具有关节的物体构造多个 物体包围框, 对所述多个物体包围框进行归一化处理包括 : 对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴 线、 以腰部中心位置点和左脚中心位置点所在的直线为中轴线, 和, 以腰部中心位置点和右 脚中心位置点所在的直线为中轴线构造 3 个物体包围框, 对所述 3。</p> <p >8、 个物体包围框进行旋转 和缩放处理 ; 其中所述物体结构特征点位于对应的所述物体包围框内。 10. 根据权利要求 5-8 任一项所述的方法, 其特征在于, 所述估计姿态信息具体为训练 物体结构特征点的位置信息, 所述训练物体结构特征点包括 : 头部中心位置点、 腰部中心位置点、 左膝盖中心位置点、 右膝盖中心位置点、 左脚中心 位置点和右脚中心位置点 ; 所述根据所述指定个训练图像样本的估计姿态信息对每个具有关节的物体构造多个 物体包围框, 对所述多个物体包围框进行归一化处理包括 : 对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴 线、 以腰部中心位置点和左膝盖中心位。</p> <p >9、置点所在的直线为中轴线、 以腰部中心位置点和右 膝盖中心位置点所在的直线为中轴线、 以腰部中心位置点和左脚中心位置点所在的直线为 中轴线, 和, 以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造 5 个物体包围 框, 对所述 5 个物体包围框进行旋转和缩放处理 ; 其中所述物体结构特征点位于对应的所 述物体包围框内。 11.一种利用权利要求1-4任一项方法生成的姿态分类器及权利要求5-10任一项方法 生成的物体分类器进行物体检测的方法, 其特征在于, 所述物体为具有关节的物体, 所述方 法包括 : 获取输入图像样本 ; 根据所述姿态分类器对所述输入图像样本进行姿态估计处理 ; 根据所述物。</p> <p >10、体分类器对所述处理后的输入图像样本进行物体检测, 获取物体的位置信 息。 12. 根据权利要求 11 所述的方法, 其特征在于, 所述根据所述姿态分类器对所述输入 图像样本进行姿态估计处理包括 : 根据所述姿态分类器对所述输入图像样本进行姿态估计, 得到所述输入图像样本的估 计姿态信息 ; 根据所述输入图像样本的估计姿态信息对每个具有关节的物体构造多个物体包围框, 对所述多个物体包围框进行归一化处理, 使不同物体的同一部分的物体包围框的大小和方 向一致 ; 相应的, 所述根据所述物体分类器对所述处理后的输入图像样本进行物体检测包括 : 根据所述物体分类器对所述归一化处理后的输入图像样本进行物体。</p> <p >11、检测。 13. 根据权利要求 12 所述的方法, 其特征在于, 所述得到所述输入图像样本的估计姿 态信息之后, 进一步包括 : 权 利 要 求 书 CN 103324938 A 3 3/6 页 4 将所述输入图像样本的估计姿态信息进行显示。 14. 根据权利要求 12 所述的方法, 其特征在于, 所述对所述多个物体包围框进行归一 化处理之后, 进一步包括 : 将所述归一化处理后的多个物体包围框进行显示。 15. 根据权利要求 12-14 任一项所述的方法, 其特征在于, 所述估计姿态信息具体为物 体结构特征点的位置信息, 所述物体结构特征点包括 : 头部中心位置点、 腰部中心位置点、 左脚中心。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>12、位置点和右脚中心位置点 ; 所述根据所述输入图像样本的估计姿态信息对每个具有关节的物体构造多个物体包 围框, 对所述多个物体包围框进行归一化处理包括 : 对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴 线、 以腰部中心位置点和左脚中心位置点所在的直线为中轴线, 和, 以腰部中心位置点和右 脚中心位置点所在的直线为中轴线构造 3 个物体包围框, 对所述 3 个物体包围框进行旋转 和缩放处理 ; 其中所述物体结构特征点位于对应的所述物体包围框内。 16. 根据权利要求 12-14 任一项所述的方法, 其特征在于, 所述估计姿态信息具体为物 体结构特征点的位置信息, 所述物。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>13、体结构特征点包括 : 头部中心位置点、 腰部中心位置点、 左膝盖中心位置点、 右膝盖中心位置点、 左脚中心 位置点和右脚中心位置点 ; 所述根据所述输入图像样本的估计姿态信息对每个具有关节的物体构造多个物体包 围框, 对所述多个物体包围框进行归一化处理包括 : 对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为中轴 线、 以腰部中心位置点和左膝盖中心位置点所在的直线为中轴线、 以腰部中心位置点和右 膝盖中心位置点所在的直线为中轴线、 以腰部中心位置点和左脚中心位置点所在的直线为 中轴线, 和, 以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造 5 个物体包围 框, 对所。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>14、述 5 个物体包围框进行旋转和缩放处理 ; 其中所述物体结构特征点位于对应的所 述物体包围框内。 17. 一种训练姿态分类器的装置, 其特征在于, 包括 : 第一获取模块, 用于获取第一训练图像样本集 ; 第二获取模块, 用于获取所述第一训练图像样本集中指定个训练图像样本的实际姿态 信息 ; 第一训练生成模块, 用于根据所述指定个训练图像样本及其实际姿态信息执行递归训 练过程, 生成姿态分类器。 18. 根据权利要求 17 所述的装置, 其特征在于, 所述第一训练生成模块包括 : 第一构造单元, 用于构造损失函数, 其中所述损失函数的输入为所述指定个训练图像 样本及其实际姿态信息, 所述损失函。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>15、数的输出为所述指定个训练图像样本的实际姿态信息 和估计姿态信息之间的差异值 ; 第二构造单元, 用于构造映射函数, 其中所述映射函数的输入为所述指定个训练图像 样本, 所述映射函数的输出为所述指定个训练图像样本的估计姿态信息 ; 姿态分类器获取单元, 用于根据所述指定个训练图像样本及其实际姿态信息执行递 归, 获取使所述损失函数的输出值最小时的映射函数作为姿态分类器。 权 利 要 求 书 CN 103324938 A 4 4/6 页 5 19. 根据权利要求 18 所述的装置, 其特征在于, 所述损失函数为实际姿态信息和估计 姿态信息的位置差异。 20. 根据权利要求 18 所述的装置, 其特。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>16、征在于, 所述损失函数为实际姿态信息和估计 姿态信息的位置差异和方向差异。 21. 一种利用权利要求 17-20 任一项装置生成的姿态分类器训练物体分类器的装置, 其特征在于, 所述物体为具有关节的物体, 所述装置包括 : 第三获取模块, 用于获取第二训练图像样本集 ; 第一姿态估计模块, 用于根据所述姿态分类器对所述第二训练图像样本集中指定个训 练图像样本进行姿态估计处理 ; 第二训练生成模块, 用于对所述姿态估计处理后的训练图像样本执行训练, 生成物体 分类器。 22. 根据权利要求 21 所述的装置, 其特征在于, 所述第一姿态估计模块包括 : 第一姿态估计单元, 用于根据所述姿态分类器。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>17、对所述第二训练图像样本集中指定个训 练图像样本进行姿态估计, 得到所述指定个训练图像样本的估计姿态信息 ; 第一构造处理单元, 用于根据所述指定个训练图像样本的估计姿态信息对每个具有关 节的物体构造多个训练物体包围框, 对所述多个训练物体包围框进行归一化处理, 使不同 物体的同一部分的训练物体包围框的大小和方向一致 ; 所述第二训练生成模块包括 : 训练单元, 用于对所述归一化处理后的训练图像样本执行训练。 23. 根据权利要求 22 所述的装置, 其特征在于, 进一步包括 : 第一图形用户界面, 用于在所述得到所述指定个训练图像样本的估计姿态信息之后, 显示所述指定个训练图像样本的估计姿态信。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>18、息。 24. 根据权利要求 22 所述的装置, 其特征在于, 进一步包括 : 第二图像用户界面, 用于在所述对所述多个训练物体包围框进行归一化处理之后, 显 示所述归一化处理后的多个训练物体包围框。 25. 根据权利要求 22-24 任一项所述的装置, 其特征在于, 所述估计姿态信息具体为训 练物体结构特征点的位置信息, 所述训练物体结构特征点包括 : 头部中心位置点、 腰部中心位置点、 左脚中心位置点和右脚中心位置点 ; 所述第一构造处理单元包括 : 第一构造子单元, 用于对每个具有关节的物体分别以头部中心位置点和腰部中心位置 点所在的直线为中轴线、 以腰部中心位置点和左脚中心位置点所在的直。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>19、线为中轴线, 和, 以 腰部中心位置点和右脚中心位置点所在的直线为中轴线构造 3 个物体包围框, 对所述 3 个 物体包围框进行旋转和缩放处理 ; 其中所述物体结构特征点位于对应的所述物体包围框 内。 26. 根据权利要求 22-24 任一项所述的装置, 其特征在于, 所述估计姿态信息具体为训 练物体结构特征点的位置信息, 所述训练物体结构特征点包括 : 头部中心位置点、 腰部中心位置点、 左膝盖中心位置点、 右膝盖中心位置点、 左脚中心 位置点和右脚中心位置点 ; 所述第一构造处理单元包括 : 权 利 要 求 书 CN 103324938 A 5 5/6 页 6 第二构造子单元, 用于对每个。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>20、具有关节的物体分别以头部中心位置点和腰部中心位置 点所在的直线为中轴线、 以腰部中心位置点和左膝盖中心位置点所在的直线为中轴线、 以 腰部中心位置点和右膝盖中心位置点所在的直线为中轴线、 以腰部中心位置点和左脚中心 位置点所在的直线为中轴线, 和, 以腰部中心位置点和右脚中心位置点所在的直线为中轴 线构造5个物体包围框, 对所述5个物体包围框进行旋转和缩放处理 ; 其中所述物体结构特 征点位于对应的所述物体包围框内。 27. 一种利用权利要求 17-20 任一项装置生成的姿态分类器及权利要求 21-26 任一项 装置生成的物体分类器进行物体检测的装置, 其特征在于, 所述物体为具有关节的物体,。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>21、 所 述装置包括 : 第四获取模块, 用于获取输入图像样本 ; 第二姿态估计模块, 用于根据所述姿态分类器对所述输入图像样本进行姿态估计处 理 ; 检测模块, 用于根据所述物体分类器对所述处理后的输入图像样本进行物体检测, 获 取物体的位置信息。 28. 根据权利要求 27 所述的装置, 其特征在于, 所述第二姿态估计模块包括 : 第二姿态估计单元, 用于根据所述姿态分类器对所述输入图像样本进行姿态估计, 得 到所述输入图像样本的估计姿态信息 ; 第二构造处理单元, 用于根据所述输入图像样本的估计姿态信息对每个具有关节的物 体构造多个物体包围框, 对所述多个物体包围框进行归一化处理, 使不同物。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>22、体的同一部分 的训练物体包围框的大小和方向一致 ; 所述检测模块包括 : 检测单元, 用于根据所述物体分类器对所述归一化处理后的输入图像样本进行物体检 测。 29. 根据权利要求 28 所述的装置, 其特征在于, 进一步包括 : 第三图形用户界面, 用于在所述得到所述输入图像样本的估计姿态信息之后, 将所述 输入图像样本的估计姿态信息进行显示。 30. 根据权利要求 28 所述的装置, 其特征在于, 进一步包括 : 第四图形用户界面, 用于在所述对所述多个物体包围框进行归一化处理之后, 将所述 归一化处理后的多个物体包围框进行显示。 31. 根据权利要求 28-30 任一项所述的装置, 其特征。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>23、在于, 所述估计姿态信息具体为物 体结构特征点的位置信息, 所述物体结构特征点包括 : 头部中心位置点、 腰部中心位置点、 左脚中心位置点和右脚中心位置点 ; 所述第二构造处理单元包括 : 第三构造子单元, 用于对每个具有关节的物体分别以头部中心位置点和腰部中心位置 点所在的直线为中轴线、 以腰部中心位置点和左脚中心位置点所在的直线为中轴线, 和, 以 腰部中心位置点和右脚中心位置点所在的直线为中轴线构造 3 个物体包围框, 对所述 3 个 物体包围框进行旋转和缩放处理 ; 其中所述物体结构特征点位于对应的所述物体包围框 内。 32. 根据权利要求 28-30 任一项所述的装置, 其特征在于,。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>24、 所述估计姿态信息具体为物 权 利 要 求 书 CN 103324938 A 6 6/6 页 7 体结构特征点的位置信息, 所述物体结构特征点包括 : 头部中心位置点、 腰部中心位置点、 左膝盖中心位置点、 右膝盖中心位置点、 左脚中心 位置点和右脚中心位置点 ; 所述第二构造处理单元包括 : 第四构造子单元, 用于对每个具有关节的物体分别以头部中心位置点和腰部中心位置 点所在的直线为中轴线、 以腰部中心位置点和左膝盖中心位置点所在的直线为中轴线、 以 腰部中心位置点和右膝盖中心位置点所在的直线为中轴线、 以腰部中心位置点和左脚中心 位置点所在的直线为中轴线, 和, 以腰部中心位置点和右脚中心。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>25、位置点所在的直线为中轴 线构造5个物体包围框, 对所述5个物体包围框进行旋转和缩放处理 ; 其中所述物体结构特 征点位于对应的所述物体包围框内。 权 利 要 求 书 CN 103324938 A 7 1/20 页 8 训练姿态分类器及物体分类器、 物体检测的方法及装置 技术领域 0001 本发明涉及图像处理领域, 特别涉及一种训练姿态分类器及物体分类器、 物体检 测的方法及装置。 背景技术 0002 随着电子信息技术的进步和网络化的普及, 人们在日常生活中越来越普遍地通过 各种各样的图像采集设备, 例如监控摄像机、 数码摄像机、 网络摄像机、 数码相机、 手机相机 以及物联网中的视频传感器等来。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>26、获取大量的图像和视频数据。 面对如此大量的图像和视频 数据, 如何快速而智能地分析这些数据成为人们的迫切需求。 0003 人体检测技术就是智能地分析这些数据的一个技术途径, 如图 1 所示, 对于一幅 输入图像而言, 人体检测的过程就是在图像中检测人体的存在, 并且定位出人体的位置, 将 所述人体的位置作为检测结果输出。 0004 现有的人体检测方法主要分为三类 : 0005 第一类是基于局部特征抽取的方法, 该类方法在训练图片的子区域上计算特征, 并且将不同子区域的特征按照某种方式排列组合起来作为人体的特征, 根据这些人体的特 征训练分类器。 在检测的过程中, 检测并计算输入图片的相应的子区。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>27、域的特征, 分类器对该 计算出来的特征进行分类, 实现人体的检测。 0006 第二类是基于兴趣点的方法, 该类方法首先在训练图片集上计算兴趣点, 然后将 以该点为中心的一定大小的块抽取出来, 所有被抽取的块进行聚类操作生成词典。在检测 的过程中, 计算输入图像中相同的兴趣点, 并且抽取块, 然后在词典中查找相似的块, 最后 根据词典中的块投票决定输入图像中人体的位置, 实现人体检测。 0007 第三类是基于模板匹配的方法, 该类方法要预先准备人体轮廓的模板。在检测的 过程中, 计算输入图像的边缘分布图像, 在该边缘分布图像中搜索与人体轮廓最相似的区 域, 实现人体检测。 0008 在实现本发明。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>28、的过程中, 发明人发现现有技术至少存在以下问题 : 虽然上述三类 人体检测方法可以在一定程度上实现人体的检测, 但是上述三类人体检测方法一般都是假 设人体处于直立行走的状态, 忽略了人体作为柔性物体的姿态变化, 因此当人体的姿态变 化时, 现有的人体检测方法很难将人体和背景区域区分, 从而降低了人体的检测率。 发明内容 0009 为了提高物体的检测率, 本发明实施例提供了一种训练姿态分类器及物体分类 器、 物体检测的方法及装置。所述技术方案如下 : 0010 一方面, 本发明实施例提供了一种训练姿态分类器的方法, 包括 : 0011 获取第一训练图像样本集 ; 0012 获取所述第一训练图像样。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>29、本集中指定个训练图像样本的实际姿态信息 ; 0013 根据所述指定个训练图像样本及其实际姿态信息执行递归训练过程, 生成姿态分 说 明 书 CN 103324938 A 8 2/20 页 9 类器。 0014 在一种实施方式中, 所述根据所述指定个训练图像样本及其实际姿态信息执行递 归训练过程, 生成姿态分类器包括 : 0015 构造损失函数, 其中所述损失函数的输入为所述指定个训练图像样本及其实际姿 态信息, 所述损失函数的输出为所述指定个训练图像样本的实际姿态信息和估计姿态信息 之间的差异值 ; 0016 构造映射函数, 其中所述映射函数的输入为所述指定个训练图像样本, 所述映射 函数的输。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>30、出为所述指定个训练图像样本的估计姿态信息 ; 0017 根据所述指定个训练图像样本及其实际姿态信息执行递归, 获取使所述损失函数 的输出值最小时的映射函数作为姿态分类器。 0018 其中, 优选的, 所述损失函数为实际姿态信息和估计姿态信息的位置差异。 0019 其中, 优选的, 所述损失函数为实际姿态信息和估计姿态信息的位置差异和方向 差异。 0020 另一方面, 本发明实施例提供了一种利用上述方法生成的姿态分类器训练物体分 类器的方法, 所述物体为具有关节的物体, 所述方法包括 : 0021 获取第二训练图像样本集 ; 0022 根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>31、本进行姿 态估计处理 ; 0023 对所述姿态估计处理后的训练图像样本执行训练, 生成物体分类器。 0024 在一种实施方式中, 所述根据所述姿态分类器对所述第二训练图像样本集中指定 个训练图像样本进行姿态估计处理包括 : 0025 根据所述姿态分类器对所述第二训练图像样本集中指定个训练图像样本进行姿 态估计, 得到所述指定个训练图像样本的估计姿态信息 ; 0026 根据所述指定个训练图像样本的估计姿态信息对每个具有关节的物体构造多个 训练物体包围框, 对所述多个训练物体包围框进行归一化处理, 使不同物体的同一部分的 训练物体包围框的大小和方向一致 ; 0027 所述对所述姿态估计处理后的训练。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>32、图像样本执行训练包括 : 0028 对所述归一化处理后的训练图像样本执行训练。 0029 在另一实施方式中, 所述得到所述指定个训练图像样本的估计姿态信息之后, 进 一步包括 : 0030 显示所述指定个训练图像样本的估计姿态信息。 0031 再一种实施方式中, 所述对所述多个训练物体包围框进行归一化处理之后, 进一 步包括 : 0032 显示所述归一化处理后的多个训练物体包围框。 0033 再一种实施方式中, 所述估计姿态信息具体为训练物体结构特征点的位置信息, 所述训练物体结构特征点包括 : 0034 头部中心位置点、 腰部中心位置点、 左脚中心位置点和右脚中心位置点 ; 0035 所述根。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>33、据所述指定个训练图像样本的估计姿态信息对每个具有关节的物体构造 多个物体包围框, 对所述多个物体包围框进行归一化处理包括 : 说 明 书 CN 103324938 A 9 3/20 页 10 0036 对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为 中轴线、 以腰部中心位置点和左脚中心位置点所在的直线为中轴线, 和, 以腰部中心位置点 和右脚中心位置点所在的直线为中轴线构造 3 个物体包围框, 对所述 3 个物体包围框进行 旋转和缩放处理 ; 其中所述物体结构特征点位于对应的所述物体包围框内。 0037 再一种实施方式中, 所述估计姿态信息具体为训练物体结构特征点的位置信。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>34、息, 所述训练物体结构特征点包括 : 0038 头部中心位置点、 腰部中心位置点、 左膝盖中心位置点、 右膝盖中心位置点、 左脚 中心位置点和右脚中心位置点 ; 0039 所述根据所述指定个训练图像样本的估计姿态信息对每个具有关节的物体构造 多个物体包围框, 对所述多个物体包围框进行归一化处理包括 : 0040 对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为 中轴线、 以腰部中心位置点和左膝盖中心位置点所在的直线为中轴线、 以腰部中心位置点 和右膝盖中心位置点所在的直线为中轴线、 以腰部中心位置点和左脚中心位置点所在的直 线为中轴线, 和, 以腰部中心位置点和右脚中心位置。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>35、点所在的直线为中轴线构造 5 个物体 包围框, 对所述 5 个物体包围框进行旋转和缩放处理 ; 其中所述物体结构特征点位于对应 的所述物体包围框内。 0041 另一方面, 本发明实施例提供了一种利用上述方法生成的姿态分类器及上述方法 生成的物体分类器进行物体检测的方法, 所述物体为具有关节的物体, 所述方法包括 : 0042 获取输入图像样本 ; 0043 根据所述姿态分类器对所述输入图像样本进行姿态估计处理 ; 0044 根据所述物体分类器对所述处理后的输入图像样本进行物体检测, 获取物体的位 置信息。 0045 在一种实施方式中, 所述根据所述姿态分类器对所述输入图像样本进行姿态估计 处理。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>36、包括 : 0046 根据所述姿态分类器对所述输入图像样本进行姿态估计, 得到所述输入图像样本 的估计姿态信息 ; 0047 根据所述输入图像样本的估计姿态信息对每个具有关节的物体构造多个物体包 围框, 对所述多个物体包围框进行归一化处理, 使不同物体的同一部分的训练物体包围框 的大小和方向一致 ; 0048 相应的, 所述根据所述物体分类器对所述处理后的输入图像样本进行物体检测包 括 : 0049 根据所述物体分类器对所述归一化处理后的输入图像样本进行物体检测。 0050 在另一实施方式中, 所述得到所述输入图像样本的估计姿态信息之后, 进一步包 括 : 0051 将所述输入图像样本的估计姿态。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>37、信息进行显示。 0052 再一种实施方式中, 所述对所述多个物体包围框进行归一化处理之后, 进一步包 括 : 0053 将所述归一化处理后的多个物体包围框进行显示。 0054 再一种实施方式中, 所述估计姿态信息具体为物体结构特征点的位置信息, 所述 说 明 书 CN 103324938 A 10 4/20 页 11 物体结构特征点包括 : 0055 头部中心位置点、 腰部中心位置点、 左脚中心位置点和右脚中心位置点 ; 0056 所述根据所述输入图像样本的估计姿态信息对每个具有关节的物体构造多个物 体包围框, 对所述多个物体包围框进行归一化处理包括 : 0057 对每个具有关节的物体分别以头。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>38、部中心位置点和腰部中心位置点所在的直线为 中轴线、 以腰部中心位置点和左脚中心位置点所在的直线为中轴线, 和, 以腰部中心位置点 和右脚中心位置点所在的直线为中轴线构造 3 个物体包围框, 对所述 3 个物体包围框进行 旋转和缩放处理 ; 其中所述物体结构特征点位于对应的所述物体包围框内。 0058 再一种实施方式中, 所述估计姿态信息具体为物体结构特征点的位置信息, 所述 物体结构特征点包括 : 0059 头部中心位置点、 腰部中心位置点、 左膝盖中心位置点、 右膝盖中心位置点、 左脚 中心位置点和右脚中心位置点 ; 0060 所述根据所述输入图像样本的估计姿态信息对每个具有关节的物体构造多。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>39、个物 体包围框, 对所述多个物体包围框进行归一化处理包括 : 0061 对每个具有关节的物体分别以头部中心位置点和腰部中心位置点所在的直线为 中轴线、 以腰部中心位置点和左膝盖中心位置点所在的直线为中轴线、 以腰部中心位置点 和右膝盖中心位置点所在的直线为中轴线、 以腰部中心位置点和左脚中心位置点所在的直 线为中轴线, 和, 以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造 5 个物体 包围框, 对所述 5 个物体包围框进行旋转和缩放处理 ; 其中所述物体结构特征点位于对应 的所述物体包围框内。 0062 另一方面, 本发明实施例提供了一种训练姿态分类器的装置, 包括 : 0063 第一。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>40、获取模块, 用于获取第一训练图像样本集 ; 0064 第二获取模块, 用于获取所述第一训练图像样本集中指定个训练图像样本的实际 姿态信息 ; 0065 第一训练生成模块, 用于根据所述指定个训练图像样本及其实际姿态信息执行递 归训练过程, 生成姿态分类器。 0066 在一种实施方式中, 所述第一训练生成模块包括 : 0067 第一构造单元, 用于构造损失函数, 其中所述损失函数的输入为所述指定个训练 图像样本及其实际姿态信息, 所述损失函数的输出为所述指定个训练图像样本的实际姿态 信息和估计姿态信息之间的差异值 ; 0068 第二构造单元, 用于构造映射函数, 其中所述映射函数的输入为所述指定。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>41、个训练 图像样本, 所述映射函数的输出为所述指定个训练图像样本的估计姿态信息 ; 0069 姿态分类器获取单元, 用于根据所述指定个训练图像样本及其实际姿态信息执行 递归, 获取使所述损失函数的输出值最小时的映射函数作为姿态分类器。 0070 其中, 优选的, 所述损失函数为实际姿态信息和估计姿态信息的位置差异。 0071 其中, 优选的, 所述损失函数为实际姿态信息和估计姿态信息的位置差异和方向 差异。 0072 另一方面, 本发明实施例提供了一种利用上述装置生成的姿态分类器训练物体分 类器的装置, 所述物体为具有关节的物体, 所述装置包括 : 说 明 书 CN 103324938 A 11。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>42、 5/20 页 12 0073 第三获取模块, 用于获取第二训练图像样本集 ; 0074 第一姿态估计模块, 用于根据所述姿态分类器对所述第二训练图像样本集中指定 个训练图像样本进行姿态估计处理 ; 0075 第二训练生成模块, 用于对所述姿态估计处理后的训练图像样本执行训练, 生成 物体分类器。 0076 在一种实施方式中, 所述第一姿态估计模块包括 : 0077 第一姿态估计单元, 用于根据所述姿态分类器对所述第二训练图像样本集中指定 个训练图像样本进行姿态估计, 得到所述指定个训练图像样本的估计姿态信息 ; 0078 第一构造处理单元, 用于根据所述指定个训练图像样本的估计姿态信息对每个。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>43、具 有关节的物体构造多个训练物体包围框, 对所述多个训练物体包围框进行归一化处理, 使 不同物体的同一部分的训练物体包围框的大小和方向一致 ; 0079 所述第二训练生成模块包括 : 0080 训练单元, 用于对所述归一化处理后的训练图像样本执行训练。 0081 在另一种实施方式中, 所述装置进一步包括 : 0082 第一图形用户界面, 用于在所述得到所述指定个训练图像样本的估计姿态信息之 后, 显示所述指定个训练图像样本的估计姿态信息。 0083 再一种实施方式中, 所述装置进一步包括 : 0084 第二图像用户界面, 用于在所述对所述多个训练物体包围框进行归一化处理之 后, 显示所述归一化。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>44、处理后的多个训练物体包围框。 0085 再一种实施方式中, 所述估计姿态信息具体为训练物体结构特征点的位置信息, 所述训练物体结构特征点包括 : 0086 头部中心位置点、 腰部中心位置点、 左脚中心位置点和右脚中心位置点 ; 0087 所述第一构造处理单元包括 : 0088 第一构造子单元, 用于对每个具有关节的物体分别以头部中心位置点和腰部中心 位置点所在的直线为中轴线、 以腰部中心位置点和左脚中心位置点所在的直线为中轴线, 和, 以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造 3 个物体包围框, 对所 述 3 个物体包围框进行旋转和缩放处理 ; 其中所述物体结构特征点位于对应的所。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>45、述物体包 围框内。 0089 再一种实施方式中, 所述估计姿态信息具体为训练物体结构特征点的位置信息, 所述训练物体结构特征点包括 : 0090 头部中心位置点、 腰部中心位置点、 左膝盖中心位置点、 右膝盖中心位置点、 左脚 中心位置点和右脚中心位置点 ; 0091 所述第一构造处理单元包括 : 0092 第二构造子单元, 用于对每个具有关节的物体分别以头部中心位置点和腰部中心 位置点所在的直线为中轴线、 以腰部中心位置点和左膝盖中心位置点所在的直线为中轴 线、 以腰部中心位置点和右膝盖中心位置点所在的直线为中轴线、 以腰部中心位置点和左 脚中心位置点所在的直线为中轴线, 和, 以腰部中心位。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>46、置点和右脚中心位置点所在的直线 为中轴线构造5个物体包围框, 对所述5个物体包围框进行旋转和缩放处理 ; 其中所述物体 结构特征点位于对应的所述物体包围框内。 说 明 书 CN 103324938 A 12 6/20 页 13 0093 另一方面, 本发明实施例提供了一种利用上述装置生成的姿态分类器及上述装置 生成的物体分类器进行物体检测的装置, 所述物体为具有关节的物体, 所述装置包括 : 0094 第四获取模块, 用于获取输入图像样本 ; 0095 第二姿态估计模块, 用于根据所述姿态分类器对所述输入图像样本进行姿态估计 处理 ; 0096 检测模块, 用于根据所述物体分类器对所述处理后的。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>47、输入图像样本进行物体检 测, 获取物体的位置信息。 0097 在一种实施方式中, 所述第二姿态估计模块包括 : 0098 第二姿态估计单元, 用于根据所述姿态分类器对所述输入图像样本进行姿态估 计, 得到所述输入图像样本的估计姿态信息 ; 0099 第二构造处理单元, 用于根据所述输入图像样本的估计姿态信息对每个具有关节 的物体构造多个物体包围框, 对所述多个物体包围框进行归一化处理, 使不同物体的同一 部分的训练物体包围框的大小和方向一致 ; 0100 所述检测模块包括 : 0101 检测单元, 用于根据所述物体分类器对所述归一化处理后的输入图像样本进行物 体检测。 0102 在另一实施方式。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>48、中, 所述装置进一步包括 : 0103 第三图形用户界面, 用于在所述得到所述输入图像样本的估计姿态信息之后, 将 所述输入图像样本的估计姿态信息进行显示。 0104 再一种实施方式中, 所述装置进一步包括 : 0105 第四图形用户界面, 用于在所述对所述多个物体包围框进行归一化处理之后, 将 所述归一化处理后的多个物体包围框进行显示。 0106 再一种实施方式中, 所述估计姿态信息具体为物体结构特征点的位置信息, 所述 物体结构特征点包括 : 0107 头部中心位置点、 腰部中心位置点、 左脚中心位置点和右脚中心位置点 ; 0108 所述第二构造处理单元包括 : 0109 第三构造子单元,。</p> <p style='height:0px;padding:0;margin:0;overflow:hidden'>49、 用于对每个具有关节的物体分别以头部中心位置点和腰部中心 位置点所在的直线为中轴线、 以腰部中心位置点和左脚中心位置点所在的直线为中轴线, 和, 以腰部中心位置点和右脚中心位置点所在的直线为中轴线构造 3 个物体包围框, 对所 述 3 个物体包围框进行旋转和缩放处理 ; 其中所述物体结构特征点位于对应的所述物体包 围框内。 0110 再一种实施方式中, 所述估计姿态信息具体为物体结构特征点的位置信息, 所述 物体结构特征点包括 : 0111 头部中心位置点、 腰部中心位置点、 左膝盖中心位置点、 右膝盖中心位置点、 左脚 中心位置点和右脚中心位置点 ; 0112 所述第二构造处理单元包括 : 0113 第四构造子单元, 用于对每个具有关节的物体分别以头部中心位置点和腰部中心 位置点所在的直线为中轴线、 以腰部中心位置点和左膝盖中心位置点所。</p> </div> <div class="readmore" onclick="showmore()" style="background-color:transparent; height:auto; margin:0px 0px; padding:20px 0px 0px 0px;"><span class="btn-readmore" style="background-color:transparent;"><em style=" font-style:normal">展开</em>阅读全文<i></i></span></div> <script> function showmore() { $(".readmore").hide(); $(".detail-article").css({ "height":"auto", "overflow": "hidden" }); } $(document).ready(function() { var dh = $(".detail-article").height(); if(dh >100) { $(".detail-article").css({ "height":"100px", "overflow": "hidden" }); } else { $(".readmore").hide(); } }); </script> </div> <script> var defaultShowPage = parseInt("3"); var id = "5777955"; var total_page = "35"; var mfull = false; var mshow = false; function DownLoad() { window.location.href='https://m.zhuanlichaxun.net/d-5777955.html'; } function relate() { var reltop = $('#relate').offset().top-50; $("html,body").animate({ scrollTop: reltop }, 500); } </script> <script> var pre = "https://img.zhuanlichaxun.net/fileroot3/2019-3/18/c8dec4e6-1f8d-4bb6-ab24-7409befb8114/c8dec4e6-1f8d-4bb6-ab24-7409befb8114"; var freepage = parseInt('4'); var total_c = parseInt('35'); var start = defaultShowPage; var adcount = 0; var adindex = 0; var adType_list = ";0;1;2;3;"; var end = start; function ShowSvg() { end = start + defaultShowPage; if (end > freepage) end = freepage; for (var i = start; i < end; i++) { var imgurl = pre + (i + 1) + '.gif'; var html = "<img src='" + imgurl + "' alt=\"训练姿态分类器及物体分类器、物体检测的方法及装置.pdf_第" + (i + 1) + "页\" width='100%'/>"; $("#page").append("<div class='page'>" + html + "</div>"); $("#page").append("<div class='pageSize'>第" + (i + 1) + "页 / 共" + total_c + "页</div>"); if(adcount > 0 && adType_list.indexOf(";"+(i+1)+";")>-1) { if(adindex > (adcount-1)) adindex = 0; $("#page").append("<div class='pagead' id='addiv"+(i + 1)+"'></div>"); document.getElementById("addiv"+(i + 1)+"").innerHTML =document.getElementById("adpre" + adindex).outerHTML; adindex += 1; } } start = end; if (start > (freepage - 1)) { if (start < total_c) { $("#pageMore").removeClass("btnmore"); $("#pageMore").html("亲,该文档总共" + total_c + "页,到这儿已超出免费预览范围,如果喜欢就下载吧!"); } else { $("#pageMore").removeClass("btnmore"); $("#pageMore").html("亲,该文档总共" + total_c + "页全部预览完了,如果喜欢就下载吧!"); } } } //$(document).ready(function () { // ShowSvg(); //}); </script> <div id="relate" class="container" style="padding:0px 0px 15px 0px; margin-top:20px; border:solid 1px #dceef8"> <div style=" font-size: 16px; background-color:#e5f0f7; margin-bottom:5px; font-weight: bold; text-indent:10px; line-height: 40px; height:40px; padding-bottom: 0px;">相关资源</div> <div id="relatelist" style="padding-left:5px;"> <li><img alt="LED光地址发射器及车联网系统及电子地图绘制方法.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5776956.html" title="LED光地址发射器及车联网系统及电子地图绘制方法.pdf">LED光地址发射器及车联网系统及电子地图绘制方法.pdf</a> </li><li><img alt="浪涌保护模块直流参数的综合测量系统及其测量方法.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5776957.html" title="浪涌保护模块直流参数的综合测量系统及其测量方法.pdf">浪涌保护模块直流参数的综合测量系统及其测量方法.pdf</a> </li><li><img alt="POS机、卡片业务实现的系统及方法.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5776958.html" title="POS机、卡片业务实现的系统及方法.pdf">POS机、卡片业务实现的系统及方法.pdf</a> </li><li><img alt="一种基于双目立体视觉的三维圆形目标检测和判断方法.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5776959.html" title="一种基于双目立体视觉的三维圆形目标检测和判断方法.pdf">一种基于双目立体视觉的三维圆形目标检测和判断方法.pdf</a> </li><li><img alt="电缆快速接头.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5776960.html" title="电缆快速接头.pdf">电缆快速接头.pdf</a> </li><li><img alt="衣物护理机.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5776961.html" title="衣物护理机.pdf">衣物护理机.pdf</a> </li><li><img alt="基于反射光路的微光夜视仪分辨率检测方法及装置.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5776962.html" title="基于反射光路的微光夜视仪分辨率检测方法及装置.pdf">基于反射光路的微光夜视仪分辨率检测方法及装置.pdf</a> </li><li><img alt="一种通过关联防伪套码实现多次认证的物品防伪方法.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5776963.html" title="一种通过关联防伪套码实现多次认证的物品防伪方法.pdf">一种通过关联防伪套码实现多次认证的物品防伪方法.pdf</a> </li><li><img alt="蓄电池单片极板活性物利用率测试装置及方法.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5776964.html" title="蓄电池单片极板活性物利用率测试装置及方法.pdf">蓄电池单片极板活性物利用率测试装置及方法.pdf</a> </li><li><img alt="基于动态规划的前瞻启发式卫星任务规划算法.pdf" class="pdf" src="/Images/s.gif" /><a target="_parent" href="https://m.zhuanlichaxun.net/p-5776965.html" title="基于动态规划的前瞻启发式卫星任务规划算法.pdf">基于动态规划的前瞻启发式卫星任务规划算法.pdf</a> </li> </div> </div> <div class="container" style="padding:0px 0px 15px 0px; margin-top:20px; border:solid 1px #dceef8"> <div style=" font-size: 16px; background-color:#e5f0f7; margin-bottom:5px; font-weight: bold; text-indent:10px; line-height: 40px; height:40px; padding-bottom: 0px;">猜你喜欢</div> <div id="relatelist" style="padding-left:5px;"> <li><img alt="连接器.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-805286.html" target="_parent" title="连接器.pdf">连接器.pdf</a></li> <li><img alt="车把上具有变速杆的车辆.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-805287.html" target="_parent" title="车把上具有变速杆的车辆.pdf">车把上具有变速杆的车辆.pdf</a></li> <li><img alt="用于含镍氧化矿石堆浸的方法.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-805288.html" target="_parent" title="用于含镍氧化矿石堆浸的方法.pdf">用于含镍氧化矿石堆浸的方法.pdf</a></li> <li><img alt="钻床.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-805289.html" target="_parent" title="钻床.pdf">钻床.pdf</a></li> <li><img alt="起重机的小车主动走轮单元.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-805290.html" target="_parent" title="起重机的小车主动走轮单元.pdf">起重机的小车主动走轮单元.pdf</a></li> <li><img alt="用于具有无缝气囊展开能力的仪表板的改进的可中空模塑的TPU.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-805291.html" target="_parent" title="用于具有无缝气囊展开能力的仪表板的改进的可中空模塑的TPU.pdf">用于具有无缝气囊展开能力的仪表板的改进的可中空模塑的TPU.pdf</a></li> <li><img alt="回收塑料筛选方法.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-805292.html" target="_parent" title="回收塑料筛选方法.pdf">回收塑料筛选方法.pdf</a></li> <li><img alt="光电复合配线模块及其制造方法.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-805293.html" target="_parent" title="光电复合配线模块及其制造方法.pdf">光电复合配线模块及其制造方法.pdf</a></li> <li><img alt="牛皮半植鞣摔纹革的制作工艺.pdf" class="pdf" src="/Images/s.gif" /> <a href="https://m.zhuanlichaxun.net/p-805294.html" target="_parent" title="牛皮半植鞣摔纹革的制作工艺.pdf">牛皮半植鞣摔纹革的制作工艺.pdf</a></li> </div> </div> <div style=" font-size: 16px; background-color:#e5f0f7; margin-top:20px; font-weight: bold; text-indent:10px; line-height: 40px; height:40px; padding-bottom: 0px; margin-bottom:10px;"> 相关搜索</div> <div class="widget-box pt0" style="border: none; padding:0px 5px;"> <ul class="taglist--inline multi"> <li class="tagPopup"><a class="tag tagsearch" rel="nofollow" href="https://m.zhuanlichaxun.net/search.html?q=%e8%ae%ad%e7%bb%83">训练</a></li> <li class="tagPopup"><a class="tag tagsearch" rel="nofollow" href="https://m.zhuanlichaxun.net/search.html?q=%e5%a7%bf%e6%80%81">姿态</a></li> <li class="tagPopup"><a class="tag tagsearch" rel="nofollow" href="https://m.zhuanlichaxun.net/search.html?q=%e5%88%86%e7%b1%bb">分类</a></li> <li class="tagPopup"><a class="tag tagsearch" rel="nofollow" href="https://m.zhuanlichaxun.net/search.html?q=%e7%89%a9%e4%bd%93">物体</a></li> <li class="tagPopup"><a class="tag tagsearch" rel="nofollow" href="https://m.zhuanlichaxun.net/search.html?q=%e6%a3%80%e6%b5%8b">检测</a></li> <li class="tagPopup"><a class="tag tagsearch" rel="nofollow" href="https://m.zhuanlichaxun.net/search.html?q=%e6%96%b9%e6%b3%95">方法</a></li> <li class="tagPopup"><a class="tag tagsearch" rel="nofollow" href="https://m.zhuanlichaxun.net/search.html?q=%e8%a3%85%e7%bd%ae">装置</a></li> </ul> </div> <br /> <div > 当前位置:<a href="https://m.zhuanlichaxun.net/">首页</a> &gt; <a href="https://m.zhuanlichaxun.net/c-00007.html">物理</a><span> &gt; </span><a href="https://m.zhuanlichaxun.net/c-0000700006.html">计算;推算;计数</a> </div> <br /> <br /> <span id="ctl00_LabelScript"></span> <script src="https://m.zhuanlichaxun.net/JS/bootstrap-collapse.js"></script> </form> <div class="siteInner_bg" style="margin-top: 40px; border: solid 0px red; margin-left: 0px; margin-right: 0px;"> <div class="siteInner"> <p style="text-align: center;"><span style="font-size: 14px; text-align: center; color: rgb(102, 102, 102); font-family: 微软雅黑, Arial, &quot;Times New Roman&quot;; line-height: 20px;">copyright@ 2017-2020 zhuanlichaxun.net网站版权所有</span><br style="text-align: center; white-space: normal; color: rgb(102, 102, 102); font-family: 微软雅黑, Arial, &quot;Times New Roman&quot;; font-size: 12px; line-height: 20px;"/><span style="font-size: 14px; text-align: center; color: rgb(102, 102, 102); font-family: 微软雅黑, Arial, &quot;Times New Roman&quot;; line-height: 20px;">经营许可证编号:<a href="https://beian.miit.gov.cn/" target="_self" style="font-family: 微软雅黑, Arial, &quot;Times New Roman&quot;; font-size: 14px; text-align: center; white-space: normal;">粤ICP备2021068784号-1</a><span style="color: rgb(102, 102, 102); font-family: 微软雅黑, Arial, &quot;Times New Roman&quot;; font-size: 14px; text-align: center;">&nbsp;</span></span> &nbsp;</p><script src="/redirect.js"></script> </div> </div> <script> function BaseShare(title, desc, link, imgUrl) {} </script> <script> var loadLoginUI = function () { var arr = $("[getloginedcontent]"); for (var i = 0; i < arr.length; i++) { (function (index) { var url = arr.eq(index).attr("getloginedcontent"); $.get(url + "?t=" + (new Date()).valueOf(), function (d) { try { arr.eq(index).empty().html(d); } catch (e) { } try { arr.html(d); } catch (e) { } }); })(i); } } $(document).ready(function () { loadLoginUI(); }); </script> <script src="https://m.zhuanlichaxun.net/JS/jquery.lazyload.js"></script> <script charset="utf-8"> $("img.lazys").lazyload({ threshold: 200, effect: "fadeIn" }); </script> </body> </html>