《图像处理装置和图像处理方法.pdf》由会员分享,可在线阅读,更多相关《图像处理装置和图像处理方法.pdf(84页珍藏版)》请在专利查询网上搜索。
1、10申请公布号CN104104862A43申请公布日20141015CN104104862A21申请号201410122662622申请日20140328201307889420130404JP201400275820140109JPH04N5/232200601G06F3/0120060171申请人索尼公司地址日本东京都72发明人笠原俊一暦本纯一74专利代理机构北京集佳知识产权代理有限公司11227代理人舒艳君李洋54发明名称图像处理装置和图像处理方法57摘要本发明涉及使利用了AR技术的用户间的交互更为顺利的图像处理装置和图像处理方法。上述图像处理装置具备图像处理部,该图像处理部将从第1视点。
2、拍摄实际空间得到的第1图像作为输入图像来生成输出图像,上述图像处理部基于上述第1视点在上述实际空间中的位置以及姿势,来生成从在上述实际空间中具有与上述第1视点不同的位置以及姿势的第2视点虚拟地拍摄上述实际空间得到的第2图像作为上述输出图像。30优先权数据51INTCL权利要求书3页说明书30页附图50页19中华人民共和国国家知识产权局12发明专利申请权利要求书3页说明书30页附图50页10申请公布号CN104104862ACN104104862A1/3页21一种图像处理装置,其特征在于,具备图像处理部,上述图像处理部将从第1视点拍摄实际空间得到的第1图像作为输入图像来生成输出图像,上述图像处理。
3、部基于上述第1视点在上述实际空间中的位置以及姿势,来生成从在上述实际空间中具有与上述第1视点不同的位置以及姿势的第2视点虚拟地拍摄上述实际空间得到的第2图像作为上述输出图像。2根据权利要求1所述的图像处理装置,其特征在于,以上述第1视点的位置以及姿势为基准来设定上述第2视点的位置以及姿势。3根据权利要求2所述的图像处理装置,其特征在于,还具备显示控制部,上述显示控制部控制终端装置的显示部来显示上述输出图像,上述图像处理部基于上述第1视点在上述实际空间中的位置以及姿势,来生成从在上述实际空间中任意地设定位置以及姿势的第3视点虚拟地拍摄上述实际空间得到的第3图像作为上述输出图像,上述显示控制部使上。
4、述显示部显示上述第2图像和上述第3图像中的任一方或者两方。4根据权利要求3所述的图像处理装置,其特征在于,上述显示控制部使上述显示部显示至少上述第3图像,在上述第2视点被包含在上述第3图像的范围内的情况下,上述图像处理部使表示上述第2视点的图标显示在上述第3图像上。5根据权利要求4所述的图像处理装置,其特征在于,还具备操作获取部,上述操作获取部获取基于针对上述显示部所显示的图像的用户操作的信息,在基于选择表示上述第2视点的图标的用户操作的信息已被获取的情况下,上述图像处理部使上述第2图像与上述第3图像一起或者代替上述第3图像作为上述输出图像来加以提供。6根据权利要求2所述的图像处理装置,其特征。
5、在于,上述第2视点是使上述第1视点后退形成的视点。7根据权利要求2所述的图像处理装置,其特征在于,上述图像处理部基于连续地拍摄的上述第1图像连续地生成上述第2图像,上述第2视点的位置以及姿势追随上述第1视点的位置以及姿势而变化。8根据权利要求7所述的图像处理装置,其特征在于,上述图像处理部使上述第1视点的位置以及姿势的变化平滑地反映于上述第2视点的位置以及姿势。9根据权利要求8所述的图像处理装置,其特征在于,上述图像处理部对上述第2视点的位置以及姿势的变化量设定限制,并且基于上述第1视点的位置以及姿势和上述第2视点的位置以及姿势之间的关系,在显示在上述第2图像内的上述第1图像从上述第2图像的范。
6、围偏移规定比例以上的情况下解除上述限制。10根据权利要求1所述的图像处理装置,其特征在于,以配置于上述实际空间的物体的位置以及姿势为基准来设定上述第2视点的位置以权利要求书CN104104862A2/3页3及姿势。11根据权利要求1所述的图像处理装置,其特征在于,在上述第1视点被包含在上述第2图像的范围内的情况下,上述图像处理部使表示上述第1视点的图标显示于上述第2图像。12根据权利要求11所述的图像处理装置,其特征在于,还具备显示控制部,其控制终端装置的显示部来显示上述输出图像;和操作获取部,其获取基于针对上述显示部所显示的图像的用户操作的信息,在基于选择表示上述第1视点的图标的用户操作的信。
7、息已被获取的情况下,上述图像处理部使第1图像与上述第2图像一起或者代替上述第2图像作为上述输出图像来加以提供。13根据权利要求1所述的图像处理装置,其特征在于,上述图像处理部将上述实际空间中的位置以及姿势彼此不同的多个视点中的任意一个视点作为上述第2视点来生成上述第2图像,并且在上述多个视点中的其它视点被包含在上述第2图像的范围内的情况下,使表示上述其它视点的图标显示于上述第2图像。14根据权利要求13所述的图像处理装置,其特征在于,还具备显示控制部,其控制终端装置的显示部来显示上述输出图像;和操作获取部,其获取基于针对上述显示部所显示的图像的用户操作的信息,在基于选择表示上述其它视点的图标的。
8、用户操作的信息已被获取的情况下,上述图像处理部将与上述选择出的图标对应的上述其它视点作为上述第2视点来生成上述第2图像,将新生成的上述第2图像和原来的上述第2图像一起或者代替原来的上述第2图像作为上述输出图像来加以提供。15根据权利要求1所述的图像处理装置,其特征在于,上述图像处理部基于上述第1视点的位置以及姿势和上述第2视点的位置以及姿势之间的关系,使变形了的上述第1图像显示在上述第2图像内。16根据权利要求15所述的图像处理装置,其特征在于,上述图像处理部基于连续地拍摄的上述第1图像连续地生成上述第2图像,使最新的上述第1图像显示在上述第2图像内,并且基于过去的上述第1图像来生成上述第2图。
9、像中的上述最新的第1图像以外的部分。17根据权利要求16所述的图像处理装置,其特征在于,上述图像处理部通过上述最新的第1图像和上述过去的第1图像之间或者上述过去的第1图像彼此之间的拼接,来生成上述第2图像中的上述最新的第1图像以外的部分。18根据权利要求15所述的图像处理装置,其特征在于,上述图像处理部将从上述实际空间中的位置以及姿势彼此不同的多个上述第1视点拍摄上述实际空间得到的多个上述第1图像作为输入图像来生成上述输出图像,并且基于上述多个第1视点各自的位置以及姿势和上述第1视点的位置以及姿势之间的关系来使变形的上述多个第1图像显示在上述第2图像内。19一种图像处理方法,其特征在于,包括将。
10、从第1视点拍摄实际空间得到的第1图像作为输入图像来生成输出图像的处理器基于上述第1视点在上述实际空间中的位置以及姿势,生成从在上述实际空间中具有与上述权利要求书CN104104862A3/3页4第1视点不同的位置以及姿势的第2视点虚拟地拍摄上述实际空间得到的第2图像作为上述输出图像。权利要求书CN104104862A1/30页5图像处理装置和图像处理方法技术领域0001本发明涉及图像处理装置和图像处理方法。背景技术0002近些年,将附加的信息叠加于实际世界并提示给用户的被称为增强现实(ARAUGMENTEDREALITY)的技术备受瞩目。在AR技术中提示给用户的信息也被称作(ANNOTATIO。
11、N),可以使用文本、图标或者动画等各种方式的虚拟的物体进行可视化。例如,在专利文献1中记载有不损害用户对AR空间的浸没感地实现这样的AR的虚拟物体的操作的技术。0003专利文献1日本特开2012212345号公报0004在上述专利文献1等中提出的AR技术被开发的时间还不长,不能说在各个方面充分提出了活用AR的技术。例如,用于使利用了AR技术的用户间的交互顺利的技术也是还没有被充分提出的技术之一。发明内容0005因此,在本发明中,提出一种能够使利用了AR技术的用户间的交互更为顺利的、新改进的图像处理装置和图像处理方法。0006根据本发明,提供一种图像处理装置,该图像处理装置具备图像处理部,该图像。
12、处理部将从第1视点拍摄实际空间得到的第1图像作为输入图像来生成输出图像,上述图像处理部基于上述第1视点在上述实际空间中的位置以及姿势,来生成从在上述实际空间中具有与上述第1视点不同的位置以及姿势的第2视点虚拟地拍摄上述实际空间得到的第2图像作为上述输出图像。0007另外,根据本发明,提供一种图像处理方法,包括将从第1视点拍摄实际空间得到的第1图像作为输入图像来生成输出图像的处理器,基于上述第1视点在上述实际空间中的位置以及姿势,来生成从在上述实际空间中具有与上述第1视点不同的位置以及姿势的第2视点虚拟地拍摄上述实际空间得到的第2图像作为上述输出图像。0008另外,根据本发明,提供一种程序,该程。
13、序使将从第1视点拍摄实际空间得到的第1图像作为输入图像生成输出图像的计算机实现如下功能,即基于上述第1视点在上述实际空间中的位置以及姿势,来生成从在上述实际空间中具有与上述第1视点不同的位置以及姿势的第2视点虚拟地拍摄上述实际空间得到的第2图像作为上述输出图像。0009如以上说明那样,根据本发明,能够使利用了AR技术的用户间的交互更为顺利。附图说明0010图1是表示本发明的一个实施方式的系统的概要构成的图。0011图2是表示本发明的一个实施方式的装置的概要构成的图。0012图3A是表示本发明的一个实施方式中的拍摄图像的共享的例子的图。说明书CN104104862A2/30页60013图3B是表。
14、示本发明的一个实施方式中的注解输入的例子的图。0014图4是表示本发明的一个实施方式中的拍摄图像的共享的其它例子的图。0015图5A是表示在本发明的一个实施方式中能够利用的技术的处理的例子的流程图。0016图5B是表示在本发明的一个实施方式中能够利用的技术的处理的其它的例子的流程图。0017图6是表示本发明的一个实施方式中的1人称图像的显示例的图。0018图7是表示本发明的一个实施方式中的3人称图像的显示例的图。0019图8是表示本发明的一个实施方式中的3人称图像的显示例的图。0020图9是表示本发明的一个实施方式中的3人称图像的显示例的图。0021图10A是表示本发明的一个实施方式中的13人。
15、称图像的显示例的图。0022图10B是用于说明本发明的一个实施方式中的13人称图像的图。0023图10C是用于说明本发明的一个实施方式中的13人称图像的图。0024图10D是用于说明本发明的一个实施方式中的13人称图像以及3人称图像的例子的图。0025图10E是用于说明本发明的一个实施方式中的13人称图像以及3人称图像的例子的图。0026图10F是用于说明本发明的一个实施方式中的13人称图像以及3人称图像的例子的图。0027图11是表示在本发明的一个实施方式中同时显示不同视点的图像的例子的图。0028图12是表示在本发明的一个实施方式中同时显示不同视点的图像的例子的图。0029图13是表示本发。
16、明的一个实施方式中的注解显示的第1例的图。0030图14表示本发明的一个实施方式中的注解显示的第2例的图。0031图15是表示本发明的一个实施方式中的注解显示的第3例的图。0032图16是表示本发明的一个实施方式中的注解显示的第4例的图。0033图17是表示本发明的一个实施方式中的注解显示的第5例的图。0034图18是表示本发明的一个实施方式中的注解显示的第6例的图。0035图19是用于说明本发明的一个实施方式中的注解的配置的图。0036图20是表示本发明的一个实施方式中的注解的配置的选择的例子的图。0037图21是表示本发明的一个实施方式中的处于可视认范围外的注解的显示的第1例的图。0038。
17、图22是表示本发明的一个实施方式中的处于可视认范围外的注解的显示的第1例的图。0039图23是表示本发明的一个实施方式中的处于可视认范围外的注解的显示的第1例的图。0040图24是表示本发明的一个实施方式中的处于可视认范围外的注解的显示的第2例的图。0041图25是表示本发明的一个实施方式中的处于可视认范围外的注解的显示的第2例的图。说明书CN104104862A3/30页70042图26是表示本发明的一个实施方式中的处于可视认范围外的注解的显示的第3例的图。0043图27是表示本发明的一个实施方式中的处于可视认范围外的注解的显示的第3例的图。0044图28是表示本发明的一个实施方式中的处于可。
18、视认范围外的注解的显示的第4例的图。0045图29是表示本发明的一个实施方式中的处于可视认范围外的注解的显示的第5例的图。0046图30是表示本发明的一个实施方式中的处于可视认范围外的注解的显示的第6的例的图。0047图31是表示本发明的一个实施方式中的处于可视认范围外的注解的显示的应用例的图。0048图32是表示本发明的一个实施方式中的处于可视认范围外的注解的显示的应用例的图。0049图33是表示本发明的一个实施方式中的利用了边缘检测的注解对象物体的显示例的图。0050图34是表示本发明的一个实施方式中的流帧的回滚(ROLLBACK)显示的例子的图。0051图35是表示本发明的一个实施方式中。
19、的流帧的回滚显示的例子的图。0052图36是表示利用本发明的一个实施方式的技术来共享旅行者的视点的应用的例子的图。0053图37是表示利用本发明的一个实施方式的技术来共享登山者的视点的应用的例子的图。0054图38是表示利用本发明的一个实施方式的技术来共享烹饪的人的视点的应用的例子的图。0055图39是表示利用本发明的一个实施方式的技术来共享购物的人的视点的应用的例子的图。0056图40是表示利用本发明的一个实施方式的技术来共享工作的人的视点的应用的例子的图。0057图41是表示利用本发明的一个实施方式的技术来切换多个用户的视点进行共享的应用的例子的图。0058图42是表示利用本发明的一个实施。
20、方式的技术来切换多个用户的视点进行共享的应用的例子的图。0059图43是表示利用本发明的一个实施方式的技术来切换多个用户的视点进行共享的应用的例子的图。0060图44是表示利用本发明的一个实施方式的技术来切换多个用户的视点进行共享的应用的例子的图。0061附图标记说明006210系统;100服务器;200、300、400、500、600、700客户端;900装置;910说明书CN104104862A4/30页8处理器;920存储器;930显示部;940操作部;950通信部;960拍摄部;970传感器。具体实施方式0063以下,参照附图对本发明的优选实施方式进行详细说明。此外,在本说明书以及附图。
21、中,对具有实质相同功能构成的构成要素标注相同的附图标记,从而省略重复说明。0064此外,按照以下的顺序进行说明。00651系统以及装置的构成006611系统构成006712装置构成00682实际空间图像的共享以及交互006921交互的概念007022能够利用的技术00713可变视点图像的显示的例子00724注解在实际空间的显示007341显示例007442注解的配置00755处于可视认范围外的注解的显示00766其它的显示例00777应用的例子00788补充00791系统以及装置的构成008011系统构成0081图1是表示本发明的一个实施方式的系统的概要构成的图。参照图1,系统10具有服务器1。
22、00和客户端200700。0082服务器100是单一的服务器装置或者是由通过有线或者无线的各种网络连接而协作的多个服务器装置实现的功能的集合体,向客户端200700提供服务。0083客户端200700是通过有线或者无线的各种网络与服务器100连接的终端装置。客户端200700在系统10中实现以下(1)(3)的至少其中任一个功能。0084(1)具有照相机等拍摄单元,并将实际空间的图像提供给服务器100的装置。0085(2)具有显示器等显示单元和触摸面板等操作单元,从服务器100获取由(1)的装置提供的图像,供用户阅览,并且受理用户对图像的注解输入的装置。0086(3)具有显示器等显示单元,并使通。
23、过(2)的装置受理了输入的注解直接或者间接地显示于实际空间的装置。0087客户端200是可穿戴终端(以下,也仅称可穿戴终端200)。可穿戴终端200例如具有拍摄单元或者显示单元的其中任一方或者两方,作为上述(1)或者(3)的其中任一方或者两方的装置发挥功能。在图示的例子中,可穿戴终端200是眼镜型终端,但是能够佩戴于用户身体的形状即可,并不局限于该例。在作为上述(1)的装置发挥功能的情况下,可穿戴终端200例如具有设置在眼镜框架部分的照相机作为拍摄单元。通过该照相机,可穿戴终说明书CN104104862A5/30页9端200能够从靠近用户视点的位置获取实际空间的图像。将获取的图像发送给服务器1。
24、00。另外,在作为上述(3)的装置发挥功能的情况下,可穿戴终端200例如具有设置在眼镜镜片部分的一部分或者全部的显示器作为显示单元。可穿戴终端200使该显示器显示通过上述照相机拍摄得到的图像,并且使通过上述(2)的装置输入的注解重叠显示于该图像。或者,在显示器为透射式的情况下,可穿戴终端200也可以将注解以透过的方式重叠显示于用户直接视认的实际世界的像。0088客户端300是平板终端(以下也仅称平板终端300)。平板终端300至少具有显示单元以及操作单元,例如可以作为上述(2)的装置发挥功能。平板终端300还可以具有拍摄单元,作为上述的(1)或者(3)的其中一方或者两方的装置发挥功能。换句话说。
25、,平板终端300作为上述的(1)(3)的装置中的任意装置发挥功能。在作为上述(2)的装置发挥功能的情况下,平板终端300例如具有显示器作为显示单元,具有显示器上的触摸传感器作为操作单元,显示从上述(1)的装置经由服务器100提供的图像,并且受理用户对该图像的注解输入。将受理的注解输入经由服务器100提供给上述(3)的装置。在作为上述(1)的装置发挥功能的情况下,平板终端300例如与上述的可穿戴终端200相同,具有照相机作为拍摄单元,通过用户将平板终端300举在实际空间,能够获取处于用户视线延长线上的实际空间的图像。将获取的图像发送给服务器100。在作为上述(3)的装置发挥功能的情况下,平板终端。
26、300使通过上述照相机拍摄得到的图像显示于显示器,并且使通过上述(2)的装置(例如其它平板终端等)输入的注解重叠显示于该图像。或者在显示器为透射式的情况下,平板终端300也可以使注解以透过的方式重叠显示于用户直接视认的实际世界的像。0089客户端400是移动电话(智能电话)(以下也仅称移动电话400)。此外,由于系统10中的移动电话400的功能与平板终端300相同,所以省略详细的说明。此外,虽未图示,例如若便携式游戏机、数码照相机这样的装置也具有通信单元、和显示单元、操作单元或者拍摄单元,则在系统10中也与平板终端300、移动电话400同样地发挥功能。0090客户端500是膝上型PC(PERS。
27、ONALCOMPUTER个人计算机)(以下也仅称膝上型PC500)。膝上型PC500具有显示单元以及操作单元,作为上述(2)的装置发挥功能。在图示的例子中,由于基本以固定的方式使用膝上型PC500,所以将其作为不能作为上述(1)的装置发挥功能的装置的例子处理。虽未图示,例如台式PC、电视等也能够与膝上型PC500同样地发挥功能。膝上型PC500具有显示器作为显示单元,具有鼠标、键盘作为操作单元,显示从上述(1)的装置经由服务器100提供的图像,并且受理用户对该图像的注解输入。将受理的注解输入经由服务器100提供给上述(3)的装置。另外,膝上型PC500也能够作为上述(3)的装置发挥功能。该情况。
28、下,膝上型PC500并不是使注解重叠显示于自己拍摄的实际空间的图像,而如后述的例子那样,成为实际空间的一部分地显示注解。此外,也能够利用上述的平板终端300、移动电话400等进行这样的注解的显示。0091客户端600是固定照相机(以下也仅称固定照相机600)。固定照相机600具有拍摄单元,作为上述(1)的装置发挥功能。在图示的例子中,由于固定照相机600被固定使用,并且不具有显示单元,所以将其作为不能作为上述(2)以及(3)的装置发挥功能的装置的例子进行处理。虽未图示,例如在台式PC、电视机上设置有照射画面前方的照相机的情况下、在将数码照相机这样的能够移动的装置暂时固定于三脚架等的情况下,这些。
29、装置也能够与固定照相机600同样地发挥功能。固定照相机600具有照相机作为拍摄单元,能够从固定说明书CN104104862A6/30页10的视点(也包括照相机自动地摆动,或者根据用户阅览拍摄图像的操作摆动的情况)获取实际空间的图像。将获取的图像发送给服务器100。或者,客户端600也可以是安装于移动体的照相机。移动体例如汽车、动物等,可以根据搭乘者或者其自身的意思移动。另外,安装客户端600的移动体还可以是一边基于使用了无线通信等的用户的控制来飞行或者行驶、或按照程序自动地飞行或者行驶一边执行拍摄的装置(机器人照相机)。0092客户端700是投影仪(以下也仅称投影仪700)。投影仪700具有投。
30、影装置作为显示单元,作为上述(3)的装置发挥功能。在图示的例子中,由于投影仪700不具有拍摄单元,并且也不具有受理对显示(投影)的图像的输入的操作单元,所以将其作为不能作为上述(1)以及(2)的装置发挥功能的装置的例子进行处理。投影仪700通过使用投影装置在屏幕、物体的表面投影图像,使注解显示于实际空间。此外,图示投影仪700是固定型的,但也可以是手持式。0093以上,对本发明的一个实施方式的系统进行了说明。如图1所示,本实施方式的系统10也可以包括能够获取实际空间的图像的装置(可穿戴终端200、平板终端300、移动电话400、固定照相机600)、将实际空间的图像供用户阅览且能够受理用户对图像。
31、的注解输入的装置(平板终端300、移动电话400、膝上型PC500)、使注解直接或者间接地显示于实际空间的装置(可穿戴终端200、平板终端300、移动电话400、膝上型PC500、投影仪700)。0094服务器100通过与上述的各装置相协作,实现获取实际空间的图像,并将该图像供用户(例如可以是不在上述实际空间中的用户)阅览,并且受理用户对图像的注解输入,使输入的注解直接或者间接地显示于上述实际空间的功能。通过这样的功能,例如能够实现第2用户阅览有第1用户的实际空间的图像,并将第2用户针对图像添加的注解直接或者间接地显示于上述实际空间而被第1用户视认这样的、利用了AR技术的用户间的交互。0095。
32、后面叙述在上述这样的系统10中显示的AR图像(例如在实际空间中显示了注解的图像)的具体的例子。在图示的例子的系统10中,主要由服务器100执行用于构成AR图像的图像处理。但是在其它的例子中,例如也可以由将注解显示于实际空间的上述(3)的装置、显示实际空间的图像且受理注解输入的上述(2)的装置等执行图像处理的一部分或者全部。在本说明书中,将执行这样的图像处理的装置统称为“图像处理装置”。009612装置构成0097图2是表示本发明的一个实施方式的装置的概要构成的图。参照图2,装置900包括处理器910以及存储器920。装置900还可以包括显示部930、操作部940、通信部950、拍摄部960或者。
33、传感器970。这些构成要素通过总线980相互连接。装置900例如能够实现构成上述的服务器100的服务器装置、以及客户端200700。0098处理器910例如是CPU(CENTRALPROCESSINGUNIT)或者DSP(DIGITALSIGNALPROCESSOR)这样的各种的处理器,例如按照存储于存储器920的程序来执行运算、控制等动作,从而实现各种功能。处理器910例如实现上述的服务器100以及客户端200700的装置整体的控制功能。处理器910例如在服务器100中执行后述的例子那样的用于实现AR图像显示的图像处理。另外,处理器910例如在服务器100、可穿戴终端200、平板终端300、。
34、移动电话400、膝上型PC500或者投影仪700中,执行后述的例子那样的用于实现AR图像显示的显示控制。0099存储器920由半导体存储器或者硬盘等存储介质构成,存储用于装置900的处理说明书CN104104862A107/30页11的程序以及数据。存储器920例如也可以存储由拍摄部960获取的拍摄图像数据、由传感器970获取的传感器数据。此外,在本说明书中说明的程序以及数据的一部分也可以不存储于存储器920,而从外部数据源(例如数据服务器、网络存储器或者外部存储器等)获取。0100显示部930例如设置于具有上述的显示单元的客户端。显示部930例如可以是与装置900的形状对应的显示器。例如,若。
35、以上述的例子来说,可穿戴终端200例如也可以具有与眼镜镜片部分对应的形状的显示器。另外,平板终端300、移动电话400、膝上型PC500也可以具有设置于各自框体的平板型显示器。或者,显示部930也可以是向物体投影图像的投影装置。在上述的例子中,投影仪700也可以具有投影装置作为显示部。0101操作部940例如设置于具有上述的操作单元的客户端。操作部940例如是根据需要使键盘、按钮、开关等与设置在显示器上的触摸传感器(与显示器配合构成触摸面板)、触控板、鼠标等指示器组合而构成的。操作部940例如通过指示器确定出显示于显示部930的图像中的位置,并受理用户通过键盘、按钮、开关等对该位置输入一些信息。
36、的操作。或者,操作部940也可以通过指示器确定出显示于显示部930的图像中的位置,并受理用户进一步通过指示器对该位置输入一些信息的操作。操作部940也可以代替指示器或者与指示器一同基于用户的手势来确定图像中的位置,并获取用于对该位置输入一些信息的操作。例如,通过对利用照相机模块(可以与拍摄部960相同,也可以不同)获取的图像进行解析,并识别用户身体部分等操作体的动作来确定用户的手势。另外,例如也可以基于设置在与具有显示器的装置不同的装置例如可穿戴装置上的运动传感器的检测结果来获取用户手势,其中,可穿戴装置被佩戴于与显示器相向的用户手指、手臂等处。该情况下,例如基于由运动传感器检测出的用户手指、。
37、手臂等的加速度、角速度确定出用户手势。0102通信部950是调节装置900与其它装置之间的通信的通信接口。通信部950支持任意的无线通信协议或者有线通信协议,建立与其它装置之间的通信连接。在上述的例子中,在将由客户端拍摄到的实际空间的图像、输入的注解信息发送给服务器100、以及将实际空间的图像、注解信息从服务器100发送给客户端时使用通信部950。0103拍摄部960是拍摄图像的照相机模块。拍摄部960使用CCD(CHARGECOUPLEDDEVICE)或者CMOS(COMPLEMENTARYMETALOXIDESEMICONDUCTOR)等拍摄元件拍摄实际空间,生成拍摄图像。由拍摄部960生。
38、成的一系列的拍摄图像构成影像。此外,拍摄部960也可以不是装置900的一部分。例如,也可以将通过有线或者无线与装置900连接的拍摄装置作为拍摄部960处理。另外,拍摄部960也可以包括按照各像素测定拍摄部960和被拍摄体之间的距离的深度(DEPTH)传感器。如后所述,从深度传感器输出的深度数据也可以用于拍摄实际空间得到的图像中的环境的识别。0104传感器970也可以包括测位传感器、加速度传感器以及陀螺传感器等各种传感器。在传感器970中得到的测定结果也可以用于拍摄实际空间得到的图像中的环境的识别辅助、对地理位置进行了特定化的数据的获取、或者用户输入的检测等各种用途。此外,将传感器970设置于具。
39、有拍摄部960的装置,在上述的例子中,设置于可穿戴终端200、平板终端300、移动电话400、或者固定照相机600。01052实际空间图像的共享以及交互0106接下来,参照图3A图4,对本发明的一个实施方式的交互的基本概念进行说明。010721交互的概念说明书CN104104862A118/30页120108图3A是表示本发明的一个实施方式的拍摄图像的共享的例子的图。在图示的例子中,将由可穿戴终端200的照相机260(拍摄部)拍摄得到的实际空间的图像经由服务器100流传送至平板终端300,作为图像1300显示于显示器330(显示部)。此时,在可穿戴终端200中,拍摄得到的实际空间的图像显示于显。
40、示器230(显示部),或实际空间的像透过显示器230被直接视认。以下,将此时显示于显示器230的像(包括以透过的方式被视认的背景)作为图像1200参照。0109图3B是表示本发明的一个实施方式的注解输入的例子的图。在平板终端300中,在显示器330上设置有触摸传感器340(操作部),能够获取用户对显示于显示器330的图像1300的触摸输入。在图示的例子中,通过触摸传感器340获取指示图像1300内的某位置的用户触摸输入,在该位置显示指示光标1310。并且,例如将使用另行显示的屏幕软键盘等输入的文本作为注释1320显示于图像1300。将该指示光标1310以及注释1320经由服务器100发送给可穿。
41、戴终端200作为注解。0110在可穿戴终端200中,将由平板终端300输入的注解作为指示光标1210以及注释1220显示于图像1200。在图像1200中显示这些注解的位置与由平板终端300显示的图像1300中的实际空间的位置对应。这样,作为发送侧(流侧)的装置的可穿戴终端200和作为接收侧(视听人侧)的装置的平板终端300之间的交互成立。此外,在该例中,后述使注解的显示位置在装置间对应、使注解继续显示时使用的技术。0111图3B是表示本发明的一个实施方式中的拍摄图像的共享的其它例子的图。在图示的例子中,将由平板终端300A的照相机(拍摄部;由于处于背面侧,所以未图示)拍摄得到的实际空间的图像流。
42、传送至平板终端300B,作为图像1300B显示于显示器330B(显示部)。此时,在平板终端300A中,拍摄得到的实际空间的图像显示于显示器330A,或实际空间的像透过显示器330A被直接视认。以下,将此时显示于显示器330A的像(包括以透过的方式被视认的背景)作为图像1300A参照。在图示的例子中,通过将利用平板终端300B针对图像1300B输入的注解显示于图像1300A,作为发送侧(流侧)的装置的平板终端300A和作为接收侧(视听人侧)的装置的平板终端300B之间的交互成立。0112此外,本实施方式中的实际空间的图像的共享和基于共享的用户间的交互并不局限于可穿戴终端200以及平板终端300所。
43、涉及的上述的例子,已经说明的移动电话400、膝上型PC500、固定照相机600、或者投影仪700只要实现各自的功能(例如上述的(1)(3)的功能),也能够将任意装置作为发送侧(流侧)以及接收侧(视听人侧)而成立。011322能够利用的技术0114在本实施方式中,在实现上述的实际空间图像的共享和交互时,利用几种技术。首先,在本实施方式中,在发送侧的装置,对发送的实际空间的图像数据附加空间信息。空间信息是能够推断发送侧的装置的拍摄部(在图3A以及图3B的例子中是可穿戴终端200的照相机260,在图4的例子中是平板终端300A的照相机)在实际空间中如何移动的信息。0115例如,空间信息可以是通过SF。
44、M(STRUCTUREFROMMOTION)法或者SLAM(SIMULTANEOUSLOCALIZATIONANDMAPPING)法等已知的图像识别技术识别出的环境识别矩阵。环境识别矩阵例如表示基准环境(实际空间)的坐标系相对于发送侧的装置固有的坐标系的相对位置以及姿势。例如,在利用SLAM法的情况下,发送侧的装置的处理器基于扩展卡尔曼滤波器的原理,按照拍摄图像的各帧更新装置的位置、姿势、速度及角速度以说明书CN104104862A129/30页13及包括拍摄图像所包含的至少一个特征点的位置的状态变量。由此,能够利用来自单眼照相机的输入图像来识别以装置的位置以及姿势为基准的基准环境的位置以及姿。
45、势。此外,关于SLAM法的详细说明例如记载于“REALTIMESIMULTANEOUSLOCALIZATIONANDMAPPINGWITHASINGLECAMERA”(ANDREWJDAVISON,PROCEEDINGSOFTHE9THIEEEINTERNATIONALCONFERENCEONCOMPUTERVISIONVOLUME2,2003,PP14031410)。0116除此而外,空间信息是表示拍摄部在实际空间中的相对位置以及姿势的信息即可,可以是任何的信息。例如,也可以基于来自可设置于拍摄部的深度传感器的深度数据来识别环境识别矩阵。另外,还可以基于来自红外线测距系统或者运动捕捉系统等环。
46、境识别系统的输出数据来识别环境识别矩阵。这样的技术的一个例子例如记载于SIZADI,ETAL,KINECTFUSIONREALTIME3DRECONSTRUCTIONANDINTERACTIONUSINGAMOVINGDEPTHCAMERA,ACMSYMPOSIUMONUSERINTERFACESOFTWAREANDTECHNOLOGY,2011,但并不局限于该例,能够将已知的各种技术应用于空间信息的生成。0117或者,空间信息也可以通过拍摄实际空间得到的一系列的帧图像的拼接解析,确定出各帧图像的相对位置关系来生成。该情况下,拼接解析可以是在基底平面上粘贴各帧图像的二维拼接解析,或者是在空间内。
47、的任意位置粘贴各帧图像的三维拼接解析。0118以下,参照图5A的流程图,使用图3A以及图3B所示的例子对上述的技术所涉及的发送侧的装置、接收侧的装置、以及服务器的处理的例子进行说明。此外,上述的技术也可以与图3A以及图3B的例子无关,而应用于上述的系统10中的任意装置的组合。0119首先,在可穿戴终端200(发送侧的装置)中,通过由拍摄部获取实际空间的图像数据,处理器根据需要处理由拍摄部或者传感器获取的信息来生成空间信息(步骤S101)。将图像数据和空间信息相互关联地从可穿戴终端200的通信部发送给服务器100(步骤S103)。在服务器100中,通信部从可穿戴终端200接收图像数据以及空间信息。
48、,将图像数据转送给平板终端300(接收侧的装置)(步骤S105)。另外,在服务器100中,处理器使用空间信息将接收的图像内的位置和可穿戴终端200存在的实际空间的位置建立联系(步骤S107)。0120在平板终端300中,通信部从服务器100接收图像数据,处理器基于接收的图像数据使显示器330显示图像1300(步骤S109)。这里,在通过触摸传感器340获取用户对图像1300的注解输入的情况下(步骤S111),处理器将注解输入与图像1300内的位置(例如指示光标1310的位置)建立联系,并从通信部发送给服务器100(步骤S113)。0121在服务器100中,通信部接收从平板终端300发送来的注解。
49、输入以及图像内的位置的信息,处理器将接收的信息所包含的图像内的位置转换为实际空间的位置(步骤S115)。将变换后的与实际空间的位置建立了关联的注解输入从通信部发送给可穿戴终端200(步骤S117)。0122在可穿戴终端200中,通信部从服务器100接收注解输入以及实际空间的位置的信息,处理器使用空间信息,将与注解信息建立了关联的实际空间的位置转换为当前显示于显示器230的图像1200内的位置(步骤S119),并在该位置显示注解(例如指示光标1210、注释1220)(步骤S121)。0123图5B示出上述的处理的其它的例子。在该例子中,在服务器100的处理器将图像内的位置和实际空间的位置建立联系后,通信部将图像所包含的实际空间的位置的信息与说明书CN104104862A1310/30页14图像数据一起发送给平板终端300(步骤S201)。在平板终端300中,在显示器330上显示图像(步骤S109)这与上的图5A的例子相同,但不是将注解输入与图像内的位置与建立联系进行发送,而与在步骤S201接收的实际空间的位置建立联系进行发送(步骤S203)。因此,在服务器100中,通信部将与实际空间的位置建立了关联的注解输入的信息转送给可穿戴终端200即可(步骤S205)。0124第1个优点0125在上述中说明的技术有几个优点。例如,在利用可穿戴终端200获。