《信息处理设备、估计器生成方法和程序.pdf》由会员分享,可在线阅读,更多相关《信息处理设备、估计器生成方法和程序.pdf(56页珍藏版)》请在专利查询网上搜索。
1、(10)申请公布号 CN 103177177 A(43)申请公布日 2013.06.26CN103177177A*CN103177177A*(21)申请号 201210320527.3(22)申请日 2012.08.312011-196300 2011.09.08 JP2011-196301 2011.09.08 JPG06F 19/00(2006.01)(71)申请人索尼公司地址日本东京(72)发明人小林由幸 儿嶋环(74)专利代理机构北京集佳知识产权代理有限公司 11227代理人朱胜 李春晖(54) 发明名称信息处理设备、估计器生成方法和程序(57) 摘要本发明公开了一种信息处理设备、估计。
2、器生成方法和程序,其中该信息处理设备包括:特征量向量计算部,当给出每一个均被配置成包括输入数据和对应于输入数据的目标变量的多个学习数据时,将输入数据输入到多个基函数中以计算特征量向量,其中该特征量向量包括来自各个基函数的输出值作为元素;分布调整部,调整特征量空间中由特征量向量指定的点的分布,以使得点的分布变得更接近预定分布;以及函数生成部,关于多个学习数据,生成根据特征量向量的输入而输出目标变量的估计值的估计函数。(30)优先权数据(51)Int.Cl.权利要求书2页 说明书23页 附图30页(19)中华人民共和国国家知识产权局(12)发明专利申请权利要求书2页 说明书23页 附图30页(10。
3、)申请公布号 CN 103177177 ACN 103177177 A1/2页21.一种信息处理设备,包括:特征量向量计算部,当给出每一个均被配置成包括输入数据和对应于所述输入数据的目标变量的多个学习数据时,将所述输入数据输入到多个基函数中以计算特征量向量,所述特征量向量包括来自各个基函数的输出值作为元素;分布调整部,调整特征量空间中由所述特征量向量指定的点的分布,以使得所述点的分布变得更接近预定分布;以及函数生成部,关于所述多个学习数据,生成根据所述特征量向量的输入而输出所述目标变量的估计值的估计函数。2.根据权利要求1所述的信息处理设备,其中,所述分布调整部使所述学习数据稀疏化,以使得所述。
4、特征量空间中由所述特征量向量指定的所述点的分布变得更接近所述预定分布。3.根据权利要求1所述的信息处理设备,其中,所述分布调整部对每个所述学习数据进行加权,以使得所述特征量空间中由所述特征量向量指定的所述点的分布变得更接近所述预定分布。4.根据权利要求1所述的信息处理设备,其中,所述分布调整部使所述学习数据稀疏化并且对稀疏化之后剩余的每个学习数据进行加权,以使得所述特征量空间中由所述特征量向量指定的所述点的分布变得更接近所述预定分布。5.根据权利要求1所述的信息处理设备,其中,所述预定分布是均匀分布或高斯分布。6.根据权利要求2所述的信息处理设备,其中,当另外给出新的学习数据时,所述分布调整部。
5、使包括所述新的学习数据和现有学习数据的学习数据组稀疏化,以使得所述特征量空间中由所述特征量向量指定的所述点的分布变得更接近所述预定分布。7.根据权利要求1所述的信息处理设备,还包括:基函数生成部,通过组合先前准备的多个函数来生成所述基函数。8.根据权利要求7所述的信息处理设备,其中,所述基函数生成部基于遗传算法更新所述基函数,当更新所述基函数时,所述特征量向量计算部将所述输入数据输入到更新后的基函数中以计算特征量向量,以及所述函数生成部生成根据使用更新后的基函数算出的所述特征量向量的输入而输出所述目标变量的估计值的估计函数。9.一种估计器生成方法,包括:当给出每一个均被配置成包括输入数据和对应。
6、于所述输入数据的目标变量的多个学习数据时,将所述输入数据输入到多个基函数中以计算特征量向量,其中所述特征量向量包括来自各个基函数的输出值作为元素;调整特征量空间中由所述特征量向量指定的点的分布,以使得所述点的分布变得更接近预定分布;以及关于所述多个学习数据,生成根据所述特征量向量的输入而输出所述目标变量的估计值的估计函数。10.一种用于使得计算机实现以下功能的程序:特征量向量计算功能,当给出每一个均被配置成包括输入数据和对应于所述输入数据权 利 要 求 书CN 103177177 A2/2页3的目标变量的多个学习数据时,将所述输入数据输入到多个基函数中以计算特征量向量,其中所述特征量向量包括来。
7、自各个基函数的输出值作为元素;分布调整功能,调整特征量空间中由所述特征量向量指定的点的分布,以使得所述点的分布变得更接近预定分布;以及函数生成功能,关于所述多个学习数据,生成根据所述特征量向量的输入而输出所述目标变量的估计值的估计函数。权 利 要 求 书CN 103177177 A1/23页4信息处理设备、 估计器生成方法和程序技术领域0001 本技术涉及一种信息处理设备、估计器生成方法和程序。背景技术0002 近年来,用于自动地从难以定量地确定特征的任意数据组提取该数据组的特征量的方法正引起关注。例如,已知如下方法:将任意音乐数据作为输入并且自动地构造用于自动提取该音乐数据所属的音乐风格的算。
8、法。诸如爵士、古典以及流行的音乐风格不是根据乐器的类型或演奏模式而定量地确定的。因此,在过去,通常认为在给出了任意音乐数据时,难以自动地从音乐数据提取音乐风格。0003 然而,实际上,区分音乐风格的特征潜在地包括在信息项的各种组合中,诸如包括在音乐数据中的音调的组合、组合音调的方式、乐器类型的组合以及旋律线或低音线的结构。因此,关于通过机器学习对用于提取这样的特征的算法(下文中,称为特征量提取器)的自动构造的可能性,已进行了对特征量提取器的研究。作为一个研究结果,可以引用在JP-A-2009-48266中描述的、基于遗传算法的特征量提取器的自动构造方法。遗传算法是模拟生物进化过程并且在机器学习。
9、的过程中将选择、交叉(crossover)和突变纳入考虑的算法。0004 通过使用在上述专利文献中描述的特征量提取器自动构造算法,可以自动构造用于从任意音乐数据中提取该音乐数据所属的音乐风格的特征量提取器。另外,专利文献中描述的特征量提取器自动构造算法是高度通用的,并且能够自动地构造用于不仅从音乐数据还从任意数据组提取该数据组的特征量的特征量提取器。因此,期望专利文献中描述的特征量提取器自动构造算法应用于对人工数据(诸如,音乐数据和图像数据)的特征量分析和对自然存在的各种观察量的特征量分析。发明内容0005 上述文献中描述的特征量提取器自动构造算法使用之前准备的学习数据来自动构造特征量提取公式。
10、。较大数量的学习数据导致自动构造的特征量提取公式的性能较高。然而,构造特征量提取公式可利用的存储容量是有限的。另外,当学习数据的数量较大时,实现特征量提取公式的构造需要较高的计算性能。因此,期望如下配置:其优选地使用来自大量地提供的学习数据的、有助于提高特征量提取公式的性能的有用学习数据。通过实现这样的配置,可以获得具有较高精确度的特征量提取公式。因此,期望提高使用特征量提取公式来估计结果的估计器的性能。0006 本技术是在上述情形下做出的。本技术旨在提供一种新颖且改进的信息处理设备、估计器生成方法和程序,其能够生成更高性能的估计器。0007 根据本技术的一方面,提供了一种信息处理设备,其包括。
11、:特征量向量计算部,当给出每一个均被配置成包括输入数据和对应于输入数据的目标变量的多个学习数据时,将输入数据输入到多个基函数中以计算特征量向量,其中这些特征量向量包括来自各个基函说 明 书CN 103177177 A2/23页5数的输出值作为元素;分布调整部,调整特征量空间中由特征量向量指定的点的分布,以使得点的分布变得更接近预定分布;以及函数生成部,关于多个学习数据,生成根据特征量向量的输入而输出目标变量的估计值的估计函数。0008 另外,根据本技术的另一方面,提供了一种估计器生成方法,其包括:当给出每一个均被配置成包括输入数据和对应于输入数据的目标变量的多个学习数据时,将输入数据输入到多个。
12、基函数中以计算特征量向量,其中这些特征量向量包括来自各个基函数的输出值作为元素;调整特征量空间中由特征量向量指定的点的分布,以使得点的分布变得更接近预定分布;以及关于多个学习数据,生成根据特征量向量的输入而输出目标变量的估计值的估计函数。0009 另外,根据本技术的又一方面,提供了一种用于使得计算机实现以下功能的程序:特征量向量计算功能,当给出每一个均被配置成包括输入数据和对应于输入数据的目标变量的多个学习数据时,将输入数据输入到多个基函数中以计算特征量向量,其中这些特征量向量包括来自各个基函数的输出值作为元素;分布调整功能,调整特征量空间中由特征量向量指定的点的分布,以使得点的分布变得更接近。
13、预定分布;以及函数生成功能,关于多个学习数据,生成根据特征量向量的输入而输出目标变量的估计值的估计函数。0010 本技术的另一方面是提供一种存储有上述程序的计算机可读记录介质。0011 如上所述,本技术使得可以生成更高性能的估计器。附图说明0012 图1是示出用于利用通过机器学习构造的估计器来估计结果的系统配置的图;0013 图2是示出用于估计器构造的学习数据的配置的图;0014 图3是示出估计器的结构的图;0015 图4是示出估计器的构造方法的流程图;0016 图5是示出估计器的构造方法的流程图;0017 图6是示出估计器的构造方法的流程图;0018 图7是示出估计器的构造方法的流程图;00。
14、19 图8是示出估计器的构造方法的流程图;0020 图9是示出估计器的构造方法的流程图;0021 图10是示出估计器的构造方法的流程图;0022 图11是示出估计器的构造方法的流程图;0023 图12是示出估计器的构造方法的流程图;0024 图13是示出在线学习的图;0025 图14是示出关于基于离线学习的估计器的构造方法和基于在线学习的估计器方法的构造要解决的问题的图;0026 图15是示出根据实施例的信息处理设备的功能配置的图;0027 图16是示出根据实施例的估计特征构造部的详细功能配置的图;0028 图17是示出特征量空间中的学习数据的分布与估计器的精度之间的关系的图;0029 图18。
15、是示出特征量空间中的学习数据的分布与估计器的精度之间的关系以及在线学习的效果的图;说 明 书CN 103177177 A3/23页60030 图19是示出根据实施例对学习数据进行采样的方法的图;0031 图20是示出根据实施例的学习数据的有效采样方法的流程图;0032 图21是示出根据实施例的学习数据的有效采样方法的图;0033 图22是示出根据实施例的学习数据的有效采样方法的图;0034 图23是示出根据实施例的学习数据的有效采样方法的图;0035 图24是示出根据实施例的学习数据的有效采样方法的图;0036 图25是示出根据实施例的学习数据的有效采样方法的图;0037 图26是示出根据实施。
16、例的学习数据的有效采样方法的图;0038 图27是示出根据实施例的有效加权方法的流程图;0039 图28是示出根据实施例的有效加权方法的图;0040 图29是示出根据实施例的有效加权方法的图;0041 图30是示出根据实施例的有效加权方法的图;0042 图31是示出根据实施例的有效采样/加权方法的流程图;0043 图32是示出根据实施例的变型的学习数据的选择方法的流程图;0044 图33是示出根据实施例的变型的学习数据的选择方法的流程图;0045 图34是示出根据实施例的变型的学习数据的加权方法的流程图;0046 图35是示出根据实施例的变型的学习数据的选择方法的流程图;0047 图36是示出。
17、根据实施例的变型的学习数据的加权方法的流程图;0048 图37是示出用于构造图像识别器的学习数据生成方法的图;0049 图38是示出用于构造语言分析器的学习数据的生成方法的图;0050 图39是示出通过应用在线学习而获得的效果的图;以及0051 图40是示出能够实现根据实施例的信息处理设备的功能的硬件配置的示例的图示。具体实施方式0052 在下文中,将参照附图详细描述本公开内容的优选实施例。注意,在本说明书和附图中,具有基本上相同的结构和功能的结构元件以相同的附图标记来表示,并且省略对这些结构元件的重复说明。0053 描述流程0054 这里,将简要阐述以下描述的流程。0055 参照图1至图12。
18、,首先将描述估计器的自动构造方法。随后,参照图13和图14,将对基于估计器的在线学习的自动构造方法进行描述。随后,参照图15和图16,将对根据实施例的信息处理设备10的功能配置进行描述。随后,参照图17至图19,将对根据实施例的学习数据集成方法进行描述。0056 随后,参照图20至图26,将对根据实施例的学习数据的有效采样方法进行描述。随后,参照图27至图30,将对根据实施例的有效加权方法进行描述。随后,参照图31,将对根据实施例的学习数据的有效采样方法和加权方法的组合方法进行描述。0057 随后,参照图32,将对根据实施例的变型(变型1)的学习数据的采样方法进行描述。随后,参照图33和图34。
19、,将对根据实施例的变型(变型2)的学习数据的采样方法进行说 明 书CN 103177177 A4/23页7描述。随后,参照图35和图36,将对根据实施例的变型(变型3)的学习数据的采样方法进行描述。0058 随后,参照图37,将对根据实施例的技术对于图像识别器的自动构造方法的应用方法进行描述。随后,参照图38,将对根据实施例的技术对于语言分析器的自动构造方法的应用方法进行描述。随后,参照图39,将对根据实施例的在线学习的效果进行描述。随后,参照图40,将对能够实现根据实施例的信息处理设备10的功能的硬件配置的示例进行描述。0059 最后,将对实施例的技术构思进行描述,并且将对从该技术构思获得的。
20、工作效果进行简要描述。0060 (描述项)0061 1:介绍0062 1-1:估计器的自动构造方法0063 1-1-1:估计器的配置0064 1-1-2:构造处理流程0065 1-2:用于实现在线学习0066 2:实施例0067 2-1:信息处理设备10的功能配置0068 2-2:学习数据集成方法0069 2-2-1:特征量空间中的学习数据的分布和估计器的精度0070 2-2-2:用于在数据集成时进行采样的配置0071 2-2-3:用于在数据集成时进行加权的配置0072 2-2-4:用于在数据集成时进行采样和加权的配置0073 2-3:有效采样/加权方法0074 2-3-1:采样方法0075 。
21、2-3-2:加权方法0076 2-3-3:组合方法0077 2-4:采样处理和加权处理的变型0078 2-4-1:变型1(基于距离的处理)0079 2-4-2:变型2(基于聚类的处理)0080 2-4-3:变型3(基于密度估计技术的处理)0081 3:应用示例0082 3-1:图像识别器的自动构造方法0083 3-2:语言分析器的自动构造方法0084 4:硬件配置的示例0085 5:总结0086 0087 以下描述的实施例涉及一种估计器的自动构造方法。另外,实施例涉及添加用于估计器构造的学习数据(下文中,称为在线学习)的配置。在详细描述根据实施例的技术之前,将对为了实现估计器的自动构造方法和在。
22、线学习而要解决的问题进行描述。在以下描说 明 书CN 103177177 A5/23页8述中,将给出基于遗传算法的估计器的自动构造方法的示例。然而,根据实施例的技术的应用范围不限于上述范围。0088 1-1:估计器的自动构造方法0089 以下将描述估计器的自动构造方法。0090 (1-1-1:估计器的配置)0091 参照图1至图3,首先将描述估计器的配置。图1是示出使用估计器的系统的系统配置的示例的图。图2是示出用于估计器构造的学习数据的配置的示例的图。图3是示出估计器的结构和构造方法的概况的图。0092 参照图1,例如,信息处理设备10执行估计器的构造和估计值的计算。信息处理设备10使用多个。
23、学习数据(X1,t1),.,(XN,tN)来构造估计器。在以下描述中,学习数据的集合可被称为学习数据集。另外,信息处理设备10通过使用所构造的估计器来根据输入数据X计算估计值y。估计值y用于识别输入数据X。例如,当估计值y大于预定阈值Th时,输出识别结果“是”;而当估计值y小于预定阈值Th时,输出识别结果“否”。0093 参照图2,将更具体地来考虑估计器的配置。图2中例示的学习数据集用于构造图像识别器,该图像识别器用于识别“海”的图像。在该情况下,由信息处理设备10构造的估计器输出表示输入图像的“海的概率”的估计值y。如图2所示,学习数据被配置为包括数据Xk和目标变量tk(k=1至N)的对。数。
24、据Xk表示第k个图像数据(图像#k)。目标变量tk是这样的变量:当图像#k是“海”的图像时,其为1;而当图像#k不是“海”的图像时,其为0。0094 在图2的示例中,图像#1是“海”的图像;图像#2是“海”的图像;,图像#N不是“海”的图像。在该情况下,目标变量tk是t11,t2=1,以及tN=0。当输入学习数据集时,信息处理设备10基于所输入的学习数据集执行机器学习,并且构造输出估计值y的估计器,该估计值y表示输入图像的“海的概率”。输入图像的“海的概率”越高,则估计值y越接近1;而当“海的概率”越低时,估计值y越接近0。0095 当输入新的输入数据X(图像X)时,信息处理设备10将图像X输。
25、入到使用学习数据集所构造的估计器中,并且计算表示图像X的“海的概率”的估计值y。通过使用估计值y,可以识别图像X是否是“海”的图像。例如,当估计值y(预定阈值Th)时,输入图像X被识别为“海”的图像。另一方面,当估计值y(预定阈值Th)时,输入图像X被识别为非“海”的图像。0096 实施例涉及用于自动地构造如上所述的估计器的技术。注意,以上已经描述了用于构造图像识别器的估计器。然而,根据实施例的技术可应用于关于各种估计器的自动构造方法。例如,根据实施例的技术可应用于构造语言分析器,或者应用于分析音乐的旋律线和/或码进行(code progression)的音乐分析器。另外,根据实施例的技术可应。
26、用于再现自然现象(诸如,蝴蝶和/或云的移动)的移动预测器。0097 根据实施例的技术可应用于在例如JP-A-2009-48266、日本专利申请第2010-159598号、日本专利申请第2010-159597号、日本专利申请第2009-277083号、日本专利申请第2009-277084号等中公开的算法。另外,根据实施例的技术可应用于诸如AdaBoost的集成学习方法或者诸如其中使用Kernel的SVM或SVR的学习方法。当根据实施例的技术应用于诸如AdaBoost的集成学习方法时,弱学习器对应于以下将描述的基函说 明 书CN 103177177 A6/23页9数。另外,当根据本实施例的技术应用。
27、于诸如SVM或SVR的学习方法时,Kernel对应于以下将描述的基函数。SVM是支持向量机的缩写;SVR是支持向量回归的缩写;以及RVM是相关向量机的缩写。0098 参照图3,对估计器的结构进行描述。如图3所示,估计器被配置成包括基函数列表(1,M)和估计函数f。基函数列表(1,M)包括M个基函数k(k=1至M)。基函数k是响应于输入数据X的输入而输出特征量zk的函数。估计函数f是响应于特征量向量Z=(z1,.,zM)的输入而输出估计值y的函数,该特征量向量Z包括M个特征量zk(k=1至M)作为元素。基函数k是通过组合先前准备的一个或多个处理函数而生成的。0099 对于处理函数,例如,可使用三。
28、角函数、指数函数、四则运算、数字滤波器、微分算子、中值滤波器、归一化计算、白噪声的附加处理、图像处理滤波器。例如,当输入数据X是图像时,使用基函数j(X)=AddWhiteNoise(Median(Blur(X),其中组合白噪声的附加处理AddWhiteNoise()、中值滤波器Median()、模糊处理Blur()等。基函数j表示按顺序对输入数据X进行模糊处理、中值滤波器处理以及白噪声的附加处理。0100 (1-1-2:构造处理流程)0101 通过基于学习数据集的机器学习来确定基函数k(k=1至M)的配置、基函数列表的配置以及估计函数f的配置。将详细描述通过机器学习进行的估计器的构造处理。0。
29、102 (完整配置)0103 参照图4,对完整处理流程进行描述。图4是示出整个处理流程的流程图。以下处理由信息处理设备10来执行。0104 如图4所示,首先将学习数据集输入信息处理设备10中(S101)。数据X和目标变量t的对被输入作为学习数据。当输入学习数据集时,信息处理设备10组合处理函数以生成基函数(S102)。随后,信息处理设备10将数据X输入到基函数中并且计算特征量向量Z(S103)。随后,信息处理设备10估计基函数并生成估计函数(S104)。0105 随后,信息处理设备10确定是否满足预定终止条件(S105)。当满足预定终止条件时,信息处理设备10使处理前进到步骤S106。另一方面。
30、,当不满足预定终止条件时,信息处理设备10将处理返回到步骤S102,并且重复处理步骤S102至S104。当处理进行到步骤S106时,信息处理设备10输出估计函数(S106)。如上所述,重复处理步骤S102至S104。在以下描述中,在第次重复处理中,在步骤S102中所生成的基函数将被称为第代基函数。0106 (基函数的生成(S102)0107 这里,参照图5至图10,对步骤S102中的处理(基函数的生成)进行详细描述。0108 参照图5,信息处理设备10确定当前的代是否是第二代以后(S111)。即,信息处理设备10确定正要执行的步骤S102中的处理是否是从第二次以后的重复开始的重复处理。当该处理。
31、是第二代时,信息处理设备10使处理前进到步骤S113。另一方面,当该处理不是第二代以后时(当该处理是第一代时),信息处理设备10使处理前进到步骤S112。当处理进行到步骤S112时,信息处理设备10随机地生成基函数(S112)。另一方面,当处理进行到步骤S113时,信息处理设备10进化生成基函数(S113)。当步骤S112或S113中的处理完成时,信息处理设备10终止步骤S102中的处理。0109 (S112:基函数的随机生成)说 明 书CN 103177177 A7/23页100110 参照图6和图7,对步骤S112中的处理进行更详细的描述。步骤S112中的处理涉及第一基函数的生成处理。01。
32、11 参照图6,信息处理设备10开始与基函数的索引m(m=0至M-1)相关的处理循环(S121)。随后,信息处理设备10随机地生成基函数m(x)(S122)。随后,信息处理设备10确定基函数的索引m是否已达到M-1。当基函数的索引m尚未达到M-1时,信息处理设备10使基函数的索引m递增,并且将处理返回到步骤S121(S124)。另一方面,当基函数的索引m是m=M-1时,信息处理设备10终止处理循环(S124)。当在步骤S124中终止处理循环时,信息处理设备10完成步骤S112中的处理。0112 (步骤S122的详细描述)0113 参照图7,对步骤S122中的处理进行详细描述。0114 如图7所。
33、示,当在步骤S122中开始处理时,信息处理设备10随机地确定基函数的原型(S131)。对于原型,除了以上已经描述的处理函数之外,可使用诸如线性项、高斯核和S形核的处理函数。随后,信息处理设备10随机地确定所确定的原型的参数,并且生成基函数(S132)。0115 (S113:基函数的进化生成)0116 参照图8至图10,对步骤S113中的处理进行更详细的描述。步骤S113中的处理涉及用于生成第代(2或更大)基函数的处理。在执行步骤S113中的处理之前,已获得第(-1)代基函数m,-1(m=1至M)和基函数m,-1的评价值vm,-1。0117 参照图8,信息处理设备10更新基函数的数量M(S141。
34、)。即,信息处理设备10确定第代基函数的数量M。随后,信息处理设备10基于关于第(-1)代基函数m,-1(m=1至M)的评估值v-1=v1,-1,vM,-1,从(-19)代基函数中选择e个有用的基函数,并且对第代基函数1,.,e,进行相同设置(S142)。0118 随后,信息处理设备10从交叉、突变、随机生成中随机地选择用于生成剩余(M-e个)基函数e+1,,.,M,的方法。当选择交叉时,信息处理设备10使处理前进到步骤S144。当选择突变时,信息处理设备10使处理前进到步骤S145。当选择随机生成时,信息处理设备10使处理前进到步骤S146。0119 当处理进行到步骤S144时,信息处理设备。
35、10根据在步骤S142中选择的所选基函数1,.,e,来交叉基函数,并且生成新的基函数m,(me+1)(S144)。当处理进行到步骤S145时,信息处理设备10根据在步骤S142中选择的所选基函数1,.,e,来使基函数突变,并生成新的基函数m,(me+1)(S145)。另一方面,当处理进行到步骤S146时,信息处理设备10随机地生成新的基函数m,(me+1)(S146)。0120 当完成步骤S144、S145和S146中的任意步骤的处理时,信息处理设备10使处理前进到步骤S147。在使处理前进到步骤S147之后,信息处理设备10确定第代基函数是否达到M(M=M)(S147)。当第代基函数尚未达到M时,信息处理设备10再次将处理返回到步骤S143。另一方面,当第代基函数已达到M时,信息处理设备10终止步骤S113中的处理。0121 (S144的详细描述:交叉)0122 参照图9,对步骤S144中的处理进行详细描述。0123 如图9所示,在开始步骤S144中的处理之后,信息处理设备10从在步骤S142中说 明 书CN 103177177 A10。