基于多尺度NetVLAD和深度哈希的图像检索方法.pdf

上传人:C*** 文档编号:11256014 上传时间:2021-09-15 格式:PDF 页数:13 大小:740.53KB
返回 下载 相关 举报
基于多尺度NetVLAD和深度哈希的图像检索方法.pdf_第1页
第1页 / 共13页
基于多尺度NetVLAD和深度哈希的图像检索方法.pdf_第2页
第2页 / 共13页
基于多尺度NetVLAD和深度哈希的图像检索方法.pdf_第3页
第3页 / 共13页
点击查看更多>>
资源描述

《基于多尺度NetVLAD和深度哈希的图像检索方法.pdf》由会员分享,可在线阅读,更多相关《基于多尺度NetVLAD和深度哈希的图像检索方法.pdf(13页珍藏版)》请在专利查询网上搜索。

1、(19)中华人民共和国国家知识产权局 (12)发明专利申请 (10)申请公布号 (43)申请公布日 (21)申请号 201910312824.5 (22)申请日 2019.04.18 (71)申请人 杭州电子科技大学 地址 310018 浙江省杭州市下沙高教园区2 号大街 (72)发明人 叶凌智翁立王建中 (74)专利代理机构 杭州君度专利代理事务所 (特殊普通合伙) 33240 代理人 朱月芬 (51)Int.Cl. G06F 16/583(2019.01) G06N 3/04(2006.01) (54)发明名称 基于多尺度NetVLAD和深度哈希的图像检索 方法 (57)摘要 本发明涉及基。

2、于多尺度NetVLAD和深度哈希 的图像检索方法。 本发明采用的是基于多尺度卷 积神经网络的局部聚合描述符向量方法来对图 像检索中的图片进行特征提取。 将原始的只采用 最后一层卷积层输出特征, 优化为采用多层卷积 层的输出特征融合后的特征。 融合后的特征不仅 包含高层语义特征, 同时也包含了低层图片细节 信息。 在NetVLAD后面加一个哈希层进行特征编 码, 特征变得更加简洁, 通过哈希编码层, 使得特 征维度和复杂度降低, 显著减少了后续的存储开 销和计算复杂度。 加快了图像检索时的速度, 实 现在大规模数据集中快速精确的检索到相似图 片。 权利要求书3页 说明书7页 附图2页 CN 11。

3、0222218 A 2019.09.10 CN 110222218 A 1.基于多尺度NetVLAD和深度哈希的图像检索方法, 其特征在于: 包括以下步骤: 步骤一、 训练流程: 对网络参数进行训练, 以获得最佳的网络参数; 首先将训练集分为 查询集和数据库, 将数据库中的数据按照与查询集的相似程度,从高到低进行排序, 选取前 m1个相对相似为正类, 后m2个相对不相似为负类, 构成三元组, 并输入到提出的基于多尺度 NetVLAD的深度哈希算法网络中进行网络训练; 具体步骤如下: 步骤1、 获得训练样本数据: 训练样本数据分为查询集和数据库, 数据库中图片标签为与查询集中图片的近似程 度, 。

4、由相似度判别方法获得; 步骤2、 根据训练样本数据, 分别对查询集中的每一个样本qj, j1,2,.,Q, 其中Q为查 询集样本数量, 取图像数据库中的m1个与qj最相似的图片构成取m2个与 qj最不相似的图片构成从而得到三元组 步骤3、 将步骤二得到的三元组作为输入, 输入到多尺度卷 积网络中, 将输出的特征进行融合, 得到融合的特征, 具体步骤如下: 3-1、 将训练样本输入到多尺度卷积网络, 获得总共P个卷积网 络的中间层特征输出,其中x为卷积网络的中间层输出特征矩阵, L为训练样本总数量, P为 任意大于等于2的整数值; 3-2、 对特征进行融合:Xl为融合后输出特征矩阵, f表示基于。

5、 深度学习的特征融合方法; 步骤4、 用K均值聚类算法获得初始化簇中心, 具体步骤如下: 4-1、 选取聚类的簇数为K, 最大迭代次数为nmax; 4-2、 以步骤3所得的融合后特征X1,X2,.,XL为输入, 并从中随机选取K个值作为初 始化质心 1, 2,., K, 为簇中心矩阵; 4-3、 将簇划分为C, 并初始化为Ct,t1,2,.,K, 其中C表示聚类簇群集合,t表示 类别标号, 总共有K个, 为空集; 4-4、 计算所有样本特征X1,X2,.,XL与质心 1, 2,., K的距离 将Xl归入距离最小的对应的类别t类, 更新CtCt Xl; 4-5、 重新计算出新的质心 4-6、 重。

6、复4-4、 4-5操作, 直至质心不再发生改变或达到最大迭代次数, 输出最终质心为 所求簇中心c 1” , 2” ,., K” ; 步骤5、 对步骤3所得融合特征Xl进行VLAD池化, 具体步骤如下: 5-1、 用K个空间大小为1*1, 参数矩阵为Wk, 偏置矩阵为bk的滤波器对特征矩阵Xl进行卷 积操作获得输出其中Sk表示卷积后输出矩阵; 5-2、 卷积后结果Sk(Xl)再经过Soft-max函数, 获得连续化后的权重ak(Xl), 见式(1): 权利要求书 1/3 页 2 CN 110222218 A 2 其中, k1,2,.,k; 5-3、 将图片特征矩阵Xl作为输入, 步骤4中得出的K。

7、个簇中心、 5-2中所得的ak(Xl)作为 VLAD的参数, 得到D*K维VLAD特征矩阵Vl, 见式(2): 其中Vl(g,k)表示池化后特征矩阵Vl的第g行第k列元素, Xl(g)表示第l个样本特征的第 g维, ck(g)表示第k个簇中心的第g维; 5-4、 将5-3获得的VLAD特征矩阵Vl进行对列进行L2范数内部正则化, 获得一个D*K维的 矩阵Vl, 见式(3): 5-5、 对5-4获得的Vl再次进行整体L2范数正则化, 见式(4): 步骤6、 进行哈希编码: 6-1、 将步骤5所得的D*K的列向量Vl” , 降维为N维向量VN, 见式(5): VNVl”*wH+bH (5); 其中。

8、wH为(D*K)*N维权重矩阵, bH为N维偏差; 6-2、 对N维向量VN进行二进制编码, 见式(6): 其中表示激活函数,我们采用的是sigmoid函数, 其表达式为z表示 函数 的输入, e(-z)表示以自然常数e为底, -z为指数的指数函数; sgn()为阶跃函数; 步骤7、 损失函数求取, 见式(7)-(10): L E1- E2+E3 (10); 其中, d表示欧式距离; m为阈值; 、 、 为权值; t取值为1, 2; mean(.)用来计算向量 中元素的平均值; E1、 E2、 E3分别表示三个损失函数, 通过最小化查询图像与相似图像集的欧 式距离, 最大化与不相似图像集之间的。

9、欧式距离, 即E1, 来获得更好的图像特征表示; 通过 最大化哈希编码与0.5之间的平方误差, 即E2, 来实现尽可能多的激活结点; 通过最小化哈 希编码向量均值与0.5之间的误差, 即E3, 使得哈希编码的离散分布的熵最大; L表示网络总 权利要求书 2/3 页 3 CN 110222218 A 3 的损失函数; 步骤8、 使用反向传播算法, 对步骤7所得损失函数进行求导优化以上步骤出现过的可 学习参数; 步骤二、 测试流程: 用新的图片数据集对步骤一训练得到的网络进行检索测试, 观察其 效果; 具体步骤如下: 1.1、 将新的样本输入已经训练好的网络中, 得到查询图片的最后输出特征哈希码和。

10、 对应的数据集的最后输出特征 1.2、 取对应的图片为最后检索结果,其中,距离计算为汉明 距离, 汉明距离定义为, 两个等长字符串, 将其中一个变换成另一个所需要的最小替换数; 取最小距离对应的数据库图像为检索结果。 2.如权利要求1所述的基于多尺度NetVLAD和深度哈希的图像检索方法, 其特征在于: 所述的相似度判别方法采用直方图匹配或像素平均值向量匹配。 3.如权利要求1所述的基于多尺度NetVLAD和深度哈希的图像检索方法, 其特征在于: 所述的基于深度学习的特征融合方法采用多卷积层特征矩阵拼接或多规格卷积核滤波方 法。 权利要求书 3/3 页 4 CN 110222218 A 4 基。

11、于多尺度NetVLAD和深度哈希的图像检索方法 技术领域 0001 本发明属于计算机视觉、 目标检索领域, 涉及一种基于多尺度 NetVLAD和深度哈 希的图像检索方法。 背景技术 0002 图像检索技术是从图片数据库中检索出满足条件的图片, 在现实生活中有着广泛 的应用场景, 比如在遥感影像, 安防监控, 检索引擎, 电子商务, 生物医学等方面, 都起着至 关重要的作用。 0003 目前普遍使用的图像检索方法主要包括基于文本和内容的检索。 基于文本的检索 方法是采用人工或半监督学习方式分配给图像一组自由文本来描述图像的内容, 并经过文 本检索系统将图像检索转换成文本检索。 由于图像含有丰富的。

12、信息, 文本标签往往不能对 图像信息进行完整的表示, 甚至会出现无法找到合适的关键词来描述, 从而导致大量信息 的丢失, 影响最终的检索性能。 在基于内容的图像检索算法中, 基于词袋(Bag of Word, BoW)和局部聚合描述符向量(Vector of Locally Aggregated Descriptors,VLAD)的图像 检索是目前的基础方法, 并且有着广泛的应用。 然而, 需要指出的是, 随着如今数据爆炸式 的增长, 为了不降低检索精度, 所用的词典规模也急剧增大, 从而导致检索速度降低。 因此, 如何在大数据中提取更加高级抽象的特征来进行快速准确的大规模图像检索是目前图像 。

13、检索技术面临的主要问题。 0004 本文提出了一种基于多尺度NetVLAD(基于卷积神经网络的局部聚合描述符向量) 和深度哈希的图像检索方法。 发明内容 0005 针对现有图像检索算法中存在的问题, 本发明提出了一种基于多尺度NetVLAD和 深度哈希的图像检索方法。 该方法具有以下优点: 1)具有卷积神经网络(Convolutional Neural Network,CNN)对图像强大的表达能力; 2)通过NetVLAD层, 能够在单纯的CNN基础 上, 提取更加高级且具有更强鲁棒能力的图像特征; 3)通过融合不同卷积层的输出, 使得学 习到的特征对图像具有更完整的表示; 4)通过哈希编码层。

14、, 使得特征维度和复杂度降低, 显 著减少了后续的存储开销和计算复杂度。 相比较于目前存在的图像检索技术, 本发明提出 的方法具有更高的检索速度以及更加准确的检索性能。 0006 本发明具体包括以下步骤: 0007 步骤一、 训练流程: 对网络参数进行训练, 以获得最佳的网络参数。 首先将训练集 分为查询集和数据库, 将数据库中的数据按照与查询集的相似程度,从高到低进行排序, 选 取前m1个相对相似为正类, 后m2个相对不相似为负类, 构成三元组, 并输入到提出的基于多 尺度NetVLAD的深度哈希算法网络中进行网络训练。 0008 具体步骤如下: 0009 步骤1、 获得训练样本数据: 说明。

15、书 1/7 页 5 CN 110222218 A 5 0010 训练样本数据分为查询集和数据库, 数据库中图片标签为与查询集中图片的近似 程度, 由相似度判别算法获得, 一般采用直方图匹配, 像素平均值向量匹配等。 0011 步骤2、 根据训练样本数据, 分别对查询集中的每一个样本 qj, j1,2,.,Q, 其 中Q为查询集样本数量, 取图像数据库中的m1个与qj最相似的图片构成i1,2,., m1, 取m2个与qj最不相似的图片构成k1,2,.,m2, 从而得到三元组j 1,2,.,Q。 0012步骤3、 将步骤二得到的三元组j1,2,.,Q作为输入, 输入到多尺 度卷积网络中, 将输出的。

16、特征进行融合, 得到融合的特征, 具体步骤如下: 00133-1、 将训练样本输入到多尺度卷积网络, 获得l1,2,.,L, 总共P 个卷积网络的中间层特征输出,其中x为卷积网络的中间层输出特征矩阵, L为训练样本总 数量, P为任意大于等于2的整数值。 00143-2、 对特征进行融合:l1,2,.,L,Xl为融合后输出特征矩阵, f 表示基于深度学习的特征融合算法, 一般采用多卷积层特征矩阵拼接, 以及多规格卷积核 滤波方法。 0015 步骤4、 用K均值聚类算法获得初始化簇中心, 具体步骤如下: 0016 4-1、 选取聚类的簇数为K, 最大迭代次数为nmax; 0017 4-2、 以步。

17、骤3所得的融合后特征X1,X2,.,XL为输入, 并从中随机选取K个值作 为初始化质心 1, 2,., K, 为簇中心矩阵。 0018 4-3、 将簇划分为C, 并初始化为Ct,t1,2,.,K, 其中C表示聚类簇群集合,t 表示类别标号, 总共有K个, 为空集; 00194-4、 计算所有样本特征X1,X2,.,XL与质心 1, 2,., K的距离 l1,2,.,L; k1,2,.,K,将Xl归入距离最小的对应的类别t 类, 更新CtCtXl。 00204-5、 重新计算出新的质心 0021 4-6、 重复4-4, 4-5操作, 直至质心不再发生改变或达到最大迭代次数, 输出最终质 心为所求。

18、簇中心c 1” , 2” ,., K” ; 0022 步骤5、 对步骤3所得融合特征进行VLAD池化, 具体步骤如下: 0023 5-1、 用K个空间大小为1*1, 参数矩阵为Wk, 偏置矩阵为bk的滤波器对特征矩阵Xl进 行卷积操作获得输出其中Sk表示卷积后输出矩阵。 0024 5-2、 卷积后结果Sk(Xl)再经过Soft-max函数, 获得连续化后的权重ak(Xl), 见式 (1): 0025 0026 其中, k1,2,.,k。 说明书 2/7 页 6 CN 110222218 A 6 0027 5-3、 将图片特征矩阵Xl作为输入, 步骤4中得出的k个簇中心、 5-2中所得的ak(X。

19、l) 作为VLAD的参数, 得到D*K维VLAD特征矩阵Vl, 见式(2): 0028 0029 其中Vl(g,k)表示池化后特征矩阵Vl的第g行第k列元素, Xl(g)表示第l个样本特征 的第g维, ck(g)表示第k个簇中心的第g维。 0030 5-4、 将5-3获得的VLAD特征矩阵Vl进行对列进行L2范数内部正则化, 获得一个D*K 维的矩阵Vl, 见式(3): 0031 0032 5-5、 对5-4获得的Vl再次进行整体L2范数正则化, 见式(4): 0033 0034 步骤6、 进行哈希编码: 0035 6-1、 将步骤5所得的D*K的列向量Vl” , 降维为N维向量VN, 见式 。

20、(5): 0036 VNVl”*wH+bH (5); 0037 其中wH为(D*K)*N维权重矩阵, bH为N维偏差。 0038 6-2、 对N维向量VN进行二进制编码, 见式(6): 0039 0040其中表示激活函数,我们采用的是sigmoid函数, 其表达式为z 表示函数 的输入, e(-z)表示以自然常数e为底, -z为指数的指数函数; sgn(.)为阶跃函数。 0041 步骤7、 损失函数求取, 见式(7)-(10): 0042 0043 0044 0045 L E1- E2+E3 (10); 0046 其中, d表示欧式距离; m为阈值; 、 、 为权值; t取值为1, 2; me。

21、an(.)用来计算 向量中元素的平均值; E1、 E2、 E3分别表示三个损失函数, 通过最小化查询图像与相似图像集 的欧式距离, 最大化与不相似图像集之间的欧式距离, 即E1, 来获得更好的图像特征表示; 通过最大化哈希编码与0.5之间的平方误差, 即E2, 来实现尽可能多的激活结点; 通过最小 化哈希编码向量均值与0.5之间的误差, 即E3, 使得哈希编码的离散分布的熵最大; L表示网 络总的损失函数; 0047 步骤8、 使用反向传播算法, 对步骤7所得损失函数进行求导优化以上步骤出现过 的可学习参数。 说明书 3/7 页 7 CN 110222218 A 7 0048 步骤二、 测试流。

22、程: 用新的图片数据集对步骤一训练得到的网络进行检索测试, 观 察其效果。 具体步骤如下: 0049 1.1、 将新的样本输入已经训练好的网络中, 得到查询图片的最后输出特征哈希码 和对应的数据集的最后输出特征 00501.2、 取对应的图片为最后检索结果,其中,距离计算为 汉明距离, 汉明距离定义为, 两个等长字符串, 将其中一个变换成另一个所需要的最小替换 数。 取最小距离对应的数据库图像为检索结果。 0051 本发明采用的是基于多尺度卷积神经网络的局部聚合描述符向量(Multiscale- NetVLAD)方法来对图像检索中的图片进行特征提取, 该方法是一种比普通NetVLAD更全面 的。

23、特征提取方法。 它将原始的只采用最后一层卷积层输出特征, 优化为采用多层卷积层的 输出特征融合后的特征。 融合后的特征不仅包含高层语义特征, 同时也包含了低层图片细 节信息。 低层和高层特征的互补性可以提高查询图像与其他候选图像之间的相似性度量, 对于图像检索, 核心是需要找到与之最为相似而并非同类的图片这一特性。 相对于直接将 NetVLAD网络输出的图片特征表示直接进行计算损失函数, 在NetVlAD后面加一个哈希层进 行特征编码, 特征变得更加简洁, 通过哈希编码层, 使得特征维度和复杂度降低, 显著减少 了后续的存储开销和计算复杂度。 加快了图像检索时的速度。 是一种实用高效的大规模图。

24、 像检索算法, 实现在大规模数据集中快速精确的检索到相似图片。 附图说明: 0052 图1为本发明训练流程图; 0053 图2为用于提取CNN特征的多尺度卷积神经网络的示例结构; 0054 图3为NetVLAD层结构; 0055 图4为哈希层输入与输出的特征结构; 0056 图5为本发明测试流程图。 具体实施方式 0057 下面结合附图对本发明作进一步说明。 0058 基于多尺度NetVLAD和深度哈希的图像检索方法, 如图1所示, 步骤一、 训练流程: 将训练样本输入多尺度卷积神经网络中, 得到P 层卷积特征组然后将其经过 特征融合, 得到融合后特征Xl, 后经过NetVLAD层, 得到池化。

25、后特征Vl, 再经过哈希编码, 输 出最后的图片特征表示最后利用反向传播算法, 对损失函数进行求导, 优化网络中出 现的所有可学习参数。 而测试流程则是将新的样本数据输入训练好的网络结构中, 测试网 络检索精度。 0059 具体步骤如下: 0060 步骤1、 获得训练样本标签: 训练样本分为查询集和数据库, 数据库中图片标签为 与查询集中图片的近似程度, 一般采用直方图匹配, 像素平均值向量匹配等。 说明书 4/7 页 8 CN 110222218 A 8 0061 步骤2、 根据训练样本数据, 分别对查询集中的每一个样本 qj, j1,2,.,Q, 其 中Q为查询集样本数量, 取图像数据库中。

26、的m1个与qj最相似的图片构成i1,2,., m1, 取m2个与qj最不相似的图片构成k1,2,.,m2, 从而得到三元组j 1,2,.,Q; 0062步骤3将步骤二得到的三元组j1,2,.,Q作为输入, 输入到多尺 度卷积网络中, 将输出的特征进行融合, 得到融合的特征, 具体步骤如下: 00633-1、 将训练样本输入到多尺度卷积网络, 获得l1,2,.,L, 总共P 个卷积网络的中间层特征输出,其中x为卷积网络的中间层输出特征矩阵, L为训练样本总 数量; 0064 如图2所示, 以VGG16网络为例, 融合特征个数P选取为2, 选取第三个卷积块的最大 池化后输出特征和第四个卷积块的第三。

27、层卷积后输出特征进行融合, 由该两层不同深度的 特征进行融合后的特征同时包含图片的细节信息和深度语义信息。 在实际应用中, 神经网 络选取可以任意, 并不局限于VGG16, 特征融合个数也可以大于2。 0065 输出两个卷积后特征, 见式(11): 0066 0067 其中x表示卷积后特征矩阵, x表示x的每一维。 0068 3-2、 对特征进行融合, 以拼接方式为例, 见式(12): 0069 0070 其中Xl表示融合后特征, f表示拼接融合方法。 0071 步骤4、 用K均值聚类算法获得初始化簇中心, 具体步骤如下: 0072 4-1、 选取聚类的簇数为K, 最大迭代次数为nmax; 0。

28、073 4-2、 以步骤3所得的融合后特征X1,X2,.,XL为输入, 并从中随机选取K个值作 为初始化质心 1, 2,., K, 为簇中心矩阵; 0074 4-3、 将簇划分为C, 并初始化为Ct,t1,2,.,K, 其中C表示聚类簇群集合,t 表示类别标号, 总共有K个, 为空集; 00754-4、 计算所有样本特征X1,X2,.,XL与质心 1, 2,., K的距离 l1,2,.,L; k1,2,.,K,将Xl归入距离最小的对应的类别t 类, 更新CtCtXl; 00764-5、 重新计算出新的质心 0077 4-6、 重复4-4、 4-5操作, 直至质心不再发生改变或达到最大迭代次数,。

29、 输出最终质 心为所求簇中心c 1” , 2” ,., K” ; 0078 步骤5、 如图3所示, 对步骤3所得融合特征Xl进行VLAD池化, 具体步骤如下: 说明书 5/7 页 9 CN 110222218 A 9 0079 5-1、 用K个空间大小为1*1, 参数矩阵为Wk, 偏置矩阵为bk的滤波器对特征矩阵Xl进 行卷积操作获得输出其中Sk表示卷积后输出矩阵; 0080 5-2、 卷积后结果Sk(Xl)再经过Soft-max函数, 获得连续化后的权重ak(Xl), 见式 (1): 0081 0082 其中, k1,2,.,k; 0083 5-3、 将图片特征矩阵Xl作为输入, 步骤4中得。

30、出的K个簇中心、 5-2中所得的ak(Xl) 作为VLAD的参数, 得到D*K维VLAD特征矩阵Vl, 见式(2): 0084 0085 其中Vl(g,k)表示池化后特征矩阵Vl的第g行第k列元素, Xl(g)表示第l个样本特征 的第g维, ck(g)表示第k个簇中心的第g维; 0086 5-4、 将5-3获得的VLAD特征矩阵Vl进行对列进行L2范数内部正则化, 获得一个D*K 维的矩阵Vl, 见式(3): 0087 0088 5-5、 对5-4获得的Vl再次进行整体L2范数正则化, 见式(4): 0089 0090 步骤6、 如图4所示, 进行哈希编码: 0091 6-1、 将步骤5所得的。

31、D*K的列向量Vl”, 降维为N维向量VN, 见式 (5): 0092 VNVl”*wH+bH (5); 0093 其中wH为(D*K)*N维权重矩阵, bH为N维偏差; 0094 6-2、 对N维向量VN进行二进制编码, 见式(6): 0095 0096其中表示激活函数,我们采用的是sigmoid函数, 其表达式为z 表示函数 的输入, e(-z)表示以自然常数e为底, -z为指数的指数函数; sgn()为阶跃函数; 0097 步骤7、 损失函数求取, 见式(7)-(10): 0098 0099 0100 0101 L E1- E2+E3 (10); 0102 其中, 表示欧式距离; 为阈值。

32、; 为权值; t取值为1, 2; 用来计算向量中元素的平均 说明书 6/7 页 10 CN 110222218 A 10 值; 分别表示三个损失函数, 通过最小化查询图像与相似图像集的欧式距离, 最大化与不相 似图像集之间的欧式距离, 即, 来获得更好的图像特征表示; 通过最大化哈希编码与0.5之 间的平方误差, 即, 来实现尽可能多的激活结点; 通过最小化哈希编码向量均值与 0.5之间 的误差, 即, 使得哈希编码的离散分布的熵最大; 表示网络总的损失函数; 0103 步骤8、 使用反向传播算法, 对步骤7所得损失函数进行求导优化以上步骤出现过 的可学习参数; 0104 步骤二、 如图5所示。

33、, 测试流程: 用新的图片数据集对步骤一训练得到的网络进行 检索测试, 观察其效果; 具体步骤如下: 0105 1.1、 将新的样本输入已经训练好的网络中, 得到查询图片的最后输出特征哈希码 和对应的数据库的最后输出特征 01061.2、 计算所有的其中,表示数据库图像特征的 任意一个; d(.)为特征距离计算, 我们采用的是汉明距离。 汉明距离定义为, 两个等长字符 串, 将其中一个变换成另一个所需要的最小替换数。 01071.3、 取所有的中最小值对应的数据库图片为最后检索结果。 说明书 7/7 页 11 CN 110222218 A 11 图1 图2 图3 说明书附图 1/2 页 12 CN 110222218 A 12 图4 图5 说明书附图 2/2 页 13 CN 110222218 A 13 。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 物理 > 计算;推算;计数


copyright@ 2017-2020 zhuanlichaxun.net网站版权所有
经营许可证编号:粤ICP备2021068784号-1