一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于预训练模型和召回排序的跨模态检索系统及方法

2022-04-30 06:09:54 来源:中国专利 TAG:


1.本发明属于人工智能领域。


背景技术:

2.随着互联网的发展,网络中的信息不再以单一的文本形式呈现,而是朝着多元化的方向发展。如今,网络上除了包含海量文本数据外,还有不亚于文本数量的图像、视频、音频等多个模态的数据。面对高速发展的互联网产业产生的海量数据,如何根据用户意愿在不同模态数据间快速、有效地检索出相关信息具有很大实用价值。目前主流的多模态检索技术主要可分为两种,一是基于匹配函数学习的交叉编码器模型,其主要思想是图文特征先融合,然后再经过隐层(神经网络),让隐层学习出跨模态距离函数,最终得到图文关系得分。该模型主要关注细粒度注意力和交叉特征,其结构如图3;二是基于表示学习的向量嵌入模型,其主要思想是图文特征分别计算得到最终顶层的嵌入,然后用可解释的距离函数(余弦函数、l2函数等)来约束图文关系,该模型更关注两种不同模态的信号在同一映射空间中的表示方法,其结构如图4。
3.一般而言,交叉编码器模型的模型效果优于向量嵌入模型,因为图文特征组合后可为模型隐层提供更多的交叉特征信息,但交叉编码器模型的主要问题在于无法使用顶层嵌入来独立表示图像和文本的输入信号。在一个n张图片m条文本输入的检索召回场景下,需要n*m个组合输入到该模型才能得到以图搜文或以文搜图的结果;此外,在线使用时,计算性能也是很大瓶颈,特征组合后隐层需要在线计算;由于交叉组合量非常大,无法提前存储图文信号的嵌入向量使用缓存进行计算。因此,交叉编码器模型虽然效果好,但并不是实际应用的主流。
4.向量嵌入模型结构是当前的主流检索结构,由于把图片和文本两个不同模态的信号分开,可以在离线阶段分别计算出各自的顶层嵌入;存储嵌入后在线使用时,只需计算两个模态向量的距离即可。如果是样本对的相关性过滤,则只需计算两个向量的余弦/欧氏距离;如果是在线检索召回,则需提前将一个模态的嵌入集合构建成检索空间,使用最近邻检索算法(如ann等算法)搜索。向量嵌入模型的核心是得到高质量的嵌入。然而,向量嵌入模型虽然简洁有效、应用广泛,但其缺点也很明显。从模型结构可看出,不同模态的信号基本没有交互,因此很难学习出高质量代表信号语义的嵌入,对应的度量空间/距离准确性也有待提升。
5.本提案针对目前互联网中数据动态、多源、多模态特点,提出基于预训练模型和召回排序的跨模态检索系统,用于降低信息管理成本、提升信息搜索精度和效率,支撑大型赛事咨询和新闻搜索的多模态自动化信息检索。


技术实现要素:

6.本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
7.为此,本发明的第一个目的在于提出一种基于预训练模型和召回排序的跨模态检
索系统,用于降低信息管理成本、提升信息搜索精度和效率,支撑大型赛事咨询和新闻搜索的多模态自动化信息检索。
8.本发明的第二个目的在于提出一种基于预训练模型和召回排序的跨模态检索方法。
9.为达上述目的,本发明第一方面实施例提出了一种基于预训练模型和召回排序的跨模态检索系统,包括:多维度文本信息提取模块,用于为所述跨模态检索系统提供文本侧的信息支持,通过不同维度扩大文本信息的语义表示,增加文本样本量;智能图像检索模块,包括视频智能抽帧模块和以图搜图模块,其中,视频智能抽帧模块用于从一段视频中抽取出最能代表视频内容的若干张图片,以图搜图模块用于完成大规模高效率的图片检索任务;跨模态检索模块,用于根据查询项生成大致相关地候选集,对所述候选集进行精确排序,最终返回相关地检索结果。
10.本发明实施例提出的基于预训练模型和召回排序的跨模态检索系统,针对跨模态检索数据动态、多源、多模态等特性,以及当前两种主流建模方法存在的问题,将两种建模方法有机结合,采用粗略召回、精确排序的思路,融合两种方案的长处,实现高效快速的跨模态检索;此外,本方案提出基于倒排检索的文本查询和基于颜色、纹理的高维图像特征检索技术,实现多个模态间的快速检索,为用户提供良好使用体验。
11.另外,根据本发明上述实施例的基于预训练模型和召回排序的跨模态检索系统还可以具有以下附加的技术特征:
12.进一步地,在本发明的一个实施例中,所述多维度文本信息提取模块,包括:
13.语音数据处理模块,用于音频提取和基于深度学习的语音识别;
14.自然语言文本扩展模块,用于获取不同语序不同语种下对于当前语句地语义描述,从多方面对已有地文本数据进行扩展,还用于根据细粒度地文本分析,获取大量地负样本数据。
15.进一步地,在本发明的一个实施例中,所述视频智能抽帧模块用于从一段视频中抽取出最能代表视频内容的若干张图片,具体包括:
16.提取视频地每一帧,得到若干张图片;
17.将所述图片映射到统一地luv颜色空间中,计算每一帧与前一帧地绝对距离;
18.根据所述绝对距离将提取出地所有帧排序,排行靠前的若干帧即视为最能代表视频内容的若干张图片。
19.进一步地,在本发明的一个实施例中,所述以图搜图模块用于完成大规模高效率的图片检索任务,具体包括:
20.基于平均灰度级比较差距的图片特征提取技术对图片进行特征提取;
21.通过elasticsearch提供的模糊查询功能,快速的从图片数据库中检索出相同或相似的图片。
22.进一步地,在本发明的一个实施例中,所述跨模态检索模块,包括:
23.粗略召回模块,采用基于transformer的多模态预训练模型,作为向量嵌入模型的子模型,进行快速的粗略召回;
24.精确排序模块,利用基于transformer的多模态预训练模型,作为交叉编码器模型的子模型,进行精确排序。
25.为达上述目的,本发明另一方面实施例提出了一种基于预训练模型和召回排序的跨模态检索方法,包括以下步骤:提取文本信息,通过不同维度扩大文本信息的语义表示,增加文本样本量;提取图像信息,从一段视频中抽取出最能代表视频内容的若干张图片,从数据库中检索出相同或相似图片;根据查询项生成大致相关地候选集,对所述候选集进行精确排序,最终返回相关地检索结果。
26.本发明实施例提出的基于预训练模型和召回排序的跨模态检索方法,针对跨模态检索数据动态、多源、多模态等特性,以及当前两种主流建模方法存在的问题,将两种建模方法有机结合,采用粗略召回、精确排序的思路,融合两种方案的长处,实现高效快速的跨模态检索;此外,本方案提出基于倒排检索的文本查询和基于颜色、纹理的高维图像特征检索技术,实现多个模态间的快速检索,为用户提供良好使用体验。
27.进一步地,在本发明的一个实施例中,所述提取文本信息,包括:
28.音频提取和基于深度学习的语音识别;
29.获取不同语序不同语种下对于当前语句地语义描述,从多方面对已有地文本数据进行扩展,还用于根据细粒度地文本分析,获取大量地负样本数据。
30.进一步地,在本发明的一个实施例中,所述从一段视频中抽取出最能代表视频内容的若干张图片,包括:
31.提取视频地每一帧,得到若干张图片;
32.将所述图片映射到统一地luv颜色空间中,计算每一帧与前一帧地绝对距离;
33.根据所述绝对距离将提取出地所有帧排序,排行靠前的若干帧即视为最能代表视频内容的若干张图片。
34.进一步地,在本发明的一个实施例中,所述从数据库中检索出相同或相似图片,包括:
35.基于平均灰度级比较差距的图片特征提取技术对图片进行特征提取;
36.通过elasticsearch提供的模糊查询功能,快速的从图片数据库中检索出相同或相似的图片。
37.进一步地,在本发明的一个实施例中,所述根据查询项生成大致相关地候选集,对所述候选集进行精确排序,包括:
38.采用基于transformer的多模态预训练模型,作为向量嵌入模型的子模型,进行快速的粗略召回;
39.利用基于transformer的多模态预训练模型,作为交叉编码器模型的子模型,进行精确排序。
附图说明
40.本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
41.图1为本发明实施例所提供的一种基于预训练模型和召回排序的跨模态检索系统的流程示意图。
42.图2为本发明实施例所提供的一种基于预训练模型和召回排序的跨模态检索方法的流程示意图。
43.图3为本发明实施例所提供的交叉编码模型示意图。
44.图4为本发明实施例所提供的向量嵌入模型示意图。
45.图5为本发明实施例所提供的技术方案示意图。
46.图6为本发明实施例所提供的语音数据处理模块示意图。
47.图7为本发明实施例所提供的自然语言文本扩展模块示意图。
48.图8为本发明实施例所提供的视频智能抽帧模块示意图。
49.图9为本发明实施例所提供的图片特征提取示意图。
50.图10为本发明实施例所提供的检索架构图示意图。
51.图11为本发明实施例所提供的粗略召回模块示意图。
52.图12为本发明实施例所提供的精准排序模块示意图。
具体实施方式
53.下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
54.下面参考附图描述本发明实施例的基于预训练模型和召回排序的跨模态检索系统和方法。
55.图1为本发明实施例所提供的一种基于基于预训练模型和召回排序的跨模态检索系统的流程示意图。
56.如图1所示,该基于预训练模型和召回排序的跨模态检索系统包括以下模块:多维度文本信息提取模块10,智能图像检索模块20,跨模态检索模块30。
57.其中,多维度文本信息提取模块10,用于为跨模态检索系统提供文本侧的信息支持,通过不同维度扩大文本信息的语义表示,增加文本样本量;智能图像检索模块20,包括视频智能抽帧模块201和以图搜图模块202,其中,视频智能抽帧模块用于从一段视频中抽取出最能代表视频内容的若干张图片,以图搜图模块用于完成大规模高效率的图片检索任务;跨模态检索模块30,用于根据查询项生成大致相关地候选集,对所述候选集进行精确排序,最终返回相关地检索结果。本方案的处理流程如图5所示。
58.进一步地,在本发明的一个实施例中,多维度文本信息提取模块10,包括:
59.语音数据处理模块101,用于音频提取和基于深度学习的语音识别;
60.自然语言文本扩展模块102,用于获取不同语序不同语种下对于当前语句地语义描述,从多方面对已有地文本数据进行扩展,还用于根据细粒度地文本分析,获取大量地负样本数据。
61.可以理解的是,多维度文本信息提取模块为多模态检索系统提供文本侧的信息支持, 主要通过不同维度扩大文本信息的语义表示,增加文本样本量。此外,该模块为文本单模态检索提供足量的数据支撑,一方面丰富文本模态的数据内容,另一方面增强多模态间的关联关系。
62.不同于常规的文本信息提取,多维度文本信息提取模块采用文本翻译结合语音识别的方法,充分利用多模态数据的优势,将视频中的音频数据,以及原本就是音频的数据进行语音识别,获取成对的训练数据;随后将整体的文本数据进行文本翻译处理,利用文本语
义信息,提升数据的整体质量,扩展成对多模态关联数据的数量,同时通过多维度自然语言分析,将句子中的成分随机替换,构成丰富的负样本空间,提升模型的鲁棒性。
63.多维度文本信息提取模块可以细分为语音数据处理子模块和自然语言文本扩展子模块。
64.语音数据处理子模块主要包含音频提取和基于深度学习的语音识别,其结构如图6。
65.高维度模态具有较高的信息量,将其投影到低维度能大幅扩充低维度模态数据。将高维度模态(如视频、音频)转换为低维度模态(文本)数据,能提供大量的成对关联数据内容。音频提取能高效剥离视频中的音频数据,快速提供给后续功能。
66.基于深度学习的语音识别利用注意力机制实现端到端训练,将从各个模态中获取到的音频数据进行统一的语音识别获取低模态(即文本模态)信息,端到端模型能够用很好地形成完整的流水线为后续文本特征提取提供大量的成对数据。同时在深度学习过程中得到的音频特征,可以支撑最终的跨模态检索所需的音频特征内容。
67.跨模态检索模型训练所使用的数据,都是成对的关联数据。目前这种数据大部分靠人为打标签进行获取,公开的完好数据集难以满足深度学习所需的训练数据量。多维度文本信息提取模块通过对自然语言文本进行基于深度学习的翻译转换为多语言的文本信息,以获取当前文本数据的多维语义表示,再将其转换回原本的语言,以达到统

训练语言的目的。
68.自然语言文本扩展子模块主要通过多语言的翻译结果,获取不同语序不同语种下对于当前语句的语义描述,从多方面对已有的文本数据进行扩展。此外,自然语言处理也能够根据细粒度的文本分析,获取大量的负样本数据,使最终的跨模态检索模型更加健壮,提升模型的鲁棒性,其结构如图7。
69.进一步地,在本发明的一个实施例中,视频智能抽帧模块201用于从一段视频中抽取出最能代表视频内容的若干张图片,具体包括:
70.提取视频地每一帧,得到若干张图片;
71.将图片映射到统一地luv颜色空间中,计算每一帧与前一帧地绝对距离;
72.根据绝对距离将提取出地所有帧排序,排行靠前的若干帧即视为最能代表视频内容的若干张图片。
73.可以理解的是,视频由图片帧所构成,视频模态数据和图片模态数据存在天然连接,要实现从视频模态到图片模态的跨越,只需从视频中抽取若干代表性的图片即可。
74.为完成视频智能抽帧,首先提取视频的每一帧,得到若干张图片;然后将图片映射到统一的luv颜色空间中,计算每一帧与前一帧的绝对距离,距离越大,表明该帧相较于前一帧的变化越剧烈;最后根据计算出的绝对距离将提取出的所有帧排序,排行靠前的若干帧即视为最能代表视频内容的若干张图片。视频智能抽帧如图8所示。
75.进一步地,在本发明的一个实施例中,以图搜图模块202用于完成大规模高效率的图片检索任务,具体包括:
76.基于平均灰度级比较差距的图片特征提取技术对图片进行特征提取;
77.通过elasticsearch提供的模糊查询功能,快速的从图片数据库中检索出相同或相似的图片。
78.为了满足根据用户输入图片在数据库中快速检索并返回相同或相似图片的需求,以图搜图技术不可或缺。目前大量的图片检索技术都存在检索速度不够快、检索范围不够广的问题。本方案提出一种基于平均灰度级比较的图片特征提取方法,并由elasticsearch搜索引擎赋能加速的以图搜图技术,以完成大规模高效率的图片检索任务。
79.检索速度极大影响检索体验,图片检索有别于关键词检索,计算量显著提升。为加快图片检索速度,本方案首先将rgb三色图片转换为具有255个灰度级的灰色图片;然后对图片进行适当裁剪,裁去大概率不能表现图片特征的部分,得到如图9所示的灰色图片。为实现图片与图片间的相似度计算,图片特征的提取方法尤为重要,本方案在如图9所示的图片中选取9*9的网格点及其周边区域,基于这些矩形区域计算平均灰度级的比较差距,并将比较差距量化,作为图片特征进行存储。此图片特征提取方法可以实现仅用81*8的矩阵来表示一张图片,故在进行图片与图片间相似度计算时速度较快;且由于单张图片所需存储空间较小,可实现大规模的以图搜图任务。
80.为进一步提升检索速度,本方案基于elasticsearch实现图片检索任务。运用上述图片特征提取方法,将图片特征存入elasticsearch中,构建图片检索数据库,基于 elasticsearch的图片数据库不同于传统数据库,其利用了倒排索引机制,大大地提升检索速度。当用户输入一张图片或视频智能抽帧所得图片输入时,首先提取特征,再通过 elasticsearch提供的模糊查询功能,快速地从图片数据库中检索出相同或相似图片。
81.进一步地,在本发明的一个实施例中,所述跨模态检索模块30,包括:
82.粗略召回模块301,采用基于transformer的多模态预训练模型,作为向量嵌入模型的子模型,进行快速的粗略召回;
83.精确排序模块302,利用基于transformer的多模态预训练模型,作为交叉编码器模型的子模型,进行精确排序。
84.前述提到,现有的两种主流建模方案均存在不足。本方案首次基于两种方案进行有机结合,采用粗略召回、精确排序的创新思路,在保证检索效果的同时,提升检索效率。本方案使用向量嵌入模型进行粗略的信息召回,然后使用交叉编码器模型对召回的信息进行精确排序,最终返回最符合检索要求排序靠前的选项。该架构可以利用现有的跨模态预训练模型,且在两种模型间共享参数,提升模型的参数效率。检索架构如图10所示。
85.其中,粗略召回部分采用基于transformer的多模态预训练模型,如oscar,作为向量嵌入模型的子模型,进行快速的粗略召回。
86.由图11可知,向量嵌入模型包含两个预训练子模型,分别处理文本信号和图像信号,但实现参数共享。通过两个子模型,将不同模态的信号分别编码;然后映射到同一个高维多模态特征空间中;最后利用标准距离度量方法,如欧式距离、余弦距离,计算两个信号间的相似度,选出最相似的top-k个候选项,由交叉编码器模型进行精确排序。
87.为了使输入图像i和文本标题c两种模态的分布在高维多模态特征空间中更接近,在训练时将对应的图像-文本对紧密地放置于特征空间中,而不相关的样本对则放置较远(距离至少超过边界值α)。因此,使用三重态损失函数(triplet loss)来表示(距离度量方法采用余弦距离):
88.l
emb
(i,c)=max(0,cos(i,c

)-cos(i,c) α) max(0,cos(i

,c)-cos(i,c) α)
89.其中(i,c)是来自训练语料库的正图像-文本对,而c

和t

是从训练语料库采样的
负样本,使得图像-文本对(i,c

)和(i

,c)不出现在语料库中。
90.由于该模型对文本和图片信号进行独立编码,在检索时只需将查询的文本或图像映射到同样的特征空间中进行距离计算即可。因此,对于数据库中的数据可以进行离线编码,保证在线检索时的效率,使其可以应用于大规模的数据检索;但由于该模型不会被要求学习输入的细粒度特征,因此只用于快速召回候选目标集,由交叉编码器模型进行精确排序。
91.精确排序部分利用基于transformer的多模态预训练模型,如oscar,作为交叉编码器模型的子模型,进行精确排序。精确排序如图9所示。
92.由图9可知,交叉编码器模型只利用了一个预训练子模型,需要将文本和图像信号进行拼接,再通过神经网络判断其相似性。本方案利用二分类器来判断文本和图像是否相关,使用交叉嫡损失函数来表示:
93.l
ce
(i,c)=-(y log p(i,c) (1-y)log(1-p(i,c)))
94.p(i,c)表示输入图像i和文本c的组合是正样本的概率(是否为正确的图像-文本组合)。当(i,c)是正样本对时,y=1;当(i,c)是负样本对时,y=0。
95.检索时,将粗略召回的top-k个候选项依次与查询项拼接,分别得出每一个图像-文本对的相似概率,完成精确排序。
96.尽管上述方法通常具有较高性能,可以从两种信号的交互中学习到更多信息,但它的计算成本较高,因为需要将每种组合都通过整个网络来获得相似度评分p(i,c),即该方法在检索期间不利用任何预先计算的表示,很难在大规模数据上进行快速检索。
97.因此,本子模块的整体流程如图12所示,首先利用向量嵌入模型根据用户的查询项快速地选择top-k个大致相关的候选项,再利用交叉编码模型根据查询项对候选集进行精确排序,最终返回给用户相关的检索结果。本方案同时保留了向量嵌入模型能在大规模数据集上检索的效率和交叉编码模型的检索准确性。
98.本方案充分利用了多模态数据的优势,采用文本翻译结合语音识别的方法,提升数据的整体质量、多模态关联数据的数量和模型的鲁棒性;利用了基于平均灰度级比较差距的图片特征提取技术对图片进行特征提取,结合elasticsearch搜索引擎对图片特征进行快速检索,实现了大规模高效的图片检索;结合向量嵌入模型和交叉编码器模型各自的优点,创新地在检索时采用粗略召回和精确排序的策略,实现了在大规模数据上快速有效地跨模态检索。
99.与当前主流的跨模态检索技术相比,本方案的优势在于:首先提出了一个联合检索的框架,结合向量嵌入模型检索速度快和交叉编码器模型检索效果好的优点,在检索时采用粗略召回和精确排序的策略,实现在大规模数据上快速有效地跨模态检索,同时共享两种模型的参数,提高参数效率,该框架适用于任何跨模态预训练模型,使得该框架可以使用现有模型而不需要从头开始训练,具有广泛的应用场景。其次结合多维度文本信息提取和智能图像检索,实现了单模态的快速检索,解决了目前主流跨模态检索模型无法实现相同模态信息检索的缺点;多维度文本信息提取一方面丰富了文本模态的信息内容,另一方面增强了多模态间关联关系,同时实现了语音到文本的转换;智能图像检索实现视频模态数据到图片模态数据的转换,可根据图片的像素、颜色、纹理等信息提取出图片特征,并在数据库中高效检索出相同或者相似度高的图片。
100.本发明实施例提出的基于预训练模型和召回排序的跨模态检索系统,针对跨模态检索数据动态、多源、多模态等特性,以及当前两种主流建模方法存在的问题,将两种建模方法有机结合,采用粗略召回、精确排序的思路,融合两种方案的长处,实现高效快速的跨模态检索;此外,本方案提出基于倒排检索的文本查询和基于颜色、纹理的高维图像特征检索技术,实现多个模态间的快速检索,为用户提供良好使用体验。
101.为了实现上述实施例,本发明还提出一种基于预训练模型和召回排序的跨模态检索方法。
102.图2为本发明实施例提供的一种基于预训练模型和召回排序的跨模态检索方法示意图。
103.如图2所示,该基于预训练模型和召回排序的跨模态检索方法,包括以下步骤:s101, 提取文本信息,通过不同维度扩大文本信息的语义表示,增加文本样本量;s102,提取图像信息,从一段视频中抽取出最能代表视频内容的若干张图片,并从数据库中检索出相同或相似图片;s103,根据查询项生成大致相关地候选集,对所述候选集进行精确排序,最终返回相关地检索结果。
104.进一步地,在本发明的一个实施例中,所述提取文本信息,包括:
105.音频提取和基于深度学习的语音识别;
106.获取不同语序不同语种下对于当前语句地语义描述,从多方面对已有地文本数据进行扩展,还用于根据细粒度地文本分析,获取大量地负样本数据。
107.进一步地,在本发明的一个实施例中,所述从一段视频中抽取出最能代表视频内容的若干张图片,包括:
108.提取视频地每一帧,得到若干张图片;
109.将所述图片映射到统一地luv颜色空间中,计算每一帧与前一帧地绝对距离;
110.根据所述绝对距离将提取出地所有帧排序,排行靠前的若干帧即视为最能代表视频内容的若干张图片。
111.进一步地,在本发明的一个实施例中,所述从数据库中检索出相同或相似图片,包括:
112.基于平均灰度级比较差距的图片特征提取技术对图片进行特征提取;
113.通过elasticsearch提供的模糊查询功能,快速的从图片数据库中检索出相同或相似的图片。
114.进一步地,在本发明的一个实施例中,所述根据查询项生成大致相关地候选集,对所述候选集进行精确排序,包括:
115.采用基于transformer的多模态预训练模型,作为向量嵌入模型的子模型,进行快速的粗略召回;
116.利用基于transformer的多模态预训练模型,作为交叉编码器模型的子模型,进行精确排序。
117.在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任
一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
118.此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
119.尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的, 不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献