一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于多标签分类和知识库匹配结合的课件知识点分类方法与流程

2022-06-02 12:27:11 来源:中国专利 TAG:


1.本技术涉及深度学习技术领域,更为具体来说,本技术涉及基于多标签分类和知识库匹配结合的课件知识点分类方法。


背景技术:

2.在信息化飞速发展的今天,教育行业中已积累大量用户原创内容(user generated content,简称ugc)平台,例如课件资源平台。在课件资源平台中,需要对课件的资源进行归类和标签化,以方便后续管理和使用。而教学知识点(考点)作为知识、理论等的相对独立的最小单元,可以用于衡量学生对整个教学知识体系的掌握度和熟练度,因而常常作为电子课件需要附上标签。
3.然而,目前业界常用的方法还是依赖用户上传过程中对其进行人工归类。具体为:当用户上传课件到课件资源平台时,审核人员或者上传者需要手动输入课件在该知识点体系中所符合的知识点。这一做法两点不足:一方面是通常一份课件对应着多个知识点,且知识点的个数不确定,因此课件分类本质属于一个多标签分类而非单标签分类的问题,这就要求审核人员对知识点进行逐一对比进行审核,才可以得到一个更加准确的结果,使标注成本大且速度较慢;另一方面是知识点体系不固定,与版本章节不同,目前教育部门并没有给定统一的知识点体系,不同的学校、机构往往都会推出专属的教学知识点体系,因而知识点体系后续会发生变化,后续改版的成本相当大。


技术实现要素:

4.基于上述技术问题,本发明旨在解决课件知识点分类过于依赖人工的问题,提供一种将多标签分类和知识库匹配结合起来的课件知识点分类方法,以实现课件知识点的分类效率高且成本低。
5.本发明第一方面提供了一种基于多标签分类和知识库匹配结合的课件知识点分类方法,所述方法包括:
6.获取课件并对其进行预处理,得到目标文本;
7.根据所述目标文本的坐标轴对文本排序,得到分页的文本序列;
8.将所有的文本序列拼成长文本;
9.将所述长文本输入基于神经网络的多标签文本分类模型进行多标签分类,得到候选的知识点列表;
10.对所述候选的知识点列表基于知识库匹配进行验证,得到目标知识点列表。
11.具体地,所述对所述候选的知识点列表基于知识库匹配进行验证,得到目标知识点列表,包括:
12.在所述分页的文本序列中筛选知识点定义类作为第一类知识点,并筛选学习目标或学习总结类作为第二类知识点;
13.将所述第一类知识点与所述候选的知识点列表基于词向量的语义相似度进行匹
配;
14.将所述第二类知识点与所述候选的知识点列表对应的知识点词典进行匹配;
15.将所述候选的知识点列表中第一类知识点和第二类知识点匹配成功的知识点视为通过验证,得到目标知识点列表。
16.进一步地,所述将所述第一类知识点与所述候选的知识点列表基于词向量的语义相似度进行匹配,包括:
17.将第一类知识点中词向量加权求和取平均后得到对应的第一句向量;
18.将候选的知识点列表中词向量加权求和取平均后得到对应的第二句向量;
19.计算第一句向量与第二句相量之间的余弦相似值;
20.当所述余弦相似值大于预设阈值时,记作该知识点匹配成功。
21.再进一步地,所述将所述第二类知识点与所述候选的知识点列表对应的知识点词典进行匹配,包括:
22.获取所述候选的知识点列表对应的知识点词典;
23.基于最大后向匹配的方法将所述第二类知识点与所述候选的知识点列表进行匹配;
24.当匹配后对应的关键词大于1时,则记作该知识点匹配成功。
25.进一步优选地,所述基于神经网络的多标签文本分类模型采用textcnn的方式进行建模,且采用textcnn的方式建立的模型的最后一层采用sigmod函数进行计算。
26.选择性地,所述方法还包括:
27.将得到的目标知识点列表作为训练样本训练所述基于神经网络的多标签文本分类模型;
28.将训练好的所述基于神经网络的多标签文本分类模型用于预设应用场景的文本识别。
29.优选地,所述获取课件并对其进行预处理,得到目标文本,包括:
30.获取课件;
31.将所述课件转换为计算机可读的格式;
32.从转换后的课件中提取文本,得到目标文本。
33.本发明第二方面提供了一种基于多标签分类和知识库匹配结合的课件知识点分类装置,所述装置包括:
34.获取模块,用于获取课件并对其进行预处理,得到目标文本;
35.排序模块,用于根据所述目标文本的坐标轴对文本排序,得到分页的文本序列;
36.拼接模块,用于将所有的文本序列拼成长文本;
37.多标签模块,用于将所述长文本输入基于神经网络的多标签文本分类模型进行多标签分类,得到候选的知识点列表;
38.匹配验证模块,用于对所述候选的知识点列表基于知识库匹配进行验证,得到目标知识点列表。
39.本发明第三方面提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以下步骤:
40.获取课件并对其进行预处理,得到目标文本;
41.根据所述目标文本的坐标轴对文本排序,得到分页的文本序列;
42.将所有的文本序列拼成长文本;
43.将所述长文本输入基于神经网络的多标签文本分类模型进行多标签分类,得到候选的知识点列表;
44.对所述候选的知识点列表基于知识库匹配进行验证,得到目标知识点列表。
45.本发明第四方面提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
46.获取课件并对其进行预处理,得到目标文本;
47.根据所述目标文本的坐标轴对文本排序,得到分页的文本序列;
48.将所有的文本序列拼成长文本;
49.将所述长文本输入基于神经网络的多标签文本分类模型进行多标签分类,得到候选的知识点列表;
50.对所述候选的知识点列表基于知识库匹配进行验证,得到目标知识点列表。
51.本技术的有益效果为:本技术根据所述目标文本的坐标轴对文本排序,得到分页的文本序列,将所有的文本序列拼成长文本,将所述长文本输入基于神经网络的多标签文本分类模型进行多标签分类,得到候选的知识点列表,对所述候选的知识点列表基于知识库匹配进行验证,得到目标知识点列表,减少了对人工操作的依赖,降低了工作成本。特别是,在所述分页的文本序列中筛选知识点定义类作为第一类知识点,并筛选学习目标或学习总结类作为第二类知识点,将所述第一类知识点与所述候选的知识点列表基于词向量的语义相似度进行匹配,将所述第二类知识点与所述候选的知识点列表对应的知识点词典进行匹配,将所述候选的知识点列表中第一类知识点和第二类知识点匹配成功的知识点视为通过验证,得到目标知识点列表,实现了对知识点更加精准的分类与识别,提升了工作效率。
附图说明
52.构成说明书的一部分的附图描述了本技术的实施例,并且连同描述一起用于解释本技术的原理。
53.参照附图,根据下面的详细描述,可以更加清楚地理解本技术,其中:
54.图1示出了本技术示例性实施例中的基于多标签分类和知识库匹配结合的课件知识点分类方法之步骤示意图;
55.图2示出了本技术示例性实施例中的基于多标签分类和知识库匹配结合的课件知识点分类方法之流程图;
56.图3示出了本技术示例性实施例中的基于神经网络的多标签文本分类模型示意图;
57.图4示出了本技术示例性实施例中textcnn与二次校准模型的结合示意图;
58.图5示出了本技术示例性实施例的基于多标签分类和知识库匹配结合的课件知识点分类方法装置之结构示意图;
59.图6示出了本技术示例性实施例所提供的一种计算机设备的结构示意图;
60.图7示出了本技术示例性实施例所提供的一种存储介质的示意图。
具体实施方式
61.以下,将参照附图来描述本技术的实施例。但是应该理解的是,这些描述只是示例性的,而并非要限制本技术的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本技术的概念。对于本领域技术人员来说显而易见的是,本技术可以无需一个或多个这些细节而得以实施。在其他的例子中,为了避免与本技术发生混淆,对于本领域公知的一些技术特征未进行描述。
62.应予以注意的是,这里所使用的术语仅是为了描述具体实施例,而非意图限制根据本技术的示例性实施例。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式。此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在所述特征、整体、步骤、操作、元件和/或组件,但不排除存在或附加一个或多个其他特征、整体、步骤、操作、元件、组件和/或它们的组合。
63.现在,将参照附图更详细地描述根据本技术的示例性实施例。然而,这些示例性实施例可以多种不同的形式来实施,并且不应当被解释为只限于这里所阐述的实施例。附图并非是按比例绘制的,其中为了清楚表达的目的,可能放大了某些细节,并且可能省略了某些细节。图中所示出的各种区域、层的形状以及它们之间的相对大小、位置关系仅是示例性的,实际中可能由于制造公差或技术限制而有所偏差,并且本领域技术人员根据实际所需可以另外设计具有不同形状、大小、相对位置的区域/层。
64.下面结合说明书附图1-7给出几个实施例来描述根据本技术的示例性实施方式。需要注意的是,下述应用场景仅是为了便于理解本技术的精神和原理而示出,本技术的实施方式在此方面不受任何限制。相反,本技术的实施方式可以应用于适用的任何场景。
65.实施例1:
66.在本实施例中,提供了一种基于多标签分类和知识库匹配结合的课件知识点分类方法,如图1所示,包括:
67.s1、获取课件并对其进行预处理,得到目标文本;
68.s2、根据所述目标文本的坐标轴对文本排序,得到分页的文本序列;
69.s3、将所有的文本序列拼成长文本;
70.s4、将所述长文本输入基于神经网络的多标签文本分类模型进行多标签分类,得到候选的知识点列表;
71.s5、对所述候选的知识点列表基于知识库匹配进行验证,得到目标知识点列表。
72.具体地,对所述候选的知识点列表基于知识库匹配进行验证,得到目标知识点列表,包括:在所述分页的文本序列中筛选知识点定义类作为第一类知识点,并筛选学习目标或学习总结类作为第二类知识点;将所述第一类知识点与所述候选的知识点列表基于词向量的语义相似度进行匹配;将所述第二类知识点与所述候选的知识点列表对应的知识点词典进行匹配;将所述候选的知识点列表中第一类知识点和第二类知识点匹配成功的知识点视为通过验证,得到目标知识点列表。
73.进一步地,将第一类知识点与候选的知识点列表基于词向量的语义相似度进行匹配,包括:将第一类知识点中词向量加权求和取平均后得到对应的第一句向量;将候选的知识点列表中词向量加权求和取平均后得到对应的第二句向量;计算第一句向量与第二句相量之间的余弦相似值;当所述余弦相似值大于预设阈值时,记作该知识点匹配成功。这里意
味着依次遍历提取第一类识别点中的每个短句进行相似度识别。
74.再进一步地,将第二类知识点与候选的知识点列表对应的知识点词典进行匹配,包括:获取候选的知识点列表对应的知识点词典;基于最大后向匹配的方法将第二类知识点与候选的知识点列表进行匹配;当匹配后对应的关键词大于1时,则记作该知识点匹配成功。
75.进一步优选地,基于神经网络的多标签文本分类模型采用textcnn的方式进行建模,且采用textcnn的方式建立的模型的最后一层采用sigmod函数进行计算。
76.选择性地,所述方法还包括:将得到的目标知识点列表作为训练样本训练基于神经网络的多标签文本分类模型;将训练好的基于神经网络的多标签文本分类模型用于预设应用场景的文本识别。
77.优选地,获取课件并对其进行预处理,得到目标文本,包括:获取课件;将课件转换为计算机可读的格式;从转换后的课件中提取文本,得到目标文本。
78.实施例2:
79.在本实施例中,提供了一种基于多标签分类和知识库匹配结合的课件知识点分类方法,总体的工作过程参照图2,具体步骤详述如下。
80.第一步,获取课件并对其进行预处理,得到目标文本。
81.教育行业中存在有许多用户原创内容,所以可以在相关的课件资源平台获取课件,本技术优选希沃白板这一电子课件资源。获取课件并对其进行预处理,得到目标文本,包括:获取课件;将课件转换为计算机可读的格式;从转换后的课件中提取文本,得到目标文本。这里的预处理还包括,将电子课件中的无效文本去除,如去停用词、去掉无效网页信息等等。
82.第二步,根据所述目标文本的坐标轴对文本排序,得到分页的文本序列。
83.在一种优选的实施方式中,为了得到有序的信息,需要根据电子课件中的文本元素进行排序,具体的方法是根据每个元素在整个区域对应的坐标(x,y)值,从上往下,从左往右的方向进行提取及排序,进而得到分页的文本序列。
84.第三步,将所有的文本序列拼成长文本。
85.第四步,将所述长文本输入基于神经网络的多标签文本分类模型进行多标签分类,得到候选的知识点列表。
86.这里的“候选的知识点列表”即为图2中所示的候选标签集。使用神经网络多标签分类模型和多分类模型最大的区别在于输出层的设计和最终的损失函数的选择。相同的是,多标签分类和多分类在神经网络的最后一层的结点数都等同于类别数。不同的是,参考图3的上半部分,传统方式多分类的最后一层会采用softmax激活函数以提取所有类别的最大值,其公式为:
[0087][0088]
其中,i表示第i个类别,xi表示最后一层中第i个类别的输入,n表示所有的类别数,此时所有类别的概率和为1。但对于多标签分类而言,由于输出的个数不固定,则需要计算每个类别的概率,其本质为计算n个二分类,因此本技术对神经网络多标签分类模型和多分类模型进行了改造,如图3所示,在最后一层使用sigmod函数进行计算,计算公式为:
[0089][0090]
其中,i表示第i个类别,xi表示最后一层中第i个类别的输入,n表示所有的类别数。
[0091]
另外,多分类的损失函数通常采用一个bceloss。而多标签分类则需要计算n个bceloss再取平均所得。尽管使用中间标签可以很好地简化问题,然而直接使用也会带来一定的不足。最明显的不足就是,尽管大多数情况下,一个课件只会对应一个章节,但课件和章节之间并非严格的一对一匹配。
[0092]
因此作为可变换的实施方式,当课件和章节出现一对多的关系时,只要把对应多个章节的知识点汇总作为当前课件的知识点标签即可。但课件和章节出现多对一的关系时,此时就会多匹配无效的知识点。为了降低这种情况发生的概率,在提取文本的过程中,使用了按页提取进行二次校验的模型,如图4所示,在按页将文本划分为一个长文本列表后,首先需要对每一页内容进行内容筛选。尽管电子课件的内容非常丰富,但为了简化模型,在进行了大量的数据探索后,我们将内容划分为3类:定义、学习目标/总结,无效信息。对电子课件的内容划分,这里采用关键词的方式,如出现“本章重点”“本章总结”即可以认为当前页面是跟总结/学习目标相关;出现“定义”一类的词则可确定该页与知识点的定义相关;对既不是总结/学习目标,也不是定义的页面认为是无效页面,对其不进行分析。在确定了该页内容的大致分类后,需要对其进行匹配。
[0093]
第五步,对所述候选的知识点列表基于知识库匹配进行验证,得到目标知识点列表。
[0094]
在一种优选的实施方式中,对所述候选的知识点列表基于知识库匹配进行验证,得到目标知识点列表,包括:在所述分页的文本序列中筛选知识点定义类作为第一类知识点,并筛选学习目标或学习总结类作为第二类知识点;将所述第一类知识点与所述候选的知识点列表基于词向量的语义相似度进行匹配;将所述第二类知识点与所述候选的知识点列表对应的知识点词典进行匹配;将所述候选的知识点列表中第一类知识点和第二类知识点匹配成功的知识点视为通过验证,得到目标知识点列表。这里的“目标知识点列表”即为图2中所示的最终知识点标签。
[0095]
进一步地,将第一类知识点与候选的知识点列表基于词向量的语义相似度进行匹配,包括:将第一类知识点中词向量加权求和取平均后得到对应的第一句向量;将候选的知识点列表中词向量加权求和取平均后得到对应的第二句向量;计算第一句向量与第二句相量之间的余弦相似值;当所述余弦相似值大于预设阈值时,记作该知识点匹配成功。这里意味着依次遍历提取第一类识别点中的每个短句进行相似度识别。
[0096]
再进一步地,将第二类知识点与候选的知识点列表对应的知识点词典进行匹配,包括:获取候选的知识点列表对应的知识点词典;基于最大后向匹配的方法将第二类知识点与候选的知识点列表进行匹配;当匹配后对应的关键词大于1时,则记作该知识点匹配成功。值得注意的是,因为这一步我们并不是用于全局匹配,而是用于对已有多标签分类方法得到的候选标签集进行进一步的筛选,因此在进行匹配的过程中,仅匹配候选标签集上的标签是否出现。
[0097]
值得注意的是,在自然语言任务中,往往需要人工进行数据集的资源标注,如果直
接使用人工对电子课件进行标注,成本会非常大,与普通的短文本不同,一个电子课件的页数平均在20页以上,标注人员需要看完20页的电子课件才进行标签的标注,这一过程将会耗费巨大的人力资源,同时,该方式一旦更换了知识点体系后,所有的标注都需要重新标注,不利于产品进行迭代和更新。因此,本技术中,并不会直接标注电子课件-》知识点的标签,而是先标注电子课件-》章节体系,再经过章节体系-》知识点进行最终的标注数据构建。
[0098]
实施例3:
[0099]
本实施例提供了一种基于多标签分类和知识库匹配结合的课件知识点分类装置,如图5所示,所述装置包括:
[0100]
获取模块501,用于获取课件并对其进行预处理,得到目标文本;
[0101]
排序模块502,用于根据所述目标文本的坐标轴对文本排序,得到分页的文本序列;
[0102]
拼接模块503,用于将所有的文本序列拼成长文本;
[0103]
多标签模块504,用于将所述长文本输入基于神经网络的多标签文本分类模型进行多标签分类,得到候选的知识点列表;
[0104]
匹配验证模块505,用于对所述候选的知识点列表基于知识库匹配进行验证,得到目标知识点列表。
[0105]
其中,基于神经网络的多标签文本分类模型采用textcnn的方式进行建模,且采用textcnn的方式建立的模型的最后一层采用sigmod函数进行计算。
[0106]
下面请参考图6,其示出了本技术的一些实施方式所提供的一种计算机设备的示意图。如图6所示,所述计算机设备2包括:处理器200,存储器201,总线202和通信接口203,所述处理器200、通信接口203和存储器201通过总线202连接;所述存储器201中存储有可在所述处理器200上运行的计算机程序,所述处理器200运行所述计算机程序时执行本技术前述任一实施方式所提供的基于多标签分类和知识库匹配结合的课件知识点分类方法,所述计算机设备可以是具有触敏显示器的计算机设备。
[0107]
其中,存储器201可能包含高速随机存取存储器(ram:random access memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口203(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网、广域网、本地网、城域网等。
[0108]
总线202可以是isa总线、pci总线或eisa总线等。所述总线可以分为地址总线、数据总线、控制总线等。其中,存储器201用于存储程序,所述处理器200在接收到执行指令后,执行所述程序,前述本技术实施例任一实施方式揭示的所述基于多标签分类和知识库匹配结合的课件知识点分类方法可以应用于处理器200中,或者由处理器200实现。
[0109]
处理器200可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器200中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器200可以是通用处理器,包括中央处理器(central processing unit,简称cpu)、网络处理器(network processor,简称np)等;还可以是数字信号处理器(dsp)、专用集成电路(asic)、现成可编程门阵列(fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本技术实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申
请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器201,处理器200读取存储器201中的信息,结合其硬件完成上述方法的步骤。
[0110]
本技术实施例提供的计算机设备与本技术实施例提供的基于多标签分类和知识库匹配结合的课件知识点分类方法出于相同的发明构思,具有与其采用、运行或实现的方法相同的有益效果。
[0111]
本技术实施方式还提供一种与前述实施方式所提供的基于多标签分类和知识库匹配结合的课件知识点分类方法对应的计算机可读存储介质,请参考图7,图7示出的计算机可读存储介质为光盘30,其上存储有计算机程序(即程序产品),所述计算机程序在被处理器运行时,会执行前述任意实施方式所提供的基于多标签分类和知识库匹配结合的课件知识点分类方法。
[0112]
另外,所述计算机可读存储介质的例子还可以包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他光学、磁性存储介质,在此不再一一赘述。
[0113]
本技术的上述实施例提供的计算机可读存储介质与本技术实施例提供的空分复用光网络中量子密钥分发信道分配方法出于相同的发明构思,具有与其存储的应用程序所采用、运行或实现的方法相同的有益效果。
[0114]
本技术实施方式还提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现前述任意实施方式所提供的基于多标签分类和知识库匹配结合的课件知识点分类方法的步骤,所述方法的步骤包括:获取课件并对其进行预处理,得到目标文本;根据所述目标文本的坐标轴对文本排序,得到分页的文本序列;将所有的文本序列拼成长文本;将所述长文本输入基于神经网络的多标签文本分类模型进行多标签分类,得到候选的知识点列表;对所述候选的知识点列表基于知识库匹配进行验证,得到目标知识点列表。
[0115]
需要说明的是:在此提供的算法和显示不与任何特定计算机、虚拟装置或者其它设备有固有相关。各种通用装置也可以与基于在此的示教一起使用。根据上面的描述,构造这类装置所要求的结构是显而易见的。此外,本技术也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本技术的内容,并且上面对特定语言所做的描述是为了披露本技术的最佳实施方式。在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本技术的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
[0116]
类似地,应当理解,为了精简本技术并帮助理解各个发明方面中的一个或多个,在上面对本技术的示例性实施例的描述中,本技术的各个特征有时被一起分组到单个实施例、图或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本技术要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,
遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本技术的单独实施例。
[0117]
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
[0118]
本技术的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(dsp)来实现根据本技术实施例的虚拟机的创建装置中的一些或者全部部件的一些或者全部功能。本技术还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序。实现本技术的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
[0119]
以上所述,仅为本技术较佳的具体实施方式,但本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本技术的保护范围之内。因此,本技术的保护范围应以所述权利要求的保护范围为准。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献