一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种分布式的智能实时数据流分发方法及系统与流程

2022-09-03 20:53:18 来源:中国专利 TAG:


1.本发明涉及数据分发技术领域,具体涉及一种分布式的智能实时数据流分发方法及系统。


背景技术:

2.随着互联网的高速发展,产生的数据呈指数级的增长。微服务架构下,鉴于数据隔离的原则,不同的微服务采用不同的数据源,因此业务间只能通过接口调用来远程获取需要的数据,这样业务之间影响增大,耦合性高,同时调用上也比较复杂,数据交互也不实时,并发性也没法满足。
3.目前现有数据分发系统存在的问题如下:
4.1、业务方所需数据分类繁多,无法通过属性配置来动态的分发。
5.对应不同类型,不同属性,不同结构的业务数据如何统一实时的分发到目标系统。传统的实现方式是为每一种结构的数据定制程序来实现,这种开发效率比较低,急需一种动态配置策略的方式来分发数据。以业务目标为导向,通过基本配置选择数据链路的相关数据源与数据目的地,建立数据对象映射关系,通过限制配置和策略配置,结构变化策略、一致性保障策略及预警、日志、自动重启等任务执行策略来满足实际项目中的多种业务场景。
6.2、数据无法实时到达业务系统,存在高延时。
7.在微服务系统当中,目前很多是采用接口方式来进行数据交互,但是这种交互由于接口调用链路太长,数据表中的数据太多,网络带宽不够,以及磁盘io等问题等等,有时候造成接口超时,数据无法获取,或者获取数据的时间比较长。
8.3、海量的数据处理难度大,数据处理能力无法满足业务需求,达到高并发高性能。
9.由于计算机系统资源cpu、内存、网络、io等是有限的,需要用尽可能少的系统资源去支持尽可能多的请求。但实际使用中,往往存在业务使用高峰的时期,由于业务调用之频繁,数据量大,并发量剧增,经常造成系统数据处理不过来,造成系统瘫痪,没办法处理海量的数据,不具备高性能的数据交互能力。
10.4、数据不一致,存在重复,缺失,数据可靠性无法保障
11.业务系统间往往存在因为数据无法匹配、数据不可识别、数据不一致、冗余重复、时效性不强、缺失、精度不够等问题。数据质量反映的是数据的适用性,即数据满足使用场景的适合程度,通过对数据的准确性、完整性、一致性、可靠性、及时性等多维度对数据进行全面考察,发挥数据应有的价值。


技术实现要素:

12.针对现有技术存在的问题,本发明的目的在于提供一种分布式的智能实时数据流分发方法及系统,其能有效提高数据处理速度,从而提高数据分发的及时性。
13.为实现上述目的,本发明采用的技术方案是:
14.一种分布式的智能实时数据流分发方法,所述方法通过数据分发系统将源数据库的信息同步分发到目标数据库中,具体如下:
15.加载数据分发系统配置,读取数据分发事件状态信息;
16.调用数据读取连接器,从源数据库中读取需要分发的全量数据;若读取失败则继续读取,若读取成功,则对读取的数据进行分片处理;
17.将分片处理后的数据进行压缩打包,然后分发到不同实例上,对数据进行处理;
18.调用数据写入连接器,将处理后的数据写入到目标数据库中;
19.自动切换到增量数据分发;
20.监测源数据库的日志信息,当日志信息发生变动时,拉取增量数据的日志信息,然后进行日志解析,获取增量数据;
21.对增量数据进行分片处理,然后将分片好的数据压缩打包,分发到不同实例上,进行数据处理;
22.调用数据写入连接器,将处理后的数据写入到目标数据库中。
23.所述数据写入目标数据库的同时,数据分发的时间状态以及处理到的源数据位移信息写入到分布式文件系统中。
24.当源数据库出现异常时,重新启动源数据库,继续产生数据变更日志信息,读取分布式文件系统中的信息,获取最近一次失败时存储的位移信息,继续进行数据同步;
25.和/或
26.当数据分发系统出现异常时,重新启动数据分发系统,读取分布式文件系统中的信息,获取最近一次失败时存储的位移信息,继续进行数据同步;
27.和/或
28.当目标数据库出现异常时,重新启动目标数据库,读取分布式文件系统中的信息,获取最近一次失败时存储的位移信息,继续进行数据同步。
29.所述分片处理如下:
30.指定分片的区间数c,具体为c1 c2 ... cn;
31.指定各分片区间的长度,具体区间划分为[0,l1),[l1,2l1),...,[(c1-1)l1,c1l1),[c1l1,c1l1 l2),[c1l1 l2,c1l1 2l2),...其中,每一个区间对应一个数据节点;
[0032]
将上述两个数组做点乘运算,得到取模数,如下式(1):
[0033]
m=c*l=c1l1 c2l2 .... cnln;
[0034]
再将上述两个数组进行叉乘,得出虚拟分片数,如下式(2):
[0035][0036]
根据where条件的值来落入实际的虚拟分片;
[0037]
对于每一数据,按照式(1)的计算结果为m,然后将该数据编号对m取模,然后得到的值落到式(2)计算出来的虚拟分片中;
[0038]
将划分出来的虚拟分片区间映射到实际分片的计算机节点上。
[0039]
所述源数据库、数据分发系统和目标数据采用ssd磁盘。
[0040]
一种分布式的智能实时数据流分发系统,其包括源数据库、数据分发系统、目标数据库、注册中心;
[0041]
所述数据分发系统用于将源数据库的数据同步到目标数据库中,该数据分发系统包括数据分发中心和数据处理中心;所述数据处理中心包括多个数据处理实例,每一数据处理实例在注册中心注册;
[0042]
所述注册中心用于数据处理中心的实例配置信息传送到数据分发中心,还用于实时监控数据处理中心的实例的存活情况,若监控到实例挂掉后,立即自动执行自启实例的脚本进行启动实例;
[0043]
所述数据分发中心用于进行全量数据分发和增量数据分发;当用于全量数据分发时,数据分发中心从源数据库中获取需要分发的全量数据,然后根据实例配置信息对获取到的数据进行分片处理,分片好的数据进行压缩打包,并分发到数据处理中心的不同实例上;当用于增量数据分发时,数据分发中心监测源数据库的日志信息,当日志信息发生变动时,拉取增量数据的日志信息,然后进行日志解析,获取增量数据;接着根据实例配置信息对增量数据进行分片处理,将分片好的数据压缩打包,分发到数据处理中心的不同实例上;
[0044]
所述数据处理中心用于接收数据分发中心分发的数据,并进行数据处理;处理完的数据写入到目标数据库中。
[0045]
所述实时数据流分发系统还包括分布式文件系统,所述数据处理中心将数据写入目标数据库的同时,将数据分发的事件状态以及处理到的源数据位移信息存入分布式文件系统中。
[0046]
当源数据库出现异常时,重新启动源数据库,继续产生数据变更日志信息,读取分布式文件系统中的信息,获取最近一次失败时存储的位移信息,继续进行数据同步;
[0047]
和/或
[0048]
当数据分发系统出现异常时,重新启动数据分发系统,读取分布式文件系统中的信息,获取最近一次失败时存储的位移信息,继续进行数据同步;
[0049]
和/或
[0050]
当目标数据库出现异常时,重新启动目标数据库,读取分布式文件系统中的信息,获取最近一次失败时存储的位移信息,继续进行数据同步。
[0051]
所述数据分发中心对数据的分片处理如下:
[0052]
指定分片的区间数c,具体为c1 c2 ... cn;
[0053]
指定各分片区间的长度,具体区间划分为[0,l1),[l1,2l1),...,[(c1-1)l1,c1l1),[c1l1,c1l1 l2),[c1l1 l2,c1l1 2l2),...其中,每一个区间对应一个数据节点;
[0054]
将上述两个数组做点乘运算,得到取模数,如下式(1):
[0055]
m=c*l=c1l1 c2l2 .... cnln;
[0056]
再将上述两个数组进行叉乘,得出虚拟分片数,如下式(2):
[0057][0058]
根据where条件的值来落入实际的虚拟分片;
[0059]
对于每一数据,按照式(1)的计算结果为m,然后将该数据编号对m取模,然后得到的值落到式(2)计算出来的虚拟分片中;
[0060]
将划分出来的虚拟分片区间映射到实际分片的计算机节点上。
[0061]
所述源数据库、数据分发系统和目标数据采用ssd磁盘。
[0062]
采用上述方案后,本发明在进行增量数据分发时,采用监听源数据库的日志文件来获取增量数据,减少了对源数据库的查询压力,保证系统的稳定性,也提高了增量数据分发的实时性。此外,无论是在进行全量数据分发还是增量数据分发,本发明均对所获取的数据进行了分片处理,该分片处理过程充分考虑了不同实例的配置信息,然后进行适应性的调整,从而提高了数据处理的速度,进而提高数据分发的及时性,实现数据的实时分发。
附图说明
[0063]
图1为实施例一的流程图;
[0064]
图2为实施例一的数据分片结果示意图;
[0065]
图3为系统异常情况示意图;
[0066]
图4为实施例二的系统框图。
具体实施方式
[0067]
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
[0068]
在下面的描述中阐述了很多具体细节以便于充分理解本发明,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0069]
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
[0070]
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”和“第三”等是用于区别不同对象,而非用于描述特定顺序。此外,术语“包括”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括
对于这些过程、方法、产品或设备固有的其它步骤或单元。
[0071]
实施例一
[0072]
如图1所示,本实施例揭示了一种分布式的智能实时数据流分发方法,其通过数据分发系统将源数据库的信息同步分发到目标数据库中,具体包括以下步骤:
[0073]
步骤1、加载数据分发系统配置,读取数据分发事件状态信息。
[0074]
数据分发系统的配置信息在部署时会进行注册保存,在使用时,配置信息也会实时更新。
[0075]
步骤2、调用数据读取连接器,从源数据库中读取需要分发的全量数据;若读取失败则继续读取,若读取成功,则对读取的数据进行分片处理。
[0076]
分片处理指的是将需要处理的数据按计算机服务器的数量进行分配。假设有3台计算机和90条数据,如果按平均分配数据的方式来分配这些数据给3台计算机来处理,则每台计算机得到30条数据,这就是平均分配的分片算法。行业的大多的数据处理系统大部分会采用hash分片算法,但是实际的场景中由于每台计算机的资源、io、内存、cpu的处理性能不一样,平均分配可能会导致数据处理效率。因此,本实施例对hash分片算法进行了优化改进,具体方法流程如下:
[0077]
先定义如下二个变量:
[0078]
partitioncount是指分片数量,partitionlength指分片长度,具体解释如下:
[0079]
partitioncount:指定分片的区间数c,具体为c1 c2 ... cn;
[0080]
partitionlength:指定各分片区间的长度,具体区间划分为[0,l1),[l1,2l1),...,[(c1-1)l1,c1l1),[c1l1,c1l1 l2),[c1l1 l2,c1l1 2l2),...其中,每一个区间对应一个数据节点。
[0081]
分片方法步骤:
[0082]
1)将上述两个数组做点乘运算,得到取模数,如下式(1)。
[0083]
m=c*l=c1l1 c2l2 .... cnln[0084]
2)再将上述两个数组进行叉乘,得出虚拟分片数,如下式(2)。
[0085][0086]
3)根据where条件的值来落入实际的虚拟分片
[0087]
select*from shareding_key=999(shareding_key一般使用分片的数据列名称,大多情况是使用表的主键即id)先根据分片键取出999,(数据编号,999为一示例),按照式(1)的计算结果为m,999对m取模即999%m,然后得到的值落到式(2)计算出来的虚拟分片中。
[0088]
4)将划分出来的虚拟分片区间映射到实际分片的计算机节点上。
[0089]
举个简单的例子,分片数量数组,分片长度数组配置如下:
[0090][0091]
根据公式m=c*l得出如下
[0092]
m=c*l=2*100 3*50=350
[0093]
也就是传进来的值需要对350取模。
[0094]
根据式(2),物理分区为
[0095][0096]
例如,数据编号为999的数据,999对350取模,正好是299,落在250-300这个区间里面。也就是第4个区间。
[0097]
再将区间配置到具体计算机上,比如[0,100][100,200]映射到服务器1(server1),[200,250][250,300]映射到服务器2(server2),[300,350]映射到服务器3(server3),如图2所示。
[0098]
步骤3、将分片处理后的数据进行压缩打包,然后分发到不同实例上,对数据进行处理。
[0099]
本实施例中,采用什么压缩算法(quicklz压缩算法),实现对数据的高效压缩打包。
[0100]
步骤4、调用数据写入连接器,将处理后的数据写入到目标数据库中。
[0101]
步骤5、自动切换到增量数据分发。
[0102]
全量数据分发完成后,数据分发系统会自动切换到增量数据分发中,当源数据库产生增量数据时,将增量数据同步分发到目标数据库中。具体如步骤6-8所示。
[0103]
步骤6、监测源数据库的日志信息,当日志信息发生变动时,拉取增量数据的日志信息,然后进行日志解析,获取增量数据。
[0104]
步骤7、对增量数据进行分片处理,然后将分片好的数据压缩打包,分发到不同实例上,进行数据处理。
[0105]
增量数据处理时,所采用的的分片处理方法与总量数据处理时的分片方法相同,此处不再进行赘述。
[0106]
步骤8、调用数据写入连接器,将处理后的数据写入到目标数据库中。
[0107]
本实施例中,源数据库、数据分发系统和目标数据库均采用ssd磁盘。
[0108]
本实施例中,数据写入目标数据库的同时,数据分发的时间状态以及处理到的源数据位移信息写入到分布式文件系统中,由此保证数据同步的准确性。
[0109]
具体地,如图3所示,一般的数据分发出现异常主要来自于3个大的方面:从源数据库获取数据时发生异常,数据分发系统分发数据时发生异常,将数据写入目标数据库时发生异常。
[0110]
首先系统启动进行数据分发,若发生异常,主要有下面三种的情况来保障数据一致性。
[0111]
一、源数据库异常如何保障一致性:
[0112]
数据分发系统发现无法连接源数据库,异常退出,重新启动源数据库,数据分发系统(或者retry),读取分布式文件系统中的信息,将会从最近一次检查点(checkpoint,最近一次失败时存储的数据偏移量)的数据进行恢复,由于可以读取到数据库二进制日志信息(binlog)的位移信息,实现继续同步,不会丢失数据,最终也能保持一致性。
[0113]
二、数据分发系统异常如何保障一致性:
[0114]
重新启动数据分发系统(或retry)后,同源数据库异常场景一致,继续读取数据库二进制日志位移信息(binlog),实现继续同步,能保持一致性。
[0115]
三、目标数据库出现异常如何保障一致性:
[0116]
当目标数据库出现异常时,重新启动目标数据库,读取分布式文件系统中的信息,获取最近一次失败时存储的位移信息,继续进行数据同步。
[0117]
数据分发系统的写入连接器无法往目标数据库写入数据时,此时写入连接器读取到的源数据库日志位移信息(binlog)也不再更新,由于写入数据到目标数据库和更新源数据库的二进制日志位移信息(binlog)的两个操作设计成一个原子性的操作,在目标数据库恢复后,从最近一次检查点(checkpoint,最近一次失败时存储的数据偏移量)进行恢复,最终保持一致性。
[0118]
由于上述三种可能存在数据丢失和数据不一致性的问题都得到了解决,所以最终能够确保数据分发的一致性。
[0119]
实施例二
[0120]
如图4所示,本实施例揭示了一种分布式的智能实时数据流分发系统,其包括源数据库、数据分发系统、目标数据库、注册中心。
[0121]
所述数据分发系统用于将源数据库的数据同步到目标数据库中,该数据分发系统包括数据分发中心和数据处理中心;所述数据处理中心包括多个数据处理实例,每一数据处理实例在注册中心注册。
[0122]
所述注册中心用于数据处理中心的实例配置信息传送到数据分发中心,还用于实时监控数据处理中心的实例的存活情况,若监控到实例挂掉后,立即自动执行自启实例的脚本进行启动实例。
[0123]
所述数据分发中心用于进行全量数据分发和增量数据分发。
[0124]
当用于全量数据分发时,数据分发中心从源数据库中获取需要分发的全量数据,然后根据实例配置信息对获取到的数据进行分片处理,分片好的数据进行压缩打包,并分发到数据处理中心的不同实例上。
[0125]
当用于增量数据分发时,数据分发中心监测源数据库的日志信息,当日志信息发
生变动时,拉取增量数据的日志信息,然后进行日志解析,获取增量数据;接着根据实例配置信息对增量数据进行分片处理,将分片好的数据压缩打包,分发到数据处理中心的不同实例上。
[0126]
本实施例对hash分片算法进行了优化改进,具体分片方法流程如下:
[0127]
先定义如下二个变量:
[0128]
partitioncount是指分片数量,partitionlength指分片长度,具体解释如下:
[0129]
partitioncount:指定分片的区间数c,具体为c1 c2 ... cn;
[0130]
partitionlength:指定各分片区间的长度,具体区间划分为[0,l1),[l1,2l1),...,[(c1-1)l1,c1l1),[c1l1,c1l1 l2),[c1l1 l2,c1l1 2l2),...其中,每一个区间对应一个数据节点。
[0131]
分片方法步骤:
[0132]
5)将上述两个数组做点乘运算,得到取模数,如下式(1)。
[0133]
m=c*l=c1l1 c2l2 .... cnln[0134]
6)再将上述两个数组进行叉乘,得出虚拟分片数,如下式(2)。
[0135][0136]
7)根据where条件的值来落入实际的虚拟分片
[0137]
select*from shareding_key=999(shareding_key一般使用分片的数据列名称,大多情况是使用表的主键即id)先根据分片键取出999(数据编号,此处999为例子说明),按照式(1)的计算结果为m,999对m取模即999%m,然后得到的值落到式(2)计算出来的虚拟分片中。
[0138]
将划分出来的虚拟分片区间映射到实际分片的计算机节点上。
[0139]
所述数据处理中心用于接收数据分发中心分发的数据,并进行数据处理;处理完的数据写入到目标数据库中。
[0140]
所述实时数据流分发系统还包括分布式文件系统,所述数据处理中心将数据写入目标数据库的同时,将数据分发的事件状态以及处理到的源数据位移信息存入分布式文件系统中,以便数据写入失败时进行补偿写入,保障一致性。
[0141]
当源数据库出现异常时,重新启动源数据库,数据分发系统读取源数据库的日志信息,获取最近一次失败时存储的位移信息,继续进行数据同步。
[0142]
当数据分发系统出现异常时,重新启动数据分发系统,读取源数据库的日志信息,获取最近一次失败时存储的位移信息,继续进行数据同步。
[0143]
综上,本发明的实施例一和实施例二具有以下效果:
[0144]
一、提高数据分发的实时性,减少延时。
[0145]
(1)从物理上尽可能减少网络中转环节,提高网络速度。减少跳点;增加带宽,使用千兆、万兆网卡等(比如分片数据压缩之后,文件变小了,即减少了数据在网络上的中转,提高网络速度也是加快数据的传输。使用高带宽网卡都是提高数据传输的速度);
[0146]
(2)基于源数据库的二进制日志文件来获取数据变更,减少对源系统数据库的查询压力;
[0147]
(3)提高数据处理速度,提高处理器性能,使用内存计算与分布式并行计算等高性能处理技术;
[0148]
(4)采用高效的压缩算法,对数据进行压缩打包。
[0149]
(5)尽可能的减少磁盘io操作、数据处理同步等待操作,采用多线程以及io多路复用技术(比如压缩数据,减少文件大小,也即减少了磁盘io操作,比如分片,提高了数据文件的分发速度,减少了等待数据处理的等待,比如数据从一台计算机传输到另外一台计算机,一般都需要在传输数据时建立多个连接来传输数据,我们传输过程中可以减少io连接的创建,采用连接复用技术也即io多路复用技术)。
[0150]
(6)使用优越的分片算法,对数据进行分片,避免数据倾斜,让每台计算机处理的数据量达到平衡,对数据进行分布式的处理,通过心跳机制,水平扩容数据分发计算资源。
[0151]
二、保障数据的可靠性和一致性;
[0152]
(1)源数据库异常如何保障一致性:
[0153]
数据分发系统发现无法连接源数据库,异常退出,重新启动源数据库,数据分发系统(或者retry),读取分布式文件系统中的信息,将会从最近一次检查点(checkpoint,最近一次失败时存储的数据偏移量)的数据进行恢复,由于可以读取到数据库二进制日志信息(binlog)的位移信息,实现继续同步,不会丢失数据,最终也能保持一致性。
[0154]
(2)数据分发系统异常如何保障一致性:
[0155]
重新启动数据分发系统(或retry)后,同源数据库异常场景一致,继续读取数据库二进制日志位移信息(binlog),实现继续同步,能保持一致性。
[0156]
(3)目标数据库出现异常如何保障一致性:
[0157]
数据分发系统的写入连接器无法往目标数据库写入数据时,此时写入连接器读取到的源数据库日志位移信息(binlog)也不再更新,由于写入数据到目标数据库和更新源数据库的二进制日志位移信息(binlog)的两个操作设计成一个原子性的操作,在目标数据库恢复后,从最近一次检查点(checkpoint,最近一次失败时存储的数据偏移量)进行恢复,最终保持一致性。
[0158]
由于上述三种可能存在数据丢失和数据不一致性的问题都得到了解决,所以最终能够确保数据分发的一致性。
[0159]
三、提高数据分发的吞吐量
[0160]
要提高数据分发的吞吐量,实际上就是要提高数据处理的能力,本系统采用监听和解析数据变更日志和分布式的数据处理能力来加快数据的处理,同时兼顾水平扩展数据处理能力来提高数据分发的吞吐量,主要从如下4个方面来进行提高:
[0161]
(1)提高单服务器的数据分发的性能
[0162]
多进程进行数据分发,减少进程切换,减少使用不必要的锁操作。减少内存分配和释放操作,持久化采用长连接,改进io操作,采用异步线程,多路复用技术。
[0163]
(2)水平增加服务器资源进行分布式数据处理
[0164]
将需要处理的数据进行分成微批(传统的数据是以批为单位也即一组数据,所谓微批就是这一组数据的数量更小,更细化些),再分发到不同的服务器实例中进行数据处理和目标数据库写入,可根据实际项目中需要的吞吐量来水平扩展服务器。大大提高了资源利用率,有效保障了实际项目中所需要的吞吐量和性能要求。
[0165]
(3)对数据进行分片,采用高效的数据分片算法,防止数据倾斜。
[0166]
(4)提升硬件资源,提高磁盘写入速度,采用ssd磁盘,提高网络带宽数据传输速度。
[0167]
四、保障数据分发系统的高可靠,保障分发系统的稳定。
[0168]
数据分发系统通过集群部署,每个实例部署后会注册到注册中心,每个部署实例上报自己的保活状态等源数据信息到注册中心,通过心跳机制来监控实例的存活,若监控到实例挂掉后,立即自动执行自启实例的脚本进行启动实例来达到高可用。
[0169]
综上,解决了各业务系统间的数据对接开发慢的问题。对数据交互不实时,数据格式不统一,各业务系统数据不一致,不准确,数据的可靠性差等诸如此类问题得到了有效的解决。同时也大大提高了对海量数据的实时处理能力,提升了公司产品的质量,增加了公司业务系统的稳定性,提升了客户的满意度。大大节约了公司的研发成本,同时也创造更大的收益。在此基础上,为后期的构建大数据平台提供了有力的保障,在数据治理,大数据分析,智能运营决策,智能运维等其他方面的都打下了坚实的基础。
[0170]
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
[0171]
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献