一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

增量数据实时同步的方法、装置、计算机设备及存储介质与流程

2022-04-25 00:55:50 来源:中国专利 TAG:


1.本发明涉及人工智能领域,尤其涉及一种增量数据实时同步的方法、装置、计算机设备及存储介质。


背景技术:

2.数据同步一般是指将传统关系型数据库(如mysql、oracle)的业务数据导入到大数据hive仓库的过程。在传统的离线处理场景中,大数据通常会使用sqoop等数据导入工具,每天批量的从线上数据库中读取数据,并导入大数据的hive仓库当中,随着业务量的不断增加,批量的数据同步方式会在短时间内占用大量的数据库资源,致使上游数据库频繁报警,甚至是触发保护性熔断。
3.现有技术中,为了减少批量数据同步的负担,一般通过ogg这样的工具,将数据库中的日志解析成json报文并投递至大数据hive仓库当中,但解析成的json报文不能进行实时投递,使数据占用上游数据库的资源,且json报文中往往存在未变更的信息字段,导致不能完全得到数据库中的变更信息,所以现有技术中从oracle到hdfs的数据同步,存在不能实时同步和完全同步的问题。


技术实现要素:

4.基于此,有必要针对上述技术问题,提供一种增量数据实时同步的方法、装置、计算机设备及存储介质,以解决增量数不能实时同步和完全同步的问题。
5.本技术实施例的第一方面提供了一种增量数据实时同步的方法,包括:
6.将利用工具解析的oracle数据表中的日志得到的json报文存储至分布式消息队列;其中,json报文用于表征数据库的变更事件;
7.基于预先设置的第一计算引擎,将分布式消息队列中的所述json报文存储至hbase,得到hbase数据表;
8.根据所述hbase数据表与预先得到的hbase中的oracle镜像表,通过hbase操作处理,记录hbase数据表中的变更行键;
9.基于预先设置的第二计算引擎,根据所述变更行键,还原变更行键对应的一行数据的全部字段数据,并将全部字段数据存储至数据仓库中,得到增量数据;
10.利用调度任务,将所述增量数据与数据仓库中的历史数据进行合并处理,在数据仓库中得到实时更新的数据。
11.本技术实施例的第二方面提供了一种增量数据实时同步的方法装置,包括:
12.解析单元:将利用工具解析的oracle数据表中的日志得到的json报文存储至分布式消息队列;其中,json报文用于表征数据库的变更事件;
13.存储单元:基于预先设置的第一计算引擎,将分布式消息队列中的所述json报文存储至hbase,得到hbase数据表;
14.变更单元:根据所述hbase数据表与预先得到的hbase中的oracle镜像表,通过
hbase操作处理,记录hbase数据表中的变更行键;
15.还原单元:基于预先设置的第二计算引擎,根据所述变更行键,还原变更行键对应的一行数据的全部字段数据,并将全部字段数据存储至数据仓库中,得到增量数据;
16.合并单元:利用调度任务,将所述增量数据与数据仓库中的历史数据进行合并处理,在数据仓库中得到实时更新的数据。
17.本技术实施例的第三方面提供了一种计算机设备,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机可读指令,该计算机指令用于使该计算机执行增量数据实时同步的方法的各步骤。
18.本技术实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行增量数据实时同步的方法的各步骤。
19.实施本技术实施例提供的一种增量数据实时同步的方法具有以下有益效果:
20.本发明涉及人工智能技术,提供一种增量数据实时同步的方法,将利用工具解析的oracle数据表中的日志得到的json报文存储至分布式消息队列;实现了增量数据从oracle数据表到大数据环境的同步基础,并将分布式消息队列中的所述json报文存储至hbase,得到hbase数据表;可以根据hbase数据表与预先得到的hbase中的oracle镜像表,记录变更行键;根据变更行键,从hbase数据库中,还原一行数据的全部字段数据,完善了数据库更新时的数据,并将全部字段数据存储至数据仓库中,得到增量数据仓库的增量数据;将增量数据与历史数据进行合并处理,得到实时更新的数据仓库数据,实时的更新与抽取oracle库中的数据,减小了对oracle库的资源占用,并节约了数据仓库中数据更新的时间。
附图说明
21.为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
22.图1是本技术一实施例中一种增量数据实时同步的方法实现流程图;
23.图2是本技术另一实施例中一种增量数据实时同步的方法实现流程图;
24.图3是本技术再一实施例提供的一种增量数据实时同步的方法的实现流程图;
25.图4是本技术又一实施例提供的一种增量数据实时同步的方法的实现流程图;
26.图5本技术实施例提供的一种增量数据实时同步的方法装置的结构框图;
27.图6是本技术实施例提供的一种服务器端设备的结构框图。
具体实施方式
28.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
29.本技术涉及的增量数据实时同步的方法,应用于人工智能领域,可以由服务器端
执行。
30.如图1所示,一种增量数据实时同步的方法,包括:
31.s11:将利用工具解析的oracle数据表中的日志得到的json报文存储至分布式消息队列;
32.在步骤s11中,通过结构化复制工具解析oracle数据表中的日志,捕捉数据库的日志进行分析整理过滤,获取需要处理的数据储存为特定格式的文件并传输到目标数据库,结构化复制工具将oracle数据表中的日志储存为json报文,传输到分布式消息队列。json是一种轻量级的数据交换格式,采用完全独立于编程语言的文本格式来存储和表示数据。简洁和清晰的层次结构使得json成为理想的数据交换语言。易于人阅读和编写,同时也易于机器解析和生成,并有效地提升网络传输效率。
33.本实施例中,根据部署的结构化复制工具,从oracle数据表日志中捕获数据,在捕获日志时,可以分为两部分,初始数据装载阶段,可以从oracle数据表中抽取数据,同步数据变化捕获阶段,抽取进程负责根据配置,从oracle数据表日志中捕获对应的变化数据,包括ddl和dml语句。抽取进程建立了一个类似数据库的内部的checkpoint机制,用来周期性的检查和记录其读写日志的位置,并将读取得对应数据保存为其内部格式的二进制trail文件。这种机制可以保证如果发生抽取进程正常或异常终止或整个操作系统宕机的情况下,在该进程重新启动后,结构化复制工具可以恢复到之前的,重新找到其记录抽取位置,从该点起重新抽取日志,而不会有任何数据损失或获取了重复数据。
34.所以oracle数据库实例的某些运行操作需要查找和判断这些内容。由于控制文件中数据表示数据库某时的状态,所以为了更好的记录这些状态信息,控制文件采用二进制表示,这样保证了数据库的完整性。控制文件是在数据库创建的过程中创建。默认状态下至少有一个该文件在数据库创建过程中产生。
35.根据获得的oracle库的变更事件,将oracle库的变更事件转化为json报文,并发送至分布式消息队列中进行储存,本实施例中每条发布到分布式消息队列的消息都有一个类别,这个类别被称为topic。物理上不同topic的消息分开存储,逻辑上一个topic的消息虽然保存于一个或多个服务器上,但用户只需指定消息的topic即可生产或消费数据而不必关心数据存于何处。将json串消息输入到基于kafka的消息发布系统,并保存在基于分布式消息队列的消息发布系统中预创建的topic中。
36.作为本技术一实施例,步骤s11具体包括:
37.将oracle数据表中的日志发送至预先设置的存储系统存储,得到目标日志;利用工具解析目标日志,得到的json报文,将的json报文存储至分布式消息队列。
38.本实施例中,预先设置的存储系统存储为第三方存储系统,将oracle数据表中的日志发送至第三方存储系统,在第三方存储系统中进行解析处理,以方便oracle数据库中继续产生日志,减小了主服务器的内存压力和瓶颈。得到目标日志,利用工具解析目标日志,得到的json报文,存储至分布式消息队列。
39.s12:基于预先设置的第一计算引擎,将分布式消息队列中的所述json报文存储至hbase,得到hbase数据表;
40.在步骤s12中,预先设置的第一计算引擎数据流接口支持有界或无界数据流上的转换(如过滤器、聚合和窗口函数),可以在java和scala中使用。hbase是开源版本,它可以
提供高可靠性、基于列存储、可伸缩、的数据库系统服务,hbase中的数据依靠行键、列族列标识符时间戳来检索一个单元格中的数据,其中列标识符和时间戳不是必须的。行键个代表一行数据,可以保证行操作的原子性。hbase可以实时接收从分布式消息队列中得到的json报文。
41.本实施例中,预先设置的第一计算引擎为flink计算引擎,在执行过程中,一个数据流包含一个或多个分区,而每一个重组包含一个或多个重组任务,这些重组任务在不同的线程、不同的物理机或不同的容器中彼此互不依赖得执行。一个特定重组的任务的个数被称之为其并行度。一个数据流的并行度总是等同于生产重组的并行度。并行度是动态概念,可以通过参数parallelism.default进行配置。通过预先设置的第一计算引擎,将分布式消息队列中的所述json报文进行消费处理,从第一计算引擎中取出json报文,存储至hbase中,得到对应的hbase数据表。
42.作为本技术一实施例,步骤s12具体包括:
43.通过对预先设置的第一计算引擎程序中的接口进行声明和赋值,得到与hbase中对应的接口;通过所述hbase中对应的接口,将分布式消息队列中的所述json报文存储至hbase,得到hbase数据表。
44.本实施例中,对第一计算引擎数据流家口调用的变量、参数、函数进行声明和赋值。在其中配置数据源并行度,并行度是指指令或数据并行执行的最大数目,通过配置的接口消费json报文,存储至hbase,其中,根据预先新建的消费者,将json报文发送至所述消费者中对应的区域中,得到消费数据,通过所述hbase中对应的接口,将所述消费数据存储至hbase,得到hbase数据表。
45.新建一个消费者,设置消费topic指向预创建的topic,表示消费者取预创建的topic中的数据分发。还可以设置其他属性,包括地址,即topic保存的服务器地址;设置消费者的消费策略,例如使用earliest,使用该策略时,每个topic包含一个或多个分区,当各分区下有已提交的消息消费点,从提交的消费点开始消费;无提交的消费点时,从头开始消费,即使用该策略不会因重启程序而丢失数据。调用第一计算引擎数据流接口,在第一计算引擎数据流接口中,消费者被定义为数据源,且指向基于消息发布系统中预创建的topic,实时数据经过json格式化后存储在预创建的topic中,第一计算引擎数据流接口执行从数据源到目的的sink操作,即将实时数据存到hbase数据库。
46.需要说明的是,根据实际需要设置json报文的过滤条件,例如消息格式:{"id","name"},其中id为每条消息的主键,设置过滤条件为“id合法”,只保留含有id合法的json报文,其余的消息都丢弃。在一些实施例中,预设的id合法性规则,例如id合法性规则包含:不含特殊字符、不含禁用词等,将json报文中的id字段与预设的id合法性规则进行比较;当id字段与所述预设的id合法性规则相符时,将json串消息通过数据源保存到hbase数据库否则,丢弃该json报文。
47.基于预先设置的第一计算引擎,将分布式消息队列中的json报文存储至hbase,得到hbase数据表之后,根据hbase数据表中的分区数量,确定hbase数据表对应的行键字段。
48.s13:根据所述hbase数据表与预先得到的hbase中的oracle镜像表,通过hbase操作处理,记录hbase数据表中的变更行键;
49.在步骤s13:oracle镜像表为oracle数据表中的日志的历史数据,复制日志历史数
据储存在hbase中,以方便数据之间的比较,得到变更的数据,hbase数据表中的数据依靠行键、列族列标识符时间戳来检索一个单元格中的数据,其中列标识符和时间戳不是必须的。hbase相关操作包括数据的增删改查等基本操作,行键代表一行数据,根据相关操作,得到变更数据所在的变更行键。
50.s14:基于预先设置的第二计算引擎,根据所述变更行键,还原变更行键对应的一行数据的全部字段数据,并将全部字段数据存储至数据仓库中,得到增量数据;
51.在步骤s14中,根据基于预先设置的第二计算引擎,根据变更行键,从hbase中的oracle镜像表中查找对应的行键,从hbase中还原包含全部字段值的增量数据,该增量数据存储在数据仓库中,与数据仓库中的数据表形式保存。
52.本实施例中,预先设置的第二计算引擎为spark计算引擎,第二计算引擎读取的数据源计算引擎内置的数据源、第三方平台提供的数据源或用户自定义的数据源,第二计算引擎是一种基于内存的计算框架,其使用内存计算引擎,提供cache机制来将需要反复迭代计算或者多次使用的数据保存在内存中,这样在第一次将数据加载到内存中后后面需要使用该数据就不必再去磁盘读取,减少了数据读取开销,通过第二计算引擎从hbase中读取hbase中的oracle镜像表数据还原包含全部字段值的增量数据。
53.需要说明的是,基于配置和插件的方式,统一第二计算引擎读取数据源的接口,将第二计算引擎读取的所有数据源通过配置文件实现,使得每种数据源对应配置文件中的一个插件,每个插件具有不同的配置项,由于不同数据格式的数据源,具有自己独有的配置信息,因而,在配置第二计算引擎读取的多种数据源的时候,每种数据源对应插件的配置项是具有差异的。
54.s15:利用调度任务,将所述增量数据与数据仓库中的历史数据进行合并处理,在数据仓库中得到实时更新的数据。
55.在步骤s15中,根据调度任务,合并增量数据与历史数据,对数据仓库中的数据进行实时刷新,得到实时的更新数据,进行数据合并时,包括增加数据,删减数据,更改数据等。
56.当调度任务中需要执行较多的步骤时,可以将调度任务进行细粒化处理,将调度任务划分为一个或者多个可执行的较细化任务,确定较细化任务的执行方法,较细化任务为调度任务细化出的执行范围较小的可执行的任务。较细化任务可以是实现调度任务的某个具体的步骤,或者是调度任务下属的子任务。本技术实施例中不限定对调度任务细化程度,较细化任务可以是可执行的最细化任务。当调度任务划分为一个或者多个较细化任务后,调度域对较细化任务进行解析,并得到较细化任务的任务信息,技术域根据较细化任务的任务信息执行任务,通过执行较细化任务,完成对所述调度任务的执行。例如,在进行增量数据与历史数据进行合并时,合并任务包括,增加任务,删减任务,更改任务等,将合并任务细化为三个细化任务。
57.需要说明的是,可以预设自动触发调度任务的发起信息满足的条件,在一种可能的实施方式中,可以根据调度任务中的信息数据,为设施的运行数据设置监控指标,当设施的运行数据超出监控指标时,触发相应的调度任务的发起信息。例如,在进行增量数据与历史数据进行合并时,可以设置当增量数据达到一定的数量后,触发调度任务,使增量数据与历史数据进行合并,在数据仓库中得到实时更新的数据。或者设置一定的时间间隔,在规定
的时间间隔使增量数据与历史数据进行合并,在数据仓库中得到实时更新的数据。
58.请参阅图2,图2是本技术另一实施例提供的一种增量数据实时同步的方法的实现流程图。相对于图1对应的实施例,本实施例提供的增量数据实时同步的方法在步骤s12之后还包括步骤s21。详述如下:
59.s21:根据hbase数据表中的分区数量,确定hbase数据表对应的行键字段。
60.本实施例中,根据hbase数据表中存储的数据量,确定所需存储数据需要占用的分区数量;确定数据存储的当前时间,根据当前分区数量,确定所需存储数据对应的行键的前半段;生成离散随机的通用唯一离散数据,确定为所需存储数据对应的行键的后半段;整合所需存储数据对应的行键的前半段和所需存储数据对应的行键的后半段,得到所需存储数据对应的行键设计值。基于对行键进行分段设计,根据分区数量,确定所需存储数据对应的行键的前半段为顺序字符串,让数据整体作为一个连续的整体,可以有效提高hbase的读取的效率;后半段由离散随机的通用唯一离散数据组成,让数据在一定区域内离散存储,有助于提高数据的并行写入效率,进而既能提高数据的写入性能,又能提高数据的读取性能。
61.请参阅图3,图3是本技术再一实施例提供的一种增量数据实时同步的方法的实现流程图。相对于图1对应的实施例,本实施例提供的增量数据实时同步的方法在步骤s13之前还包括步骤s31。详述如下:
62.s31:利用工具,将oracle表中的数据,以数据仓库中数据表的形式储存至集群;基于预先设置的第二计算引擎,将集群中数据仓库中数据表中的数据转换为hbase底层储存的二进制文件;通过数据加载的方式,将所述二进制文件加载至hbase中,得到hbase中的oracle镜像表。
63.本实施例中,在得到变更行键之前,需要得到oracle镜像表,利用工具,将oracle表中的数据,以数据仓库中数据表的形式储存至集群,本实施例中的工具为数据库导出工具,将oracle表的数据全量同步至hbase中,先将数据仓库中数据表中的数据转换为二进制文件,通过数据加载的方式,将所述二进制文件加载至hbase中,得到hbase中的oracle镜像表。hbase基于列的模式,导出工具将一组文件从oracle导出到一个hbase中的oracle镜像表。目标表必须已经存在于数据库中。输入文件根据指定的分隔符被读取并解析为一组记录。默认操作将这些记录转换为将记录注入数据库的一组语句。数据库导出工具将生成替换数据库中现有记录的语句,在调用模式下,数据库导出工具会为每条记录发出一个存储过程调用。
64.需要说明的是,导出由多个编写者并行执行。单独的连接和事务由每个编写者使用。数据库导出工具使用多行语法在每个语句中插入高达10条记录。对于每10条记录,在提交任务内的当前事务时,每次达到100行就会进行一次提交。这确保事务缓冲不会无限制地增长,导致内存不足的状况。
65.需要说明的是,在增删改查的操作过程中行键就充当了主键的作用,它和众多的数据库一样,可以唯一的标识一行记录。行键可以是任意字符串,在hbase内部,行键保存为字节数组。存储时,数据按照行键的字典序排序存储。要充分利用排序存储这个特性,将经常一起读取的行存储放到一起。根据hbase中的oracle镜像表与hbase数据表进行比较,得到变更的行键。
66.请参阅图4,图4是本技术又一实施例提供的一种增量数据实时同步的方法的实现
流程图。相对于图1对应的实施例,本实施例提供的增量数据实时同步的方法在步骤s15之前还包括步骤s41。详述如下:
67.s41:利用定时调度工具,设置合并调度任务。
68.本实施例中,在进行数据合并之前,需要设置对应的调度任务,在规定的时间执行任务,完成增量数和历史数据在数据仓库中的合并,在进行设置调度任务时,调度任务的发起信息与合并任务存在着一定的对应关系,例如,可以为发起信息中包含合并任务的关键词。
69.本实施例中,采用无中心化方式(比如,采用分布式模式对设置调度任务时,基于quartz、zk等实现能够进行独立部署的分布式作业集群)部署调度任务时,控制台可对每个调度任务单独进行部署(部署后的调度任务可理解为作业;例如,部署在分布式服务器集群上的定时调度任务可称之为分布式作业),各调度任务之间互不影响。
70.本发明提供一种增量数据实时同步的方法,将利用工具解析的oracle数据表中的日志得到的json报文存储至分布式消息队列;实现了增量数据从oracle数据表到大数据环境的同步基础,并将分布式消息队列中的所述json报文存储至hbase,得到hbase数据表;实现增量数据同步至数据仓库,避免直接在数据仓库中操作受限,高效实现数据仓库中增量数据同步。根据hbase数据表与预先得到的hbase中的oracle镜像表,记录变更行键;根据变更行键,从hbase数据库中,还原一行数据的全部字段数据,完善了数据库更新时的数据,并将全部字段数据存储至数据仓库中,得到增量数据仓库的增量数据;将增量数据与历史数据进行合并处理,得到实时更新的数据仓库数据,实时的更新与抽取oracle库中的数据,减小了对oracle库的资源占用,并节约了数据仓库中数据更新的时间。
71.请参阅图5,图5是本技术实施例提供的一种增量数据实时同步的方法的装置结构框图。本实施例中该服务器端包括的5个单元用于执行图1至图4对应的实施例中的各步骤,具体请参阅图1至图4以及图1至图4所对应的实施例中的相关描述。为了便于说明,仅示出了与本实施例相关的部分。参见图5,增量数据实时同步的方法装置50包括:解析单元51,存储单元52,变更单元53,还原单元54,合并单元55,其中,
72.解析单元51:用于将利用工具解析的oracle数据表中的日志得到的json报文存储至分布式消息队列;其中,json报文用于表征数据库的变更事件;
73.存储单元52:用于基于预先设置的第一计算引擎,将分布式消息队列中的所述json报文存储至hbase,得到hbase数据表;
74.变更单元53:用于根据所述hbase数据表与预先得到的hbase中的oracle镜像表,通过hbase操作处理,记录hbase数据表中的变更行键;
75.还原单元54:用于基于预先设置的第二计算引擎,根据所述变更行键,还原变更行键对应的一行数据的全部字段数据,并将全部字段数据存储至数据仓库中,得到增量数据;
76.合并单元55:用于利用调度任务,将所述增量数据与数据仓库中的历史数据进行合并处理,在数据仓库中得到实时更新的数据。
77.作为本技术一实施例,增量数据实时同步的方法装置50还包括:
78.确定单元56:用于根据hbase数据表中的分区数量,确定hbase数据表对应的行键字段。
79.加载单元57:用于利用工具,将oracle表中的数据,以数据仓库中数据表的形式储
存至集群;基于预先设置的第二计算引擎,将集群中数据仓库中数据表中的数据转换为hbase底层储存的二进制文件;通过数据加载的方式,将所述二进制文件加载至hbase中,得到hbase中的oracle镜像表。
80.设置单元58:用于利用定时调度工具,设置合并调度任务。
81.作为本技术一实施例,增量数据实时同步的方法装置50还包括:
82.第一执行单元59,用于根据预先新建的消费者,将所述json报文发送至所述消费者中对应的区域中,得到消费数据;通过所述hbase中对应的接口,将所述消费数据存储至hbase,得到hbase数据表。
83.作为本技术一实施例解析单元51具体用于将oracle数据表中的日志发送至预先设置的存储系统存储,得到目标日志;利用工具解析目标日志,得到的json报文,将的json报文存储至分布式消息队列。
84.作为本技术一实施例存储单元52具体用于通过对预先设置的第一计算引擎程序中的接口进行声明和赋值,得到与hbase中对应的接口;通过所述hbase中对应的接口,将分布式消息队列中的所述json报文存储至hbase,得到hbase数据表。
85.应当理解的是,图5示出的增量数据实时同步的方法的装置的结构框图中,各单元用于执行图1至图4对应的实施例中的各步骤,而对于图1至图4对应的实施例中的各步骤已在上述实施例中进行详细解释,具体请参阅图1至图4以及图1至图4所对应的实施例中的相关描述,此处不再赘述。
86.在一个实施例中,提供了一种计算机设备,该计算机设备为服务器,其内部结构图可以如图6所示。该计算机设备60包括通过系统总线62连接的处理器61、内存储器63、网络接口64。其中,该计算机设备的处理器61用于提供计算和控制能力。该计算机设备60的存储器包括可读存储介质65、内存储器63。该可读存储介质65存储有操作系统66、计算机可读指令67和数据库68。该内存储器63为可读存储介质65中的操作系统66和计算机可读指令67的运行提供环境。该计算机设备60的数据库68用于存储增量数据实时同步的方法所涉及的数据。该计算机设备60的网络接口63用于与外部的终端通过网络连接通信。该计算机可读指令67被处理器61执行时以实现一种增量数据实时同步的方法。本实施例所提供的可读存储介质65包括非易失性可读存储介质和易失性可读存储介质。
87.本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一非易失性可读取存储介质或易失性可读存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,本技术所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram以多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双数据率sdram(ddrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)等。
88.应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程
的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
89.以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献