一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于动态Prompt生成闲聊答复的方法、装置、设备及介质与流程

2023-01-15 07:22:11 来源:中国专利 TAG:

一种基于动态prompt生成闲聊答复的方法、装置、设备及介质
技术领域
1.本技术涉及智能机器人技术领域,尤其涉及一种基于动态prompt生成闲聊答复的方法、装置、设备及介质。


背景技术:

2.智能问答目前已经成为智能机器人的必备技能,闲聊作为智能问答中的一个重要技能,经常作为问答兜底的功能,使的用户体验更加友好。目前,闲聊常用的模型有继续搜索,例如elasticsearch框架。这种我们需要存储大量语料到数据库中,然后通过语法信息和语义信息进行候选答案的获取,找到相似的问题,并把相应的答案进行返回。
3.另一种就是通过生成方式,例如自回归的神经网络模型gpt,用户通过预训练好的gpt模型,然后在目标任务上进行微调。利用prompt技术能够解决fine-tune模式下的弊端,通过为每个子任务设计一个prompt提示,例如我们有个情感分析分类任务,判断一句话是积极还是悲观一面,我们可以这么做,“今天天气很不错啊,我的心情很[mask]”,我的心情很[mask]这个就是一个prompt。mask位置我们预测出两类,分别是“好”、“坏”。
[0004]
但是,现有的prompt对于生成式闲聊不够精细,针对不同的query,每次prompt提示都是相同的,无法满足对话生成任务对生成的闲聊答复语义和语法连贯、且不乏味的要求。


技术实现要素:

[0005]
本技术实施例提供了一种基于动态prompt生成闲聊答复的方法、装置、设备及介质,用以解决现有的prompt针对不同的query,每次prompt提示都是相同的,无法满足对话生成任务对生成的闲聊答复语义和语法连贯、且不乏味的要求的技术问题。
[0006]
一方面,本技术实施例提供了一种基于动态prompt生成闲聊答复的方法,包括:
[0007]
确定出训练数据中的请求和上下文,并通过嵌入层对所述请求和上下文进行嵌入式表达,以获取对应的表达结果;
[0008]
通过对prompt层的神经网络参数进行动态调整,得到对应的控制层;
[0009]
将所述请求对应的表达结果分别输入至gpt2层和所述控制层中,并将所述上下文对应的表达结果输入至所述gpt2层中;
[0010]
确定出所述gpt2层生成的所述请求的表达结果对应的若干个待答复闲聊数据,并将所述若干个待答复闲聊数据和所述上下文输入至mmi层,以确定所述训练数据对应的目标闲聊答复数据。
[0011]
在本技术的一种实现方式中,所述将所述请求对应的表达结果分别输入至gpt2层和所述控制层中,并将所述上下文对应的表达结果输入至所述gpt2层中之后,所述方法还包括:
[0012]
通过所述控制层,对所述请求对应的表达结果和所述上下文对应的表达结果进行预训练;
[0013]
预测出所述表达结果中被覆盖的词语,并预测所述请求对应的表达结果和所述上下文对应的表达结果是否相邻,以完成对所述表达结果的预训练。
[0014]
在本技术的一种实现方式中,所述预测出所述表达结果中被覆盖的词语,并预测所述请求对应的表达结果和所述上下文对应的表达结果是否相邻,以完成对所述表达结果的预训练之后,所述方法还包括:
[0015]
基于动态prompt,将所述表达结果中的所有下游任务均转换为对应的预训练任务,并基于所述对应的预训练任务,预测出所述表达结果中被覆盖的词语;
[0016]
针对不同的训练数据,分别生成所述训练数据对应的动态prompt,以通过所述动态prompt为对应的训练数据进行提示。
[0017]
在本技术的一种实现方式中,所述通过所述控制层,对所述请求对应的表达结果和所述上下文对应的表达结果进行预训练,具体包括:
[0018]
通过所述控制层中的多头自注意力层,对所述请求对应的表达结果进行分词,并为分词后的所述请求的表达结果编码对应的token;
[0019]
通过嵌入层获取所述token的多维向量,并对所述token的多维向量和控制层进行自注意力处理,以实现对所述表达结果的预训练。
[0020]
在本技术的一种实现方式中,所述将所述若干个待答复闲聊数据和所述上下文输入至mmi层之后,所述方法还包括:
[0021]
根据所述训练数据的上下文生成所述训练数据对应的待答复闲聊数据,并计算对应的第一生成概率;
[0022]
基于预设mmi算法,分别对所述若干个待答复闲聊数据进行训练,以得到所述待答复闲聊数据对应的上下文;
[0023]
分别计算所述若干个待答复闲聊数据生成对应上下文的第二概率,并将所述第一生成概率与所述第二生成概率进行结合,以确定所述待答复闲聊数据对应的综合概率。
[0024]
在本技术的一种实现方式中,所述确定所述训练数据对应的目标闲聊答复数据,具体包括:
[0025]
按照所述若干个待答复闲聊数据对应的综合概率由大到小的顺序,对所述若干个待答复闲聊数据进行排序;
[0026]
确定所述若干个待答复闲聊数据中综合概率最大的待答复闲聊数据,为所述训练数据对应的目标闲聊答复数据。
[0027]
在本技术的一种实现方式中,所述方法还包括:
[0028]
在对所述训练数据进行预训练时,确定出所述训练数据的cls部分对应的瘾向量;
[0029]
将所述瘾向量输入至预设分类函数中,并通过所述预设分类函数对所述瘾向量进行分类,得到对应的分类结果;
[0030]
根据所述分类结果,确定出所述瘾向量对应训练数据的类型。
[0031]
另一方面,本技术实施例还提供了一种基于动态prompt生成闲聊答复的装置,所述装置包括:
[0032]
获取单元,用于确定出训练数据中的请求和上下文,并通过嵌入层对所述请求和上下文进行嵌入式表达,以获取对应的表达结果;
[0033]
调整单元,用于通过对prompt层的神经网络参数进行动态调整,得到对应的控制
层;
[0034]
输入单元,用于将所述请求对应的表达结果分别输入至gpt2层和所述控制层中,并将所述上下文对应的表达结果输入至所述gpt2层中;
[0035]
确定单元,用于确定出所述gpt2层生成的所述请求的表达结果对应的若干个待答复闲聊数据,并将所述若干个待答复闲聊数据和所述上下文输入至mmi层,以确定所述训练数据对应的目标闲聊答复数据。
[0036]
另一方面,本技术实施例还提供了一种基于动态prompt生成闲聊答复的设备,所述设备包括:
[0037]
至少一个处理器;
[0038]
以及,与所述至少一个处理器通信连接的存储器;
[0039]
其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上述的一种基于动态prompt生成闲聊答复的方法。
[0040]
另一方面,本技术实施例还提供了一种非易失性计算机存储介质,存储有计算机可执行指令,所述计算机可执行指令设置为:
[0041]
如上述的一种基于动态prompt生成闲聊答复的方法。
[0042]
本技术实施例提供了一种基于动态prompt生成闲聊答复的方法、装置、设备及介质,至少包括以下有益效果:
[0043]
通过动态调整prompt层的神经网络参数,得到对应的控制层;通过将训练数据中的请求输入至gpt2层中进而输入至控制层中,并将上下文输入至gpt2层,能够基于gpt2层生成请求对应的若干个待答复闲聊数据;通过将若干个待答复闲聊数据和上下文输入至mmi层,从若干个待答复闲聊数据中确定出符合上下文语法和语义连贯的目标闲聊答复数据,能够避免生成重复且无实际意义的语句。
附图说明
[0044]
此处所说明的附图用来提供对本技术的进一步理解,构成本技术的一部分,本技术的示意性实施例及其说明用于解释本技术,并不构成对本技术的不当限定。在附图中:
[0045]
图1为本技术实施例提供的一种基于动态prompt生成闲聊答复的方法的流程示意图;
[0046]
图2为本技术实施例提供的另一种基于动态prompt生成闲聊答复的方法的流程示意图;
[0047]
图3为本技术实施例提供的一种基于动态prompt生成闲聊答复的装置的结构示意图;
[0048]
图4为本技术实施例提供的一种基于动态prompt生成闲聊答复的设备的内部结构示意图。
具体实施方式
[0049]
为使本技术的目的、技术方案和优点更加清楚,下面将结合本技术具体实施例及相应的附图对本技术技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本技术一
部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
[0050]
nlp发展可以分为四个阶段,第一个阶段就是基于统计的模型,例如n-gram模型,第二阶段基于神经网络的模型,第三阶段基于预训练-微调的模式,第四阶段基于prompt。
[0051]
目前,闲聊常用的模型有继续搜索,例如elasticsearch框架。这种我们需要存储大量语料到数据库中,然后通过语法信息和语义信息进行候选答案的获取,找到相似的问题,并把相应的答案进行返回。另一种就是通过生成方式,例如自回归的神经网络模型gpt,用户通过预训练好的gpt模型,然后在目标任务上进行微调。
[0052]
但是,这种fine-tune模式存在以下弊端:普遍预训练任务和下游任务是两个不同的任务,例如mask语言模型,我们在预训练过程,是mask部分单词,然后预测mask的单词,而这种预训练模型如果在分类任务上进行微调,用户只是把隐藏层的输出接入到分类器,然后进行微调,会导致训练目的不统一的问题。
[0053]
现有技术利用prompt技术能够解决fine-tune模式下的弊端,通过为每个子任务设计一个prompt提示,例如我们有个情感分析分类任务,判断一句话是积极还是悲观一面,我们可以这么做,“今天天气很不错啊,我的心情很[mask]”,我的心情很[mask]这个就是一个prompt。mask位置我们预测出两类,分别是“好”、“坏”。
[0054]
但是,现有的prompt对于生成式闲聊来说还不够精细。现有的prompt针对不同的query,每次prompt提示都是相同的,无法满足对话生成任务对语义和语法连贯、且不乏味的要求。
[0055]
本技术实施例提供了一种基于动态prompt生成闲聊答复的方法、装置、设备及介质,通过动态调整prompt层的神经网络参数,得到对应的控制层;通过将训练数据中的请求输入至gpt2层中进而输入至控制层中,并将上下文输入至gpt2层,能够基于gpt2层生成请求对应的若干个待答复闲聊数据;通过将若干个待答复闲聊数据和上下文输入至mmi层,从若干个待答复闲聊数据中确定出符合上下文语法和语义连贯的目标闲聊答复数据,能够避免生成重复且无实际意义的语句。解决了现有技术中的prompt针对不同的query,每次prompt提示都是相同的,无法满足对话生成任务对语义和语法连贯、且不乏味的要求的技术问题。
[0056]
图1为本技术实施例提供的一种基于动态prompt生成闲聊答复的方法的流程示意图。如图1所示,本技术实施例提供的一种基于动态prompt生成闲聊答复的方法可以主要包括以下步骤:
[0057]
101、确定出训练数据中的请求和上下文,并通过嵌入层对请求和上下文进行嵌入式表达,以获取对应的表达结果。
[0058]
服务器在基于动态prompt、gpt2、mmi模型实现一种自回归的生成式闲聊算法时,首先需要确定出训练数据中的请求query和上下文context,然后将确定出来的请求query和上下文context分别输入至嵌入层,通过嵌入层对请求query和上下文context进行嵌入式表达,从而分别获取到请求query和上下文context对应的表达结果。
[0059]
102、通过对prompt层的神经网络参数进行动态调整,得到对应的控制层。
[0060]
服务器通过对prompt层的神经网络参数,即特征提取器多头自注意力层transformer encoder中的参数进行动态调整,能够得到调整后对应的控制层。
[0061]
103、将请求对应的表达结果分别输入至gpt2层和控制层中,并将上下文对应的表达结果输入至gpt2层中。
[0062]
服务器将获取到的请求query对应的表达结果分别输入至gpt2层和控制层controller中,并且,还要把上下文context对应的表达结果输入至gpt2层中,以便于gpt2层根据输入进来的请求query对应的表达结果和上下文context对应的表达结果进行后续操作。
[0063]
在本技术的一个实施例中,服务器在将请求对应的表达结果分别输入至gpt2层和控制层中,并将上下文对应的表达结果输入至gpt2层中之前,通过控制层对请求query对应的表达结果和上下文context对应的表达结果进行预训练,从而预测出请求query对应的表达结果和上下文context对应的表达结果中被覆盖的词语,并预测出query对应的表达结果和上下文context对应的表达结果是否相邻,从而能够完成对表达结果的预训练。
[0064]
具体地,服务器在通过控制层对请求query对应的表达结果和上下文context对应的表达结果进行预训练时,首先是通过控制层中的多头自注意力层,对请求query对应的表达结果进行分词,并为分词后的请求query的表达结果编码对应的token,然后通过嵌入层获取token的多维向量,并对token的多维向量和控制层进行自注意力处理,从而实现对表达结果的预训练。
[0065]
在本技术的一个实施例中,服务器在预测出表达结果中被覆盖的词语,并预测出请求对应的表达结果和上下文对应的表达结果是否相邻,以完成对表达结果的预训练之后,基于动态prompt将表达结果中的所有下游任务均转换为对应的预训练任务。需要说明的是,本技术实施例中的下游任务例如情感分析任务。服务器基于对应的预训练任务预测出表达结果中被覆盖的词语,然后针对不同的训练数据,分别生成训练数据对应的动态prompt,从而能够通过动态prompt为对应的训练数据进行提示。服务器把情感分析任务转变为预测mask掉的词,例如[cls]今天天气不错[sep]我的心情很[mask][sep],[mask]位置呢,我们可以用好和坏,这样就解决了微调任务和预训练任务之间的目标差异性。动态prompt例如“我的心情很“这就是一个prompt,prompt具有提示的意思,prompt情感分析任务的每个样本都是固定的,需要针对用户不同的问题,生成不同的提示。
[0066]
在本技术的一个实施例中,服务器在对训练数据进行预训练时,需要确定出训练数据的cls部分对应的瘾向量,然后将确定出的瘾向量输入至预设分类函数中,并通过预设分类函数对瘾向量进行分类,得到对应的分类结果,从而能够根据得到的分类结果,确定出瘾向量对应训练数据的类型。
[0067]
此时,情感分析任务和预训练任务是有差异的,所以预训练任务训练出来的参数,还是不能无缝的融合到请感分析任务,所以需要大量的请感分析数据进行微调参数。
[0068]
104、确定出gpt2层生成的请求的表达结果对应的若干个待答复闲聊数据,并将若干个待答复闲聊数据和上下文输入至mmi层,以确定训练数据对应的目标闲聊答复数据。
[0069]
服务器能够确定出gpt2层针对请求query对应的表达结果,生成的若干个待答复闲聊数据,进而将gpt2层生成的若干个待答复闲聊数据以及gpt2层中输入的上下文context共同输入至mmi层中,从而通过mmi层对若干个待答复闲聊数据和上下文context进行处理,以便于确定出训练数据对应的目标闲聊答复数据,实现基于动态prompt自动生成闲聊答复的功能。
[0070]
在本技术的一个实施例中,服务器在将若干个待答复闲聊数据和上下文输入至mmi层之后,根据训练数据的上下文context生成训练数据对应的待答复闲聊数据,并计算出由上下文context生成待答复闲聊数据对应的第一生成概率。同时,服务器还基于预设mmi算法,分别对若干个待答复闲聊数据进行训练,从而能够得到待答复闲聊数据对应的上下文,然后分别计算出每个待答复闲聊数据生成对应上下文context对应的的第二概率,从而将第一生成概率与第二生成概率进行结合,以便于确定出待答复闲聊数据对应的综合概率。
[0071]
在本技术的一个实施例中,服务器在确定训练数据对应的目标闲聊答复数据时,按照若干个待答复闲聊数据对应的综合概率由大到小的顺序,对若干个待答复闲聊数据进行排序,然后从排序后的队列中,确定出若干个待答复闲聊数据中综合概率最大的待答复闲聊数据,将其作为训练数据对应的目标闲聊答复数据。
[0072]
图2为本技术实施例提供的另一种基于动态prompt生成闲聊答复的方法的流程示意图。如图2所示,服务器将训练数据中的请求query和上下文context分别输入至嵌入层embedding中,通过嵌入层对请求query和上下文context进行嵌入式表达,从而分别获取到请求query和上下文context对应的表达结果。然后将请求query对应的表达结果分别输入至gpt2层和控制层controller中,并将上下文context对应的表达结果输入至gpt2层中,由gpt2层生成请求对应的若干个待答复闲聊数据,然后将若干个待答复闲聊数据输入至mmi层,确定出目标闲聊答复。
[0073]
需要说明的是,图2所示的方法与图1所示的方法本质相同,因此,图2中未详述的部分,具体可参照图1中的相关描述,本技术在此不再赘述。
[0074]
以上为本技术提出的方法实施例。基于同样的发明构思,本技术实施例还提供了一种基于动态prompt生成闲聊答复的装置,其结构如图3所示。
[0075]
图3为本技术实施例提供的一种基于动态prompt生成闲聊答复的装置的结构示意图。如图3所示,装置包括:
[0076]
获取单元,用于确定出训练数据中的请求和上下文,并通过嵌入层对请求和上下文进行嵌入式表达,以获取对应的表达结果;
[0077]
调整单元,用于通过对prompt层的神经网络参数进行动态调整,得到对应的控制层;
[0078]
输入单元,用于将请求对应的表达结果分别输入至gpt2层和控制层中,并将上下文对应的表达结果输入至gpt2层中;
[0079]
确定单元,用于确定出gpt2层生成的请求的表达结果对应的若干个待答复闲聊数据,并将若干个待答复闲聊数据和上下文输入至mmi层,以确定训练数据对应的目标闲聊答复数据。
[0080]
图4为本技术实施例提供的一种基于动态prompt生成闲聊答复的设备的内部结构示意图。如图4所示,设备包括:
[0081]
至少一个处理器;
[0082]
以及,与至少一个处理器通信连接的存储器;
[0083]
其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够:
[0084]
确定出训练数据中的请求和上下文,并通过嵌入层对请求和上下文进行嵌入式表达,以获取对应的表达结果;
[0085]
通过对prompt层的神经网络参数进行动态调整,得到对应的控制层;
[0086]
将请求对应的表达结果分别输入至gpt2层和控制层中,并将上下文对应的表达结果输入至gpt2层中;
[0087]
确定出gpt2层生成的请求的表达结果对应的若干个待答复闲聊数据,并将若干个待答复闲聊数据和上下文输入至mmi层,以确定训练数据对应的目标闲聊答复数据。
[0088]
本技术实施例还提供了一种非易失性计算机存储介质,存储有计算机可执行指令,计算机可执行指令设置为:
[0089]
确定出训练数据中的请求和上下文,并通过嵌入层对请求和上下文进行嵌入式表达,以获取对应的表达结果;
[0090]
通过对prompt层的神经网络参数进行动态调整,得到对应的控制层;
[0091]
将请求对应的表达结果分别输入至gpt2层和控制层中,并将上下文对应的表达结果输入至gpt2层中;
[0092]
确定出gpt2层生成的请求的表达结果对应的若干个待答复闲聊数据,并将若干个待答复闲聊数据和上下文输入至mmi层,以确定训练数据对应的目标闲聊答复数据。
[0093]
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(programmable logic device,pld)(例如现场可编程门阵列(field programmable gate array,fpga))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片pld上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(hardware description language,hdl),而hdl也并非仅有一种,而是有许多种,如abel(advanced boolean expression language)、ahdl(altera hardware description language)、confluence、cupl(cornell university programming language)、hdcal、jhdl(java hardware description language)、lava、lola、myhdl、palasm、rhdl(ruby hardware description language)等,目前最普遍使用的是vhdl(very-high-speed integrated circuit hardware description language)与verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
[0094]
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(application specific integrated circuit,asic)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制
器:arc 625d、atmel at91sam、microchip pic18f26k20以及silicone labs c8051f320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
[0095]
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
[0096]
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
[0097]
本领域内的技术人员应明白,本说明书实施例可提供为方法、系统、或计算机程序产品。因此,本说明书实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0098]
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0099]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0100]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0101]
在一个典型的配置中,计算设备包括一个或多个处理器(cpu)、输入/输出接口、网络接口和内存。
[0102]
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flash ram)。内存是计算机可读介质的示例。
[0103]
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(cd-rom)、数字多功能光盘(dvd)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
[0104]
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
[0105]
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
[0106]
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、设备、非易失性计算机存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
[0107]
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
[0108]
以上所述仅为本说明书的一个或多个实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书的一个或多个实施例可以有各种更改和变化。凡在本说明书的一个或多个实施例的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献