一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

神经机器翻译方法及其模型的训练方法、装置及电子设备与流程

2022-02-20 04:47:37 来源:中国专利 TAG:


1.本公开涉及机器翻译技术领域,更具体地,涉及一种神经机器翻译模型的训练方法、一种神经机器翻译方法、一种神经机器翻译模型的训练装置、一种神经机器翻译装置以及一种电子设备。


背景技术:

2.神经机器翻译(neural machine translation,nmt)是基于神经网络技术实现上下文精确翻译的方法。常用的神经机器翻译方法,通常基于编码器和解码器实现。编码器将源语言的句子编码为一组隐层状态表示,解码器通过注意力网络获取编码器生成的隐层状态表示,从而逐词生成目标句子。但由于现有的神经机器翻译的性能限制,翻译结果往往含有很多的错误,译文质量较差。因此,有必要提出一种新的神经机器翻译方法。


技术实现要素:

3.本公开实施例的一个目的是提供一种用于神经机器翻译模型的训练的新的技术方案。
4.根据本公开的第一方面,提供了一种一种神经机器翻译模型的训练方法,所述方法包括:
5.从翻译记忆库中获取与平行语料库中每个源端句子相似度最高的翻译记忆库句对;
6.将源语言句对和翻译记忆库句对作为训练样本集训练预设初始模型,直至所述预设初始模型的翻译记忆库源端编码器层第一参数收敛,所述预设初始模型的翻译记忆库目标端编码器层的第二参数收敛,以及所述预设初始模型的包含翻译记忆库信息的解码器层的第三参数收敛,得到神经机器翻译模型;
7.其中,所述源端句对包括源端句子和对应的目标端句子,所述翻译记忆库句对包括翻译记忆库源端句子和对应的翻译记忆库目标端句子。
8.可选地,其中,所述从翻译记忆库中获取与平行语料库中每个源端句子相似度最高的翻译记忆库句对,包括:
9.计算所述源端句子与所述翻译记忆库中每一翻译记忆库源端句子的相似度;
10.对所述相似度从大到小进行排序,将所述相似度最大的翻译记忆库源端句子及其对应的目标端句子,确定为与所述源端句子相似度最高的翻译记忆库句对。
11.可选地,其中,所述计算所述源端句子与所述翻译记忆库中每一翻译记忆库源端句子的相似度,包括:
12.计算所述源端句子与所述翻译记忆库中每一翻译记忆库源端句子的编辑距离,作为所述相似度。
13.可选地,其中,所述将源语言句对和翻译记忆库句对作为训练样本集训练预设初始模型,直至所述预设初始模型的翻译记忆库源端编码器层第一参数收敛,所述预设初始
模型的翻译记忆库目标端编码器层的第二参数收敛,以及所述预设初始模型的包含翻译记忆库信息的解码器层的第三参数收敛,包括:
14.基于所述预设初始模型对所述训练样本集中的每个样本进行翻译,得到翻译结果;
15.将所述翻译结果代入预设损失函数进行计算,得到每个样本的损失;
16.基于所述损失对所述第一参数、第二参数和第三参数进行更新,直至所述第一参数、第二参数和第三参数收敛。
17.可选地,其中,所述基于所述损失对所述第一参数、第二参数和第三参数进行更新,直至所述第一参数、第二参数和第三参数收敛,包括:
18.基于所述损失和预设的反向传播算法,分别计算所述第一参数的第一导数,第二参数的第二导数和第三参数的第三导数;
19.基于所述第一导数和梯度下降算法对所述第一参数进行更新,基于所述第二导数和梯度下降算法对所述第二参数进行更新,并基于所述第三导数和梯度下降算法对所述第三参数进行更新;
20.基于所述训练样本集中多个样本的损失对所述第一参数、第二参数和第三参数进行多次更新,直到收敛,得到所述神经机器翻译模型。
21.根据本公开的第二方面,提供了一种神经机器翻译方法,所述方法包括:
22.获取待翻译源端句子;
23.将所述待翻译源端句子输入神经机器翻译模型中,输出目标端句子作为翻译结果;其中,所述神经机器翻译模型根据如本公开的第一方面中任一项所述的神经机器翻译模型的训练方法训练得到的。
24.根据本公开的第三方面,提供了一种神经机器翻译模型的训练装置,所述装置包括:
25.获取模块,用于从翻译记忆库中获取与平行语料库中每个源端句子相似度最高的翻译记忆库句对;
26.训练模块,用于将源语言句对和翻译记忆库句对作为训练样本集训练预设初始模型,直至所述预设初始模型的翻译记忆库源端编码器层第一参数收敛,所述预设初始模型的翻译记忆库目标端编码器层的第二参数收敛,以及所述预设初始模型的包含翻译记忆库信息的解码器层的第三参数收敛,得到神经机器翻译模型;其中,所述源端句对包括源端句子和对应的目标端句子,所述翻译记忆库句对包括翻译记忆库源端句子和对应的翻译记忆库目标端句子。
27.根据本公开的第四方面,提供了一种神经机器翻译装置,所述装置包括:
28.获取模块,用于获取待翻译源端句子;
29.翻译模块,用于将所述待翻译源端句子输入神经机器翻译模型中,输出目标端句子作为翻译结果;其中,所述神经机器翻译模型根据如本公开的第一方面中任一项所述的神经机器翻译模型的训练方法训练得到的。
30.根据本公开实施例的第五方面,还提供一种电子设备,包括处理器和存储器;所述存储器存储有能够被所述处理器执行的机器可执行指令;所述处理器执行所述机器可执行指令以实现本公开实施例第一方面中任一项所述的神经机器翻译模型的训练方法。
31.根据本公开实施例的第六方面,还提供一种电子设备,包括处理器和存储器;所述存储器存储有能够被所述处理器执行的机器可执行指令;所述处理器执行所述机器可执行指令以实现本公开实施例第二方面中所述的神经机器翻译方法。
32.根据本公开的一个实施例,可以提升神经机器翻译结果的准确率,提高译文质量。
33.通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。
附图说明
34.被结合在说明书中并构成说明书的一部分的附图示出了本公开的实施例,并且连同其说明一起用于解释本公开的原理。
35.图1为可以应用根据本公开实施例的神经机器翻译模型的训练方法的电子设备的组成结构示意图;
36.图2是根据本公开实施例的神经机器翻译模型的训练方法的流程示意图;
37.图3是根据本公开实施例的编码器结构示意图;
38.图4是根据本公开实施例的解码器结构示意图;
39.图5是根据本公开实施例的神经机器翻译模型的训练装置的结构示意图;
40.图6根据本公开第一实施例的电子设备的原理框图;
41.图7是根据本公开实施例的神经机器翻译方法的流程示意图;
42.图8是根据本公开实施例的神经机器翻译装置的结构示意图;
43.图9根据本公开第二实施例的电子设备的原理框图。
具体实施方式
44.现在将参照附图来详细描述本公开的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
45.以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
46.对于相关领域普通技术人物已知的技术、方法和设备可能不作详细讨论,但在适当情况下,该技术、方法和设备应当被视为说明书的一部分。
47.在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
48.应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
49.《硬件配置》
50.目前的神经机器翻译系统可以根据输入的句子s,生成意思相同的其他语种的句子t'。但由于神经机器翻译系统的性能限制,产生的译文结果中往往含有很多错误。
51.翻译记忆库中可以存储双语互译句对(sm,tm),其中的双语互译句对可以是人工翻译的,也可以是通过其他途径收集而来的。如果翻译记忆库中存在和句子s很相似的句子
以及其译文则可以利用这个句对信息来帮助神经极其翻译系统翻译句子s,但如何将翻译记忆库中的句对融入到神经机器翻译系统中,从而为句子s生成质量更好的译文成为亟待解决的问题。基于此,本公开提出了一种利用翻译记忆库来提升神经机器翻译系统的译文质量的方法,该方法可以用在多种神经机器翻译结构中,包括但不限于卷积神经网络、循环神经网络和自注意力网络等。
52.图1为可以应用根据本公开实施例的神经机器翻译模型的训练方法的电子设备的组成结构示意图。
53.如图1所示,本实施例的电子设备1000可以包括处理器1010、存储器1020、接口装置1030、通信装置1040、显示装置1050、输入装置1060、扬声器1070、麦克风1080,等等。
54.其中,处理器1010可以是中央处理器cpu、微处理器mcu等。存储器1020例如包括rom(只读存储器)、ram(随机存取存储器)、诸如硬盘的非易失性存储器等。接口装置1030例如包括usb接口、耳机接口等。通信装置1040例如能够进行有线或无线通信。显示装置1050例如是液晶显示屏、触摸显示屏等。输入装置1060例如可以包括触摸屏、键盘等。
55.电子设备1000可以通过扬声器1070输出音频信息。电子设备1000可以通过麦克风1080拾取用户输入的语音信息。
56.电子设备1000可以是便携式电脑、台式计算机等设备。
57.本实施例中,电子设备1000可以从翻译记忆库中获取与平行语料库中每个源端句子相似度最高的翻译记忆库句对;将源语言句对和翻译记忆库句对作为训练样本集训练预设初始模型,直至预设初始模型的翻译记忆库源端编码器层第一参数收敛,预设初始模型的翻译记忆库目标端编码器层的第二参数收敛,以及预设初始模型的包含翻译记忆库信息的解码器层的第三参数收敛,得到神经机器翻译模型;其中,源端句对包括源端句子和对应的目标端句子,翻译记忆库句对包括翻译记忆库源端句子和对应的翻译记忆库目标端句子。
58.在本实施例中,电子设备1000的存储器1020用于存储指令,该指令用于控制该处理器1010进行操作以支持实现根据本说明书任意实施例的神经机器翻译模型的训练方法。
59.本领域技术人员应当理解,尽管在图1中示出了电子设备1000的多个装置,但是,本说明书实施例的电子设备1000可以仅涉及其中的部分装置,例如,只涉及处理器1010、存储器1020、显示装置1050、输入装置1060等。
60.技术人员可以根据本公开所公开方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。
61.《第一实施例》
62.《方法》
63.本实施例提供了一种神经机器翻译模型的训练方法,该方法例如可以由电子设备实施,该电子设备可以是如图1所示的电子设备1000。
64.如图2所示,该方法包括以下步骤2100和步骤2200:
65.步骤2100,从翻译记忆库中获取与平行语料库中每个源端句子相似度最高的翻译记忆库句对。
66.其中,平行语料库是指将源端文本及其译语文本进行检索并对照显示的语料库,
在本实施例中,以(s,t)表示平行句对,(si,ti)用于表示平行语料库中第i条句对,其中,以si表示平行语料库中第i条句对的源端句子,以ti表示其目标端句子,ti是si的译文。翻译记忆库中存储的是双语互译句对(sm,tm),该双语互译句对(sm,tm)可以是人工翻译的,也可以是通过其他途径收集而来的互译的句对。用于表示翻译记忆库中第i条句对。在本实施例中,以表示翻译记忆库中第i条句对的源端句子,以表示其目标端句子,是的译文。
67.在本步骤中,该电子设备1000在获取相似度最高的翻译记忆库句对时,具体可以计算该源端句子与该翻译记忆库中每一翻译记忆库源端句子的相似度;并对该相似度从大到小进行排序,将该相似度最大的翻译记忆库源端句子及其对应的目标端句子,确定为与该源端句子相似度最高的翻译记忆库句对。
68.例如,给予平行句对(si,ti),我们对翻译记忆库(sm,tm)里的每一句对都计算si和的相似度ei。计算之后对ei进行排序,选取ei最高的句对作为(si,ti)的相似句子,组成训练样本集
69.示例性的,在计算相似度时,可以计算si和的编辑距离作为该相似度。
70.步骤2200,将源语言句对和翻译记忆库句对作为训练样本集训练预设初始模型,直至该预设初始模型的翻译记忆库源端编码器层第一参数收敛,该预设初始模型的翻译记忆库目标端编码器层的第二参数收敛,以及该预设初始模型的包含翻译记忆库信息的解码器层的第三参数收敛,得到神经机器翻译模型。
71.其中,该源端句对包括源端句子si和对应的目标端句子ti,该翻译记忆库句对包括翻译记忆库源端句子和对应的翻译记忆库目标端句子
72.在本实施例中,为了将句对引入到神经机器翻译模型中,在传统的编码器基础上,新加了两层编码器,分别以和作为输入。如图3所示,在编码时,先利用自注意力网络(self-attention)编码检索出来的句子然后将同样利用自注意力网络编码后的源端句子si的源端上下文表示s-context与编码后的进行跨越注意力网络(cross attention)编码,得到的源端上下文表示sm-context。
73.同样的,对于翻译记忆库目标端句子先利用自注意力网络编码然后将和的源端上下文表示sm-context经由跨越注意力网络编码,得到的目标端上下文表示tm-context。
74.同时,本实施例中,在传统的6层解码器的基础上,新增加一层解码器,如图4所示,在本实施例中,将新的这一层解码器命名为包含翻译记忆库信息的解码器层,其有三个输入,分别是原来的6层解码器的输出tm,源端句子si的源端上下文表示s-context,以及翻译记忆库目标端句子的目标端上下文表示tm-context。利用这三个信息共同来预测译文ti。
75.在训练该预设初始模型时,我们可以先训练传统的神经机器翻译模型翻译模型作为基准系统,训练好基准系统后,利用其参数来初始化本实施例的预设初始模型的参数,即,该预设初始模型的翻译记忆库源端编码器层第一参数,该预设初始模型的翻译记忆库目标端编码器层的第二参数,以及该预设初始模型的包含翻译记忆库信息的解码器层的第三参数。
76.具体的,在训练时,该电子设备1000可以基于该预设初始模型对该训练样本集中的每个样本进行翻译,得到翻译结果;将该翻译结果代入预设损失函数进行计算,得到每个样本的损失;基于该损失对该第一参数、第二参数和第三参数进行更新,直至该第一参数、第二参数和第三参数收敛。
77.其中,该基于该损失对该第一参数、第二参数和第三参数进行更新,直至该第一参数、第二参数和第三参数收敛的步骤,具体可以为:基于该损失和预设的反向传播算法,分别计算该第一参数的第一导数,第二参数的第二导数和第三参数的第三导数;基于该第一导数和梯度下降算法对该第一参数进行更新,基于该第二导数和梯度下降算法对该第二参数进行更新,并基于该第三导数和梯度下降算法对该第三参数进行更新;基于该训练样本集中多个样本的损失对该第一参数、第二参数和第三参数进行多次更新,直到收敛,得到该神经机器翻译模型。
78.例如,该电子设备1000基于损失l和预设的反向传播算法计算该第一参数w1的第一导数计算该第二参数w2的第二导数以及第三参数w3的第三导数然后基于第一导数和随机梯度下降算法对第一参数进行更新,基于第二导数和该随机梯度下降算法对第二参数进行更新,并基于第三导数和该随机梯度下降算法对第三参数进行更新。
79.最后,该电子设备1000可以基于该训练样本集中多个样本的损失对该第一参数、第二参数和第三参数进行多次更新,直到收敛,得到该神经机器翻译模型。
80.以上已结合附图和例子对本实施例的神经机器翻译模型的训练方法进行了说明。本实施例的方法通过从翻译记忆库中获取与平行语料库中每个源端句子相似度最高的翻译记忆库句对;将源语言句对和翻译记忆库句对作为训练样本集训练预设初始模型,直至预设初始模型的翻译记忆库源端编码器层第一参数收敛,预设初始模型的翻译记忆库目标端编码器层的第二参数收敛,以及预设初始模型的包含翻译记忆库信息的解码器层的第三参数收敛,得到神经机器翻译模型;其中,源端句对包括源端句子和对应的目标端句子,翻译记忆库句对包括翻译记忆库源端句子和对应的翻译记忆库目标端句子。根据本实施例的方法通过利用翻译记忆库中存在的和源端句子si很相似翻译记忆库中的句对来帮助神经极其翻译模型翻译源端句子si,从而可以提升神经机器翻译结果的准确率,提高译文质量。
81.《装置》
82.本实施例提供一种神经机器翻译模型的训练装置,该装置例如是图5所示的神经机器翻译模型的训练装置5000。
83.如图5所示,该神经机器翻译模型的训练装置5000可以包括获取模块5100,训练模块5200。
84.其中,获取模块5100用于从翻译记忆库中获取与平行语料库中每个源端句子相似度最高的翻译记忆库句对。
85.训练模块5200用于将源语言句对和翻译记忆库句对作为训练样本集训练预设初始模型,直至该预设初始模型的翻译记忆库源端编码器层第一参数收敛,该预设初始模型的翻译记忆库目标端编码器层的第二参数收敛,以及该预设初始模型的包含翻译记忆库信息的解码器层的第三参数收敛,得到神经机器翻译模型;其中,该源端句对包括源端句子和对应的目标端句子,该翻译记忆库句对包括翻译记忆库源端句子和对应的翻译记忆库目标端句子。
86.具体的,获取模块5100用于计算该源端句子与该翻译记忆库中每一翻译记忆库源端句子的相似度;对该相似度从大到小进行排序,将该相似度最大的翻译记忆库源端句子及其对应的目标端句子,确定为与该源端句子相似度最高的翻译记忆库句对。
87.在一个例子中,该获取模块5100可以计算该源端句子与该翻译记忆库中每一翻译记忆库源端句子的编辑距离,作为该相似度。
88.具体的,训练模块5200用于基于该预设初始模型对该训练样本集中的每个样本进行翻译,得到翻译结果;将该翻译结果代入预设损失函数进行计算,得到每个样本的损失;基于该损失对该第一参数、第二参数和第三参数进行更新,直至该第一参数、第二参数和第三参数收敛。
89.其中,训练模块5200在基于该损失对该第一参数、第二参数和第三参数进行更新,直至该第一参数、第二参数和第三参数收敛时,具体可以基于该损失和预设的反向传播算法,分别计算该第一参数的第一导数,第二参数的第二导数和第三参数的第三导数;基于该第一导数和梯度下降算法对该第一参数进行更新,基于该第二导数和梯度下降算法对该第二参数进行更新,并基于该第三导数和梯度下降算法对该第三参数进行更新;基于该训练样本集中多个样本的损失对该第一参数、第二参数和第三参数进行多次更新,直到收敛,得到该神经机器翻译模型。
90.本实施例的神经机器翻译模型的训练装置,可用于执行本实施例的方法技术方案,其实现原理和技术效果类似,此处不再赘述。
91.《设备》
92.本实施例中,还提供一种电子设备,该电子设备包括本公开装置实施例中描述的神经机器翻译模型的训练装置5000;或者,该电子设备为图6所示的电子设备6000,包括处理器6200和存储器6100。
93.存储器6100存储有能够被该处理器执行的机器可执行指令;处理器6200,执行该机器可执行指令以实现如本实施例中任一项该的神经机器翻译模型的训练方法。
94.《计算机可读存储介质实施例》
95.本实施例提供一种计算机可读存储介质,该存储介质中存储有可执行命令,该可执行命令被处理器执行时,执行本公开任意方法实施例中描述的方法。
96.《第二实施例》
97.《方法》
98.本实施例提供了一种神经机器翻译方法,该方法通过应用上述实施例训练得到的神经机器翻译模型对待翻译源端句子进行翻译。
99.具体的,如图7所示,该方法包括以下步骤7100~步骤7200:
100.步骤7100,获取待翻译源端句子。
101.其中,该待翻译源端句子例如可以是某一种语言,如中文、英文或日文。
102.步骤7200,将该待翻译源端句子输入神经机器翻译模型中,输出目标端句子作为翻译结果。
103.其中,该神经机器翻译模型是从翻译记忆库中获取与平行语料库中每个源端句子相似度最高的翻译记忆库句对;并将源语言句对和翻译记忆库句对作为训练样本集训练预设初始模型,直至预设初始模型的翻译记忆库源端编码器层第一参数收敛,预设初始模型的翻译记忆库目标端编码器层的第二参数收敛,以及预设初始模型的包含翻译记忆库信息的解码器层的第三参数收敛后得到的。其中,源端句对包括源端句子和对应的目标端句子,翻译记忆库句对包括翻译记忆库源端句子和对应的翻译记忆库目标端句子。具体的训练过程可参照上述第一实施例中该,在此不再赘述。
104.本实施例的神经机器翻译方法,通过利用翻译记忆库中存在的和源端句子si很相似翻译记忆库中的句对来帮助神经极其翻译模型翻译源端句子si,从而可以提升神经机器翻译结果的准确率,提高了译文质量。
105.《装置》
106.本实施例提供一种神经机器翻译装置,该装置例如是图8所示的神经机器翻译装置8000。
107.如图8所示,该神经机器翻译装置8000可以包括获取模块8100和翻译模块8200。
108.其中,获取模块8100,用于获取待翻译源端句子。
109.翻译模块8200,用于将该待翻译源端句子输入神经机器翻译模型中,输出目标端句子作为翻译结果;其中,该神经机器翻译模型根据如上述第一实施例中该的神经机器翻译模型的训练方法训练得到的。
110.本实施例的神经机器翻译装置,可用于执行本实施例的方法技术方案,其实现原理和技术效果类似,此处不再赘述。
111.《设备》
112.本实施例中,还提供一种电子设备,该电子设备包括本公开装置实施例中描述的神经机器翻译装置8000;或者,该电子设备为图9所示的电子设备9000,包括处理器9200和存储器9100:
113.存储器9100存储有能够被该处理器执行的机器可执行指令;处理器9200,执行该机器可执行指令以实现如本实施例中任一项该的神经机器翻译方法。
114.《计算机可读存储介质实施例》
115.本实施例提供一种计算机可读存储介质,该存储介质中存储有可执行命令,该可执行命令被处理器执行时,执行本公开任意方法实施例中描述的方法。
116.本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
117.计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、静态随机存取存储器(sram)、便携式压缩盘只读存储器(cd-rom)、数字多功能盘(dvd)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
118.这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
119.用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(isa)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,编程语言包括面向对象的编程语言—诸如smalltalk、c 等,以及常规的过程式编程语言—诸如“c”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(fpga)或可编程逻辑阵列(pla),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
120.这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
121.这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
122.也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
123.附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人物来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
124.以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人物来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人物能理解本文披露的各实施例。本公开的范围由所附权利要求来限定。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献