一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于差分隐私置乱模型的联邦协同蒸馏方法及系统

2022-11-14 00:27:50 来源:中国专利 TAG:


1.本发明涉及数据隐私保护技术领域,特别涉及一种基于差分隐私置乱模型的联邦协同蒸馏方法、系统、电子设备及存储介质。


背景技术:

2.联邦学习是一种新的分布式机器学习范式,它的出现突破了由于数据安全、行业竞争和用户隐私等形成的数据孤岛。联邦学习可以通过只传输模型参数的方式来整合分布式数据并用于训练机器学习模型。虽然只传输模型参数不会直接泄露本地数据隐私,但是已有研究表明:攻击者可以通过模型参数(甚至模型梯度)恢复出该模型的训练数据。由此可见,联邦学习需要额外的隐私保护技术来增强保护能力。
3.然而,在现有技术中,经典的联邦学习方法被称为联邦平均,其通过上传模型参数或者更新实现信息交流,但这样会引入极大的通信开销。并且,由于各参与方所拥有的数据具有异质性(通常是非独立同分布的),经典的联邦平均方法在异质数据下性能会大打折扣。联邦平均的另一个缺陷是:当参与训练的客户端算力不一致时,客户端无法根据自身情况选择符合算力的机器学习模型进行训练,从而导致方法的普适性降低。


技术实现要素:

4.鉴于上述问题,本发明提供了一种基于差分隐私置乱模型的联邦协同蒸馏方法、系统、电子设备及存储介质,以期能够解决上述问题之一。
5.根据本发明的第一方面,提供了一种基于差分隐私置乱模型的联邦协同蒸馏方法,包括:联邦服务器通过无放回子采样方法对m个客户端进行随机采样,得到n个参与联邦训练的客户端,其中,m和n均为正整数,n《m;联邦服务器生成密钥和公共无标签数据集,并将密钥和公共无标签数据集发送到n个参与联邦训练的客户端;每个参与联邦训练的客户端利用自身的本地数据集对自身的本地分类器进行训练,得到n个训练完成的本地分类器;每个训练完成的本地分类器对公共无标签数据集进行预测,得到预测结果,并将预测结果进行加密后上传到混淆器中;混淆器利用shuffle方法对来自n个参与联邦训练的客户端的预测结果进行匿名和乱序处理,并将得到的n个处理结果上传到联邦服务器中,其中,shuffle方法用于实现隐私放大;联邦服务器将n个处理结果进行解密和聚合处理,得到软标签,并将软标签传输到下一轮参与联邦训练的客户端中,其中,软标签作为公共无标签数据集的标签。
6.根据本发明实施例,上述联邦服务器生成密钥和公共无标签数据集,并将密钥和公共无标签数据集发送到n个参与联邦训练的客户端包括:
联邦服务器对联邦训练的轮次进行判断,得到判断结果;联邦服务器生成密钥和公共无标签数据集;联邦服务器对公共无标签数据集进行聚类处理,得到聚类后的无标签数据集;在判断结果是首轮联邦训练的情况下,通过联邦服务器将密钥和聚类后的无标签数据集发送到n个参与联邦训练的客户端中;在判断结果不是首轮联邦训练的情况下,联邦服务器将上一轮联邦训练的软标签、密钥以及聚类后的无标签数据集发送n个参与联邦训练的客户端中。
7.根据本发明实施例,上述联邦服务器对公共无标签数据集进行聚类处理,得到聚类后的无标签数据集包括:联邦服务器利用卷积神经网络对公共无标签数据集进行特征提取,得到提取结果;联邦服务器利用k平均聚类方法对提取结果进行聚类,得到聚类后的无标签数据集;其中,聚类后的无标签数据集与参与联邦训练的客户端的本地数据集具有相同的数据类型。
8.根据本发明实施例,上述每个参与联邦训练的客户端利用自身的本地数据集对自身的本地分类器进行训练,得到n个训练完成的本地分类器包括:参与联邦训练的客户端通过联邦服务器获取联邦训练的轮次信息;在轮次信息是首轮联邦训练的情况下,参与联邦训练的客户端将自身的本地数据集作为训练数据集,并用于对自身的本地分类器进行训练,得到训练完成的本地分类器;在轮次信息不是首轮联邦训练的情况下,参与联邦训练的客户端将上一联邦训练轮次中从联邦服务器发送过来的软标签作为接收到的公共无标签数据集的标签,将带有软标签的公共数据集加入到本地数据集中,并利用新的本地数据集训练本地分类器,得到训练完成的本地分类器。
9.根据本发明的实施例,上述每个训练完成的本地分类器对公共无标签数据集进行预测,得到预测结果,并将预测结果进行加密后上传到混淆器中包括:参与联邦训练的客户端利用自身训练完成的本地分类器对公共无标签数据集进行预测,得到预测结果;参与联邦训练的客户端获取联邦服务器的聚类结果,并根据聚类结果对预测结果进行平滑和隐私处理,得到处理结果;参与联邦训练的客户端利用密钥对处理结果进行加密,并将加密后的预测结果上传到所述混淆器中。
10.根据本发明实施例,上述参与联邦训练的客户端获取联邦服务器的聚类结果,并根据聚类结果对预测结果进行平滑和隐私处理,得到处理结果包括:参与联邦训练的客户端获取联邦服务器的聚类结果;参与联邦训练的客户端获取属于同一个聚类结果的预测结果的平均值;参与联邦训练的客户端将拉普拉斯噪声加入到平均值中,并将带噪声的平均值作为预测结果的标签,得到处理结果。
11.根据本发明实施例,上述联邦服务器将所述n个处理结果进行解密和聚合处理,得
到软标签包括:所述联邦服务器对所述n个处理结果进行解密,得到n个解密结果;根据第一预设阈值,所述联邦服务器对n个解密结果进行第一次筛选,得到筛选结果;所述联邦服务器对所述筛选结果进行加权求平均,得到加权平均结果;根据第二预设阈值,所述联邦服务器对所述加权平均结果进行第二次筛选,得到所述软标签。
12.根据本发明的第二个方面,提供了一种基于差分隐私置乱模型的联邦协同蒸馏系统,包括:采样模块,用于联邦服务器通过无放回子采样方法对m个客户端进行随机采样,得到n个参与联邦训练的客户端,其中,m和n均为正整数,n《m;生成模块,用于联邦服务器生成密钥和公共无标签数据集,并将密钥和公共无标签数据集发送到n个参与联邦训练的客户端;分类器训练模块,用于每个参与联邦训练的客户端利用自身的本地数据集对自身的本地分类器进行训练,得到n个训练完成的本地分类器;预测处理模块,用于每个训练完成的本地分类器对公共无标签数据集进行预测,得到预测结果,并将预测结果进行加密后上传到混淆器中;隐私放大模块,用于混淆器利用shuffle方法对来自n个参与联邦训练的客户端的预测结果进行匿名和乱序处理,并将得到的n个处理结果上传到联邦服务器中,其中,shuffle方法用于实现隐私放大;软标签获取模块,用于联邦服务器将n个处理结果进行解密和聚合处理,得到软标签,并将软标签传输到下一轮参与联邦训练的客户端中,其中,软标签作为公共无标签数据集的标签。
13.根据本发明的第三个方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,其中,当一个或多个程序被一个或多个处理器执行时,使得一个或多个处理器执行上述基于差分隐私置乱模型的联邦协同蒸馏方法。
14.根据本发明的第四个方面,提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行上述基于差分隐私置乱模型的联邦协同蒸馏方法。
15.本发明提供的上述基于差分隐私置乱模型的联邦协同蒸馏方法,在提供有实际保护意义的客户端级差分隐私的情况下,利用分布式存储的数据训练得到性能良好的分类器模型;同时,通过无标签数据作为载体实现了知识蒸馏,极大地减小了联邦学习的通信开销,缓和了数据异质性带来的性能损失,同时使得不同结构的模型也能融合训练。
附图说明
16.图1是根据本发明实施例的基于差分隐私置乱模型的联邦协同蒸馏方法的流程图;
图2是根据本发明实施例的参与联邦训练的客户端得到密钥和公共无标签数据集的流程图;图3是根据本发明实施例的得到聚类后的无标签数据集的流程图;图4是根据本发明实施例的得到n个训练完成的本地分类器的流程图;图5是根据本发明实施例的获取并上传预测结果的流程图;图6是根据本发明实施例的获取处理结果的流程图;图7是根据本发明实施例的获取软标签的流程图;图8是根据本发明实施例的基于差分隐私置乱模型的联邦协同蒸馏系统的结构图;图9是根据本发明实施例的基于差分隐私置乱模型的联邦协同蒸馏方法的系统训练过程图;图10示意性示出了根据本发明实施例的适于实现基于差分隐私置乱模型的联邦协同蒸馏方法的电子设备的方框图。
具体实施方式
17.为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
18.差分隐私作为一种可以提供严格数学证明和不同量级的隐私保护能力的隐私保护技术,经常被应用在联邦学习中。
19.在现有技术中,针对联邦学习的差分隐私方法主要可以分为差分隐私置乱模型和集中式差分隐私两种。
20.其中,基于集中式差分隐私的联邦学习方法假设有一个可信的服务器,本地客户端训练若干轮后计算出参数更新,然后将参数更新直接传输给服务器。在服务器收到该轮所有参与方的参数更新后,先根据选定的阈值对参数更新进行裁剪并求加权平均,然后加入指定隐私预算的高斯噪声以满足差分隐私定义。随后服务器将带噪声的参数更新发送给下一轮参与训练的客户端。由于加噪操作是在一个可信服务器上进行的,因此称为集中式差分隐私。这种模式要求服务器必须是诚实可信的,在现实场景中比较难以满足。
21.此外,基于差分隐私置乱模型的联邦学习方法对其它方不做任何安全假设。本地客户端在本地数据集上训练若干轮后计算出参数更新,然后对参数更新加入噪声使其满足差分隐私。随后本地客户端将加入噪声后的参数更新发送到服务器。服务器收到所有的参数更新后,加权平均求得本轮的参数更新,下发到下一轮参与训练的客户端。由于差分隐私处理在本地客户端上传更新之前,因此不需要服务器是可信的,安全性比集中式差分隐私更高。然而,差分隐私置乱模型相较集中式,引入的噪声带来的误差则更大,从而导致了数据的可用性变差,进而影响模型的性能。
22.目前,现有技术存在的难点主要有:如何降低差分隐私置乱模型引入的噪声对模型的影响,兼顾方法性能和隐私保护强度;经典的联邦平均方法在异质数据下有较大的性能损失,如何通过技术手段消除或者减小异质数据带来的性能损失;联邦平均方法无法联合训练不同结构的机器学习模型,如何将不同结构的模型一起融合训练。
23.针对上述问题,本发明提供了一种实用的差分隐私置乱模型联邦协同蒸馏方法、
系统、电子系统以及存储介质。该方法能够在保障分布式数据差分隐私的前提下,改善由于异质性数据带来的模型性能损失。并且,该方法通过服务器提供的公共无标签样本作为知识载体,实现了不同结构模型的融合训练。本发明提供的上述方法可以应用在样本分类、回归预测、图像识别、基因分析、自然语言等领域。
24.图1是根据本发明实施例的基于差分隐私置乱模型的联邦协同蒸馏方法的流程图。
25.如图1所示,上述方法包括操作s110~操作s160。
26.在操作s110,联邦服务器通过无放回子采样方法对m个客户端进行随机采样,得到n个参与联邦训练的客户端,其中,m和n均为正整数,n《m。
27.在操作s120,联邦服务器生成密钥和公共无标签数据集,并将密钥和公共无标签数据集发送到n个参与联邦训练的客户端。
28.每个参与联邦训练的客户端都会接收到密钥和公共无标签数据集。
29.在操作s130,每个参与联邦训练的客户端利用自身的本地数据集对自身的本地分类器进行训练,得到n个训练完成的本地分类器。
30.每个参与联邦训练的客户端都包括本地分类器,每个参与联邦训练的客户端都具有本地数据集。经过上述操作,每个参与联邦训练的客户端都有一个训练完成的本地分类器。
31.在操作s140,每个训练完成的本地分类器对公共无标签数据集进行预测,得到预测结果,并将预测结果进行加密后上传到混淆器中。
32.在操作s150,混淆器利用shuffle方法对来自n个参与联邦训练的客户端的预测结果进行匿名和乱序处理,并将得到的n个处理结果上传到联邦服务器中,其中,shuffle方法用于实现隐私放大。
33.上述shuffle方法(或者隐私毯子或者混淆方法)将预测结果进行匿名处理,然后把匿名处理的结果打乱顺序,联邦服务器接收到的是打乱顺序且进行匿名处理的预测结果。
34.在操作s160,联邦服务器将n个处理结果进行解密和聚合处理,得到软标签,并将软标签传输到下一轮参与联邦训练的客户端中,其中,软标签作为公共无标签数据集的标签。
35.本发明提供的上述基于差分隐私置乱模型的联邦协同蒸馏方法,在提供有实际保护意义的客户端级差分隐私的情况下,利用分布式存储的数据训练得到性能良好的分类器模型;同时,通过无标签数据作为载体实现了知识蒸馏,极大地减小了联邦学习的通信开销,缓和了数据异质性带来的性能损失,使得不同结构的模型也能融合训练。
36.图2是根据本发明实施例的参与联邦训练的客户端得到密钥和公共无标签数据集的流程图。
37.如图2所示,上述联邦服务器生成密钥和公共无标签数据集,并将密钥和公共无标签数据集发送到n个参与联邦训练的客户端包括操作s210~操作s250。
38.在操作s210,联邦服务器对联邦训练的轮次进行判断,得到判断结果。
39.在操作s220,联邦服务器生成密钥和公共无标签数据集。
40.在操作s230,联邦服务器对公共无标签数据集进行聚类处理,得到聚类后的无标
签数据集。
41.在操作s240,在判断结果是首轮联邦训练的情况下,通过联邦服务器将密钥和聚类后的无标签数据集发送到n个参与联邦训练的客户端中。
42.在操作s250,在判断结果不是首轮联邦训练的情况下,联邦服务器将上一轮联邦训练的软标签、密钥以及聚类后的无标签数据集发送n个参与联邦训练的客户端中。
43.在上述操作过程中,联邦服务器模块首先通过无放回子采样的方式选定参加本轮联邦学习的n个客户端。然后联邦服务器判断当前轮是否为首个联邦通信轮(即首轮联邦训练,或者首个联邦轮):如果是,则联邦服务器生成对称密钥和公共无标签数据集,通过聚类方法将公共数据集进行聚类处理,随后将加密密钥、聚类结果和公共数据集(注:聚类结果和公共数据集就是上述操作s230得到的聚类后的无标签数据集)发送给被选中的客户端;如果不是首个联邦轮(即首轮联邦训练),则联邦服务器将上一轮得到的软标签发送给被选中的客户端(即参与联邦训练的客户端)。
44.图3是根据本发明实施例的得到聚类后的无标签数据集的流程图。
45.如图3所示,上述联邦服务器对公共无标签数据集进行聚类处理,得到聚类后的无标签数据集包括操作s310~操作s320。
46.在操作s310,联邦服务器利用卷积神经网络对公共无标签数据集进行特征提取,得到提取结果。
47.在操作s320,联邦服务器利用k平均聚类方法对提取结果进行聚类,得到聚类后的无标签数据集。
48.其中,聚类后的无标签数据集与参与联邦训练的客户端的本地数据集具有相同的数据类型,相同的数据类型可以是具有相同数据内容的数据,例如二者都是描述人、动物、植物或其他抽象事物的图片。
49.对公共无标签数据集做聚类所采用的方法是先用卷积神经网络提取数据特征,然后用k平均聚类这些特征。由于聚类结果不是完全正确的,因此方法选择较大的k值以减小聚类误差对后续结果的影响。服务器只需要选择与联邦客户端本地相同类型的无标签数据构成公共数据集。
50.图4是根据本发明实施例的得到n个训练完成的本地分类器的流程图。
51.如图4所示,上述每个参与联邦训练的客户端利用自身的本地数据集对自身的本地分类器进行训练,得到n个训练完成的本地分类器包括操作s410~操作s430。
52.在操作s410,参与联邦训练的客户端通过联邦服务器获取联邦训练的轮次信息。
53.在操作s420,在轮次信息是首轮联邦训练的情况下,参与联邦训练的客户端将自身的本地数据集作为训练数据集,并用于对自身的本地分类器进行训练,得到训练完成的本地分类器。
54.在操作s430,在轮次信息不是首轮联邦训练的情况下,参与联邦训练的客户端将上一联邦训练轮次中从联邦服务器发送过来的软标签作为接收到的公共无标签数据集的标签,将带有软标签的公共数据集加入到本地数据集中,并利用新的本地数据集训练本地分类器,得到训练完成的本地分类器。
55.图5是根据本发明实施例的获取并上传预测结果的流程图。
56.如图5所示,每个所述训练完成的本地分类器对所述公共无标签数据集进行预测,
得到预测结果,并将所述预测结果进行加密后上传到混淆器中包括操作s510~操作s530。
57.在操作s510,参与联邦训练的客户端利用自身训练完成的本地分类器对公共无标签数据集进行预测,得到预测结果。
58.在操作s520,参与联邦训练的客户端获取联邦服务器的聚类结果,并根据聚类结果对预测结果进行平滑和隐私处理,得到处理结果。
59.在操作s530,参与联邦训练的客户端利用密钥对处理结果进行加密,并将加密后的预测结果上传到所述混淆器中。
60.图6是根据本发明实施例的获取处理结果的流程图。
61.如图6所示,上述参与联邦训练的客户端获取联邦服务器的聚类结果,并根据聚类结果对预测结果进行平滑和隐私处理,得到处理结果包括操作s610~操作s630。
62.在操作s610,参与联邦训练的客户端获取联邦服务器的聚类结果。
63.在操作s620,参与联邦训练的客户端获取属于同一个聚类结果的预测结果的平均值。
64.在操作s630,参与联邦训练的客户端将拉普拉斯噪声加入到平均值中,并将带噪声的平均值作为预测结果的标签,得到处理结果。
65.上述方法中,参与联邦训练的客户端首先判断是否为首个联邦轮(即首轮联邦训练):如果是,则参与联邦训练的客户端把本地数据集作为本轮的训练集;如果不是,则参与联邦训练的客户端将收到的软标签当作公共数据集的标签,加入到本地数据集中作为本轮的训练集。随后被选中的n个参与联邦训练的客户端分别同时在本地训练各自的分类器模型,然后用各自的模型对公共数据集做预测,并依据聚类结果对预测做平滑和隐私处理。最后,用密钥对预测结果加密并发送到混淆器。在参与联邦训练的客户端用模型对公共数据集做出预测之后,为了保护本地数据的隐私,客户端依据聚类结果,对同一聚类的样本预测标签做平均处理,并加入符合要求的拉普拉斯噪声。同一聚类共享一个带噪声的预测标签可以减小隐私消耗,实现隐私的放大。
66.图7是根据本发明实施例的获取软标签的流程图。
67.如图7所示,上述联邦服务器将n个处理结果进行解密和聚合处理,得到软标签包括操作s710~操作s740。
68.在操作s710,联邦服务器对n个处理结果进行解密,得到n个解密结果。
69.在操作s720,根据第一预设阈值,联邦服务器对n个解密结果进行第一次筛选,得到筛选结果。
70.在操作s730,联邦服务器对筛选结果进行加权求平均,得到加权平均结果。
71.在操作s740,根据第二预设阈值,联邦服务器对所述加权平均结果进行第二次筛选,得到软标签。
72.联邦服务器收到所有消息后,先根据阈值t1先对预测结果做第一次筛选,剔除可用性不高的标签。然后通过加权平均的方式聚合得到y,然后根据阈值t2对y做第二次筛选,得到本轮的最终预测结果,并将其作为公共数据集的软标签参与下一轮联邦训练。
73.图8是根据本发明实施例的基于差分隐私置乱模型的联邦协同蒸馏系统的结构图。
74.如图8所示,上述系统800包括采样模块810、生成模块820、分类器训练模块830、预
测处理模块840、隐私放大模块850以及软标签获取模块860。
75.采样模块810,用于联邦服务器通过无放回子采样方法对m个客户端进行随机采样,得到n个参与联邦训练的客户端,其中,m和n均为正整数,n《m。
76.生成模块820,用于联邦服务器生成密钥和公共无标签数据集,并将密钥和公共无标签数据集发送到n个参与联邦训练的客户端。
77.分类器训练模块830,用于每个参与联邦训练的客户端利用自身的本地数据集对自身的本地分类器进行训练,得到n个训练完成的本地分类器。
78.预测处理模块840,用于每个训练完成的本地分类器对公共无标签数据集进行预测,得到预测结果,并将预测结果进行加密后上传到混淆器中。
79.隐私放大模块850,用于混淆器利用shuffle方法对来自n个参与联邦训练的客户端的预测结果进行匿名和乱序处理,并将得到的n个处理结果上传到联邦服务器中,其中,shuffle方法用于实现隐私放大。
80.软标签获取模块860,用于联邦服务器将n个处理结果进行解密和聚合处理,得到软标签,并将软标签传输到下一轮参与联邦训练的客户端中,其中,软标签作为公共无标签数据集的标签。
81.图9是根据本发明实施例的基于差分隐私置乱模型的联邦协同蒸馏方法的系统训练过程图。
82.下面结合图9对本发明提供的上述方法和系统作进一步详细地说明。
83.如图9所示,联邦服务器模块,用于协调串联整个联邦学习过程,子采样选择每轮参与训练的客户端实现隐私的第一重放大,同时提供无标签数据集以及完成软标签的聚合。混淆器模块,通过对收到的信息进行匿名并混淆,从而使得服务器无法将任意一条信息与其发送者关联起来,在不与服务器共谋的情况下实现了差分隐私的第二重放大。联邦客户端模块,是模型训练的主要承担者,同时也是差分隐私保护的对象。客户端通过在本地数据集进行模型训练,然后对公共数据集做预测并加噪加密上传,从而实现知识蒸馏,通过对同一聚类样本的平滑处理实现差分隐私的第三重放大。
84.图10示意性示出了根据本发明实施例的适于实现基于差分隐私置乱模型的联邦协同蒸馏方法的电子设备的方框图。
85.如图10所示,根据本发明实施例的电子设备1000包括处理器1001,其可以根据存储在只读存储器(rom)1002中的程序或者从存储部分1008加载到随机访问存储器(ram)1003中的程序而执行各种适当的动作和处理。处理器1001例如可以包括通用微处理器(例如cpu)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(asic))等等。处理器1001还可以包括用于缓存用途的板载存储器。处理器1001可以包括用于执行根据本发明实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
86.在ram 1003中,存储有电子设备1000操作所需的各种程序和数据。处理器 1001、rom 1002以及ram 1003通过总线1004彼此相连。处理器1001通过执行rom 1002和/或ram 1003中的程序来执行根据本发明实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除rom 1002和ram 1003以外的一个或多个存储器中。处理器1001也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本发明实施例的方法流程的各种操作。
87.根据本发明的实施例,电子设备1000还可以包括输入/输出(i/o)接口1005,输入/
输出(i/o)接口1005也连接至总线1004。电子设备1000还可以包括连接至i/o接口1005的以下部件中的一项或多项:包括键盘、鼠标等的输入部分1006;包括诸如阴极射线管(crt)、液晶显示器(lcd)等以及扬声器等的输出部分1007;包括硬盘等的存储部分1008;以及包括诸如lan卡、调制解调器等的网络接口卡的通信部分1009。通信部分1009经由诸如因特网的网络执行通信处理。驱动器1010也根据需要连接至i/o接口1005。可拆卸介质1011,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1010上,以便于从其上读出的计算机程序根据需要被安装入存储部分1008。
88.本发明还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本发明实施例的方法。
89.根据本发明的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本发明的实施例,计算机可读存储介质可以包括上文描述的rom 1002和/或ram 1003和/或rom 1002和ram 1003以外的一个或多个存储器。
90.本领域技术人员可以理解,本发明的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本发明中。特别地,在不脱离本发明精神和教导的情况下,本发明的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本发明的范围。
91.以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献