一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种面向文本的对抗样本生成方法、系统、设备及终端

2022-05-27 00:46:08 来源:中国专利 TAG:


1.本发明属于人工智能信息安全技术领域,尤其涉及一种面向文本的对抗样本生成方法、系统、设备及终端。


背景技术:

2.目前,随着深度学习研究量的不断增加,深度学习应用的数量和自然语言处理(nlp)的研究量也不断增加。在情感分析、机器翻译、问答系统等领域取得了显著成果。研究者发现在深度学习分类器的基础上,给样本添加不容易检测到的细微扰动会导致分类错误,这种被扰动的样本被称为对抗样本。对抗样本的发现激发了研究人员对深度学习和深度学习应用安全性的研究热情。
3.对抗样本的攻击按攻击者对目标模型的了解程度可分为白盒、黑盒可探测以及黑盒不可探测攻击。白盒情景下攻击者对模型完全掌握,包括模型的类型、结构、所有参数及权重值;黑盒可探测情景下攻击者对目标模型部分了解,但能对模型进行探测或查询,如通过输入观察输出结果;黑盒不可探测情景下攻击者对目标模型了解有限或完全没有,构建对抗样本时不允许对目标模型进行探测查询。按攻击者的输出意愿可分为非目标攻击和目标攻击。在非目标攻击场景中,攻击者的目的是引起深度学习模型产生错误的分类结果,对于结果是否为特定的某一类并不做要求;而目标攻击则是改变模型的预测结果,其被划分在特定的类别中。
4.然而,与为图像生成对抗样本相比,为文本生成对抗样本仍然具有一定的挑战性。首先,最大的区别是文本是离散的,这与图像的连续域性相反,这种差异导致一些基于梯度的攻击不能直接适用于文本。其次,在对文本添加细微扰动时,很容易将单词变成未知单词(oov),从而影响文本理解并降低可读性。最后,文本中的扰动很容易对语义产生很大的影响,而在图像中,扰动对视觉效果的影响很小。总之,很难直接使用针对图像的方法来生成文本对抗样本。
5.目前,针对文本对抗样本攻击和防御的一些研究仍然存在一些问题。字符级扰动产生的文本对抗样本对文本的可读性影响很大,一些词纠错方法可以在一定程度上防御字符级攻击。单词级文本对抗样本对某些数据集攻击效果差,修改率高,也会影响语法的一致性。句子级文本对抗样本成功率低,生成文本的质量不易控制。面对这些问题,需要一种新的方法来实现有效的攻击。
6.通过上述分析,现有技术存在的问题及缺陷为:
7.(1)现有字符级扰动产生的文本对抗样本对文本的可读性影响很大,一些词纠错方法可以在一定程度上防御字符级攻击。
8.(2)现有单词级文本对抗样本对某些数据集攻击效果差,修改率高,也会影响语法的一致性。
9.(3)现有句子级文本对抗样本成功率低,生成文本的质量不易控制。
10.解决以上问题及缺陷的难度为:实际上,和图像相比,文本数据由于他的离散属
性,对抗样本的生成一向比较困难。对字符和单词的修改很容易影响文本的原始含义,同时很可能将单词变为非法单词,影响人眼阅读。而句子修改又很容易造成较大的扰动,使得语义不连贯。
11.解决以上问题及缺陷的意义为:通过解决上述问题,可以生成更加有效的对抗样本。生成的对抗样本具有很小的修改率,同时具有相当高的攻击效果,在保证语法和语义基本不变的情况下,使得人眼无法判断是否为对抗样本,但同时却能够误导学习模型,攻击成功。同样这个方法还可以扩展到不同语言,获得同样的效果。


技术实现要素:

12.针对现有对抗样本生成技术存在的问题,本发明提供了一种面向文本的对抗样本生成方法、系统、设备及终端,尤其涉及一种针对英文文本分类的新的对抗样本生成方法、系统、设备及终端。
13.本发明是这样实现的,一种面向文本的对抗样本生成方法,所述面向文本的对抗样本生成方法包括:
14.对获取的文本数据进行预处理,使用处理好的训练集训练深度学习模型;将数据输入所述深度学习模型,对文本进行计算,获取关键词的权重;将关键词按照权重排序以后选择关键词进行处理生成对应的对抗样本,根据模型识别效果选择结束或者继续修改关键词,获取最终的对抗样本。
15.进一步,所述面向文本的对抗样本生成方法包括以下步骤:
16.步骤一,对文本数据预处理;
17.通过这一步可以获得有效的文本数据,获得更好的阅读体验
18.步骤二,训练有效的深度学习模型;
19.越有效的模型,越能够体现攻击效果,获得较好的模型来检测方法的效果
20.步骤三,根据模型获得文本的关键词;
21.这是关键一步,通过有效的选择方法获得关键词,可以有效的减少对文本的修改程度,同时提高攻击效果。
22.步骤四,对获取的关键词进行处理;
23.这是生成对抗样本的关键一步,通过有效的处理方法,能够保证文本的原始语义,同时保持良好的阅读体验,造成有效的攻击。
24.步骤五,使用处理后的关键词生成对抗文本。
25.这一步是对前面步骤的拟合,通过特定规则,可以获得有效的对抗样本。
26.进一步,所述步骤一中的对文本数据预处理包括:
27.(1)清理数据,删除掉无用的符号和各种标签;
28.在处理前删除掉无用的空格符合和各种网页标签。
29.(2)为各个类别的数据添加对应的数字标签;
30.对于情感分类样本,正样本标签设置为1,负样本设置为0;对于多分类样本,根据类别数从0开始计数进行标签分类。
31.(3)对文本进行分词,转化为对应的数字token;
32.使用训练集来构造词典,根据单词出现频率从大到小排序;从3开始计数作为对应
单词的token;其中0用于长度填充,保证文本具有相同的长度;1用于表示文本的开始,置于文本第一个位置;2用于表示未知符号,代表词典中没有出现的单词。
33.进一步,所述步骤二中的训练有效的深度学习模型包括:
34.(1)设置词嵌入矩阵参数,设置模型结构超参数,使用lstm构建出模型框架;
35.构建模型时,根据需要设置词向量长度,构建词嵌入矩阵,随机初始化以后作为模型第一层,将离散的单词转化为连续的向量表示;将连续的向量表示输入设置好的lstm和textcnn模型得到模型输出的向量,最后经过线性层和softmax层的转化,将输出向量转化为对应类别的置信度分数。
36.(2)将预处理的数据输入模型,根据深度学习方法对模型进行训练和调节参数;
37.将步骤一中处理好的数据送入模型,通过adam优化器对模型进行优化,不断使用训练集优化模型参数。
38.(3)得到模型的最优参数,固化模型作为后续的使用工具;
39.将训练好的模型参数,通过库函数保存为参数文件用于之后的攻击实验。
40.进一步,所述步骤三中的根据模型获得文本的关键词包括:
41.(1)将文本进行截取,获得对应单词上文的信息;
42.1)对于文本中的每个单词,去掉单词之后的文本;
43.对于第i条文本xi={w0,w1…wn-1
,wn},对于单词wj的上文信息重要度,去掉第j个单词之后的所有文本,得到xi={w0,w1…
wj},再将第j个单词去掉得到x

i={w0,w1…wj-1
};
44.2)将截取后的文本输入模型,获取模型分数;
45.将得到的xi={w0,w1…
wj}输入模型得到置信度分数{s0,s1…
sd},将得到的x
′i={w0,w1…wj-1
}输入模型得到置信度分数{s
′0,s
′1…s′d};
46.3)计算模型分数和对应标签之间的变化,将变化量作为单词的上文权重;
47.根据文本的类别k得到对应的分数变化s
k-s
′k来作为对应单词的上文信息。
48.(2)将文本进行截取,获取对应单词下文的信息;
49.1)对于文本中的每个单词,去掉单词之前的文本;
50.对于第i条文本xi={w0,w1…wn-1
,wn},对于单词wj的上文信息重要度,去掉第j个单词之前的所有文本,得到xi={wj,w
j 1

wn},再将第j个单词去掉得到x
′i={w
j 1

wn};
51.2)将截取后的文本输入模型,获取模型分数;
52.将得到的xi={w0,w1…wn-1
,wn}送入模型得到置信度分数{t0,t1…
td},将得到的x
′i={w
j 1

wn}送入模型得到置信度分数{t
′0,t
′1…
t
′d};
53.3)计算模型分数和对应标签的之间的变化,将变化量作为单词的下文权重;
54.根据文本的类别k得到对应的分数变化t
k-t
′k来作为对应单词的下文信息。
55.(3)根据文本中对应单词的上下文信息确定关键词;
56.1)根据单词的上文和下文权重,进行加和作为单词的上下文信息权重;
57.使用步骤(1)和步骤(2)的得到的单词对应的上文和下文信息,通过计算(s
k-s
′k) (t
k-t
′k)来作为单词的上下文信息权重;
58.2)根据上下文信息权重对单词进行从大到小排序;
59.对每条文本中的每个单词来计算上下文信息权重,将单词记录位置坐标,按照从大到小进行排序;
60.3)选取权重高的单词作为关键词进行修改;
61.依次按照权重从大到小的顺序选择关键词。
62.进一步,所述步骤四中的对获取的关键词进行处理包括:
63.(1)使用同义词对单词进行修改;
64.1)使用glove来对单词进行计算,获取对应的单词向量;
65.使用glove构建向量词典,将单词转化为对应向量;
66.2)在词向量空间中查找和单词向量最接近的作为近义词替换;
67.在glove词典中寻找和关键词词性pos相同的单词,计算和关键词词向量的余弦相似度,选择余弦相似度最大的单词作为当前关键词的同义词替换候选。
68.(2)使用emoji对单词进行修改;
69.将所有表情emoji取出,随机选取两个表情,添加到单词的前后位置。
70.(3)使用词典对单词进行修改;
71.1)使用nltk函数获取单词在文本中的pos含义;
72.使用nltk函数库的词性判断函数获取关键词词性pos;
73.2)在词典中获取单词的释义,选择相同pos的释义作为关键词替换内容;
74.使用的词典获取关键词的翻译内容,根据关键词的词性pos选择具有相同性质的翻译作为关键词的修改内容。
75.进一步,所述步骤五中的使用处理后的关键词生成对抗文本包括:
76.(1)获取根据权重排序好的关键词,对关键词进行处理;
77.1)依次取出排序好的关键词,对每一个单词进行关键词处理获取替换内容;
78.根据步骤三获取的关键词,选择当前未被修改的,权重最大的关键词;根据步骤四获取当前关键词的不同替换内容,对同一条文本进行替换,获取相同文本的不同对抗样本;
79.2)将文本进行对应的修改,获取阶段性的对抗文本,输入模型获取模型输出分数;
80.将当前得到的同一样本的不同对抗文本输入模型,得到模型的分类置信度;
81.3)如果模型误分类,结束步骤(1);
82.如果当前已经使得模型误分类,则选择一条成功攻击的文本作为修改好的对抗样本,结束对当前文本的攻击,否则进行下一步骤;
83.4)否则选择对模型输出影响最大的作为当前关键词的修改方案,继续对剩余的关键词进行修改,回到步骤1);
84.对于得到的同一文本的不同样本,选择使模型的输出置信度中对文本分类影响最大的对抗样本,作为现阶段生成的对抗样本;将当前生成的对抗样本作为文本继续转到步骤1),继续选择未修改的单词进行攻击。
85.(2)获取修改后的对抗样本,根据token转化为原始文本;
86.对于得到的文本对抗样本序列,根据token标记转化为原始的文本数据,保存到文本文档中。
87.本发明的另一目的在于提供一种实施所述的面向文本的对抗样本生成方法的面向文本的对抗样本生成系统,所述面向文本的对抗样本生成系统包括:
88.数据预处理模块,用于对文本数据预处理;
89.模型训练模块,用于训练有效的深度学习模型;
90.关键词获取模块,用于根据模型获得文本的关键词;
91.关键词处理模块,用于对获取的关键词进行处理;
92.对抗文本生成模块,用于使用处理后的关键词生成对抗文本。
93.本发明的另一目的在于提供一种计算机设备,所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:
94.对获取的文本数据进行预处理,使用处理好的训练集训练深度学习模型;将数据输入所述深度学习模型,对文本进行计算,获取关键词的权重;将关键词按照权重排序以后选择关键词进行处理生成对应的对抗样本,根据模型识别效果选择结束或者继续修改关键词,获取最终的对抗样本。
95.本发明的另一目的在于提供一种信息数据处理终端,所述信息数据处理终端用于实现所述的面向文本的对抗样本生成系统。
96.结合上述的所有技术方案,本发明所具备的优点及积极效果为:本发明在保证一定的语义和可读性的同时,提供一种的面向文本的对抗样本生成方法,涉及针对深度学习模型攻击的方法,结合了单词级和句子级的方法,同时避免了无效语句的生成,减少了修改的比率,尽可能地不影响文本语义,在保证攻击效果的同时减小了人眼识别的可能性。
97.本发明采用的方法是词级和句子级方法的结合,没有生成无效句子的问题。该方案自适应地选择最优扰动,在保留完整文本语义的同时尽可能减小扰动幅度,以更高的攻击成功率欺骗分类器。而且,该方案具有一定的通用性,可以扩展到英语以外的语言。
98.本发明是一种针对文本的黑盒攻击的框架,在多个数据集上证明了方法的高效性,并且和其他方法相比具有更快的速度。同时,和其他方法的优势在于,本发明不是单纯的利用梯度进行修改,而是考虑到文本离散数据的特点,通过对文本数据进行裁剪来获取单词在上下文的重要程度,从而判定关键词。本发明通过比较文本的修改程度和语义变化,这种方法对文本的修改程度小于0.2,同时语义变化也不明显。
附图说明
99.为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图做简单的介绍,显而易见地,下面所描述的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下还可以根据这些附图获得其他的附图。
100.图1是本发明实施例提供的面向文本的对抗样本生成方法流程图。
101.图2是本发明实施例提供的面向文本的对抗样本生成方法原理图。
102.图3是本发明实施例提供的面向文本的对抗样本生成系统结构框图;
103.图中:1、数据预处理模块;2、模型训练模块;3、关键词获取模块;4、关键词处理模块;5、对抗文本生成模块。
104.图4是本发明实施例提供的对抗样本生成示例图。
具体实施方式
105.为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明
进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
106.针对现有技术存在的问题,本发明提供了一种面向文本的对抗样本生成方法、系统、设备及终端,下面结合附图对本发明作详细的描述。
107.如图1所示,本发明实施例提供的面向文本的对抗样本生成方法包括以下步骤:
108.s101,对文本数据预处理;
109.s102,训练有效的深度学习模型;
110.s103,根据模型获得文本的关键词;
111.s104,对获取的关键词进行处理;
112.s105,使用处理后的关键词生成对抗文本。
113.本发明实施例提供的面向文本的对抗样本生成方法原理图如图2所示。
114.如图3所示,本发明实施例提供的面向文本的对抗样本生成系统包括:
115.数据预处理模块1,用于对文本数据预处理;
116.模型训练模块2,用于训练有效的深度学习模型;
117.关键词获取模块3,用于根据模型获得文本的关键词;
118.关键词处理模块4,用于对获取的关键词进行处理;
119.对抗文本生成模块5,用于使用处理后的关键词生成对抗文本。
120.下面结合具体实施例对本发明的技术方案作进一步描述。
121.根据图2,本发明的具体步骤如下:
122.步骤1:对文本数据预处理
123.步骤1.1:清理数据,删除掉无用的符号和各种标签;
124.删除掉无意义的空格和各种特殊符号。
125.步骤1.2:为各个类别的数据添加对应的数字标签
126.根据数据集提供者给出的标签,从0开始计数,添加对应的数字标签。
127.步骤1.3:对文本进行分词,转化为对应的数字token
128.首先统计所有单词在训练集中出现的频率,按照频率从大到小排列。将排好序的单词从3开始计数,转化为对应的token标签,其中没有使用的0用于填充文本,保持文本长度的一致性,没有使用的1表示文本的开始,附加在文本开头,未使用的2表示未知的单词,也就是未在训练集出现的数据。
129.针对原始文本”it’sslow

very,veryslow.”,通过步骤一的过滤转化为token后表示为[23,421,77,77,421]
[0130]
步骤2:训练有效的深度学习模型
[0131]
步骤2.1:设置词嵌入矩阵参数,设置模型结构超参数,使用lstm构建出模型框架;
[0132]
构建模型时,首先根据需要设置词向量长度,构建词嵌入矩阵,随机初始化以后作为模型第一层,将离散的单词转化为连续的向量表示。将连续的向量表示输入设置好的lstm和textcnn模型得到模型输出的向量,最后经过线性层和softmax层的转化,将输出向量转化为对应类别的置信度分数。
[0133]
步骤2.2:将预处理的数据输入模型,根据深度学习方法对模型进行训练和调节参数;
[0134]
将步骤1中处理好的数据送入模型,通过adam优化器对模型进行优化,不断使用训练集优化模型参数,根据深度学习的优化方法不断调节优化。
[0135]
步骤2.3:得到模型的最优参数,固化模型作为后续的使用工具;
[0136]
将训练好的模型,使用pytorch自带的保存函数保存为pkl文件,用于后续的模型参数载入。
[0137]
首先设置模型为textcnn,将filtersize设置为[3,4,5],通过调节模型参数和数据进行模型训练,达到了90%的分类准确率
[0138]
步骤3:根据模型获得文本的关键词
[0139]
步骤3.1:将文本进行截取,获得对应单词上文的信息;
[0140]
对于第i条文本xi={w0,w1…wn-1
,wm},对于单词wj的上文信息重要度,去掉第j个单词之后的所有文本,得到xi={w0,w1…
wj},再将第j个单词去掉得到x
′i={w0,w1…wj-1
};将得到的xi={w0,w1…
wj}输入模型得到置信度分数{s0,s1…
sd},将得到的x
′i={w0,w1…
wj-1}
输入模型得到置信度分数{s
′0,s
′1…s′d};根据文本的类别k得到对应的分数变化s
k-s
′k来作为对应单词的上文信息。
[0141]
将文本token[23,421,77,77,421]输入模型计算的上文信息向量表示为[-1.1319,1.3318,0,0,0]
[0142]
步骤3.2:将文本进行截取,获取对应单词下文的信息;
[0143]
对于第i条文本xi={w0,w1…wn-1
,wn},对于单词wj的上文信息重要度,去掉第j个单词之前的所有文本,得到xi={wj,w
j 1

wn},再将第j个单词去掉得到x
′i={w
j 1

wn};将得到的xi={w0,w1…wn-1
,wn}送入模型得到置信度分数{t0,t1…
td},将得到的x
′i={w
j 1

wn}送入模型得到置信度分数{t
′0,t
′1…
t
′d};根据文本的类别k得到对应的分数变化t
k-t
′k来作为对应单词的下文信息。
[0144]
将文本输入模型计算出的下文信息表示为[0,0,0,0.2145,1.4191]
[0145]
步骤3.3:根据文本中对应单词的上下文信息确定关键词;
[0146]
使用步骤3.1和步骤3.2的得到的单词对应的上文和下文信息,通过计算(s
k-s
′k) (t
k-t
′k)来作为单词的上下文信息权重,对每条文本中的每个单词来计算上下文信息权重,将单词记录位置坐标,按照从大到小进行排序,按照权重从大到小的顺序选择关键词。
[0147]
将获得的上下文信息权重进行加和得到对应单词的权重向量为[-1.1319,1.3318,0,0.2145,1.4191]
[0148]
步骤4:对获取的关键词进行处理
[0149]
步骤4.1:使用同义词对单词进行修改
[0150]
使用glove构建向量词典,将单词转化为对应向量,再glove词典中寻找和关键词词性(pos)相同的单词,计算和关键词词向量的余弦相似度,选择余弦相似度最大的单词作为当前关键词的同义词替换候选。
[0151]
步骤4.2:使用emoji对单词进行修改
[0152]
将所有表情emoji取出,随机选取两个表情,添加到单词的前后位置。
[0153]
步骤4.3:使用词典对单词进行修改
[0154]
使用nltk函数库的词性判断函数获取关键词词性(pos),使用的词典获取关键词的翻译内容,根据关键词的词性(pos)选择具有相同性质的翻译作为关键词的修改内容。
[0155]
步骤5:使用处理后的关键词生成对抗文本
[0156]
步骤5.1:获取根据权重排序好的关键词,对关键词进行处理;
[0157]
根据步骤3获取的关键词,选择当前未被修改的,权重最大的关键词;根据步骤4获取当前关键词的不同替换内容,对同一条文本进行替换,获取相同文本的不同对抗样本,将当前得到的同一样本的不同对抗文本输入模型,得到模型的分类置信度。如果当前已经可以使得模型误分类,就选择一条成功攻击的文本作为修改好的对抗样本,结束对当前文本的攻击,否则对于得到的同一文本的不同样本,选择使模型的输出置信度中对文本分类影响最大的对抗样本,作为现阶段生成的对抗样本,之后将当前生成的对抗样本作为文本继续做当前操作,继续选择未修改的单词进行攻击。
[0158]
对于文本”it’sslow

very,veryslow.”进行计算之后得到关键词权重,其中权重最大的就是最后的单词”slow”,得到对应替换数据”pace”以后就使得模型误分类,达到了想要的效果,结束当前行为。
[0159]
步骤5.2:获取修改之后的对抗样本,根据token转化为原始文本;
[0160]
对于得到的文本对抗样本序列,根据token标记转化为原始的文本数据,保存到文本文档中。
[0161]
根据图4,针对文本具体的操作如下:
[0162]
步骤1.首先过滤掉一些无用的空格和特殊字符,进行分词,获取对应的数字标签。
[0163]
步骤3.将文本根据计算方式进行处理,输入步骤2训练好的模型获取相应的模型分数,根据权重排序得到权重较大的“shoot”,“ridiculous”,“slow”等关键词。
[0164]
步骤5.使用步骤4中的三种方式对关键词处理,获取不同的对抗样本,最终得到对单词“shoot”进行词典翻译,对单词“ridiculous”添加表情,对单词“slow”查找同义词所生成的有效的对抗样本。
[0165]
下面结合实验对本发明的技术效果作详细的描述。
[0166]
通过以上的实施步骤可以得到有效的对抗样本,为了验证当前方法的效果,在攻击效果、攻击速度和语义变化上进行实验验证。验证实验在imdb、sst、toxic、enron和ag五个数据集上进行实验,使用textcnn和bilstm两个深度学习模型来学习和验证在这些数据集上的效果。
[0167]
表1中展示了在两个深度学习模型上针对五个不同的数据集,本发明的方法和另外两种对抗样本生成方法的效果比较。通过比较dwb和pwws两个生成方法在数据集上使得原始准确率降低的攻击效果,可以看出具有明显的优势。
[0168]
表1在数据集上的攻击效果
[0169]
[0170]
表2中展示了三种方法在不同模型和数据集上的攻击效率。本发明虽然不是最优的效率,但同样有很大的优势。
[0171]
表2在数据集上的攻击效率(s)
[0172][0173]
表3中展示了本发明的方法生成的对抗样本和原始文本的语义相似度。通过使用bertscore来计算对抗样本和原始文本的相似度,用p、r、f作为评价指标,较高的指标表明文本之间相似度越接近。表中的数据表明生成的对抗样本和原始文本相比,具有近似的语义特征,即使具有很好的攻击效果,生成的文本依旧具有良好的语义和较好的阅读性。
[0174]
表3生成的对抗样本和原始文本的相似度
[0175][0176]
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用全部或部分地以计算机程序产品的形式实现,所述计算机程序产品包括一个或多个计算机指令。在计算机上加载或执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(dsl)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输)。所述计算机可读取存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如软盘、硬盘、磁带)、光介质(例如dvd)、或者半导体介质(例如固态硬盘solidstatedisk(ssd))等。
[0177]
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,都应涵盖在本发明的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献