一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

OCP转接卡、转接系统及转接方法与流程

2022-02-22 09:07:30 来源:中国专利 TAG:

ocp转接卡、转接系统及转接方法
技术领域
1.本发明涉及服务器技术领域,特别涉及一种ocp转接卡、转接系统及转接方法。


背景技术:

2.服务器广泛应用于各种领域,例如储存型、计算型、人工智慧及混合型服务器都应用于特定领域。服务器需求日渐上升,尤其是具备较好功能性、效能及可适应性的服务器在市场上更具优势。现在不仅仅档案数量不断的增加,而且随着视频文件和音频文件的解析度越来越精细,档案大小日渐变大,所以储存型服务器与资料中心需要高速网络来传递资料和档案。而计算型及人工智慧服务器需要将运算后的大量资料传送到云端服务器也需使用高速网络设备。不论是对应用于哪种领域的服务器而言,高速网络设备都已经成为一个服务器中非常重要的设备之一。
3.在服务器领域,ocp(open compute project network,开源计算机项目标准)3.0 nic卡(network interface controller,网路介面控制器)作为一种高速网络接口卡,成为应用于服务器网路介面卡的主流产品。客户通常根据需求选择搭配不同网络速度的ocp 3.0 nic卡,有的时候客户并不需要太多的ocp 3.0 nic卡,而需要更多的nvme(non-volatile memory express,非易失性内存主机控制器接口规范)硬盘,而服务器通常只能支持标准ocp 3.0 nic卡,并不能同时支持nvme硬盘正常工作,因此不能提高服务器的可扩充性。并且如果重新设计会带来很大的研发成本,并延长研发周期。并且ocp 3.0 nic卡与nvme硬盘独立存在,若同时安装则占用空间大,还会影响其他部件的安装。
4.因此,亟需一种将ocp 3.0 nic卡转换成nvme硬盘的方法。


技术实现要素:

5.为了解决现有技术的不足,本技术的主要目的在于提供一种支ocp转接卡、转接系统及转接方法,以解决上述技术问题。
6.为了达到上述目的,第一方面,本技术提供了一种ocp转接卡,所述ocp转接卡包括:
7.四个m.2连接器单元和第一ocp连接器;
8.其中,所述m.2连接器单元连接nvme硬盘;
9.所述第一ocp连接器连接扩展卡内的第二ocp连接器。
10.在一些实施例中,所述ocp转接卡还包括:
11.每一所述m.2连接器单元对应一个在位讯号,以便主板中的cpu(central processing unit,中央处理器)识别所述ocp转接卡连接的所述nvme硬盘数量。
12.第二方面,本技术提供了一种ocp转接系统,所述系统包括:
13.主板、扩展卡及所述ocp转接卡;
14.其中,所述主板包括cpu、pcie(peripheral component interconnect express,高速串行计算机扩展总线标准)总线及至少一个第一系统连接器;
15.所述扩展卡包括第二ocp连接器和至少一个第二系统连接器;
16.所述扩展卡内安装有ocp 3.0 nic卡;
17.所述第一系统连接器通过所述pcie总线与对应的所述第二系统连接器连接,以实现所述主板与所述扩展卡的连接。
18.在一些实施例中,所述系统还包括:
19.所述第一ocp连接器通过所述pcie总线与所述第二ocp连接器连接,以实现所述ocp转接卡与所述扩展卡的连接。
20.在一些实施例中,所述系统还包括:
21.所述扩展卡通过热插拔方式卸载所述扩展卡内的所述ocp 3.0 nic卡;
22.所述ocp转接卡通过热插拔方式安装到所述扩展卡中。
23.第三方面,本技术提供了一种ocp转接方法,所述ocp转接方法包括:
24.在扩展卡闲置时,将所述ocp转接卡安装到所述扩展卡中;
25.根据在位讯号及预设的判断规则,确定所述ocp转接卡中m.2连接器单元连接的nvme硬盘数量;
26.cpu根据所述nvme硬盘数量及预设的处理规则,切换与所述nvme硬盘对应的所述在位讯号对应的pcie root port的带宽,以保证所述nvme硬盘正常工作。
27.在一些实施例中,所述根据在位讯号及预设的判断规则,确定所述ocp转接卡中m.2连接器单元连接的nvme硬盘数量,包括:
28.若所述在位讯号的输出状态为低电平,确定所述ocp转接卡中所述在位讯号对应的所述m.2连接器单元与所述nvme硬盘连接;
29.若所述在位讯号的输出状态为高电平,确定所述ocp转接卡中所述在位讯号对应的所述m.2连接器单元未连接所述nvme硬盘;
30.根据所述ocp转接卡中所述在位讯号对应的所述m.2连接器单元是否连接所述nvme硬盘,确定所述ocp转接卡中连接的所述nvme硬盘数量。
31.在一些实施例中,所述cpu根据所述nvme硬盘数量及预设的处理规则,切换与所述nvme硬盘对应的所述在位讯号对应的pcie root port的带宽,包括:
32.所述cpu根据所述nvme硬盘数量以及所述nvme硬盘对应的所述m.2连接器单元对应的所述在位讯号的位置,切换所述在位讯号对应的pcie root port的带宽。
33.在一些实施例中,所述方法还包括:
34.所述在位讯号通过第一ocp连接器,传递到所述扩展卡中与所述第一ocp连接器对应的第二ocp连接器中;
35.所述扩展卡将所述第二ocp连接器中的所述在位讯号,通过第二系统连接器传递到主板中对应的第一系统连接器中。
36.第四方面,本技术提供了一种电子设备,所述电子设备包括:
37.一个或多个处理器;
38.以及与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
39.在扩展卡闲置时,将所述ocp转接卡安装到所述扩展卡中;
40.根据在位讯号及预设的判断规则,确定所述ocp转接卡中m.2连接器单元连接的
nvme硬盘数量;
41.cpu根据所述nvme硬盘数量及预设的处理规则,切换与所述nvme硬盘对应的所述在位讯号对应的pcie root port的带宽,以保证所述nvme硬盘正常工作。
42.本技术实现的有益效果为:
43.本技术提供了一种ocp转接卡,包括四个m.2连接器单元和第一ocp连接器;其中,所述m.2连接器单元连接nvme硬盘;所述第一ocp连接器连接扩展卡内的第二ocp连接器。进一步,每一所述m.2连接器单元对应一个在位讯号,以便cpu识别所述ocp转接卡连接的所述nvme硬盘数量。本技术通过引入在位讯号,实现ocp转接卡中所连接的nvme硬盘数量的识别,进一步,主板中cpu能够自动根据nvme硬盘数量切换对应的pcie root port的带宽,确保nvme硬盘能够正常工作,使得服务器在不需要ocp 3.0 nic卡时可扩充服务器的储存容量。
44.本技术还提供了一种ocp转接系统,包括主板、扩展卡及所述ocp转接卡;其中,所述主板包括cpu、pcie总线及至少一个第一系统连接器;所述扩展卡包括第二ocp连接器和至少一个第二系统连接器;所述扩展卡内安装有ocp 3.0 nic卡;所述第一系统连接器通过所述pcie总线与对应的所述第二系统连接器连接,以实现所述主板与所述扩展卡的连接。本技术通过将主板,扩展卡以及ocp转接卡作为一个系统,实现在不需要ocp 3.0 nic卡时,方便快捷的接入nvme硬盘,以扩充服务器的存储容量。
45.本技术还提供了一种ocp转接方法,包括在扩展卡闲置时,将所述ocp转接卡安装到所述扩展卡中;根据在位讯号及预设的判断规则,确定所述ocp转接卡中m.2连接器单元连接的nvme硬盘数量;cpu根据所述nvme硬盘数量及预设的处理规则,切换与所述nvme硬盘对应的所述在位讯号对应的pcie root port的带宽,以保证所述nvme硬盘正常工作。本技术通过引入在位讯号,实现ocp转接卡中所连接的nvme硬盘数量的识别,进一步主板中cpu能够自动根据nvme硬盘数量切换对应的pcie root port的带宽,确保nvme硬盘能够正常工作,使得服务器在不需要ocp 3.0 nic卡时可扩充服务器的储存容量。
附图说明
46.为了更清楚地说明本技术实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,其中:
47.图1是本技术实施例提供的ocp转接卡结构图;
48.图2是本技术实施例提供的ocp转接系统架构图;
49.图3是本技术实施例提供的ocp转接方法流程图;
50.图4是本技术实施例提供的电子设备结构图。
具体实施方式
51.为使本技术的目的、技术方案和优点更加清楚,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没
有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
52.如背景技术所述,具备较好功能性、效能及可适应性的服务器在市场上更具优势,应用于各种领域的服务器对网络要求以及存储性能要求越来越高,ocp3.0 nic卡满足了服务器对于高速网络的需求,但是客户通常根据需求选择搭配不同网络速度的ocp 3.0 nic卡,有的时候客户并不需要太多的ocp 3.0 nic卡,而需要更多的nvme硬盘,而服务器通常只能支持标准ocp 3.0 nic卡,并不能同时支持nvme硬盘正常工作,因此不能提高服务器的可扩充性。并且如果重新设计会带来很大的研发成本,并延长研发周期。并且ocp 3.0 nic卡与nvme硬盘独立存在,若同时安装则占用空间大,还会影响其他部件的安装。
53.为解决上述技术问题,本技术提供一种ocp转接卡、转接系统及转接方法,通过引入在位讯号,实现对ocp转接卡中所连接的nvme硬盘数量的识别,进一步,使得主板中cpu能够自动根据nvme硬盘数量切换对应的pcie root port的带宽,确保nvme硬盘能够正常工作,使得服务器在不需要ocp 3.0nic卡时可扩充服务器的储存容量。
54.实施例一
55.为实现将ocp 3.0 nic卡转接为nvme硬盘,本技术实施例提供一种ocp转接卡。具体的,如图1所示,包括:
56.四个m.2连接器单元和第一ocp连接器;
57.其中,所述m.2连接器单元连接nvme硬盘;
58.所述第一ocp连接器连接扩展卡内的第二ocp连接器。
59.进一步,上述ocp转接卡还包括:每一所述m.2连接器单元对应一个在位讯号,以便主板中的cpu识别所述ocp转接卡连接的所述nvme硬盘数量。
60.本技术采用nvme硬盘对服务器储存容量进行扩充,nvme或称非易失性内存主机控制器接口规范,是一个逻辑设备接口规范。他是与ahci(advanced host controller interface,高级主机控制器接口)类似的、基于设备逻辑接口的总线传输协议规范(相当于通讯协议中的应用层),用于访问通过pcie总线附加的非易失性内存介质,理论上不一定要求pcie总线协议。nvme协议目的在于充分利用pcie通道的低延时以及并行性,还有当代处理器、平台与应用的并行性,在可控制的存储成本下,极大的提升固态硬盘的读写性能,减低由于ahci接口带来的高延时,彻底解放sata(serial advanced technology attachment,串行高级技术附件)时代固态硬盘的极致性能。
61.所述转接卡中的m.2连接器单元应用m.2接口连接nvme硬盘,m.2接口是intel(英特网)推出的一种替代msata的新的接口规范,具有很好的可扩展性,不仅能够支持pcie总线,也能支持sata总线。
62.其中,根据ocp3.0标准定义了4个在位讯号prsntb[3:0]#,ocp转接卡利用prsntb[3:0]#讯号的在位讯息(即在位讯号),判别四个nvme硬盘是否插上到本技术之ocp转接卡,当nvme硬盘插到本技术之ocp转卡上时,将其对应的prsntb[3:0]#由预设的高电平拉为低电平,cpu利用这四个在位讯号实现pcie root port带宽的自动识别。当cpu收到不同的prsntb[3:0]#时,将该对应的pcie root port切换成不同的带宽。
[0063]
能够在ocp 3.0 nic卡闲置时,方便快捷的原本安装有ocp 3.0 nic卡的扩展卡转接nvme硬盘,扩充服务器的储存容量。
[0064]
实施例二
[0065]
为实现将ocp 3.0 nic卡转接为nvme硬盘,本技术实施例提供一种ocp转接系统,ocp 3.0 nic卡是一种高速网路接口,与系统连接的介面为pcie,具备热插拔功能。可根据客户需求选择搭配不同网路速度的ocp3.0 nic卡,如图2所示,本实施例中主板搭配两张ocp riser(即扩展卡),ocp risera及ocp riserb,ocp 3.0 nic卡接到ocp riser上,具体的所述系统包括:
[0066]
主板、扩展卡及ocp转接卡;
[0067]
其中,所述主板包括cpu、pcie总线及至少一个第一系统连接器;
[0068]
所述扩展卡包括第二ocp连接器和至少一个第二系统连接器;
[0069]
所述扩展卡内安装有ocp 3.0 nic卡;
[0070]
所述第一系统连接器通过所述pcie总线与对应的所述第二系统连接器连接,以实现所述主板与所述扩展卡的连接。
[0071]
进一步,上述系统还包括:所述第一ocp连接器通过所述pcie总线与所述第二ocp连接器连接,以实现所述ocp转接卡与所述扩展卡的连接。
[0072]
进一步,上述系统还包括:所述扩展卡通过热插拔方式卸载所述扩展卡内的所述ocp 3.0 nic卡;所述ocp转接卡通过热插拔方式安装到所述扩展卡中。
[0073]
其中,第一系统连接器及第二系统连接器为所有支持串行连接的连接器,例如slimline(纤细线缆)连接器,在此不做限定。
[0074]
本技术为了向服务器提供高速网络,故采用ocp 3.0 nic卡,ocp是一套开源硬件,是由facebook公司主导的,而ocp nic项目组最初定义的网卡是扣卡形态,但是由于这种网卡的维护需要服务器机箱开盖维护,操作上灵活性较差,因此ocp2.0形态的网卡在服务器厂商上使用较少。本技术采用的ocp3.0 nic卡,在吸取了ocp 2.0网卡的教训上,进行优化,ocp 3.0 nic卡尺寸较小,在服务器机箱中占据空间较小,且支持多种端口规格,应用场景较多。
[0075]
根据图2所示的系统,本实施例中,两张扩展卡可实现客户的不同需求,客户可根据自身需求选择搭配一张或者两张ocp 3.0 nic卡,网路应用高需求的使用者可选配两张,网路需求低的使用者可搭配一张ocp 3.0 nic卡。另一张未使用的ocp riser可另外应用于nvme硬盘。某些应用场景在不需要同时使用到两张ocp 3.0 nic卡时,可以透过热插拔把ocp 3.0 nic卡卸载,利用本技术提供的ocp转接卡,将nvme硬盘转接到扩展卡上,以扩充服务器中的存储功能,提高服务器对于不同应用场景的可扩充性。
[0076]
cpu的一个pcie root port带宽为x16,如表1和表2所示,每一个x16的pcie root port可以调整为2个x8或4个x4带宽的pcie port,并且按照顺序依次切换,将调整为2个x8的pcie port定义为p0,p1;将调整为4个x4带宽的pcie port定义为p0,p1,p2,p3。4个x4带宽的pcie port为两组x8带宽的pcie port再次进行切换而形成的。
[0077]
[0078]
表1
[0079][0080]
表2
[0081]
ocp 3.0 nic卡介面带宽为x16e,一个nvme硬盘的带宽为x4。为了确保ocp转接卡在将ocp 3.0 nic卡转接成nvme硬盘后,nvme硬盘能够正常工作,cpu需要将对应的pcie root port进行调整。cpu一个x16带宽的pcie root port切成4个x4带宽的pcie port,因此一个x16带宽的pcie root port在切成4个x4的pcie port后可以支援4张nvme硬盘。
[0082]
本实施例中,首先根据m.2连接器单元是否连接nvme硬盘,m.2连接器单元对应的在位序号切换输出状态,m.2连接器单元连接上nvme硬盘时,在位序号将预设的高电平拉为低电平。将连接有nvme硬盘的ocp转接卡通过热插拔方式,安装到扩展卡中,ocp转接卡中的在位讯号由此通过第一ocp转换器和第二ocp转换器传递到扩展卡中,cpu通过第一系统连接器及第二系统连接器,读取扩展卡中对应的在位讯号。在cpu根据收到的不同的在位讯号,将对应的pcie root port切换成不同的带宽,完成带宽动态识别。具体的,在位讯号与带宽自动识别的方式,如表3所示,建立一个在位讯号与pcie root port带宽的对照表:
[0083]
prsntb[3:0]#00004x400014x400104x400114x401004x401012x801102x801111x1610004x410012x810102x810112x811004x411012x811101x1611111x16
[0084]
表3
[0085]
在一个实施场景中,当prsntb[3:0]#输出状态,即在位讯号输出状态为“0000”时,说明四个在位讯号都为低电平,故四个m.2连接器单元都连接上nvme硬盘,cpu识别到所述
在位讯号及所连接的nvme硬盘数量,将pcie root poot切换成四个x4带宽的pcie port。
[0086]
在一个实施场景中,当prsntb[3:0]#输出状态为“0011”时,说明有两个在位讯号为低电平,两个低电平的在位讯号prsntb[0:0]#,prsntb[1:0]#对应的pcie poot的带宽为x4,prsntb[0:0]#和prsntb[1:0]#对应pcie port为p0,p1,为一组x8的带宽的pcie port切换形成的,所以为了保证nvme硬盘正常工作,cpu只能将pcie root poot切换成四个x4带宽的pcie port。
[0087]
在一个实施场景中,当prsntb[3:0]#输出状态,即在位讯号输出状态为“0110”时,说明有两个在位讯号为低电平,这两个低电平的在位讯号prsntb[0:0]#,prsntb[3:0]#对应的pcie poot的带宽为x4,prsntb[0:0]#和prsntb[3:0]#对应pcie port为p0,p3,由于不是同一组x8的带宽的pcie port切换形成的,为了保证最大带宽,cpu可以将pcie root poot切换成两个x8带宽的pcie port,当然cpu也可以将pcie root poot切换成四个x4带宽的pcie port,只是本技术为了保证服务器的性能,选择将pcie root poot切换成两个x8带宽的pcie port,并不做出限定。
[0088]
在一个实施场景中,当prsntb[3:0]#输出状态,即在位讯号输出状态为“1110”时,即prsntb[3:0]#对应的pcie poot的带宽为x4,所以本技术为了保证最大带宽,cpu无需切换pcie root带宽,当然cpu也可以将pcie root poot切换成四个x4带宽的pcie port,或者将pcie root poot切换成2个x8带宽的pcie port,只是本技术为了更好的实现服务器的性能,选择将pcie root poot切换成两个x8带宽的pcie port,并不做出限定。
[0089]
本技术通过构建一个转接系统,实现了在不使用ocp 3.0 nic卡,将扩展卡转接nvme硬盘,并且引入在位讯号,实现cpu对pcie root port带宽的自动识别,根据不同的在位讯号将pcie root port自动切换带宽,使扩展卡能够适应于不同的设备应用。
[0090]
实施例三
[0091]
对应实施例一及实施例二,本技术提供了一种ocp转接方法,如图3所示,所述方法包括:
[0092]
s100、在扩展卡闲置时,将所述ocp转接卡安装到所述扩展卡中;
[0093]
客户通常根据需求选择搭配不同网络速度的ocp 3.0 nic卡,有的时候客户并不需要太多的ocp 3.0 nic卡,这时通过热插拔方式将扩展卡中原本安装的ocp 3.0 nic卡卸载,再通过热插拔的方式将ocp转接卡安装到扩展卡中。
[0094]
s200、根据在位讯号及预设的判断规则,确定所述ocp转接卡中m.2连接器单元连接的nvme硬盘数量;
[0095]
若所述在位讯号的输出状态为低电平,确定所述ocp转接卡中所述在位讯号对应的所述m.2连接器单元与所述nvme硬盘连接;
[0096]
若所述在位讯号的输出状态为高电平,确定所述ocp转接卡中所述在位讯号对应的所述m.2连接器单元未连接所述nvme硬盘;
[0097]
根据所述ocp转接卡中所述在位讯号对应的所述m.2连接器单元是否连接所述nvme硬盘,确定所述ocp转接卡中连接的所述nvme硬盘数量。
[0098]
其中,所述在位讯号通过转接卡中的第一ocp连接器,传递到所述扩展卡中对应的第二ocp连接器,然后传递到所述扩展卡中的第二系统连接器中,最后通过第一系统连接器传递到主板中,以供主板中的cpu读取。
[0099]
s300、cpu根据所述nvme硬盘数量及预设的处理规则,切换与所述nvme硬盘对应的所述在位讯号对应的pcie root port的带宽,以保证所述nvme硬盘正常工作。
[0100]
cpu根据在位讯号的传递,识别扩展卡是否安装上ocp转接卡,在识别到安装上ocp转接卡后,根据识别到的连接的nvme硬盘数量,以及所述nvme硬盘对应的在位讯号的位置,切换所述在位讯号对应的pcie root port的带宽。
[0101]
具体的cpu切换pcie root port的带宽的方式在前述内容中已经说明,在此不做赘述。
[0102]
本技术通过将prsntb[3:0]#做为nvme硬盘的在位讯号,让cpu做pcie root port带宽的自动识别,根据不同的在位讯号将pcie root port自动切换带宽,使扩展卡能够适应于不同的设备应用,进一步使得服务器可根据应用领域的需求,调整服务器的设备配置,服务器可以用ocp 3.0 nic卡或是在非高网路需求的情况下,在ocp 3.0nic卡的槽位上换上ocp转接卡,提供扩充服务器储存容量的功能。
[0103]
实施例四
[0104]
对应上述所有实施例,本技术实施例提供一种电子设备,包括:
[0105]
一个或多个处理器;以及与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
[0106]
在扩展卡闲置时,将所述ocp转接卡安装到所述扩展卡中;
[0107]
根据在位讯号及预设的判断规则,确定所述ocp转接卡中m.2连接器单元连接的nvme硬盘数量;
[0108]
cpu根据所述nvme硬盘数量及预设的处理规则,切换与所述nvme硬盘对应的所述在位讯号对应的pcie root port的带宽,以保证所述nvme硬盘正常工作。
[0109]
其中,图4示例性的展示出了电子设备的架构,具体可以包括处理器410,视频显示适配器411,磁盘驱动器412,输入/输出接口413,网络接口414,以及存储器420。上述处理器410、视频显示适配器411、磁盘驱动器412、输入/输出接口413、网络接口414,与存储器420之间可以通过总线430进行通信连接。
[0110]
其中,处理器410可以采用通用的cpu、微处理器、应用专用集成电路(application specific integrated circuit,asic)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本技术所提供的技术方案。
[0111]
存储器420可以采用rom(read only memory,只读存储器)、ram(random access memory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器420可以存储用于控制电子设备400运行的操作系统421,用于控制电子设备400的低级别操作的基本输入输出系统(bios)422。另外,还可以存储网页浏览器423,数据存储管理系统424,以及图标字体处理系统425等等。上述图标字体处理系统425就可以是本技术实施例中具体实现前述各步骤操作的应用程序。总之,在通过软件或者固件来实现本技术所提供的技术方案时,相关的程序代码保存在存储器420中,并由处理器410来调用执行。
[0112]
输入/输出接口413用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
[0113]
网络接口414用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如usb、网线等)实现通信,也可以通过无线方式(例如移动网络、wifi、蓝牙等)实现通信。
[0114]
总线430包括一通路,在设备的各个组件(例如处理器410、视频显示适配器411、磁盘驱动器412、输入/输出接口413、网络接口414,与存储器420)之间传输信息。
[0115]
另外,该电子设备400还可以从虚拟资源对象领取条件信息数据库中获得具体领取条件的信息,以用于进行条件判断,等等。
[0116]
需要说明的是,尽管上述设备仅示出了处理器410、视频显示适配器411、磁盘驱动器412、输入/输出接口413、网络接口414,存储器420,总线430等,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本技术方案所必需的组件,而不必包含图中所示的全部组件。
[0117]
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本技术可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,云服务器,或者网络设备等)执行本技术各个实施例或者实施例的某些部分所述的方法。
[0118]
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
[0119]
以上所述仅为本技术的较佳实施例,并不用以限制本技术,凡在本技术的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本技术的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献