一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

用于数据中心冷却系统的具有流量稳定的智能低压两相冷板的制作方法

2023-01-17 13:34:22 来源:中国专利 TAG:

用于数据中心冷却系统的具有流量稳定的智能低压两相冷板
1.相关申请的交叉引用
2.这是2021年4月7日提交的美国专利申请no.17/224,814的pct申请。该申请的公开内容出于所有目的通过引用以其全部内容合并于此。
技术领域
3.至少一个实施例涉及冷却系统,包括用于操作这些冷却系统的系统和方法。在至少一个实施例中,可以在包含一个或更多个机架或计算服务器的数据中心中利用这样的冷却系统。


背景技术:

4.数据中心冷却系统使用风扇来使空气循环通过服务器组件。某些超级计算机或其他高容量计算机可使用水或其他冷却系统代替空气冷却系统来将热量从数据中心的服务器组件或机架吸走到数据中心外部的区域。冷却系统可包括数据中心区域(其可以包括数据中心本身外部的区域)内的冷却器。此外,数据中心外部的区域可以包括冷却塔或其他外部热交换器,该冷却塔或其他外部热交换器接收来自数据中心的经加热的冷却剂,并且其通过强制空气或其他手段将热量散发到环境(或外部冷却介质)。经冷却的冷却剂再循环回到数据中心中。冷却器和冷却塔一起形成冷却设施。
附图说明
5.图1示出了经受在至少一个实施例中描述的改进的示例性数据中心冷却系统;
6.图2示出了根据至少一个实施例的与用于数据中心冷却系统的具有流量稳定的智能低压两相冷板相关联的服务器级特征;
7.图3示出了根据至少一个实施例的与用于数据中心冷却系统的具有流量稳定的智能低压两相冷板相关联的机架级特征;
8.图4示出了根据至少一个实施例的与用于数据中心冷却系统的具有流量稳定的智能低压两相冷板相关联的数据中心级特征;
9.图5示出了根据至少一个实施例的与图2-4的数据中心冷却系统相关联的方法;
10.图6示出了根据至少一个实施例的分布式系统;
11.图7示出了根据至少一个实施例的示例性数据中心;
12.图8示出了根据至少一个实施例的客户端-服务器网络;
13.图9示出了根据至少一个实施例的计算机网络;
14.图10a示出了根据至少一个实施例的联网计算机系统;
15.图10b示出了根据至少一个实施例的联网计算机系统;
16.图10c示出了根据至少一个实施例的联网计算机系统;
17.图11示出了根据至少一个实施例的系统环境的一个或更多个组件,在该系统环境中,服务可被提供为第三方网络服务;
18.图12示出了根据至少一个实施例的云计算环境;
19.图13示出了根据至少一个实施例的由云计算环境提供的一组功能抽象层;
20.图14示出了根据至少一个实施例的在芯片级的超级计算机;
21.图15示出了根据至少一个实施例的在机架模块级处的超级计算机;
22.图16示出了根据至少一个实施例的在机架级处的超级计算机;
23.图17示出了根据至少一个实施例的在整个系统级的超级计算机;
24.图18a示出了根据至少一个实施例的推理和/或训练逻辑;
25.图18b示出了根据至少一个实施例的推理和/或训练逻辑;
26.图19示出了根据至少一个实施例的神经网络的训练和部署;
27.图20示出了根据至少一个实施例的网络系统的架构;
28.图21示出了根据至少一个实施例的网络系统的架构;
29.图22示出了根据至少一个实施例的控制平面协议栈;
30.图23示出了根据至少一个实施例的用户平面协议栈;
31.图24示出了根据至少一个实施例的核心网的组件;
32.图25示出了根据至少一个实施例的支持网络功能虚拟化(nfv)的系统的组件;
33.图26示出了根据至少一个实施例的处理系统;
34.图27示出了根据至少一个实施例的计算机系统;
35.图28示出了根据至少一个实施例的系统;
36.图29示出了根据至少一个实施例的示例性集成电路;
37.图30示出了根据至少一个实施例的计算系统;
38.图31示出了根据至少一个实施例的apu;
39.图32示出了根据至少一个实施例的cpu;
40.图33示出了根据至少一个实施例的示例性加速器集成切片;
41.图34a-34b示出了根据至少一个实施例的示例性图形处理器;
42.图35a示出了根据至少一个实施例的图形核心;
43.图35b示出了根据至少一个实施例的gpgpu;
44.图36a示出了根据至少一个实施例的并行处理器;
45.图36b示出了根据至少一个实施例的处理集群;
46.图36c示出了根据至少一个实施例的图形多处理器;
47.图37示出了根据至少一个实施例的编程平台的软件栈;
48.图38示出了根据至少一个实施例的图37的软件栈的cuda实现;
49.图39示出了根据至少一个实施例的图37的软件栈的rocm实现;
50.图40示出了根据至少一个实施例的图37的软件栈的opencl实现方式;
51.图41示出了根据至少一个实施例的由编程平台支持的软件;以及
52.图42示出了根据至少一个实施例的用于在图37-40的编程平台上执行的编译代码。
具体实施方式
53.在至少一个实施例中,可以利用如图1所示的示例性数据中心100,所述数据中心
具有经受本文所描述的改进的冷却系统。在至少一个实施例中,阐述了许多具体细节以提供透彻理解,但是本文的概念可以在没有这些具体细节中的一个或更多个的情况下实践。在至少一个实施例中,数据中心冷却系统可以响应于由改变现今计算组件中的计算负载所引起的突然的高热需求。在至少一个实施例中,由于这些需求经历不同冷却需求的最小值到最大值的变化或趋于从最小值到最大值的范围,所以必须使用适当的冷却系统以经济的方式满足这些需求。在至少一个实施例中,对于中等至高的冷却需求,可以使用液体冷却系统。在至少一个实施例中,通过局部浸没冷却经济地满足了高冷却需求。在至少一个实施例中,这些不同的冷却需求还反映了数据中心的不同热特征。在至少一个实施例中,从这些组件、服务器和机架产生的热量被累积地称为热特征或冷却需求,因为冷却需求必须完全解决热特征。
54.在至少一个实施例中,公开了一种数据中心液体冷却系统。在至少一个实施例中,该数据中心冷却系统解决了关联的计算或数据中心设备中的热特征,诸如图形处理单元(gpu)中、交换机中、双列直插存储器模块(dimm)中或中央处理单元(cpu)中的热特征。在至少一个实施例中,这些组件在本文中可以被称为高热密度计算组件。此外,在至少一个实施例中,关联的计算或数据中心设备可以是在其上具有一个或更多个gpu、交换机或cpu的处理卡。在至少一个实施例中,gpu、交换机和cpu中的每一个可以是计算设备的发热特征。在至少一个实施例中,gpu、cpu或交换机可以具有一个或更多个核心,并且每个核心可以是发热特征。
55.在至少一个实施例中,数据中心冷却系统中的具有流量稳定的智能低压两相冷板可以由两相制冷剂-空气(r2a)热交换器支撑。在至少一个实施例中,这样的低压两相冷板可适于在低于50psi的压力下支撑穿过其中的两相流体。在至少一个实施例中,这种r2a热交换器可以被提供用于独立于数据中心冷却系统中的辅助冷却回路及其关联的主冷却回路和冷却设施或者在具有辅助冷却回路及其相关联的主冷却回路和冷却设施的补充配置中进行冷却。在至少一个实施例中,具有流量稳定的智能低压两相冷板可通过来自至少一个冷板的两相流体(诸如制冷剂或介电工程流体)来实现,并使用数据中心内压缩机或冷凝单元将热量释放到数据中心的热通道中。
56.在至少一个实施例中,r2a热交换器具有关联的风扇和数据中心内压缩机单元。在至少一个实施例中,这种r2a热交换器可以具有实现数据中心内冷凝单元的泵。在至少一个实施例中,冷凝单元和泵的这种组合可以称为或可以支撑两相r2a热交换器,其也由两相能力冷板支撑。因此,在至少一个实施例中,冷凝单元使用泵来使流体循环通过r2a热交换器以便在此类流体中散热,而压缩机单元使用压缩机来在循环通过r2a热交换器之前将蒸气或气体压缩成流体,以在此类流体中散热。在至少一个实施例中,冷凝单元或压缩机单元可以与至少r2a热交换器和关联的硬件(诸如用于流量稳定的缓冲区)是可互换的,以便共同指代两相流体回路。在至少一个实施例中,这种缓冲区通过允许两相流体在其中膨胀并允许不同流速和流量的两相流体通过闭合的两相流体回路(或冷却回路)来提供流量稳定。
57.在本技术中,两相能力的冷板包括微通道,该微通道可以是直接附接到数据中心服务器内的高热密度组件(诸如gpu、cpu和交换机)的垫片热交换器。在至少一个实施例中,从这样的冷板移除的热量可以通过冷凝或压缩机单元来散发,这些冷凝或压缩机单元可以被附接到服务器或者可以是服务器机架的冷凝或压缩机单元壁(包括r2a热交换器)的一部
分。在至少一个实施例中,在冷凝或压缩机单元、r2a热交换器、以及冷板之间可以使用金属流体管线连接件,该冷板允许将形成两相流体的制冷剂从两相流体(或制冷)冷却循环的高压级(stage)迁移到低压级。在至少一个实施例中,可以在位于服务器内部或整个机架的位置中使用泵,以帮助两相流体移动通过两相冷却循环。在至少一个实施例中,缓冲区或储箱(tank)允许在服务器处或在机架内部使两相流体膨胀。在至少一个实施例中,这样的缓冲区的大小可以部分地基于意图用于两相流体冷却循环的服务器或机架级设计来调节。在至少一个实施例中,传感器(诸如温度、流量、压力和质量传感器)允许对数据中心冷却系统中具有流量稳定的智能低压两相冷板进行智能控制。
58.在至少一个实施例中,具有流量稳定的智能低压两相冷板使用两相制冷剂或工程流体,诸如7000、7000、或的工程流体中的一些,其中冷板和压缩机或冷凝单元用于从至少一个计算设备移除热量。在至少一个实施例中,这种冷板适于在其中支撑蒸发器部分。在至少一个实施例中,流量稳定可由两相流体的不同体积或不同流速表示,所述两相流体被使得能够在这种蒸发器部分和冷板外部的冷凝单元之间流动。在至少一个实施例中,具有流量稳定的智能低压两相冷板利用两相制冷剂或工程流体,其可解决所产生的高达100kw热量的冷却需求。在至少一个实施例中,两相流体的不同流速或流量可以按照由具有智能低压两相冷板(具有流量稳定)的数据中心冷却系统表示的闭合回路内的至少不同冷却需求设定的需要而提供。
59.在至少一个实施例中,具有流量稳定的智能低压两相冷板允许两相流体直接流到其中具有至少一个蒸发器的两相冷板。在至少一个实施例中,与至少一个冷板或r2a热交换器相关联的膨胀阀使得两相流体能够通过冷板,以引起两相流体的相变并且引起从至少一个计算设备吸收热量。在至少一个实施例中,来自至少一个计算设备的热量被吸收到两相流体中,该两相流体然后被传递到冷凝单元(具有低容量泵)或压缩机单元和r2a热交换器,以引起所吸收热量的至少一部分释放到数据中心内的热通道中。在至少一个实施例中,传感器(诸如温度、流量、湿度、泄漏、压力、以及流体或冷却剂化学物质)允许在辅助或主冷却回路中存在任何问题的情况下具有流量稳定的智能低压两相冷板的智能操作。
60.在至少一个实施例中,具有流量稳定的智能低压两相冷板能够解决冷板中主要能够支撑冷却剂以用于冷却目的的问题。在至少一个实施例中,具有流量稳定的智能低压两相冷板能够解决需要外部冷凝单元的基于制冷剂的系统的问题。在至少一个实施例中,具有流量稳定的智能低压两相冷板使用数据中心内冷凝或压缩机单元,并使用适于两相流体的冷板,诸如具有用于冷却剂流动的微通道,与用于两相流体的微通道不同。因此,在至少一个实施例中,对于使用具有流量稳定的智能低压两相冷板的冷却需求,相对于数据中心,不需要外部访问。在至少一个实施例中,具有流量稳定的智能低压两相冷板能够支持从至少一个计算设备吸收热量,并且能够使所吸收热量的至少一部分释放到热通道,这使得基于制冷剂的系统能够与冷板一起使用。
61.在至少一个实施例中,具有流量稳定的智能低压两相冷板是指具有至少一个关联的冷板和冷凝单元的系统,该冷凝单元被适配成支撑两相流体,该两相流体在不同的操作阶段从蒸气转变成液体并且反之亦然。在至少一个实施例中,具有流量稳定的智能低压两相冷板能够解决具有r2a热交换器的数据中心服务器和交换机的液体冷却,这些r2a热交换器由于从高热密度计算组件(诸如gpu/cpu/交换机)的有限热量移除容量而具有应用限制。
在至少一个实施例中,单相冷却剂,诸如水和具有添加剂(包括冷却剂)的水显示出此类应用限制。在至少一个实施例中,数据中心机架的热密度不断增加,并且不断需要用于移除热量的创新方法,同时限于现有空气冷却数据中心的前提条件。
62.在至少一个实施例中,具有流量稳定的智能低压两相冷板包括r2a热交换器并且利用两相流体。在至少一个实施例中,两相流体可以包括或其他类似的工作两相流体。在至少一个实施例中,两相流体可用于使用具有蒸发器部分的直接至芯片两相冷板进行热量移除。在至少一个实施例中,这种冷板可附接到机架中的gpu、cpu或交换机。在至少一个实施例中,r2a热交换器的关联的冷凝单元(或压缩机单元)利用压缩机(或泵)和冷凝盘管(诸如r2a热交换器)来释放从一个或更多个服务器组件收集的热量的至少一部分。在至少一个实施例中,这样的冷凝单元或压缩机单元(具有关联的r2a热交换器)被置于一排服务器机架中,并且可以从流经r2a热交换器的两相流体散发数据中心内的热量。
63.在至少一个实施例中,两相流体在冷板的蒸发器部分内处于液体到气体的相变。在至少一个实施例中,两相流体在进入压缩机时处于气相,但在泵中处于流体状态。在至少一个实施例中,压缩机产生高压和高温蒸气。在至少一个实施例中,具有流量稳定的智能低压两相冷板的冷凝单元或压缩机单元使得能够冷却蒸气(或流体),其中至少气相在压缩机单元中冷凝为液相。在至少一个实施例中,当存在具有流量稳定的智能低压两相冷板的冷凝单元或压缩机单元时,两相流体为液相。在至少一个实施例中,两相流体在低压环境中转变成气相,并且能够在冷板的蒸发器部分内吸收热量。在至少一个实施例中,两相流体在其吸收热量时转变成蒸气,并且将其送至压缩机以在施加压力时以及至少在r2a热交换器处释放热量之后循环回到液体。
64.在至少一个实施例中,这种具有流量稳定的智能低压两相冷板能够提供具有流量稳定的智能低压两相冷板,该流量稳定经由放置在冷板外部的冷凝单元与冷板内的蒸发器之间的缓冲区提供。在至少一个实施例中,这使得可以提供两相流体以用于直接冷却关联的计算设备。在至少一个实施例中,由这样的具有流量稳定的智能低压两相冷板解决的问题是克服被设计成与单独的冷却剂或在非常高的压力(诸如700psi或约700psi)下操作的制冷剂系统一起使用的冷板,这使得它们易于泄漏且处理困难。
65.在至少一个实施例中,由具有流量稳定的智能低压两相冷板提供的改进是使用低压流体系统(如用于冷却的两相流体)的能力。在至少一个实施例中,这样的流体可以是在这样的低压下(包括在50psi下)可操作的工程介电流体。在至少一个实施例中,这样的流体可以被直接提供到冷板内的蒸发器部分。在至少一个实施例中,这使得制冷剂冷却不易于灾难性泄漏。在至少一个实施例中,在制冷剂适配的冷板(在本文中可简称为冷板)和数据中心内冷凝单元之间使用稳定箱(称为缓冲区)管理两相流体的流动变化,该流动变化可能由来自相关联的计算设备的突然的高热生成引起,这随后触发具有流量稳定的智能低压两相冷板的高冷却需求。在至少一个实施例中,因为这样的系统可以是闭环,所以缓冲区使得能够在这样的闭环内循环和膨胀特征,具有响应于宽范围的冷却需求的能力。此外,在至少一个实施例中,这种缓冲区可适于在50psi的压力下支撑,甚至在可能另外要求复杂的安全和释放特征的最极端的膨胀箱事件下。
66.在至少一个实施例中,可以利用如图1所示的示例性数据中心100,所述数据中心
具有经受在此所描述的改进的冷却系统。在至少一个实施例中,数据中心100可以是具有机架110和辅助设备的一个或更多个室102,以在一个或更多个服务器托盘上容纳一个或更多个服务器。在至少一个实施例中,数据中心100由位于数据中心100外部的冷却塔104支持。在至少一个实施例中,冷却塔104通过作用于主冷却回路106而从数据中心100内散热。在至少一个实施例中,在主冷却回路106与第二或辅助冷却回路108之间使用冷却分配单元(cdu)112,以使得能够从第二或辅助冷却回路108向主冷却回路106吸收热量。在至少一个实施例中,在一个方面,根据需要,辅助冷却回路108可以接入进入服务器托盘的不同管道。在至少一个实施例中,回路106、108被示出为线图,但是普通技术人员将认识到,可以使用一个或更多个管道连接特征。在至少一个实施例中,柔性聚氯乙烯(pvc)管道可以与相关联的管道一起使用以使流体沿着每个提供的回路106;108移动。在至少一个实施例中,一个或更多个冷却剂泵可以用于维持冷却剂回路106、108内的压力差,以使得冷却剂能够根据不同位置(包括在室中、在一个或更多个机架110中和/或在一个或更多个机架110内的服务器箱或服务器托盘中)中的温度传感器移动。
67.在至少一个实施例中,主冷却回路106和辅助冷却回路108中的冷却剂可以至少是水和添加剂。在至少一个实施例中,添加剂可以是乙二醇或丙二醇。在操作中,在至少一个实施例中,主冷却回路和辅助冷却回路中的每个冷却回路可以具有它们自己的冷却剂。在至少一个实施例中,辅助冷却回路中的冷却剂可以专用于服务器托盘或相关联的机架110中的组件的要求。在至少一个实施例中,cdu 112能够独立地或同时地对所提供的冷却剂回路106、108内的冷却剂进行复杂的控制。在至少一个实施例中,cdu可适于控制冷却剂的流速,使得冷却剂被适当地分配以吸收在相关联的机架110内产生的热量。在至少一个实施例中,从辅助冷却回路108提供更柔性的管道114以进入每个服务器托盘,以向其中的电气和/或计算组件提供冷却剂。
68.在至少一个实施例中,形成辅助冷却回路108的一部分的管道118可以被称为室歧管。单独地,在至少一个实施例中,另外的管道116可以从行歧管管道118延伸并且也可以是辅助冷却回路108的一部分,但可以被称为行歧管。在至少一个实施例中,冷却剂管道114作为辅助冷却回路108的一部分进入机架,但可以被称为一个或更多个机架内的机架冷却歧管。在至少一个实施例中,行歧管116沿着数据中心100中的行延伸到所有机架。在至少一个实施例中,包括冷却剂歧管118、116和114的辅助冷却回路108的管道可以通过在此的至少一个实施例来改进。在至少一个实施例中,可以在数据中心102内的主冷却回路中提供冷却器120,以在冷却塔之前支持冷却。在至少一个实施例中,对于本公开,可存在于主控制回路中并且在机架外部和在辅助冷却回路外部提供冷却的附加冷却回路可与主冷却回路一起并且与辅助冷却回路不同。
69.在至少一个实施例中,在操作中,在提供的机架110的服务器托盘内产生的热量可以经由第二冷却回路108的行歧管114的柔性管传递到离开一个或更多个机架110的冷却剂。在至少一个实施例中,来自cdu112的用于冷却所提供的机架110的第二冷却剂(在辅助冷却回路108中)经由所提供的管件朝向一个或更多个机架110移动。在至少一个实施例中,来自cdu 112的第二冷却剂从具有管件118的室歧管的一侧经由行歧管116传递到机架110的一侧,并且经由不同的管件114传递通过服务器托盘的一侧。在至少一个实施例中,用过的或返回的第二冷却剂(或从计算组件离开的承载热量的第二冷却剂)从服务器托盘的另
一侧离开(诸如,进入机架的左侧并在循环通过服务器托盘或通过服务器托盘上的组件之后离开用于服务器托盘的机架的右侧)。在至少一个实施例中,离开服务器托盘或机架110的用过的第二冷却剂从管件114的不同侧(诸如离开侧)出来并且移动到行歧管116的平行的但也是离开侧。在至少一个实施例中,来自行歧管116的用过的第二冷却剂在室歧管118的平行部分中移动,并沿与进入的第二冷却剂(其也可以是经更新的第二冷却剂)相反的方向朝向cdu 112行进。
70.在至少一个实施例中,用过的第二冷却剂与主冷却回路106中的主冷却剂经由cdu 112交换其热量。在至少一个实施例中,用过的第二冷却剂可以被更新(诸如当与用过的第二冷却剂阶段的温度相比时相对冷却)并且准备好通过第二冷却回路108循环回到一个或更多个计算组件。在至少一个实施例中,cdu 112中的各种流和温度控制特征使得能够控制从用过的第二冷却剂交换的热量或进出cdu 112的第二冷却剂流。在至少一个实施例中,cdu 112还能够控制主冷却回路106中的主冷却剂的流。
71.在至少一个实施例中,如图2所示的服务器级特征200可以与用于数据中心冷却系统的具有流量稳定的智能低压两相冷板相关联。在至少一个实施例中,服务器级特征200包括服务器托盘或箱202。在至少一个实施例中,服务器托盘或箱202包括在服务器托盘或箱202的所提供的冷板210a-d与托管服务器托盘或箱202的机架的机架歧管之间中间地耦合的服务器歧管204。在至少一个实施例中,服务器托盘或箱202包括与一个或更多个计算或数据中心组件或设备220a-d相关联的一个或更多个冷板210a-d。
72.在至少一个实施例中,可在服务器歧管204与一个或更多个冷板210a-d之间提供一个或更多个服务器级冷却回路214a、214b。在至少一个实施例中,每个服务器级冷却回路214a、214b包括入口管线210和出口管线212。在至少一个实施例中,当存在串联配置的冷板210a、210b时,可提供中间管线216。在至少一个实施例中,一个或更多个冷板210a-d可支撑用于从具有缓冲区的预加载的两相r2a热交换器循环的辅助冷却回路的辅助冷却剂或不同的流体(诸如两相流体)的不同端口和通道。在至少一个实施例中,具有两相流体的冷却回路是使用具有确定容量的缓冲区的闭合回路,以能够随着这种两相流体的流速或流量的增加而在低压下解决不同的冷却需求。在至少一个实施例中,用于冷却关联的计算设备的辅助冷却剂可以经由所提供的入口和出口206a、206b提供给服务器歧管204。在至少一个实施例中,可以经由所提供的入口和出口208a、208b将用于冷却的两相流体提供给服务器歧管204。
73.在至少一个实施例中,服务器托盘202是可被流体淹没的浸没式冷却的服务器托盘。在至少一个实施例中,用于浸没式冷却的服务器托盘的流体可以是能够在浸没式冷却的服务器中使用的介电工程流体。在至少一个实施例中,可以使用辅助冷却剂或两相流体来冷却工程流体。在至少一个实施例中,当与循环辅助冷却剂的辅助冷却回路相关联的主冷却回路已故障或者正在故障时,可以使用两相流体来冷却工程流体。在至少一个实施例中,至少一个冷板因此具有用于辅助冷却回路和用于两相流体冷却回路的端口,并且可支撑两相流体冷却回路,该两相流体冷却回路在主冷却回路发生故障的情况下被激活。在至少一个实施例中,可以使用具有流量稳定的智能低压两相冷板,而无需辅助冷却回路。
74.在至少一个实施例中,至少一个双冷却冷板210b;250可以被配置为在常规冷板210a、c、d旁边工作。在至少一个实施例中,三维(3d)放大图示(冷板250)提供了可包括在双
冷却冷板210b中的至少一些特征的内部细节。在至少一个实施例中,其中具有微通道270(也是270a)的冷板250的第一部分250b的撕裂图示出了具有不同微通道264的不同的第二部分250a。在至少一个实施例中,常规冷板可具有一组微通道264;270而不是所示的两组。在至少一个实施例中,双冷却冷板250具有用于辅助冷却回路的辅助冷却剂和用于两相流体冷却回路的两相流体的不同路径264、270(每个路径也称为微通道)。在至少一个实施例中,辅助冷却剂或两相流体的性质可以不是介电的。在至少一个实施例中,在浸没式冷却的服务器的用例下,可以是介电工程流体的两相流体可以适用于冷板应用和浸没式冷却的服务器托盘应用两者。
75.在至少一个实施例中,一些微通道270是由翅片270a或其他此类方面提供的路径,这些翅片或其他此类方面在内部并且垂直于冷板部分250b的底座隆起,这样使得在其间存在用于流体或冷却剂流的间隙。在至少一个实施例中,一些微通道264是在冷板250的不同冷板部分250a中的流体通路。在至少一个实施例中,用于两相流体的一些微通道264表示用于冷板250的蒸发(或蒸发器)部分。在至少一个实施例中,位于冷板250的入口侧上的流量控制器280可以充当膨胀阀;并且这使得两相流体能够进入冷板250并且在较低压力下膨胀,以及在从至少一个计算设备吸收热量期间在离开冷板250之前变相。在至少一个实施例中,对冷板的引用及其双冷却特征可暗示对可支撑至少两种类型的冷却回路的冷板的引用,除非另有说明。在至少一个实施例中,两种类型的冷板均接收两相流体用于冷却,但一种类型可支持辅助冷却回路和两相流体冷却回路两者。在至少一个实施例中,标准冷却剂(诸如设施水)可以用于辅助冷却回路中。
76.在至少一个实施例中,两相流体可以仅支持冷板使用,并且不可用于浸没式冷却。在至少一个实施例中,每种类型的冷板从相应的两相流体冷却回路、或与主冷却回路接合的辅助冷却回路或其他冷却回路接收不同的两相流体和辅助冷却剂。在至少一个实施例中,在不同的流体(诸如冷却剂)与不同的辅助回路的不同的冷却剂分配单元(cdu)一起使用的情况下,则不同的冷却回路可与两相流体冷却回路一起适用于双冷却冷板,使得不同的通道可用于两相流体中的每一个和用于不同的辅助冷却剂。在至少一个实施例中,本文所提及的任何冷板能够在露点以上工作以防止水分形成,例如在20华氏度以上,或在确定的环境露点以上。
77.在至少一个实施例中,双冷却冷板250被适配成接收两种类型的流体(诸如辅助冷却剂和两相流体)并且经由其不同的端口252、272、268、262以及它们的不同的路径264、270保持两种类型的流体彼此不同;,诸如通过由垫圈和板(例如在垫圈型冷板中)分开的不同部分。在至少一个实施例中,每个不同的路径是流体路径。在至少一个实施例中,可以同时提供来自两相流体源的流体(诸如两相流体)和辅助冷却剂以解决附加的冷却需求。
78.在至少一个实施例中,双冷却冷板250包括端口252、272,以便将两相流体接收到冷板250中并且将两相流体从冷板250中传递出来。在至少一个实施例中,双冷却冷板250包括端口268、262,用于将辅助冷却剂接收到冷板250中并将辅助冷却剂从冷板250中传递出来。在至少一个实施例中,端口252、272可以具有阀盖254、260(或膨胀阀的特征),该阀盖可以是定向的且是压力控制的,以使得两相流体能够膨胀通过冷板250。在至少一个实施例中,阀盖可以与所有提供的端口相关联,但是膨胀阀可以专用于两相流体入口。在至少一个实施例中,每个这样的阀可以被额定为支持高达50psi的压力。在至少一个实施例中,所提
供的阀盖254、260为关联流量控制器的机械特征,该关联流量控制器还具有对应的电子特征(诸如至少一个处理器,用于执行存储在关联存储器中的指令并控制关联流量控制器的机械特征)。
79.在至少一个实施例中,每个阀可以由关联流量控制器的电子特征来致动。在至少一个实施例中,集成所提供的流量控制器的电子特征和机械特征。在至少一个实施例中,所提供的流量控制器的电子特征和机械特征在物理上不同。在至少一个实施例中,对流量控制器的引用可以是针对所提供的电子特征和机械特征中的一个或更多个或其联合,但是至少引用使得能够控制通过每个冷板或浸没式冷却的服务器托盘或箱的冷却剂或两相流体的流动的特征。
80.在至少一个实施例中,所提供的流量控制器的电子特征接收控制信号并断言对机械特征的控制。在至少一个实施例中,所提供的流量控制器的电子特征可以是致动器或其他类似机电特征的其他电子部件。在至少一个实施例中,流量泵可用作流量控制器。在至少一个实施例中,叶轮、活塞或波纹管可以是机械特征,并且电动机和电路形成所提供的流量控制器的电子特征。
81.在至少一个实施例中,所提供的流量控制器的电路可以包括处理器、存储器、交换机、传感器和其他组件,它们共同形成所提供的流量控制器的电子特征。在至少一个实施例中,所提供的流量控制器的所提供的端口252、262、272、268适于允许浸没式流体进入或允许浸没式流体流出。在至少一个实施例中,流量控制器280(能够充当膨胀阀)可以与流体管线276(也是256、274)相关联,流体管线276使得两相流体(诸如制冷剂或工程流体)能够进入和流出至冷板210b。在至少一个实施例中,其他流量控制器可类似地与冷却剂管线210、216、212(亦为266、258)相关联,以使得辅助冷却剂能够进入和流出冷板210b。
82.在至少一个实施例中,可以在两相流体的流体管线276内提供缓冲区276a。在至少一个实施例中,这样的缓冲区放置可以部分地基于针对关联的冷板210b实现的冷却需求的范围。在至少一个实施例中,较高的冷却需求可能需要两相流体的较高流速或流量。在至少一个实施例中,这样的冷却需求可由缓冲区276a解决,但可由冷板210b和冷板210b外部的冷凝单元之间的其他串联缓冲区解决。
83.在至少一个实施例中,缓冲区276a的尺寸可以由所使用的两相流体的类型及其热性质(例如,其流体相中的最小温度对比其气相中的最大温度)决定。在至少一个实施例中,该信息可以用于确定缓冲区在环境热之前在特定区域中存储两相流体多久,该环境热使得两相流体对于从关联的计算设备220b移除热无效。在至少一个实施例中,缓冲区276a被连续地补充并且缓存两相流体,该两相流体由在它流过去之前由这样的缓存保留至少一些两相流体一段短暂时间的能力来表示,该缓冲区被设计为在冷板(其蒸发器)、缓冲区以及冷凝单元(具有其关联的r2a热交换器)之间的两相流体回路的闭合回路内的通过储器(pass-through reservoir)。在至少一个实施例中,这样的缓冲区276a还通过允许一些两相流体在两相流体回路内由于环境热而蒸发和膨胀而提供膨胀储箱特征。
84.在至少一个实施例中,两相流体经由专用流体入口和出口管线208a、b进入所提供的流体管线276。在至少一个实施例中,服务器歧管204适配于在其中具有通道(由虚线示出),以支持到不同流体管线276(也是256、274)的不同路径以及到与辅助冷却剂入口和出口管线206a、b相关联的任何剩余回路214a、b的不同路径。在至少一个实施例中,可以存在
多个歧管以不同地支持两相流体和辅助冷却剂。在至少一个实施例中,可存在多个歧管,以不同地支持用于两相流体和辅助冷却剂中每一个的入口和出口。在至少一个实施例中,如果在没有辅助冷却回路的情况下单独使用两相流体,则经由所提供的流体路径之一(至少在冷板或服务器托盘内)的流体流可被使能到两相流体源或冷却剂行歧管(诸如行歧管360,不同于图3中的辅助冷却剂行歧管350)。
85.在至少一个实施例中,第一流可以用于使辅助冷却剂能够流过一个或更多个所提供的端口252、272和关联的路径270。在至少一个实施例中,双冷却冷板250可以具有隔离的板部分250a、250b,所述板部分250a、250b充满两相流体和/或辅助冷却剂,同时通过垫圈或密封件保持彼此不同。在至少一个实施例中,第二流可以用于使得两相流体能够流过所提供的端口268、262,以及通过翅片或微通道270a的关联的路径264,翅片或微通道270a遍及冷板部分250b的基部。
86.在至少一个实施例中,流量控制器278可以与服务器歧管204处的流体入口276和出口部分相关联,而不是与相应的冷板处的所提供的流量控制器280相关联。在至少一个实施例中,第一流仅使用两相流体,且可在辅助冷却回路或主冷却回路中确定故障时启用,使得辅助冷却剂不能有效地从至少一个计算设备吸收热量。在至少一个实施例中,故障可以是辅助冷却剂没有经由cdu被充分冷却,并且因此其可能不能经由其关联的冷板吸收至少一个计算设备的足够的热量。
87.在至少一个实施例中,如图3中所示出的机架级特征300可以与用于数据中心冷却系统的具有流量稳定的智能低压两相冷板相关联。在至少一个实施例中,机架级特征300包括具有支架304、306的机架302,这些支架用于悬挂冷却歧管314a、314b。在至少一个实施例中,虽然机架330与机架302分开示出,但该机架330可示出机架302的后透视图。在至少一个实施例中,同样地,设置在机架330上的支架334、336是设置在机架302上的支架304、306的透视图。在至少一个实施例中,为机架提供的支架304、306是抵靠机架内壁的平坦结构。在至少一个实施例中,为机架提供的支架304、306从机架的内壁延伸。在至少一个实施例中,为机架提供的支架304、306附接到机架的内壁并且具有面向一个或更多个方向(包括在机架的内部或朝向机架的后部)的多个安装点。
88.在至少一个实施例中,可以提供冷却歧管314a、314b以在数据中心冷却系统的服务器级特征200(并且在图3中示出为服务器托盘或箱308)与辅助冷却回路的cdu(如图4的cdu 406)之间传递辅助冷却剂。在至少一个实施例中,不同的cdu可以服务于不同的机架。在至少一个实施例中,不同的机架冷却歧管可以不同地是辅助冷却回路和两相流体冷却回路的部分。
89.在至少一个实施例中,行歧管350可以是用于经由所提供的管线310a、310对入口机架歧管314a进行馈送的辅助冷却回路的一部分。在至少一个实施例中,辅助冷却剂经由所提供的管线316行进到冷板326,以从服务器308内的关联的计算设备324提取或吸收热量;并且经由所提供的管线318行进到出口机架歧管314b并且通过所提供的管线312、312a,并且返回到相同或不同的行歧管350中。在至少一个实施例中,具有流量稳定的智能低压两相冷板可独立于辅助冷却回路工作,并且可经由两相流体冷却回路的所提供的管线312b、310b以及与r2a热交换器364相关联的两相流体冷却歧管360来冷却与启用两相流体(双冷却或单冷却)的冷板326相关联的至少一个计算设备。在至少一个实施例中,可以如图所示
或者在歧管360之后,在到冷板326的入口侧上提供缓冲区372。在至少一个实施例中,这种缓冲区372实现由两相流体的不同体积或不同流速表示的流量稳定,该两相流体被使得能够在位于冷板326外部的冷凝单元362(以及r2a热交换器)与其蒸发器(由图2中的通道264实现)之间流动。
90.在至少一个实施例中,一个或更多个分流器流量控制器310c、312c将辅助冷却回路和两相流体冷却回路中的每一者隔离开。在至少一个实施例中,一个或更多个分流器流量控制器具有下游膨胀阀,用于向两相流体提供膨胀特征,用于在适当压力下高效吸热。在至少一个实施例中,此类下游膨胀阀可以被适配成用于低于50psi压力的低压操作。在至少一个实施例中,两相流体可以与至少一个冷板326和智能两相流体r2a热交换器一起使用。在至少一个实施例中,所提供的管线320、322、354可以与两相流体相关联并且可以与入口310b和出口312b相关联,以便与r2a热交换器364和关联的管线370以及关联的组件360、362、366、368相接合。
91.在至少一个实施例中,数据中心冷却系统包括制冷剂-空气(r2a)热交换器364,该r2a热交换器与风扇366和冷凝单元以及泵362相关联或者可以与压缩机单元相关联。在至少一个实施例中,具有流量稳定的智能低压两相冷板包括形成r2a热交换器364的热交换管或垫圈热交换器。在至少一个实施例中,智能两相流体r2a热交换器的部分、部件或组件362-366可以一起集成到单个单元中。在至少一个实施例中,r2a热交换器的部分、部件或组件362-366可以集成在机架之间并且可以在机架330上提供的支架区域处或经由其支架334、336与机架相关联。在至少一个实施例中,这种集成使用缓冲区来在所提供的机架之间的这种集成系统的出口处提供两相流体的流量稳定。
92.在至少一个实施例中,第一(两相流体)部分364中的热交换管或垫圈热交换器可以被适配成使通过所提供的流量控制器368之一进入和通过所提供的流量控制器368中的另一个离开的两相流体循环。在至少一个实施例中,在这样的出口侧上,可以提供缓冲区372用于流量稳定。在至少一个实施例中,在对可以是闭合回路的两相冷却回路施加突然需求时可以使用缓冲区。在至少一个实施例中,可能立即需要两相流体以解决高冷却需求。在至少一个实施例中,可以从这样的缓冲区372提供这样的两相流体,而无需滥用(strain)两相流体冷却回路的闭合回路应变。在至少一个实施例中,这种滥用是相对于压缩机或冷凝单元362而言的,可能需要该压缩机或冷凝单元来处理穿过其中的较低或较高的流体流。在至少一个实施例中,第二(风扇)部分366中的热交换管或垫圈热交换器使得空气能够循环,以用于在具有流量稳定的智能低压两相冷板的集成或分离特征内冷却r2a热交换器364。
93.在至少一个实施例中,具有流量稳定的智能低压两相冷板的r2a特征是机架302(或330)的后门的一部分或结合在该后门内。在至少一个实施例中,单独的设施或主歧管360在一个或更多个r2a热交换器364与一个或更多个机架302之间提供两相流体。在至少一个实施例中,r2a热交换器364包括多个通道而不是多个管或板以使两相流体通过,以便冷却两相流体或散发其中保留的热量。在至少一个实施例中,数据中心冷却系统能够通过机架330的r2a热交换器364(及其支持基础设施——诸如两相能力冷板和压缩机或泵362)在第一模式中解决机架330(或302)的第一冷却需求。在至少一个实施例中,在第一模式中,r2a热交换器364可以用于经由来自风扇366的循环空气从冷板的两相流体中散热。在至少一个实施例中,数据中心冷却系统能够通过与cdu、主冷却剂和冷却设施接合的辅助冷却回
路来解决处于第二模式中的机架330(或302)的第二冷却需求。在至少一个实施例中,对于高密度计算组件,对于针对机架所确定的任何冷却需求,两种模式都在运行中。
94.在至少一个实施例中,第一冷却需求和第二冷却需求可以涉及数据中心的不同热特征。在至少一个实施例中,第一冷却需求可与从一个或更多个计算设备产生的热量相关联,该热量可通过至少缓冲区的流量稳定特征来解决,该缓冲区可提供两相流体的变化的体积(诸如流量)或变化的流速以解决这种第一冷却需求。在至少一个实施例中,第二冷却需求还可以与从一个或更多个计算设备产生的例如通过经由冷板而被保留在两相流体和/或辅助冷却剂内的热量相关联,并且该热量可能需要通过使用冷凝或压缩机单元的r2a热交换器中的一个或更多个和/或通过经由cdu的主冷却剂进行散发。在至少一个实施例中,产生、吸收、提取或保留的热量的量可以是需要低于运行值或运行范围的温度值;或需要保持在操作值或范围。
95.在至少一个实施例中,可以提供至少一个处理器以确定与机架330(或302)中的计算设备324相关联的温度。在至少一个实施例中,至少一个处理器能够使数据中心冷却系统至少部分地基于与计算设备324相关联的或从计算设备324确定的温度而在第一模式或第二模式中操作。在至少一个实施例中,至少一个处理器可以使数据中心冷却系统的第一模式能够使用两相流体的不同体积或不同流速中的第一体积或流速来提供冷却。在至少一个实施例中,这样的至少一个处理器可以使得数据中心冷却系统的第二模式能够使用两相流体的不同体积或不同流速中的第二体积或流速来提供冷却。
96.在至少一个实施例中,机架302(或330)内的浸没式冷却的服务器352可以具有与机架302(或330)内的空气冷却的、冷却剂冷却的、或两相流体冷却的服务器308并发地解决的其冷却需求。在至少一个实施例中,浸没式冷却的服务器352可以包括围绕计算设备的介电工程流体。在至少一个实施例中,浸没式冷却的服务器352可以包括第二热交换器,用于在介电工程流体与要在r2a热交换器364中循环的两相流体之间交换热量。
97.在至少一个实施例中,至少一个服务器托盘或箱308(诸如机架302中最底部的服务器托盘或箱308)可以被指定为用于具有流量稳定的智能低压两相冷板的控制系统,使得如果使用两相流体,则这种系统可以与辅助冷却回路隔离。在至少一个实施例中,服务器托盘或箱308中的控制系统可包括安全特征(诸如用于提供传感器数据或适当功能的传感器)、通信特征(用于在主动模式时与至少一个流量控制器通信,并与外部监视器通信)、用于为一个或更多个流量控制器和至少一个处理器(及其相关特征)供电的功率特征和由至少一个处理器提供的可与至少一个流量控制器相关联的控制特征。
98.在至少一个实施例中,冷板326可以与计算设备324相关联。在至少一个实施例中,冷板可以具有用于支持辅助冷却剂的微通道的第一部分的第一端口,该第一部分不同于支持r2a热交换器的两相流体的微通道的第二部分。在至少一个实施例中,至少一个处理器可适于从与计算设备324相关联的传感器接收传感器输入。在至少一个实施例中,传感器还可以与机架、辅助冷却剂、或两相流体中的一个或更多个相关联。在至少一个实施例中,至少一个处理器可适于部分地基于传感器输入来确定第一冷却需求和第二冷却需求。在至少一个实施例中,传感器输入可以是从如所描述的传感器以一个或更多个时间间隔感测到的温度。在至少一个实施例中,至少一个处理器可以使得两相流体回路能够为至少一个计算设备提供冷却并且使用缓冲区为两相流体回路提供流量稳定。
99.在至少一个实施例中,一个或更多个神经网络被适配成从所提供的传感器接收传感器输入,并且被适配成推理数据中心冷却系统(诸如数据中心冷却系统的两相流体回路)的第一冷却需求和第二冷却需求。在至少一个实施例中,这种两相流体回路的流量控制器实现其中的两相流体的不同流速或流量。在至少一个实施例中,至少一个处理器可以使至少一个流量控制器使得两相流体能够流过r2a热交换器,并且可以被适配成防止辅助冷却剂流到辅助冷却回路。在至少一个实施例中,可使一个或更多个分流器流量控制器310c、312c能够引起这种流动以及防止两相流体和辅助冷却剂的流动。在至少一个实施例中,所提供的管线310b、312b可以被提供以与r2a热交换器364的入口管线和出口管线370流体地耦合。在至少一个实施例中,可使r2a热交换器340a、340b上的其他流量控制器368能够防止或引起两相流体流过r2a热交换器364。
100.在至少一个实施例中,至少一个处理器可以使得一个或更多个流量控制器在第一模式下在r2a热交换器内冷却时控制两相流体的流速和流量,这不同于在使用辅助冷却剂和两相流体两者的辅助冷却模式下的基于辅助冷却回路的冷却。在至少一个实施例中,至少一个处理器可以使得一个或更多个流量控制器368;368a在r2a热交换器内以第二模式冷却时控制两相流体的流速和流量,该第二模式可以比第一模式要求更高(诸如更高的冷却需求)。在至少一个实施例中,缓冲区372的一个或更多个流量控制器368a可以在封闭系统中没有任何背压的情况下实现两相流体的更多或更少的体积或流速。在至少一个实施例中,同样地,一个或更多个流量控制器368a可以节流闭合的两相流体回路中的两相流体的流量。在至少一个实施例中,可以提供电耦合以便为流量控制器368;368a的至少一个组件供电。在至少一个实施例中,至少一个处理器可适于从与至少一个计算设备(诸如计算设备324)相关联的传感器接收传感器输入。在至少一个实施例中,至少一个处理器可以部分地基于传感器输入来确定冷却剂状态的改变。在至少一个实施例中,冷却剂状态可以涉及冷却剂(或两相流体)的温度、流速、流量或状态(例如流动或不流动)。
101.在至少一个实施例中,可以从冷板、机架或冷却歧管中的一个或更多个的出口或进口感测冷却剂状态。在至少一个实施例中,至少一个处理器可以使数据中心冷却系统部分地基于所确定的冷却剂状态的改变来在第一模式、辅助冷却模式或第二模式中操作。在至少一个实施例中,当确定从冷板的出口处的冷却剂温度没有超过阈值(暗示关联的计算设备没有产生多少热量)时,可以启用第一模式以使两相流体流过r2a热交换器和适当的冷板。在至少一个实施例中,这使得数据中心冷却系统的经济使用能够从辅助冷却回路或r2a热交换器中的一个或更多个提供冷却。
102.在至少一个实施例中,当机架的热通道处的、计算设备的附近的、或流体(辅助冷却剂或局部冷却剂)的温度被确定为超过阈值(暗示与可通过单独的强制空气来处理的热量相比,关联的计算设备正在生成更多的热量)时,可以使数据中心冷却系统的第二冷却模式或甚至辅助冷却模式能够使用更多两相流体或更高流速的两相流体,或来自辅助冷却回路的辅助以便为计算设备提供冷却。在至少一个实施例中,除了已经提供以经由r2a热交换器来冷却至少一个计算设备的第一模式或第二模式以外,辅助冷却模式还接合或启用辅助冷却回路,该r2a热交换器具有从与至少一个计算设备相关联的冷板循环的两相流体,以便提供比由辅助冷却回路提供的冷却更多的冷却。
103.在至少一个实施例中,r2a热交换器与至少一个冷板相接合或相关联,以使用两相
流体从至少一个计算设备吸收热量。在至少一个实施例中,r2a热交换器进一步与冷凝或压缩机单元相接合或相关联,并且与冷凝或压缩机单元和冷板以及其蒸发器部分之间的缓冲区相接合或相关联。在至少一个实施例中,冷凝或压缩机单元可导致至少一部分热量从两相流体散发到数据中心内的区域,诸如数据中心的机架上方或数据中心的热通道。在至少一个实施例中,在与r2a热交换器的盘管或板关联或接口之前,冷凝或压缩机单元包括泵或压缩机和关联的流量控制器(例如阀)和管线。
104.在至少一个实施例中,如图4中所示的数据中心级特征400可以与用于数据中心冷却系统的具有流量稳定的智能低压两相冷板相关联。在至少一个实施例中,数据中心402内的数据中心级特征400可包括:机架404,用于托管一个或更多个服务器托盘或箱;一个或更多个cdu 406,用于在辅助冷却回路412和主冷却回路422之间交换热量;一个或更多个行歧管410,用于分配来自cdu 406的冷却剂;以及关联的各种流量控制器420,以及入口和出口管线412、414、416、418。
105.在至少一个实施例中,具有流量稳定的智能低压两相冷板与数据中心402中的机架404或每个所提供的机架404的后门相关联地提供。在至少一个实施例中,机架404后面的通道是用于在数据中心冷却系统的第一操作模式期间经由与r2a热交换器相关联的冷凝或压缩机单元(一起示出为单元432或434)从至少一个机架404中的至少一个计算设备排出热量的热通道。在至少一个实施例中,与r2a热交换器相关联的冷凝或压缩机单元(一起示出为单元432或434)可以与两相流体歧管430一起提供,以使得热量能够从r2a热交换器散发到数据中心的天花板区域,这样它可以从数据中心排出。在至少一个实施例中,可以提供一个或更多个缓冲区432a、434a用于来自单元432或434的r2a热交换器的两相流体的流量稳定。在至少一个实施例中,数据中心冷却系统的不同机架404可以协作地具有智能低压两相冷板,其具有用于液体冷却的流量稳定。在至少一个实施例中,可以提供两相流体歧管430以直接向机架404的服务器托盘或箱的冷板提供两相流体。
106.在至少一个实施例中,不同的行歧管410可以与不同的机架相关联。在至少一个实施例中,不同的冷却剂可以相对于辅助冷却剂化学匹配或不匹配。在至少一个实施例中,取决于与所提供的不同cdu中的每一个cdu一起使用的不同辅助冷却剂的化学性质,将不同的流体源作为冗余特征提供给不同cdu。在至少一个实施例中,不需要有用于一个或更多个机架404的辅助冷却回路和cdu,并且相反,智能两相流体r2a热交换器可以足以为机架404提供冷却。在至少一个实施例中,可以通过具有流量稳定的智能低压两相冷板充分地解决不与辅助冷却回路相关联的这些机架。
107.在至少一个实施例中,机架404可以与用于操作具有流量稳定的智能低压两相冷板的至少一个处理器相关联。在至少一个实施例中,处理器可包括一个或更多个电路。在至少一个实施例中,处理器的一个或更多个电路可适于确定数据中心冷却系统的冷却需求。在至少一个实施例中,处理器可以使数据中心冷却系统的第一操作模式或第二操作模式通过r2a热交换器经由缓冲区并使用两相流体在冷板与r2a热交换器之间交换热量来解决第一冷却需求和第二冷却需求。
108.在至少一个实施例中,这样的操作可独立于来自冷却设施408的辅助冷却剂和主冷却剂。在至少一个实施例中,处理器可使数据中心冷却系统的辅助冷却操作模式通过具有行歧管410、流量控制器416、418和cdu 406的辅助冷却回路来解决进一步的冷却需求(与
两相流体所解决的第一或第二冷却需求相比),cdu 406又耦合到具有冷却设施408的主冷却回路422。
109.在至少一个实施例中,两相流体冷却回路可比辅助冷却回路更经济,但辅助冷却回路可比两相流体冷却回路解决更高的冷却需求。在至少一个实施例中,使得所有冷却模式针对提供的机架404并发地发生。在至少一个实施例中,垫圈或管热交换器可用作冷板,用于不同地支持辅助冷却剂和两相流体。
110.在至少一个实施例中,与具有流量稳定的智能低压两相冷板一起使用的处理器包括输出,用于为一个或更多个流量控制器提供信号。在至少一个实施例中,一个或更多个流量控制器可以使得两相流体流过r2a热交换器和缓冲区,并且可以在数据中心冷却系统的模式下防止辅助冷却剂流到辅助冷却回路,使得具有流量稳定的智能低压两相冷板在机架中提供单个冷却源。在至少一个实施例中,这个特征使得能够使用隔离的具有流量稳定的智能低压两相冷板,而无需辅助冷却回路、主冷却回路、cdu和关联的冷却塔。在至少一个实施例中,可提供这样的冷却达一时间段,直到已解决主冷却回路中的任何问题。在至少一个实施例中,这样的冷却可以具有由服务水平协议(sla)中的停机时间定义的容量。
111.在至少一个实施例中,与具有流量稳定的智能低压两相冷板一起使用的处理器包括输入,用于从与机架404的至少一个计算设备相关联的传感器接收传感器输入。在至少一个实施例中,传感器可并发地或单独地与机架、辅助冷却剂或来自机架的关联冷板的两相流体相关联。在至少一个实施例中,处理器可部分地基于来自这些关联的传感器的传感器输入来确定第一冷却需求和第二冷却需求。在至少一个实施例中,部分地基于来自这些关联的传感器的传感器输入,可以调节主冷却剂、辅助冷却剂或两相流体中的一个或更多个通过冷板(用于辅助冷却剂)、通过cdu(用于主冷却剂)或通过r2a热交换器和两相适配的冷板(用于两相流体)的流速或流量。
112.在至少一个实施例中,可以在至少一个处理器内提供一个或更多个神经网络,用于接收传感器输入并从数据中心冷却系统的计算设备或方面推理第一冷却需求和第二冷却需求。在至少一个实施例中,一个或更多个神经网络可以推理辅助冷却回路或主冷却回路的故障。在至少一个实施例中,部分地基于与流速、流量、温度、湿度和泄漏相关联的传感器输入,处理器的一个或更多个电路可使得一个或更多个流量控制器支持第一冷却模式、第二冷却模式或辅助冷却模式。
113.在至少一个实施例中,与机架404和具有流量稳定的智能低压两相冷板一起使用的处理器包括一个或更多个电路。在至少一个实施例中,处理器的一个或更多个电路可以引起用于数据中心冷却系统的不同操作模式中的第一模式、第二模式或辅助冷却模式。在至少一个实施例中,引起第一模式、第二模式或辅助冷却模式是指引起数据中心冷却系统在第一模式、第二模式或辅助冷却模式中操作。
114.在至少一个实施例中,数据中心冷却系统包括用于两相流体冷却回路的r2a热交换器。在至少一个实施例中,可以提供处理器的一个或更多个电路来训练一个或更多个神经网络,以从与机架、计算设备、辅助冷却剂相关联的或与来自机架的至少一个冷板的两相流体相关联的传感器的传感器输入推理冷却需求。在至少一个实施例中,处理器可使冷板使用冷板内的蒸发器来为计算设备提供冷却。在至少一个实施例中,这样的冷却可以是通过两相流体流过冷板内的蒸发器来从计算设备移除热量。在至少一个实施例中,随着两相
流体从计算设备吸收或移除热量,它变成气相。在至少一个实施例中,蒸发器可以与缓冲区相关联以在两相流体进入冷板之前执行流量稳定。在至少一个实施例中,流量稳定可由两相流体的不同体积或不同流速表示,所述两相流体被使得能够在位于冷板外部的冷凝或压缩机单元与蒸发器之间流动。
115.在至少一个实施例中,与具有流量稳定的智能低压两相冷板一起使用的处理器的输出可适于为一个或更多个流量控制器提供信号。在至少一个实施例中,这使得两相流体能够流过r2a热交换器,并且使得能够防止在数据中心冷却系统的第一模式或第二模式中辅助冷却剂流到辅助冷却回路。在至少一个实施例中,这样的输出可以用于控制来自缓冲区的两相流体的流量和/或流速。在至少一个实施例中,辅助冷却回路不与具有流量稳定的智能低压两相冷板一起使用;然而,当使用时,则可以使用至少一个分流流量控制器来使两相流体在冷板与r2a热交换器之间流动或者使辅助冷却剂在冷板与cdu之间流动,以与具有流量稳定的智能低压两相冷板并发使用或分开使用。在至少一个实施例中,与具有流量稳定的智能低压两相冷板的缓冲区相关联的一个或更多个流量控制器可以由这样的输出控制,以支持通过其中的两相流体的不同流量或流速。
116.在至少一个实施例中,处理器的一个或更多个神经网络可以被适配成接收传感器输入。在至少一个实施例中,一个或更多个神经网络可被训练以作为对先前传感器输入和先前冷却需求的分析的一部分而推理第一冷却需求和第二冷却需求。在至少一个实施例中,一个或更多个神经网络可用先前传感器输入和先前冷却需求的相关数据来训练,使得先前传感器输入的阈值内的新传感器输入可与先前冷却需求或其变化相关。
117.在至少一个实施例中,与具有流量稳定的智能低压两相冷板一起使用的处理器的输出可适于提供信号,以使一个或更多个流量控制器在第一模式中被调节,使得两相流体流在第一模式或第二模式中发生,与在辅助冷却模式中发生的辅助冷却剂流不同。在至少一个实施例中,取决于哪种模式是活动的,可以增加或减少到r2a热交换器的两相流体流量或体积。
118.在至少一个实施例中,与具有流量稳定的智能低压两相冷板一起使用的处理器的输入被适配成接收与来自至少一个计算设备、辅助冷却剂、或离开冷板的两相流体的温度相关联的传感器输入。在至少一个实施例中,可以训练处理器的一个或更多个神经网络以部分地基于至少一个计算设备、辅助冷却剂或两相流体的温度和先前温度来推理已经发生的冷却剂状态的改变。在至少一个实施例中,处理器的一个或更多个电路可以适于引起用于数据中心冷却系统的操作的第一模式、第二模式或辅助冷却模式。在至少一个实施例中,一个或更多个电路可使用缓冲区、冷板和冷凝或压缩机单元来启用或禁用两相流体回路。
119.在至少一个实施例中,将与具有流量稳定的智能低压两相冷板一起使用的处理器包括用于引起数据中心冷却系统的操作的第一模式、第二模式或辅助冷却模式的一个或更多个电路。在至少一个实施例中,一个或更多个电路或处理器将包括一个或更多个神经网络,用于从与机架404或与来自至少一个冷板的辅助冷却剂或两相流体相关联的传感器的传感器输入推理冷却需求。在至少一个实施例中,处理器可以被适配为通过使两相流体以一个或更多个流速或流量流过r2a热交换器而使第一模式或第二模式解决第一或第二冷却需求。在至少一个实施例中,处理器可适于还使辅助冷却模式解决辅助冷却回路和cdu对从冷板循环的流体进行冷却的进一步冷却需求。
120.在至少一个实施例中,贯穿图1-4描述的至少一个处理器中的每一个具有推理和/或训练逻辑1815,所述推理和/或训练逻辑可以包括但不限于:代码和/或数据存储1801,用于存储和/或转发输出权重和/或输入/输出数据、和/或用于配置经训练和/或用于在一个或更多个实施例的方面中进行推理的神经网络的神经元或层的其他参数。在至少一个实施例中,训练逻辑1815可以包括或耦合至代码和/或数据存储1801,用于存储图代码或其他软件以控制定时和/或顺序,其中可以加载权重和/或其他参数信息来配置逻辑,所述逻辑包括整数和/或浮点单元(统称为算术逻辑单元(alu))。在至少一个实施例中,诸如图代码之类的代码基于这样的代码所对应的神经网络的架构将权重或其他参数信息加载到处理器alu中。在至少一个实施例中,代码和/或数据存储1801存储在使用一个或更多个实施例的方面训练和/或推理期间在输入/输出数据和/或权重参数的前向传播期间结合一个或更多个实施例训练或使用的神经网络的每一层的权重参数和/或输入/输出数据。在至少一个实施例中,代码和/或数据存储1801的任何部分可与其他片上或片外数据存储一起被包括,包括处理器的l1、l2或l3高速缓存或系统存储器。
121.在至少一个实施例中,至少一个处理器的推理和/或训练逻辑1815可以是用于控制服务器级、机架级和行级中的一个或更多个的流量控制器的建筑管理系统(bms)的一部分。在至少一个实施例中,可以将接合与辅助冷却回路相关联的流量控制器、具有流量稳定的智能低压两相冷板、cdu、冷板或其他冷却歧管的确定提供给推理和/或训练逻辑1815的一个或更多个神经网络,以使得一个或更多个神经网络从数据中心冷却系统的r2a热交换器或辅助冷却回路推理针对一个或更多个冷板、服务器或机架的冷却剂需求优雅地接合或脱离哪些流量控制器。在至少一个实施例中,通过r2a热交换器的流体流量的增加或减少可以由流量控制器实现,该流量控制器是由与控制逻辑相关联的至少一个处理器的推理和/或训练逻辑1815控制的,该控制逻辑与局部冷却回路相关联。
122.在至少一个实施例中,至少一个处理器可以与局部冷却回路以及与辅助冷却回路相关联。在至少一个实施例中,至少一个处理器可以与具有流量稳定的智能低压两相冷板相关联。在至少一个实施例中,至少一个处理器包括诸如推理和/或训练逻辑1815之类的控制逻辑,其与至少一个流量控制器相关联。在至少一个实施例中,至少一个流量控制器可以具有其自己各自的处理器或微控制器。在至少一个实施例中,处理器或微控制器执行从控制逻辑发送到它的指令。在至少一个实施例中,控制逻辑可用于确定冷却剂状态的变化,诸如辅助冷却回路(诸如cdu和冷却歧管)或主冷却回路(诸如冷却设施、冷却歧管以及关联的cdu)中的故障。在至少一个实施例中,对于需要更换的冷却歧管,也可能发生故障。在至少一个实施例中,控制逻辑可使至少一个流量控制器提供响应,诸如通过接合具有冷凝或压缩机单元、两相流体和支持性冷板的两相流体冷却回路来提供对至少一个计算设备的冷却。
123.在至少一个实施例中,控制逻辑可使到至少一个流量控制器的第一信号作为冷却剂响应的一部分而启用来自辅助冷却回路的辅助冷却剂的停止。在至少一个实施例中,控制逻辑可使到至少一个流量控制器的第二信号使得能够作为响应的一部分从两相流体冷却回路启动两相流体。在至少一个实施例中,控制逻辑可以从与cdu的辅助冷却剂、两相流体和/或至少一个计算设备相关联的传感器接收传感器输入。在至少一个实施例中,至少一个处理器可以部分地基于传感器输入来确定冷却剂状态的变化。在至少一个实施例中,推
理和/或训练逻辑1815的一个或更多个神经网络可以被适配成接收传感器输入并且推理冷却剂状态的变化。
124.在至少一个实施例中,至少一个处理器可以包括用于一个或更多个神经网络的一个或更多个电路,诸如推理和/或训练逻辑1815。在至少一个实施例中,推理和/或训练逻辑1815可适于从与至少一个服务器或至少一个机架相关联的传感器输入推理冷却剂状态的变化,诸如来自cdu的冷却剂在进入机架时无效或保留太多热量。在至少一个实施例中,一个或更多个电路可适于使至少一个流量控制器提供来自两相流体冷却回路的响应。
125.在至少一个实施例中,与一个或更多个电路相关联的控制逻辑可使到至少一个流量控制器的第一信号(连同任何关联的信号)实现响应——来自辅助冷却回路或具有带有流量稳定的智能低压两相冷板的两相流体冷却回路。在至少一个实施例中,第二信号可以被提供给至少流量控制器并且还可以仅启用处于不同模式的r2a热交换器而无需辅助冷却回路,但如果需要进一步冷却则可以接合或激活辅助冷却回路。在至少一个实施例中,由至少一个处理器的一个或更多个电路启用分布式或集成架构。在至少一个实施例中,分布式架构可以由一个或更多个电路中不同定位的电路支持。
126.在至少一个实施例中,推理和/或训练逻辑1815的一个或更多个神经网络可以被适配成推理至少一个服务器的至少一个计算组件的冷却需求的增加或减少。在至少一个实施例中,一个或更多个电路可适于使冷却回路经济地解决针对至少一个计算组件的降低的冷却需求或补充增加的冷却需求。在至少一个实施例中,使能冷却回路表示来自两相流体冷却回路的响应部分地基于发送到至少一个计算组件的工作负载来抢占至少一个服务器的至少一个计算组件的冷却需求的相应增大或相应减小。
127.在至少一个实施例中,至少一个处理器包括一个或更多个电路(诸如推理和/或训练逻辑1815),用于训练一个或更多个神经网络以从所提供的数据做出推理。在至少一个实施例中,推理和/或训练逻辑1815可以从与至少一个服务器或至少一个机架相关联的传感器输入推理冷却剂状态的变化。在至少一个实施例中,可使用推理来使一个或更多个电路能够引起两相流体冷却回路的至少一个流量控制器提供响应。在至少一个实施例中,响应可以是引起来自两相流体冷却回路的两相流体响应将热量吸收到两相流体中并且经由具有风扇的冷凝或压缩机单元而不是具有cdu的辅助冷却回路将所吸收的热量交换到环境中。
128.在至少一个实施例中,一个或更多个电路可适于训练一个或更多个神经网络以推理至少一个服务器的至少一个计算组件的冷却需求的增加或减少。在至少一个实施例中,一个或更多个电路可适于训练一个或更多个神经网络,以推理由于cdu故障或至少一个服务器的至少一个计算组件的功率需求的相应增加或减少,来自辅助冷却回路的流量输出的增加或减少与辅助冷却剂的不适当流量相关联。
129.在至少一个实施例中,一个或更多个神经网络可以被训练成通过来自计算设备、服务器、或机架的先前关联的热特征或冷却需求、和由局部冷却回路的流体源指示的冷却容量或能力(诸如通过具有流量稳定的智能低压两相冷板)做出推理,该智能低压两相冷板具有高于强制空气冷却能力但可以低于辅助冷却回路的冷却能力的特定冷却能力。在至少一个实施例中,两相流体冷却回路满足的先前冷却需求可用于使一个或更多个神经网络对通过调节一个或更多个流量控制器来以不同的流量或流速接合两相流体冷却回路来满足
的将来的类似冷却需求(考虑由此的小变化)做出类似推理。
130.图5示出了根据至少一个实施例的与图2-4的数据中心冷却系统相关联的方法500。在至少一个实施例中,方法500包括用于提供具有蒸发器的冷板以使用两相流体从至少一个计算设备移除热量的步骤502。在至少一个实施例中,步骤504用于实现确定或确定机架的至少一个计算设备的冷却需求。在至少一个实施例中,步骤506用于验证至少一个计算设备的至少一个冷却需求。在至少一个实施例中,步骤508用于启用冷板以使用两相流体从至少一个计算设备吸收热量。在至少一个实施例中,步骤510用于启用缓冲区以执行由两相流体的不同体积或不同流速表示的流量稳定,所述两相流体被使得能够在蒸发器和位于冷板外部的冷凝或压缩机单元之间流动。在至少一个实施例中,如果步骤506确定至少一个计算设备没有进一步的冷却需求或现有冷却需求没有变化,则可以重复步骤504。
131.在至少一个实施例中,方法500可以包括用于使用至少一个处理器确定与机架中的至少一个计算设备相关联的温度的进一步步骤或子步骤。在至少一个实施例中,方法500可以包括用于使用与机架中的至少一个计算设备相关联的温度来确定第一冷却需求或第二冷却需求的进一步步骤或子步骤。在至少一个实施例中,方法500可包括用于部分地基于第一冷却需求或第二冷却需求引起两相流体回路或辅助冷却回路的进一步步骤或子步骤。在至少一个实施例中,这种辅助冷却回路可以与主冷却回路相关联。
132.在至少一个实施例中,方法500可以包括用于在至少一个处理器中接收来自与至少一个计算设备、机架、辅助冷却剂、或两相流体相关联的传感器的传感器输入的进一步步骤或子步骤。在至少一个实施例中,方法500可包括用于使用至少一个处理器部分地基于接收到至少一个处理器的传感器输入来确定第一冷却需求和第二冷却需求的进一步步骤或子步骤。在至少一个实施例中,方法500可以包括用于使r2a热交换器能够将热量散发到数据中心内的热通道的进一步步骤或子步骤。在至少一个实施例中,方法500可以包括用于由至少一个处理器从与至少一个计算设备相关联的传感器接收传感器输入的进一步步骤或子步骤。在至少一个实施例中,方法500可以包括用于由至少一个处理器部分地基于在其中接收的传感器输入来确定冷却剂状态的变化的进一步步骤或子步骤。在至少一个实施例中,方法500可包括用于部分地基于所确定的冷却剂状态的变化来使得使用缓冲区、冷板和冷凝或压缩机单元实现两相流体回路的进一步步骤或子步骤。
133.服务器和数据中心
134.以下附图阐述了但不限于可以用于实现至少一个实施例的基于示例性网络服务器和数据中心的系统。
135.图6示出了根据至少一个实施例的分布式系统600。在至少一个实施例中,分布式系统600包括一个或更多个客户端计算设备602、604、606和608,其被配置成在一个或更多个网络610上执行和操作客户端应用,诸如网络(web)浏览器、专有客户端和/或其变体。在至少一个实施例中,服务器612可以经由网络610与远程客户端计算设备602、604、606和608通信地耦合。
136.在至少一个实施例中,服务器612可适于运行一个或更多个服务或软件应用,诸如可管理跨多个数据中心的单点登录(sso)访问的会话活动的服务和应用。在至少一个实施例中,服务器612还可以提供其他服务,或者软件应用,其可以包括非虚拟和虚拟环境。在至少一个实施例中,这些服务可作为基于web的服务或云服务或在软件即服务(saas)模型下
被提供给客户端计算设备602、604、606和/或608的用户。在至少一个实施例中,操作客户端计算设备602、604、606和/或608的用户又可以利用一个或更多个客户端应用来与服务器612交互以利用由这些组件提供的服务。
137.在至少一个实施例中,系统600的软件组件618、620和622在服务器612上实现。在至少一个实施例中,系统600的一个或更多个组件和/或由这些组件提供的服务也可由客户端计算设备602、604、606和/或608中的一个或更多个来实现。在至少一个实施例中,操作客户端计算设备的用户然后可以利用一个或更多个客户端应用来使用由这些组件提供的服务。在至少一个实施例中,这些组件可以用硬件、固件、软件或其组合来实现。应当理解,各种不同的系统配置是可能的,其可以不同于分布式系统600。因此,图6所示的实施例是用于实现实施例系统的分布式系统的至少一个实施例,并且不旨在是限制性的。
138.在至少一个实施例中,客户端计算设备602、604、606和/或608可以包括不同类型的计算系统。在至少一个实施例中,客户端计算设备可以包括便携式手持设备(例如,蜂窝电话、计算平板、个人数字助理(pda))或可穿戴设备(例如,google头戴式显示器),运行软件(如microsoft windows)和/或各种移动操作系统(诸如ios、windows phone、android、blackberry 10、palm os和/或其变体)。在至少一个实施例中,设备可以支持不同应用,诸如不同互联网相关的应用、电子邮件、短消息服务(sms)应用,并且可以使用各种其他通信协议。在至少一个实施例中,客户端计算设备还可以包括通用个人计算机,在至少一个实施例中,所述通用个人计算机包括运行各种版本的microsoftapple和/或linux操作系统的个人计算机和/或膝上型计算机。
139.在至少一个实施例中,客户端计算设备可以是运行各种可商购的或类似unix的操作系统中的任一种的工作站计算机,包括但不限于各种gnu/linux操作系统,诸如google chrome os。在至少一个实施例中,客户端计算设备还可以包括能够通过一个或更多个网络610进行通信的电子设备,诸如瘦客户端计算机、启用互联网的游戏系统(例如,具有或不具有手势输入设备的微软xbox游戏控制台)、和/或个人消息传递设备。尽管图6中的分布式系统600被示为具有四个客户端计算设备,但可支持任何数量的客户端计算设备。其他设备(诸如具有传感器的设备等)可与服务器612交互。
140.在至少一个实施例中,分布式系统600中的网络610可以是能够使用各种可用协议中的任何协议来支持数据通信的任何类型的网络,包括但不限于tcp/ip(传输控制协议/互联网协议)、sna(系统网络架构)、ipx(互联网分组交换)、appletalk和/或其变体。在至少一个实施例中,网络610可以是局域网(lan),基于以太网的网络、令牌环、广域网、互联网、虚拟网络、虚拟专用网(vpn)、内联网、外联网、公共交换电话网络(pstn)、红外网络、无线网络(例如,在电气与电子协会(ieee)802.11协议组、和/或任何其他无线协议中的任一者下运行的网络),和/或这些和/或其他网络的任何组合。
141.在至少一个实施例中,服务器612可以由一个或更多个通用计算机、专用服务器计算机(在至少一个实施例中,包括pc(个人计算机)服务器、服务器、中程服务器、大型计算机、机架式服务器等)、服务器农场、服务器集群或任何其他适当的布置和/或组合组成。在至少一个实施例中,服务器612可包括运行虚拟操作系统的一个或更多个虚拟机或涉
及虚拟化的其他计算架构。在至少一个实施例中,可以虚拟化一个或更多个灵活的逻辑存储设备池,以便为服务器维护虚拟存储设备。在至少一个实施例中,虚拟网络可由服务器612使用软件定义的网络来控制。在至少一个实施例中,服务器612可适于运行一个或更多个服务或软件应用。
142.在至少一个实施例中,服务器612可以运行任何操作系统,以及任何可商购的服务器操作系统。在至少一个实施例中,服务器612还可以运行各种附加服务器应用和/或中层应用中的任一种,包括http(超文本传输协议)服务器、ftp(文件传输协议)服务器、cgi(公共网关接口)服务器、服务器、数据库服务器和/或其变体。在至少一个实施例中,示例性数据库服务器包括但不限于从oracle、microsoft、sybase、ibm(国际商业机器)和/或其变体可商购的那些。
143.在至少一个实施例中,服务器612可包括一个或更多个应用,用于分析和合并从客户端计算设备602、604、606和608的用户接收的数据馈送和/或事件更新。在至少一个实施例中,数据馈送和/或事件更新可以包括但不限于,从一个或更多个第三方信息源和连续数据流接收的馈送、更新或实时更新,其可以包括与传感器数据应用、金融报价器、网络性能测量工具(例如,网络监视和业务管理应用)相关的实时事件,点击流分析工具、汽车交通监测和/或其变化。在至少一个实施例中,服务器612还可以包括用于经由客户端计算设备602、604、606和608的一个或更多个显示设备来显示数据馈送和/或实时事件的一个或更多个应用。
144.在至少一个实施例中,分布式系统600还可包括一个或更多个数据库614和616。在至少一个实施例中,数据库可提供用于存储信息(诸如用户交互信息、使用模式信息、适配规则信息和其他信息)的机制。在至少一个实施例中,数据库614和616可以驻留在各种位置中。在至少一个实施例中,数据库614和616中的一个或更多个可以驻留在服务器612本地(和/或驻留在服务器612中)的非暂态存储介质上。在至少一个实施例中,数据库614和616可以远离服务器612并且经由基于网络的连接或专用连接与服务器612通信。在至少一个实施例中,数据库614和616可以驻留在存储区域网络(san)中。在至少一个实施例中,用于执行归属于服务器612的功能的任何必要的文件可以适当地本地存储在服务器612上和/或远程存储。在至少一个实施例中,数据库614和616可以包括关系数据库,诸如适于响应于sql格式化的命令而存储、更新和检索数据的数据库。
145.图7示出了根据至少一个实施例的示例性数据中心700。在至少一个实施例中,数据中心700包括但不限于数据中心基础设施层710、框架层720、软件层730和应用层740。
146.在至少一个实施例中,如图7所示,数据中心基础设施层710可以包括资源协调器712、分组的计算资源714和节点计算资源(“节点c.r.”)716(1)-716(n),其中“n”表示任何完整的正整数。在至少一个实施例中,节点c.r.716(1)-716(n)可以包括但不限于任意数量的中央处理单元(“cpu”)或其他处理器(包括加速器、现场可编程门阵列(“fpga”)、图形处理器等)、存储器设备(例如,动态只读存储器)、存储设备(例如,固态硬盘或磁盘驱动器)、网络输入/输出(“nw i/o”)设备、网络交换机、虚拟机(“vm”)、功率模块和冷却模块等。在至少一个实施例中,节点c.r.716(1)-716(n)中的一个或更多个节点c.r.可以是具有一个或更多个上述计算资源的服务器。
147.在至少一个实施例中,分组的计算资源714可以包括容纳在一个或更多个机架内
的节点c.r.的单独分组(未示出),或者容纳在各个地理位置的数据中心内的许多机架(也未示出)。分组的计算资源714内的节点c.r.的单独分组可以包括可以被配置或分配为支持一个或更多个工作负载的分组的计算、网络、存储器或存储资源。在至少一个实施例中,可以将包括cpu或处理器的几个节点c.r.分组在一个或更多个机架内,以提供计算资源来支持一个或更多个工作负载。在至少一个实施例中,一个或更多个机架还可以包括任意数量的电源模块、冷却模块和网络交换机,以任意组合。
148.在至少一个实施例中,资源协调器712可以配置或以其他方式控制一个或更多个节点c.r.716(1)-716(n)和/或分组的计算资源714。在至少一个实施例中,资源协调器712可以包括用于数据中心700的软件设计基础结构(“sdi”)管理实体。在至少一个实施例中,资源协调器712可以包括硬件、软件或其某种组合。
149.在至少一个实施例中,如图7所示,框架层720包括但不限于作业调度器732、配置管理器734、资源管理器736和分布式文件系统738。在至少一个实施例中,框架层720可以包括支持软件层730的软件752和/或应用程序层740的一个或更多个应用程序742的框架。在至少一个实施例中,软件752或应用程序742可以分别包括基于web的服务软件或应用程序,例如由amazon web services、google cloud和microsoft azure提供的服务或应用程序。在至少一个实施例中,框架层720可以是但不限于一种免费和开放源软件网络应用框架,例如可以利用分布式文件系统738来进行大范围数据处理(例如“大数据”)的apache sparktm(以下称为“spark”)。在至少一个实施例中,作业调度器732可以包括spark驱动器,以促进对数据中心700的各个层所支持的工作负载进行调度。在至少一个实施例中,配置管理器734可以能够配置不同的层,例如软件层730和包括spark和用于支持大规模数据处理的分布式文件系统738的框架层720。在至少一个实施例中,资源管理器736能够管理映射到或分配用于支持分布式文件系统738和作业调度器732的集群或分组计算资源。在至少一个实施例中,集群或分组计算资源可以包括数据中心基础设施层710上的分组的计算资源714。在至少一个实施例中,资源管理器736可以与资源协调器712协调以管理这些映射的或分配的计算资源。
150.在至少一个实施例中,包括在软件层730中的软件752可以包括由节点c.r.716(1)-716(n)的至少一部分,分组计算资源714和/或框架层720的分布式文件系统738使用的软件。一种或更多种类型的软件可以包括但不限于internet网页搜索软件、电子邮件病毒扫描软件、数据库软件和流视频内容软件。
151.在至少一个实施例中,应用层740中包括的一个或更多个应用程序742可以包括由节点c.r.716(1)-716(n)的至少一部分、分组的计算资源714和/或框架层720的分布式文件系统738使用的一种或更多种类型的应用程序。一种或更多种类型的应用程序可以包括但不限于cuda应用程序、5g网络应用程序、人工智能应用程序、数据中心应用程序、和/或其变体。
152.在至少一个实施例中,配置管理器734、资源管理器736和资源协调器712中的任何一个可以基于以任何技术上可行的方式获取的任意数量和类型的数据来实现任意数量和类型的自我修改动作。在至少一个实施例中,自我修改动作可以减轻数据中心700的数据中心操作员做出可能不好的配置决定并且可以避免数据中心的未充分利用和/或执行差的部分。
153.图8示出了根据至少一个实施例的由互连的多个网络服务器计算机802形成的客户端-服务器网络804。在至少一个实施例中,每个网络服务器计算机802存储其他网络服务器计算机802和链接到广域网804中的客户端计算机806和网络808可访问的数据。在至少一个实施例中,当客户端计算机806和一个或更多个网络808与网络804连接和断开连接时,以及当一个或更多个干线服务器计算机802被添加到网络804或从网络804移除时,客户端-服务器网络804的配置可随时间改变。在至少一个实施例中,当客户端计算机806和网络808与网络服务器计算机802连接时,客户端-服务器网络包括这样的客户端计算机806和网络808。在至少一个实施例中,术语计算机包括能够接受数据、将规定的过程应用于数据以及提供过程的结果的任何设备或机器。
154.在至少一个实施例中,客户端-服务器网络804存储网络服务器计算机802、远程网络808和客户端计算机806可访问的信息。在至少一个实施例中,网络服务器计算机802由大型计算机、小型计算机和/或各自具有一个或更多个处理器的微型计算机形成。在至少一个实施例中,服务器计算机802通过有线和/或无线传输介质(诸如导线、光纤电缆)和/或微波传输介质、卫星传输介质或其他导电、光学或电磁波传输介质链接在一起。在至少一个实施例中,客户端计算机806通过类似的有线或无线传输介质访问网络服务器计算机802。在至少一个实施例中,客户端计算机806可以使用调制解调器和标准电话通信网络链接到客户端-服务器网络804中。在至少一个实施例中,替代性的运营商系统(如电缆和卫星通信系统)还可以用于链接到客户端-服务器网络804中。在至少一个实施例中,可以使用其他私有或时间共享的运营商系统。在至少一个实施例中,网络804是全球信息网络,诸如互联网。在至少一个实施例中,网络是使用与互联网类似的协议但具有添加的安全措施和受限的访问控制的私有内联网。在至少一个实施例中,网络804是使用专有通信协议的私有或半私有网络。
155.在至少一个实施例中,客户端计算机806是任何终端用户计算机,并且还可以是具有一个或更多个微处理器的大型计算机、小型计算机或微型计算机。在至少一个实施例中,服务器计算机802有时可用作访问另一服务器计算机802的客户端计算机。在至少一个实施例中,远程网络808可以是局域网、通过用于互联网的独立服务提供商(isp)被添加到广域网中的网络、或通过具有固定的或随时间改变的配置的有线或无线传输介质互连的另一组计算机。在至少一个实施例中,客户端计算机806可以独立地或通过远程网络808链接到网络804中并且访问网络804。
156.图9示出了根据至少一个实施例的连接一个或更多个计算机器的计算机网络908。在至少一个实施例中,网络908可以是任何类型的电连接的计算机组,包括例如以下网络:互联网、内联网、局域网(lan)、广域网(wan)或这些网络类型的互连组合。在至少一个实施例中,网络908内的连接可以是远程调制解调器、以太网(ieee 802.3)、令牌环(ieee 802.5)、光纤分布式数据链路接口(fddi)、异步传输模式(atm)或任何其他通信协议。在至少一个实施例中,链接到网络的计算设备可以是台式机、服务器、便携式、手持式、机顶盒、个人数字助理(pda)、终端、或任何其他期望的类型或配置。在至少一个实施例中,取决于它们的功能性,网络连接的设备可以在处理能力、内部存储器和其他性能方面广泛地变化。
157.在至少一个实施例中,网络内的通信以及去往或来自连接到网络的计算设备的通信可以是有线或无线的。在至少一个实施例中,网络908可以至少部分地包括世界范围的公
共互联网,其通常根据客户端-服务器模型根据传输控制协议/互联网协议(tcp/ip)规范连接多个用户。在至少一个实施例中,客户端-服务器网络是用于在两个计算机之间通信的主导模型。在至少一个实施例中,客户端计算机(“客户端”)向服务器计算机(“服务器”)发出一个或更多个命令。在至少一个实施例中,服务器通过访问可用网络资源并根据客户端命令向客户端返回信息来履行客户端命令。在至少一个实施例中,客户端计算机系统和驻留在网络服务器上的网络资源被分配网络地址,用于网络的元件之间的通信期间的识别。在至少一个实施例中,从其他网络连接的系统到服务器的通信将包括作为通信的一部分的相关服务器/网络资源的网络地址,使得数据/请求的适当目的地被识别为接收者。在至少一个实施例中,当网络908包括全球互联网时,网络地址是tcp/ip格式的ip地址,其可至少部分地将数据路由到电子邮件账户、网站或驻留在服务器上的其他互联网工具。在至少一个实施例中,驻留在网络服务器上的信息和服务可以通过域名(例如www.site.com)(其映射到网络服务器的ip地址)对客户端计算机的web浏览器可用。
158.在至少一个实施例中,多个客户端902、904和906经由相应的通信链路连接至网络908。在至少一个实施例中,这些客户端中的每一个可以经由任何期望形式的通信(诸如经由拨号调制解调器连接、电缆链路、数字用户线(dsl)、无线或卫星链路、或任何其他形式的通信)来访问网络908。在至少一个实施例中,每个客户端可以使用与网络908兼容的任何机器(例如,个人计算机(pc)、工作站、专用终端、个人数据助理(pda)或其他类似的设备)进行通信。在至少一个实施例中,客户端902、904和906可以位于或可以不位于相同的地理区域中。
159.在至少一个实施例中,多个服务器910、912和914连接到网络918以服务于与网络918通信的客户端。在至少一个实施例中,每个服务器通常是管理网络资源并对客户端命令作出响应的强大的计算机或设备。在至少一个实施例中,服务器包括存储程序指令和数据的计算机可读数据存储介质,诸如硬盘驱动器和ram存储器。在至少一个实施例中,服务器910、912、914运行响应于客户端命令的应用程序。在至少一个实施例中,服务器910可以运行用于响应对html页面的客户端请求的web服务器应用,并且还可以运行用于接收和路由电子邮件的邮件服务器应用。在至少一个实施例中,在服务器910上还可以运行其他应用程序,诸如用于将音频/视频数据流式传输至客户端的ftp服务器或媒体服务器。在至少一个实施例中,不同的服务器可以专用于执行不同的任务。在至少一个实施例中,服务器910可以是为不同用户管理与网站相关的资源的专用web服务器,而服务器912可以专用于提供电子邮件(email)管理。在至少一个实施例中,其他服务器可以专用于媒体(音频、视频等)、文件传输协议(ftp)或通常通过网络可用或提供的任何两个或更多个服务的组合。在至少一个实施例中,每个服务器可以在与其他服务器的位置相同或不同的位置中。在至少一个实施例中,可存在为用户执行镜像任务的多个服务器,从而减轻拥塞或最小化定向到和来自单个服务器的流量。在至少一个实施例中,服务器910、912、914在维护和通过网络918递送第三方内容的业务中的web托管提供者的控制下。
160.在至少一个实施例中,web托管提供商向两个不同类型的客户端递送服务。在至少一个实施例中,可被称为浏览器的一种类型从服务器910、912、914请求内容,诸如网页、电子邮件消息、视频剪辑等。在至少一个实施例中,第二类型(其可以被称为用户)雇佣web托管提供商来维护网络资源(诸如网站)并使其可用于浏览器。在至少一个实施例中,用户与
web托管提供商签订合同,以根据用户期望利用的服务器资源的量使存储器空间、处理器容量和通信带宽可用于他们期望的网络资源。
161.在至少一个实施例中,为了使web托管提供商为这两个客户端提供服务,必须适当地配置管理由服务器托管的网络资源的应用程序。在至少一个实施例中,程序配置过程涉及定义参数集,所述参数集至少部分地控制应用程序对浏览器请求的响应,并且还至少部分地定义特定用户可用的服务器资源。
162.在一个实施例中,内联网服务器916经由通信链路与网络908通信。在至少一个实施例中,内联网服务器916与服务器管理器918通信。在至少一个实施例中,服务器管理器918包括在服务器910、912、914中使用的应用程序配置参数的数据库。在至少一个实施例中,用户经由内联网916修改数据库920,并且服务器管理器918与服务器910、912、914交互以修改应用程序参数,使得它们匹配数据库的内容。在至少一个实施例中,用户通过经由计算机902连接到内联网916并且输入诸如用户名和密码之类的认证信息来登录到内联网916。
163.在至少一个实施例中,当用户希望登录新服务或修改现有服务时,内联网服务器916对用户进行认证并向用户提供允许用户访问特定应用程序的配置参数的交互式屏幕显示/控制面板。在至少一个实施例中,向用户呈现描述用户的网站或其他网络资源的配置的方面的多个可修改文本框。在至少一个实施例中,如果用户期望增加在服务器上为其网站保留的存储器空间,则向用户提供其中用户指定期望的存储器空间的字段。在至少一个实施例中,响应于接收到该信息,内联网服务器916更新数据库920。在至少一个实施例中,服务器管理器918将该信息转发到适当的服务器,并且在应用程序操作期间使用新的参数。在至少一个实施例中,内联网服务器916被配置为向用户提供对用户已与web托管服务提供商签订的托管网络资源(例如,网页、电子邮件、ftp站点、媒体站点等)的配置参数的访问。
164.图10a示出了根据至少一个实施例的联网计算机系统1000a。在至少一个实施例中,联网计算机系统1000a包括多个节点或个人计算机(“pc”)1002、1018、1020。在至少一个实施例中,个人计算机或节点1002包括处理器1014、存储器1016、摄像机1004、麦克风1006、鼠标1008、扬声器1010和监视器1012。在至少一个实施例中,pc 1002、1018、1020可以各自运行例如给定公司内的内部网络的一个或更多个桌面服务器,或者可以是不限于特定环境的通用网络的服务器。在至少一个实施例中,网络的每pc节点有一个服务器,使得网络的每个pc节点表示具有特定网络url地址的特定网络服务器。在至少一个实施例中,每个服务器默认为该服务器的用户的默认网页,该默认网页本身可包含指向该服务器上该用户的进一步子页面、或者指向网络上的其他服务器或其他服务器上的页面的嵌入式url。
165.在至少一个实施例中,节点1002、1018、1020和网络的其他节点经由介质1022互连。在至少一个实施例中,介质1022可以是诸如综合服务数字网(“isdn”)的通信信道。在至少一个实施例中,联网计算机系统的各个节点可以通过各种通信介质连接,包括局域网(“lan”)、简易老式电话线(“pots”)(有时被称为公共交换电话网络(“pstn”))、和/或其变体。在至少一个实施例中,网络的各个节点还可以构成经由诸如互联网之类的网络互连的计算机系统用户。在至少一个实施例中,(在给定实例处从网络的特定节点运行的)网络上的每个服务器在网络内具有唯一地址或标识,该唯一地址或标识可以根据url指定。
166.在至少一个实施例中,多个多点会议单元(“mcu”)因此可以用于向会议系统的各
1044所示。在至少一个实施例中,服务器可以被认为是诸如www http服务器1034之类的服务器,该服务器为lan或多个节点或多个lan提供对网络的访问。在至少一个实施例中,存在多个用户,每个用户具有台式pc或网络的节点,每个台式pc潜在地为其用户建立服务器。在至少一个实施例中,每个服务器与特定网络地址或url相关联,当被访问时,该特定网络地址或url为该用户提供默认网页。在至少一个实施例中,网页可以包含进一步的链接(嵌入式url),其指向该服务器上的该用户的进一步的子页面,或者指向网络上的其他服务器或者指向网络上的其他服务器上的页面。
173.云计算和服务
174.以下附图阐述但不限于可以用于实现至少一个实施例的示例性的基于云的系统。
175.在至少一个实施例中,云计算是一种计算风格,其中动态可扩展和通常虚拟化的资源作为服务通过互联网来提供。在至少一个实施例中,用户不需要具有支持他们的技术基础设施的知识、技术基础设施的专业知识或对技术基础设施的控制,该技术基础设施可以被称为“在云中”。在至少一个实施例中,云计算将基础设施合并为服务、平台即服务、软件即服务、以及具有依赖于互联网的常见主题以满足用户的计算需求的其他变型。在至少一个实施例中,典型的云部署(诸如在私有云(例如,企业网络)中)或公共云(例如,互联网)中的数据中心(dc)可由数千个服务器(或可替代地,vm)、数百个以太网、光纤信道或以太网光纤信道(fcoe)端口、交换和存储基础设施等组成。在至少一个实施例中,云还可以由网络服务基础设施组成,如ipsec vpn集线器、防火墙、负载平衡器、广域网(wan)优化器等。在至少一个实施例中,远程订户可以通过经由vpn隧道(如ipsec vpn隧道)连接来安全地访问云应用和服务。
176.在至少一个实施例中,云计算是一种用于使能对可配置计算资源(例如,网络、服务器、存储装置、应用程序和服务)的共享池的方便、按需的网络访问的模型,所述可配置计算资源可以用最小的管理努力或服务提供商交互来快速配置和释放。
177.在至少一个实施例中,云计算的特征在于按需自助服务,其中消费者可根据需要自动地单方面供应计算能力,诸如服务器时间和网络存储,而无需与每个服务提供商的人类互动。在至少一个实施例中,云计算的特征在于广泛的网络访问,其中能力在网络上可用并且通过标准机制来访问,所述标准机制促进由异构的瘦或厚客户端平台(例如,移动电话、膝上型计算机和pda)的使用。在至少一个实施例中,云计算的特征在于资源池,其中提供商的计算资源被池化以使用多租户模型服务于多个消费者,其中不同的物理和虚拟资源根据消费者需求被动态地签名和重新分配。在至少一个实施例中,存在位置独立性的感觉,因为消费者通常对所提供的资源的确切位置没有控制或知识,但可能能够在较高抽象级别(例如,国家、州或数据中心)指定位置。
178.在至少一个实施例中,资源包括存储、处理、存储器、网络带宽和虚拟机。在至少一个实施例中,云计算的特征在于快速弹性,其中能力可被快速且弹性地供应(在一些情况下是自动地),以快速缩小和快速释放以快速放大。在至少一个实施例中,对于消费者,可用于供应的能力通常显得不受限制并且可以在任何时间以任何数量购买。在至少一个实施例中,云计算由测量的服务来表征,其中云系统通过在适合于服务类型(例如,存储、处理、带宽和活动用户账户)的某种抽象级别处利用计量能力来自动地控制和优化资源使用。在至少一个实施例中,资源使用可以被监控、控制和报告,从而为所利用的服务的提供商和消费
者两者提供透明度。
179.在至少一个实施例中,云计算可与各种服务相关联。在至少一个实施例中,云软件即服务(saas)可以指代提供给消费者的能力是使用在云基础设施上运行的提供商的应用的服务。在至少一个实施例中,应用可通过诸如web浏览器(例如,基于web的电子邮件)的瘦客户端接口从不同客户端设备访问。在至少一个实施例中,消费者不管理或控制包括网络、服务器、操作系统、存储或甚至各个应用能力的底层云基础结构,可能的例外是有限的用户特定的应用配置设置。
180.在至少一个实施例中,云平台即服务(paas)可以指这样的服务:其中提供给消费者的能力是将消费者创建或获取的应用程序部署到云基础设施上,这些应用程序是使用由提供商支持的编程语言和工具创建的。在至少一个实施例中,消费者不管理或控制包括网络、服务器、操作系统或存储的底层云基础结构,但是具有对所部署的应用程序以及可能的应用托管环境配置的控制。
181.在至少一个实施例中,云基础设施即服务(iaas)可以指这样的服务:其中向消费者提供的能力是提供处理、存储、网络和消费者能够部署和运行可包括操作系统和应用的任意软件的其他基本计算资源。在至少一个实施例中,消费者不管理或控制底层云基础设施,而是具有对操作系统、存储、所部署的应用程序的控制,以及对选择的联网组件(例如,主机防火墙)的可能有限的控制。
182.在至少一个实施例中,可以不同方式部署云计算。在至少一个实施例中,私有云可指仅针对组织操作的云基础设施。在至少一个实施例中,私有云可由组织或第三方管理,并且可存在于场所内或场所外。在至少一个实施例中,社区云可以指由若干组织共享并且支持具有共享关注(例如,任务、安全要求、策略和合规性考虑)的特定社区的云基础设施。在至少一个实施例中,社区云可由组织或第三方管理,并且可存在于场所内或场所外。在至少一个实施例中,公共云可以指代对一般公众或大型产业组可用并且由提供云服务的组织拥有的云基础设施。在至少一个实施例中,混合云可以指云基础设施是两个或更多个云(私有、社区或公共的)的组成部分,这些云仍然是唯一的实体,但是通过实现数据和应用便携性的标准化或专有技术(例如,用于云之间的负载平衡的云突发)绑定在一起。在至少一个实施例中,云计算环境是面向服务的,其关注于无状态性、低耦合、模块性和语义互操作性。
183.图11示出根据至少一个实施例的系统环境1100的一个或更多个组件,其中服务可被提供为第三方网络服务。在至少一个实施例中,第三方网络可被称为云、云网络、云计算网络和/或其变体。在至少一个实施例中,系统环境1100包括一个或更多个客户端计算设备1104、1106和1108,客户端计算设备1104、1106和1108可被用户用来与提供第三方网络服务(其可被称为云计算服务)的第三方网络基础设施系统1102交互。在至少一个实施例中,第三方网络基础设施系统1102可包括一个或更多个计算机和/或服务器。
184.应了解,图11中所描绘的第三方网络基础设施系统1102可具有除了所描绘的那些组件之外的其他组件。进一步地,图11描绘了第三方网络基础设施系统的实施例。在至少一个实施例中,第三方网络基础设施系统1102可具有比图11中描绘的更多或更少的组件,可组合两个或更多个组件,或可具有不同的组件配置或布置。
185.在至少一个实施例中,客户端计算设备1104、1106和1108可被配置成操作客户端应用,诸如web浏览器,可由客户端计算设备的用户用来与第三方网络基础设施系统1102交
互以使用由第三方网络基础设施系统1102提供的服务的专有客户端应用或一些其他应用。尽管示例性系统环境1100被示为具有三个客户端计算设备,但是可以支持任何数量的客户端计算设备。在至少一个实施例中,其他设备,诸如具有传感器的设备等,可与第三方网络基础设施系统1102交互。在至少一个实施例中,一个或更多个网络1110可以促进客户端计算设备1104、1106和1108与第三方网络基础设施系统1102之间的通信和数据交换。
186.在至少一个实施例中,由第三方网络基础设施系统1102提供的服务可包括按需可用于第三方网络基础设施系统的用户的服务的主机。在至少一个实施例中,还可以提供各种服务,包括但不限于在线数据存储和备份解决方案、基于web的电子邮件服务、托管的办公套件和文档协作服务、数据库管理和处理、管理的技术支持服务、和/或其变体。在至少一个实施例中,由第三方网络基础设施系统提供的服务可以动态地扩展以满足其用户的需要。
187.在至少一个实施例中,由第三方网络基础设施系统1102提供的服务的特定实例化可被称为“服务实例”。在至少一个实施例中,通常,经由通信网络(诸如互联网)从第三方网络服务提供商系统对用户可用的任何服务被称为“第三方网络服务”。在至少一个实施例中,在公共第三方网络环境中,组成第三方网络服务提供商系统的服务器和系统不同于客户自己的场所内服务器和系统。在至少一个实施例中,第三方网络服务提供商系统可以托管应用,并且用户可以经由通信网络(诸如互联网)按需订购和使用应用。
188.在至少一个实施例中,计算机网络第三方网络基础设施中的服务可包括对存储、托管数据库、托管网络服务器、软件应用或由第三方网络供应商提供给用户的其他服务的受保护的计算机网络访问。在至少一个实施例中,服务可包括通过互联网对第三方网络上的远程存储装置的密码保护的访问。在至少一个实施例中,服务可以包括基于网络服务的托管关系数据库和脚本语言中间件引擎,以便由联网开发者私人使用。在至少一个实施例中,服务可包括对托管在第三方网络供应商的网站上的电子邮件软件应用的访问。
189.在至少一个实施例中,第三方网络基础设施系统1102可包括以自助、基于订阅、可弹性扩展、可靠、高度可用和安全方式递送给客户的一套应用、中间件和数据库服务提供物。在至少一个实施例中,第三方网络基础设施系统1102还可以提供“大数据”相关的计算和分析服务。在至少一个实施例中,术语“大数据”通常用于指可以由分析师和研究人员存储和操纵的极大数据集,以便使大量数据可视化、检测趋势、和/或以其他方式与数据交互。在至少一个实施例中,大数据和相关应用可以由基础设施系统在许多级别上和以不同规模托管和/或操纵。在至少一个实施例中,并行链接的数十个、数百个或数千个处理器可对此类数据起作用以便呈现该数据或模拟对数据或其所表示的内容的外力。在至少一个实施例中,这些数据集可涉及结构化数据(诸如在数据库中或以其他方式根据结构化模型组织的结构化数据)和/或非结构化数据(例如,电子邮件、图像、数据blob(二进制大对象)、网页、复杂事件处理)。在至少一个实施例中,通过利用实施例的能力来将更多(或更少)计算资源相对快速地聚焦到目标上,第三方网络基础设施系统可以更好地可用于基于来自企业、政府机构、研究组织、私人个人、想法相同的个人或组织的组、或其他实体的需求在大数据集上执行任务。
190.在至少一个实施例中,第三方网络基础设施系统1102可以被适配成自动地提供、管理和跟踪顾客对由第三方网络基础设施系统1102提供的服务的订阅。在至少一个实施例
中,第三方网络基础设施系统1102可以经由不同的部署模型提供第三方网络服务。在至少一个实施例中,可在公共第三方网络模型下提供服务,其中第三方网络基础设施系统1102由销售第三方网络服务的组织拥有,并且使得服务可用于一般公众或不同的行业企业。在至少一个实施例中,可在私有第三方网络模型下提供服务,在该私有第三方网络模型中,第三方网络基础设施系统1102仅针对单个组织操作,并且可为组织内的一个或更多个实体提供服务。在至少一个实施例中,第三方网络服务也可在社区第三方网络模型下提供,其中第三方网络基础设施系统1102和第三方网络基础设施系统1102提供的服务由相关社区中的若干组织共享。在至少一个实施例中,也可在混合第三方网络模型下提供第三方网络服务,该混合第三方网络模型是两个或更多个不同模型的组合。
191.在至少一个实施例中,由第三方网络基础设施系统1102提供的服务可包括在软件即服务(saas)类别、平台即服务(paas)类别、基础设施即服务(iaas)类别或包括混合服务的其他服务类别下提供的一个或更多个服务。在至少一个实施例中,客户经由订阅订单可订购由第三方网络基础设施系统1102提供的一个或更多个服务。在至少一个实施例中,第三方网络基础设施系统1102然后执行处理以在客户的订阅订单中提供服务。
192.在至少一个实施例中,由第三方网络基础设施系统1102提供的服务可以包括但不限于应用服务、平台服务和基础设施服务。在至少一个实施例中,应用服务可由第三方网络基础设施系统经由saas平台提供。在至少一个实施例中,saas平台可被配置为提供属于saas类别的第三方网络服务。在至少一个实施例中,saas平台可以提供在集成开发和部署平台上构建并递送一套按需应用的能力。在至少一个实施例中,saas平台可以管理和控制用于提供saas服务的底层软件和基础设施。在至少一个实施例中,通过利用由saas平台提供的服务,客户可利用在第三方网络基础设施系统上执行的应用。在至少一个实施例中,客户可以获得应用服务,而不需要客户购买单独的许可证和支持。在至少一个实施例中,可提供各种不同的saas服务。在至少一个实施例中,这可以包括但不限于为大组织的销售性能管理、企业集成和商业灵活性提供解决方案的服务。
193.在至少一个实施例中,平台服务可由第三方网络基础设施系统1102经由paas平台提供。在至少一个实施例中,paas平台可被配置为提供属于paas类别的第三方网络服务。在至少一个实施例中,平台服务可以包括但不限于使组织能够将现有应用合并在共享的公共架构上的服务,以及建立利用由平台提供的共享服务的新应用的能力。在至少一个实施例中,paas平台可以管理和控制用于提供paas服务的底层软件和基础设施。在至少一个实施例中,客户可获取由第三方网络基础设施系统1102提供的paas服务,而无需客户购买单独的许可证和支持。
194.在至少一个实施例中,通过利用由paas平台提供的服务,客户可采用由第三方网络基础设施系统支持的编程语言和工具,并且还控制所部署的服务。在至少一个实施例中,由第三方网络基础设施系统提供的平台服务可包括数据库第三方网络服务、中间件第三方网络服务和第三方网络服务。在至少一个实施例中,数据库第三方网络服务可支持共享服务部署模型,所述共享服务部署模型使组织能够汇聚数据库资源并以数据库第三方网络的形式向客户提供数据库即服务。在至少一个实施例中,在第三方网络基础设施系统中,中间件第三方网络服务可以为客户提供平台以开发和部署不同业务应用,并且第三方网络服务可以为客户提供平台以部署应用。
195.在至少一个实施例中,各种不同的基础设施服务可由第三方网络基础设施系统中的iaas平台提供。在至少一个实施例中,基础设施服务促进利用由saas平台和paas平台提供的服务的客户对底层计算资源(诸如存储、网络和其他基础计算资源)的管理和控制。
196.在至少一个实施例中,第三方网络基础设施系统1102还可包括用于提供用于向第三方网络基础设施系统的客户提供各种服务的资源的基础设施资源1130。在至少一个实施例中,基础设施资源1130可包括硬件(诸如服务器、存储和联网资源)的预集成和优化的组合,用于执行由paas平台和saas平台提供的服务和其他资源。
197.在至少一个实施例中,第三方网络基础设施系统1102中的资源可由多个用户共享并且按照需求动态地重新分配。在至少一个实施例中,可以向不同时区中的用户分配资源。在至少一个实施例中,第三方网络基础设施系统1102可以使得第一时区中的第一组用户能够利用第三方网络基础设施系统的资源持续指定小时数,并且随后使得能够将相同资源重新分配给位于不同时区中的另一组用户,从而使资源利用率最大化。
198.在至少一个实施例中,可提供由第三方网络基础设施系统1102的不同组件或模块共享的多个内部共享服务1132,用于实现由第三方网络基础设施系统1102提供服务。在至少一个实施例中,这些内部共享服务可包括但不限于安全和身份服务、集成服务、企业库服务、企业管理器服务、病毒扫描和白名单服务、高可用性、备份和恢复服务、用于使能第三方网络支持的服务、电子邮件服务、通知服务、文件传输服务和/或其变体。
199.在至少一个实施例中,第三方网络基础设施系统1102可在第三方网络基础设施系统中提供第三方网络服务(例如,saas、paas和iaas服务)的全面管理。在至少一个实施例中,第三方网络管理功能可包括用于供应、管理和跟踪由第三方网络基础设施系统1102接收的客户的订阅的能力和/或其变体。
200.在至少一个实施例中,如图11所示,第三方网络管理功能可以由一个或更多个模块提供,诸如订单管理模块1120、订单协调模块1122、订单供应模块1124、订单管理和监控模块1126和身份管理模块1128。在至少一个实施例中,这些模块可包括一个或更多个计算机和/或服务器或使用一个或更多个计算机和/或服务器来提供,所述一个或更多个计算机和/或服务器可以是通用计算机、专用服务器计算机、服务器农场、服务器集群或任何其他适当的布置和/或组合。
201.在至少一个实施例中,在步骤1134,使用客户端设备(诸如客户端计算设备1104、1106或1108)的客户可通过请求由第三方网络基础设施系统1102提供的一个或更多个服务并对由第三方网络基础设施系统1102提供的一个或更多个服务的订阅下订单来与第三方网络基础设施系统1102交互。在至少一个实施例中,客户可访问第三方网络用户界面(ui),诸如第三方网络ui 1112、第三方网络ui 1114和/或第三方网络ui 1116,并经由这些ui进行订购订单。在至少一个实施例中,由第三方网络基础设施系统1102响应于客户下订单而接收的订单信息可包括识别客户和由第三方网络基础设施系统1102提供的、客户想要订阅的一个或更多个服务的信息。
202.在至少一个实施例中,在步骤1136,从客户接收的订单信息可存储在订单数据库1118中。在至少一个实施例中,如果这是新订单,则可以为订单创建新记录。在至少一个实施例中,订单数据库1118可以是由第三方网络基础设施系统1118操作的并且结合其他系统元件操作的若干数据库之一。
203.在至少一个实施例中,在步骤1138,可以将订单信息转发到订单管理模块1120,该订单管理模块可以被配置成执行与订单相关的计费和记账功能,诸如验证订单,并且在验证后,预订一订单。
204.在至少一个实施例中,在步骤1140,关于订单的信息可被传送到订单协调模块1122,该订单协调模块1122被配置为针对由客户下的订单协调服务和资源的供应。在至少一个实施例中,订单协调模块1122可以使用订单供应模块1124的服务进行供应。在至少一个实施例中,订单协调模块1122使得能够管理与每个订单相关联的业务过程,并且应用业务逻辑来确定订单是否应继续供应。
205.在至少一个实施例中,在步骤1142,当接收到新订阅的订单时,订单协调模块1122向订单供应模块1124发送分配资源和配置满足订阅订单所需的资源的请求。在至少一个实施例中,订单供应模块1124实现针对由客户订购的服务的资源分配。在至少一个实施例中,订单供应模块1124提供由第三方网络基础设施系统1100提供的第三方网络服务与用于供应用于提供所请求的服务的资源的物理实现层之间的抽象级别。在至少一个实施例中,这使得订单协调模块1122能够与实现细节隔离,诸如服务和资源实际上是实时供应的,还是预先供应的并且仅在请求时分配/指派。
206.在至少一个实施例中,在步骤1144,一旦服务和资源被供应,可以向订阅客户发送指示所请求的服务现在准备好使用的通知。在至少一个实施例中,信息(例如,链接)可以被发送到客户,其使客户能够开始使用所请求的服务。
207.在至少一个实施例中,在步骤1146,客户订阅的订单可由订单管理和监控模块1126管理和跟踪。在至少一个实施例中,订单管理和监控模块1126可以被配置成收集关于订阅服务的客户使用的使用统计。在至少一个实施例中,可以针对所使用的存储量、所传输的数据量、用户数量、以及系统上电时间和系统下电时间的量和/或其变化来收集统计。
208.在至少一个实施例中,第三方网络基础设施系统1100可包括身份管理模块1128,该身份管理模块1128被配置成提供身份服务,诸如第三方网络基础设施系统1100中的访问管理和授权服务。在至少一个实施例中,身份管理模块1128可控制关于希望利用由第三方网络基础设施系统1102提供的服务的客户的信息。在至少一个实施例中,这样的信息可以包括认证这样的客户的身份的信息和描述那些客户被授权相对于各种系统资源(例如,文件、目录、应用、通信端口、存储器段等)执行哪些动作的信息。在至少一个实施例中,身份管理模块1128还可包括管理关于每个顾客的描述性信息以及关于可如何访问和修改该描述性信息和可由谁来访问和修改该描述性信息。
209.图12示出了根据至少一个实施例的云计算环境1202。在至少一个实施例中,云计算环境1202包括一个或更多个计算机系统/服务器1204,诸如个人数字助理(pda)或蜂窝电话1206a、台式计算机1206b、膝上型计算机1206c和/或汽车计算机系统1206n之类的计算设备与该一个或更多个计算机系统/服务器1204通信。在至少一个实施例中,这允许基础设施、平台和/或软件作为服务从云计算环境1202提供,以便不需要每个客户端单独地维护这样的资源。应当理解,图12中示出的计算设备1206a-n的类型旨在仅是说明性的,并且云计算环境1202可通过任何类型的网络和/或网络/可寻址连接(例如,使用web浏览器)与任何类型的计算机化设备通信。
210.在至少一个实施例中,可被表示为云计算节点的计算机系统/服务器1204可与许
多其他通用或专用计算系统环境或配置一起操作。在至少一个实施例中,可以适合于与计算机系统/服务器1204一起使用的计算系统、环境和/或配置包括但不限于个人计算机系统、服务器计算机系统、瘦客户机、厚客户端、手持式或膝上型设备、多处理器系统、基于微处理器的系统、机顶盒、可编程消费电子产品,网络pc、小型计算机系统、大型计算机系统和包括任何上述系统或设备的分布式云计算环境,和/或其变体。
211.在至少一个实施例中,计算机系统/服务器1204可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般上下文中描述。在至少一个实施例中,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、逻辑、数据结构等。在至少一个实施例中,示例性计算机系统/服务器1204可以在分布式云计算环境中实践,其中任务由通过通信网络链接的远程处理设备来执行。在至少一个实施例中,在分布式云计算环境中,程序模块可位于包括存储器存储设备的本地和远程计算机系统存储介质两者中。
212.图13示出了根据至少一个实施例的由云计算环境1202(图12)提供的一组功能抽象层。应提前理解,图13中所示的组件、层和功能仅旨在是说明性的,并且组件、层和功能可以变化。
213.在至少一个实施例中,硬件和软件层1302包括硬件和软件组件。在至少一个实施例中,硬件组件包括大型机、基于各种risc(精简指令集计算机)架构的服务器、各种计算系统、超级计算系统、存储设备、网络、联网组件和/或其变体。在至少一个实施例中,软件组件包括网络应用服务器软件、各种应用服务器软件、各种数据库软件、和/或其变体。
214.在至少一个实施例中,虚拟化层1304提供抽象层,从该抽象层可以提供以下示例性虚拟实体:虚拟服务器、虚拟存储、虚拟网络(包括虚拟私有网络)、虚拟应用、虚拟客户端和/或其变体。
215.在至少一个实施例中,管理层1306提供各种功能。在至少一个实施例中,资源供应提供用于在云计算环境内执行任务的计算资源和其他资源的动态获取。在至少一个实施例中,计量(metering)提供了在云计算环境内利用资源时的使用跟踪,以及针对这些资源的消耗的计费或发票。在至少一个实施例中,资源可以包括应用软件许可证。在至少一个实施例中,安全性为用户和任务提供身份验证,以及对数据和其他资源的保护。在至少一个实施例中,用户界面为用户和系统管理员两者提供对云计算环境的访问。在至少一个实施例中,服务水平管理提供云计算资源分配和管理,使得满足所需的服务水平。在至少一个实施例中,服务水平协议(sla)管理提供云计算资源的预布置和获取,根据sla预期对该云计算资源的未来需求。
216.在至少一个实施例中,工作负载层1308提供利用云计算环境的功能。在至少一个实施例中,可以从该层提供的工作负载和功能包括:地图和导航、软件开发和管理、教育服务、数据分析和处理、交易处理和服务递送。
217.超级计算
218.以下附图阐述了但不限于可以用于实现至少一个实施例的示例性的基于超级计算机的系统。
219.在至少一个实施例中,超级计算机可以指展现出显著并行性并且包括至少一个芯片的硬件系统,其中系统中的芯片通过网络互连并且被放置在分层组织的外壳中。在至少
一个实施例中,用若干机架填充机房的大型硬件系统是超级计算机的至少一个实施例,每个机架包含若干板/机架模块,每个板/机架模块包含全部由可扩展网络互连的若干芯片。在至少一个实施例中,这种大型硬件系统的单个机架是超级计算机的至少一个其他实施例。在至少一个实施例中,展现出显著并行性并且包含若干硬件组件的单个芯片同样可以被认为是超级计算机,因为随着特征尺寸可能减小,可以结合在单个芯片中的硬件数量也可能增加。
220.图14示出了根据至少一个实施例的芯片级的超级计算机。在至少一个实施例中,在fpga或asic芯片内部,在被称为线程单元的有限状态机(1404)内执行主计算。在至少一个实施例中,任务和同步网络(1402)连接有限状态机并且被用于以正确的顺序分派线程和执行操作。在至少一个实施例中,使用存储器网络(1406,1410)来访问多级分区的片上高速缓存层级(1408,1412)。在至少一个实施例中,使用存储器控制器(1416)和片外存储器网络(1414)来访问片外存储器。在至少一个实施例中,当设计不适合于单个逻辑芯片时,i/o控制器(1418)用于跨芯片通信。
221.图15示出根据至少一个实施例的在机架模块级别的超级计算机。在至少一个实施例中,在机架模块内,存在连接至构成主加速器存储器的一个或更多个dram单元(1504)的多个fpga或asic芯片(1502)。在至少一个实施例中,每个fpga/asic芯片使用板上的宽总线用差分高速信令(1506)连接到其相邻的fpga/asic芯片。在至少一个实施例中,每个fpga/asic芯片还连接到至少一个高速串行通信电缆。
222.图16示出了根据至少一个实施例的机架级的超级计算机。图17示出了根据至少一个实施例的整个系统级的超级计算机。在至少一个实施例中,参见图16和图17,在机架中的机架模块之间并且跨整个系统的机架,使用高速串行光缆或铜电缆(1602,1702)来实现可扩展的、可能不完整的超立方体网络。在至少一个实施例中,加速器的fpga/asic芯片中的一个通过pci-express连接被连接到主机系统(1704)。在至少一个实施例中,主机系统包括应用的软件部分在其上运行的主机微处理器(1708)以及由与加速器上的存储器保持一致的一个或更多个主机存储器dram单元(1706)组成的存储器。在至少一个实施例中,主机系统可以是机架之一上的单独模块,或可以与超级计算机的模块之一集成。在至少一个实施例中,立方体连接的循环拓扑提供通信链路以为大型超级计算机创建超立方体网络。在至少一个实施例中,机架模块上的小组fpga/asic芯片可充当单个超立方体节点,使得与单个芯片相比,每组的外部链路的总数增加。在至少一个实施例中,组包含机架模块上的芯片a、b、c和d,该机架模块具有连接环形组织中的a、b、c和d的内部宽差分总线。在至少一个实施例中,存在将机架模块连接到外部世界的12条串行通信电缆。在至少一个实施例中,机架模块上的芯片a连接至串行通信电缆0、1、2。在至少一个实施例中,芯片b连接至电缆3、4、5。在至少一个实施例中,芯片c连接至6、7、8。在至少一个实施例中,芯片d连接至9、10、11。在至少一个实施例中,构成机架模块的整个组{a,b,c,d}可以形成超级计算机系统内的超立方体节点,其中多达212=4096个机架模块(16384fpga/asic芯片)。在至少一个实施例中,为了使芯片a在组{a,b,c,d}的链路4上向外发送消息,必须首先用板上差分宽总线连接将消息路由到芯片b。在至少一个实施例中,在链路4上到达去往芯片a的组{a,b,c,d}(即,到达b)的消息也必须首先被路由到组{a,b,c,d}内部的正确目的地芯片(a)。在至少一个实施例中,还可以实现其他大小的并行超级计算机系统。
223.人工智能
224.以下附图阐述了但不限于可以用于实现至少一个实施例的示例性的基于人工智能的系统。
225.图18a示出了用于执行与一个或更多个实施例相关联的推理和/或训练操作的推理和/或训练逻辑1815。下面结合图18a和/或图18b提供关于推理和/或训练逻辑1815的细节。
226.在至少一个实施例中,推理和/或训练逻辑1815可以包括但不限于,代码和/或数据存储1801,用于存储前向和/或输出权重和/或输入/输出数据,和/或在一个或更多个实施例的各方面中用于配置被训练和/或用于推理的神经网络的神经元或层的其他参数。在至少一个实施例中,训练逻辑1815可以包括或被耦合到代码和/或数据存储1801,用于存储图形代码或其他软件以控制定时和/或顺序,其中将加载权重和/或其他参数信息来配置逻辑,包括整数和/或浮点单元(统称为算术逻辑单元(alu))。在至少一个实施例中,代码(诸如图代码)基于这样的代码所对应的神经网络的架构将权重或其他参数信息加载到处理器alu中。在至少一个实施例中,代码和/或数据存储1801存储神经网络的每个层的权重参数和/或输入/输出数据,该神经网络在使用一个或更多个实施例的各方面的训练和/或推理期间在输入/输出数据和/或权重参数的前向传播期间与一个或更多个实施例结合训练或使用。在至少一个实施例中,代码和/或数据存储1801的任何部分可与其他片上或片外数据存储装置一起被包括,包括处理器的l1、l2或l3高速缓存存储器或系统存储器。
227.在至少一个实施例中,代码和/或数据存储1801的任何部分可在一个或更多个处理器或其他硬件逻辑设备或电路内部或外部。在至少一个实施例中,代码和/或代码和/或数据存储1801可以是高速缓存存储器、动态随机可寻址存储器(“dram”)、静态随机可寻址存储器(“sram”)、非易失性存储器(例如,闪存)或其他存储装置。在至少一个实施例中,对代码和/或代码和/或数据存储1801是在处理器内部还是外部,在至少一个实施例中,或包括dram、sram、闪存或一些其他存储类型的选择,可以取决于片上相对于片外的可用存储,正在执行的训练和/或推理功能的延时要求、在神经网络的推理和/或训练中使用的数据的批大小,或这些因素的一些组合。
228.在至少一个实施例中,推理和/或训练逻辑1815可以包括但不限于:代码和/或数据存储1805,用于存储与在一个或更多个实施例的各方面中被训练和/或用于推理的神经网络的神经元或层相对应的反向和/或输出权重和/或输入/输出数据。在至少一个实施例中,代码和/或数据存储1805存储神经网络的每一层的权重参数和/或输入/输出数据,该神经网络在使用一个或更多个实施例的各方面的训练和/或推理期间的输入/输出数据和/或权重参数的反后传播期间与一个或更多个实施例结合训练或使用。在至少一个实施例中,训练逻辑1815可以包括或被耦合到代码和/或数据存储1805,以存储图代码或其他软件来控制定时和/或顺序,其中将加载权重和/或其他参数信息以配置逻辑,包括整数和/或浮点单元(统称为算术逻辑单元(alu))。
229.在至少一个实施例中,代码(诸如图代码)使基于这样的代码所对应的神经网络的架构将权重或其他参数信息加载到处理器alu中。在至少一个实施例中,代码和/或数据存储1805的任何部分可与其他片上或片外数据存储包括在一起,包括处理器的l1、l2或l3高速缓存或系统存储器。在至少一个实施例中,代码和/或数据存储1805的任何部分可以在一
个或更多个处理器或其他硬件逻辑设备或电路的内部或外部。在至少一个实施例中,代码和/或数据存储1805可以是高速缓存存储器、dram、sram、非易失性存储器(例如,闪存)或其他存储装置。在至少一个实施例中,对代码和/或数据存储1805是在处理器内部还是外部,在至少一个实施例中,或包括dram、sram、闪存或一些其他存储类型的选择,可以取决于片上相对于片外的可用存储,正在执行的训练和/或推理功能的延时要求、在神经网络的推理和/或训练中使用的数据的批大小,或这些因素的一些组合。
230.在至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805可为单独的存储结构。在至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805可以是组合的存储结构。在至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805可部分组合且部分分离。在至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805的任何部分可与其他片上或片外数据存储(包括处理器的l1、l2或l3高速缓存或系统存储器)包括在一起。
231.在至少一个实施例中,推理和/或训练逻辑1815可以包括但不限于,一个或更多个算术逻辑单元(“alu”)1810,包括整数和/或浮点单元,用于至少部分地基于训练和/或推理代码(例如,图形代码)或由训练和/或推理代码(例如,图形代码)指示来执行逻辑和/或数学运算,其结果可以产生存储在激活存储1820中的激活(例如,来自神经网络内的层或神经元的输出值),所述激活存储是存储在代码和/或数据存储1801和/或代码和/或数据存储1805中的输入/输出和/或权重参数数据的函数。在至少一个实施例中,根据响应于执行指令或其他代码、由alu 1810执行的线性代数和/或基于矩阵的数学来生成存储在激活存储1820中的激活,其中存储在代码和/或数据存储1805和/或数据存储1801中的权重值与其他值(诸如偏置值、梯度信息、动量值或其他参数或超参数)一起被用作操作数,该其他值中的任何或全部值可被存储在代码和/或数据存储1805或代码和/或数据存储1801或芯片上或芯片外的另一存储中。
232.在至少一个实施例中,一个或更多个alu 1810被包括在一个或更多个处理器或其他硬件逻辑器件或电路内,而在另一个实施例中,一个或更多个alu 1810可以在处理器或使用它们的其他硬件逻辑器件或电路(例如,协处理器)的外部。在至少一个实施例中,alu 1810可以被包括在处理器的执行单元内或者以其他方式在可由处理器的执行单元可访问的alu库内,所述处理器的执行单元在同一处理器内或分布在不同类型的不同处理器(例如,中央处理单元、图形处理单元、固定功能单元等)之间。在至少一个实施例中,代码和/或数据存储1801、代码和/或数据存储1805、以及激活存储1820可以共享处理器或其他硬件逻辑器件或电路,而在另一个实施例中,它们可以在不同的处理器或其他硬件逻辑器件或电路中,或在相同和不同处理器或其他硬件逻辑器件或电路的某种组合中。在至少一个实施例中,激活存储1820的任何部分可以与其他片上或片外数据存储包括在一起,所述其他片上或片外数据存储包括处理器的l1、l2或l3高速缓存或系统存储器。此外,推理和/或训练代码可与处理器或其他硬件逻辑或电路可访问并使用处理器的获取、解码、调度、执行、引退(retirement)和/或其他逻辑电路来获取和/或处理的其他代码一起存储。
233.在至少一个实施例中,激活存储1820可以是高速缓存存储器、dram、sram、非易失性存储器(例如,闪存)或其他存储装置。在至少一个实施例中,激活存储1820可以完全或部分地在一个或更多个处理器或其他逻辑电路之内或外部。在至少一个实施例中,对激活存
储1820是在处理器内部还是外部,在至少一个实施例中,或包括dram、sram、闪存或一些其他存储类型的选择,可以取决于片上相对于片外的可用存储,正在执行的训练和/或推理功能的延时要求、在神经网络的推理和/或训练中使用的数据的批大小,或这些因素的一些组合。
234.在至少一个实施例中,图18a中所示出的推理和/或训练逻辑1815可以与专用集成电路(“asic”)结合使用,诸如来自谷歌的处理单元、来自graphcore
tm
的推理处理单元(ipu)、或来自英特尔公司的(例如,“lake crest”)处理器。在至少一个实施例中,图18a中所示出的推理和/或训练逻辑1815可以结合中央处理单元(“cpu”)硬件、图形处理单元(“gpu”)硬件或其他硬件(如现场可编程门阵列(“fpga”))使用。
235.图18b示出了根据至少一个实施例的推理和/或训练逻辑1815。在至少一个实施例中,推理和/或训练逻辑1815可包括但不限于其中计算资源是专用的或以其他方式结合与神经网络内的一个或更多个神经元层相对应的权重值或其他信息排他地使用的硬件逻辑。在至少一个实施例中,图18b中所示出的推理和/或训练逻辑1815可以结合专用集成电路(asic)(如来自谷歌的处理单元、来自graphcore
tm
的推理处理单元(ipu)、或来自英特尔公司的(例如,“lake crest”)处理器来使用。在至少一个实施例中,图18b中示出的推理和/或训练逻辑1815可结合中央处理单元(cpu)硬件、图形处理单元(gpu)硬件或其他硬件(诸如现场可编程门阵列(fpga))使用。在至少一个实施例中,推理和/或训练逻辑1815包括但不限于代码和/或数据存储1801以及代码和/或数据存储1805,其可以用于存储代码(例如,图代码)、权重值和/或其他信息,包括偏置值、梯度信息、动量值和/或其他参数或超参数信息。在图18b中所说明的至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805中的每一者分别与专用计算资源(例如,计算硬件1802和计算硬件1806)相关联。在至少一个实施例中,计算硬件1802和计算硬件1806中的每一个包括一个或更多个alu,该一个或更多个alu仅分别对存储在代码和/或数据存储1801和代码和/或数据存储1805中的信息执行数学函数(诸如线性代数函数),其结果被存储在激活存储1820中。
236.在至少一个实施例中,每个代码和/或数据存储1801和1805以及相应的计算硬件1802和1806,分别对应于神经网络的不同层,使得来自代码和/或数据存储1801和计算硬件1802中的一个存储/计算对1801/1802的结果激活作为输入被提供给代码和/或数据存储1805和计算硬件1806中的下一个存储/计算对1805/1806,以便镜像神经网络的概念组织。在至少一个实施例中,存储/计算对1801/1802和1805/1806中的每一个可对应于多于一个神经网络层。在至少一个实施例中,在存储/计算对1801/1802和1805/1806之后或与存储/计算对1801/1802和1805/1806并行的附加存储/计算对(未示出)可被包括在推理和/或训练逻辑1815中。
237.图19示出根据至少一个实施例的深度神经网络的训练和部署。在至少一个实施例中,使用训练数据集1902来训练未经训练的神经网络1906。在至少一个实施例中,训练框架1904是pytorch框架,而在其他实施例中,训练框架1904是tensorflow、boost、caffe、microsoft cognitive toolkit/cntk、mxnet、chainer、keras、deeplearning4j或其他训练框架。在至少一个实施例中,训练框架1904对未经训练的神经网络1906进行训练,并使其能
够使用本文中所描述的处理资源来训练以生成经训练的神经网络1908。在至少一个实施例中,权重可以随机选择或通过使用深度信念网络进行预训练来选择。在至少一个实施例中,训练可以以监督、部分监督或无监督的方式来执行。
238.在至少一个实施例中,使用监督学习来训练未经训练的神经网络1906,其中训练数据集1902包括与用于输入的期望输出配对的输入,或者其中训练数据集1902包括具有已知输出的输入,并且神经网络1906的输出被手动地分级。在至少一个实施例中,以监督方式来训练未经训练的神经网络1906,并且处理来自训练数据集1902的输入,并将结果输出与预期或期望输出的集合进行比较。在至少一个实施例中,然后误差被反向传播通过未经训练的神经网络1906。在至少一个实施例中,训练框架1904调整控制未经训练的神经网络1906的权重。在至少一个实施例中,训练框架1904包括用于监视未经训练的神经网络1906朝向模型(诸如经训练的神经网络1908)收敛多好的工具,该模型适于基于输入数据(诸如新数据集1912)来生成正确答案(诸如结果1914)。在至少一个实施例中,训练框架1904重复地训练未经训练的神经网络1906,同时使用损失函数和调整算法(诸如随机梯度下降)来调整权重以精炼未经训练的神经网络1906的输出。在至少一个实施例中,训练框架1904训练未经训练的神经网络1906,直到未经训练的神经网络1906实现所期望的准确度。在至少一个实施例中,经训练的神经网络1908然后可被部署以实现任何数量的机器学习操作。
239.在至少一个实施例中,使用无监督学习来训练未经训练的神经网络1906,其中未经训练的神经网络1906尝试使用未标记的数据来训练其自身。在至少一个实施例中,无监督学习训练数据集1902将包括输入数据而没有任何相关联的输出数据或“地面真值”数据。在至少一个实施例中,未经训练的神经网络1906可以学习训练数据集1902内的分组,并且可以确定各个输入如何与未经训练的数据集1902相关。在至少一个实施例中,无监督训练可被用于在经训练的神经网络1908中生成能够执行在减少新数据集1912的维度中有用的操作的自组织映射。在至少一个实施例中,无监督训练还可用于执行异常检测,其允许识别新数据集1912中偏离新数据集1912的正常模式的数据点。
240.在至少一个实施例中,可以使用半监督学习,半监督学习是其中在训练数据集1902中包括标记数据和未标记数据的混合的技术。在至少一个实施例中,训练框架1904可被用于执行增量学习,诸如通过转移学习技术。在至少一个实施例中,增量学习使得经训练的神经网络1908能够适应新的数据集1912,而不会忘记在初始训练期间注入在经训练的神经网络1408内的知识。
241.5g网络
242.以下附图阐述了但不限于可以用于实现至少一个实施例的示例性基于5g网络的系统。
243.图20示出了根据至少一个实施例的网络的系统2000的架构。在至少一个实施例中,系统2000被示为包括用户设备(ue)2002和ue 2004。在至少一个实施例中,ue 2002和2004被示为智能电话(例如,可连接到一个或更多个蜂窝网络的手持触摸屏移动计算设备),但还可包括任何移动或非移动计算设备,诸如个人数字助理(pda)、寻呼机、膝上型计算机、台式计算机、无线手持设备或包括无线通信接口的任何计算设备。
244.在至少一个实施例中,ue 2002和ue 2004中的任何一个可包括物联网(iot)ue,该iot ue可包括为利用短暂ue连接的低功率iot应用设计的网络接入层。在至少一个实施例
中,iot ue可利用诸如用于经由公共陆地移动网络(plmn)、基于邻近的服务(prose)或设备到设备(d2d)通信、传感器网络或iot网络与mtc服务器或设备交换数据的技术,诸如机器对机器(m2m)或机器类型通信(mtc)。在至少一个实施例中,m2m或mtc数据交换可以是机器发起的数据交换。在至少一个实施例中,iot网络描述互连iot ue,该iot ue可包括具有短寿命连接的可唯一标识的嵌入式计算设备(在互联网基础结构内)。在至少一个实施例中,iot ue可执行后台应用(例如,保活消息、状态更新等)以促进iot网络的连接。
245.在至少一个实施例中,ue 2002和ue 2004可以被配置为与无线电接入网(ran)2016连接(例如,通信地耦合)。在至少一个实施例中,ran 2016在至少一个实施例中可以是演进的通用移动电信系统(umts)陆地无线电接入网络(e-utran)、nextgen ran(ng ran)或一些其他类型的ran。在至少一个实施例中,ue 2002和ue 2004分别利用连接2012和连接2014,每个连接包括物理通信接口或层。在至少一个实施例中,连接2012和2014被示为空中接口,用于实现通信耦合,并且可以与蜂窝通信协议一致,诸如全球移动通信系统(gsm)协议,码分多址(cdma)网络协议、即按即讲(ptt)协议、蜂窝ptt(poc)协议、通用移动电信系统(umts)协议、3gpp长期演进(lte)协议、第五代(5g)协议、新无线电(nr)协议及其变型。
246.在至少一个实施例中,ue 2002和2004还可经由prose接口2006直接交换通信数据。在至少一个实施例中,prose接口2006可替代地被称为边链路接口,其包括一个或更多个逻辑信道,包括但不限于物理边链路控制信道(pscch)、物理边链路共享信道(pssch)、物理边链路发现信道(psdch)和物理边链路广播信道(psbch)。
247.在至少一个实施例中,ue 2004被示为配置成经由连接2008接入接入点(ap)2010。在至少一个实施例中,连接2008可以包括本地无线连接,诸如与任何ieee 802.11协议一致的连接,其中ap 2010将包括无线保真路由器。在至少一个实施例中,ap 2010被示为连接到互联网而不连接到无线系统的核心网。
248.在至少一个实施例中,ran 2016可包括启用连接2012和2014的一个或更多个接入节点。在至少一个实施例中,这些接入节点(an)可被称为基站(bs)、nodeb、演进型nodeb(enb)、下一代nodeb(gnb)、ran节点等,并且可包括地面站(例如,地面接入点)或提供地理区域(例如,小区)内的覆盖的卫星站。在至少一个实施例中,ran 2016可包括用于提供宏蜂窝小区的一个或更多个ran节点(例如,宏ran节点2018)和用于提供毫微微蜂窝小区或微微蜂窝小区(例如,与宏蜂窝小区相比具有较小覆盖区域、较小用户容量、或较高带宽的蜂窝小区)的一个或更多个ran节点(例如,低功率(lp)ran节点2020)。
249.在至少一个实施例中,ran节点2018和2020中的任一个可终止空中接口协议并且可以为ue 2002和2004的第一联系点。在至少一个实施例中,ran节点2018和2020中的任一个可实现ran 2016的各种逻辑功能,包括但不限于无线电网络控制器(rnc)功能,诸如无线电承载管理、上行链路和下行链路动态无线电资源管理和数据分组调度和移动性管理。
250.在至少一个实施例中,ue 2002和ue 2004可被配置为使用正交频分复用(ofdm)通信信号根据各种通信技术通过多载波通信信道彼此通信或者与ran节点2018和ran节点2020中的任一个通信,通信技术诸如但不限于正交频分多址(ofdma)通信技术(例如,用于下行链路通信)或单载波频分多址(sc-fdma)通信技术(例如,用于上行链路和prose或边链路通信),和/或其变体。在至少一个实施例中,ofdm信号可包括多个正交子载波。
251.在至少一个实施例中,下行链路资源网格可以用于从ran节点2018和2020中的任
一个到ue 2002和2004的下行链路传输,而上行链路传输可以利用类似的技术。在至少一个实施例中,网格可以是称为资源网格或时频资源网格的时频网格,其是每个时隙中下行链路中的物理资源。在至少一个实施例中,这种时频平面表示是ofdm系统的常见实践,这使得其对于无线电资源分配来说是直观的。在至少一个实施例中,资源网格的每列和每行分别对应于一个ofdm符号和一个ofdm子载波。在至少一个实施例中,时域中的资源网格的持续时间对应于无线电帧中的一个时隙。在至少一个实施例中,资源网格中的最小时间-频率单元被表示为资源元素。在至少一个实施例中,每个资源网格包括多个资源块,其描述某些物理信道到资源元素的映射。在至少一个实施例中,每个资源块包括资源元素的集合。在至少一个实施例中,在频域中,这可以表示当前可以被分配的最小数量的资源。在至少一个实施例中,存在使用这样的资源块传送的若干不同的物理下行链路信道。
252.在至少一个实施例中,物理下行链路共享信道(pdsch)可以运载用户数据和更高层信令给ue 2002和2004。在至少一个实施例中,物理下行链路控制信道(pdcch)可运载关于与pdsch信道相关的传输格式和资源分配的信息等。在至少一个实施例中,其还可以向ue 2002和2004通知与上行链路共享信道有关的传输格式、资源分配和harq(混合自动重传请求)信息。在至少一个实施例中,通常,下行链路调度(将控制和共享信道资源块分配给小区内的ue 2002)可以在ran节点2018和2020中的任一个处基于从ue 2002和2004中的任一个反馈的信道质量信息来执行。在至少一个实施例中,下行链路资源分配信息可以在用于(例如分配给)ue 2002和2004中的每一个的pdcch上发送。
253.在至少一个实施例中,pdcch可以使用控制信道元素(cce)来传送控制信息。在至少一个实施例中,在被映射到资源元素之前,pdcch复值符号可以首先被组织成四元组,然后可以使用子块交织器对其进行置换以用于速率匹配。在至少一个实施例中,可以使用这些cce中的一个或更多个来传送每个pdcch,其中每个cce可以对应于被称为资源元素组(reg)的四个物理资源元素的九个集合。在至少一个实施例中,四个正交相移键控(qpsk)符号可以被映射到每个reg。在至少一个实施例中,取决于下行链路控制信息(dci)的大小和信道条件,可以使用一个或更多个cce来发送pdcch。在至少一个实施例中,可以有在lte中定义的具有不同数目的cce的四个或更多个不同的pdcch格式(例如,聚合等级,l=1、2、4或8)。
254.在至少一个实施例中,使用pdsch资源的增强型物理下行链路控制信道(epdcch)可以用于控制信息传输。在至少一个实施例中,可以使用一个或更多个增强型控制信道元素(ecce)来发送epdcch。在至少一个实施例中,每个ecce可以对应于被称为增强型资源元素组(ereg)的四个物理资源元素的九个集合。在至少一个实施例中,ecce在一些情况下可以具有其他数目的ereg。
255.在至少一个实施例中,ran 2016被示为经由s1接口2022通信地耦合至核心网(cn)2038。在至少一个实施例中,cn 2038可以是演进的分组核心(epc)网络、nextgen分组核心(npc)网络或一些其他类型的cn。在至少一个实施例中,s1接口2022被分成两部分:s1-u接口2026,其运载ran节点2018和2020与服务网关(s-gw)2030之间的业务数据;以及s1-移动性管理实体(mme)接口2024,其为ran节点2018和2020与mme 2028之间的信令接口。
256.在至少一个实施例中,cn 2038包括mme 2028、s-gw 2030、分组数据网络(pdn)网关(p-gw)2034和归属订户服务器(hss)2032。在至少一个实施例中,mme 2028可以在功能上
2106的外部pdu会话点、和支持多归属pdu会话的分支点。在至少一个实施例中,upf 2104还可以执行分组路由和转发、分组检查、实施策略规则的用户平面部分、合法拦截分组(up收集);业务使用报告、为用户平面执行qos处理(例如分组过滤、门控、ul/dl速率执行)、执行上行链路业务验证(例如,sdf到qos流映射)、上行链路和下行链路中的传输级分组标记、以及下行链路分组缓存和下行链路数据通知触发。在至少一个实施例中,upf 2104可包括上行链路分类器,用于支持将业务流路由到数据网络。在至少一个实施例中,dn 2106可表示各种网络运营商服务、互联网接入或第三方服务。
263.在至少一个实施例中,ausf 2114可以存储用于ue 2102的认证的数据,并且处理与认证相关的功能。在至少一个实施例中,ausf 2114可以促进用于各种接入类型的公共认证框架。
264.在至少一个实施例中,amf 2112可以负责注册管理(例如,用于注册ue 2102等)、连接管理、可达性管理、移动性管理、和amf相关事件的合法拦截、以及接入认证和授权。在至少一个实施例中,amf2112可以为smf 2118提供sm消息的传输,并且充当用于路由sm消息的透明代理。在至少一个实施例中,amf 2112还可以提供ue 2102与sms功能(smsf)(图21未示出)之间的短消息服务(sms)消息的传输。在至少一个实施例中,amf 2112可以充当安全锚定功能(sea),其可以包括与ausf 2114和ue 2102的交互以及接收作为ue 2102认证过程的结果而建立的中间密钥。在至少一个实施例中,在使用基于usim的认证的情况下,amf 2112可以从ausf 2114检索安全材料。在至少一个实施例中,amf 2112还可以包括安全上下文管理(scm)功能,其从sea接收它用来导出接入网络专用密钥的密钥。此外,在至少一个实施例中,amf 2112可以是ran cp接口的终止点(n2参考点)、nas(ni)信令的终止点,并且执行nas加密和完整性保护。
265.在至少一个实施例中,amf 2112还可以支持通过n3互通功能(iwf)接口与ue 2102的nas信令。在至少一个实施例中,n3iwf可以用于提供对不受信实体的访问。在至少一个实施例中,n3iwf可以分别是控制平面和用户平面的n2和n3接口的终止点,因此,可针对pdu会话和qos处理来自smf和amf的n2信令,对ipsec和n3隧道的分组进行封装/解封装,在上行链路中标记n3用户平面分组,并且考虑到与通过n2接收的这种标记相关联的qos要求,实施对应于n3分组标记的qos。在至少一个实施例中,n3iwf还可以在ue 2102和amf 2112之间中继上行链路和下行链路控制平面nas(ni)信令,并且在ue 2102和upf 2104之间中继上行链路和下行链路用户平面分组。在至少一个实施例中,n3iwf还提供用于与ue 2102的ipsec隧道建立的机制。
266.在至少一个实施例中,smf 2118可负责会话管理(例如,会话建立、修改和释放,包括upf和an节点之间的隧道保持);ue ip地址分配和管理(包括可选的授权);up功能的选择和控制;在upf处配置流量转向以将流量路由到合适的目的地;朝向策略控制功能的接口终止;策略强制执行和qos的控制部分;合法拦截(用于sm事件和到li系统的接口);nas消息的sm部分的终止;下行链路数据通知;an特定sm信息的发起者,其经由amf在n2上发送到an;确定会话的ssc模式。在至少一个实施例中,smf 2118可包括以下漫游功能:处理本地实施以应用qos slab(vplmn);收费数据收集和收费接口(vplmn);合法拦截(在vplmn中用于sm事件并且接口到li系统);支持与外部dn交互以传输用于由外部dn进行的pdu会话授权/认证的信令。
267.在至少一个实施例中,nef 2116可以提供用于安全地暴露由3gpp网络功能为第三方提供的服务和能力、内部暴露/重新暴露、应用功能(例如,af 2126)、边缘计算或雾计算系统等的装置。在至少一个实施例中,nef 2116可认证、授权和/或节流af。在至少一个实施例中,nef2116还可以转换与af 2126交换的信息和与内部网络功能交换的信息。在至少一个实施例中,nef 2116可以在af服务标识符和内部5gc信息之间转换。在至少一个实施例中,nef 2116还可以基于其他网络功能的暴露的能力从其他网络功能(nf)接收信息。在至少一个实施例中,该信息可作为结构化数据存储在nef 2116处,或使用标准化接口存储在数据存储nf处。在至少一个实施例中,所存储的信息然后可由nef 2116重新暴露给其他nf和af,和/或用于其他目的,诸如分析。
268.在至少一个实施例中,nrf 2120可以支持服务发现功能,从nf实例接收nf发现请求,以及向nf实例提供所发现的nf实例的信息。在至少一个实施例中,nrf 2120还维护可用nf实例及其支持的服务的信息。
269.在至少一个实施例中,pcf 2122可向控制平面功能提供策略规则以实施它们,并且还可支持统一策略框架以管理网络行为。在至少一个实施例中,pcf 2122还可实现前端(fe),用于访问udm 2124的udr中与策略决策相关的订阅信息。
270.在至少一个实施例中,udm 2124可处理订阅相关信息以支持网络实体处理通信会话,并且可存储ue 2102的订阅数据。在至少一个实施例中,udm 2124可以包括两个部分,应用fe和用户数据存储库(udr)。在至少一个实施例中,udm可以包括udm fe,该udm fe负责处理凭证、位置管理、订阅管理等。在至少一个实施例中,若干不同前端可在不同交易中服务同一用户。在至少一个实施例中,udm-fe访问udr中存储的子订阅信息,并执行认证凭证处理;用户标识处理;接入授权;注册/移动性管理;以及订阅管理。在至少一个实施例中,udr可与pcf2122交互。在至少一个实施例中,udm 2124还可支持sms管理,其中sms-fe实现如前所述的类似应用逻辑。
271.在至少一个实施例中,af 2126可以提供对业务路由的应用影响、对网络能力暴露(nce)的接入,以及与策略框架的交互以用于策略控制。在至少一个实施例中,nce可以是允许5gc和af 2126经由nef 2116向彼此提供信息的机制,nef 2116可以用于边缘计算实现。在至少一个实施例中,网络运营商和第三方服务可被托管在ue 2102的附接接入点附近,以通过减少的端到端延时和传输网络上的负载来实现高效的服务递送。在至少一个实施例中,对于边缘计算实现,5gc可选择靠近ue 2102的upf 2104,并经由n6接口执行从upf 2104到dn 2106的业务引导。在至少一个实施例中,这可以基于由af 2126提供的ue订阅数据、ue位置和信息。在至少一个实施例中,af 2126可以影响upf(重新)选择和业务路由。在至少一个实施例中,基于运营商部署,当af 2126被认为是受信实体时,网络运营商可以允许af 2126直接与相关nf交互。
272.在至少一个实施例中,cn 2110可以包括smsf,其可以负责sms订阅检查和验证,并且中继去往/来自ue 2102的sm消息到/来自其他实体,例如sms-gmsc/iwmsc/sms路由器。在至少一个实施例中,sms还可以与amf 2112和udm 2124交互,以用于ue 2102可用于sms传送的通知过程(例如,设置ue不可达标志,并且当ue 2102可用于sms时通知udm 2124)。
273.在至少一个实施例中,系统2100可以包括以下基于服务的接口:namf:amf展现的基于服务的接口;nsmf:smf展现的基于服务的接口;nnef:nef展现的基于服务的接口;
npcf:pcf展现的基于服务的接口;nudm:udm展现的基于服务的接口;naf:af展现的基于服务的接口;nnrf:nrf展现的基于服务的接口;以及nausf:ausf展现的基于服务的接口。
274.在至少一个实施例中,系统2100可以包括以下参考点:n1:ue和amf之间的参考点;n2:(r)an和amf之间的参考点;n3:(r)an和upf之间的参考点;n4:smf和upf之间的参考点;以及n6:upf和数据网络之间的参考点。在至少一个实施例中,nf中的nf服务之间可能存在更多的参考点和/或基于服务的接口,然而,为清楚起见,这些接口和参考点已经被省略。在至少一个实施例中,ns参考点可以在pcf与af之间;n7参考点可以在pcf与smf之间;n11参考点在amf与smf之间等等。在至少一个实施例中,cn 2110可以包括nx接口,nx接口是mme和amf 2112之间的cn间接口,以便实现cn 2110和cn7221之间的互通。
275.在至少一个实施例中,系统2100可包括多个ran节点(诸如(r)an节点2108),其中在连接到5gc 410的两个或更多个(r)an节点2108(例如,gnb)之间,在连接到cn 2110的(r)an节点2108(例如gnb)和enb(例如宏ran节点)之间,和/或在连接到cn 2110的两个enb之间定义xn接口。
276.在至少一个实施例中,xn接口可以包括xn用户平面(xn-u)接口和xn控制平面(xn-c)接口。在至少一个实施例中,xn-u可以提供用户平面pdu的无保证的递送,并且支持/提供数据转发和流控制功能。在至少一个实施例中,xn-c可提供管理和错误处理功能、管理xn-c接口的功能;对处于连接模式(例如,cm-connected)的ue 2102的移动性支持,其包括管理针对一个或更多个(r)an节点2108之间的连接模式的ue移动性的功能。在至少一个实施例中,移动性支持可包括从旧(源)服务(r)an节点2108到新(目标)服务(r)an节点2108的上下文传送;以及控制旧(源)服务(r)an节点2108至新(目标)服务(r)an节点2108之间的用户平面隧道。
277.在至少一个实施例中,xn-u的协议栈可以包括在互联网协议(ip)传输层上构建的传输网络层和在udp和/或一个或更多个ip层的顶部上用于承载用户平面pdu的gtp-u层。在至少一个实施例中,xn-c协议栈可以包括应用层信令协议(称为xn应用协议(xn-ap))和建立在sctp层上的传输网络层。在至少一个实施例中,sctp层可以在ip层的顶部上。在至少一个实施例中,sctp层提供应用层消息的有保证的递送。在至少一个实施例中,在传输ip层中,点对点传输被用于递送信令pdu。在至少一个实施例中,xn-u协议栈和/或xn-c协议栈可以与本文中示出和描述的用户平面和/或控制平面协议栈相同或相似。
278.图22是根据一些实施例的控制平面协议栈的图示。在至少一个实施例中,控制平面2200被示为ue 2002(或可替代地,ue 2004)、ran2016和mme 2028之间的通信协议栈。
279.在至少一个实施例中,phy层2202可以通过一个或更多个空中接口发送或接收由mac层2204使用的信息。在至少一个实施例中,phy层2202还可以执行链路自适应或自适应调制和编码(amc)、功率控制、小区搜索(例如,用于初始同步和切换目的)和由较高层(例如,rrc层2210)使用的其他测量。在至少一个实施例中,phy层2202还可以进一步对传输信道执行错误检测、传输信道的前向纠错(fec)编码/解码、物理信道的调制/解调、交织、速率匹配、映射到物理信道、以及多输入多输出(mimo)天线处理。
280.在至少一个实施例中,mac层2204可执行逻辑信道和传输信道之间的映射,将来自一个或更多个逻辑信道的mac服务数据单元(sdu)复用到要经由传输信道递送到phy的传输块(tb)上,将mac sdu从经由传输信道从phy递送的传输块(tb)解复用到一个或更多个逻辑
信道,将mac sdu复用到tb上、调度信息报告、通过混合自动重传请求(hard)的纠错,以及逻辑信道优先化。
281.在至少一个实施例中,rlc层2206可在多种操作模式下操作,包括:透明模式(tm)、非确认模式(um)和确认模式(am)。在至少一个实施例中,rlc层2206可以执行上层协议数据单元(pdu)的传输、通过针对am数据传输的自动重复请求(arq)的纠错、以及用于um和am数据传输的rlc sdu的级联、分段和重组。在至少一个实施例中,rlc层2206还可以执行用于am数据传输的rlc数据pdu的重新分段,对用于um和am数据传输的rlc数据pdu进行重排序,检测用于um和am数据传输的重复数据,丢弃用于um和am数据传输的rlc sdu,检测am数据传输的协议错误,以及执行rlc重建。
282.在至少一个实施例中,pdcp层2208可以执行ip数据的报头压缩和解压缩,维持pdcp序列号(sn),在重建较低层时执行较高层pdu的序列内递送,在为映射在rlc am上的无线电承载重建较低层时消除较低层sdu的复制,对控制平面数据进行加密和解密,对控制平面数据进行完整性保护和完整性验证,基于控制定时器的数据丢弃,以及执行安全操作(例如,加密、解密、完整性保护、完整性验证等)。
283.在至少一个实施例中,rrc层2210的主要服务和功能可包括系统信息的广播(例如,包括在与非接入层(nas)相关的主信息块(mib)或系统信息块(sib)中),与接入层(as)有关的系统信息的广播、ue与e-utran之间的rrc连接的寻呼、建立、维持和释放(例如,rrc连接寻呼、rrc连接建立、rrc连接修改和rrc连接释放),点对点无线承载的建立、配置、维护和释放,包括密钥管理的安全功能,无线电接入技术(rat)间移动性,以及用于ue测量报告的测量配置。在至少一个实施例中,所述mib和sib可包括一个或更多个信息元素(ie),每个信息元素可包括单独的数据字段或数据结构。
284.在至少一个实施例中,ue 2002和ran 2016可以利用uu接口(例如,lte-uu接口)来经由包括phy层2202、mac层2204、rlc层2206、pdcp层2208和rrc层2210的协议栈交换控制平面数据。
285.在至少一个实施例中,非接入层(nas)协议(nas协议2212)形成ue 2002与mme 2028之间的控制平面的最高层。在至少一个实施例中,nas协议2212支持ue 2002的移动性和会话管理过程以建立和维持ue 2002与p-gw 2034之间的ip连接。
286.在至少一个实施例中,si应用协议(si-ap)层(si-ap层2222)可以支持si接口的功能并且包括基本过程(ep)。在至少一个实施例中,ep是ran 2016和cn 2028之间的交互单元。在至少一个实施例中,s1-ap层服务可以包括两个组:ue关联服务和非ue关联服务。在至少一个实施例中,这些服务执行功能,包括但不限于:e-utran无线电接入承载(e-rab)管理、ue能力指示、移动性、nas信令传输、ran信息管理(rim)和配置转移。
287.在至少一个实施例中,流控制传输协议(sctp)层(可替代地称为流控制传输协议/互联网协议(sctp/ip)层)(sctp层2220)可以部分地基于ip层2218所支持的ip协议来确保ran 2016与mme 2028之间的信令消息的可靠传递。在至少一个实施例中,l2层2216和l1层2214可以指由ran节点和mme用来交换信息的通信链路(例如,有线或无线)。
288.在至少一个实施例中,ran 2016和一个或更多个mme 2028可以利用s1-mme接口来经由包括l1层2214、l2层2216、ip层2218、sctp层2220和si-ap层2222的协议栈交换控制平面数据。
289.图23是根据至少一个实施例的用户平面协议栈的图示。在至少一个实施例中,用户平面2300被示为ue 2002、ran 2016、s-gw 2030和p-gw 2034之间的通信协议栈。在至少一个实施例中,用户平面2300可以利用与控制平面2200相同的协议层。在至少一个实施例中,ue 2002和ran 2016可以利用uu接口(例如,lte-uu接口)来经由包括phy层2202、mac层2204、rlc层2206、pdcp层2208的协议栈来交换用户平面数据。
290.在至少一个实施例中,用于用户平面的通用分组无线电服务(gprs)隧道协议(gtp-u)层(gtp-u层2304)可以用于在gprs核心网络内和在无线电接入网络和核心网络之间运载用户数据。在至少一个实施例中,所传输的用户数据可以是ipv4、ipv6或ppp格式中的任何格式的分组。在至少一个实施例中,udp和ip安全(udp/ip)层(udp/ip层2302)可以提供数据完整性的校验和、用于在源和目的地寻址不同功能的端口号、以及对所选数据流的加密和认证。在至少一个实施例中,ran 2016和s-gw 2030可以利用s1-u接口来经由包括l1层2214、l2层2216、udp/ip层2302和gtp-u层2304的协议栈来交换用户平面数据。在至少一个实施例中,s-gw 2030和p-gw 2034可以利用s5/s8a接口来经由包括l1层2214、l2层2216、udp/ip层2302和gtp-u层2304的协议栈交换用户平面数据。在至少一个实施例中,如以上关于图22所讨论的,nas协议支持ue 2002的移动性和会话管理过程以建立和维持ue 2002与p-gw 2034之间的ip连接。
291.图24示出了根据至少一个实施例的核心网络的组件2400。在至少一个实施例中,cn 2038的组件可以在一个物理节点或单独的物理节点中实现,所述单独的物理节点包括用于从机器可读介质或计算机可读介质(例如,非暂态机器可读存储介质)读取和执行指令的组件。在至少一个实施例中,网络功能虚拟化(nfv)用于经由存储在一个或更多个计算机可读存储介质(以下进一步详细描述)中的可执行指令来虚拟化任何或所有的上述网络节点功能。在至少一个实施例中,cn 2038的逻辑实例化可以被称为网络切片2402(例如,网络切片2402被示出为包括hss 2032、mme 2028和s-gw 2030)。在至少一个实施例中,cn 2038的一部分的逻辑实例化可以被称为网络子切片2404(例如,网络子切片2404被示出为包括p-gw 2034和pcrf 2036)。
292.在至少一个实施例中,nfv架构和基础设施可以用于将一个或更多个网络功能虚拟化到包括行业标准服务器硬件、存储硬件或交换机的组合的物理资源上,所述网络功能可替代地由专用硬件执行。在至少一个实施例中,nfv系统可用于执行一个或更多个epc组件/功能的虚拟或可重新配置的实现方式。
293.图25是示出了根据至少一个实施例的用于支持网络功能虚拟化(nfv)的系统2500的组件的框图。在至少一个实施例中,系统2500被示为包括虚拟化基础设施管理器(被示为vim 2502)、网络功能虚拟化基础设施(如nfvi 2504所示)、vnf管理器(如vnfm 2506所示)、虚拟化网络功能(示出为vnf 2508)、元件管理器(示出为em 2510)、nfv协调器(示出为nfvo 2512)、以及网络管理器(示为nm 2514)。
294.在至少一个实施例中,vim 2502管理nfvi 2504的资源。在至少一个实施例中,nfvi 2504可包括用于执行系统2500的物理或虚拟资源和应用(包括管理程序)。在至少一个实施例中,vim 2502可以利用nfvi2504来管理虚拟资源的生命周期(例如,与一个或更多个物理资源相关联的虚拟机(vm)的创建、维护和拆除)、跟踪vm实例、跟踪性能、vm实例和相关联的物理资源的故障和安全性、以及向其他管理系统暴露vm实例和相关联的物理资源。
295.在至少一个实施例中,vnfm 2506可以管理vnf 2508。在至少一个实施例中,vnf 2508可以用于执行epc组件/功能。在至少一个实施例中,vnfm 2506可以管理vnf 2508的生命周期并且跟踪vnf 2508的虚拟方面的性能、故障和安全性。在至少一个实施例中,em 2510可以跟踪vnf 2508的功能方面的性能、故障和安全性。在至少一个实施例中,跟踪来自vnfm 2506和em 2510的数据可以包括,在至少一个实施例中,由vim 2502或nfvi 2504使用的性能测量(pm)数据。在至少一个实施例中,vnfm 2506和em 2510两者可以放大/缩小系统2500的vnf的数量。
296.在至少一个实施例中,nfvo 2512可协调、授权、释放和占用nfvi 2504的资源,以便提供所请求的服务(例如,以执行epc功能、组件或切片)。在至少一个实施例中,nm 2514可提供负责管理网络的终端用户功能包,该网络可包括具有vnf、非虚拟化网络功能或两者的网络元件(vnf的管理可经由em 2510发生)。
297.基于计算机的系统
298.以下各图提出但不限于可用于实现至少一个实施例的示例性的基于计算机的系统。
299.图26示出了根据至少一个实施例的处理系统2600。在至少一个实施例中,系统2600包括一个或更多个处理器2602和一个或更多个图形处理器2608,并且可以是单处理器台式机系统、多处理器工作站系统或具有大量处理器2602或处理器核心2607的服务器系统。在至少一个实施例中,处理系统2600是结合在片上系统(soc)集成电路内的处理平台,以用于移动、手持或嵌入式设备。
300.在至少一个实施例中,处理系统2600可以包括或结合在基于服务器的游戏平台中,包括游戏和媒体控制台的游戏控制台、移动游戏控制台、手持游戏控制台或在线游戏控制台。在至少一个实施例中,处理系统2600是移动电话、智能电话、平板计算设备或移动互联网设备。在至少一个实施例中,处理系统2600还可包括与可穿戴设备耦合或集成在可穿戴设备中,例如智能手表可穿戴设备、智能眼镜设备、增强现实设备或虚拟现实设备。在至少一个实施例中,处理系统2600是电视或机顶盒设备,其具有一个或更多个处理器2602以及由一个或更多个图形处理器2608生成的图形界面。
301.在至少一个实施例中,一个或更多个处理器2602每个包括一个或更多个处理器核心2607,以处理指令,该指令在被执行时执行针对系统和用户软件的操作。在至少一个实施例中,一个或更多个处理器核心2607中的每一个被配置为处理特定指令集2609。在至少一个实施例中,指令集2609可以促进复杂指令集计算(cisc)、精简指令集计算(risc),或通过超长指令字(vliw)进行计算。在至少一个实施例中,多个处理器核心2607可以各自处理不同的指令集2609,该指令集2609可以包括有助于仿真其他指令集的指令。在至少一个实施例中,处理器核心2607还可以包括其他处理设备,例如数字信号处理器(dsp)。
302.在至少一个实施例中,处理器2602包括高速缓存存储器(cache)2604。在至少一个实施例中,处理器2602可以具有单个内部高速缓存或多个级别的内部高速缓存。在至少一个实施例中,高速缓存存储器在处理器2602的各个组件之间共享。在至少一个实施例中,处理器2602还使用外部高速缓存(例如,三级(l3)高速缓存或最后一级高速缓存(llc))(未示出),其可以使用已知的高速缓存一致性技术在处理器核心2607之间共享该逻辑。在至少一个实施例中,处理器2602中另外包括寄存器文件2606,处理器2602可以包括用于存储不同
类型的数据的不同类型的寄存器(例如,整数寄存器、浮点寄存器、状态寄存器和指令指针寄存器)。在至少一个实施例中,寄存器文件2606可以包括通用寄存器或其他寄存器。
303.在至少一个实施例中,一个或更多个处理器2602与一个或更多个接口总线2610耦合,以在处理器2602与系统2600中的其他组件之间传输通信信号,例如地址、数据或控制信号。在至少一个实施例中,接口总线2610在一个实施例中可以是处理器总线,例如直接媒体接口(dmi)总线的版本。在至少一个实施例中,接口总线2610不限于dmi总线,并且可以包括一个或更多个外围组件互连总线(例如,pci,pci express)、存储器总线或其他类型的接口总线。在至少一个实施例中,处理器2602包括集成存储器控制器2616和平台控制器集线器2630。在至少一个实施例中,存储器控制器2616促进存储设备与处理系统2600的其他组件之间的通信,而平台控制器集线器(pch)2630通过本地i/o总线提供到输入/输出(i/o)设备的连接。
304.在至少一个实施例中,存储器设备2620可以是动态随机存取存储器(dram)设备、静态随机存取存储器(sram)设备、闪存设备、相变存储设备或具有适当的性能以用作处理器存储器。在至少一个实施例中,存储设备2620可以用作处理系统2600的系统存储器,以存储数据2622和指令2621,以在一个或更多个处理器2602执行应用或过程时使用。在至少一个实施例中,存储器控制器2616还与可选的外部图形处理器2612耦合,其可以与处理器2602中的一个或更多个图形处理器2608通信以执行图和媒体操作。在至少一个实施例中,显示设备2611可以连接至处理器2602。在至少一个实施例中,显示设备2611可以包括内部显示设备中的一个或更多个,例如在移动电子设备或便携式计算机设备或通过显示器接口(例如显示端口(displayport)等)连接的外部显示设备。在至少一个实施例中,显示设备2611可以包括头戴式显示器(hmd),诸如用于虚拟现实(vr)应用或增强现实(ar)应用中的立体显示设备。
305.在至少一个实施例中,平台控制器集线器2630使外围设备能够通过高速i/o总线连接到存储设备2620和处理器2602。在至少一个实施例中,i/o外围设备包括但不限于音频控制器2646、网络控制器2634、固件接口2628、无线收发器2626、触摸传感器2625、数据存储设备2624(例如,硬盘驱动器、闪存等)。在至少一个实施例中,数据存储设备2624可以经由存储器接口(例如,sata)或经由外围总线来连接,诸如外围组件互连总线(例如,pci、pcie)。在至少一个实施例中,触摸传感器2625可以包括触摸屏传感器、压力传感器或指纹传感器。在至少一个实施例中,无线收发器2626可以是wi-fi收发器、蓝牙收发器或移动网络收发器,诸如3g、4g或长期演进(lte)收发器。在至少一个实施例中,固件接口2628使能与系统固件的通信,在至少一个实施例中,并且可以是统一的可扩展固件接口(uefi)。在至少一个实施例中,网络控制器2634可以启用到有线网络的网络连接。在至少一个实施例中,高性能网络控制器(未示出)与接口总线2610耦合。在至少一个实施例中,音频控制器2646是多通道高清晰度音频控制器。在至少一个实施例中,处理系统2600包括可选的传统(legacy)i/o控制器2640,用于将遗留(例如,个人系统2(ps/2))设备耦合到处理系统2600。在至少一个实施例中,平台控制器集线器2630还可以连接到一个或更多个通用串行总线(usb)控制器2642,该控制器连接输入设备,诸如键盘和鼠标2643组合、相机2644或其他usb输入设备。
306.在至少一个实施例中,存储器控制器2616和平台控制器集线器2630的实例可以集
成到离散的外部图形处理器中,例如外部图形处理器2612。在至少一个实施例中,平台控制器集线器2630和/或存储控制器2616可以在一个或更多个处理器2602的外部。在至少一个实施例中,处理系统2600可以包括外部存储控制器2616和平台控制器集线器2630,其可以配置成在与处理器2602通信的系统芯片组中的存储器控制器集线器和外围控制器集线器。
307.图27示出了根据至少一个实施例的计算机系统2700。在至少一个实施例中,计算机系统2700可以是具有互连的设备和组件,soc,或某种组合的系统。在至少一个实施例中,计算机系统2700由处理器2702形成,该处理器2702可以包括用于执行指令的执行单元。在至少一个实施例中,计算机系统2700可以包括但不限于组件,例如处理器2702,其采用包括逻辑的执行单元以执行用于过程数据的算法。在至少一个实施例中,计算机系统2700可以包括处理器,例如可从加利福尼亚圣塔克拉拉的英特尔公司(intel corporation of santa clara,california)获得的处理器家族、xeontm、xscaletm和/或strongarmtm,core
tm
或nervana
tm
微处理器,尽管也可以使用其他系统(包括具有其他微处理器的pc、工程工作站、机顶盒等)。在至少一个实施例中,计算机系统2700可以执行可从华盛顿州雷蒙德市的微软公司(microsoft corporation of redmond,wash.)获得的windows操作系统版本,尽管其他操作系统(在至少一个实施例中unix和linux)、嵌入式软件和/或图形用户界面也可以使用。
308.在至少一个实施例中,计算机系统2700可以用在其他设备中,例如手持设备和嵌入式应用。手持设备的至少一个实施例的一些包括蜂窝电话、互联网协议(internet protocol)设备、数码相机、个人数字助理(“pda”)和手持pc。在至少一个实施例中,嵌入式应用可以包括微控制器、数字信号处理器(“dsp”)、soc、网络计算机(“netpc”)、机顶盒、网络集线器、广域网(“wan”)交换机,或根据至少一个实施例可以执行一个或更多个指令的任何其他系统。
309.在至少一个实施例中,计算机系统2700可包括但不限于处理器2702,该处理器2702可包括但不限于一个或更多个执行单元2708,其可以配置为执行计算统一设备架构(“cuda”)(由加利福尼亚州圣克拉拉的nvidiacorporation开发)程序。在至少一个实施例中,cuda程序是用cuda编程语言编写的软件应用程序的至少一部分。在至少一个实施例中,计算机系统2700是单处理器台式机或服务器系统。在至少一个实施例中,计算机系统2700可以是多处理器系统。在至少一个实施例中,处理器2702可以包括但不限于cisc微处理器、risc微处理器、vliw微处理器、实现指令集组合的处理器,或任何其他处理器设备,在至少一个实施例中,诸如数字信号处理器。在至少一个实施例中,处理器2702可以耦合到处理器总线2710,该处理器总线2710可以在处理器2702与计算机系统2700中的其他组件之间传输数据信号。
310.在至少一个实施例中,处理器2702可以包括但不限于1级(“l1”)内部高速缓存存储器(“cache”)2704。在至少一个实施例中,处理器2702可以具有单个内部高速缓存或多级内部缓存。在至少一个实施例中,高速缓存存储器可以驻留在处理器2702的外部。在至少一个实施例中,处理器2702可以包括内部和外部高速缓存的组合。在至少一个实施例中,寄存器文件2706可以在各种寄存器中存储不同类型的数据,包括但不限于整数寄存器、浮点寄存器、状态寄存器和指令指针寄存器。
311.在至少一个实施例中,包括但不限于执行整数和浮点运算的逻辑的执行单元
2708,其也位于处理器2702中。处理器2702还可以包括微码(“ucode”)只读存储器(“rom”),用于存储某些宏指令的微代码。在至少一个实施例中,执行单元2708可以包括用于处理封装指令集2709的逻辑。在至少一个实施例中,通过将封装指令集2709包括在通用处理器2702的指令集中,以及要执行指令的相关电路,可以使用通用处理器2702中的封装数据来执行许多多媒体应用程序使用的操作。在至少一个实施例中,可以通过使用处理器的数据总线的全宽度来在封装的数据上执行操作来加速和更有效地执行许多多媒体应用程序,这可能不需要在处理器的数据总线上传输较小的数据单元来一次对一个数据元素执行一个或更多个操作。
312.在至少一个实施例中,执行单元2708也可以用在微控制器、嵌入式处理器、图形设备、dsp和其他类型的逻辑电路中。在至少一个实施例中,计算机系统2700可以包括但不限于存储器2720。在至少一个实施例中,存储器2720可以被实现为dram设备、sram设备、闪存设备或其他存储设备。存储器2720可以存储由处理器2702可以执行的由数据信号表示的指令2719和/或数据2721。
313.在至少一个实施例中,系统逻辑芯片可以耦合到处理器总线2710和存储器2720。在至少一个实施例中,系统逻辑芯片可以包括但不限于存储器控制器集线器(“mch”)2716,并且处理器2702可以经由处理器总线2710与mch 2716通信。在至少一个实施例中,mch 2716可以提供到存储器2720的高带宽存储器路径2718以用于指令和数据存储以及用于图形命令、数据和纹理的存储。在至少一个实施例中,mch 2716可以在处理器2702、存储器2720和计算机系统2700中的其他组件之间启动数据信号,并且在处理器总线2710、存储器2720和系统i/o 2722之间桥接数据信号。在至少一个实施例中,系统逻辑芯片可以提供用于耦合到图形控制器的图形端口。在至少一个实施例中,mch 2716可以通过高带宽存储器路径2718耦合到存储器2720,并且图形/视频卡2712可以通过加速图形端口(accelerated graphics port)(“agp”)互连2714耦合到mch2716。
314.在至少一个实施例中,计算机系统2700可以使用系统i/o 2722作为专有集线器接口总线来将mch 2716耦合到i/o控制器集线器(“ich”)2730。在至少一个实施例中,ich 2730可以通过本地i/o总线提供与某些i/o设备的直接连接。在至少一个实施例中,本地i/o总线可以包括但不限于用于将外围设备连接到存储器2720、芯片组和处理器2702的高速i/o总线。示例可以包括但不限于音频控制器2729、固件集线器(“flash bios”)2728、无线收发器2726、数据存储2724、包含用户输入2725的传统i/o控制器2723和键盘接口、串行扩展端口2777(例如usb)和网络控制器2734。数据存储2724可以包括硬盘驱动器、软盘驱动器、cd-rom设备、闪存设备或其他大容量存储设备。
315.在至少一个实施例中,图27示出了包括互连的硬件设备或“芯片”的系统。在至少一个实施例中,图27可以示出示例性soc。在至少一个实施例中,图27中示出的设备可以与专有互连、标准化互连(例如,pcie)或其某种组合互连。在至少一个实施例中,系统2700的一个或更多个组件使用计算快速链路(cxl)互连来互连。
316.图28示出了根据至少一个实施例的系统2800。在至少一个实施例中,系统2800是利用处理器2810的电子设备。在至少一个实施例中,系统2800可以是,在至少一个实施例中但不限于,笔记本电脑、塔式服务器、机架服务器、刀片服务器、膝上型计算机、台式机、平板电脑、移动设备、电话、嵌入式计算机或任何其他合适的电子设备。
317.在至少一个实施例中,系统2800可以包括但不限于通信地耦合到任何合适数量或种类的组件、外围设备、模块或设备的处理器2810。在至少一个实施例中,处理器2810使用总线或接口耦合,诸如i2c总线、系统管理总线(“smbus”)、低引脚数(lpc)总线、串行外围接口(“spi”)、高清音频(“hda”)总线、串行高级技术附件(“sata”)总线、usb(1、2、3版)或通用异步接收器/发送器(“uart”)总线。在至少一个实施例中,图28示出了系统,该系统包括互连的硬件设备或“芯片”。在至少一个实施例中,图28可以示出示例性soc。在至少一个实施例中,图28中所示的设备可以与专有互连线、标准化互连(例如,pcie)或其某种组合互连。在至少一个实施例中,图28的一个或更多个组件使用计算快速链路(cxl)互连线来互连。
318.在至少一个实施例中,图28可以包括显示器2824、触摸屏2825、触摸板2830、近场通信单元(“nfc”)2845、传感器集线器2840、热传感器2846、快速芯片组(“ec”)2835、可信平台模块(“tpm”)2838、bios/固件/闪存(“bios,fw flash”)2822、dsp 2860、固态磁盘(“ssd”)或硬盘驱动器(“hdd”)2820、无线局域网单元(“wlan”)2850、蓝牙单元2852、无线广域网单元(“wwan”)2856、全球定位系统(gps)2855、相机(“usb 3.0相机”)2854(例如usb 3.0相机)或以至少一个实施例lpddr3标准实现的低功耗双倍数据速率(“lpddr”)存储器单元(“lpddr3”)2815。这些组件可以各自以任何合适的方式实现。
319.在至少一个实施例中,其他组件可以通过以上讨论的组件通信地耦合到处理器2810。在至少一个实施例中,加速度计2841、环境光传感器(“als”)2842、罗盘2843和陀螺仪2844可以可通信地耦合到传感器集线器2840。在至少一个实施例中,热传感器2839、风扇2837、键盘2846和触摸板2830可以通信地耦合到ec 2835。在至少一个实施例中,扬声器2863、耳机2864和麦克风(“mic”)2865可以通信地耦合到音频单元(“音频编解码器和d类放大器”)2864,其又可以通信地耦合到dsp 2860。在至少一个实施例中,音频单元2864可以包括但不限于音频编码器/解码器(“编解码器”)和d类放大器。在至少一个实施例中,sim卡(“sim”)2857可以通信地耦合到wwan单元2856。在至少一个实施例中,组件(诸如wlan单元2850和蓝牙单元2852以及wwan单元2856)可以被实现为下一代形式因素(ngff)。
320.图29示出了根据至少一个实施例的示例性集成电路2900。在至少一个实施例中,示例性集成电路2900是soc,其可使用一个或更多个ip核心制造。在至少一个实施例中,集成电路2900包括一个或更多个应用处理器2905(例如,cpu)、至少一个图形处理器2910,并且可以另外包括图像处理器2915和/或视频处理器2920,其中任意一个可能是模块化ip核心。在至少一个实施例中,集成电路2900包括外围或总线逻辑,其包括usb控制器2925、uart控制器2930、spi/sdio控制器2935和i2s/i2c控制器2940。在至少一个实施例中,集成电路2900可以包括显示设备2945耦合到高清多媒体接口(hdmi)控制器2950和移动工业处理器接口(mipi)显示接口2955中的一个或更多个。在至少一个实施例中,存储可以由闪存子系统2960提供,包括闪存和闪存控制器。在至少一个实施例中,可以经由存储器控制器2965提供存储器接口以用于访问sdram或sram存储器设备。在至少一个实施例中,一些集成电路还包括嵌入式安全引擎2970。
321.图30示出了根据至少一个实施例的计算系统3000。在至少一个实施例中,计算系统3000包括处理子系统3001,其具有经由可以包括存储器集线器3005的互连路径通信的一个或更多个处理器3002和系统存储器3004。在至少一个实施例中,存储器集线器3005可以是芯片组组件内的单独组件,也可以集成在一个或更多个处理器3002内。在至少一个实施
例中,存储器集线器3005通过通信链路3006与i/o子系统3011耦合。在至少一个实施例中,i/o子系统3011包括i/o集线器3007,其可以使计算系统3000能够接收来自一个或更多个输入设备3008的输入。在至少一个实施例中,i/o集线器3007可以使能显示控制器,其包括在一个或更多个处理器3002中,用于向一个或更多个显示设备3010a提供输出。在至少一个实施例中,与i/o集线器3007耦合的一个或更多个显示设备3010a可以包括本地、内部或嵌入式显示设备。
322.在至少一个实施例中,处理子系统3001包括经由总线或其他通信链路3013耦合到存储器集线器3005的一个或更多个并行处理器3012。在至少一个实施例中,通信链路3013可以是许多基于标准的通信链路技术或协议中的一种,例如但不限于pcie,或者可以是针对供应商的通信接口或通信结构。在至少一个实施例中,一个或更多个并行处理器3012形成计算集中的并行或向量处理系统,该系统可以包括大量的处理核心和/或处理集群,例如多集成核心(mic)处理器。在至少一个实施例中,一个或更多个并行处理器3012形成可以将像素输出到经由i/o集线器3007耦合的一个或更多个显示设备3010a之一的图形处理子系统。在至少一个实施例中,一个或更多个并行处理器3012还可以包括显示控制器和显示接口(未示出),以使得能够直接连接到一个或更多个显示设备3010b。
323.在至少一个实施例中,系统存储单元3014可以连接到i/o集线器3007,以提供用于计算系统3000的存储机制。在至少一个实施例中,i/o交换机3016可以用于提供接口机制,以实现i/o集线器3007与其他组件之间的连接,例如可以集成到平台中的网络适配器3018和/或无线网络适配器3019,以及可以通过一个或更多个附加设备3020添加的各种其他设备。在至少一个实施例中,网络适配器3018可以是以太网适配器或另一有线网络适配器。在至少一个实施例中,无线网络适配器3019可以包括wi-fi、蓝牙、nfc的一个或更多个或其他包括一个或更多个无线电的网络设备。
324.在至少一个实施例中,计算系统3000可以包括未明确示出的其他组件,包括usb或其他端口连接、光存储驱动器、视频捕获设备和/或其变体,也可以连接到i/o集线器3007。在至少一个实施例中,对图30中的各个组件进行互连的通信路径可以使用任何合适的协议来实现,诸如基于pci(外围组件互连)的协议(例如,pcie),或其他总线或点对点通信接口和/或协议(例如,nvlink高速互连或互连协议)。
325.在至少一个实施例中,一个或更多个并行处理器3012包括针对图形和视频处理而优化的电路(在至少一个实施例,包括视频输出电路),并构成图形处理单元(gpu)。在至少一个实施例中,一个或更多个并行处理器3012包括针对通用处理而优化的电路。在至少一个实施例中,计算系统3000的组件可以与单个集成电路上的一个或更多个其他系统元件集成。在至少一个实施例中,一个或更多个并行处理器3012、存储器集线器3005、处理器3002和i/o集线器3007可以被集成到片上系统(soc)集成电路中。在至少一个实施例中,计算系统3000的组件可以被集成到单个封装中以形成系统级封装(sip)配置。在至少一个实施例中,计算系统3000的组件的至少一部分可以被集成到多芯片模块(mcm)中,该多芯片模块可以与其他多芯片模块互连到模块化计算系统中。在至少一个实施例中,从计算系统3000中省略了i/o子系统3011和显示设备3010b。
326.处理系统
327.以下各图阐述了但不限于可用于实现至少一个实施例的示例性处理系统。
328.图31示出了根据至少一个实施例的加速处理单元(“apu”)3100。在至少一个实施例中,apu 3100由加利福尼亚州圣克拉拉市的amd公司开发。在至少一个实施例中,apu 3100可以被配置为执行应用程序,诸如cuda程序。在至少一个实施例中,apu 3100包括但不限于核心复合体3110、图形复合体3140、结构3160、i/o接口3170、存储器控制器3180、显示控制器3192和多媒体引擎3194。在至少一个实施例中,apu 3100可以包括但不限于任意数量的核心复合体3110、任意数量的图形复合体3140、任意数量的显示控制器3192和任意数量的多媒体引擎3194的任何组合。为了说明的目的,在本文中用附图标记表示相似对象的多个实例,其中附图标记标识该对象,并且括号中的数字标识所需要的实例。
329.在至少一个实施例中,核心复合体3110是cpu,图形复合体3140是gpu,并且apu 3100是将不限于3110和3140集成到单个芯片上的处理单元。在至少一个实施例中,一些任务可以被分配给核心复合体3110,而其他任务可以被分配给图形复合体3140。在至少一个实施例中,核心复合体3110被配置为执行与apu 3100相关联的主控制软件,例如操作系统。在至少一个实施例中,核心复合体3110是apu 3100的主处理器,其控制和协调其他处理器的操作。在至少一个实施例中,核心复合体3110发出控制图形复合体3140的操作的命令。在至少一个实施例中,核心复合体3110可以被配置为执行从cuda源代码派生的主机可执行代码,并且图形复合体3140可以被配置为执行从cuda源代码派生的设备可执行代码。
330.在至少一个实施例中,核心复合体3110包括但不限于核心3120(1)-3120(4)和l3高速缓存3130。在至少一个实施例中,核心复合体3110可以包括但不限于任意数量的核心3120以及任意数量和类型的高速缓存的任何组合。在至少一个实施例中,核心3120被配置为执行特定指令集架构(“isa”)的指令。在至少一个实施例中,每个核心3120是cpu核心。
331.在至少一个实施例中,每个核心3120包括但不限于获取/解码单元3122,整数执行引擎3124,浮点执行引擎3126和l2高速缓存3128。在至少一个实施例中,获取/解码单元3122获取指令,对这些指令进行解码,生成微操作,并将单独的微指令分派给整数执行引擎3124和浮点执行引擎3126。在至少一个实施例中,获取/解码单元3122可以同时分派一个微指令到整数执行引擎3124和另一微指令到浮点执行引擎3126。在至少一个实施例中,整数执行引擎3124执行不限于整数和存储器操作。在至少一个实施例中,浮点引擎3126执行不限于浮点和向量运算。在至少一个实施例中,获取-解码单元3122将微指令分派给单个执行引擎,该执行引擎代替整数执行引擎3124和浮点执行引擎3126两者。
332.在至少一个实施例中,每个核心3120(i)可以访问包括在核心3120(i)中的l2高速缓存3128(i),其中i是表示核心3120的特定实例的整数。在至少一个实施例中,包括在核心复合体3110(j)中的每个核心3120经由包括在核心复合体3110(j)中的l3高速缓存3130(j)连接到包括在核心复合体3110(j)中的其他核心3120,其中j是表示核心复合体3110的特定实例的整数。在至少一个实施例中,包括在核心复合体3110(j)中的核心3120可以访问包括在核心复合体3110(j)中的所有l3高速缓存3130(j),其中j是表示核心复合体3110的特定实例的整数。在至少一个实施例中,l3高速缓存3130可以包括但不限于任意数量的切片(slice)。
333.在至少一个实施例中,图形复合体3140可以被配置为以高度并行的方式执行计算操作。在至少一个实施例中,图形复合体3140被配置为执行图形管线操作,诸如绘制命令、像素操作、几何计算以及与将图像渲染至显示器相关联的其他操作。在至少一个实施例中,
图形复合体3140被配置为执行与图形无关的操作。在至少一个实施例中,图形复合体3140被配置为执行与图形有关的操作和与图形无关的操作。
334.在至少一个实施例中,图形复合体3140包括但不限于任意数量的计算单元3150和l2高速缓存3142。在至少一个实施例中,计算单元3150共享l2高速缓存3142。在至少一个实施例中,l2高速缓存3142被分区。在至少一个实施例中,图形复合体3140包括但不限于任意数量的计算单元3150以及任意数量(包括零)和类型的高速缓存。在至少一个实施例中,图形复合体3140包括但不限于任意数量的专用图形硬件。
335.在至少一个实施例中,每个计算单元3150包括但不限于任意数量的simd单元3152和共享存储器3154。在至少一个实施例中,每个simd单元3152实现simd架构并且被配置为并行执行操作。在至少一个实施例中,每个计算单元3150可以执行任意数量的线程块,但是每个线程块在单个计算单元3150上执行。在至少一个实施例中,线程块包括但不限于任意数量的执行线程。在至少一个实施例中,工作组是线程块。在至少一个实施例中,每个simd单元3152执行不同的线程束(warp)。在至少一个实施例中,线程束是一组线程(例如16个线程),其中线程束中的每个线程属于单个线程块,并且被配置为基于单个指令集来处理不同的数据集。在至少一个实施例中,可以使用预测(predication)来禁用线程束中的一个或更多个线程。在至少一个实施例中,通道是线程。在至少一个实施例中,工作项是线程。在至少一个实施例中,波前是线程束。在至少一个实施例中,线程块中的不同波前可一起同步并经由共享存储器3154进行通信。
336.在至少一个实施例中,结构3160是系统互连,其促进跨核心复合体3110、图形复合体3140、i/o接口3170、存储器控制器3180、显示控制器3192和多媒体引擎3194的数据和控制传输。在至少一个实施例中,除了结构3160之外或代替结构3160,apu 3100还可以包括但不限于任意数量和类型的系统互连,该结构3160促进跨可以在apu 3100内部或外部的任意数量和类型的直接或间接链接的组件的数据和控制传输。在至少一个实施例中,i/o接口3170表示任意数量和类型的i/o接口(例如,pci,pci-extended(“pci-x”),pcie,千兆以太网(“gbe”),usb等)。在至少一个实施例中,各种类型的外围设备耦合到i/o接口3170。在至少一个实施例中,耦合到i/o接口3170的外围设备可以包括但不限于键盘,鼠标,打印机,扫描仪,操纵杆或其他类型的游戏控制器、媒体记录设备、外部存储设备、网络接口卡等。
337.在至少一个实施例中,显示控制器amd92在一个或更多个显示设备(例如液晶显示器(lcd)设备)上显示图像。在至少一个实施例中,多媒体引擎240包括但不限于任意数量和类型的与多媒体相关的电路,例如视频解码器、视频编码器、图像信号处理器等。在至少一个实施例中,存储器控制器3180促进apu 3100与统一系统存储器3190之间的数据传输。在至少一个实施例中,核心复合体3110和图形复合体3140共享统一系统存储器3190。
338.在至少一个实施例中,apu 3100实现种存储器子系统,其包括但不限于任意数量和类型的存储器控制器3180和可以专用于一个组件或在多个组件之间共享的存储器设备(例如,共享存储器3154)。组件。在至少一个实施例中,apu 3100实现高速缓存子系统,其包括但不限于一个或更多个高速缓存存储器(例如,l2高速缓存2728,l3高速缓存3130和l2高速缓存3142),每个高速缓存存储器可以是组件私有的或在任意数量的组件(例如,核心3120,核心复合体3110,simd单元3152,计算单元3150和图形复合体3140)之间共享。
339.图32示出了根据至少一个实施例的cpu 3200。在至少一个实施例中,cpu 3200由
加利福尼亚州圣克拉拉市的amd公司开发。在至少一个实施例中,cpu 3200可以被配置为执行应用程序。在至少一个实施例中,cpu 3200被配置为执行主控制软件,例如操作系统。在至少一个实施例中,cpu 3200发出控制外部gpu(未示出)的操作的命令。在至少一个实施例中,cpu 3200可以被配置为执行从cuda源代码派生的主机可执行代码,并且外部gpu可以被配置为执行从这种cuda源代码派生的设备可执行代码。在至少一个实施例中,cpu 3200包括但不限于任意数量的核心复合体3210,结构3260,i/o接口3270和存储器控制器3280。
340.在至少一个实施例中,核心复合体3210包括但不限于核心3220(1)-3220(4)和l3高速缓存3230。在至少一个实施例中,核心复合体3210可以包括但不限于任意数量的核心3220以及任意数量和类型的高速缓存的任何组合。在至少一个实施例中,核心3220被配置为执行特定isa的指令。在至少一个实施例中,每个核心3220是cpu核心。
341.在至少一个实施例中,每个核心3220包括但不限于获取/解码单元3222,整数执行引擎3224,浮点执行引擎3226和l2高速缓存3228。在至少一个实施例中,获取/解码单元3222获取指令,对这些指令进行解码,生成微操作,并将单独的微指令分派给整数执行引擎3224和浮点执行引擎3226。在至少一个实施例中,获取/解码单元3222可以同时分派一个微指令至整数执行引擎3224和另一微指令至浮点执行引擎3226。在至少一个实施例中,整数执行引擎3224执行不限于整数和存储器操作。在至少一个实施例中,浮点引擎3226执行不限于浮点和向量运算。在至少一个实施例中,获取-解码单元3222将微指令分派给单个执行引擎,该引擎代替整数执行引擎3224和浮点执行引擎3226两者。
342.在至少一个实施例中,每个核心3220(i)可以访问包括在核心3220(i)中的l2高速缓存3228(i),其中i是表示核心3220的特定实例的整数。在至少一个实施例中,包括在核心复合体3210(j)中的每个核心3220经由包括在核心复合体3210(j)中的l3高速缓存3230(j)连接到核心复合体3210(j)中的其他核心3220,其中j是表示核心复合体3210的特定实例的整数。在至少一个实施例中,包括在核心复合体3210(j)中的核心3220可以访问包括在核心复合体3210(j)中的所有l3高速缓存3230(j),其中j是表示核心复合体3210的特定实例的整数。在至少一个实施例中,l3高速缓存3230可以包括但不限于任意数量的切片。
343.在至少一个实施例中,结构3260是系统互连,其促进跨核心复合体3210(1)-3210(n)(其中n是大于零的整数)、i/o接口3270和存储器控制器3280的数据和控制传输。在至少一个实施例中,除了结构3260之外或代替结构3260,cpu 3200还可以包括但不限于任意数量和类型的系统互连,该结构3260促进跨可以在cpu 3200内部或外部的任意数量和类型的直接或间接链接的组件的数据和控制传输。在至少一个实施例中,i/o接口3270表示任意数量和类型的i/o接口(例如pci,pci-x,pcie,gbe,usb等)。在至少一个实施例中,各种类型的外围设备耦合到i/o接口3270。在至少一个实施例中,耦合到i/o接口3270的外围设备可以包括但不限于显示器,键盘,鼠标,打印机,扫描仪,操纵杆或其他类型的游戏控制器、媒体记录设备、外部存储设备、网络接口卡等。
344.在至少一个实施例中,存储器控制器3280促进cpu 3200与系统存储器3290之间的数据传输。在至少一个实施例中,核心复合体3210和图形复合体3240共享系统存储器3290。在至少一个实施例中,cpu 3200实现存储器子系统,其包括但不限于任意数量和类型的存储器控制器3280和可以专用于一个组件或在多个组件之间共享的存储器设备。在至少一个实施例中,cpu 3200实现了高速缓存子系统,其包括但不限于一个或更多个高速缓存存储
器(例如,l2高速缓存3228和l3高速缓存3230),每个高速缓存存储器可以是组件私有的或在任意数量的组件(例如,核心3220和核心复合体3210)之间共享。
345.图33示出了根据至少一个实施例的示例性加速器集成切片3390。如本文所使用的,“切片”包括加速器集成电路的处理资源的指定部分。在至少一个实施例中,加速器集成电路代表多个图形加速模块种的多个图形处理引擎提供高速缓存管理、存储器访问、环境管理和中断管理服务。图形处理引擎可以各自包括单独的gpu。可选地,图形处理引擎可包括gpu内的不同类型的图形处理引擎,例如图形执行单元、媒体处理引擎(例如,视频编码器/解码器)、采样器和blit引擎。在至少一个实施例中,图形加速模块可以是具有多个图形处理引擎的gpu。在至少一个实施例中,图形处理引擎可以是集成在通用封装、线卡或芯片上的各个gpu。
346.系统存储器3314内的应用程序有效地址空间3382存储进程元素3383。在一个实施例中,响应于来自处理器3307上执行的应用程序3380的gpu调用3381而存储进程元素3383。进程元素3383包含对应应用程序3380的处理状态。包含在进程元素3383中的工作描述符(wd)3384可以是应用程序请求的单个作业或可能包含指向作业队列的指针。在至少一个实施例中,wd 3384是指向应用程序有效地址空间3382中的作业请求队列的指针。
347.图形加速模块3346和/或各个图形处理引擎可以由系统中的全部或部分进程共享。在至少一个实施例中,可以包括用于建立处理状态并将wd 3384发送到图形加速模块3346以在虚拟化环境中开始作业的基础设施。
348.在至少一个实施例中,专用进程编程模型是针对实现的。在该模型中,单个进程拥有图形加速模块3346或个体图形处理引擎。由于图形加速模块3346由单个进程拥有,因此管理程序为拥有的分区初始化加速器集成电路,并且当分配图形加速模块3346时操作系统对加速器集成电路进行初始化以用于拥有的分区。
349.在操作中,加速器集成切片3390中的wd获取单元3391获取下一个wd 3384,其中包括要由图形加速模块3346的一个或更多个图形处理引擎完成的工作的指示。来自wd 3384的数据可以存储在寄存器3345被存储器管理单元(mmu)3339、中断管理电路3347和/或环境管理电路3348使用,如图所示。mmu 3339的至少一个实施例包括用于访问os虚拟地址空间3385内的段/页表3386的段/页面漫游电路。中断管理电路3347可以处理从图形加速模块3346接收到的中断事件(int)3392。当执行图操作时,由图形处理引擎产生的有效地址3393由mmu 3339转换为实际地址。
350.在一个实施例中,为每个图形处理引擎和/或图形加速模块3346复制相同的寄存器组3345,并且可以由系统管理程序或操作系统来初始化。这些复制的寄存器中的每一个都可以包含在加速器集成切片3390中。表1中显示了可由管理程序初始化的示例性寄存器。
351.表1

管理程序初始化的寄存器
352.1切片控制寄存器2实地址(ra)计划的处理区域指针3授权掩码覆盖寄存器4中断向量表输入偏移5中断向量表入口限制6状态寄存器
7逻辑分区id8实地址(ra)管理程序加速器利用率记录指针9存储描述寄存器
353.表2中示出了可以由操作系统初始化的示例性寄存器。
354.表2

操作系统初始化寄存器
[0355][0356][0357]
在一个实施例中,每个wd 3384特定于特定的图形加速模块3346和/或特定图形处理引擎。它包含图形处理引擎进行工作或工作所需的所有信息,或者它可以是指向存储器位置的指针,其中应用程序建立了要完成的工作的命令队列。
[0358]
图34a-34b示出了根据本文至少一个实施例的示例性图形处理器。在至少一个实施例中,任何示例性图形处理器可以使用一个或更多个ip核心来制造。除了图示之外,在至少一个实施例中可以包括其他逻辑和电路,包括附加的图形处理器/核心、外围接口控制器或通用处理器核心。在至少一个实施例中,示例性图形处理器用于soc内。
[0359]
图34a示出了根据至少一个实施例的soc集成电路的示例性图形处理器3410,其可以使用一个或更多个ip核心来制造。图34b示出了根据至少一个实施例的soc集成电路的的附加示例性图形处理器3440,其可以使用一个或更多个ip核心来制造。在至少一个实施例中,图34a的图形处理器3410是低功耗图形处理器核心。在至少一个实施例中,图34b的图形处理器3440是更高性能的图形处理器核心。在至少一个实施例中,每个图形处理器3410、3440可以是图5的图形处理器510的变体。
[0360]
在至少一个实施例中,图形处理器3410包括顶点处理器3405和一个或更多个片段处理器3415a-3415n(例如3415a、3415b、3415c、3415d至3415n-1和3415n)。在至少一个实施例中,图形处理器3410可以经由单独的逻辑来执行不同的着色器程序,使得顶点处理器3405被优化以执行针对顶点着色器程序的操作,而一个或更多个片段处理器3415a-3415n执行片段(例如,像素)着色操作用于片段或像素或着色器程序。在至少一个实施例中,顶点处理器3405执行3d图形管线的顶点处理阶段并生成图元和顶点数据。在至少一个实施例中,片段处理器3415a-3415n使用由顶点处理器3405生成的图元和顶点数据来生成在显示设备上显示的帧缓冲区。在至少一个实施例中,片段处理器3415a-3415n被优化以执行如在
opengl api中所提供的片段着色器程序,其可以用于执行与在direct 3d api中所提供的像素着色器程序类似的操作。
[0361]
在至少一个实施例中,图形处理器3410附加地包括一个或更多个mmu 3420a-3420b、高速缓存3425a-3425b和电路互连3430a-3430b。在至少一个实施例中,一个或更多个mmu 3420a-3420b提供用于图形处理器3410的虚拟到物理地址的映射,包括用于顶点处理器3405和/或片段处理器3415a-3415n,其可以引用存储在存储器中的顶点或图像/纹理数据,除了存储在一个或更多个高速缓存3425a-3425b中的顶点或图像/纹理数据之外。在至少一个实施例中,一个或更多个mmu 3420a-3420b可以与系统内的其他mmu同步,包括与图5的一个或更多个应用处理器505、图像处理器515和/或视频处理器520相关联的一个或更多个mmu,使得每个处理器505-520可以参与共享或统一的虚拟存储器系统。在至少一个实施例中,一个或更多个电路互连3430a-3430b使图形处理器3410能够经由soc的内部总线或经由直接连接与soc内的其他ip核心相连接。
[0362]
在至少一个实施例中,图形处理器3440包括图34a的图形处理器3410的一个或更多个mmu 3420a-3420b、高速缓存3425a-3425b和电路互连3430a-3430b。在至少一个实施例中,图形处理器3440包括一个或更多个着色器核心3455a-3455n(例如,3455a、3455b、3455c、3455d、3455e、3455f、至3455n-1和3455n),其提供了统一的着色器核心架构,其中单个核心或类型或核心可以执行所有类型的可编程着色器代码,包括用于实现顶点着色器、片段着色器和/或计算着色器的着色器程序代码。在至少一个实施例中,多个着色器核心可以变化。在至少一个实施例中,图形处理器3440包括核心间任务管理器3445,其充当线程分派器以将执行线程分派给一个或更多个着色器核心3455a-3455n和分块单元3458,以加速基于图块渲染的分块操作,其中在图像空间中细分了场景的渲染操作,例如,以利用场景内的局部空间一致性或优化内部缓存的使用。
[0363]
图35a示出了根据至少一个实施例的图形核心3500。在至少一个实施例中,图形核心3500可以包括在图24的图形处理器2410内。在至少一个实施例中,图形核心3500可以是图34b中统一的着色器核心3455a-3455n。在至少一个实施例中,图形核心3500包括共享指令高速缓存3502、纹理单元3518和高速缓存/共享存储器3520,它们是图形核心3500内的执行资源所共有的。在至少一个实施例中,图形核心3500可以包括多个切片(slice)3501a-3501n或每个核心的分区,图形处理器可以包括图形核心3500的多个实例。切片3501a-3501n可以包括支持逻辑,该支持逻辑包括本地指令高速缓存3504a-3504n、线程调度器3506a-3506n、线程分派器3508a-3508n和一组寄存器3510a-3510n。在至少一个实施例中,切片3501a-3501n可以包括一组附加功能单元(afu)3512a-3512n、浮点单元(fpu)3514a-3514n、整数算术逻辑单元(alu)3516a-3516n、地址计算单元(acu)3513a-3513n、双精度浮点单元(dpfpu)3515a-3515n和矩阵处理单元(mpu)3517a-3517n。
[0364]
在一个实施例中,fpu 3514a-3514n可以执行单精度(32位)和半精度(16位)浮点运算,而dpfpu 3515a-3515n可以执行双精度(64位)浮点运算点操作。在至少一个实施例中,alu 3516a-3516n可以以8位、16位和32位精度执行可变精度整数运算,并且可以被配置用于混合精度运算。在至少一个实施例中,mpu 3517a-3517n还可被配置用于混合精度矩阵运算,包括半精度浮点运算和8位整数运算。在至少一个实施例中,mpu 3517a-3517n可以执行各种矩阵操作以加速cuda程序,包括使得能够支持加速的通用矩阵到矩阵乘法(gemm)。
在至少一个实施例中,afu 3512a-3512n可以执行浮点数或整数单元不支持的附加逻辑运算,包括三角运算(例如,sine、cosine等)。
[0365]
图35b示出了在至少一个实施例中的通用图形处理单元(gpgpu)3530。在至少一个实施例中,gpgpu 3530是高度并行的并且适合于部署在多芯片模块上。在至少一个实施例中,gpgpu 3530可以被配置为使得高度并行的计算操作能够由gpu阵列来执行。在至少一个实施例中,gpgpu 3530可以直接链路到gpgpu 3530的其他实例,以创建多gpu集群以提高用于cuda程序的执行时间。在至少一个实施例中,gpgpu3530包括主机接口3532以实现与主机处理器的连接。在至少一个实施例中,主机接口3532是pcie接口。在至少一个实施例中,主机接口3532可以是厂商专用的通信接口或通信结构。在至少一个实施例中,gpgpu3530从主机处理器接收命令,并使用全局调度器3534将与那些命令相关联的执行线程分派给一组计算集群3536a-3536h。在至少一个实施例中,计算集群3536a-3536h共享高速缓存存储器3538。在至少一个实施例中,高速缓存存储器3538可以用作计算集群3536a-3536h内的高速缓存存储器的高级高速缓存。
[0366]
在至少一个实施例中,gpgpu 3530包括经由一组存储器控制器3542a-3542b与计算集群3536a-3536h耦合的存储器3544a-3544b。在至少一个实施例中,存储器3544a-3544b可以包括各种类型的存储器设备,包括动态随机存取存储器(dram)或图形随机存取存储器,例如同步图形随机存取存储器(sgram),包括图形双倍数据速率(gddr)存储器。
[0367]
在至少一个实施例中,计算集群3536a-3536h各自包括一组图形核心,诸如图35a的图形核心3500,其可以包括多种类型的整数和浮点逻辑单元,可以以各种精度执行计算操作,包括适合与cuda程序相关的计算。在至少一个实施例中,每个计算集群3536a-3536h中的浮点单元的至少一个子集可以配置为执行16位或32位浮点运算,而不同的浮点单元的子集可以配置为执行64位浮点运算。
[0368]
在至少一个实施例中,gpgpu 3530的多个实例可以被配置为操作为计算集群。在至少一个实施例中,计算集群3536a-3536h可以实现用于同步和数据交换的任何技术上可行的通信技术。在至少一个实施例中,gpgpu 3530的多个实例通过主机接口3532进行通信。在至少一个实施例中,gpgpu 3530包括i/o集线器3539,其将gpgpu 3530与gpu链路3540耦合,使得能够直接连接至gpgpu 3530的其他的实例。在至少一个实施例中,gpu链路3540耦合到专用gpu到gpu桥接器,其使得能够在gpgpu 3530的多个实例之间进行通信和同步。在至少一个实施例中,gpu链路3540与高速互连耦合,以向其他gpgpu或并行处理器发送和接收数据。在至少一个实施例中,gpgpu 3530的多个实例位于单独的数据处理系统中,并经由可经由主机接口3532访问的网络设备进行通信。在至少一个实施例中,gpu链路3540可被配置为能够连接到主机处理器,附加或替代主机接口3532。在至少一个实施例中,gpgpu 3530可以配置为执行cuda程序。
[0369]
图36a示出了根据至少一个实施例的并行处理器3600。在至少一个实施例中,并行处理器3600的各种组件可以使用一个或更多个集成电路设备来实现,例如可编程处理器、专用集成电路(asic)或fpga。
[0370]
在至少一个实施例中,并行处理器3600包括并行处理单元3602。在至少一个实施例中,并行处理单元3602包括i/o单元3604,其使得能够与其他设备进行通信,包括并行处理单元3602的其他实例。在至少一个实施例中,i/o单元3604可以直接连接到其他设备。在
至少一个实施例中,i/o单元3604通过使用集线器或交换机接口(例如,存储器集线器605)与其他设备连接。在至少一个实施例中,存储器集线器605与i/o单元3604之间的连接形成通信链路。在至少一个实施例中,i/o单元3604与主机接口3606和存储器交叉开关3616连接,其中主机接口3606接收用于执行处理操作的命令,而存储器交叉开关3616接收用于执行存储器操作的命令。
[0371]
在至少一个实施例中,当主机接口3606经由i/o单元3604接收命令缓冲区时,主机接口3606可以引导工作操作以执行那些命令到前端3608。在至少一个实施例中,前端3608与调度器3610耦合,调度器3610配置成将命令或其他工作项分配给处理阵列3612。在至少一个实施例中,调度器3610确保在将任务分配给处理阵列3612中的处理阵列3612之前,处理阵列3612被正确地配置并且处于有效状态。在至少一个实施例中,调度器3610通过在微控制器上执行的固件逻辑来实现。在至少一个实施例中,微控制器实现的调度器3610可配置成以粗粒度和细粒度执行复杂的调度和工作分配操作,从而实现对在处理阵列3612上执行的线程的快速抢占和环境切换。在至少一个实施例中,主机软件可以证明用于通过多个图形处理门铃之一在处理阵列3612上进行调度的工作负载。在至少一个实施例中,工作负载然后可以由包括调度器3610的微控制器内的调度器3610逻辑在处理阵列3612上自动分配。
[0372]
在至少一个实施例中,处理阵列3612可以包括多达“n”个处理集群(例如,集群3614a、集群3614b到集群3614n)。在至少一个实施例中,处理阵列3612的每个集群3614a-3614n可以执行大量并发线程。在至少一个实施例中,调度器3610可以使用各种调度和/或工作分配算法将工作分配给处理阵列3612的集群3614a-3614n,其可以根据每种程序或计算类型产生的工作负载而变化。在至少一个实施例中,调度可以由调度器3610动态地处理,或者可以在配置为由处理阵列3612执行的程序逻辑的编译期间部分地由编译器逻辑来辅助。在至少一个实施例中,可将处理阵列3612的不同的集群3614a-3614n分配用于处理不同类型的程序或用于执行不同类型的计算。
[0373]
在至少一个实施例中,处理阵列3612可以配置成执行各种类型的并行处理操作。在至少一个实施例中,处理阵列3612配置成执行通用并行计算操作。在至少一个实施例中,处理阵列3612可以包括执行处理任务的逻辑,该处理任务包括对视频和/或音频数据的过滤,执行建模操作,包括物理操作以及执行数据转换。
[0374]
在至少一个实施例中,处理阵列3612配置成执行并行图形处理操作。在至少一个实施例中,处理阵列3612可以包括附加逻辑以支持这种图形处理操作的执行,包括但不限于执行纹理操作的纹理采样逻辑,以及镶嵌逻辑和其他顶点处理逻辑。在至少一个实施例中,处理阵列3612可以配置成执行与图形处理有关的着色器程序,例如但不限于顶点着色器、曲面细分着色器、几何着色器和像素着色器。在至少一个实施例中,并行处理单元3602可以经由i/o单元3604从系统存储器传送数据以进行处理。在至少一个实施例中,在处理期间,可以在处理期间将传送的数据存储到片上存储器(例如,并行处理器存储器3622),然后将其写回到系统存储器。
[0375]
在至少一个实施例中,当并行处理单元3602用于执行图处理时,调度器3610可以配置成将处理工作负载划分为近似相等大小的任务,以更好地将图形处理操作分配给处理阵列3612的多个集群3614a-3614n。在至少一个实施例中,处理阵列3612的部分可以配置成
执行不同类型的处理。在至少一个实施例中,第一部分可以配置成执行顶点着色和拓扑生成,第二部分可以配置成执行镶嵌和几何着色,并且第三部分可以配置成执行像素着色或其他屏幕空间操作,以生成用于显示的渲染图像。在至少一个实施例中,可以将由集群3614a-3614n中的一个或更多个产生的中间数据存储在缓冲区中,以允许在集群3614a-3614n之间传输中间数据以进行进一步处理。
[0376]
在至少一个实施例中,处理阵列3612可以经由调度器3610接收要执行的处理任务,该调度器3610从前端3608接收定义处理任务的命令。在至少一个实施例中,处理任务可以包括要被处理的数据的索引,例如可以包括表面(补丁)数据、原始数据、顶点数据和/或像素数据,以及状态参数和定义如何处理数据的命令(例如,要执行什么程序)。在至少一个实施例中,调度器3610可以配置成获取与任务相对应的索引,或者可以从前端3608接收索引。在至少一个实施例中,前端3608可以配置成确保在启动由传入命令缓冲区(例如,批缓冲区(batch-buffer)、推送缓冲区等)指定的工作负载之前,处理阵列3612配置成有效状态。
[0377]
在至少一个实施例中,并行处理单元3602的一个或更多个实例中的每一个可以与并行处理器存储器3622耦合。在至少一个实施例中,可以经由存储器交叉开关3616访问并行处理器存储器3622,所述存储器交叉开关3616可以接收来自处理阵列3612以及i/o单元3604的存储器请求。在至少一个实施例中,存储器交叉开关3616可以经由存储器接口3618访问并行处理器存储器3622。在至少一个实施例中,存储器接口3618可以包括多个分区单元(例如,分区单元3620a、分区单元3620b到分区单元3620n),其可各自耦合至并行处理器存储器3622的一部分(例如,存储器单元)。在至少一个实施例中,多个分区单元3620a-3620n为配置为等于存储器单元的数量,使得第一分区单元3620a具有对应的第一存储器单元3624a,第二分区单元3620b具有对应的存储器单元3624b,第n分区单元3620n具有对应的第n存储器单元3624n。在至少一个实施例中,分区单元3620a-3620n的数量可以不等于存储器设备的数量。
[0378]
在至少一个实施例中,存储器单元3624a-3624n可以包括各种类型的存储器设备,包括动态随机存取存储器(dram)或图形随机存取存储器,例如同步图形随机存取存储器(sgram),包括图形双倍数据速率(gddr)存储器。在至少一个实施例中,存储器单元3624a-3624n还可包括3d堆叠存储器,包括但不限于高带宽存储器(hbm)。在至少一个实施例中,可以跨存储器单元3624a-3624n来存储诸如帧缓冲区或纹理映射的渲染目标,从而允许分区单元3620a-3620n并行地写入每个渲染目标的部分,以有效地使用并行处理器存储器3622的可用带宽。在至少一个实施例中,可以排除并行处理器存储器3622的本地实例,以有利于利用系统存储器与本地高速缓存存储器结合的统一存储器设计。
[0379]
在至少一个实施例中,处理阵列3612的集群3614a-3614n中的任何一个都可以处理将被写入并行处理器存储器3622内的任何存储器单元3624a-3624n中的数据。在至少一个实施例中,存储器交叉开关3616可以配置为将每个集群3614a-3614n的输出传输到任何分区单元3620a-3620n或另一个集群3614a-3614n,集群3614a-3614n可以对输出执行其他处理操作。在至少一个实施例中,每个集群3614a-3614n可以通过存储器交叉开关3616与存储器接口3618通信,以从各种外部存储设备读取或写入各种外部存储设备。在至少一个实施例中,存储器交叉开关3616具有到存储器接口3618的连接以与i/o单元3604通信,以及到
并行处理器存储器3622的本地实例的连接,从而使不同处理集群3614a-3614n内的处理单元与系统存储器或不是并行处理单元3602本地的其他存储器进行通信。在至少一个实施例中,存储器交叉开关3616可以使用虚拟通道来分离集群3614a-3614n和分区单元3620a-3620n之间的业务流。
[0380]
在至少一个实施例中,可以在单个插入卡上提供并行处理单元3602的多个实例,或者可以将多个插入卡互连。在至少一个实施例中,并行处理单元3602的不同实例可以配置成相互操作,即使不同实例具有不同数量的处理核心,不同数量的本地并行处理器存储器和/或其他配置差异。在至少一个实施例中,并行处理单元3602的一些实例可以包括相对于其他实例而言更高精度的浮点单元。在至少一个实施例中,结合并行处理单元3602或并行处理器3600的一个或更多个实例的系统可以以各种配置和形式因素来实现,包括但不限于台式机、膝上型计算机或手持式个人计算机、服务器、工作站、游戏机和/或嵌入式系统。
[0381]
图36b示出了根据至少一个实施例的处理集群3694。在至少一个实施例中,处理集群3694被包括在并行处理单元内。在至少一个实施例中,处理集群3694是图36a的处理集群3614a-3614n之一的实例。在至少一个实施例中,处理集群3694可以配置成并行执行许多线程,其中术语“线程”是指在特定的一组输入数据上执行的特定程序的实例。在至少一个实施例中,单指令多数据(simd)指令发布技术用于支持大量线程的并行执行而无需提供多个独立的指令单元。在至少一个实施例中,使用单指令多线程(simt)技术来支持并行执行大量一般同步的线程,这使用了公共指令单元,该公共指令单元配置成向每个处理集群3694内的一组处理引擎发出指令。
[0382]
在至少一个实施例中,可以通过将处理任务分配给simt并行处理器的管线管理器3632来控制处理集群3694的操作。在至少一个实施例中,管线管理器3632从图36a的调度器3610接收指令,通过图形多处理器3634和/或纹理单元3636管理这些指令的执行。在至少一个实施例中,图形多处理器3634是simt并行处理器的示例性实例。然而,在至少一个实施例中,处理集群3694内可以包括不同架构的各种类型的simt并行处理器。在至少一个实施例中,在处理集群3694内可以包括图形多处理器3634的一个或更多个实例。在至少一个实施例中,图形多处理器3634可以处理数据,并且数据交叉开关3640可以用于将处理后的数据分发到多个可能的目的(包括其他着色器单元)地之一。在至少一个实施例中,管线管理器3632可以通过指定要经由数据交叉开关3640分配的处理后的数据的目的地来促进处理后的数据的分配。
[0383]
在至少一个实施例中,处理集群3694内的每个图形多处理器3634可以包括相同的一组功能执行逻辑(例如,算术逻辑单元、加载存储单元(lsu)等)。在至少一个实施例中,可以以管线方式配置功能执行逻辑,其中可以在先前的指令完成之前发出新的指令。在至少一个实施例中,功能执行逻辑支持多种运算,包括整数和浮点算术、比较操作、布尔运算、移位和各种代数函数的计算。在至少一个实施例中,可以利用相同的功能单元硬件来执行不同的操作,并且可以存在功能单元的任何组合。
[0384]
在至少一个实施例中,传送到处理集群3694的指令构成线程。在至少一个实施例中,跨一组并行处理引擎执行的一组线程是线程组。在至少一个实施例中,线程组在不同的输入数据上执行程序。在至少一个实施例中,线程组内的每个线程可被分配给图形多处理器3634内的不同处理引擎。在至少一个实施例中,线程组可包括比图形多处理器3634内的
多个处理引擎更少的线程。在至少一个实施例中,当线程组包括的线程数少于处理引擎的数量时,一个或更多个处理引擎在正在处理该线程组的循环期间可能是空闲的。在至少一个实施例中,线程组还可以包括比图形多处理器3634内的多个处理引擎更多的线程。在至少一个实施例中,当线程组包括比图形多处理器3634内的处理引擎的数量更多的线程时,可以在连续的时钟周期内执行处理。在至少一个实施例中,可以在图形多处理器3634上同时执行多个线程组。
[0385]
在至少一个实施例中,图形多处理器3634包括内部高速缓存存储器,以执行加载和存储操作。在至少一个实施例中,图形多处理器3634可以放弃内部高速缓存并使用处理集群3694内的高速缓存存储器(例如,l1高速缓存3648)。在至少一个实施例中,每个图形多处理器3634还可以访问分区单元(例如,图36a的分区单元3620a-3620n)内的l2高速缓存,这些分区单元在所有处理集群3694之间共享并且可以用于在线程之间传输数据。在至少一个实施例中,图形多处理器3634还可以访问片外全局存储器,其可以包括本地并行处理器存储器和/或系统存储器中的一个或更多个。在至少一个实施例中,并行处理单元3602外部的任何存储器都可以用作全局存储器。在至少一个实施例中,处理集群3694包括图形多处理器3634的多个实例,它们可以共享可以存储在l1高速缓存3648中的公共指令和数据。
[0386]
在至少一个实施例中,每个处理集群3694可以包括配置成将虚拟地址映射为物理地址的mmu 3645。在至少一个实施例中,mmu 3645的一个或更多个实例可以驻留在图36a的存储器接口3618内。在至少一个实施例中,mmu 3645包括一组页表条目(pte),其用于将虚拟地址映射到图块(谈论有关图块的更多信息)的物理地址以及可选地映射到高速缓存行索引。在至少一个实施例中,mmu 3645可以包括地址转换后备缓冲区(tlb)或可以驻留在图形多处理器3634或l1高速缓存3648或处理集群3694内的高速缓存。在至少一个实施例中,处理物理地址以分配表面数据访问局部性,以便在分区单元之间进行有效的请求交织。在至少一个实施例中,高速缓存行索引可以用于确定对高速缓存线的请求是命中还是未命中。
[0387]
在至少一个实施例中,可以配置处理集群3694,使得每个图形多处理器3634耦合到纹理单元3636,以执行纹理映射操作,例如,可以涉及确定纹理样本位置、读取纹理数据以及过滤纹理数据。在至少一个实施例中,根据需要从内部纹理l1高速缓存(未示出)或从图形多处理器3634内的l1高速缓存中读取纹理数据,并从l2高速缓存、本地并行处理器存储器或系统存储器中获取纹理数据。在至少一个实施例中,每个图形多处理器3634将处理后的任务输出到数据交叉开关3640,以将处理后的任务提供给另一处理集群3694以进行进一步处理或将处理后的任务存储在l2高速缓存、本地并行处理器存储器、或经由存储器交叉开关3616的系统存储器中。在至少一个实施例中,光栅前操作单元(prerop)3642配置成从图形多处理器3634接收数据,将数据引导至rop单元,该rop单元可以与本文所述的分区单元(例如,图36a的分区单元3620a-3620n)一起定位。在至少一个实施例中,prerop 3642单元可以执行用于颜色混合的优化、组织像素颜色数据以及执行地址转换。
[0388]
图36c示出了根据至少一个实施例的图形多处理器3696。在至少一个实施例中,图形多处理器3696是图36b的图形多处理器3634。在至少一个实施例中,图形多处理器3696与处理集群3694的管线管理器3632耦合。在至少一个实施例中,图形多处理器3696具有执行管线,该执行管线包括但不限于指令高速缓存3652、指令单元3654、地址映射单元3656、寄
存器文件3658、一个或更多个gpgpu核心3662和一个或更多个lsu 3666。gpgpu核心3662和lsu 3666与高速缓存存储器3672和共享存储器3670通过存储器和高速缓存互连3668耦合。
[0389]
在至少一个实施例中,指令高速缓存3652从管线管理器3632接收要执行的指令流。在至少一个实施例中,将指令高速缓存在指令高速缓存3652中并将其分派以供指令单元3654执行。在一个实施例中,指令单元3654可以分派指令作为线程组(例如,线程束),将线程组的每个线程分配给gpgpu核心3662内的不同执行单元。在至少一个实施例中,指令可以通过在统一地址空间内指定地址来访问任何本地、共享或全局地址空间。在至少一个实施例中,地址映射单元3656可以用于将统一地址空间中的地址转换成可以由lsu 3666访问的不同的存储器地址。
[0390]
在至少一个实施例中,寄存器文件3658为图形多处理器3696的功能单元提供了一组寄存器。在至少一个实施例中,寄存器文件3658为连接到图形多处理器3696的功能单元(例如,gpgpu核心3662、lsu3666)的数据路径的操作数提供了临时存储。在至少一个实施例中,在每个功能单元之间划分寄存器文件3658,使得为每个功能单元分配寄存器文件3658的专用部分。在至少一个实施例中,寄存器文件3658在图形多处理器3696正在执行的不同线程组之间划分。
[0391]
在至少一个实施例中,gpgpu核心3662可以各自包括用于执行图多处理器3696的指令的fpu和/或alu。gpgpu核心3662在架构上可以相似或架构可能有所不同。在至少一个实施例中,gpgpu核心3662的第一部分包括单精度fpu和整数alu,而gpgpu核心的第二部分包括双精度fpu。在至少一个实施例中,fpu可以实现用于浮点算法的ieee754-3608标准或启用可变精度浮点算法。在至少一个实施例中,图形多处理器3696可以另外包括一个或更多个固定功能或特殊功能单元,以执行特定功能,诸如复制矩形或像素混合操作。在至少一个实施例中,gpgpu核心3662中的一个或更多个也可以包括固定或特殊功能逻辑。
[0392]
在至少一个实施例中,gpgpu核心3662包括能够对多组数据执行单个指令的simd逻辑。在至少一个实施例中,gpgpu核心3662可以物理地执行simd4、simd8和simd16指令,并且在逻辑上执行simd1、simd2和simd32指令。在至少一个实施例中,用于gpgpu核心的simd指令可以在编译时由着色器编译器生成,或者在执行针对单程序多数据(spmd)或simt架构编写和编译的程序时自动生成。在至少一个实施例中,可以通过单个simd指令来执行为simt执行模型配置的程序的多个线程。在至少一个实施例中,可以通过单个simd8逻辑单元并行执行执行相同或相似操作的八个simt线程。
[0393]
在至少一个实施例中,存储器和高速缓存互连3668是将图形多处理器3696的每个功能单元连接到寄存器文件3658和共享存储器3670的互连网络。在至少一个实施例中,存储器和高速缓存互连3668是交叉开关互连,其允许lsu 3666在共享存储器3670和寄存器文件3658之间实现加载和存储操作。在至少一个实施例中,寄存器文件3658可以以与gpgpu核心3662相同的频率操作,从而在gpgpu核心3662和寄存器文件3658之间进行数据传输的延迟非常低。在至少一个实施例中,共享存储器3670可以用于启用在图形多处理器3696内的功能单元上执行的线程之间的通信。在至少一个实施例中,在至少一个实施例中,高速缓存存储器3672可以用作数据高速缓存,以高速缓存在功能单元和纹理单元3636之间通信的纹理数据。在至少一个实施例中,共享存储器3670也可以用作程序管理的高速缓存。在至少一个实施例中,除了存储在高速缓存存储器3672中的自动高速缓存的数据之外,在gpgpu核心
3662上执行的线程还可以以编程方式将数据存储在共享存储器中。
[0394]
在至少一个实施例中,如本文所述的并行处理器或gpgpu通信地耦合到主机/处理器核心,以加速图形操作、机器学习操作、图案分析操作以及各种通用gpu(gpgpu)功能。在至少一个实施例中,gpu可以通过总线或其他互连(例如,诸如pcie或nvlink的高速互连)通信地耦合到主机处理器/核心。在至少一个实施例中,gpu可以与核心集成在相同的封装或芯片上,并通过内部处理器总线/互连(即,封装或芯片的内部)通信地耦合到核心。在至少一个实施例中,不管gpu连接的方式如何,处理器核心可以以wd包含的命令/指令序列的形式向gpu分配工作。在至少一个实施例中,gpu然后使用专用电路/逻辑来有效地处理这些命令/指令。
[0395]
通用计算
[0396]
以下各图阐述但不限于在通用计算中用来实现至少一个实施例的示例性软件配置。
[0397]
图37示出了根据至少一个实施例的编程平台的软件栈。在至少一个实施例中,编程平台是用于利用计算系统上的硬件来加速计算任务的平台。在至少一个实施例中,软件开发人员可以通过库、编译器指令和/或对编程语言的扩展来访问编程平台。在至少一个实施例中,编程平台可以是但不限于cuda,radeon开放计算平台(“rocm”),opencl(由khronos group开发的opencl
tm
),sycl或intel one api。
[0398]
在至少一个实施例中,编程平台的软件栈3700为应用程序3701提供执行环境。在至少一个实施例中,应用程序3701可以包括能够在软件栈3700上启动的任何计算机软件。在至少一个实施例中,应用程序3701可以包括但不限于人工智能(“ai”)/机器学习(“ml”)应用程序,高性能计算(“hpc”)应用程序,虚拟桌面基础架构(“vdi”)或数据中心工作负载。
[0399]
在至少一个实施例中,应用程序3701和软件栈3700在硬件3707上运行。在至少一个实施例中,硬件3707可以包括一个或更多个gpu,cpu,fpga,ai引擎和/或支持编程平台的其他类型的计算设备。在至少一个实施例中,例如采用cuda,软件栈3700可以是厂商专用的,并且仅与来自特定厂商的设备兼容。在至少一个实施例中,例如在采用opencl中,软件栈3700可以与来自不同供应商的设备一起使用。在至少一个实施例中,硬件3707包括连接到一个或更多个设备的主机,该设备可经由应用程序编程接口(api)调用被访问以执行计算任务。在至少一个实施例中,与硬件3707内的主机相比,其可以包括但不限于cpu(但还可以包括计算设备)及其存储器,硬件3707内的设备可以包括但不限于gpu,fpga,ai引擎或其他计算设备(但还可以包括cpu)及其存储器。
[0400]
在至少一个实施例中,编程平台的软件栈3700包括但不限于多个库3703,运行时(runtime)3705和设备内核驱动器3706。在至少一个实施例中,库3703中的每个库可以包括可以由计算机程序使用并在软件开发期间利用的数据和编程代码。在至少一个实施例中,库3703可以包括但不限于预写的代码和子例程,类,值,类型规范,配置数据,文档,帮助数据和/或消息模板。在至少一个实施例中,库3703包括被优化用于在一种或更多种类型的设备上执行的函数。在至少一个实施例中,库3703可以包括但不限于用于在设备上执行数学、深度学习和/或其他类型的运算的函数。在至少一个实施例中,库3803与对应的api 3802相关联,api 3802可包括一个或更多个api,其暴露在库3803中实现的函数。
[0401]
在至少一个实施例中,将应用程序3701编写为源代码,该源代码被编译成可执行
3806与cuda运行时api 3804的不同之处在于,cuda运行时api 3804通过提供隐式初始化、上下文(类似于进程)管理和模块(类似于动态加载的库)管理来简化设备代码管理。与高级cuda运行时api 3804相反,在至少一个实施例中,cuda驱动器api 3806是提供对设备的更细粒度控制的低级api,特别是关于上下文和模块加载。在至少一个实施例中,cuda驱动器api 3806可以公开没有由cuda运行时api 3804公开的用于上下文管理的函数。在至少一个实施例中,cuda驱动器api 3806也与语言无关,并且除了支持cuda运行时api 3804之外,还支持例如opencl。此外,在至少一个实施例中,包括cuda运行时3805在内的开发库可被视为与驱动器组件分离,包括用户模式的cuda驱动器3807和内核模式的设备驱动器3808(有时也称为“显示”驱动器)。
[0407]
在至少一个实施例中,cuda库3803可以包括但不限于数学库,深度学习库,并行算法库和/或信号/图像/视频处理库,并行计算应用程序(例如应用程序3801)可以利用这些库。在至少一个实施例中,cuda库3803可包括数学库,例如cublas库,其是用于执行线性代数运算的基本线性代数子程序(“blas”)的实现;用于计算快速傅立叶变换(“fft”)的cufft库,以及用于生成随机数的curand库等。在至少一个实施例中,cuda库3803可以包括深度学习库,诸如用于深度神经网络的基元的cudnn库和用于高性能深度学习推理的tensorrt平台等等。
[0408]
图39示出了根据至少一个实施例的图37的软件栈3700的rocm实现。在至少一个实施例中,可在其上启动应用程序3901的rocm软件栈3900包括语言运行时3903,系统运行时3905,thunk 3907,rocm内核驱动器3908和设备内核驱动器3909。在至少一个实施例中,rocm软件栈3900在硬件3909上执行,硬件3909可以包括支持rocm的gpu,其由加利福尼亚州圣克拉拉市的amd公司开发。
[0409]
在至少一个实施例中,应用程序3901可以执行与以上结合图37讨论的应用程序3701类似的功能。另外,在至少一个实施例中,语言运行时3903和系统运行时3905可以执行与以上结合图37讨论的运行时3705类似的功能。在至少一个实施例中,语言运行时3903和系统运行时3905的不同之处在于,系统运行时3905是实现rocr系统运行时api 3904并利用异构系统架构(“has”)运行时api的语言无关运行时。在至少一个实施例中,has运行时api是一种瘦用户模式api,它公开接口以供访问和与amd gpu交互,包括用于存储器管理、通过架构分派内核的执行控制、错误处理、系统和代理信息以及运行时初始化和关闭等的函数。在至少一个实施例中,与系统运行时3905相比,语言运行时3903是rocr系统运行时api 3904之上分层的特定于语言的运行时api 3902的实现。在至少一个实施例中,语言运行时api可以包括但不限于可移植异构计算接口(“hip”)语言运行时api,异构计算编译器(“hcc”)语言运行时api或opencl api等等。特别是,hip语言是c 编程语言的扩展,具有cuda机制的功能相似版本,并且在至少一个实施例中,hip语言运行时api包括与以上结合图38讨论的cuda运行时api 3804相似的函数,例如用于存储器管理、执行控制、设备管理、错误处理和同步等的函数。
[0410]
在至少一个实施例中,thunk(roct)3907是可用于与底层rocm驱动器3908交互的接口。在至少一个实施例中,rocm驱动器3908是rock驱动器,其是amdgpu驱动器和has内核驱动器(amdkfd)的组合。在至少一个实施例中,amdgpu驱动器是由amd开发的用于gpu的设备内核驱动器,其执行与以上结合图37讨论的设备内核驱动器3706类似的功能。在至少一
个实施例中,has内核驱动器是允许不同类型的处理器经由硬件特征更有效地共享系统资源的驱动器。
[0411]
在至少一个实施例中,各种库(未示出)可以被包括在语言运行时3903上方的rocm软件栈3900中,并且提供与以上结合图38讨论的cuda库3803相似的功能。在至少一个实施例中,各种库可以包括但不限于数学、深度学习和/或其他库,例如实现与cuda cublas类似的函数的hipblas库,类似于cuda cufft用于计算fft的rocfft库等。
[0412]
图40示出了根据至少一个实施例的图37的软件栈3700的opencl实现。在至少一个实施例中,可以在其上启动应用程序4001的opencl软件栈4000包括opencl框架4005,opencl运行时4006和驱动器4007。在至少一个实施例中,opencl软件栈4000在不是特定于供应商的硬件3809上执行。在至少一个实施例中,由于由不同厂商开发的设备支持opencl,因此可能需要特定的opencl驱动器才能与来自此类厂商的硬件进行互操作。
[0413]
在至少一个实施例中,应用程序4001,opencl运行时4006,设备内核驱动器4007和硬件4008可以分别执行与上面结合图37讨论的应用程序3701、运行时3705、设备内核驱动器3706和硬件3707类似的功能。在至少一个实施例中,应用程序4001还包括具有将在设备上执行的代码的opencl内核4002。
[0414]
在至少一个实施例中,opencl定义了一种“平台”,其允许主机控制连接到该主机的设备。在至少一个实施例中,opencl框架提供平台层api和运行时api,示出为平台api 4003和运行时api 4005。在至少一个实施例中,运行时api 4005使用上下文来管理设备上内核的执行。在至少一个实施例中,每个标识的设备可以与各自的上下文相关联,运行时api 4005可以使用该上下文来管理该设备的命令队列、程序对象和内核对象、共享存储器对象等。在至少一个实施例中,平台api 4003公开了允许设备上下文用于选择和初始化设备,经由命令队列将工作提交给设备,以及使得能够进行来自和去往设备的数据传输等的函数。另外,在至少一个实施例中,opencl框架提供各种内置函数(未示出),包括数学函数、关系函数和图像处理函数等。
[0415]
在至少一个实施例中,编译器4004也被包括在opencl框架4005中。在至少一个实施例中,源代码可以在执行应用程序之前被离线编译或者在执行应用程序期间被在线编译。与cuda和rocm相反,至少一个实施例中的opencl应用程序可以由编译器4004在线编译,编译器4004被包括以代表可以用于将源代码和/或ir代码(例如标准可移植中间表示(“spir-v”)代码)编译为二进制代码的任意数量的编译器。可替代地,在至少一个实施例中,可以在执行这样的应用程序之前离线编译opencl应用程序。
[0416]
图41示出了根据至少一个实施例的由编程平台支持的软件。在至少一个实施例中,编程平台4104被配置为支持应用程序4100可以依赖的各种编程模型4103,中间件和/或库4102以及框架4101。在至少一个实施例中,应用程序4100可以是使用例如深度学习框架(在至少一个实施例中,mxnet,pytorch或tensorflow)实现的ai/ml应用,其可以依赖于诸如cudnn,nvidia collective communications library(“nccl”)”和/或nvidia开发人员数据加载库(“dali”)cuda库之类的库,以在底层硬件上提供加速的计算。
[0417]
在至少一个实施例中,编程平台4104可以是以上分别结合图38、图39和图40描述的cuda、rocm或opencl平台之一。在至少一个实施例中,编程平台4104支持多个编程模型4103,其是底层计算系统的抽象,其允许算法和数据结构的表达。在至少一个实施例中,编
程模型4103可以暴露底层硬件的特征以便改善性能。在至少一个实施例中,编程模型4103可以包括但不限于cuda,hip,opencl,c 加速大规模并行性(“c amp”),开放多处理(“openmp”),开放加速器(“openacc”)和/或vulcan计算(vulcan compute)。
[0418]
在至少一个实施例中,库和/或中间件4102提供编程模型4104的抽象的实现。在至少一个实施例中,这样的库包括可由计算机程序使用并在软件开发期间利用的数据和编程代码。在至少一个实施例中,除了可以从编程平台4104获得的那些之外,这样的中间件还包括向应用程序提供服务的软件。在至少一个实施例中,库和/或中间件4102可以包括但不限于cublas、cufft、curand和其他cuda库,或rocblas、rocfft、rocrand和其他rocm库。另外,在至少一个实施例中,库和/或中间件4102可以包括nccl和rocm通信集合库(“rccl”)库,其提供用于gpu的通信例程,用于深度学习加速的miopen库和/或用于线性代数、矩阵和向量运算、几何变换、数值求解器以及相关算法的本征库。
[0419]
在至少一个实施例中,应用程序框架4101依赖于库和/或中间件4102。在至少一个实施例中,每个应用程序框架4101是用于实现应用软件的标准结构的软件框架。在至少一个实施例中,可以使用框架(诸如caffe,caffe2,tensorflow,keras,pytorch或mxnet深度学习框架)来实现ai/ml应用。
[0420]
图42示出了根据至少一个实施例的编译代码以在图37-40的编程平台之一上执行。在至少一个实施例中,编译器4201接收源代码4200,其包括主机代码以及设备代码两者。在至少一个实施例中,编译器4201被配置为将源代码4200转换为用于在主机上执行的主机可执行代码4202以及用于在设备上执行的设备可执行代码4203。在至少一个实施例中,源代码4200可以在执行应用程序之前离线编译,或者在执行应用程序期间在线编译。
[0421]
在至少一个实施例中,源代码4200可以包括编译器4201支持的任何编程语言的代码,例如c 、c、fortran等。在至少一个实施例中,源代码4200可以包括在单源(single-source)文件中,其具有主机代码和设备代码的混合,并在其中指示了设备代码的位置。在至少一个实施例中,单源文件可以是包括cuda代码的.cu文件或包括hip代码的.hip.cpp文件。备选地,在至少一个实施例中,源代码4200可以包括多个源代码文件,而不是单源文件,在该单源文件中主机代码和设备代码是分开的。
[0422]
在至少一个实施例中,编译器4201被配置为将源代码4200编译成用于在主机上执行的主机可执行代码4202和用于在设备上执行的设备可执行代码4203。在至少一个实施例中,编译器4201执行操作,包括将源代码4200解析为抽象系统树(ast),执行优化以及生成可执行代码。在源代码4200包括单源文件的至少一个实施例中,编译器4201可以将设备代码与主机代码在这种单源文件中分开,将设备代码和主机代码分别编译成设备可执行代码4203和主机可执行代码4202,以及将设备可执行代码4203和主机可执行代码4202在单个文件中链接到一起,如下面关于图26更详细讨论的。
[0423]
在至少一个实施例中,主机可执行代码4202和设备可执行代码4203可以是任何合适的格式,例如二进制代码和/或ir代码。在cuda的情况下,在至少一个实施例中,主机可执行代码4202可以包括本地对象代码,而设备可执行代码4203可以包括ptx中间表示的代码。在至少一个实施例中,在rocm的情况下,主机可执行代码4202和设备可执行代码4203都可以包括目标二进制代码。
[0424]
其他变型在本公开的精神内。因此,尽管公开的技术易于进行各种修改和替代配
置,但是某些示出的其实施例在附图中示出并且已经在上面进行了详细描述。然而,应理解,无意将公开内容限制为所公开的一种或更多种特定形式,而是相反,其意图是涵盖落入如所附权利要求书所定义的本公开内容的精神和范围内的所有修改、替代配置和等同物。
[0425]
除非另有说明或显然与上下文矛盾,否则在描述所公开的实施例的上下文中(特别是在所附权利要求的上下文中),术语“一”和“一个”和“该”以及类似指代的使用应被解释为涵盖单数和复数,而不是作为术语的定义。除非另有说明,否则术语“包括”、“具有”、“包含”和“含有”应被解释为开放式术语(意味着“包括但不限于”)。术语“连接”(在未经修改时指的是物理连接)应解释为部分或全部包含在内、附接到或连接在一起,即使有某些介入。除非本文另外指出,否则本文中对数值范围的引用仅旨在用作分别指代落入该范围内的每个单独值的简写方法,并且每个单独值都被并入说明书中,就如同其在本文中被单独叙述一样。在至少一个实施例中,除非另外指出或与上下文矛盾,否则术语“集”(例如“项目集”)或“子集”的使用应解释为包括一个或更多个成员的非空集合。此外,除非另外指出或与上下文矛盾,否则术语相应集的“子集”不一定表示对应集的适当子集,而是子集和对应集可以相等。
[0426]
除非以其他方式明确指出或与上下文明显矛盾,否则诸如“a,b和c中的至少一个”或“a,b与c中的至少一个”形式的短语之类的连接语在上下文中理解为通常用来表示项目、条款等,其可以是a或b或c,也可以是a和b和c集的任何非空子集。在具有三个成员的集的至少一个实施例中,连接短语“a,b和c中的至少一个”和“a,b与c中的至少一个”是指以下任意集:{a},{b},{c},{a,b},{a,c},{b,c},{a,b,c}。因此,这种连接语言通常不旨在暗示某些实施例要求存在a中的至少一个,b中的至少一个和c中的至少一个。另外,除非另有说明或与上下文矛盾,否则术语“多个”表示复数的状态(例如,“多个项目”表示多个项目)。在至少一个实施例中,多个项目中项目的数量至少为两个,但如果明确指示或通过上下文指示,则可以更多。此外,除非另有说明或从上下文中可以清楚得知,否则短语“基于”是指“至少部分基于”而不是“仅基于”。
[0427]
除非本文另外指出或与上下文明显矛盾,否则本文描述的过程的操作可以任何合适的顺序执行。在至少一个实施例中,诸如本文所述的那些过程(或其变形和/或其组合)之类的过程在配置有可执行指令的一个或更多个计算机系统的控制下执行,并且被实现为代码(例如,可执行指令,一个或更多个计算机程序或一个或更多个应用程序),该代码通过硬件或其组合在一个或更多个处理器上共同执行。在至少一个实施例中,代码以计算机程序的形式存储在计算机可读存储介质上,在至少一个实施例中,该计算机程序包括可由一个或更多个处理器执行的多个指令。在至少一个实施例中,计算机可读存储介质是非暂时性计算机可读存储介质,其排除了暂时性信号(例如,传播的瞬态电或电磁传输),但包括非暂时性数据存储电路(例如,缓冲区、高速缓存和队列)。在至少一个实施例中,代码(例如,可执行代码或源代码)被存储在其上存储有可执行指令的一组一个或更多个非暂时性计算机可读存储介质(或用于存储可执行指令的其他存储器)上,该可执行指令在由计算机系统的一个或更多个处理器执行时(即,作为被执行的结果),使得计算机系统执行本文所述的操作。在至少一个实施例中,一组非暂时性计算机可读存储介质包括多个非暂时性计算机可读存储介质,并且多个非暂时性计算机可读存储介质中的个体非暂时性存储介质中的一个或更多个缺少全部代码,而是多个非暂时性计算机可读存储介质共同存储全部代码。在至
少一个实施例中,可执行指令被执行,以使得不同的指令由不同的处理器执行,在至少一个实施例中,非暂时性计算机可读存储介质存储指令,并且主中央处理单元(“cpu”)执行一些指令,而图形处理单元(“gpu”)执行其他指令。在至少一个实施例中,计算机系统的不同组件具有单独的处理器,并且不同的处理器执行指令的不同子集。
[0428]
因此,在至少一个实施例中,计算机系统被配置为实现单独地或共同地执行本文所述的过程的操作的一个或更多个服务,并且这样的计算机系统被配置有使能实施操作的适用的硬件和/或软件。此外,实现本公开的至少一个实施例的计算机系统是单个设备,并且在另一实施例中是分布式计算机系统,其包括以不同方式操作的多个设备,使得分布式计算机系统执行本文所述的操作,并且使得单个设备不执行所有操作。
[0429]
本文提供的任何和所有至少一个实施例或示例性语言(例如,“诸如”)的使用仅旨在更好地阐明本公开的实施例,并且不对公开的范围构成限制,除非另有要求。说明书中的任何语言都不应被解释为表示任何未要求保护的要素对于实践公开内容是必不可少的。
[0430]
本文引用的所有参考文献,包括出版物、专利申请和专利,均通过引用并入本文,其程度就如同每个参考文献被单独且具体地指示为以引用的方式并入本文并且其全部内容在本文中阐述一样。
[0431]
在说明书和权利要求中,可以使用术语“耦合”和“连接”以及它们的派生词。应当理解,这些术语可能不旨在作为彼此的同义词。相反,在至少一个实施例中的一个,“连接”或“耦合”可用于指示两个或更多个元件彼此直接或间接物理或电接触。“耦合”也可能意味着两个或更多个元素彼此不直接接触,但仍彼此协作或交互。
[0432]
除非另有明确说明,否则可以理解,在整个说明书中,诸如“处理”、“计算”、“计算”、“确定”等之类的术语,是指计算机或计算系统或类似的电子计算设备的动作和/或过程,其将计算系统的寄存器和/或存储器中表示为物理量(例如电子)的数据处理和/或转换为类似表示为计算系统的存储器、寄存器或其他此类信息存储、传输或显示设备中的物理量的其他数据。
[0433]
以类似的方式,术语“处理器”可以指处理来自寄存器和/或存储器的电子数据并将该电子数据转换成可以存储在寄存器和/或存储器中的其他电子数据的任何设备或存储器的一部分。作为非限制性至少一个实施例中的一个,“处理器”可以是cpu或gpu。“计算平台”可以包括一个或更多个处理器。如本文所使用的,在至少一个实施例中,“软件”进程可以包括随时间执行工作的软件和/或硬件实体,诸如任务、线程和智能代理。同样,每个过程可以指代多个过程,以连续地或间歇地顺序地或并行地执行指令。术语“系统”和“方法”在本文中可以互换使用,只要系统可以体现一种或更多种方法,并且方法可以被认为是系统。
[0434]
在本文件中,可以参考获得、获取、接收或将模拟或数字数据输入子系统、计算机系统或计算机实现的机器中。在至少一个实施例中,可以通过多种方式来完成获得、获取、接收或输入模拟和数字数据的过程,例如通过接收作为函数调用或对应用程序编程接口的调用的参数的数据。在一些实现方式中,可以通过经由串行或并行接口传输数据来完成获得、获取、接收或输入模拟或数字数据的过程。在另一实现方式中,可以通过经由计算机网络将数据从提供实体传输到获取实体来完成获得、获取、接收或输入模拟或数字数据的过程。也可以参考提供、输出、传送、发送或呈现模拟或数字数据。在各种示例中,提供、输出、传送、发送或呈现模拟或数字数据的过程可以通过将数据作为函数调用的输入或输出参
数、应用程序编程接口或进程间通信机制的参数进行传输来实现。
[0435]
尽管上面的讨论阐述了所描述的技术的至少一个实施例中的一个实现,但是其他架构可以用于实现所描述的功能,并且旨在落入本公开的范围内。此外,尽管出于讨论的目的在上面定义了具体的职责分配,但是根据情况,可以以不同的方式分配和划分各种功能和职责。
[0436]
此外,尽管已经用特定于结构特征和/或方法动作的语言描述了主题,但是应当理解,所附权利要求书所要求保护的主题不必限于所描述的特定特征或动作。而是,公开了特定的特征和动作作为实现权利要求的示例性形式。
[0437]
本文的此类公开还可以通过如下条款来定义:
[0438]
(1)一种数据中心冷却系统,包括:冷板,其包括蒸发器,用于使用两相流体从至少一个计算设备移除热量,所述蒸发器与缓冲区相关联,所述缓冲区用于执行由所述两相流体的不同体积或不同流速表示的流量稳定,所述两相流体被使得能够在所述蒸发器与位于所述冷板外部的冷凝或压缩机单元之间流动。
[0439]
(2)根据条款1所述的数据中心冷却系统,还包括:至少一个处理器,用于确定与至少一个计算设备相关联的温度并且使流量控制器能够在蒸发器、缓冲区和冷凝或压缩机单元之间提供两相流体回路。
[0440]
(3)根据条款1所述的数据中心冷却系统,还包括:与缓冲区或冷板相关联的至少一个流量控制器,其中至少一个流量控制器用于至少部分基于至少一个计算设备的冷却需求使用至少部分地来自缓冲区的两相流体引起不同的体积或不同的流速。
[0441]
(4)根据条款1所述的数据中心冷却系统,还包括:与机架相关联的冷凝或压缩机单元,用于将这种热量的至少一部分排放到数据中心的热通道。
[0442]
(5)根据条款1所述的数据中心冷却系统,还包括:至少一个处理器,用于从与至少一个计算设备相关联的传感器接收传感器输入,至少一个处理器用于使两相流体回路能够为至少一个计算设备提供冷却并使用缓冲区提供流量稳定。
[0443]
(6)根据条款5所述的数据中心冷却系统,还包括:一个或更多个神经网络,用于接收传感器输入并推理两相流体回路的冷却需求。
[0444]
(7)根据条款1所述的数据中心冷却系统,还包括:至少一个处理器,用于使至少一个流量控制器实现不同体积或不同流速的两相流体通过蒸发器,以及防止辅助冷却剂流到辅助冷却回路。
[0445]
(8)根据条款1所述的数据中心冷却系统,其中两相流体是制冷剂或工程流体。
[0446]
(9)根据条款1所述的数据中心冷却系统,还包括:与r2a热交换器、缓冲区和辅助冷却回路相关联的至少一个流量控制器,至少一个流量控制器支持通过r2a热交换器和缓冲区的不同体积或不同流速的两相流体,以及防止辅助冷却剂流到辅助冷却回路。
[0447]
(10)根据条款1所述的数据中心冷却系统,还包括:至少一个处理器,用于启用数据中心冷却系统的第一模式以使用不同体积或不同流速中的第一体积或流速提供冷却,以及启用数据中心冷却系统的第二模式以使用不同体积或不同流速中的第二体积或流速提供冷却。
[0448]
(11)一种处理器,其包括一个或更多个电路,所述一个或更多个电路用于感测至少一个计算设备的冷却需求,所述处理器用于使冷板使用冷板内的蒸发器为至少一个计算
设备提供冷却,以通过两相流体从至少一个计算设备移除热量,所述蒸发器与缓冲区相关联,所述缓冲区用于执行由两相流体的不同体积或不同流速表示的流量稳定,所述两相流体被使得能够在蒸发器与位于冷板外部的冷凝或压缩机单元之间流动。
[0449]
(12)根据条款11所述的处理器,还包括:输出,其为至少一个流量控制器提供信号,以使得两相流体能够流过r2a热交换器和缓冲区,以及防止辅助冷却剂流到辅助冷却回路。
[0450]
(13)根据条款11所述的处理器,还包括:输入,用于从与至少一个计算设备关联的传感器接收传感器输入,处理器用于确定与两相流体回路关联的第一冷却需求和与辅助冷却回路关联的第二冷却需求,其中辅助冷却回路与主冷却回路相关联。
[0451]
(14)根据条款13所述的处理器,还包括:一个或更多个神经网络,用于接收传感器输入并且用于推理第一冷却需求和第二冷却需求。
[0452]
(15)根据条款11所述的处理器,还包括:一个或更多个神经网络,用于推理辅助冷却回路的故障,一个或更多个电路用于使至少一个流量控制器使用缓冲区、冷板和冷凝或压缩机单元来激活两相流体回路。
[0453]
(16)一种处理器,包括一个或更多个电路,所述一个或更多个电路用于训练一个或更多个神经网络,以从与计算设备相关联的传感器的传感器输入推理存在冷却需求,处理器用于使冷板使用冷板内的蒸发器来向计算设备提供冷却,以通过两相流体从计算设备移除热量,其中蒸发器与缓冲区相关联,缓冲区用于执行由两相流体的不同体积或不同流速表示的流量稳定,所述两相流体被使得能够在蒸发器与位于冷板外部的冷凝或压缩机单元之间流动。
[0454]
(17)根据条款16所述的处理器,还包括:输出,其为至少一个流量控制器提供信号,以使得两相流体能够流过r2a热交换器和缓冲区,以及防止辅助冷却剂流到辅助冷却回路。
[0455]
(18)根据条款16所述的处理器,还包括:一个或更多个神经网络,所述一个或更多个神经网络用于接收传感器输入并且被训练以推理与两相流体回路相关联的第一冷却需求和与辅助冷却回路相关联的第二冷却需求,所述辅助冷却回路与主冷却回路相关联。
[0456]
(19)根据条款16所述的处理器,还包括:输出,用于提供信号,以使得两相流体回路或辅助冷却回路中的一个或更多个被调节以解决不同的冷却需求。
[0457]
(20)根据条款16所述的处理器,还包括:输入,用于接收与来自至少一个计算设备、辅助冷却剂、或两相流体的温度相关联的传感器输入;一个或更多个神经网络被训练以部分地基于温度和先前温度推理已经发生冷却剂状态的变化;一个或更多个电路用于使用缓冲区、冷板和冷凝或压缩机单元启用或禁用两相流体回路。
[0458]
(21)一种处理器,包括一个或更多个电路,所述一个或更多个电路包括一个或更多个神经网络,所述一个或更多个神经网络用于从与计算设备相关联的传感器的传感器输入推理存在冷却需求,处理器用于使冷板使用冷板内的蒸发器来向计算设备提供冷却,以通过两相流体从计算设备移除热量,蒸发器与缓冲区相关联,缓冲区执行由两相流体的不同体积或不同流速表示的流量稳定,所述两相流体被使得能够在位于冷板外部的冷凝或压缩机单元与蒸发器之间流动。
[0459]
(22)根据条款21所述的处理器,还包括:输出,其为至少一个流量控制器提供信
号,以使得两相流体能够流过r2a热交换器和缓冲区,以及防止辅助冷却剂流到辅助冷却回路。
[0460]
(23)根据条款21所述的处理器,还包括:一个或更多个神经网络,其接收传感器输入并推理与两相流体回路相关联的第一冷却需求以及与辅助冷却回路相关联的第二冷却需求,所述辅助冷却回路与主冷却回路相关联。
[0461]
(24)根据条款21所述的处理器,还包括:输出,用于提供信号,以使两相流体回路或辅助冷却回路中的一个或更多个被调节以解决不同的冷却需求。
[0462]
(25)根据条款21所述的处理器,还包括:输入,用于接收与来自至少一个计算设备、辅助冷却剂、或两相流体的温度相关联的传感器输入;一个或更多个神经网络用于部分基于温度和先前温度推理已经发生的冷却剂状态的变化;一个或更多个电路用于使用缓冲区、冷板和冷凝或压缩机单元来启用或禁用两相流体回路。
[0463]
(26)一种用于数据中心冷却系统的方法,包括:提供冷板,所述冷板包括蒸发器,用于使用两相流体从至少一个计算设备移除热量;确定机架的至少一个计算设备的冷却需求;启用冷板,以使用两相流体从至少一个计算设备吸收热量;以及启用缓冲区,以执行由两相流体的不同体积或不同流速表示的流量稳定,所述两相流体被使得能够在蒸发器和位于冷板外部的冷凝或压缩机单元之间流动。
[0464]
(27)根据条款26所述的方法,还包括:使用至少一个处理器确定与机架中的至少一个计算设备相关联的温度;使用温度确定第一冷却需求或第二冷却需求;以及部分地基于第一冷却需求或第二冷却需求而引起两相流体回路或辅助冷却回路,辅助冷却回路与主冷却回路相关联。
[0465]
(28)根据条款27所述的方法,还包括:在至少一个处理器中接收来自与至少一个计算设备、机架、辅助冷却剂或两相流体相关联的传感器的传感器输入;以及使用至少一个处理器部分地基于这样的传感器输入来确定第一冷却需求和第二冷却需求。
[0466]
(29)根据条款26所述的方法,还包括:使r2a热交换器能够将热散发到数据中心内的热通道。
[0467]
(30)根据条款26所述的方法,还包括:由至少一个处理器从与至少一个计算设备相关联的传感器接收传感器输入;由至少一个处理器部分基于传感器输入确定冷却剂状态的变化;以及部分地基于冷却剂状态的变化,使得使用缓冲区、冷板和冷凝或压缩机单元实现两相流体回路。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献