一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

数据中心冷却系统的局部浸没式冷却的制作方法

2022-03-29 12:02:45 来源:中国专利 TAG:
数据中心冷却系统的局部浸没式冷却的制作方法
至少一个实施例涉及冷却系统,包括用于操作那些冷却系统的系统和方法。在至少一个实施例中,这种冷却系统可用于包含一个或更多个机架或计算服务器的数据中心。
背景技术
数据中心冷却系统使用风扇在服务器组件中循环空气。某些超级计算机或其他高容量计算机可使用水或其他冷却系统而不是空气冷却系统来将热量从数据中心的服务器组件或机架吸走到数据中心外部的区域。冷却系统可以包括数据中心区域内的冷却器,其可以包括数据中心本身外部的区域。此外,数据中心外部的区域可以包括冷却塔或其他外部热交换器,其从数据中心接收加热的冷却剂并且通过强制空气或其他手段将热量散发到环境中(或外部冷却介质)。冷却后的冷却剂被再循环回数据中心。冷却器和冷却塔共同构成冷却设施。附图说明图1示出了经受在至少一个实施例中描述的改进的示例性数据中心冷却系统;图2示出了根据至少一个实施例的与数据中心冷却系统的局部浸没式冷却相关联的服务器级特征;图3示出了根据至少一个实施例的与数据中心冷却系统的局部浸没式冷却相关联的机架级特征;图4示出了根据至少一个实施例的与数据中心冷却系统的局部浸没式冷却相关联的数据中心级特征;图5示出了根据至少一个实施例的与图2-4的数据中心冷却系统相关联的方法;图6示出了根据至少一个实施例的分布式系统;图7示出了根据至少一个实施例的示例性数据中心;图8示出了根据至少一个实施例的客户端-服务器网络;图9示出了根据至少一个实施例的计算机网络;图10A示出了根据至少一个实施例的联网计算机系统;图10B示出了根据至少一个实施例的联网计算机系统;图10C示出了根据至少一个实施例的联网计算机系统;图11示出了根据至少一个实施例的系统环境的一个或更多个组件,在该系统环境中,服务可被提供为第三方网络服务;图12示出了根据至少一个实施例的云计算环境;图13示出了根据至少一个实施例的由云计算环境提供的一组功能抽象层;图14示出了根据至少一个实施例的在芯片级的超级计算机;图15示出了根据至少一个实施例的在机架模块级的超级计算机;图16示出了根据至少一个实施例的在机架级的超级计算机;图17示出了根据至少一个实施例的在整个系统级的超级计算机;图18A示出了根据至少一个实施例的推理和/或训练逻辑;图18B示出了根据至少一个实施例的推理和/或训练逻辑;图19示出了根据至少一个实施例的神经网络的训练和部署;图20示出了根据至少一个实施例的网络系统的架构;图21示出了根据至少一个实施例的网络系统的架构;图22示出了根据至少一个实施例的控制平面协议栈;图23示出了根据至少一个实施例的用户平面协议栈;图24示出了根据至少一个实施例的核心网的组件;图25示出了根据至少一个实施例的支持网络功能虚拟化(NFV)的系统的组件;图26示出了根据至少一个实施例的处理系统;图27示出了根据至少一个实施例的计算机系统;图28示出了根据至少一个实施例的系统;图29示出了根据至少一个实施例的示例性集成电路;图30示出了根据至少一个实施例的计算系统;图31示出了根据至少一个实施例的APU;图32示出了根据至少一个实施例的CPU;图33示出了根据至少一个实施例的示例性加速器集成切片;图34A-34B示出了根据至少一个实施例的示例性图形处理器;图35A示出了根据至少一个实施例的图形核心;图35B示出了根据至少一个实施例的GPGPU;图36A示出了根据至少一个实施例的并行处理器;图36B示出了根据至少一个实施例的处理集群;图36C示出了根据至少一个实施例的图形多处理器;图37示出了根据至少一个实施例的编程平台的软件栈;图38示出了根据至少一个实施例的图37的软件栈的CUDA实现;图39示出了根据至少一个实施例的图37的软件栈的ROCm实现;图40示出了根据至少一个实施例的图37的软件栈的OpenCL实现;图41示出了根据至少一个实施例的由编程平台支持的软件;以及图42示出了根据至少一个实施例的用于在图37-40的编程平台上执行的编译代码。具体实施方式在以下描述中,阐述了许多具体细节以提供对至少一个实施例的更透彻的理解。然而,对于本领域技术人员显而易见的是,可以在没有这些特定细节中的一个或更多个的情况下实践本发明构思。在至少一个实施例中,数据中心冷却系统可以响应由当今计算组件中的计算负载发生改变而引起的突然的高热量要求。在至少一个实施例中,由于这些要求(requirement)会发生变化或趋向于从最小到最大的不同冷却要求的范围,因此必须使用合适的冷却系统以经济的方式满足这些要求。在至少一个实施例中,对于中等至高冷却要求,可以使用液体冷却系统。在至少一个实施例中,通过局部浸没式(immersion)冷却经济地满足高冷却要求。在至少一个实施例中,这些不同的冷却要求也反映了数据中心的不同热特征。在至少一个实施例中,从这些组件、服务器和机架产生的热量被统称为热特征或冷却要求,因为冷却要求必须完全解决热特征。在至少一个实施例中,公开了一种数据中心液体冷却系统。在至少一个实施例中,该数据中心冷却系统解决相关计算或数据中心设备中的热特征,例如图形处理单元(GPU)、交换机、双列直插存储器模块(DIMM)或中央处理单元(CPU)中的热特征。在至少一个实施例中,这些组件在本文中可以被称为高热密度计算组件。此外,在至少一个实施例中,相关联的计算或数据中心设备可以是其上具有一个或更多个GPU、交换机或CPU的处理卡。在至少一个实施例中,GPU、交换机和CPU中的每一个都可以是计算设备的发热特征。在至少一个实施例中,GPU、CPU或交换机可以具有一个或更多个核心,并且每个核心可以是发热特征。在至少一个实施例中,从高热密度计算组件可靠地去除热量可能无法通过液体冷却或整个服务器级浸没式冷却经济地解决。在至少一个实施例中,服务器级浸没式冷却可具有机架的特殊要求并且其要求可能很复杂,但也可能不会产生经济的冷却作为解决方案。在至少一个实施例中,在单一的冷板设计中,从液体冷却和局部浸没式冷却两者实现本文的益处。在至少一个实施例中,直接接触式冷板可以设置有空腔和开口。在至少一个实施例中,空腔可适于包括(或填充有)流体,例如浸没式流体。在至少一个实施例中,浸没式流体已经设计制造并且具有介电性质。在至少一个实施例中,工程性质使得流体不是天然存在的,而是被开发以支持浸没式冷却。在至少一个实施例中,流体是不同于冷却剂或制冷剂的介电工程流体。在至少一个实施例中,流体是油或其他介电流体。在至少一个实施例中,浸没式流体,简单地称为流体,具有允许它与计算组件的电子设备直接接触的性质。在至少一个实施例中,直接接触是指浸没式流体或液体与作为发热部件的电子部件直接接触。在至少一个实施例中,流体具有冷却能力,以移除从数据中心服务器中的发热部件产生的高百分比的热量。在至少一个实施例中,在将密封冷板组装到该部件(或该部件周围)时,可以通过至少一个自密封端口引入该流体。在至少一个实施例中,至少一个自密封端口通过至少将流体保持在冷板的空腔内来实现高热密度部件的局部浸没式冷却。在至少一个实施例中,该流体可由流体源提供,该流体源可使用与流体源接口的空气冷却冷凝器或液冷热交换器进行冷却。在至少一个实施例中,冷板内可提供热交换器。在至少一个实施例中,热交换器具有来自辅助冷却回路或来自穿过其的制冷剂回路的冷却剂或制冷剂。在至少一个实施例中,冷却剂可以来自冷却剂分配单元(CDU)并且制冷剂可以来自制冷单元。在至少一个实施例中,局部浸没式冷却通过为浸没式冷板实现的直接接触,在设有冷板的空腔并且直接接触气密密封在冷板内的计算组件的至少一部分的流体之间来实现。在至少一个实施例中,流体可以在确定的时间段之后循环。在至少一个实施例中,流体可以由空腔内的热交换器冷却,该热交换器允许冷却剂或制冷剂通过流体以冷却流体。在至少一个实施例中,浸没式冷板允许其中的流体与电子部件直接接触。在至少一个实施例中,气密密封在冷板的开口(并且因此,冷板)与部件之间或在空腔开口处的部件周围的区域之间提供。在至少一个实施例中,可利用如图1所示的示例性数据中心100,其具有经受本文所述改进的冷却系统。在至少一个实施例中,数据中心100可以是具有机架110和辅助设备的一个或更多个房间102,用于在一个或更多个服务器托盘上容纳一个或更多个服务器。在至少一个实施例中,数据中心100由位于数据中心100外部的冷却塔104支持。在至少一个实施例中,冷却塔104通过作用于主冷却回路106而从数据中心100内散热。在至少一个实施例中,在主冷却回路106和第二或辅助冷却回路108之间使用冷却分配单元(CDU)112,以使得能够将热量从第二或辅助冷却回路108提取到主冷却回路106。在至少一个实施例中,在一方面,辅助冷却回路108可以根据需要自始至终访问进入服务器托盘中的不同管道。在至少一个实施例中,回路106、108被示出为线图,但普通技术人员将认识到,可以使用一个或更多个管道特征。在至少一个实施例中,柔性聚氯乙烯(PVC)管可以与关联的管道系统一起使用,以便使流体沿着回路106、108中的每一个移动。在至少一个实施例中,可以使用一个或更多个冷却剂泵来维持回路106、108内的压力差,以使得冷却剂能够根据不同位置(包括房间中、一个或更多个机架110中和/或机架110内的服务器箱或服务器托盘中)中的温度传感器移动。在至少一个实施例中,主冷却回路106和辅助冷却回路108中的冷却剂可以至少是水和添加剂,例如乙二醇或丙二醇。在操作中,在至少一个实施例中,主冷却回路和辅助冷却回路中的每一个都具有它们自己的冷却剂。在至少一个实施例中,辅助冷却回路中的冷却剂可专用于服务器托盘或机架110中的组件的要求。在至少一个实施例中,CDU112能够独立地或同时地对回路106、108中的冷却剂进行复杂控制。在至少一个实施例中,CDU可以适于控制流速,使得冷却剂被适当地分配,以吸取机架110内产生的热量。在至少一个实施例中,从辅助冷却回路108提供更多柔性管路114以进入每个服务器托盘并向电气和/或计算组件提供冷却剂。在至少一个实施例中,电气和/或计算部件可互换地使用以指代受益于具有局部浸没式冷却的数据中心冷却系统的发热部件。在至少一个实施例中,形成辅助冷却回路108的一部分的管路(tubing)118可以被称为室(room)歧管。单独地,在至少一个实施例中,从管路118延伸的管路116也可以是辅助冷却回路108的一部分,但是可以称为排(row)歧管。在至少一个实施例中,管路114作为辅助冷却回路108的一部分进入机架,但是可以称为机架冷却歧管。在至少一个实施例中,排歧管116沿着数据中心100中的行延伸到所有机架。在至少一个实施例中,可通过本文的至少一个实施例改进包括歧管118、116和114的辅助冷却回路108的管道。在至少一个实施例中,可以在数据中心102内的主冷却回路中提供冷却器120,以支持在冷却塔之前的冷却。在至少一个实施例中,在主控制回路中存在附加回路的程度上,本领域普通技术人员在阅读本文的至少一个实施例时将认识到,这些附加回路提供机架外部和辅助冷却回路外部的冷却;并且可以与用于本发明的主冷却回路合在一起。在至少一个实施例中,在操作中,机架110的服务器托盘内产生的热量可经由辅助冷却回路108的排歧管114的柔性管被传递到离开机架110的冷却剂。在至少一个实施例中,来自CDU112的用于冷却机架110的第二冷却剂(在辅助冷却回路108中)朝向机架110移动。在至少一个实施例中,来自CDU112的第二冷却剂从具有管路118的室歧管的一侧经由排歧管116传递到机架110的一侧,并经由管路114通过服务器托盘的一侧。在至少一个实施例中,用过的或返回的第二冷却剂(或从计算组件带走热量的离开的第二冷却剂)从服务器托盘的另一侧离开(诸如在循环通过服务器托盘或通过服务器托盘上的组件之后进入用于服务器托盘的机架的左侧并离开机架的右侧)。在至少一个实施例中,离开服务器托盘或机架110的用过的辅助冷却剂从管路114的不同侧(诸如出口侧)出来并且移动到排歧管116的平行的也是出口侧。在至少一个实施例中,用过的第二冷却剂从排歧管116在排歧管118的平行部分中移动,沿与进入的第二冷却剂(其也可以是更新的辅助冷却剂)相反的方向行进,并且朝向CDU112。在至少一个实施例中,用过的辅助冷却剂经由CDU112与主冷却回路106中的主冷却剂交换其热量。在至少一个实施例中,用过的辅助冷却剂可被更新(诸如当与用过的辅助冷却剂阶段的温度相比时相对冷却)并且准备好往回循环通过辅助冷却回路108到达计算组件。在至少一个实施例中,CDU112中的各种流和温度控制特征使得能够控制从用过的辅助冷却剂交换热量或者辅助冷却剂流入和流出CDU112。CDU112还可能够控制主冷却回路106中的主冷却剂的流动。在至少一个实施例中,如图2所示的服务器级特征200可以与数据中心冷却系统的局部浸没式冷却系统相关联。在至少一个实施例中,服务器级特征200包括服务器托盘或箱202。在至少一个实施例中,服务器托盘或箱202包括一个或更多个冷却剂或制冷剂冷板210A-C和一种或更多种浸没式流体冷板250、270,每个都与一个或更多个计算或数据中心组件或设备220A-D相关联。在至少一个实施例中,服务器托盘或箱202包括服务器歧管204,其中间地耦接在辅助冷却回路的冷板210A-C和机架歧管之间。在至少一个实施例中,服务器歧管将辅助冷却剂或制冷剂分配到冷板。在至少一个实施例中,机架歧管被安置在机架上,该机架也可以容纳服务器托盘或箱202。在至少一个实施例中,服务器歧管204也可以在浸没式流体源和浸没式冷却板250、270之间起到中间作用。在至少一个实施例中,服务器歧管204内的通道将浸没式流体与辅助冷却剂或制冷剂隔离。在至少一个实施例中,这种隔离使同一服务器歧管204也能够将浸没式流体分配到浸没式冷板250、270。在至少一个实施例中,服务器托盘或箱202包括多个服务器歧管。在至少一个实施例中,至少一个服务器歧管用于浸没式流体并且至少一个其他服务器歧管用于冷却剂或制冷剂。在至少一个实施例中,在服务器歧管204和冷板210A-C;250、270之间提供一个或更多个服务器级冷却回路214A、B。在至少一个实施例中,服务器级冷却回路214A、B是辅助冷却回路的一部分。在至少一个实施例中,每个服务器级冷却回路214A;B包括入口管线210和出口管线212。在至少一个实施例中,当存在串联配置的冷板210A、B时,则可以提供中间管线216。在至少一个实施例中,一个或更多个冷板可以是浸没式冷板,例如浸没式冷板250、270。在至少一个实施例中,可以提供不同于辅助冷却剂的用于浸没式冷板的流体,经由服务器歧管204的通道,经由入口和出口208A、208B和管线292。在至少一个实施例中,管线292将浸没式流体与可以通过其在服务器歧管204内的相应通道的辅助冷却剂隔离,并且来自不同的入口和出口206A、206B。在至少一个实施例中,浸没式冷板250、270具有两部分。在至少一个实施例中,第一部分250包括空腔264以容纳流体,而第二部分270实现与第一部分250的气密密封,使得流体保持在冷板内。在至少一个实施例中,第一部分250相对于接收器板270以放大的方式示出,但是安装接收器板并因此具有相应的缩放以实现安装。在至少一个实施例中,除非另有说明,否则提及冷板连同其浸没式特征意味着提及浸没式冷板。在至少一个实施例中,冷板210B、250可以被配置为与辅助冷却剂冷板210A-C并排工作。在至少一个实施例中,辅助冷却剂冷板210A-C允许至少辅助冷却剂通过,即使与接收器板270具有说明性的相似性。在至少一个实施例中,不同于辅助冷却剂冷板210A-C,接收器板270是开放结构,冷板的第一部分250附接到其上并形成气密密封。在至少一个实施例中,两种类型的冷板,无论是辅助冷却剂冷板210A-C还是浸没式冷板250、270,都至少接收辅助冷却剂。在至少一个实施例中,辅助冷却剂冷板210A-C接收辅助冷却剂以用于冷却作为相关联的计算设备220A-C。在至少一个实施例中,浸没式冷却板250、270接收辅助冷却剂以冷却其中的浸没式流体。在至少一个实施例中,每种类型的冷板210A-C;250、270从具有冷却剂或制冷剂的相应辅助冷却回路接收不同的辅助冷却剂或制冷剂。在至少一个实施例中,浸没式冷板250、270适于接收两种类型的流体。在至少一个实施例中,第一类流体是浸没式流体,例如介电工程流体,而第二类流体是来自也穿过辅助冷却剂冷板210A-C的辅助冷却回路的辅助冷却剂,例如设施水和添加剂或制冷剂。在至少一个实施例中,辅助冷却剂可以是去离子水。在至少一个实施例中,包括用于冷板的空腔264的部件250可以被称为冷板主体。在至少一个实施例中,冷板主体250可以在至少一个计算组件220D周围压配合,其中接收器密封件直接施加到围绕至少一个计算组件220B的板的区域或直接施加在至少一个计算组件220D的至少一部分上。在至少一个实施例中,接收器板270可以是该区域中或至少一个计算组件上的独立部分,并且包括或完全是一个或更多个闩锁或允许冷板主体250气密地密封到该区域中的接收器密封件的其他特征。在至少一个实施例中,除非另有说明,否则相对于浸没式冷板,对冷板或冷板主体的引用在本文中可互换使用。在至少一个实施例中,垫圈或密封件272是接收器密封件,其直接设置在围绕至少一个计算组件的区域上(或设置在计算组件的至少一部分上)。在至少一个实施例中,接收器密封件272可以是介电的并且当与压配合的冷板主体250相关联时可以与空腔形成密封的膏体。在至少一个实施例中,可以实现闩锁或其他特征以保持冷板主体250并且实现气密密封。在至少一个实施例中,浸没式冷板250、270包括开口266和空腔264。在至少一个实施例中,冷板主体250具有第一密封件268,其实现在空腔264处围绕至少一个计算组件220进行气密密封。在至少一个实施例中,实现浸没式冷板250、270以在空腔内包括流体,并且一旦浸没式冷板250、270与计算部件220D(或计算组件220D周围)气密密封,就能够在开口处浸没至少一个计算组件的至少一部分。在至少一个实施例中,自密封端口252、258与浸没式冷板250、270相关联,以将浸没式流体接收到冷板中并且将浸没式流体保持在浸没式冷板250、270内。在一个实施例中,自密封端口可以具有可以是方向和压力控制的密封件、垫圈或阀盖254、260。在至少一个实施例中,自密封端口255、258适于允许浸没式流体进入或允许浸没式流体流出。在至少一个实施例中,流量控制器280可以与浸没式流体管线288相关联,其使得浸没式流体能够进入浸没式冷板210B、250或从浸没式冷板210B、250流出。在至少一个实施例中,可以根据对自密封端口的需要使用流量控制器,因为停用流量控制器可防止流体进入或流出空腔内并一直到流量控制器的入口侧。在至少一个实施例中,流量控制器280使浸没式冷板250、270能够将浸没式流体保留在冷板内达确定的时间量。在至少一个实施例中,浸没式流体经由专用的浸没式流体入口和出口管线208A、B进入浸没式流体管线288。在至少一个实施例中,服务器歧管204适于在其中具有通道292以支撑到流体管线288(还有256、262)的不同路径。在至少一个实施例中,与流体通道292相比,向与辅助冷却剂入口和出口管线206A、B相关联的其余回路214A、B提供单独的通道。在至少一个实施例中,可以实现第一流以用于浸没式冷板,经由相关联的流量控制器280允许浸没式流体进入空腔264。在至少一个实施例中,可以为浸没式冷板实现第二流,其中空腔264中的浸没式流体的冷却经由辅助冷却剂在辐射管道286中流动而发生。在至少一个实施例中,自密封端口252允许流体进入空腔264,而第二自密封端口258可用于防止流体从空腔264流出。在至少一个实施例中,自密封端口具有阀盖254、260以实现流体进入并防止流体流出。在至少一个实施例中,至少用于辅助冷却剂回路214A、B的相关联的流量控制器294使辅助冷却剂能够流过流体管线210、216、212(还有278、284)和入口端口282以及出口端口284。在至少一个实施例中,这可以代表经由管线286中的辅助冷却剂开始冷却浸没式流体的第二流。在至少一个实施例中,辅助冷却剂被允许经由各自的自密封端口282、284进入冷却板250、270的辐射管道286,它们都在辅助冷却剂和浸没式流体之间保持不同的路径。在至少一个实施例中,浸没式流体在辐射管道286和计算组件220D之间起到冷却界面的作用。在至少一个实施例中,辐射管道286是用于浸没式流体和辅助冷却剂的液体-液体热交换器。在至少一个实施例中,可以提供接收器板270以围绕(circumvent)需要冷却的服务器托盘或箱中的板上的区域。在至少一个实施例中,该区域包括或者是至少一个计算组件220D。在至少一个实施例中,接收器板270可以包括垫圈或密封件272。在至少一个实施例中,具有垫圈或密封件272的接收器板270可以是冷板250的一部分并且可以使冷板主体250能够在该区域周围以及在接收器板270和冷板266的开口之间气密密封。在至少一个实施例中,接收器板可以是服务器托盘或箱内板上的附接点的集合。在至少一个实施例中,接收器板是允许将冷板主体250附接到区域的任何方面,其中垫圈或密封件为冷板提供气密密封。在至少一个实施例中,接收器板包括多个闩锁、螺栓、螺母或其他可以实现气密密封的特征,或者是其中之一。在至少一个实施例中,冷板主体250的垫圈或密封件268对应于接收器板270的垫圈或密封件272,使得能够在冷板主体250和接收器板270之间实现气密密封。在至少一个实施例中,冷板主体的垫圈或密封件268位于接收器板270的垫圈或密封件272内。在至少一个实施例中,垫圈或密封件与接收器板270不同并且可以首先应用于板,然后是附接点。在至少一个实施例中,冷板主体250的垫圈或密封件268最靠近开口266,以使得浸没式流体的最大面积或体积能够暴露于该区域或计算组件220D,其受益于提供的局部浸没式冷却。在至少一个实施例中,辐射管道286代表冷板250内的热交换器回路或板以使冷却剂或制冷剂通过冷板,冷却剂或制冷剂可以从浸没式流体吸收热量。在至少一个实施例中,该热交换器是一种板式热交换器,它夹着一个具有浸没式流体的空腔,从而实现了较宽的热交换表面。在至少一个实施例中,冷板250的接收器板270围绕大于至少一个计算设备220D的尺寸的至少一个计算组件的区域。在至少一个实施例中,如果计算设备220D是具有多个发热计算组件的卡,则多个发热计算组件中的一个或更多个可以包括在该区域中以接收局部浸没式冷却。在至少一个实施例中,接收器板270可以使用接收器板270下方的密封特征可移除地密封到该区域。在至少一个实施例中,接收器板在其上具有包括的第一密封件272。在至少一个实施例中,第一密封件272适于接收与冷板主体250相关联的第二密封件268。在至少一个实施例中,接收器板270或冷板主体250包括至少一对突片276,其形成附接点以将开口266锁定到接收器板270。在至少一个实施例中,可以使用带或其他闩锁274来实现气密密封。在至少一个实施例中,垫圈或密封件268、272之间的真空或压力可以实现气密密封。在至少一个实施例中,入口和出口管道256、262可以与真空系统一起使用或者可以与吹扫系统一起使用以在密封之后影响空腔264中的环境。在至少一个实施例中,可以经由端口252保持真空以实现气密密封。在至少一个实施例中,在抽真空或开始气密密封期间,空腔中没有流体。在至少一个实施例中,浸没式流体进入空腔的通道净化空腔264并且至少部分地实现气密密封。在至少一个实施例中,流体一旦进入空腔内,就不再处于真空下并保持流体在流体源中时保持的热力学性质。在至少一个实施例中,空腔内的流体处于数据中心环境的标准压力下。在至少一个实施例中,自密封端口262向空腔内打开并且防止流体流出,除非适当的触发器能够打开自密封端口262。在至少一个实施例中,只提供一个自密封端口252用于浸没式流体的进出。在至少一个实施例中,浸没式流体的流出可以是通过抽吸。在至少一个实施例中,腔体中的流体促进气密密封。在至少一个实施例中,至少一个流量控制器290可以与托管至少一个计算组件220B的机架或至少一个服务器202相关联。在至少一个实施例中,至少一个流量控制器290可以使浸没式冷板250能够将浸没式流体接收到浸没式冷板250中并且一旦被气密密封就将流体保持在浸没式冷板250内。在至少一个实施例中,至少一个流量控制器290可以被激活以将浸没式流体传递到冷板中,而至少一个流量控制器290的出口侧流量控制器可以被激活以吹扫管线,但是一旦浸没式流体开始优雅地流出出口侧流量控制器,则可以停用。在至少一个实施例中,这导致浸没式流体在出口侧流量控制器和入口侧流量控制器之间保持截留在浸没式冷板中,其中没有空气,入口侧流量控制器随后也可以被停用。在至少一个实施例中,至少一个流量控制器290可以与托管至少一个计算组件220D的机架或至少一个服务器202相关联。在至少一个实施例中,至少一个流量控制器适于控制浸没式流体进入冷板的第一压力或浸没式流体在冷板内的第二压力。在至少一个实施例中,这些控制防止在灌满空腔264期间和之后对气密密封件的损坏或破坏。在至少一个实施例中,如图3所示的机架级特征300可以与用于数据中心冷却系统的局部浸没式冷却系统相关联。在至少一个实施例中,机架级特征300包括机架302,该机架具有支架304、306,用于悬挂冷却歧管314A、B。在至少一个实施例中,冷却歧管314A、B在服务器级特征200(并且在图3中示出为服务器托盘或箱308)和数据中心冷却系统的CDU之间通过辅助冷却剂(或制冷剂)。在至少一个实施例中,相同的冷却歧管314A、B具有将浸没式流体从流体源330传递到浸没式冷板并保持浸没式流体与辅助冷却剂(或制冷剂)不同的通道。在至少一个实施例中,入口和出口管线316、318设置在服务器托盘或箱308的一侧或另一侧,以将相应的冷却歧管314A、B耦接到服务器托盘或箱308的入口侧或出口侧。在至少一个实施例中,为数据中心冷却系统的入口侧和出口侧提供不同的冷却歧管314A、B。在至少一个实施例中,支架304、306中的单个上的单个歧管可以与其中的通道一起用于服务器托盘或箱308的入口侧和出口侧,用于接收和排出用于冷却服务器托盘或箱308的辅助冷却剂。在至少一个实施例中,单个歧管还可以具有通道以保持辅助冷却剂(或制冷剂)和浸没式流体不同。在至少一个实施例中,服务器托盘或箱308具有流体通过的相关联的数据中心或计算组件或设备320以及相关联的冷板322。在至少一个实施例中,图3还示出了浸没式冷板,其可以被安装到计算组件,安装到在连接到计算组件顶部的接收器板上形成或限定的附接点。在至少一个实施例中,图3还示出了浸没式冷板可以安装到具有计算组件的板上,安装到在附接到围绕计算组件的区域的接收器板上形成或限定的附接点。在至少一个实施例中,实现来自和去往机架歧管314A、B的不同的(和额外的)入口和出口管线316、318以将机架歧管(具有辅助冷却剂)耦接到浸没式流体的浸没式冷板326。在至少一个实施例中,实现来自和去往不同的浸没式流体机架歧管314C、D到浸没式流体的浸没式冷板326的入口和出口管线320、322。在至少一个实施例中,如果机架歧管314A、B可以处理不同通道中的辅助冷却剂和浸没式流体,则分流器系统中的流量控制器310C、312C可用于首先启动浸没式流体,然后启动辅助冷却剂。在至少一个实施例中,入口和出口管线320、322耦接机架歧管314A、B的相应通道,这些通道明显地引导来自用于浸没式冷板326的储液器或流体源330的浸没式流体,其不同于用于冷板326内的辐射管道的辅助冷却剂。在至少一个实施例中,专用管线332可以将机架歧管314A、B(或314C、D)的入口和出口管线320、322耦接到冷板326的浸没式流体端口。在至少一个实施例中,至少一个流量控制器可以在机架歧管314A、B或入口和出口管线320、322处与机架302相关联,以使得浸没式冷板326能够将流体接收到浸没式冷板中并将流体保留在浸没式冷板中。在至少一个实施例中,至少一个流量控制器可以在机架歧管或入口或出口管线处与机架相关联,以控制流体进入冷板的第一压力或流体在冷板内的第二压力。在至少一个实施例中,这至少防止形成过压或损坏密封件或垫圈。在至少一个实施例中,至少一个歧管314A;B可以与服务器冷却回路或辅助冷却回路相关联,以从冷却剂分配单元(CDU)提供辅助冷却剂(用于辐射管道)。在至少一个实施例中,辅助冷却剂通过歧管入口310进入机架302,传递通过入口冷却歧管314A,通过入口管线316,通过冷板326,通过出口管线318,通过出口冷却歧管314B,并通过歧管出口312。在至少一个实施例中,流体通过歧管入口310D进入机架302,传递通过入口冷却歧管314C,通过入口管线320,并通过冷板326以被保留在冷板中。在至少一个实施例中,浸没式流体可以在几个冷却循环或规则的时间间隔之后被冲洗。在至少一个实施例中,冲洗可以通过相同的入口端口、管线和歧管,或通过出口管线322和通过出口冷却歧管314C,并通过歧管出口312D。在至少一个实施例中,当单数组的歧管支撑和维持不同的辅助冷却剂(或制冷剂)和浸没式流体通道时,可以提供一个或更多个流量控制器310C、312C的分流器系统以使得来自浸没式流体源330的浸没式流体首先经由管线310B、312B流入冷板(以至少净化空腔),然后允许用于辐射管道的辅助冷却剂经由管线310A、312A流过冷板。在至少一个实施例中,如图4所示的数据中心级特征400可以与用于数据中心冷却系统的局部浸没式冷板相关联。在至少一个实施例中,数据中心级特征400可以包括数据中心402内的浸没式流体源420。在至少一个实施例中,浸没式流体源420可以包括使制冷剂循环并与数据中心402外部的冷凝器单元接口的蒸发器单元,例如在数据中心402的屋顶上。在至少一个实施例中,浸没式流体源420支撑一个或更多个机架404。在至少一个实施例中,CDU406在辅助冷却回路中提供辅助冷却剂,以在浸没式冷板内循环并帮助浸没式流体从相关的计算组件中移除热量。在至少一个实施例中,CDU经由管线412、414在CDU406和排歧管或排冷却歧管410之间连通辅助冷却剂。在至少一个实施例中,流量控制器424可用于将CDU406与数据中心冷却系统接合。在至少一个实施例中,排歧管410经由管线416、418为机架404提供服务。在至少一个实施例中,主冷却回路422的主冷却剂在CDU406和数据中心402(或数据中心机房)外部的冷却设施408之间行进。在至少一个实施例中,数据中心402可包括另一歧管426,其可与管线相关联,以经由一个或更多个流量控制器将来自浸没式流体源420的浸没式流体引导至一个或更多个浸没式冷板。在至少一个实施例中,至少一个歧管426然后与服务器冷却回路相关联并且可以不同于与辅助冷却回路相关联的歧管410。在至少一个实施例中,该架构使得来自流体源的浸没式流体能够保持与CDU的辅助冷却剂不同。在至少一个实施例中,至少一个处理器可以与在图2-4的每一个中讨论的各自的流量控制器接合,以接合或脱离各个冷却回路、CDU和浸没式流体源。在至少一个实施例中,流量控制器的电气部件可以接收来自至少一个处理器的信号并且可以引起机械反应,以节流或增加通过各个回路、进出各个冷却回路、CDU,以及浸沉式流体源的流体流量。在至少一个实施例中,流量控制器可以包括泵或电动和机械致动阀的电气和机械部件。在至少一个实施例中,至少一个处理器中的每一个具有推理和/或训练逻辑1815,其可以包括但不限于代码和/或数据存储器1801,用于存储前向和/或输出权重和/或输入/输出数据和/或其他参数,以配置神经网络的神经元或层,在一个或更多个实施例的方面中训练所述神经网络和/或用于推理。在至少一个实施例中,训练逻辑1815可包括或耦合到代码和/或数据存储器1801以存储图代码或其他软件以控制时序和/或顺序,其中权重和/或其他参数信息可用于被加载以配置逻辑,包括整数和/或浮点单元(统称为算术逻辑单元(ALU))。在至少一个实施例中,代码(诸如图代码)基于与此类代码对应的神经网络架构将权重或其他参数信息加载到处理器ALU中。在至少一个实施例中,代码和/或数据存储器1801存储结合一个或更多个实施例训练或使用的神经网络的每一层的权重参数和/或输入/输出数据,在使用一个或更多个实施例的方面在训练和/或推理期间输入/输出数据和/或权重参数的前向传播期间。在至少一个实施例中,可以包括代码和/或数据存储1801的任何部分与其他片上或片外数据存储,包括处理器的L1、L2或L3缓存或系统内存。在至少一个实施例中,至少一个处理器的推理和/或训练逻辑1815可以是建筑物管理系统(BMS)的一部分,用于控制服务器级、机架级和行级中的一个或更多个处的流量控制器。在至少一个实施例中,可以向推理和/或训练逻辑1815的一个或更多个神经网络提供使浸没式冷板与辅助冷却剂通过浸没式冷板接合的确定,以使得一个或更多个神经网络推理哪些流量控制器优雅地接合或脱离。在至少一个实施例中,通过流过浸没式冷板中的辐射管道的辅助冷却剂冷却浸没式流体可以由由推理和/或训练逻辑1815控制的流量控制器实现。在至少一个实施例中,可以训练一个或更多个神经网络以通过来自计算设备、服务器或机架的先前相关联的热特征或冷却要求以及由浸没式冷却液体指示的冷却容量或能力以及相关的浸没式流体源420和CDU406做出推断。在至少一个实施例中,由具有或不具有流过其的辅助冷却剂的浸没式冷板满足的先前冷却要求可导致一个或更多个神经网络通过调节流量控制器使浸没式流体源淹没浸没式冷板,然后启动CDU发送(或启动)辅助冷却剂流过辐射管道,来对满足未来相似冷却要求(考虑到它们的微小变化)做出相似推理。在至少一个实施例中,浸没式流体可以在确定的时间间隔之后循环离开浸没式冷板。在至少一个实施例中,类似地,浸没式冷板满足的先前冷却要求可以使一个或更多个神经网络通过调整流量控制器对将来要满足的类似冷却要求(考虑到其的微小变化)做出类似推断,以单独或与CDU一起接合浸没式冷板和浸没式流体源。在至少一个实施例中,一个或更多个神经网络可以确定并将选择发送到流量控制器(例如发送到与流量控制器相关联的电子部件),以导致合适的热交换器接合或脱离接合。图5示出了根据至少一个实施例的与图2-4的数据中心冷却系统相关联的方法500。在至少一个实施例中,方法500中的步骤502可以是提供具有开口和空腔的冷板,用于在具有至少一个计算设备的局部浸没式冷却配置中使用。在至少一个实施例中,方法400可以包括步骤504,用于确定该至少一个计算组件要在服务器内进行浸没式冷却。在至少一个实施例中,该确定可以部分地基于由至少一个计算设备产生的热量。在至少一个实施例中,步骤506确定围绕至少一个计算组件的区域是否将与冷板相关联。在至少一个实施例中,该步骤可能需要考虑至少一个计算设备和服务器托盘或箱(和机架)内的支撑件的位置,用于浸没式流体源和相关联的管道到达至少一个计算设备。在至少一个实施例中,当区域的要求被确定为可通过局部浸没式冷却解决时,当提供了足够的结构来实现用于浸没式流体和辅助冷却剂的流量控制器时,以及当可以实现该区域中的气密密封时,然后可以开始步骤508。在至少一个实施例中,步骤508可以是使冷板能够被气密地密封到该区域,使得至少一个计算组件(或其一部分)在空腔内。在至少一个实施例中,如参考图2-4所描述的实现气密密封的方面可应用于该步骤。在至少一个实施例中,可以执行步骤510以启动局部浸没式冷却,使得冷却板内的流体浸没至少一个计算组件的至少一部分。在至少一个实施例中,方法500可以包括进一步的步骤或者可以包括参考步骤510的子步骤,通过使冷板的自密封端口能够将流体接收到冷板中并且将流体保留在冷板内。在至少一个实施例中,方法500可以包括进一步的步骤或包括参考步骤510的子步骤,通过使与冷板相关联的流量控制器能够将流体保留在冷板内达确定的时间量。在至少一个实施例中,方法500可以包括进一步的步骤或包括参考步骤508的子步骤,通过使用于至少一个计算组件的接收器板能够围绕至少一个计算组件的区域。在至少一个实施例中,方法500可以包括进一步的步骤或包括参考步骤508的子步骤,通过使冷板能够在该区域周围以及在接收器板和冷板的开口之间气密密封。在至少一个实施例中,方法500可以包括进一步的步骤或包括参考步骤502的子步骤,即通过在冷板内提供热交换器回路或板以使冷却剂或制冷剂通过冷板。在至少一个实施例中,该进一步的步骤包括随后至少在附图标记510的步骤下或附图标记510的步骤之后的进一步步骤,使得冷却剂或制冷剂能够从流体吸收热量。在至少一个实施例中,方法500的步骤或子步骤提供冷板的接收器板,用于围绕至少一个计算组件的区域,使得接收器板通过接收器板下方的密封件可移除地密封到该区域,该接收器在其上还具有第一密封件。在至少一个实施例中,该步骤或子步骤进一步使第一密封件能够接收与冷板相关联的第二密封件,并且进一步使接收器板或冷板的主体上的至少一对突片能够将开口锁定到接收器板上。在至少一个实施例中,方法500可以包括进一步的步骤或包括参考步骤510的子步骤,用于使用与机架或承载至少一个计算组件的至少一个服务器相关联的至少一个流量控制器来使得冷板能够将流体接收到冷板中并将流体保持在冷板内。在至少一个实施例中,方法500可以包括进一步的步骤或包括子步骤来使用与机架或与托管至少一个计算组件的至少一个服务器相关联的至少一个流量控制器控制流体进入冷板的第一压力或流体在冷板内的第二压力。在至少一个实施例中,方法500可以包括进一步的步骤或子步骤,用于使用与服务器冷却回路相关联的至少一个歧管提供流体源和用于流体的冷板之间的路径;以及提供与辅助冷却回路相关联的辅助冷却歧管,以将冷却剂或制冷剂从冷却剂分配单元(CDU)传送到冷板内的热交换器。服务器和数据中心以下附图阐述了但不限于可以用于实现至少一个实施例的基于示例性网络服务器和数据中心的系统。图6示出了根据至少一个实施例的分布式系统600。在至少一个实施例中,分布式系统600包括一个或更多个客户端计算设备602、604、606和608,其被配置成在一个或更多个网络610上执行和操作客户端应用,诸如网络(web)浏览器、专有客户端和/或其变体。在至少一个实施例中,服务器612可以经由网络610与远程客户端计算设备602、604、606和608通信地耦合。在至少一个实施例中,服务器612可适于运行一个或更多个服务或软件应用,诸如可管理跨多个数据中心的单点登录(SSO)访问的会话活动的服务和应用。在至少一个实施例中,服务器612还可以提供其他服务,或者软件应用,其可以包括非虚拟和虚拟环境。在至少一个实施例中,这些服务可作为基于web的服务或云服务或在软件即服务(SaaS)模型下被提供给客户端计算设备602、604、606和/或608的用户。在至少一个实施例中,操作客户端计算设备602、604、606和/或608的用户又可以利用一个或更多个客户端应用来与服务器612交互以利用由这些组件提供的服务。在至少一个实施例中,系统600的软件组件618、620和622在服务器612上实现。在至少一个实施例中,系统600的一个或更多个组件和/或由这些组件提供的服务也可由客户端计算设备602、604、606和/或608中的一个或更多个来实现。在至少一个实施例中,操作客户端计算设备的用户然后可以利用一个或更多个客户端应用来使用由这些组件提供的服务。在至少一个实施例中,这些组件可以用硬件、固件、软件或其组合来实现。应当理解,各种不同的系统配置是可能的,其可以不同于分布式系统600。因此,图6所示的实施例是用于实现实施例系统的分布式系统的至少一个实施例,并且不旨在是限制性的。在至少一个实施例中,客户端计算设备602、604、606和/或608可以包括不同类型的计算系统。在至少一个实施例中,客户端计算设备可以包括便携式手持设备(例如,蜂窝电话、计算平板、个人数字助理(PDA))或可穿戴设备(例如,Google头戴式显示器),运行软件(如MicrosoftWindows)和/或各种移动操作系统(诸如iOS、WindowsPhone、Android、BlackBerry10、PalmOS和/或其变体)。在至少一个实施例中,设备可以支持不同应用,诸如不同互联网相关的应用、电子邮件、短消息服务(SMS)应用,并且可以使用各种其他通信协议。在至少一个实施例中,客户端计算设备还可以包括通用个人计算机,在至少一个实施例中,所述通用个人计算机包括运行各种版本的MicrosoftApple和/或Linux操作系统的个人计算机和/或膝上型计算机。在至少一个实施例中,客户端计算设备可以是运行各种可商购的或类似UNIX的操作系统中的任一种的工作站计算机,包括但不限于各种GNU/Linux操作系统,诸如GoogleChromeOS。在至少一个实施例中,客户端计算设备还可以包括能够通过一个或更多个网络610进行通信的电子设备,诸如瘦客户端计算机、启用互联网的游戏系统(例如,具有或不具有手势输入设备的微软Xbox游戏控制台)、和/或个人消息传递设备。尽管图6中的分布式系统600被示为具有四个客户端计算设备,但可支持任何数量的客户端计算设备。其他设备(诸如具有传感器的设备等)可与服务器612交互。在至少一个实施例中,分布式系统600中的网络610可以是能够使用各种可用协议中的任何协议来支持数据通信的任何类型的网络,包括但不限于TCP/IP(传输控制协议/互联网协议)、SNA(系统网络架构)、IPX(互联网分组交换)、AppleTalk和/或其变体。在至少一个实施例中,网络610可以是局域网(LAN),基于以太网的网络、令牌环、广域网、互联网、虚拟网络、虚拟专用网(VPN)、内联网、外联网、公共交换电话网络(PSTN)、红外网络、无线网络(例如,在电气与电子协会(IEEE)802.11协议组、和/或任何其他无线协议中的任一者下运行的网络),和/或这些和/或其他网络的任何组合。在至少一个实施例中,服务器612可以由一个或更多个通用计算机、专用服务器计算机(在至少一个实施例中,包括PC(个人计算机)服务器、服务器、中程服务器、大型计算机、机架式服务器等)、服务器农场、服务器集群或任何其他适当的布置和/或组合组成。在至少一个实施例中,服务器612可包括运行虚拟操作系统的一个或更多个虚拟机或涉及虚拟化的其他计算架构。在至少一个实施例中,可以虚拟化一个或更多个灵活的逻辑存储设备池,以便为服务器维护虚拟存储设备。在至少一个实施例中,虚拟网络可由服务器612使用软件定义的网络来控制。在至少一个实施例中,服务器612可适于运行一个或更多个服务或软件应用。在至少一个实施例中,服务器612可以运行任何操作系统,以及任何可商购的服务器操作系统。在至少一个实施例中,服务器612还可以运行各种附加服务器应用和/或中层应用中的任一种,包括HTTP(超文本传输协议)服务器、FTP(文件传输协议)服务器、CGI(公共网关接口)服务器、服务器、数据库服务器和/或其变体。在至少一个实施例中,示例性数据库服务器包括但不限于从Oracle、Microsoft、Sybase、IBM(国际商业机器)和/或其变体可商购的那些。在至少一个实施例中,服务器612可包括一个或更多个应用,用于分析和合并从客户端计算设备602、604、606和608的用户接收的数据馈送和/或事件更新。在至少一个实施例中,数据馈送和/或事件更新可以包括但不限于,从一个或更多个第三方信息源和连续数据流接收的馈送、更新或实时更新,其可以包括与传感器数据应用、金融报价器、网络性能测量工具(例如,网络监视和业务管理应用)相关的实时事件,点击流分析工具、汽车交通监测和/或其变化。在至少一个实施例中,服务器612还可以包括用于经由客户端计算设备602、604、606和608的一个或更多个显示设备来显示数据馈送和/或实时事件的一个或更多个应用。在至少一个实施例中,分布式系统600还可包括一个或更多个数据库614和616。在至少一个实施例中,数据库可提供用于存储信息(诸如用户交互信息、使用模式信息、适配规则信息和其他信息)的机制。在至少一个实施例中,数据库614和616可以驻留在各种位置中。在至少一个实施例中,数据库614和616中的一个或更多个可以驻留在服务器612本地(和/或驻留在服务器612中)的非暂态存储介质上。在至少一个实施例中,数据库614和616可以远离服务器612并且经由基于网络的连接或专用连接与服务器612通信。在至少一个实施例中,数据库614和616可以驻留在存储区域网络(SAN)中。在至少一个实施例中,用于执行归属于服务器612的功能的任何必要的文件可以适当地本地存储在服务器612上和/或远程存储。在至少一个实施例中,数据库614和616可以包括关系数据库,诸如适于响应于SQL格式化的命令而存储、更新和检索数据的数据库。图7示出了根据至少一个实施例的示例性数据中心700。在至少一个实施例中,数据中心700包括但不限于数据中心基础设施层710、框架层720、软件层730和应用层740。在至少一个实施例中,如图7所示,数据中心基础设施层710可以包括资源协调器712、分组的计算资源714和节点计算资源(“节点C.R.”)716(1)-716(N),其中“N”表示任何完整的正整数。在至少一个实施例中,节点C.R.716(1)-716(N)可以包括但不限于任意数量的中央处理单元(“CPU”)或其他处理器(包括加速器、现场可编程门阵列(“FPGA”)、图形处理器等)、存储器设备(例如,动态只读存储器)、存储设备(例如,固态硬盘或磁盘驱动器)、网络输入/输出(“NWI/O”)设备、网络交换机、虚拟机(“VM”)、功率模块和冷却模块等。在至少一个实施例中,节点C.R.716(1)-716(N)中的一个或更多个节点C.R.可以是具有一个或更多个上述计算资源的服务器。在至少一个实施例中,分组的计算资源714可以包括容纳在一个或更多个机架内的节点C.R.的单独分组(未示出),或者容纳在各个地理位置的数据中心内的许多机架(也未示出)。分组的计算资源714内的节点C.R.的单独分组可以包括可以被配置或分配为支持一个或更多个工作负载的分组的计算、网络、存储器或存储资源。在至少一个实施例中,可以将包括CPU或处理器的几个节点C.R.分组在一个或更多个机架内,以提供计算资源来支持一个或更多个工作负载。在至少一个实施例中,一个或更多个机架还可以包括任意数量的电源模块、冷却模块和网络交换机,以任意组合。在至少一个实施例中,资源协调器712可以配置或以其他方式控制一个或更多个节点C.R.716(1)-716(N)和/或分组的计算资源714。在至少一个实施例中,资源协调器712可以包括用于数据中心700的软件设计基础结构(“SDI”)管理实体。在至少一个实施例中,资源协调器712可以包括硬件、软件或其某种组合。在至少一个实施例中,如图7所示,框架层720包括但不限于作业调度器732、配置管理器734、资源管理器736和分布式文件系统738。在至少一个实施例中,框架层720可以包括支持软件层730的软件752和/或应用程序层740的一个或更多个应用程序742的框架。在至少一个实施例中,软件752或应用程序742可以分别包括基于Web的服务软件或应用程序,例如由AmazonWebServices、GoogleCloud和MicrosoftAzure提供的服务或应用程序。在至少一个实施例中,框架层720可以是但不限于一种免费和开放源软件网络应用框架,例如可以利用分布式文件系统738来进行大范围数据处理(例如“大数据”)的ApacheSparkTM(以下称为“Spark”)。在至少一个实施例中,作业调度器732可以包括Spark驱动器,以促进对数据中心700的各个层所支持的工作负载进行调度。在至少一个实施例中,配置管理器734可以能够配置不同的层,例如软件层730和包括Spark和用于支持大规模数据处理的分布式文件系统738的框架层720。在至少一个实施例中,资源管理器736能够管理映射到或分配用于支持分布式文件系统738和作业调度器732的集群或分组计算资源。在至少一个实施例中,集群或分组计算资源可以包括数据中心基础设施层710上的分组的计算资源714。在至少一个实施例中,资源管理器736可以与资源协调器712协调以管理这些映射的或分配的计算资源。在至少一个实施例中,包括在软件层730中的软件752可以包括由节点C.R.716(1)-716(N)的至少一部分,分组计算资源714和/或框架层720的分布式文件系统738使用的软件。一种或更多种类型的软件可以包括但不限于Internet网页搜索软件、电子邮件病毒扫描软件、数据库软件和流视频内容软件。在至少一个实施例中,应用层740中包括的一个或更多个应用程序742可以包括由节点C.R.716(1)-716(N)的至少一部分、分组的计算资源714和/或框架层720的分布式文件系统738使用的一种或更多种类型的应用程序。一种或更多种类型的应用程序可以包括但不限于CUDA应用程序、5G网络应用程序、人工智能应用程序、数据中心应用程序、和/或其变体。在至少一个实施例中,配置管理器734、资源管理器736和资源协调器712中的任何一个可以基于以任何技术上可行的方式获取的任意数量和类型的数据来实现任意数量和类型的自我修改动作。在至少一个实施例中,自我修改动作可以减轻数据中心700的数据中心操作员做出可能不好的配置决定并且可以避免数据中心的未充分利用和/或执行差的部分。图8示出了根据至少一个实施例的由互连的多个网络服务器计算机802形成的客户端-服务器网络804。在至少一个实施例中,每个网络服务器计算机802存储其他网络服务器计算机802和链接到广域网804中的客户端计算机806和网络808可访问的数据。在至少一个实施例中,当客户端计算机806和一个或更多个网络808与网络804连接和断开连接时,以及当一个或更多个干线服务器计算机802被添加到网络804或从网络804移除时,客户端-服务器网络804的配置可随时间改变。在至少一个实施例中,当客户端计算机806和网络808与网络服务器计算机802连接时,客户端-服务器网络包括这样的客户端计算机806和网络808。在至少一个实施例中,术语计算机包括能够接受数据、将规定的过程应用于数据以及提供过程的结果的任何设备或机器。在至少一个实施例中,客户端-服务器网络804存储网络服务器计算机802、远程网络808和客户端计算机806可访问的信息。在至少一个实施例中,网络服务器计算机802由大型计算机、小型计算机和/或各自具有一个或更多个处理器的微型计算机形成。在至少一个实施例中,服务器计算机802通过有线和/或无线传输介质(诸如导线、光纤电缆)和/或微波传输介质、卫星传输介质或其他导电、光学或电磁波传输介质链接在一起。在至少一个实施例中,客户端计算机806通过类似的有线或无线传输介质访问网络服务器计算机802。在至少一个实施例中,客户端计算机806可以使用调制解调器和标准电话通信网络链接到客户端-服务器网络804中。在至少一个实施例中,替代性的运营商系统(如电缆和卫星通信系统)还可以用于链接到客户端-服务器网络804中。在至少一个实施例中,可以使用其他私有或时间共享的运营商系统。在至少一个实施例中,网络804是全球信息网络,诸如互联网。在至少一个实施例中,网络是使用与互联网类似的协议但具有添加的安全措施和受限的访问控制的私有内联网。在至少一个实施例中,网络804是使用专有通信协议的私有或半私有网络。在至少一个实施例中,客户端计算机806是任何终端用户计算机,并且还可以是具有一个或更多个微处理器的大型计算机、小型计算机或微型计算机。在至少一个实施例中,服务器计算机802有时可用作访问另一服务器计算机802的客户端计算机。在至少一个实施例中,远程网络808可以是局域网、通过用于互联网的独立服务提供商(ISP)被添加到广域网中的网络、或通过具有固定的或随时间改变的配置的有线或无线传输介质互连的另一组计算机。在至少一个实施例中,客户端计算机806可以独立地或通过远程网络808链接到网络804中并且访问网络804。图9示出了根据至少一个实施例的连接一个或更多个计算机器的计算机网络908。在至少一个实施例中,网络908可以是任何类型的电连接的计算机组,包括例如以下网络:互联网、内联网、局域网(LAN)、广域网(WAN)或这些网络类型的互连组合。在至少一个实施例中,网络908内的连接可以是远程调制解调器、以太网(IEEE802.3)、令牌环(IEEE802.5)、光纤分布式数据链路接口(FDDI)、异步传输模式(ATM)或任何其他通信协议。在至少一个实施例中,链接到网络的计算设备可以是台式机、服务器、便携式、手持式、机顶盒、个人数字助理(PDA)、终端、或任何其他期望的类型或配置。在至少一个实施例中,取决于它们的功能性,网络连接的设备可以在处理能力、内部存储器和其他性能方面广泛地变化。在至少一个实施例中,网络内的通信以及去往或来自连接到网络的计算设备的通信可以是有线或无线的。在至少一个实施例中,网络908可以至少部分地包括世界范围的公共互联网,其通常根据客户端-服务器模型根据传输控制协议/互联网协议(TCP/IP)规范连接多个用户。在至少一个实施例中,客户端-服务器网络是用于在两个计算机之间通信的主导模型。在至少一个实施例中,客户端计算机(“客户端”)向服务器计算机(“服务器”)发出一个或更多个命令。在至少一个实施例中,服务器通过访问可用网络资源并根据客户端命令向客户端返回信息来履行客户端命令。在至少一个实施例中,客户端计算机系统和驻留在网络服务器上的网络资源被分配网络地址,用于网络的元件之间的通信期间的识别。在至少一个实施例中,从其他网络连接的系统到服务器的通信将包括作为通信的一部分的相关服务器/网络资源的网络地址,使得数据/请求的适当目的地被识别为接收者。在至少一个实施例中,当网络908包括全球互联网时,网络地址是TCP/IP格式的IP地址,其可至少部分地将数据路由到电子邮件账户、网站或驻留在服务器上的其他互联网工具。在至少一个实施例中,驻留在网络服务器上的信息和服务可以通过域名(例如www.site.com)(其映射到网络服务器的IP地址)对客户端计算机的web浏览器可用。在至少一个实施例中,多个客户端902、904和906经由相应的通信链路连接至网络908。在至少一个实施例中,这些客户端中的每一个可以经由任何期望形式的通信(诸如经由拨号调制解调器连接、电缆链路、数字用户线(DSL)、无线或卫星链路、或任何其他形式的通信)来访问网络908。在至少一个实施例中,每个客户端可以使用与网络908兼容的任何机器(例如,个人计算机(PC)、工作站、专用终端、个人数据助理(PDA)或其他类似的设备)进行通信。在至少一个实施例中,客户端902、904和906可以位于或可以不位于相同的地理区域中。在至少一个实施例中,多个服务器910、912和914连接到网络918以服务于与网络918通信的客户端。在至少一个实施例中,每个服务器通常是管理网络资源并对客户端命令作出响应的强大的计算机或设备。在至少一个实施例中,服务器包括存储程序指令和数据的计算机可读数据存储介质,诸如硬盘驱动器和RAM存储器。在至少一个实施例中,服务器910、912、914运行响应于客户端命令的应用程序。在至少一个实施例中,服务器910可以运行用于响应对HTML页面的客户端请求的web服务器应用,并且还可以运行用于接收和路由电子邮件的邮件服务器应用。在至少一个实施例中,在服务器910上还可以运行其他应用程序,诸如用于将音频/视频数据流式传输至客户端的FTP服务器或媒体服务器。在至少一个实施例中,不同的服务器可以专用于执行不同的任务。在至少一个实施例中,服务器910可以是为不同用户管理与网站相关的资源的专用web服务器,而服务器912可以专用于提供电子邮件(email)管理。在至少一个实施例中,其他服务器可以专用于媒体(音频、视频等)、文件传输协议(FTP)或通常通过网络可用或提供的任何两个或更多个服务的组合。在至少一个实施例中,每个服务器可以在与其他服务器的位置相同或不同的位置中。在至少一个实施例中,可存在为用户执行镜像任务的多个服务器,从而减轻拥塞或最小化定向到和来自单个服务器的流量。在至少一个实施例中,服务器910、912、914在维护和通过网络918递送第三方内容的业务中的web托管提供者的控制下。在至少一个实施例中,web托管提供商向两个不同类型的客户端递送服务。在至少一个实施例中,可被称为浏览器的一种类型从服务器910、912、914请求内容,诸如网页、电子邮件消息、视频剪辑等。在至少一个实施例中,第二类型(其可以被称为用户)雇佣web托管提供商来维护网络资源(诸如网站)并使其可用于浏览器。在至少一个实施例中,用户与web托管提供商签订合同,以根据用户期望利用的服务器资源的量使存储器空间、处理器容量和通信带宽可用于他们期望的网络资源。在至少一个实施例中,为了使web托管提供商为这两个客户端提供服务,必须适当地配置管理由服务器托管的网络资源的应用程序。在至少一个实施例中,程序配置过程涉及定义参数集,所述参数集至少部分地控制应用程序对浏览器请求的响应,并且还至少部分地定义特定用户可用的服务器资源。在一个实施例中,内联网服务器916经由通信链路与网络908通信。在至少一个实施例中,内联网服务器916与服务器管理器918通信。在至少一个实施例中,服务器管理器918包括在服务器910、912、914中使用的应用程序配置参数的数据库。在至少一个实施例中,用户经由内联网916修改数据库920,并且服务器管理器918与服务器910、912、914交互以修改应用程序参数,使得它们匹配数据库的内容。在至少一个实施例中,用户通过经由计算机902连接到内联网916并且输入诸如用户名和密码之类的认证信息来登录到内联网916。在至少一个实施例中,当用户希望登录新服务或修改现有服务时,内联网服务器916对用户进行认证并向用户提供允许用户访问特定应用程序的配置参数的交互式屏幕显示/控制面板。在至少一个实施例中,向用户呈现描述用户的网站或其他网络资源的配置的方面的多个可修改文本框。在至少一个实施例中,如果用户期望增加在服务器上为其网站保留的存储器空间,则向用户提供其中用户指定期望的存储器空间的字段。在至少一个实施例中,响应于接收到该信息,内联网服务器916更新数据库920。在至少一个实施例中,服务器管理器918将该信息转发到适当的服务器,并且在应用程序操作期间使用新的参数。在至少一个实施例中,内联网服务器916被配置为向用户提供对用户已与web托管服务提供商签订的托管网络资源(例如,网页、电子邮件、FTP站点、媒体站点等)的配置参数的访问。图10A示出了根据至少一个实施例的联网计算机系统1000A。在至少一个实施例中,联网计算机系统1000A包括多个节点或个人计算机(“PC”)1002、1018、1020。在至少一个实施例中,个人计算机或节点1002包括处理器1014、存储器1016、摄像机1004、麦克风1006、鼠标1008、扬声器1010和监视器1012。在至少一个实施例中,PC1002、1018、1020可以各自运行例如给定公司内的内部网络的一个或更多个桌面服务器,或者可以是不限于特定环境的通用网络的服务器。在至少一个实施例中,网络的每PC节点有一个服务器,使得网络的每个PC节点表示具有特定网络URL地址的特定网络服务器。在至少一个实施例中,每个服务器默认为该服务器的用户的默认网页,该默认网页本身可包含指向该服务器上该用户的进一步子页面、或者指向网络上的其他服务器或其他服务器上的页面的嵌入式URL。在至少一个实施例中,节点1002、1018、1020和网络的其他节点经由介质1022互连。在至少一个实施例中,介质1022可以是诸如综合服务数字网(“ISDN”)的通信信道。在至少一个实施例中,联网计算机系统的各个节点可以通过各种通信介质连接,包括局域网(“LAN”)、简易老式电话线(“POTS”)(有时被称为公共交换电话网络(“PSTN”))、和/或其变体。在至少一个实施例中,网络的各个节点还可以构成经由诸如互联网之类的网络互连的计算机系统用户。在至少一个实施例中,(在给定实例处从网络的特定节点运行的)网络上的每个服务器在网络内具有唯一地址或标识,该唯一地址或标识可以根据URL指定。在至少一个实施例中,多个多点会议单元(“MCU”)因此可以用于向会议系统的各个节点或“端点”和从会议系统的各个节点或“端点”传输数据。在至少一个实施例中,除了各种其他通信介质(诸如,通过互联网连接的节点)之外,节点和/或MCU可经由ISDN链路或通过局域网(“LAN”)互连。在至少一个实施例中,会议系统的节点通常可以直接连接到通信介质(诸如LAN)或通过MCU连接,并且会议系统可以包括其他节点或元件,诸如路由器、服务器和/或其变体。在至少一个实施例中,处理器1014是通用可编程处理器。在至少一个实施例中,联网计算机系统1000A的节点的处理器还可以是专用视频处理器。在至少一个实施例中,节点的不同外围设备和组件(诸如节点1002的那些)可以与其他节点的那些不同。在至少一个实施例中,节点1018和节点1020可以被配置为与节点1002相同或不同。在至少一个实施例中,除了PC系统之外,节点还可以在任何合适的计算机系统上实现。图10B示出了根据至少一个实施例的联网计算机系统1000B。在至少一个实施例中,系统1000B示出了网络(诸如LAN1024),该网络可以用于互连可以彼此通信的各种节点。在至少一个实施例中,附接到LAN1024的是多个节点,诸如PC节点1026、1028、1030。在至少一个实施例中,节点还可经由网络服务器或其他装置连接到LAN。在至少一个实施例中,系统1000B包括其他类型的节点或元件,针对至少一个实施例,其包括路由器、服务器和节点。图10C示出根据至少一个实施例的联网计算机系统1000C。在至少一个实施例中,系统1000C示出了具有跨主干通信网络(诸如互联网1032)的通信的WWW系统,主干通信网络可用于互连网络的各种节点。在至少一个实施例中,WWW是在互联网的顶部上操作的一组协议,并且允许图形界面系统在其上操作以便通过互联网访问信息。在至少一个实施例中,附接到WWW中的互联网1032的是多个节点,例如PC1040、1042、1044。在至少一个实施例中,节点通过WWWHTTP服务器(诸如服务器1034、1036)与WWW的其他节点对接。在至少一个实施例中,PC1044可以是形成网络1032的节点的PC,并且PC1044本身运行它的服务器1036,尽管为了说明的目的在图10C中单独地示出PC1044和服务器1036。在至少一个实施例中,WWW是一种分布式类型的应用程序,其特征为WWWHTTP、WWW的协议,它在互联网的传输控制协议/互联网协议(“TCP/IP”)的顶部上运行。在至少一个实施例中,WWW因此可以由在互联网上运行的一组协议(即,HTTP)作为其“主干”来表征。在至少一个实施例中,web浏览器是在兼容WWW类型的网络系统中在网络的节点上运行的应用程序,其允许特定服务器或节点的用户查看这样的信息,并因此允许用户搜索使用嵌入在从理解HTTP的网络上的服务器可获得的文档或文件中的超文本链接链接在一起的图形和基于文本的文件。在至少一个实施例中,当用户使用诸如互联网之类的网络上的另一服务器来检索与第一节点相关联的第一服务器的给定网页时,所检索到的文档可具有嵌入在其中的不同超文本链接,并且在检索用户的本地创建页面的本地副本。在至少一个实施例中,当用户点击超文本链接时,与所选择的超文本链接相关的本地存储的信息通常足以允许用户的机器打开通过互联网到由超文本链接指示的服务器的连接。在至少一个实施例中,多于一个用户可通过LAN(诸如LAN1038,诸如关于WWWHTTP服务器1034所示)耦合到每个HTTP服务器。在至少一个实施例中,系统1000C还可以包括其他类型的节点或元件。在至少一个实施例中,WWWHTTP服务器是在诸如PC的机器上运行的应用。在至少一个实施例中,每个用户可以被认为具有唯一的“服务器”,如关于PC1044所示。在至少一个实施例中,服务器可以被认为是诸如WWWHTTP服务器1034之类的服务器,该服务器为LAN或多个节点或多个LAN提供对网络的访问。在至少一个实施例中,存在多个用户,每个用户具有台式PC或网络的节点,每个台式PC潜在地为其用户建立服务器。在至少一个实施例中,每个服务器与特定网络地址或URL相关联,当被访问时,该特定网络地址或URL为该用户提供默认网页。在至少一个实施例中,网页可以包含进一步的链接(嵌入式URL),其指向该服务器上的该用户的进一步的子页面,或者指向网络上的其他服务器或者指向网络上的其他服务器上的页面。云计算和服务以下附图阐述但不限于可以用于实现至少一个实施例的示例性的基于云的系统。在至少一个实施例中,云计算是一种计算风格,其中动态可扩展和通常虚拟化的资源作为服务通过互联网来提供。在至少一个实施例中,用户不需要具有支持他们的技术基础设施的知识、技术基础设施的专业知识或对技术基础设施的控制,该技术基础设施可以被称为“在云中”。在至少一个实施例中,云计算将基础设施合并为服务、平台即服务、软件即服务、以及具有依赖于互联网的常见主题以满足用户的计算需求的其他变型。在至少一个实施例中,典型的云部署(诸如在私有云(例如,企业网络)中)或公共云(例如,互联网)中的数据中心(DC)可由数千个服务器(或可替代地,VM)、数百个以太网、光纤信道或以太网光纤信道(FCoE)端口、交换和存储基础设施等组成。在至少一个实施例中,云还可以由网络服务基础设施组成,如IPsecVPN集线器、防火墙、负载平衡器、广域网(WAN)优化器等。在至少一个实施例中,远程订户可以通过经由VPN隧道(如IPsecVPN隧道)连接来安全地访问云应用和服务。在至少一个实施例中,云计算是一种用于使能对可配置计算资源(例如,网络、服务器、存储装置、应用程序和服务)的共享池的方便、按需的网络访问的模型,所述可配置计算资源可以用最小的管理努力或服务提供商交互来快速配置和释放。在至少一个实施例中,云计算的特征在于按需自助服务,其中消费者可根据需要自动地单方面供应计算能力,诸如服务器时间和网络存储,而无需与每个服务提供商的人类互动。在至少一个实施例中,云计算的特征在于广泛的网络访问,其中能力在网络上可用并且通过标准机制来访问,所述标准机制促进由异构的瘦或厚客户端平台(例如,移动电话、膝上型计算机和PDA)的使用。在至少一个实施例中,云计算的特征在于资源池,其中提供商的计算资源被池化以使用多租户模型服务于多个消费者,其中不同的物理和虚拟资源根据消费者需求被动态地签名和重新分配。在至少一个实施例中,存在位置独立性的感觉,因为消费者通常对所提供的资源的确切位置没有控制或知识,但可能能够在较高抽象级别(例如,国家、州或数据中心)指定位置。在至少一个实施例中,资源包括存储、处理、存储器、网络带宽和虚拟机。在至少一个实施例中,云计算的特征在于快速弹性,其中能力可被快速且弹性地供应(在一些情况下是自动地),以快速缩小和快速释放以快速放大。在至少一个实施例中,对于消费者,可用于供应的能力通常显得不受限制并且可以在任何时间以任何数量购买。在至少一个实施例中,云计算由测量的服务来表征,其中云系统通过在适合于服务类型(例如,存储、处理、带宽和活动用户账户)的某种抽象级别处利用计量能力来自动地控制和优化资源使用。在至少一个实施例中,资源使用可以被监控、控制和报告,从而为所利用的服务的提供商和消费者两者提供透明度。在至少一个实施例中,云计算可与各种服务相关联。在至少一个实施例中,云软件即服务(SaaS)可以指代提供给消费者的能力是使用在云基础设施上运行的提供商的应用的服务。在至少一个实施例中,应用可通过诸如web浏览器(例如,基于web的电子邮件)的瘦客户端接口从不同客户端设备访问。在至少一个实施例中,消费者不管理或控制包括网络、服务器、操作系统、存储或甚至各个应用能力的底层云基础结构,可能的例外是有限的用户特定的应用配置设置。在至少一个实施例中,云平台即服务(PaaS)可以指这样的服务:其中提供给消费者的能力是将消费者创建或获取的应用程序部署到云基础设施上,这些应用程序是使用由提供商支持的编程语言和工具创建的。在至少一个实施例中,消费者不管理或控制包括网络、服务器、操作系统或存储的底层云基础结构,但是具有对所部署的应用程序以及可能的应用托管环境配置的控制。在至少一个实施例中,云基础设施即服务(IaaS)可以指这样的服务:其中向消费者提供的能力是提供处理、存储、网络和消费者能够部署和运行可包括操作系统和应用的任意软件的其他基本计算资源。在至少一个实施例中,消费者不管理或控制底层云基础设施,而是具有对操作系统、存储、所部署的应用程序的控制,以及对选择的联网组件(例如,主机防火墙)的可能有限的控制。在至少一个实施例中,可以不同方式部署云计算。在至少一个实施例中,私有云可指仅针对组织操作的云基础设施。在至少一个实施例中,私有云可由组织或第三方管理,并且可存在于场所内或场所外。在至少一个实施例中,社区云可以指由若干组织共享并且支持具有共享关注(例如,任务、安全要求、策略和合规性考虑)的特定社区的云基础设施。在至少一个实施例中,社区云可由组织或第三方管理,并且可存在于场所内或场所外。在至少一个实施例中,公共云可以指代对一般公众或大型产业组可用并且由提供云服务的组织拥有的云基础设施。在至少一个实施例中,混合云可以指云基础设施是两个或更多个云(私有、社区或公共的)的组成部分,这些云仍然是唯一的实体,但是通过实现数据和应用便携性的标准化或专有技术(例如,用于云之间的负载平衡的云突发)绑定在一起。在至少一个实施例中,云计算环境是面向服务的,其关注于无状态性、低耦合、模块性和语义互操作性。图11示出根据至少一个实施例的系统环境1100的一个或更多个组件,其中服务可被提供为第三方网络服务。在至少一个实施例中,第三方网络可被称为云、云网络、云计算网络和/或其变体。在至少一个实施例中,系统环境1100包括一个或更多个客户端计算设备1104、1106和1108,客户端计算设备1104、1106和1108可被用户用来与提供第三方网络服务(其可被称为云计算服务)的第三方网络基础设施系统1102交互。在至少一个实施例中,第三方网络基础设施系统1102可包括一个或更多个计算机和/或服务器。应了解,图11中所描绘的第三方网络基础设施系统1102可具有除了所描绘的那些组件之外的其他组件。进一步地,图11描绘了第三方网络基础设施系统的实施例。在至少一个实施例中,第三方网络基础设施系统1102可具有比图11中描绘的更多或更少的组件,可组合两个或更多个组件,或可具有不同的组件配置或布置。在至少一个实施例中,客户端计算设备1104、1106和1108可被配置成操作客户端应用,诸如web浏览器,可由客户端计算设备的用户用来与第三方网络基础设施系统1102交互以使用由第三方网络基础设施系统1102提供的服务的专有客户端应用或一些其他应用。尽管示例性系统环境1100被示为具有三个客户端计算设备,但是可以支持任何数量的客户端计算设备。在至少一个实施例中,其他设备,诸如具有传感器的设备等,可与第三方网络基础设施系统1102交互。在至少一个实施例中,一个或更多个网络1110可以促进客户端计算设备1104、1106和1108与第三方网络基础设施系统1102之间的通信和数据交换。在至少一个实施例中,由第三方网络基础设施系统1102提供的服务可包括按需可用于第三方网络基础设施系统的用户的服务的主机。在至少一个实施例中,还可以提供各种服务,包括但不限于在线数据存储和备份解决方案、基于Web的电子邮件服务、托管的办公套件和文档协作服务、数据库管理和处理、管理的技术支持服务、和/或其变体。在至少一个实施例中,由第三方网络基础设施系统提供的服务可以动态地扩展以满足其用户的需要。在至少一个实施例中,由第三方网络基础设施系统1102提供的服务的特定实例化可被称为“服务实例”。在至少一个实施例中,通常,经由通信网络(诸如互联网)从第三方网络服务提供商系统对用户可用的任何服务被称为“第三方网络服务”。在至少一个实施例中,在公共第三方网络环境中,组成第三方网络服务提供商系统的服务器和系统不同于客户自己的场所内服务器和系统。在至少一个实施例中,第三方网络服务提供商系统可以托管应用,并且用户可以经由通信网络(诸如互联网)按需订购和使用应用。在至少一个实施例中,计算机网络第三方网络基础设施中的服务可包括对存储、托管数据库、托管网络服务器、软件应用或由第三方网络供应商提供给用户的其他服务的受保护的计算机网络访问。在至少一个实施例中,服务可包括通过互联网对第三方网络上的远程存储装置的密码保护的访问。在至少一个实施例中,服务可以包括基于网络服务的托管关系数据库和脚本语言中间件引擎,以便由联网开发者私人使用。在至少一个实施例中,服务可包括对托管在第三方网络供应商的网站上的电子邮件软件应用的访问。在至少一个实施例中,第三方网络基础设施系统1102可包括以自助、基于订阅、可弹性扩展、可靠、高度可用和安全方式递送给客户的一套应用、中间件和数据库服务提供物。在至少一个实施例中,第三方网络基础设施系统1102还可以提供“大数据”相关的计算和分析服务。在至少一个实施例中,术语“大数据”通常用于指可以由分析师和研究人员存储和操纵的极大数据集,以便使大量数据可视化、检测趋势、和/或以其他方式与数据交互。在至少一个实施例中,大数据和相关应用可以由基础设施系统在许多级别上和以不同规模托管和/或操纵。在至少一个实施例中,并行链接的数十个、数百个或数千个处理器可对此类数据起作用以便呈现该数据或模拟对数据或其所表示的内容的外力。在至少一个实施例中,这些数据集可涉及结构化数据(诸如在数据库中或以其他方式根据结构化模型组织的结构化数据)和/或非结构化数据(例如,电子邮件、图像、数据blob(二进制大对象)、网页、复杂事件处理)。在至少一个实施例中,通过利用实施例的能力来将更多(或更少)计算资源相对快速地聚焦到目标上,第三方网络基础设施系统可以更好地可用于基于来自企业、政府机构、研究组织、私人个人、想法相同的个人或组织的组、或其他实体的需求在大数据集上执行任务。在至少一个实施例中,第三方网络基础设施系统1102可以被适配成自动地提供、管理和跟踪顾客对由第三方网络基础设施系统1102提供的服务的订阅。在至少一个实施例中,第三方网络基础设施系统1102可以经由不同的部署模型提供第三方网络服务。在至少一个实施例中,可在公共第三方网络模型下提供服务,其中第三方网络基础设施系统1102由销售第三方网络服务的组织拥有,并且使得服务可用于一般公众或不同的行业企业。在至少一个实施例中,可在私有第三方网络模型下提供服务,在该私有第三方网络模型中,第三方网络基础设施系统1102仅针对单个组织操作,并且可为组织内的一个或更多个实体提供服务。在至少一个实施例中,第三方网络服务也可在社区第三方网络模型下提供,其中第三方网络基础设施系统1102和第三方网络基础设施系统1102提供的服务由相关社区中的若干组织共享。在至少一个实施例中,也可在混合第三方网络模型下提供第三方网络服务,该混合第三方网络模型是两个或更多个不同模型的组合。在至少一个实施例中,由第三方网络基础设施系统1102提供的服务可包括在软件即服务(SaaS)类别、平台即服务(PaaS)类别、基础设施即服务(IaaS)类别或包括混合服务的其他服务类别下提供的一个或更多个服务。在至少一个实施例中,客户经由订阅订单可订购由第三方网络基础设施系统1102提供的一个或更多个服务。在至少一个实施例中,第三方网络基础设施系统1102然后执行处理以在客户的订阅订单中提供服务。在至少一个实施例中,由第三方网络基础设施系统1102提供的服务可以包括但不限于应用服务、平台服务和基础设施服务。在至少一个实施例中,应用服务可由第三方网络基础设施系统经由SaaS平台提供。在至少一个实施例中,SaaS平台可被配置为提供属于SaaS类别的第三方网络服务。在至少一个实施例中,SaaS平台可以提供在集成开发和部署平台上构建并递送一套按需应用的能力。在至少一个实施例中,SaaS平台可以管理和控制用于提供SaaS服务的底层软件和基础设施。在至少一个实施例中,通过利用由SaaS平台提供的服务,客户可利用在第三方网络基础设施系统上执行的应用。在至少一个实施例中,客户可以获得应用服务,而不需要客户购买单独的许可证和支持。在至少一个实施例中,可提供各种不同的SaaS服务。在至少一个实施例中,这可以包括但不限于为大组织的销售性能管理、企业集成和商业灵活性提供解决方案的服务。在至少一个实施例中,平台服务可由第三方网络基础设施系统1102经由PaaS平台提供。在至少一个实施例中,PaaS平台可被配置为提供属于PaaS类别的第三方网络服务。在至少一个实施例中,平台服务可以包括但不限于使组织能够将现有应用合并在共享的公共架构上的服务,以及建立利用由平台提供的共享服务的新应用的能力。在至少一个实施例中,PaaS平台可以管理和控制用于提供PaaS服务的底层软件和基础设施。在至少一个实施例中,客户可获取由第三方网络基础设施系统1102提供的PaaS服务,而无需客户购买单独的许可证和支持。在至少一个实施例中,通过利用由PaaS平台提供的服务,客户可采用由第三方网络基础设施系统支持的编程语言和工具,并且还控制所部署的服务。在至少一个实施例中,由第三方网络基础设施系统提供的平台服务可包括数据库第三方网络服务、中间件第三方网络服务和第三方网络服务。在至少一个实施例中,数据库第三方网络服务可支持共享服务部署模型,所述共享服务部署模型使组织能够汇聚数据库资源并以数据库第三方网络的形式向客户提供数据库即服务。在至少一个实施例中,在第三方网络基础设施系统中,中间件第三方网络服务可以为客户提供平台以开发和部署不同业务应用,并且第三方网络服务可以为客户提供平台以部署应用。在至少一个实施例中,各种不同的基础设施服务可由第三方网络基础设施系统中的IaaS平台提供。在至少一个实施例中,基础设施服务促进利用由SaaS平台和PaaS平台提供的服务的客户对底层计算资源(诸如存储、网络和其他基础计算资源)的管理和控制。在至少一个实施例中,第三方网络基础设施系统1102还可包括用于提供用于向第三方网络基础设施系统的客户提供各种服务的资源的基础设施资源1130。在至少一个实施例中,基础设施资源1130可包括硬件(诸如服务器、存储和联网资源)的预集成和优化的组合,用于执行由PaaS平台和SaaS平台提供的服务和其他资源。在至少一个实施例中,第三方网络基础设施系统1102中的资源可由多个用户共享并且按照需求动态地重新分配。在至少一个实施例中,可以向不同时区中的用户分配资源。在至少一个实施例中,第三方网络基础设施系统1102可以使得第一时区中的第一组用户能够利用第三方网络基础设施系统的资源持续指定小时数,并且随后使得能够将相同资源重新分配给位于不同时区中的另一组用户,从而使资源利用率最大化。在至少一个实施例中,可提供由第三方网络基础设施系统1102的不同组件或模块共享的多个内部共享服务1132,用于实现由第三方网络基础设施系统1102提供服务。在至少一个实施例中,这些内部共享服务可包括但不限于安全和身份服务、集成服务、企业库服务、企业管理器服务、病毒扫描和白名单服务、高可用性、备份和恢复服务、用于使能第三方网络支持的服务、电子邮件服务、通知服务、文件传输服务和/或其变体。在至少一个实施例中,第三方网络基础设施系统1102可在第三方网络基础设施系统中提供第三方网络服务(例如,SaaS、PaaS和IaaS服务)的全面管理。在至少一个实施例中,第三方网络管理功能可包括用于供应、管理和跟踪由第三方网络基础设施系统1102接收的客户的订阅的能力和/或其变体。在至少一个实施例中,如图11所示,第三方网络管理功能可以由一个或更多个模块提供,诸如订单管理模块1120、订单协调模块1122、订单供应模块1124、订单管理和监控模块1126和身份管理模块1128。在至少一个实施例中,这些模块可包括一个或更多个计算机和/或服务器或使用一个或更多个计算机和/或服务器来提供,所述一个或更多个计算机和/或服务器可以是通用计算机、专用服务器计算机、服务器农场、服务器集群或任何其他适当的布置和/或组合。在至少一个实施例中,在步骤1134,使用客户端设备(诸如客户端计算设备1104、1106或1108)的客户可通过请求由第三方网络基础设施系统1102提供的一个或更多个服务并对由第三方网络基础设施系统1102提供的一个或更多个服务的订阅下订单来与第三方网络基础设施系统1102交互。在至少一个实施例中,客户可访问第三方网络用户界面(UI),诸如第三方网络UI1112、第三方网络UI1114和/或第三方网络UI1116,并经由这些UI进行订购订单。在至少一个实施例中,由第三方网络基础设施系统1102响应于客户下订单而接收的订单信息可包括识别客户和由第三方网络基础设施系统1102提供的、客户想要订阅的一个或更多个服务的信息。在至少一个实施例中,在步骤1136,从客户接收的订单信息可存储在订单数据库1118中。在至少一个实施例中,如果这是新订单,则可以为订单创建新记录。在至少一个实施例中,订单数据库1118可以是由第三方网络基础设施系统1118操作的并且结合其他系统元件操作的若干数据库之一。在至少一个实施例中,在步骤1138,可以将订单信息转发到订单管理模块1120,该订单管理模块可以被配置成执行与订单相关的计费和记账功能,诸如验证订单,并且在验证后,预订一订单。在至少一个实施例中,在步骤1140,关于订单的信息可被传送到订单协调模块1122,该订单协调模块1122被配置为针对由客户下的订单协调服务和资源的供应。在至少一个实施例中,订单协调模块1122可以使用订单供应模块1124的服务进行供应。在至少一个实施例中,订单协调模块1122使得能够管理与每个订单相关联的业务过程,并且应用业务逻辑来确定订单是否应继续供应。在至少一个实施例中,在步骤1142,当接收到新订阅的订单时,订单协调模块1122向订单供应模块1124发送分配资源和配置满足订阅订单所需的资源的请求。在至少一个实施例中,订单供应模块1124实现针对由客户订购的服务的资源分配。在至少一个实施例中,订单供应模块1124提供由第三方网络基础设施系统1100提供的第三方网络服务与用于供应用于提供所请求的服务的资源的物理实现层之间的抽象级别。在至少一个实施例中,这使得订单协调模块1122能够与实现细节隔离,诸如服务和资源实际上是实时供应的,还是预先供应的并且仅在请求时分配/指派。在至少一个实施例中,在步骤1144,一旦服务和资源被供应,可以向订阅客户发送指示所请求的服务现在准备好使用的通知。在至少一个实施例中,信息(例如,链接)可以被发送到客户,其使客户能够开始使用所请求的服务。在至少一个实施例中,在步骤1146,客户订阅的订单可由订单管理和监控模块1126管理和跟踪。在至少一个实施例中,订单管理和监控模块1126可以被配置成收集关于订阅服务的客户使用的使用统计。在至少一个实施例中,可以针对所使用的存储量、所传输的数据量、用户数量、以及系统上电时间和系统下电时间的量和/或其变化来收集统计。在至少一个实施例中,第三方网络基础设施系统1100可包括身份管理模块1128,该身份管理模块1128被配置成提供身份服务,诸如第三方网络基础设施系统1100中的访问管理和授权服务。在至少一个实施例中,身份管理模块1128可控制关于希望利用由第三方网络基础设施系统1102提供的服务的客户的信息。在至少一个实施例中,这样的信息可以包括认证这样的客户的身份的信息和描述那些客户被授权相对于各种系统资源(例如,文件、目录、应用、通信端口、存储器段等)执行哪些动作的信息。在至少一个实施例中,身份管理模块1128还可包括管理关于每个顾客的描述性信息以及关于可如何访问和修改该描述性信息和可由谁来访问和修改该描述性信息。图12示出了根据至少一个实施例的云计算环境1202。在至少一个实施例中,云计算环境1202包括一个或更多个计算机系统/服务器1204,诸如个人数字助理(PDA)或蜂窝电话1206A、台式计算机1206B、膝上型计算机1206C和/或汽车计算机系统1206N之类的计算设备与该一个或更多个计算机系统/服务器1204通信。在至少一个实施例中,这允许基础设施、平台和/或软件作为服务从云计算环境1202提供,以便不需要每个客户端单独地维护这样的资源。应当理解,图12中示出的计算设备1206A-N的类型旨在仅是说明性的,并且云计算环境1202可通过任何类型的网络和/或网络/可寻址连接(例如,使用web浏览器)与任何类型的计算机化设备通信。在至少一个实施例中,可被表示为云计算节点的计算机系统/服务器1204可与许多其他通用或专用计算系统环境或配置一起操作。在至少一个实施例中,可以适合于与计算机系统/服务器1204一起使用的计算系统、环境和/或配置包括但不限于个人计算机系统、服务器计算机系统、瘦客户机、厚客户端、手持式或膝上型设备、多处理器系统、基于微处理器的系统、机顶盒、可编程消费电子产品,网络PC、小型计算机系统、大型计算机系统和包括任何上述系统或设备的分布式云计算环境,和/或其变体。在至少一个实施例中,计算机系统/服务器1204可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般上下文中描述。在至少一个实施例中,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、逻辑、数据结构等。在至少一个实施例中,示例性计算机系统/服务器1204可以在分布式云计算环境中实践,其中任务由通过通信网络链接的远程处理设备来执行。在至少一个实施例中,在分布式云计算环境中,程序模块可位于包括存储器存储设备的本地和远程计算机系统存储介质两者中。图13示出了根据至少一个实施例的由云计算环境1202(图12)提供的一组功能抽象层。应提前理解,图13中所示的组件、层和功能仅旨在是说明性的,并且组件、层和功能可以变化。在至少一个实施例中,硬件和软件层1302包括硬件和软件组件。在至少一个实施例中,硬件组件包括大型机、基于各种RISC(精简指令集计算机)架构的服务器、各种计算系统、超级计算系统、存储设备、网络、联网组件和/或其变体。在至少一个实施例中,软件组件包括网络应用服务器软件、各种应用服务器软件、各种数据库软件、和/或其变体。在至少一个实施例中,虚拟化层1304提供抽象层,从该抽象层可以提供以下示例性虚拟实体:虚拟服务器、虚拟存储、虚拟网络(包括虚拟私有网络)、虚拟应用、虚拟客户端和/或其变体。在至少一个实施例中,管理层1306提供各种功能。在至少一个实施例中,资源供应提供用于在云计算环境内执行任务的计算资源和其他资源的动态获取。在至少一个实施例中,计量(metering)提供了在云计算环境内利用资源时的使用跟踪,以及针对这些资源的消耗的计费或发票。在至少一个实施例中,资源可以包括应用软件许可证。在至少一个实施例中,安全性为用户和任务提供身份验证,以及对数据和其他资源的保护。在至少一个实施例中,用户界面为用户和系统管理员两者提供对云计算环境的访问。在至少一个实施例中,服务水平管理提供云计算资源分配和管理,使得满足所需的服务水平。在至少一个实施例中,服务水平协议(SLA)管理提供云计算资源的预布置和获取,根据SLA预期对该云计算资源的未来需求。在至少一个实施例中,工作负载层1308提供利用云计算环境的功能。在至少一个实施例中,可以从该层提供的工作负载和功能包括:地图和导航、软件开发和管理、教育服务、数据分析和处理、交易处理和服务递送。超级计算以下附图阐述了但不限于可以用于实现至少一个实施例的示例性的基于超级计算机的系统。在至少一个实施例中,超级计算机可以指展现出显著并行性并且包括至少一个芯片的硬件系统,其中系统中的芯片通过网络互连并且被放置在分层组织的外壳中。在至少一个实施例中,用若干机架填充机房的大型硬件系统是超级计算机的至少一个实施例,每个机架包含若干板/机架模块,每个板/机架模块包含全部由可扩展网络互连的若干芯片。在至少一个实施例中,这种大型硬件系统的单个机架是超级计算机的至少一个其他实施例。在至少一个实施例中,展现出显著并行性并且包含若干硬件组件的单个芯片同样可以被认为是超级计算机,因为随着特征尺寸可能减小,可以结合在单个芯片中的硬件数量也可能增加。图14示出了根据至少一个实施例的芯片级的超级计算机。在至少一个实施例中,在FPGA或ASIC芯片内部,在被称为线程单元的有限状态机(1404)内执行主计算。在至少一个实施例中,任务和同步网络(1402)连接有限状态机并且被用于以正确的顺序分派线程和执行操作。在至少一个实施例中,使用存储器网络(1406,1410)来访问多级分区的片上高速缓存层级(1408,1412)。在至少一个实施例中,使用存储器控制器(1416)和片外存储器网络(1414)来访问片外存储器。在至少一个实施例中,当设计不适合于单个逻辑芯片时,I/O控制器(1418)用于跨芯片通信。图15示出根据至少一个实施例的在机架模块级别的超级计算机。在至少一个实施例中,在机架模块内,存在连接至构成主加速器存储器的一个或更多个DRAM单元(1504)的多个FPGA或ASIC芯片(1502)。在至少一个实施例中,每个FPGA/ASIC芯片使用板上的宽总线用差分高速信令(1506)连接到其相邻的FPGA/ASIC芯片。在至少一个实施例中,每个FPGA/ASIC芯片还连接到至少一个高速串行通信电缆。图16示出了根据至少一个实施例的机架级的超级计算机。图17示出了根据至少一个实施例的整个系统级的超级计算机。在至少一个实施例中,参见图16和图17,在机架中的机架模块之间并且跨整个系统的机架,使用高速串行光缆或铜电缆(1602,1702)来实现可扩展的、可能不完整的超立方体网络。在至少一个实施例中,加速器的FPGA/ASIC芯片中的一个通过PCI-Express连接被连接到主机系统(1704)。在至少一个实施例中,主机系统包括应用的软件部分在其上运行的主机微处理器(1708)以及由与加速器上的存储器保持一致的一个或更多个主机存储器DRAM单元(1706)组成的存储器。在至少一个实施例中,主机系统可以是机架之一上的单独模块,或可以与超级计算机的模块之一集成。在至少一个实施例中,立方体连接的循环拓扑提供通信链路以为大型超级计算机创建超立方体网络。在至少一个实施例中,机架模块上的小组FPGA/ASIC芯片可充当单个超立方体节点,使得与单个芯片相比,每组的外部链路的总数增加。在至少一个实施例中,组包含机架模块上的芯片A、B、C和D,该机架模块具有连接环形组织中的A、B、C和D的内部宽差分总线。在至少一个实施例中,存在将机架模块连接到外部世界的12条串行通信电缆。在至少一个实施例中,机架模块上的芯片A连接至串行通信电缆0、1、2。在至少一个实施例中,芯片B连接至电缆3、4、5。在至少一个实施例中,芯片C连接至6、7、8。在至少一个实施例中,芯片D连接至9、10、11。在至少一个实施例中,构成机架模块的整个组{A,B,C,D}可以形成超级计算机系统内的超立方体节点,其中多达212=4096个机架模块(16384FPGA/ASIC芯片)。在至少一个实施例中,为了使芯片A在组{A,B,C,D}的链路4上向外发送消息,必须首先用板上差分宽总线连接将消息路由到芯片B。在至少一个实施例中,在链路4上到达去往芯片A的组{A,B,C,D}(即,到达B)的消息也必须首先被路由到组{A,B,C,D}内部的正确目的地芯片(A)。在至少一个实施例中,还可以实现其他大小的并行超级计算机系统。人工智能以下附图阐述了但不限于可以用于实现至少一个实施例的示例性的基于人工智能的系统。图18A示出了用于执行与一个或更多个实施例相关联的推理和/或训练操作的推理和/或训练逻辑1815。下面结合图18A和/或图18B提供关于推理和/或训练逻辑1815的细节。在至少一个实施例中,推理和/或训练逻辑1815可以包括但不限于,代码和/或数据存储1801,用于存储前向和/或输出权重和/或输入/输出数据,和/或在一个或更多个实施例的各方面中用于配置被训练和/或用于推理的神经网络的神经元或层的其他参数。在至少一个实施例中,训练逻辑1815可以包括或被耦合到代码和/或数据存储1801,用于存储图形代码或其他软件以控制定时和/或顺序,其中将加载权重和/或其他参数信息来配置逻辑,包括整数和/或浮点单元(统称为算术逻辑单元(ALU))。在至少一个实施例中,代码(诸如图代码)基于这样的代码所对应的神经网络的架构将权重或其他参数信息加载到处理器ALU中。在至少一个实施例中,代码和/或数据存储1801存储神经网络的每个层的权重参数和/或输入/输出数据,该神经网络在使用一个或更多个实施例的各方面的训练和/或推理期间在输入/输出数据和/或权重参数的前向传播期间与一个或更多个实施例结合训练或使用。在至少一个实施例中,代码和/或数据存储1801的任何部分可与其他片上或片外数据存储装置一起被包括,包括处理器的L1、L2或L3高速缓存存储器或系统存储器。在至少一个实施例中,代码和/或数据存储1801的任何部分可在一个或更多个处理器或其他硬件逻辑设备或电路内部或外部。在至少一个实施例中,代码和/或代码和/或数据存储1801可以是高速缓存存储器、动态随机可寻址存储器(“DRAM”)、静态随机可寻址存储器(“SRAM”)、非易失性存储器(例如,闪存)或其他存储装置。在至少一个实施例中,对代码和/或代码和/或数据存储1801是在处理器内部还是外部,在至少一个实施例中,或包括DRAM、SRAM、闪存或一些其他存储类型的选择,可以取决于片上相对于片外的可用存储,正在执行的训练和/或推理功能的延时要求、在神经网络的推理和/或训练中使用的数据的批大小,或这些因素的一些组合。在至少一个实施例中,推理和/或训练逻辑1815可以包括但不限于:代码和/或数据存储1805,用于存储与在一个或更多个实施例的各方面中被训练和/或用于推理的神经网络的神经元或层相对应的反向和/或输出权重和/或输入/输出数据。在至少一个实施例中,代码和/或数据存储1805存储神经网络的每一层的权重参数和/或输入/输出数据,该神经网络在使用一个或更多个实施例的各方面的训练和/或推理期间的输入/输出数据和/或权重参数的反后传播期间与一个或更多个实施例结合训练或使用。在至少一个实施例中,训练逻辑1815可以包括或被耦合到代码和/或数据存储1805,以存储图代码或其他软件来控制定时和/或顺序,其中将加载权重和/或其他参数信息以配置逻辑,包括整数和/或浮点单元(统称为算术逻辑单元(ALU))。在至少一个实施例中,代码(诸如图代码)使基于这样的代码所对应的神经网络的架构将权重或其他参数信息加载到处理器ALU中。在至少一个实施例中,代码和/或数据存储1805的任何部分可与其他片上或片外数据存储包括在一起,包括处理器的L1、L2或L3高速缓存或系统存储器。在至少一个实施例中,代码和/或数据存储1805的任何部分可以在一个或更多个处理器或其他硬件逻辑设备或电路的内部或外部。在至少一个实施例中,代码和/或数据存储1805可以是高速缓存存储器、DRAM、SRAM、非易失性存储器(例如,闪存)或其他存储装置。在至少一个实施例中,对代码和/或数据存储1805是在处理器内部还是外部,在至少一个实施例中,或包括DRAM、SRAM、闪存或一些其他存储类型的选择,可以取决于片上相对于片外的可用存储,正在执行的训练和/或推理功能的延时要求、在神经网络的推理和/或训练中使用的数据的批大小,或这些因素的一些组合。在至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805可为单独的存储结构。在至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805可以是组合的存储结构。在至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805可部分组合且部分分离。在至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805的任何部分可与其他片上或片外数据存储(包括处理器的L1、L2或L3高速缓存或系统存储器)包括在一起。在至少一个实施例中,推理和/或训练逻辑1815可以包括但不限于,一个或更多个算术逻辑单元(“ALU”)1810,包括整数和/或浮点单元,用于至少部分地基于训练和/或推理代码(例如,图形代码)或由训练和/或推理代码(例如,图形代码)指示来执行逻辑和/或数学运算,其结果可以产生存储在激活存储1820中的激活(例如,来自神经网络内的层或神经元的输出值),所述激活存储是存储在代码和/或数据存储1801和/或代码和/或数据存储1805中的输入/输出和/或权重参数数据的函数。在至少一个实施例中,根据响应于执行指令或其他代码、由ALU1810执行的线性代数和/或基于矩阵的数学来生成存储在激活存储1820中的激活,其中存储在代码和/或数据存储1805和/或数据存储1801中的权重值与其他值(诸如偏置值、梯度信息、动量值或其他参数或超参数)一起被用作操作数,该其他值中的任何或全部值可被存储在代码和/或数据存储1805或代码和/或数据存储1801或芯片上或芯片外的另一存储中。在至少一个实施例中,一个或更多个ALU1810被包括在一个或更多个处理器或其他硬件逻辑器件或电路内,而在另一个实施例中,一个或更多个ALU1810可以在处理器或使用它们的其他硬件逻辑器件或电路(例如,协处理器)的外部。在至少一个实施例中,ALU1810可以被包括在处理器的执行单元内或者以其他方式在可由处理器的执行单元可访问的ALU库内,所述处理器的执行单元在同一处理器内或分布在不同类型的不同处理器(例如,中央处理单元、图形处理单元、固定功能单元等)之间。在至少一个实施例中,代码和/或数据存储1801、代码和/或数据存储1805、以及激活存储1820可以共享处理器或其他硬件逻辑器件或电路,而在另一个实施例中,它们可以在不同的处理器或其他硬件逻辑器件或电路中,或在相同和不同处理器或其他硬件逻辑器件或电路的某种组合中。在至少一个实施例中,激活存储1820的任何部分可以与其他片上或片外数据存储包括在一起,所述其他片上或片外数据存储包括处理器的L1、L2或L3高速缓存或系统存储器。此外,推理和/或训练代码可与处理器或其他硬件逻辑或电路可访问并使用处理器的获取、解码、调度、执行、引退(retirement)和/或其他逻辑电路来获取和/或处理的其他代码一起存储。在至少一个实施例中,激活存储1820可以是高速缓存存储器、DRAM、SRAM、非易失性存储器(例如,闪存)或其他存储装置。在至少一个实施例中,激活存储1820可以完全或部分地在一个或更多个处理器或其他逻辑电路之内或外部。在至少一个实施例中,对激活存储1820是在处理器内部还是外部,在至少一个实施例中,或包括DRAM、SRAM、闪存或一些其他存储类型的选择,可以取决于片上相对于片外的可用存储,正在执行的训练和/或推理功能的延时要求、在神经网络的推理和/或训练中使用的数据的批大小,或这些因素的一些组合。在至少一个实施例中,图18A中所示出的推理和/或训练逻辑1815可以与专用集成电路(“ASIC”)结合使用,诸如来自谷歌的处理单元、来自GraphcoreTM的推理处理单元(IPU)、或来自英特尔公司的(例如,“LakeCrest”)处理器。在至少一个实施例中,图18A中所示出的推理和/或训练逻辑1815可以结合中央处理单元(“CPU”)硬件、图形处理单元(“GPU”)硬件或其他硬件(如现场可编程门阵列(“FPGA”))使用。图18B示出了根据至少一个实施例的推理和/或训练逻辑1815。在至少一个实施例中,推理和/或训练逻辑1815可包括但不限于其中计算资源是专用的或以其他方式结合与神经网络内的一个或更多个神经元层相对应的权重值或其他信息排他地使用的硬件逻辑。在至少一个实施例中,图18B中所示出的推理和/或训练逻辑1815可以结合专用集成电路(ASIC)(如来自谷歌的处理单元、来自GraphcoreTM的推理处理单元(IPU)、或来自英特尔公司的(例如,“LakeCrest”)处理器来使用。在至少一个实施例中,图18B中示出的推理和/或训练逻辑1815可结合中央处理单元(CPU)硬件、图形处理单元(GPU)硬件或其他硬件(诸如现场可编程门阵列(FPGA))使用。在至少一个实施例中,推理和/或训练逻辑1815包括但不限于代码和/或数据存储1801以及代码和/或数据存储1805,其可以用于存储代码(例如,图代码)、权重值和/或其他信息,包括偏置值、梯度信息、动量值和/或其他参数或超参数信息。在图18B中所说明的至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805中的每一者分别与专用计算资源(例如,计算硬件1802和计算硬件1806)相关联。在至少一个实施例中,计算硬件1802和计算硬件1806中的每一个包括一个或更多个ALU,该一个或更多个ALU仅分别对存储在代码和/或数据存储1801和代码和/或数据存储1805中的信息执行数学函数(诸如线性代数函数),其结果被存储在激活存储1820中。在至少一个实施例中,每个代码和/或数据存储1801和1805以及相应的计算硬件1802和1806,分别对应于神经网络的不同层,使得来自代码和/或数据存储1801和计算硬件1802中的一个存储/计算对1801/1802的结果激活作为输入被提供给代码和/或数据存储1805和计算硬件1806中的下一个存储/计算对1805/1806,以便镜像神经网络的概念组织。在至少一个实施例中,存储/计算对1801/1802和1805/1806中的每一个可对应于多于一个神经网络层。在至少一个实施例中,在存储/计算对1801/1802和1805/1806之后或与存储/计算对1801/1802和1805/1806并行的附加存储/计算对(未示出)可被包括在推理和/或训练逻辑1815中。图19示出根据至少一个实施例的深度神经网络的训练和部署。在至少一个实施例中,使用训练数据集1902来训练未经训练的神经网络1906。在至少一个实施例中,训练框架1904是PyTorch框架,而在其他实施例中,训练框架1904是TensorFlow、Boost、Caffe、MicrosoftCognitiveToolkit/CNTK、MXNet、Chainer、Keras、Deeplearning4j或其他训练框架。在至少一个实施例中,训练框架1904对未经训练的神经网络1906进行训练,并使其能够使用本文中所描述的处理资源来训练以生成经训练的神经网络1908。在至少一个实施例中,权重可以随机选择或通过使用深度信念网络进行预训练来选择。在至少一个实施例中,训练可以以监督、部分监督或无监督的方式来执行。在至少一个实施例中,使用监督学习来训练未经训练的神经网络1906,其中训练数据集1902包括与用于输入的期望输出配对的输入,或者其中训练数据集1902包括具有已知输出的输入,并且神经网络1906的输出被手动地分级。在至少一个实施例中,以监督方式来训练未经训练的神经网络1906,并且处理来自训练数据集1902的输入,并将结果输出与预期或期望输出的集合进行比较。在至少一个实施例中,然后误差被反向传播通过未经训练的神经网络1906。在至少一个实施例中,训练框架1904调整控制未经训练的神经网络1906的权重。在至少一个实施例中,训练框架1904包括用于监视未经训练的神经网络1906朝向模型(诸如经训练的神经网络1908)收敛多好的工具,该模型适于基于输入数据(诸如新数据集1912)来生成正确答案(诸如结果1914)。在至少一个实施例中,训练框架1904重复地训练未经训练的神经网络1906,同时使用损失函数和调整算法(诸如随机梯度下降)来调整权重以精炼未经训练的神经网络1906的输出。在至少一个实施例中,训练框架1904训练未经训练的神经网络1906,直到未经训练的神经网络1906实现所期望的准确度。在至少一个实施例中,经训练的神经网络1908然后可被部署以实现任何数量的机器学习操作。在至少一个实施例中,使用无监督学习来训练未经训练的神经网络1906,其中未经训练的神经网络1906尝试使用未标记的数据来训练其自身。在至少一个实施例中,无监督学习训练数据集1902将包括输入数据而没有任何相关联的输出数据或“地面真值”数据。在至少一个实施例中,未经训练的神经网络1906可以学习训练数据集1902内的分组,并且可以确定各个输入如何与未经训练的数据集1902相关。在至少一个实施例中,无监督训练可被用于在经训练的神经网络1908中生成能够执行在减少新数据集1912的维度中有用的操作的自组织映射。在至少一个实施例中,无监督训练还可用于执行异常检测,其允许识别新数据集1912中偏离新数据集1912的正常模式的数据点。在至少一个实施例中,可以使用半监督学习,半监督学习是其中在训练数据集1902中包括标记数据和未标记数据的混合的技术。在至少一个实施例中,训练框架1904可被用于执行增量学习,诸如通过转移学习技术。在至少一个实施例中,增量学习使得经训练的神经网络1908能够适应新的数据集1912,而不会忘记在初始训练期间注入在经训练的神经网络1408内的知识。5G网络以下附图阐述了但不限于可以用于实现至少一个实施例的示例性基于5G网络的系统。图20示出了根据至少一个实施例的网络的系统2000的架构。在至少一个实施例中,系统2000被示为包括用户设备(UE)2002和UE2004。在至少一个实施例中,UE2002和2004被示为智能电话(例如,可连接到一个或更多个蜂窝网络的手持触摸屏移动计算设备),但还可包括任何移动或非移动计算设备,诸如个人数字助理(PDA)、寻呼机、膝上型计算机、台式计算机、无线手持设备或包括无线通信接口的任何计算设备。在至少一个实施例中,UE2002和UE2004中的任何一个可包括物联网(IoT)UE,该IoTUE可包括为利用短暂UE连接的低功率IoT应用设计的网络接入层。在至少一个实施例中,IoTUE可利用诸如用于经由公共陆地移动网络(PLMN)、基于邻近的服务(ProSe)或设备到设备(D2D)通信、传感器网络或IoT网络与MTC服务器或设备交换数据的技术,诸如机器对机器(M2M)或机器类型通信(MTC)。在至少一个实施例中,M2M或MTC数据交换可以是机器发起的数据交换。在至少一个实施例中,IoT网络描述互连IoTUE,该IoTUE可包括具有短寿命连接的可唯一标识的嵌入式计算设备(在互联网基础结构内)。在至少一个实施例中,IoTUE可执行后台应用(例如,保活消息、状态更新等)以促进IoT网络的连接。在至少一个实施例中,UE2002和UE2004可以被配置为与无线电接入网(RAN)2016连接(例如,通信地耦合)。在至少一个实施例中,RAN2016在至少一个实施例中可以是演进的通用移动电信系统(UMTS)陆地无线电接入网络(E-UTRAN)、NextGenRAN(NGRAN)或一些其他类型的RAN。在至少一个实施例中,UE2002和UE2004分别利用连接2012和连接2014,每个连接包括物理通信接口或层。在至少一个实施例中,连接2012和2014被示为空中接口,用于实现通信耦合,并且可以与蜂窝通信协议一致,诸如全球移动通信系统(GSM)协议,码分多址(CDMA)网络协议、即按即讲(PTT)协议、蜂窝PTT(POC)协议、通用移动电信系统(UMTS)协议、3GPP长期演进(LTE)协议、第五代(5G)协议、新无线电(NR)协议及其变型。在至少一个实施例中,UE2002和2004还可经由ProSe接口2006直接交换通信数据。在至少一个实施例中,ProSe接口2006可替代地被称为边链路接口,其包括一个或更多个逻辑信道,包括但不限于物理边链路控制信道(PSCCH)、物理边链路共享信道(PSSCH)、物理边链路发现信道(PSDCH)和物理边链路广播信道(PSBCH)。在至少一个实施例中,UE2004被示为配置成经由连接2008接入接入点(AP)2010。在至少一个实施例中,连接2008可以包括本地无线连接,诸如与任何IEEE802.11协议一致的连接,其中AP2010将包括无线保真路由器。在至少一个实施例中,AP2010被示为连接到互联网而不连接到无线系统的核心网。在至少一个实施例中,RAN2016可包括启用连接2012和2014的一个或更多个接入节点。在至少一个实施例中,这些接入节点(AN)可被称为基站(BS)、NodeB、演进型NodeB(eNB)、下一代NodeB(gNB)、RAN节点等,并且可包括地面站(例如,地面接入点)或提供地理区域(例如,小区)内的覆盖的卫星站。在至少一个实施例中,RAN2016可包括用于提供宏蜂窝小区的一个或更多个RAN节点(例如,宏RAN节点2018)和用于提供毫微微蜂窝小区或微微蜂窝小区(例如,与宏蜂窝小区相比具有较小覆盖区域、较小用户容量、或较高带宽的蜂窝小区)的一个或更多个RAN节点(例如,低功率(LP)RAN节点2020)。在至少一个实施例中,RAN节点2018和2020中的任一个可终止空中接口协议并且可以为UE2002和2004的第一联系点。在至少一个实施例中,RAN节点2018和2020中的任一个可实现RAN2016的各种逻辑功能,包括但不限于无线电网络控制器(RNC)功能,诸如无线电承载管理、上行链路和下行链路动态无线电资源管理和数据分组调度和移动性管理。在至少一个实施例中,UE2002和UE2004可被配置为使用正交频分复用(OFDM)通信信号根据各种通信技术通过多载波通信信道彼此通信或者与RAN节点2018和RAN节点2020中的任一个通信,通信技术诸如但不限于正交频分多址(OFDMA)通信技术(例如,用于下行链路通信)或单载波频分多址(SC-FDMA)通信技术(例如,用于上行链路和ProSe或边链路通信),和/或其变体。在至少一个实施例中,OFDM信号可包括多个正交子载波。在至少一个实施例中,下行链路资源网格可以用于从RAN节点2018和2020中的任一个到UE2002和2004的下行链路传输,而上行链路传输可以利用类似的技术。在至少一个实施例中,网格可以是称为资源网格或时频资源网格的时频网格,其是每个时隙中下行链路中的物理资源。在至少一个实施例中,这种时频平面表示是OFDM系统的常见实践,这使得其对于无线电资源分配来说是直观的。在至少一个实施例中,资源网格的每列和每行分别对应于一个OFDM符号和一个OFDM子载波。在至少一个实施例中,时域中的资源网格的持续时间对应于无线电帧中的一个时隙。在至少一个实施例中,资源网格中的最小时间-频率单元被表示为资源元素。在至少一个实施例中,每个资源网格包括多个资源块,其描述某些物理信道到资源元素的映射。在至少一个实施例中,每个资源块包括资源元素的集合。在至少一个实施例中,在频域中,这可以表示当前可以被分配的最小数量的资源。在至少一个实施例中,存在使用这样的资源块传送的若干不同的物理下行链路信道。在至少一个实施例中,物理下行链路共享信道(PDSCH)可以运载用户数据和更高层信令给UE2002和2004。在至少一个实施例中,物理下行链路控制信道(PDCCH)可运载关于与PDSCH信道相关的传输格式和资源分配的信息等。在至少一个实施例中,其还可以向UE2002和2004通知与上行链路共享信道有关的传输格式、资源分配和HARQ(混合自动重传请求)信息。在至少一个实施例中,通常,下行链路调度(将控制和共享信道资源块分配给小区内的UE2002)可以在RAN节点2018和2020中的任一个处基于从UE2002和2004中的任一个反馈的信道质量信息来执行。在至少一个实施例中,下行链路资源分配信息可以在用于(例如分配给)UE2002和2004中的每一个的PDCCH上发送。在至少一个实施例中,PDCCH可以使用控制信道元素(CCE)来传送控制信息。在至少一个实施例中,在被映射到资源元素之前,PDCCH复值符号可以首先被组织成四元组,然后可以使用子块交织器对其进行置换以用于速率匹配。在至少一个实施例中,可以使用这些CCE中的一个或更多个来传送每个PDCCH,其中每个CCE可以对应于被称为资源元素组(REG)的四个物理资源元素的九个集合。在至少一个实施例中,四个正交相移键控(QPSK)符号可以被映射到每个REG。在至少一个实施例中,取决于下行链路控制信息(DCI)的大小和信道条件,可以使用一个或更多个CCE来发送PDCCH。在至少一个实施例中,可以有在LTE中定义的具有不同数目的CCE的四个或更多个不同的PDCCH格式(例如,聚合等级,L=1、2、4或8)。在至少一个实施例中,使用PDSCH资源的增强型物理下行链路控制信道(EPDCCH)可以用于控制信息传输。在至少一个实施例中,可以使用一个或更多个增强型控制信道元素(ECCE)来发送EPDCCH。在至少一个实施例中,每个ECCE可以对应于被称为增强型资源元素组(EREG)的四个物理资源元素的九个集合。在至少一个实施例中,ECCE在一些情况下可以具有其他数目的EREG。在至少一个实施例中,RAN2016被示为经由S1接口2022通信地耦合至核心网(CN)2038。在至少一个实施例中,CN2038可以是演进的分组核心(EPC)网络、NextGen分组核心(NPC)网络或一些其他类型的CN。在至少一个实施例中,S1接口2022被分成两部分:S1-U接口2026,其运载RAN节点2018和2020与服务网关(S-GW)2030之间的业务数据;以及S1-移动性管理实体(MME)接口2024,其为RAN节点2018和2020与MME2028之间的信令接口。在至少一个实施例中,CN2038包括MME2028、S-GW2030、分组数据网络(PDN)网关(P-GW)2034和归属订户服务器(HSS)2032。在至少一个实施例中,MME2028可以在功能上类似于传统服务通用分组无线电服务(GPRS)支持节点(SGSN)的控制平面。在至少一个实施例中,MME2028可以管理接入中的移动性方面,例如网关选择和跟踪区域列表管理。在至少一个实施例中,HSS2032可以包括用于网络用户的数据库,该数据库包括用于支持网络实体处理通信会话的订阅相关信息。在至少一个实施例中,CN2038可以包括一个或更多个HSS2032,这取决于移动用户的数量、设备的容量、网络的组织等。在至少一个实施例中,HSS2032可以提供对路由/漫游、认证、授权、命名/寻址解析、位置依赖性等的支持。在至少一个实施例中,S-GW2030可以终止朝向RAN2016的S1接口2022,并且在RAN2016和CN2038之间路由数据分组。在至少一个实施例中,S-GW2030可以是用于RAN间节点切换的本地移动性锚点,并且还可以提供用于3GPP间移动性的锚点。在至少一个实施例中,其他责任可以包括合法拦截、收费和一些策略强制执行。在至少一个实施例中,P-GW2034可以终止朝向PDN的SGi接口。在至少一个实施例中,P-GW2034可以经由互联网协议(IP)接口2042在EPC网络2038和外部网络(诸如包括应用服务器2040(或者称为应用功能(AF))的网络)之间路由数据分组。在至少一个实施例中,应用服务器2040可以是采用核心网络(例如,UMTS分组服务(PS)域、LTEPS数据服务等)提供使用IP承载资源的应用的元件。在至少一个实施例中,P-GW2034被示出为经由IP通信接口2042通信地耦合到应用服务器2040。在至少一个实施例中,应用服务器2040还可被配置为经由CN2038支持UE2002和2004的一个或更多个通信服务(例如,互联网协议语音(VoIP)会话、PTT会话、群组通信会话、社交网络服务等)。在至少一个实施例中,P-GW2034还可以是用于策略实施和收费数据收集的节点。在至少一个实施例中,策略和计费执行功能(PCRF)2036是CN2038的策略和计费控制元件。在至少一个实施例中,在非漫游场景中,在与UE的互联网协议连接性接入网络(IP-CAN)会话相关联的归属公共陆地移动网络(HPLMN)中可以存在单个PCRF。在至少一个实施例中,在具有本地流量突破的漫游场景中,可存在与UE的IP-CAN会话相关联的两个PCRF:HPLMN内的归属PCRF(H-PCRF)和受访公共陆地移动网络(VPLMN)内的受访PCRF(V-PCRF)。在至少一个实施例中,PCRF2036可以经由P-GW2034通信地耦合到应用服务器2040。在至少一个实施例中,应用服务器2040可以向PCRF2036发信号,以指示新的服务流,并选择适当的服务质量(QoS)和计费参数。在至少一个实施例中,PCRF2036可以将这个规则供应到具有适当的业务流模板(TFT)和标识符的QoS类(QCI)的策略和计费执行功能(PCEF)(未示出),所述PCEF开始由应用服务器2040指定的QoS和计费。图21示出了根据一些实施例的网络的系统2100的架构。在至少一个实施例中,系统2100被示为包括UE2102、5G接入节点或RAN节点(被示为(R)AN节点2108),用户平面功能(被示出为UPF2104),数据网络(DN2106),在至少一个实施例中,其可以是运营商服务、互联网接入或第三方服务、以及5G核心网络(5GC)(示为CN2110)。在至少一个实施例中,CN2110包括认证服务器功能(AUSF2114);核心接入和移动性管理功能(AMF2112);会话管理功能(SMF2118);网络暴露功能(NEF2116);策略控制功能(PCF2122);网络功能(NF)储存库功能(NRF2120);统一数据管理(UDM2124);以及应用功能(AF2126)。在至少一个实施例中,CN2110还可包括未示出的其他元件,诸如结构化数据存储网络功能(SDSF)、非结构化数据存储网络功能(UDSF)及其变型。在至少一个实施例中,UPF2104可充当RAT内和RAT间移动性的锚点、互连到DN2106的外部PDU会话点、和支持多归属PDU会话的分支点。在至少一个实施例中,UPF2104还可以执行分组路由和转发、分组检查、实施策略规则的用户平面部分、合法拦截分组(UP收集);业务使用报告、为用户平面执行QoS处理(例如分组过滤、门控、UL/DL速率执行)、执行上行链路业务验证(例如,SDF到QoS流映射)、上行链路和下行链路中的传输级分组标记、以及下行链路分组缓存和下行链路数据通知触发。在至少一个实施例中,UPF2104可包括上行链路分类器,用于支持将业务流路由到数据网络。在至少一个实施例中,DN2106可表示各种网络运营商服务、互联网接入或第三方服务。在至少一个实施例中,AUSF2114可以存储用于UE2102的认证的数据,并且处理与认证相关的功能。在至少一个实施例中,AUSF2114可以促进用于各种接入类型的公共认证框架。在至少一个实施例中,AMF2112可以负责注册管理(例如,用于注册UE2102等)、连接管理、可达性管理、移动性管理、和AMF相关事件的合法拦截、以及接入认证和授权。在至少一个实施例中,AMF2112可以为SMF2118提供SM消息的传输,并且充当用于路由SM消息的透明代理。在至少一个实施例中,AMF2112还可以提供UE2102与SMS功能(SMSF)(图21未示出)之间的短消息服务(SMS)消息的传输。在至少一个实施例中,AMF2112可以充当安全锚定功能(SEA),其可以包括与AUSF2114和UE2102的交互以及接收作为UE2102认证过程的结果而建立的中间密钥。在至少一个实施例中,在使用基于USIM的认证的情况下,AMF2112可以从AUSF2114检索安全材料。在至少一个实施例中,AMF2112还可以包括安全上下文管理(SCM)功能,其从SEA接收它用来导出接入网络专用密钥的密钥。此外,在至少一个实施例中,AMF2112可以是RANCP接口的终止点(N2参考点)、NAS(NI)信令的终止点,并且执行NAS加密和完整性保护。在至少一个实施例中,AMF2112还可以支持通过N3互通功能(IWF)接口与UE2102的NAS信令。在至少一个实施例中,N3IWF可以用于提供对不受信实体的访问。在至少一个实施例中,N3IWF可以分别是控制平面和用户平面的N2和N3接口的终止点,因此,可针对PDU会话和QoS处理来自SMF和AMF的N2信令,对IPSec和N3隧道的分组进行封装/解封装,在上行链路中标记N3用户平面分组,并且考虑到与通过N2接收的这种标记相关联的QoS要求,实施对应于N3分组标记的QoS。在至少一个实施例中,N3IWF还可以在UE2102和AMF2112之间中继上行链路和下行链路控制平面NAS(NI)信令,并且在UE2102和UPF2104之间中继上行链路和下行链路用户平面分组。在至少一个实施例中,N3IWF还提供用于与UE2102的IPsec隧道建立的机制。在至少一个实施例中,SMF2118可负责会话管理(例如,会话建立、修改和释放,包括UPF和AN节点之间的隧道保持);UEIP地址分配和管理(包括可选的授权);UP功能的选择和控制;在UPF处配置流量转向以将流量路由到合适的目的地;朝向策略控制功能的接口终止;策略强制执行和QoS的控制部分;合法拦截(用于SM事件和到LI系统的接口);NAS消息的SM部分的终止;下行链路数据通知;AN特定SM信息的发起者,其经由AMF在N2上发送到AN;确定会话的SSC模式。在至少一个实施例中,SMF2118可包括以下漫游功能:处理本地实施以应用QoSSLAB(VPLMN);收费数据收集和收费接口(VPLMN);合法拦截(在VPLMN中用于SM事件并且接口到LI系统);支持与外部DN交互以传输用于由外部DN进行的PDU会话授权/认证的信令。在至少一个实施例中,NEF2116可以提供用于安全地暴露由3GPP网络功能为第三方提供的服务和能力、内部暴露/重新暴露、应用功能(例如,AF2126)、边缘计算或雾计算系统等的装置。在至少一个实施例中,NEF2116可认证、授权和/或节流AF。在至少一个实施例中,NEF2116还可以转换与AF2126交换的信息和与内部网络功能交换的信息。在至少一个实施例中,NEF2116可以在AF服务标识符和内部5GC信息之间转换。在至少一个实施例中,NEF2116还可以基于其他网络功能的暴露的能力从其他网络功能(NF)接收信息。在至少一个实施例中,该信息可作为结构化数据存储在NEF2116处,或使用标准化接口存储在数据存储NF处。在至少一个实施例中,所存储的信息然后可由NEF2116重新暴露给其他NF和AF,和/或用于其他目的,诸如分析。在至少一个实施例中,NRF2120可以支持服务发现功能,从NF实例接收NF发现请求,以及向NF实例提供所发现的NF实例的信息。在至少一个实施例中,NRF2120还维护可用NF实例及其支持的服务的信息。在至少一个实施例中,PCF2122可向控制平面功能提供策略规则以实施它们,并且还可支持统一策略框架以管理网络行为。在至少一个实施例中,PCF2122还可实现前端(FE),用于访问UDM2124的UDR中与策略决策相关的订阅信息。在至少一个实施例中,UDM2124可处理订阅相关信息以支持网络实体处理通信会话,并且可存储UE2102的订阅数据。在至少一个实施例中,UDM2124可以包括两个部分,应用FE和用户数据存储库(UDR)。在至少一个实施例中,UDM可以包括UDMFE,该UDMFE负责处理凭证、位置管理、订阅管理等。在至少一个实施例中,若干不同前端可在不同交易中服务同一用户。在至少一个实施例中,UDM-FE访问UDR中存储的子订阅信息,并执行认证凭证处理;用户标识处理;接入授权;注册/移动性管理;以及订阅管理。在至少一个实施例中,UDR可与PCF2122交互。在至少一个实施例中,UDM2124还可支持SMS管理,其中SMS-FE实现如前所述的类似应用逻辑。在至少一个实施例中,AF2126可以提供对业务路由的应用影响、对网络能力暴露(NCE)的接入,以及与策略框架的交互以用于策略控制。在至少一个实施例中,NCE可以是允许5GC和AF2126经由NEF2116向彼此提供信息的机制,NEF2116可以用于边缘计算实现。在至少一个实施例中,网络运营商和第三方服务可被托管在UE2102的附接接入点附近,以通过减少的端到端延时和传输网络上的负载来实现高效的服务递送。在至少一个实施例中,对于边缘计算实现,5GC可选择靠近UE2102的UPF2104,并经由N6接口执行从UPF2104到DN2106的业务引导。在至少一个实施例中,这可以基于由AF2126提供的UE订阅数据、UE位置和信息。在至少一个实施例中,AF2126可以影响UPF(重新)选择和业务路由。在至少一个实施例中,基于运营商部署,当AF2126被认为是受信实体时,网络运营商可以允许AF2126直接与相关NF交互。在至少一个实施例中,CN2110可以包括SMSF,其可以负责SMS订阅检查和验证,并且中继去往/来自UE2102的SM消息到/来自其他实体,例如SMS-GMSC/IWMSC/SMS路由器。在至少一个实施例中,SMS还可以与AMF2112和UDM2124交互,以用于UE2102可用于SMS传送的通知过程(例如,设置UE不可达标志,并且当UE2102可用于SMS时通知UDM2124)。在至少一个实施例中,系统2100可以包括以下基于服务的接口:Namf:AMF展现的基于服务的接口;Nsmf:SMF展现的基于服务的接口;Nnef:NEF展现的基于服务的接口;Npcf:PCF展现的基于服务的接口;Nudm:UDM展现的基于服务的接口;Naf:AF展现的基于服务的接口;Nnrf:NRF展现的基于服务的接口;以及Nausf:AUSF展现的基于服务的接口。在至少一个实施例中,系统2100可以包括以下参考点:N1:UE和AMF之间的参考点;N2:(R)AN和AMF之间的参考点;N3:(R)AN和UPF之间的参考点;N4:SMF和UPF之间的参考点;以及N6:UPF和数据网络之间的参考点。在至少一个实施例中,NF中的NF服务之间可能存在更多的参考点和/或基于服务的接口,然而,为清楚起见,这些接口和参考点已经被省略。在至少一个实施例中,NS参考点可以在PCF与AF之间;N7参考点可以在PCF与SMF之间;N11参考点在AMF与SMF之间等等。在至少一个实施例中,CN2110可以包括Nx接口,Nx接口是MME和AMF2112之间的CN间接口,以便实现CN2110和CN7221之间的互通。在至少一个实施例中,系统2100可包括多个RAN节点(诸如(R)AN节点2108),其中在连接到5GC410的两个或更多个(R)AN节点2108(例如,gNB)之间,在连接到CN2110的(R)AN节点2108(例如gNB)和eNB(例如宏RAN节点)之间,和/或在连接到CN2110的两个eNB之间定义Xn接口。在至少一个实施例中,Xn接口可以包括Xn用户平面(Xn-U)接口和Xn控制平面(Xn-C)接口。在至少一个实施例中,Xn-U可以提供用户平面PDU的无保证的递送,并且支持/提供数据转发和流控制功能。在至少一个实施例中,Xn-C可提供管理和错误处理功能、管理Xn-C接口的功能;对处于连接模式(例如,CM-CONNECTED)的UE2102的移动性支持,其包括管理针对一个或更多个(R)AN节点2108之间的连接模式的UE移动性的功能。在至少一个实施例中,移动性支持可包括从旧(源)服务(R)AN节点2108到新(目标)服务(R)AN节点2108的上下文传送;以及控制旧(源)服务(R)AN节点2108至新(目标)服务(R)AN节点2108之间的用户平面隧道。在至少一个实施例中,Xn-U的协议栈可以包括在互联网协议(IP)传输层上构建的传输网络层和在UDP和/或一个或更多个IP层的顶部上用于承载用户平面PDU的GTP-U层。在至少一个实施例中,Xn-C协议栈可以包括应用层信令协议(称为Xn应用协议(Xn-AP))和建立在SCTP层上的传输网络层。在至少一个实施例中,SCTP层可以在IP层的顶部上。在至少一个实施例中,SCTP层提供应用层消息的有保证的递送。在至少一个实施例中,在传输IP层中,点对点传输被用于递送信令PDU。在至少一个实施例中,Xn-U协议栈和/或Xn-C协议栈可以与本文中示出和描述的用户平面和/或控制平面协议栈相同或相似。图22是根据一些实施例的控制平面协议栈的图示。在至少一个实施例中,控制平面2200被示为UE2002(或可替代地,UE2004)、RAN2016和MME2028之间的通信协议栈。在至少一个实施例中,PHY层2202可以通过一个或更多个空中接口发送或接收由MAC层2204使用的信息。在至少一个实施例中,PHY层2202还可以执行链路自适应或自适应调制和编码(AMC)、功率控制、小区搜索(例如,用于初始同步和切换目的)和由较高层(例如,RRC层2210)使用的其他测量。在至少一个实施例中,PHY层2202还可以进一步对传输信道执行错误检测、传输信道的前向纠错(FEC)编码/解码、物理信道的调制/解调、交织、速率匹配、映射到物理信道、以及多输入多输出(MIMO)天线处理。在至少一个实施例中,MAC层2204可执行逻辑信道和传输信道之间的映射,将来自一个或更多个逻辑信道的MAC服务数据单元(SDU)复用到要经由传输信道递送到PHY的传输块(TB)上,将MACSDU从经由传输信道从PHY递送的传输块(TB)解复用到一个或更多个逻辑信道,将MACSDU复用到TB上、调度信息报告、通过混合自动重传请求(HARD)的纠错,以及逻辑信道优先化。在至少一个实施例中,RLC层2206可在多种操作模式下操作,包括:透明模式(TM)、非确认模式(UM)和确认模式(AM)。在至少一个实施例中,RLC层2206可以执行上层协议数据单元(PDU)的传输、通过针对AM数据传输的自动重复请求(ARQ)的纠错、以及用于UM和AM数据传输的RLCSDU的级联、分段和重组。在至少一个实施例中,RLC层2206还可以执行用于AM数据传输的RLC数据PDU的重新分段,对用于UM和AM数据传输的RLC数据PDU进行重排序,检测用于UM和AM数据传输的重复数据,丢弃用于UM和AM数据传输的RLCSDU,检测AM数据传输的协议错误,以及执行RLC重建。在至少一个实施例中,PDCP层2208可以执行IP数据的报头压缩和解压缩,维持PDCP序列号(SN),在重建较低层时执行较高层PDU的序列内递送,在为映射在RLCAM上的无线电承载重建较低层时消除较低层SDU的复制,对控制平面数据进行加密和解密,对控制平面数据进行完整性保护和完整性验证,基于控制定时器的数据丢弃,以及执行安全操作(例如,加密、解密、完整性保护、完整性验证等)。在至少一个实施例中,RRC层2210的主要服务和功能可包括系统信息的广播(例如,包括在与非接入层(NAS)相关的主信息块(MIB)或系统信息块(SIB)中),与接入层(AS)有关的系统信息的广播、UE与E-UTRAN之间的RRC连接的寻呼、建立、维持和释放(例如,RRC连接寻呼、RRC连接建立、RRC连接修改和RRC连接释放),点对点无线承载的建立、配置、维护和释放,包括密钥管理的安全功能,无线电接入技术(RAT)间移动性,以及用于UE测量报告的测量配置。在至少一个实施例中,所述MIB和SIB可包括一个或更多个信息元素(IE),每个信息元素可包括单独的数据字段或数据结构。在至少一个实施例中,UE2002和RAN2016可以利用Uu接口(例如,LTE-Uu接口)来经由包括PHY层2202、MAC层2204、RLC层2206、PDCP层2208和RRC层2210的协议栈交换控制平面数据。在至少一个实施例中,非接入层(NAS)协议(NAS协议2212)形成UE2002与MME2028之间的控制平面的最高层。在至少一个实施例中,NAS协议2212支持UE2002的移动性和会话管理过程以建立和维持UE2002与P-GW2034之间的IP连接。在至少一个实施例中,Si应用协议(Si-AP)层(Si-AP层2222)可以支持Si接口的功能并且包括基本过程(EP)。在至少一个实施例中,EP是RAN2016和CN2028之间的交互单元。在至少一个实施例中,S1-AP层服务可以包括两个组:UE关联服务和非UE关联服务。在至少一个实施例中,这些服务执行功能,包括但不限于:E-UTRAN无线电接入承载(E-RAB)管理、UE能力指示、移动性、NAS信令传输、RAN信息管理(RIM)和配置转移。在至少一个实施例中,流控制传输协议(SCTP)层(可替代地称为流控制传输协议/互联网协议(SCTP/IP)层)(SCTP层2220)可以部分地基于IP层2218所支持的IP协议来确保RAN2016与MME2028之间的信令消息的可靠传递。在至少一个实施例中,L2层2216和L1层2214可以指由RAN节点和MME用来交换信息的通信链路(例如,有线或无线)。在至少一个实施例中,RAN2016和一个或更多个MME2028可以利用S1-MME接口来经由包括L1层2214、L2层2216、IP层2218、SCTP层2220和Si-AP层2222的协议栈交换控制平面数据。图23是根据至少一个实施例的用户平面协议栈的图示。在至少一个实施例中,用户平面2300被示为UE2002、RAN2016、S-GW2030和P-GW2034之间的通信协议栈。在至少一个实施例中,用户平面2300可以利用与控制平面2200相同的协议层。在至少一个实施例中,UE2002和RAN2016可以利用Uu接口(例如,LTE-Uu接口)来经由包括PHY层2202、MAC层2204、RLC层2206、PDCP层2208的协议栈来交换用户平面数据。在至少一个实施例中,用于用户平面的通用分组无线电服务(GPRS)隧道协议(GTP-U)层(GTP-U层2304)可以用于在GPRS核心网络内和在无线电接入网络和核心网络之间运载用户数据。在至少一个实施例中,所传输的用户数据可以是IPv4、IPv6或PPP格式中的任何格式的分组。在至少一个实施例中,UDP和IP安全(UDP/IP)层(UDP/IP层2302)可以提供数据完整性的校验和、用于在源和目的地寻址不同功能的端口号、以及对所选数据流的加密和认证。在至少一个实施例中,RAN2016和S-GW2030可以利用S1-U接口来经由包括L1层2214、L2层2216、UDP/IP层2302和GTP-U层2304的协议栈来交换用户平面数据。在至少一个实施例中,S-GW2030和P-GW2034可以利用S5/S8a接口来经由包括L1层2214、L2层2216、UDP/IP层2302和GTP-U层2304的协议栈交换用户平面数据。在至少一个实施例中,如以上关于图22所讨论的,NAS协议支持UE2002的移动性和会话管理过程以建立和维持UE2002与P-GW2034之间的IP连接。图24示出了根据至少一个实施例的核心网络的组件2400。在至少一个实施例中,CN2038的组件可以在一个物理节点或单独的物理节点中实现,所述单独的物理节点包括用于从机器可读介质或计算机可读介质(例如,非暂态机器可读存储介质)读取和执行指令的组件。在至少一个实施例中,网络功能虚拟化(NFV)用于经由存储在一个或更多个计算机可读存储介质(以下进一步详细描述)中的可执行指令来虚拟化任何或所有的上述网络节点功能。在至少一个实施例中,CN2038的逻辑实例化可以被称为网络切片2402(例如,网络切片2402被示出为包括HSS2032、MME2028和S-GW2030)。在至少一个实施例中,CN2038的一部分的逻辑实例化可以被称为网络子切片2404(例如,网络子切片2404被示出为包括P-GW2034和PCRF2036)。在至少一个实施例中,NFV架构和基础设施可以用于将一个或更多个网络功能虚拟化到包括行业标准服务器硬件、存储硬件或交换机的组合的物理资源上,所述网络功能可替代地由专用硬件执行。在至少一个实施例中,NFV系统可用于执行一个或更多个EPC组件/功能的虚拟或可重新配置的实现方式。图25是示出了根据至少一个实施例的用于支持网络功能虚拟化(NFV)的系统2500的组件的框图。在至少一个实施例中,系统2500被示为包括虚拟化基础设施管理器(被示为VIM2502)、网络功能虚拟化基础设施(如NFVI2504所示)、VNF管理器(如VNFM2506所示)、虚拟化网络功能(示出为VNF2508)、元件管理器(示出为EM2510)、NFV协调器(示出为NFVO2512)、以及网络管理器(示为NM2514)。在至少一个实施例中,VIM2502管理NFVI2504的资源。在至少一个实施例中,NFVI2504可包括用于执行系统2500的物理或虚拟资源和应用(包括管理程序)。在至少一个实施例中,VIM2502可以利用NFVI2504来管理虚拟资源的生命周期(例如,与一个或更多个物理资源相关联的虚拟机(VM)的创建、维护和拆除)、跟踪VM实例、跟踪性能、VM实例和相关联的物理资源的故障和安全性、以及向其他管理系统暴露VM实例和相关联的物理资源。在至少一个实施例中,VNFM2506可以管理VNF2508。在至少一个实施例中,VNF2508可以用于执行EPC组件/功能。在至少一个实施例中,VNFM2506可以管理VNF2508的生命周期并且跟踪VNF2508的虚拟方面的性能、故障和安全性。在至少一个实施例中,EM2510可以跟踪VNF2508的功能方面的性能、故障和安全性。在至少一个实施例中,跟踪来自VNFM2506和EM2510的数据可以包括,在至少一个实施例中,由VIM2502或NFVI2504使用的性能测量(PM)数据。在至少一个实施例中,VNFM2506和EM2510两者可以放大/缩小系统2500的VNF的数量。在至少一个实施例中,NFVO2512可协调、授权、释放和占用NFVI2504的资源,以便提供所请求的服务(例如,以执行EPC功能、组件或切片)。在至少一个实施例中,NM2514可提供负责管理网络的终端用户功能包,该网络可包括具有VNF、非虚拟化网络功能或两者的网络元件(VNF的管理可经由EM2510发生)。基于计算机的系统以下各图提出但不限于可用于实现至少一个实施例的示例性的基于计算机的系统。图26示出了根据至少一个实施例的处理系统2600。在至少一个实施例中,系统2600包括一个或更多个处理器2602和一个或更多个图形处理器2608,并且可以是单处理器台式机系统、多处理器工作站系统或具有大量处理器2602或处理器核心2607的服务器系统。在至少一个实施例中,处理系统2600是结合在片上系统(SoC)集成电路内的处理平台,以用于移动、手持或嵌入式设备。在至少一个实施例中,处理系统2600可以包括或结合在基于服务器的游戏平台中,包括游戏和媒体控制台的游戏控制台、移动游戏控制台、手持游戏控制台或在线游戏控制台。在至少一个实施例中,处理系统2600是移动电话、智能电话、平板计算设备或移动互联网设备。在至少一个实施例中,处理系统2600还可包括与可穿戴设备耦合或集成在可穿戴设备中,例如智能手表可穿戴设备、智能眼镜设备、增强现实设备或虚拟现实设备。在至少一个实施例中,处理系统2600是电视或机顶盒设备,其具有一个或更多个处理器2602以及由一个或更多个图形处理器2608生成的图形界面。在至少一个实施例中,一个或更多个处理器2602每个包括一个或更多个处理器核心2607,以处理指令,该指令在被执行时执行针对系统和用户软件的操作。在至少一个实施例中,一个或更多个处理器核心2607中的每一个被配置为处理特定指令集2609。在至少一个实施例中,指令集2609可以促进复杂指令集计算(CISC)、精简指令集计算(RISC),或通过超长指令字(VLIW)进行计算。在至少一个实施例中,多个处理器核心2607可以各自处理不同的指令集2609,该指令集2609可以包括有助于仿真其他指令集的指令。在至少一个实施例中,处理器核心2607还可以包括其他处理设备,例如数字信号处理器(DSP)。在至少一个实施例中,处理器2602包括高速缓存存储器(cache)2604。在至少一个实施例中,处理器2602可以具有单个内部高速缓存或多个级别的内部高速缓存。在至少一个实施例中,高速缓存存储器在处理器2602的各个组件之间共享。在至少一个实施例中,处理器2602还使用外部高速缓存(例如,三级(L3)高速缓存或最后一级高速缓存(LLC))(未示出),其可以使用已知的高速缓存一致性技术在处理器核心2607之间共享该逻辑。在至少一个实施例中,处理器2602中另外包括寄存器文件2606,处理器2602可以包括用于存储不同类型的数据的不同类型的寄存器(例如,整数寄存器、浮点寄存器、状态寄存器和指令指针寄存器)。在至少一个实施例中,寄存器文件2606可以包括通用寄存器或其他寄存器。在至少一个实施例中,一个或更多个处理器2602与一个或更多个接口总线2610耦合,以在处理器2602与系统2600中的其他组件之间传输通信信号,例如地址、数据或控制信号。在至少一个实施例中,接口总线2610在一个实施例中可以是处理器总线,例如直接媒体接口(DMI)总线的版本。在至少一个实施例中,接口总线2610不限于DMI总线,并且可以包括一个或更多个外围组件互连总线(例如,PCI,PCIExpress)、存储器总线或其他类型的接口总线。在至少一个实施例中,处理器2602包括集成存储器控制器2616和平台控制器集线器2630。在至少一个实施例中,存储器控制器2616促进存储设备与处理系统2600的其他组件之间的通信,而平台控制器集线器(PCH)2630通过本地I/O总线提供到输入/输出(I/O)设备的连接。在至少一个实施例中,存储器设备2620可以是动态随机存取存储器(DRAM)设备、静态随机存取存储器(SRAM)设备、闪存设备、相变存储设备或具有适当的性能以用作处理器存储器。在至少一个实施例中,存储设备2620可以用作处理系统2600的系统存储器,以存储数据2622和指令2621,以在一个或更多个处理器2602执行应用或过程时使用。在至少一个实施例中,存储器控制器2616还与可选的外部图形处理器2612耦合,其可以与处理器2602中的一个或更多个图形处理器2608通信以执行图和媒体操作。在至少一个实施例中,显示设备2611可以连接至处理器2602。在至少一个实施例中,显示设备2611可以包括内部显示设备中的一个或更多个,例如在移动电子设备或便携式计算机设备或通过显示器接口(例如显示端口(DisplayPort)等)连接的外部显示设备。在至少一个实施例中,显示设备2611可以包括头戴式显示器(HMD),诸如用于虚拟现实(VR)应用或增强现实(AR)应用中的立体显示设备。在至少一个实施例中,平台控制器集线器2630使外围设备能够通过高速I/O总线连接到存储设备2620和处理器2602。在至少一个实施例中,I/O外围设备包括但不限于音频控制器2646、网络控制器2634、固件接口2628、无线收发器2626、触摸传感器2625、数据存储设备2624(例如,硬盘驱动器、闪存等)。在至少一个实施例中,数据存储设备2624可以经由存储器接口(例如,SATA)或经由外围总线来连接,诸如外围组件互连总线(例如,PCI、PCIe)。在至少一个实施例中,触摸传感器2625可以包括触摸屏传感器、压力传感器或指纹传感器。在至少一个实施例中,无线收发器2626可以是Wi-Fi收发器、蓝牙收发器或移动网络收发器,诸如3G、4G或长期演进(LTE)收发器。在至少一个实施例中,固件接口2628使能与系统固件的通信,在至少一个实施例中,并且可以是统一的可扩展固件接口(UEFI)。在至少一个实施例中,网络控制器2634可以启用到有线网络的网络连接。在至少一个实施例中,高性能网络控制器(未示出)与接口总线2610耦合。在至少一个实施例中,音频控制器2646是多通道高清晰度音频控制器。在至少一个实施例中,处理系统2600包括可选的传统(legacy)I/O控制器2640,用于将遗留(例如,个人系统2(PS/2))设备耦合到处理系统2600。在至少一个实施例中,平台控制器集线器2630还可以连接到一个或更多个通用串行总线(USB)控制器2642,该控制器连接输入设备,诸如键盘和鼠标2643组合、相机2644或其他USB输入设备。在至少一个实施例中,存储器控制器2616和平台控制器集线器2630的实例可以集成到离散的外部图形处理器中,例如外部图形处理器2612。在至少一个实施例中,平台控制器集线器2630和/或存储控制器2616可以在一个或更多个处理器2602的外部。在至少一个实施例中,处理系统2600可以包括外部存储控制器2616和平台控制器集线器2630,其可以配置成在与处理器2602通信的系统芯片组中的存储器控制器集线器和外围控制器集线器。图27示出了根据至少一个实施例的计算机系统2700。在至少一个实施例中,计算机系统2700可以是具有互连的设备和组件,SOC,或某种组合的系统。在至少一个实施例中,计算机系统2700由处理器2702形成,该处理器2702可以包括用于执行指令的执行单元。在至少一个实施例中,计算机系统2700可以包括但不限于组件,例如处理器2702,其采用包括逻辑的执行单元以执行用于过程数据的算法。在至少一个实施例中,计算机系统2700可以包括处理器,例如可从加利福尼亚圣塔克拉拉的英特尔公司(IntelCorporationofSantaClara,California)获得的处理器家族、XeonTM、XScaleTM和/或StrongARMTM,CoreTM或NervanaTM微处理器,尽管也可以使用其他系统(包括具有其他微处理器的PC、工程工作站、机顶盒等)。在至少一个实施例中,计算机系统2700可以执行可从华盛顿州雷蒙德市的微软公司(MicrosoftCorporationofRedmond,Wash.)获得的WINDOWS操作系统版本,尽管其他操作系统(在至少一个实施例中UNIX和Linux)、嵌入式软件和/或图形用户界面也可以使用。在至少一个实施例中,计算机系统2700可以用在其他设备中,例如手持设备和嵌入式应用。手持设备的至少一个实施例的一些包括蜂窝电话、互联网协议(InternetProtocol)设备、数码相机、个人数字助理(“PDA”)和手持PC。在至少一个实施例中,嵌入式应用可以包括微控制器、数字信号处理器(“DSP”)、SoC、网络计算机(“NetPC”)、机顶盒、网络集线器、广域网(“WAN”)交换机,或根据至少一个实施例可以执行一个或更多个指令的任何其他系统。在至少一个实施例中,计算机系统2700可包括但不限于处理器2702,该处理器2702可包括但不限于一个或更多个执行单元2708,其可以配置为执行计算统一设备架构(“CUDA”)(由加利福尼亚州圣克拉拉的NVIDIACorporation开发)程序。在至少一个实施例中,CUDA程序是用CUDA编程语言编写的软件应用程序的至少一部分。在至少一个实施例中,计算机系统2700是单处理器台式机或服务器系统。在至少一个实施例中,计算机系统2700可以是多处理器系统。在至少一个实施例中,处理器2702可以包括但不限于CISC微处理器、RISC微处理器、VLIW微处理器、实现指令集组合的处理器,或任何其他处理器设备,在至少一个实施例中,诸如数字信号处理器。在至少一个实施例中,处理器2702可以耦合到处理器总线2710,该处理器总线2710可以在处理器2702与计算机系统2700中的其他组件之间传输数据信号。在至少一个实施例中,处理器2702可以包括但不限于1级(“L1”)内部高速缓存存储器(“cache”)2704。在至少一个实施例中,处理器2702可以具有单个内部高速缓存或多级内部缓存。在至少一个实施例中,高速缓存存储器可以驻留在处理器2702的外部。在至少一个实施例中,处理器2702可以包括内部和外部高速缓存的组合。在至少一个实施例中,寄存器文件2706可以在各种寄存器中存储不同类型的数据,包括但不限于整数寄存器、浮点寄存器、状态寄存器和指令指针寄存器。在至少一个实施例中,包括但不限于执行整数和浮点运算的逻辑的执行单元2708,其也位于处理器2702中。处理器2702还可以包括微码(“ucode”)只读存储器(“ROM”),用于存储某些宏指令的微代码。在至少一个实施例中,执行单元2708可以包括用于处理封装指令集2709的逻辑。在至少一个实施例中,通过将封装指令集2709包括在通用处理器2702的指令集中,以及要执行指令的相关电路,可以使用通用处理器2702中的封装数据来执行许多多媒体应用程序使用的操作。在至少一个实施例中,可以通过使用处理器的数据总线的全宽度来在封装的数据上执行操作来加速和更有效地执行许多多媒体应用程序,这可能不需要在处理器的数据总线上传输较小的数据单元来一次对一个数据元素执行一个或更多个操作。在至少一个实施例中,执行单元2708也可以用在微控制器、嵌入式处理器、图形设备、DSP和其他类型的逻辑电路中。在至少一个实施例中,计算机系统2700可以包括但不限于存储器2720。在至少一个实施例中,存储器2720可以被实现为DRAM设备、SRAM设备、闪存设备或其他存储设备。存储器2720可以存储由处理器2702可以执行的由数据信号表示的指令2719和/或数据2721。在至少一个实施例中,系统逻辑芯片可以耦合到处理器总线2710和存储器2720。在至少一个实施例中,系统逻辑芯片可以包括但不限于存储器控制器集线器(“MCH”)2716,并且处理器2702可以经由处理器总线2710与MCH2716通信。在至少一个实施例中,MCH2716可以提供到存储器2720的高带宽存储器路径2718以用于指令和数据存储以及用于图形命令、数据和纹理的存储。在至少一个实施例中,MCH2716可以在处理器2702、存储器2720和计算机系统2700中的其他组件之间启动数据信号,并且在处理器总线2710、存储器2720和系统I/O2722之间桥接数据信号。在至少一个实施例中,系统逻辑芯片可以提供用于耦合到图形控制器的图形端口。在至少一个实施例中,MCH2716可以通过高带宽存储器路径2718耦合到存储器2720,并且图形/视频卡2712可以通过加速图形端口(AcceleratedGraphicsPort)(“AGP”)互连2714耦合到MCH2716。在至少一个实施例中,计算机系统2700可以使用系统I/O2722作为专有集线器接口总线来将MCH2716耦合到I/O控制器集线器(“ICH”)2730。在至少一个实施例中,ICH2730可以通过本地I/O总线提供与某些I/O设备的直接连接。在至少一个实施例中,本地I/O总线可以包括但不限于用于将外围设备连接到存储器2720、芯片组和处理器2702的高速I/O总线。示例可以包括但不限于音频控制器2729、固件集线器(“FlashBIOS”)2728、无线收发器2726、数据存储2724、包含用户输入2725的传统I/O控制器2723和键盘接口、串行扩展端口2777(例如USB)和网络控制器2734。数据存储2724可以包括硬盘驱动器、软盘驱动器、CD-ROM设备、闪存设备或其他大容量存储设备。在至少一个实施例中,图27示出了包括互连的硬件设备或“芯片”的系统。在至少一个实施例中,图27可以示出示例性SoC。在至少一个实施例中,图27中示出的设备可以与专有互连、标准化互连(例如,PCIe)或其某种组合互连。在至少一个实施例中,系统2700的一个或更多个组件使用计算快速链路(CXL)互连来互连。图28示出了根据至少一个实施例的系统2800。在至少一个实施例中,系统2800是利用处理器2810的电子设备。在至少一个实施例中,系统2800可以是,在至少一个实施例中但不限于,笔记本电脑、塔式服务器、机架服务器、刀片服务器、膝上型计算机、台式机、平板电脑、移动设备、电话、嵌入式计算机或任何其他合适的电子设备。在至少一个实施例中,系统2800可以包括但不限于通信地耦合到任何合适数量或种类的组件、外围设备、模块或设备的处理器2810。在至少一个实施例中,处理器2810使用总线或接口耦合,诸如I2C总线、系统管理总线(“SMBus”)、低引脚数(LPC)总线、串行外围接口(“SPI”)、高清音频(“HDA”)总线、串行高级技术附件(“SATA”)总线、USB(1、2、3版)或通用异步接收器/发送器(“UART”)总线。在至少一个实施例中,图28示出了系统,该系统包括互连的硬件设备或“芯片”。在至少一个实施例中,图28可以示出示例性SoC。在至少一个实施例中,图28中所示的设备可以与专有互连线、标准化互连(例如,PCIe)或其某种组合互连。在至少一个实施例中,图28的一个或更多个组件使用计算快速链路(CXL)互连线来互连。在至少一个实施例中,图28可以包括显示器2824、触摸屏2825、触摸板2830、近场通信单元(“NFC”)2845、传感器集线器2840、热传感器2846、快速芯片组(“EC”)2835、可信平台模块(“TPM”)2838、BIOS/固件/闪存(“BIOS,FWFlash”)2822、DSP2860、固态磁盘(“SSD”)或硬盘驱动器(“HDD”)2820、无线局域网单元(“WLAN”)2850、蓝牙单元2852、无线广域网单元(“WWAN”)2856、全球定位系统(GPS)2855、相机(“USB3.0相机”)2854(例如USB3.0相机)或以至少一个实施例LPDDR3标准实现的低功耗双倍数据速率(“LPDDR”)存储器单元(“LPDDR3”)2815。这些组件可以各自以任何合适的方式实现。在至少一个实施例中,其他组件可以通过以上讨论的组件通信地耦合到处理器2810。在至少一个实施例中,加速度计2841、环境光传感器(“ALS”)2842、罗盘2843和陀螺仪2844可以可通信地耦合到传感器集线器2840。在至少一个实施例中,热传感器2839、风扇2837、键盘2846和触摸板2830可以通信地耦合到EC2835。在至少一个实施例中,扬声器2863、耳机2864和麦克风(“mic”)2865可以通信地耦合到音频单元(“音频编解码器和D类放大器”)2864,其又可以通信地耦合到DSP2860。在至少一个实施例中,音频单元2864可以包括但不限于音频编码器/解码器(“编解码器”)和D类放大器。在至少一个实施例中,SIM卡(“SIM”)2857可以通信地耦合到WWAN单元2856。在至少一个实施例中,组件(诸如WLAN单元2850和蓝牙单元2852以及WWAN单元2856)可以被实现为下一代形式因素(NGFF)。图29示出了根据至少一个实施例的示例性集成电路2900。在至少一个实施例中,示例性集成电路2900是SoC,其可使用一个或更多个IP核心制造。在至少一个实施例中,集成电路2900包括一个或更多个应用处理器2905(例如,CPU)、至少一个图形处理器2910,并且可以另外包括图像处理器2915和/或视频处理器2920,其中任意一个可能是模块化IP核心。在至少一个实施例中,集成电路2900包括外围或总线逻辑,其包括USB控制器2925、UART控制器2930、SPI/SDIO控制器2935和I2S/I2C控制器2940。在至少一个实施例中,集成电路2900可以包括显示设备2945耦合到高清多媒体接口(HDMI)控制器2950和移动工业处理器接口(MIPI)显示接口2955中的一个或更多个。在至少一个实施例中,存储可以由闪存子系统2960提供,包括闪存和闪存控制器。在至少一个实施例中,可以经由存储器控制器2965提供存储器接口以用于访问SDRAM或SRAM存储器设备。在至少一个实施例中,一些集成电路还包括嵌入式安全引擎2970。图30示出了根据至少一个实施例的计算系统3000。在至少一个实施例中,计算系统3000包括处理子系统3001,其具有经由可以包括存储器集线器3005的互连路径通信的一个或更多个处理器3002和系统存储器3004。在至少一个实施例中,存储器集线器3005可以是芯片组组件内的单独组件,也可以集成在一个或更多个处理器3002内。在至少一个实施例中,存储器集线器3005通过通信链路3006与I/O子系统3011耦合。在至少一个实施例中,I/O子系统3011包括I/O集线器3007,其可以使计算系统3000能够接收来自一个或更多个输入设备3008的输入。在至少一个实施例中,I/O集线器3007可以使能显示控制器,其包括在一个或更多个处理器3002中,用于向一个或更多个显示设备3010A提供输出。在至少一个实施例中,与I/O集线器3007耦合的一个或更多个显示设备3010A可以包括本地、内部或嵌入式显示设备。在至少一个实施例中,处理子系统3001包括经由总线或其他通信链路3013耦合到存储器集线器3005的一个或更多个并行处理器3012。在至少一个实施例中,通信链路3013可以是许多基于标准的通信链路技术或协议中的一种,例如但不限于PCIe,或者可以是针对供应商的通信接口或通信结构。在至少一个实施例中,一个或更多个并行处理器3012形成计算集中的并行或向量处理系统,该系统可以包括大量的处理核心和/或处理集群,例如多集成核心(MIC)处理器。在至少一个实施例中,一个或更多个并行处理器3012形成可以将像素输出到经由I/O集线器3007耦合的一个或更多个显示设备3010A之一的图形处理子系统。在至少一个实施例中,一个或更多个并行处理器3012还可以包括显示控制器和显示接口(未示出),以使得能够直接连接到一个或更多个显示设备3010B。在至少一个实施例中,系统存储单元3014可以连接到I/O集线器3007,以提供用于计算系统3000的存储机制。在至少一个实施例中,I/O交换机3016可以用于提供接口机制,以实现I/O集线器3007与其他组件之间的连接,例如可以集成到平台中的网络适配器3018和/或无线网络适配器3019,以及可以通过一个或更多个附加设备3020添加的各种其他设备。在至少一个实施例中,网络适配器3018可以是以太网适配器或另一有线网络适配器。在至少一个实施例中,无线网络适配器3019可以包括Wi-Fi、蓝牙、NFC的一个或更多个或其他包括一个或更多个无线电的网络设备。在至少一个实施例中,计算系统3000可以包括未明确示出的其他组件,包括USB或其他端口连接、光存储驱动器、视频捕获设备和/或其变体,也可以连接到I/O集线器3007。在至少一个实施例中,对图30中的各个组件进行互连的通信路径可以使用任何合适的协议来实现,诸如基于PCI(外围组件互连)的协议(例如,PCIe),或其他总线或点对点通信接口和/或协议(例如,NVLink高速互连或互连协议)。在至少一个实施例中,一个或更多个并行处理器3012包括针对图形和视频处理而优化的电路(在至少一个实施例,包括视频输出电路),并构成图形处理单元(GPU)。在至少一个实施例中,一个或更多个并行处理器3012包括针对通用处理而优化的电路。在至少一个实施例中,计算系统3000的组件可以与单个集成电路上的一个或更多个其他系统元件集成。在至少一个实施例中,一个或更多个并行处理器3012、存储器集线器3005、处理器3002和I/O集线器3007可以被集成到片上系统(SoC)集成电路中。在至少一个实施例中,计算系统3000的组件可以被集成到单个封装中以形成系统级封装(SIP)配置。在至少一个实施例中,计算系统3000的组件的至少一部分可以被集成到多芯片模块(MCM)中,该多芯片模块可以与其他多芯片模块互连到模块化计算系统中。在至少一个实施例中,从计算系统3000中省略了I/O子系统3011和显示设备3010B。处理系统以下各图阐述了但不限于可用于实现至少一个实施例的示例性处理系统。图31示出了根据至少一个实施例的加速处理单元(“APU”)3100。在至少一个实施例中,APU3100由加利福尼亚州圣克拉拉市的AMD公司开发。在至少一个实施例中,APU3100可以被配置为执行应用程序,诸如CUDA程序。在至少一个实施例中,APU3100包括但不限于核心复合体3110、图形复合体3140、结构3160、I/O接口3170、存储器控制器3180、显示控制器3192和多媒体引擎3194。在至少一个实施例中,APU3100可以包括但不限于任意数量的核心复合体3110、任意数量的图形复合体3140、任意数量的显示控制器3192和任意数量的多媒体引擎3194的任何组合。为了说明的目的,在本文中用附图标记表示相似对象的多个实例,其中附图标记标识该对象,并且括号中的数字标识所需要的实例。在至少一个实施例中,核心复合体3110是CPU,图形复合体3140是GPU,并且APU3100是将不限于3110和3140集成到单个芯片上的处理单元。在至少一个实施例中,一些任务可以被分配给核心复合体3110,而其他任务可以被分配给图形复合体3140。在至少一个实施例中,核心复合体3110被配置为执行与APU3100相关联的主控制软件,例如操作系统。在至少一个实施例中,核心复合体3110是APU3100的主处理器,其控制和协调其他处理器的操作。在至少一个实施例中,核心复合体3110发出控制图形复合体3140的操作的命令。在至少一个实施例中,核心复合体3110可以被配置为执行从CUDA源代码派生的主机可执行代码,并且图形复合体3140可以被配置为执行从CUDA源代码派生的设备可执行代码。在至少一个实施例中,核心复合体3110包括但不限于核心3120(1)-3120(4)和L3高速缓存3130。在至少一个实施例中,核心复合体3110可以包括但不限于任意数量的核心3120以及任意数量和类型的高速缓存的任何组合。在至少一个实施例中,核心3120被配置为执行特定指令集架构(“ISA”)的指令。在至少一个实施例中,每个核心3120是CPU核心。在至少一个实施例中,每个核心3120包括但不限于获取/解码单元3122,整数执行引擎3124,浮点执行引擎3126和L2高速缓存3128。在至少一个实施例中,获取/解码单元3122获取指令,对这些指令进行解码,生成微操作,并将单独的微指令分派给整数执行引擎3124和浮点执行引擎3126。在至少一个实施例中,获取/解码单元3122可以同时分派一个微指令到整数执行引擎3124和另一微指令到浮点执行引擎3126。在至少一个实施例中,整数执行引擎3124执行不限于整数和存储器操作。在至少一个实施例中,浮点引擎3126执行不限于浮点和向量运算。在至少一个实施例中,获取-解码单元3122将微指令分派给单个执行引擎,该执行引擎代替整数执行引擎3124和浮点执行引擎3126两者。在至少一个实施例中,每个核心3120(i)可以访问包括在核心3120(i)中的L2高速缓存3128(i),其中i是表示核心3120的特定实例的整数。在至少一个实施例中,包括在核心复合体3110(j)中的每个核心3120经由包括在核心复合体3110(j)中的L3高速缓存3130(j)连接到包括在核心复合体3110(j)中的其他核心3120,其中j是表示核心复合体3110的特定实例的整数。在至少一个实施例中,包括在核心复合体3110(j)中的核心3120可以访问包括在核心复合体3110(j)中的所有L3高速缓存3130(j),其中j是表示核心复合体3110的特定实例的整数。在至少一个实施例中,L3高速缓存3130可以包括但不限于任意数量的切片(slice)。在至少一个实施例中,图形复合体3140可以被配置为以高度并行的方式执行计算操作。在至少一个实施例中,图形复合体3140被配置为执行图形管线操作,诸如绘制命令、像素操作、几何计算以及与将图像渲染至显示器相关联的其他操作。在至少一个实施例中,图形复合体3140被配置为执行与图形无关的操作。在至少一个实施例中,图形复合体3140被配置为执行与图形有关的操作和与图形无关的操作。在至少一个实施例中,图形复合体3140包括但不限于任意数量的计算单元3150和L2高速缓存3142。在至少一个实施例中,计算单元3150共享L2高速缓存3142。在至少一个实施例中,L2高速缓存3142被分区。在至少一个实施例中,图形复合体3140包括但不限于任意数量的计算单元3150以及任意数量(包括零)和类型的高速缓存。在至少一个实施例中,图形复合体3140包括但不限于任意数量的专用图形硬件。在至少一个实施例中,每个计算单元3150包括但不限于任意数量的SIMD单元3152和共享存储器3154。在至少一个实施例中,每个SIMD单元3152实现SIMD架构并且被配置为并行执行操作。在至少一个实施例中,每个计算单元3150可以执行任意数量的线程块,但是每个线程块在单个计算单元3150上执行。在至少一个实施例中,线程块包括但不限于任意数量的执行线程。在至少一个实施例中,工作组是线程块。在至少一个实施例中,每个SIMD单元3152执行不同的线程束(warp)。在至少一个实施例中,线程束是一组线程(例如16个线程),其中线程束中的每个线程属于单个线程块,并且被配置为基于单个指令集来处理不同的数据集。在至少一个实施例中,可以使用预测(predication)来禁用线程束中的一个或更多个线程。在至少一个实施例中,通道是线程。在至少一个实施例中,工作项是线程。在至少一个实施例中,波前是线程束。在至少一个实施例中,线程块中的不同波前可一起同步并经由共享存储器3154进行通信。在至少一个实施例中,结构3160是系统互连,其促进跨核心复合体3110、图形复合体3140、I/O接口3170、存储器控制器3180、显示控制器3192和多媒体引擎3194的数据和控制传输。在至少一个实施例中,除了结构3160之外或代替结构3160,APU3100还可以包括但不限于任意数量和类型的系统互连,该结构3160促进跨可以在APU3100内部或外部的任意数量和类型的直接或间接链接的组件的数据和控制传输。在至少一个实施例中,I/O接口3170表示任意数量和类型的I/O接口(例如,PCI,PCI-Extended(“PCI-X”),PCIe,千兆以太网(“GBE”),USB等)。在至少一个实施例中,各种类型的外围设备耦合到I/O接口3170。在至少一个实施例中,耦合到I/O接口3170的外围设备可以包括但不限于键盘,鼠标,打印机,扫描仪,操纵杆或其他类型的游戏控制器、媒体记录设备、外部存储设备、网络接口卡等。在至少一个实施例中,显示控制器AMD92在一个或更多个显示设备(例如液晶显示器(LCD)设备)上显示图像。在至少一个实施例中,多媒体引擎240包括但不限于任意数量和类型的与多媒体相关的电路,例如视频解码器、视频编码器、图像信号处理器等。在至少一个实施例中,存储器控制器3180促进APU3100与统一系统存储器3190之间的数据传输。在至少一个实施例中,核心复合体3110和图形复合体3140共享统一系统存储器3190。在至少一个实施例中,APU3100实现种存储器子系统,其包括但不限于任意数量和类型的存储器控制器3180和可以专用于一个组件或在多个组件之间共享的存储器设备(例如,共享存储器3154)。组件。在至少一个实施例中,APU3100实现高速缓存子系统,其包括但不限于一个或更多个高速缓存存储器(例如,L2高速缓存2728,L3高速缓存3130和L2高速缓存3142),每个高速缓存存储器可以是组件私有的或在任意数量的组件(例如,核心3120,核心复合体3110,SIMD单元3152,计算单元3150和图形复合体3140)之间共享。图32示出了根据至少一个实施例的CPU3200。在至少一个实施例中,CPU3200由加利福尼亚州圣克拉拉市的AMD公司开发。在至少一个实施例中,CPU3200可以被配置为执行应用程序。在至少一个实施例中,CPU3200被配置为执行主控制软件,例如操作系统。在至少一个实施例中,CPU3200发出控制外部GPU(未示出)的操作的命令。在至少一个实施例中,CPU3200可以被配置为执行从CUDA源代码派生的主机可执行代码,并且外部GPU可以被配置为执行从这种CUDA源代码派生的设备可执行代码。在至少一个实施例中,CPU3200包括但不限于任意数量的核心复合体3210,结构3260,I/O接口3270和存储器控制器3280。在至少一个实施例中,核心复合体3210包括但不限于核心3220(1)-3220(4)和L3高速缓存3230。在至少一个实施例中,核心复合体3210可以包括但不限于任意数量的核心3220以及任意数量和类型的高速缓存的任何组合。在至少一个实施例中,核心3220被配置为执行特定ISA的指令。在至少一个实施例中,每个核心3220是CPU核心。在至少一个实施例中,每个核心3220包括但不限于获取/解码单元3222,整数执行引擎3224,浮点执行引擎3226和L2高速缓存3228。在至少一个实施例中,获取/解码单元3222获取指令,对这些指令进行解码,生成微操作,并将单独的微指令分派给整数执行引擎3224和浮点执行引擎3226。在至少一个实施例中,获取/解码单元3222可以同时分派一个微指令至整数执行引擎3224和另一微指令至浮点执行引擎3226。在至少一个实施例中,整数执行引擎3224执行不限于整数和存储器操作。在至少一个实施例中,浮点引擎3226执行不限于浮点和向量运算。在至少一个实施例中,获取-解码单元3222将微指令分派给单个执行引擎,该引擎代替整数执行引擎3224和浮点执行引擎3226两者。在至少一个实施例中,每个核心3220(i)可以访问包括在核心3220(i)中的L2高速缓存3228(i),其中i是表示核心3220的特定实例的整数。在至少一个实施例中,包括在核心复合体3210(j)中的每个核心3220经由包括在核心复合体3210(j)中的L3高速缓存3230(j)连接到核心复合体3210(j)中的其他核心3220,其中j是表示核心复合体3210的特定实例的整数。在至少一个实施例中,包括在核心复合体3210(j)中的核心3220可以访问包括在核心复合体3210(j)中的所有L3高速缓存3230(j),其中j是表示核心复合体3210的特定实例的整数。在至少一个实施例中,L3高速缓存3230可以包括但不限于任意数量的切片。在至少一个实施例中,结构3260是系统互连,其促进跨核心复合体3210(1)-3210(N)(其中N是大于零的整数)、I/O接口3270和存储器控制器3280的数据和控制传输。在至少一个实施例中,除了结构3260之外或代替结构3260,CPU3200还可以包括但不限于任意数量和类型的系统互连,该结构3260促进跨可以在CPU3200内部或外部的任意数量和类型的直接或间接链接的组件的数据和控制传输。在至少一个实施例中,I/O接口3270表示任意数量和类型的I/O接口(例如PCI,PCI-X,PCIe,GBE,USB等)。在至少一个实施例中,各种类型的外围设备耦合到I/O接口3270。在至少一个实施例中,耦合到I/O接口3270的外围设备可以包括但不限于显示器,键盘,鼠标,打印机,扫描仪,操纵杆或其他类型的游戏控制器、媒体记录设备、外部存储设备、网络接口卡等。在至少一个实施例中,存储器控制器3280促进CPU3200与系统存储器3290之间的数据传输。在至少一个实施例中,核心复合体3210和图形复合体3240共享系统存储器3290。在至少一个实施例中,CPU3200实现存储器子系统,其包括但不限于任意数量和类型的存储器控制器3280和可以专用于一个组件或在多个组件之间共享的存储器设备。在至少一个实施例中,CPU3200实现了高速缓存子系统,其包括但不限于一个或更多个高速缓存存储器(例如,L2高速缓存3228和L3高速缓存3230),每个高速缓存存储器可以是组件私有的或在任意数量的组件(例如,核心3220和核心复合体3210)之间共享。图33示出了根据至少一个实施例的示例性加速器集成切片3390。如本文所使用的,“切片”包括加速器集成电路的处理资源的指定部分。在至少一个实施例中,加速器集成电路代表多个图形加速模块种的多个图形处理引擎提供高速缓存管理、存储器访问、环境管理和中断管理服务。图形处理引擎可以各自包括单独的GPU。可选地,图形处理引擎可包括GPU内的不同类型的图形处理引擎,例如图形执行单元、媒体处理引擎(例如,视频编码器/解码器)、采样器和blit引擎。在至少一个实施例中,图形加速模块可以是具有多个图形处理引擎的GPU。在至少一个实施例中,图形处理引擎可以是集成在通用封装、线卡或芯片上的各个GPU。系统存储器3314内的应用程序有效地址空间3382存储进程元素3383。在一个实施例中,响应于来自处理器3307上执行的应用程序3380的GPU调用3381而存储进程元素3383。进程元素3383包含对应应用程序3380的处理状态。包含在进程元素3383中的工作描述符(WD)3384可以是应用程序请求的单个作业或可能包含指向作业队列的指针。在至少一个实施例中,WD3384是指向应用程序有效地址空间3382中的作业请求队列的指针。图形加速模块3346和/或各个图形处理引擎可以由系统中的全部或部分进程共享。在至少一个实施例中,可以包括用于建立处理状态并将WD3384发送到图形加速模块3346以在虚拟化环境中开始作业的基础设施。在至少一个实施例中,专用进程编程模型是针对实现的。在该模型中,单个进程拥有图形加速模块3346或个体图形处理引擎。由于图形加速模块3346由单个进程拥有,因此管理程序为拥有的分区初始化加速器集成电路,并且当分配图形加速模块3346时操作系统对加速器集成电路进行初始化以用于拥有的分区。在操作中,加速器集成切片3390中的WD获取单元3391获取下一个WD3384,其中包括要由图形加速模块3346的一个或更多个图形处理引擎完成的工作的指示。来自WD3384的数据可以存储在寄存器3345被存储器管理单元(MMU)3339、中断管理电路3347和/或环境管理电路3348使用,如图所示。MMU3339的至少一个实施例包括用于访问OS虚拟地址空间3385内的段/页表3386的段/页面漫游电路。中断管理电路3347可以处理从图形加速模块3346接收到的中断事件(INT)3392。当执行图操作时,由图形处理引擎产生的有效地址3393由MMU3339转换为实际地址。在一个实施例中,为每个图形处理引擎和/或图形加速模块3346复制相同的寄存器组3345,并且可以由系统管理程序或操作系统来初始化。这些复制的寄存器中的每一个都可以包含在加速器集成切片3390中。表1中显示了可由管理程序初始化的示例性寄存器。表1–管理程序初始化的寄存器表2中示出了可以由操作系统初始化的示例性寄存器。表2–操作系统初始化寄存器1进程和线程识别2有效地址(EA)环境保存/还原指针3虚拟地址(VA)加速器利用率记录指针4虚拟地址(VA)存储分段表指针5权威面具6工作描述符在一个实施例中,每个WD3384特定于特定的图形加速模块3346和/或特定图形处理引擎。它包含图形处理引擎进行工作或工作所需的所有信息,或者它可以是指向存储器位置的指针,其中应用程序建立了要完成的工作的命令队列。图34A-34B示出了根据本文至少一个实施例的示例性图形处理器。在至少一个实施例中,任何示例性图形处理器可以使用一个或更多个IP核心来制造。除了图示之外,在至少一个实施例中可以包括其他逻辑和电路,包括附加的图形处理器/核心、外围接口控制器或通用处理器核心。在至少一个实施例中,示例性图形处理器用于SoC内。图34A示出了根据至少一个实施例的SoC集成电路的示例性图形处理器3410,其可以使用一个或更多个IP核心来制造。图34B示出了根据至少一个实施例的SoC集成电路的的附加示例性图形处理器3440,其可以使用一个或更多个IP核心来制造。在至少一个实施例中,图34A的图形处理器3410是低功耗图形处理器核心。在至少一个实施例中,图34B的图形处理器3440是更高性能的图形处理器核心。在至少一个实施例中,每个图形处理器3410、3440可以是图5的图形处理器510的变体。在至少一个实施例中,图形处理器3410包括顶点处理器3405和一个或更多个片段处理器3415A-3415N(例如3415A、3415B、3415C、3415D至3415N-1和3415N)。在至少一个实施例中,图形处理器3410可以经由单独的逻辑来执行不同的着色器程序,使得顶点处理器3405被优化以执行针对顶点着色器程序的操作,而一个或更多个片段处理器3415A-3415N执行片段(例如,像素)着色操作用于片段或像素或着色器程序。在至少一个实施例中,顶点处理器3405执行3D图形管线的顶点处理阶段并生成图元和顶点数据。在至少一个实施例中,片段处理器3415A-3415N使用由顶点处理器3405生成的图元和顶点数据来生成在显示设备上显示的帧缓冲区。在至少一个实施例中,片段处理器3415A-3415N被优化以执行如在OpenGLAPI中所提供的片段着色器程序,其可以用于执行与在Direct3DAPI中所提供的像素着色器程序类似的操作。在至少一个实施例中,图形处理器3410附加地包括一个或更多个MMU3420A-3420B、高速缓存3425A-3425B和电路互连3430A-3430B。在至少一个实施例中,一个或更多个MMU3420A-3420B提供用于图形处理器3410的虚拟到物理地址的映射,包括用于顶点处理器3405和/或片段处理器3415A-3415N,其可以引用存储在存储器中的顶点或图像/纹理数据,除了存储在一个或更多个高速缓存3425A-3425B中的顶点或图像/纹理数据之外。在至少一个实施例中,一个或更多个MMU3420A-3420B可以与系统内的其他MMU同步,包括与图5的一个或更多个应用处理器505、图像处理器515和/或视频处理器520相关联的一个或更多个MMU,使得每个处理器505-520可以参与共享或统一的虚拟存储器系统。在至少一个实施例中,一个或更多个电路互连3430A-3430B使图形处理器3410能够经由SoC的内部总线或经由直接连接与SoC内的其他IP核心相连接。在至少一个实施例中,图形处理器3440包括图34A的图形处理器3410的一个或更多个MMU3420A-3420B、高速缓存3425A-3425B和电路互连3430A-3430B。在至少一个实施例中,图形处理器3440包括一个或更多个着色器核心3455A-3455N(例如,3455A、3455B、3455C、3455D、3455E、3455F、至3455N-1和3455N),其提供了统一的着色器核心架构,其中单个核心或类型或核心可以执行所有类型的可编程着色器代码,包括用于实现顶点着色器、片段着色器和/或计算着色器的着色器程序代码。在至少一个实施例中,多个着色器核心可以变化。在至少一个实施例中,图形处理器3440包括核心间任务管理器3445,其充当线程分派器以将执行线程分派给一个或更多个着色器核心3455A-3455N和分块单元3458,以加速基于图块渲染的分块操作,其中在图像空间中细分了场景的渲染操作,例如,以利用场景内的局部空间一致性或优化内部缓存的使用。图35A示出了根据至少一个实施例的图形核心3500。在至少一个实施例中,图形核心3500可以包括在图24的图形处理器2410内。在至少一个实施例中,图形核心3500可以是图34B中统一的着色器核心3455A-3455N。在至少一个实施例中,图形核心3500包括共享指令高速缓存3502、纹理单元3518和高速缓存/共享存储器3520,它们是图形核心3500内的执行资源所共有的。在至少一个实施例中,图形核心3500可以包括多个切片(slice)3501A-3501N或每个核心的分区,图形处理器可以包括图形核心3500的多个实例。切片3501A-3501N可以包括支持逻辑,该支持逻辑包括本地指令高速缓存3504A-3504N、线程调度器3506A-3506N、线程分派器3508A-3508N和一组寄存器3510A-3510N。在至少一个实施例中,切片3501A-3501N可以包括一组附加功能单元(AFU)3512A-3512N、浮点单元(FPU)3514A-3514N、整数算术逻辑单元(ALU)3516A-3516N、地址计算单元(ACU)3513A-3513N、双精度浮点单元(DPFPU)3515A-3515N和矩阵处理单元(MPU)3517A-3517N。在一个实施例中,FPU3514A-3514N可以执行单精度(32位)和半精度(16位)浮点运算,而DPFPU3515A-3515N可以执行双精度(64位)浮点运算点操作。在至少一个实施例中,ALU3516A-3516N可以以8位、16位和32位精度执行可变精度整数运算,并且可以被配置用于混合精度运算。在至少一个实施例中,MPU3517A-3517N还可被配置用于混合精度矩阵运算,包括半精度浮点运算和8位整数运算。在至少一个实施例中,MPU3517A-3517N可以执行各种矩阵操作以加速CUDA程序,包括使得能够支持加速的通用矩阵到矩阵乘法(GEMM)。在至少一个实施例中,AFU3512A-3512N可以执行浮点数或整数单元不支持的附加逻辑运算,包括三角运算(例如,Sine、Cosine等)。图35B示出了在至少一个实施例中的通用图形处理单元(GPGPU)3530。在至少一个实施例中,GPGPU3530是高度并行的并且适合于部署在多芯片模块上。在至少一个实施例中,GPGPU3530可以被配置为使得高度并行的计算操作能够由GPU阵列来执行。在至少一个实施例中,GPGPU3530可以直接链路到GPGPU3530的其他实例,以创建多GPU集群以提高用于CUDA程序的执行时间。在至少一个实施例中,GPGPU3530包括主机接口3532以实现与主机处理器的连接。在至少一个实施例中,主机接口3532是PCIe接口。在至少一个实施例中,主机接口3532可以是厂商专用的通信接口或通信结构。在至少一个实施例中,GPGPU3530从主机处理器接收命令,并使用全局调度器3534将与那些命令相关联的执行线程分派给一组计算集群3536A-3536H。在至少一个实施例中,计算集群3536A-3536H共享高速缓存存储器3538。在至少一个实施例中,高速缓存存储器3538可以用作计算集群3536A-3536H内的高速缓存存储器的高级高速缓存。在至少一个实施例中,GPGPU3530包括经由一组存储器控制器3542A-3542B与计算集群3536A-3536H耦合的存储器3544A-3544B。在至少一个实施例中,存储器3544A-3544B可以包括各种类型的存储器设备,包括动态随机存取存储器(DRAM)或图形随机存取存储器,例如同步图形随机存取存储器(SGRAM),包括图形双倍数据速率(GDDR)存储器。在至少一个实施例中,计算集群3536A-3536H各自包括一组图形核心,诸如图35A的图形核心3500,其可以包括多种类型的整数和浮点逻辑单元,可以以各种精度执行计算操作,包括适合与CUDA程序相关的计算。在至少一个实施例中,每个计算集群3536A-3536H中的浮点单元的至少一个子集可以配置为执行16位或32位浮点运算,而不同的浮点单元的子集可以配置为执行64位浮点运算。在至少一个实施例中,GPGPU3530的多个实例可以被配置为操作为计算集群。在至少一个实施例中,计算集群3536A-3536H可以实现用于同步和数据交换的任何技术上可行的通信技术。在至少一个实施例中,GPGPU3530的多个实例通过主机接口3532进行通信。在至少一个实施例中,GPGPU3530包括I/O集线器3539,其将GPGPU3530与GPU链路3540耦合,使得能够直接连接至GPGPU3530的其他的实例。在至少一个实施例中,GPU链路3540耦合到专用GPU到GPU桥接器,其使得能够在GPGPU3530的多个实例之间进行通信和同步。在至少一个实施例中,GPU链路3540与高速互连耦合,以向其他GPGPU或并行处理器发送和接收数据。在至少一个实施例中,GPGPU3530的多个实例位于单独的数据处理系统中,并经由可经由主机接口3532访问的网络设备进行通信。在至少一个实施例中,GPU链路3540可被配置为能够连接到主机处理器,附加或替代主机接口3532。在至少一个实施例中,GPGPU3530可以配置为执行CUDA程序。图36A示出了根据至少一个实施例的并行处理器3600。在至少一个实施例中,并行处理器3600的各种组件可以使用一个或更多个集成电路设备来实现,例如可编程处理器、专用集成电路(ASIC)或FPGA。在至少一个实施例中,并行处理器3600包括并行处理单元3602。在至少一个实施例中,并行处理单元3602包括I/O单元3604,其使得能够与其他设备进行通信,包括并行处理单元3602的其他实例。在至少一个实施例中,I/O单元3604可以直接连接到其他设备。在至少一个实施例中,I/O单元3604通过使用集线器或交换机接口(例如,存储器集线器605)与其他设备连接。在至少一个实施例中,存储器集线器605与I/O单元3604之间的连接形成通信链路。在至少一个实施例中,I/O单元3604与主机接口3606和存储器交叉开关3616连接,其中主机接口3606接收用于执行处理操作的命令,而存储器交叉开关3616接收用于执行存储器操作的命令。在至少一个实施例中,当主机接口3606经由I/O单元3604接收命令缓冲区时,主机接口3606可以引导工作操作以执行那些命令到前端3608。在至少一个实施例中,前端3608与调度器3610耦合,调度器3610配置成将命令或其他工作项分配给处理阵列3612。在至少一个实施例中,调度器3610确保在将任务分配给处理阵列3612中的处理阵列3612之前,处理阵列3612被正确地配置并且处于有效状态。在至少一个实施例中,调度器3610通过在微控制器上执行的固件逻辑来实现。在至少一个实施例中,微控制器实现的调度器3610可配置成以粗粒度和细粒度执行复杂的调度和工作分配操作,从而实现对在处理阵列3612上执行的线程的快速抢占和环境切换。在至少一个实施例中,主机软件可以证明用于通过多个图形处理门铃之一在处理阵列3612上进行调度的工作负载。在至少一个实施例中,工作负载然后可以由包括调度器3610的微控制器内的调度器3610逻辑在处理阵列3612上自动分配。在至少一个实施例中,处理阵列3612可以包括多达“N”个处理集群(例如,集群3614A、集群3614B到集群3614N)。在至少一个实施例中,处理阵列3612的每个集群3614A-3614N可以执行大量并发线程。在至少一个实施例中,调度器3610可以使用各种调度和/或工作分配算法将工作分配给处理阵列3612的集群3614A-3614N,其可以根据每种程序或计算类型产生的工作负载而变化。在至少一个实施例中,调度可以由调度器3610动态地处理,或者可以在配置为由处理阵列3612执行的程序逻辑的编译期间部分地由编译器逻辑来辅助。在至少一个实施例中,可将处理阵列3612的不同的集群3614A-3614N分配用于处理不同类型的程序或用于执行不同类型的计算。在至少一个实施例中,处理阵列3612可以配置成执行各种类型的并行处理操作。在至少一个实施例中,处理阵列3612配置成执行通用并行计算操作。在至少一个实施例中,处理阵列3612可以包括执行处理任务的逻辑,该处理任务包括对视频和/或音频数据的过滤,执行建模操作,包括物理操作以及执行数据转换。在至少一个实施例中,处理阵列3612配置成执行并行图形处理操作。在至少一个实施例中,处理阵列3612可以包括附加逻辑以支持这种图形处理操作的执行,包括但不限于执行纹理操作的纹理采样逻辑,以及镶嵌逻辑和其他顶点处理逻辑。在至少一个实施例中,处理阵列3612可以配置成执行与图形处理有关的着色器程序,例如但不限于顶点着色器、曲面细分着色器、几何着色器和像素着色器。在至少一个实施例中,并行处理单元3602可以经由I/O单元3604从系统存储器传送数据以进行处理。在至少一个实施例中,在处理期间,可以在处理期间将传送的数据存储到片上存储器(例如,并行处理器存储器3622),然后将其写回到系统存储器。在至少一个实施例中,当并行处理单元3602用于执行图处理时,调度器3610可以配置成将处理工作负载划分为近似相等大小的任务,以更好地将图形处理操作分配给处理阵列3612的多个集群3614A-3614N。在至少一个实施例中,处理阵列3612的部分可以配置成执行不同类型的处理。在至少一个实施例中,第一部分可以配置成执行顶点着色和拓扑生成,第二部分可以配置成执行镶嵌和几何着色,并且第三部分可以配置成执行像素着色或其他屏幕空间操作,以生成用于显示的渲染图像。在至少一个实施例中,可以将由集群3614A-3614N中的一个或更多个产生的中间数据存储在缓冲区中,以允许在集群3614A-3614N之间传输中间数据以进行进一步处理。在至少一个实施例中,处理阵列3612可以经由调度器3610接收要执行的处理任务,该调度器3610从前端3608接收定义处理任务的命令。在至少一个实施例中,处理任务可以包括要被处理的数据的索引,例如可以包括表面(补丁)数据、原始数据、顶点数据和/或像素数据,以及状态参数和定义如何处理数据的命令(例如,要执行什么程序)。在至少一个实施例中,调度器3610可以配置成获取与任务相对应的索引,或者可以从前端3608接收索引。在至少一个实施例中,前端3608可以配置成确保在启动由传入命令缓冲区(例如,批缓冲区(batch-buffer)、推送缓冲区等)指定的工作负载之前,处理阵列3612配置成有效状态。在至少一个实施例中,并行处理单元3602的一个或更多个实例中的每一个可以与并行处理器存储器3622耦合。在至少一个实施例中,可以经由存储器交叉开关3616访问并行处理器存储器3622,所述存储器交叉开关3616可以接收来自处理阵列3612以及I/O单元3604的存储器请求。在至少一个实施例中,存储器交叉开关3616可以经由存储器接口3618访问并行处理器存储器3622。在至少一个实施例中,存储器接口3618可以包括多个分区单元(例如,分区单元3620A、分区单元3620B到分区单元3620N),其可各自耦合至并行处理器存储器3622的一部分(例如,存储器单元)。在至少一个实施例中,多个分区单元3620A-3620N为配置为等于存储器单元的数量,使得第一分区单元3620A具有对应的第一存储器单元3624A,第二分区单元3620B具有对应的存储器单元3624B,第N分区单元3620N具有对应的第N存储器单元3624N。在至少一个实施例中,分区单元3620A-3620N的数量可以不等于存储器设备的数量。在至少一个实施例中,存储器单元3624A-3624N可以包括各种类型的存储器设备,包括动态随机存取存储器(DRAM)或图形随机存取存储器,例如同步图形随机存取存储器(SGRAM),包括图形双倍数据速率(GDDR)存储器。在至少一个实施例中,存储器单元3624A-3624N还可包括3D堆叠存储器,包括但不限于高带宽存储器(HBM)。在至少一个实施例中,可以跨存储器单元3624A-3624N来存储诸如帧缓冲区或纹理映射的渲染目标,从而允许分区单元3620A-3620N并行地写入每个渲染目标的部分,以有效地使用并行处理器存储器3622的可用带宽。在至少一个实施例中,可以排除并行处理器存储器3622的本地实例,以有利于利用系统存储器与本地高速缓存存储器结合的统一存储器设计。在至少一个实施例中,处理阵列3612的集群3614A-3614N中的任何一个都可以处理将被写入并行处理器存储器3622内的任何存储器单元3624A-3624N中的数据。在至少一个实施例中,存储器交叉开关3616可以配置为将每个集群3614A-3614N的输出传输到任何分区单元3620A-3620N或另一个集群3614A-3614N,集群3614A-3614N可以对输出执行其他处理操作。在至少一个实施例中,每个集群3614A-3614N可以通过存储器交叉开关3616与存储器接口3618通信,以从各种外部存储设备读取或写入各种外部存储设备。在至少一个实施例中,存储器交叉开关3616具有到存储器接口3618的连接以与I/O单元3604通信,以及到并行处理器存储器3622的本地实例的连接,从而使不同处理集群3614A-3614N内的处理单元与系统存储器或不是并行处理单元3602本地的其他存储器进行通信。在至少一个实施例中,存储器交叉开关3616可以使用虚拟通道来分离集群3614A-3614N和分区单元3620A-3620N之间的业务流。在至少一个实施例中,可以在单个插入卡上提供并行处理单元3602的多个实例,或者可以将多个插入卡互连。在至少一个实施例中,并行处理单元3602的不同实例可以配置成相互操作,即使不同实例具有不同数量的处理核心,不同数量的本地并行处理器存储器和/或其他配置差异。在至少一个实施例中,并行处理单元3602的一些实例可以包括相对于其他实例而言更高精度的浮点单元。在至少一个实施例中,结合并行处理单元3602或并行处理器3600的一个或更多个实例的系统可以以各种配置和形式因素来实现,包括但不限于台式机、膝上型计算机或手持式个人计算机、服务器、工作站、游戏机和/或嵌入式系统。图36B示出了根据至少一个实施例的处理集群3694。在至少一个实施例中,处理集群3694被包括在并行处理单元内。在至少一个实施例中,处理集群3694是图36A的处理集群3614A-3614N之一的实例。在至少一个实施例中,处理集群3694可以配置成并行执行许多线程,其中术语“线程”是指在特定的一组输入数据上执行的特定程序的实例。在至少一个实施例中,单指令多数据(SIMD)指令发布技术用于支持大量线程的并行执行而无需提供多个独立的指令单元。在至少一个实施例中,使用单指令多线程(SIMT)技术来支持并行执行大量一般同步的线程,这使用了公共指令单元,该公共指令单元配置成向每个处理集群3694内的一组处理引擎发出指令。在至少一个实施例中,可以通过将处理任务分配给SIMT并行处理器的管线管理器3632来控制处理集群3694的操作。在至少一个实施例中,管线管理器3632从图36A的调度器3610接收指令,通过图形多处理器3634和/或纹理单元3636管理这些指令的执行。在至少一个实施例中,图形多处理器3634是SIMT并行处理器的示例性实例。然而,在至少一个实施例中,处理集群3694内可以包括不同架构的各种类型的SIMT并行处理器。在至少一个实施例中,在处理集群3694内可以包括图形多处理器3634的一个或更多个实例。在至少一个实施例中,图形多处理器3634可以处理数据,并且数据交叉开关3640可以用于将处理后的数据分发到多个可能的目的(包括其他着色器单元)地之一。在至少一个实施例中,管线管理器3632可以通过指定要经由数据交叉开关3640分配的处理后的数据的目的地来促进处理后的数据的分配。在至少一个实施例中,处理集群3694内的每个图形多处理器3634可以包括相同的一组功能执行逻辑(例如,算术逻辑单元、加载存储单元(LSU)等)。在至少一个实施例中,可以以管线方式配置功能执行逻辑,其中可以在先前的指令完成之前发出新的指令。在至少一个实施例中,功能执行逻辑支持多种运算,包括整数和浮点算术、比较操作、布尔运算、移位和各种代数函数的计算。在至少一个实施例中,可以利用相同的功能单元硬件来执行不同的操作,并且可以存在功能单元的任何组合。在至少一个实施例中,传送到处理集群3694的指令构成线程。在至少一个实施例中,跨一组并行处理引擎执行的一组线程是线程组。在至少一个实施例中,线程组在不同的输入数据上执行程序。在至少一个实施例中,线程组内的每个线程可被分配给图形多处理器3634内的不同处理引擎。在至少一个实施例中,线程组可包括比图形多处理器3634内的多个处理引擎更少的线程。在至少一个实施例中,当线程组包括的线程数少于处理引擎的数量时,一个或更多个处理引擎在正在处理该线程组的循环期间可能是空闲的。在至少一个实施例中,线程组还可以包括比图形多处理器3634内的多个处理引擎更多的线程。在至少一个实施例中,当线程组包括比图形多处理器3634内的处理引擎的数量更多的线程时,可以在连续的时钟周期内执行处理。在至少一个实施例中,可以在图形多处理器3634上同时执行多个线程组。在至少一个实施例中,图形多处理器3634包括内部高速缓存存储器,以执行加载和存储操作。在至少一个实施例中,图形多处理器3634可以放弃内部高速缓存并使用处理集群3694内的高速缓存存储器(例如,L1高速缓存3648)。在至少一个实施例中,每个图形多处理器3634还可以访问分区单元(例如,图36A的分区单元3620A-3620N)内的L2高速缓存,这些分区单元在所有处理集群3694之间共享并且可以用于在线程之间传输数据。在至少一个实施例中,图形多处理器3634还可以访问片外全局存储器,其可以包括本地并行处理器存储器和/或系统存储器中的一个或更多个。在至少一个实施例中,并行处理单元3602外部的任何存储器都可以用作全局存储器。在至少一个实施例中,处理集群3694包括图形多处理器3634的多个实例,它们可以共享可以存储在L1高速缓存3648中的公共指令和数据。在至少一个实施例中,每个处理集群3694可以包括配置成将虚拟地址映射为物理地址的MMU3645。在至少一个实施例中,MMU3645的一个或更多个实例可以驻留在图36A的存储器接口3618内。在至少一个实施例中,MMU3645包括一组页表条目(PTE),其用于将虚拟地址映射到图块(谈论有关图块的更多信息)的物理地址以及可选地映射到高速缓存行索引。在至少一个实施例中,MMU3645可以包括地址转换后备缓冲区(TLB)或可以驻留在图形多处理器3634或L1高速缓存3648或处理集群3694内的高速缓存。在至少一个实施例中,处理物理地址以分配表面数据访问局部性,以便在分区单元之间进行有效的请求交织。在至少一个实施例中,高速缓存行索引可以用于确定对高速缓存线的请求是命中还是未命中。在至少一个实施例中,可以配置处理集群3694,使得每个图形多处理器3634耦合到纹理单元3636,以执行纹理映射操作,例如,可以涉及确定纹理样本位置、读取纹理数据以及过滤纹理数据。在至少一个实施例中,根据需要从内部纹理L1高速缓存(未示出)或从图形多处理器3634内的L1高速缓存中读取纹理数据,并从L2高速缓存、本地并行处理器存储器或系统存储器中获取纹理数据。在至少一个实施例中,每个图形多处理器3634将处理后的任务输出到数据交叉开关3640,以将处理后的任务提供给另一处理集群3694以进行进一步处理或将处理后的任务存储在L2高速缓存、本地并行处理器存储器、或经由存储器交叉开关3616的系统存储器中。在至少一个实施例中,光栅前操作单元(preROP)3642配置成从图形多处理器3634接收数据,将数据引导至ROP单元,该ROP单元可以与本文所述的分区单元(例如,图36A的分区单元3620A-3620N)一起定位。在至少一个实施例中,PreROP3642单元可以执行用于颜色混合的优化、组织像素颜色数据以及执行地址转换。图36C示出了根据至少一个实施例的图形多处理器3696。在至少一个实施例中,图形多处理器3696是图36B的图形多处理器3634。在至少一个实施例中,图形多处理器3696与处理集群3694的管线管理器3632耦合。在至少一个实施例中,图形多处理器3696具有执行管线,该执行管线包括但不限于指令高速缓存3652、指令单元3654、地址映射单元3656、寄存器文件3658、一个或更多个GPGPU核心3662和一个或更多个LSU3666。GPGPU核心3662和LSU3666与高速缓存存储器3672和共享存储器3670通过存储器和高速缓存互连3668耦合。在至少一个实施例中,指令高速缓存3652从管线管理器3632接收要执行的指令流。在至少一个实施例中,将指令高速缓存在指令高速缓存3652中并将其分派以供指令单元3654执行。在一个实施例中,指令单元3654可以分派指令作为线程组(例如,线程束),将线程组的每个线程分配给GPGPU核心3662内的不同执行单元。在至少一个实施例中,指令可以通过在统一地址空间内指定地址来访问任何本地、共享或全局地址空间。在至少一个实施例中,地址映射单元3656可以用于将统一地址空间中的地址转换成可以由LSU3666访问的不同的存储器地址。在至少一个实施例中,寄存器文件3658为图形多处理器3696的功能单元提供了一组寄存器。在至少一个实施例中,寄存器文件3658为连接到图形多处理器3696的功能单元(例如,GPGPU核心3662、LSU3666)的数据路径的操作数提供了临时存储。在至少一个实施例中,在每个功能单元之间划分寄存器文件3658,使得为每个功能单元分配寄存器文件3658的专用部分。在至少一个实施例中,寄存器文件3658在图形多处理器3696正在执行的不同线程组之间划分。在至少一个实施例中,GPGPU核心3662可以各自包括用于执行图多处理器3696的指令的FPU和/或ALU。GPGPU核心3662在架构上可以相似或架构可能有所不同。在至少一个实施例中,GPGPU核心3662的第一部分包括单精度FPU和整数ALU,而GPGPU核心的第二部分包括双精度FPU。在至少一个实施例中,FPU可以实现用于浮点算法的IEEE754-3608标准或启用可变精度浮点算法。在至少一个实施例中,图形多处理器3696可以另外包括一个或更多个固定功能或特殊功能单元,以执行特定功能,诸如复制矩形或像素混合操作。在至少一个实施例中,GPGPU核心3662中的一个或更多个也可以包括固定或特殊功能逻辑。在至少一个实施例中,GPGPU核心3662包括能够对多组数据执行单个指令的SIMD逻辑。在至少一个实施例中,GPGPU核心3662可以物理地执行SIMD4、SIMD8和SIMD16指令,并且在逻辑上执行SIMD1、SIMD2和SIMD32指令。在至少一个实施例中,用于GPGPU核心的SIMD指令可以在编译时由着色器编译器生成,或者在执行针对单程序多数据(SPMD)或SIMT架构编写和编译的程序时自动生成。在至少一个实施例中,可以通过单个SIMD指令来执行为SIMT执行模型配置的程序的多个线程。在至少一个实施例中,可以通过单个SIMD8逻辑单元并行执行执行相同或相似操作的八个SIMT线程。在至少一个实施例中,存储器和高速缓存互连3668是将图形多处理器3696的每个功能单元连接到寄存器文件3658和共享存储器3670的互连网络。在至少一个实施例中,存储器和高速缓存互连3668是交叉开关互连,其允许LSU3666在共享存储器3670和寄存器文件3658之间实现加载和存储操作。在至少一个实施例中,寄存器文件3658可以以与GPGPU核心3662相同的频率操作,从而在GPGPU核心3662和寄存器文件3658之间进行数据传输的延迟非常低。在至少一个实施例中,共享存储器3670可以用于启用在图形多处理器3696内的功能单元上执行的线程之间的通信。在至少一个实施例中,在至少一个实施例中,高速缓存存储器3672可以用作数据高速缓存,以高速缓存在功能单元和纹理单元3636之间通信的纹理数据。在至少一个实施例中,共享存储器3670也可以用作程序管理的高速缓存。在至少一个实施例中,除了存储在高速缓存存储器3672中的自动高速缓存的数据之外,在GPGPU核心3662上执行的线程还可以以编程方式将数据存储在共享存储器中。在至少一个实施例中,如本文所述的并行处理器或GPGPU通信地耦合到主机/处理器核心,以加速图形操作、机器学习操作、图案分析操作以及各种通用GPU(GPGPU)功能。在至少一个实施例中,GPU可以通过总线或其他互连(例如,诸如PCIe或NVLink的高速互连)通信地耦合到主机处理器/核心。在至少一个实施例中,GPU可以与核心集成在相同的封装或芯片上,并通过内部处理器总线/互连(即,封装或芯片的内部)通信地耦合到核心。在至少一个实施例中,不管GPU连接的方式如何,处理器核心可以以WD包含的命令/指令序列的形式向GPU分配工作。在至少一个实施例中,GPU然后使用专用电路/逻辑来有效地处理这些命令/指令。通用计算以下各图阐述但不限于在通用计算中用来实现至少一个实施例的示例性软件配置。图37示出了根据至少一个实施例的编程平台的软件栈。在至少一个实施例中,编程平台是用于利用计算系统上的硬件来加速计算任务的平台。在至少一个实施例中,软件开发人员可以通过库、编译器指令和/或对编程语言的扩展来访问编程平台。在至少一个实施例中,编程平台可以是但不限于CUDA,Radeon开放计算平台(“ROCm”),OpenCL(由Khronosgroup开发的OpenCLTM),SYCL或IntelOneAPI。在至少一个实施例中,编程平台的软件栈3700为应用程序3701提供执行环境。在至少一个实施例中,应用程序3701可以包括能够在软件栈3700上启动的任何计算机软件。在至少一个实施例中,应用程序3701可以包括但不限于人工智能(“AI”)/机器学习(“ML”)应用程序,高性能计算(“HPC”)应用程序,虚拟桌面基础架构(“VDI”)或数据中心工作负载。在至少一个实施例中,应用程序3701和软件栈3700在硬件3707上运行。在至少一个实施例中,硬件3707可以包括一个或更多个GPU,CPU,FPGA,AI引擎和/或支持编程平台的其他类型的计算设备。在至少一个实施例中,例如采用CUDA,软件栈3700可以是厂商专用的,并且仅与来自特定厂商的设备兼容。在至少一个实施例中,例如在采用OpenCL中,软件栈3700可以与来自不同供应商的设备一起使用。在至少一个实施例中,硬件3707包括连接到一个或更多个设备的主机,该设备可经由应用程序编程接口(API)调用被访问以执行计算任务。在至少一个实施例中,与硬件3707内的主机相比,其可以包括但不限于CPU(但还可以包括计算设备)及其存储器,硬件3707内的设备可以包括但不限于GPU,FPGA,AI引擎或其他计算设备(但还可以包括CPU)及其存储器。在至少一个实施例中,编程平台的软件栈3700包括但不限于多个库3703,运行时(runtime)3705和设备内核驱动器3706。在至少一个实施例中,库3703中的每个库可以包括可以由计算机程序使用并在软件开发期间利用的数据和编程代码。在至少一个实施例中,库3703可以包括但不限于预写的代码和子例程,类,值,类型规范,配置数据,文档,帮助数据和/或消息模板。在至少一个实施例中,库3703包括被优化用于在一种或更多种类型的设备上执行的函数。在至少一个实施例中,库3703可以包括但不限于用于在设备上执行数学、深度学习和/或其他类型的运算的函数。在至少一个实施例中,库3803与对应的API3802相关联,API3802可包括一个或更多个API,其暴露在库3803中实现的函数。在至少一个实施例中,将应用程序3701编写为源代码,该源代码被编译成可执行代码,如下面结合图42更详细讨论的。在至少一个实施例中,应用程序3701的可执行代码可以至少部分地在由软件栈3700提供的执行环境上运行。在至少一个实施例中,在应用程序3701的执行期间,可以得到需要在设备(与主机相比)上运行的代码。在这种情况下,在至少一个实施例中,可以调用运行时3705以在设备上加载和启动必需的代码。在至少一个实施例中,运行时3705可以包括能够支持应用程序3701的执行的任何技术上可行的运行时系统。在至少一个实施例中,运行时3705被实现为与对应的API(其被示为API3704)相关联的一个或更多个运行时库。在至少一个实施例中,一个或更多个这样的运行时库可以包括但不限于用于存储器管理,执行控制,设备管理,错误处理和/或同步等等的函数。在至少一个实施例中,存储器管理函数可以包括但不限于用于分配、解除分配和复制设备存储器以及在主机存储器和设备存储器之间传输数据的函数。在至少一个实施例中,执行控制函数可以包括但不限于在设备上启动函数(当函数是可从主机调用的全局函数时,有时称为“内核”)的函数,和用于在运行时库为要在设备上执行的给定函数维护的缓冲区中设置属性值的函数。在至少一个实施例中,可以任何技术上可行的方式来实现运行时库和相应的API3704。在至少一个实施例中,一个(或任意数量的)API可以公开用于设备的细粒度控制的低级函数集,而另一(或任意数量的)API可以公开这样的较高级的函数集。在至少一个实施例中,可以在低级API之上构建高级运行时API。在至少一个实施例中,一个或更多个运行时API可以是在与语言无关的运行时API之上分层的特定于语言的API。在至少一个实施例中,设备内核驱动器3706被配置为促进与底层设备的通信。在至少一个实施例中,设备内核驱动器3706可以提供诸如API3704之类的API和/或其他软件所依赖的低级函数。在至少一个实施例中,设备内核驱动器3706可以被配置为在运行时将中间表示(“IR”)代码编译成二进制代码。在至少一个实施例中,对于CUDA,设备内核驱动器3706可以在运行时将非硬件专用的并行线程执行(“PTX”)IR代码编译为用于特定目标设备的二进制代码(高速缓存已编译的二进制代码),其有时也称为“最终”代码。在至少一个实施例中,这样做可以允许最终代码在目标设备上运行,而当源代码最初被编译为PTX代码时,该目标设备可能不存在。备选地,在至少一个实施例中,设备源代码可以离线地编译成二进制代码,而不需要设备内核驱动器3706在运行时编译IR代码。图38示出了根据至少一个实施例的图37的软件栈3700的CUDA实现。在至少一个实施例中,可在其上启动应用程序3801的CUDA软件栈3800包括CUDA库3803,CUDA运行时3805,CUDA驱动器3807和设备内核驱动器3808。在至少一个实施例中,CUDA软件栈3800在硬件3809上执行,该硬件3809可以包括支持CUDA的GPU,其由加利福尼亚州圣克拉拉市的NVIDIA公司开发。在至少一个实施例中,应用程序3801、CUDA运行时3805和设备内核驱动器3808可以分别执行与应用程序3701、运行时3705和设备内核驱动器3706类似的功能,以上结合图37对其进行了描述。在至少一个实施例中,CUDA驱动器3807包括实现CUDA驱动器API3806的库(libcuda.so)。在至少一个实施例中,类似于由CUDA运行时库(cudart)实现的CUDA运行时API3804,CUDA驱动器API3806可以公开但不限于用于存储器管理、执行控制、设备管理、错误处理、同步和/或图形互操作性等的函数。在至少一个实施例中,CUDA驱动器API3806与CUDA运行时API3804的不同之处在于,CUDA运行时API3804通过提供隐式初始化、上下文(类似于进程)管理和模块(类似于动态加载的库)管理来简化设备代码管理。与高级CUDA运行时API3804相反,在至少一个实施例中,CUDA驱动器API3806是提供对设备的更细粒度控制的低级API,特别是关于上下文和模块加载。在至少一个实施例中,CUDA驱动器API3806可以公开没有由CUDA运行时API3804公开的用于上下文管理的函数。在至少一个实施例中,CUDA驱动器API3806也与语言无关,并且除了支持CUDA运行时API3804之外,还支持例如OpenCL。此外,在至少一个实施例中,包括CUDA运行时3805在内的开发库可被视为与驱动器组件分离,包括用户模式的CUDA驱动器3807和内核模式的设备驱动器3808(有时也称为“显示”驱动器)。在至少一个实施例中,CUDA库3803可以包括但不限于数学库,深度学习库,并行算法库和/或信号/图像/视频处理库,并行计算应用程序(例如应用程序3801)可以利用这些库。在至少一个实施例中,CUDA库3803可包括数学库,例如cuBLAS库,其是用于执行线性代数运算的基本线性代数子程序(“BLAS”)的实现;用于计算快速傅立叶变换(“FFT”)的cuFFT库,以及用于生成随机数的cuRAND库等。在至少一个实施例中,CUDA库3803可以包括深度学习库,诸如用于深度神经网络的基元的cuDNN库和用于高性能深度学习推理的TensorRT平台等等。图39示出了根据至少一个实施例的图37的软件栈3700的ROCm实现。在至少一个实施例中,可在其上启动应用程序3901的ROCm软件栈3900包括语言运行时3903,系统运行时3905,thunk3907,ROCm内核驱动器3908和设备内核驱动器3909。在至少一个实施例中,ROCm软件栈3900在硬件3909上执行,硬件3909可以包括支持ROCm的GPU,其由加利福尼亚州圣克拉拉市的AMD公司开发。在至少一个实施例中,应用程序3901可以执行与以上结合图37讨论的应用程序3701类似的功能。另外,在至少一个实施例中,语言运行时3903和系统运行时3905可以执行与以上结合图37讨论的运行时3705类似的功能。在至少一个实施例中,语言运行时3903和系统运行时3905的不同之处在于,系统运行时3905是实现ROCr系统运行时API3904并利用异构系统架构(“HAS”)运行时API的语言无关运行时。在至少一个实施例中,HAS运行时API是一种瘦用户模式API,它公开接口以供访问和与AMDGPU交互,包括用于存储器管理、通过架构分派内核的执行控制、错误处理、系统和代理信息以及运行时初始化和关闭等的函数。在至少一个实施例中,与系统运行时3905相比,语言运行时3903是ROCr系统运行时API3904之上分层的特定于语言的运行时API3902的实现。在至少一个实施例中,语言运行时API可以包括但不限于可移植异构计算接口(“HIP”)语言运行时API,异构计算编译器(“HCC”)语言运行时API或OpenCLAPI等等。特别是,HIP语言是C 编程语言的扩展,具有CUDA机制的功能相似版本,并且在至少一个实施例中,HIP语言运行时API包括与以上结合图38讨论的CUDA运行时API3804相似的函数,例如用于存储器管理、执行控制、设备管理、错误处理和同步等的函数。在至少一个实施例中,thunk(ROCt)3907是可用于与底层ROCm驱动器3908交互的接口。在至少一个实施例中,ROCm驱动器3908是ROCk驱动器,其是AMDGPU驱动器和HAS内核驱动器(amdkfd)的组合。在至少一个实施例中,AMDGPU驱动器是由AMD开发的用于GPU的设备内核驱动器,其执行与以上结合图37讨论的设备内核驱动器3706类似的功能。在至少一个实施例中,HAS内核驱动器是允许不同类型的处理器经由硬件特征更有效地共享系统资源的驱动器。在至少一个实施例中,各种库(未示出)可以被包括在语言运行时3903上方的ROCm软件栈3900中,并且提供与以上结合图38讨论的CUDA库3803相似的功能。在至少一个实施例中,各种库可以包括但不限于数学、深度学习和/或其他库,例如实现与CUDAcuBLAS类似的函数的hipBLAS库,类似于CUDAcuFFT用于计算FFT的rocFFT库等。图40示出了根据至少一个实施例的图37的软件栈3700的OpenCL实现。在至少一个实施例中,可以在其上启动应用程序4001的OpenCL软件栈4000包括OpenCL框架4005,OpenCL运行时4006和驱动器4007。在至少一个实施例中,OpenCL软件栈4000在不是特定于供应商的硬件3809上执行。在至少一个实施例中,由于由不同厂商开发的设备支持OpenCL,因此可能需要特定的OpenCL驱动器才能与来自此类厂商的硬件进行互操作。在至少一个实施例中,应用程序4001,OpenCL运行时4006,设备内核驱动器4007和硬件4008可以分别执行与上面结合图37讨论的应用程序3701、运行时3705、设备内核驱动器3706和硬件3707类似的功能。在至少一个实施例中,应用程序4001还包括具有将在设备上执行的代码的OpenCL内核4002。在至少一个实施例中,OpenCL定义了一种“平台”,其允许主机控制连接到该主机的设备。在至少一个实施例中,OpenCL框架提供平台层API和运行时API,示出为平台API4003和运行时API4005。在至少一个实施例中,运行时API4005使用上下文来管理设备上内核的执行。在至少一个实施例中,每个标识的设备可以与各自的上下文相关联,运行时API4005可以使用该上下文来管理该设备的命令队列、程序对象和内核对象、共享存储器对象等。在至少一个实施例中,平台API4003公开了允许设备上下文用于选择和初始化设备,经由命令队列将工作提交给设备,以及使得能够进行来自和去往设备的数据传输等的函数。另外,在至少一个实施例中,OpenCL框架提供各种内置函数(未示出),包括数学函数、关系函数和图像处理函数等。在至少一个实施例中,编译器4004也被包括在OpenCL框架4005中。在至少一个实施例中,源代码可以在执行应用程序之前被离线编译或者在执行应用程序期间被在线编译。与CUDA和ROCm相反,至少一个实施例中的OpenCL应用程序可以由编译器4004在线编译,编译器4004被包括以代表可以用于将源代码和/或IR代码(例如标准可移植中间表示(“SPIR-V”)代码)编译为二进制代码的任意数量的编译器。可替代地,在至少一个实施例中,可以在执行这样的应用程序之前离线编译OpenCL应用程序。图41示出了根据至少一个实施例的由编程平台支持的软件。在至少一个实施例中,编程平台4104被配置为支持应用程序4100可以依赖的各种编程模型4103,中间件和/或库4102以及框架4101。在至少一个实施例中,应用程序4100可以是使用例如深度学习框架(在至少一个实施例中,MXNet,PyTorch或TensorFlow)实现的AI/ML应用,其可以依赖于诸如cuDNN,NVIDIACollectiveCommunicationsLibrary(“NCCL”)”和/或NVIDIA开发人员数据加载库(“DALI”)CUDA库之类的库,以在底层硬件上提供加速的计算。在至少一个实施例中,编程平台4104可以是以上分别结合图38、图39和图40描述的CUDA、ROCm或OpenCL平台之一。在至少一个实施例中,编程平台4104支持多个编程模型4103,其是底层计算系统的抽象,其允许算法和数据结构的表达。在至少一个实施例中,编程模型4103可以暴露底层硬件的特征以便改善性能。在至少一个实施例中,编程模型4103可以包括但不限于CUDA,HIP,OpenCL,C 加速大规模并行性(“C AMP”),开放多处理(“OpenMP”),开放加速器(“OpenACC”)和/或Vulcan计算(VulcanCompute)。在至少一个实施例中,库和/或中间件4102提供编程模型4104的抽象的实现。在至少一个实施例中,这样的库包括可由计算机程序使用并在软件开发期间利用的数据和编程代码。在至少一个实施例中,除了可以从编程平台4104获得的那些之外,这样的中间件还包括向应用程序提供服务的软件。在至少一个实施例中,库和/或中间件4102可以包括但不限于cuBLAS、cuFFT、cuRAND和其他CUDA库,或rocBLAS、rocFFT、rocRAND和其他ROCm库。另外,在至少一个实施例中,库和/或中间件4102可以包括NCCL和ROCm通信集合库(“RCCL”)库,其提供用于GPU的通信例程,用于深度学习加速的MIOpen库和/或用于线性代数、矩阵和向量运算、几何变换、数值求解器以及相关算法的本征库。在至少一个实施例中,应用程序框架4101依赖于库和/或中间件4102。在至少一个实施例中,每个应用程序框架4101是用于实现应用软件的标准结构的软件框架。在至少一个实施例中,可以使用框架(诸如Caffe,Caffe2,TensorFlow,Keras,PyTorch或MxNet深度学习框架)来实现AI/ML应用。图42示出了根据至少一个实施例的编译代码以在图37-40的编程平台之一上执行。在至少一个实施例中,编译器4201接收源代码4200,其包括主机代码以及设备代码两者。在至少一个实施例中,编译器4201被配置为将源代码4200转换为用于在主机上执行的主机可执行代码4202以及用于在设备上执行的设备可执行代码4203。在至少一个实施例中,源代码4200可以在执行应用程序之前离线编译,或者在执行应用程序期间在线编译。在至少一个实施例中,源代码4200可以包括编译器4201支持的任何编程语言的代码,例如C 、C、Fortran等。在至少一个实施例中,源代码4200可以包括在单源(single-source)文件中,其具有主机代码和设备代码的混合,并在其中指示了设备代码的位置。在至少一个实施例中,单源文件可以是包括CUDA代码的.cu文件或包括HIP代码的.hip.cpp文件。备选地,在至少一个实施例中,源代码4200可以包括多个源代码文件,而不是单源文件,在该单源文件中主机代码和设备代码是分开的。在至少一个实施例中,编译器4201被配置为将源代码4200编译成用于在主机上执行的主机可执行代码4202和用于在设备上执行的设备可执行代码4203。在至少一个实施例中,编译器4201执行操作,包括将源代码4200解析为抽象系统树(AST),执行优化以及生成可执行代码。在源代码4200包括单源文件的至少一个实施例中,编译器4201可以将设备代码与主机代码在这种单源文件中分开,将设备代码和主机代码分别编译成设备可执行代码4203和主机可执行代码4202,以及将设备可执行代码4203和主机可执行代码4202在单个文件中链接到一起,如下面关于图26更详细讨论的。在至少一个实施例中,主机可执行代码4202和设备可执行代码4203可以是任何合适的格式,例如二进制代码和/或IR代码。在CUDA的情况下,在至少一个实施例中,主机可执行代码4202可以包括本地对象代码,而设备可执行代码4203可以包括PTX中间表示的代码。在至少一个实施例中,在ROCm的情况下,主机可执行代码4202和设备可执行代码4203都可以包括目标二进制代码。其他变型在本公开的精神内。因此,尽管公开的技术易于进行各种修改和替代配置,但是某些示出的其实施例在附图中示出并且已经在上面进行了详细描述。然而,应理解,无意将公开内容限制为所公开的一种或更多种特定形式,而是相反,其意图是涵盖落入如所附权利要求书所定义的本公开内容的精神和范围内的所有修改、替代配置和等同物。除非另有说明或显然与上下文矛盾,否则在描述所公开的实施例的上下文中(特别是在所附权利要求的上下文中),术语“一”和“一个”和“该”以及类似指代的使用应被解释为涵盖单数和复数,而不是作为术语的定义。除非另有说明,否则术语“包括”、“具有”、“包含”和“含有”应被解释为开放式术语(意味着“包括但不限于”)。术语“连接”(在未经修改时指的是物理连接)应解释为部分或全部包含在内、附接到或连接在一起,即使有某些介入。除非本文另外指出,否则本文中对数值范围的引用仅旨在用作分别指代落入该范围内的每个单独值的简写方法,并且每个单独值都被并入说明书中,就如同其在本文中被单独叙述一样。在至少一个实施例中,除非另外指出或与上下文矛盾,否则术语“集”(例如“项目集”)或“子集”的使用应解释为包括一个或更多个成员的非空集合。此外,除非另外指出或与上下文矛盾,否则术语相应集的“子集”不一定表示对应集的适当子集,而是子集和对应集可以相等。除非以其他方式明确指出或与上下文明显矛盾,否则诸如“A,B和C中的至少一个”或“A,B与C中的至少一个”形式的短语之类的连接语在上下文中理解为通常用来表示项目、条款等,其可以是A或B或C,也可以是A和B和C集的任何非空子集。在具有三个成员的集的至少一个实施例中,连接短语“A,B和C中的至少一个”和“A,B与C中的至少一个”是指以下任意集:{A},{B},{C},{A,B},{A,C},{B,C},{A,B,C}。因此,这种连接语言通常不旨在暗示某些实施例要求存在A中的至少一个,B中的至少一个和C中的至少一个。另外,除非另有说明或与上下文矛盾,否则术语“多个”表示复数的状态(例如,“多个项目”表示多个项目)。在至少一个实施例中,多个项目中项目的数量至少为两个,但如果明确指示或通过上下文指示,则可以更多。此外,除非另有说明或从上下文中可以清楚得知,否则短语“基于”是指“至少部分基于”而不是“仅基于”。除非本文另外指出或与上下文明显矛盾,否则本文描述的过程的操作可以任何合适的顺序执行。在至少一个实施例中,诸如本文所述的那些过程(或其变形和/或其组合)之类的过程在配置有可执行指令的一个或更多个计算机系统的控制下执行,并且被实现为代码(例如,可执行指令,一个或更多个计算机程序或一个或更多个应用程序),该代码通过硬件或其组合在一个或更多个处理器上共同执行。在至少一个实施例中,代码以计算机程序的形式存储在计算机可读存储介质上,在至少一个实施例中,该计算机程序包括可由一个或更多个处理器执行的多个指令。在至少一个实施例中,计算机可读存储介质是非暂时性计算机可读存储介质,其排除了暂时性信号(例如,传播的瞬态电或电磁传输),但包括非暂时性数据存储电路(例如,缓冲区、高速缓存和队列)。在至少一个实施例中,代码(例如,可执行代码或源代码)被存储在其上存储有可执行指令的一组一个或更多个非暂时性计算机可读存储介质(或用于存储可执行指令的其他存储器)上,该可执行指令在由计算机系统的一个或更多个处理器执行时(即,作为被执行的结果),使得计算机系统执行本文所述的操作。在至少一个实施例中,一组非暂时性计算机可读存储介质包括多个非暂时性计算机可读存储介质,并且多个非暂时性计算机可读存储介质中的个体非暂时性存储介质中的一个或更多个缺少全部代码,而是多个非暂时性计算机可读存储介质共同存储全部代码。在至少一个实施例中,可执行指令被执行,以使得不同的指令由不同的处理器执行,在至少一个实施例中,非暂时性计算机可读存储介质存储指令,并且主中央处理单元(“CPU”)执行一些指令,而图形处理单元(“GPU”)执行其他指令。在至少一个实施例中,计算机系统的不同组件具有单独的处理器,并且不同的处理器执行指令的不同子集。因此,在至少一个实施例中,计算机系统被配置为实现单独地或共同地执行本文所述的过程的操作的一个或更多个服务,并且这样的计算机系统被配置有使能实施操作的适用的硬件和/或软件。此外,实现本公开的至少一个实施例的计算机系统是单个设备,并且在另一实施例中是分布式计算机系统,其包括以不同方式操作的多个设备,使得分布式计算机系统执行本文所述的操作,并且使得单个设备不执行所有操作。本文提供的任何和所有至少一个实施例或示例性语言(例如,“诸如”)的使用仅旨在更好地阐明本公开的实施例,并且不对公开的范围构成限制,除非另有要求。说明书中的任何语言都不应被解释为表示任何未要求保护的要素对于实践公开内容是必不可少的。本文引用的所有参考文献,包括出版物、专利申请和专利,均通过引用并入本文,其程度就如同每个参考文献被单独且具体地指示为以引用的方式并入本文并且其全部内容在本文中阐述一样。在说明书和权利要求中,可以使用术语“耦合”和“连接”以及它们的派生词。应当理解,这些术语可能不旨在作为彼此的同义词。相反,在至少一个实施例中的一个,“连接”或“耦合”可用于指示两个或更多个元件彼此直接或间接物理或电接触。“耦合”也可能意味着两个或更多个元素彼此不直接接触,但仍彼此协作或交互。除非另有明确说明,否则可以理解,在整个说明书中,诸如“处理”、“计算”、“计算”、“确定”等之类的术语,是指计算机或计算系统或类似的电子计算设备的动作和/或过程,其将计算系统的寄存器和/或存储器中表示为物理量(例如电子)的数据处理和/或转换为类似表示为计算系统的存储器、寄存器或其他此类信息存储、传输或显示设备中的物理量的其他数据。以类似的方式,术语“处理器”可以指处理来自寄存器和/或存储器的电子数据并将该电子数据转换成可以存储在寄存器和/或存储器中的其他电子数据的任何设备或存储器的一部分。作为非限制性至少一个实施例中的一个,“处理器”可以是CPU或GPU。“计算平台”可以包括一个或更多个处理器。如本文所使用的,在至少一个实施例中,“软件”进程可以包括随时间执行工作的软件和/或硬件实体,诸如任务、线程和智能代理。同样,每个过程可以指代多个过程,以连续地或间歇地顺序地或并行地执行指令。术语“系统”和“方法”在本文中可以互换使用,只要系统可以体现一种或更多种方法,并且方法可以被认为是系统。在本文件中,可以参考获得、获取、接收或将模拟或数字数据输入子系统、计算机系统或计算机实现的机器中。在至少一个实施例中,可以通过多种方式来完成获得、获取、接收或输入模拟和数字数据的过程,例如通过接收作为函数调用或对应用程序编程接口的调用的参数的数据。在一些实现方式中,可以通过经由串行或并行接口传输数据来完成获得、获取、接收或输入模拟或数字数据的过程。在另一实现方式中,可以通过经由计算机网络将数据从提供实体传输到获取实体来完成获得、获取、接收或输入模拟或数字数据的过程。也可以参考提供、输出、传送、发送或呈现模拟或数字数据。在各种示例中,提供、输出、传送、发送或呈现模拟或数字数据的过程可以通过将数据作为函数调用的输入或输出参数、应用程序编程接口或进程间通信机制的参数进行传输来实现。尽管上面的讨论阐述了所描述的技术的至少一个实施例中的一个实现,但是其他架构可以用于实现所描述的功能,并且旨在落入本公开的范围内。此外,尽管出于讨论的目的在上面定义了具体的职责分配,但是根据情况,可以以不同的方式分配和划分各种功能和职责。此外,尽管已经用特定于结构特征和/或方法动作的语言描述了主题,但是应当理解,所附权利要求书所要求保护的主题不必限于所描述的特定特征或动作。而是,公开了特定的特征和动作作为实现权利要求的示例性形式。当前第1页12
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献