一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

用于边缘计算的端到端深度神经网络自适应的制作方法

2023-02-02 04:46:00 来源:中国专利 TAG:

用于边缘计算的端到端深度神经网络自适应


背景技术:

1.无线通信系统的发展通常源于对更高数据吞吐量和更低时延的需求。作为一个示例,随着越来越多的设备获得对无线通信系统的接入,对数据的需求增加。不断发展的设备还执行利用和/或处理比先前应用更多的数据的数据密集型和/或计算密集型应用,诸如更高刷新率的流视频应用、更高分辨率的社交媒体应用、多玩家游戏应用、更高保真度的音频服务等。为了适应增加的数据使用并提供更多的计算能力,不断发展的无线通信系统包含附加的计算设备和/或数据存储资源。
2.作为一个示例,移动边缘计算对应于部署在无线网络的边缘,诸如第五代(5g)和/或第六代(6g)无线网络的覆盖区域,的计算应用、能力和/或服务。相对于通过互联网访问的基于云的服务,移动边缘计算提供基站本地的计算资源,并且随后提供与基站通信的用户设备(ue)本地的计算资源。边缘计算的局部性通过减少数据传递延迟来改进网络响应时间。
3.无线网络有时在边缘计算服务器(ecs)和用于应用处理的基于云的服务之间迁移ue。为了说明,考虑ue在无线网络内操作。当ue移动到具有可用ecs的第一覆盖区域时,无线网络可以确定利用由ecs为ue应用处理提供的计算资源。然而,随着ue移动离开覆盖区域和/或ecs,无线网络必须将ue应用处理重新引导到不同的ecs和/或基于云的服务。因此,边缘计算能够添加复杂性,因为无线网络在边缘计算和基于云的服务之间动态地重新引导应用处理。


技术实现要素:

4.本文档描述了用于边缘计算的端到端(e2e)深度神经网络(dnn)自适应的技术和装置。各个方面描述了自适应形成用于处理通过e2e通信传递的通信的e2e深度神经网络(dnn)的端到端e2e机器学习(ml)配置。网络实体引导参与e2e通信的用户设备(ue)和基站通过基于第一e2e ml配置形成e2e dnn的至少一部分来实现e2e通信。网络实体基于e2e通信中的边缘计算服务器(ecs)的参与模式的改变来确定更新第一e2e ml配置。网络实体基于参与模式的改变来标识第二e2e ml配置,并且引导ue或基站使用第二e2e ml配置来更新e2e dnn的一部分。
5.在各个方面,ue自适应e2e ml配置以用于处理通过e2e通信传递的通信。ue使用用于实现e2e通信的e2e dnn的第一e2e ml配置的至少第一部分来形成深度神经网络(dnn)。ue接收基于e2e通信中的边缘计算服务器(ecs)的参与模式的改变使用第二e2e ml配置的至少第二部分来更新dnn的指示。然后,ue基于ecs的参与模式使用e2e ml配置的至少第二部分来更新dnn,并且使用更新后的dnn来实现e2e通信的至少一部分。
6.在附图和以下描述中阐述了用于边缘计算的e2e dnn自适应的一个或多个实施方式的细节。其他特征和优点从说明书和附图以及从权利要求书将是显而易见的。提供本发明内容以介绍在具体实施方式和附图中进一步描述的主题。因此,不应当将本发明内容视为描述基本特征,也不应当将其用于限制所要求保护的主题的范围。
附图说明
7.下面描述用于边缘计算的端到端(e2e)深度神经网络(dnn)自适应的一个或多个方面的细节。在说明书和附图的不同实例中使用相同的附图标记表示类似的元件:
8.图1图示了能够实现用于边缘计算的e2e dnn自适应的各个方面的示例环境;
9.图2图示了能够实现用于边缘计算的e2e dnn自适应的各个方面的设备的示例设备图;
10.图3图示了能够实现用于边缘计算的e2e dnn自适应的各个方面的其他设备的示例设备图;
11.图4图示了根据用于边缘计算的e2e dnn自适应的各个方面的在无线通信系统中利用多个深度神经网络的示例操作环境;
12.图5图示了根据用于边缘计算的e2e dnn自适应的各个方面的生成多个神经网络形成配置的示例;
13.图6图示了根据各个方面的能够实现用于边缘计算的e2e dnn自适应的示例操作环境;
14.图7图示了根据各个方面的能够实现用于边缘计算的e2e dnn自适应的另一示例操作环境;
15.图8图示了实现用于边缘计算的e2e dnn自适应的各个网络实体之间的示例事务图;
16.图9图示了实现用于边缘计算的e2e dnn自适应的各个网络实体之间的其他示例事务图;
17.图10图示了用于边缘计算的e2e dnn自适应的示例方法;以及
18.图11图示了用于边缘计算的e2e dnn自适应的另一示例方法。
具体实施方式
19.边缘计算,有时称为移动边缘计算(mec),通过使用边缘计算服务器(ecs)来提供另外的计算资源和/或减少数据传递时延,为无线网络提供改进与用户设备(ue)的通信的能力。作为一个示例,无线网络中的基站能够连接到ecs并向ue提供边缘计算服务以改进数据传递时延。为了说明,相对于远程服务或数据中心的接近度,ecs与目标设备的紧密接近度有助于通过减少与ue的数据传递时延来改进无线网络的响应性。减少的时延有助于改进访问由边缘计算提供的资源的各种应用的性能和响应性,诸如游戏应用、增强现实(ar)应用、虚拟现实(vr)应用、车辆应用(例如,道路信息、天气应用)、实时无人机检测和数据分析。
20.设备移动性添加了管理边缘计算资源的复杂性。为了说明,当ue移动到连接到ecs的第一基站的第一覆盖区域中时,无线网络能够结合用于处理ue的应用数据的边缘计算。当ue移动离开第一覆盖区域并进入没有ecs的第二基站的第二覆盖区域时,无线网络必须将应用数据重新引导到基于云的服务。
21.dnn提供对复杂处理的解决方案,诸如与支持e2e通信中的边缘计算(诸如通过无线网络与ue的数据会话)的改变参与相关联的功能(例如,添加、省略、与基于云的服务聚合)。各个方面训练dnn如何基于e2e通信中的边缘计算的参与模式来处理通过e2e通信传递
的通信。然后,随着e2e通信中的边缘计算的参与模式改变,无线网络能够引导参与e2e通信的设备以形成或更新e2e dnn。在一些方面,无线网络诸如通过修改各种参数配置(例如,系数、内核大小、权重)和/或各种架构配置和/或层计算模式(例如,添加卷积层、减少卷积层的数量、增加或减少由层执行的数据的下采样、减少全连接层的数量、增加全连接层的数量)动态地重新配置e2e dnn,以改进处理分辨率或减少处理计算时间。这为无线网络提供了在e2e通信引导去往或来自边缘计算服务器(ecs)的处理时,诸如当ue移动到包括ecs的覆盖区域中时或者当ue移出覆盖区域时,动态地自适应e2e dnn的灵活性。这还允许无线网络在e2e通信包含ecs时利用针对边缘计算优化的架构来重新配置e2e dnn,并且在e2e通信省略ecs时利用针对基于云的计算优化的架构来重新配置e2e dnn,以基于ecs的参与模式来改进处理分辨率、处理计算时间、时延等。
22.本文件描述了用于边缘计算的e2e dnn自适应的方面,其允许系统处理通信并动态地重新配置e2e通信中使用的dnn作为e2e通信改变的端点。各个方面描述了形成和/或自适应端到端e2e机器学习ml配置,该配置形成用于处理通过e2e通信传递的通信的e2e深度神经网络(dnn)。网络实体引导参与e2e通信的用户设备(ue)和基站通过基于第一e2e ml配置形成e2e dnn的至少一部分来实现e2e通信。该网络实体基于e2e通信中的ecs的参与模式的改变来确定更新第一e2e ml配置。网络实体基于参与模式的改变来标识第二e2e ml配置以及引导ue或基站使用第二e2e ml配置来更新e2e dnn的部分。
23.在各个方面,ue自适应e2e ml配置以用于处理通过e2e通信传递的通信。ue使用用于实现e2e通信的e2e dnn的第一e2e ml配置的至少第一部分来形成深度神经网络(dnn)。ue接收基于e2e通信中的ecs的参与模式的改变使用第二e2e ml配置的至少第二部分来更新dnn的指示。然后,ue基于ecs的参与模式使用e2e ml配置的至少第二部分来更新dnn,并且使用更新后的dnn来实现e2e通信的至少一部分。
24.示例环境
25.图1图示包括用户设备110(ue 110)的示例环境100,用户设备110能够通过一个或多个无线通信链路130(无线链路130)(被图示为无线链路131和132)与基站120(被图示为基站121和122)通信。为简单起见,ue 110被实现为智能电话,但可以被实现为任何合适的计算或电子设备,诸如移动通信设备、调制解调器、蜂窝电话、游戏设备、导航设备、媒体设备、膝上型电脑、台式计算机、平板电脑、智能设备、基于车辆的通信系统或物联网(iot)设备,诸如传感器或致动器。可以在宏小区、微小区、小型小区、微微小区、(一个或多个)分布式基站等或其任何组合中实现基站120(例如,演进的通用陆地无线访问网络节点b、e-utran节点b、演进的节点b、enodeb、enb、下一代节点b、gnode b、gnb、ng-enb等)。
26.基站120使用可以被实现为任何合适类型的无线链路的无线链路131和132与用户设备110通信。无线链路131和132包括控制和数据通信,诸如从基站120传送到用户设备110的数据和控制信息的下行链路、从用户设备110传送到基站120的其他数据和控制信息的上行链路,或两者。无线链路130可以包括使用任何适当的通信协议或标准,或者通信协议或标准的组合,诸如第三代合作伙伴计划长期演进(3gpp lte)、第五代新无线电(5g nr)等,实现的一个或多个无线链路(例如,无线电链路)或承载。可以在载波聚合或多连接技术中聚合多个无线链路130以为ue 110提供更高的数据速率。可以为与ue 110的多点协作(comp)通信配置来自多个基站120的多个无线链路130。
27.基站120共同形成无线接入网140(例如,ran、演进的通用陆地无线接入网、e-utran、5g nr ran或nr ran)。ran 140中的基站121和122被连接到核心网络150。通过用于控制平面信令的ng2接口并且当连接到5g核心网络时将ng3接口用于用户平面数据通信,或当连接到演进分组核心(epc)网络时将s1接口用于控制平面信令和用户平面数据通信,基站121和122在102和104处分别连接到核心网络150。基站121和122能够使用通过xn接口的xn应用协议(xnap),或使用通过x2接口的x2应用协议(x2ap)通信,以在106处交换用户平面数据和控制平面信息。用户设备110可以经由核心网络150连接到公共网络,诸如与远程服务170交互的互联网160。远程服务170表示用于提供多种服务中的任何一种的计算、通信和存储设备,包括交互式语音或视频通信、文件传递、流传输语音或视频以及以任何方式实现的其他技术服务,诸如语音呼叫、视频呼叫、网站访问、消息传送服务(例如,文本消息传送或多媒体消息传送)、照片文件传递、企业软件应用、社交媒体应用、视频游戏、流传输视频或音频服务以及播客。
28.ran 140还包括一个或多个边缘计算服务器180(ecs 180),这里图示为边缘计算服务器181,以及边缘计算服务器182(ecs 181,ecs182),它们提供边缘计算资源以用于处理ue 110的应用数据。ecs 181使用xe接口,在接口191处示出,连接到基站121,并且通过核心网络接口192连接到核心网络150。类似地,ecs 182使用xe接口,在接口193处示出,连接到基站122,并且通过核心网络接口194连接到核心网络150。在各个方面,核心网150管理和/或准予接入ecs 181和/或ecs 182的资源。替代地或另外,核心网络150管理ecs 181、ecs 182和/或远程服务170之间的应用的移动性以及应用的相关联的数据和上下文。作为一个示例,当ue 110从服务蜂窝小区基站(例如,基站121)切换到邻居基站(例如,基站122)时,核心网150服务器将ecs 181的应用以及与应用相关联的任何数据和上下文传递到ecs182。因此,在各个方面,核心网150包括ecs管理功能。
29.示例设备
30.图2图示了能够实现用于边缘计算的e2e dnn自适应的各个方面的ue 110和基站120中的一个的示例设备图200。图3图示了能够实现用于边缘计算的e2e dnn自适应的各个方面的核心网络服务器302和ecs 180(例如,ecs 181、ecs 182)的示例设备图300。ue 110、基站120、核心网络服务器302和/或ecs 180可以包括为了清楚起见而从图2或图3中省略的另外的功能和接口。
31.ue 110包括天线202、射频前端204(rf前端204)、用于与ran140中的基站120通信的无线收发器(例如,lte收发器206和/或5g nr收发器208)。用户设备110的rf前端204能够将lte收发器206和5g nr收发器208耦合或连接到天线202,以促进各种类型的无线通信。用户设备110的天线202可以包括彼此类似或不同地配置的多个天线的阵列。天线202和rf前端204能够被调谐到和/或可调谐到由3gpp lte和5g nr通信标准定义并由lte收发器206和/或5g nr收发器208实现的一个或多个频带。另外,天线202、rf前端204、lte收发器206和/或5g nr收发器208可以被配置为支持用于与基站120的通信的发射和接收的波束成形。作为示例而非限制,天线202和rf前端204能够被实现用于在由3gpp lte和5g nr通信标准定义的低于千兆赫兹频带、低于6ghz频带和/或高于6ghz频带中操作。
32.用户设备110还包括(一个或多个)处理器210和计算机可读存储介质212(crm 212)。处理器210可以是由多种材料,诸如硅、多晶硅、高k电介质、铜等构成的单核处理器或
多核处理器。本文中所描述的计算机可读存储介质排除传播信号。crm 212可以包括可用于存储ue 110的设备数据214的任何合适的存储器或存储设备,诸如随机存取存储器(ram)、静态ram(sram)、动态ram(dram)、非易失性ram(nvram)、只读存储器(rom)或闪存。设备数据214包括可由(一个或多个)处理器210执行的用户数据、多媒体数据、波束成形码本、应用、神经网络(nn)表和/或ue 110的操作系统以实现用户平面通信、控制平面信令以及与用户设备110的用户交互。
33.在各个方面,crm 212包括神经网络表216,该神经网络表216存储形成神经网络的各种架构和/或参数配置,诸如,通过示例而非限制,指定全连接层神经网络架构、卷积层神经网络架构、递归神经网络层、多个连接的隐藏神经网络层、输入层架构、输出层架构、神经网络利用的多个节点、由神经网络利用的系数(例如权重和偏差)、内核参数、由神经网络利用的多个滤波器、由神经网络利用的步幅/池化配置、每个神经网络层的激活函数、神经网络层之间的互连、要跳过的神经网络层等的参数。因此,神经网络表216包括诸如架构和/或参数配置的神经网络形成配置元素(nn形成配置元素)的任意组合,该nn形成配置元素能够被用来创建神经网络形成配置(nn形成配置),该神经网络形成配置包括定义和形成dnn的一个或多个nn形成配置元素的组合。在一些方面,神经网络表216的单个索引值映射到单个nn形成配置元素(例如1:1对应)。替代地或另外,神经网络表216的单个索引值映射到nn形成配置(例如,nn形成配置元素的组合)。在一些实施方式中,神经网络表包括用于每个nn形成配置元素和/或nn形成配置的输入特性,其中,输入特性描述有关被用来生成nn形成配置元素和/或nn形成配置的训练数据的属性,如进一步所描述的。
34.crm 212还可以包括用户设备神经网络管理器218(ue神经网络管理器218)。替代地或另外,ue神经网络管理器218可以全部或部分地被实现为与用户设备110的其他组件集成或分离的硬件逻辑或电路。ue神经网络管理器218诸如通过索引值访问神经网络表216,并且使用由nn形成配置指定的nn形成配置元素来形成dnn。这包括利用如进一步所描述的对dnn的架构改变和/或参数改变的任何组合,诸如涉及更新参数的dnn的小改变和/或重新配置dnn的节点和/或层连接的大改变,来更新dnn。在实施方式中,ue神经网络管理器形成多个dnn以处理无线通信(例如,下行链路通信、上行链路通信)。
35.图2所示的基站120的设备图包括单个网络节点(例如,gnode b)。基站120的功能可以被分布在多个网络节点或设备上,并且可以以适合于执行本文中所描述的功能的任何方式分布。基站120包括天线252、射频前端254(rf前端254)、用于与ue 110通信的一个或多个无线收发器(例如,一个或多个lte收发器256和/或一个或多个5g nr收发器258)。基站120的rf前端254能够将lte收发器256和5g nr收发器258耦合或连接到天线252,以促进各种类型的无线通信。基站120的天线252可以包括以彼此相似或不同的方式配置的多个天线的阵列。天线252和rf前端254能够被调谐到和/或可调谐到由3gpp lte和5g nr通信标准定义并且由lte收发器256和/或5g nr收发器258实现的一个或多个频带。另外,天线252、rf前端254、lte收发器256和/或5g nr收发器258可以被配置为支持诸如massive-mimo的波束成形以用于发射和接收与ue 110的通信。
36.基站120还包括(一个或多个)处理器260和计算机可读存储介质262(crm 262)。处理器260可以是由诸如硅、多晶硅、高k电介质、铜等的多种材料组成的单核处理器或多核处理器。crm262可以包括可用于存储基站120的设备数据264的任何合适的存储器或存储设
备,诸如随机存取存储器(ram)、静态ram(sram)、动态ram(dram)、非易失性ram(nvram)、只读存储器(rom)或闪存。设备数据264包括可以由(一个或多个)处理器260执行以实现与ue 110的通信的网络调度数据、无线电资源管理数据、波束成形码本、应用和/或基站120的操作系统。
37.crm 262还包括基站管理器266。替代地或另外,基站管理器266可以全部或部分地被实现为与基站120的其他组件集成或分离的硬件逻辑或电路。在至少一些方面,基站管理器266配置lte收发器256和5g nr收发器258以与ue 110通信以及与诸如核心网络150的核心网络通信。
38.crm 262还包括基站神经网络管理器268(bs神经网络管理器268)。替代地或另外,bs神经网络管理器268可以全部或部分地被实现为与基站120的其他组件集成或分离的硬件逻辑或电路。在至少一些方面,诸如通过选择nn形成配置元素的组合以形成用于处理边缘计算通信和/或基于云的通信的dnn,bs神经网络管理器268选择由基站120和/或ue 110利用的nn形成配置来配置深度神经网络以用于处理无线通信。在一些实施方式中,bs神经网络管理器从ue 110从ue 110接收反馈,并且基于该反馈来选择nn形成配置。替代地或另外,bs神经网络管理器268通过核心网络接口276或基站间接口274,从核心网络150元素接收神经网络形成配置引导,并且将nn形成配置引导转发给ue 110。在一些方面,bs神经网络管理器268响应于确定向e2e通信添加边缘计算或从e2e通信移除边缘计算而选择nn形成配置。
39.crm 262包括训练模块270和神经网络表272。在实施方式中,基站120管理nn形成配置并将其部署到ue 110。替代地或另外,基站120维护神经网络表272。训练模块270使用已知输入数据来教导和/或训练dnn。例如,训练模块270训练(一个或多个)dnn以用于不同的目的,诸如处理通过无线通信系统发射的通信(例如,编码下行链路通信、调制下行链路通信、解调下行链路通信、解码下行链路通信、编码上行链路通信、调制上行链路通信、解调上行链路通信、解码上行链路通信、处理边缘计算通信、处理基于云的计算通信、聚合边缘计算通信与基于云的计算通信)。这包括离线(例如,当dnn未主动参与处理通信时)和/或在线(例如,当dnn主动参与处理通信时)训练(一个或多个)dnn。
40.在实施方式中,训练模块270从dnn提取所学习的参数配置以标识nn形成配置元素和/或nn形成配置,然后在神经网络表272中添加和/或更新nn形成配置元素和/或nn形成配置。所提取的参数配置包括定义神经网络的行为,诸如节点连接、系数、活动层、权重、偏差、池化等的信息的任何组合。
41.神经网络表272存储使用训练模块270生成的多个不同的nn形成配置元素和/或nn形成配置。在一些实施方式中,神经网络表包括用于每个nn形成配置元素和/或nn形成配置的输入特性,其中,输入特性描述有关用于生成nn形成配置元素和/或nn形成配置的训练数据的属性。例如,输入特性包括通过示例但不限于边缘计算参与模式、端点参与模式、基于云的计算参与模式(例如,添加、省略、聚合)、功率信息、信干噪比(sinr)信息、信道质量指示符(cqi)信息、信道状态信息(csi)、多普勒反馈、频带、块误码率(bler)、服务质量(qos)、混合自动重发请求(harq)信息(例如,第一发射错误率、第二发射错误率、最大重传)、时延、无线电链路控制(rlc)、自动重发请求(arq)度量、接收信号强度(rss)、上行链路sinr、定时测量、错误度量、ue能力、bs能力、功率模式、互联网协议(ip)层吞吐量、端到端(end2end)时
延、端到端丢包率等。因此,输入特性有时包括层1、层2和/或层3度量。在一些实施方式中,神经网络表272的单个索引值映射到单个nn形成配置元素(例如1:1对应)。替代地或另外,神经网络表272的单个索引值映射到nn形成配置(例如,nn形成配置元素的组合)。
42.在实施方式中,基站120使神经网络表272与神经网络表216同步,使得在第二神经网络表中复制存储在一个神经网络表中的nn形成配置元素和/或输入特性。替代地或另外,基站120使神经网络表272与神经网络表216同步,使得存储在一个神经网络表中的nn形成配置元素和/或输入特性表示第二神经网络表中的互补功能(例如,在第一神经网络表中用于发射器路径处理的nn形成配置元素,在第二神经网络表中用于接收器路径处理的nn形成配置元素)。
43.基站120还包括基站间接口274,诸如xn和/或x2接口,基站管理器266将其配置为在其他基站之间交换用户平面数据、控制平面信息和其他数据/信息,以管理基站120与ue 110的通信。基站120包括核心网络接口276,基站管理器266将其配置为与核心网络功能和/或实体交换用户平面数据、控制平面信息和/或其他数据/信息。
44.在图3中,核心网络服务器302可以在核心网络150中提供功能、实体、服务和/或网关的全部或一部分。核心网络150中的每个功能、实体、服务和/或网关可以被提供为分布在多个服务器上或体现在专用服务器上的核心网络150中的服务。例如,核心网络服务器302可以提供用户平面功能(upf)、访问和移动性管理功能(amf)、服务网关(s-gw)、分组数据网络网关(p-gw)、移动性管理实体(mme)、演进的分组数据网关(epdg)等的全部或部分服务或功能。核心网络服务器302被图示为被体现在包括(一个或多个)处理器304和计算机可读存储介质306(crm306)的单个服务器上。处理器304可以是由多种材料,诸如硅、多晶硅、高k电介质、铜等组成的单核处理器或多核处理器。crm 306可以包括可用于存储核心网络服务器302的设备数据308的任何合适的存储器或存储设备,诸如随机存取存储器(ram)、静态ram(sram)、动态ram(dram)、非易失性ram(nvram)、只读存储器(rom)、硬盘驱动器或闪存。设备数据308包括可由(一个或多个)处理器304执行的支持核心网络功能或实体、和/或核心网络服务器302的操作系统的数据。
45.crm 306还包括一个或多个核心网络应用310,在一个实施方式中,其被体现在crm306上(如所示)。一个或多个核心网络应用310可以实现诸如upf、amf、s-gw、p-gw、mme、epdg、ecs管理等的功能。可替代地或另外,一个或多个核心网络应用310可以全部或部分地被实现为与核心网络服务器302的其他组件集成或分离的硬件逻辑或电路。
46.crm 306还包括核心网络神经网络管理器312,其管理用于形成用于处理ue 110和基站120之间传递的通信,诸如添加或省略用于应用处理的ecs的e2e通信,的dnn的nn形成配置。在各个方面,核心网络神经网络管理器312分析各种e2e通信端点连接配置(例如,包括/排除ecs 180、包括/排除远程服务170、ecs 180通信与远程服务170通信的聚合),并且基于所添加和/或省略的端点来选择能够被用于形成处理e2e通信中的通信的端到端深度神经网络(e2e dnn)的端到端机器学习配置(e2e ml配置)。在各个方面,核心网神经网络管理器312选择神经网络表316内的一个或多个nn形成配置以指示所确定的e2e ml配置。
47.在一些实施方式中,核心网神经网络管理器312分析各种标准,诸如当前信号信道状况(例如,如由基站120报告的、如由其它无线接入点报告的、如由ue 110(经由基站或其它无线接入点)报告的)、基站120的能力(例如,天线配置、小区配置、mimo能力、无线电能
力、处理能力)、ue 110的能力(例如,天线配置、mimo能力、无线电能力、处理能力)等。例如,基站120在与ue的通信期间获得各种标准和/或链路质量指示,并且将该标准和/或链路质量指示转发给核心网神经网络管理器312。核心网络神经网络管理器基于这些标准和/或指示来选择改进处理通信的dnn的准确性(例如,较低的误码率、较高的信号质量)的e2e ml配置。然后,核心网神经网络管理器312将e2e ml配置传送到基站120和/或ue 110,诸如通过传送神经网络表的索引。在实施方式中,核心网神经网络管理器312从基站120接收ue和/或bs反馈,并基于该反馈来选择更新后的e2e ml配置。
48.crm 306包括训练模块314和神经网络表316。在实施方式中,核心网络服务器302管理e2e ml配置和/或可分区e2e ml配置的各部分并将其部署到无线通信系统中的多个设备(例如ue 110、基站120)。替代地或另外,核心网络服务器在crm 306的外部维护神经网络表316。训练模块314使用已知的输入数据教导和/或训练dnn。例如,训练模块314训练(一个或多个)dnn以处理通过无线通信系统发射的不同类型的导频通信。这包括离线和/或在线训练(一个或多个)dnn。在实施方式中,训练模块314从dnn提取所学习的nn形成配置和/或所学习的nn形成配置元素,并将所学习的nn形成配置元素存储在神经网络表316中,诸如能够由核心网络神经网络管理器312选择作为e2e ml配置以形成e2e dnn的nn形成配置,如进一步所描述的。因此,nn形成配置包括定义或影响dnn的行为的架构配置(例如,节点连接、层连接)和/或参数配置(例如,权重、偏差、池化)的任何组合。在一些实施方式中,神经网络表316的单个索引值映射到单个nn形成配置元素(例如,1:1对应)。替代地或另外,神经网络表316的单个索引值映射到nn形成配置(例如,nn形成配置元素的组合)。
49.在一些实施方式中,核心网络神经网络管理器312的训练模块314生成与存储在ue110处的神经网络表216和/或基站121处的神经网络表272中的那些互补的nn形成配置和/或nn形成配置元素。作为一个示例,训练模块314利用nn形成配置和/或nn形成配置元素生成神经网络表316,相对于用于生成神经网络表272和/或神经网络表216的中等和/或低变化,nn形成配置和/或nn形成配置元素在架构和/或参数配置方面具有大的变化。例如,由训练模块314生成的nn形成配置和/或nn形成配置元素对应于全连接层、完整的内核大小、频繁的采样和/或池化、高加权精度等。因此,神经网络表316有时包括以增加的处理复杂性和/或时间为代价的高精度神经网络。
50.神经网络表316存储使用训练模块314生成的多个不同的nn形成配置元素。在一些实施方式中,神经网络表包括用于每个nn形成配置元素和/或nn形成配置的输入特性,其中,输入特性描述有关用于生成nn形成配置的训练数据的属性。例如,输入特性能够包括边缘计算参与模式(例如,添加、省略、聚合)、基于云的计算参与模式(例如,添加、省略、聚合)、功率信息、sinr信息、cqi、csi、多普勒反馈、rss、错误度量、最小端到端(e2e)时延、期望的e2e时延、e2e qos、e2e吞吐量、e2e分组丢失率、服务成本等。
51.crm 306还包括端到端机器学习控制器318(e2e ml控制器318)。e2e ml控制器318确定用于处理通过e2e通信传递的信息的端到端机器学习配置(e2e ml配置),诸如基于如进一步所描述的一个或多个端点参与模式来确定e2e ml配置。替代地或另外,e2e ml控制器分析参与e2e通信的设备的ml能力(例如,支持的ml架构、支持的层数、可用处理能力、存储器限制、可用功率预算、定点处理与浮点处理、最大内核大小能力、计算能力)的任何组合。在一些实施方式中,e2e ml控制器获得表征当前操作环境的度量,并且分析当前操作环
境以确定e2e ml配置。这包括确定包括架构配置与定义dnn的(一个或多个)参数配置的组合的e2e ml配置,或者确定简单地包括用于更新dnn的参数配置的e2e ml配置。
52.在确定e2e ml配置时,e2e ml控制器有时确定e2e ml配置的分区,其将与e2e ml配置相关联的处理功能分布在多个设备上。为了清楚起见,图3将e2e ml控制器318图示为与核心网络神经网络管理器312分离,但是在替代的或另外的实施方式中,核心网络神经网络管理器312包括由e2e ml控制器318执行的功能,或反之亦然。此外,虽然图3图示了实现e2e ml控制器318的核心网络服务器302,但是可替代或另外,设备能够实现e2e ml控制器,诸如基站120和/或其他网络元件。
53.核心网络服务器302还包括核心网络接口320,其用于与核心网络150、基站120、ecs 180或ue 110中的其它功能或实体进行用户平面数据、控制平面信息和其它数据/信息的通信。在实施方式中,核心网络服务器302使用核心网络接口320将e2e ml配置或可分区的e2e ml配置的部分传送到基站120。替代地或另外,核心网服务器302使用核心网接口320通过基站120从基站120和/或ue 110接收反馈。
54.ecs 180包括(一个或多个)处理器322和计算机可读存储介质324(crm 324)。处理器322可以是由各种材料,诸如硅、多晶硅、高k电介质、铜等,组成的单核处理器或多核处理器。crm 324可以包括用于存储ecs 180的设备数据326的任何合适的存储器或存储设备,诸如随机存取存储器(ram)、静态ram(sram)、动态ram(dram)、非易失性ram(nvram)、只读存储器(rom)、硬盘驱动器或闪存。crm 324包括由ue 110和/或ecs 180的操作系统使用的应用328和应用数据330,其可由(一个或多个)处理器322执行以实现与ue 110、基站120和核心网服务器302的通信。
55.ecs 180还包括用于与基站120通信的xe接口332和用于与核心网络服务器302的用户平面数据和/或控制平面信息的通信的核心网络接口334。
56.可配置的机器学习模块
57.图4图示了包括能够实现用于边缘计算的e2e dnn自适应的各个方面的ue 110和基站120的示例操作环境400。在实施方式中,ue 110和基站120通过使用多个dnn处理通信来在无线通信系统上彼此交换通信。
58.基站120的基站神经网络管理器268包括下行链路处理模块402,其用于处理下行链路通信,诸如用于生成发射到ue 110的下行链路通信。为了说明,基站神经网络管理器268使用e2e ml配置和/或e2e ml配置的一部分在下行链路处理模块402中形成(一个或多个)深度神经网络404(dnn 404),如进一步所描述的。在各个方面,dnn 404执行用于生成下行链路通信的发射器处理链功能中的一些或全部,诸如接收输入数据,前进到编码阶段,随后是调制阶段,并且然后是射频(rf)模拟发射(tx)阶段的处理链。为了说明,dnn 404能够执行卷积编码、串行到并行转换、循环前缀插入、信道编码、时间/频率交织等。在一些方面,dnn 404处理边缘计算通信、基于云的计算通信或其任何组合。
59.类似地,ue 110的ue神经网络管理器218包括下行链路处理模块406,其中,下行链路处理模块406包括用于处理(所接收的)下行链路通信的(一个或多个)深度神经网络408(dnn 408)。在各种实施方式中,ue神经网络管理器218使用e2e ml配置和/或e2e ml配置的一部分来形成dnn 408,如进一步所描述的。在各个方面,dnn 408执行用于(所接收的)下行链路通信的一些或所有接收机处理功能,诸如对由dnn 404执行的处理的互补处理(例如,
rf模拟接收(rx)阶段、解调阶段、解码阶段)。为了说明,dnn 408能够执行提取嵌入在rx信号上的数据、恢复二进制数据、基于在发射器框应用的前向纠错来校正数据错误、从帧和/或时隙提取有效载荷数据等的任何组合。
60.基站120和/或ue 110还使用dnn来处理上行链路通信。在环境400中,ue神经网络管理器218包括上行链路处理模块410,其中,上行链路处理模块410包括用于生成和/或处理上行链路通信(例如,编码、调制)的(一个或多个)深度神经网络412(dnn 412)。换句话说,上行链路处理模块410将预发射通信作为处理上行链路通信的一部分进行处理。ue神经网络管理器218例如使用e2e ml配置和/或e2e ml配置的一部分来形成dnn 412,以执行用于生成从ee 110发射到基站120的上行链路通信的发射器处理功能中的一些或全部。在各个方面,dnn 412执行用于生成上行链路通信的发射器处理链功能中的一些或全部,诸如接收输入数据、前进到编码阶段、随后是调制阶段、并且然后是射频(rf)模拟发射(tx)阶段的处理链。
61.类似地,基站120的上行链路处理模块414包括用于处理(接收到的)上行链路通信的(一个或多个)深度神经网络416(dnn 416),其中,基站神经网络管理器268使用e2e ml配置和/或e2e ml配置的一部分来形成dnn 416,以执行用于(接收到的)上行链路通信,诸如从ue 110接收到的上行链路通信,的一些或全部接收机处理功能。有时,dnn 412和dnn 416执行彼此的互补功能。例如,dnn 416可以执行用于(接收到的)上行链路通信的一些或全部接收机处理链功能,诸如与由dnn 412执行的处理互补的处理(例如,rf模拟接收(rx)阶段、解调阶段、解码阶段)。
62.通常,深度神经网络(dnn)对应于被组织成四层或更多层的连接节点组。层之间的节点可以以各种方式配置,诸如第一层中的节点的第一子集与第二层中的节点的第二子集连接的部分连接的配置,或者第一层中的每个节点连接到第二层中的每个节点的完全连接的配置等。节点能够使用各种算法和/或分析来基于自适应学习生成输出信息,诸如单线性回归、多元线性回归、逻辑回归、逐步回归、二元分类、多类分类、多元自适应回归样条、局部估计散点图平滑等。有时,(一个或多个)算法包括基于自适应学习而改变的权重和/或系数。因此,权重和/或系数反映由神经网络学习的信息。
63.神经网络还能够采用各种架构,这些架构确定神经网络内的哪些节点被连接、在神经网络中如何推进和/或保留数据、使用什么权重和系数来处理输入数据、如何处理数据等等。这些各种因素共同描述了nn形成配置。为了说明,递归神经网络,诸如长短期记忆(lstm)神经网络,在节点连接之间形成循环,以便保留来自输入数据序列的前一部分的信息。然后,递归神经网络将保留的信息用于输入数据序列的后续部分。作为另一示例,前馈神经网络将信息传递给前向连接,而不形成循环以保留信息。尽管在节点连接的上下文中进行了描述,但是将理解,nn形成配置能够包括影响神经网络如何处理输入数据的各种参数配置。
64.神经网络的nn形成配置能够通过各种架构和/或参数配置来表征。为了说明,考虑dnn实现卷积神经网络的示例。通常,卷积神经网络对应于一种类型dnn,其中,各层使用卷积运算对数据进行处理以过滤输入数据。相应地,卷积nn形成配置能够例如但不限于利用(一个或多个)池化参数(例如,指定池化层以减小输入数据的维度)、(一个或多个)内核参数(例如,用在处理输入数据中的滤波器大小和/或内核类型)、权重(例如,用于对输入数据
进行分类的偏置)和/或(一个或多个)层参数(例如,层连接和/或层类型)来表征。虽然在池化参数、内核参数、权重参数和层参数的上下文中进行了描述,但是能够使用其他参数配置来形成dnn。因此,nn形成配置能够包括能够被应用于dnn的影响dnn如何处理输入数据以生成输出数据的任何其他类型的参数。e2e ml配置使用一个或多个nn形成配置来形成处理从一个端点到另一端点的通信的e2e dnn。例如,可分区的e2e ml配置可以针对每个分区使用相应的nn形成配置。
65.图5图示了根据用于边缘计算的e2e dnn自适应描述生成多个nn形成配置的方面的示例500。有时,示例500的各个方面由图2和图3的训练模块270、基站神经网络管理器268、核心网络神经网络管理器312和/或训练模块314的任何组合来实现。
66.图5的上部包括dnn 502,其表示用于实现用于边缘计算的e2e dnn自适应的任何合适的dnn。在实施方式中,神经网络管理器确定生成不同的nn形成配置,诸如基于端点参与模式的用于不同操作配置的nn形成配置(例如,将ecs添加到e2e通信的第一配置、从e2e通信省略ecs的第二配置、将边缘计算通信与基于云的计算通信聚合的第三配置、从e2e通信排除远程服务的第四配置)。替代地或另外,神经网络基于不同的发射环境和/或发射信道条件来生成nn形成配置。训练数据504表示对dnn 502的示例输入,诸如与具有特定操作配置和/或特定发射环境的下行链路通信和/或上行链路通信相对应的数据。为了说明,训练数据504能够包括下行链路无线信号的数字样本、恢复的符号、恢复的帧数据、二进制数据等。在一些实施方式中,训练模块数学地生成训练数据或访问存储训练数据的文件。其他时候,训练模块获得真实世界通信数据。因此,训练模块能够使用数学生成的数据、静态数据和/或现实世界数据来训练dnn 502。一些实施方式生成描述训练数据的各种质量的输入特性506,诸如操作配置、发射信道度量、ue能力、ue速度、包括边缘计算等。
67.dnn 502分析训练数据并生成这里表示为二进制数据的输出508。一些实施方式使用相同训练数据集和/或具有相同输入特性的另外的训练数据迭代地训练dnn 502,以改进机器学习模块的准确性。在训练期间,机器学习模块修改包括在机器学习模块中的神经网络的架构和/或参数配置中的一些或全部,诸如节点连接、系数、内核大小等。在训练中的某个点处,诸如当训练模块确定准确度满足或超过期望阈值、训练过程满足或超过迭代次数等时,训练模块确定提取神经网络的架构和/或参数配置510(例如,(一个或多个)池化参数、(一个或多个)内核参数、(一个或多个)层参数、权重)。然后,训练模块从机器学习模块提取架构和/或参数配置以用作nn形成配置和/或(一个或多个)nn形成配置元素。架构和/或参数配置能够包括固定架构和/或参数配置和/或可变架构和/或参数配置的任何组合。
68.图5的下部包括表示nn形成配置元素的集合的神经网络表512,诸如图2和图3的神经网络表216、神经网络表272和/或神经网络表316。神经网络表512存储架构配置、参数配置和输入特性的各种组合,但是替代实施方式从表中省略输入特性。当dnn学习另外的信息时,各种实施方式更新和/或维护nn形成配置元素和/或输入特性。例如,在索引514,神经网络管理器和/或训练模块更新神经网络表512以包括在分析训练数据504时由dnn 502生成的架构和/或参数配置510。在稍后的时间点,诸如当确定用于处理添加或省略ecs端点的e2e通信中的通信的e2e ml配置时,神经网络管理器通过将输入特性与当前操作环境和/或配置进行匹配,诸如通过将输入特性与当前信道状况、边缘计算的参与模式、ue能力、ue特性(例如,速度、位置等)等进行匹配,来从神经网络表512中选择一个或多个nn形成配置。
69.用于边缘计算的e2e架构自适应
70.端到端通信(e2e通信)的各个方面涉及两个或更多个端点在彼此之间传递通信,诸如ue、远程服务和/或ecs之间的数据会话。e2e通信能够对应于单向传递,其中,第一端点发送通信,并且第二端点接收和/或恢复通信(例如,仅下行链路、仅上行链路),或者双向传递,其中,两个端点彼此发送和接收通信(例如,下行链路和上行链路的互易性)。
71.不同的因素影响e2e通信的配置和操作效率以及网络设备如何通过e2e通信处理和/或路由通信。作为一个示例,ecs端点处理ue应用数据,并且基于与ue的更近接近度,相对于基于云的计算端点(例如,远程服务170),ecs端点以更少的时延通过e2e通信传递应用数据。作为另一示例,当前操作环境(例如,当前信道状况、ue位置、ue移动、ue能力)影响接收端点恢复数据的准确性(例如,误码率、分组丢失)。为了说明,使用5g毫米波(mmw)技术实现的e2e通信相对于较低频率的6ghz以下的信号变得易受更多信号失真的影响。作为又一示例,参与e2e通信的设备时常具有彼此不同的能力和资源(例如,存储器存储、处理器功率)。自适应e2e dnn提供了影响对于通过e2e通信的数据传递和/或恢复的性能(例如,更高的处理分辨率、更快的处理、更低的误码率、改进的信号质量、改进的时延)的动态和改变的因素的灵活解决方案。
72.在用于边缘计算的e2e dnn自适应的方面,ue、基站和/或核心网络服务器基于参与e2e通信的(一个或多个)端点来动态地自适应和/或切换e2e dnn的e2e ml配置(例如,架构、参数)。例如,当e2e通信在ecs与远程服务之间切换时,各个方面将e2e ml配置自适应为数据会话的端点。为了说明,引导到包含ecs的e2e通信的第一e2e ml配置可以使处理质量优先于计算时延。换言之,因为ecs通信相对于其他端点具有较低的传递时延,所以e2e ml配置形成包括更多处理层和/或以更高分辨率处理数据以改进e2e通信的质量的e2e dnn。替代地,被引导到包含远程服务器的e2e通信的第二e2e ml配置基于远程服务相对于其他端点具有较高的传递时延而使计算时延优先于处理质量。因此,被引导到处理与远程服务的通信的第二e2e ml配置形成相对于第一e2e ml配置具有更少处理层、更多数据下采样、减少数量的全连接层和/或更低处理分辨率的e2e dnn。各个方面自适应和/或重新配置e2e ml配置以形成e2e dnn,该e2e dnn聚合和/或拆分通过多个端点之间的e2e通信的通信。
73.图6图示了根据各个方面能够实现用于边缘计算的e2e dnn自适应的示例环境600。环境600包括图1的ue 110、基站120、远程服务170、ecs 180,以及图3的核心网服务器302。在各个方面,ue 110、基站120和/或核心网络服务器302实现用于处理通过e2e通信的信息和/或数据传递的e2e dnn的示例分区。
74.如参考图3所述,e2e ml控制器318确定形成用于处理通过一个或多个e2e通信传递的通信的(一个或多个)e2e dnn的一个或多个e2e ml配置。这包括确定对以下各项的调整:(a)现有e2e ml配置,诸如使用参数更新(例如,系数、权重)的小调整以基于反馈来调谐(一个或多个)e2e dnn和/或(b)ml架构改变(例如,层的数量、层计算模式(例如,下采样配置、添加或移除全卷积层)、节点连接)以重新配置(一个或多个)e2e dnn。在环境600中,e2e ml控制器318确定形成双向e2e dnn的e2e ml配置,但是在替代或另外的实施方式中,e2e ml控制器318确定形成(一个或多个)单向e2e dnn的e2e ml配置。
75.如图6所示,e2e ml控制器318确定用于形成处理通过ue 110和远程服务170之间的第一e2e通信602传递的通信的第一e2e dnn的第一e2e ml配置,以及用于形成处理通过
ue 110和ecs 180之间的第二e2e通信604传递的通信的第二e2e dnn的第二e2e ml配置。在各个方面,响应于e2e通信中的端点的参与改变(例如,改变数据会话中的端点),诸如当ue 110移入和移出连接到ecs(例如,ecs180)的基站(例如,基站120)的覆盖区域时,e2e ml控制器318动态地确定不同的e2e ml配置以及对那些配置的自适应。
76.因为e2e通信602使用与e2e通信604不同的端点,所以e2e ml控制器318基于不同的优先级为每个e2e ml配置确定不同的架构和/或参数。例如,响应于确定通过将远程服务170包括为端点来修改现有e2e通信,e2e ml控制器318基于使传递时延优先于(例如,最小化传递时延)处理质量(例如,处理分辨率、数据帧速率)来确定第一ml架构。例如,e2e ml控制器318选择具有更少处理层和/或更多数据下采样的架构以减少计算时间,如进一步所描述的。响应于确定移除作为端点的远程服务170并且添加ecs 180作为端点,e2e ml控制器318基于使处理质量(例如,更高的处理分辨率、更高的帧速率)优先于处理时延来标识第二ml架构,诸如通过选择具有更多处理层(例如,更多的卷积层、更少的下采样等)的ml架构,这以增加计算时间为代价来增加处理准确度。因此,e2e ml控制器318基于e2e通信中的ecs和/或基于云的服务的参与模式改变来动态地自适应e2e ml配置。
77.e2e ml控制器318还能够基于其它因素,诸如参与e2e通信的(一个或多个)设备或网络实体的机器学习(ml)能力(例如,支持的ml架构、支持的层数、可用处理能力、存储器限制、可用功率预算、定点处理对浮点处理、最大内核大小能力、计算能力),来确定e2e ml配置。作为另一示例,e2e ml控制器诸如通过分析从ue 110和/或基站120接收的链路质量指示来分析当前操作环境。在确定e2e ml配置时,e2e ml控制器的一些实施方式基于参与e2e通信的(一个或多个)设备来分区e2e ml配置,并且将e2e ml配置的相应分区传送给每个相应设备。作为一个示例,核心网络服务器302向ue 110发送消息,诸如非接入层(nas)消息,以向处理通过e2e通信路由的数据的ue实现的dnn指示架构和/或参数改变。
78.e2e ml控制器318确定用于形成处理通过e2e通信602传递的通信的第一e2e dnn的第一e2e ml配置。e2e ml控制器318使用信息的任何组合来标识第一e2e ml配置,诸如端点的参与模式(例如,添加远程服务170、省略ecs 180)、端点特性(例如,时延、吞吐量)、优先级、链路质量指示、性能要求(例如,资源类型、优先级、分组延迟预算、分组误码率、最大数据突发量、平均窗口、安全级别)、可用无线网络资源、参与设备(例如,基站120、核心网服务器302、ue 110)的ml能力、当前操作环境(例如,信道状况、ue位置)等。
79.在各个方面,e2e ml控制器318通过分析历史记录和/或度量来标识关于远程服务170的特性。为了说明,e2e控制器318访问历史记录,该历史记录指示核心网络服务器302与远程服务170之间的数据传递的统计往返传递时延特性。如果传递时延特性超过性能阈值或消耗用于数据传递的大部分时间预算,则e2e ml控制器318选择具有被引导到处理相对于其他架构在预定(较短)时间帧内通过e2e通信的数据传递的架构的e2e ml配置,以抵消或补偿远程服务的传递时延特性和/或维持时间预算。为了说明,考虑100毫秒(msec)的端到端往返延迟时间预算。响应于确定核心网络服务器302与远程服务170之间的通信的往返传递延迟特性在统计上超过50毫秒(因此,占据大部分往返时延时间预算),e2e ml控制器318标识具有第一架构的第一e2e ml配置,该第一架构相对于以更高分辨率在20毫秒内处理通过e2e通信的数据传递的第二架构,以更低分辨率在10毫秒内处理通过e2e通信的数据传递。例如,e2e ml控制器318选择相对于第二e2e ml配置,具有较少层、改变层计算模式以
增加或减少由层执行的下采样、较少全连接层和/或较少处理节点的第一e2e ml配置。
80.e2e ml控制器318有时确定对e2e ml配置的分区(以及利用e2e ml配置形成的所得e2e dnn)以将处理分布在参与e2e通信的各个设备之间。换言之,e2e ml配置形成分布式e2e dnn,其中,多个设备实现分布式e2e dnn的相应部分。例如,响应于确定与e2e通信602相关联的第一e2e ml配置,e2e ml控制器318将第一e2e ml配置分区成多个部分并且引导设备基于这些部分形成相应的dnn。为了说明,核心网络服务器302使用第一e2e ml配置的第一部分来形成第一(中央)dnn 606,以处理通过核心网络服务器处通过互联网160与远程服务170的e2e通信602(和/或其他基于云的服务)的通信传递。在一些方面,e2e ml控制器318可替代地或另外分区第一e2e ml配置以在数据中心(未示出)处形成dnn(例如,e2e dnn的一部分)。在各个方面,e2e ml控制器318分区e2e dnn以将基站120处的计算密集型操作(例如,通过dnn 606)卸载到核心网络服务器。替代地或另外,dnn 606通过互联网,诸如通过生成网络分组以通过互联网发送到远程服务170和/或通过以针对e2e通信优化的方式从远程服务170接收网络分组,来路由去往和来自远程服务的通信。
81.类似地,基站120使用用于处理通过e2e通信602传递的通信的第一e2e ml配置的第二部分来形成第二dnn 608,其中dnn 606和dnn 608在接口610处作为e2e通信602的一部分彼此通信。换句话说,dnn 606向dnn 608提供输入,和/或dnn 608向dnn 606提供输入。ue 110使用第一e2e ml配置的第三部分和/或分区来形成第三dnn 612,以处理通过e2e通信602传递的通信。共同地,dnn 606、608和612对应于由e2e ml配置形成的分布式(并且可分区的)e2e dnn,其中,dnn 606通常对应于被引导到处理(通过互联网160)与远程服务170的通信的中央dnn。
82.在各个方面,核心网络服务器302、基站120和/或ue 110确定修改e2e通信602以添加ecs 180并省略远程服务170。换句话说,核心网络服务器302、基站120和/或ue 110确定自适应和/或改变与e2e通信602相关联的e2e dnn以形成与e2e通信604相关联的e2e dnn。然而,如参考图7所描述的,核心网络服务器302、基站120和/或ue 110有时修改e2e ml配置以形成处理与多个端点的输入/输出的e2e dnn。核心网络服务器302、基站120和/或ue 110能够基于各种因素来确定修改e2e通信。作为一个示例,ue 110通过基站120向核心网服务器指示估计的ue位置,并且核心网服务器302基于传递时延来确定将ue 110从数据服务器切换到距估计的ue位置预定距离内的ecs。作为另一示例,ue 110向基站120发射对添加ecs以增加数据吞吐量和/或改进时延的请求。作为又一示例,基站120基于所估计的ue位置来(从连接到基站的多个ecs中的)标识最靠近ue的特定ecs。
83.响应于确定将移动边缘计算包括到e2e通信,e2e ml控制器318确定第二e2e ml配置,其中,第二e2e ml配置能够对应于与第一e2e ml配置分开且不同的e2e ml配置,或者能够对应于对第一e2e ml配置的调整、调谐、细化和/或架构更新。e2e ml控制器318使用信息(例如,端点参与模式、端点特性、链路质量指示、性能要求)的任何组合来确定第二e2e ml配置。作为一个示例,e2e ml控制器318确定ecs 180与基站120(和/或核心网络服务器302)之间的往返传递时延特性统计上发生在20毫秒或小于20毫秒。再次假设100毫秒的往返时延时间预算,e2e ml控制器318选择具有相对于第一e2e ml配置包括更多层和/或节点的ml架构的第二e2e ml配置,因为往返传递时延特性允许由对应的e2e dnn进行更多处理(例如,更高的分辨率、更高的帧速率)。
84.在各个方面,e2e ml控制器318将第二e2e ml配置分区成多个部分,并且引导参与设备形成dnn以用于处理通过e2e通信604传递的通信。如图6所示,基站120基于第二e2e ml配置的第一分区形成第四(本地)dnn 614,其中,dnn 614在接口191处与ecs 180通信,如进一步所描述的。然而,在替代或另外的实施方式中,核心网络服务器302形成第四(本地)dnn 614并在接口192(图6中未示出)处与ecs 180通信。在各个方面,诸如通过生成到ecs 180的通信分组和/或通过以针对e2e通信优化的方式,使用支持ecs 180的格式从ecs 180接收通信,dnn 614路由基站120与ecs 180之间的通信。
85.e2e ml控制器318还基于第二e2e ml配置的第二分区更新第二dnn 608,并且基于第二e2e ml配置的第三分区更新第三dnn 612。在e2e通信604中,dnn 608在接口616处接收来自本地dnn 614的输入,而不是在接口610处接收来自dnn 606的输入,如针对e2e通信602所图示的。如由e2e通信604中的dnn所示的第二e2e ml配置的分区表示功能的示例分区,并且e2e控制器318能够以其他方式分区和分布e2e ml配置(和对应的e2e dnn)。
86.为清楚起见,ue 110和基站120更新并将相同的dnn(例如,dnn 612、dnn 608)用于e2e通信602和e2e通信604两者。然而,在替代或另外的实施方式中,ue 110和基站120为不同的e2e通信维持分离的dnn。
87.图7图示了根据各个方面能够实现用于边缘计算的e2e dnn自适应的示例环境700。环境700包括图1的ue 110、基站120、远程服务170和ecs 180,以及图3的核心网服务器302。
88.在环境700中,ue 110充当e2e通信702的第一端点,远程服务170充当第二端点,并且ecs 180充当第三端点。在各个方面,e2e ml控制器318确定用于形成e2e dnn的e2e ml配置,该e2e dnn聚合和/或拆分在ue 110与两个其他端点之间传递的通信。虽然e2e ml控制器318确定用于双向e2e dnn的e2e ml配置,但是e2e ml控制器318能够替代地或另外确定用于单向dnn的一个或多个e2e ml配置,以聚合和/或拆分下行链路或上行链路通信,如进一步所描述的。
89.ue 110、基站120和/或核心网络服务器302形成分布式e2e dnn以处理通过e2e通信702传递的信息和/或数据,其中,ue 110使用远程服务170和ecs 180两者来处理应用数据。在各个方面,e2e ml控制器318确定用于分布式e2e dnn的e2e ml配置,该分布式e2e dnn拆分从ue 110到远程服务170和ecs 180的(通过互联网160)通信,然后聚合从远程服务170和ecs 180到ue 110的(通过互联网160)通信。类似于参考图6所述,e2e ml控制器318使用诸如优先级排序、端点的参与模式、端点特性、链路质量指示、性能要求、可用无线网络资源、参与设备的ml能力、当前操作环境等信息的任何组合来标识e2e ml配置。
90.作为一个示例,e2e ml控制器318分析设备能力,并且引导ue基于ue的处理约束形成相对于由基站和/或核心网络服务器形成的dnn的具有更少层和更小内核大小的dnn。可替代地或另外,e2e ml控制器分区e2e ml配置以形成具有在不超过ue的存储器约束的情况下处理信息的架构的神经网络(例如,卷积神经网络、长短期记忆(lstm)网络、部分连接、全连接)。在一些实例中,e2e ml控制器计算在每个设备处执行的相应计算量是否共同满足与时延预算相对应的性能要求,并且确定被设计为满足性能要求的e2e ml配置。
91.环境700图示了示例分区,其中,e2e ml控制器318将e2e ml配置(以及使用e2e ml配置形成的e2e dnn)划分为五个部分。核心网络服务器302使用e2e ml配置的第一部分形
成第一dnn 704。基站120使用e2e ml配置的第二部分形成第二dnn 706、使用e2e ml配置的第三部分形成第三dnn 708、以及使用e2e ml配置的第四部分形成第四dnn 710。ue 110使用e2e ml配置的第五部分来形成第五dnn 712。由dnn 704、706、708、710和712图示出的分区和功能表示分布式e2e dnn的功能和形成的示例分区。在替代实施方式中,e2e ml控制器318以其他方式分区e2e ml配置。作为一个示例,e2e ml控制器318分区e2e ml配置以将针对dnn 706、dnn 708和dnn 710描述的处理组合成在基站120处实现的单个dnn。作为第二示例,e2e ml控制器318对e2e ml配置进行分区以在核心网络服务器302处包括附加dnn,该附加dnn在接口192(图7中未示出)处从ecs 180接收输入,诸如用于与边缘计算相关联的移动性管理。为了说明,e2e ml控制器318分区e2e dnn以将基站120处的计算密集型操作卸载到核心网络服务器(例如,通过dnn 704)。可替代地或另外,dnn 704通过互联网路由去往和来自远程服务的通信,诸如通过生成网络分组以通过互联网发送到远程服务170和/或通过以针对e2e通信优化的方式从远程服务170接收网络分组。类似地,在一些方面,dnn 706路由基站120和esc 180之间的通信,诸如通过生成到ecs 180的通信分组和/或通过以针对e2e通信优化的方式,使用支持ecs 180的格式从ecs 180接收通信。
92.对于下行链路通信,dnn 704从远程服务170接收第一输入(例如,应用数据)、处理第一输入、并生成第一输出。类似地,dnn 706在接口191处从ecs 180接收第二输入、处理第二输入、并生成第二输出。dnn 708接收并处理来自相应端点的第一输出和第二输出,并生成dnn 710接收并处理的聚合输出。然后dnn 710将对应的结果传送到dnn 712。
93.对于上行链路通信,ue 110处的dnn 712生成dnn 710用作输入的输出。基于该输入,基站120处的dnn 710生成由dnn 708接收的单个输出,这也在基站120处实现。dnn 708生成分割输出:引导到核心网络服务器302处的dnn 704(并且随后通过互联网160引导到远程服务170)的第一输出,以及引导到dnn 706(并且随后引导到接口191处的ecs 180)的第二输出。
94.确定e2e ml配置并基于一个或多个相应的端点参与模式自适应e2e ml配置允许网络实体在ue移动和对应的e2e通信的端点改变时动态地改变e2e dnn处理通信。在一些方面,网络实体确定可分区e2e ml配置以分布e2e dnn的处理和/或引导具有更少资源的设备以形成相对于具有更多处理资源和/或存储器的设备具有更少处理(例如,更少数据、更少存储器、更少cpu周期、更少节点、更少层)的dnn。动态自适应和/或分区允许网络实体基于参与e2e通信的端点来修改(分布式)e2e dnn,并且参考一个或多个度量,诸如更高的分辨率、更快的处理、更低的误码率、改进的信号质量、改进的时延等,来改进e2e通信的性能。
95.用于边缘计算的e2e dnn自适应的信令和控制事务
96.图8和9图示了根据用于边缘计算的e2e dnn自适应的一个或多个方面的核心网络服务器、基站和用户设备之间的示例信令和控制事务图。信令和控制事务的操作可以由图1的基站120和ue 110或者图3的核心网服务器302使用如参考图1-7中的任何一个所描述的方面来执行。
97.用于边缘计算的e2e dnn自适应的信令和控制事务的第一示例由图8的信令和控制事务图800图示。如所图示的,在805,核心网络服务器302、基站120和ue 110使用e2e dnn处理通过e2e通信传递的通信。在各个方面,e2e dnn对应于分布式e2e dnn,诸如参考图6和7所描述的那些。
712)。例如,ue 110访问神经网络表以获得如参考图5所描述的一个或多个参数和/或架构。在实施方式中,由ue 110形成的dnn执行通过无线网络的e2e通信传递信息和/或数据的至少一些处理。
104.之后,在850,核心网络服务器302、基站120和/或ue 110使用从在820标识的e2e ml配置形成的e2e dnn来处理通过e2e通信传递的通信。例如,参考图6,dnn处理由远程服务端点或ecs处理的应用数据的上行链路和/或下行链路传递。作为另一示例,参考图7,dnn通过聚合、拆分和/或路由与远程服务端点和ecs两者相关联的数据来处理应用数据的上行链路和/或下行链路传递。
105.在各个方面,核心网络服务器302、基站120和/或ue 110迭代地执行在图8中利用虚线855表示的信令和控制事务图800中所描述的信令和控制事务。这些迭代允许核心网络服务器302、基站120和/或ue 110随着e2e通信中的ecs的参与模式改变,诸如基于ue移动的改变,来动态地调整和/或切换用于自适应e2e通信的dnn。调整能够包括对e2e dnn的架构改变和/或参数改变,如进一步所描述的。
106.用于边缘计算的e2e dnn自适应的信令和控制事务的第二示例由图9的信令和控制事务图900图示。图900提供了用于执行图8的子图815的示例信令和控制事务。
107.在905,ue 110向基站120指示估计的ue位置信息。作为一个示例,ue 110向基站120发射链路质量指示,并且基站120诸如通过功率水平和/或定时信息(例如,到达时间)来生成估计的ue位置。作为另一示例,基站从ue 110接收估计的ue位置,诸如通过使用低频带信道(例如,700mhz、800mhz)发送全球定位系统(gps)和/或全球导航卫星系统(gnss)位置信息。
108.在910,基站120向核心网络服务器302指示估计的ue位置。替代地或另外,基站120向核心网服务器302指示在ue处调用和/或执行的应用,如在920处进一步所描述的。在一些方面,基站120基于估计的ue位置来标识ecs服务器,并且从核心网服务器302请求将ecs服务器包括或添加到e2e通信。
109.响应于从基站120接收到该请求,核心网络服务器302在915处基于估计的ue位置来确定修改e2e dnn。为了说明,假设用于ue 110的现有e2e通信包括与数据中心和/或远程服务的连接,如进一步所描述的。核心网络服务器302从估计的ue位置确定数据中心和/或远程服务与在估计的ue位置处的ue之间的平均往返时延超过往返时延预算。例如,核心网络服务器302访问历史数据记录,该历史数据记录存档在估计的ue位置处的其他ue与数据中心之间的过去的往返时延。替代地或另外,核心网络服务器302根据估计的ue位置确定ue位于距ecs的预定距离内,和/或确定ecs与在估计的ue位置处的其它ue之间的平均往返时延。在各个方面,核心网络服务器302确定与ecs相关联的平均往返时延改进传递时延,然后确定将ecs 180添加到e2e通信。
110.响应于确定将ecs 180添加到e2e通信,核心网络服务器302确定修改e2e dnn,诸如通过形成将应用数据路由到ecs的e2e dnn。替代地或另外,核心网络服务器302确定修改e2e dnn以从e2e通信中省略或排除与数据中心和/或远程服务的通信。在一些方面,核心网络服务器302标识形成e2e dnn的e2e ml配置,以聚合和/或拆分ue、数据中心和ecs之间的通信,如进一步所描述的。
111.用于边缘计算的e2e dnn自适应的信令和控制事务的第三示例由图9的信令和控
制事务图902图示。图902提供了用于执行图8的子图815的示例信令和控制事务。
112.在920,ue 110通过向基站120发射请求来请求边缘计算。为了说明,ue 110标识对数据密集型应用和/或具有低时延要求的应用的调用,并且请求移动边缘计算以服务该应用。在一些方面,ue显式地请求添加边缘计算,而在其他方面,ue隐式地请求添加边缘计算。例如,ue通过发射对所调用的应用和/或该应用所利用的数据服务的指示来隐式地请求包括边缘计算。
113.在925,响应于接收到ue的添加边缘计算的请求,基站120从核心网络服务器302请求e2e dnn改变。在一些方面,基站120根据在920处指示的信息来确定连接到基站的ecs支持针对所调用的应用的处理和/或包括由应用利用的数据服务。然后,基站120请求e2e dnn的改变以将ecs 180添加到e2e通信。在其它方面,基站确定在ecs180处针对所调用的应用和/或数据服务的计算已经完成,并且请求e2e dnn的改变以从e2e通信中省略ecs 180。响应于接收到请求和/或响应于确定授权请求,在920,核心网络服务器302确定在915处修改e2e dnn,如进一步所描述的。
114.示例方法
115.根据用于边缘计算的e2e dnn自适应的一个或多个方面,参考图10和图11描述了示例方法1000和1100。描述方法框的顺序不旨在被解释为限制,并且可以跳过或以任何顺序组合任何数量的所描述的方法框以实现方法或替代方法。通常,本文中描述的任何组件、模块、方法和操作能够使用软件、固件、硬件(例如,固定逻辑电路)、手动处理或其任何组合来实现。可以在存储在计算机处理系统本地和/或远程的计算机可读存储存储器上的可执行指令的一般上下文中描述示例方法的一些操作,并且实施方式能够包括软件应用、程序、功能等。替代地或另外,本文中描述的任何功能能够至少部分地由一个或多个硬件逻辑组件执行,诸如但不限于现场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、片上系统(soc)、复杂可编程逻辑器件(cplds)等。
116.图10图示了用于执行用于边缘计算的e2e dnn自适应的各个方面的示例方法1000。在一些实施方式中,方法1000的操作由诸如核心网络服务器302的网络实体执行。
117.在1005,网络实体引导参与端到端(e2e)通信的ue和基站通过基于第一e2e ml配置形成e2e深度神经网络(dnn)的至少一部分来实现e2e通信。例如,网络实体(例如,核心网络服务器302)引导基站(例如,基站120)使用e2e机器学习(ml)配置的第一部分来形成第一dnn,并且引导ue(例如,ue 110)使用e2e ml配置的第二部分来形成第二dnn,如在图8的805所描述的。
118.在1010,网络实体基于e2e通信中ecs的参与模式的改变来确定更新第一e2e ml配置。例如,网络实体(例如,核心网服务器302)从ue(例如,ue 110)接收添加ecs(例如,ecs 180)的请求,如在在图9的925和930所描述的。作为另一示例,网络实体(例如,核心网服务器302)从基站(例如,基站120)接收针对端点参与模式改变的请求,如在在图9的915所描述的。为了说明,网络实体基于在e2e通信中添加ecs、在e2e通信中聚合与ecs的通信和与远程服务的通信、或者从e2e通信中移除远程服务来确定更新第一e2e ml配置。在一些实施方式中,网络实体检测ecs的参与模式的改变,诸如通过从ue接收将边缘计算添加到e2e通信的请求或者从基站接收已经从e2e通信中省略ecs的指示。
119.在1015,网络实体基于e2e通信中的ecs的参与模式的改变来标识第二e2e ml配
110、基站120)使用更新后的dnn来处理通过e2e通信传递的通信,如在图8的850所描述的。
127.在一些方面,方法1100迭代地重复,如在1125所示。例如,假设第一次迭代形成dnn,其在ue(例如,ue 110)在ecs(例如,ecs 180)的预定距离内移动时处理边缘计算。当ue移动离开ecs和/或在预定距离之外移动时,第二次迭代移除边缘计算。这允许网络实体动态地自适应dnn以及dnn如何处理通信以在e2e通信中的端点改变时优化(和重新优化)处理。
128.尽管已经用特定于特征和/或方法的语言描述了用于边缘计算的e2e dnn自适应的技术和设备,但是将理解,所附权利要求的主题不必然限于所描述的特定特征或方法。相反,特定特征和方法被公开为用于边缘计算的e2e dnn自适应的示例实施方式。
129.在下文中,描述了若干示例:
130.示例1:一种由网络实体执行的用于自适应端到端e2e机器学习ml配置的方法,所述e2e ml配置形成e2e深度神经网络dnn,其用于处理通过至少两个端点之间的e2e通信传递的通信,所述e2e通信使用无线网络,所述方法包括:引导参与所述e2e通信的用户设备ue通过基于第一e2e ml配置形成所述e2e dnn的至少第一部分来实现所述e2e通信;引导参与所述e2e通信的基站通过基于所述第一e2e ml配置形成所述e2e dnn的至少第二部分来实现所述e2e通信;基于所述e2e通信中的边缘计算服务器ecs的参与模式的改变来确定更新所述第一e2e ml配置;基于所述e2e通信中的所述ecs的参与模式的改变来标识第二e2e ml配置;以及引导至少所述ue或所述基站使用所述第二e2e ml配置来更新所述e2e dnn的至少第三部分以用于实现所述e2e通信。
131.示例2:根据示例1所述的方法,其中,确定更新所述第一e2e ml配置包括:确定将所述ecs包括在所述e2e通信中;以及基于确定将所述ecs包括在所述e2e通信中来确定更新所述第一e2e ml配置。
132.示例3:根据示例2所述的方法,其中,基于确定包括所述ecs来确定更新所述第一e2e ml配置进一步包括:基于以下各项来确定更新所述第一e2e ml配置:在所述e2e通信中聚合与所述ecs的通信和与远程服务的通信;或从所述e2e通信中排除所述远程服务。
133.示例4:根据示例3所述的方法,其中,确定更新所述第一e2e ml配置包括:基于所述聚合来确定更新所述第一e2e ml配置,以及其中,标识所述第二e2e ml配置包括:将形成下行链路e2e dnn的下行链路e2e ml配置标识为所述第二e2e ml配置的至少一部分,所述下行链路e2e dnn被引导用于:从所述ecs接收应用数据的第一部分;从所述远程服务接收所述应用数据的第二部分;以及聚合所述第一部分和所述第二部分以生成被引导到所述ue的聚合应用数据。
134.示例5:根据示例3或示例4所述的方法,其中,确定更新所述第一e2e ml配置包括:基于所述聚合来确定更新所述第一e2e ml配置,以及其中,标识所述第二e2e ml配置包括:将形成上行链路e2e dnn的上行链路e2e ml配置标识为所述第二e2e ml配置的至少一部分,所述上行链路e2e dnn被引导用于:从所述ue接收上行链路应用数据;使用所述上行链路应用数据生成被引导到所述ecs的第一输出;以及使用所述上行链路应用数据生成被引导到所述远程服务的第二输出。示例6:根据前述示例中的任一项所述的方法,其中,确定更新所述第一e2e ml配置进一步包括:从所述ue接收将所述ecs包括在所述e2e通信中的请求;或者基于估计的ue位置来确定将所述ecs包括在所述e2e通信中。
135.示例7:根据示例6所述的方法,其中,从所述ue接收将所述ecs包括在所述e2e通信中的所述请求进一步包括:接收将所述ecs包括在所述e2e通信中的隐式请求。
136.示例8:根据前述示例中的任一项所述的方法,其中,引导至少所述ue或所述基站使用所述第二e2e ml配置来更新所述e2e dnn的所述至少第三部分进一步包括:引导所述ue使用所述第二e2e ml配置来更新所述e2e dnn的所述第一部分;或者引导所述基站使用所述第二e2e ml配置来更新所述e2e dnn的所述第二部分。
137.示例9:根据前述示例中的任一项所述的方法,其中,标识所述第二e2e ml配置包括以下中的至少一个:标识对所述e2e dnn的一个或多个参数改变;或者标识对所述e2e dnn的一个或多个架构改变。
138.示例10:根据示例9所述的方法,其中,标识所述一个或多个参数改变进一步包括:标识一个或多个系数改变。
139.示例11:根据前述示例中的任一项所述的方法,其中,引导至少所述ue或所述基站更新所述e2e dnn的至少第三部分进一步包括:向所述ue发送指示更新所述e2e dnn的所述至少第三部分的非接入层消息。
140.示例12:一种由无线发射/接收单元wtru执行的用于自适应端到端e2e机器学习ml配置的方法,用于处理通过无线网络中的e2e通信传送的通信,所述方法包括:使用用于实现e2e通信的e2e dnn的第一e2e ml配置的至少第一部分来形成深度神经网络dnn;基于所述e2e通信中的边缘计算服务器ecs的参与模式的改变,接收使用第二e2e ml配置的至少第二部分来更新所述dnn的指示;使用所述第二e2e ml配置的至少第二部分来更新所述dnn;以及使用更新后的dnn来实现所述e2e通信的至少一部分。
141.示例13:根据示例12所述的方法,进一步包括:基于所述wtru的估计的ue位置,标识所述边缘计算服务器;以及请求将所述ecs包括在所述e2e通信中。
142.示例14:根据示例12或示例13所述的方法,其中,接收更新所述dnn的所述指示进一步包括:接收更新所述dnn的一个或多个参数的引导作为所述指示;或者接收更新所述dnn的架构的引导作为所述指示。
143.示例15:根据示例14所述的方法,其中,接收更新所述架构的引导进一步包括以下中的至少一个:改变所述dnn中使用的处理层的数量;以及改变所述dnn中的至少一个处理层的计算模式。
144.示例16:根据示例15所述的方法,其中,改变所述处理层的数量包括:将一个或多个卷积层添加到所述dnn。
145.示例17:根据示例14至16中的任一项所述的方法,其中,接收更新所述一个或多个参数的引导进一步包括:接收更新所述dnn的所述至少一部分的一个或多个系数的引导。
146.示例18:根据示例12至17中的任一项所述的方法,其中,所述wtru包括用户设备ue,并且其中,接收更新所述dnn的指示进一步包括:从基站接收所述指示。
147.示例19:一种网络实体,包括:处理器;以及计算机可读存储介质,所述计算机可读存储介质包括实现用于执行根据示例1至11中的任一项所述的方法的端到端机器学习控制器的指令。
148.示例20:一种用户设备,包括:处理器;以及包括指令的计算机可读存储介质,所述指令响应于由所述处理器执行用于引导所述用户设备执行根据示例12至18的任一项所述
的方法。
149.示例21:一种基站,包括:处理器;以及包括指令的计算机可读存储介质,所述指令响应于由所述处理器执行用于引导所述基站执行根据示例12至18的任一项所述的方法。
150.示例22:一种包括指令的计算机可读介质,所述指令在由处理器执行时使得:包括所述处理器的网络实体执行根据示例1至11中的任一项所述的方法;包括处理器的用户设备执行根据示例12至18中的任一项所述的方法;和/或包括处理器的基站执行根据示例12至18中的任一项所述的方法。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献