一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

用于与多个载波的同时连接的机器学习架构的制作方法

2022-07-10 16:44:55 来源:中国专利 TAG:

用于与多个载波的同时连接的机器学习架构


背景技术:

1.无线通信系统的发展通常源于对数据吞吐量的需求。作为一个示例,随着越来越多的设备可以访问无线通信系统,对数据的需求增加。不断发展的设备还执行利用比传统应用更多数据的数据密集型应用,诸如数据密集型流媒体视频应用、数据密集型社交媒体应用、数据密集型音频服务等。因此,为了适应增加的数据使用,不断发展的无线通信系统利用愈加复杂的架构,以提供相对于老式的无线通信系统更多的数据吞吐量。
2.作为一个示例,第五代(5g)标准和技术(例如,5g毫米波(mmw)技术)使用诸如6以上千赫(ghz)频带的更高的频带传输数据,以增加数据容量。然而,使用这些较高频率范围传输和恢复信息带来了挑战。举例说明,相对于较低频率信号,较高频率信号更容易受到多径衰落、散射、大气吸收、衍射、干扰等的影响。当在接收器处恢复信息时,这些信号失真通常导致错误。作为另一示例,能够传输、接收、路由和/或以其他方式使用这些较高频率的硬件能够是复杂且昂贵的,这增加了无线联网设备的处理成本。


技术实现要素:

3.本文档描述了用于与多个载波的同时连接的机器学习架构的技术和装置。在实施方式中,网络实体确定至少一个深度神经网络(dnn)配置,其用于处理使用至少包括第一分量载波和第二分量载波的载波聚合通过无线通信系统与用户设备(ue)交换的信息。有时,该至少一个dnn配置包括用于在网络实体处形成第一dnn的第一部分和用于在ue处形成第二dnn的第二部分。该网络实体基于第一部分形成第一dnn,并且将该第二部分的指示传送到ue。网络实体指导ue基于第二部分来形成第二dnn,并且使用第一dnn来通过无线通信系统使用载波聚合与ue交换信息。
4.用于与多个载波的同时连接的机器学习架构的各个方面包括与无线通信系统相关联的用户设备(ue)。在实施方式中,ue接收至少一个深度神经网络(dnn)配置的指示,该至少一个dnn配置用于处理使用至少包括第一分量载波和第二分量载波的载波聚合通过无线通信系统交换的信息。该ue基于该指示来形成至少一个dnn。然后,ue使用至少一个dnn来处理使用载波聚合通过无线通信系统交换的信息。
5.在附图和以下描述中阐述了用于与多个载波的同时连接的机器学习架构的一个或多个实施方式的细节。其他特征和优点根据说明书和附图以及根据权利要求书将是明显的。本发明内容介绍在具体实施方式和附图中进一步描述的主题。因此,本发明内容不应被认为描述描述必要特征,也不应当被用于限制要求保护的主题的范围。
附图说明
6.下文描述了用于与用于无线网络的多个载波的同时连接的机器学习架构的一个或多个方面的细节。在说明书和附图中的不同实例中使用相同的附图标记表示相似的元素:
7.图1图示了能够实现用于与多个载波的同时连接的机器学习架构的各个方面的示
例环境。
8.图2图示了能够实现用于与多个载波的同时连接的机器学习架构的各个方面的设备的示例设备示意图。
9.图3图示了能够实现用于与多个载波的同时连接的机器学习架构的各个方面的设备的示例设备示意图。
10.图4图示了能够实现用于与多个载波的同时连接的机器学习架构的各个方面的示例机器学习模块。
11.图5图示了由设备利用处理通过无线通信系统传输的通信的处理链的示例框图。
12.图6图示了在无线通信系统中利用多个深度神经网络的示例操作环境。
13.图7图示了用于使用神经网络形成配置来配置神经网络的各个设备之间的示例事务示意图。
14.图8图示了生成多个神经网络形成配置的示例。
15.图9图示了能够实现用于与多个载波的同时连接的机器学习架构的各个方面的示例环境。
16.图10图示了能够实现用于与多个载波的同时连接的机器学习架构的各个方面的示例环境。
17.图11图示了能够实现用于与多个载波的同时连接的机器学习架构的各个方面的示例环境。
18.图12图示了能够实现用于与多个载波的同时连接的机器学习架构的各个方面的示例环境。
19.图13图示了能够实现用于与多个载波的同时连接的机器学习架构的各个方面的示例环境。
20.图14图示了根据用于与多个载波的同时连接的机器学习架构的各个实施方式的各种设备之间的示例事务示意图。
21.图15图示了根据用于与多个载波的同时连接的机器学习架构的各个实施方式的各种设备之间的示例事务示意图。
22.图16图示了用于使用用于与多个载波的同时连接的机器学习架构的示例方法。
23.图17图示了用于使用用于与多个载波的同时连接的机器学习架构的示例方法。
具体实施方式
24.在常规的无线通信系统中,发射器和接收器处理链包括复杂的功能。例如,处理链中的信道估计块估计或预测信号在通过传输环境传播的同时如何失真。作为另一示例,信道均衡器块反转由信道估计识别的信号失真。当处理较高频率范围时,诸如6ghz频带处或附近的5gmmw信号,这些复杂的功能通常变得更加复杂。
25.dnn为复杂的处理,诸如无线通信系统中使用的复杂功能,提供替代解决方案。通过在发射器和/或接收器处理链操作上训练dnn,dnn能够以多种方式,诸如通过替换用于使用载波聚合发射通信信号的一些或全部常规处理块、替换单个处理链块等,替换常规的复杂功能。dnn的动态重新配置,诸如通过修改各个参数配置(例如,系数、层连接、内核大小),还提供了适应变化的操作条件的能力。
26.该文档描述了用于与多个载波的同时连接的机器学习架构的技术和装置。在实施方式中,与无线通信系统相关联的网络实体确定用于处理使用至少包括第一分量载波和第二分量载波的载波聚合通过无线通信系统与用户设备(ue)交换的信息的至少一个深度神经网络(dnn)配置。有时,该至少一个dnn配置包括用于在网络实体处形成第一dnn的第一部分和用于在ue处形成第二dnn的第二部分。该网络实体基于该第一部分来形成第一dnn,并且将该第二部分的指示传送到所述ue。网络实体指导ue基于该第二部分形成第二dnn,并且使用第一dnn通过无线通信系统使用载波聚合与ue交换信息。
27.用于与多个载波的同时连接的机器学习架构的各个方面包括与无线通信系统相关联的用户设备(ue)。在实施方式中,ue接收用于处理使用至少包括第一分量载波和第二分量载波的载波聚合通过无线通信系统交换的信息的至少一个深度神经网络(dnn)配置的指示。ue基于该指示形成至少一个dnn。然后,ue使用至少一个dnn来处理使用载波聚合通过无线通信系统交换的信息。
28.使用dnn处理使用多个分量载波通过无线通信系统交换的信息,诸如通过载波聚合,允许在无线通信系统中操作的各种设备校正当前操作条件的改变,诸如传输环境改变或分量载波改变。替代地或另外,能够基于参与多分量载波通信的ue或基站的能力来形成dnn。基于分量载波、设备能力、当前操作条件等配置dnn改善设备如何发射和恢复信息的总体性能(例如,较低位错误、改善的信号质量、改善的时延)。此外,dnn能够被训练以处理与复杂环境,诸如与使用多个分量载波来发射和恢复信息相对应的复杂环境,相对应的复杂输入,诸如由无线设备的制造商执行的离线训练或在基站或核心网络服务器处执行的在线训练。在这些变化(例如,各种分量载波组合、不同操作环境、不同设备能力)上训练dnn还提供对随着传输环境和参与设备改变而进行的复杂处理的灵活且可修改的解决方案。
29.短语“通过
……
发射”、“交换的通信”和“与

相关联的通信”包括生成将通过无线通信系统发射的通信(例如,处理预传输通信)和/或处理通过无线通信系统接收的通信。因此,“处理通过无线通信系统发射的通信”、“通过无线通信系统交换的通信”以及“与无线通信系统相关联的通信”包括生成传输(例如,预传输处理)、处理接收的传输或其任何组合。
30.示例环境
31.图1图示了示例环境100,其包括能够通过图示为无线链路131和132的一个或多个无线通信链路130(无线链路130),与基站120(图示为基站121和122)通信的用户设备110(ue 110)。为简单,ue 110被实现为智能电话,但也可以被实现为任何合适的计算或电子设备,诸如移动通信设备、调制解调器、蜂窝电话、游戏设备、导航设备、媒体设备、膝上型电脑、台式计算机、平板电脑、智能设备、基于车辆的通信系统或物联网(iot)设备,诸如传感器或致动器。基站120可以被实现在宏小区、微小区、小型小区、微微小区等或其任何组合中(例如,演进的通用陆地无线接入网络节点b、e-utran节点b、演进的节点b、enodeb、enb、下一代节点b、gnode b、gnb、ng-enb等)。
32.基站120使用无线链路131和132,其可以被实现为任何合适类型的无线链路,与ue 110通信。无线链路131和132包括控制和数据通信,诸如从基站120传送到ue 110的数据和控制信息的下行链路、从ue 110传送到基站120的其他数据和控制信息的上行链路,或两者。无线链路130可以包括使用任何适当的通信协议或标准、或者通信协议或标准的组合实现的一个或多个无线链路(例如,无线电链路)或承载,诸如第三代合作伙伴计划长期演进
(3gpp lte)、第五代新无线电(5g nr)等。可以在载波聚合中聚合多个无线链路130以为ue 110提供更高的数据速率。可以为与ue 110的多点协作(comp)通信配置来自多个基站120的多个无线链路130。
33.基站120共同地是无线电接入网140(例如,ran、演进的通用陆地无线电接入网、e-utran、5g nr ran或nr ran)。ran 140中的基站121和122被连接到核心网络150。通过用于控制平面信令的ng2接口并且当连接到5g核心网络时将ng3接口用于用户平面数据通信,或当连接到演进分组核心(epc)网络时将s1接口用于控制平面信令和用户平面数据通信,基站121和122在102和104处分别连接到核心网络150。基站121和122能够使用通过xn接口的xn应用协议(xnap),或使用通过x2接口的x2应用协议(x2ap)通信,以在106处交换用户平面和控制平面数据。ue 110可以经由核心网络150连接到公共网络,诸如与远程服务170交互的互联网160。远程服务170表示用于提供多种服务中的任何一种的计算、通信和存储设备,该多种服务包括交互式语音或视频通信、文件传输、流式语音或视频以及以任何方式实现的其他技术服务,诸如语音呼叫、视频呼叫、网站访问、消息传送服务(例如,文本消息传送或多媒体消息传送)、照片文件传输、企业软件应用,社交媒体应用、视频游戏、流式视频服务和播客。
34.示例设备
35.图2图示了ue 110和基站120中的一个的示例设备示意图200。图3图示了核心网络服务器302的示例设备示意图300。为了清楚,ue 110、基站120和/或核心网络服务器302可以包括从图2或图3中省略的附加功能和接口。
36.ue 110包括用于与ran 140中的基站120通信的天线202、射频前端204(rf前端204)、无线收发器(例如,lte收发器206和/或5g nr收发器208)。ue 110的rf前端204能够将lte收发器206和5g nr收发器208耦合或连接到天线202,以促进各种类型的无线通信。ue 110的天线202可以包括被配置为彼此相似或彼此不同的多个天线的阵列。天线202和rf前端204能够被调谐到和/或可调谐到由3gpp lte和5g nr通信标准定义并且由lte收发器206和/或5g nr收发器208实现的一个或多个频带。另外,天线202、rf前端204、lte收发器206和/或5g nr收发器208可以被配置为支持用于传输和接收与基站120的通信的波束成形。举例而非限制,天线202和rf前端204能够被实现用于低于千兆赫兹频带、低于6ghz频带和/或在由3gpp lte和5g nr通信标准定义的高于6ghz频带中的操作。
37.ue 110还包括处理器210和计算机可读存储介质212(crm212)。处理器210可以是由多种材料,诸如硅、多晶硅、高k电介质、铜等,构成的单核处理器或多核处理器。本文中所描述的计算机可读存储介质不包括传播信号。crm 212可以包括可用于存储ue 110的设备数据214的任何合适的存储器或存储设备,诸如随机存取存储器(ram)、静态ram(sram)、动态ram(dram)、非易失性ram(nvram)、只读存储器(rom)或闪存。设备数据214包括可由处理器210执行以实现用户平面通信、控制平面信令以及与ue 110的用户交互的用户数据、多媒体数据、波束成形码本、应用、神经网络表和/或ue 110的操作系统。
38.在一些实施方式中,计算机可读存储介质212包括神经网络表216,该神经网络表216存储形成神经网络的各种架构和/或参数配置,诸如,举例而非限制,指定全连接层神经网络架构的参数、卷积层神经网络架构、递归神经网络层、多个连接的隐藏神经网络层、输入层架构、输出层架构、由神经网络利用的多个节点、由神经网络利用的系数(例如,权重和
偏差)、内核参数、由神经网络利用的滤波器数量、由神经网络利用的步幅/池化配置、每个神经网络层的激活函数、神经网络层之间的互连、要跳过的神经网络层等。因此,神经网络表216包括nn形成配置元素(例如,架构和/或参数配置)的任意组合,该nn形成配置元素能够被用于创建定义和/或形成dnn的nn形成配置(例如,一个或多个nn形成配置元素的组合)。在一些实施方式中,神经网络表216的单个索引值映射到单个nn形成配置元素(例如1:1对应)。替代地或另外,神经网络表216的单个索引值映射到nn形成配置(例如,nn形成配置元素的组合)。在一些实施方式中,神经网络表包括用于每个nn形成配置元素和/或nn形成配置的输入特性,其中,输入特性描述关于被用于生成nn形成配置元素和/或nn形成配置的训练数据的属性,如进一步描述的。除非上下文另有规定,否则术语“nn形成配置”、“神经网络形成配置”以及“dnn配置”在本说明书中被可互换地使用。
39.在一些实施方式中,crm 212还可以包括用户设备神经网络管理器218(ue神经网络管理器218)。替代地或另外,ue神经网络管理器218可以全部或部分地被实现为与ue 110的其他组件集成或分离的硬件逻辑或电路。ue神经网络管理器218访问神经网络表216,诸如通过索引值,并且使用由nn形成配置指定的nn形成配置元素形成dnn。在实施方式中,ue神经网络管理器形成多个dnn以处理无线通信(例如,与基站120交换的下行链路通信和/或上行链路通信)。
40.图2所示的基站120的设备图包括单个网络节点(例如,gnode b)。基站120的功能可以被分布在多个网络节点或设备上,并且可以以适合于执行本文中描述的功能的任何方式分布。基站120包括天线252、射频前端254(rf前端254)、一个或多个无线收发器(例如,一个或多个lte收发器256和/或一个或多个5g nr收发器258),其用于与ue110通信。基站120的rf前端254能够将lte收发器256和5g nr收发器258耦合或连接到天线252,以促进各种类型的无线通信。基站120的天线252可以包括彼此相似配置或彼此不同配置的多个天线的阵列。天线252和rf前端254能够被调谐到和/或可调谐到由3gpp lte和5g nr通信标准定义并且由lte收发器256和/或5g nr收发器258实现的一个或多个频带。另外,天线252、rf前端254、lte收发器256和/或5g nr收发器258可以被配置为支持波束成形,诸如,大规模多输入多输出(massive-mimo),其用于发射和接收与ue 110的通信。
41.基站120还包括处理器260和计算机可读存储介质262(crm 262)。处理器260可以是由多种材料,诸如硅、多晶硅、高k电介质、铜等,组成的单核处理器或多核处理器。crm262可以包括可用于存储基站120的设备数据264的任何合适的存储器或存储设备,诸如随机存取存储器(ram)、静态ram(sram)、动态ram(dram)、非易失性ram(nvram)、只读存储器(rom)或闪存。设备数据264包括可以由处理器260执行以实现与ue 110的通信的网络调度数据、无线电资源管理数据、波束成形码本、应用和/或基站120的操作系统。
42.crm 262还包括基站管理器266。替代地或另外,基站管理器266可以全部或部分地被实现为与基站120的其他组件集成或分离的硬件逻辑或电路。在至少一些方面中,基站管理器266配置lte收发器256和5g nr收发器258以用于与ue 110通信以及与诸如核心网络150的核心网络通信。
43.crm 262还包括基站神经网络管理器268(bs神经网络管理器268)。替代地或另外,bs神经网络管理器268可以全部或部分地被实现为与基站120的其他组件集成或分离的硬件逻辑或电路。在至少一些方面中,bs神经网络管理器268选择由基站120和/或ue 110利用
的nn形成配置以配置深度神经网络以用于处理无线通信,诸如通过选择nn形成配置元素的组合。在一些实施方式中,bs神经网络管理器从ue 110接收反馈,并且基于该反馈来选择神经网络形成配置。替代地或另外,bs神经网络管理器268通过核心网络接口276或基站间接口274从核心网络150元素接收神经网络形成配置指示,并且将神经网络形成配置指示转发到ue 110。有时,bs神经网络管理器268选择用于处理使用载波聚合、其他多分量载波通信和/或其他分开的架构实施方式交换的通信的一个或多个nn形成配置。
44.crm 262包括训练模块270和神经网络表272。在实施方式中,基站120管理并将nn形成配置部署到ue110。替代地或另外,基站120维护神经网络表272。训练模块270使用已知的输入数据教导和/或训练dnn。例如,训练模块270训练dnn以用于不同目的,诸如通过处理无线通信系统发射的通信(例如,编码下行链路通信、调制下行链路通信、解调下行链路通信、解码下行链路通信、编码上行链路通信、调制上行链路通信、解调上行链路通信、解码上行链路通信)。这包括离线(例如,在dnn没有活动地参与处理通信时)和/或在线(例如,在dnn活动地参与处理通信时)地训练dnn。
45.在实施方式中,训练模块270从dnn提取学习的参数配置以识别nn形成配置元素和/或nn形成配置,并且然后在神经网络表272中添加和/或更新nn形成配置元素和/或nn形成配置。所提取的参数配置包括定义神经网络的行为,诸如节点连接、系数、活动层、权重、偏差、池化等的信息的任何组合。
46.神经网络表272存储使用训练模块270生成的多个不同的nn形成配置元素和/或nn形成配置。在一些实施方式中,神经网络表包括用于每个nn形成配置元素和/或nn形成配置的输入特性,其中,输入特性描述关于被用于生成nn形成配置元素和/或nn形成配置的训练数据的属性。例如,输入特性包括,,举例而非限制,功率信息、信号与干扰加噪声比(sinr)信息、信道质量指示符(cqi)信息、信道状态信息(csi)、多普勒反馈、频带、块错码率(bler)、服务质量(qos)、混合自动重复请求(harq)信息(例如,第一传输错误率、第二传输错误率、最大重传)、时延、无线电链路控制(rlc)、自动重发请求(arq)度量、接收信号强度(rss)、上行链路sinr、定时测量、误差度量、ue能力、基站能力(bs能力)、功率模式、互联网协议(ip)层吞吐量、端到端(end2end)时延、端到端分组丢失率等。因此,输入特性有时包括层1、层2和/或层3度量。在一些实施方式中,神经网络表272的单个索引值映射到单个nn形成配置元素(例如,1:1对应)。替代地或另外,神经网络表272的单个索引值映射到nn形成配置(例如,nn形成配置元素的组合)。
47.在实施方式中,基站120将神经网络表272与神经网络表216同步,使得在第二神经网络表中复制存储在一个神经网络表中的nn形成配置元素和/或输入特性。替代地或另外,基站120将神经网络表272与神经网络表216同步,使得存储在一个神经网络表中的nn形成配置元素和/或输入特性表示第二神经网络表中的补偿功能(例如,在第一神经网络表中,nn形成配置元素用于发射器路径处理,第二神经网络表中,nn形成配置元素用于接收器路径处理)。
48.基站120还包括基站间接口274,诸如xn和/或x2接口,基站管理器266将其配置为在其他基站120之间交换用户平面、控制平面和其他信息,以管理基站120与ue 110的通信。基站120包括核心网络接口276,基站管理器266将其配置为与核心网络功能和/或实体交换用户平面、控制平面和其他信息。
49.在图3中,核心网络服务器302可以在核心网络150中提供功能、实体、服务和/或网关的全部或一部分。核心网络150中的每个功能、实体、服务和/或网关可以被提供为分布在多个服务器上或体现在专用服务器上的服务核心网络150中的服务。例如,核心网络服务器302可以提供用户平面功能(upf)、接入和移动性管理功能(amf)、服务网关(s-gw)、分组数据网络网关(p-gw)、移动性管理实体(mme)、演进的分组数据网关(epdg)等的全部或部分服务或功能。核心网络服务器302被图示为体现在包括处理器304和计算机可读存储介质306(crm 306)的单个服务器上。处理器304可以是由多种材料,诸如硅、多晶硅、高k电介质、铜等,组成的单核处理器或多核处理器。crm 306可以包括可用于存储核心网络服务器302的设备数据308的任何合适的存储器或存储设备,诸如随机存取存储器(ram)、静态ram(sram)、动态ram(dram)、非易失性ram(nvram)、只读存储器(rom)、硬盘驱动器或闪存。设备数据308包括可由处理器304执行的支持核心网络功能或实体的数据、和/或核心网络服务器302的操作系统。
50.crm 306还包括一个或多个核心网络应用310,在一种实施方式中,其被体现在crm306上(如所示)。一个或多个核心网络应用310可以实现诸如upf、amf、s-gw、p-gw、mme、epdg等的功能。替代地或另外,一个或多个核心网络应用310可以全部或部分地被实现为与核心网络服务器302的其他组件集成或分离的硬件逻辑或电路。
51.crm 306还包括核心网络神经网络管理器312,其管理用于处理在ue 110和基站120之间交换的通信的nn形成配置。在一些实施方式中,核心网络神经网络管理器312分析各种参数,诸如(例如,如由基站120报告的、如由其他无线接入点报告的、如(经由基站或其他无线接入点)由ue 110报告的)当前信号信道状况、基站120处的能力(例如,天线配置、小区配置、多输入多输出(mimo)能力、无线电能力、处理能力)、ue 110的能力(例如,天线配置、mimo能力、无线电能力、处理能力)等等。例如,基站120在与ue通信期间获得各种参数,并且将该参数转发给核心网络神经网络管理器312。核心网络神经网络管理器基于这些参数,选择提高dnn处理通信的精度的nn形成配置。相对于配置有另一nn形成配置的神经网络,提高精度标示由神经网络生成的输出的提高的精度,诸如更低误码。然后,核心网络神经网络管理器312将所选择的nn形成配置传送到基站120和/或ue 110。在实施方式中,核心网络神经网络管理器312从基站120接收ue和/或bs反馈并且基于该反馈选择更新的nn形成配置。替代地或者另外,核心网络神经网络管理器312选择用于处理使用载波聚合、其他多分量载波通信和/或其他分开的架构实施方式交换的通信的一个或多个nn形成配置。
52.crm 306包括训练模块314和神经网络表316。在实施方式中,核心网络服务器302管理和将nn形成配置部署到无线通信系统中的多个设备,诸如ue 110和基站120。替代地或另外,核心网络服务器在crm 306的外部维护神经网络表316。训练模块314使用已知的输入数据教导和/或训练dnn。例如,训练模块314训练dnn以处理通过无线通信系统发射的不同类型的导频通信。这包括离线和/或在线训练dnn。在实施方式中,训练模块314从dnn提取学习的nn形成配置和/或学习的nn形成配置元素,并将学习的nn形成配置元素存储在神经网络表316中。因此,nn形成配置包括定义或影响dnn的行为的架构配置(例如,节点连接、层连接)和/或参数配置(例如,权重、偏差、池化)的任何组合。在一些实施方式中,神经网络表316的单个索引值映射到单个nn形成配置元素(例如,1:1对应)。替代地或另外,神经网络表316的单个索引值映射到nn形成配置(例如,nn形成配置元素的组合)。
53.在一些实施方式中,核心网络神经网络管理器312的训练模块314生成用于存储在ue110处的神经网络表216和/或基站121处的神经网络表272中的那些的补偿nn形成配置和/或nn形成配置元素。作为一个示例,训练模块314利用nn形成配置和/或nn形成配置元素生成神经网络表316,相对于用于生成神经网络表272和/或神经网络表216的中等和/或低变化,该nn形成配置和/或nn形成配置元素在架构和/或参数配置方面具有大的变化。例如,由训练模块314生成的nn形成配置和/或nn形成配置元素对应于全连接层、完整的内核大小、频繁的采样和/或池化、高加权精度等。因此,神经网络表316有时包括处于增加处理复杂性和/或时间的折衷的高精度神经网络。
54.由训练模块270生成的nn形成配置和/或nn形成配置元素有时相对于训练模块314生成的那些,具有更固定的架构和/或参数配置(例如,固定连接层、固定内核大小等)和更少变化。训练模块270相对于由训练模块314生成的那些,例如,生成流线化的nn形成配置(例如,更快的计算时间、更少的数据处理),以优化或提高基站121和/或ue 110处的端到端网络通信的性能。替代地或另外,相对于存储在神经网络表316和/或神经网络表272中的那些,存储在ue 110的神经网络表216处的nn形成配置和/或nn形成配置元素包括更固定的架构和/或参数配置,其相对于基站121和/或核心网络服务器302减少ue 110处的需求(例如,计算速度、更少的数据处理点、更少的计算、更少的功耗等)。在实施方式中,每个神经网络处的固定(或灵活)架构和/或参数配置的变化均基于以形成对应的dnn为目的的设备的处理资源(例如,处理能力、存储器约束、量化约束(例如,8位与16位)、定点计算vs浮点计算、每秒浮点运算(flops)、功率供应)。因此,相对于核心网络服务器或基站具有较少处理资源的ue或接入点接收为可用处理资源优化的nn形成配置。
55.神经网络表316存储使用训练模块314生成的多个不同的nn形成配置元素。在一些实施方式中,神经网络表包括用于每个nn形成配置元素和/或nn形成配置的输入特性,其中,输入特性描述关于用于生成nn形成配置的训练数据的属性。例如,输入特性能够包括功率信息、sinr信息、cqi、csi、多普勒反馈、rss、误差度量、最小端到端(e2e)时延、期望的e2e时延、e2e qos、e2e吞吐量、e2e分组丢失率、服务成本等。
56.crm 306还包括端到端机器学习控制器318(e2e ml控制器318)。e2e ml控制器318确定用于处理通过诸如qos流的e2e通信交换的信息的端到端机器学习配置(e2e ml配置)。在实施方式中,e2e ml控制器分析参与e2e通信的设备的ml能力(例如,支持的ml架构、支持的层数、可用处理功率、存储器限制、可用功率预算、定点处理与浮点处理、最大内核大小能力、计算能力)的任何组合。替代地或另外,e2e ml控制器分析qos需求、qos参数和/或qos特性的任何组合,以确定满足相关联的需求、参数和/或特性的e2e ml配置。在一些实施方式中,e2e ml控制器获得表征当前操作环境的度量,并且分析当前操作环境以确定e2eml配置。这包括确定包括与定义dnn的参数配置组合的架构配置的e2eml配置,或者包括确定仅包括用于更新dnn的参数配置的e2e ml配置。
57.在确定e2e ml配置时,e2e ml控制器有时确定分割的e2e ml配置,该配置跨多个设备分配与e2e ml配置相关联的处理功能。为了清楚,图3图示了与核心网络神经网络管理器312分离的端到端机器学习控制器318,但是在替代的或另外的实施方式中,核心网络神经网络管理器312包括由端到端机器学习控制器318执行的功能,反之亦然。此外,虽然图3图示了实现e2e ml控制器318的核心网络服务器302,但是替代的或另外的设备能够实现
e2e ml控制器,诸如基站120和/或其他网络元件。
58.核心网络服务器302还包括网络切片管理器320。一般地,网络切片管理器320分割网络资源(例如,物理硬件、物理频谱、逻辑信道、网络功能、提供的服务、服务质量、时延)以确定并且生成通过无线通信网络提供不同服务质量流的网络切片(例如,在至少一个ue 110、至少一个基站120、以及核心网络150之间提供不同服务质量流)。有时,网络切片管理器320与e2e ml控制器318协同工作以确定对网络资源的分割并且提供满足或超过服务质量水平的通信交换。例如,能够通过诸如时延、吞吐量(例如,带宽或数据速率)、可靠性或错误率(例如,误码率)的一个或多个服务质量参数来指定服务质量水平。其他示例服务质量参数包括可用性、分组丢失或抖动。除了服务质量水平之外,网络切片还能够通过加密提供特定水平的安全性。在一些实施方式中,网络切片管理器320将每个网络切片与一个或多个端到端机器学习架构关联以提供服务质量水平。为了清楚,图3图示了与核心网络神经网络管理器312和e2e ml控制器318分离的网络切片管理器320,但是在替代的或另外的实施方式中,核心网络神经网络管理器312和/或e2e ml控制器318包括由网络切片管理器320执行的功能或反之亦然。此外,虽然图3图示了实现网络切片管理器320的核心网络服务器302,但是替代的或另外的设备能够实现网络切片管理器320,诸如基站120和/或其他网络元件。
59.核心网络服务器302还包括用于与核心网络150、基站120或ue110中的其他功能或实体通信用户平面、控制平面和其他信息的核心网络接口322。在一些实施方式中,核心网络服务器302使用核心网络接口322将nn形成配置传送到基站120。核心网络服务器302使用核心网络接口322,替代地或另外从基站120和/或通过基站120从ue110接收反馈。
60.已经描述了能够被用于无线通信中的神经网络形成配置反馈的示例环境和示例设备,现在考虑讨论根据一个或多个实施方式的可配置机器学习模块。
61.可配置的机器学习模块
62.图4图示了示例机器学习模块400。机器学习模块400实现了自适应算法集,其学习和识别数据内的模式。能够使用软件、硬件和/或固件的任何组合来实现机器学习模块400。
63.在图4中,机器学习模块400包括深度神经网络402(dnn 402),该深度神经网络402具有被组织为三层或更多层的连接节点(例如,神经元和/或感知器)组。在各个方面中,dnn 402包括至少两个隐藏层,但是在替代实施方式中,具有单个隐藏层的神经网络提供如关于dnn 402描述的相同功能。层之间的节点可通过多种方式配置,诸如部分连接配置,其中,第一层中的第一节点子集与第二层的第二节点子集连接;全连接配置,其中,第一层中的每个节点被连接到第二层中的每个节点等等。神经元处理输入数据以产生连续输出值,诸如0和1之间的任何实数。在一些情况下,输出值指示输入数据有多接近所期望的类别。感知器对输入数据执行线性分类,诸如二元分类。无论是神经元还是感知器,这些节点都能够使用各种算法基于自适应学习生成输出信息。使用dnn,机器学习模块400执行各种不同类型的分析,包括单线性回归、多线性回归、逻辑回归、逐步回归、二元分类、多类分类、多元自适应回归样条、局部估计散点图平滑等。
64.在一些实施方式中,机器学习模块400基于监督学习自适应地学习。在监督学习中,机器学习模块400将各种类型的输入数据接收作为训练数据。机器学习模块400处理训练数据,以学习如何将输入映射到所期望的输出。作为一个示例,机器学习模块400将信号的数字样本接收作为输入数据,并且学习如何将信号样本映射到反映嵌入信号内的信息的
二进制数据。作为另一示例,机器学习模块400将二进制数据接收为输入数据,并且学习如何将二进制数据映射到信号的数字样本,其中,二进制数据嵌入信号内。在训练过程中,机器学习模块400使用标记的或已知的数据作为dnn的输入。dnn使用节点分析该输入并生成对应的输出。机器学习模块400将对应的输出与真实数据进行比较,并且调整由节点实现的算法以提高输出数据的准确性。之后,dnn将调整后的算法应用于未标记的输入数据,以生成对应的输出数据。
65.机器学习模块400使用统计分析和/或自适应学习以将输入映射到输出。例如,机器学习模块400使用从训练数据中学习的特性以将未知输入与在统计上可能在阈值范围或阈值内的输出相关联。这允许机器学习模块400接收复杂的输入并识别对应的输出。一些实施方式在无线通信系统上发射的通信的特性(例如,时间/频率交织、时间/频率解交织、卷积编码、卷积解码、功率水平、信道均衡、符号间干扰、正交幅度调制/解调、频分复用/解复用、传输信道特性)上训练机器学习模块400。这允许训练后的机器学习模块400将信号的样本接收作为输入,诸如在用户设备处接收的下行链路信号的样本,并且从下行链路信号中恢复信息,诸如嵌入下行链路信号中的二进制数据。
66.在图4中,dnn包括输入层404、输出层406和位于输入层404与输出层406之间的一个或多个隐藏层408。在各个方面中,dnn包括至少两个隐藏层,但是在替代实施方式中,具有单个隐藏层的神经网络提供如关于dnn 402描述的相同功能。每个层具有任意数量的节点,其中,层之间的节点数可以相同或不同。换句话说,输入层404能够具有与输出层406相同数量和/或不同数量的节点,输出层406能够具有与隐藏层408相同数量和/或不同数量的节点等等。
67.节点410对应于包括在输入层404中的若干节点之一,其中,节点执行彼此独立的计算。如进一步描述的,节点接收输入数据,并且使用算法处理该输入数据以产生输出数据。有时,算法包括基于自适应学习而改变的权重和/或系数。因此,权重和/或系数反映了由神经网络学习的信息。在一些情况下,每个节点能够确定是否将处理后的输入数据传递到下一节点。为了图示,在处理输入数据之后,节点410能够确定是否将处理后的输入数据传递到隐藏层408的节点412和/或节点414。替代地或另外,节点410将处理后的输入数据传递给基于层连接架构的节点。该过程能够贯穿多层重复,直到dnn使用输出层406的节点生成输出。
68.神经网络还能够采用各种架构,这些架构确定神经网络内的哪些节点被连接、在神经网络中如何推进和/或保留数据、使用什么权重和系数来处理输入数据、如何处理数据等等。这些各种因素共同描述nn形成配置。为了说明,递归神经网络,诸如长短期记忆(lstm)神经网络,在节点连接之间形成循环,以便保留来自输入数据序列的前一部分的信息。然后,递归神经网络将保留的信息用于输入数据序列的后续部分。作为另一示例,前馈神经网络将信息传递给前向连接,而不形成循环来保留信息。尽管在节点连接的场境中描述,但是nn形成配置能够包括影响神经网络如何处理输入数据的各种参数配置。
69.神经网络的nn形成配置能够通过各种架构和/或参数配置来表征。为了说明,考虑dnn实现卷积神经网络的示例。通常,卷积神经网络对应于一种dnn,其中,各层使用卷积运算对数据进行处理以过滤输入数据。相应地,卷积nn形成配置能够,举例而非限制,通过池化参数、内核参数、权重和/或层参数来表征。
70.池化参数对应于指定卷积神经网络内的池化层的参数,这些参数减小输入数据的维度。为了说明,池化层能够将第一层处的节点输出组合为第二层处的节点输入。替代地或另外,池化参数指定神经网络在数据处理层中如何以及在何处池化数据。指示“最大池化”的池化参数例如配置神经网络以通过从由第一层的节点生成的数据群组中选择最大值来进行池化,并且将该最大值用作第二层的单个节点的输入。指示“平均池化”的池化参数配置神经网络以从通过第一层的节点生成的数据群组生成平均值,并且将该平均值用作第二层的单个节点的输入。
71.内核参数指示用于处理输入数据中的滤波器大小(例如,宽度和高度)。替代地或另外,内核参数指定用于过滤和处理输入数据中的内核方法的类型。支持向量机例如对应于使用回归分析来识别和/或分类数据的内核方法。其他类型的内核方法包括高斯过程、典型相关分析、谱聚类方法等。因此,内核参数能够指示应用在神经网络中的滤波器大小和/或内核方法的类型。
72.权重参数指定由节点内算法使用以分类输入数据的权重和偏差。在实施方式中,权重和偏差是学习的参数配置,诸如从训练数据生成的参数配置。
73.层参数指定层连接和/或层类型,诸如指示将第一层(例如输出层406)中的每个节点连接到第二层(例如,隐藏层408)中的每个节点的全连接层类型、指示第一层中的哪些节点与第二层断开连接的部分连接层类型、指示神经网络内的哪些滤波器和/或层要激活的激活层类型等等。替代地或另外,层参数指定节点层的类型,诸如归一化层类型、卷积层类型、池化层类型等。
74.尽管在池化参数、内核参数、权重参数和层参数的场境中描述,但是在不脱离所要求保护的主题的范围的情况下,能够使用其他参数配置来形成dnn。因此,nn形成配置能够包括能够被应用于dnn的任何其他类型的参数,该参数影响dnn如何处理输入数据以生成输出数据。
75.一些实施方式基于当前操作环境配置机器学习模块400。为了说明,考虑训练以从信号的数字样本生成二进制数据的机器学习模块。传输环境时常修改通过环境传播的信号的特性。传输环境时常变化,这影响环境如何修改信号。第一传输环境例如以第一方式修改信号,而第二传输环境以与第一传输环境不同的方式修改信号。这些差异影响由机器学习模块生成的输出结果的准确性。例如,被配置为处理通过第一传输环境发射的通信的神经网络在处理通过第二传输环境发射的通信时可能生成错误(例如,超过阈值的误码)。
76.各种实施方式生成并存储用于不同传输环境的nn形成配置和/或nn形成配置元素(例如,各种架构和/或参数配置)。例如,基站120和/或核心网络服务器302使用bs神经网络管理器268、训练模块270、核心网络神经网络管理器312和/或训练模块314的任何组合来训练机器学习模块400。训练能够当没有活动通信交换正在发生时离线发生,或者在活动通信交换期间在线发生。例如,基站120和/或核心网络服务器302能够数学地生成训练数据、访问存储训练数据的文件、获得真实世界通信数据等。然后,基站120和/或核心网络服务器302提取各种学习的nn形成配置并将其存储在神经网络表中。一些实施方式将输入特性与每一nn形成配置一起存储,其中,输入特性描述了对应于相应的nn形成配置的传输环境的各种特性。在实施方式中,神经网络管理器通过将当前传输环境和/或当前操作环境与输入特性相匹配来选择nn形成配置和/或nn形成配置元素。
77.已经描述了可配置的机器学习模块,现在考虑讨论根据一个或多个实施方式的无线通信系统中的深度神经网络。
78.无线通信系统中的深度神经网络
79.无线通信系统包括各种复杂的组件和/或功能,诸如参考图1的示例环境100、图2的示例设备示意图200以及图3的示例设备示意图300所描述的各个设备和模块。在一些实施方式中,参与无线通信系统的设备将一系列功能链接在一起,以实现通过无线连接交换信息。
80.为了演示,图5图示了示例框图500和示例框图502,每个图描绘由无线通信系统中的设备利用的示例处理链。为了简单,框图图示了高级功能,但是为了清楚,框图可以包括从图5中省略的另外的功能。
81.在图5的上半部分,框图500包括发射器块504和接收器块506。发射器块504包括从上到下进行的发射器处理链。发射器处理链从输入数据开始,该输入数据进行到编码级,然后是调制级,接着是射频(rf)模拟发射(tx)级。编码级能够包括由设备用于通过无线通信系统发射数据的任何类型和数量的编码级。
82.为了说明,编码级接收二进制数据作为输入,并使用各种编码算法处理二进制数据以将诸如帧信息的信息附加到二进制数据。替代地或另外,编码级诸如通过应用前向纠错变换二进制数据,该前向纠错添加冗余以帮助接收器处的信息恢复。作为另一示例,编码级将二进制数据转换为符号。
83.示例调制级接收由编码级生成的输出作为输入,并将该输入嵌入到信号上。例如,调制级生成嵌入有来自编码级的输入的信号的数字样本。因此,在发射器块504中,编码级和调制级表示高级发射器处理链,该链经常包括低级复杂功能,诸如卷积编码、串行到并行转换、循环前缀插入、信道代码化、时间/频率交织等。rf模拟tx级接收来自调制级的输出,基于该调制级输出生成模拟rf信号,并将该模拟rf信号发射到接收器块506。
84.接收器块506使用接收器处理链相对于发射器块504执行补偿处理。接收器块506中所图示的接收器处理链从上到下进行,并且包括rf模拟接收(rx)级,接着是解调级和解码级。
85.rf模拟rx级接收由发射器块504发射的信号,并生成由解调级使用的信号。作为一个示例,rf模拟rx级包括下转换组件和/或模数转换器(adc),以生成所接收的信号的样本。解调级处理来自rf模拟rx级的输入,以提取嵌入在信号上的数据(例如,由发射器块504的调制级嵌入的数据)。例如,解调级恢复符号和/或二进制数据。
86.解码级接收来自解调级的输入,诸如所恢复的符号和/或二进制数据,并处理该输入以恢复所发射的信息。为了说明,解码级基于应用在发射器块处的前向纠错来校正数据错误,从帧和/或时隙中提取有效载荷数据等等。因此,解码级生成所恢复的信息。
87.如所指出的,为了清楚,已经简化了发射器块504和接收器块506所图示的发射器和接收器处理链,并且能够包括多个复杂的模块。有时,这些模块特定于特定的功能和/或条件。例如,考虑处理正交频分调制(ofdm)传输的接收器处理链。为了从ofdm传输中恢复信息,接收器块506通常包括多个处理块,每个处理块专用于特定功能,诸如校正接收信号中的失真的均衡块、估计传输信道属性以识别由于散射、功率衰减等对传输的影响的信道估计块等。在诸如6ghz频带的5g mmw信号的高频下,这些块能够在计算和/或金钱上都是昂贵
的(例如,需要大量的处理能力、需要昂贵的硬件)。此外,实现生成具有期望阈值内的精度的输出的块常常需要更特定和更不灵活的组件。为了说明,用于6ghz频带中的5g mmw信号的均衡块在其他频带可能无法以相同的精度执行,因此对于不同频带需要不同的均衡块,并且向对应的设备添加复杂性。
88.一些实施方式在传输和/或接收器处理链中包括dnn。在框图502中,发射器块508在发射器处理链中包括一个或多个深度神经网络510(dnn510),而接收器块512在接收器处理链中包括一个或多个深度神经网络514(dnn 514)。
89.为了简单,发射器块508中的dnn 510对应于发射器块504的编码级和调制级。然而,dnn 510能够执行在发射器处理链中发现的任何高级和/或低级操作。例如,第一dnn执行低级发射器侧前向纠错,第二dnn执行低级发射器侧卷积编码等等。替代地或另外,dnn 510执行高级处理,诸如对应于发射器块508的编码级和调制级的端到端处理。
90.以类似的方式,接收器块512中的dnn 514执行接收器处理链功能(例如,解调级、解码级)。dnn 514能够执行在接收器处理链内发现的任何高级和/或低级操作,诸如低级接收器侧误码校正、低级接收器侧符号恢复、高级端到端解调和解码等。因此,无线通信系统中的dnn 514能够被配置为替代发射器和接收器处理链中的高级操作和/或低级操作。有时,如进一步描述的,能够基于当前操作环境来配置和/或重新配置执行高级操作和/或低级操作的dnn 514。相对于更特定和更不灵活的组件,该dnn可重配置性连同dnn系数更新为处理链提供了更大的灵活性和适应性。
91.一些实施方式使用多个dnn来处理通过无线通信系统的通信交换,其中,每个dnn具有相应的目的(例如,上行链路处理、下行链路处理、上行链路编码处理、下行链路解码处理等)。为了演示,图6图示了包括ue 110和基站121的示例操作环境600的图6。在实施方式中,ue 110和基站121通过使用多个dnn处理通信通过无线通信系统彼此交换通信。
92.在图6中,基站121的基站神经网络管理器268包括下行链路处理模块602,其用于处理下行链路通信,诸如用于生成发射到ue 110的下行链路通信。为了说明,如进一步描述的,基站神经网络管理器268使用nn形成配置形成下行链路处理模块602中的深度神经网络604(dnn 604)。在一些示例中,dnn 604对应于图5的dnn 510。换句话说,dnn 604执行用于生成下行链路通信的一些或全部发射器处理功能。
93.类似地,ue 110的ue神经网络管理器218包括下行链路处理模块606,其中,下行链路处理模块606包括用于处理(所接收的)下行链路通信的深度神经网络608(dnn 608)。在各种实施方式中,ue神经网络管理器218使用nn形成配置以形成dnn 608。在图6中,dnn 608对应于图5的dnn 514,其中,ue 110的深度神经网络606执行用于(所接收的)下行链路通信的一些或全部接收器处理功能。因此,dnn 604和dnn 608对彼此执行补偿的处理(例如,编码/解码、调制/解调)。
94.dnn 604和/或dnn 608能够包括多个深度神经网络,其中,每个dnn专用于相应的信道、相应的目的等等。作为一个示例,基站120使用dnn 604的第一dnn来处理下行链路控制信道信息、使用dnn 604的第二dnn来处理下行链路数据信道信息等等。作为另一示例,ue110使用dnn 608的第一dnn处理下行链路控制信道信息、使用dnn 608的第二dnn处理下行链路数据信道信息等。
95.基站120和/或ue 110还使用dnn来处理上行链路通信。在环境600中,ue神经网络
管理器218包括上行链路处理模块610,其中,上行链路处理模块610包括用于生成和/或处理上行链路通信(例如,编码、调制)的深度神经网络612(dnn 612)。换句话说,上行链路处理模块610将预传输通信处理为处理上行链路通信的一部分。ue神经网络管理器218例如使用nn形成配置来形成dnn 612。有时,dnn 612对应于图5的dnn 510。因此,dnn 612执行用于生成从ue 110发射到基站120的上行链路通信的一些或全部发射器处理功能。
96.类似地,基站120的上行链路处理模块614包括用于处理(所接收的)上行链路通信的深度神经网络616(dnn 616),其中,基站神经网络管理器268使用nn形成配置来形成dnn 616,如进一步描述的。在示例中,基站121的dnn 616对应于图5的dnn 514,并且对(所接收的)上行链路通信,诸如从ue 110接收的上行链路通信,执行一些或全部接收器处理功能。有时,dnn 612和dnn 616执行彼此补偿功能。替代地或另外,上行链路处理模块610和/或上行链路处理模块614包括多个dnn,其中,每个dnn具有专用的目的(例如,处理相应的信道、执行相应的上行链路功能等等)。图6将dnn 604、608、612和616图示为驻留在相应的神经网络管理器内,以标示该神经网络管理器形成了dnn,然而,dnn能够在不同组件、处理链、模块等内在神经网络管理器(例如,ue神经网络管理器218和基站神经网络管理器268)外部形成。
97.已经描述了无线通信系统中的深度神经网络,现在考虑讨论根据一种或多种实施方式的无线通信系统上的信令和控制事务,其被用来配置用于下行链路和上行链路通信的深度神经网络。
98.配置深度神经网络的信令和控制事务
99.图7图示了根据无线通信中的神经网络形成配置的一个或多个方面的基站和用户设备之间的示例信令和控制事务示意图700。替代或另外的实施方式包括包括核心网络服务器的事务。例如,在一些实施方式中,核心网络服务器302执行由基站120执行的各种信令和控制动作,如图7所图示。信令和控制事务可以由图1的基站120和ue 110使用图1-6的元件来执行。为了清楚,图7省略了核心网络服务器302,但是替代的实施方式包括如进一步描述的核心网络服务器。
100.如图示,在705,ue 110可选地向诸如基站120的网络实体指示ue能力(例如,ue支持的能力)。在一些实施方式中,ue能力包括ml相关能力,诸如最大内核大小能力、存储器限制、计算能力、支持的ml架构、支持的层数、可用处理功率、存储器限制、可用功率预算以及定点处理与浮点处理。有时,基站将ue能力转发到核心网络服务器(例如,核心网络服务器302)。
101.在710,基站120确定神经网络形成配置。在确定神经网络形成配置时,基站分析信息的任何组合,诸如由深度神经网络处理的信道类型(例如,下行链路、上行链路、数据、控制等)、传输介质属性(例如,功率测量、信号与干扰加噪声比(sinr)测量、信道质量指示符(cqi)测量)、编码方案、ue能力、bs能力等等。在一些实施方式中,基站120基于在705指示的ue能力来确定神经网络形成配置。替代地或另外,基站120从诸如服务器的联网存储设备获得ue能力。在一些实施方式中,核心网络服务器302以与关于基站描述的方式类似的方式确定神经网络形成配置,并且将所确定的神经网络形成配置传送到基站。
102.基站120从ue 110(未示出)接收指示ue的一个或多个能力的消息,举例而非限制,连接性信息、双连接性信息、载波聚合能力、下行链路物理参数值、上行链路物理参数值、支
持的下行链路/上行链路类别、频率间切换和ml能力(例如,最大内核大小能力、存储器限制、计算能力、支持的ml架构、支持的层数、可用处理能力、存储器限制、可用功率预算、定点处理与浮点处理)。基站120(和/或核心网络服务器302)从消息中识别影响ue如何处理通信和/或基站如何处理来自ue的通信的ue能力,并且选择相对于其他神经网络形成配置具有提高的输出精度的神经网络形成配置。
103.在一些实施方式中,基站120(和/或核心网络服务器302)从多个神经网络形成配置中选择神经网络形成配置。替代地或另外,基站120(和/或核心网络服务器302)通过选择神经网络表中的神经网络架构形成元素的子集来选择神经网络形成配置。有时,基站120(和/或核心网络服务器302)分析包括在神经网络表中的多个神经网络形成配置和/或多个神经网络形成配置元素,并且通过以下来确定神经网络形成配置:选择和/或创建与当前信道条件一致的神经网络形成配置,诸如通过将信道类型、传输介质特性等与输入特性进行匹配,如进一步描述的。替代地或另外,基站120(和/或核心网络服务器302)基于网络参数,诸如调度参数(例如,用于下行链路通信的调度多用户多输入多输出(mu-mimo)、用于上行链路通信的调度mu-mimo)来选择神经网络形成配置。
104.在715,基站120将神经网络形成配置传送到ue 110。替代地或另外,核心网络服务器302将神经网络形成配置传送到基站120,并且基站120将神经网络形成配置转发到终端110。在一些实施方式中,基站诸如通过发射包括索引值的消息来发射指定神经网络形成配置的消息,该索引值映射到诸如图2的神经网络表216的神经网络表中的条目。替代地或另外,基站发射包括神经网络参数配置(例如,权重值、系数值、滤波器数量)的消息。在一些情况下,基站120在消息中指定目的和/或处理指派,其中,处理指派指示所配置的神经网络应用于哪些信道和/或处理链中的哪个位置,诸如下行链路控制信道处理、上行链路数据信道处理、下行链路解码处理、上行链路编码处理等。因此,基站能够与神经网络形成配置一起传送处理指派。
105.在一些实施方式中,基站120将多个神经网络形成配置传送到ue110。例如,基站发射指导ue将第一神经网络形成配置用于上行链路编码的第一消息,以及指导ue将第二神经网络形成配置用于下行链路解码的第二消息。在一些情况下,基站120在单个消息中传送多个神经网络形成配置以及相应的处理指派。作为又一示例,基站使用不同的无线电接入技术(rat)来传送多个神经网络形成配置。基站能够例如使用第一rat和/或载波,将用于下行链路通信处理的第一神经网络形成配置发射到ue110,并且能够使用第二rat和/或载波,将用于上行链路通信处理的第二神经网络形成配置发射到ue 110。
106.在720,ue 110基于神经网络形成配置来形成第一神经网络。例如,ue 110使用由基站传送的索引值来访问神经网络表,以获得神经网络形成配置和/或神经网络形成配置元素。替代地或另外,ue 110从消息中提取神经网络架构和/或参数配置。然后,ue 110使用神经网络形成配置、所提取的架构和/或参数配置等来形成神经网络。在一些实施方式中,ue使用第一神经网络处理所有通信,而在其他实施方式中,ue基于处理指派(例如,下行控制信道处理指派、上行链路数据信道处理指派、下行链路解码处理指派、上行链路编码处理指派)使用第一神经网络处理选择通信。
107.在725,基站120基于神经网络形成配置来传送信息。例如,参考图6,基站120使用被配置有对第一神经网络补偿功能的第二神经网络来处理下行链路通信。换句话说,第二
神经网络使用补偿神经网络形成配置的第二神经网络形成配置。继而,在730,ue 110使用第一神经网络来恢复信息。
108.已经描述了能够被用于配置用于处理通信的神经网络的信令和控制事务,现在考虑讨论根据一个或多个实施方式的生成和传送神经网络形成配置。
109.生成和传送神经网络形成配置
110.在监督学习中,机器学习模块处理标记的训练数据以生成输出。机器学习模块接收有关所生成的输出的准确性的反馈,并且修改处理参数以提高输出的准确性。图8图示了描述生成多个nn形成配置的方面的示例800。有时,示例800的各个方面通过图2和图3的训练模块270、基站神经网络管理器268、核心网络神经网络管理器312和/或训练模块314的任何组合来实现。
111.图8的上半部分包括图4的机器学习模块400。在实施方式中,神经网络管理器确定生成不同的nn形成配置。为了说明,考虑基站神经网络管理器268通过从神经网络表中选择nn形成配置元素的组合来确定生成nn形成配置的情况,其中,nn形成配置对应于ue解码和/或解调下行链路通信。换句话说,nn形成配置(通过nn形成配置元素的组合)形成dnn,其处理由ue接收的下行链路通信。然而,传输信道条件经常变化,这继而影响下行链路通信的特性。例如,第一传输信道通过引入频率偏移来使下行链路通信失真,第二传输信道通过引入多普勒效应来使下行链路通信失真,第三传输信道通过引入多径信道效应来使下行链路通信失真等等。为了准确地处理下行链路通信(例如,减少误码),各种实施方式选择多个nn形成配置,其中,每个nn形成配置(以及nn形成配置元素的相关联的组合)对应于相应的输入条件,诸如第一传输信道、第二传输信道等。
112.训练数据802表示向机器学习模块400的示例输入。在图8中,训练数据表示与下行链路通信相对应的数据。训练数据802例如能够包括下行链路通信信号的数字样本、恢复的符号、恢复的帧数据等。在一些实施方式中,训练模块以数学方式生成训练数据或访问存储训练数据的文件。其他时候,训练模块获取真实的通信数据。因此,训练模块能够使用以数学方式生成的数据、静态数据和/或真实世界数据来训练机器学习模块400。一些实施方式生成描述训练数据的各种质量的输入特性804,诸如传输信道度量、ue能力、ue速度等等。
113.机器学习模块400分析训练数据,并生成输出806,其在此表示为二进制数据。一些实施方式使用相同的训练数据集和/或具有相同输入特性804的另外的训练数据来迭代地训练机器学习模块400,以提高机器学习模块400的准确性。在训练期间,机器学习模块修改包括在机器学习模块中的神经网络的部分或全部架构和/或参数配置,诸如节点连接、系数、内核大小等。在训练的某些时刻,训练模块确定提取神经网络的架构和/或参数配置808(例如,池化参数、内核参数、层参数、权重),诸如当训练模块确定精度满足或超过期望阈值、训练过程满足或超过迭代次数等等时。然后,训练模块从机器学习模块400中提取架构和/或参数配置,以用作nn形成配置和/或nn形成配置元素。架构和/或参数配置能够包括固定架构和/或参数配置和/或可变架构和/或参数配置的任意组合。
114.图8的下半部分包括表示nn形成配置元素的集合的神经网络表810,诸如图2和图3的神经网络表216、神经网络表272和/或神经网络表316。神经网络表810存储架构配置、参数配置808和输入特性804的各种组合,但是替代的实施方式从该表中排除输入特性804。随着机器学习模块学习另外的信息,各种实施方式更新和/或维护nn形成配置元素和/或输入
特性804。例如,在索引812,神经网络管理器和/或训练模块更新神经网络表810以包括在分析训练数据802时由机器学习模块400生成的架构和/或参数配置808。
115.神经网络管理器和/或训练模块替代地或另外将输入特性804添加到神经网络表810,并将输入特性804链接到架构和/或参数配置808。这允许与架构和/或参数配置808同时获得输入特性804,诸如通过使用引用到神经网络表810的索引值(例如,引用nn形成配置、引用nn形成配置元素)。在一些实施方式中,神经网络管理器通过将输入特性与当前操作环境匹配,诸如通过将输入特性与当前信道条件、ue能力、ue特性(例如,速度、位置等)等等匹配,来选择nn形成配置。
116.已经描述了生成和传送神经网络形成配置,现在考虑讨论根据一个或多个实施方式的用于无线网络的e2e ml。
117.用于无线网络的e2e ml
118.端到端通信(e2e通信)的各方面涉及两个端点在通信路径上诸如通过无线网络交换信息。有时,e2e通信执行信息的单向交换,其中第一端点发送信息,并且第二端点接收信息。在其它时间,e2e通信执行信息的双向交换,其中两个端点都发送和接收信息。e2e通信的端点能够包括能够消耗和/或生成信息的任何实体,诸如计算设备、应用、服务等。为了说明,考虑在ue处执行的应用通过无线网络与远程服务交换信息的示例。对于该示例,e2e通信对应于应用和远程服务之间的通信路径,其中应用和远程服务充当端点。
119.虽然e2e通信涉及交换信息的端点,但是e2e通信替代地或另外包括参与信息交换的中间实体(例如,设备、应用、服务)。为了说明,再次考虑通过无线网络建立的e2e通信的示例,其中ue处的应用用作第一端点并且远程服务用作第二端点。在端点之间建立e2e通信时,无线网络利用ue、基站、核心网络服务器、远程网络、远程服务等的任何组合,诸如参考图1的环境100所描述的。因此,诸如基站120和核心网络150的中间实体参与建立e2e通信和/或参与e2e通信以实现端点之间的信息交换。
120.不同因素影响e2e通信的操作效率以及网络元件如何处理通过e2e通信交换的信息。例如,参考使用无线网络建立的e2e通信,当前操作环境(例如,当前信道条件、ue位置、ue移动、ue能力)影响接收端点恢复信息的准确程度(例如,误码率、分组丢失)。作为一个示例,使用5g mmw技术实现的e2e通信相对于较低频率的低于6ghz信号变得更容易受到信号失真的影响,如进一步描述的。
121.作为另一示例,各种实施方式基于e2e通信的端到端分析不同地分割无线网络资源,其中无线网络资源包括,举例而非限制,物理硬件、物理频谱、逻辑信道、网络功能、所提供的服务、服务质量、时延等的任何组合。无线网络资源分割允许无线网络基于预期使用动态地分配无线网络资源,以提高如何使用无线网络资源的效率(例如,减少未使用和/或浪费资源的发生)。为了说明,考虑连接到无线网络的各种设备,其中设备具有相对于彼此不同的性能要求(例如,第一设备具有安全数据传输要求,第二设备具有高优先级/低时延数据传输要求,第三设备具有高数据速率要求)。对于至少一些设备,无线网络资源的固定和/或静态分布(例如,用于实现e2e通信的无线网络资源的固定配置)能够导致未使用的资源和/或未能满足一些服务的性能要求。因此,分割无线网络资源能够提高如何利用无线网络资源的整体效率。然而,该分割导致一对e2e端点如何相对于第二对e2e端点交换信息的变化。
122.服务质量流(qos流)对应于在无线网络中交换的信息。有时,e2e通信包括和/或对应于qos流。一些无线网络利用影响如何通过qos流交换信息的操作规则、优先级水平、分类等来配置qos流。例如,qos简档向无线网络指示特定qos流的qos参数和/或qos特性,诸如用于指示qos流的上行链路和/或下行链路保证比特率的保证流比特率(gfbr)参数、用于指示qos流的最大上行链路和/或下行链路比特率的最大流比特率(mfbr)参数、指示qos流的优先级水平、抢占能力和/或抢占脆弱性的分配和保留优先级(arp)参数、指示qos流上承载的业务类型经受反映qos(例如,隐式更新)的反映qos属性(rqa)、指示当保证流比特率不能被保证时是否请求通知的通知控制参数、或者针对qos流恢复指示与特定ue相关联的集体非保证比特率(non-gbr)流的预期聚合比特率的聚合比特率参数、用于5qi和arp优先级水平的默认参数、用于上行链路和/或下行链路的指示qos流的丢失的分组的最大速率的最大分组丢失率(mplr)、指示能够由qos流使用的资源类型(例如,gbr资源类型、时延临界gbr资源类型、非gbr资源类型)的资源类型特性、区分同一ue的多个qos流的调度优先级水平特性、提供分组可以被时延多长时间的上限的分组时延预算特性、指示pdu未被成功地接收的速率的上限的分组错误率特性、指示其上用于计算gfbr和/或mfbr的数据窗口的平均窗口特性、指示在预定义的时间段上需要被服务的最大数据量的最大数据突发量特性等等。在一些实施方式中,指定qos流的配置的参数和/或特性能够被预配置(例如,默认)和/或动态地传送,诸如通过qos简档。这些变化影响无线网络如何分割各种无线网络资源以支持qos流配置。
123.例如,ue能够包括三个应用,其中每个应用具有不同的性能要求(例如,资源类型、优先级水平、分组时延预算、分组错误率、最大数据突发量、平均窗口、安全性水平)。这些不同的性能要求使无线网络对指派给相应qos流的无线网络资源进行分割,其中该相应qos流被指派给彼此不同的每个应用。
124.为了演示,考虑ue包括游戏应用、增强现实应用和社交媒体应用的场景。在一些实例中,游戏应用(通过数据网络)与远程服务交互以与另一游戏应用连接来实时地交换音频、实时地交换视频、交换命令、交换视图等,使得游戏应用具有高数据量和低时延的性能要求。增强现实应用还通过数据网络与远程服务交互以发射位置信息并且随后接收覆盖在ue处生成的相机图像之上的图像数据。相对于游戏应用,增强现实应用利用较少的数据,但是具有一定的时间敏感性以维持当前位置与对应的图像覆盖之间的同步。最后,社交媒体应用通过数据网络与远程服务交互以接收馈送信息,其中该馈送信息相对于由增强现实应用和/或游戏应用消耗的数据具有较少的数据量和时间关键性。
125.基于这些性能要求,无线网络在应用与数据网络之间建立qos流,其中无线网络基于指示高数据量性能要求和时间敏感性性能要求的qos要求、qos参数和/或qos特性(例如,资源类型、优先级水平、分组时延预算、分组错误率、最大数据突发量、平均窗口、安全性水平)来构建每个qos流。在实施方式中,包括在qos简档中的qos要求、qos参数和/或qos特性对应于qos流的性能要求。作为一个示例,无线网络处理与第一qos流相关联的qos简档,该qos简档配置gfbr参数、最大数据突发量特性、arp参数等的任意组合。然后,无线网络通过基于qos参数和/或特性分割无线网络资源来构建qos流。
126.虽然qos流的可配置性向无线网络提供了动态地修改如何分配无线网络资源的灵活性,但是可配置性在无线网络如何处理在端点之间交换的信息方面添加了复杂性。一些
实施方式训练dnn执行与使用具有各种配置的e2e通信交换信息相关联的复杂处理中的一些或全部。通过在不同处理链操作和/或无线网络资源分割上训练dnn,dnn能够代替传统复杂功能,如进一步描述的。dnn在e2e通信中的使用还允许网络实体诸如通过修改各种参数配置(例如,系数、层连接、内核大小)来使dnn适应于改变的操作条件。
127.一个或多个实施方式确定用于处理通过e2e通信交换的信息的e2eml配置。在一些情况下,端到端机器学习控制器(e2e ml控制器)获得与无线网络中的端到端通信相关联的设备的能力,诸如参与e2e通信的设备的机器学习(ml)能力,并且基于设备的ml能力(例如,支持的ml架构、支持的层数、可用处理能力、存储器限制、可用功率预算、定点处理vs.浮点处理、最大内核大小能力、计算能力)来确定e2e ml配置。替代地或另外,e2e ml控制器识别当前操作环境,并且基于当前操作环境来确定e2e ml配置。e2e ml控制器的一些实施方式与网络切片管理器通信以确定对应于网络切片的e2e ml配置(例如,无线网络资源的分割)。在确定e2e ml配置中,e2e ml控制器的一些实施方式基于参与e2e通信的设备来分割e2e ml配置,并且将e2e ml配置的相应分割传送到每个相应设备。
128.为了演示,考虑图9,其图示了其中用于e2e通信的示例e2e ml配置包括在多个设备处操作的dnn的示例环境900。在实施方式中,示例环境900图示了用于广播和多播通信的机器学习架构的各个方面。环境900包括图1的ue 110、基站120和远程服务170以及图3的核心网络服务器302。在实施方式中,ue 110和远程服务170使用e2e通信902和e2e通信904来彼此交换信息。为了清楚,e2e通信902和904被图示为是分离的且单向的e2e通信,以使得通过每个通信e2e交换信息对应于一个方向(例如,e2e通信902包括上行链路传输,e2e通信904包括下行链路传输),但是在替代或另外的实施方式中,e2e通信902和e2e通信904对应于包括两者的单个双向e2e通信,这在环境900中利用虚线906标示。在实施方式中,e2e通信902和e2e通信904(组合地)对应于单个qos流。
129.环境900还包括由核心网络服务器302实现的e2e ml控制器318,其中e2e ml控制器318确定用于e2e通信902和/或e2e通信904的e2eml配置。在一些实施方式中,诸如当每个e2e通信对应于单向信息交换时,e2e ml控制器确定用于e2e通信902的第一e2e ml配置和用于e2e通信904的第二e2e ml配置。在其它实施方式中,e2e ml控制器确定用于包括e2e通信902和904两者的双向e2e通信的e2e ml配置。例如,响应于ue 110诸如通过应用的调用请求与远程服务器170的连接,e2e ml控制器基于以下的任何组合来确定用于相应连接的e2e ml配置:ue 110的ml能力(例如,支持的ml架构、支持的层数、可用于ml处理的处理功率、应用于ml处理的存储器约束、可用于ml处理的功率预算、定点处理与浮点处理)、与所请求的连接相关联的性能要求(例如,资源类型、优先级水平、分组时延预算、分组错误率、最大数据突发量、平均窗口、安全性水平)、可用无线网络资源、中间设备(例如,基站120、核心网络服务器302)的ml能力、当前操作环境(例如,信道条件、ue位置)等)。作为一个示例,e2e ml控制器318通过核心网络服务器302接收描述当前操作环境的基站度量和/或ue度量。作为另一示例,e2e ml控制器通过核心网络服务器302接收基站ml能力和/或ue能力。替代地或另外,e2e ml控制器与网络切片管理器320通信以识别以支持qos要求的方式分割无线网络资源的网络切片。
130.在一个或多个实施方式中,e2e ml控制器318基于设备能力、无线网络资源分割、操作参数、当前操作环境、ml能力等的任何组合来分析神经网络表,以确定e2e ml配置。虽
然被描述为由核心网络服务器302实现,但是在替代或另外的实施方式中,e2e ml控制器318可以由诸如基站120的另一网络实体实施。
131.为了说明,并且参考图8,训练模块270和/或训练模块314利用反映能力、无线网络资源分割、操作参数、当前操作环境等的不同组合的训练数据802的变化来训练机器学习模块400。训练模块提取架构和/或参数配置(例如,架构和/或参数配置808)并且将其存储在神经网络表中,使得在稍后时间点,e2e ml控制器318访问神经网络表以获得和/或识别对应于确定的e2e ml配置的神经网络形成配置。e2e ml控制器318然后将神经网络形成配置传送到各种设备并且指导相应设备形成相应dnn,如进一步描述的。
132.在确定e2e ml配置时,e2e ml控制器318有时基于参与对应e2e通信的设备来分割e2e ml配置。例如,e2e ml控制器318确定e2e ml配置的对应于ue 110处的处理信息的第一分割、e2e ml配置的对应于基站120处的处理信息的第二分割、以及e2e ml配置的对应于核心网络服务器302处的处理信息的第三分割,其中确定分割能够基于能力、无线网络资源分割、操作参数、当前操作环境等的任何组合。
133.作为一个示例,考虑对应于通过无线网络的语音传输的e2e通信,诸如e2e通信902、e2e通信904、和/或e2e通信两者的组合。在确定用于e2e通信的e2e ml配置时,e2e ml控制器318替代地或另外识别e2e通信的性能要求指示具有低时延要求的大量数据传输。当给定性能要求时,e2e ml控制器识别e2e ml配置,当由相应dnn形成时,该配置执行交换语音通信并且满足性能要求的端到端功能。为了说明,e2e ml控制器确定执行用于将语音从ue发射到核心网络服务器的端到端功能的e2e ml配置,诸如ue侧的信号处理、语音编码、信道编码和/或信道调制、基站侧的信道解码、解调和/或信号处理、核心网络服务器侧的解码语音等,并且选择被设计为满足性能要求的配置。
134.一些实施方式基于参与e2e通信的设备的ml能力和/或性能要求来分割e2e ml配置。ue例如可以具有较少的处理资源(例如,处理能力、存储器约束、量化约束、定点计算vs.浮点计算、flops、相对于基站和/或核心网络服务器的功率可用性,其能够通过ml能力来指示。响应于通过ml能力的分析来识别不同处理资源,e2e ml控制器分割e2e ml配置,使得第一分割(例如,在ue 110处)形成比由第二或第三分割(例如,在基站处、在核心网络服务器处)形成的dnn执行更少处理的dnn。替代地或另外,e2e ml控制器分割e2e ml配置以产生被设计为不超过设备能力的神经网络,例如,当被提供ue能力时,e2e ml控制器基于ue的处理约束指导ue形成相对于由基站和/或核心网络服务器形成的dnn具有更少的层和更小的内核大小的dnn。替代地或另外,e2e ml控制器分割e2e ml配置以在ue处形成)具有处理信息而不超过ue的存储器约束的架构的神经网络(例如,部分连接的、完全连接的卷积神经网络,长短期记忆(lstm)网络)。在一些实例中,e2e ml控制器计算在每个设备处执行的计算量是否共同满足与时延预算相对应的性能要求,并且确定被设计为满足性能要求的e2e ml配置。
135.在环境900中,e2e ml控制器318确定用于处理通过e2e通信902交换的信息的第一e2e ml配置,并且确定跨多个设备分割第一e2e ml配置,诸如通过基于设备能力跨ue 110、基站120和核心网络服务器302分割第一e2e ml配置。换句话说,一些实施方式确定对应于分布式dnn的e2e ml配置,在该分布式dnn中多个设备实现和/或形成dnn的部分。为了传送该分割,e2e ml控制器318识别对应于e2e ml配置的第一分割的第一神经网络形成配置(nn
形成配置),并且通过使用核心网络服务器302将第一nn形成配置传送到ue 110。e2e ml控制器318和/或核心网络服务器302然后指导ue形成用户设备侧深度神经网络908(ue侧dnn 908),以用于处理通过e2e通信902交换的信息。类似地,e2e ml控制器318识别对应于e2e ml配置的第二分割的第二nn形成配置,并且将第二nn形成配置传送到基站120。e2e ml控制器318和/或核心网络服务器302然后指导基站120使用第二nn形成配置来形成基站侧深度神经网络910(bs侧dnn 910),以用于处理通过e2e通信902交换的信息。e2e ml控制器318还识别第三nn形成配置并且将其传送到核心网络服务器302,以在形成核心网络服务器侧深度神经网络912(cns侧dnn 912)中使用,以用于处理通过e2e通信902交换的信息。
136.在实施方式中,e2e ml控制器318分割e2e ml配置以分布在e2e通信上执行的处理计算,使得ue侧dnn 908执行相对于bs侧dnn 910更少的处理(例如,相对于bs侧dnn 910,ue侧dnn 908使用更少的层、更少的数据处理点等)。替代地或另外,e2e ml控制器318分割e2eml配置,使得bs侧dnn 910相对于cns侧dnn 912执行较少的处理。在组合中,由ue侧dnn 908、bs侧dnn 910以及cns侧dnn 912执行的处理跨e2e通信902交换信息。
137.以类似的方式,e2e ml控制器318确定用于处理通过e2e通信904交换的信息的第二e2e ml配置,其中e2e ml控制器跨多个设备分割和/或分布第二e2e ml配置。在环境900中,该分割对应于核心网络服务器侧深度神经网络914(cns侧dnn 914)、基站侧深度神经网络916(bs侧dnn 916)和用户设备侧深度神经网络918(ue侧dnn 918)。在组合中,由cns侧dnn 914、bs侧dnn 916和ue侧dnn 918执行的处理对应于使用e2e通信904交换信息。虽然e2e ml控制器在环境900中分离地确定用于单向e2e通信(例如,e2e通信902和904)的第一和第二e2e ml配置,但是在替代或另外的实施方式中,e2e ml控制器318确定对应于使用e2e通信交换双向信息的单个e2e ml配置。因此,关于e2e通信902和/或e2e通信904,e2e ml控制器318确定所分割的e2eml配置,并且将所分割的e2e ml配置的相应部分传送到参与e2e通信902和/或e2e通信904的设备。
138.在实施方式中,e2e ml控制器318周期性地重新评估度量、性能要求、无线链路性能、设备的处理能力或影响当前操作环境和/或当前性能(例如,误码、bler)或提供当前操作环境和/或当前性能(例如,比特误差、bler)的指示的其他方面,以确定是否更新e2e ml配置。例如,e2e ml控制器318确定对现有dnn的修改(例如,参数改变)以更好地适应无线网络中的设备、应用和/或传输的性能要求。ue改变位置可能影响无线链路性能,或者用户在ue处打开应用可能降低用户设备能够提供用于机器学习的处理能力。通过重新评估动态地改变的条件(例如,操作环境的改变、设备的改变),e2e ml控制器能够修改或更新e2e ml配置以提高如何利用无线网络资源的总体效率。
139.已经描述了用于无线网络的e2e ml,现在考虑讨论根据一个或多个实施方式的用于与多个载波的同时连接的机器学习架构。
140.用于与多个分量载波同时连接的机器学习架构
141.在各种实施方式中,无线通信系统使用多个分量载波来在设备之间传播信息。作为一个示例,基站通过多个分量载波(同时)向接收ue传输数据,作为一种增加基站和ue之间的数据吞吐量的方式。作为另一示例,ue利用第一分量载波建立到第一基站的第一连接,并且利用第二分量载波建立到第二基站的第二连接,以增加数据吞吐量。虽然通过多个分量载波交换信息增加了设备之间的数据吞吐量,但是使用多个分量载波也增加了通信的复
杂度。例如,相对于通过单个分量载波接收信息的第二ue,通过多个分量载波接收信息的第一ue利用更复杂的同步操作来管理信息。在基站处的同步也增加了复杂度,诸如当基站管理多个分量载波或者与第二基站同步通信时。
142.图10图示了根据一个或多个实施方式的能够利用用于与多个载波的同时连接的机器学习架构的示例环境1000,诸如载波聚合、双连接或者其它分开的架构通信。环境1000包括图1的基站120和ue 110,其中基站120和ue 110通过下行链路通信1002和上行链路通信1004使用载波聚合来交换信息。下行链路通信1002使用以下三个分量载波向ue 110传输信息:分量载波1006、分量载波1008和分量载波1010。类似地,上行链路通信1004使用以下两个分量载波向基站120发射信息:分量载体1012和分量1014。为了清楚,环境1000中所图示的每个分量载波对应于单向通信链路(例如,仅下行链路、仅上行链路)。然而,在替代或另外的实施方式中,分量载波对应于双向通信链路,诸如包括下行链路分量和上行链路分量的通信链路。此外,虽然环境1000图示了基站和ue各自使用载波聚合,但是其他实施方式能够包括对应于在单个方向上使用载波聚合用于信息传输的单向载波聚合(例如,仅下行链路载波聚合,仅上行链路载波聚合)。
143.载波聚合(ca)通过使用多个分量载波传递信息来向设备之间的通信链路添加更多带宽。例如,基站120增加聚合的分量载波的数量以增加交换的信息量。在给定时间实例,接收设备(例如,ue 110)以相对于使用单个分量载波获得信息更及时的方式从多个分量载波获得信息。在ca中,基站120处的协议栈管理分量载波1006、分量载波1008和分量载波1010的各个方面,诸如哪个分量载波携带什么信息。作为一个示例,基站120处的协议栈管理在分量载波1006、分量载波1008和分量载波1010之间划分用户业务。此外,在ca中,(聚合的)分量载波在彼此之间使用公共小区无线电网络临时标识符(c-rnti)。
144.图像1016、图像1018和图像1020图示了能够被用于ca的三个示例配置。图像1016描绘了频域中的分量载波1006、分量载波1008和分量载波1010的连续带内配置,其中,在ca中使用的每个分量载波驻留在相同频带中。每个分量载波的连续放置简化了传输,但是能够难以基于驻留在连续频谱中的其它活动通信来获得。图像1018描绘了非连续频带内配置,其中在载波聚合通信中使用的至少一个分量载波驻留在与其他分量载波相同的频带中,但是在非连续位置处。这允许诸如基站120的选择分量载波的设备通过选择未使用的分量载波用于载波聚合来更高效地使用无线网络资源。图像1020描绘了非连续的频带间配置,其中,在载波聚合通信中使用的至少一个分量载波驻留在不同的频带中。例如,在各种实施方式中,图像1020的频带1对应于分配给基站120的许可频带,图像1020的频带2对应于由基站120使用的非许可频带,诸如通过许可辅助接入(laa)接入的频带。作为另一示例,图像1020的频带1能够对应于5g mmw通信,并且图像1020的频带2能够对应于窄带蜂窝iot通信(例如,具有不同带宽的不同通信类型)。为了清楚,图10图示了具有两个频带的划分,但是替代实施方式能够利用更多的频带和/或分量载波。
145.在实施方式中并且参考图8,训练模块(例如,训练模块270、训练模块314)训练机器学习模块使用这些配置的变化(诸如,不同的频带、分量载波的不同组合、许可接入与非许可接入、变化的带宽、变化的协议等)来处理载波聚合通信。这包括在不同的分量载波上训练机器学习模块。例如,考虑图8的神经网络表810。索引值812映射到基于操作环境中的处理、信号特性等形成dnn的架构和/或参数配置808,其对应于输入特性804。一些实施方式
为各种分量载波生成用于输入特性804的架构和/或参数配置808的版本。换句话说,训练模块基于用于第一分量载波的输入特性804生成架构和/或参数配置的第一分组,基于用于第二分量载波的输入特性804生成架构和/或参数配置的第二分组等。
146.各种实施方式使用分量载波索引值来引用架构和/或参数配置。为了说明并且参考神经网络表810,分量载波索引值的添加将深度或层(例如,另一维度)添加到神经网络表。第一分量载波索引值(对应于第一分量载波)例如映射到神经网络表的第一实例或层。类似地,第二分量载波索引值(对应于第二分量载波)映射到神经网络表的第二实例或层等。
147.图11图示了根据一个或多个实施方式的利用用于与多个载波的同时连接的机器学习架构的示例环境1100,诸如载波聚合、双连接或者其它分开的架构通信。环境1100包括图1的基站120和ue 110,以及第二基站1102。在一些实施方式中,基站120充当管理通信的主设备,并且基站1102充当从主设备接收指令的主设备的辅助设备。
148.在环境1100中,ue 110维持与基站120和基站1102的双连接(dc)。为了说明,ue 110使用至少第一分量载波来建立与基站120的通信链路1104。在该示例中,通信链路1104图示了包括ue 110与基站120之间的下行链路通信和上行链路通信的双向通信链路,但是在其他实施方式中,ue 110/基站120将通信链路1104建立为单向链路。有时,通信链路1104包括多个分量载波,例如参考图10的下行链路通信1002和/或上行链路通信1004描述的那些分量载波。
149.ue 110还使用至少第二分量载波来建立与基站1102的通信链路1106。环境1100图示了(单向)下行链路通信形式的通信链路1106。可选地,通信链路1106能够替代地或另外包括上行链路通信能力,这里被图示为通信链路1108。因此,通信链路1106和通信链路1108能够共同地对应于具有双向通信能力的分量载波。
150.为了在不同连接之间保持同步,基站120使用链路1110与基站1102通信。例如,在一些实施方式中,链路1110对应于x2接口或xn接口。这允许主设备(例如,基站120)同步通过不同通信链路交换的信息。
151.在一些实施方式中,基站120通过通信链路1104向ue 110传送指令、命令和/或信息,其中该指令、命令和/或信息与通信链路1106和/或通信链路1108有关。与ca相反,用于dc的通信链路1104和通信链路1106(具有或不具有可选通信链路1108)具有彼此不同的c-rnti值。因此,通信链路1104具有第一c-rnti,并且通信链路1106具有第二c-rnti。
152.类似于ca,dc能够包括多个变化。在一些实施方式中,通信链路1104和通信链路1106(和/或通信链路1108)对应于使用相同的无线电接入技术(rat)进行的连接,从而使得在环境1100中图示的dc为rat内dc。在其它时候,通信链路1104和通信链路1106(和/或通信链路1108)对应于使用不同rat进行的连接,从而使得环境1100中图示的dc为rat间dc。作为另一变型,dc有时包括载波聚合。为了说明,通信链路1104、通信链路1106和/或可选通信链路1108能够包括多个分量载波(例如,下行链路通信1002、上行链路通信1004)。在实施方式中,并且参考图8,训练模块(例如,训练模块270、训练模块314)训练机器学习模块使用这些配置的变型(例如,不同的分量载波、rat间dc、rat内dc、包括ca、排除ca)来处理dc。
153.在用于与多个载波的同时连接的机器学习架构的各个方面中,网络实体确定用于处理使用载波聚合通过无线通信系统与用户设备(ue)交换的信息的深度神经网络(dnn)配
置。为了说明,现在考虑图12,其示出了根据一个或多个实施方式的能够利用用于与多个载波的同时连接的机器学习架构的示例环境1200,诸如载波聚合、双连接或其他分开的架构通信。在该示例中,通信采用下行链路载波聚合。环境1200包括图1的基站120和ue 110。有时,环境1200可选地包括图3的核心网络服务器302。
154.基站120包括一个或多个dnn 1202,其处理使用载波聚合通过无线通信系统交换的信息。替代地或另外,dnn 1202处理其它类型的多分量载波通信和/或分开的架构,诸如协作多点(comp)通信、dc通信、中央单元-分布式单元(cu-du)架构、或多rat双连接(mr-dc)。类似地,ue 110包括相对于dnn 1202执行补偿操作的一个或多个dnn 1204。可选地,核心网络服务器302包括一个或多个dnn 1206,诸如在采用如参考图14所述的e2e ml配置的场景中。
155.dnn 1202执行与使用载波聚合、其它多分量载波通信和/或分开的架构通信来传送信息相关联的操作。为了说明,在各种实施方式中,dnn1202包括生成分开的输出的第一子dnn 1208、接收并且处理分离输出的第一输出的第二子dnn 1210、以及接收并且处理分开的输出的第二输出的第三子dnn 1212,或者执行与之相对应的等效操作。替代地或另外,dnn 1202执行发射器处理链操作,诸如参考图6所描述的那些操作,有时,dnn 1202包括子dnn 1208、子dnn 1210、以及子dnn 1212作为用于执行特定处理操作(例如,生成分开的输出、生成第一分量载波、生成第二分量载波)形成的相异且分离的dnn。在其它时间,dnn 1202被实现为执行子dnn 1208、子dnn 1210、以及子dnn 1212的操作的单个dnn,或实现为从如进一步描述的从分布式e2e ml配置的一部分形成的dnn。一般地,子dnn是能够与一个或多个其它子dnn组合(例如,通过将一个子dnn的输出层连接到另一子dnn的输入层),使得子dnn共同执行一或多个处理操作的dnn。
156.在一些实施方式中,分量载波具有影响由每个子dnn执行的操作的不同特性。为了说明,考虑其中第一分量载波驻留在许可频带中并且第二分量载波驻留在非许可频带中的示例。由于频带使用不同的协议和/或通信机制,因此处理相应分量载波的子dnn(或单个dnn的部分)执行彼此不同的操作。处理非许可频带中的第二分量载波的子dnn例如执行进行先听后说(lbt)和/或空闲信道评估(cca)的处理操作,而处理许可频带中的第一分量载波的子dnn执行对应于许可频带的通信机制的处理操作。作为另一示例,分量载波能够驻留在与不同信令机制相对应的不同频谱中。子dnn处理具有mmw属性的第一分量载波可以包括波束成形/跟踪操作,而子dnn处理具有相对于mmw更长的波长的第二分量载波可以排除波束成形/跟踪操作。因此,dnn 1202(和/或dnn 1204)中包括的子dnn能够被配置为基于正被处理的分量载波的各种特性来执行彼此不同的操作。在实施方式中,训练模块(例如,训练模块270、训练模块314)联合地训练机器学习模块400以利用不同的处理操作(例如,波束成形、排除波束成形、lbt、排除lbt)来处理多个分量载波。有时,这种训练能够导致用于相应子dnn的不同架构。
157.在一些实施方式中,dnn 1202的子dnn是可互换的和/或根据彼此模块化的。为了说明,考虑基站120使用单个分量载波与ue 110交换信息的示例。在此场景中,dnn 1202包括子dnn 1208和子dnn 1210或执行与之等效的功能以生成信息并且使用第一分量载波1214传输该信息。在稍后任意时间点,基站确定使用载波聚合或其它形式的多分量载波通信来交换信息。基站通过基站神经网络管理器268、核心网络神经网络管理器312、e2e ml控
制器和/或网络切片管理器的任意组合,确定与子dnn1212相对应的dnn配置和/或对子dnn 1208的更新。所确定的dnn配置向dnn 1202添加处理,dnn 1202生成信息并且使用第二分量载波1216发射该信息。基站120然后形成子dnn 1212并且将其添加到dnn 1202。替代地或另外,基站120更新dnn 1208以生成如进一步描述的分离输出。作为另一示例,基站120响应于终止载波聚合通信的第二分量载波或者改变分量载波从dnn 1202移除子dnn(例如,子dnn 1210、子dnn1212)。
158.类似于dnn 1202,dnn 1204执行与使用载波聚合、其他多分量载波通信和/或分开的架构通信来传送信息相关联的操作。在实施方式中,dnn 1204执行对dnn 1202的补偿处理,如关于图6所述。有时,dnn1204包括接收和处理第一分量载波(例如,分量载波1214)的第一子dnn1218、接收和处理第二分量载波(例如,分量载波1216)的第二子dnn1220,以及接收多个输入并且根据多个输入聚集信息的第三子dnn 1222,或执行与其相对应的等效操作。替代地或另外,dnn 1204执行接收器处理链操作。有时,ue 110将子dnn 1218、子dnn 1220和子dnn 1222形成为不同的且分离的(可互换的/模块化的)dnn,以用于执行特定处理操作(例如,接收和处理第一分量载波、接收和处理第二分量载波、聚合多个输入)。在其它时间,ue 110将dnn 1204形成为执行与针对子dnn 1218、子dnn 1220和子dnn 1222所描述的处理等效的处理的单个dnn,或者从分布式e2e ml配置的一部分形成的dnn,如进一步描述的。
159.可选地,核心网络服务器302的dnn 1206包括一个或多个子dnn,在该示例中一般标记为子dnn 1224,以用于处理载波聚合通信、其它多分量载波通信和/或分开的架构通信的部分。有时,核心网络服务器302形成子dnn 1224作为e2e ml配置的一部分,诸如参考图10所描述的。
160.在各种实施方式中,核心网络服务器302和/或基站120诸如通过核心网络神经网络管理器312、e2e ml控制器318、网络切片管理器320或基站神经网络管理器268的任意组合来确定dnn 1202、1204和1206的配置。例如,类似于参考图8所描述的那个,核心网络服务器302或基站120使用分量载波信息、带宽信息、当前操作条件、ue反馈、bs反馈、qos要求、度量等的任何组合来分析神经网络表,以确定dnn 1202、1204和/或1206的配置。ue 110诸如通过接收如参考图7所描述的神经网络形成配置的指示来接收配置信息,并且形成dnn 1204。这能够包括核心网络服务器302和/或基站120基于反馈来确定对dnn 1204(和/或dnn 1202和dnn 1206)的更新,其中,更新能够包括对dnn和/或子dnn的大(例如,架构)改变或小(例如,参数)改变。
161.图13图示了根据一个或多个实施方式的利用用于与多个载波的同时连接的机器学习架构的示例环境1300,诸如载波聚合、双连接或者其它分开的架构通信。在各种实施方式中,示例环境1300结合关于图12的示例环境1200描述的一个或多个方面来工作。在环境1300中,在设备之间交换的通信对应于上行链路载波聚合通信。类似于关于图12所描述的那个,环境1300包括图1的基站120和ue 110。有时,环境1300可选地包括图3的核心网络服务器302。
162.为了执行与使用载波聚合传送信息相关联的操作,基站120包括一个或多个dnn 1302,并且ue 110包括一个或多个dnn 1304。类似于处理使用下行链路载波聚合交换的信息,核心网络服务器302可选地包括一个或多个dnn 1306。
163.在各种实施方式中,ue 110处的dnn 1304执行与针对图12的基站120处的dnn 1202所描述的操作类似的操作。dnn 1304能够对应于单个dnn、分布式e2e dnn的一部分、或者多个子dnn。例如,dnn 1304包括生成用于上行链路载波聚合的分开的输出的第一子dnn 1308、接收并且处理用于分开的输出的第一输出以生成第一分量载波1312的第二子dnn 1310、以及接收并且处理分开的输出的第二输出以生成第二分量载波1316的第三子dnn 1314,或者执行与其相对应的等效操作。替代地或另外,dnn 1304执行发射器处理链操作。有时,子dnn 1308、1310和1314是可互换/模块化的,如进一步描述。
164.在实施方式中,基站120处的dnn 1302执行与dnn1304的补偿处理,如关于图6所述。有时,dnn 1302包括接收和处理第一分量载波(例如,分量载波1312)的第一子dnn 1318、接收和处理第二分量载波(例如,分量载波1316)的第二子dnn 1320、以及接收多个输入并且来自多个输入聚合该信息的第三子dnn 1322,或者执行与其相对应的等效操作。替代地或另外,dnn 1302执行接收器处理链操作。基站120有时将子dnn1318、1320和1322形成为用于执行特定处理操作(例如,接收和处理第一分量载波、接收和处理第二分量载波、聚合多个输入)的不同且分离的(可互换的)dnn。在其它时间,子dnn 1318、1320和1322被实现为执行与针对子dnn所描述的处理等效的处理的单个、不同的dnn(例如,dnn 1302),或者由分布式e2e ml配置的一部分形成的dnn,如进一步描述的。
165.可选地,核心网络服务器302包括一个或多个子dnn,在该示例中一般标记为子dnn 1324,以用于处理载波聚合通信、其它多分量载波通信和/或分开的架构通信的部分。有时,核心网络服务器302形成子dnn1324作为e2e ml配置的一部分,诸如参考图10所描述的。
166.已经描述了用于与多个载波的同时连接的ml架构,现在考虑讨论可以在用于与多个载波的同时连接的ml架构的各个方面中使用的通过无线通信系统的信令和控制事务。
167.用于与多个载波的同时连接的ml架构的信令和控制事务
168.图14和15图示了根据使用用于与多个载波的同时连接的机器学习架构的一个或多个方面的基站、用户设备和/或核心网络服务器之间的示例信令和控制事务示意图,诸如载波聚合、双连接或者其它分开的架构通信。信令和控制事务可以由图1的基站120和ue 110和/或图3的核心网络服务器302使用图1-13的元素来执行。
169.图14的信令和控制事务示意图1400图示了使用用于与多个载波的同时连接的机器学习架构的信令和控制事务的第一示例。该示意图1400包括包括ue 110、基站120和(可选地)核心网络服务器302的事务。因此,各种实施方式包括核心网络服务器302,而其他实施方式不包括核心网络服务器302。为了指示这些实施方式,各种事务跨越核心网络服务器302和基站120以指定对应的事务能够通过彼此的交互在(仅)核心网络服务器302、(仅)基站120或核心网络服务器302和基站120的组合处执行。这进一步通过使用“核心网络服务器302/基站120”来表示。
170.在1405,核心网络服务器302/基站120可选地从ue 110接收度量和/或ue能力。例如,基站120响应于发送对ue能力的请求而从ue 110接收ue能力。替代地或另外,核心网络服务器302通过基站120从ue 110接收ue能力或ue度量。在一些实施方式中,ue能力包括ml相关的能力,诸如最大内核大小能力、存储器限制、计算能力、支持的ml架构、支持的层数、可用处理功率、存储器限制、可用功率预算、以及定点处理与浮点处理。替代地或另外,ue能力包括载波聚合能力、双连接能力等。作为另一示例,基站120从ue 110接收ue度量,诸如功
率测量(例如,rssi)、误差度量、定时度量、qos、时延、参考信号接收功率(rsrp)、sinr信息、cqi、csi、多普勒反馈等。
171.在一些实施方式中,核心网络服务器302从基站120接收基于基站与ue 110交换的通信的bs度量,如参考图8所描述的。核心网络服务器302还能够从基站120接收bs能力,诸如处理功率、功率状态、容量(例如,可支持的连接数量)、工作范围等。
172.在1410,核心网络服务器302/基站120(通过bs神经网络管理器268、核心网络神经网络管理器312、e2e ml控制器318、网络切片管理器320、由基站实现的e2e ml控制器和/或由基站实现的网络切片管理器)确定用于处理与多个分量载波的同时连接的一个或多个dnn配置,诸如用于载波聚合通信的一个或多个dnn配置。dnn配置能够包括(分割的)e2eml配置、多个子dnn配置和/或用于多个设备的多个dnn配置。例如,参考图12,核心网络服务器302/基站120能够确定用于形成子dnn 1208的第一子dnn配置、用于形成子dnn 1210的第二子dnn配置,和用于形成子dnn 1212的第三子dnn配置。在一些实施方式中,核心网络服务器302/基站120确定不同的dnn配置,诸如在基站120处形成dnn1302的第一dnn配置、形成dnn1304的第二dnn配置等等,参考图13。dnn配置能够形成执行彼此不同的处理操作的子dnn(或dnn的部分),诸如处理许可频带中的第一分量载波的第一子dnn和处理非许可频带中的第二分量的第二子dnn。
173.在一些实施方式中,核心网络服务器302/基站120基于关于多个分量载波的特性,诸如关于载波聚合的特性以及载波聚合是对应于连续的rat内载波聚合、非连续的rat内载波聚合还是非连续的rat间载波聚合,来确定dnn配置。替代地或另外,核心网络服务器302/基站120基于在1405处接收到的ue能力,诸如载波聚合能力或双连接能力,来确定dnn配置。
174.在1415,核心网络服务器302/基站120将dnn配置中的至少一个传送到ue 110和/或基站120。这能够包括传送子dnn配置、e2e ml配置的分割、或者执行所有ue相关的载波聚合处理的单个dnn配置。如在715处参考图7所述,基站(和/或核心网络服务器)有时通过发射指示神经网络形成配置的消息和/或基于神经网络形成配置形成dnn的指示来传送dnn配置。在实施方式中,核心网络服务器302/基站120发射映射到神经网络表中的条目的一个或多个索引值。这能够包括核心网络服务器302/基站120传送映射到用于特定分量载波的神经网络形成配置的分量载波索引值,如进一步描述的。替代地或另外,核心网络服务器302/基站120发射包括神经网络参数配置(例如,权重值、系数值、滤波器数量)的消息。
175.在一些实施方式中,基站120(和/或核心网络服务器302,通过基站120)使用第一分量载波向ue 110传送dnn的配置,其中,dnn配置对应于形成用于处理载波聚合的第二分量载波的dnn。例如,再次考虑其中基站120使用单个分量载波与ue 110交换信息的示例,其中基站120使用子dnn 1208和子dnn 1210来生成信息并且使用第一分量载波1214发射该信息。类似地,ue 110使用子dnn 1218和子dnn 1222来处理使用第一分量载波交换的信息。在各种实施方式中,基站120通过第一分量载波1214传送处理第二分量载波的dnn的子dnn配置。例如,基站120使用与第一分量载波相关联的层1或层2控制信道来发射(用于处理第二分量载波的dnn的)子dnn配置。
176.在1420,核心网络服务器302基于在1410确定的dnn配置中的至少一个来可选地形成至少一个核心网络服务器侧深度神经网络(cns侧dnn)。换句话说,核心网络服务器302实例化(或以其它方式创建)dnn,该dnn具有由在1410由核心网络服务器302/基站120确定的
dnn配置至少部分地定义的架构和/或参数。其中cns侧dnn能够包括多个子dnn,能够是不同的dnn,或者能够是分布式dnn的一部分。在实施方式中,cns侧dnn执行用于使用与多个分量载波(例如,载波聚合)的同时连接通过无线通信系统交换信息的至少一些处理,其能够包括预传输处理。
177.在1425,基站120基于在1410确定的dnn配置来形成至少一个基站侧深度神经网络(bs侧dnn)。换句话说,基站120实例化(或者以其它方式创建)dnn,该dnn具有由在1410由核心网络服务器302/基站120确定的dnn配置至少部分地定义的架构和/或参数。bs侧dnn能够包括多个子dnn,能够是不同的dnn,或者能够是分布式dnn的一部分。在实施方式中,由基站形成的bs侧dnn执行用于使用与多个分量载波的同时连接通过无线通信系统交换信息的至少一些处理,包括预传输处理。
178.类似地,在1430,ue 110基于在1410确定的一个或多个dnn配置来形成至少一个用户设备侧深度神经网络(ue侧dnn)。换句话说,ue110实例化(或者以其他方式创建)dnn,该dnn具有由在1415由核心网络服务器302/基站120传送的dnn配置至少部分地定义的架构和/或参数。ue侧dnn能够包括多个子dnn,能够是不同的dnn,或者能够是分布式dnn的一部分。在实施方式中,ue 110使用在1520接收到的信息来访问神经网络表,以获得如参考图8所描述的一个或多个架构和/或参数。在实施方式中,由ue 110形成的dnn执行用于使用与多个分量载波的同时连接通过无线通信系统交换信息的至少一些处理。
179.然后,在1435,核心网络服务器302/基站120和ue 110使用dnn处理与多个分量载波的同时连接,诸如参考图10-13所描述的那个。在实施方式中,核心网络服务器302/基站120和/或ue 110迭代地执行在信令和控制事务示意图1400中描述的信令和控制事务,其由虚线1440标示。这些迭代允许基站120和/或ue 110基于改变的操作条件来动态地修改dnn,该dnn处理使用与多个分量载波的同时连接(例如,载波聚合、双连接)交换的信息,并且提高交换的性能,如进一步描述的。
180.改变的操作条件影响每个dnn如何良好地处理信息的的性能。为了说明并且参考图8,训练模块270和/或训练模块314基于如由输入特性描述的操作条件来生成神经网络形成配置。这包括与使用多个分量载波通过无线通信系统交换信息相对应的操作条件。随着当前操作条件偏离,dnn的性能开始变差。
181.各种实施方式基于来自ue和/或基站的反馈来修改一个或多个dnn。这些修改能够包括对dnn的架构改变和/或参数改变。为了说明,现在考虑使用用于与多个载波的同时连接的机器学习架构的信令和控制事务的第二示例,其在图15中由信令和控制事务示意图1500图示。在一些实施方式中,信令和控制事务示意图1500表示图14的信令和控制事务示意图1400的继续。因此,该示意图1500包括包括ue 110、基站120和(可选地)核心网络服务器302的事务,其中,各种事务能够通过彼此交互在(仅)核心网络服务器302、(仅)基站120或者核心网络服务器302和基站120的组合处执行。这进一步通过使用“核心网络服务器302/基站120”来表示。
182.在1505,核心网络服务器302/基站120和ue 110使用一个或多个dnn来处理使用与多个分量载波的同时连接通过无线通信系统交换的信息。在一些实施方式中,在1505执行的处理对应于在图14的1435执行的处理。
183.在1510,核心网络服务器302/基站120从ue 110接收反馈。例如,ue 110向基站120
(和/或通过基站120向核心网络服务器302)传送一个或多个度量,诸如bler、sinr、cqi反馈或分组丢失率。替代地或另外,基站120生成一个或多个度量,诸如往返时间(rtt)时延度量、上行链路接收功率、上行链路sinr、上行链路分组错误、上行链路吞吐量、定时测量、功率信息、sinr信息、cqi、csi或多普勒反馈,并且将这些度量作为反馈发送到核心网络服务器302。
184.在1515,核心网络服务器302/基站120分析反馈。例如,核心网络服务器302/基站120(通过bs神经网络管理器268、核心网络神经网络管理器312、e2e ml控制器318、网络切片管理器320、由基站实现的e2eml控制器和/或由基站实现的网络切片管理器)分析反馈以确定对dnn的修改是否将提高使用多个分量载波交换信息的整体性能。
185.在1520,核心网络服务器302/基站120(通过bs神经网络管理器268、核心网络神经网络管理器312、e2e ml控制器318、网络切片管理器320、由基站实现的e2e ml控制器和/或由基站实现的网络切片管理器)基于反馈来确定对dnn中的至少一个的修改。在一些实施方式中,核心网络服务器302/基站120确定改变dnn的架构配置的大修改。替代地或另外,核心网络服务器302/基站120确定与改变参数配置相对应的小修改,而不改变架构配置,诸如改变系数值、权重或内核大小。该修改能够对应于从分割的e2e ml配置形成的dnn、对一个或多个子dnn的修改、或对不同dnn的修改。
186.在1525,核心网络服务器302/基站120将修改传送到ue 110。例如,类似于在图14的1415所描述的,基站向ue 110发射消息,其中该消息指示与该修改相对应的神经网络形成配置。替代地或另外,核心网络服务器302将修改传送到基站120和/或ue 110(通过基站120)。该指示能够包括映射到神经网络表中的条目的一个或多个索引值。有时,该消息包括分量载波索引值,其映射到用于特定分量载波的神经网络表信息,如进一步描述的。在其他时间,消息包括神经网络参数值(例如,权重值、系数值、滤波器的数量)。
187.在1530,核心网络服务器302(可选地)基于该修改更新一个或多个dnn。类似地,分别在1535和1540,基站120(可选地)基于该修改来更新一个或多个dnn,并且ue 110基于该修改来更新一个或多个dnn。核心网络服务器302、基站120和/或ue 110更新子dnn、基于分割的e2e ml配置的分布式dnn和/或不同dnn的任何组合。在实施方式中,核心网络服务器302、基站120和ue 110迭代地执行在信令和控制事务示意图1500中描述的信令和控制事务,利用虚线1545标示。这些迭代允许核心网络服务器302、基站120和/或ue 110基于改变的操作条件来动态地修改处理使用多个分量载波通信通过无线通信系统交换的信息的dnn,并且提高整体性能,如进一步描述的。
188.示例方法
189.参考图16和图17描述了根据用于与多个载波的同时连接、使用多个分量载波的其它类型的通信和/或其它分开的架构通信的机器学习架构的一个或多个方面的示例方法1600和1700。描述方法框的顺序不旨在被解释为限制,并且能够跳过或以任何顺序组合任何数量的所描述的方法框以实现方法或替代方法。通常,能够使用软件、固件、硬件(例如,固定逻辑电路)、手动处理或其任意组合来实现本文中描述的组件、模块、方法和操作的任何一个。可以在存储在计算机处理系统本地和/或远程的计算机可读存储器上的可执行指令的一般场境中描述示例方法的一些操作,并且实施方式能够包括软件应用、程序、函数等。替代地或另外,本文中描述的任何功能能够至少部分地由一个或多个硬件逻辑组件执
行,诸如但不限于现场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、片上系统(soc)、复杂可编程逻辑器件(cpld)等。。
190.图16图示了用于使用用于与多个载波的同时连接、使用多个分量载波的其它类型的通信和/或其它分开的架构通信的机器学习架构的示例方法1600。在一些实施方式中,方法1600的操作由诸如基站120或核心网络服务器302中的任何一个的网络实体执行。
191.在1605,网络实体确定用于处理使用与多个分量载波的同时连接通过无线通信系统与ue交换的信息的至少一个dnn配置,例如在图14的1410描述的。在实施方式中,多个分量载波至少包括第一分量载波和第二分量载波,但是能够包括附加分量载波。在一个或多个实施方式中,网络实体(例如,核心网络服务器302)确定用于使用与多个分量载波的同时连接(例如,在1410)与ue 110交换通信的e2e ml配置。作为另一示例,网络实体(例如,基站120)确定一个或多个dnn的配置(例如,在710),诸如用于bs侧dnn的第一配置和用于ue侧dnn的第二配置,其执行彼此补偿的操作。有时,网络实体确定多个子dnn配置,诸如用于形成生成分开的输出的第一子dnn(子dnn 1208、子dnn 1308)的第一子dnn配置、用于形成处理第一分量载波的第二子dnn(子dnn1210、子dnn 1310)的第二子dnn配置、用于形成处理第二分量载波的第三子dnn(子dnn 1212、子dnn 1314)的第三子dnn配置、用于形成聚合多个输入的第四子dnn(子dnn 1222、子dnn 1322)的第四子dnn配置等等。
192.在确定dnn配置时,网络实体的一些实施方式确定用于处理下行链路载波聚合的dnn配置。例如,网络实体确定用于处理下行链路载波聚合的dnn配置,该下行链路载波聚合使用许可频带中的第一分量载波和非许可频带中的第二分量载波来交换信息。dnn配置能够包括形成第一dnn的第一dnn配置,该第一dnn生成包括与第一分量载波相关联的第一输出和与第二分量载波相关联的第二输出的分开的输出。替代地或另外,dnn配置包括形成第二dnn的第二dnn配置,该第二dnn聚合与第一分量载波相关联的第一输入和与第二分量载波相关联的第二输入。在各种实施方式中,网络实体确定用于处理上行链路载波聚合的dnn配置。有时,确定dnn配置能够基于包括在通信中的分量载波的计数或数量。
193.在1610,网络实体基于至少一个dnn配置的第一部分来形成至少第一dnn,诸如在图14的1420和在1425描述的。在实施方式中,网络实体(核心网络服务器302)形成cns侧dnn(例如,dnn 1206、dnn 1306),其中cns侧dnn能够是基于e2e ml配置的分割的分布式dnn,能够包括子dnn,或者能够是不同的dnn。作为另一示例,网络实体(例如,基站120)形成一个或多个bs侧dnn(例如,dnn 1202、dnn 1302)。类似于cns侧dnn,bs侧dnn能够是基于e2e ml配置的分割的分布式dnn,能够包括子dnn,或者能够是不同的dnn。在实施方式中,网络实体访问神经网络表以获得一个或多个架构和/或参数配置。响应于获得配置,网络实体使用架构和/或参数配置来形成网络实体dnn。
194.在1615,网络实体将dnn配置的第二部分的指示传送到ue,并且指导ue形成第二dnn。例如,类似于在图7的715处所描述的,网络实体(例如,核心网络服务器、基站120)向ue(例如,ue 110)传送映射到神经网络表的条目的一个或多个索引值,以向ue提供神经网络形成配置。替代地或另外,网络实体向ue传送分量载波索引值。该指示能够包括指导ue 110使用由索引值指示的神经网络形成配置来形成第二dnn的命令。在一些实施方式中,dnn配置的第二部分包括(模块化的)子dnn配置,其形成子dnn以处理使用第二分量载波交换的信息。有时,网络实体使用第一分量载波来传送第二部分的指示。
195.在1620,网络实体使用至少第一dnn来通过无线通信系统使用与多个分量载波的同时连接与ue交换信息。例如,网络实体(例如,核心网络服务器302、基站120)使用第一dnn来执行与载波聚合相关联的发射机处理链操作,包括预传输处理,诸如参考图6描述的。
196.在1625,网络实体可选地从ue接收反馈。作为一个示例,网络实体(例如,基站120)从ue(例如,ue 110)接收基于与基站120交换的下行链路通信的一个或多个ue度量(例如,功率信息、sinr信息、cqi、csi、多普勒反馈、qos、时延)。作为另一示例,网络实体(例如,核心网络服务器302)通过基站120从ue(例如,ue 110)接收一个或多个ue度量。替代地或另外,网络实体(例如,核心网络服务器302)从基站120接收bs度量,诸如上行链路接收功率、上行链路sinr、上行链路分组误差、上行链路吞吐量、定时测量、功率信息、sinr信息、cqi、csi、多普勒反馈、qos、时延等。
197.在1630,网络实体可选地通过分析反馈来确定对dnn配置的修改。在实施方式中,网络实体(例如,核心网络服务器302、基站120)基于反馈来分析神经网络表以确定修改。这包括确定与对dnn配置的一个或多个架构改变相对应的大修改,或者与dnn配置的固定dnn架构的一个或多个参数改变相对应的较小修改。
198.在1635,网络实体可选地将修改传送到ue,并且指导ue基于该修改来更新第二dnn。例如,网络实体(例如,核心网络服务器302、基站120)向ue(例如,ue 110)传送映射到神经网络表的条目的一个或多个索引值、传送分量载波索引值、和/或传送参数值,如进一步描述的。
199.图17图示了用于使用与多个载波的同时连接的机器学习架构的示例方法1700。在一些实施方式中,方法1700的操作由诸如图1的ue 110的用户设备执行。
200.在1705,ue接收用于处理使用与多个载波的同时连接通过无线通信系统交换的信息的至少一个dnn配置的指示,诸如载波聚合或双连接。例如,ue(例如,ue 110)从网络实体(例如,核心网络服务器302、基站120)接收包括映射到神经网络表中的索引值的消息。替代地或另外,该指示包括映射到用于特定分量载波的神经网络表信息的分量载波索引值。dnn配置能够包括e2e ml配置的一部分、一个或多个子dnn配置、或不同的dnn配置的任意组合。在实施方式中,多个分量载波至少包括第一分量载波和第二分量载波,但是能够包括另外的分量载波。
201.在1710,ue基于该指示来形成至少一个dnn。作为一个示例,ue(例如,ue 110)形成用于处理下行链路载波聚合的dnn。作为另一示例,ue(例如,ue 110)形成用于处理上行链路载波聚合的dnn。为了说明,关于形成用于下行链路载波聚合的dnn,在至少一个实施方式中,ue形成用于生成第一输入的第一子dnn(例如,子dnn 1218)、用于生成第二输入的第二子dnn(例如,子dnn 1220)、以及用于接收第一输入和第二输入并且聚合第一输入和第二输入以恢复通过无线通信系统交换的信息的第三子dnn(例如,子dnn 1222)。替代地或另外,ue形成执行与多个子dnn相对应的操作的单个dnn(例如,dnn 1204)。有时,ue基于分布式e2e ml配置的一部分来形成dnn。在一些实施方式中,该指示对应于对第一子dnn或第二子dnn的更新,并且ue通过更新第一或第二子dnn来形成dnn。
202.在1715,ue使用dnn来处理使用与多个分量载波的同时连接通过无线通信系统交换的信息。在至少一个实施方式中,ue(例如,ue 110)处理使用下行链路载波聚合交换的信息,诸如参考图12描述的。替代地或另外,ue(例如,ue 110)处理使用上行链路载波聚合交
换的信息,诸如参考图13所述。例如,参考上行链路载波聚合,ue使用dnn(例如,子dnn 1310)生成与第一分量载波相关联的第一输出,以通过无线通信系统交换信息的第一部分。作为用于上行链路载波聚合的dnn的一部分,ue使用dnn(例如,子dnn 1310)生成与第二分量载波相关联的第二输出,以通过无线通信系统交换信息的第二部分。有时,并且参考下行链路载波聚合,ue使用第一dnn(例如,子dnn 1218)来处理使用第一分量载波交换的信息的第一部分以生成第一输入,使用第二dnn(例如,子dnn 1220)来处理使用第二分量载波交换的信息的第二部分以生成第二输入,并且使用第三dnn(例如,子dnn 1222)来聚合第一输入和第二输入以恢复信息。
203.通常,能够使用软件、固件、硬件(例如,固定逻辑电路)、手动处理或其任意组合来实现本文中描述的组件、模块、方法和操作的任何一个。可以在存储在计算机处理系统本地和/或远程的计算机可读存储器上的可执行指令的一般场境中描述示例方法的一些操作,并且实施方式能够包括软件应用、程序、函数等。替代地或另外,本文中描述的任何功能能够至少部分地由一个或多个硬件逻辑组件执行,诸如但不限于现场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、片上系统(soc)、复杂可编程逻辑器件(cpld)等。
204.尽管已经以特定于特征和/或方法的语言描述了用于与多个载波的同时连接、使用多个分量载波的其它类型的通信和/或其它分开的架构通信的机器学习架构的各个方面,但是所附权利要求书的主题不必然限制于所描述的特定特征或方法。相反,特定的特征和方法被公开为用于与多个载波的同时连接的机器学习架构的示例实施方式。
205.在下面描述了若干示例:
206.示例1:一种由与无线通信系统相关联的网络实体执行的方法,该方法包括:确定用于处理使用与包括第一分量载波和第二分量载波的多个分量载波的同时连接通过无线通信系统与用户设备(ue)交换的信息的至少一个深度神经网络(dnn)配置,该至少一个dnn配置包括该至少一个dnn配置的用于在网络实体处形成第一dnn的第一部分和至少一个dnn配置的用于在ue处形成第二dnn的第二部分;基于第一部分形成第一dnn;将第二部分的指示传送到ue,并且指导ue基于第二部分来形成第二dnn;以及使用第一dnn使用与多个分量载波的同时连接通过无线通信系统与ue交换所述信息。
207.示例2:如示例1所述的方法,其中,第一分量载波在许可频带中,以及,并且其中,第二分量载波在非许可频带中。
208.示例3:如示例1或示例2所述的方法,其中,与多个分量载波的同时连接是下行链路载波聚合,并且其中确定至少一个dnn配置包括:为第一部分确定第一dnn配置,该第一dnn配置形成第一dnn以通过生成包括与第一分量载波相关联的第一输出和与第二分量载波相关联的第二输出的分开的输出来处理信息;以及为第二部分确定第二dnn配置,该第二dnn配置形成第二dnn以通过聚合与第一分量载波相关联的第一输入和与第二分量载波相关联的第二输入来处理信息。
209.示例4:如示例3所述的方法,其中,确定第一dnn配置包括:确定用于形成生成分开的输出的第一子dnn的第一子dnn配置;确定用于形成基于第一输出处理使用第一分量载波交换的信息的第二子dnn的第二子dnn配置;以及确定用于形成基于第二输出处理使用第二分量载波交换的信息的第三子dnn的第三子dnn配置。
210.示例5:如示例1或示例2所述的方法,其中与多个分量载波的同时连接是上行链路载波聚合,并且其中确定至少一个dnn配置包括:为第一部分确定第一dnn配置,该第一dnn配置形成第一dnn以通过聚合包括与第一分量载波相关联的第一输入和与第二分量载波相关联的第二输入的多个输入来处理信息;以及为第二部分确定第二dnn配置,该第二dnn配置形成第二dnn以通过生成包括与所述第一分量载波和第二分量载波相关联的第一输出的分开的输出来处理所述信息。
211.示例6:如前述示例中的任一示例所述的方法,其中,确定至少一个dnn配置至少部分地基于多个分量载波中包括的分量载波的计数。
212.示例7:如前述示例中的任一个所述的方法,其中,确定至少一个dnn配置进一步包括:将端到端机器学习配置(e2e ml配置)确定为至少一个dnn配置。
213.示例8:如示例7所述的方法,其中,第一部分包括e2e ml配置的第一分割,并且其中,第二部分包括e2e ml配置的第二分割。
214.示例9:如前述示例中的任一个所述的方法,其中,所述至少一个dnn配置的第二部分包括子dnn配置,该子dnn配置形成子dnn以处理使用第二分量载波交换的信息,并且其中将第二部分的指示传送到ue包括:使用第一分量载波传送子dnn配置,该子dnn配置形成子dnn以处理使用第二分量载波交换的所述信息。
215.示例10:如前述示例中的任一个所述的方法,进一步包括:从ue接收反馈;通过分析该反馈来确定对至少一个dnn配置的修改;以及将该修改传送到ue,并且指导ue基于该修改来更新第二dnn。
216.示例11:一种由与无线通信系统相关联的用户设备(ue)执行的方法,该方法包括:接收用于处理使用与包括第一分量载波和第二分量载波的多个分量载波的同时连接通过无线通信系统交换的信息的至少一个深度神经网络(dnn)配置的指示;在ue处基于指示来形成至少一个dnn;以及使用该至少一个dnn来处理使用与多个分量载波的同时连接通过无线通信系统交换的信息。
217.示例12:如示例11所述的方法,其中,与多个分量载波的同时连接包括下行链路载波聚合,并且其中使用至少一个dnn来处理信息包括:使用至少一个dnn来处理使用第一分量载波交换的信息的第一部分以生成第一输入;使用至少一个dnn来处理使用第二分量载波交换的信息的第二部分以生成第二输入;以及使用至少一个dnn来聚合第一输入和第二输入以恢复信息。
218.示例13:如示例12所述的方法,其中,处理信息的第一部分包括使用第一子dnn处理信息以生成第一输入;其中,处理第二部分包括使用第二子dnn处理信息以生成第二输入;以及其中,聚合第一输入和第二输入包括使用第三子dnn来接收第一输入和第二输入,并且聚合第一输入和第二输入以恢复信息。
219.示例14:如示例13所述的方法,其中,指示包括第一指示,并且该方法进一步包括:接收指示对第一子dnn、第二子dnn或第三子dnn的修改的第二指示;以及基于该第二指示来更新该第一子dnn、该第二子dnn或该第三子dnn。
220.示例15:如示例11所述的方法,其中,与多个分量载波的同时连接包括上行链路载波聚合,并且其中使用至少一个dnn来处理信息包括:使用至少一个dnn来生成与第一分量载波相关联的第一输出,以通过无线通信系统交换信息的第一部分;以及使用至少一个dnn
来生成与第二分量载波相关联的第二输出,以通过无线通信系统交换信息的第二部分。
221.示例16:如示例15所述的方法,其中,形成至少一个dnn包括:基于分布式端到端机器学习配置的一部分来形成至少一个dnn。
222.示例17:如示例10至16中的任一个所述的方法,其中,一分量载波在许可频带中,并且其中第二分量载波在非许可频带中。
223.示例18:一种网络实体装置,包括:处理器;以及包括指令的计算机可读存储介质,该指令指导网络实体装置执行包括以下操作的指令:确定用于处理使用与包括第一分量载波和第二分量载波的多个分量载波的同时连接通过无线通信系统与用户设备(ue)交换的信息的至少一个深度神经网络(dnn)配置,该至少一个dnn配置包括用于在网络实体处形成第一dnn的第一部分和用于在ue处形成第二dnn的第二部分;将第二部分的指示传送到所述ue,并且指导ue基于第二部分来形成第二dnn;基于dnn配置的第一部分形成第一dnn;以及使用第一dnn通过无线通信系统使用与多个分量载波的同时连接与ue交换信息。
224.示例19:如示例18所述的网络实体装置,操作进一步包括:从ue接收反馈;通过分析反馈来确定对至少一个dnn配置的修改;以及将该修改传送到ue,并且指导ue基于该修改来更新第二dnn。
225.示例20:如示例19所述的网络实体装置,其中,确定修改包括:确定对至少一个dnn配置的一个或多个架构改变;或者确定对至少一个dnn配置的一个或多个参数改变。
226.示例21:如示例18所述的网络实体装置,其中,确定至少一个dnn配置包括:为第一部分确定第一dnn配置,该第一dnn配置形成第一dnn以通过生成包括与第一分量载波相关联的第一输出和与第二分量载波相关联的第二输出的分开的输出来处理信息;以及为第二部分确定第二dnn配置,该第二dnn配置形成第二dnn以通过聚合与第一分量载波相关联的第一输入和与第二分量载波相关联的第二输入来处理信息。
227.示例22:一种网络实体装置,其被配置为执行示例1至10中的任一个所述的方法。
228.示例23:一种用户设备,包括:处理器;以及包括指令的计算机可读存储介质,该指令指导用户设备执行示例11至17中的任一个所述的方法。
229.示例24:一种包括指令的计算机可读存储介质,当该指令由处理器执行时,该指令指导包括该处理器的网络实体装置执行示例1至10中的任一个所述的方法;或者指导包括该处理器的用户设备执行示例11至17中的任一个所述的方法。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献