一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

通信的方法及通信装置与流程

2022-02-20 13:09:37 来源:中国专利 TAG:


1.本技术涉及通信领域,并且更具体地,涉及通信的方法及通信装置。


背景技术:

2.在大规模多输入多输出(massive multiple-input multiple-output,massive mimo)技术中,网络设备可通过预编码将有限的功率分配给能够有效传输的数据流,同时减小多个终端设备之间的干扰以及同一终端设备的多个信号流之间的干扰,有利于提高信号质量,实现空分复用,提高频谱利用率。终端设备可以基于下行信道测量来确定预编码矩阵,并通过反馈,使得网络设备可以基于终端设备反馈的预编码矩阵确定数据传输的预编码,进而提升信号传输性能。
3.目前,已知一种基于人工智能(artificial intelligence,ai)的信息传输的方法,终端设备和网络设备通过联合训练,得到第一信道学习模型和第二信道学习模型,其中,第一信道学习模型设置于终端设备侧、第二信道学习模型设置于网络设备侧,包括该第一信道学习模型和第二信道学习模型的通信系统称为ai的通信系统。具体地,该基于ai的信息传输的方法包括:终端设备获得待反馈的信息,终端设备对该待反馈的信息至少通过第一信道学习模型处理,得到需要通过空口反馈的信息,终端设备再通过反馈链路将该需要通过空口反馈的信息反馈给网络设备,网络设备收到终端设备反馈的信息,网络设备对该反馈的信息至少通过第二信道学习模型的处理,以获得终端设备侧待反馈的信息。然而,在这种基于ai的信息传输的方式中,离线训练得到的第一信道学习模型和第二信道学习模型被直接应用在信息在线传输的过程中,如果终端设备发生位移或者终端设备所处通信环境发生变化,可能会导致第一信道学习模型和第二信道学习模型不适用,从而影响基于第一信道学习模型和第二信道学习模型的ai的信息传输的方式进行信息传输的性能。


技术实现要素:

4.本技术提供一种通信的方法,可以实现对正在使用的信道学习模型的适用性进行判断。
5.第一方面,提供了一种通信的方法,该方法可以包括:第一通信装置确定第一信道学习模型是否适用,该第一信道学习模型用于基于目标信道信息确定第一信道信息,该第一信道信息的数据量小于该目标信道信息的数据量;在确定该第一信道学习模型不适用的情况下,该第一通信装置发送第一消息,该第一消息用于指示该第一信道学习模型不适用。
6.其中,第一信道信息用于通过第二信道学习模型确定第二信道信息,第二信道信息与目标信道信息相同或相近。
7.基于上述方案,第一通信装置在不需要第二通信装置的协助的情况下,就可以判断第一信道学习模型的适用性,因此可以减少信令的交互和对信道学习模型的适用性进行判断的复杂性。
8.结合第一方面,在第一方面的某些实现方式中,该第一通信装置确定第一信道学
习模型是否适用,包括:第一通信装置在目标信道的长期统计特性的变化量大于或等于第一预设阈值的情况下,确定该第一信道学习模型不适用;或者,该第一通信装置在目标信道的长期统计特性的变化量小于该第一预设阈值的情况下,确定该第一信道学习模型适用。
9.基于上述技术方案,第一通信装置根据目标信道的长期统计特性确定第一信道学习模型的适用性,不需要对第一信道信息进行恢复,因此不需要进行大量的计算,因此可以减小第一通信装置的处理负担。
10.结合第一方面,在第一方面的某些实现方式中,该第一通信装置确定第一信道学习模型是否适用,包括:该第一通信装置根据接收的第一调度信息确定该第一信道学习模型是否适用。
11.第一调度信息是第二通信装置根据第二信道信息发送的,第二信道信息是根据第一信道信息和第二信道学习模型确定的。
12.基于上述技术方案,第一通信装置根据第一调度信息确定第一信道学习模型的适用性,不需要对第一信道信息进行恢复,因此不需要进行大量的计算,因此可以减小第一通信装置的处理负担。
13.结合第一方面,在第一方面的某些实现方式中,该第一通信装置确定第一信道学习模型是否适用,包括:该第一通信装置根据数据传输性能确定该第一信道学习模型是否适用。
14.其中,数据的传输性能可以包括第一数据的传输性能和/或第二数据的传输性能。第一数据是第一通信装置根据目标信道信息发送的,第二数据是第二通信装置根据第二信道信息发送的。
15.基于上述技术方案,第一通信装置根据数据传输性能确定第一信道学习模型的适用性,不需要对第一信道信息进行恢复,因此不需要进行大量的计算,因此可以减小第一通信装置的处理负担。
16.结合第一方面,在第一方面的某些实现方式中,该第一通信装置确定第一信道学习模型是否适用,包括:该第一通信装置在所处的场景发生变化的情况下确定该第一信道学习模型不适用;或者,该第一通信装置在所处的场景没有发生变化的情况下,确定该第一信道学习模型适用;其中,该场景包括以下至少一种:室内静止、室外静止、低速运动、高速运动、郊区、城镇、宏站、微站、车载场景、车到其他设备场景、第三代合作伙伴项目(3rd generation partnership project,3gpp)协议中定义的场景。
17.基于上述技术方案,第一通信装置根据所处的场景是否发生变化确定第一信道学习模型的适用性,不需要对第一信道信息进行恢复,因此不需要进行大量的计算,因此可以减小第一通信装置的处理负担。此外,根据所处的场景是否发生变化确定第一信道学习模型是否适用更易于实现。
18.结合第一方面,在第一方面的某些实现方式中,该第一通信装置确定第一信道学习模型是否适用,包括:该第一通信装置在该第一信道学习模型的性能指标小于第二预设阈值的情况下,确定该第一信道学习模型不适用,该性能指标包括连续性和/或真实性;或者,该第一通信装置在该第一信道学习模型的性能指标大于或等于第二预设阈值的情况下,确定该第一信道学习模型适用。
19.基于上述技术方案,第一通信装置根据第一信道学习模型的性能指标确定第一信
道学习模型的适用性,不需要对第一信道信息进行恢复,因此不需要进行大量的计算,因此可以减小第一通信装置的处理负担。
20.结合第一方面,在第一方面的某些实现方式中,该第一通信装置确定第一信道学习模型是否适用,包括:该第一通信装置根据该目标信道信息与该第二信道信息的误差确定该第一信道学习模型是否适用,该第二信道信息是根据第一信道信息以及第二信道学习模型确定的,该第二信道学习模型与该第一信道学习模型对应。
21.基于上述技术方案,第一通信装置可以根据目标信道信息与第二信道信息的误差确定第一信道学习模型是否适用,即通过进行信道学习模型训练确定第一信道学习模型是否适用,该方式可以不依赖于第二通信装置的辅助,第一通信装置即可确定信道学习模型是否适用,因此该方式简单快捷。在同时考虑目标信道信息和第二信道信息的特征的情况下确定第一信道学习模型是否适用,可以保证第一通信装置和第二通信装置获得相同或相近的信道信息的特征,有助于后续利用该信道信息进行数据传输时提高数据传输的性能。
22.结合第一方面,在第一方面的某些实现方式中,该方法还包括:该第一通信装置接收第一指示信息,该第一指示信息用于指示该第一通信装置进行信道学习模型训练。
23.基于上述技术方案,不具备主动学习能力的第一通信装置在接收到第一指示信息的情况下,可以对第一信道学习模型的适用性进行判断。
24.基于上述技术方案,第二通信装置可以通过信令指示第一通信装置确定第一信道学习模型是否适用,以便于第二通信装置在发现第一信道学习模型不适用的情况下,及时通知第一通信装置进行验证,从而可以降低确定第一信道学习模型是否适用的时延。此外,在第二通信装置及时发现第一信道学习不适用的情况下,可以对第一信道学习模型进行及时更新,避免第一信道学习模型不适用的情况下导致的通信性能的下降。
25.可选地,该第一指示信息还用于指示以下一项或多项:
26.用于传输该第一消息的资源、该第一消息的内容、发送该第一消息的形式、信道学习模型的训练参数,该训练参数包括如下至少一项:信道学习模型训练的时间、信道学习模型训练的参考信号的配置信息。
27.结合第一方面,在第一方面的某些实现方式中,该方法还包括:该第一通信装置发送第一请求消息,该第一请求消息用于请求以下一项或多项:进行信道学习模型训练、发送该第一消息、该第一指示信息。
28.基于上述技术方案,第一通信装置可以通过信令请求确定第一信道学习模型是否适用,以便于在第一通信装置发现第一信道学习模型不适用的情况下,及时向第二通信装置请求进行验证,以降低确定第一信道学习模型是否适用的时延。此外在第一通信装置及时发现第一信道学习模型不适用的情况下,可以对第一信道学习模型及时更新,从而避免第一信道学习模型不适用的情况下导致的通信性能的下降。
29.结合第一方面,在第一方面的某些实现方式中,该第一消息还用于指示用于更新第二信道学习模型的一个或多个配置参数,该第二信道学习模型用于根据该第一信道信息确定第二信道信息。
30.基于上述方案,第一通信装置在确定第一信道学习模型不适用的情况下,可以确定用于更新第一信道学习模型和第二信道学习模型的一个或多个配置参数,并将用于更新第二信道学习模型的一个或多个配置参数发送给第二通信装置,从而使得第二通信装置可
以对第二信道学习模型进行更新。进一步地,第一通信装置和第二通信装置基于更新后的第一信道学习模型和第二信道学习模型进行信息传输的性能比较好。
31.结合第一方面,在第一方面的某些实现方式中,该方法还包括:该第一通信装置接收第二消息,该第二消息用于指示用于更新该第一信道学习模型的一个或多个配置参数。
32.基于上述方案,第二通信装置在确定第一信道学习模型不适用的情况下,可以确定用于更新第一信道学习模型和第二信道学习模型的一个或多个配置参数,并将用于更新第一信道学习模型的一个或多个配置参数发送给第一通信装置,从而使得第一通信装置可以对第一信道学习模型进行更新。进一步地,第一通信装置和第二通信装置基于更新后的第一信道学习模型和第二信道学习模型进行信息传输的性能比较好。
33.结合第一方面,在第一方面的某些实现方式中,该方法还包括:该第一通信装置根据第一参数确定用于更新该第二信道学习模型的一个或多个配置参数;其中,该第一参数包括如下至少一项:该第一通信装置所在的小区的小区标识、该第一通信装置所在的场景、该第一通信装置的类型、该第一通信装置所在的地理位置。
34.基于上述技术方案,第一通信装置可以根据第一参数确定第一信道学习模型和/或第二信道学习模型,并进一步确定用于更新第二信道学习模型的配置参数,即不进行信道学习模型训练即可确定新的信道学习模型,降低了第一通信装置的处理复杂度。
35.第二方面,提供了一种通信的方法,该方法可以包括:第二通信装置接收第一消息;该第二通信装置根据该第一消息确定第一信道学习模型不适用,该第一信道学习模型用于基于目标信道信息确定第一信道信息,该第一信道信息的维度小于该目标信道信息的维度;该第二通信装置发送第一指示信息,该第一指示信息用于指示进行信道学习模型训练。
36.其中,第一信道信息用于通过第二信道学习模型确定第二信道信息,第二信道信息与目标信道信息相同或相近。
37.基于上述方案,第一通信装置在不需要第二通信装置的协助的情况下,就可以判断第一信道学习模型的适用性,因此可以减少信令的交互和对信道学习模型的适用性进行判断的复杂性。此外,不具备主动学习能力的第一通信装置在接收到第一指示信息的情况下,可以对第一信道学习模型的适用性进行判断。
38.可选地,该第一指示信息还用于指示以下一项或多项:
39.用于传输该第一消息的资源、该第一消息的内容、该第一消息的形式、信道学习模型的训练参数,该训练参数包括如下至少一项:信道学习模型训练的时间、信道学习模型训练的参考信号的配置信息。
40.结合第二方面,在第二方面的某些实现方式中,该方法还包括:该第二通信装置接收第一请求信令,该第一请求信令用于请求以下一项或多项:进行信道学习模型训练、发送该第一消息、该第一指示信息。
41.基于上述技术方案,第一通信装置可以通过信令请求确定第一信道学习模型是否适用,以便于在第一通信装置发现第一信道学习模型不适用的情况下,及时向第二通信装置请求进行验证,以降低确定第一信道学习模型是否适用的时延。此外在第二通信装置收到请求信令时可以及时发现第一信道学习模型和/或第二信道信息不适用,并且可以让第一通信装置对信道学习模型及时进行训练以及更新,从而避免第一信道学习模型和/或第
二信道信息不适用的情况下导致的通信性能的下降。
42.结合第二方面,在第二方面的某些实现方式中,该第一消息还用于指示用于更新第二信道学习模型的一个或多个配置参数,该第二信道学习模型用于根据该第一信道信息确定第二信道信息。
43.基于上述方案,第一通信装置在确定第一信道学习模型不适用的情况下,可以确定用于更新第一信道学习模型和第二信道学习模型的一个或多个配置参数,并将用于更新第二信道学习模型的一个或多个配置参数发送给第二通信装置,从而使得第二通信装置可以对第二信道学习模型进行更新。进一步地,第一通信装置和第二通信装置基于更新后的第一信道学习模型和第二信道学习模型进行信息传输的性能比较好。
44.结合第二方面,在第二方面的某些实现方式中,该方法还包括:该第二通信装置发送第二消息,该第二消息用于指示用于更新该第一信道学习模型的一个或多个配置参数。
45.基于上述方案,第二通信装置在确定第一信道学习模型不适用的情况下,可以确定用于更新第一信道学习模型和第二信道学习模型的一个或多个配置参数,并将用于更新第一信道学习模型的一个或多个配置参数发送给第一通信装置,从而使得第一通信装置可以对第一信道学习模型进行更新。进一步地,第一通信装置和第二通信装置基于更新后的第一信道学习模型和第二信道学习模型进行信息传输的性能比较好。
46.结合第二方面,在第二方面的某些实现方式中,该方法还包括:该第二通信装置根据第一参数确定用于更新该第一信道学习模型的一个或多个配置参数;其中,该第一参数包括如下至少一项:该第一通信装置所在的小区的小区标识、该第一通信装置所在的场景、该第一通信装置的类型、该第一通信装置所在的地理位置。
47.基于上述技术方案,第二通信装置可以根据第一参数确定第一信道学习模型和/或第二信道学习模型,并进一步确定用于更新第一信道学习模型的配置参数,即不进行信道学习模型训练即可确定新的信道学习模型,降低了第二通信装置的处理复杂度。
48.第三方面,提供了一种通信的方法,该方法可以包括:第一通信装置确定第一信道学习模型是否适用,该第一信道学习模型用于基于目标信道信息确定第一信道信息,该第一信道信息的数据量小于该目标信道信息的数据量;在确定该第一信道学习模型不适用的情况下,该第一通信装置发送第一消息,该第一消息用于指示用于更新第二信道学习模型的配置参数,该第二信道学习模型用于基于该第一信道信息确定第二信道信息。
49.其中,第一信道信息用于通过第二信道学习模型确定第二信道信息,第二信道信息与目标信道信息相同或相近。
50.基于上述方案,第一通信装置在不需要第二通信装置的协助的情况下,就可以判断第一信道学习模型的适用性,因此可以减少信令的交互和对信道学习模型的适用性进行判断的复杂性。上述方案可以适用于在第一通信装置发现第一信道学习模型不适用的情况下,及时向第二通信装置发送信息,以降低确定信道学习模型是否适用的时延。此外在第二通信装置收到信息时可以及时发现第一信道学习模型和/或第二信道信息不适用,并且可以让第一通信装置对信道学习模型及时进行训练以及更新,从而避免第一信道学习模型和/或第二信道信息不适用的情况下导致的通信性能的下降。
51.此外,第一通信装置在确定第一信道学习模型不适用的情况下,可以确定用于更新第一信道学习模型和第二信道学习模型的一个或多个配置参数,并将用于更新第二信道
学习模型的一个或多个配置参数发送给第二通信装置,从而使得第二通信装置可以对第二信道学习模型进行更新。进一步地,第一通信装置和第二通信装置基于更新后的第一信道学习模型和第二信道学习模型进行信息传输的性能比较好。
52.结合第三方面,在第三方面的某些实现方式中,该第一通信装置确定第一信道学习模型是否适用,包括:该第一通信装置在目标信道的长期统计特性的变化量大于或等于第一预设阈值的情况下,确定该第一信道学习模型不适用;或者,该第一通信装置在目标信道的长期统计特性的变化量小于该第一预设阈值的情况下,确定该第一信道学习模型适用。
53.基于上述技术方案,第一通信装置根据目标信道的长期统计特性确定第一信道学习模型的适用性,不需要对第一信道信息进行恢复,因此不需要进行大量的计算,因此可以减小第一通信装置的处理负担。
54.结合第三方面,在第三方面的某些实现方式中,该第一通信装置确定第一信道学习模型是否适用,包括:该第一通信装置根据接收的第一调度信息确定该第一信道学习模型是否适用。
55.第一调度信息是第二通信装置根据第二信道信息发送的,第二信道信息是根据第一信道信息和第二信道学习模型确定的。
56.基于上述技术方案,第一通信装置根据第一调度信息确定第一信道学习模型的适用性,不需要对第一信道信息进行恢复,因此不需要进行大量的计算,因此可以减小第一通信装置的处理负担。
57.结合第三方面,在第三方面的某些实现方式中,该第一通信装置确定第一信道学习模型是否适用,包括:该第一通信装置根据数据传输性能确定该第一信道学习模型是否适用。
58.其中,数据的传输性能可以包括第一数据的传输性能和/或第二数据的传输性能。第一数据是第一通信装置根据目标信道信息发送的,第二数据是第二通信装置根据第二信道信息发送的。
59.基于上述技术方案,第一通信装置根据数据传输性能确定第一信道学习模型的适用性,不需要对第一信道信息进行恢复,因此不需要进行大量的计算,因此可以减小第一通信装置的处理负担。
60.结合第三方面,在第三方面的某些实现方式中,该第一通信装置确定第一信道学习模型是否适用,包括:该第一通信装置在所处的场景发生变化的情况下确定该第一信道学习模型不适用;或者,该第一通信装置在所处的场景没有发生变化的情况下,确定该第一信道学习模型适用;其中,该场景包括以下至少一种:室内静止、室外静止、低速运动、高速运动、郊区、城镇、宏站、微站、车载场景、车到其他设备场景、3gpp协议中定义的场景。
61.基于上述技术方案,第一通信装置根据所处的场景是否发生变化确定第一信道学习模型的适用性,不需要对第一信道信息进行恢复,因此不需要进行大量的计算,因此可以减小第一通信装置的处理负担。此外,根据所处的场景是否发生变化确定第一信道学习模型是否适用更易于实现。
62.结合第三方面,在第三方面的某些实现方式中,该第一通信装置确定第一信道学习模型是否适用,包括:该第一通信装置在该第一信道学习模型的性能指标小于第二预设
阈值的情况下,确定该第一信道学习模型不适用,该性能指标包括连续性和/或真实性;或者,该第一通信装置在该第一信道学习模型的性能指标大于或等于第二预设阈值的情况下,确定该第一信道学习模型适用。
63.基于上述技术方案,第一通信装置根据第一信道学习模型的性能指标确定第一信道学习模型的适用性,不需要对第一信道信息进行恢复,因此不需要进行大量的计算,因此可以减小第一通信装置的处理负担。
64.结合第三方面,在第三方面的某些实现方式中,该第一通信装置确定第一信道学习模型是否适用,包括:该第一通信装置根据该目标信道信息与该第二信道信息的误差确定该第一信道学习模型是否适用,该第二信道信息是根据第一信道信息以及第二信道学习模型确定的,该第二信道学习模型与该第一信道学习模型对应。
65.基于上述技术方案,第一通信装置可以根据目标信道信息与第二信道信息的误差确定第一信道学习模型是否适用,即通过进行信道学习模型训练确定第一信道学习模型是否适用,该方式可以不依赖于第二通信装置的辅助,第一通信装置即可确定信道学习模型是否适用,因此该方式简单快捷。在同时考虑目标信道信息和第二信道信息的特征的情况下确定第一信道学习模型是否适用,可以保证第一通信装置和第二通信装置获得相同或相近的信道信息的特征,有助于后续利用该信道信息进行数据传输时提高数据传输的性能。
66.结合第三方面,在第三方面的某些实现方式中,该第一通信装置确定第一信道学习模型是否适用,包括:该第一通信装置根据是否接收到第一指示信息确定该第一信道学习模型是否适用,该第一指示信息用于指示该第一通信装置进行信道学习模型训练。
67.可选地,该第一指示信息还用于指示信道学习模型的训练参数,该训练参数包括如下至少一项:信道学习模型训练的时间、信道学习模型训练的参考信号的配置信息。
68.基于上述技术方案,第二通信装置可以通过信令指示第一通信装置确定第一信道学习模型是否适用,以便于第二通信装置在发现第一信道学习模型不适用的情况下,及时通知第一通信装置进行验证,从而可以降低确定第一信道学习模型是否适用的时延,同时降低第一通信装置确定信道学习模型是否适用的复杂度。此外,在第二通信装置及时发现第一信道学习不适用的情况下,可以对第一信道学习模型进行及时更新,避免第一信道学习模型不适用的情况下导致的通信性能的下降。
69.第四方面,提供了一种通信的方法,该方法可以包括:第二通信装置确定第二信道学习模型是否适用,该第二信道学习模型用于根据第一信道信息确定第二信道信息,该第一信道信息是根据第一信道学习模型和目标信道信息确定的,该第一信道信息的数据量小于该目标信道信息的数据量;在确定该第二信道学习模型不适用的情况下,该第二通信装置发送第一指示信息,该第一指示信息用于指示进行信道学习模型训练;该第二通信装置接收第一消息,该第一消息用于指示用于更新该第二信道学习模型的一个或多个配置参数。
70.其中,第一信道信息用于通过第二信道学习模型确定第二信道信息,第二信道信息与目标信道信息相同或相近。
71.基于上述方案,第二通信装置在不需要第一通信装置的协助的情况下,就可以判断第二信道学习模型的适用性,因此可以减少信令的交互和对信道学习模型的适用性进行判断的复杂性。上述方案可以适用于在第二通信装置发现第二信道学习模型不适用的情况
下,及时向第一通信装置发送信息,以降低确定信道学习模型是否适用的时延。此外在第一通信装置收到信息时可以及时发现第二信道学习模型和/或第一信道信息不适用,并且第一通信装置可以对信道学习模型及时进行训练以及更新,从而避免第二信道学习模型和/或第一信道信息不适用的情况下导致的通信性能的下降。
72.此外,第二通信装置在确定第二信道学习模型不适用的情况下,可以向第一通信装置发送第一指示信息,并接收第一通信装置发送的第一消息;进一步地,根据第一消息对第二信道学习模型进行更新。进一步地,第一通信装置和第二通信装置基于更新后的第一信道学习模型和第二信道学习模型进行信息传输的性能比较好。
73.可选地,该第一指示信息还用于指示信道学习模型的训练参数,该训练参数包括如下至少一项:信道学习模型训练的时间、信道学习模型训练的参考信号的配置信息。
74.结合第四方面,在第四方面的某些实现方式中,该第二通信装置确定第二信道学习模型是否适用,包括:该第二通信装置在目标信道的长期统计特性的变化量大于或等于第三预设阈值的情况下,确定该第二信道学习模型不适用;或者,该第二通信装置在目标信道的长期统计特性的变化量小于该第三预设阈值的情况下,确定该第二信道学习模型适用。
75.基于上述技术方案,第二通信装置根据目标信道的长期统计特性确定第二信道学习模型的适用性,不需要第一通信装置反馈目标信道信息,因此可以减小第一通信装置的反馈开销,且不需要进行大量的计算,可以减小第二通信装置的处理负担。
76.结合第四方面,在第四方面的某些实现方式中,该第二通信装置确定第二信道学习模型是否适用,包括:该第二通信装置根据第一调度信息确定该第二信道学习模型是否适用。
77.第一调度信息是第二通信装置根据第二信道信息发送的,第二信道信息是根据第一信道信息和第二信道学习模型确定的。
78.基于上述技术方案,第二通信装置根据第一调度信息确定第二信道学习模型的适用性,不需要第一通信装置反馈目标信道信息,因此可以减小第一通信装置的反馈开销,且不需要进行大量的计算,可以减小第二通信装置的处理负担。
79.结合第四方面,在第四方面的某些实现方式中,该第二通信装置确定第二信道学习模型是否适用,包括:该第二通信装置根据数据传输性能确定该第二信道学习模型是否适用。
80.其中,数据的传输性能可以包括第一数据的传输性能和/或第二数据的传输性能。第一数据是第一通信装置根据目标信道信息发送的,第二数据是第二通信装置根据第二信道信息发送的。
81.基于上述技术方案,第二通信装置根据数据传输性能确定第二信道学习模型的适用性,不需要第一通信装置反馈目标信道信息,因此可以减小第一通信装置的反馈开销,且不需要进行大量的计算,可以减小第二通信装置的处理负担。
82.结合第四方面,在第四方面的某些实现方式中,该方法还包括:该第二通信装置接收第三消息,该第三消息用于指示第一通信装置所处的场景,该场景包括以下至少一种:室内静止、室外静止、低速运动、高速运动、郊区、城镇、宏站、微站、车载场景、车到其他设备场景、3gpp协议中定义的场景;该第二通信装置确定第二信道学习模型是否适用,包括:该第
二通信装置在该场景发生变化的情况下确定该第二信道学习模型不适用;或者,该第二通信装置在该场景没有发生变化的情况下,确定该第二信道学习模型适用。
83.基于上述技术方案,第二通信装置根据第一通信装置所处的场景确定第二信道学习模型的适用性,不需要第一通信装置反馈目标信道信息,因此可以减小第一通信装置的反馈开销,且不需要进行大量的计算,可以减小第二通信装置的处理负担。此外,根据第一通信装置所处的场景是否发生变化确定第一信道学习模型是否适用更易于实现。
84.结合第四方面,在第四方面的某些实现方式中,该第二通信装置确定第二信道学习模型是否适用,包括:该第二通信装置根据该目标信道信息与该第二信道信息的误差确定该第二信道学习模型是否适用。
85.基于上述技术方案,第二通信装置可以根据目标信道信息与第二信道信息的误差确定第一信道学习模型是否适用,即通过进行信道学习模型训练确定第二信道学习模型是否适用,该方式可以不依赖于第一通信装置的辅助,第二通信装置即可确定信道学习模型是否适用,因此该方式简单快捷。在同时考虑目标信道信息和第二信道信息的特征的情况下确定第二信道学习模型是否适用,可以保证第一通信装置和第二通信装置获得相同或相近的信道信息的特征,有助于后续利用该信道信息进行数据传输时提高数据传输的性能。
86.第五方面,提供了一种通信装置,包括用于执行第一方面以及第一方面中任一种可能实现方式中的方法的各个模块或单元。
87.第六方面,提供了一种通信装置,包括用于执行第二方面以及第二方面中任一种可能实现方式中的方法的各个模块或单元。
88.第七方面,提供了一种通信装置,包括收发单元和处理单元:该处理单元用于确定第一信道学习模型是否适用,该第一信道学习模型用于基于目标信道信息确定第一信道信息,该第一信道信息的数据量小于该目标信道信息的数据量;在确定该第一信道学习模型不适用的情况下,该收发单元用于发送第一消息,该第一消息用于指示用于更新第二信道学习模型的配置参数,该第二信道学习模型用于基于该第一信道信息确定第二信道信息。
89.结合第七方面,在第七方面的某些实现方式中,该处理单元具体用于:根据信道的长期统计特征的变化量是否大于第一预设阈值确定该第一信道学习模型是否适用。
90.结合第七方面,在第七方面的某些实现方式中,该处理单元具体用于:在目标信道的长期统计特性的变化量大于或等于第一预设阈值的情况下,确定该第一信道学习模型不适用;或者,在目标信道的长期统计特性的变化量小于该第一预设阈值的情况下,确定该第一信道学习模型适用。
91.结合第七方面,在第七方面的某些实现方式中,该处理单元具体用于:根据数据传输性能确定该第一信道学习模型是否适用。
92.结合第七方面,在第七方面的某些实现方式中,该处理单元具体用于:在所处的场景发生变化的情况下确定该第一信道学习模型不适用;或者,在所处的场景没有发生变化的情况下,确定该第一信道学习模型适用,其中,该场景包括以下至少一种:室内静止、室外静止、低速运动、高速运动、郊区、城镇、宏站、微站、车载场景、车到其他设备场景、3gpp协议中定义的场景。
93.结合第七方面,在第七方面的某些实现方式中,该处理单元具体用于:在该第一信道学习模型的性能指标小于第二预设阈值的情况下,确定该第一信道学习模型不适用,该
性能指标包括连续性和/或真实性;或者,在该第一信道学习模型的性能指标大于或等于第二预设阈值的情况下,确定该第一信道学习模型适用。
94.结合第七方面,在第七方面的某些实现方式中,该处理单元具体用于:根据该目标信道信息与该第二信道信息的误差确定该第一信道学习模型是否适用,该第二信道信息是根据第一信道信息以及第二信道学习模型确定的,该第二信道学习模型与该第一信道学习模型对应。
95.结合第七方面,在第七方面的某些实现方式中,该处理单元具体用于:根据是否接收到第一指示信息确定该第一信道学习模型是否适用,该第一指示信息用于指示该第一通信装置进行信道学习模型训练。
96.第八方面,提供了一种通信装置,包括收发单元和处理单元:该处理单元用于确定第二信道学习模型是否适用,该第二信道学习模型用于根据第一信道信息确定第二信道信息,该第一信道信息是根据第一信道学习模型和目标信道信息确定的,该第一信道信息的数据量小于该目标信道信息的数据量;在确定该第二信道学习模型不适用的情况下,该收发单元用于发送第一指示信息,该第一指示信息用于指示进行信道学习模型训练;该收发单元还用于接收第一消息,该第一消息用于指示用于更新该第二信道学习模型的一个或多个配置参数。
97.结合第八方面,在第八方面的某些实现方式中,该处理单元具体用于:在目标信道的长期统计特性的变化量大于或等于第三预设阈值的情况下,确定该第二信道学习模型不适用;或者,在目标信道的长期统计特性的变化量小于该第三预设阈值的情况下,确定该第二信道学习模型适用。
98.结合第八方面,在第八方面的某些实现方式中,该处理单元具体用于:根据第一调度信息确定该第二信道学习模型是否适用。
99.结合第八方面,在第八方面的某些实现方式中,该处理单元具体用于:根据数据传输性能确定该第二信道学习模型是否适用。
100.结合第八方面,在第八方面的某些实现方式中,该收发单元还用于接收第三消息,该第三消息用于指示第一通信装置所处的场景,该场景包括以下至少一种:室内静止、室外静止、低速运动、高速运动、郊区、城镇;该处理单元具体用于:在该场景发生变化的情况下确定该第二信道学习模型不适用;或者,在该场景没有发生变化的情况下,确定该第二信道学习模型适用。
101.结合第八方面,在第八方面的某些实现方式中,该处理单元具体用于:根据该目标信道信息与该第二信道信息的误差确定该第二信道学习模型是否适用。
102.第九方面,提供了一种通信装置,包括处理器。该处理器与存储器耦合,可用于执行存储器中的指令,以实现上述第一方面及第三方面中任一种可能实现方式中的方法。可选地,该通信装置还包括存储器。可选地,该通信装置还包括通信接口,处理器与通信接口耦合。
103.在一种实现方式中,该通信装置为第一通信装置。当该通信装置为第一通信装置时,该通信接口可以是收发器,或,输入/输出接口。
104.在另一种实现方式中,该通信装置为配置于第一通信装置中的芯片。当该通信装置为配置于第一通信装置中的芯片时,该通信接口可以是输入/输出接口。
105.可选地,该收发器可以为收发电路。可选地,该输入/输出接口可以为输入/输出电路。
106.第十方面,提供了一种通信装置,包括处理器。该处理器与存储器耦合,可用于执行存储器中的指令,以实现上述第二方面及第四方面中任一种可能实现方式中的方法。可选地,该通信装置还包括存储器。可选地,该通信装置还包括通信接口,处理器与通信接口耦合。
107.在一种实现方式中,该通信装置为第二通信装置。当该通信装置为第二通信装置时,该通信接口可以是收发器,或,输入/输出接口。
108.在另一种实现方式中,该通信装置为配置于第二通信装置中的芯片。当该通信装置为配置于第二通信装置中的芯片时,该通信接口可以是输入/输出接口。
109.可选地,该收发器可以为收发电路。可选地,该输入/输出接口可以为输入/输出电路。
110.第十一方面,提供了一种处理器,包括:输入电路、输出电路和处理电路。所述处理电路用于通过所述输入电路接收信号,并通过所述输出电路发射信号,使得所述处理器执行第一方面至第四方面中任一种可能实现方式中的方法。
111.在具体实现过程中,上述处理器可以为一个或多个芯片,输入电路可以为输入管脚,输出电路可以为输出管脚,处理电路可以为晶体管、门电路、触发器和各种逻辑电路等。输入电路所接收的输入的信号可以是由例如但不限于接收器接收并输入的,输出电路所输出的信号可以是例如但不限于输出给发射器并由发射器发射的,且输入电路和输出电路可以是同一电路,该电路在不同的时刻分别用作输入电路和输出电路。本技术实施例对处理器及各种电路的具体实现方式不做限定。
112.第十二方面,提供了一种处理装置,包括处理器和存储器。该处理器用于读取存储器中存储的指令,并可通过接收器接收信号,通过发射器发射信号,以执行第一方面至第四方面中任一种可能实现方式中的方法。
113.可选地,所述处理器为一个或多个,所述存储器为一个或多个。
114.可选地,所述存储器可以与所述处理器集成在一起,或者所述存储器与处理器分离设置。
115.在具体实现过程中,存储器可以为非瞬时性(non-transitory)存储器,例如只读存储器(read only memory,rom),其可以与处理器集成在同一块芯片上,也可以分别设置在不同的芯片上,本技术实施例对存储器的类型以及存储器与处理器的设置方式不做限定。
116.应理解,相关的数据交互过程例如发送指示信息可以为从处理器输出指示信息的过程,接收能力信息可以为处理器接收输入能力信息的过程。具体地,处理器输出的数据可以输出给发射器,处理器接收的输入数据可以来自接收器。其中,发射器和接收器可以统称为收发器。
117.上述第十二方面中的处理装置可以是一个或多个芯片。该处理装置中的处理器可以通过硬件来实现也可以通过软件来实现。当通过硬件实现时,该处理器可以是逻辑电路、集成电路等;当通过软件来实现时,该处理器可以是一个通用处理器,通过读取存储器中存储的软件代码来实现,该存储器可以集成在处理器中,可以位于该处理器之外,独立存在。
communication,mtc)、机器间通信长期演进技术(long term evolution-machine,lte-m)、设备到设备(device to device,d2d)网络、机器到机器(machine to machine,m2m)网络、物联网(internet of things,iot)网络或者其他网络。其中,iot网络例如可以包括车联网。其中,车联网系统中的通信方式统称为车到其他设备(vehicle to x,v2x,x可以代表任何事物),例如,该v2x可以包括:车辆到车辆(vehicle to vehicle,v2v)通信,车辆与基础设施(vehicle to infrastructure,v2i)通信、车辆与行人之间的通信(vehicle to pedestrian,v2p)或车辆与网络(vehicle to network,v2n)通信等。
140.本技术实施例中,网络设备可以是任意一种具有无线收发功能的设备。该设备包括但不限于:演进型节点b(evolved node b,enb)、无线网络控制器(radio network controller,rnc)、节点b(node b,nb)、基站控制器(base station controller,bsc)、基站收发台(base transceiver station,bts)、家庭基站(例如,home evolved nodeb,或home node b,hnb)、基带单元(baseband unit,bbu),无线保真(wireless fidelity,wifi)系统中的接入点(access point,ap)、无线中继节点、无线回传节点、传输点(transmission point,tp)或者发送接收点(transmission and reception point,trp)等,还可以为5g,如,nr,系统中的gnb,或,传输点(trp或tp),5g系统中的基站的一个或一组(包括多个天线面板)天线面板,或者,还可以为构成gnb或传输点的网络节点,如基带单元(bbu),或,分布式单元(distributed unit,du)等,或者未来的通信系统中的基站等。
141.在一些部署中,gnb可以包括集中式单元(centralized unit,cu)和du。gnb还可以包括有源天线单元(active antenna unit,aau)。cu实现gnb的部分功能,du实现gnb的部分功能,例如,cu负责处理非实时协议和服务,实现无线资源控制(radio resource control,rrc),分组数据汇聚层协议(packet data convergence protocol,pdcp)层的功能。du负责处理物理层协议和实时服务,实现无线链路控制(radio link control,rlc)层、介质接入控制(medium access control,mac)层和物理(physical,phy)层的功能。aau实现部分物理层处理功能、射频处理及有源天线的相关功能。由于rrc层的信息最终会变成phy层的信息,或者,由phy层的信息转变而来,因而,在这种架构下,高层信令,如rrc层信令,也可以认为是由du发送的,或者,由du和aau发送的。可以理解的是,网络设备可以为包括cu节点、du节点、aau节点中一项或多项的设备。此外,可以将cu划分为接入网(radio access network,ran)中的网络设备,也可以将cu划分为核心网(core network,cn)中的网络设备,本技术对此不做限定。
142.网络设备为小区提供服务,终端设备通过网络设备分配的传输资源(例如,频域资源,或者说,频谱资源)与小区进行通信,该小区可以属于宏基站(例如,宏enb或宏gnb等),也可以属于小小区(small cell)对应的基站,这里的小小区可以包括:城市小区(metro cell)、微小区(micro cell)、微微小区(pico cell)、毫微微小区(femto cell)等,这些小小区具有覆盖范围小、发射功率低的特点,适用于提供高速率的数据传输服务。
143.在本技术实施例中,终端设备也可以称为用户设备(user equipment,ue)、接入终端、用户单元、用户站、移动站、移动台、远方站、远程终端、移动设备、用户终端、终端、无线通信设备、用户代理或用户装置。
144.终端设备可以是一种向用户提供语音/数据连通性的设备,例如,具有无线连接功能的手持式设备、车载设备等。目前,一些终端的举例可以为:手机(mobile phone)、无人
机、平板电脑(pad)、带无线收发功能的电脑(如笔记本电脑、掌上电脑等)、移动互联网设备(mobile internet device,mid)、虚拟现实(virtual reality,vr)设备、增强现实(augmented reality,ar)设备、工业控制(industrial control)中的无线终端、无人驾驶(self driving)中的无线终端、远程医疗(remote medical)中的无线终端、智能电网(smart grid)中的无线终端、运输安全(transportation safety)中的无线终端、智慧城市(smart city)中的无线终端、智慧家庭(smart home)中的无线终端、蜂窝电话、无绳电话、会话启动协议(session initiation protocol,sip)电话、无线本地环路(wireless local loop,wll)站、个人数字助理(personal digital assistant,pda)、具有无线通信功能的手持设备、计算设备或连接到无线调制解调器的其它处理设备、车载设备、可穿戴设备,5g网络中的终端设备或者未来演进的公用陆地移动通信网络(public land mobile network,plmn)中的终端设备等。
145.其中,可穿戴设备也可以称为穿戴式智能设备,是应用穿戴式技术对日常穿戴进行智能化设计、开发出可以穿戴的设备的总称,如眼镜、手套、手表、服饰及鞋等。可穿戴设备即直接穿在身上,或是整合到用户的衣服或配件的一种便携式设备。可穿戴设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能。广义穿戴式智能设备包括功能全、尺寸大、可不依赖智能手机实现完整或者部分的功能,例如:智能手表或智能眼镜等,以及只专注于某一类应用功能,需要和其它设备如智能手机配合使用,如各类进行体征监测的智能手环、智能首饰等。
146.此外,终端设备还可以是物联网(internet of things,iot)系统中的终端设备。iot是未来信息技术发展的重要组成部分,其主要技术特点是将物品通过通信技术与网络连接,从而实现人机互连,物物互连的智能化网络。iot技术可以通过例如窄带(narrow band,nb)技术,做到海量连接,深度覆盖,终端省电。
147.此外,终端设备还可以包括智能打印机、火车探测器、加油站等传感器,主要功能包括收集数据(部分终端设备)、接收网络设备的控制信息与下行数据,并发送电磁波,向网络设备传输上行数据。
148.为便于理解本技术实施例,首先结合图1详细说明适用于本技术实施例提供的方法的通信系统。图1示出了适用于本技术实施例提供的方法的通信系统100的示意图。如图所示,该通信系统100可以包括至少一个网络设备,如图1中所示的5g系统中的网络设备101;该通信系统100还可以包括至少一个终端设备,如图1中所示的终端设备102至107。其中,该终端设备102至107可以是移动的或固定的。网络设备101和终端设备102至107中的一个或多个均可以通过无线链路通信。每个网络设备可以为特定的地理区域提供通信覆盖,并且可以与位于该覆盖区域内的终端设备通信。例如,网络设备可以向终端设备发送配置信息,终端设备可以基于该配置信息向网络设备发送上行数据;又例如,网络设备可以向终端设备发送下行数据。因此,图1中的网络设备101和终端设备102至107构成一个通信系统。
149.可选地,终端设备之间可以直接通信,例如旁链路(sidelink)通信。例如可以利用d2d或者v2x技术等实现终端设备之间的直接通信。如图中所示,终端设备105与106之间、终端设备105与107之间,可以利用d2d或v2x技术直接通信。终端设备106和终端设备107可以单独或同时与终端设备105通信。
150.终端设备105至107也可以分别与网络设备101通信。例如可以直接与网络设备101
通信,如图中的终端设备105和106可以直接与网络设备101通信;也可以间接地与网络设备101通信,如图中的终端设备107经由终端设备106与网络设备101通信。
151.应理解,图1示例性地示出了一个网络设备和多个终端设备,以及各通信设备之间的通信链路。可选地,该通信系统100可以包括多个网络设备,并且每个网络设备的覆盖范围内可以包括其它数量的终端设备,例如更多或更少的终端设备。可选的,该通信系统100可以是包括多个网络设备,该多个网络设备可以进行多点协作传输,例如多个网络设备可以协同或协作与一个终端设备进行通信。本技术对此不做限定。
152.上述各个通信设备,如图1中的网络设备101和终端设备102至107,可以配置多个天线。该多个天线可以包括至少一个用于发送信号的发射天线和至少一个用于接收信号的接收天线。其中,发射天线和接收天线可以相同也可以不同。例如相同的情况下,一个天线即可用于发射也可用于接收;不同的情况下,发射天线和接收天线是不同的天线。另外,各通信设备还附加地包括发射机链和接收机链,本领域普通技术人员可以理解,它们均可包括与信号发送和接收相关的多个部件(例如处理器、调制器、复用器、解调器、解复用器或天线等)。因此,网络设备与终端设备之间可通过多天线技术通信。
153.可选地,该无线通信系统100还可以包括网络控制器、移动管理实体等其他网络实体,本技术实施例不限于此。
154.在无线通信系统中,通常使用mimo技术增加系统容量,即在发送端和接收端同时使用多根天线。理论上,多天线的使用结合空分复用,能成倍增加系统容量,但是实际上由于多天线的使用,也带来了干扰增强的问题,因此往往需要对信号进行一定的处理以抑制干扰带来的影响。这种通过信号处理进行干扰抑制的方法可以在接收端实现,也可以在发送端实现。在发送端实现时,可以对待发送信号进行预处理,再经过mimo信道发送,这种发送方式就是预编码。
155.为了识别mimo信道矩阵h有用的通道,需要把多个通道转化成类似于单输入单输出(single input single output,siso)系统的一对一模式,实现发送信号s1对应接收信号r1,发送信号s2对应接收信号r2,
……
,也就是将多个mimo交叉通道转换成多个平行的一对一信道。这个过程可以通过对h进行奇异值分解(singular value decomposition,svd)实现,即h=u∑v
t
,其中u和v为正交矩阵,∑为对角矩阵,其非零元素(即对角线上的元素)即为信道矩阵h的奇异值,这些奇异值通常可以按照由大到小的顺序排列,上标“t”表示转置操作。如r=h*s n,可以写成r=u∑v
t
*s n,其中r为接收信号,s为发送信号,n为信道噪声。在待发送数据为x的情况下,可以使s=vx。在接收端使用∑-1ut
对接收到的信号进行解码,则可以得到无干扰的多个一对一信道。在发送端的s=vx即为预编码操作,v为预编码矩阵。
156.由上可知,要得到与mimo信道匹配的预编码矩阵,需要已知mimo信道,因此需要对mimo信道进行估计。
157.目前,对于tdd系统,由于上下行信道具有互易性,因此网络设备可以根据测量得到的上行信道信息获得下行信道信息,从而进行预编码矩阵的计算和下行传输。对于fdd系统,网络设备根据终端设备反馈的信道状态信息进行预编码矩阵的计算和下行传输。
158.为了减小反馈开销,目前提出一种基于ai的信息传输的方法,终端设备和网络设备通过联合训练,得到第一信道学习模型和第二信道学习模型,其中,第一信道学习模型设
置于终端设备侧、第二信道学习模型设置于网络设备侧,包括该第一信道学习模型和第二信道学习模型的通信系统称为ai的通信系统。具体地,该基于ai的信息传输的方法包括:终端设备获得待反馈的信息,终端设备对该待反馈的信息至少通过第一信道学习模型处理得到需要通过空口反馈的信息,终端设备再通过反馈链路将该需要通过空口反馈的信息反馈给网络设备,网络设备收到终端设备反馈的信息,网络设备对该反馈的信息至少通过第二信道学习模型的处理,以获得终端设备侧待反馈的信息。然而,在这种基于ai的信息传输的方式,离线训练得到的第一信道学习模型和第二信道学习模型直接应用在信息在线传输的过程中,如果终端设备发生位移或者终端设备所处通信环境发生变化,可能会导致第一信道学习模型和第二信道学习模型不适用,从而影响基于第一信道学习模型和第二信道学习模型的ai的信息传输的方式进行信息传输的性能。
159.有鉴于此,本技术实施例提供一种通信的方法,以实现对正在使用的信道学习模型的适用性的判断。
160.为了便于理解本技术实施例,下面首先对信道学习模型进行介绍和说明。
161.信道学习模型:
162.本技术实施例中提及的信道学习模型可以是用于进行信道获取的模型或者算法,或者可以是用于确定信道信息的模型或者算法,或者可以是与信道相关的模型或者算法,或者是在通信系统中应用到的模型或者算法等,本技术实施例对此不做限定。
163.例如,信道学习模型可以是机器学习的算法等,例如可以是以下机器学习算法中的一种或多种:决策树算法、朴素贝叶斯算法、支持向量机算法、随机森林算法、人工神经网络算法、推进(boosting)与装袋(bagging)算法、期望最大化(expectation maximum,em)算法、深度学习。上述各个算法的定义和实现可以参考现有技术。
164.又例如,信道学习模型可以是一个神经网络(neural network,nn)模型,例如可以是以下神经网络中的至少一种:卷积神经网络、全连接神经网络、深度神经网络、前馈型神经网络、反馈型神经网络、径向基神经网络、霍普菲尔网络、马尔科夫链、玻尔兹曼机、受限玻尔兹曼机、自编码机、稀疏自编码机、变分自编码机、去噪自编码机、深度信念网络、解卷积网络、深度卷积逆向图网络、生成式对抗网络、循环神经网络、长短期记忆、神经图灵机、深度残差网络、回声状态网络、极限学习机、支持向量机。
165.又例如,信道学习模型也可以是:一个主成分分析算法、矩阵特征值分解算法、矩阵特征向量分解算法或者矩阵奇异值分解算法。
166.又例如,信道学习模型可以是一个自动编码(auto-encoder,ae)模型等。例如信道学习模型可以是实现信道降维和/或信道恢复(或者信道重构)的模型或者算法等。
167.下面以信道学习模型是神经网络模型为例,对信道学习模型进行进一步介绍和说明。
168.神经网络模型:
169.信道学习模型为神经网络模型时,神经网络主要由:输入层、隐藏层和输出层构成。图2示出了一个最基本的神经网络。当隐藏层只有一层时,该网络可以称为两层神经网络,由于输入层未做任何变换,可以不看做单独的一层。实际中,网络输入层的每个神经元代表了一个特征,输入层的维数也可以称为输入维数。输出层个数可以代表分类标签的个数,输出层的维数也可以称为输出维数。而隐藏层层数以及隐藏层神经元可以设定为正整
relu,prelu)等。
183.lrelu函数可以用如下公式表示:
[0184][0185]
其中常数λ∈(0,1)。
[0186]
prelu函数可以用如下公式表示::
[0187][0188]
其中,λ为一个可通过反向传播算法(backpropagation)学习的变量。
[0189]
rrelu函数可以用如下公式表示:
[0190][0191]
其中λ~u(l,u),且l,u∈(0,1),是随机确定的。
[0192]
假设n层神经网络下,从输入层到隐藏层,再从隐藏层到输出层,经过n次的变换,每次变换可以包括加权求和加偏置与非线性变换运算。例如,以从x变换为h的运算为例,则变换的过程可以表示为h=g(x*w b)。其中w为权值矩阵或者权值向量,简称权值,b为偏置向量或者偏置矩阵,简称偏置,g()为激活函数。假设x是1*x的矩阵,隐藏层的神经元数为h,则w可以是x*h维的矩阵,b可以是1*h维的矩阵。
[0193]
如下图4所示,图中示出的输入层的神经元数为2,输入数据x=(x1,x2)是一个1*2维的矩阵;隐藏层的神经元数为50,则从隐藏层输出的数据h=(h1,h2,

,h
50
)是一个1*50维的矩阵;输出层的神经元数为4,则从输出层输出的数据y=(y1,y2,y3,y4)是一个1*4维的矩阵。
[0194]
从输入层到隐藏层的变换过程可以表示为:h=g1(x*w1 b1),即:
[0195]
h1=g1(x1*w
1,1,1
x2*w
1,1,2
b
1,1
),
[0196]
h2=g1(x1*w
1,2,1
x2*w
1,2,2
b
1,2
),
[0197]
……
[0198]h50
=g1(x1*w
1,50,1
x2*w
1,50,2
b
1,50
)。
[0199]
其中,b1=[b
1,1b1,2
…b1,50
],函数g1可以是激活函数,例如可以是sigmoid函数、tanh函数或relu函数。
[0200]
进一步地,从隐藏层到输出层的变换过程可以表示为:y=g2(h*w2 b2),即:
[0201]
y1=g2(h1*w
2,1,1
h2*w
2,1,2


h
50
*w
2,1,50
b
2,1
),
[0202]
y2=g2(h1*w
2,2,1
h2*w
2,2,2


h
50
*w
2,2,50
b
2,2
),
[0203]
y3=g2(h1*w
2,3,1
h2*w
2,3,2


h
50
*w
2,3,50
b
2,3
),
[0204]
y4=g2(h1*w
2,4,1
h2*w
2,4,2


h
50
*w
2,4,50
b
2,4
)。
[0205]
其中,b2=[b
2,1b2,2b2,3b2,4
],函数g2可以是激活函数,例如可以是sigmoid函数、tanh函数或relu函数。
[0206]
该步骤涉及的信道学习模型的配置参数可以是变换算法,权值向量,权值矩阵,偏置向量,偏置矩阵,激活函数,输入层维数,输出层维数,隐藏层层数,隐藏层神经元数等中的一项或多项。
[0207]
下面以信道学习模型是卷积神经网络模型为例,对信道学习模型进行进一步介绍和说明。
[0208]
卷积神经网络模型:
[0209]
卷积神经网络中有三个基本的概念:局部感受域(local receptive fields)、共享权值(shared weights)、池化(pooling)。神经网络首先是在图像中被应用,因此下面以图像来进行举例。对应的,将神经网络应用在信道学习中是类似的,只是输入信号从图像变成信道数据。
[0210]
(1)局部感受域:对于一般的深度神经网络,往往会把图像的每一个像素点连接到全连接层的每一个神经元中,而卷积神经网络则只是把每一个隐藏层神经元与图像的某个局部区域连接,从而减少参数训练的数量。例如,一张1024
×
720的图像,若使用9
×
9的感受域,则只需要81个权值参数。对于一般的视觉也是如此,当观看一张图像时,更多的时候关注的是局部。
[0211]
(2)共享权值:在卷积神经网络的卷积层中,每个神经元对应的权值是相同的,即可以认为每个神经元只关注一个特性。神经元可以是滤波器,例如可以是边缘检测专用的索贝儿(sobel)滤波器,因此可以认为卷积层的每个滤波器都会有其所关注一个数据特征,例如均值、方差、幅度、相位、垂直边缘、水平边缘、颜色、纹理等。卷积层中所有的神经元加起来之后可以认为是整个数据的特征提取器集合,因此卷积即对一组固定的权值和不同窗口内的数据做内积。
[0212]
权重共享的好处:一方面,重复单元能够对特征进行识别,而不考虑它在可视域中的位置。另一方面,权值共享使得能更有效的进行特征抽取,因为极大的减少了需要学习的自由变量的个数。通过控制模型的规模,卷积网络对信道问题可以具有很好的泛化能力。
[0213]
(3)池化:由于待处理的图像往往都比较大,而在实际过程中,没有必要对原图进行分析,能够有效获得图像的特征才是最主要的,因此可以采用类似于图像压缩的思想,对图像进行卷积之后,通过一个下采样过程,来调整图像的大小。
[0214]
卷积神经网络可以包括数据输入层(input layer),卷积计算层(convolution layer),relu激励层(relu layer),池化层(pooling layer),全连接层(fully connected layer,fc layer)。
[0215]
(1)数据输入层:该层要做的处理主要是对原始数据进行预处理,其中可以包括如下一项或多项:
[0216]
去均值:把输入数据各个维度都中心化为0,其目的就是把样本的中心拉回到坐标
系原点上。
[0217]
归一化:把输入数据的幅度归一化到同样的范围,即减少各维度数据取值范围的差异而带来的干扰,例如,假设输入数据有两个维度的特征(例如为特征a1和特征b1),特征a1的数据的范围是0到10,而特征b1的数据的范围是0到10000,如果直接使用这两个特征的数据是有问题的,比较好的做法就将是两个特征的数据的幅度做归一化处理,即可以将特征a1和特征b1的数据都变为0到1的范围。
[0218]
主成分分析(principal component analysis,pca)和白化:pca用于对输入数据进行降维;白化用于对输入数据的各个特征轴上的幅度归一化。
[0219]
该步骤涉及的配置参数可以是预处理操作算法,输入数据的维数,输入数据的取值范围等中的一项或多项。
[0220]
(2)卷积计算层:这一层就是卷积神经网络最重要的一个层次,也是“卷积神经网络”的名字来源。
[0221]
在卷积层中有两个关键操作:1)局部关联:即将卷积层中的每个神经元看做一个滤波器(filter);2)窗口(receptive field)滑动:即利用滤波器对局部数据进行计算。
[0222]
卷积层中的名词:
[0223]
1)深度(depth):可以控制输出单元的深度,也就是filter的个数,或者是连接同一块区域的神经元个数。又名:深度列(depth column);
[0224]
2)步长(stride):也称为步幅,即窗口一次滑动的长度。步长可以控制与同一深度的相邻两个隐含单元相连接的输入区域的距离。若步幅很小(例如stride=1),则与相邻两个隐含单元相连接的输入区域的重叠部分会很多;若步幅很大,则与相邻两个隐含单元相连接的输入区域的重叠部分变少;
[0225]
3)补零(zero-padding):即在输入单元周围补零来改变输入单元整体大小,从而控制输出单元的空间大小。
[0226]
定义如下符号:
[0227]
w1:输入单元的大小(宽或高);f:感受域;s1:步幅;p:补零的数量;k:深度,即输出单元的深度。则可以用以下公式计算输出隐含单元的数目:
[0228][0229]
如果计算结果不是一个整数,则说明现有参数不能正好适合输入,例如,可能是步幅设置的不合适,在此情况下,可以补零,或者重新设置步骤。
[0230]
下面以一维卷积举例进行说明:
[0231]
图5示出了一个一维卷积的例子。如图5所示,左边模型中输入单元有5个,即w1=5;输入单元的左右边界各补了一个零,即p=1;步幅是1,即s1=1;因为每个输出隐含单元连接3个输入单元,因此感受域是,即f=3。根据公式(8)可以计算出输出隐含单元的个数是:k=(5-3 2)/1 1=5,与图示吻合。右边的模型与左边的模型相比只是把步幅变为s1=2,其余不变,根据公式(8)可以算出输出隐含单元的个数为:k=(5-3 2)/2 1=3,也与图示吻合。若把步幅改为s1=3,则公式不能整除,说明步幅为3不能恰好吻合输入单元大小。
[0232]
其中,卷积中包括权值参数,权值参数可以是f维的向量或矩阵,权值向量或者权值矩阵的元素取值可以为整数、实数或者复数等。例如。图5中示出的权值参数为3维的向
量:[1 0
ꢀ-
1]。隐含单元输出的数据的计算方法与上文所述的普通神经网络输出数据的计算方法可以是一样的。例如,图5中左边模型的第一个隐含单元输出数据为:0*1 1*0 2*(-1)=-2;第二个隐含单元的输出数据为:2*1 -1*0 1*(-1)=1;第三个隐含单元的输出数据为1*1 -3*0 0*(-1)=1。
[0233]
下面以二维卷积举例说明:
[0234]
在二维卷积中,w1可以是w1*w2的矩阵,f可以是f1*f2的矩阵,s1可以是s1*s2的矩阵,p可以是p1*p2的矩阵,k可以是k1*k2的矩阵。其中,w1,f1,s1,p1,k1分别代表矩阵的行数,w2,f2,s2,p2,k2分别代表矩阵的列数。则可以用以下公式计算输出隐含单元的大小:
[0235][0236]
图6示出了一个二维卷积的例子。如图6所示,输入单元是5*7维,即w1为5*7的矩阵,w1=5,w2=7;输入单元的左右便界各补一列,即p为1*0的矩阵,p1=1,p2=0;步幅s1是1*1的矩阵,即s1=1,s2=1;因为每个输出隐含单元与9个输入单元连接,因此感受域f是3*3的矩阵,即f1=3,f2=3。根据公式(9)可以计算出输出隐含单元的个数是:k1=(5-3 2*1)/1 1=5,k2=(7-3 2*0)/1 1=5,因此如图6所示,输出隐含单元的是5*5维,即k是5*5的矩阵。
[0237]
其中,卷积中包括权值参数,可以是f维的向量或者矩阵,权值向量或者权值矩阵的元素取值可以为整数、实数或者复数等。例如,图6中示出的权值参数为3*3维的矩阵:隐含单元输出的数据的计算方法与上文所述的普通神经网络输出数据的计算方法可以是一样的。例如,图6中第一行第一个隐含单元输出数据为:-8;第二行第二个隐含单元的输出数据为:8。
[0238]
该步骤涉及的配置参数可以是输入单元的大小(宽或高);感受域;步幅;补零的数量;深度,输出单元的深度,权值矩阵等中的一项或多项。
[0239]
(3)激励层:对卷积层的输出结果做非线性映射。
[0240]
卷积神经网络采用的激励函数一般可以为relu函数。relu函数的特点是收敛快,求梯度简单。计算公式也很简单(公式(4)),即对于输入的负值,输出全为0,对于输入的正值,则原样输出。如图7所示,第一行第一个输入值为0.77,则取max(0,0.77)得到输出值为0.77;第二行第二个值为-0.11,则取max(0,-0.11)得到输出值为0,以此类推,得到所有的输出结果。
[0241]
该步骤涉及的配置参数可以是激活函数算法,激活函数可以是上述介绍的激活函数中一个或多个。
[0242]
(4)池化层:池化层夹在连续的卷积层中间,用于压缩数据和参数的量,减小过拟合。简而言之,如果输入是高维数据的话,那么池化层的最主要作用就是数据压缩。因此,池化即下采样,目的是为了减少特征图。
[0243]
特征不变性,类似图像处理中经常提到的特征的尺度不变性,池化操作就是对图像的尺寸进行调整。例如,一张狗的图像被缩小了一倍还能认出是一张狗的照片,这说明这张图像中仍保留着狗最重要的特征,我们一看就能判断图像中画的是一只。也就是说,图像
压缩时去掉的信息只是一些无关紧要的信息,而留下的信息则是具有尺度不变性的特征,也是最能表达图像的特征。
[0244]
特征降维,我们知道初始输入信道含有的信息是很大的,特征也很多,但是有些信息对于做信道学习任务没有太多用途或者有重复,因此可以把这类冗余信息去除,把最重要的特征抽取出来,这也是池化操作的一大作用。因此,池化操作在一定程度上防止过拟合,更方便优化。
[0245]
池化层进行的运算一般采用以下一种或多种:1)最大池化(max pooling):即取最大值。例如将n1维的输入值池化为1个输出值,则该输出值为n1个取值中的最大值。2)均值池化(mean pooling):即取均值。例如将n1维的输入值池化为1个输出值,则该输出值为n1个取值的均值。3)高斯池化:借鉴高斯模糊的方法。4)可训练池化:即训练函数f,接受n1个点为输入,输出n2个点,且n2小于n1,实现降维。5)重叠池化。6)空金字塔池化。
[0246]
下面以最大池化为例进行说明:如图8所示,以输入矩阵为4*4,输出矩阵为2*2举例说明,则在此过程中,需要将4个输入值化为一个输出值。如图8中,将每个2*2窗口中的最大值作为输出值。例如,输入矩阵第一个2*2窗口中最大值是6,则得到输出矩阵的第一个元素就是6,如此类推,得到所有的输出结果。
[0247]
池化操作将保存深度大小不变。如果池化层的输入单元大小不是2的整数倍,一般可以采取边缘补零(zero-padding)的方式补成2的倍数,然后再池化。
[0248]
接收单元大小为:w1*h1*d1;需要两个参数(hyperparameters):空间范围(spatial extent)f1,步幅(stride)s2。输出大小:w2*h2*d2,可以不需要引入新权重。
[0249]
该步骤涉及的配置参数可以是空间范围,步幅,池化算法,输入大小(或接收单元大小),输出大小等中一项或多项。
[0250]
(5)全连接层:两层之间所有神经元都有权重连接,通常全连接层在卷积神经网络尾部。也就是跟传统的神经网络神经元的连接方式是一样的。如上文所述,每个全连接层神经元输出的值,都是对上一层神经元输出的值经过运算(例如加权求和、加权求和加偏置等)与非线性变换而得到的。
[0251]
将上述层的一层或多层连接起来可以构成一个卷积神经网络,而且每个层可以有多次操作,从而构成深度神经网络。例如,卷积神经网络可以包括一层或多层的卷积层,一层或多层的激励层,一层或多层的池化层,一层或多层的全连接层,并且卷积层、激励层、池化层、全连接层的排列顺序不做限定。图9示出了一个卷积神经网络的结构示意图。
[0252]
该步骤涉及的信道学习模型的配置参数可以是各层的数目,各层的先后顺序,信道学习模型的结构等中的一项或多项。
[0253]
下面将结合附图详细说明本技术实施例提供的通信的方法。
[0254]
应理解,下文仅为便于理解和说明,以第一通信装置与第二通信装置之间的交互为例详细说明本技术实施例提供的方法。但这不应对本技术提供的方法执行主体构成限定。例如,下文实施例示出的第一通信装置可以替换为配置于第一通信装置中的部件(如芯片或芯片系统等)。下文实施例示出的第二通信装置也可以替换为配置于第二通信装置中的部件(如芯片或芯片系统等)。
[0255]
下文示出的实施例并未对本技术实施例提供的方法的执行主体的具体结构特别限定,只要能够通过运行记录有本技术实施例提供的方法的代码的程序,以根据本技术实
施例提供的方法进行通信即可,例如,本技术实施例提供的方法的执行主体可以是第一通信装置或第二通信装置,或者,是第一通信装置或第二通信装置中能够调用程序并执行程序的功能模块。
[0256]
下面结合图10至图17,详细说明本技术实施例提供的通信的方法。
[0257]
需要说明的是,下文实施例中提及的第一通信装置可以是终端设备,也可以是配置于终端设备中的部件(如芯片或芯片系统等)。第二通信装置可以是网络设备,也可以是配置于网络设备中的部件(如芯片或芯片系统等)。
[0258]
或者,第一通信装置可以是网络设备,也可以是配置于网络设备中的部件(如芯片或芯片系统等)。第二通信装置可以是终端设备,也可以是配置于终端设备中的部件(如芯片或芯片系统等)。
[0259]
或者,第一通信装置可以是终端设备,也可以是配置于终端设备中的部件(如芯片或芯片系统等)。第二通信装置可以是终端设备,也可以是配置于终端设备中的部件(如芯片或芯片系统等)。
[0260]
或者,第一通信装置可以是网络设备,也可以是配置于网络设备中的部件(如芯片或芯片系统等)。第二通信装置可以是网络设备,也可以是配置于网络设备中的部件(如芯片或芯片系统等)。
[0261]
还需要说明的是,下文实施例中提及的第一信道学习模型部署在第一通信装置侧,第二信道学习模型部署在第二通信装置侧。下文实施例中提及的信道学习模型在没有明确指明是第一信道学习模型还是第二信道学习模型的情况下,可以是指第一信道学习模型和/或第二信道学习模型。
[0262]
还需要说明的是,本技术中的各个实施例可以相互独立,也可以相互结合,具体的,本技术对此不做限定。
[0263]
还需要说明的是,本技术实施例中提及的信道学习模型训练也可以简称为信道学习训练。其中,信道学习模型训练可以是包括如下至少一项:确定第一信道学习模型,确定第二信道学习模型,确定第一信道信息,确定第二信道信息等。
[0264]
还需要说明的是,针对本技术实施例中的表格,实际应用中可以是采用表格中的一行或者多行,一列或者多列,例如至少一行,至少一列。
[0265]
还需要说明的是,在本技术实施例中,“大于”可以与“大于或等于”替换,“小于”可以与“小于或等于”替换。
[0266]
图10是从设备交互的角度示出的本技术实施例提供的通信的方法200的示意性流程图。图10示出的方法200可以包括s210至s240。下面详细说明方法200中的各个步骤。
[0267]
s210,第一通信装置确定第一信道学习模型是否适用。
[0268]
第一信道学习模型用于基于目标信道信息确定第一信道信息,第一信道信息的数据量小于目标信道信息的数据量,因此也可以说第一信道学习模型用于对目标信道信息进行压缩以获得第一信道信息。
[0269]
可选地,信道信息的数据量可以是指信道信息的维度。
[0270]
例如,假设发送端(例如,可以是第一通信装置或第二通信装置)的天线端口数为a2,接收端(例如,可以是第一通信装置或第二通信装置)的天线端口数为a3,则发送端和接收端间的目标信道信息可以是a2*a3维的矩阵,则目标信道信息的数据量可以用a2*a3表示。
若目标信道信息的矩阵中的元素为复数,且每个元素的实部和虚部分开表示,则目标信道信息的数据量也可以表示为a2*a3*2。
[0271]
例如,若目标信道信息的矩阵经过第一信道学习模型处理得到的第一信道信息的矩阵的维度为b2,则第一信道信息的数据量可以用b2表示。
[0272]
可选地,信道信息的数据量也可以是指信道信息所包含的信息量等。
[0273]
可选的,目标信道信息可以看做第一信道学习模型的输入,第一信道信息可以看做第一信道学习模型的输出。目标信道信息的数据量可以为输入的信息维度,第一信道信息的数据量可以为输出的信息维度。
[0274]
第一信道信息用于通过第二信道学习模型获得第二信道信息,第二信道信息与目标信道信息的数据量相同或相近。可选的,第二信道信息可以用于进行数据传输,例如第二通信装置可以根据第二信道信息确定数据传输的调度信息,或者确定数据传输的预编码等。
[0275]
应理解,第一信道学习模型于第二信道学习模型是对应的,因此,第一通信装置确定第一信道学习模型是否适用可以理解为,第一通信装置确定第一信道学习模型和第二信道学习模型是否适用。即,第一通信装置在确定第一信道学习模型不适用的情况下,可以确定第二信道学习模型也不适用;第一通信装置在确定第一信道学习模型适用的情况下,可以确定第二信道学习模型也适用。
[0276]
本技术实施例对目标信道信息不做限定。例如,在第一通信装置是终端设备的情况下,目标信道信息可以是下行信道信息;又例如,在第一通信装置是网络设备的情况下,目标信道信息可以是上行信道信息。又例如,在第一通信装置是终端设备的情况下,目标信道信息可以是上行信道信息,或者,目标信道信息可以是上行信道信息和下行信道信息,第一通信装置可以基于上下行信道的部分互易性,根据上行信道信息和下行信道信息确定第一信道学习模型和/或第二信道学习模型是否适用,或者确定新的第一信道学习模型和/或第二信道学习模型。又例如,在第一通信装置是网络设备的情况下,目标信道信息可以是下行信道信息,或者,目标信道信息可以是上行信道信息和下行信道信息,第二通信装置可以基于上下行信道的部分互易性,根据上行信道信息和下行信道信息确定第一信道学习模型和/或第二信道学习模型是否适用,或者确定新的第一信道学习模型和/或第二信道学习模型。
[0277]
第一通信装置可以周期性地确定第一信道学习模型是否适用。例如,第一通信装置在第i次确定第一信道学习模型是否适用之后启动定时器,进一步地,在定时器超时的情况下,第一通信装置第i 1次确定第一信道学习模型是否适用。
[0278]
该方式下,可以降低第一通信装置与第二通信装置之间交互信令的开销,并且第一通信装置定时地确定第一信道学习模型是否适用,可以避免第一信道学习模型不适用的情况下导致的通信性能的下降。
[0279]
或者,第一通信装置可以在接收第一指示信息的情况下,确定第一信道学习模型是否适用。在此情况下,在s210之前,方法200还可以包括s230:第二通信装置发送第一指示信息;相应地,在s230中,第一通信装置接收第一指示信息。
[0280]
该方式下,第二通信装置可以通过信令指示第一通信装置确定第一信道学习模型是否适用,以便于第二通信装置在发现第一信道学习模型不适用的情况下,及时通知第一
通信装置进行验证,从而可以降低确定第一信道学习模型是否适用的时延。此外,在第二通信装置及时发现第一信道学习不适用的情况下,可以对第一信道学习模型进行及时更新,避免第一信道学习模型不适用的情况下导致的通信性能的下降。
[0281]
第一指示信息用于指示第一通信装置进行信道学习模型训练,即可以指示第一通信装置确定第一信道学习模型是否适用。
[0282]
可选地,第一指示信息还可以用于指示以下一项或多项:
[0283]
用于传输第一消息的资源、第一消息的内容、发送第一消息的形式、信道学习模型的训练参数。其中,第一消息用于指示第一信道学习模型不适用,训练参数可以包括如下至少一项:信道学习模型训练的时间、信道学习模型训练的参考信号的配置信息。
[0284]
用于传输第一消息的资源可以是物理上行共享信道(physical uplink shared channel,pusch)/物理下行共享信道(physical downlink shared channel,pdsch)上的资源,或者可以是物理上行控制信道(physical uplink control channel,pucch)/物理下行控制信道(physical downlink control channel,pdcch)上的资源,或者可以是其他特定的资源,例如,用于传输第一消息的资源可以是资源1或资源2。
[0285]
第一消息的内容可以包括以下一项或多项:秩(rank)值、信道质量指示(channel quality index,cqi)、第一信道信息、信道学习模型训练的结果(例如,指示第一信道学习模型是否适用,和/或,用于更新第二信道学习模型的一个或多个参数)。
[0286]
第一通信装置向第二通信装置反馈rank值、cqi和第一信道信息的方式可以参考现有技术,为了简洁,本技术实施例不再详述;以及下文会详细说明第一通信装置反馈信道学习模型训练的结果的方式,此处暂不详述。
[0287]
发送第一消息的形式可以包括以下一项或多项:周期性发送、半持续性发送、非周期性发送、差分值反馈、绝对值反馈、相对值反馈。
[0288]
周期性发送:第一通信装置周期性地发送第一消息,例如,以周期t发送第一消息。
[0289]
半持续性发送:第一通信装置在一段时间内持续发送第一消息,例如,第一通信装置在接收到第一指示信息之后的10s内持续发送第一消息。
[0290]
非周期发送:例如,第一通信装置在收到第一指示信息的情况下,发送第一消息。
[0291]
下文会详细说明差分值反馈、绝对值反馈和相对值反馈者三种形式,为了简洁,此处暂不详述。
[0292]
信道学习模型的训练参数:即第一通信装置用于对第一信道学习模型和/或第二信道学习模型进行训练的参数。其中,信道学习模型训练的时间可以是周期性或非周期性。
[0293]
在周期性训练信道学习模型的情况下,第一指示信息指示的信道学习模型训练的时间可以是训练的周期。具体地,可以通过指示子帧数、时隙数或无线帧数来指示信道学习模型训练的周期,例如,第一指示信息指示的子帧数是7,则信道学习模型训练的周期是7个子帧;或者可以通过指示毫秒、秒、分钟或者小时来指示信道学习模型训练的周期,例如,若第一指示信息指示的时间是5秒,则信道学习模型训练的周期是5秒。
[0294]
信道学习模型训练的周期可以是和第一参数相关的。例如,在有些场景下(例如,高速运动),第一通信装置与第二通信装置之间的信道环境变化较快,则可以以较小的周期训练信道学习模型;又例如,在有些场景下(例如,室内场景),第一通信装置与第二通信装置之间的信道环境变化较慢,则可以以较大的周期训练信道学习模型。
arrival spread,aas)、发射离开角(angle of departure,aod)、离开角扩展(angle of departure spread,ads)、空间接收参数(spatial rx parameters)和空间相关性(spatial correlation)。
[0307]
第一通信装置可以根据来自第二通信装置的信号确定目标信道的长期统计特性,并进一步根据目标信道的长期统计特性确定第一信道学习模型是否适用。其中,来自第二通信装置的信号可以是参考信号或数据信号,参考信号可以是解调参考信号(demodulation reference signal,dmrs)、信道状态信息参考信号(channel state information reference signal,csi-rs)、相位跟踪参考信号(phase tracking reference signal,ptrs)、追踪参考信号(tracking reference signal,trs)、同步信号和物理广播信道(physical broadcast channel)pbch块(synchronization signal and pbch channel,ssb)、信道探测参考信号(sounding reference signal,srs)等,数据信号可以是在pdsch、pdcch、pusch或pucch上传输的信号。
[0308]
例如,若第一通信装置为终端设备,第二通信装置为网络设备,则终端设备可以根据网络设备发送的参考信号和/或数据信号确定目标信道的长期统计特性。其中,参考信号可以是csi-rs,dmrs,ptrs,trs,ssb中至少一项,数据信号可以是在pdsch上传输的信号、在pdcch上传输的信号中的至少一项。目标信道可以是指下行信道。
[0309]
可选的,在目标信道的长期统计特性的变化量大于或等于(或者大于)第一预设阈值的情况下,表明第一通信装置和第二通信装置之间的信道特征或信道环境发生了较大的变化,因此第一通信装置可以确定第一信道学习模型不适用;在目标信道的长期统计特性小于(或者小于或等于)第一预设阈值的情况下,表明第一通信装置和第二通信装置之间的信道特征或信道环境比较稳定,因此第一通信装置可以确定第一信道学习模型适用。
[0310]
以目标信道的长期统计特性是rank值为例,第一通信装置在确定rank值变化较大的情况下,可以确定第一信道学习模型不适用。例如,第一通信装置可以在确定rank值的变化量大于或等于预设门限#1(第一预设阈值的一例)的情况下,确定第一信道学习模型不适用。其中,预设门限#1可以为r1,其中r1为正整数。例如r1为2,即当rank值的变化大于或等于2时,第一通信装置可以确定第一信道学习模型不适用。例如,第一通信装置从反射体稀疏的环境运动到反射体丰富的环境,目标信道的径增多,进而rank值会发生变化,在此情况下,第一信道学习模型有可能不再适用。rank值越大,适用的信道学习模型可能越复杂,例如,信道学习模型的层数可能越高。例如当第一通信装置从室内变为室外,信道的统计特性也会发生变化,则第一通信装置可以确定第一信道学习模型有可能不适用。
[0311]
以目标信道的长期统计特性为多普勒频移为例,第一通信装置在确定多普勒频移变化较大的情况下,可以确定第一信道学习模型不适用。多普勒频移可以是指当移动台以恒定的速率沿某一方向移动时,由于传播路程差的原因,会造成相位和频率的变化,通常将这种变化称为多普勒频移。多普勒频移揭示了波的属性在运动中发生变化的规律。例如,第一通信装置可以在多普勒频移的变化量大于或等于预设门限#2(第一预设阈值的一例)的情况下,确定第一信道学习模型不适用。其中,预设门限#2可以为f2,其中f2为实数。例如f2为2,即当多普勒频移的变化量大于或等于2时,第一通信装置可以确定第一信道学习模型不适用。例如,多普勒频移可以反映第一通信装置的移动速度,当第一通信装置从步行变为车载时,第一通信装置的移动速度变大,则第一信道学习模型有可能不再适用。举例来说,
多普勒频移与第一通信装置的运动速度、第一通信装置运动方向以及无线电波入射方向之间的夹角有关。多普勒频移的计算公式可以如下所示:
[0312][0313]
其中,v为运动速度,λ为波长,θ为运动方向与无线电波入射方向之间的夹角。
[0314]
可选地,第一通信装置可以根据自身运动的速度的变化量确定第一信道学习模型是否适用。例如,第一通信装置可以在运动的速度的变化量大于预设门限#3(第一预设阈值的一例)的情况下,确定第一信道学习模型不适用。其中,预设门限#3可以为s3,其中s3为实数,s3的单位可以是m/s,或者km/h,即当第一通信装置的速度的变化量大于或等于s3时,第一通信装置可以确定第一信道学习模型不适用。例如,当第一通信装置从步行变为车载时,速度的变化量较大时,第一信道学习模型有可能不再适用。
[0315]
该实现方式下,第一通信装置可以根据目标信道的长期统计特性确定信道学习模型是否适用,即在不进行信道学习模型训练的情况下,确定第一信道学习模型是否适用,可以降低第一通信装置的处理复杂度,同时也不需要第二通信装置的协助即可确定信道学习模型是否适用,降低信令交互,因此该方式简单快速。
[0316]
在另一种实现方式中,第一通信装置可以根据接收的第一调度信息确定第一信道学习模型是否适用。第一调度信息可以是第二通信装置根据第二信道信息确定的,第二通信装置可以向第一通信装置发送第一调度信息。
[0317]
其中,第一调度信息可以包括如下至少一项:调制和编码方案(modulation and coding scheme,mcs)指示、传输块(transport block size,tbs)指示、rank指示、天线端口指示等。第一调度信息可以是物理层的下行控制信息(downlink control information,dci),也可以是高层信令中的调度信息。具体地,第一调度信息包含的内容和指示方式可以参考现有技术,为了简洁,本技术实施例不再详述。
[0318]
mcs指示可以用于指示数据传输的调制方式(或者调制阶数)和码率。例如mcs指示可以采用如下表格中的指示方式(表1和表2):通过指示如下表格第一列的mcs标识(mcs index)可以确定第二列的调制阶数(modulation order)和目标码率(target code rate)。其中,调制阶数2表示正交相移键控(quadrature phase shift keying,qpsk),调制阶数4表示16正交幅度调制(16qam,quadrature amplitude modulation),调制阶数6表示64qam,调制阶数6表示256qam。或者,mcs指示也可以采用其他的指示方式,具体的,本技术对此不做限定。例如,调制方式指示和码率指示可以分开指示等。
[0319]
表1
[0320][0321]
表2
[0322][0323]
传输块指示可以用于指示数据传输的比特大小。例如在一定时频资源内,传输块的比特大小可以取决于调制方式和码率。例如传输块的比特大小=资源单元数*调制方式*码率*层数。
[0324]
层数指示可以用于指示数据传输的层数或者流数。层数或者流数也可以对应码字
数,例如,若层数或者流数小于或等于4,则对应一个码字的传输,若层数或者流数大于4,则对应两个码字的传输等。
[0325]
天线端口指示可以用于指示数据的dmrs的天线端口。终端设备根据该天线端口指示可以确定天线端口数目。例如天线端口指示可以采用如下表格中的指示方式(表3~表4):通过指示如下表格的第一列的取值(value)可以确定dmrs端口,其中dmrs端口包括dmrs天线端口号。根据dmrs天线端口号的个数可以确定dmrs天线端口数。该dmrs天线端口数可以对应数据的层数(流数)。
[0326]
例如表3中的取值为2时,dmrs端口为0,1,即dmrs天线端口数为2,数据的层数(流数)为2;例如表4中的一个码字情况下取值为10时,dmrs端口为0~3,即dmrs天线端口数为4,数据的层数(流数)为4;例如表4中的两个码字情况下取值为1时,dmrs端口为0,1,2,3,4,6,即dmrs天线端口数为5,数据的层数(流数)为5。
[0327]
表3
[0328][0329]
表4
[0330][0331]
可选的,天线端口指示也可以采用其他的表格中的指示方式,例如3gpp技术规范(technical specification,ts)38.212中的表格7.3.1.2.2-3~表格7.3.1.2.2-4,或者天
线端口指示可以采用其他的表格中的指示方式,本技术对此不做限定。
[0332]
作为一个示例第一通信装置可以根据测得的cqi信息与第一调度信息的差异确定第一信道学习模型是否适用。
[0333]
例如第一通信装置测得的cqi信息可以反映出数据合适的调制方式和/或码率。因此第一通信装置可以根据测得的cqi信息与第一调度信息的差异确定第一信道学习模型是否适用。
[0334]
作为另一个示例,第一通信装置可以根据第一调度信息和第二调度信息确定第一信道学习模型是否适用。第二调度信息是第一通信装置根据目标信道确定的。
[0335]
作为一个示例,第一通信装置可以根据第一调度信息与第二调度信息的差异值是否大于或等于预设差异门限,确定第一信道学习模型是否适用。其中,预设差异门限可以是协议预定义的,也可以是第二通信装置向第一通信装置指示的,也可以是预配置的,本技术实施例对此不做限定。
[0336]
上述数据的调度信息可以反映出信道的质量情况。因此第一通信装置可以根据测得的目标信道(或实际信道)确定数据的合适的调度信息(即第二调度信息)。而第二通信装置可以根据第二信道学习模型以及第一通信装置反馈第一信道信息确定第二信道信息,并且可以根据第二信道信息确定数据的调度信息(即第一调度信息)。当第一通信装置确定的第二调度信息与第二通信装置指示给第一通信装置的第一调度信息之间的差异较大时,则表明第二信道信息和目标信道信息的差异较大,即第一信道学习模型不适用。因此第一通信装置可以根据如下方式中的至少一种确定第一信道学习模型是否适用。
[0337]
例如,第一通信装置在第一调度信息与第二调度信息的差异值大于或等于预设差异门限的情况下,确定第一信道学习模型不适用;第一通信装置在第一调度信息与第二调度信息的差异值小于预设差异门限的情况下,确定第一信道学习模型适用。
[0338]
预设差异门限可以是调制阶数的差异门限、码率的差异门限、mcs索引(index)值的差异门限、rank值的差异门限、tbs的差异门限、天线端口的差异门限中的至少一种。
[0339]
以预设差异门限是调制阶数的差异门限为例,调制阶数的差异门限可以为n3阶,n3为实数,例如n3为1,2,3,4,1/2,3/2,5/2等。
[0340]
例如,在第一通信装置确定的调制方式的阶数与第一调度信息指示的调制方式的阶数的差异值大于或等于(大于)调制阶数的差异门限的情况下,第一通信装置确定第一信道学习模型不适用。
[0341]
又例如,在第一通信装置确定的调制方式的阶数与第一调度信息指示的调制方式的阶数的差异值小于(小于或等于)调制阶数的差异门限的情况下,第一通信装置确定第一信道学习模型适用。
[0342]
例如,若调制阶数的差异门限为2阶,第一通信装置确定的适用于数据传输的调制方式为正交相移键控(quadrature phase shift keying,qpsk)(阶数为2),第一调度信息指示的调制方式为64相正交振幅调制(quadrature amplitude modulation,qam)(阶数为4),则第一通信装置确定第一信道学习模型不适用。
[0343]
例如,若调制阶数的差异门限为4阶,第一通信装置确定的适用于数据传输的调制方式为64qam(阶数为4),第一调度信息指示的调制方式为qpsk(阶数为2),则第一通信装置确定第一信道学习模型适用。
为整数,例如p1为1,2,3,4,5,6,8,10等。
[0357]
例如,在第一通信装置确定的mcs index与第一调度信息指示的mcs index的差异值大于或等于(大于)mcs index的差异门限的情况下,第一通信装置确定第一信道学习模型不适用。
[0358]
又例如,在第一通信装置确定的mcs index与第一调度信息指示的mcs index的差异值小于(小于或等于)mcs index的差异门限的情况下,第一通信装置确定第一信道学习模型适用。例如,若mcs索引值的差异门限为4,第一通信装置确定的适用于数据传输的mcs索引值为4,而第一调度信息中指示的mcs索引值为10,则第一通信装置可以确定第一信道学习模型不适用。
[0359]
例如,第一通信装置可以在确定的mcs index低于第一调度信息指示的mcs index的差异值大于或等于mcs index的差异门限的情况下,确定第一信道学习模型不适用。
[0360]
也就是说,第一通信装置在确定的mcs index与第一调度信息指示的mcs index的差异值大于或等于(大于)mcs index的差异门限,且确的mcs index的取值低于第一调度信息指示的mcs index的取值的情况下,第一通信装置确定第一信道学习模型不适用。
[0361]
又例如,第一通信装置可以在确定的mcs index高于或等于第一调度信息指示的mcs index的情况下,确定第一信道学习模型适用。
[0362]
例如若当mcs index的差异门限为4,第一通信装置确定的适用于数据传输的mcs index为4,而第一通信装置接收到的第一调度信息中指示的mcs index为10,则第一通信装置可以确定信道学习模型不适用。在此情况下,第二通信装置基于第二信道信息向第一通信装置传输的数据的mcs index较高,第一通信装置可能不能正确接收该数据。
[0363]
以预设差异门限是tbs的差异门限为例,tbs的差异门限可以是q,q为整数,例如q为32,64,128,256,612,1024等。
[0364]
例如,在第一通信装置确定的tbs与第一调度信息指示的tbs的差异值大于或等于(大于)tbs的差异门限的情况下,第一通信装置确定第一信道学习模型不适用。又例如,在第一通信装置确定的tbs与第一调度信息指示的tbs的差异值小于(小于或等于)tbs的差异门限的情况下,第一通信装置确定第一信道学习模型适用。
[0365]
例如,若tbs的差异门限为64,第一通信装置确定的适用于数据传输的tbs为288,而第一调度信息中指示的tbs为522,则第一通信装置可以确定第一信道学习模型不适用。
[0366]
例如,第一通信装置可以在确定的tbs低于第一调度信息指示的tbs的差异值大于或等于tbs的差异门限的情况下,确定第一信道学习模型不适用。
[0367]
也就是说,第一通信装置在确定的tbs与第一调度信息指示的tbs的差异值大于或等于(大于)tbs的差异门限,且确定的tbs低于第一调度信息指示的tbs的情况下,第一通信装置确定第一信道学习模型不适用。
[0368]
又例如,第一通信装置可以在确定的tbs高于或等于第一调度信息指示的tbs的情况下,确定第一信道学习模型适用。
[0369]
例如,若tbs的差异门限为64,第一通信装置确定的适用于数据传输的tbs为288,而第一通信装置接收到的第一调度信息中指示的tbs为522,则第一通信装置可以确定第一信道学习模型不适用。在此情况下,第二通信装置基于根据该第一信道学习模型确定的第二信道信息向第一通信装置传输的数据的tbs过大,第一通信装置不能正确接收该数据。
[0370]
应理解,上文仅以第一通信装置根据第一调度信息与第二调度信息中的其中一项的差异值确定第一信道学习模型是否适用为例进行说明,可选地,第一通信装置还可以根据第一调度信息与第二调度信息中的多项的差异值确定第一信道学习模型是否适用。例如,第一通信装置可以在确定的码率与第一调度信息指示的码率的差异值大于或等于码率的差异门限,且确定的tbs与第一调度信息指示的tbs的差异值大于或等于tbs差异门限的情况下,确定第一信道学习模型不适用。
[0371]
还应理解,上文仅以第一通信装置根据第一调度信息和第二调度信息的差异值是否大于或等于预设差异门限确定第一信道学习模型是否适用为例进行说明。可选地,第一通信装置可以根据第一调度信息和第二调度信息的相似性是否小于预设相似门限确定第一信道学习模型是否适用。其中,预设相似门限值可以是协议预定义的,也可以是第二通信装置向第一通信装置指示的,也可以是预配置的,本技术实施例对此不做限定。
[0372]
作为一个示例,第一通信装置可以根据第一调度信息、第二调度信息和第一映射关系确定第一信道学习模型是否适用,第一映射关系用于指示调度信息与信道学习模型是否适用的对应关系。
[0373]
表5中示出了第一映射关系的一例。例如第一映射关系可以是下表中的一行或者多行,第一映射关系可以是协议预定义的,也可以是第二通信装置通过信令告知第一通信装置的,具体的,本技术实施例对此不做限定。
[0374]
表5
[0375][0376]
例如,若第一通信装置确定的调制方式为qpsk,第一调度信息指示的调度方式为qpsk,则第一通信装置根据表5确定第一信道学习模型适用;又例如,若第一通信装置确定的码率为2/3,第一调度信息指示的码率为3/4,则第一通信装置根据表5可以确定第一信道学习模型不适用。
[0377]
该实现方式下,第一通信装置可以根据第二通信装置发送的第一调度信息确定信道学习模型是否适用,即在不进行信道学习模型训练的情况下,确定第一信道学习模型是否适用,可以降低第一通信装置的处理复杂度。同时根据第一通信装置和第二通信装置确
定的调度信息确定第一信道学习模型是否适用,也可以保证基于第一信道学习模型下的通信性能。在第一通信装置和第二通信装置有统一的理解和认识的情况下,确定信道学习模型是否适用的方式比较简单快速。
[0378]
在又一种实现方式中,第一通信装置可以根据数据传输性能确定第一信道学习模型是否适用。
[0379]
因为数据传输性能和第二信道信息是相关的。因此数据传输的性能可以反映第二信道信息与目标信道信息的相似程度,进而可以反映出第一信道学习模型和/或第二信道学习模型的性能,即第一信道学习模型和/或第二信道学习模型是否适用。
[0380]
其中数据传输性能可以包括第一数据的传输性能和/或第二数据的传输性能。例如,第一数据是第一通信装置根据目标信道信息发送的,第二数据是第二通信装置根据第二信道信息发送的。例如,在第一通信装置是终端设备,第二通信装置是网络设备的情况下,第一数据可以是上行数据,第二数据可以是下行数据。
[0381]
第一通信装置可以根据数据传输的正确与否的性能,或者数据传输的确认(acknowledgement,ack)/否定性确认(negative acknowledgement,nack,)性能确定第一信道学习模型是否适用。
[0382]
其中,数据传输的正确与否的性能可以通过一段时间内的数据传输的正确率来衡量。数据传输的ack/nack的性能可以通过一段时间内接收或发送的ack/nack的比例来衡量。
[0383]
具体的,一段时间的时间长度的单位可以是毫秒(ms),秒(s),分钟(min),小时(h),天,月等。一段时间的时间长度的单位还可以是时隙(slot),子帧(subframe),无线帧(frame),传输时间间隔(transmission time interval,tti)等。一段时间可以是指t个时间长度的单位,t可以是实数。例如,一段时间可以是指10ms,20ms,0.5s,1s,10s等时间长度,也可以是指10个时隙,20个子帧,10个无线帧等。
[0384]
作为一个示例,第一通信装置可以根据一段时间内数据传输的正确率,或者接收或发送的ack的比例与预设门限#4的关系确定第一信道学习模型是否适用。其中,预设门限#4可以是协议预定义的,也可以是第二通信装置向第一通信装置指示的,也可以是预配置的,本技术实施例对此不做限定。
[0385]
例如,第一通信装置确定在一段时间内数据传输的正确率,或者接收或发送ack的比例小于(或者小于或等于)预设门限#4的情况下,确定第一信道学习模型不适用。又例如,第一通信装置确定在一段时间内数据传输的正确率,或者接收或发送ack的比例大于或等于(或大于)预设门限#4的情况下,确定第一信道学习模型适用。
[0386]
例如,若一段时间为10s,预设门限#4为90%,则第一通信装置确定在10s内的数据传输的正确率,或者接收或发送ack的比例小于90%的情况下,确定第一信道学习模型不适用。
[0387]
作为另一个示例,第一通信装置根据一段时间内数据传输的失败次数,或者接收或发送nack的个数与预设门限#5的关系确定第一信道学习模型是否适用。其中,预设门限#5可以是协议预定义的,也可以是第二通信装置向第一通信装置指示的,也可以是预配置的,本技术实施例对此不做限定。
[0388]
例如,第一通信装置确定在一段时间内数据传输的失败次数,或者接收或发送
nack的个数大于(或者大于或等于)预设门限#5的情况下,确定第一信道学习模型不适用。又例如,第一通信装置确定在一段时间内数据传输的失败次数,或者接收或发送nack的个数小于或等于(或小于)预设门限#5的情况下,确定第一信道学习模型适用。
[0389]
例如,若一段时间为10s,预设门限#5为5次,则第一通信装置确定在10s内的数据传输的失败次数,或者接收或发送nack的个数大于5的情况下,确定第一信道学习模型不适用。
[0390]
可选地,数据传输的性能也可以是指吞吐量,吞吐率,频谱效率等性能中的至少一项。例如,第一通信装置可以在数据传输的性能小于(或者,小于或等于)预设门限#6的情况下,确定第一信道学习模型不适用。其中,预设门限#6可以是协议预定义的,也可以是第二通信装置向第一通信装置指示的,也可以是预配置的,本技术实施例对此不做限定。
[0391]
该实现方式下,第一通信装置可以根据数据传输性能确定第一信道学习模型是否适用,即可以在不进行信道学习模型训练的情况下,确定第一信道学习模型是否适用,可以降低第一通信装置的处理复杂度。同时根据数据传输性能确定第一信道学习模型是否适用的方式是以最终的通信性能来衡量第一信道学习模型的准确性,因此也可以保证基于该第一信道学习模型下的通信性能,即,该方式有助于提高通信性能。
[0392]
在又一种实现方式中,在第一通信装置是终端设备的情况下,第一通信装置可以根据所处的场景是否发生变化确定第一信道学习模型是否适用。其中,场景可以是以下至少一种:室内静止、室外静止、低速运动、高速运动、郊区、城镇、宏站、微站、车载场景、v2x场景、3gpp协议定义的场景等。
[0393]
不同的场景可以对应不同的信道环境,进而导致第一信道学习模型不适用。例如有些场景下,第一通信装置和第二通信装置的信道为直射径;而有些场景下,第一通信装置和第二通信装置的信道为非直射径。又例如,有些场景下,第一通信装置与第二通信装置之间的反射体比较少,相对应地,第一通信装置与第二通信装置之间的信道简单;而有些场景下,第一通信装置与第二通信装置之间的反射体比较多,相对应地,第一通信装置与第二通信装置之间的信道复杂。
[0394]
因此,在第一通信装置所处的场景发生变化的情况下,第一信道学习模型可能不适用。例如,若第一通信装置从室内运动到室外,则第一通信装置可以确定第一信道学习模型不适用;又例如,第一通信装置从宏站运动到微站,则第一通信装置可以确定第一信道学习模型不适用。
[0395]
该实现方式下,第一通信装置可以根据所处的场景确定第一信道学习模型是否适用,即在不进行信道学习模型训练的情况下,确定第一信道学习模型是否适用,可以降低第一通信装置的处理复杂度。同时根据所处的场景的确定第一信道学习模型是否适用的方式也可以不依于第二通信装置的辅助,第一通信装置即可单独确定第一信道学习模型是否适用,因此该方式简单快捷。
[0396]
可选地,在第一通信装置是网络设备,第二通信装置是终端设备的情况下,第一通信装置可以根据第二通信装置所处的的场景是否发生变化确定第一信道学习模型是否适用。可选地,在此情况下,第一通信装置还可以接收第二通信装置发送的场景信息。
[0397]
在又一种实现方式中,第一通信装置可以根据第一信道学习模型的性能指标确定第一信道学习模型是否适用。
[0398]
第一通信装置可以根据目标信道信息与第一信道信息的差异性或者相似性确定第一信道学习模型是否适用。例如,第一通信装置可以根据第一信道学习模型对目标信道信息进行压缩得到第一信道信息。通过比较目标信道信息和第一信道信息的特征,进而确定第一信道学习模型的误差,从而确定第一信道学习模型是否适用。
[0399]
例如,第一通信装置可以根据第一信道学习模型的性能指标是否小于第二预设阈值确定第一信道学习模型是否适用。其中,第二预设阈值可以是协议预定义的,也可以是第二通信装置向第一通信装置指示的,也可以是预配置的,本技术实施例对此不做限定。
[0400]
作为一个示例,第一信道学习模型的性能指标是连续性(continuity,ct)。ct的值用于衡量高维数据点映射到低维数据点的空间中是否可以保持相对距离关系。
[0401]
假设,目标信道信息中的数据点ui的k1个最邻近点集合为目标信道信息中的数据点ui映射到第一信道信息中的数据点vi,vi的k1个最邻近点集合为则ct表征的是u
i,k
的映射点v
i,k
在中的排序是否与u
i,k
在中的排序相同。ct可以用公式(1)表示:
[0402][0403]
其中,k表示数据点u
i,k
在对于ui的集合为中的排序为k,表示ui的k1个最邻近点集合在映射空间中的数据点集合(但是该集合中的点并不一定是在ui对应的vi在映射空间中的k1个最邻近点集合中),表示数据点u
i,k
的映射点v
i,k
在对于vi的集合中的排序,l为数据点的个数。
[0404]
ct的取值范围为0~1,如果ct的值比较小,则表明在目标信道信息(高维数据点)中的邻近点映射到第一信道信息(低维数据点)中是不邻近的。也可以说,在此情况下,根据第一信道学习模型确定的第一信道信息并没有保留目标信道信息的有效特征,因此第一信道学习模型的性能不好,即第一信道学习模型不适用。如果ct的值比较大(接近1),则表明目标信道信息中的数据点映射到第一信道信息之后,邻近的特征被保持。也可以说,在此情况下根据第一信道学习模型确定的第一信道信息保留了目标信道信息的有效特征,因此第一信道学习模型的性能较好,即第一信道学习模型适用。
[0405]
因此,第一通信装置可以在确定ct的值大于或等于预设门限#7的情况下,确定第一信道学习模型适用;在确定ct的值小于预设门限#7的情况下,确定第一信道学习模型不适用。
[0406]
作为另一个示例,第一信道学习模型的性能指标是真实性(trustworthiness,tw)。tw的值用于衡量高维数据点的空间中的邻近点映射到低维数据点的空间中是否还是邻近点。
[0407]
假设,目标信道信息中的数据点ui的k1个最邻近点集合为目标信道信息中的数据点ui映射到第一信道信息中的数据点vi,vi的k1个最邻近点集合为则tw表征的是ui的集合中的u
i,k
的映射点v
i,k
是否还在vi的集合中。tw可以用公式(2)表示:
[0408][0409]
其中,k表示数据点u
i,k
的映射点v
i,k
在对于vi的集合中的排序为k,表示错误邻近点,即这些点在vi的集合中,但是不在ui的集合中,r(i,k)表示映射点v
i,k
对应的数据点u
i,k
在对于ui的集合中的排序,l为数据点的个数。
[0410]
tw的取值范围为0~1,如果tw的值比较小,则表明在第一信道信息(低维数据点)中的邻近点在目标信道信息(高维数据点)中是不邻近的。也可以说,在此情况下,根据第一信道学习模型确定的第一信道信息并没有保留目标信道信息的有效特征,因此第一信道学习模型的性能不好,即第一信道学习模型不适用。如果tw的值比较大(接近1),则表明第一信道信息中的数据点在目标信道信息中是邻近的。也可以说,在此情况下根据第一信道学习模型确定的第一信道信息保留了目标信道信息的有效特征,因此第一信道学习模型的性能较好,即第一信道学习模型适用。
[0411]
因此,第一通信装置可以在确定tw的值大于或等于预设门限#8的情况下,确定第一信道学习模型适用;在确定tw的值小于预设门限#8的情况下,确定第一信道学习模型不适用。
[0412]
该实现方式下,第一通信装置可以根据第一信道学习模型的性能指标确定第一信道学习模型是否适用,即通过进行信道学习模型训练确定第一信道学习模型是否适用。该方式可以不依赖于第二通信装置的辅助,第一通信装置即可确定信道学习模型是否适用,因此该方式简单快捷。
[0413]
又例如,第一通信装置可以根据目标信道信息与第二信道信息的误差确定第一信道学习模型是否适用。
[0414]
具体地,第一通信装置根据第一信道学习模型和目标信道信息确定第一信道信息之后,根据第一信道信息和第二信道学习模型确定第二信道信息,进一步地,根据目标信道信息和第二信道信息的误差确定第一信道学习模型是否适用。
[0415]
应理解,在此情况下,第一通信装置侧既部署了第一信道学习模型,也部署了第二信道学习模型。例如,第一通信装置可以预先确定第一信道学习模型的配置参数和第二信道学习模型的配置参数;进一步地,确定第一信道学习模型和第二信道学习模型。又例如,第二通信装置可以预先确定第一信道学习模型的配置参数和第二信道学习模型的配置参数;进一步地,将第一信道学习模型的配置参数和第二信道学习模型的配置参数发送至第一通信装置;相应地,第一通信装置根据第一信道学习模型的配置参数和第二信道学习模型的配置参数确定第一信道学习模型和第二信道学习模型。
[0416]
可选的,在该实现方式中,第一通信装置确定第一信道学习模型是否适用的方案也可以应用在第一通信装置确定第一信道学习模型和第二信道学习模型是否适用,或者,也可以应用在第一通信装置确定第二信道学习模型是否适用。具体的,本技术对此不做限定。
[0417]
第一通信装置可以在目标信道信息与第二信道信息的误差大于或等于预设门限#9的情况下,确定第一信道学习模型不适用;在目标信道信息与第二信道信息的误差小于预设门限#9的情况下,确定第一信道学习模型适用。
[0418]
本技术实施例对目标信道信息与第二信道信息的误差的计算方式不做限定。
[0419]
作为一个示例,第一通信装置可以根据目标信道信息与第二信道信息之间的均方误差(mean square error,mse)确定第一信道学习模型是否适用。
[0420]
假设第t次信道测量中得到的第a2个发送端口与第a3个接收端口之间的信道数据表示为(目标信道信息的一例),第一通信装置根据第二信道学习模型恢复的信道数据表示为(第二信道信息的一例),则目标信道信息与第二信道信息之间的误差可以表示为:
[0421][0422]
其中,a2表示发送端口数,0≤a2≤a
2-1;a3表示接收端口数,0≤a3≤a
3-1;t表示信道测量次数,即训练样本数,0≤t≤t-1。
[0423]
可选地,目标信道信息与第二信道信息之间的mse还可以用以下公式计算:
[0424][0425][0426][0427]
其中,(目标信道信息的一例)表示归一化后的数据,例如为除以矩阵h
t
的模(或者范数),其中h
t
表示由(a2=1,2,

,a
2-1;a3=1,2,

,a
3-1)组成的矩阵,(目标信道信息的一例)表示由(a2=1,2,

,a
2-1;a3=1,2,

,a
3-1)组成的信道矩阵;(第二信道信息的一例)表示归一化后的数据,例如为除以矩阵的模(或者范数),其中表示由(a2=1,2,

,a
2-1;a3=1,2,

,a
3-1)组成的矩阵,(第二信道信息的一例)表示由(a2=1,2,

,a
2-1;a3=1,2,

,a
3-1)组成的信道矩阵;“||||”表示范数,“||||
2”表示范数的平方。
[0428]
作为另一个示例,第一通信装置可以根据目标信道信息与第二信道信息之间的归一化均方误差(normalized mean square error,nmse)确定第一信道学习模型是否适用。
[0429]
目标信道信息与第二信道信息之间的nmse可以用以下公式计算:
[0430]
[0431][0432][0433]
其中,“||||
f”表示f范数。
[0434]
作为另一个示例,第一通信装置可以根据目标信道信息与第二信道信息的归一化平均相关误差(normalized mean correlation error,nmce)确定第一信道学习模型是否适用。
[0435]
目标信道信息与第二信道信息之间的nmce可以用以下公式计算:
[0436][0437]
其中,h(目标信道信息的一例)表示由(a2=1,2,

,a
2-1;a3=1,2,

,a
3-1)组成的信道矩阵,表示第a2个发送端口与第a3个接收端口之间的信道数据;(第二信道信息的一例)表示由(a2=1,2,

,a
2-1;a3=1,2,

,a
3-1)组成的信道矩阵,表示第一通信装置根据第二信道学习模型恢复的信道数据。
[0438]
另外,参考现有技术的类型(type)i和type ii码本的构造思路(例如lte协议的36.系列协议或者nr协议的38.系列协议),可以发现如果将真实下行信道的相关矩阵hhh的主次特征向量(或者h的右奇异向量)作为下行信道的估计值,就可以达到非常好的性能。换言之,信道学习模型的核心点在于对下行信道相关矩阵的特征向量的刻画,基于此提出以下两种损失函数的形式,该损失函数可以作为衡量第一信道学习模型的指标。
[0439]
作为一个示例,第一通信装置可以根据目标信道信息与第二信道信息之间的归一化平均相关奇异值误差(normalized mean correlation singular error,nmcse)确定第一信道学习模型是否适用。
[0440]
对h(目标信道信息的一例)进行奇异值分解(singular value decomposition,svd)可以得到h=udvh,其中d为h的奇异值矩阵,u和v为正交矩阵,则可得hhh=vdhdvh,进一步地,nmsce可以用以下公式表示:
[0441][0442]
更为直接的是以目标信道的主次特征向量作为标签(记为h
eig
);此时可以采用如下的损失函数形式:
[0443][0444][0445]
可选的,第一通信装置可以根据信道学习模型的上述衡量指标中一项或多项与误差门限的对应关系确定第一信道学习模型是否适用。例如,当衡量指标的性能大于或等于某一门限时,第一通信装置确定第一信道学习模型不适用;或者,当衡量指标的性能小于某一门限时,第一通信装置确定第一信道学习模型适用。
[0446]
该实现方式下,第一通信装置可以根据目标信道信息与第二信道信息的误差确定第一信道学习模型是否适用,即通过进行信道学习模型训练确定第一信道学习模型是否适用,该方式可以不依赖于第二通信装置的辅助,第一通信装置即可确定信道学习模型是否适用,因此该方式简单快捷。在同时考虑目标信道信息和第二信道信息的特征的情况下确定第一信道学习模型是否适用,可以保证第一通信装置和第二通信装置获得相同或相近的信道信息的特征,有助于后续利用该信道信息进行数据传输时提高数据传输的性能。
[0447]
s220,第一通信装置发送第一消息,第一消息用于指示第一信道学习模型是否适用。相应地,在s220中,第二通信装置接收第一消息,并根据第一消息确定第一信道学习模型是否适用。
[0448]
其中,第一通信装置在确定所述第一信道学习模型不适用的情况下,第一通信装置发送第一消息,第一消息用于指示所述第一信道学习模型不适用。
[0449]
相应地,第二通信装置接收第一消息,第一消息用于指示所述第一信道学习模型不适用时,第二通信装置可以根据所述第一消息确定第一信道学习模型不适用。
[0450]
可以理解,第一信道学习模型与第二信道学习模型是对应的,第二通信装置根据第一消息确定第一信道学习模型不适用,即也可以确定第二信道学习模型不适用。
[0451]
可选地,第一通信装置可以在确定第一信道学习模型不适用的情况下,发送第一消息。
[0452]
本技术实施例对第一消息指示第一信道学习模型不适用的方式不做限定。
[0453]
作为一个示例,第一消息可以是布尔型(bool)变量。例如,第一消息是0,则表示第一信道学习模型不适用;第一消息是1,则表示第一信道学习模型适用。又例如,第一消息是0,则表示第一信道学习模型适用;第一消息是1,则表示第一信道学习模型不适用。相应地,第二通信装置根据第一消息的值可以确定第一信道学习模型是否适用。
[0454]
作为另一个示例,第一消息可以是信道学习反馈信令,第一消息中可以包括信道信息。第一通信装置向第二通信装置发送第一消息,相应地,第二通信装置可以根据第一消息中的信道信息确定第一信道学习模型是否适用。可选的,信道信息可以包括如下至少一项:rank值、cqi值,cri值。
[0455]
例如,第一消息中可以包括rank值,在rank值为0的情况下,表示第一信道学习模型不适用。相应地,第二通信装置根据第一消息中的rank值可以确定第一信道学习模型是
否适用。
[0456]
目前,第一通信装置反馈的rank值可以是从1~r,r为正整数,例如,r=8。rank的域的比特数可以根据第一通信装置最大支持的层数,以及天线端口数确定。例如,rank的域的比特数为log2(min(层数,天线端口数))向上取整。例如为log2(r)向上取整。例如,第一通信装置最大支持4层,则rank取值可以为1~4,则可以用2个比特指示rank值。又例如,天线端口数为8,第一通信装置最大支持4层,则rank取值可以为1~4,则可以用2个比特指示rank值。
[0457]
在本技术实施例中,由于rank值可以为0~r,与现有的rank值相比,多了rank值为0的情况,按照现有的计算rank的域的比特数的方法计算出来的比特数不足以指示不同的rank值。在此情况下,rank的域的比特数可以为log2(min(层数,天线端口数) 1)向上取整,例如为log2(r 1)向上取整。例如,第一通信装置最大支持4层,则rank取值可以为0~4,则可以用3个比特指示rank值。例如,用“000”指示rank值为0,“001指示”rank值为1,“010”指示rank值为2,“100”指示rank值为3,“101”指示rank值为4。其中,rank值为0表示第一信道学习模型不适用。
[0458]
又例如,,第一消息中可以包括信道质量指示(channel quality index,cqi)值,在cqi值为0的情况下,表示第一信道学习模型不适用。相应地,第二通信装置根据第一消息中的cqi值可以确定第一信道学习模型是否适用。
[0459]
再例如,第一消息中可以包括信道状态信息参考信号资源(channel state information reference signal resource index,cri)值,在cri值为0的情况下,表示第一信道学习模型不适用。相应地,第二通信装置根据第一消息中的cri值可以确定第一信道学习模型是否适用。
[0460]
目前,第一通信装置反馈的cri值对应用于发送参考信号的资源的个数,例如,发送参考信号的资源的个数为c,为c正整数,则cri值可以是从1~c。cqi的域的比特数可以根据配置的参考信号的资源个数确定。例如,cri的域的比特数为log2(c)向上取整。例如,配置的参考信号的资源个数为2,则cri取值可以为1~2,则可以用1个比特指示cri值。
[0461]
在本技术实施例中,由于cri值可以为0~c,与现有的cri值相比,多了cri值为0的情况,按照现有的计算cri的域的比特数的方法计算出来的比特数不足以指示不同的cri值。在此情况下,cri的域的比特数可以为log2(c 1)向上取整。例如,配置的参考信号资源的个数为2,则cri取值可以为0~2,则可以用2个比特指示cri值。例如,用“00”指示cri值为0,“01”指示cri值为1,“10”指示cri值为2。其中,cri值为0表示第一信道学习模型不适用。
[0462]
作为又一个示例,第一消息中可以包括目标信道的长期统计特性的变化量。在第一消息指示的变化量大于或等于第一预设阈值的情况下,则表示第一信道学习模型不适用。
[0463]
可选地,第一通信装置可以以差分上报的形式上报目标信道的长期统计特性的变化量。例如,第一通信装置可以在第一消息中上报差分上报表中的差分值;相对应地,第二通信装置可以根据差分值和差分上报表确定上报的变化量与参考变量之间的偏移值,进一步地,第二通信装置可以根据偏移值和参考变量确定上报的变化量;再进一步地,第二通信装置可以在确定变化量大于或等于第一预设阈值的情况下确定第一信道学习模型不适用。表6示出了差分上报表的一例。例如差分值可以是下表中的一行或者多行,下表中的对应关
系可以是协议预定义的,也可以是第二通信装置通过信令告知第一通信装置的,具体的,本技术实施例对此不做限定。
[0464]
表6
[0465]
差分值(differential value)偏移值(offset level)00112≥23≤-1
[0466]
可选地,第一通信装置可以以在第一消息中上报目标信道的长期统计特性的变化量的绝对值;相对应地,第二通信装置可以根据上报的绝对值确定上报的变化量;再进一步地,第二通信装置可以在确定变化量大于或等于第一预设阈值的情况下确定第一信道学习模型不适用。
[0467]
可选地,第一通信装置可以以相对值上报的形式上报目标信道的长期统计特性的变化量。例如,第一通信装置可以在第一消息中上报相对值上报表中的相对值;相对应地,第二通信装置可以根据相对值和相对值上报表确定上报的变化量与参考变量之间的偏移量,进一步地,第二通信装置可以根据偏移量和参考变量确定上报的变化量;再进一步地,第二通信装置可以在确定变化量大于或等于第一预设阈值的情况下确定第一信道学习模型不适用。表7示出了相对值上报表的一例。例如相对值可以是下表中的一行或者多行,下表中的对应关系可以是协议预定义的,也可以是第二通信装置通过信令告知第一通信装置的,具体的,本技术实施例对此不做限定。
[0468]
表7
[0469]
相对值offset level0111/221/432
[0470]
作为又一个示例,第一通信装置通过在特定的资源上发送第一消息,以指示第一信道学习模型不适用。相应地,第二通信装置可以根据接收第一消息的资源确定第一信道学习模型是否适用。
[0471]
例如,第一通信装置在物理上行共享信道(physical uplink shared channel,pusch)/物理下行共享信道(physical downlink shared channel,pdsch)上发送第一消息,则表示第一信道学习模型不适用;第一通信装置在物理上行控制信道(physical uplink control channel,pucch)/物理下行共享信道(physical downlink control channel,pdcch)上发送第一消息,则表示第一信道学习模型适用。又例如,第一通信装置在pusch/pdsch上发送第一消息,则表示第一信道学习模型适用;第一通信装置在pucch/pdcch上发送第一消息,则表示第一信道学习模型不适用。
[0472]
又例如,第一通信装置在资源1上发送第一消息,则表示第一信道学习模型适用;第一通信装置在资源2上发送第一消息,则表示第一信道学习模型不适用。
[0473]
又例如,第一通信装置发送第一消息占用的资源大小为x个资源单元,则表示第一
信道学习模型适用;第一通信装置发送第一消息占用的资源大小为y个资源单元,则表示第一信道学习模型不适用。其中资源单元可以是指资源粒子(resource element,re),符号(symbol),或者资源块(resource block,rb)。其中,x为正整数,或者,x也可以是指一定范围,例如x为x1~x2,或者,大于x1,或者,小于x2等,x1,x2为正整数。y为正整数,或者,y也可以是指一定范围,例如y为y1~y2,或者,大于y1,或者,小于y2等,y1,y2为正整数。
[0474]
表8示出了发送第一消息使用的不同资源与第一信道学习模型是否适用的对应关系的示例。例如对应关系可以是下表中的一行或者多行,下表中的对应关系可以是协议预定义的,也可以是第二通信装置通过信令告知第一通信装置的,具体的,本技术实施例对此不做限定。
[0475]
表8
[0476][0477]
作为又一个示例,第一通信装置通过第一消息的比特数指示第一信道学习模型不适用。对应的,第二通信装置可以根据第一消息的比特数确定第一信道学习模型是否适用。
[0478]
例如,第一通信装置发送的第一消息的比特数为z,则表示第一信道学习模型不适用;第一通信装置发送的第一消息的比特数为w3,则表示第一信道学习模型适用。其中,z为正整数,或者,z也可以是指一定范围,例如z为z1~z2,或者,z大于z1,或者,z小于z2等,z1,z2为正整数。w3为正整数,或者,w也可以是指一定范围,例如w为w3,或者,w大于w
3,1
,或者,w小于w
3,2
等,w
3,1
,w
3,2
为正整数。
[0479]
例如,第一通信装置发送的第一消息的比特数为20比特(bits),则表示第一信道学习模型不适用;第一通信装置发送的第一消息的比特数为10bits,则表示第一信道学习模型适用。
[0480]
又例如,第一通信装置发送的第一消息的比特数大于10bits,则表示第一信道学习模型不适用;第一通信装置发送的第一消息的比特数小于10bits,则表示第一信道学习模型适用。
[0481]
表9示出了第一消息的比特数与第一信道学习模型是否适用的对应关系的示例。例如对应关系可以是下表中的一行或者多行,下表中的对应关系可以是协议预定义的,也可以是第二通信装置通过信令告知第一通信装置的,具体的,本技术对此不做限定。
[0482]
表9
[0483][0484]
其中,w’,w”,w
”’
的定义与w3类似,z’,z”,z
”’
的定义与z类似,为了简洁,本技术实施例不再赘述。
[0485]
可选地,第一通信装置还可以根据第一消息的比特数确定发送第一消息的资源。对应的,第二通信装置可以根据第一消息的比特数确定第一消息的资源。
[0486]
例如,第一消息的比特数为z,则第一通信装置确定发送第一消息占用的资源标识为资源1;又例如,第一消息的比特数为w3,则第一通信装置确定发送第一消息占用的资源标识为资源1。
[0487]
例如,第一消息的比特数为20bits,则第一通信装置确定发送第一消息占用的资源标识为资源1;第一消息的比特数为10bits,则第一通信装置确定发送第一消息占用的资源标识为资源2。
[0488]
又例如,第一消息的比特数为大于10bits,则第一通信装置确定发送第一消息占用的资源标识为为资源1;第一消息的比特数为小于10bits,则第一通信装置确定发送第一消息占用的资源标识为资源2。
[0489]
又例如,第一消息的比特数为z,则第一通信装置确定发送第一消息占用的资源大小为x个资源单元;第一消息的比特数为w3,则第一通信装置确定发送第一消息占用的资源大小为y个资源单元。
[0490]
表10示出了第一消息的比特数与发送第一消息的资源的对应关系的示例。例如对应关系可以是下表中的一行或者多行,下表中的对应关系可以是协议预定义的,也可以是第二通信装置通过信令告知第一通信装置的,具体的,本技术对此不做限定。
[0491]
表10
[0492][0493]
作为又一个示例,第一通信装置通过第一消息的内容指示第一信道学习模型不适
用。对应的,第二通信装置可以根据第一消息的内容确定第一信道学习模型是否适用。
[0494]
表11示出了第一消息的内容与第一信道学习模型是否适用的对应关系的示例。例如对应关系可以是下表中的一行或者多行,下表中的对应关系可以是协议预定义的,也可以是第二通信装置通过信令告知第一通信装置的,具体的,本技术对此不做限定。
[0495]
表11
[0496][0497]
如表11所示,若第一消息中包括rank值、cqi和第一信道信息,则表示第一信道学习模型适用,若第一消息中包括rank值和cqi,则表示第一信道学习模型不适用;若第一消息中包括cqi和第一信道信息,则表示第一信道学习模型适用,若第一消息中包括cqi,则表示第一信道学习模型不适用;若第一消息中包括第一信道信息,则表示第一信道学习模型适用,若第一消息中包括rank值,则表示第一信道学习模型不适用;若第一消息中包括cqi和第一信道信息,则表示第一信道学习模型适用,若第一消息中包括rank值,则表示第一信道学习模型不适用。
[0498]
可选地,在第一通信装置确定第一信道学习模型适用的情况下,第一通信装置可以以差分上报的形式反馈第一信道信息。在第一信道学习模型适用的情况下,由于第一通信装置根据第一信道学习模型和目标信道信息确定的第一信道信息的取值的范围是相对稳定的,因此可以反馈当前确定的第一信道信息的取值与前一次确定的第一信道信息的取值的差值,以减小反馈开销。
[0499]
可选地,第一消息中还包括用于更新第二信道学习模型的一个或多个配置参数。相应地,第二通信装置可以根据第一消息更新第二信道学习模型。一个或多个配置参数可以包括如下至少一项:模型类型、模型结构、模型算法、模型权值向量、模型权值矩阵、模型偏置向量、模型偏置矩阵、模型激活函数。可选的,第一消息中也可以包括用于更新第一信道学习模型的一个或多个配置参数。
[0500]
可选的,用于更新第一信道学习模型的一个或多个配置参数也可以通过其他消息发送,其他消息与第一消息不同,具体的,本技术实施例对此不做限定。
[0501]
其中,模型的类型包括机器学习的算法、神经网络模型或自动编码模型。
[0502]
例如,在信道学习模型是机器学习的算法的情况下,配置参数可以包括模型算法,用于指示信道学习模型具体是机器学习算法中的哪一种算法。
[0503]
又例如,在信道学习模型是神经网络模型的情况下,配置参数可以包括模型结构,用于指示信道学习模型具体是哪一种神经网络,以及模型结构还可以包括输入层维数、输
出层维数、隐藏层层数、隐藏层神经元数、训练算法、损失函数中的一项或多项。配置参数可以包括变换算法、权值矩阵权值向量、偏置向量、偏置矩阵、激活函数中的一项或多项。
[0504]
再例如,在信道学习模型是卷积神经网络模型的情况下,配置参数可以包括模型结构,用于指示各层的数目和/或各层的先后顺序。配置参数还可以包括以下一项或多项:针对数据输入层的参数(预处理操作算法、输入数据的维数、输入数据的取值范围)、针对卷积层的参数(输入单元的大小、感受域、步幅、补零的数量、深度、输出单元的深度、权值矩阵)、针对激励层的参数(激活函数)、针对池化层的参数(池化算法、空间范围、步幅、输入单元的大小、输出单元的大小)、针对全连接层的参数(权值矩阵、权值向量、偏置矩阵、偏置向量)。
[0505]
第一通信装置在确定第一信道学习模型不适用的情况下,可以确定新的第一信道学习模型和新的第二信道学习模型,即确定用于更新第一信道学习模型和第二信道学习模型的一个或多个配置参数,并将用于更新第二信道学习模型的一个或多个配置参数发送给第二通信装置,以用于更新先前的第二信道学习模型。因此,新的第二信道学习模型的一个或多个配置参数可以认为是用于更新先前的第二信道学习模型的一个或多个配置参数。可选地,第一通信装置可以将新的第二信道学习模型的配置参数中不同于先前的第二信道学习模型的一个或多个配置参数发送给第二通信装置,以用于更新先前的第二信道学习模型。
[0506]
可选的,第一通信装置在确定第一信道学习模型不适用的情况下,可以确定新的第二信道学习模型,即确定用于更新第二信道学习模型的一个或多个配置参数,并将新的第二信道学习模型的一个或多个配置参数发送给第二通信装置,以用于更新先前的第二信道学习模型。
[0507]
本技术实施例对第一通信装置确定用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数的方式不做限定。即本技术实施例对第一通信装置确定第一信道学习模型和/或第二信道学习模型的方式不做限定。以下实施例提供了第一通信装置确定第一信道学习模型和/或第二信道学习模型的方式,第一通信装置确定信道学习模型的方式可以作为独立的实施例,也可以与其他实施例相结合,具体的,本技术实施例对此不做限定。如下一种或多种确定信道学习模型的方式可以单独使用,也可以联合使用,具体的,本技术实施例对此不做限定
[0508]
作为一个示例,第一通信装置可以根据第一参数确定第一信道学习模型和/或第二信道学习模型。
[0509]
其中,第一参数包括如下至少一项:终端设备所在的小区的小区标识、终端设备所在的场景、终端设备置的类型、终端设备所在的地理位置。
[0510]
可选地,在第一通信装置是终端设备的情况下,第一通信装置可以根据自身所在的小区、所在的场景、类型或所在的地理位置确定第一参数。
[0511]
可选地,在第一通信装置是网络设备、第二通信装置是终端设备的情况下,第一通信装置可以接收第二通信装置发送的与第一参数相关的信息,并确定第一参数。
[0512]
终端设备所在的场景可以是室内、室外、郊区、城镇、外界环境(例如,白天、晚上、晴天、阴天、交通顺畅、交通拥堵)等。例如,终端设备处于室内,则第一通信装置可以确定与室内场景对应的第一信道学习模型和/或第二信道学习模型,进一步确定用于更新第一信
道学习模型和/或第二信道学习模型的一个或多个配置参数。
[0513]
终端设备的类型可以是终端设备的天线端口数、处理能力等。
[0514]
终端设备所在的地理位置可以是三维坐标、二维坐标、定位数据等。如图11所示,若终端设备所在的地理位置是区域1,则第一通信装置可以确定与区域1对应的第一信道学习模型和/或第二信道学习模型,并确定用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数;若终端设备所在的地理位置是区域2,则第一通信装置可以确定与区域2对应的第一信道学习模型和/或第二信道学习模型,并确定用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数。
[0515]
可选地,在第一通信装置是网络设备的情况下,第一通信装置向第二通信装置发送的用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数可以是终端级、小区级或终端组级。以终端级为例,第一通信装置以单播的方式分别向每个第二通信装置发送用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数;以小区级为例,第一通信装置以广播的方式向小区内的多个第二通信装置发送用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数;以终端组级为例,第一通信装置以广播或组播的方式向终端组内的多个第二通信装置发送用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数。
[0516]
具体地,第一通信装置可以根据第一参数从数据库#1保存的配置参数集中确定第一信道学习模型和第二信道学习模型。
[0517]
其中,数据库#1可以是保存信道学习模型相关信息或者相关数据的数据库,例如数据库#1可以保存信道学习模型的配置参数等。
[0518]
数据库#1可以是第一通信装置的本地数据库,也可以是存储在高层的数据库。
[0519]
以数据库#1是存储在高层的数据库为例,存储在高层的数据库可以是存储在移动性管理单元、核心网、云端、中央管理器、运营商系统、第一通信装置群组管理系统或数据中心中的数据库。在此情况下,第一通信装置可以与高层进行通信交互,并从存储在高层的数据库中确定信道学习模型的配置参数。例如,第一通信装置可以根据第一参数从高层数据库下载和/或读取数据库中存储的信道学习模型的配置参数,进而确定第一信道学习模型和/或第二信道学习模型。又例如,第一通信装置可以接收高层网元发送的关于信道学习模型的配置参数,进而确定第一信道学习模型和/或第二信道学习模型。
[0520]
以数据库#1是存储在第一通信装置的本地的数据库为例,第一通信装置可以从本地数据库下载和/或读取数据库中存储的信道学习模型的配置参数,进而确定第一信道学习模型和/或第二信道学习模型。
[0521]
第一通信装置的本地数据库中存储的信道学习模型的配置参数可以是预配置的,也可以是第一通信装置侧通过训练学习确定并且存储在本地数据库中的。第一通信装置可以在应用信道学习模型之前,根据第一参数从本地数据库中确定信道学习模型。
[0522]
该实现方式下,第一通信装置可以根据第一参数确定第一信道学习模型和/或第二信道学习模型,并进一步确定用于更新第二信道学习模型的配置参数,即不进行信道学习模型训练即可确定新的信道学习模型,降低了第一通信装置的处理复杂度。
[0523]
作为另一个示例,第一通信装置可以对第一信道学习模型和第二信道学习模型进行训练,以获得第一信道学习模型和第二信道学习模型,并一步确定用于更新第一信道学
习模型和/或第二信道学习模型的一个或多个配置参数。
[0524]
第一通信装置对第一信道学习模型和第二信道学习模型进行训练的方式可以是:
[0525]
1)基于接收的参考信号获得目标信道信息;
[0526]
2)根据目标信道信息和第一信道学习模型确定第一信道信息;
[0527]
3)根据第一信道信息和第二信道学习模型确定第二信道信息;
[0528]
4)计算第二信道信息和目标信道信息的误差;
[0529]
5)基于得到的误差计算损失函数,通过损失函数计算梯度信息,并将梯度信息反向传播;
[0530]
6)通过梯度下降的方法更新第一信道学习模型和第二信道学习模型。
[0531]
若更新第一信道学习模型和第二信道学习模型之后,损失函数的值小于预设门限#10,则将上述梯度信息作为用于更新第二信道学习模型的一个或多个配置参数发送给第二通信装置。
[0532]
若损失函数的值大于或等于预设门限#10,则第一通信装置继续基于上述方法对第一信道学习模型和第二信道学习模型进行训练,直至损失函数的值小于预设门限#10。进一步地,将多次训练过程中获得的多个梯度信息累加起来作为用于更新和第二信道学习模型的一个或多个配置参数发送给第二通信装置。
[0533]
具体地,第一通信装置对信道学习模型进行训练的训练参数可以是预配置的,或者可以是根据来自第二通信装置的指示信息确定的。
[0534]
可选地,在用于更新信道学习模型的配置参数包括多个的情况下,第一通信装置可以采用相同的方法确定多个配置参数中的每一个,也可以采用不用的方法确定多个配置参数中的每一个。
[0535]
可选地,第一通信装置可以采用一级或多级的方式确定用于更新信道学习模型的配置参数。以一级方式为例,第一通信装置可以采用上述方法中的一种或多种确定用于更新信道学习模型的配置参数;以多级方式为为例,第一通信装置可以先采用上述方法中的一种或多种确定用于更新信道学习模型的一部分配置参数,再采用上述方法中的一种或多种确定用于更新信道学习模型的另一部分配置参数。例如,第一通信装置根据第一参数从高层数据库中确定信道学习模型的结构,再根据第一参数从本地数据库中确定信道学习模型的维数、运算和/或函数,最后再根据来自第二通信装置的与配置参数相关的信息确定信道学习模型的变量。
[0536]
可选地,若方法200执行了s230,则用于传输第一消息的资源、第一消息的内容或者发送第一消息的形式可以是由第一指示信息指示的;若方法200没有执行s230,则用于传输第一消息的资源、第一消息的内容或者发送第一消息的形式可以是预配置的,以便于第二通信装置可以正确接收第一消息。
[0537]
可选地,在s220之后,方法200还可以包括:第二通信装置发送第二消息,第二消息用于指示用于更新第一信道学习模型的一个或多个配置参数;相应地,第一通信装置接收第二消息,并根据第二消息更新第一信道学习模型。
[0538]
第二通信装置接收到第一消息,并根据第一消息确定第一信道学习模型不适用之后,则可以确定新的第一信道学习模型和新的第二信道学习模型,即确定用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数,并将新的第一信道学习模型
的一个或多个配置参数发送给第一通信装置,以用于更新第一信道学习模型。因此,新的第一信道学习模型的一个或多个配置参数可以认为是用于更新先前的第一信道学习模型的一个或多个配置参数。可选地,第二通信装置可以将新的第一信道学习模型的配置参数中不同于先前的第一信道学习模型的一个或多个配置参数发送给第一通信装置,以用于更新先前的第一信道学习模型。
[0539]
本技术实施例对第二通信装置确定用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数的方式不做限定。即本技术实施例对第二通信装置确定第一信道学习模型和/或第二信道学习模型的方式不做限定。以下实施例提供了第二通信装置确定第一信道学习模型和/或第二信道学习模型的方法,第二通信装置确定信道学习模型的方法可以作为独立的实施例,也可以与其他实施例相结合,具体的,本技术实施例对此不做限定。如下一种或多种确定信道学习模型的方法可以单独使用,也可以联合使用,具体的,本技术对此不做限定。
[0540]
作为一个示例,第二通信装置可以根据第一参数确定第一信道学习模型和/或第二信道学习模型。
[0541]
其中,第一参数包括如下至少一项:终端设备所在的小区的小区标识、终端设备所在的场景、终端设备的类型、终端设备所在的地理位置。
[0542]
可选地,在第二通信装置是终端设备的情况下,第二通信装置可以根据自身所在的小区、所在的场景、类型或所在的地理位置确定第一参数。
[0543]
可选地,在第二通信装置是网络设备、第一通信装置是终端设备的情况下,第二通信装置可以接收第一通信装置发送的与第一参数相关的信息,并确定第一参数。
[0544]
终端设备所在的场景可以是室内、室外、郊区、城镇、外界环境(例如,白天、晚上、晴天、阴天、交通顺畅、交通拥堵)等。例如,终端设备处于室内,则第二通信装置可以确定与室内场景对应的第一信道学习模型和/或第二信道学习模型,进一步确定用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数。
[0545]
终端设备的类型可以是终端设备的天线端口数、处理能力等。
[0546]
终端设备所在的地理位置可以是三维坐标、二维坐标、定位数据等。如图11所示,若终端设备所在的地理位置是区域1,则第二通信装置可以确定与区域1对应的第一信道学习模型和/或第二信道学习模型,并确定用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数;若终端设备所在的地理位置是区域2,则第二通信装置可以确定与区域2对应的第一信道学习模型和/或第二信道学习模型,并确定用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数。
[0547]
可选地,在第二通信装置是网络设备的情况下,第二通信装置向第一通信装置发送的用于更新第一信道学习模型的一个或多个配置参数可以是终端级、小区级或终端组级。以终端级为例,第二通信装置以单播的方式分别向每个第一通信装置发送用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数;以小区级为例,第二通信装置以广播的方式向小区内的多个第一通信装置发送用于更新第二信道学习模型和/或第一信道学习模型的一个或多个配置参数;以终端组级为例,第二通信装置以广播或组播的方式向终端组内的多个第一通信装置发送用于更新第二信道学习模型和/或第一信道学习模型的一个或多个配置参数。
[0548]
具体地,第二通信装置可以根据第一参数从数据库#2保存的配置参数集中确定第一信道学习模型和/或第二信道学习模型。
[0549]
其中,数据库#2可以是携带信道学习模型相关信息或者相关数据的数据库,例如数据库#2中可以保存信道学习模型的配置参数等。
[0550]
数据库#2可以是第二通信装置的本地数据库,也可以是存储在高层的数据库。
[0551]
以数据库#2是存储在高层的数据库为例,存储在高层的数据库可以是存储在移动性管理单元、核心网、云端、中央管理器、运营商系统、第二通信装置群组管理系统、数据中心中的数据库。在此情况下,第二通信装置可以与高层进行通信交互,并从高层的数据库中确定信道学习模型的配置参数。例如,第二通信装置可以根据第一参数从高层数据库下载和/或读取数据库中存储的信道学习模型,进而确定新的第一信道学习模型和新的第二信道学习模型。又例如,第二通信装置可以接收高层网元发送的关于信道学习模型的配置参数,进而确定新的第一信道学习模型和新的第二信道学习模型。
[0552]
以数据库#2是存储在第二通信装置的本地的数据库为例,第二通信装置可以从本地数据库下载和/或读取数据库中信道学习模型,进而确定新的第一信道学习模型和新的第二信道学习模型。
[0553]
第二通信装置的本地数据库中存储的信道学习模型的配置参数库预配置的,也可以是第二通信装置侧通过训练学习确定并且存储在本地数据库中的。第二通信装置可以在应用信道学习模型之前,根据第一参数从本地数据库确定信道学习模型。
[0554]
该实现方式下,第二通信装置可以根据第一参数确定第一信道学习模型和/或第二信道学习模型,即不进行信道学习模型训练即可确定新的信道学习模型,降低了第二通信装置的处理复杂度。
[0555]
作为另一个示例,第二通信装置可以对第一信道学习模型和第二信道学习模型进行训练,以获得第一信道学习模型和第二信道学习模型,并进一步确定用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数。
[0556]
第二通信装置对第一信道学习模型和第二信道学习模型进行训练的方式可以是:
[0557]
1)根据第一信道信息和第二信道学习模型确定第二信道信息;
[0558]
2)计算第二信道信息和目标信道信息的误差;
[0559]
3)基于得到的误差计算损失函数,通过损失函数计算梯度信息,并将梯度信息反向传播;
[0560]
4)通过梯度下降的方法更新第一信道学习模型和第二信道学习模型。
[0561]
若更新第一信道学习模型和第二信道学习模型之后,损失函数的值小于预设门限值,则将上述梯度信息作为用于更新第一信道学习模型的一个或多个配置参数发送给第一通信装置。
[0562]
若损失函数的值大于或等于预设门限值,则第二通信装置继续基于上述方法对第一信道学习模型和第二信道学习模型进行训练,直至损失函数的值小于预设门限值。进一步地,将多次训练过程中获得的多个梯度信息累加起来作为用于更新第一信道学习模型的一个或多个配置参数发送给第二通信装置。
[0563]
其中,第一信道信息可以是第一通信装置向第二通信装置发送的。目标信道信息可以是第一通信装置向第二通信装置发送的,也可以是第二通信装置根据上下行信道的互
易性获得的。
[0564]
具体地,第一通信装置对信道学习模型进行训练的训练参数可以是预配置的,或者可以是第一通信装置指示的。
[0565]
可选地,在用于更新信道学习模型的配置参数包括多个的情况下,第二通信装置可以采用相同的方法确定多个配置参数中的每一个,也可以采用不用的方法确定多个配置参数中的每一个。
[0566]
可选地,第二通信装置可以采用一级或多级的方式确定用于更新信道学习模型的配置参数。以一级方式为例,第二通信装置可以采用上述方法中的一种或多种确定用于更新信道学习模型的配置参数;以多级方式为为例,第二通信装置可以先采用上述方法中的一种或多种确定用于更新信道学习模型的一部分配置参数,再采用上述方法中的一种或多种确定用于更新信道学习模型的另一部分配置参数。例如,第二通信装置根据第一参数从高层数据库中确定信道学习模型的结构,再根据第二参数从本地数据库中确定信道学习模型的维数、运算和/或函数,最后再根据来自第一通信装置的与配置参数相关的信息确定信道学习模型的变量。
[0567]
可选地,若第二通信装置接收到多个第一通信装置发送的第一消息,则第二通信装置可以根据虚警概率确定第一信道学习模型是否适用。
[0568]
例如当前小区中有j个第一通信装置进行信道学习模型训练,第二通信装置接收到j1个第一通信装置发送的第一消息,其中j2个第一通信装置反馈第一信道学习模型适用(或者j2个第一消息指示第一信道学习模型适用),j3个第一通信装置反馈第一信道学习模型不适用(或者j3个第一消息指示第一信道学习模型不适用)。
[0569]
则虚警概率可以是反馈第一信道学习模型适用的第一通信装置数(或指示第一信道学习模型适用的第一消息数)占进行信道学习模型训练的第一通信装置数的比例(即j2/j);或者可以是反馈第一信道学习模型适用的第一通信装置数(或指示第一信道学习模型适用的第一消息数)占接收到第一消息的总数的比例(即j2/j1);或者可以是反馈第一信道学习模型不适用的第一通信装置数(或指示第一信道学习模型不适用的第一消息数)占进行信道学习模型训练的第一通信装置数的比例(即j3/j);或者可以是反馈第一信道学习模型不适用的第一通信装置数(或指示第一信道学习模型不适用的第一消息数)占接收到第一消息的总数的比例(即j3/j1);或者可以是反馈第一信道学习模型适用的第一通信装置数(或指示第一信道学习模型适用的第一消息数)与反馈第一信道学习模型不适用的第一通信装置数(或指示第一信道学习模型不适用的第一消息数)的比例(即j2/j3)。
[0570]
具体的,若虚警概率大于或等于(或大于)预设门限#11,则第二通信装置确定第一信道学习模型适用;若虚警概率小于(或者小于或等于)预设门限#11,则第二通信装置确定第一信道学习模型不适用。或者,若虚警概率大于或等于(或大于)预设门限#12,则第二通信装置确定第一信道学习模型不适用;若虚警概率小于(或者小于或等于)预设门限#12,则第二通信装置确定第一信道学习模型适用。
[0571]
例如,预设门限#11是70%,若指示第一信道学习模型适用的第一消息数与第二通信装置接收到的第一消息的总数之比大于70%,则第二通信装置确定第一信道学习模型适用。
[0572]
又例如,预设门限#12是50%,若指示第一信道学习模型不适用的第一消息数与第
二通信装置接收到的第一消息的综上数之比大于50%,则第二通信装置确定第一信道学习模型不适用。
[0573]
第二通信装置通过上述方式确定信道学习模型是否适用,可以综合考虑多个第一通信装置的信道学习模型的情况,避免因为个别第一通信装置的反馈做出错误的决定,可以兼顾多个第一通信装置的信道学习模型的情况,提高确定信道学习模型是否适用的准确性,提高通信性能。
[0574]
进一步地,第二通信装置确定第一信道学习模型不适用之后,则可以确定新的第一信道学习模型和新的第二信道学习模型,即确定用于更新第一信道学习模型和第二信道学习模型的一个或多个配置参数,并将用于更新第一信道学习模型的配置参数发送给第一通信装置。
[0575]
可选地,在s210之前,方法200还可以包括:第一通信装置根据第一参数确定第一信道学习模型。
[0576]
具体的,第一通信装置确定第一信道学习模型的方式可以参考上述实施例中关于确定信道学习模型的描述,为了简洁,本技术实施例不再赘述。
[0577]
如下,本技术实施例提供了一种可以由第一通信装置执行的通信的方法。即如下方法是从第一通信装置的角度进行描述,该方法可以包括s210’至s230’中的至少一项:
[0578]
s210’(即s210),第一通信装置确定第一信道学习模型是否适用。具体的该步骤描述可以参考上文s210中的描述,为了简洁,此处不再详述。
[0579]
s220’(即s220),第一通信装置发送第一消息,第一消息用于指示第一信道学习模型是否适用。具体的该步骤描述可以上文s220中的描述,为了简洁,此处不再详述。
[0580]
s230a’,第一通信装置发送用于更新第二信道学习模型的一个或多个配置参数。具体的该步骤描述可以上文s220中的描述,为了简洁,此处不再详述。可选的,该步骤可以由s230b’代替
[0581]
s230b’,第一通信装置接收用于更新第一信道学习模型的一个或多个配置参数。具体的该步骤描述可以参考上文方法200中的描述,为了简洁,此处不再详述。
[0582]
如下,本技术实施例提供了一种可以由第二通信装置执行的通信的方法。即如下方法是从第二通信装置的角度进行描述,该方法可以包括s210”至s230”中的至少一项:
[0583]
s210”(即s220),第二通信装置接收第一消息,第一消息用于指示第一信道学习模型是否适用。具体的该步骤描述可以参考上文s210中的描述,为了简洁,此处不再详述。
[0584]
s220”(即s220),第二通信装置根据第一消息确定第一信道学习模型是否适用。具体的该步骤描述可以参考上文s220中的描述,为了简洁,此处不再详述。
[0585]
s230a”,第二通信装置接收用于更新第二信道学习模型的一个或多个配置参数。具体的该步骤描述可以上文s220中的描述,为了简洁,此处不再详述。可选的,该步骤也可以由s230b”代替。
[0586]
s230b”,第二通信装置发送用于更新第一信道学习模型的一个或多个配置参数。具体的该步骤描述可以参考上文方法200中的描述,为了简洁,此处不再详述。
[0587]
本技术实施例提供了一种第一通信装置确定信道学习模型不适用并告知第二通信装置的通信方法,本方法可以实现当信道学习模型不适用时及时上报告知第二通信装置,进而实现对信道学习模型的更新,从而可以提高信道学习模型的准确性和通信性能。
[0588]
图12示出了本技术另一实施例提供的通信的方法。本技术实施例可以作为独立的实施例,也可以与本技术中的其他实施例相结合,具体的,本技术对此不做限定。图12示出的方法300可以包括s310至s320。下面详细说明方法300中的各个步骤。
[0589]
s310,第一通信装置确定第一信道学习模型是否适用。
[0590]
第一信道学习模型用于基于目标信道信息确定第一信道信息,第一信道信息的数据量小于目标信道信息的数据量,因此也可以说第一信道学习模型用于对目标信道信息进行压缩以获得第一信道信息。
[0591]
可选地,信道信息的数据量可以是指信道信息的维度。
[0592]
例如,假设发送端(例如,可以是第一通信装置或第二通信装置)的天线端口数为a2,接收端(例如,可以l是第一通信装置或第二通信装置)的天线端口数为a3,则发送端和接收端间的目标信道信息可以是a2*a3维的矩阵,则目标信道信息的数据量可以用a2*a3表示。若目标信道信息的矩阵中的元素为复数,且每个元素的实部和虚部分开表示,则目标信道信息的数据量也可以表示为a2*a3*2。
[0593]
例如,若目标信道信息的矩阵经过第一信道学习模型处理得到的第一信道信息的矩阵的维度为b2,则第一信道信息的数据量可以用b2表示。
[0594]
可选的,信道信息的数据量也可以是指信道信息所包含的信息量等。
[0595]
可选的,目标信道信息可以看做第一信道学习模型的输入,第一信道信息可以看做第一信道学习模型的输出。目标信道信息的数据量可以为输入的信息维度,第一信道信息的数据量可以为输出的信息维度。第一信道信息用于通过第二信道学习模型获得第二信道信息,第二信道信息与目标信道信息的数据量相同或相近。可选的,第二信道信息可以用于进行数据传输,例如第二通信装置可以根据第二信道信息确定数据传输的调度信息等,或者确定数据传输的预编码等。
[0596]
应理解,第一信道学习模型于第二信道学习模型是对应的,因此,第一通信装置确定第一信道学习模型是否适用可以理解为,第一通信装置确定第一信道学习模型和第二信道学习模型是否适用。即,第一通信装置在确定第一信道学习模型不适用的情况下,可以确定第二信道学习模型也不适用;第一通信装置在确定第一信道学习模型适用的情况下,可以确定第二信道学习模型也适用。
[0597]
本技术实施例对目标信道信息不做限定。例如,在第一通信装置是终端设备的情况下,目标信道信息可以是下行信道信息;又例如,在第一通信装置是网络设备的情况下,目标信道信息可以是上行信道信息。又例如,在第一通信装置是终端设备的情况下,目标信道信息可以是上行信道信息,或者,目标信道信息可以是上行信道信息和下行信道信息,第一通信装置可以基于上下行信道的部分互易性,根据上行信道信息和下行信道信息确定第一信道学习模型和/或第二信道学习模型是否适用,或者确定新的第一信道学习模型和/或第二信道学习模型。又例如,在第一通信装置是网络设备的情况下,目标信道信息可以是下行信道信息,或者,目标信道信息可以是上行信道信息和下行信道信息,基于上下行信道的部分互易性,根据上行信道信息和下行信道信息确定第一信道学习模型和/或第二信道学习模型是否适用,或者确定新的第一信道学习模型和/或第二信道学习模型。
[0598]
第一通信装置可以周期性地确定第一信道学习模型是否适用,例如,第一通信装置在第i次确定第一信道学习模型是否适用之后启动定时器,在定时器超时的情况下,第一
通信装置第i 1次确定第一信道学习模型是否适用。
[0599]
该方式下,可以降低第一通信装置与第二通信装置之间交互信令的开销,并且第一通信装置定时地确定第一信道学习模型是否适用,可以避免第一信道学习模型不适用的情况下导致的通信性能的下降。
[0600]
本技术实施例对第一通信装置确定第一信道学习模型是否适用的方法不做限定。第一通信装置可以采用如下实现方式中的一种或多种确定第一信道学习模型是否适用。在第一通信装置确定第一信道学习模型不适用的情况下,第一通信装置和/或第二通信装置可以及时调整第一信道学习模型,提高信道学习模型的准确性和适用性,进而提升通信性能。
[0601]
下文提供了第一通信装置确定第一信道学习模型和/或第二信道学习模型是否适用的方式,第一通信装置确定信道学习模型是否适用的方法可以作为独立的实施例,也可以与其他实施例相结合,具体的,本技术实施例对此不做限定。如下一种或多种确定信道学习模型是否适用的方式可以单独使用,也可以联合使用,具体的,本技术实施例对此不做限定。
[0602]
需要说明的是,本技术实施例中提及的信道学习模型是否适用,也可以是指信道学习模型是否匹配、信道学习模型是否准确、信道学习模型是否过时的或信道学习模型是否错误等。
[0603]
在一种实现方式中,第一通信装置可以根据目标信道的长期统计特性确定信道学习模型是否适用。例如,第一通信装置可以根据目标信道的长期统计特性的变化量是否大于或等于第一预设阈值确定第一信道学习模型是否适用。具体地,可以参见上文s210中的描述,为了简洁,此处不再赘述。
[0604]
在另一种实现方式中,第一通信装置可以根据接收的第一调度信息确定第一信道学习模型是否适用。第一调度信息是第二通信装置根据第二信道信息发送的。具体地,可以参见上文s210中的描述,为了简洁,此处不再赘述。
[0605]
在又一种实现方式中,第一通信装置可以根据数据传输性能确定第一信道学习模型是否适用。具体地,可以参见上文s210中的描述,为了简洁,此处不再赘述。
[0606]
在又一种实现方式中,第一通信装置可以根据所处的场景是否发生变化确定第一信道学习模型是否适用。具体地,可以参见上文s210中的描述,为了简洁,此处不再赘述。
[0607]
在又一种实现方式中,第一通信装置可以根据第一信道学习模型的性能指标是否小于第二预设阈值确定第一信道学习模型是否适用。具体地,可以参见上文s210中的描述,为了简洁,此处不再赘述。
[0608]
在又一种实现方式中,第一通信装置可以根据目标信道信息与第二信道信息的误差确定第一信道学习模型是否适用。具体地,可以参见上文s210中的描述,为了简洁,此处不再赘述。
[0609]
在又一种实现方式中,第一通信装置可以根据是否接收到第一指示信息,确定第一信道学习模型是否适用。
[0610]
第一指示信息用于指示第一通信装置进行信道学习模型训练。
[0611]
第一通信装置可以在接收第一指示信息的情况下,确定第一信道学习模型不适用。
[0612]
第一指示信息是第二通信装置发送的,第二通信装置可以在确定第二信道学习模型不适用的情况下,发送第一指示信息。
[0613]
该实现方式下,第一通信装置可以根据是否接收到第一指示信息确定第一信道学习模型是否适用,即在不进行信道学习模型训练的情况下,确定第一信道学习模型是否适用,可以降低第一终端设备的处理复杂度。同时根据是否接收到第一指示信息,可以在两个通信装置有统一的理解和认识的情况下确定第一信道学习模型是否适用,因此该方式简单快速。
[0614]
可选的,本技术实施例中,第一通信装置或第二通信装置确定第一信道学习模型不适用时,因为第一信道学习模型和第二信道学习模型是对应的,因此可以推断出,第一通信装置或第二通信装置确定第二信道学习模型不适用。
[0615]
可选的,本技术实施例中,第一通信装置或第二通信装置确定第二信道学习模型不适用时,因为第一信道学习模型和第二信道学习模型是对应的,因此可以推断出,第一通信装置或第二通信装置确定第一信道学习模型不适用。
[0616]
可选的,本技术实施例中,第一通信装置或第二通信装置确定第一信道学习模型或第二信道学习模型不适用时,因为第一信道学习模型和第二信道学习模型是对应的,因此可以推断出,第一通信装置或第二通信装置确定第一信道学习模型和第二信道学习模型不适用。
[0617]
本技术实施例对第二通信装置确定第二信道学习模型是否适用的方法不做限定。第二通信装置可以采用如下实现方式中的一种或多种确定第二信道学习模型是否适用。在第二通信装置确定第二信道学习模型不适用的情况下,第一通信装置和/或第二通信装置可以及时调整第二信道学习模型,提高信道学习模型的准确性和适用性,进而提升通信性能。
[0618]
下文提供了第二通信装置确定第一信道学习模型和/或第二信道学习模型是否适用的方式,第二通信装置确定信道学习模型是否适用的方法可以作为独立的实施例,也可以与其他实施例相结合,具体的,本技术实施例对此不做限定。如下一种或多种确定信道学习模型是否适用的方式可以单独使用,也可以联合使用,具体的,本技术实施例对此不做限定。
[0619]
需要说明的是,本技术实施例中提及的信道学习模型是否适用,也可以是指信道学习模型是否匹配、信道学习模型是否准确、信道学习模型是否过时的或信道学习模型是否错误等。
[0620]
在一种实现方式中,第二通信装置可以根据目标信道的长期统计特性确定信道学习模型是否适用。例如,当第二通信装置确定目标信道的长期统计特性变化较大时,表明第一通信装置和第二通信装置间的信道特征或者信道环境发生了较大的变化,因此第二通信装置可以确定信道学习模型不适用。
[0621]
例如,第二通信装置可以根据目标信道的长期统计特性的变化量是否大于或等于第三预设阈值确定第一信道学习模型是否适用。其中,第三预设阈值可以是协议预定义的,也可以是预配置的,本技术实施例对此不做限定。
[0622]
其中,目标信道的长期统计特性可以包括如下至少一项:rank值、大尺度特性、信道协方差矩阵、信道相关矩阵、相干时间、相干带宽等。
[0623]
信道的大尺度特性可以为以下一项或多项:时延扩展、多普勒扩展、多普勒频移、平均信道增益和平均时延、接收到达角、到达角扩展、发射离开角、离开角扩展、空间接收参数和空间相关性。
[0624]
作为一个示例,第二通信装置可以根据来自第一通信装置的信号确定目标信道的长期统计特性,并进一步根据目标信道的长期统计特性确定第二信道学习模型是否适用。其中,来自第二通信装置的信号可以是参考信号或数据信号,参考信号可以是dmrs、csi-rs、ptrs、trs、sbb、srs等,数据信号可以是在pdsch、pdcch、pusch或pucch上传输的信号。
[0625]
例如,若第一通信装置为终端设备,第二通信装置为网络设备,则网络设备可以根据终端设备发送的参考信号和/或数据信号确定目标信道的长期统计特性。其中,参考信号可以是srs,dmrs,ptrs中至少一项,数据信号可以是在pusch上传输的信号、在pucch上传输的信号中的至少一项。目标信道可以是指下行信道,网络设备可以根据上行信道的长期统计特性推断下行信道的长期统计特性。
[0626]
作为另一个示例,第二通信装置可以根据第一通信装置反馈的信道状态信息确定目标信道的长期统计特性的变化量。
[0627]
例如第一通信装置上报的信道状态信息(channel state information,csi)中可以包括如下至少一项:rank值、信道协方差矩阵、相关矩阵等。第二通信装置可以根据第一通信装置的上报信息确定目标信道的长期统计特性。
[0628]
在目标信道的长期统计特性的变化量大于或等于第三预设阈值的情况下,表明第一通信装置和第二通信装置之间的信道特征或信道环境发生了较大的变化,因此第二通信装置可以确定第二信道学习模型不适用;在目标信道的长期统计特性小于第三预设阈值的情况下,表明第一通信装置和第二通信装置之间的信道特征或信道环境比较稳定,因此第二通信装置可以确定第二信道学习模型适用。
[0629]
以目标信道的长期统计特性是rank值为例,第二通信装置在确定rank值变化较大的情况下,可以确定第二信道学习模型不适用。例如,第二通信装置可以在确定rank值的变化量大于或等于预设门限#12(第三预设阈值的一例)的情况下,确定第二信道学习模型不适用。其中,预设门限#12可以为r1,其中r1为正整数。例如r1为2,即当rank值的变化大于或等于2时,第二通信装置可以确定第二信道学习模型不适用。例如第一通信装置从反射体稀疏的环境运动到反射体丰富的环境,目标信道的径增多,进而rank值会发生变化,在此情况下,第二信道学习模型有可能不再适用。rank值越大,使用的信道学习模型可能越复杂,例如,信道学习模型的层数可能越高。例如当第一通信装置从室内变为室外,目标信道的长期统计特性(rank值)也会发生变化,则第二通信装置可以确定第二信道学习模型有可能不适用。
[0630]
以目标信道的长期统计特性为多普勒频移为例,第二通信装置在确定多普勒频移变化较大的情况下,可以确定第二信道学习模型不适用。例如,第二通信装置可以在多普勒频移的变化量大于预设门限#13(第三预设阈值的一例)的情况下,确定第二信道学习模型不适用。其中,预设门限#13可以为f2,其中f2为实数。例如f2为2,即当多普勒频移的变化量大于或等于2时,第二通信装置可以确定第二信道学习模型不适用。例如多普勒频移可以反映第一通信装置的运动速度,当第一通信装置从步行变为车载时,第一通信装置的移动速度变大,则第二信道学习模型有可能不再适用。例如,若第一通信装置的运动速度的变化量
大于预设门限#14,则第二通信装置确定第二信道学习模型不适用。
[0631]
该实现方式下,第二通信装置可以根据目标信道的长期统计特性确定信道学习模型是否适用,即在不进行信道学习模型训练的情况下,确定第二信道学习模型是否适用,可以降低第二通信装置的处理复杂度,同时也不需要第一信装置的协助即可确定信道学习模型是否适用,降低信令交互,因此该方式简单快速。
[0632]
在另一种实现方式中,第二通信装置可以根据第一调度信息确定第二信道学习模型是否适用。第一调度信息可以是第二通信装置根据第二信道信息确定的。
[0633]
其中,第一调度信息可以包括如下至少一项:mcs指示、tbs指示、rank指示、天线端口指示等。第一调度信息可以是物理层的下行控制信息(downlink control information,dci),也可以是高层信令中的调度信息。具体地,第一调度信息包含的内容和指示方式可以参考现有技术,为了简洁,本技术实施例不再详述。
[0634]
第二通信装置可以根据多次确定的第一调度信息的变化量确定第二信道学习模型是否适用。例如,第二通信装置可以根据前b’次确定的第一调度信息与当前确定的第一调度信息的差异,确定第二信道学习模型是否适用。在多次确定的第一调度信息的变化量大于或等于预设差异门限的情况下,第二通信装置可以确定第二信道学习模型不适用。b’为整数。
[0635]
数据的调度信息可以反映出信道的质量情况,因此第二通信装置可以根据多次调度信息的差异确定第二信道学习模型是否适用。例如,当第二通信装置前b’次指示给第一通信装置的第一调度信息和当前指示的第一调度信息的差异较大时,则表明第一通信装置的信道变化较大,即第二信道学习模型不适用。因此第二通信装置可以根据如下方式中的至少一种确定第二信道学习模型是否适用。
[0636]
作为一个示例,第二通信装置可以根据前b’次确定的第一调度信息与当前确定的第一调度信息的差异值是否大于或等于预设差异门限,确定第二信道学习模型是否适用。其中,预设差异门限可以是协议预定义的,也可以是第一通信装置向第二通信装置指示的,也可以是预配置的,本技术实施例对此不做限定。
[0637]
例如,第二通信装置在前b’次确定的第一调度信息与当前确定的第一调度信息的差异值大于或等于预设差异门限的情况下,确定第二信道学习模型不适用;第二通信装置在前b’次确定的第一调度信息与当前确定的第一调度信息的差异值小于预设差异门限的情况下,确定第二信道学习模型适用。
[0638]
预设差异门限可以是调制阶数的差异门限、码率的差异门限、mcs索引(index)值的差异门限、rank值的差异门限、tbs的差异门限、天线端口的差异门限中的至少一种。
[0639]
以预设差异门限是调制阶数的差异门限为例,调制阶数的差异门限可以为n3阶,n3为实数,例如n3为1,2,3,4,1/2,3/2,5/2等。在前b’次确定的调制方式的阶数与当前确定的调制方式的阶数的差异值大于或等于调制阶数的差异门限的情况下,第二通信装置确定第二信道学习模型不适用。
[0640]
例如,若调制阶数的差异门限为2阶,第二通信装置前b’次确定的调制方式为qpsk(阶数为2),当前确定的调制方式为64qam)(阶数为4),则第一通信装置确定第一信道学习模型不适用。
[0641]
以预设差异门限是码率的差异门限为例,码率的差异门限可以是m1,m1为实数,例
如m1为200/1024,250/1024,300/1024,500/1024等。在前b’次确定的码率与当前确定的码率的差异值大于或等于码率的差异门限的情况下,第二通信装置确定第二信道学习模型不适用。
[0642]
例如,若码率的差异门限为200/1024,第二通信装置前b’次确定的码率为400/1024,而第一调度信息中指示的码率为658/1024时,则第二通信装置可以确定第二信道学习模型不适用。
[0643]
以预设差异门限是mcs索引值的差异门限为例,mcs索引值的差异门限可以是p1,p1为整数,例如p1为1,2,3,4,5,6,8,10等。在前b次确定的mcs索引值与当前确定的mcs索引值的差异值大于或等于mcs索引值的差异门限的情况下,第二通信装置确定第二信道学习模型不适用。
[0644]
例如,若mcs索引值的差异门限为4,第二通信装置前b’次确定的mcs索引值为4,而当前确定的mcs索引值为10,则第二通信装置可以确定第二信道学习模型不适用。
[0645]
以预设差异门限是tbs的差异门限为例,tbs的差异门限可以是q,q为整数,例如q为32,64,128,256,612,1024等。在前b’次确定的tbs与当前确定的tbs的差异值大于或等于tbs的差异门限的情况下,第二通信装置确定第二信道学习模型不适用。
[0646]
例如,若tbs的差异门限为64,第二通信装置前b’次确定的tbs为288,而当前确定的tbs为522,则第二通信装置可以第二确定信道学习模型不适用。
[0647]
应理解,上文仅以第二通信装置根据前b’次确定的第一调度信息与当前确定的第一调度信息中的其中一项的差异值确定第二信道学习模型是否适用为例进行说明,可选地,第二通信装置还可以根据前b’次确定的第一调度信息与当前确定的第一调度信息中的多项的差异值确定第二信道学习模型是否适用。例如,第二通信装置可以在前b’次确定的码率与当前确定的码率的差异值大于或等于码率的差异门限,且前b’次确定的tbs与当前确定的tbs的差异值大于或等于tbs差异门限的情况下,确定第二信道学习模型不适用。
[0648]
还应理解,上文仅以第二通信装置根据第一调度信息的差异值是否大于或等于预设差异门限确定第二信道学习模型是否适用为例进行说明。可选地,第二通信装置可以根据第一调度信息的相似性是否小于预设相似门限确定第二信道学习模型是否适用。其中,预设相似门限值可以是协议预定义的,也可以是第一通信装置向第二通信装置指示的,也可以是预配置的,本技术实施例对此不做限定。
[0649]
第二通信装置还可以根据第一通信装置反馈的cqi信息与第一调度信息之间的差异确定第二信道学习模型是否适用。具体地,第二通信装置可以在第一通信装置反馈的cqi信息与第一调度信息之间的差异大于或等于预设差异门限的情况下,确定第二信道学习模型不适用。
[0650]
例如,第二通信装置可以根据第一调度信息、第二通信装置反馈的cqi信息和第二映射关系确定第二信道学习模型是否适用,第二映射关系用于指示调度信息与信道学习模型是否适用的对应关系。
[0651]
表12中示出了第二映射关系的一例。例如第二映射关系可以是下表中的一行或者多行,第二映射关系可以是协议预定义的,也可以是第二通信装置通过信令告知第一通信装置的,具体的,本技术实施例对此不做限定。
[0652]
表12
[0653][0654]
例如,若第一通信装置反馈的cqi信息指示的调制方式为qpsk,第一调度信息指示的调度方式为qpsk,则第二通信装置根据表12确定第二信道学习模型适用;又例如,若第一通信装置反馈的cqi信息指示的码率为2/3,第一调度信息指示的码率为3/4,则第一通信装置根据表12可以确定第二信道学习模型不适用。
[0655]
该实现方式下,第二通信装置可以根据第一调度信息确定信道学习模型是否适用,即在不进行信道学习模型训练的情况下,确定第二信道学习模型是否适用,可以降低第二通信装置的处理复杂度。同时根据确定第一调度信息的确定第一信道学习模型是否适用,也可以保证基于第一信道学习模型下的通信性能。此外,在该实现方式中,不需要第一通信装置的协助,因此可以减小信令交互。
[0656]
在又一种实现方式中,第二通信装置可以根据数据传输性能确定第二信道学习模型是否适用。具体地,可以参考s210中,关于第一通信装置根据数据传输性能确定第一信道学习模型是否适用的描述,为了简洁,此处不再详述。
[0657]
数据传输性能可以是指与第二通信装置通信的某一个第一通信装置的数据传输性能,根据数据传输性能可以确定与第一通信装置对应的第二信道学习模型是否适用。对第一通信装置对应的第二信道学习模型,即与第一通信装置侧部署的第一信道学习模型对应的第二信道学习模型。
[0658]
数据传输性能也可以是指第二通信装置的小区的数据传输性能,例如小区边缘吞吐量,小区中心吞吐量,小区总吞吐量等。通过该小区的数据传输性能,第二通信装置可以确定该小区对应的第二信道学习模型是否适用。与小区对应的第二信道学习模型,即与小区中的第一通信装置对应的第二信道学习模型。
[0659]
该实现方式下,第二通信装置可以根据数据传输性能确定第二信道学习模型是否适用,即在不进行信道学习模型训练的情况下,确定第二信道学习模型是否适用,可以降低第二通信装置的处理复杂度。同时根据数据传输性能确定第二信道学习模型是否适用的方式是以最终的通信性能来衡量第二信道学习模型的准确性,因此也可以保证基于该第二信道学习模型下的通信性能,即该方式有助于提高通信性能。
[0660]
在又一种实现方式中,第二通信装置可以根据第一通信装置所处的场景是否发生变化确定第一信道学习模型是否适用。
[0661]
其中,场景可以是以下至少一种:室内静止、室外静止、低速运动、高速运动、郊区、城镇、宏站、微站、车载场景、v2x场景、3gpp协议定义的场景等。
[0662]
不同的场景可以对应不同的信道环境,进而导致第二信道学习模型不适用。例如有些场景下,第一通信装置和第二通信装置的信道为直射径;而有些场景下,第一通信装置和第二通信装置的信道为非直射径。又例如,有些场景下,第一通信装置与第二通信装置之间的反射体比较少,相对应地,第一通信装置与第二通信装置之间的信道简单;而有些场景下,第一通信装置与第二通信装置之间的反射体比较多,相对应地,第一通信装置与第二通信装置之间的信道复杂。
[0663]
因此,在第一通信装置所处的场景发生变化的情况下,第二信道学习模型可能不适用。例如,若第一通信装置从室内运动到室外,则第二通信装置可以确定第二信道学习模型不适用;又例如,第一通信装置从宏站运动到微站,则第二通信装置可以确定第二信道学习模型不适用。
[0664]
可选的,第一通信装置可以向第二通信装置发送位置信息,第二通信装置根据接收到的位置信息确定第一通信装置所处的场景,进而根据第一通信装置所处的场景确定第二信道学习模型是否适用。
[0665]
可选的,第一通信装置可以向第二通信装置发送场景信息,第二通信装置根据接收到的第一通信装置所处的场景确定第二信道学习模型是否适用。
[0666]
该实现方式下,第二通信装置可以根据第一通信装置所处的场景确定第二信道学习模型是否适用,即在不进行信道学习模型训练的情况下,确定第二信道学习模型是否适用,可以降低第二通信装置的处理复杂度,且该方式简单快捷。
[0667]
可选地,在第二通信装置是终端设备的情况下,第二通信装置可以根据自身所处的场景确定第二信道学习模型是否适用。
[0668]
在又一种实现方式中,第二通信装置可以根据第二信道学习模型的性能指标确定第二信道学习模型是否适用。
[0669]
作为一个示例,第二通信装置可以根据目标信道信息(或者第一信道信息)与第二信道信息的差异性或者相似性确定信道学习模型是否适用。例如,第二通信装置可以根据第二信道学习模型对目标信道信息进行压缩以及解压得到第二信道信息。例如,第二通信装置可以根据第二信道学习模型对第一信道信息进行解压得到第二信道信息。通过比较目标信道信息和第二信道信息的特征,或者通过比较第一信道信息和第二信道信息的特征,进而确定第二信道学习模型的误差,从而确定第二信道学习模型是否适用。具体地,可以参考s210中,关于第一通信装置根据第一信道学习模型的性能指标确定第一信道学习模型是否适用的描述,为了简洁,此处不再详述。
[0670]
其中,目标信道信息可以是第一通信装置向第二通信装置发送的,也可以是第二通信装置根据上下行信道的互易性获得的。
[0671]
其中,第一信道信息可以是第一通信装置向第二通信装置发送的。
[0672]
该实现方式下,第二通信装置可以根据信道学习模型的性能指标确定第二信道学习模型是否适用,即通过进行信道学习模型训练确定第二信道学习模型是否适用,该方式
可以不依赖于第一通信装置的辅助,第二通信装置即可确定第二信道学习模型是否适用,因此该方式简单快捷
[0673]
作为另一个示例,第二通信装置可以根据目标信道信息与第二信道信息的误差确定第二信道学习模型是否适用。具体地,可以参考s210中,关于第一通信装置可以根据目标信道信息与第二信道信息的误差确定第一信道学习模型是否适用,为了简洁,此处不再详述。
[0674]
其中,目标信道信息可以是第一通信装置向第二通信装置发送的,也可以是第二通信装置根据上下行信道的互易性获得的。
[0675]
该实现方式下,第二通信装置可以根据目标信道信息与第二信道信息的误差确定第二信道学习模型是否适用,即通过进行信道学习模型训练确定第二信道学习模型是否适用,该方式可以不依赖于第一通信装置的辅助,第二通信装置即可确定信道学习模型是否适用,因此该方式简单快捷。在同时考虑目标信道信息和第二信道信息的特征的情况下确定第二信道学习模型是否适用,即可以保证第一通信装置和第二通信装置获得相同或相近的信道信息的特征,有助于后续利用该信道信息进行数据传输时提高数据传输的性能。
[0676]
在又一种实现方式中,第二通信装置可以根据第一通信装置发送的信道学习模型的性能指标确定第二信道学习模型是否适用。其中,第一通信装置确定信道学习模型的性能指标的方式可以参考s210中的描述,为了简洁,此处不再详述。
[0677]
该实现方式下,第二通信装置可以根据第一通信装置发送的信道学习模型的性能指标确定第二信道学习模型是否适用,即第二通信装置不需要进行信道学习模型训练即可确定第二信道学习模型是否适用,降低了第二通信装置的处理复杂度,因此,该方式简单快捷。
[0678]
s320,第一通信装置发送第一消息,第一消息用于指示用于更新第二信道学习模型的一个或多个配置参数。相应地,在s320中,第二通信装置接收第一消息,并根据第一消息确定第二信道学习模型不适用,并且更新第二信道学习模型。
[0679]
可选的,第一消息中也可以包括用于更新第一信道学习模型的一个或多个配置参数。
[0680]
可选的,用于更新第一信道学习模型的一个或多个配置参数也可以通过其他消息发送,其他消息与第一消息不同,具体的,本技术实施例对此不做限定。
[0681]
第一通信装置在确定第一信道学习模型不适用的情况下,可以确定新的第一信道学习模型和新的第二信道学习模型,并将新的第二信道学习模型的一个或多个配置参数发送给第二通信装置,以用于更新第二信道学习模型。可选地,第一通信装置可以将新的第二信道学习模型的配置参数中不同于先前的第二信道学习模型的一个或多个配置参数发送给第二通信装置,以用于更新先前的第二信道学习模型。
[0682]
可选的,第一通信装置在确定第一信道学习模型不适用的情况下,可以确定新的第二信道学习模型,并将新的第二信道学习模型的一个或多个配置参数发送给第二通信装置,以用于更新第二信道学习模型,并将用于更新第二信道学习模型的一个或多个配置参数发送给第二通信装置。
[0683]
该方式下,第一消息包括用于更新第二信道学习模型的一个或多个配置参数。相应地,第二通信装置可以根据第一消息更新第二信道学习模型。一个或多个配置参数可以
包括如下至少一项:模型类型、模型结构、模型算法、模型权值向量、模型权值矩阵、模型偏置向量、模型偏置矩阵、模型激活函数。
[0684]
其中,模型的类型包括机器学习的算法、神经网络模型或自动编码模型。
[0685]
例如,在信道学习模型是机器学习的算法的情况下,配置参数可以包括模型算法,用于指示信道学习模型具体是机器学习算法中的哪一种算法。
[0686]
又例如,在信道学习模型是神经网络模型的情况下,配置参数可以包括模型结构,用于指示信道学习模型具体是哪一种神经网络,以及模型结构还可以包括输入层维数、输出层维数、隐藏层层数、隐藏层神经元数、训练算法、损失函数中的一项或多项。配置参数可以包括变换算法、权值矩阵权值向量、偏置向量、偏置矩阵、激活函数中的一项或多项。
[0687]
再例如,在信道学习模型是卷积神经网络模型的情况下,配置参数可以包括模型结构,用于指示各层的数目和/或各层的先后顺序。配置参数还可以包括以下一项或多项:针对数据输入层的参数(预处理操作算法、输入数据的维数、输入数据的取值范围)、针对卷积层的参数(输入单元的大小、感受域、步幅、补零的数量、深度、输出单元的深度、权值矩阵)、针对激励层的参数(激活函数)、针对池化层的参数(池化算法、空间范围、步幅、输入单元的大小、输出单元的大小)、针对全连接层的参数(权值矩阵、权值向量、偏置矩阵、偏置向量)。
[0688]
本技术实施例对第一通信装置确定用于更新第一信道学习模型和第二信道学习模型的一个或多个配置参数的方式不做限定。即本技术实施例对第一通信装置确定第一信道学习模型和/或第二信道学习模型的方式不做限定。以下实施例提供了第一通信装置确定第一信道学习模型和/或第二信道学习模型的方式,第一通信装置确定信道学习模型的方式可以作为独立的实施例,也可以与其他实施例相结合,具体的,本技术对此不做限定。如下一种或多种确定信道学习模型的方式方式可以单独使用,也可以联合使用,具体的,本技术对此不做限定。
[0689]
作为一个示例,第一通信装置可以根据第一参数确定第一信道学习模型和第二信道学习模型。
[0690]
其中,第一参数包括如下至少一项:终端设备所在的小区的小区标识、终端设备所在的场景、终端设备的类型、终端设备所在的地理位置。
[0691]
可选地,在第一通信装置是终端设备的情况下,第一通信装置可以根据自身所在的小区、所在的场景、类型或所在的地理位置确定第一参数。
[0692]
可选地,在第一通信装置是网络设备、第二通信装置是终端设备的情况下,第一通信装置可以接收第二通信装置发送的与第一参数相关的信息,并确定第一参数。
[0693]
终端设备所在的场景可以是室内、室外、郊区、城镇、外界环境(例如,白天、晚上、晴天、阴天、交通顺畅、交通拥堵)等。例如,终端设备处于室内,则第一通信装置可以确定与室内场景对应的第一信道学习模型和/或第二信道学习模型,进一步确定用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数。
[0694]
终端设备的类型可以是终端设备的天线端口数、处理能力等。
[0695]
终端设备所在的地理位置可以是三维坐标、二维坐标、定位数据等。如图11所示,若终端设备所在的地理位置是区域1,则第一通信装置可以确定与区域1对应的第一信道学习模型和/或第二信道学习模型,并确定用于更新第一信道学习模型和/或第二信道学习模
型的一个或多个配置参数;若终端设备所在的地理位置是区域2,则第一通信装置可以确定与区域2对应的第一信道学习模型和/或第二信道学习模型,并确定用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数。
[0696]
可选地,在第一通信装置是网络设备的情况下,第一通信装置向第二通信装置发送的用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数可以是终端级、小区级或终端组级。以终端级为例,第一通信装置以单播的方式分别向每个第二通信装置发送用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数;以小区级为例,第一通信装置以广播的方式向小区内的多个第二通信装置发送用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数;以终端组级为例,第一通信装置以广播或组播的方式向终端组内的多个第二通信装置发送用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数。
[0697]
具体地,第一通信装置可以根据第一参数从数据库#1保存的配置参数集中确定第一信道学习模型和第二信道学习模型。
[0698]
其中,数据库#1可以是保存信道学习模型相关信息或者相关数据的数据库,例如数据库#1可以保存信道学习模型的配置参数等。
[0699]
数据库#1可以是第一通信装置的本地数据库,也可以是存储在高层的数据库。
[0700]
以数据库#1是存储在高层的数据库为例,存储在高层的数据库可以存储在移动性管理单元、核心网、云端、中央管理器、运营商系统、第一通信装置群组管理系统、数据中心中的数据库。在此情况下,第一通信装置可以与高层进行通信交互,并从高层的数据库中确定信道学习模型的配置参数。例如,第一通信装置可以从高层数据库下载和/或读取数据库中存储的信道学习模型的配置参数,进而确定第一信道学习模型和/或第二信道学习模型。或者,第一通信装置可以接收高层网元发送的关于信道学习模型的配置参数,进而确定第一信道学习模型和/或第二信道学习模型。
[0701]
以数据库#1是存储在第一通信装置的本地数据库为例,,第一通信装置可以从本地数据库下载和/或读取数据库中存储的信道学习模型的配置参数,进而确定第一信道学习模型和/或第二信道学习模型。
[0702]
第一通信装置的本地数据库中存储的信道学习模型的配置参数可以是预配置的,也可以是第一通信装置侧通过训练学习确定并且存储在本地数据库中的。第一通信装置可以在应用信道学习模型之前,根据第一参数从本地数据库中确定信道学习模型。
[0703]
该实现方式下,第一通信装置可以根据第一参数确定第一信道学习模型和/或第二信道学习模型,并进一步确定用于更新第二信道学习模型的配置参数,即不进行信道学习模型训练即可确定新的信道学习模型,降低了第一通信装置的处理复杂度。
[0704]
作为另一个示例,第一通信装置可以对第一信道学习模型和第二信道学习模型进行训练,以获得第一信道学习模型和第二信道学习模型,并进一步确定用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数。
[0705]
第一通信装置对第一信道学习模型和第二信道学习模型进行训练的方式可以是:
[0706]
1)基于接收的参考信号获得目标信道信息;
[0707]
2)根据目标信道信息和第一信道学习模型确定第一信道信息;
[0708]
3)根据第一信道信息和第二信道学习模型确定第二信道信息;
[0709]
4)计算第二信道信息和目标信道信息的误差;
[0710]
5)基于得到的误差计算损失函数,通过损失函数计算梯度信息,并将梯度信息反向传播;
[0711]
6)通过梯度下降的方法更新第一信道学习模型和第二信道学习模型。
[0712]
若更新第一信道学习模型和第二信道学习模型之后,损失函数的值小于预设门限值,则将上述梯度信息作为用于更新第二信道学习模型的一个或多个配置参数发送给第二通信装置。
[0713]
若损失函数的值大于或等于预设门限值,则第一通信装置继续基于上述方法对第一信道学习模型和第二信道学习模型进行训练,直至损失函数的值小于预设门限值。进一步地,将多次训练过程中获得的多个梯度信息累加起来作为用于更新第二信道学习模型的一个或多个配置参数发送给第二通信装置。
[0714]
具体地,第一通信装置对信道学习模型进行训练的训练参数可以是预配置的,或者可以是根据来自第二通信装置的指示信息确定的。
[0715]
可选地,在用于更新信道学习模型的配置参数包括多个的情况下,第一通信装置可以采用相同的方法确定多个配置参数中的每一个,也可以采用不用的方法确定多个配置参数中的每一个。
[0716]
可选地,第一通信装置可以采用一级或多级的方式确定用于更新信道学习模型的配置参数。以一级方式为例,第一通信装置可以采用上述方法中的一种或多种确定用于更新信道学习模型的配置参数;以多级方式为为例,第一通信装置可以先采用上述方法中的一种或多种确定用于更新信道学习模型的一部分配置参数,再采用上述方法中的一种或多种确定用于更新信道学习模型的另一部分配置参数。例如,第一通信装置根据第一参数从高层数据库中确定信道学习模型的结构,再根据第一参数从本地数据库中确定信道学习模型的维数、运算和/或函数,最后再根据来自第二通信装置的与配置参数相关的信息确定信道学习模型的变量。
[0717]
如下,本技术实施例提供了一种可以由第一通信装置执行的通信的方法。即如下方法是从第一通信装置的角度进行描述,该方法可以包括s310’至s320’中的至少一项:
[0718]
s310’(即s310),第一通信装置确定第一信道学习模型是否适用。具体的该步骤描述可以参考上文s310中的描述,为了简洁,此处不再详述。
[0719]
s320’(即s320),第一通信装置发送第一消息,第一消息用于指示用于更新第二信道学习模型的一个或多个配置参数。具体的该步骤描述可以参考上文s320中的描述,为了简洁,此处不再详述。
[0720]
如下,本技术实施例提供了一种可以由第二通信装置执行的通信的方法。即如下方法是从第二通信装置的角度进行描述,该方法可以包括s310”至s320”中的至少一项:
[0721]
s310”(即s320),第二通信装置接收第一消息,第一消息用于指示用于更新第二信道学习模型的一个或多个配置参数。具体的该步骤描述可以参考上文s320中的描述,为了简洁,此处不再详述。
[0722]
s320”(即s320),第二通信装置根据第一消息确定第二信道学习模型不适用,并且更新第二信道学习模型。具体的该步骤描述可以参考上文s320中的描述,为了简洁,此处不再详述。
[0723]
本技术实施例提供了一种第一通信装置确定信道学习模型不适用并告知第二通信装置的通信方法,本方法可以实现当信道学习模型不适用时及时上报告知第二通信装置,进而实现对信道学习模型的更新,从而可以提高信道学习模型的准确性和通信性能。
[0724]
图13示出了本技术另一实施例提供的通信的方法。本技术实施例可以作为独立的实施例,也可以与本技术中的其他实施例相结合,具体的,本技术对此不做限定。图13示出的方法400可以包括s410至s420。下面详细说明方法400中的各个步骤。
[0725]
s410,第二通信装置确定第二信道学习模型是否适用。
[0726]
第二信道学习模型用于根据第一信道信息确定第二信道信息,第二信道信息与目标信道信息的数据量相同或相近。可选的,第二信道信息可以用于进行数据传输,例如第二通信装置可以根据第二信道信息确定数据传输的调度信息等,或者确定数据传输的预编码等。
[0727]
其中,第一信道信息可以是根据第一信道学习模型和目标信道信息确定的,第一信道信息的数据量小于目标信道信息的数据量,因此也可以说第一信道学习模型用于对目标信道信息进行压缩以获得第一信道信息。
[0728]
具体地,关于信道信息的数据量的描述可以参数上文s210中的描述,为了简洁,此处不再详述。
[0729]
应理解,第一信道学习模型于第二信道学习模型是对应的,因此,第二通信装置确定第二信道学习模型是否适用可以理解为,第二通信装置确定第二信道学习模型和第一信道学习模型是否适用。即,第二通信装置在确定第二信道学习模型不适用的情况下,可以确定第一信道学习模型也不适用;第二通信装置在确定第二信道学习模型适用的情况下,可以确定第一信道学习模型也适用。
[0730]
第二通信装置可以周期性地确定第二信道学习模型是否适用,例如,第二通信装置在第i次确定第二信道学习模型是否适用之后启动定时器,在定时器超时的情况下,第二通信装置第i 1次确定第二信道学习模型是否适用。
[0731]
该方式下,可以降低第一通信装置与第二通信装置之间交互信令的开销,并且第二通信装置定时地确定第二信道学习模型是否适用,可以避免第二信道学习模型不适用的情况下导致的通信性能的下降。
[0732]
本技术实施例对第二通信装置确定第二信道学习模型是否适用的方法不做限定。具体地,第二通信装置确定第二信道学习模型是否适用的方法可以参考上文s310中的描述,为了简洁,此处不再详述。
[0733]
s420,第二通信装置发送第二消息,第二消息用于指示用于更新第一信道学习模型的一个或多个配置参数。相应地,在s420中,第一通信装置接收第二消息,并根据第二消息确定第一信道学习模型不适用,并且更新第一信道学习模型。
[0734]
可选的,第二消息中也可以包括用于更新第二信道学习模型的一个或多个配置参数。
[0735]
可选的,用于更新第二信道学习模型的一个或多个配置参数也可以通过其他消息发送,所述其他消息与第二消息不同,具体的,本技术实施例对此不做限定。
[0736]
第二通信装置在确定第二信道学习模型不适用的情况下,可以确定新的第一信道学习模型和新的第二信道学习模型,并将新的第一信道学习模型的一个或多个配置参数发
送给第一通信装置,以用于更新第一信道学习模型。可选地,第二通信装置可以将新的第一信道学习模型的配置参数中不同于先前的第一信道学习模型的一个或多个配置参数发送给第一通信装置,以用于更新先前的第一信道学习模型。
[0737]
可选的,第二通信装置在确定第二信道学习模型不适用的情况下,可以确定新的第一信道学习模型,并将新的第一信道学习模型的一个或多个配置参数发送给第二通信装置,以用于更新第一信道学习模型。
[0738]
该方式下,第二消息包括用于更新第一信道学习模型的一个或多个配置参数。相应地,第一通信装置可以根据第二消息更新第一信道学习模型。一个或多个配置参数可以包括如下至少一项:模型类型、模型结构、模型算法、模型权值向量、模型权值矩阵、模型偏置向量、模型偏置矩阵、模型激活函数。
[0739]
其中,模型的类型包括机器学习的算法、神经网络模型或自动编码模型。
[0740]
例如,在信道学习模型是机器学习的算法的情况下,配置参数可以包括模型算法,用于指示信道学习模型具体是机器学习算法中的哪一种算法。
[0741]
又例如,在信道学习模型是神经网络模型的情况下,配置参数可以包括模型结构,用于指示信道学习模型具体是哪一种神经网络,以及模型结构还可以包括输入层维数、输出层维数、隐藏层层数、隐藏层神经元数、训练算法、损失函数中的一项或多项。配置参数可以包括变换算法、权值矩阵权值向量、偏置向量、偏置矩阵、激活函数中的一项或多项。
[0742]
再例如,在信道学习模型是卷积神经网络模型的情况下,配置参数可以包括模型结构,用于指示各层的数目和/或各层的先后顺序。配置参数还可以包括以下一项或多项:针对数据输入层的参数(预处理操作算法、输入数据的维数、输入数据的取值范围)、针对卷积层的参数(输入单元的大小、感受域、步幅、补零的数量、深度、输出单元的深度、权值矩阵)、针对激励层的参数(激活函数)、针对池化层的参数(池化算法、空间范围、步幅、输入单元的大小、输出单元的大小)、针对全连接层的参数(权值矩阵、权值向量、偏置矩阵、偏置向量)。
[0743]
本技术实施例对第二通信装置确定第一信道学习模型和第二信道学习模型的方式不做限定。
[0744]
以下实施例提供了第二通信装置确定第一信道学习模型和/或第二信道学习模型的方式,第二通信装置确定信道学习模型的方式可以作为独立的实施例,也可以与其他实施例相结合,具体的,本技术实施例对此不做限定。如下一种或多种方式确定信道学习模型的方式可以单独使用,也可以联合使用,具体的,本技术实施例对此不做限定。
[0745]
作为一个示例,第二通信装置可以根据第一参数确定新的第一信道学习模型和新的第二信道学习模型。
[0746]
具体地,第二通信装置可以根据第一参数从数据库#2保存的配置参数集中确定第一信道学习模型和第二信道学习模型。
[0747]
其中,第一参数包括如下至少一项:终端设备所在的小区的小区标识、终端设备所在的场景、终端设备的类型、终端设备所在的地理位置。
[0748]
可选地,在第二通信装置是终端设备的情况下,第二通信装置可以根据自身所在的小区、所在的场景、类型或所在的地理位置确定第一参数。
[0749]
可选地,在第二通信装置是网络设备、第一通信装置是终端设备的情况下,第二通
信装置可以接收第一通信装置发送的与第一参数相关的信息,并确定第一参数。
[0750]
终端设备所在的场景可以是室内、室外、郊区、城镇、外界环境(例如,白天、晚上、晴天、阴天、交通顺畅、交通拥堵)等。例如,终端设备处于室内,则第二通信装置可以确定与室内场景对应的第一信道学习模型和/或第二信道学习模型,进一步确定用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数。
[0751]
终端设备的类型可以是终端设备的天线端口数、处理能力等。
[0752]
终端设备所在的地理位置可以是三维坐标、二维坐标、定位数据等。如图11所示,若终端设备所在的地理位置是区域1,则第二通信装置可以确定与区域1对应的第一信道学习模型和第二信道学习模型,并确定用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数;若终端设备所在的地理位置是区域2,则第二通信装置可以确定与区域2对应的第一信道学习模型和/或第二信道学习模型,并确定用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数。
[0753]
可选地,在第二通信装置是网络设备的情况下,第二通信装置向第一通信装置发送的用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数可以是终端级、小区级或终端组级。以终端级为例,第二通信装置以单播的方式分别向每个第一通信装置发送用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数;以小区级为例,第二通信装置以广播的方式向小区内的多个第一通信装置发送用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数;以终端组级为例,第二通信装置以广播或组播的方式向终端组内的多个第一通信装置发送用于更新第一信道学习模型和/或第二信道学习模型的一个或多个配置参数。
[0754]
其中,数据库#2可以是携带信道学习模型相关信息或者相关数据的数据库,例如数据库#2中可以保存信道学习模型的配置参数等。
[0755]
数据库#2可以是第二通信装置的本地数据库,也可以是存储在高层的数据库。
[0756]
以数据库#2是存储在高层的数据库为例,存储在高层的数据库可以是存储在移动性管理单元、核心网、云端、中央管理器、运营商系统、第二通信装置群组管理系统、数据中心中的数据库。在此情况下,第二通信装置可以与高层进行通信交互,并从高层的数据库中确定信道学习模型的配置参数。例如,第二通信装置可以根据第一参数从高层数据库下载和/或读取数据库中存储的信道学习模型,进而确定新的第一信道学习模型和新的第二信道学习模型。又例如,第二通信装置可以接收高层网元发送的关于信道学习模型的配置参数,进而确定新的第一信道学习模型和新的第二信道学习模型。
[0757]
以数据库#2是存储在第二通信装置的本地的数据库为例,第二通信装置可以从本地数据库下载和/或读取数据库中信道学习模型,进而确定第一信道学习模型和第二信道学习模型。
[0758]
第二通信装置的本地数据库中存储的信道学习模型的配置参数库预配置的,也可以是第二通信装置侧通过训练学习确定并且存储在本地数据库中的。第二通信装置可以在应用信道学习模型之前,根据第一参数从本地数据库确定信道学习模型。
[0759]
该实现方式下,第二通信装置可以根据第一参数确定第一信道学习模型和/或第二信道学习模型,并进一步确定用于更新第一信道学习模型的配置参数,即不进行信道学习模型训练即可确定新的信道学习模型,降低了第二通信装置的处理复杂度。
[0760]
作为另一个示例,第二通信装置可以对第一信道学习模型和第二信道学习模型进行训练,以获得第一信道学习模型和第二信道学习模型,并进一步确定用于更新第一信道学习模型的一个或多个配置参数。
[0761]
第二通信装置对第一信道学习模型和第二信道学习模型进行训练的方式可以是:
[0762]
1)根据第一信道信息和第二信道学习模型确定第二信道信息;
[0763]
2)计算第二信道信息和目标信道信息的误差;
[0764]
3)基于得到的误差计算损失函数,通过损失函数计算梯度信息,并将梯度信息反向传播;
[0765]
4)通过梯度下降的方法更新第一信道学习模型和第二信道学习模型。
[0766]
若更新第一信道学习模型和第二信道学习模型之后,损失函数的值小于预设门限值,则将上述梯度信息作为用于更新第一信道学习模型的一个或多个配置参数发送给第一通信装置。
[0767]
若损失函数的值大于或等于预设门限值,则第二通信装置继续基于上述方法对第一信道学习模型和第二信道学习模型进行训练,直至损失函数的值小于预设门限值。进一步地,将多次训练过程中获得的多个梯度信息累加起来作为用于更新第一信道学习模型的一个或多个配置参数发送给第二通信装置。
[0768]
其中,第一信道信息可以是第一通信装置向第二通信装置发送的。目标信道信息可以是第一通信装置向第二通信装置发送的,也可以是第二通信装置根据上下行信道的互易性获得的。
[0769]
具体地,第一通信装置对信道学习模型进行训练的训练参数可以是预配置的,或者可以是第一通信装置指示的。
[0770]
可选地,在用于更新信道学习模型的配置参数包括多个的情况下,第二通信装置可以采用相同的方法确定多个配置参数中的每一个,也可以采用不用的方法确定多个配置参数中的每一个。
[0771]
可选地,第二通信装置可以采用一级或多级的方式确定用于更新信道学习模型的配置参数。以一级方式为例,第二通信装置可以采用上述方法中的一种或多种确定用于更新信道学习模型的配置参数;以多级方式为为例,第二通信装置可以先采用上述方法中的一种或多种确定用于更新信道学习模型的一部分配置参数,再采用上述方法中的一种或多种确定用于更新信道学习模型的另一部分配置参数。例如,第二通信装置根据第一参数从高层数据库中确定信道学习模型的结构,再根据第二参数从本地数据库中确定信道学习模型的维数、运算和/或函数,最后再根据来自第一通信装置的与配置参数相关的信息确定信道学习模型的变量。
[0772]
如下,本技术实施例提供了一种可以由第一通信装置执行的通信的方法。即如下方法是从第一通信装置的角度进行描述,该方法可以包括s410’至s420’中的至少一项:
[0773]
s410’(即s420),第一通信装置接收第二消息,第二消息用于指示用于更新第一信道学习模型的一个或多个配置参数。具体的该步骤描述可以参考上文s420中的描述,为了简洁,此处不再详述。
[0774]
s420’(即s420),第一通信装置根据第二消息确定第一信道学习模型不适用,并更新第一信道学习模型。具体的该步骤描述可以参考上文s420中的描述,为了简洁,此处不再
详述。
[0775]
如下,本技术实施例提供了一种可以由第二通信装置执行的通信的方法。即如下方法是从第二通信装置的角度进行描述,该方法可以包括s410”至s420”中的至少一项:
[0776]
s410”(即s410),第二通信装置确定第二信道学习模型是否适用。具体的该步骤描述可以参考上文s410中的描述,为了简洁,此处不再详述。
[0777]
s420”(即s420),第二通信装置发送第二消息,第二信息用于指示用于更新第一信道学习模型的一个或多个配置参数。具体的该步骤描述可以参考上文s420中的描述,为了简洁,此处不再详述。
[0778]
如下,本技术实施例提供了一种通信的方法。下文中的实施例可以作为独立的实施例,也可以与本技术中的其他实施例相结合,具体的,本技术对此不做限定。
[0779]
如下,本技术实施例提供了一种由第一通信装置执行的通信的方法。即如下方法是从第一通信装置的角度进行描述,该方法可以包括s410*至s420*中的至少一项:
[0780]
s410*,第一通信装置接收第一指示信息,第一指示信息用于指示进行信道学习模型训练。具体的该步骤描述可以参考上文s230中的描述,为了简洁,此处不再详述。
[0781]
s420*,第一通信装置发送第一消息,第一消息用于指示用于更新信道学习模型的一个或多个配置参数。具体的该步骤描述可以参考本技术中其他实施例的描述,为了简洁,此处不再详述。
[0782]
如下,本技术实施例提供了一种可以由第二通信装置执行的通信的方法。即如下方法是从第二通信装置的角度进行描述,该方法可以包括s410**至s430**中的至少一项:
[0783]
s410**(即s410),第二通信装置确定第二信道学习模型是否适用。具体的该步骤描述可以参考上文s410中的描述,为了简洁,此处不再详述。
[0784]
s420**,第二通信装置发送第一指示信息,第一指示信息用于指示进行信道学习模型训练。具体的该步骤描述可以参考上文s230中的描述,为了简洁,此处不再详述。
[0785]
s430**,第二通信装置接收第一消息,第一消息用于指示用于更新第二信道学习模型的一个或多个配置参数。具体的该步骤描述可以参考上文s320中的描述,为了简洁,此处不再详述。
[0786]
本技术实施例提供了一种第二通信装置确定信道学习模型不适用并告知第一通信装置的通信方法,本方法可以实现当信道学习模型不适用时及时上报告知第一通信装置,进而实现对信道学习模型的更新,从而可以提高信道学习模型的准确性和通信性能。
[0787]
图14示出了本技术实施例提供的一种通信的方法的示意性流程图。具体的,本技术实施例中提供了通信中确定信道信息的方法的示意性流程图。本技术实施例可以作为独立的实施例,也可以与本技术中的其他实施例相结合,具体的,本技术对此不做限定。在图14示出的方法中,以第一通信装置是终端设备、第二通信装置是网络设备为例进行说明。如图14所示,方法500可以包括s510至s550,下面详细说明各个步骤。
[0788]
s510,终端设备和网络设备确定第一信道学习模型和第二信道学习模型。
[0789]
具体的,本步骤中包括终端设备确定第一信道学习模型,或者,终端设备确定第一信道学习模型和第二信道学习模型。相应的,本步骤中包括网络设备确定第二信道学习模型,或者,网络设备确定第一信道学习模型和第二信道学习模型。
[0790]
第一信道学习模型可以部署在终端设备侧,用于根据测得的下行信道信息确定第
一信道信息,第一信道信息的数据量小于测得的下行信道信息的数据量。部署也可以是指在实际应用中,第一信道学习模型可以在终端设备侧存储,终端设备侧可以基于第一信道学习模型进行信息处理或计算。
[0791]
第二信道学习模型可以部署在网络设备侧,用于根据第一信道信息确定第二信道信息,第二信道信息的数据量与测得的下行信道信息的数据量相同或相近。可选地,第二信道信息可以用于下行传输。部署也可以是指在实际应用中,第二信道学习模型可以在网络设备侧存储,网络设备侧可以基于第二信道学习模型进行信息处理或计算。
[0792]
确定信道学习模型可以包括确定信道学习模型中的配置参数。
[0793]
其中,信道学习模型中的配置参数包括模型的结构、模型的维数、模型中的运算、模型中的函数、模型中的变量、模型中的参数等中的一项或多项。
[0794]
模型的结构可以包括该模型是神经网络、主成分分析、自动编码等结构中的一项或多项。模型的结构还可以包括模型的输入信息的特征、模型的输出信息的特征等。
[0795]
其中,模型的输入信息的特征可以是指对高维信道信息(例如,测得的下行信道信息)进行运算之后的输入信息特征。对高维信道信息进行的运算可以是去均值、归一化运算、离散傅里叶变换、时延-角度域变换、或者实部和虚部分离等中的一项或者多项。输入信息可以是高维信道信息的实部和虚部联合的信息,也可以是高维信道信息的独立实部或独立虚部,或者可以是时延-角度域信息等。对高维信道信息进行运算也可以称为数据预处理。例如,确定该模型的输入信息的特征为归一化,时域-角度域变换,以及独立实部和虚部等。
[0796]
其中,模型的输出信息的特征可以是指编码或者降维之后的信息特征。例如该编码或者降维之后的信息可以是指归一化运算之后的信息、离散傅里叶变换之后的信息、时延-角度域变换之后的信息、实部和虚部联合的信息、或者实部和虚部分离之后的信息。
[0797]
模型的维数可以是模型中的层数、每层的维数、输入层/隐藏层/输出层的维数等中的一项或多项。例如,确定该模型的维数为n层卷积神经网络,输入层的维数为n1,输出层的维数为n2。其中,n,n1,n2为正整数。
[0798]
模型中的运算可以是线性运算、非线性运算等中的一项或多项。例如,确定该模型的运算为线性运算。该运算也可以用复杂度进行衡量或者表征。
[0799]
模型中的函数可以是数学运算、逻辑运算等,例如加减乘除、加权求和、加权求和加偏置、激活函数等中的一项或多项。例如,确定该模型的函数为加权求和加偏置以及relu激活函数。该激活函数可以是针对模型中的每一层分别确定,或可以一层或者多层采用相同的激活函数。
[0800]
模型中的变量可以是指模型中涉及的参数的信息,例如可以是参数的个数、参数的取值范围、参数的取值、参数的类型等中的一项或多项。参数可以是常量,也可以是变量。例如,确定该模型的权值矩阵为w,偏置矩阵为b,激活函数λ的变量取值等。
[0801]
第一信道学习模型可以包括一个或多个模型,对应的,第二信道学习模型也可以包括一个或多个模型。例如针对信道信息的实部有信道学习模型1,针对信道信息的虚部有信道学习模型2。
[0802]
例如,第一信道学习模型的结构为卷积神经网络,则高维信道信息实部和虚部可以分别对应一个卷积神经网络,即卷积神经网络1对应的输入信息为高维信道信息的实部,
编码输出信息为低维信道信息(例如,第一信道信息)的实部,卷积神经网络2对应的输入信息为高维信道信息的虚部,编码输出信息为低维信道信息的虚部。在高维信道信息的实部和虚部对应2个神经网络时,该2个神经网络的配置参数可以相同,也可以不同。
[0803]
又例如,第二信道学习模型的结构为卷积神经网络,则低维信道信息实部和虚部可以分别对应一个卷积神经网络,即卷积神经网络3对应的输入信息为低维信道信息的实部,译码输出信息为高维信道信息(例如,第二信道信息)的实部,卷积神经网络4对应的输入信息为低维信道信息的虚部,译码输出信息为高维信道信息的虚部。在低维信道信息的实部和虚部对应2个神经网络时,该2个神经网络的配置参数可以相同,也可以不同。
[0804]
确定信道学习模型可以是确定一个或多个信道学习模型的配置参数。
[0805]
作为一个示例,网络设备确定第一信道学习模型和第二信道学习模型,并将第一信道学习模型的配置参数发送给终端设备。具体地,网络设备确定第一信道学习模型和第二信道学习模型的方式,可以参考上文s420中关于第二通信装置确定新的第一信道学习模型和新的第二信道学习模型的描述,为了简洁,此处不再详述。
[0806]
作为另一个示例,终端设备确定第一信道学习模型和第二信道学习模型,并将第二信道学习模型的配置参数发送给网络设备。具体地,终端设备确定第一信道学习模型和第二信道学习模型的方式,可以参考上文s320中关于第一通信装置确定新的第一信道学习模型和新的第二信道学习模型的描述,为了简洁,此处不再详述。
[0807]
可选地,在s510之前,方法500还可以包括:终端设备接收网络设备发送的配置信息#1,该配置信息#1用于指示发送第一信道学习模型和/或第二信道学习模型的配置参数的资源、码率、调制方式、比特数、反馈顺序、反馈配置参数内容等中的一项或多项。相应地,终端设备根据该配置信息#1可以确定发送第一信道学习模型和/或第二信道学习模型的配置参数的资源、码率、调制方式、比特数或反馈顺序。可选地,网络设备可以通过高层信令发送该配置信息#1,也可以通过物理层信令发送该配置信息#1。其中,高层信令可以是指rrc信令或mac信令,物理层信令是指dci信令。
[0808]
可选地,在s510之前,方法500还可以包括:终端设备接收网络设备发送的配置信息#2,该配置信息#2用于指示接收第一信道学习模型和/或第二信道学习模型的配置参数的资源、码率、调制方式、比特数、反馈顺序、反馈配置参数内容等中的一项或多项。相应地,终端设备根据该配置信息#2可以确定接收第一信道学习模型和/或第二信道学习模型的配置参数的资源、码率、调制方式、比特数或反馈顺序。
[0809]
可选地,网络设备可以通过高层信令发送该配置信息#2,也可以通过物理层信令发送该配置信息#2。其中,高层信令可以是指rrc信令或mac信令,物理层信令是指dci信令。
[0810]
作为另一个实例,终端设备确定第一信道学习模型,网络设备确定第二信道学习模型。应理解,在终端设备和网络设备基于相同的规则各自确定信道学习模型的情况下,终端设备确定的第一信道学习模型和网络设备确定的第二信道学习模型是对应的。例如,终端设备根据自身所处的场景确定第一信道学习模型,与网络设备根据终端设备所处的场景确定的第二信道学习模型是对应的。
[0811]
例如,第一信道学习模型可以是对应自动编码模型中的编码模块,第二信道学习模型可以是对应自动编码模型中的解码模块。第一信道学习模型和第二信道学习模型是对应的。
[0812]
s520,网络设备发送参考信号。相应地,在s520中,终端设备接收参考信号。
[0813]
网络设备向终端设备发送参考信号的方式参考现有技术,为了简洁,本技术实施例不再赘述。
[0814]
可选的,s520可以在s510之前执行,或者,s520可以在s510之后执行,本技术对此不做限定。
[0815]
其中,参考信号可以为dmrs,csi-rs,trs,ssb等,本技术对此不做限定。
[0816]
例如终端设备可以接收csi-rs配置信息,根据配置信息可以周期性,半持续性,或者,非周期性接收csi-rs。所述csi-rs配置信息可以是指csi测量配置信息,该csi配置信息中可以包括csi资源配置信息(csi-resourceconfig),csi上报配置信息(csi-reportconfig)中至少一项。
[0817]
可选的,终端设备接收网络设备发送的csi-rs配置信息,还可以包括终端设备接收网络设备发送的信道学习模型的配置参数。例如信道学习模型的配置参数可以包含在csi-rs配置信息中。
[0818]
具体的,信道学习模型的配置参数可以包含在csi上报配置信息中。
[0819]
可选的,终端设备可以基于网络设备发送的信道学习模型的配置参数确定信道学习模型。网络设备可以通过高层信令和/或物理层信令发送所述信道学习模型的配置参数。
[0820]
可选的,s520和s510的前后顺序,本技术对此不做限定。例如,可以先确定信道学习模型再发送参考信号,或者先发送参考信号再确定信道学习模型。例如可以先确定信道学习模型再接收参考信号,或者先接收参考信号再确定信道学习模型。
[0821]
s530,终端设备基于目标信道信息和第一信道学习模型确定第一信道信息。
[0822]
其中,目标信道信息可以是终端设备基于接收的参考信号获得的下行信道信息。具体的,目标信道信息可以参考本技术中的描述,为了简洁,本技术实施例不再赘述。
[0823]
终端设备获得下行信道信息的方式可以参考现有技术,为了简洁,本技术实施例不再赘述。
[0824]
终端设备将测得的下行信道信息作为第一信道学习模型的输入数据,根据第一信道学习模型对下行信道信息进行编码或压缩,得到第一信道信息。
[0825]
例如,若第一信道学习模型是神经网络模型,终端设备可以将下行信道信息的实部进行编码,得到低维信道信息的实部,再将下行信道信息的虚部进行编码,得到低维信道信息的虚部。在此情况下,第一信道信息可以包括低维信道信息的实部和低维信道信息的虚部。
[0826]
例如,终端设备根据第一信道学习模型对64*1维复数的下行信道信息进行编码后,可以得到2维的实部信息和2维的虚部信息,则终端设备可以将2维的实部信息和2维的虚部信息进行量化后作为第一信道信息。
[0827]
又例如,若第一信道学习模型是神经网络模型,终端设备可以将下行信道信息的实部和虚部联合编码,得到低维信道信息。在此情况下,第一信道信息可以包括低维实数信息。
[0828]
例如,终端设备根据第一信道学习模型对64*1维复数的下行信道信息进行编码后,可以得到4维的实数信息,则终端设备可以将4维的实数信息进行量化后作为第一信道信息。
[0829]
s540,终端设备发送第一信道信息。相应地,在s540中,网络设备接收第一信道信息。
[0830]
终端设备发送第一信道信息的方式,可以参考现有技术中终端设备反馈csi的方式,为了简洁,本技术实施例不再赘述。
[0831]
可选地,在s540之前,方法500还可以包括:终端设备接收网络设备发送的配置信息#3,该配置信息#3用于指示发送第一信道信息的资源、码率、调制方式、比特数、反馈顺序、反馈配置参数内容、第一信道信息的内容等中的一项或多项。相应地,终端设备根据该配置信息#2可以确定发送第一信道信息的资源、码率、调制方式、比特数、反馈顺序、反馈配置参数内容或第一信道信息的内容。即,方法500包括:网络设备发送配置信息#3,终端设备接收配置信息#3。
[0832]
可选地,网络设备可以通过高层信令发送该配置信息#3,也可以通过物理层信令发送该配置信息#3。其中,高层信令可以是指rrc信令或mac信令,物理层信令是指dci信令。
[0833]
可选地,在终端设备确定第二信道学习模型的情况下,终端设备可以将第二信道学习模型的配置参数和第一信道信息一起发送,也可以将第二信道学习模型的配置参数和第一信道信分开发送。例如,终端设备在信道#1发送第二信道学习模型的配置参数,在信道#2发送第一信道信息;或者,终端设备在信道#3发送第二信道学习模型的配置参数和第一信道信息。其中,信道#1~信道#3可以是pucch、pusch或物理反馈信道(physical feedback channel,pfch),或者可以是其他上行信道。
[0834]
可选地,在终端设备确定第一信道学习模型和第二信道学习模型的情况下,终端设备可以将第一信道学习模型的配置参数,第二信道学习模型的配置参数和第一信道信息一起发送,也可以将第一信道学习模型的配置参数,第二信道学习模型的配置参数和第一信道信分开发送。例如,终端设备在信道#1发送第一信道学习模型的配置参数,第二信道学习模型的配置参数,在信道#2发送第一信道信息;或者,终端设备在信道#3发送第一信道学习模型的配置参数,第二信道学习模型的配置参数和第一信道信息。其中,信道#1~信道#3可以是pucch、pusch或pfch,或者可以是其他上行信道。
[0835]
可选地,在s540之前,方法500还可以包括:终端设备接收网络设备发送的配置信息#4,该配置信息#4用于指示发送第一信道信息和信道学习模型的配置参数的资源、码率、调制方式、比特数、反馈顺序、反馈配置参数内容、第一信道信息的内容等中的一项或多项。相应地,终端设备根据该配置信息#4可以确定发送第一信道信息和信道学习模型的配置参数的资源、码率、调制方式、比特数、反馈顺序或第一信道信息的内容。即,方法500包括:网络设备发送配置信息#4,终端设备接收配置信息#4。
[0836]
可选地,网络设备可以通过高层信令发送该配置信息#4,也可以通过物理层信令发送该配置信息#4。其中,高层信令可以是指rrc信令或mac信令,物理层信令是指dci信令。
[0837]
可选地,在s540之前,方法500还可以包括:终端设备接收网络设备发送的配置信息#5,该配置信息#5用于指示发送信道学习模型的配置参数的资源、码率、调制方式、比特数、反馈顺序、反馈配置参数内容等中的一项或多项。相应地,终端设备根据该配置信息#5可以确定发送信道学习模型的配置参数的资源、码率、调制方式、比特数、反馈顺序、反馈配置参数内容。即,方法500包括:网络设备发送配置信息#5,终端设备接收配置信息#5。
[0838]
可选地,网络设备可以通过高层信令发送该配置信息#5,也可以通过物理层信令
发送该配置信息#5。其中,高层信令可以是指rrc信令或mac信令,物理层信令是指dci信令。
[0839]
s550,网络设备根据第一信道信息和第二信道学习模型确定第二信道信息。
[0840]
如上文所述,第二信道信息的数据量与测得的下行信道信息的下行信道信息的数据量相同或相近,也就是说,网络设备根据第二信道学习模型对第一信道信息进行解码或解压缩得到第二信道信息。
[0841]
例如,若第二信道学习模型是神经网络模型,网络设备可以将第一信道信息中的低维信道信息的实部信息进行解码或者解压缩,得到高维实部信息,将第一信道信息中的低维信道信息的虚部信息进行解码或解压缩,得到高维虚部信息。第二信道信息可以包括高维实部信息和高维虚部信息。即第二信道信息可以是高维复数信道信息。
[0842]
例如,网络设备将2维实部信息进行解码或解压缩后,可以得到64*1维的高维实部信息,将2维虚部信息进行解码或解压缩后,可以得到64*1维的高维虚部信息,则网络设备可以将64*1维的实部信息和64*1维的虚部信息作为第二信道信息。
[0843]
又例如,若第二信道学习模型是神经网络模型,网络设备可以将低维信道信息的实部和虚部联合进行解码或解压缩,得到高维实数信息。即第二信道信息可以是包括高维实数信息。
[0844]
例如,网络设备将4维实数的低维信道信息进行解码或解压缩后,可以得到64*2维实数信息。网络设备可以将64*2维实数信息作为第二信道信息。
[0845]
进一步地,网络设备确定第二信道信息之后,可以根据第二信道信息进行预编码,并根据确定的预编码进行数据传输,可以提高预编码的准确性,降低小区间和/或多个终端设备间的信号干扰,进而提高通信性能。
[0846]
进一步地,网络设备确定第二信道信息之后,可以根据第二信道信息确定数据的调度信息,并根据确定的调度信息进行数据传输,可以提高数据传输的准确性,进而提高通信性能。
[0847]
如下,本技术实施例提供了一种可以由第一通信装置执行的通信的方法。即如下方法是从第一通信装置的角度进行描述,该方法可以包括s510’至s540’中的至少一项:
[0848]
s510’(即s510),第一通信装置确定信道学习模型。具体的该步骤描述可以参考上文s510中的描述,为了简洁,此处不再详述。
[0849]
s520’(即s520),第一通信装置接收参考信号。具体的该步骤描述可以参考上文s520中的描述,为了简洁,此处不再详述。其中,s510’和s520’的顺序也可以是先执行s520’,后执行s510’,本技术对此不做限定。
[0850]
s530’(即s530),第一通信装置基于目标信道信息和第一信道学习模型确定第一信道信息。具体的该步骤描述可以参考上文s530中的描述,为了简洁,此处不再详述。
[0851]
s540’(即s540),第一通信装置发送第一信道信息。具体的该步骤描述可以参考上文s540中的描述,为了简洁,此处不再详述。
[0852]
如下,本技术实施例提供了一种可以由第二通信装置执行的通信的方法。即如下方法是从第二通信装置的角度进行描述,该方法可以包括s510”至s540”中的至少一项:
[0853]
s510”(即s510),第二通信装置确定信道学习模型。具体的该步骤描述可以参考上文s510中的描述,为了简洁,此处不再详述。
[0854]
s520”(即s520),第二通信装置发送参考信号。具体的该步骤描述可以参考上文
s520中的描述,为了简洁,此处不再详述。其中,s510”和s520”的顺序也可以是先执行s520’,后执行s510’,本技术对此不做限定。
[0855]
s530’(即s540),第二通信装置接收第一信道信息。具体的该步骤描述可以参考上文s540中的描述,为了简洁,此处不再详述。
[0856]
s540’(即s550),第二通信装置根据第一信道信息和第二信道学习模型确定第二信道信息。具体的该步骤描述可以参考上文s550中的描述,为了简洁,此处不再详述。
[0857]
本方法中,终端设备根据第一信道学习模型确定第一信道信息,并向网络设备发送第一信道信息,可以降低信道信息反馈的开销,提高通信性能。另外,网络设备根据收到的第一信道信息和第二信道学习模型可以确定第二信道信息,进一步,根据第二信道信息确定数据传输的预编码和调度信息,可以提高信道获取的准确性,即提高预编码的准确性,有利于降低小区或者多个终端间的干扰,提高数据传输的准确性,提高通信性能。
[0858]
如下本技术实施例提供了一种通信的方法。本实施例中提供了一种根据终端设备的能力确定信道学习模型的训练和/或反馈和/或更新方法。如下方法可以作为独立的实施例,也可以与本技术中的其他实施例相结合,具体的,本技术对此不做限定。
[0859]
因为无线信道是随时间变化的,因此网络设备和/或终端设备确定信道学习模型后,随着时间的变化,信道学习模型可能不适用于当前的信道状况,此时网络设备和/或终端设备需要对信道学习模型进行训练和/或反馈和/或更新等。
[0860]
例如,终端设备的能力可以是指如下终端类型中的至少一种,:主动学习类终端、网络设备指示类终端、被动接收类终端等。
[0861]
其中,主动学习类终端是指可以主动进行信道学习模型训练,并向网络设备发送信道学习反馈信令的终端设备。网络设备指示类终端是指可以根据网络设备发送的信道学习训练指示,进行信道学习模型训练并向网络设备发送信道学习反馈信令的终端设备。被动接收类终端是指没有能力进行信道学习模型训练,可通过接收网络设备发送的信道学习模型的配置参数的信令确定信道学习模型的终端设备。
[0862]
其中,信道学习反馈信令中可以包括信道学习模型训练的结果,例如,第一信道学习模型是否适用,和/或,用于更新第一信道学习模型的配置参数,和/或,用于更新第二信道学习模型的配置参数。具体的可以参考本技术中s210中关于第一消息的描述,为了简洁,此处不再详述。
[0863]
例如,终端设备的能力可以是指如下类型的终端中的至少一种:终端设备支持信道学习模型训练、终端设备不支持信道学习模型训练、终端设备使能信道学习模型训练、终端设备不使能信道学习模型训练等。
[0864]
进一步,终端设备可以向网络设备发送关于终端设备能力的信息,即终端设备可以向网络设备上报终端设备的能力。例如,终端设备可以上报是否支持信道学习模型训练,或者上报终端类型。
[0865]
该方法中,根据终端设备的能力确定信道学习模型的方法可以更适应在实际通信系统中有多种终端设备的情况,根据不同的终端设备的能力采用不同的方法确定和/或训练和/或反馈和/或更新信道学习模型,可以提高通信系统的灵活性,更兼顾了不同能力的终端设备,提高通信性能。
[0866]
下面针对每一种类型的终端设备如何进行信道学习模型的训练和/或反馈和/或
更新进行说明。例如,针对主动学习类终端可以按照图16的方法中的至少一个步骤与网络设备进行通信,针对网络设备指示类终端可以按照图15的方法中的至少一个步骤与网络设备进行通信,针对被动接收类终端可以按照图17的方法中的至少一个步骤与网络设备进行通信。例如,针对不支持(或不使能)信道学习模型训练的终端设备可以按照图15或图16的方法中的至少一个步骤与网络设备进行通信,针对支持(或使能)信道学习模型训练的终端设备可以按照图17的方法中的至少一个步骤与网络设备进行通信。
[0867]
可选的,在图15至图17所述的方法中,第一通信装置和/或第二通信装置可以先确定终端设备的能力。具体的确定方法可以按照上述描述。即可以包括第一通信装置发送终端设备能力的信息,以及第二通信装置接收终端设备能力的信息的步骤。
[0868]
图15示出了本技术实施例提供的通信的方法的示意性流程图。本技术实施例可以作为独立的实施例,也可以与本技术中的其他实施例相结合,具体的,本技术对此不做限定。在图15示出的方法中,以第一通信装置是终端设备、第二通信装置是网络设备为例进行说明。如图15所示,方法600可以包括s610至s660中的至少一项,下面详细说明各个步骤。
[0869]
s610,网络设备发送信道学习训练信令(第一指示信息的一例)。相应地,在s610中,终端设备接收信道学习训练信令。
[0870]
信道学习训练信令用于指示终端设备进行信道学习模型训练,即用于指示终端设备确定第一信道学习模型是否适用,和/或,指示终端设备确定信道学习模型。
[0871]
可选地,在由网络设备确定第一信道学习模型和第二信道学习模型的情况下,信道学习训练信令中还可以包括第一信道学习模型的配置参数。第一信道学习模型用于根据测得的下行信道信息确定第一信道信息,第一信道信息的数据量小于测得的下行信道信息的数据量。
[0872]
可选地,信道学习训练信令中还可以包括第二信道学习模型的配置参数。第二信道学习模型用于根据第一信道信息确定第二信道信息。
[0873]
可选地,信道学习训练信令中还可以包括信道学习模型训练的时间、信道学习模型训练的参考信号的配置信息、信道学习训练的反馈内容相关的信息中的一项或多项。
[0874]
可选地,第一信道学习模型的配置参数、第二信道学习模型的配置参数、信道学习模型训练的时间、信道学习模型训练的参考信号的配置信息、信道学习模型训练的反馈内容相关的信息中的一项或多项,可以通过不同的信令发送给终端设备。
[0875]
可选的,信道学习训练信令可以通过高层信令发送,例如mac层信令,rrc层信令,或者,可以通过物理层信令发送,例如dci信令。
[0876]
更多的关于信道学习训练信令的描述可以参考上文s230中关于第一指示信息的描述,为了简洁,此处不再详述。
[0877]
s620,终端设备根据信道学习训练信令进行信道学习模型训练。
[0878]
终端设备根据接收到的信道学习训练信令可以进行信道学习模型训练,并确定第一信道学习模型是否适用,或者是否需要更新。终端设备确定第一信道学习模型是否适用的方法可以参考上文s210中的描述。
[0879]
可选地,在终端设备确定第一信道学习模型不适用的情况下,终端设备还可以确定新的第一信道学习模型和新的第二信道学习模型。终端设备确定第一信道学习模型和第二信道学习模型的方法可以参考上文s320中的描述。
[0880]
s630,终端设备发送信道学习反馈信令(第一消息的一例)。相应地,在s630中,网络设备接收信道学习反馈信令。
[0881]
信道学习反馈信令中可以包括信道学习模型训练的结果,例如,第一信道学习模型是否适用,和/或,用于更新第一信道学习模型的配置参数,和/或,用于更新第二信道学习模型的配置参数。
[0882]
可选的,终端设备在向网络设备发送信道学习反馈信令之前,终端设备可以向网络设备发送信道学习反馈信令的发送请求。该发送请求用于指示终端设备向终端设备请求发送信道学习反馈信令。该发送请求可以类似现有技术中的调度请求(scheduling request,sr)。当网络设备接收该发送请求后,网络设备可以发送调度信息,该调度信息指示终端设备发送信道学习反馈信令。该调度信息中可以包括信道学习反馈信令的相关配置信息,例如时频资源,反馈内容,反馈码率,反馈比特数等中的一项或多项。
[0883]
可选地,若终端设备和网络设备预先配置了几组第二信道学习模型,以及预先配置了与第二信道学习模型对应的模型标识,则终端设备在反馈用于更新第二信道学习模型的配置参数的情况下,可以仅反馈确定的第二信道学习模型的标识。例如,终端设备和网络设备预先配置了4组信道学习模型,4组信道学习模型分别对应模型标识1、模型标识2、模型标识3和模型标识4。若终端设备确定的第二信道学习模型是第3组信道学习模型,则终端设备将模型标识3携带在信道学习反馈信令中,发送给网络设备。相应地,网络设备根据模型标识3可以确定终端设备适用的第二信道学习模型。
[0884]
可选地,若终端设备和网络设备预先配置了几组第一信道学习模型,以及预先配置了与第一信道学习模型对应的模型标识,则终端设备在反馈用于更新第一信道学习模型的配置参数的情况下,可以仅反馈确定的第一信道学习模型的标识。例如,终端设备和网络设备预先配置了4组信道学习模型,4组信道学习模型分别对应模型标识1、模型标识2、模型标识3和模型标识4。若终端设备确定的第一信道学习模型是第3组信道学习模型,则终端设备将模型标识3携带在信道学习反馈信令中,发送给网络设备。相应地,网络设备根据模型标识3可以确定终端设备适用的第一信道学习模型。
[0885]
可选地,若终端设备和网络设备预先配置了几组信道学习模型(包括第一信道学习模型和第二信道学习模型),以及预先配置了与信道学习模型对应的模型标识,则终端设备在反馈用于更新第一信道学习模型和第二信道学习模型的配置参数的情况下,可以仅反馈确定的信道学习模型的标识。例如,终端设备和网络设备预先配置了4组信道学习模型,4组信道学习模型分别对应模型标识1、模型标识2、模型标识3和模型标识4。若终端设备确定的信道学习模型是第3组信道学习模型,则终端设备将模型标识3携带在信道学习反馈信令中,发送给网络设备。相应地,网络设备根据模型标识3可以确定终端设备适用的信道学习模型。
[0886]
本方法中,在信道学习反馈信令中,通过反馈信道学习模型标识的方式确定信道学习学习模型,可以降低反馈比特数,降低反馈开销,提高通信性能。
[0887]
具体地,关于信道学习反馈信令的反馈内容、反馈形式、反馈资源等内容,可以参考上文s210中关于第一消息的描述,为了简洁,此处不再详述。
[0888]
可选地,在s630之前,方法600还可以包括:终端设备接收网络设备发送的配置信息#6,该配置信息#6用于指示发送信道学习反馈信令的资源、码率、调制方式、比特数、反馈
顺序、反馈内容等中的一项或多项。相应地,终端设备根据该配置信息#3可以确定发送信道学习反馈信令的资源、码率、调制方式、比特数、反馈顺序或反馈的内容。
[0889]
可选地,网络设备可以通过高层信令发送该配置信息#6,也可以通过物理层信令发送该配置信息#6。其中,高层信令可以是指rrc信令或mac信令,物理层信令是指dci信令。
[0890]
可选的,信道学习反馈信令也可以与第一信道信息一起发送,也可以与第一信道信息分开发送。例如终端设备可以通过一条信令发送信道学习反馈信令和第一信道信息,或者终端设备可以通过多条信令发送信道学习反馈信令和第一信道信息。具体的发送方式可以是预定义的,也可以是通过网络设备指示的,具体的,在此不做限定。
[0891]
可选的,当终端设备确定信道学习模型不适用,并且确定了信道学习模型的配置参数之后,终端设备可以将信道学习模型的配置参数发送和/或存储到数据库或者其他网元。具体的数据库描述可以参考上文s220中关于数据库的描述,为了简洁,此处不再详述。
[0892]
s640,网络设备确定信道学习模型。
[0893]
网络设备根据接收的信道学习反馈信令,可以确定当前的信道学习模型是否适用,和/或,确定信道学习模型的配置参数。
[0894]
可选的,网络设备可以参考上文s410中关于第二通信装置确定信道学习模型是否适用的描述确定信道学习模型是否适用,为了简洁,此处不再详述。
[0895]
可选的,网络设备可以参考上文s420中关于第二通信装置确定信道学习模型的描述确定信道学习模型,为了简洁,此处不再详述。
[0896]
例如,若信道学习反馈信令用于指示当前的信道学习模型不适用,且信道学习反馈信令中包括用于更新第一信道学习模型和/或第二信道学习模型的配置参数,则网络设备根据该信道学习反馈信令可以确定当前的信道学习模型不适用,并可以对当前的第一信道学习模型和/或第二信道学习模型进行更新,以确定新的第二信道学习模型。
[0897]
又例如,若信道学习反馈信令用于指示当前的信道学习模型不适用,则网络设备根据该信道学习反馈信令可以确定当前的信道学习模型不适用。进一步地,方法600还可以包括s650和s660。
[0898]
可选的,s650和s660也可以作为独立的实施例,也可以与其他实施例相结合,具体的,本技术对此不做限定。本实施例可以提供了一种确定信道学习模型的方法。
[0899]
s650,网络设备发送第一信道学习模型的配置信息。相应地,在s650中,终端设备接收第一信道学习模型的配置信息。
[0900]
网络设备确定当前信道学习模型不适用之后,可以确定新的第一信道学习模型和新的第二信道学习模型,并将新的第一信道学习模型的配置参数发送给终端设备,以更新当前的第一信道学习模型。即网络设备可以向终端设备发送用于更新第一信道学习模型的配置参数。
[0901]
可选地,网络设备可以将新的第一信道学习模型的配置参数发送/或存储到数据库#2中,关于数据库#2的描述可以参考上文s220中的描述。
[0902]
可选的,本技术实施例中,当终端设备接入该网络设备所在的小区,或终端设备与网络设备建立rrc连接时,或终端设备进行小区切换时,网络设备可以向终端设备发送信道学习模型的配置信息。
[0903]
s660,终端设备确定第一信道学习模型。
[0904]
终端设备根据接收到的用于更新第一信道学习模型的配置参数,更新当前的的第一信道学习模型,以确定新的第一信道学习模型。
[0905]
可选地,终端设备可以将新的第一信道学习模型的配置参数发送/或存储到数据库#1中,关于数据库#1的描述可以参考上文s220中的描述。
[0906]
可选的,本技术实施例中,当终端设备接入该网络设备所在的小区,或终端设备与网络设备建立rrc连接时,或终端设备进行小区切换时,终端设备可以接收网络设备发送的信道学习模型的配置信息,终端设备可以根据所述信道学习模型的配置参数确定信道学习模型。
[0907]
如下,本技术实施例提供了一种可以由第一通信装置执行的通信的方法。即如下方法是从第一通信装置的角度进行描述,该方法可以包括s610’至s640’中的至少一项:
[0908]
s610’(即s610),第一通信装置接收信道学习训练信令。具体的该步骤描述可以参考上文s610中的描述,为了简洁,此处不再详述。
[0909]
s620’(即s610),第一通信装置根据信道学习训练信令进行信道学习模型训练。具体的该步骤描述可以参考上文s620中的描述,为了简洁,此处不再详述。
[0910]
s630’(即s630),第一通信装置发送信道学习反馈信令。具体的该步骤描述可以参考上文s630中的描述,为了简洁,此处不再详述。
[0911]
s640’(即s650),第一通信装置接收信道学习模型的配置信息。具体的该步骤描述可以参考上文s650中的描述,为了简洁,此处不再详述。
[0912]
如下,本技术实施例提供了一种可以由第二通信装置执行的通信的方法。即如下方法是从第二通信装置的角度进行描述,该方法可以包括s610”至s640”中的至少一项:
[0913]
s610”(即s610),第二通信装置发送信道学习训练信令。具体的该步骤描述可以参考上文s610中的描述,为了简洁,此处不再详述。
[0914]
s620”(即s630),第二通信装置接收信道学习反馈信令。具体的该步骤描述可以参考上文s630中的描述,为了简洁,此处不再详述。
[0915]
s630”(即s640),第二通信装置确定信道学习模型。具体的该步骤描述可以参考上文s640中的描述,为了简洁,此处不再详述述。
[0916]
s640”(即s650),第二通信装置发送信道学习模型的配置信息。具体的该步骤描述可以参考上文s650中的描述,为了简洁,此处不再详述。
[0917]
本方法中,终端设备根据网络设备的信道学习训练信令进行信道学习模型训练,可以是适用于网络设备确定信道学习模型不适用的场景。在网络设备确定信道学习模型不适用的情况下,及时告知终端设备进行信道学习模型训练,并确定适用的信道学习模型,从而可以提高信道学习模型的准确性,对信道学习模型及时更新,可以提高通信性能。
[0918]
图16示出了本技术实施例提供的通信的方法的示意性流程图。本技术实施例可以作为独立的实施例,也可以与本技术中的其他实施例相结合,具体的,本技术对此不做限定。在图16示出的方法中,以第一通信装置是终端设备、第二通信装置是网络设备为例进行说明。如图16所示,方法700可以包括s710至s770中的至少一项,下面详细说明各个步骤。
[0919]
s710,终端设备向网络设备发送信道学习训练请求信令(第一请求消息的一例)。相应地,在s710中,网络设备接收终端设备发送的信道学习训练请求信令。
[0920]
信道学习训练请求信令用于指示终端设备请求进行信道学习模型训练,和/或,用
于指示终端设备请求反馈信道学习训练信令。
[0921]
可选的,信道学习训练请求信令可以在sr资源中发送。
[0922]
s720,网络设备发送信道学习训练信令(第一指示信息的一例)。相应地,在s720中,终端设备接收信道学习训练信令。
[0923]
s730,终端设备根据信道学习训练信令进行信道学习模型训练。
[0924]
s740,终端设备发送信道学习反馈信令(第一消息的一例)。相应地,在s740中,网络设备接收信道学习反馈信令。
[0925]
s750,网络设备确定信道学习模型。
[0926]
s760,网络设备发送第一信道学习模型的配置信息。相应地,在s760中,终端设备接收第一信道学习模型的配置信息。
[0927]
s770,终端设备确定第一信道学习模型。
[0928]
应理解,图16仅以s710在s730之前为例,不应对本技术实施例造成限定。可选地,s710可以在s730和s740之间执行。例如s710可以在s730之后执行。例如s710可以在s740之前执行。
[0929]
s720至s770可以与方法600中的s610至s660相同,为了简洁,本技术实施例不再详述。
[0930]
可选地,在终端设备与网络设备预先定义的发送信道学习反馈信令的相关配置信息的情况下,方法700可以不执行s710和s720。其中,与发送信道学习反馈信令相关的配置信息可以包括:信道学习反馈信息令占用的时频资源、信道学习反馈信令的内容、信道学习反馈信令的反馈码率、信道学习反馈信令的反馈比特数。
[0931]
如下,本技术实施例提供了一种可以由第一通信装置的通信的方法。即如下方法是从第一通信装置的角度进行描述,该方法可以包括s710’至s750’中的至少一项:
[0932]
s710’(即s710),第一通信装置发送信道学习训练请求信令。具体的该步骤描述可以上文s710中的描述,为了简洁,此处不再详述。
[0933]
s720’(即s720),第一通信装置接收信道学习训练信令。具体的该步骤描述可以参考上文s610中的描述,为了简洁,此处不再详述。
[0934]
s730’(即s730),第一通信装置根据信道学习训练信令进行信道学习模型训练。具体的该步骤描述可以参考上文s620中的描述,为了简洁,此处不再详述。
[0935]
s740’(即s740),第一通信装置发送信道学习反馈信令。具体的该步骤描述可以参考上文s630的描述,为了简洁,此处不再详述。
[0936]
s750’(即s760),第一通信装置接收信道学习模型的配置信息。具体的该步骤描述可以上文s650中的描述,为了简洁,此处不再详述。
[0937]
如下,本技术实施例提供了一种可以由第二通信装置的通信的方法。即如下方法是从第二通信装置的角度进行描述,该方法可以可以包括s710”至s750”中的至少一项:
[0938]
s710”(即s710),第二通信装置接收信道学习训练请求信令。具体的该步骤描述可以参考上文s710中描述,为了简洁,此处不再详述。
[0939]
s720”(即s720),第二通信装置发送信道学习训练信令。具体的该步骤描述可以参考上文s610中的描述,为了简洁,此处不再详述。
[0940]
s730”(即s740),第二通信装置接收信道学习反馈信令。具体的该步骤描述可以参
考上文s630中的描述,为了简洁,此处不再详述。
[0941]
s740”(即s750),第二通信装置确定信道学习模型。具体的该步骤描述可以参考上文s640中的描述,为了简洁,此处不再详述。
[0942]
s750”(即s760),第二通信装置发送信道学习模型的配置信息。具体的该步骤描述可以参考上文s650中的描述,为了简洁,此处不再详述。
[0943]
本方法中,终端设备可以向网络设备发送信道学习训练请求信令以请求进行信道学习模型训练,可以是适用于终端设备确定信道学习模型不适用的场景。在终端设备确定信道学习模型不适用的情况下,可以及时告知网络设备以请求进行信道学习模型训练的指示,从而确定适用的信道学习模型,提高信道学习模型的准确性,对信道学习模型及时更新,可以提高通信性能。
[0944]
图17示出了本技术实施例提供的通信的方法的示意性流程图。本技术实施例可以作为独立的实施例,也可以与本技术中的其他实施例相结合,具体的,本技术对此不做限定。在图17示出的方法中,以第一通信装置是终端设备、第二通信装置是网络设备为例进行说明。如图17所示,方法800可以包括s810至s830中的至少一项,下面详细说明各个步骤。
[0945]
s810,网络设备确定信道学习模型。
[0946]
可选的,网络设备可以参考上文s410中关于第二通信装置确定信道学习模型的描述确定信道学习模型,为了简洁,此处不再详述。
[0947]
s820,网络设备发送信道学习模型的配置信息。相应的,在s820中,终端设备接收信道学习模型的配置信息。
[0948]
其中,本技术实施例中,信道学习模型的配置信息可以是包括信道学习模型的配置参数的信息。
[0949]
可选的,网络设备发送信道学习模型的配置信息可以参考上文s420中关于第二通信装置发送第二消息,第二消息用于指示用于更新第一信道学习模型的一个或多个配置参数的描述,为了简洁,此处不再详述。
[0950]
s830,终端设备根据信道学习模型的配置信息确定信道学习模型。
[0951]
如下,本技术实施例提供了一种可以由第一通信装置执行的通信的方法。即如下方法是从第一通信装置的角度进行描述,该方法可以可以包括s810’至s820’中的至少一项:
[0952]
s810’(即s820),第一通信装置接收信道学习模型的配置信息。具体的该步骤描述可以参考上文s650中的描述,为了简洁,此处不再详述。
[0953]
s820’(即s830),第一通信装置根据信道学习模型的配置信息确定信道学习模型。具体的该步骤描述可以参考上文s660中的描述,为了简洁,此处不再详述。
[0954]
如下,本技术实施例提供了一种可以由第二通信装置执行的通信的方法。即如下方法是从第二通信装置角度进行描述,该方法可以包括s810”至s820”中的至少一项:
[0955]
s810”(即s810),第二通信装置确定信道学习模型。具体的该步骤描述可以参考上文s410中的描述,为了简洁,此处不再详述。
[0956]
s820”(即s820),第二通信装置发送信道学习模型的配置信息。具体的该步骤描述可以参考上文s420中的描述,为了简洁,此处不再详述。
[0957]
可选的,本技术实施例中,当终端设备接入该网络设备所在的小区,或终端设备与
网络设备建立rrc连接时,或终端设备进行小区切换时,终端设备可以接收网络设备发送的信道学习模型的配置信息,终端设备可以根据信道学习模型的配置参数确定信道学习模型。
[0958]
本方法中,终端设备根据网络设备发送信道学习模型的配置信息确定信道学习模型,可以是适用于终端设备没有信道学习模型训练能力的场景,也可以是适用于为例降低终端设备的处理复杂度的场景,即终端设备无需进行信道学习模型训练也可以确定适用的信道学习模型,可以提高信道学习模型的准确性,对信道学习模型及时更新,可以提高通信性能。
[0959]
如下实施例提供了一种通信的方法。该实施例提供了一种根据有无信道学习训练信令确定信道学习反馈信令的方法。本技术实施例可以作为独立的实施例,也可以与本技术中的其他实施例相结合,具体的,本技术对此不做限定。如下一种或多种方法可以单独使用,也可以联合使用,具体的,本技术对此不做限定。
[0960]
第一通信装置可以根据是否接收到信道学习训练信令确定如下信息中的至少一项:
[0961]
a.信道学习反馈信令是否包括信道学习模型是否适用的信息;
[0962]
b.信道学习反馈信令的反馈值的含义;
[0963]
c.信道学习反馈信令的反馈内容、反馈形式、反馈资源中至少一项
[0964]
第二通信装置可以根据是否发送信道学习训练信令确定如下信息中的至少一项:
[0965]
a.信道学习反馈信令是否包括信道学习模型是否适用的信息;
[0966]
b.信道学习反馈信令的反馈值的含义;
[0967]
c.信道学习反馈信令的反馈内容、反馈形式、反馈资源中至少一项
[0968]
下文以第一通信装置是终端设备、第二通信装置是网络设备为例进行说明。
[0969]
作为一种可能的实现方式,信道学习反馈信令中是否包括信道学习模型是否适用的信息可以是根据网络设备是否发送信道学习训练信令确定。即网络设备根据是否发送信道学习训练信令确定信道学习反馈信令中是否包括信道学习模型是否适用的信息。
[0970]
作为一种可能的实现方式,信道学习反馈信令中是否包括信道学习模型是否适用的信息可以是根据终端设备是否接收到信道学习训练信令确定。即终端设备根据是否发送信道学习训练信令确定信道学习反馈信令中是否包括信道学习模型是否适用的信息。
[0971]
场景1:网络设备向终端设备发送信道学习训练信令。
[0972]
当终端设备接收到网络设备发送的信道学习训练信令,终端设备可以基于目标信道信息和信道学习模型向网络设备发送信道学习反馈信令。
[0973]
该信道学习反馈信令中可以包括信道学习模型是否适用的信息,或者,该信道学习反馈信令中不包括信道学习模型是否适用的信息。
[0974]
例如:网络设备指示终端设备进行信道学习模型训练以确定信道学习模型是否适用,因此网络设备发送信道学习训练信令。在该场景下,网络设备不确定信道学习模型是否适用,因此终端设备发送的信道学习反馈信令中可以包括信道学习模型是否适用的信息。
[0975]
又例如:网络设备确定信道学习模型不适用,因此网络设备发送信道学习训练信令是为了确定更合适的信道学习模型。此时,终端设备发送的信道学习反馈信令中可以不包括信道学习模型是否适用的信息。
[0976]
可选的,信道学习反馈信令中是否包括信道学习模型是否适用的信息可以是协议预定义的,也可以是网络设备通过信令告知终端设备的,具体的,本技术对此不做限定。
[0977]
场景2:网络设备不向终端设备发送信道学习训练信令。
[0978]
可选的,当网络设备向终端设备发送信道学习训练信令时,网络设备确定信道学习反馈中包括信道学习模型是否适用的信息。当网络设备不向终端设备发送信道学习训练信令时,网络设备确定信道学习反馈中不包括信道学习模型是否适用的信息。
[0979]
可选的,当终端设备接收到信道学习训练信令时,终端设备确定信道学习反馈中包括信道学习模型是否适用的信息。当终端设备没有接收到信道学习训练信令时,终端设备确定信道学习反馈中不包括信道学习模型是否适用的信息。
[0980]
可选的,当信道学习反馈信令中包括信道学习模型是否适用的信息时,网络设备可以通过如下至少一种方式确定信道学习模型是否适用:
[0981]
作为一种可能的实现方式,信道学习反馈信令中的信息指示信道学习模型是否适用。
[0982]
例如1比特信息指示信道学习模型是否适用。
[0983]
信道学习模型是否适用可以通过在信道学习反馈信令中反馈1比特信息,该1比特信息用于指示信道学习模型是否适用。例如1比特信息是“0”,则表示信道学习模型不适用,1比特信息是“1”,则表示信道学习模型适用。反之亦可。
[0984]
作为一种可能的实现方式,信道学习反馈信令中的反馈值指示信道学习模型是否适用。
[0985]
信道学习反馈信令中的反馈值可以是如下的至少一个:rank值、cqi值,cri值。
[0986]
(1)rank值
[0987]
现有技术中,终端设备反馈的rank值是可以从1~r,r为正整数。例如r为8。rank的域的比特数可以根据终端设备最大支持的层数,以及天线端口数确定,例如,rank的域的比特数为log2(min(层数,天线端口数))向上取整,例如为log2(r)向上取整。例如终端设备最大支持4层,则rank取值可以为1~4,则可以用2个比特指示rank值。例如天线端口数为8,终端设备最大支持4层,则rank取值可以为1~4,则可以用2个比特指示rank值。
[0988]
可选的,当网络设备没有向终端设备发送信道学习训练信令时,或者,当终端设备没有接收到信道学习反馈信令时,网络设备和/或终端设备可以确定rank的域的比特数为log2(min(层数,天线端口数))向上取整。
[0989]
当网络设备向终端设备发送信道学习训练信令时,或者,当终端设备接收到网络设备发送的信道学习训练信令时,终端设备和网络设备可以确定rank值可以为0~r,r为正整数。例如r为8。此时,rank的域的比特数为log2(min(层数,天线端口数) 1)向上取整,例如为log2(r 1)向上取整。其中,rank值为0,表示信道学习模型不适用。
[0990]
可选的,当网络设备向终端设备发送信道学习训练信令时,或者,当终端设备接收到信道学习反馈信令时,网络设备和/或终端设备可以确定rank的域的比特数为log2(min(层数,天线端口数) 1)向上取整。
[0991]
例如,当网络设备向终端设备发送信道学习训练信令时,网络设备可以根据rank值为0确定第一信道学习模型不适用。或者,rank值为0指示信道学习模型不适用。
[0992]
例如,当终端设备接收到网络设备发送的信道学习训练信令时,当终端设备确定
第一信道学习模型不适用时,终端设备可以发送rank值为0的信息,rank值为0指示信道学习模型不适用。
[0993]
(2)cqi值
[0994]
可选的,cqi值为0时(即cqi index=0),可以表示信道学习模型不适用。
[0995]
例如,当网络设备向终端设备发送信道学习训练信令时,网络设备可以根据cqi值为0确定第一信道学习模型不适用。或者,cqi值为0指示信道学习模型不适用。
[0996]
例如,当终端设备接收到网络设备发送的信道学习训练信令时,当终端设备确定第一信道学习模型不适用时,终端设备可以发送cqi值为0的信息,cqi值为0指示信道学习模型不适用。
[0997]
(3)cri值
[0998]
现有技术中,终端设备反馈的cri值是对应测量的csi-rs资源,例如如果csi-rs资源为c个,c为正整数。cri值可以为1~c。cri的域的比特数可以根据配置的csi-rs资源个数数确定,例如cri的域的比特数为log2(c)向上取整。例如终端设备配置测量的csi-rs资源数为2,则cri仅需要1个比特指示。例如比特0代表配置的第一个csi-rs资源,比特2代表配置的第二个csi-rs资源。
[0999]
可选的,当网络设备没有向终端设备发送信道学习训练信令时,或者,当终端设备没有接收到信道学习反馈信令时,网络设备和/或终端设备可以确定cri的域的比特数为log2(c)向上取整,其中,c为csi-rs资源的个数。
[1000]
当网络指示终端设备信道学习训练信令时,cri值可以为0~c,c为正整数。例如c为2。此时,cri的域的比特数为log2(c 1)向上取整。其中,cri值为0,表示信道学习模型不适用。
[1001]
可选的,当网络设备向终端设备发送信道学习训练信令时,或者,当终端设备接收到信道学习反馈信令时,网络设备和/或终端设备可以确定cri的域的比特数为log2(c 1)向上取整,其中,c为csi-rs资源的个数。
[1002]
作为一种可能的实现方式,信道学习反馈信令中的内容可以是根据网络设备发送的信道学习训练信令中指示的反馈内容确定。具体的,可以参考本技术中的其他实施例的描述,在此不再赘述。
[1003]
可选,信道学习反馈信令中可以包括当前信道学习模型的性能指标,例如确定模型是否适用的相关性能情况。网络设备根据接收的该信道学习反馈信令可以确定信道学习模型是否适用。具体的,可以参考本技术中的其他实施例的描述,在此不再赘述。
[1004]
可选地,信道学习反馈信令中的反馈形式可以是根据网络设备是否发送的信道学习训练信令确定。即网络设备根据是否发送信道学习训练信令确定信道学习反馈信令中的反馈形式。
[1005]
可选地,信道学习反馈信令中的反馈形式可以是根据终端设备是否接收到信道学习训练信令确定。即终端设备根据是否接收信道学习训练信令确定信道学习反馈信令中的反馈形式。
[1006]
信道学习反馈信令的反馈形式可以是包括如下至少一种:反馈的周期性/非周期性/半持续性、差分反馈/绝对值反馈/相对值反馈、反馈资源。具体的,可以参考本技术中的其他实施例的描述,在此不再赘述。
[1007]
例如,当网络设备向终端设备发送信道学习训练信令时,网络设备确定信道学习反馈信令可以是非周期性发送。当网络设备没有向终端设备发送信道学习训练信令时,网络设备确定信道学习反馈信令可以是周期性发送。或者,反之亦可。
[1008]
例如,当终端设备接收到信道学习训练信令时,终端设备可以确定信道学习反馈信令是非周期性发送。当终端设备没有接收到信道学习训练信令时,终端设备可以确定信道学习反馈信令是周期性发送。或者,反之亦可。
[1009]
例如,当终端接收到信道学习训练信令时,终端设备确定信道学习反馈信令采用绝对值反馈的方式反馈;当终端设备没有接收到信道学习训练信令时,终端设备确定信道学习反馈信令采用差分反馈或者相对值反馈的方式反馈等。或者,反之亦可。
[1010]
例如,当网络设备向终端设备发送信道学习训练信令时,网络设备确定信道学习反馈信令采用绝对值反馈的方式反馈;当网络设备没有向终端设备发送信道学习训练信令时,网络设备确定信道学习反馈信令采用差分反馈或者相对值反馈的方式反馈等。或者,反之亦可。
[1011]
例如,当终端设备接收到信道学习训练信令时,信道学习反馈信令在pusch中传输;当终端设备没有接收到信道学习训练信令时,信道学习反馈信令在pucch中传输等。或者,反之亦可。
[1012]
例如,当网络设备向终端设备发送信道学习训练信令时,信道学习反馈信令在pusch中传输;当网络设备没有向终端设备发送信道学习训练信令时,信道学习反馈信令在pucch中传输等。或者,反之亦可。
[1013]
本实施例,通过针对是否发送或接收信道学习训练信令设计不同的信道学习反馈信令,可以实现不同场景下的反馈信息不同,合理高效的进行信道学习反馈信令的发送和/或接收,可以降低反馈开销,提高通信性能。
[1014]
如下实施例提供了一种根据信道学习模型是否适用设计信道学习反馈信令的方法。本技术实施例可以作为独立的实施例,也可以与本技术其他实施例相结合,具体的,本技术对此不做限定。如下一种或多种方法可以单独使用,也可以联合使用,具体的,本技术对此不做限定。
[1015]
作为一种可能的实现方式,第一通信装置和/或第二通信装置可以根据信道学习模型是否适用确定信道学习反馈信令的反馈内容。
[1016]
下文以第一通信装置为终端设备,第二通信装置为网络设备为例进行说明。
[1017]
例如,信道学习反馈信令中可以包括第一信道信息。
[1018]
如果信道学习模型适用,则终端设备可以基于该信道学习模型确定第一信道信息,并反馈第一信道信息。此方式下,信道学习反馈信令中包括第一信道信息。
[1019]
或者,
[1020]
如果信道学习模型适用,终端设备可以发送信道学习模型适用的信息以及第一信道信息)。此方式下,信道学习反馈信令中包括信道学习模型适用的信息以及第一信道信息。
[1021]
如果信道学习模型不适用,则终端设备可以发送当前信道学习模型不适用的信息给网络设备。进一步地,网络设备接收到该信息后,可以向终端设备发送信道学习模型的配置参数。进一步对,终端设备基于接收到的信道学习模型的配置参数确定信道学习模型,并
基于信道学习模型确定第一信道信息,并反馈第一信道信息。此方式下,信道学习反馈信令中仅包括信道学习模型不适用的信息。
[1022]
或者,
[1023]
如果信道学习模型不适用,则终端设备可以发送当前信道学习模型不适用的信息给网络设备,并发送基于当前信道学习模型得到的第一信道信息。此方式下,信道学习反馈信令中包括信道学习模型不适用的信息以及基于当前信道学习模型确定的第一信道信息。
[1024]
或者,
[1025]
如果信道学习模型不适用,则终端设备可以基于训练得到的更新的信道学习模型得到第一信道信息,并向网络设备发送训练得到的更新的信道学习模型的配置参数和第一信道信息。此方式下,信道学习反馈信令中包括更新信道学习模型的配置参数以及基于更新的信道学习模型确定的第一信道信息。
[1026]
或者,
[1027]
如果信道学习模型不适用,则终端设备可以基于训练得到的更新的信道学习模型得到第一信道信息,并向网络设备发送训练得到的更新的信道学习模型的配置参数和第一信道信息。此方式下,信道学习反馈信令中包括信道学习模型不适用的信息,更新信道学习模型的配置参数以及基于更新的信道学习模型确定的第一信道信息。
[1028]
可选的,终端设备具体采用上述那种方式进行反馈可以是协议预定义的,也可以是网络设备通过信令告知终端设备的,具体的,本技术对此不做限定。
[1029]
作为一种可能的实现方式,第一通信装置和/或第二通信装置可以根据信道学习模型是否适用确定信道学习反馈信令的反馈形式。
[1030]
具体的,当信道学习模型适用时,第一信道信息的反馈可以以差分的形式上报,例如终端设备当前反馈的第一信道信息的反馈量的取值可以是通过反馈与上次反馈的第一信道信息反馈量的取值的差值的方式反馈。例如,可以反馈rank的差值,cqi的差值,压缩后反馈量的差值等。当信道学习模型相同时,第一信道信息的取值的范围可以是相对稳定的,因此可以通过反馈差值的方式反馈第一信道信息,并且可以降低反馈开销。
[1031]
例如,当信道学习模型适用时,信道学习反馈信令可以在pucch中反馈。
[1032]
例如,当信道学习模型不适用时,信道学习反馈信令可以在pusch中反馈。
[1033]
例如,当信道学习模型不适用时,第一信道信息的反馈可以不以差分的形式上报。因为信道学习模型变化之后,第一信道信息的取值反馈可能会发生变化,因此不适于通过反馈与之前反馈的第一信道信息的差值的方式进行反馈。
[1034]
信道学习反馈信令中可以包括信道状态信息的内容,例如rank值,cqi等。
[1035]
当信道学习模型适用时终端可以反馈rank值和/或cqi,第一信道信息。而当信道学习模型不适用时,终端可以仅反馈rank值和/或cqi。
[1036]
作为一种可能的实现方式,第一通信装置和/或第二通信装置可以根据信道学习模型是否适用确定信道学习反馈信令的反馈内容。
[1037]
例如,当信道学习模型适用时,信道学习反馈信令中包括rank值、cqi和第一信道信息。或者,当信道学习模型适用时,信道学习反馈信令中包括rank值和第一信道信息。或者,当信道学习模型适用时,信道学习反馈信令中包括cqi值和第一信道信息。
[1038]
例如,当信道学习模型不适用时,信道学习反馈信令中包括rank值、cqi。或者,当
信道学习模型不适用时,信道学习反馈信令中包括rank值或者cqi。
[1039]
例如,信道学习模型是否适用可以与信道学习反馈信令包括的内容有对应关系。具体的,可以参考本技术中的表11的对应关系的举例,为了简洁,在此不再赘述。
[1040]
可选的,第一通信装置和/或第二通信装置可以根据信道学习模型是否适用与信道学习反馈信令包括的内容的对应关系确定信道学习反馈信令的反馈内容。
[1041]
作为一种可能的实现方式,第一通信装置和/或第二通信装置可以根据信道学习模型是否适用确定信道学习反馈信令占用的资源。
[1042]
因为,信道学习模型是否适用可以对应不同的信道学习反馈信令的反馈内容。因此网络设备和/或终端设备可以根据信道学习模型是否适应确定信道学习反馈信令占用的资源。
[1043]
具体的,例如网络设备和/或终端设备可以根据信道学习模型是否适用确定信道学习反馈信令占用的资源标识,和/或,信道学习反馈信令占用的资源大小。
[1044]
例如当信道学习模型适用时,信道学习反馈信令占用的资源为资源1,即终端设备可以在资源1上发送信道学习反馈信令,而网络设备可以在资源1上接收信道学习反馈信令。
[1045]
例如当信道学习模型不适用时,信道学习反馈信令占用的资源为资源2,即终端设备可以在资源2上发送信道学习反馈信令,而网络设备可以在资源2上接收信道学习反馈信令。
[1046]
例如当信道学习模型适用时,信道学习反馈信令占用的资源大小为x个资源单元,所述资源单元可以是指re,符号,或者rb。其中,x为正整数,或者,x也可以是指一定范围,例如x为x1~x2,或者,x大于x1,或者,x小于x2等。其中,x1,x2为正整数。
[1047]
例如当信道学习模型不适用时,信道学习反馈信令占用的资源大小为y个资源单元,所述资源单元可以是指re,符号,或者rb。其中,y为正整数,或者,y也可以是指一定范围,例如y为y1~y2,或者,y大于y1,或者,y小于y2等。其中,y1,y2为正整数。
[1048]
可选的,网络设备和/或终端设备可以根据信道学习反馈信令占用的资源大小确定信道学习反馈信令的反馈资源。即终端设备可以在所述反馈资源上发送信道学习反馈信令,而网络设备可以在相应的反馈资源上接收信道学习反馈信令。
[1049]
另外,信道学习模型是否适应可以与信道学习反馈信令占用的资源有对应关系。具体的,可以参考本技术中的表8的对应关系的举例,为了简洁,在此不再赘述。
[1050]
可选的,第一通信装置和/或第二通信装置可以根据信道学习模型是否适用与信道学习反馈信令占用的资源的对应关系确定信道学习反馈信令占用的资源。
[1051]
另外,网络设备和/或终端设备可以根据信道学习模型是否适用确定信道学习反馈信令的比特数。进一步地,网络设备和/或终端设备可以根据信道学习反馈信令的比特数确定信道学习反馈信令占用的资源。
[1052]
例如,信道学习模型适用时,信道学习反馈信令的比特数为z,其中,z为正整数,或者,z也可以是指一定范围,例如z为z1~z2,或者,z大于z1,或者,z小于z2等。其中,z1,z2为正整数。
[1053]
例如,信道学习模型不适用时,信道学习反馈信令的比特数为w3,其中,w3为正整数,或者,w3也可以是指一定范围,例如w3为w3,或者,w大于w
3,1
,或者,w小于w
3,2
等。其中,w3,1
,w
3,2
为正整数。
[1054]
例如,信道学习模型适用时,信道学习反馈信令的比特数为20bits;信道学习模型不适用时,信道学习反馈信令的比特数为10bits等。
[1055]
例如,信道学习模型适用时,信道学习反馈信令的比特数为大于10bits;信道学习模型不适用时,信道学习反馈信令的比特数为小于10bits等。
[1056]
例如,网络设备和/或终端设备可以根据信道学习反馈信令的比特数确定信道学习反馈信令占用的资源标识,信道学习反馈信令占用的资源大小。
[1057]
例如,信道学习反馈信令的比特数为z时,信道学习反馈信令占用的资源标识为资源1。
[1058]
例如,信道学习反馈信令的比特数为w3时,信道学习反馈信令占用的资源标识为资源2。
[1059]
例如,信道学习反馈信令的比特数为20bits时,信道学习反馈信令占用的资源标识为资源1;信道学习反馈信令的比特数为10bits时,信道学习反馈信令占用的资源标识为资源1。
[1060]
例如,信道学习反馈信令的比特数为大于10bits时,信道学习反馈信令占用的资源标识为资源1;信道学习反馈信令的比特数为小于10bits时,信道学习反馈信令占用的资源标识为资源2。
[1061]
例如信道学习反馈信令的比特数为z时,信道学习反馈信令占用的资源大小为x个资源单元,所资源单元可以是指re,符号,或者rb。
[1062]
例如信道学习反馈信令的比特数为w3时,,信道学习反馈信令占用的资源大小为y个资源单元,所资源单元可以是指re,符号,或者rb。
[1063]
可选的,信道学习模型是否适用与信道学习反馈信令的比特数有对应关系。具体的,可以参考本技术中的表9的对应关系的举例,为了简洁,在此不再赘述。
[1064]
可选的,第一通信装置和/或第二通信装置可以根据信道学习模型是否适用与信道学习反馈信令的比特数确定信道学习反馈信令的比特数。
[1065]
可选的,信道学习反馈信令的比特数与信道学习反馈信令占用的资源有对应关系。具体的,可以参考本技术中的表10的对应关系的举例,为了简洁,在此不再赘述。
[1066]
可选的,第一通信装置和/或第二通信装置可以根据信道学习反馈信令的比特数与信道学习反馈信令占用的资源确定信道学习反馈信令占用的资源。
[1067]
通过上述的设计,可以在终端设备接收到信道学习训练信令时,终端设备和/或网络设备确定信道学习模型是否适用,并根据信道学习模型是否适用确定信道学习反馈信令的反馈内容,反馈比特数,反馈资源,可以更有效的降低信道学习反馈信令的反馈开销,合理利用反馈资源,提高资源利用率,进而提升通信性能。例如,针对信道学习模型不适用的场景,可以降低信道学习反馈信令的反馈内容,进而降低反馈开销,避免不必要的反馈。
[1068]
针对上位所述的场景2,即终端设备没有收到信道学习训练信令。对应的,网络设备没有发送信道学习训练信令。
[1069]
在该场景下,终端设备可以根据定时器(或者周期性)进行信道学习训练并反馈信道学习反馈信令。因为是在指定的时间,指定的资源上进行训练和反馈。因此反馈的内容可以是仅包括信道学习模型的配置参数。该信道学习反馈信令中可以不包括信道学习模型是
否适用的信息。例如,终端设备可以在确定信道学习模型不适用时才反馈信道学习反馈信令。
[1070]
在该场景下,信道学习反馈信令可以是周期性发送。
[1071]
该信道学习反馈信令中的rank值按照现有技术中的设计,取值为1~r。
[1072]
该信道学习反馈信令中的反馈内容可以包括:信道学习模型的配置参数。
[1073]
该信道学习反馈信令中的反馈内容可以包括:第一信道信息。因为定时器长度较长,所以第一信道信息变化较大,因此第一信道信息的反馈可以不以差分的方式反馈。第一信道信息是终端设备基于信道学习反馈信令中的配置参数确定的第一信道信息。
[1074]
当终端设备自主在特定时间特定资源反馈信道学习反馈信令时,为了让网络设备可以正确接收,降低检测/接收的复杂度,该场景下,信道学习反馈信令的反馈内容,反馈比特数,反馈资源可以是预先配置的,例如根据网络设备的高层信令配置确定。
[1075]
本实施例,通过针对模型是否适用设计不同的信道学习反馈信令,可以实现不同场景下的反馈信息不同,合理高效的进行信道学习反馈信令的发送和/或接收,可以降低反馈开销,提高通信性能。
[1076]
上文结合图10至图17详细地描述了本技术实施例的方法,下文结合图18至图20详细地描述本技术实施例的装置。需要说明的是,图18至图20所示的装置可以实现上述方法中各个步骤,为了简洁,在此不再赘述。
[1077]
图18是本技术实施例提供的通信装置的示意性框图。如图18所示,该通信装置2000可以包括处理单元2100和收发单元2200。
[1078]
在一种可能的设计中,该通信装置2000可对应于上文方法实施例中的第一通信装置,例如,可以为第一通信装置,或者配置于第一通信装置中的部件(如芯片或芯片系统等)。
[1079]
应理解,该通信装置2000可对应于根据本技术实施例的方法200、方法300和方法400中的第一通信装置,该通信装置2000可以包括用于执行图10中的方法200、图12中的方法300和图13中的方法400中第一通信装置执行的方法的单元。并且,该通信装置2000中的各单元和上述其他操作和/或功能分别为了实现图10中的方法200、图12中的方法300和图13中的方法400任一方法的相应流程。应理解,各单元执行上述相应步骤的具体过程在上述方法实施例中已经详细说明,为了简洁,在此不再赘述。
[1080]
在另一种可能的设计中,该通信装置2000可对应于上文方法实施例中的第二通信装置,例如,可以为第二通信装置,或者配置于第二通信装置中的部件(如芯片或芯片系统等)。
[1081]
应理解,该通信装置2000可对应于根据本技术实施例的方法200、方法300和方法400中的第二通信装置,该通信装置2000可以包括用于执行图10中的方法200、图12中的方法300和图13中的方法400中第二通信装置执行的方法的单元。并且,该通信装置2000中的各单元和上述其他操作和/或功能分别为了实现图10中的方法200、图12中的方法300和图13中的方法400中任一方法的相应流程。应理解,各单元执行上述相应步骤的具体过程在上述方法实施例中已经详细说明,为了简洁,在此不再赘述。
[1082]
在又一种可能的设计中,该通信装置2000可对应于上文方法实施例中的终端设备,例如,可以为终端设备,或者配置于终端设备中的部件(如芯片或芯片系统等)。
[1083]
应理解,该通信装置2000可对应于根据本技术实施例的方法500至方法800中的终端设备,该通信装置2000可以包括用于执行图14至图17中的方法500至方法800中终端设备执行的方法的单元。并且,该通信装置2000中的各单元和上述其他操作和/或功能分别为了实现图14至图17中的方法500至方法800中任一方法的相应流程。应理解,各单元执行上述相应步骤的具体过程在上述方法实施例中已经详细说明,为了简洁,在此不再赘述。
[1084]
还应理解,该通信装置2000为配置于终端设备中的芯片时,该通信装置2000中的收发单元2200可以通过输入/输出接口实现,该通信装置2000中的处理单元2100可以通过该芯片或芯片系统上集成的处理器、微处理器或集成电路等实现。
[1085]
在又一种可能的设计中,该通信装置2000可对应于上文方法实施例中的网络设备,例如,可以为网络设备,或者配置于网络设备中的部件(如芯片或芯片系统等)。
[1086]
应理解,该通信装置2000可对应于根据本技术实施例的方法500至方法800中的网络设备,该通信装置2000可以包括用于执行图14至图17中的方法500至方法800中网络设备执行的方法的单元。并且,该通信装置2000中的各单元和上述其他操作和/或功能分别为了实现图14至图17中的方法500至方法800中任一方法的相应流程。应理解,各单元执行上述相应步骤的具体过程在上述方法实施例中已经详细说明,为了简洁,在此不再赘述。
[1087]
还应理解,该通信装置2000为配置于网络设备中的芯片时,该通信装置2000中的收发单元2200可以通过输入/输出接口实现,该通信装置2000中的处理单元2100可以通过该芯片或芯片系统上集成的处理器、微处理器或集成电路等实现。
[1088]
图19是本技术另一实施例的通信装置的示意性框图。图19所示的通信装置3000可以包括:存储器3100、处理器3200、以及通信接口3300。其中,存储器3100、处理器3200,通信接口3300通过内部连接通路相连,该存储器3100用于存储指令,该处理器3200用于执行该存储器3100存储的指令,以控制输入/输出接口3000接收/发送第一消息。可选地,存储器3100既可以和处理器3200通过接口耦合,也可以和处理器3200集成在一起。
[1089]
需要说明的是,上述通信接口3300使用例如但不限于收发器一类的收发装置,来实现通信装置3000与其他设备或通信网络之间的通信。上述通信接口3300还可以包括输入/输出接口(input/output interface)。
[1090]
在实现过程中,上述方法的各步骤可以通过处理器3200中的硬件的集成逻辑电路或者软件形式的指令完成。结合本技术实施例所公开的方法可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器3100,处理器3200读取存储器3100中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
[1091]
应理解,本技术实施例中,该处理器可以为中央处理单元(central processing unit,cpu),该处理器还可以是其他通用处理器、数字信号处理器(digital signal processor,dsp)、专用集成电路(application specific integrated circuit,asic)、现成可编程门阵列(field programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
[1092]
还应理解,本技术实施例中,该存储器可以包括只读存储器和随机存取存储器,并
sdram,ddr sdram)、增强型同步动态随机存取存储器(enhanced sdram,esdram)、同步连接动态随机存取存储器(synchlink dram,sldram)和直接内存总线随机存取存储器(direct rambus ram,dr ram)。应注意,本文描述的系统和方法的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
[1099]
根据本技术实施例提供的方法,本技术还提供一种计算机程序产品,该计算机程序产品包括:计算机程序代码,当该计算机程序代码在计算机上运行时,使得该计算机执行图10和图12至图13所示实施例中第一通信装置和第二通信装置分别执行的方法,或者执行图14至图17所示实施例中终端设备和网络设备分别执行的方法。
[1100]
根据本技术实施例提供的方法,本技术还提供一种计算机可读存储介质,该计算机可读存储介质存储有程序代码,当该程序代码在计算机上运行时,使得该计算机执行图10和图12至图13所示实施例中第一通信装置和第二通信装置分别执行的方法,或者执行图14至图17所示实施例中终端设备和网络设备分别执行的方法。
[1101]
根据本技术实施例提供的方法,本技术还提供一种系统,其包括前述的一个或多个第一通信装置以及一个或多个第二通信装置。其中,第一通信装置可以是终端设备,第二通信装置可以是网络设备;或者,第一通信装置可以是网络设备,第二通信装置可以是终端设备。
[1102]
上述各个装置实施例中网络设备与终端设备和方法实施例中的网络设备或终端设备完全对应,由相应的模块或单元执行相应的步骤,例如通信单元(收发器)执行方法实施例中接收或发送的步骤,除发送、接收外的其它步骤可以由处理单元(处理器)执行。具体单元的功能可以参考相应的方法实施例。其中,处理器可以为一个或多个。
[1103]
在本说明书中使用的术语“部件”、“模块”、“系统”等用于表示计算机相关的实体、硬件、固件、硬件和软件的组合、软件、或执行中的软件。例如,部件可以是但不限于,在处理器上运行的进程、处理器、对象、可执行文件、执行线程、程序和/或计算机。通过图示,在计算设备上运行的应用和计算设备都可以是部件。一个或多个部件可驻留在进程和/或执行线程中,部件可位于一个计算机上和/或分布在2个或更多个计算机之间。此外,这些部件可从在上面存储有各种数据结构的各种计算机可读介质执行。部件可例如根据具有一个或多个数据分组(例如来自与本地系统、分布式系统和/或网络间的另一部件交互的二个部件的数据,例如通过信号与其它系统交互的互联网)的信号通过本地和/或远程进程来通信。
[1104]
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各种说明性逻辑块(illustrative logical block)和步骤(step),能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本技术的范围。
[1105]
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
[1106]
在本技术所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或
讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
[1107]
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[1108]
另外,在本技术各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
[1109]
在上述实施例中,各功能单元的功能可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令(程序)。在计算机上加载和执行所述计算机程序指令(程序)时,全部或部分地产生按照本技术实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,dsl))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,高密度数字视频光盘(digital video disc,dvd))、或者半导体介质(例如固态硬盘(solid state disk,ssd))等。
[1110]
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本技术各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(read-only memory,rom)、随机存取存储器(random access memory,ram)、磁碟或者光盘等各种可以存储程序代码的介质。
[1111]
以上所述,仅为本技术的具体实施方式,但本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本技术的保护范围之内。因此,本技术的保护范围应以所述权利要求的保护范围为准。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献