一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于深度学习大规模MIMO系统的CSI反馈方法

2022-06-01 16:55:30 来源:中国专利 TAG:

一种基于深度学习大规模mimo系统的csi反馈方法
技术领域
1.本发明属于智能移动通信技术领域,特别涉及一种基于深度学习大规模多输入多输出(multiple-input multiple-output,mimo)系统的信道状态信息(channel state information,csi)反馈方法。


背景技术:

2.随着全球移动数据流量的高速增长,人们对数据传输速率和可靠性等需求进一步增加。因此,为了应对这种发展趋势,5g通信系统提出了超密集异构蜂窝网络,毫米波通信和大规模多输入多输出三大核心关键技术。其中,大规模mimo指基站端使用数百根天线来同时服务于多个用户小区的通信系统,相较于传统mimo系统,大规模mimo系统可以增加数倍的通信系统容量,提高能量传输效率,降低空口时延。上述大规模mimo系统的诸多优势是建立在基站端可以精确获知信道状态信息的基础上,并以此通过预编码来消除多用户间的干扰。然而对于频分复用(frequency division duplexity,fdd)制式下的大规模mimo系统,上行链路和下行链路工作在不同频率上,因此下行csi是由用户端获得,并通过反馈链路传送回基站端,考虑到基站端使用大量天线,反馈完整的csi将导致巨大的资源开销,因此,为了保证csi的时效性,必须尽可能降低反馈延迟。
3.传统csi反馈方法一方面是基于码本来实现,但大规模mimo系统中的天线数量较大,增加了码本的尺寸与设计复杂度。另一方面是基于压缩感知(compressive sensing,cs)的csi反馈方法,但是cs反馈方法的缺点在于需要信道的先验假设,即十分依赖csi矩阵的稀疏特性,然而实际场景中无法达到理论上的完全稀疏;cs恢复算法涉及大量的矩阵迭代计算,随着天线数量的增加,计算复杂度随之增加,影响实际通信系统的实时性。因此,传统csi反馈方法无法很好的应用于大规模mimo系统。


技术实现要素:

4.为了使得反馈网络拥有更高精度的同时降低其计算量与参数量,本发明提出一种基于深度学习大规模mimo系统的csi反馈方法,包括以下步骤:
5.s1、在fdd制式下的大规模mimo系统中,获取基站端天线采用半波长间距的均匀线性阵列、用户端为单用户的情况下下行链路的csi信道矩阵;
6.s2、对获取的下行链路的csi信道矩阵做二维dft变换获得在角度时延域稀疏的csi矩阵;
7.s3、将得到的在角度时延域稀疏的csi矩阵的前na行进行截断得到截断矩阵;
8.s4、在用户端构建csi反馈网络的编码器,将截断矩阵通过编码器转换为码字向量;
9.s5、在基站端构建csi反馈网络的译码器,将编码器得到的码字向量通关译码器得到截断矩阵的估计值;
10.s6、采用端到端的方式对编码器和译码器进行联合训练,使得反馈网络的输出
与原矩阵ha的差值尽可能小,并将训练好的反馈网络参数进行保存;
11.s7、将完成训练的编码器和译码器用于csi的压缩和重建,译码器在进行重建时,对获取的截断矩阵的估计值先进行补零操作使其恢复为原始csi矩阵大小,再进行二维逆dft变换,获得下行链路的csi信道矩阵的重建值。
12.进一步的,在角度时延域稀疏的csi矩阵的获取过程,即对下行链路的csi信道矩阵进行角度时延域变换,变换过程包括:
13.h

=fchf
th

14.其中,fc为1024
×
1024大小的dft矩阵,f
t
为32
×
32大小的dft矩阵;h为下行链路的csi信道矩阵;h

为在角度时延域稀疏的csi矩阵。
15.进一步的,将截断矩阵中复数的实部和虚部进行拆分,然后将实部和虚部在通道的维度上进行拼接,将拼接后含有两个通道的截断矩阵作为编码器的输入,用户端的编码器包括级联的多分辨率卷积模块、卷积核为1
×
1的卷积层以及一个含有n个神经元的全连接层。
16.进一步的,全连接层神经元的数量n与压比呈正比,即n=2048
×
cr;其中,cr为压缩比。
17.进一步的,基站端的译码器包括包含2048个神经元的全连接层、卷积层、多分辨率卷积模块,对输入的码字向量利用包含2048个神经元的全连接层进行重组,将重组后的矩阵输入两个级联的卷积核为3
×
3的卷积层进行特征的粗略提取,将粗略提取的特征输入由三个多分辨率卷积模块密接连接构成的密接网络,每个多分辨率卷积模块的输入为其前面多分辨率卷积模块的输出与粗略特征的拼接结果,将密接网络的输出通过sigmoid激活函数进行归一化后完成译码。
18.进一步的,所述多分辨率卷积模块包括由一个卷积模块构成的小卷积核层以及由三个卷积模块级联构成的大卷积核层,分别用小卷积核层和大卷积核层提取输入编码器矩阵的特征并将提取的特征拼接后作为多分辨率卷积模块的输出。
19.进一步的,卷积模块包括由卷积核大小为1
×
3、3
×
1以及3
×
3的三个卷积层,在训练完成后将卷积核大小为1
×
3、3
×
1的卷积层的卷积核参数与卷积核大小为3
×
3的卷积层的卷积核参数相加,相加位置为3
×
3的卷积层中心的十字位置;在处理实时数据阶段仅使用融合后的卷积核大小为3
×
3的卷积层进行特征提取作为卷积模块的输出,输入此卷积模块的数据以及卷积核参数本质上均为矩阵,卷积的计算为卷积核参数的矩阵从输入数据的左上角开始与输入数据对应位置逐卷积相乘并累加,求得的结果即为卷积运算的输出,卷积核矩阵中的数值即为卷积核参数。
20.进一步的,编码器的分辨率卷积模块中卷积层的卷积核数量均为4。
21.进一步的,译码器的分辨率卷积模块中小卷积核层中卷积核数量为4,大卷积核层中级联的三个卷积层的卷积核数量分别为8个、16个、4个。
22.进一步的,由编码器和译码器构成的反馈网络进行联合训练时的损失函数采用均方误差函数,反馈网络采用xavier的方式进行初始化,采用采用adam根据损失函数对反馈网络进行优化,优化过程中采用余弦退火算法动态调整反馈网络的学习率。
23.本发明为了拥有更高反馈精度的同时降低方法参数量与计算量,一方面是通过使用小卷积核级联的方式来代替大卷积核,另一方面是避免反馈网络层数过深,采用横向扩
展的方式,即通过多分辨率卷积增加反馈网络的泛化性,非对称卷积增加每个卷积核的特征提取能力;另外,本发明反馈网络采用局部密集连接的方式,通过重复利用多个低层次的特征进行特征学习,在不增加参数的情况下进一步提高反馈网络的学习能力。
附图说明
24.图1为本发明一种基于深度学习大规模mimo系统的csi反馈方法流程图;
25.图2为本发明amrnet反馈网络结构示意图;
26.图3为两种环境下不同压缩比的nmse比较示意图;
27.图4为两种环境下不同压缩比的伪灰度图比较示意图。
具体实施方式
28.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
29.本发明提出一种基于深度学习大规模mimo系统的csi反馈方法,包括以下步骤:
30.s1、在fdd制式下的大规模mimo系统中,获取基站端天线采用半波长间距的均匀线性阵列、用户端为单用户的情况下下行链路的csi信道矩阵;
31.s2、对获取的下行链路的csi信道矩阵做二维dft变换获得在角度时延域稀疏的csi矩阵;
32.s3、将得到的在角度时延域稀疏的csi矩阵的前na行进行截断得到截断矩阵;csi矩阵经过dft变换后得到的角度时延域下的csi矩阵,此时由于多径效应存在导致该矩阵具有稀疏特性,即只有前na行有非零元素,其他行的元素均为0或趋近于0,含有的有效信息十分稀少,因此可以直接进行截断只保留前na行即可;
33.s4、在用户端构建csi反馈网络的编码器,将截断矩阵通过编码器转换为码字向量;
34.s5、在基站端构建csi反馈网络的译码器,将编码器得到的码字向量通关译码器得到截断矩阵的估计值;
35.s6、采用端到端的方式对编码器和译码器进行联合训练,使得反馈网络的输出与原矩阵ha的差值尽可能小,并将训练好的反馈网络参数进行保存;
36.s7、将完成训练的编码器和译码器用于csi的压缩和重建,译码器在进行重建时,对获取的截断矩阵的估计值先进行补零操作使其恢复为原始csi矩阵大小,再进行二维逆dft变换,获得下行链路的csi信道矩阵的重建值。
37.在本实施例中将由编码器和译码器构成的反馈网络命名为非对称多分辨率反馈网络(asymmetric multi-resolution network,amrnet),简称反馈网络。在用户端用编码器将信道状态信息压缩编码为低维度码字,经反馈链路传送至基站端译码器并重建出信道状态信息,减少信道状态信息反馈开销。以下结合具体应用场景对本发明方法进行具体说明。
38.在大规模mimo系统的下行链路中,用cost 2100模型分别设置两种环境,5.3ghz的
室内场景和300mhz的室外环境两种实验环境,在室内和室外场景中,基站端分别位于一个长度为20和400米的正方形区域的中心,而用户端则随机放置在每个样本的正方形区域中。基站端使用n
t
=32根发送天线,用户端使用单根接收天线。该大规模mimo系统采用ofdm载波调制方式,使用nc=1024个子载波,根据上述条件,生成120000份数据集,其中随机取100000份数据集作为训练,采用交叉验证法以8:2的比例划分模型的训练集和验证集,剩余20000份数据集作为测试集来评估模型的csi重构精度。
39.对数据集中的每一个空频域csi矩阵h进行角度时延域变换,变换过程如下:
40.h

=fchf
th
41.其中fc和f
t
分别为1024
×
1024和32
×
32大小的dft矩阵,为经过二维dft变换后得到的角度时延域矩阵。因为多径到达时间之间的延迟是在有限的时间范围内,所以在时延域上,csi矩阵只有在前na(na<nc)行有值,其余行的值均为0或趋近于0,此时设置na=32,即对h

的前32行进行截断,截断矩阵表示为ha。
42.amrnet的编码器设计参照图2中的encoder部分,由于目前深度学习框架不支持复数计算,因此需要将输入的csi矩阵中复数的实部和虚部进行拆分,然后在通道维度上进行拼接,拼接后csi矩阵维度为32
×
32
×
2。编码器包括级联的多分辨率卷积模块、卷积核为1
×
1的卷积层以及一个含有n个神经元的全连接层,多分辨率卷积模块包括小卷积核卷积层和大卷积核卷积层,小卷积核卷积层采用一个卷积核大小为3
×
33
×
3作为卷积核,大卷积核卷积层采用与3个卷积核大小为3
×
3的卷积层级联代表一个7
×
7作为大卷积核,在每个卷积层中卷积核数量均为4个,每个卷积层在进行卷积操作之后依次进行零填充、leakyrelu激活函数和批量归一化;多分辨率卷积模块输出为一个32
×
32
×
8大小的特征图,通过一个卷积核为1
×
1的卷积层进行特征融合,此时输出特征图大小为32
×
32
×
2,并将该特征图重组为一个2048
×
1的向量,输入一个含有n个神经元的全连接层,n根据压缩比cr计算,即n=2048
×
cr,输出n
×
1的向量v,即用户端需要反馈给基站端的压缩后的csi码字。
43.amrnet的译码器设计参照图2中的decoder部分,步骤三种的码字向量v作为译码器的输入。首先输入一个包含2048(32
×
32
×
2)个神经元的全连接层,输出2048
×
1的向量,并将这个向量重组为一个32
×
32
×
2的矩阵,然后输入到一个卷积核为5
×
5的卷积层进行特征粗略提取,如图2所示该卷积核为5
×
5的卷积层通过两个卷积核为3
×
3的卷积层级联的方式实现。densenet由三个多分辨率卷积模块进行密集连接,译码器中的多分辨率模块采用一个卷积核为3
×
3的卷积层作为小卷积核卷积层,该层中卷积核数量均为4个,3个卷积核为3
×
3的卷积层级联构成一个卷积核为7
×
7的卷积层作为大卷积核卷积层,在该大卷积核卷积层中三个3
×
3的卷积层的卷积核数量分别为8个、16个、4个,每个多分辨率块的后面均含有一个卷积核为1
×
1的卷积层用来防止特征图的通道数过大,该卷积核为1
×
1的卷积层的输出作为译码器中多分辨率模块的输出,卷积层中经过卷积操作后依次进行零填充、leakyrelu激活函数和批量归一化,使得每次卷积后得到的特征图大小保持32
×
32。密集连接后再次通过卷积核大小为1
×
1的卷积层进行特征融合并输出一个32
×
32
×
2大小的特征图,最后采用sigmoid激活函数进行归一化,将译码器的最终输出的一个32
×
32
×
2大小的实数矩阵,作为最终重建的信道矩阵的实部和虚部。
44.反馈网络模型参数采用xavier的方式进行初始化,模型训练优化器采用adam算
法,模型学习率采用余弦退火算法动态调整。amrnet的损失函数函数均方误差,表示为:
[0045][0046]
其中,t表示为一轮迭代训练中的样本个数,表示欧几里得范数;hi表示输入编码器的csi矩阵,表示译码器输出的csi矩阵。
[0047]
使用训练数据对编码器和译码器进行联合训练,包括权重、偏置和卷积核参数,使得代价函数最小,每次迭代使用训练集中的200个样本来计算梯度,并根据adam算法的公式更新参数,以此方式训练整个训练集1000次,根据验证集结果调试模型参数,测试集结果验证最终模型的性能。
[0048]
网络训练阶段结束后,将非对称模块(图2中acblock,基本发明中所述的卷积模块)中的两个一维卷积核参数与对称卷积核参数进行相加,相加的位置在对称卷积核的中心十字位置。在线推导阶段无需再使用非对称卷积核进行计算,而是利用特征融合后的对称卷积核进行计算。卷积核融合过程如下:假设一个卷积层的卷积核大小为h
×w×
c,其中c表示卷积核的通道数,h
×
w表示卷积核大小,因此用来表示一个卷积核大小。设作为卷积层的输入数据的大小,j
×
k为输入数据的维度。设该卷积层的卷积核个数为d,因此该卷积层的输出可以表示为对于每一个卷积核,计算过程可以由如下表示:
[0049][0050]
其中,*表示2d卷积运算,m
:,:,k
是输入数据的第k通道,大小为j
×
k的矩阵,是第k通道,大小为h
×
w的卷积矩阵;o
:,:,j
为输出数据的第j个通道。
[0051]
批处理归一化是目前被证实可以降低过拟合同时加速网络模型训练的有效手段。因此,在卷积层中加入批处理归一化后,其计算过程可以由如下表示:
[0052][0053]
其中,μj和σj分别代表第j个卷积核的计算结果的均值与标准差,γj和βj分别代表第j个卷积核计算结果的比例因子与偏置项。
[0054]
非对称卷积的理论基础是基于卷积操作的可加性,该过程可以表示为:
[0055][0056]
其中,i表示特征矩阵,k表示尺寸相容的卷积核,即通道数相同的情况下,非对称卷积核的尺寸不能超过对称卷积核大小,上标仅表示两个卷积核为不同的卷积核;表示矩阵对应位置元素相加。因此一个卷积核可以拆分为h
×
1,1
×
w和h
×
w形成三路并行卷积运算,此时卷积核计算批处理归一化的过程为:
[0057]
[0058]
其中,f
′j代表融合后的卷积核,fj,和分别代表卷积融合前的对称卷积核,h
×
1和1
×
w的非对称卷积核。和代表非对称卷积核计算批处理归一化时的比例因子,和代表非对称卷积核计算批处理归一化时的偏置项。
[0059]
设bj表示三种卷积核的批处理归一化中均值项与偏置项的和,并表示为:
[0060][0061]
其中和分别表示非对称卷积核计算结果的比例因子与偏置项,因此可以推出完整的一次非对称卷积融合计算过程为:
[0062][0063]
将训练好并且完成非对称卷积核参数融合后的amrnet反馈网络用于csi的压缩和重建,重建的csi矩阵先进行补零操作恢复为原始csi矩阵h相同大小,再进行二维逆dft变换,获得原始空频域的csi矩阵的重建值。
[0064]
按照以上步骤对本发明进行验证,同时用相同的数据集训练目前已经提出基于深度学习的csinet反馈网络。通过与csinet做对比来展示本发明的有效性。
[0065]
从图3中可以看出,本文提出的amrnet在室内和室外场景下,不同cr表现均优于csinet,同时,只利用小卷积核并没有使得反馈网络学习能力下降,在非对称卷积与密集连接的组合下,在不同环境中相对于csinet可以更好的完成csi反馈任务。随着压缩比的增加,重构精度逐渐下降,这说明了随着压缩比的增加,经过压缩的csi矩阵损失的隐藏信息也在增加,室外环境由于比室内环境含有更多的噪声信息使得重构精度下降更加明显。另一方面,通过对比非对称卷积和对称卷积网络发现,在不同环境中以及不同的cr下,加入非对称卷积结构的网络性能均略优于对称卷积网络mrnet,室内环境下nmse平均提升约9%,室外环境下nmse平均提升约5%,这证明了非对称卷积增强了卷积核的特征提取能力。
[0066]
图4绘制了在室内和室外环境中,在4种不同cr下的原始csi矩阵以及csinet和amrnet重建后csi矩阵的伪灰度图。从图中可以看出,在室内环境中,不同的cr下csinet均可以重构csi矩阵的主要信息,仅损失右半部分次要信息。在室外环境下,从cr=1/16开始,csinet已经不能较完整的重建csi矩阵了,这证明了csinet在csi含有较多有用信息的情况下才能达到良好效果,在室外环境或大压缩比时,随着csi矩阵里面的有用信息变少,重构精度降低。而在两种环境中,4种不同cr下本文提出的amrnet得益于非对称卷积和多分辨卷积,使得所提网络相对于csinet在减少了网络模型参数量与计算量的同时,均可以较为完整的重构csi矩阵。
[0067]
表1不同模型复杂度对比
[0068][0069]
从表1可以看出,本文提出的amrnet在参数量上与csinet差距不大,原因在于两种网络的参数量均主要来自于编码端和解码端的全连接层。然而在计算量上相比于csinet大大减少,cr为1/4时计算量减少大约30%,而cr为1/32时计算量减少大约46%,这个差异也是来源于全连接层,相比于cr为1/4全连接层输出端神经元节点个数为512,cr为1/32时其个数只有64,因此cr越大计算量减少表现越明显。因此本文提出的amrnet通过采用3
×
3卷积核级联实现大卷积核的方法使得模型参数量与计算量得到减少,同时网络中的非对称卷积,多分辨率卷积以及解码端的密集连接网络结构加强了卷积核特征复用能力,提高了网络对于csi矩阵的特征提重构性能,可以在保证csi矩阵重构精度的同时使解码过程中所涉及的计算量得到进一步减少。
[0070]
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献