一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种面向功率放大器的深度神经网络泛化性建模方法

2022-06-02 14:33:12 来源:中国专利 TAG:


1.本发明属于无线通信技术领域,具体是一种面向功率放大器的深度神经网络泛化性建模方法。


背景技术:

2.随着第五代移动通信技术(5g)的不断发展,通信系统对数据速率和通信时延等方面都有了更高的要求,系统的宽带化与低能耗要求越来越受重视。
3.功率放大器(power amplifier,pa)作为提供功率增益的主要模块,是无线通信系统中必不可少的重要部件,其是否高效率高线性度的工作关系到整个通信系统是否可以高质量运行。对于功率放大器而言,其高效率工作时会趋于饱和区,此时通过功率放大器的信号会产生严重失真,呈现严重的非线性特性,造成增益压缩、相邻信道的频谱再生和带内失真,导致通信系统的性能下降,需要使用预失真技术进行失真的校正。
4.同时,由于通信系统数据带宽和数据量的飞速增长,为了提高频谱利用率,正交频分复用(orthogonal frequency division multiplexing,ofdm)技术等非恒包络调制方式被广泛的应用于无线通信技术中,但其较高的峰均功率比会导致功率放大器的非线性特征变得更加突出。
5.因此为了更好的对通信系统进行预失真研究以及提高通信效率,精确的功率放大器建模就显得尤为重要。
6.由于功放的输入输出关系可以用函数来表达,而神经网络可以利用大量数据进行训练,逼近任意函数表达式,且神经网络还可以有效地补偿功放的记忆效应,因此为了更好地补偿超宽频带功放的非线性失真,神经网络模型被广泛应用于功率放大器建模领域。
7.增强实值时延神经网络(augmented real-valued time delay neural network,arvtdnn)使用功率放大器当前和历史输入信号的同相分量、正交分量及其幅值来建立深度神经网络(deep neural network,dnn),能够有效的跟踪pa的记忆效应,而且随着隐藏层的增加,其线性化性能将会提升,具有很好的通用性,故arvtdnn以其优秀的性能被广泛应用。
8.然而,在实际应用中,使用深度神经网络模型对功率放大器进行建模的方法,只能对固定带宽和功率的功放信号进行建模,一旦存在多种带宽、功率条件的ofdm信号,dnn的建模效果就会急速下降。为了改善功率放大器非线性特性的建模效果,就需要提升dnn模型的泛化能力。


技术实现要素:

9.本发明为解决:宽带通信系统中功率放大器深度神经网络建模,对于信号带宽和功率泛化性低下的问题,为了满足在实际应用中针对不同带宽功率的信号进行功率放大器建模的需要,提出了一种面向功率放大器的深度神经网络泛化性建模方法,当多种带宽、功率的信号存在时,在保证建模效果的前提下,减少了所需dnn模型的数量,充分提高了模型的泛化能力。
10.所述的面向功率放大器的深度神经网络泛化性建模方法,具体步骤如下:
11.步骤一、采集不同带宽和功率水平的数据,分别作为功率放大器的输入信号x(n)和输出的采样信号y(n);
12.首先,通过正交相移键控(qpsk)或正交幅度调制(qam)产生各组调制数据符号;
13.第i组数据符号表示为xi=[x
i,0
,x
i,1
,

,x
i,k-1
],k为第i组数据符号的个数;i=1,2,...,n,n为获取数据的带宽和功率状态信息的总数。
[0014]
通过离散傅里叶逆变换将各组数据符号,分别调制到具有k个子载波的ofdm系统上,生成各自对应的ofdm信号;
[0015]
xi对应的ofdm信号为xi(n),计算公式为:
[0016][0017]
l为过采样倍数,x
i,k
是qpsk或qam产生的第k个数据符号;n表示采样点数,
[0018]
接着,经过功率放大器并进行采样,得到各ofdm信号对应的采样信号;
[0019]
xi(n)对应的采样信号为yi(n),(i=1,2,...,n);
[0020]
步骤二、基于云边协同,将采集到的各ofdm信号和相应的采样信号分别上传至云端;
[0021]
步骤三、对各ofdm信号的相应带宽和功率水平进行one-hot编码,并将编码信息通过一层全连接神经网络层,标记输出为各自的编码向量;
[0022]
首先,针对ofdm信号xi(n),将其带宽和功率信息记作一组状态:状态1,状态2,
……
,并进行one-hot编码,记作
[0023]
然后,通过全连接神经网络层对实现降维输出,记作编码向量用以表示ofdm信号的带宽和功率信息,即:
[0024][0025]
其中,为该全连接神经网络层中神经元的权值,为该全连接神经网络层中神经元的偏置,nc为该层全连接层的神经元个数。
[0026]
步骤四、利用各ofdm信号,各自对应的编码向量和采样信号构建dnn模型;
[0027]
所述dnn模型包含输入层(input layer)、全连接神经网络隐藏层(full connected layer)和输出层(output layer);输入数据包含:编码向量和ofdm信号;
[0028]
输入层神经元个数为5*(m 1) nc,m为功率放大器的记忆深度,nc为编码向量的维度,其输入表达式为:
[0029][0030][0031][0032][0033][0034]
其中:|xi(n)|表示第i组功率放大器输入信号的幅度项,ci(n)是表征输入信号xi(n)带宽和功率水平的相应编码向量,|xi(n)|,|xi(n)|2,|xi(n)|3是信号xi(n)的一组输入分量,m∈0,1,...,m。
[0035]
全连接神经网络隐藏层的层数为3层,神经元个数分别为25、15、15,激活函数使用“tanh”激活函数;第j层隐藏层的输出aj为:
[0036]aj
=tanh(w
jt
·aj-1
bj),(j=1,2,3)
[0037][0038]
其中,是第j层隐藏层的权重;是第j层隐藏层的偏置,lj为第j层隐藏层的神经元个数,特别地,定义l0=5*(m 1) nc为输入层神经元数量,是神经网络的输入数据。
[0039]
输出层的神经元个数为2个,分别与功率放大器输出信号的同相和正交分量相对应,激活函数为线性激活函数,则输出层的输出y
out
表示为:
[0040][0041]
其中,是输出层的权重;是输出层的偏置;y

i,i
(n)为当前时刻输出信号的同相分量;y

i,q
(n)为当前时刻输出信号的正交分量。
[0042]
dnn模型的目标输出表达式为:
[0043][0044]
其中表示功率放大器输出信号的同相分量,表示功率放大器输出信号的正交分量;
[0045]
步骤五、利用采集的不同带宽和功率水平的数据,对dnn模型进行训练,实现基于多种状态数据的泛化性建模;
[0046]
首先,将不同带宽和功率的数据混合在一起对dnn模型进行训练,随着迭代次数的增加不断调整编码向量c(n)的权值和偏置,实现对编码向量的更新优化。
[0047]
然后,训练完成后,利用不同带宽和功率下的ofdm信号分别对dnn模型进行性能测试,测定各组数据的归一化均方误差性能;
[0048]
代价函数采用均方误差函数mse,使用adam优化算法对构建的dnn模型参数进行更新训练,模型的优化目标函数为:
[0049][0050]
其中,n
total
表示用于训练的样本数。
[0051]
最后,将训练好的dnn模型下发到边缘端,进行模型推理以减少模型输出的传输时延;
[0052]
当接收到新的带宽和功率条件下的ofdm信号时,将该ofdm数据并入到训练集,进行dnn模型的更新训练,并将更新后的模型再次下发到边缘端以替换原有的模型,实现模型的及时更新。
[0053]
本发明的优点和积极效果在于:
[0054]
本发明一种面向功率放大器的深度神经网络泛化性建模方法,通过嵌入一组表征信号的带宽和功率状态的编码向量,建立了对带宽和功率具有一定泛化能力的dnn模型,实现对多组带宽、功率水平的功率放大器信号进行建模,避免了当存在不同带宽、功率条件的ofdm信号时需要针对性的逐一训练网络模型的问题,减少了需要建模的数量,大大提高了建模效率。
附图说明
[0055]
图1为本发明一种面向功率放大器的深度神经网络泛化性建模方法的流程图;
[0056]
图2为本发明对各ofdm信号的相应带宽和功率水平输出为各自的编码向量的示意图;
[0057]
图3为本发明构建dnn模型的网络结构示意图。
[0058]
图4为本发明输出信号以及pa实际输出信号的相应归一化功率谱图。
[0059]
图5为本发明所提方法与arvtdnn模型输出的nmse性能比较图。
具体实施方式
[0060]
下面结合具体实施例和附图,对本发明的实施方式做详细、清楚的描述。
[0061]
本发明提出了一种面向功率放大器的深度神经网络泛化性建模方法,如图1所示,包括如下步骤:
[0062]
步骤一、采集不同带宽和功率水平的数据,分别作为功率放大器的输入信号x(n)和输出的采样信号y(n);
[0063]
采集不同带宽和功率水平的数据用以建立功率放大器输入和输出信号的模型,采集过程为:
[0064]
首先,通过正交相移键控(qpsk)或正交幅度调制(qam)产生各组调制数据符号;
[0065]
第i组数据符号表示为xi=[x
i,0
,x
i,1
,

,x
i,k-1
],k为第i组数据符号的个数;i=1,2,...,n,n为获取数据的带宽和功率状态信息的总数。
[0066]
然后,通过离散傅里叶逆变换将各组数据符号,分别调制到具有k个子载波的ofdm系统上,生成各自对应的ofdm信号;
[0067]
xi对应的ofdm信号为xi(n),计算公式为:
[0068][0069]
l为过采样倍数,x
i,k
是qpsk或qam产生的第k个数据符号;n表示采样点数,
[0070]
接着,经过功率放大器并进行采样,得到各ofdm信号对应的采样信号;
[0071]
xi(n),yi(n)代表第i组数据的输入信号和采样信号,xi(n)对应的采样信号为yi(n),(i=1,2,...,n);
[0072]
步骤二、基于云边协同的方法,将边缘端采集到的各ofdm信号和相应的采样信号分别上传至云端;
[0073]
之后在云端进行功率放大器dnn模型的训练;
[0074]
步骤三、对各ofdm信号的相应带宽和功率水平进行one-hot编码,并将编码信息通过一层全连接神经网络层,标记其输出为各自的编码向量;
[0075]
如图2所示,首先,针对ofdm信号xi(n),将其带宽和功率信息记作一组状态:状态1,状态2,
……
,并进行one-hot编码,记作
[0076]
然后,通过全连接神经网络层对实现降维输出,记作编码向量用以表示ofdm信号的带宽和功率信息,即:
[0077][0078]
其中,为该全连接神经网络层中神经元的权值,为该全连接神经网络层中神经元的偏置,nc为该层全连接层的神经元个数。
[0079]
之后将编码向量ci(n)以嵌入向量的形式输入到dnn模型中,在dnn模型训练时,该层神经元的参数也将参与训练,会随着迭代次数的增加而调整其权值和偏置,实现对编码向量的更新优化。
[0080]
步骤四、利用各ofdm信号,各自对应的编码向量和采样信号构建dnn模型;
[0081]
所有的ofdm信号为:x(n)=[x1(n),x2(n),...,xi(n),...,xn(n)];
[0082]
对应的编码向量为:c(n)=[c1(n),c2(n),...,ci(n),...,cn(n)];
[0083]
对应的采样信号y(n)=[y1(n),y2(n),...,yi(n),...,yn(n)];
[0084]
如图3所示,所述dnn模型包含输入层(input layer)、全连接神经网络隐藏层
(full connected layer)和输出层(output layer);包含两种输入数据:由ofdm信号xi(n)的one-hot编码通过一层全连接层输出的编码向量ci(n)以及信号xi(n)的同相分量、正交分量、包络项、相应时延信息;
[0085]
输入层神经元个数为5*(m 1) nc,m为功率放大器的记忆深度,nc为编码向量的维度,其输入表达式为:
[0086][0087][0088][0089][0090][0091]
其中:|xi(n)|表示第i组功率放大器输入信号的幅度项,ci(n)是表征输入信号xi(n)带宽和功率水平的相应编码向量,|xi(n)|,|xi(n)|2,|xi(n)|3是信号xi(n)的一组输入分量,后续为时延信号xi(n-1)的一组相应分量,以此类推,中间是时延信号xi(n-m)的一组相应分量,最后一组为时延信号xi(n-m)的相应分量,m∈0,1,...,m。
[0092]
全连接神经网络隐藏层的层数为3层,神经元个数分别为25、15、15,激活函数使用“tanh”激活函数;第j层隐藏层的输出aj为:
[0093]aj
=tanh(w
jt
·aj-1
bj),(j=1,2,3)
[0094][0095]
其中,是第j层隐藏层的权重;是第j层隐藏层的偏置,lj为第j层隐藏层的神经元个数,特别地,定义l0=5*(m 1) nc为输入层神经元数量,是神经网络的输入数据。
[0096]
输出层的神经元个数为2个,分别与功率放大器输出信号的同相和正交分量相对应,激活函数为线性激活函数,则输出层的输出y
out
表示为:
[0097][0098]
其中,是输出层的权重;是输出层的偏置;y
out

示dnn模型的输出,包含当前时刻模型输出信号的同相分量y

i,i
(n)和正交分量y

i,q
(n)。
[0099]
dnn模型的目标输出表达式为:
[0100][0101]
其中表示功率放大器输出信号的同相分量,表示功率放大器输出信号的正交分量;
[0102]
步骤五、利用采集的不同带宽和功率水平的数据,对dnn模型进行训练,实现基于多种状态数据的泛化性建模;
[0103]
在获取输入数据和目标输出数据之后,将数据按照一定的比例划分为训练集和测试集,分别用于网络训练和最终的测试。
[0104]
首先,将不同带宽和功率的数据混合在一起对dnn模型进行训练,随着迭代次数的增加不断调整编码向量c(n)的权值和偏置,实现对编码向量的更新优化。
[0105]
然后,训练完成后,利用不同带宽和功率下的ofdm信号分别对dnn模型进行性能测试,测定各组数据的归一化均方误差(normalized mean square error,nmse)性能;实现适用于多种带宽功率水平的功放信号的泛化性建模。
[0106]
代价函数采用均方误差函数(mean square error,mse),使用adam优化算法对构建的dnn模型参数进行更新训练,模型的优化目标函数为:
[0107][0108]
其中,n
total
表示用于训练的样本数。
[0109]
最后,将训练好的dnn模型下发到边缘端,进行模型推理以减少模型输出的传输时延;
[0110]
在边缘端采集ofdm信号,输入到dnn模型得到输出信号。当接收到新的带宽和功率条件下的ofdm信号时,将该ofdm数据并入到训练集,进行dnn模型的更新训练,并将更新后的模型再次下发到边缘端以替换原有的模型,实现模型的及时更新。
[0111]
本发明在训练dnn模型时,使用的数据集是由不同带宽和功率下的功率放大器输入和输出信号组成的。
[0112]
模型训练完成后,测试集中的数据通过该网络的输出信号以及pa实际输出信号的相应归一化功率谱图,如图4所示,从图中可以看出,dnn模型充分学习到了pa的非线性特征。通过比较本发明所提方法与arvtdnn模型输出的nmse性能,如图5所示,包括model 1:本发明方法对各组数据的建模效果;model 2:每组数据分别通过同规模的arvtdnn模型训练后的输出结果;model 3:直接将各组未经过编码的数据混合输入到arvtdnn模型进行训练的nmse测试结果。
[0113]
从图5可以看出,本发明所提出的模型输出信号的nmse均低于-32db,对每组数据都有较好的建模效果。实验结果表明,本发明方法在保证功率放大器建模性能良好的情况下,很大程度上减少了所需模型的数量,提升了模型的泛化能力,满足实际中对多种带宽、功率条件的功放信号建模的需要。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献