一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

通信信号自动调制识别方法、装置、电子设备及存储介质

2022-04-16 18:42:25 来源:中国专利 TAG:


1.本技术涉及调制信号识别技术领域,尤其涉及一种通信信号自动调制识别方法、装置、电子设备及存储介质。


背景技术:

2.调制信号识别是一种在非合作通信方式下,根据接收到的信号数据,推断出通信信号的调制模式及其参数是认知无线电中的重要环节,是保证非合作通信下信息正常交互的重要步骤。一般来说,通信信道复杂多变,接收到的信号极其复杂,在各种极端环境下,难以实现信号调制模式的准确识别。
3.基于上述情况,现有技术中通常通过基于似然函数和基于特征的方法进行分类决策,但是,这些算法计算过程较为复杂,预处理过程耗费大量的人力物力,适应性差,在非合作方式的通信下,很难正常工作,而将深度学习方法应用在调制信号识别领域,需要大量的训练数据进行训练才能在测试集上发挥出优异性能,往往只能获取极少的样本数据,难以满足训练需求,这就导致能否构建合适的训练数据集成为深度学习算法应用的关键,数据集的质量也成为深度学习算法表现的瓶颈,实际应用场景中,通信信道复杂多变,信道损伤在不同环境下差异明显,数据采集和标注耗时耗力,因此构建合适的数据集是极其困难的。


技术实现要素:

4.有鉴于此,本技术的目的在于提出一种通信信号自动调制识别方法、装置、电子设备及存储介质,用以解决上述技术问题。
5.基于上述目的,本技术的第一方面提供了一种通信信号自动调制识别方法,包括:
6.获取信号数据集,将所述信号数据集划分为支持数据集和测试数据集;
7.基于所述支持数据集和所述测试数据集组成测试组;
8.将所述测试组依次输入经过预训练的第一神经网络和第二神经网络,输出所述测试数据集中每条信号数据对应的第一调制模式类别。
9.本技术的第二方面提供了一种通信信号自动调制识别装置,包括:
10.获取模块,被配置为获取信号数据集,将所述信号数据集划分为支持数据集和测试数据集;
11.组合模块,被配置为基于所述支持数据集和所述测试数据集组成测试组;
12.类别识别模块,被配置为将所述测试组依次输入经过预训练的第一神经网络和第二神经网络,输出所述测试数据集中每条信号数据对应的第一调制模式类别。
13.本技术的第三方面提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现第一方面所述的方法。
14.本技术的第四方面提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使计算机执行第一方面所述方法。
15.从上面所述可以看出,本技术提供的通信信号自动调制识别方法、装置、电子设备及存储介质,通过训练数据集对第一神经网络和第二神经网络进行训练,然后进行参数优化,提升第一神经网络和第二神经网络的性能,然后根据训练优化好的第一神经网络和第二神经网络对比支持数据集和测试数据集,得到关系分数,根据关系分数的大小,判断测试数据集中的信号样本数据所属的调试类别,省去了大量训练数据的需求,能大幅度提升在少信号样本数据条件下的调制模式类别识别性能,降低对训练数据的量的依赖,达到与大量信号样本数据集条件下的同等分类性能。
附图说明
16.为了更清楚地说明本技术或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
17.图1为本技术一个实施例的通信信号自动调制识别方法的流程图;
18.图2为本技术实施例的第一神经网络和第二神经网络的训练流程图;
19.图3为本技术一个实施例的通信信号自动调制识别装置的结构示意图;
20.图4为本技术实施例的电子设备的结构示意图。
具体实施方式
21.为使本技术的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本技术进一步详细说明。
22.需要说明的是,除非另外定义,本技术实施例使用的技术术语或者科学术语应当为本技术所属领域内具有一般技能的人士所理解的通常意义。本技术实施例中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
23.相关技术中,一般根据接收到的信号数据的似然判决结果推断出相应的调制模式或者计算接收数据的高阶累积量,小波特征,峰值,均值等统计特征,接着使用支持向量机,梯度提升树,玻尔兹曼机等机器学习方法进行分类决策,但是这些算法计算过程较为复杂,预处理过程耗费大量的人力物力,适应性差,在非合作方式的通信下,很难正常工作。
24.另外,相关技术中还通过深度学习算法进行调制信号识别,需要大量的训练数据进行训练才能在测试集上发挥出优异性能,需要有合适的训练数据集,同时训练数据集的质量也成为关键,实际应用场景中,通信信道复杂多变,信道损伤在不同环境下差异明显,数据采集和标注耗时耗力,并且往往只能获取极少的训练集数据,因此构建合适的训练数据集是极其困难的。此外还可以通过将模型在大量仿真样本上预训练,接着固定除全连接层外的网络参数,最后在少样本真实信号数据集上重新学习全连接层参数,但是这种方式
由于全连接层参数过多,少量的信号样本数据同样难以满足训练需求。在不充分学习的情况下,进行分类任务,不能有优异的分类表现。
25.本技术的实施例提供一种通信信号自动调制识别方法,根据训练好的第一神经网络和第二神经网络对比支持数据集和测试数据集,得到关系分数,根据关系分数的大小,判断测试数据集中的信号样本数据所属的调试类别。
26.如图1所示,本实施例的方法包括:
27.步骤101,获取信号数据集,将所述信号数据集划分为支持数据集和测试数据集。
28.在该步骤中,信号数据集可通过程序仿真生成或通过一些信号生成的专用软件来获取,或者使用设备收发信号,同时拿一台采集器采集数据,进行实际采集,还可以使用公开的调制信号数据集。
29.步骤102,基于所述支持数据集和所述测试数据集组成测试组。
30.在该步骤中,支持数据集中每条信号数据对应的调制模式类别为已知的,测试数据集中的每条信号数据的调制模式类别是最终需要进行分类判断的。
31.其中,支持数据集中的信号数据包含的调制模式类别和测试数据集是相同的,再通过组成测试组的形式,构建了测试数据集和支持数据集对比的条件。
32.步骤103,将所述测试组依次输入经过预训练的第一神经网络和第二神经网络,输出所述测试数据集中每条信号数据对应的第一调制模式类别。
33.在该步骤中,预训练的第一神经网络和第二神经网络具有度量两条信号数据之间相似度的能力,通过度量两条信号数据之间相似度判断信号数据所属的类别。
34.通过上述方案,将预训练的第一神经网络和第二神经网络模型应用到测试数据集上,根据测试数据集中的每条信号数据与支持数据集的相似度来得到测试数据集中每条信号数据对应的调试模式类别。
35.在一些实施例中,步骤102中,所述基于所述支持数据集和所述测试数据集组成测试组,具体包括:
36.将所述测试数据集中的每条所述信号数据分别和所述支持数据集进行组合形成多个测试组。
37.在该步骤中,根据测试数据集中信号数据的数量确定测试组的数量,通过测试数据集中的每条信号数据分别和支持数据集进行组合,构建了对测试数据集每条信号数据的对比条件。
38.在一些实施例中,步骤103中,所述将所述测试组依次输入经过预训练的第一神经网络和第二神经网络,输出所述测试数据集中每条信号数据对应的第一调制模式类别,包括:
39.基于所述测试组通过所述第一神经网络输出所述测试组对应的向量;
40.将所述向量输入到拼接层得到第一拼接向量;
41.基于所述第一拼接向量通过所述第二神经网络输出所述测试数据集中的每一个测试数据对应的关系分数,根据所述关系分数确定该所述测试数据对应的第一调制模式类别。
42.在该步骤中,拼接层能够将测试组中的支持数据集的信号数据经由第一神经网络处理之后得到的向量与测试组中的测试数据集的信号数据经由第一神经网络处理之后得
到的向量分别两两拼接组合成第一拼接向量。
43.其中,拼接层经常用于将特征联合,将多个卷积特征提取框架提取的特征进行融合或者是将输出层的信息进行融合,通过拼接层进行拼接,使得后面一层和整个网络前面所有层都建立一个连接,这样会减少神经网络层数,有利于神经网络的训练。
44.在一些实施例中,如图2所示,所述第一神经网络和所述第二神经网络通过以下方法进行预训练:
45.步骤201,构建训练数据集,将所述训练数据集划分为训练支持数据集和训练测试数据集。
46.在该步骤中,训练数据集的信号数据的调制模式类别与支持数据集和测试数据集中的信号数据的调制模式类别不同。
47.步骤202,将所述训练测试数据集中的每条训练数据分别和所述训练支持数据集进行组合形成多个训练组。
48.在该步骤中,根据训练测试数据集中信号数据的数量确定训练组的数量,通过训练测试数据集中的每条信号数据分别和训练支持数据集进行组合,构建了训练测试数据集每条信号数据的对比条件。
49.步骤203,将所述训练组输入预先构建的第一预训练模型,输出所述训练组对应的向量。
50.在该步骤中,训练组数据输入预先构建的第一预训练模型,进行去均值和归一化等处理,其中,去均值把输入的信号数据各个维度都中心化为0,归一化将信号数据不同维度的特征幅度归一化到同样的范围,减少各维度数据取值范围的差异而带来的干扰。
51.步骤204,将所述向量输入到拼接层,输出得到第二拼接向量。
52.在该步骤中,拼接层能够将训练支持数据集中经由第一预训练模型处理之后的向量与训练测试数据集经由第一预训练模型处理之后的向量分别两两拼接组合成第二拼接向量。
53.其中,拼接层经常用于将特征联合,将多个卷积特征提取框架提取的特征进行融合或者是将输出层的信息进行融合,通过拼接层进行拼接,使得后面一层和整个网络前面所有层都建立一个连接,这样会减少神经网络层数,有利于神经网络的训练。
54.步骤205,基于所述第二拼接向量通过第二预训练模型输出所述训练测试数据集中的每一个训练数据对应的关系分数,根据所述关系分数确定该所述训练数据对应的第二调制模式类别。
55.在该步骤中,第二预训练模型通过图像度量对比的方式进行处理得到对比相似的关系分数,根据关系分数的大小,判断测试数据集中的每条信号样本数据所属的类别,省去了大量训练数据的需求,即使在一条信号样本数据的条件下,也能正常进行分类。
56.步骤206,基于所述训练数据集和所述第二调制模式类别确定损失函数。
57.在该步骤中,通过确定损失函数来衡量预测信号调制模式的类别和真实类别的误差。
58.步骤207,对所述损失函数进行最小化计算,以得到所述第一神经网络和所述第二神经网络。
59.在该步骤中,第一神经网络为卷积神经网络,第二神经网络为关系网络,通过对用
于衡量模型预测信号调制模式的类别和真实类别相对应值误差的损失函数进行迭代优化,待损失函数的值逐渐收敛趋于一致,保存模型参数,提升第一神经网络和第二神经网络模型的性能。
60.通过上述方案,将训练组输入第一预训练模型,经过第一预训练模型输出训练组对应的向量,经过拼接层对输出的向量进行拼接得到第二拼接向量,将第二拼接向量输入第二预训练模型,再对损失函数进行迭代优化,进行最小化计算,得到经过训练的第一神经网络和第二神经网络,提升第一神经网络和第二神经网络模型的性能,通过这种方式来实现对第一神经网络和第二神经网络的训练,使其能够在少信号数据的情况下进行分类任务时拥有优异的性能表现。
61.在一些实施例中,步骤206中,所述损失函数具体为:
[0062][0063]
其中,x表示所述训练组,m(x)表示经过所述第一预训练模型和所述第二预训练模型输出的所述第二调制模型类别,y表示所述第二调制模式类别标签,n表示所述训练数据集中的数据总量。
[0064]
在该步骤中,通过损失函数计算模型预测的类别和真实类别相对应值误差的大小,经过迭代优化进行最小化计算后损失函数的值逐渐收敛趋于一致,使得第一神经网络和第二神经网络模型的分类准确度最高。
[0065]
在一些实施例中,所述第一神经网络包括三层架构,每层所述架构均包括:
[0066]
卷积层、批量标准化层、激活函数层和最大池化层。
[0067]
在该步骤中,卷积层能够降低调制信号数据的复杂程度,提取出关键特征,批量标准化层避免了训练过程中的梯度消失难题,让训练时能够保证足够的梯度,激活函数层提供了非线性运算,增强了可迭代的梯度,最大池化层突出了信号数据的主要特征,降低了信号数据的维度和复杂度。
[0068]
其中,激活函数层的激活函数为线性修正单元激活函数,能够有效增加算法在反向迭代中的梯度,避免欠拟合,线性修正单元激活函数表示如下:
[0069]frelu
(x)=max(0,x)
[0070]
通过批量标准化层有效的解决了反向传播时低层神经网络的梯度消失的问题,将输入的信号样本数据的空间分布变换到正态分布,变换公式如下:
[0071][0072]
其中,e[x]是输入信号数据的均值,是输入信号数据的标准差。x

是归一化之后的输出。
[0073]
在一些实施例中,所述第二神经网络包括:
[0074]
卷积层、第一全连接层、第二全连接层和s型长生曲线激活函数层。
[0075]
在该步骤中,第二神经网络的卷积层构造和第一神经网络的卷积层一样,每层全连接层包括64个神经元,增强拟合能力,s型长生曲线激活函数层的激活函数能够通过输出一个在[0,1]之间的数值,此数值为关系分数,通过比较拼接后的各个向量经由第二神经网
络输出的关系分数来度量相似度,关系分数的数值靠近0说明不相似,接近1说明相似,根据相似度来判断信号数据的调制模式类别。
[0076]
其中,s型长生曲线激活函数层的激活函数为:
[0077][0078]
需要说明的是,本技术实施例的方法可以由单个设备执行,例如一台计算机或服务器等。本实施例的方法也可以应用于分布式场景下,由多台设备相互配合来完成。在这种分布式场景的情况下,这多台设备中的一台设备可以只执行本技术实施例的方法中的某一个或多个步骤,这多台设备相互之间会进行交互以完成所述的方法。
[0079]
需要说明的是,上述对本技术的一些实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于上述实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
[0080]
基于同一发明构思,与上述任意实施例方法相对应的,本技术还提供了一种通信信号自动调制识别装置。
[0081]
参考图3,所述通信信号自动调制识别装置,包括:
[0082]
获取模块301,被配置为获取信号数据集,将所述信号数据集划分为支持数据集和测试数据集;
[0083]
组合模块302,被配置为基于所述支持数据集和所述测试数据集组成测试组;
[0084]
类别识别模块303,被配置为将所述测试组依次输入经过预训练的第一神经网络和第二神经网络,输出所述测试数据集中每条信号数据对应的第一调制模式类别。
[0085]
在一些实施例中,组合模块302具体被配置为:
[0086]
将所述测试数据集中的每条所述信号数据分别和所述支持数据集进行组合形成多个测试组。
[0087]
在一些实施例中,类别识别模块303具体被配置为:
[0088]
基于所述测试组通过所述第一神经网络输出所述测试组对应的向量;
[0089]
将所述向量输入到拼接层得到第一拼接向量;
[0090]
基于所述第一拼接向量通过所述第二神经网络输出所述测试数据集中的每一个测试数据对应的关系分数,根据所述关系分数确定该所述测试数据对应的第一调制模式类别。
[0091]
在一些实施例中,所述通信信号自动调制识别装置还包括训练模块,具体被配置为:
[0092]
构建训练数据集,将所述训练数据集划分为训练支持数据集和训练测试数据集;
[0093]
将所述训练测试数据集中的每条训练数据分别和所述训练支持数据集进行组合形成多个训练组;
[0094]
将所述训练组输入预先构建的第一预训练模型,输出所述训练组对应的向量;
[0095]
将所述向量输入到拼接层,输出得到第二拼接向量;
[0096]
基于所述第二拼接向量通过第二预训练模型输出所述训练测试数据集中的每一
个训练数据对应的关系分数,根据所述关系分数确定该所述训练数据对应的第二调制模式类别;
[0097]
基于所述训练数据集和所述第二调制模式类别确定损失函数;
[0098]
对所述损失函数进行最小化计算,以得到所述第一神经网络和所述第二神经网络。
[0099]
在一些实施例中,所述损失函数具体为:
[0100][0101]
其中,x表示所述训练组,m(x)表示经过所述第一预训练模型和所述第二预训练模型输出的所述第二调制模型类别,y表示所述第二调制模式类别标签,n表示所述训练数据集中的数据总量。
[0102]
在一些实施例中,所述第一神经网络包括三层架构,每层所述架构均包括:
[0103]
卷积层、批量标准化层、激活函数层和最大池化层。
[0104]
在一些实施例中,所述第二神经网络包括:
[0105]
卷积层、第一全连接层、第二全连接层和s型长生曲线激活函数层。
[0106]
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本技术时可以把各模块的功能在同一个或多个软件和/或硬件中实现。
[0107]
上述实施例的装置用于实现前述任一实施例中相应的通信信号自动调制识别方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
[0108]
基于同一发明构思,与上述任意实施例方法相对应的,本技术还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上任意一实施例所述的通信信号自动调制识别方法。
[0109]
图4示出了本实施例所提供的一种更为具体的电子设备硬件结构示意图,该设备可以包括:处理器1010、存储器1020、输入/输出接口1030、通信接口1040和总线1050。其中处理器1010、存储器1020、输入/输出接口1030和通信接口1040通过总线1050实现彼此之间在设备内部的通信连接。
[0110]
处理器1010可以采用通用的cpu(central processing unit,中央处理器)、微处理器、应用专用集成电路(application specific integrated circuit,asic)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本说明书实施例所提供的技术方案。
[0111]
存储器1020可以采用rom(read only memory,只读存储器)、ram(random access memory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器1020可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器1020中,并由处理器1010来调用执行。
[0112]
输入/输出接口1030用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
[0113]
通信接口1040用于连接通信模块(图中未示出),以实现本设备与其他设备的通信
交互。其中通信模块可以通过有线方式(例如usb、网线等)实现通信,也可以通过无线方式(例如移动网络、wifi、蓝牙等)实现通信。
[0114]
总线1050包括一通路,在设备的各个组件(例如处理器1010、存储器1020、输入/输出接口1030和通信接口1040)之间传输信息。
[0115]
需要说明的是,尽管上述设备仅示出了处理器1010、存储器1020、输入/输出接口1030、通信接口1040以及总线1050,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本说明书实施例方案所必需的组件,而不必包含图中所示的全部组件。
[0116]
上述实施例的电子设备用于实现前述任一实施例中相应的通信信号自动调制识别方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
[0117]
基于同一发明构思,与上述任意实施例方法相对应的,本技术还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行如上任一实施例所述的通信信号自动调制识别方法。
[0118]
本实施例的计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(cd-rom)、数字多功能光盘(dvd)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
[0119]
上述实施例的存储介质存储的计算机指令用于使所述计算机执行如上任一实施例所述的通信信号自动调制识别方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
[0120]
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本技术的范围(包括权利要求)被限于这些例子;在本技术的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本技术实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。
[0121]
另外,为简化说明和讨论,并且为了不会使本技术实施例难以理解,在所提供的附图中可以示出或可以不示出与集成电路(ic)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本技术实施例难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本技术实施例的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本技术的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本技术实施例。因此,这些描述应被认为是说明性的而不是限制性的。
[0122]
尽管已经结合了本技术的具体实施例对本技术进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态ram(dram))可以使用所讨论的实施例。
[0123]
本技术实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修
改和变型。因此,凡在本技术实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本技术的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献