一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于神经网络的帧间编码单元尺寸划分方法与流程

2021-11-24 21:01:00 来源:中国专利 TAG:


1.本技术涉及帧间编码技术领域,更为具体来说,本技术涉及一种基于神经网络的帧间编码单元尺寸划分方法。


背景技术:

2.avs代表中国数字音视频编解码技术标准,avs3代表新一代的编解码技术标准,avs3使用帧间预测技术,利用相邻图像间存在很大相似性这一特征,以达到有效去除视频时域冗余的目的。现有技术中的基于编码块标志(cbf)的提前终止划分方法,如果对于所有色度和亮度分量存在零cbf,则可以完全跳过当前编码单元(cu)的其余划分模式。还有一种方法为根据中间编码信息有条件地评估特定的一组帧间划分模式,但二者的缺点都是高度依赖于统计信息和手工设计的特征,无法全面显示自然视频的统计信息和编解码器的行为。总之,avs3标准下的传统编码器通过迭代划分方式对一系列编码单元进行处理,而划分方式朝着多样、灵活的划分方式结构发展,使得划分复杂度显著提升,计算资源消耗严重。
3.因此,本技术提出了基于神经网络的帧间编码单元尺寸划分方法,以解决此问题。


技术实现要素:

4.为实现上述技术目的,本技术提供了一种基于神经网络的帧间编码单元尺寸划分方法,包括以下步骤:
5.获取第一预设尺寸的编码单元;
6.将所述编码单元输入到训练好的神经网络模型中,获得第二预设尺寸的编码单元;
7.记录所述第二预设尺寸的编码单元的尺寸,在模型预测结果中找到其相应位置并进行加和平均操作,获得对该编码单元不划分的概率;
8.计算对该编码单元划分为子块的概率,然后进行加和平均操作回溯到该编码单元的尺寸以获取所述第二预设尺寸的编码单元在当前划分模式下的概率;
9.获取预设数目的概率进行大小比较并排序,选取前n个最大概率对应的划分模式进行划分。
10.具体地,所述计算对该编码单元划分为子块的方法包括:四叉树划分、横向二叉树划分、纵向二叉树划分、横向扩展的四叉树划分和纵向扩展的四叉树划分。
11.再具体地,所述神经网络模型包括1个输入层、7个卷积层、1个添加层和3个反卷积层。
12.优选地,所述神经网络模型的训练步骤如下:
13.获取样本;
14.将所述样本按预设比例分为训练样本和验证样本;
15.设计损失函数与优化算法;
16.输入所述训练样本进行训练,每训练一次就用所述验证样本进行验证;
17.在达不到预设的验证效果时重新设计损失函数与优化算法;
18.当迭代次数达到预设次数时,终止训练。
19.优选地,所述损失函数为:
[0020][0021]
其中,为类平衡因子,(1

p
j
)
γ
为调制因子,p为预测概率,c为类别数,β和γ表示固定系数。
[0022]
进一步地,所述卷积层还包括预设尺寸的滤波器。
[0023]
再进一地,所述神经网络模型还包括输出层,所述输出层的激活函数为softmax函数。
[0024]
本发明第二方面提供了一种avs3硬件编码器,所述avs3硬件编码器应用任一实施方式中的所述基于神经网络的帧间编码单元尺寸划分方法。
[0025]
本发明第三方面提供了一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行如下步骤:
[0026]
获取第一预设尺寸的编码单元;
[0027]
将所述编码单元输入到训练好的神经网络模型中,获得第二预设尺寸的编码单元;
[0028]
记录所述第二预设尺寸的编码单元的尺寸,在模型预测结果中找到其相应位置并进行加和平均操作,获得对该编码单元不划分的概率;
[0029]
计算对该编码单元划分为子块的概率,然后进行加和平均操作回溯到该编码单元的尺寸以获取所述第二预设尺寸的编码单元在当前划分模式下的概率;
[0030]
获取预设数目的概率进行大小比较并排序,选取前n个最大概率对应的划分模式进行划分。
[0031]
本发明第四方面提供了一种计算机存储介质,所述计算机存储介质存储有多条指令,所述指令适于由处理器加载并执行执行如下步骤:
[0032]
获取第一预设尺寸的编码单元;
[0033]
将所述编码单元输入到训练好的神经网络模型中,获得第二预设尺寸的编码单元;
[0034]
记录所述第二预设尺寸的编码单元的尺寸,在模型预测结果中找到其相应位置并进行加和平均操作,获得对该编码单元不划分的概率;
[0035]
计算对该编码单元划分为子块的概率,然后进行加和平均操作回溯到该编码单元的尺寸以获取所述第二预设尺寸的编码单元在当前划分模式下的概率;
[0036]
获取预设数目的概率进行大小比较并排序,选取前n个最大概率对应的划分模式进行划分。
[0037]
本技术的有益效果为:本发明的所述方法采用端到端模型设计,考虑帧间特征数据,降低了统计信息和手工设计特征过程的复杂度,降低了数据依赖度,划分数量可配置,
灵活限制了划分模式。
附图说明
[0038]
图1示出了本技术实施例1的方法流程示意图;
[0039]
图2示出了本技术实施例1的划分方法示意图;
[0040]
图3示出了本技术实施例1、2中的神经网络训练流程示意图;
[0041]
图4示出了本技术实施例2中的神经网络结构示意图;
[0042]
图5示出了本技术实施例2中的划分操作过程示意图;
[0043]
图6示出了本技术一实施例所提供的一种电子设备的结构示意图;
[0044]
图7示出了本技术一实施例所提供的一种存储介质的示意图。
具体实施方式
[0045]
以下,将参照附图来描述本技术的实施例。但是应该理解的是,这些描述只是示例性的,而并非要限制本技术的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本技术的概念。对于本领域技术人员来说显而易见的是,本技术可以无需一个或多个这些细节而得以实施。在其他的例子中,为了避免与本技术发生混淆,对于本领域公知的一些技术特征未进行描述。
[0046]
应予以注意的是,这里所使用的术语仅是为了描述具体实施例,而非意图限制根据本技术的示例性实施例。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式。此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在所述特征、整体、步骤、操作、元件和/或组件,但不排除存在或附加一个或多个其他特征、整体、步骤、操作、元件、组件和/或它们的组合。
[0047]
现在,将参照附图更详细地描述根据本技术的示例性实施例。然而,这些示例性实施例可以多种不同的形式来实施,并且不应当被解释为只限于这里所阐述的实施例。附图并非是按比例绘制的,其中为了清楚表达的目的,可能放大了某些细节,并且可能省略了某些细节。图中所示出的各种区域、层的形状以及它们之间的相对大小、位置关系仅是示例性的,实际中可能由于制造公差或技术限制而有所偏差,并且本领域技术人员根据实际所需可以另外设计具有不同形状、大小、相对位置的区域/层。
[0048]
实施例1:
[0049]
本实施例实施了一种基于神经网络的帧间编码单元尺寸划分方法,如图1所示,包括以下步骤:
[0050]
s1、获取第一预设尺寸的编码单元;
[0051]
s2、将所述编码单元输入到训练好的神经网络模型中,获得第二预设尺寸的编码单元;
[0052]
s3、记录所述第二预设尺寸的编码单元的尺寸,在模型预测结果中找到其相应位置并进行加和平均操作,获得对该编码单元不划分的概率;
[0053]
s4、计算对该编码单元划分为子块的概率,然后进行加和平均操作回溯到该编码单元的尺寸以获取所述第二预设尺寸的编码单元在当前划分模式下的概率;
[0054]
s5、获取预设数目的概率进行大小比较并排序,选取前n个最大概率对应的划分模
式进行划分。
[0055]
具体地,如图2所示,计算对该编码单元划分为子块的方法包括:四叉树划分div1、横向二叉树划分div2、纵向二叉树划分div3、横向扩展的四叉树划分div4和纵向扩展的四叉树划分div5。本实施例中,加上不划分的情况一共为6种,因此预设数目的概率进行大小比较并排序,选取前n个最大概率对应的划分模式进行划分时,预设数目优选为6,n为介于1至6之间的整数。
[0056]
再具体地,所述神经网络模型包括1个输入层、7个卷积层、1个添加层和3个反卷积层。
[0057]
如图3所示,神经网络模型的训练大体上包括训练样本选择,模型建立,训练模型及运行流程,在训练模型的过程中不断优化模型。优选地,本技术的神经网络模型的具体训练步骤如下:
[0058]
获取样本;
[0059]
将所述样本按预设比例分为训练样本和验证样本;
[0060]
设计损失函数与优化算法;
[0061]
输入所述训练样本进行训练,每训练一次就用所述验证样本进行验证;
[0062]
在达不到预设的验证效果时重新设计损失函数与优化算法;
[0063]
当迭代次数达到预设次数时,终止训练。
[0064]
在获取样本时,每一个分辨率下至少选择一个序列,对测试序列进行时间感知信息测量(ti)计算,保证所选序列可以涵盖ti整个范围,消除2n
×
2n和n
×
n编码单元之间的率失真代价(rd)差异太小的样本,以防止模型学习此类样本,对其他样本产生错误分类,消除阈值为|rd|≤0.02。在模型建立时,编码单元cu类别设置64x64的cu中每个尺寸为4x4,类别数量为22种{0∶4x8,1∶8x4,

,21∶64x64},批(batch)大小选为64。
[0065]
优选地,所述损失函数为:
[0066][0067]
其中,为类平衡因子,(1

p
j
)
γ
为调制因子,p为预测概率,c为类别数,β和γ表示固定系数。
[0068]
进一步地,卷积层还包括预设尺寸的滤波器。
[0069]
再进一地,神经网络模型还包括输出层,所述输出层的激活函数为softmax函数。
[0070]
实施例2:
[0071]
本实施实施了一种基于神经网络的帧间编码单元尺寸划分方法,包括以下步骤:
[0072]
步骤1、获取第一预设尺寸的编码单元。
[0073]
本实施例选第一预设尺寸的编码单元(cu)尺寸为64x64。
[0074]
步骤2、将所述编码单元输入到训练好的神经网络模型中,获得第二预设尺寸的编码单元。
[0075]
本实施例选第二预设尺寸的编码单元(cu)尺寸为16x16x22的输出。
[0076]
步骤3、记录所述第二预设尺寸的编码单元的尺寸,在模型预测结果中找到其相应
位置并进行加和平均操作,获得对该编码单元不划分的概率。
[0077]
训练神经网络模型的大体流程仍如图3所示,具体的训练步骤如下:
[0078]
获取样本;
[0079]
将所述样本按预设比例分为训练样本和验证样本;
[0080]
设计损失函数与优化算法;
[0081]
输入所述训练样本进行训练,每训练一次就用所述验证样本进行验证;
[0082]
在达不到预设的验证效果时重新设计损失函数与优化算法;
[0083]
当迭代次数达到预设次数时,终止训练。
[0084]
优选地,所述损失函数为:
[0085][0086]
其中,为类平衡因子,(1

p
j
)
γ
为调制因子,p为预测概率,c为类别数,β和γ表示固定系数。类平衡因子对于样本量较小的类别,损失值将赋予较高的权重,调制因子将进一步增加分类难度更大的样本的损失权重,使模型更加关注错误的样本。
[0087]
优选地,优化算法采用adam算法,adam算法全称为adaptive moment estimation算法。
[0088]
如图4所示,提出的深度学习模型结构由1个输入层,7个卷积层,1个添加层,3个反卷积层和3个连接层组成,其中conv代表卷积层,deconv代表反卷积层,级联表示链接层,qp标识量化参数。未标注箭头中实线箭头代表卷积操作,虚线箭头代表反卷积操作,输出层激活函数为softmax函数,其他层激活函数为relu函数。
[0089]
步骤4、计算对该编码单元划分为子块的概率,然后进行加和平均操作回溯到该编码单元的尺寸以获取所述第二预设尺寸的编码单元在当前划分模式下的概率。
[0090]
本实施例中,再参考图4所示,输入层的尺寸为64x64x3,第三维度分别为原cu像素值,整数运动估计模式(ime)残差值和跳过(skip)模式残差值。第一卷积层包含3个尺寸为4x4的滤波器,步长为4。第二卷积层、第三卷积层和第四卷积层包含尺寸为2x2、步长为2的滤波器,输出尺寸分别为16x16x64,8x8x128,4x4x256。第五卷积层包含1024个尺寸为4x4、步长为1的滤波器。分辨率和qp作为会影响划分模式选择的特征同样被添加到模型中进行卷积操作。第六卷积层包含1024个尺寸为1x1的滤波器、步长为1,输出为1x1x1024。将第五卷积层和第六卷积层的输出进行元素级别加和操作。再经过尺寸为4x4,步长为4的第一反卷积层得到4x4x256的输出。第四卷积层与第一反卷积层通过特征融合得到4x4x512的输出作为第二反卷积层的输入。第二反卷积层和第三反卷积层包含尺寸为2x2的步长为2的滤波器,输出尺寸分别为8x8x128和16x16x64。再经过尺寸为2x2的第七卷积层得到16x16x22输出。
[0091]
步骤5、获取预设数目的概率进行大小比较并排序,选取前n个最大概率对应的划分模式进行划分。
[0092]
参考图5所示,cu标识编码单元,qp标识量化参数,sub标识子块,qt代表四叉树划分,hbt代表横向二叉树划分,p代表概率,p(n)表示对该编码单元不划分的概率,p(qt)表示
对该编码单元进行四叉树划分的概率,p(hbt)表示对该编码单元进行横向二叉树划分的概率,省略号表示还对该编码单元进行纵向二叉树划分、横向扩展的四叉树划分和纵向扩展的四叉树划分。对当前编码单元基础上进行不同划分操作,记录子块坐标及尺寸大小,在模型预测结果中找到对应位置,即可以计算出划分后子块的概率,然后对划分后的子块们的概率通过加和平均操作回溯到当前编码单元尺寸以获取在当前编码单元特定划分情况下的预测概率。本实施方式中预设数目设为6,n为介于1至6之间的整数。
[0093]
实施例3:
[0094]
本实施例实施了一种avs3硬件编码器,所述avs3硬件编码器应用上述任一实施方式中的所述基于神经网络的帧间编码单元尺寸划分方法。该基于神经网络的帧间编码单元尺寸划分方法包括如下步骤:
[0095]
获取第一预设尺寸的编码单元;
[0096]
将所述编码单元输入到训练好的神经网络模型中,获得第二预设尺寸的编码单元;
[0097]
记录所述第二预设尺寸的编码单元的尺寸,在模型预测结果中找到其相应位置并进行加和平均操作,获得对该编码单元不划分的概率;
[0098]
计算对该编码单元划分为子块的概率,然后进行加和平均操作回溯到该编码单元的尺寸以获取所述第二预设尺寸的编码单元在当前划分模式下的概率;
[0099]
获取预设数目的概率进行大小比较并排序,选取前n个最大概率对应的划分模式进行划分。
[0100]
接下来请参考图6,其示出了本技术的一些实施方式所提供的一种电子设备的示意图。如图6所示,所述电子设备2包括:处理器200,存储器201,总线202和通信接口203,所述处理器200、通信接口203和存储器201通过总线202连接;所述存储器201中存储有可在所述处理器200上运行的计算机程序,所述处理器200运行所述计算机程序时执行本技术前述任一实施方式所提供的基于神经网络的帧间编码单元尺寸划分方法。
[0101]
其中,存储器201可能包含高速随机存取存储器(ram:random access memory),也可能还包括非不稳定的存储器(non

volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口203(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网、广域网、本地网、城域网等。
[0102]
总线202可以是isa总线、pci总线或eisa总线等。所述总线可以分为地址总线、数据总线、控制总线等。其中,存储器201用于存储程序,所述处理器200在接收到执行指令后,执行所述程序,前述本技术实施例任一实施方式揭示的所述基于神经网络的帧间编码单元尺寸划分方法可以应用于处理器200中,或者由处理器200实现。
[0103]
处理器200可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器200中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器200可以是通用处理器,包括中央处理器(central processing unit,简称cpu)、网络处理器(network processor,简称np)等;还可以是数字信号处理器(dsp)、专用集成电路(asic)、现成可编程门阵列(fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本技术实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申
请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器201,处理器200读取存储器201中的信息,结合其硬件完成上述方法的步骤。
[0104]
本技术实施例提供的电子设备与本技术实施例提供的基于神经网络的帧间编码单元尺寸划分方法出于相同的发明构思,具有与其采用、运行或实现的方法相同的有益效果。
[0105]
本技术实施方式还提供一种与前述实施方式所提供的基于神经网络的帧间编码单元尺寸划分方法对应的计算机可读存储介质,请参考图7,其示出的计算机可读存储介质为光盘30,其上存储有计算机程序(即程序产品),所述计算机程序在被处理器运行时,会执行前述任意实施方式所提供的基于神经网络的帧间编码单元尺寸划分方法。
[0106]
所述计算机可读存储介质的例子还可以包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他光学、磁性存储介质,在此不再一一赘述。
[0107]
需要说明的是:在此提供的算法和显示不与任何特定计算机、虚拟装置或者其它设备有固有相关。各种通用装置也可以与基于在此的示教一起使用。根据上面的描述,构造这类装置所要求的结构是显而易见的。此外,本技术也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本技术的内容,并且上面对特定语言所做的描述是为了披露本技术的最佳实施方式。在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本技术的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。类似地,应当理解,为了精简本技术并帮助理解各个发明方面中的一个或多个,在上面对本技术的示例性实施例的描述中,本技术的各个特征有时被一起分组到单个实施例、图或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本技术要求比在每个权利要求中所明确记载的特征更多的特征。
[0108]
以上所述,仅为本技术较佳的具体实施方式,但本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本技术的保护范围之内。因此,本技术的保护范围应以所述权利要求的保护范围为准。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献