一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

视频编解码的方法和装置与流程

2022-06-09 02:48:37 来源:中国专利 TAG:

视频编解码的方法和装置
1.引用并入
2.本技术要求于2021年5月10日提交的美国专利申请第17/315,989号“视频编解码的方法和装置”的优先权,该美国专利申请要求了于2020年9月16日提交的美国临时专利申请第63/079,322号“块级重建的跨分量滤波”的优先权。在先申请的全部内容通过引用并入本文。
技术领域
3.本公开描述了与视频编解码相关的实施例。


背景技术:

4.本文所提供的背景描述旨在整体呈现本技术的背景。在背景技术部分以及本说明书的各个方面中所描述的目前已署名的发明人的工作所进行的程度,并不表明其在本技术提交时作为现有技术,且从未明示或暗示其被承认为本技术的现有技术。
5.通过具有运动补偿的帧间图片预测技术,可以进行视频编码和解码。未压缩的数字视频可包括一系列图片,每个图片具有例如1920
×
1080亮度样本及相关色度样本的空间维度。所述系列图片具有固定的或可变的图片速率(也非正式地称为帧率),例如每秒60个图片或60hz。未压缩的视频具有非常大的比特率要求。例如,每个样本8比特的1080p60 4:2:0的视频(1920x1080亮度样本分辨率,60hz帧率)要求接近1.5gbit/s带宽。一小时这样的视频就需要超过600gb的存储空间。
6.视频编码和解码的一个目的,是通过压缩减少输入视频信号的冗余信息。视频压缩可以帮助降低对上述带宽或存储空间的要求,在某些情况下可降低两个或更多数量级。无损和有损压缩,以及两者的组合均可采用。无损压缩是指从压缩的原始信号中重建原始信号精确副本的技术。当使用有损压缩时,重建信号可能与原始信号不完全相同,但是原始信号和重建信号之间的失真足够小,使得重建信号可用于预期应用。有损压缩广泛应用于视频。容许的失真量取决于应用。例如,相比于电视应用的用户,某些消费流媒体应用的用户可以容忍更高的失真。可实现的压缩比反映出:较高的允许/容许失真可产生较高的压缩比。
7.视频编码器和解码器可利用几大类技术,例如包括:运动补偿、变换、量化和熵编码。
8.视频编解码器技术可包括已知的帧内编码技术。在帧内编码中,在不参考先前重建的参考图片的样本或其它数据的情况下表示样本值。在一些视频编解码器中,图片在空间上被细分为样本块。当所有的样本块都以帧内模式编码时,该图片可以为帧内图片。帧内图片及其衍生(例如独立解码器刷新图片)可用于复位解码器状态,并且因此可用作编码视频比特流和视频会话中的第一图片,或用作静止图像。帧内块的样本可用于变换,且可在熵编码之前量化变换系数。帧内预测可以是使预变换域中的样本值最小化的技术。在某些情形下,变换后的dc值越小,且ac系数越小,则在给定的量化步长尺寸下需要越少的比特来表
示熵编码之后的块。
9.如同从诸如mpeg-2代编码技术中所获知的,传统帧内编码不使用帧内预测。然而,一些较新的视频压缩技术包括:试图从例如周围样本数据和/或元数据中得到数据块的技术,其中周围样本数据和/或元数据是在空间相邻的编码和/或解码期间、且在解码顺序之前获得的。这种技术后来被称为"帧内预测"技术。需要注意的是,至少在某些情形下,帧内预测仅使用正在重建的当前图片的参考数据,而不使用参考图片的参考数据。
10.可以存在许多不同形式的帧内预测。当在给定的视频编码技术中可以使用超过一种这样的技术时,所使用的技术可以按帧内预测模式进行编码。在某些情形下,模式可具有子模式和/或参数,且这些模式可单独编码或包含在模式码字中。将哪个码字用于给定模式,子模式,和/或参数组合会通过帧内预测影响编码效率增益,因此用于将码字转换成比特流的熵编码技术也会出现这种情况。
11.h.264引入了一种帧内预测模式,其在h.265中进行了改进,且在诸如联合开发模型(joint exploration model,jem)/多功能视频编码(versatile video coding,vvc)/基准集(benchmark set,bms)的更新的编码技术中进一步被改进。通过使用属于已经可用的样本的相邻样本值可以形成预测块。将相邻样本的样本值按照某一方向复制到预测块中。对所使用方向的引用可以被编码在比特流中,或者本身可以被预测。
12.参照图1a,右下方描绘了来自h.265的33个可能的预测方向(对应于35个帧内模式的33个角度模式(angular mode))中已知的九个预测方向的子集。箭头会聚的点(101)表示正在被预测的样本。箭头表示样本正在被预测的方向。例如,箭头(102)表示根据右上方与水平方向成45度角的一个或多个样本,预测样本(101)。类似地,箭头(103)表示根据左下方与水平方向成22.5度角的一个或多个样本,预测样本(101)。
13.仍然参考图1,在左上方示出了一个包括4
×
4个样本的正方形块(104)(由粗虚线表示)。正方形块(104)包括16个样本,每个样本用“s”、以及其在y维度上(例如,行索引)的位置和在x维度上(例如,列索引)的位置来标记。例如,样本s21是y维度上的第二个样本(从顶部开始)和x维度上的第一个(从左侧开始)样本。类似地,样本s44在y维度和x维度上都是块(104)中的第四个样本。由于该块为4
×
4大小的样本,因此s44位于右下角。还示出了遵循类似编号方案的参考样本。参考样本用“r”、以及其相对于块(104)的y位置(例如,行索引)和x位置(例如,列索引)来标记。在h.264与h.265中,预测样本与正在重建的块相邻,因此不需要使用负值。
14.通过从信号通知的预测方向所占用的相邻样本来复制参考样本值,可以进行帧内图片预测。例如,假设编码视频比特流包括信令,对于该块,该信令指示与箭头(102)一致的预测方向,即,根据右上方与水平方向成45度角的一个或多个预测样本来预测样本。在这种情况下,根据同一参考样本r05,预测样本s41、s32、s23和s14。然后,根据参考样本r08,预测样本s44。
15.在某些情况下,例如通过内插,可以合并多个参考样本的值,以便计算参考样本,尤其是当方向不能被45度整除时。
16.随着视频编码技术的发展,可能的方向的数量已经增加了。在h.264(2003年)中,可以表示九种不同的方向。在h.265(2013年)和jem/vvc/bms中增加到了33个,而在此申请时,可以支持多达65个方向。已经进行了实验来识别最可能的方向,并且熵编码中的某些技
术被用于使用少量比特来表示那些可能的方向,对于较不可能的方向则接受某些代价。此外,有时可以根据在相邻的、已经解码的块中所使用的相邻方向来预测方向本身。
17.图1b示出了描绘根据jem的65个帧内预测方向的示意图(105),以说明随着时间增加的预测方向数量。
18.表示方向的编码视频比特流中的帧内预测方向比特的映射可以因视频编码技术的不同而不同,并且,例如可以从对帧内预测模式到码字的预测方向的简单直接映射,到包括最可能的模式和类似技术的复杂的自适应方案。然而,在所有情况下,视频内容中可能存在某些方向,其在统计学上比其它方向更不可能出现。由于视频压缩的目的是减少冗余,所以在运行良好的视频编码技术中,与更可能的方向相比,那些不太可能的方向将使用更多数量的比特来表示。
19.运动补偿可以是一种有损压缩技术,且可涉及如下技术:来自先前重建的图片或重建图片一部分(参考图片)的样本数据块在空间上按运动矢量(下文称为mv)指示的方向移位后,用于新重建的图片或图片部分的预测。在某些情况下,参考图片可与当前正在重建的图片相同。mv可具有两个维度x和y,或者三个维度,其中第三个维度表示使用中的参考图片(后者间接地可为时间维度)。
20.在一些视频压缩技术中,应用于某个样本数据区域的mv可根据其它mv来预测,例如根据与正在重建的区域空间相邻的另一个样本数据区域相关的、且按解码顺序在该mv前面的那些mv。这样做可以大大减少编码mv所需的数据量,从而消除冗余信息并增加压缩量。mv预测可以有效地进行,例如,当对从相机导出的输入视频信号(称为自然视频)进行编码时,存在一种统计上的可能性,即面积大于单个mv适用区域的区域,会朝着类似的方向移动,因此,在某些情况下,可以用邻近区域的mv导出的相似运动矢量进行预测。这导致针对给定区域发现的mv与根据周围mv预测的mv相似或相同,并且在熵编码之后,又可以用比直接编码mv时使用的比特数更少的比特数来表示。在某些情况下,mv预测可以是对从原始信号(即样本流)导出的信号(即mv)进行无损压缩的示例。在其它情况下,mv预测本身可能是有损的,例如由于根据几个周围mv计算预测值时产生的取整误差。
21.h.265/hevc(itu-t rec.h.265,“高效视频编码”,2016年12月)描述了各种mv预测机制。在h.265所提供的多种mv预测机制中,本文描述的是一种下文称为“空间合并”的技术。
22.参照图1c,当前块(111)可以包括编码器在运动搜索过程中发现的样本,所述样本可以根据空间移动了相同大小的先前块进行预测。不直接对该mv进行编码,而是通过使用与五个周围样本中的任何一个相关联的mv,从与一个或多个参考图片相关联的元数据中导出该mv,例如从最近的(按解码顺序)参考图片中导出该mv。其中,五个周围样本分别用a0、a1和b0、b1、b2(分别为112到116)表示。在h.265中,mv预测可使用相邻块正在使用的同一参考图片的预测值。


技术实现要素:

23.本公开的方面提供了用于视频编码/解码的装置。一个装置包括处理电路,所述处理电路对当前图片中当前块的预测信息进行解码,其中,所述当前图片是已编码视频序列的一部分。所述预测信息指示用于所述当前块的跨分量滤波ccf过程。所述处理电路通过对
所述当前块的预测样本、残差值或重建样本中的至少一个应用所述ccf过程,生成所述当前块的滤波重建样本。所述当前块的滤波重建样本用于后续块的重建。所述处理电路基于所述当前块的滤波重建样本,重建所述当前块和所述后续块。
24.在一个实施例中,所述处理电路通过将所述ccf过程应用于所述当前块的去量化过程和逆变换过程中的至少一个过程的输出,生成所述当前块的滤波重建样本。
25.在一个实施例中,所述处理电路通过将包括所述当前块的偏移值的所述ccf过程的输出添加到所述当前块的色度重建样本,重建所述当前块。
26.在一个实施例中,所述处理电路通过将包括所述当前块的偏移值的所述ccf过程的输出添加到所述当前块的色度残差值,重建所述当前块。
27.在一个实施例中,所述处理电路通过将包括所述当前块的偏移值的所述ccf过程的输出添加到所述当前块的色度预测样本,重建所述当前块。
28.在一个实施例中,所述预测信息包括所述ccf过程的滤波器系数。
29.在一个实施例中,所述ccf过程的滤波器系数是预先定义的常数。
30.在一个实施例中,根据在另一图片中使用的所述ccf过程的滤波器系数,以及,在所述当前图片中使用的所述ccf过程的滤波器系数的偏移值,确定在所述当前图片中使用的所述ccf过程的滤波器系数。
31.在一个实施例中,根据在另一颜色分量中使用的所述ccf过程的滤波器系数,确定在一个颜色分量中使用的所述ccf过程的滤波器系数。
32.在一个实施例中,根据在应用所述ccf过程之前确定的所述当前块的样本值,确定所述ccf过程的滤波器系数。
33.在一个实施例中,根据分区方案、预测模式、块宽度、块高度、变换系数和量化参数中的一个,确定是否启用所述ccf过程。
34.本公开提供了用于视频编码/解码的方法。在该方法中,对当前图片中当前块的预测信息进行解码,其中,所述当前图片是已编码视频序列的一部分。所述预测信息指示用于所述当前块的跨分量滤波ccf过程。通过对所述当前块的预测样本、残差值或重建样本中的至少一个应用所述ccf过程,生成所述当前块的滤波重建样本。所述当前块的滤波重建样本用于后续块的重建。基于所述当前块的滤波重建样本,重建所述当前块和所述后续块。
35.本公开的方面还提供了一种存储指令的非易失性计算机可读介质,其中,当所述指令由至少一个处理器执行时,使得所述至少一个处理器执行视频解码方法中的任何一种或组合。
附图说明
36.根据以下详细描述和附图,所公开的主题的其他特征、性质和各种优点将进一步明确,其中:
37.图1a是说明帧内预测模式的示例性子集的示意图。
38.图1b是示例性帧内预测方向的图示。
39.图1c是一个示例中的当前块及其周围空间合并候选者的示意图。
40.图2是根据实施例的通信系统的简化框图的示意图。
41.图3是根据实施例的通信系统的简化框图的示意图。
42.图4是根据实施例的解码器的简化框图的示意图。
43.图5是根据实施例的编码器的简化框图的示意图。
44.图6示出了根据另一个实施例的编码器的框图。
45.图7示出了根据另一个实施例的解码器的框图。
46.图8a-图8b示出了根据实施例的自适应环路滤波器(adaptive loop filter,alf)的示例性菱形滤波器形状。
47.图9a-图9d示出了根据实施例的分别用于垂直、水平和两个对角线方向的梯度计算的示例性二次采样位置。
48.图10示出了根据实施例的应用于亮度分量的示例性修改的块分类。
49.图11示出了根据一些实施例的用于虚拟边界处的亮度分量的示例性修改的alf。
50.图12示出了根据实施例的示例性最大编码单元(largest coding unit,lcu)对齐的图片四叉树分割。
51.图13示出了根据实施例的以z顺序编码的示例性四叉树分割标志。
52.图14a示出了根据实施例的跨组件自适应环路滤波器(cross-component adaptive loop filter,cc-alf)的示例性放置。
53.图14b示出了根据实施例的在cc-alf操作期间应用于每个色度分量的亮度通道的示例性线性菱形滤波器。
54.图15示出了根据实施例的用于8
×
8块的示例性方向搜索。
55.图16示出了根据实施例的示例性子空间投影。
56.图17示出了在块的逆变换之后应用的示例性跨分量滤波(cross-component filtering,ccf)。
57.图18示出了根据本公开实施例的示例性流程图。
58.图19是根据一个实施例的计算机系统的示意图。
具体实施方式
59.i.视频解码器和编码器系统
60.图2是根据本公开实施例的通信系统(200)的简化框图。通信系统(200)包括可以经由,例如网络(250),彼此通信的多个终端装置。举例来说,通信系统(200)包括通过网络(250)互连的第一对终端装置(210)和终端装置(220)。在图2的示例中,第一对终端装置(210)和终端装置(220)执行单向数据传输。举例来说,终端装置(210)可对视频数据(例如由终端装置(210)采集的视频图片流)进行编码,以通过网络(250)传输到另一个终端装置(220)。已编码的视频数据以一个或多个已编码视频码流形式传输。终端装置(220)可从网络(250)接收已编码视频数据,对已编码视频数据进行解码以恢复视频数据,并根据恢复的视频数据显示视频图片。单向数据传输在媒体服务等应用中是较常见的。
61.在另一实施例中,通信系统(200)包括执行已编码视频数据的双向传输的第二对终端装置(230)和终端装置(240),所述双向传输可例如在视频会议期间发生。对于双向数据传输,在一个示例中,终端装置(230)和终端装置(240)中的每个终端装置可对视频数据(例如由终端装置采集的视频图片流)进行编码,以通过网络(250)传输到终端装置(230)和终端装置(240)中的另一终端装置。终端装置(230)和终端装置(240)中的每个终端装置还
可接收由终端装置(230)和终端装置(240)中的另一终端装置传输的已编码视频数据,且可对所述已编码视频数据进行解码以恢复视频数据,且可根据恢复的视频数据在可访问的显示装置上显示视频图片。
62.在图2的实施例中,终端装置(210)、终端装置(220)、终端装置(230)和终端装置(240)可为服务器、个人计算机和智能电话,但本技术公开的原理可不限于此。本技术公开的实施例适用于膝上型计算机、平板电脑、媒体播放器和/或专用视频会议设备。网络(250)表示在终端装置(210)、终端装置(220)、终端装置(230)和终端装置(240)之间传送已编码视频数据的任何数目的网络,包括例如有线(连线的)和/或无线通信网络。通信网络(250)可在电路交换和/或分组交换信道中交换数据。该网络可包括电信网络、局域网、广域网和/或互联网。出于本技术的目的,除非在下文中有所解释,否则网络(250)的架构和拓扑对于本技术公开的操作来说可能是无关紧要的。
63.作为实施例,图3示出视频编码器和视频解码器在流式传输环境中的放置方式。本技术所公开主题可同等地适用于其它支持视频的应用,包括例如视频会议、数字tv、在包括cd、dvd、存储棒等的数字介质上存储压缩视频等等。
64.流式传输系统可包括采集子系统(313),所述采集子系统可包括数码相机等视频源(301),所述视频源创建未压缩的视频图片流(302)。在实施例中,视频图片流(302)包括由数码相机拍摄的样本。相较于已编码的视频数据(304)(或已编码的视频码流),视频图片流(302)被描绘为粗线以强调高数据量的视频图片流,视频图片流(302)可由电子装置(320)处理,所述电子装置(320)包括耦接到视频源(301)的视频编码器(303)。视频编码器(303)可包括硬件、软件或软硬件组合以实现或实施如下文更详细地描述的所公开主题的各方面。相较于视频图片流(302),已编码的视频数据(304)(或已编码的视频码流(304))被描绘为细线以强调较低数据量的已编码的视频数据(304)(或已编码的视频码流(304)),其可存储在流式传输服务器(305)上以供将来使用。一个或多个流式传输客户端子系统,例如图3中的客户端子系统(306)和客户端子系统(308),可访问流式传输服务器(305)以检索已编码的视频数据(304)的副本(307)和副本(309)。客户端子系统(306)可包括例如电子装置(330)中的视频解码器(310)。视频解码器(310)对已编码的视频数据的传入副本(307)进行解码,且产生可在显示器(312)(例如显示屏)或另一呈现装置(未描绘)上呈现的输出视频图片流(311)。在一些流式传输系统中,可根据某些视频编码/压缩标准对已编码的视频数据(304)、视频数据(307)和视频数据(309)(例如视频码流)进行编码。该些标准的实施例包括itu-t h.265。在实施例中,正在开发的视频编码标准非正式地称为下一代视频编码(versatile video coding,vvc),本技术可用于vvc标准的上下文中。
65.应注意,电子装置(320)和电子装置(330)可包括其它组件(未示出)。举例来说,电子装置(320)可包括视频解码器(未示出),且电子装置(330)还可包括视频编码器(未示出)。
66.图4是根据本技术公开的实施例的视频解码器(410)的框图。视频解码器(410)可设置在电子装置(430)中。电子装置(430)可包括接收器(431)(例如接收电路)。视频解码器(410)可用于代替图3实施例中的视频解码器(310)。
67.接收器(431)可接收将由视频解码器(410)解码的一个或多个已编码视频序列;在同一实施例或另一实施例中,一次接收一个已编码视频序列,其中每个已编码视频序列的
解码独立于其它已编码视频序列。可从信道(401)接收已编码视频序列,所述信道可以是通向存储已编码的视频数据的存储装置的硬件/软件链路。接收器(431)可接收已编码的视频数据以及其它数据,例如,可转发到它们各自的使用实体(未标示)的已编码音频数据和/或辅助数据流。接收器(431)可将已编码视频序列与其它数据分开。为了防止网络抖动,缓冲存储器(415)可耦接在接收器(431)与熵解码器/解析器(420)(此后称为“解析器(420)”)之间。在某些应用中,缓冲存储器(415)是视频解码器(410)的一部分。在其它情况下,所述缓冲存储器(415)可设置在视频解码器(410)外部(未标示)。而在其它情况下,视频解码器(410)的外部设置缓冲存储器(未标示)以例如防止网络抖动,且在视频解码器(410)的内部可配置另一缓冲存储器(415)以例如处理播出定时。而当接收器(431)从具有足够带宽和可控性的存储/转发装置或从等时同步网络接收数据时,也可能不需要配置缓冲存储器(415),或可以将所述缓冲存储器做得较小。当然,为了在互联网等业务分组网络上使用,也可能需要缓冲存储器(415),所述缓冲存储器可相对较大且可具有自适应性大小,且可至少部分地实施于操作系统或视频解码器(410)外部的类似元件(未标示)中。
68.视频解码器(410)可包括解析器(420)以根据已编码视频序列重建符号(421)。这些符号的类别包括用于管理视频解码器(410)的操作的信息,以及用以控制显示装置(412)(例如,显示屏)等显示装置的潜在信息,所述显示装置不是电子装置(430)的组成部分,但可耦接到电子装置(430),如图4中所示。用于显示装置的控制信息可以是辅助增强信息(supplemental enhancement information,sei消息)或视频可用性信息(video usability information,vui)的参数集片段(未标示)。解析器(420)可对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编码可根据视频编码技术或标准进行,且可遵循各种原理,包括可变长度编码、霍夫曼编码(huffman coding)、具有或不具有上下文灵敏度的算术编码等等。解析器(420)可基于对应于群组的至少一个参数,从已编码视频序列提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图片群组(group of pictures,gop)、图片、图块、切片、宏块、编码单元(coding unit,cu)、块、变换单元(transform unit,tu)、预测单元(prediction unit,pu)等等。解析器(420)还可从已编码视频序列提取信息,例如变换系数、量化器参数值、运动矢量等等。
69.解析器(420)可对从缓冲存储器(415)接收的视频序列执行熵解码/解析操作,从而创建符号(421)。
70.取决于已编码视频图片或一部分已编码视频图片(例如:帧间图片和帧内图片、帧间块和帧内块)的类型以及其它因素,符号(421)的重建可涉及多个不同单元。涉及哪些单元以及涉及方式可由解析器(420)从已编码视频序列解析的子群控制信息控制。为了简洁起见,未描述解析器(420)与下文的多个单元之间的此类子群控制信息流。
71.除已经提及的功能块以外,视频解码器(410)可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施例中,这些单元中的许多单元彼此紧密交互并且可以彼此集成。然而,出于描述所公开主题的目的,概念上细分成下文的功能单元是适当的。
72.第一单元是缩放器/逆变换单元(451)。缩放器/逆变换单元(451)从解析器(420)接收作为符号(421)的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(451)可输出包括样本值的块,所述样本值可输
入到聚合器(455)中。
73.在一些情况下,缩放器/逆变换单元(451)的输出样本可属于帧内编码块;即:不使用来自先前重建的图片的预测性信息,但可使用来自当前图片的先前重建部分的预测性信息的块。此类预测性信息可由帧内图片预测单元(452)提供。在一些情况下,帧内图片预测单元(452)采用从当前图片缓冲器(458)提取的已重建信息生成大小和形状与正在重建的块相同的周围块。举例来说,当前图片缓冲器(458)缓冲部分重建的当前图片和/或完全重建的当前图片。在一些情况下,聚合器(455)基于每个样本,将帧内预测单元(452)生成的预测信息添加到由缩放器/逆变换单元(451)提供的输出样本信息中。
74.在其它情况下,缩放器/逆变换单元(451)的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测单元(453)可访问参考图片存储器(457)以提取用于预测的样本。在根据符号(421)对提取的样本进行运动补偿之后,这些样本可由聚合器(455)添加到缩放器/逆变换单元(451)的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元(453)从参考图片存储器(457)内的地址获取预测样本可受到运动矢量控制,且所述运动矢量以所述符号(421)的形式而供运动补偿预测单元(453)使用,所述符号(421)例如是包括x、y和参考图片分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图片存储器(457)提取的样本值的内插、运动矢量预测机制等等。
75.聚合器(455)的输出样本可在环路滤波器单元(456)中被各种环路滤波技术采用。视频压缩技术可包括环路内滤波器技术,所述环路内滤波器技术受控于包括在已编码视频序列(也称作已编码视频码流)中的参数,且所述参数作为来自解析器(420)的符号(421)可用于环路滤波器单元(456)。然而,在其他实施例中,视频压缩技术还可响应于在解码已编码图片或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
76.环路滤波器单元(456)的输出可以是样本流,所述样本流可输出到显示装置(412)以及存储在参考图片存储器(457),以用于后续的帧间图片预测。
77.一旦完全重建,某些已编码图片就可用作参考图片以用于将来预测。举例来说,一旦对应于当前图片的已编码图片被完全重建,且已编码图片(通过例如解析器(420))被识别为参考图片,则当前图片缓冲器(458)可变为参考图片存储器(457)的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片缓冲器。
78.视频解码器(410)可根据例如itu-t h.265标准中的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的配置文件的意义上,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。具体地说,配置文件可从视频压缩技术或标准中可用的所有工具中选择某些工具作为在所述配置文件下可供使用的仅有工具。对于合规性,还要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片大小、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片大小等。在一些情况下,由层级设定的限制可通过假想参考解码器(hypothetical reference decoder,hrd)规范和在已编码视频序列中用信号表示的hrd缓冲器管理的元数据来进一步限定。
79.在实施例中,接收器(431)可连同已编码视频一起接收附加(冗余)数据。所述附加数据可以是已编码视频序列的一部分。所述附加数据可由视频解码器(410)用以对数据进行适当解码和/或较准确地重建原始视频数据。附加数据可呈例如时间、空间或信噪比(signal noise ratio,snr)增强层、冗余切片、冗余图片、前向纠错码等形式。
80.图5是根据本技术公开的实施例的视频编码器(503)的框图。视频编码器(503)设置于电子装置(520)中。电子装置(520)包括传输器(540)(例如传输电路)。视频编码器(503)可用于代替图3实施例中的视频编码器(303)。
81.视频编码器(503)可从视频源(501)(并非图5实施例中的电子装置(520)的一部分)接收视频样本,所述视频源可采集将由视频编码器(503)编码的视频图像。在另一实施例中,视频源(501)是电子装置(520)的一部分。
82.视频源(501)可提供将由视频编码器(503)编码的呈数字视频样本流形式的源视频序列,所述数字视频样本流可具有任何合适位深度(例如:8位、10位、12位
……
)、任何色彩空间(例如bt.601y crcb、rgb
……
)和任何合适取样结构(例如y crcb4:2:0、y crcb 4:4:4)。在媒体服务系统中,视频源(501)可以是存储先前已准备的视频的存储装置。在视频会议系统中,视频源(501)可以是采集本地图像信息作为视频序列的相机。可将视频数据提供为多个单独的图片,当按顺序观看时,这些图片被赋予运动。图片自身可构建为空间像素阵列,其中取决于所用的取样结构、色彩空间等,每个像素可包括一个或多个样本。所属领域的技术人员可以很容易理解像素与样本之间的关系。下文侧重于描述样本。
83.根据实施例,视频编码器(503)可实时或在由应用所要求的任何其它时间约束下,将源视频序列的图片编码且压缩成已编码视频序列(543)。施行适当的编码速度是控制器(550)的一个功能。在一些实施例中,控制器(550)控制如下文所描述的其它功能单元且在功能上耦接到这些单元。为了简洁起见,图中未标示耦接。由控制器(550)设置的参数可包括速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值等)、图片大小、图片群组(group of pictures,gop)布局,最大运动矢量允许的参考区域等。控制器(550)可用于具有其它合适的功能,这些功能涉及针对某一系统设计优化的视频编码器(503)。
84.在一些实施例中,视频编码器(503)在编码环路中进行操作。作为简单的描述,在实施例中,编码环路可包括源编码器(530)(例如,负责基于待编码的输入图片和参考图片创建符号,例如符号流)和嵌入于视频编码器(503)中的(本地)解码器(533)。解码器(533)以类似于(远程)解码器创建样本数据的方式重建符号以创建样本数据(因为在本技术所考虑的视频压缩技术中,符号与已编码视频码流之间的任何压缩是无损的)。将重建的样本流(样本数据)输入到参考图片存储器(534)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片存储器(534)中的内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)也用于一些相关技术。
[0085]“本地”解码器(533)的操作可与例如已在上文结合图4详细描述视频解码器(410)的“远程”解码器相同。然而,另外简要参考图4,当符号可用且熵编码器(545)和解析器(420)能够无损地将符号编码/解码为已编码视频序列时,包括缓冲存储器(415)和解析器(420)在内的视频解码器(410)的熵解码部分,可能无法完全在本地解码器(533)中实施。
[0086]
此时可以观察到,除存在于解码器中的解析/熵解码之外的任何解码器技术,也必定以基本上相同的功能形式存在于对应的编码器中。出于此原因,本技术侧重于解码器操作。可简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术互逆。仅在某些区域中需要更详细的描述,并且在下文提供。
[0087]
在操作期间,在一些实施例中,源编码器(530)可执行运动补偿预测编码。参考来自视频序列中被指定为“参考图片”的一个或多个先前已编码图片,所述运动补偿预测编码对输入图片进行预测性编码。以此方式,编码引擎(532)对输入图片的像素块与参考图片的像素块之间的差异进行编码,所述参考图片可被选作所述输入图片的预测参考。
[0088]
本地视频解码器(533)可基于源编码器(530)创建的符号,对可指定为参考图片的图片的已编码视频数据进行解码。编码引擎(532)的操作可为有损过程。当已编码视频数据可在视频解码器(图5中未示)处被解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(533)复制解码过程,所述解码过程可由视频解码器对参考图片执行,且可使重建的参考图片存储在参考图片存储器(534)中。以此方式,视频编码器(503)可在本地存储重建的参考图片的副本,所述副本与将由远端视频解码器获得的重建参考图片具有共同内容(不存在传输误差)。
[0089]
预测器(535)可针对编码引擎(532)执行预测搜索。即,对于将要编码的新图片,预测器(535)可在参考图片存储器(534)中搜索可作为所述新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如参考图片运动矢量、块形状等。预测器(535)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器(535)获得的搜索结果,可确定输入图片可具有从参考图片存储器(534)中存储的多个参考图片取得的预测参考。
[0090]
控制器(550)可管理源编码器(530)的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
[0091]
可在熵编码器(545)中对所有上述功能单元的输出进行熵编码。熵编码器(545)根据例如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号进行无损压缩,从而将所述符号转换成已编码视频序列。
[0092]
传输器(540)可缓冲由熵编码器(545)创建的已编码视频序列,从而为通过通信信道(560)进行传输做准备,所述通信信道可以是通向将存储已编码的视频数据的存储装置的硬件/软件链路。传输器(540)可将来自视频编码器(503)的已编码视频数据与要传输的其它数据合并,所述其它数据例如是已编码音频数据和/或辅助数据流(未示出来源)。
[0093]
控制器(550)可管理视频编码器(503)的操作。在编码期间,控制器(550)可以为每个已编码图片分配某一已编码图片类型,但这可能影响可应用于相应的图片的编码技术。例如,通常可将图片分配为以下任一种图片类型:
[0094]
帧内图片(i图片),其可以是不将序列中的任何其它图片用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(independent decoder refresh,“idr”)图片。所属领域的技术人员了解i图片的变体及其相应的应用和特征。
[0095]
预测性图片(p图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
[0096]
双向预测性图片(b图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,多个预测性图片可使用多于两个参考图片和相关联元数据以用于重建单个块。
[0097]
源图片通常可在空间上细分成多个样本块(例如,4
×
4、8
×
8、4
×
8或16
×
16个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测编码,根据应用于块的相应图片的编码分配来确定所述其它块。举例来说,i图片的块可进行非预测编码,或所述块可参考同一图片的已经编码的块来进行预测编码(空间预测或帧内预测)。p图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。b图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。
[0098]
视频编码器(503)可根据例如itu-t h.265建议书的预定视频编码技术或标准执行编码操作。在操作中,视频编码器(503)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
[0099]
在实施例中,传输器(540)可在传输已编码的视频时传输附加数据。源编码器(530)可将此类数据作为已编码视频序列的一部分。附加数据可包括时间/空间/snr增强层、冗余图片和切片等其它形式的冗余数据、sei消息、vui参数集片段等。
[0100]
采集到的视频可作为呈时间序列的多个源图片(视频图片)。帧内图片预测(常常简化为帧内预测)利用给定图片中的空间相关性,而帧间图片预测则利用图片之间的(时间或其它)相关性。在实施例中,将正在编码/解码的特定图片分割成块,正在编码/解码的特定图片被称作当前图片。在当前图片中的块类似于视频中先前已编码且仍被缓冲的参考图片中的参考块时,可通过称作运动矢量的矢量对当前图片中的块进行编码。所述运动矢量指向参考图片中的参考块,且在使用多个参考图片的情况下,所述运动矢量可具有识别参考图片的第三维度。
[0101]
在一些实施例中,双向预测技术可用于帧间图片预测中。根据双向预测技术,使用两个参考图片,例如按解码次序都在视频中的当前图片之前(但按显示次序可能分别是过去和将来)第一参考图片和第二参考图片。可通过指向第一参考图片中的第一参考块的第一运动矢量和指向第二参考图片中的第二参考块的第二运动矢量对当前图片中的块进行编码。具体来说,可通过第一参考块和第二参考块的组合来预测所述块。
[0102]
此外,合并模式技术可用于帧间图片预测中以改善编码效率。
[0103]
根据本技术公开的一些实施例,帧间图片预测和帧内图片预测等预测的执行以块为单位。举例来说,根据hevc标准,将视频图片序列中的图片分割成编码树单元(coding tree unit,ctu)以用于压缩,图片中的ctu具有相同大小,例如64
×
64像素、32
×
32像素或16
×
16像素。一般来说,ctu包括三个编码树块(coding tree block,ctb),所述三个编码树块是一个亮度ctb和两个色度ctb。更进一步的,还可将每个ctu以四叉树拆分为一个或多个编码单元(coding unit,cu)。举例来说,可将64
×
64像素的ctu拆分为一个64
×
64像素的cu,或4个32
×
32像素的cu,或16个16
×
16像素的cu。在实施例中,分析每个cu以确定用于cu的预测类型,例如帧间预测类型或帧内预测类型。此外,取决于时间和/或空间可预测性,将cu拆分为一个或多个预测单元(prediction unit,pu)。通常,每个pu包括亮度预测块(prediction block,pb)和两个色度pb。在实施例中,编码(编码/解码)中的预测操作以预
测块为单位来执行。以亮度预测块作为预测块为例,预测块包括像素值(例如,亮度值)的矩阵,例如8
×
8像素、16
×
16像素、8
×
16像素、16
×
8像素等等。
[0104]
图6是根据本技术公开的另一实施例的视频编码器(603)的图。视频编码器(603)用于接收视频图片序列中的当前视频图片内的样本值的处理块(例如预测块),且将所述处理块编码到作为已编码视频序列的一部分的已编码图片中。在本实施例中,视频编码器(603)用于代替图3实施例中的视频编码器(303)。
[0105]
在hevc实施例中,视频编码器(603)接收用于处理块的样本值的矩阵,所述处理块为例如8
×
8样本的预测块等。视频编码器(603)使用例如率失真(rate-distortion,rd)优化来确定是否使用帧内模式、帧间模式或双向预测模式来编码所述处理块。当在帧内模式中编码处理块时,视频编码器(603)可使用帧内预测技术以将处理块编码到已编码图片中;且当在帧间模式或双向预测模式中编码处理块时,视频编码器(603)可分别使用帧间预测或双向预测技术将处理块编码到已编码图片中。在某些视频编码技术中,合并模式可以是帧间图片预测子模式,其中,在不借助预测值外部的已编码运动矢量分量的情况下,从一个或多个运动矢量预测值导出运动矢量。在某些其它视频编码技术中,可存在适用于主题块的运动矢量分量。在实施例中,视频编码器(603)包括其它组件,例如用于确定处理块模式的模式决策模块(未示出)。
[0106]
在图6的实施例中,视频编码器(603)包括如图6所示的耦接到一起的帧间编码器(630)、帧内编码器(622)、残差计算器(623)、开关(626)、残差编码器(624)、通用控制器(621)和熵编码器(625)。
[0107]
帧间编码器(630)用于接收当前块(例如处理块)的样本、比较所述块与参考图片中的一个或多个参考块(例如先前图片和后来图片中的块)、生成帧间预测信息(例如根据帧间编码技术的冗余信息描述、运动矢量、合并模式信息)、以及基于帧间预测信息使用任何合适的技术计算帧间预测结果(例如已预测块)。在一些实施例中,参考图片是基于已编码的视频信息解码的已解码参考图片。
[0108]
帧内编码器(622)用于接收当前块(例如处理块)的样本、在一些情况下比较所述块与同一图片中已编码的块、在变换之后生成量化系数、以及在一些情况下还(例如根据一个或多个帧内编码技术的帧内预测方向信息)生成帧内预测信息。在实施例中,帧内编码器(622)还基于帧内预测信息和同一图片中的参考块计算帧内预测结果(例如已预测块)。
[0109]
通用控制器(621)用于确定通用控制数据,且基于所述通用控制数据控制视频编码器(603)的其它组件。在实施例中,通用控制器(621)确定块的模式,且基于所述模式将控制信号提供到开关(626)。举例来说,当所述模式是帧内模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧内模式结果,且控制熵编码器(625)以选择帧内预测信息且将所述帧内预测信息添加在码流中;以及当所述模式是帧间模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧间预测结果,且控制熵编码器(625)以选择帧间预测信息且将所述帧间预测信息添加在码流中。
[0110]
残差计算器(623)用于计算所接收的块与选自帧内编码器(622)或帧间编码器(630)的预测结果之间的差(残差数据)。残差编码器(624)用于基于残差数据操作,以对残差数据进行编码以生成变换系数。在实施例中,残差编码器(624)用于将残差数据从空间域转换到频域,且生成变换系数。变换系数接着经由量化处理以获得量化的变换系数。在各种
实施例中,视频编码器(603)还包括残差解码器(628)。残差解码器(628)用于执行逆变换,且生成已解码残差数据。已解码残差数据可适当地由帧内编码器(622)和帧间编码器(630)使用。举例来说,帧间编码器(630)可基于已解码残差数据和帧间预测信息生成已解码块,且帧内编码器(622)可基于已解码残差数据和帧内预测信息生成已解码块。适当处理已解码块以生成已解码图片,且在一些实施例中,所述已解码图片可在存储器电路(未示出)中缓冲并用作参考图片。
[0111]
熵编码器(625)用于将码流格式化以产生已编码的块。熵编码器(625)根据hevc等合适标准产生各种信息。在实施例中,熵编码器(625)用于获得通用控制数据、所选预测信息(例如帧内预测信息或帧间预测信息)、残差信息和码流中的其它合适的信息。应注意,根据所公开的主题,当在帧间模式或双向预测模式的合并子模式中对块进行编码时,不存在残差信息。
[0112]
图7是根据本技术公开的另一实施例的视频解码器(710)的图。视频解码器(710)用于接收作为已编码视频序列的一部分的已编码图像,且对所述已编码图像进行解码以生成重建的图片。在实施例中,视频解码器(710)用于代替图3实施例中的视频解码器(310)。
[0113]
在图7实施例中,视频解码器(710)包括如图7中所示耦接到一起的熵解码器(771)、帧间解码器(780)、残差解码器(773)、重建模块(774)和帧内解码器(772)。
[0114]
熵解码器(771)可用于根据已编码图片来重建某些符号,这些符号表示构成所述已编码图片的语法元素。此类符号可包括例如用于对所述块进行编码的模式(例如帧内模式、帧间模式、双向预测模式、后两者的合并子模式或另一子模式)、可分别识别供帧内解码器(772)或帧间解码器(780)用以进行预测的某些样本或元数据的预测信息(例如帧内预测信息或帧间预测信息)、呈例如量化的变换系数形式的残差信息等等。在实施例中,当预测模式是帧间或双向预测模式时,将帧间预测信息提供到帧间解码器(780);以及当预测类型是帧内预测类型时,将帧内预测信息提供到帧内解码器(772)。残差信息可经由逆量化并提供到残差解码器(773)。
[0115]
帧间解码器(780)用于接收帧间预测信息,且基于所述帧间预测信息生成帧间预测结果。
[0116]
帧内解码器(772)用于接收帧内预测信息,且基于所述帧内预测信息生成预测结果。
[0117]
残差解码器(773)用于执行逆量化以提取解量化的变换系数,且处理所述解量化的变换系数,以将残差从频域转换到空间域。残差解码器(773)还可能需要某些控制信息(用以获得量化器参数(quantizer parameter,qp)),且所述信息可由熵解码器(771)提供(未标示数据路径,因为这仅仅是低量控制信息)。
[0118]
重建模块(774)用于在空间域中组合由残差解码器(773)输出的残差与预测结果(可由帧间预测模块或帧内预测模块输出)以形成重建的块,所述重建的块可以是重建的图片的一部分,所述重建的图片继而可以是重建的视频的一部分。应注意,可执行解块操作等其它合适的操作来改善视觉质量。
[0119]
应注意,可使用任何合适的技术来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在实施例中,可使用一个或多个集成电路来实施视频编码器(303)、视频编码器(503)和视频编码器
(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在另一实施例中,可使用执行软件指令的一个或多个处理器来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。
[0120]
ii.自适应环路滤波器
[0121]
在比如vvc草案7(vvc draft 7)等一些相关示例中,可以应用具有基于块的滤波器适配的自适应环路滤波器(adaptive loop filter,alf)。对于亮度分量,可以根据各个4
×
4块的方向性和活动性,为每个4
×
4块选择25个滤波器中的一个滤波器。
[0122]
图8a-图8b示出了根据本公开的一些实施例的alf的示例性菱形滤波器形状。图8a示出了可用于色度分量的5
×
5菱形,并且,图8b示出了可用于亮度分量的7
×
7菱形。
[0123]
在一些相关示例中,对于亮度分量,可以将每个4
×
4块分类为25个类别中的一类。可以基于4
×
4块的方向性d和活动的量化值,如下导出4
×
4块的分类索引c。
[0124][0125]
为了计算d和可以首先使用1维拉普拉斯算子(1-d laplacian),如下计算该4
×
4块的水平、垂直和两个对角线方向的梯度。
[0126][0127][0128][0129][0130]
其中,索引i和j指的是该4
×
4块内左上角样本的坐标,并且,r(i,j)表示坐标(i,j)处的重建样本。
[0131]
为了降低块分类的复杂性,可以应用二次采样的一维拉普拉斯计算。图9a-图9d示出了分别用于垂直、水平和两个对角线方向的梯度计算的示例性二次采样位置。
[0132]
然后,水平和垂直方向梯度的最大值和最小值可以设置为:
[0133][0134][0135]
两个对角线方向梯度的最大值和最小值可以设置为:
[0136][0137][0138]
为了导出方向性d的值,可以将这些值相互比较,并与两个阈值t1和t2进行比较。
[0139]
步骤1:若和均为真,将d设置为0。
[0140]
步骤2:若从步骤3继续;否则,从步骤4继续。
[0141]
步骤3:若将d设置为2;否则,将d设置为1。
[0142]
步骤4:若将d设置为4;否则,将d设置为3。
[0143]
活动值a计算为:
[0144][0145]
将a进一步量化为0到4(包含0和4)的范围,量化后的值表示为
[0146]
对于图片中的色度分量,没有应用分类方法,即,可以对每个色度分量应用一组alf系数。
[0147]
在对每个4
×
4亮度块进行滤波之前,根据为相应的块计算的梯度值,对滤波器系数f(k,l)和对应的滤波器裁剪值(clipping values)c(k,l)应用旋转、对角线翻转和垂直翻转等几何变换。这相当于将这些变换应用于滤波器支持区域中的多个样本,以便通过对齐它们的方向性,使应用alf的不同块更加相似。
[0148]
三种几何变换,包括对角翻转、垂直翻转和旋转,可以描述如下:
[0149]
diagonal:fd(k,l)=f(l,k),cd(k,l)=c(l,k)
ꢀꢀꢀ
等式.(11)
[0150]
vertical flip:fv(k,l)=f(k,k-l-1),cv(k,l)=c(k,k-l-1)
ꢀꢀ
等式.(12)
[0151]
rotation:fr(k,l)=f(k-l-1,k),cr(k,l)=c(g-l-1,k)
ꢀꢀ
等式.(13)
[0152]
其中,k是滤波器的大小,并且,0≤k,l≤k-1是变换系数的坐标,因此,位置(0,0)位于左上角,并且,位置(k-1,k-1)位于右下角。根据为相应块计算的梯度值,将变换应用于滤波器系数f(k,l)和裁剪值(clipping values)c(k,l)。四个方向的变换和梯度之间的关系可以总结在表1中。
[0153]
表1
[0154][0155][0156]
在比如vvc草案7的一些相关示例中,在自适应参数集(adaptation parameter set,aps)中发信号通知alf的滤波器参数。在一个aps中,可以发信号通知最多25组亮度滤波器系数和裁剪值(clipping value)索引,以及最多8组色度滤波器系数和裁剪值索引。为了减少比特开销,可以合并亮度分量的不同分类的滤波器系数。在切片头中,发信号通知用于当前切片的aps的索引。alf的信令在vvc草案7中是基于编码树单元(coding tree unit,ctu)的。
[0157]
从aps解码的裁剪值索引允许使用亮度和色度分量的裁剪值表来确定裁剪值。这些裁剪值取决于内部位深度。例如,裁剪值的表格可以通过以下公式获得:
[0158]
alfclip={round(2
b-α*n
)for n∈[0..n-1]}
ꢀꢀꢀꢀꢀꢀꢀꢀꢀ
等式.(14)
[0159]
其中,b等于内部位深度,α是一个预定义的常数值,等于2.35,并且n等于4,这是在vvc草案7中允许的裁剪值的数量。表2为等式(14)输出的一个示例。
[0160]
表2
[0161][0162]
在切片头中,最多可以发信号通知7个aps索引,以指定用于当前切片的亮度过滤器组。可以进一步在编码树块(coding tree block,ctb)级别控制过滤过程。可以发信号通知一个标志,以指示是否将alf应用于亮度ctb。该亮度ctb可以在16个固定的过滤器组和来自aps的过滤器组中选择一个过滤器组。为该亮度ctb发信号通知一个过滤器组索引,以指示应用了哪个过滤器组。可以在编码器和解码器中预先定义和硬编码(hard-coded)这16个固定的过滤器组。
[0163]
对于一个色度分量,可以在切片头中发信号通知一个aps索引,以指示用于当前切片的色度过滤器组。在ctb级别,如果aps中有多个色度过滤器组,可以为每个色度ctb发信号通知一个过滤器索引。
[0164]
可以使用等于128的范数,对滤波器系数进行量化。为了限制乘法复杂度,可以应用比特流的一致性,使得非中心位置的系数值可以在-27到27-1(包含-27,27-1)的范围内。在比特流中不发信号通知中心位置的系数,并且认为中心位置的系数等于128。
[0165]
在一些相关的例子中,比如,vvc草案7,可以如下定义裁剪索引(clipping indices)和相应值的语法和语义。
[0166]
alf_luma_clip_idx[sfidx][j]指定在乘以由sfidx表示的发信号通知的亮度滤波器的第j个系数之前,将要使用的裁剪值的裁剪索引。sfidx=0..alf_luma_num_filters_signalled_minus1,并且j=0..11,alf_luma_clip_idx[sfidx][j]的值的范围应该在0到3(包含0和3),这是对比特流一致性的要求。
[0167]
依据设置为等于bitdepthy的位深度(bitdepth),以及设置为等于alf_luma_clip_idx[alf_luma_coeff_delta_idx[filtidx]][j]的裁剪索引(clipidx),从表2中导出具有元素alfclipl[adaptation_parameter_set_id][filtidx][j],filtidx=0..numalffilters-1并且j=0..11的亮度滤波器裁剪值alfclipl[adaptation_parameter_set_id][filtidx]。
[0168]
alf_chroma_clip_idx[altidx][j]指定在乘以具有索引altidx的备选色度滤波器的第j个系数之前,将要使用的裁剪值的裁剪索引。具有altidx=0..alf_chroma_num_alt_filters_minus1,j=0..5的alf_chroma_clip_idx[altidx][j]的值应该在0到3(包含
0和3)的范围内,这是对比特流一致性的要求。
[0169]
依据设置为等于bitdepthc的位深度(bitdepth),以及设置为等于alf_chroma_clip_idx[altidx][j]的裁剪索引(clipidx),在表2中导出具有元素alfclipc[adaptation_parameter_set_id][altidx][j],altidx=0..alf_chroma_num_alt_filters_minus1,j=0..5的alfclipc[adaptation_parameter_set_id][altidx]的色度滤波器裁剪值。
[0170]
在解码器侧,当为ctb启用alf时,对编码单元(coding unit,cu)中的每个样本r(i,j)进行过滤,从而得到相应的样本值r

(i,j),如下所示,
[0171][0172]
其中f(k,l)表示已解码的滤波器系数,k(x,y)是一个裁剪函数(clipping function),并且c(k,l)表示已解码的裁剪参数。变量k和l在和之间变化,其中,l表示一个滤波器长度。裁剪函数k(x,y)=min(y,max(-y,x))对应于一个函数clip3(-y,y,x)。通过合并这个裁剪函数,这种循环滤波方法变成了一个非线性过程,称为非线性alf(non-linear alf)。通过使用与表2中裁剪值的索引对应的哥伦布(golomb)编码方案,在“alf_data”语法元素中对选择的裁剪值进行编码。这种编码方案与滤波器索引的编码方案相同。
[0173]
图10示出了根据本公开实施例的应用于亮度分量的示例性修改后的块分类。对水平ctu边界附近的样本,采用修改后的块分类和滤波,可以减少alf的线缓冲器(line buffer)要求。如图10所示,通过移位具有“n”个样本的水平ctu边界,将虚拟边界定义为线(line),其中,对于亮度分量,n等于4,以及对于色度分量,n等于2。
[0174]
对于虚拟边界上方的4
×
4块的1维(1d)拉普拉斯梯度计算,仅使用虚拟边界上方的样本。类似地,对于虚拟边界下方的4
×
4块的1d拉普拉斯梯度计算,仅使用虚拟边界下方的样本。通过考虑在1d拉普拉斯梯度计算中使用的数量减少的样本,相应地缩放活动值a的量化。
[0175]
图11示出了根据一些实施例的虚拟边界处的亮度分量的示例性修改后的alf。对于滤波过程,在虚拟边界处的对称填充操作可以用于亮度分量和色度分量。如图11所示,当滤波后的样本位于虚拟边界下方时,填充位于虚拟边界上方的相邻样本。同时,对称地填充另一侧的相应样本。
[0176]
为了增强编解码效率,在一些相关示例中使用基于编码单元同步图片四叉树的alp。可以将一个亮度图片分割为几个多级四叉树分区,并且每个分区边界与最大编码单元(largest coding unit,lcu)的边界对齐。每个分区具有自己的滤波过程,因此可以被称为滤波器单元(filter unit,fu)。
[0177]
2通道编码流描述如下。在第一通道中,确定每一fu的四叉树分割模式和最佳滤波器。在确定过程期间,通过快速滤波失真估计(fast filtering distortion estimation,ffde)来估计滤波失真。根据所确定的四叉树分割模式和所选择的所有fu的滤波器,对重建的图片进行滤波。在第二通道中,执行cu同步alf开/关控制。根据alf开/关结果,由重建的图片部分地恢复来自第一通道的滤波后的图片。
[0178]
图12示出了根据实施例的示例性lcu对齐的图片四叉树分割。采用自上而下的分割策略,通过使用率失真准则,将图片划分为多级四叉树分区。将每个分区称为滤波器单元。分割过程使四叉树分区与lcu边界对齐。fu的编码顺序遵循z扫描顺序。例如,如图12所示,将图片分割成10个fu,并且编码顺序为fu0、fu1、fu2、fu3、fu4、fu5、fu6、fu7、fu8和fu9。
[0179]
图13示出了对应于图12的示例性四叉树分割模式。为了指示图片四叉树分割模式,可以按z顺序编码和发送分割标志。
[0180]
基于率失真准则,可以从两个滤波器组中选择每个fu的滤波器。第一组具有针对当前fu新导出的1/2对称正方形和菱形滤波器。第二组来自延时滤波器缓冲区(time-delayed filter buffers),它存储之前为先前图片的fu导出的滤波器。可以为当前fu选择这两组中具有最小率失真成本的滤波器。类似地,如果当前fu不是最小fu,并且可以被进一步分割为4个子fu,则计算4个子fu的率失真成本。通过递归地比较分割和非分割情况的率失真成本,可以确定图片四叉树分割模式。
[0181]
在一些相关示例中,最大四叉树分割级别是2,这意味着fu的最大数量是16。在四叉树分割确定期间,可以重新使用用于在底部四叉树级别(最小fu)处导出16个fu的维纳(wiener)系数的相关值。其余的fu可以从底部四叉树级别处的16个fu的相关性导出其维纳滤波器。因此,仅有一个帧缓冲区访问用于导出所有fu的滤波器系数。
[0182]
在确定四叉树分割模式之后,为了进一步减小滤波失真,可以执行cu同步alf开/关控制。通过比较滤波失真和非滤波失真,叶cu可以在其局部区域中明确地切换alf开/关。可以根据alf开/关结果,重新设计滤波器系数,从而进一步改进编解码效率。然而,重新设计过程需要额外的帧缓冲区访问。在一些相关示例中,在cu同步alf开/关确定之后,不存在重新设计过程,以最小化帧缓冲区访问的数量。
[0183]
iii、跨分量自适应环路滤波器
[0184]
在一些相关示例中,采用了跨分量自适应环路滤波器(cross-component adaptive loop filter,cc-alf)。cc-alf使用亮度样本值来修正每个色度分量。
[0185]
图14a示出了根据本公开实施例的cc-alf的示例性放置。图14b示出了在cc-alf操作期间,应用于每个色度分量的亮度信道的示例性线性菱形滤波器。可以在aps中发送滤波器系数,例如,按2
10
的因子进行缩放,并为定点表示进行四舍五入。滤波器的应用受可变的块大小的控制,并且通过为多个样本的每个块接收的上下文已编码标志发信号通知滤波器的应用。对于每个色度分量,在切片级(slice-level)接收块大小以及cc-alf启用标志。在示例中,支持以下块大小(在色度样本中):16
×
16、32
×
32和64
×
64。
[0186]
表3显示了与cc-alf相关的语法元素。
[0187]
表3
multiple data,simd)操作来实现,对于比如中值滤波器(median filter)和双边滤波器(bilateral filter)的其它非线性滤波器则不是这种情况。
[0193]
cdef设计源自以下观察结果。已编码图像中振铃伪像的数量倾向于与量化步长大致成正比。细节数量是输入图像的一个属性,但是保留在量化图像中的最小细节也倾向于与量化步长成正比。对于给定的量化步长,振铃的幅度通常小于细节的幅度。
[0194]
cdef通过识别每个块的方向来工作,然后沿着所识别的方向自适应地滤波,并且沿着从所识别的方向旋转45度的方向进行较小程度的滤波。明确地发信号通知滤波强度,这允许对模糊(blurring)进行高度控制。针对滤波强度设计有效的编码器搜索。cdef基于两个先前提出的环路内滤波器(in-loop filter),并且新兴的aomedia video1(av1)编解码器采用了组合滤波器(combined filter)。
[0195]
图15示出了根据本公开实施例的8
×
8块的示例性方向搜索。在去块滤波器之后,方向搜索对重建后的像素进行操作。由于这些像素可用于解码器,因此方向不需要信令。该搜索在8
×
8块上进行操作,8
×
8块足够小以充分处理非直线边缘,同时又足够大在应用于量化图像时能可靠地估计方向。在8
×
8区域上具有恒定方向也使得滤波器的矢量化更容易。对于每个块,通过最小化量化块和最接近的完全方向块(the closest perfectly directional block)之间的平方差之和(sum of squared differences,ssd),确定与相应块中的模式最匹配的方向。完全方向块是沿一个方向的一条线的所有像素具有相同值的块。
[0196]
识别方向的一个原因是沿着该方向与滤波器抽头(filter tap)对齐,以在保持方向边缘或模式(pattern)的同时减少振铃。然而,仅有方向滤波有时不能充分地减少振铃。还希望在不沿主方向的像素上使用滤波器抽头。为了降低模糊(blurring)的风险,对这些额外的抽头进行更保守的处理。为此,cdef定义主抽头(primary taps)和次抽头(secondary taps)。完整的二维(2-d)cdef滤波器表示如下:
[0197][0198]
其中d是阻尼参数(damping parameter),s
(p)
和s
(s)
分别是主抽头和次抽头的强度,并且round(
·
)是舍入但不为零(ties away from zero),和是滤波器权重,以及f(d,s,d)是对滤波后的像素和每个相邻像素之间的差值进行操作的约束函数(constraint function)。对于小的差值,f(d,s,d)=d,使得滤波器表现得像线性滤波器。当差值很大时,f(d,s,d)=0,这有效地忽略了滤波器抽头。
[0199]
iv、av1中的环路恢复
[0200]
除了传统的去块操作之外,可以在视频编码后去块中使用一组环内恢复方案,以通常去噪和提高边缘的质量。这些方案可在每个适当大小的图块的帧内切换。所描述的具体方案基于可分离的对称维纳滤波器和具有子空间投影的双自导滤波器(dual self-guided filters)。因为内容统计可以在帧内显著变化,所以这些工具可集成在可切换框架内,其中可以在帧的不同区域中触发不同的工具。
[0201]
对于维纳滤波器,退化帧(degraded frame)中的每个像素可以被重构为相应像素周围的w
×
w窗口内的相应像素的非因果滤波版本(non-causal filtered version),其中,
w=2r 1对于整数r是奇数。如果2d滤波器抽头由列矢量化形式的w2×
1元素矢量f表示,则直接的线性最小均方误差(linear minimum mean square error,lmmse)优化导致滤波器参数由f=h-1
m给出,其中h=e[xx
t
]是1的自协方差、在像素周围的w
×
w窗口中的w2样本的列矢量化版本,并且m=e[yx
t
]是x与待估计的标量源样本y的互相关(cross correlation)。编码器可以根据去块的帧和源的实现来估计h和m,并且将所得滤波器f发送到解码器。然而,这不仅会在发送w2抽头时产生相当大的比特率成本,而且还会导致不可分离的滤波,使得解码变得极其复杂。因此,对f的性质施加了几个额外的约束。首先,将f约束为可分离的,使得滤波可以实现为可分离的水平和垂直w-抽头卷积。其次,将水平和垂直滤波器中的每一个都约束为对称的。第三,假设水平和垂直滤波器系数之和为1。
[0202]
引导滤波的局部线性模型可以表示如下:
[0203]
y=fx g
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
等式.(17)
[0204]
局部线性模型用于从未经滤波的样本x计算滤波后的输出y,其中f和g是基于退化图像(degraded image)和滤波后的像素附近的引导图像(guidance image)的统计确定的。如果引导图像(guide image)与退化图像相同,则由此生成的所谓的自导滤波(self-guided filtering)具有边缘保持平滑的效果。自导滤波的具体形式取决于两个参数:半径r和噪声参数e,列举如下。
[0205]
(1)获取每个像素周围的(2r 1)
×
(2r 1)窗口中像素的均值μ和方差σ2。这可以利用基于集成成像(integral imaging)的箱式滤波(box filtering)来有效地实现。
[0206]
(2)为每个像素计算:f=σ2/(σ2 e);g=(1-f)μ。
[0207]
(3)计算每个像素的f和g,作为像素周围3
×
3窗口中的f和g值的平均值,以供使用。
[0208]
滤波由r和e控制,其中,较高的r意味着较高的空间方差,并且较高的e意味着较高的范围方差。
[0209]
图16示出了根据实施例的示例性子空间投影。即使没有一个廉价的修复体(restorations)x1和x2接近源y,只要它们正在朝着正确的方向移动,适当的乘数{α,β}可以使它们更接近源。
[0210]
vi.块级重建的跨组件过滤(cross-component filtering)
[0211]
在vvc等一些相关示例中,已提出并采用跨分量过滤(cross-componentfiltering,ccf)过程作为sao之后的附加过滤过程。也就是说,ccf过程应用在变换、量化、去量化和重建循环之外。因此,应用于当前块的ccf过程对后续编码块的预测没有改进,因为用作后续块的参考样本的当前块的重建样本不受ccf过程的影响。在这样的示例中,ccf过程应用于图片级别。为了使ccf过程影响后续编码块的预测,在本公开的实施例中可以在块级别上应用ccf过程。
[0212]
本公开包括将ccf过程应用于块级重建的方法。可以将ccf过程定义为一个滤波过程,使用第一颜色分量的重建样本作为输入(例如,y或cb或cr),并且可以将该滤波过程的输出应用于不同于第一颜色分量的第二颜色分量。ccf过程的一个例子是第iii节中描述的cc-alf过程。
[0213]
根据本公开的多个方面,可以在sao完成之前应用ccf过程。例如,可以在去量化,和/或,逆变换之后应用ccf过程。ccf过程输出的当前块的滤波重建样本可以用作后续块的
参考样本,和/或,用于生成后续块的预测样本。
[0214]
图17示出了根据本公开实施例的在块的逆变换之后应用的示例性ccf。滤波后的样本可以用于后续块的帧内预测和/或帧间预测,并且可以在从ccf过程输出的滤波后的样本之上应用环路内滤波。
[0215]
在一个实施例中,ccf可以仅应用于色度颜色分量。ccf过程的输入可以是重建的亮度样本,输出可以是添加到当前块的色度样本之上的偏移值。
[0216]
在一个实施例中,ccf过程可以应用于残差。ccf过程的输入可以是从逆变换导出的亮度残差值,并且输出可以是添加到当前块的色度残差值上的偏移值。
[0217]
在一个实施例中,ccf过程可以应用于预测的样本值。ccf过程的输入可以应用于预测的亮度样本值,输出可以是添加到当前块的预测色度样本值的偏移值。
[0218]
在一个实施例中,可以发信号通知在ccf过程中使用的滤波器系数。例如,可以在视频参数集(video parameter set,vps)、序列参数集(sequence parameter set,sps)、图片参数集(picture parameter set,pps)、自适应参数集(adaptation parameter set,aps)、切片头(slice header)或图块头(tile header)中发信号通知滤波器系数。
[0219]
在一个实施例中,在ccf过程中使用的滤波器系数是预定义的常数。
[0220]
在一个实施例中,用于当前图片的ccf过程中使用的滤波器系数是由另一个ccf过程中使用的滤波器系数导出的。例如,用于当前图片的ccf过程中使用的滤波器系数可以通过用于不同图片的ccf过程中使用的滤波器系数和针对当前图片发信号通知的偏移值来导出。
[0221]
在一个实施例中,用于一种颜色分量(例如,色度分量)的ccf过程中使用的滤波器系数是从用于另一种颜色分量(例如,亮度分量)的ccf过程中使用的滤波器系数导出的。
[0222]
在一个实施例中,根据一些统计量为每个样本选择滤波器系数,其中,所述一些统计量由应用ccf过程之前确定的样本值导出。
[0223]
在一些实施例中,确定ccf过程是否被启用。基于启用ccf过程的确定来应用ccf过程。
[0224]
在一个实施例中,可以针对某些块大小启用或禁用ccf过程。在一个示例中,对于宽度和/或高度小于给定阈值的块禁用ccf过程。
[0225]
在一个实施例中,可以为某些分区方案启用或禁用ccf过程。在一个示例中,当亮度分量和色度分量具有不同的块大小时,例如,当亮度分量和色度分量具有不同的分区方案或半解耦分区方案(semi-decoupled partitioning schemes)时,禁用ccf过程。
[0226]
在一个实施例中,可以针对某些预测模式启用或禁用ccf过程。在一个示例中,对于直流(direct current,dc)模式禁用ccf过程。在一个示例中,对于平面模式(planar mode)禁用ccf过程。在一个示例中,针对平滑(smooth)、水平平滑(smooth_h)和垂直平滑(smooth_v)模式中的一种或多种模式禁用ccf过程。在一个示例中,对于paeth预测器模式(paeth predictor mode)禁用ccf过程。在一个示例中,对于skip模式禁用ccf进程。在一个示例中,针对定向模式(directional mode)启用ccf过程。在一个示例中,对于内部复合模式(inter-intra compound mode),启用ccf过程。
[0227]
在一个实施例中,ccf过程的滤波器形状可以取决于块的宽度和/或高度。
[0228]
在一个实施例中,是否启用ccf过程取决于逆变换过程的变换系数。在一个示例
中,如果变换系数(去量化(dequantization)之前或去量化之后)均为零,则不应用ccf过程。在一个示例中,如果只有dc变换系数(去量化之前或去量化之后)是非零的,则不应用ccf过程。在一个示例中,如果仅低频变换系数(去量化之前或去量化之后)是非零的,则不应用ccf过程。低频变换系数是位于坐标(x,y)的变换系数,其中,x和/或y小于给定阈值。
[0229]
在一个实施例中,是否启用ccf过程取决于去量化过程的量化参数。
[0230]
vii.流程图
[0231]
图18示出了根据本公开实施例的概述示例性过程(1800)的流程图。在各实施例中,过程(1800)由处理电路执行,例如,终端设备(210)、终端设备(220)、终端设备(230)和终端设备(240)中的处理电路,执行视频编码器(303)功能的处理电路、执行视频解码器(310)功能的处理电路、执行视频解码器(410)功能的处理电路、执行帧内预测模块(452)功能的处理电路、执行视频编码器(503)功能的处理电路、执行预测器(535)功能的处理电路、执行帧内编码器(622)功能的处理电路、执行帧内解码器(772)功能的处理电路)等。在一些实施例中,过程(1800)以软件指令实现,因此当处理电路执行软件指令时,处理电路执行过程(1800)。
[0232]
过程(1800)通常可以开始于步骤(s1810),其中,过程(1800)解码当前图片中的当前块的预测信息,该当前图片是已编码视频序列的一部分。预测信息指示当前块的ccf过程。然后,过程(1800)前进到步骤(s1820)。
[0233]
在步骤(s1820),过程(1800)通过对当前块的预测样本、残差值或重建样本中的至少一个应用ccf过程,生成当前块的滤波重建样本。当前块的滤波重建样本用于后续块的重建。然后,过程(1800)前进到步骤(s1830)。
[0234]
在步骤(s1830),过程(1800)基于当前块的滤波重建样本,重建当前块和后续块。然后,过程(1800)终止。
[0235]
在一个实施例中,过程(1800)通过将ccf过程应用到当前块的去量化过程和逆变换过程中的至少一个过程的输出,生成当前块的滤波重建样本。
[0236]
在一个实施例中,过程(1800)通过将包括当前块的偏移值的ccf过程的输出添加到当前块的色度重建样本,从而重建当前块。
[0237]
在一个实施例中,过程(1800)通过将包括当前块的偏移值的ccf过程的输出添加到当前块的色度残差值,从而重建当前块。
[0238]
在一个实施例中,过程(1800)通过将包括当前块的偏移值的ccf过程的输出添加到当前块的色度预测样本,从而重建当前块。
[0239]
在一个实施例中,在预测信息中包含ccf过程的滤波器系数。
[0240]
在一个实施例中,ccf过程的滤波器系数是预定义的常数。
[0241]
在一个实施例中,基于在另一图片中使用的ccf过程的滤波器系数,以及,在当前图片中使用的ccf过程的滤波器系数的偏移值,确定在当前图片中使用的ccf过程的滤波器系数。可以在预测信息中包括偏移值。
[0242]
在一个实施例中,基于在另一个颜色分量中使用的ccf过程的滤波器系数,确定在一个颜色分量中使用的ccf过程的滤波器系数。
[0243]
在一个实施例中,基于应用ccf过程之前确定的当前块的样本值,确定ccf过程的滤波器系数。
[0244]
在一个实施例中,基于分区方案、预测模式、块宽度、块高度、变换系数和量化参数之一,确定是否启用ccf过程。
[0245]
viii.计算机系统
[0246]
上述技术可以通过计算机可读指令实现为计算机软件,并且物理地存储在一个或多个计算机可读介质中。例如,图19示出了计算机系统(1900),其适于实现所公开主题的某些实施例。
[0247]
所述计算机软件可通过任何合适的机器代码或计算机语言进行编码,通过汇编、编译、链接等机制创建包括指令的代码,所述指令可由一个或多个计算机中央处理单元(cpu),图形处理单元(gpu)等直接执行或通过译码、微代码等方式执行。
[0248]
所述指令可以在各种类型的计算机或其组件上执行,包括例如个人计算机、平板电脑、服务器、智能手机、游戏设备、物联网设备等。
[0249]
图19所示的用于计算机系统(1900)的组件本质上是示例性的,并不用于对实现本技术实施例的计算机软件的使用范围或功能进行任何限制。也不应将组件的配置解释为与计算机系统(1900)的示例性实施例中所示的任一组件或其组合具有任何依赖性或要求。
[0250]
计算机系统(1900)可以包括某些人机界面输入设备。这种人机界面输入设备可以通过触觉输入(如:键盘输入、滑动、数据手套移动)、音频输入(如:声音、掌声)、视觉输入(如:手势)、嗅觉输入(未示出),对一个或多个人类用户的输入做出响应。所述人机界面设备还可用于捕获某些媒体,气与人类有意识的输入不必直接相关,如音频(例如:语音、音乐、环境声音)、图像(例如:扫描图像、从静止影像相机获得的摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
[0251]
人机界面输入设备可包括以下中的一个或多个(仅绘出其中一个):键盘(1901)、鼠标(1902)、触控板(1903)、触摸屏(1910)、数据手套(未示出)、操纵杆(1905)、麦克风(1906)、扫描仪(1907)、照相机(1908)。
[0252]
计算机系统(1900)还可以包括某些人机界面输出设备。这种人机界面输出设备可以通过例如触觉输出、声音、光和嗅觉/味觉来刺激一个或多个人类用户的感觉。这样的人机界面输出设备可包括触觉输出设备(例如通过触摸屏(1910)、数据手套(未示出)或操纵杆(1905)的触觉反馈,但也可以有不用作输入设备的触觉反馈设备)、音频输出设备(例如,扬声器(1909)、耳机(未示出))、视觉输出设备(例如,包括阴极射线管屏幕、液晶屏幕、等离子屏幕、有机发光二极管屏的屏幕(1910),其中每一个都具有或没有触摸屏输入功能、每一个都具有或没有触觉反馈功能——其中一些可通过诸如立体画面输出的手段输出二维视觉输出或三维以上的输出;虚拟现实眼镜(未示出)、全息显示器和放烟箱(未示出))以及打印机(未示出)。这些视觉输出设备(例如屏幕(1910))可以通过图形适配器(1950)连接到系统总线(1948)。
[0253]
计算机系统(1900)还可以包括人可访问的存储设备及其相关介质,如包括具有cd/dvd的高密度只读/可重写式光盘(cd/dvd rom/rw)(1920)或类似介质(1921)的光学介质、拇指驱动器(1922)、可移动硬盘驱动器或固体状态驱动器(1923),诸如磁带和软盘(未示出)的传统磁介质,诸如安全软件保护器(未示出)等的基于rom/asic/pld的专用设备,等等。
[0254]
本领域技术人员还应当理解,结合所公开的主题使用的术语“计算机可读介质”不
包括传输介质、载波或其它瞬时信号。
[0255]
计算机系统(1900)还可以包括通往一个或多个通信网络(1955)的网络接口(1954)。例如,该一个或多个通信网络(1955)可以是无线的、有线的、光学的。该一个或多个通信网络(1955)还可为局域网、广域网、城域网、车载网络和工业网络、实时网络、延迟容忍网络等等。该一个或多个通信网络(1955)的例子包括以太网、无线局域网、蜂窝网络(gsm、3g、4g、5g、lte等)等局域网、电视有线或无线广域数字网络(包括有线电视、卫星电视、和地面广播电视)、车载和工业网络(包括canbus)等等。某些网络通常需要外部网络接口适配器,用于连接到某些通用数据端口或外围总线(1949)(例如,计算机系统(1900)的usb端口);其它系统通常通过连接到如下所述的系统总线集成到计算机系统(1900)的核心(例如,以太网接口集成到pc计算机系统或蜂窝网络接口集成到智能电话计算机系统)。通过使用这些网络中的任何一个,计算机系统(1900)可以与其它实体进行通信。所述通信可以是单向的,仅用于接收(例如,无线电视),单向的仅用于发送(例如can总线到某些can总线设备),或双向的,例如通过局域或广域数字网络到其它计算机系统。上述的每个网络和网络接口可使用某些协议和协议栈。
[0256]
上述的人机界面设备、人可访问的存储设备以及网络接口可以连接到计算机系统(1900)的核心(1940)。
[0257]
核心(1940)可包括一个或多个中央处理单元(cpu)(1941)、图形处理单元(gpu)(1942)、以现场可编程门阵列(fpga)(1943)形式的专用可编程处理单元、用于特定任务的硬件加速器(1944)、图形适配器(1950)等。这些设备以及只读存储器(rom)(1945)、随机存取存储器(1946)、内部大容量存储器(例如内部非用户可存取硬盘驱动器、固态硬盘等)(1947)等可通过系统总线(1948)进行连接。在某些计算机系统中,可以以一个或多个物理插头的形式访问系统总线(1948),以便可通过额外的中央处理单元、图形处理单元等进行扩展。外围装置可直接附接到核心的系统总线(1948),或通过外围总线(1949)进行连接。在一个示例中,屏幕(1910)可以连接到图形适配器(1950)。外围总线的体系结构包括外部控制器接口pci、通用串行总线usb等。
[0258]
cpu(1941)、gpu(1942)、fpga(1943)和加速器(1944)可以执行某些指令,这些指令组合起来可以构成上述计算机代码。该计算机代码可以存储在rom(1945)或ram(1946)中。过渡数据也可以存储在ram(1946)中,而永久数据可以存储在例如内部大容量存储器(1947)中。通过使用高速缓冲存储器可实现对任何存储器设备的快速存储和检索,高速缓冲存储器可与一个或多个cpu(1941)、gpu(1942)、大容量存储器(1947)、rom(1945)、ram(1946)等紧密关联。
[0259]
所述计算机可读介质上可具有计算机代码,用于执行各种计算机实现的操作。介质和计算机代码可以是为本技术的目的而特别设计和构造的,也可以是计算机软件领域的技术人员所熟知和可用的介质和代码。
[0260]
作为实施例而非限制,具有体系结构(1900)的计算机系统,特别是核心(1940),可以作为处理器(包括cpu、gpu、fpga、加速器等)提供执行包含在一个或多个有形的计算机可读介质中的软件的功能。这种计算机可读介质可以是与上述的用户可访问的大容量存储器相关联的介质,以及具有非易失性的核心(1940)的特定存储器,例如核心内部大容量存储器(1947)或rom(1945)。实现本技术的各种实施例的软件可以存储在这种设备中并且由核
心(1940)执行。根据特定需要,计算机可读介质可包括一个或一个以上存储设备或芯片。该软件可以使得核心(1940)特别是其中的处理器(包括cpu、gpu、fpga等)执行本文所述的特定过程或特定过程的特定部分,包括定义存储在ram(1946)中的数据结构以及根据软件定义的过程来修改这种数据结构。另外或作为替代,计算机系统可以提供逻辑硬连线或以其它方式包含在电路(例如,加速器(1944))中的功能,该电路可以代替软件或与软件一起运行以执行本文所述的特定过程或特定过程的特定部分。在适当的情况下,对软件的引用可以包括逻辑,反之亦然。在适当的情况下,对计算机可读介质的引用可包括存储执行软件的电路(如集成电路(ic)),包含执行逻辑的电路,或两者兼备。本技术包括任何合适的硬件和软件组合。
[0261]
虽然本技术已对多个示例性实施例进行了描述,但实施例的各种变更、排列和各种等同替换均属于本技术的范围内。因此应理解,本领域技术人员能够设计多种系统和方法,所述系统和方法虽然未在本文中明确示出或描述,但其体现了本技术的原则,因此属于本技术的精神和范围之内。
[0262]
附录a:首字母缩略词
[0263]
alf:自适应环路滤波器
[0264]
amvp:高级运动矢量预测
[0265]
aps:适配参数集
[0266]
asic:专用集成电路
[0267]
atmvp:替代/高级时间运动矢量预测
[0268]
av1:开放媒体联盟视频1
[0269]
av2:开放媒体联盟视频2
[0270]
bms:基准集
[0271]
bv:块矢量
[0272]
canbus:控制器局域网总线
[0273]
cb:编码块
[0274]
cc-alf:跨分量自适应环路滤波器
[0275]
cd:光盘
[0276]
cdef:约束方向增强滤波器
[0277]
cpr:当前图片参考
[0278]
cpus:中央处理单元
[0279]
crt:阴极射线管
[0280]
ctbs:编码树块
[0281]
ctus:编码树单元
[0282]
cu:编码单元
[0283]
dpb:解码器图片缓冲区
[0284]
dps:解码参数集
[0285]
dvd:数字视频光盘
[0286]
fpga:现场可编程门区
[0287]
jccr:联合cbcr残差编码
[0288]
jvet:联合视频探索小组
[0289]
gops:图片组
[0290]
gpus:图形处理单元
[0291]
gsm:全球移动通信系统
[0292]
hdr:高动态范围
[0293]
hevc:高效视频编解码
[0294]
hrd:假设的参考解码器
[0295]
ibc:帧内块复制
[0296]
ic:集成电路
[0297]
isp:帧内子分区
[0298]
jem:联合探索模型
[0299]
lan:局域网
[0300]
lcd:液晶显示器
[0301]
lr:环路恢复滤波器
[0302]
lte:长期演进
[0303]
mpm:最可能模式
[0304]
mv:运动矢量
[0305]
oled:有机发光二极管
[0306]
pbs:预测块
[0307]
pci:外围组件互连
[0308]
pdpc:位置相关预测组合
[0309]
pld:可编程逻辑器件
[0310]
pps:图片参数集
[0311]
pus:预测单元
[0312]
ram:随机存取存储器
[0313]
rom:只读存储器
[0314]
sao:样本自适应偏移
[0315]
scc:屏幕内容编码
[0316]
sdr:标准动态范围
[0317]
sei:补充增强信息
[0318]
snr:信噪比
[0319]
sps:序列参数集
[0320]
ssd:固态硬盘
[0321]
tus:变换单元
[0322]
usb:通用串行总线
[0323]
vps:视频参数集
[0324]
vui:视频可用性信息
[0325]
vvc:多功能视频编码
[0326]
waip:广角帧内预测
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献