RU2787217C1 - Method and device for interpolation filtration for encoding with prediction - Google Patents

Method and device for interpolation filtration for encoding with prediction Download PDF

Info

Publication number
RU2787217C1
RU2787217C1 RU2021121545A RU2021121545A RU2787217C1 RU 2787217 C1 RU2787217 C1 RU 2787217C1 RU 2021121545 A RU2021121545 A RU 2021121545A RU 2021121545 A RU2021121545 A RU 2021121545A RU 2787217 C1 RU2787217 C1 RU 2787217C1
Authority
RU
Russia
Prior art keywords
filter
block
video
coefficients
sub
Prior art date
Application number
RU2021121545A
Other languages
Russian (ru)
Inventor
Василий Алексеевич РУФИЦКИЙ
Цзяньлэ Чэнь
Алексей Константинович ФИЛИППОВ
Original Assignee
Хуавей Текнолоджиз Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Хуавей Текнолоджиз Ко., Лтд. filed Critical Хуавей Текнолоджиз Ко., Лтд.
Application granted granted Critical
Publication of RU2787217C1 publication Critical patent/RU2787217C1/en

Links

Images

Abstract

FIELD: video encoding.
SUBSTANCE: invention relates to video encoding means. A reference sample is obtained. A value of subpixel displacement is obtained. Filtration of the reference sample is performed using 4-diverter interpolation filter to obtain a predicted sample value, wherein filtration coefficients of 4-diverter interpolation filter are determined in the following way: c0=16 -
Figure 00000081
, c1=16 + c0, c2=c0 + p, c3=
Figure 00000081
, wherein a division operation is performed with rounding downwards. At the same time, p is a fractional part of the subpixel displacement value, and c0, c1, c2, and c3 are filtration coefficients.
EFFECT: increase in the efficiency of video encoding.
12 cl, 27 dwg

Description

Область техники, к которой относится изобретениеThe technical field to which the invention belongs

Варианты осуществления настоящего раскрытия (изобретения), в общем, относятся к области обработки изображений и, в частности, к кодированию и декодированию изображения и/или видео и, в частности, к способу и устройству внутреннего/внешнего предсказания. Embodiments of the present disclosure (invention) generally relate to the field of image processing and, in particular, to the encoding and decoding of an image and/or video, and, in particular, to an intra/inter prediction method and apparatus.

Уровень техникиState of the art

Кодирование видео (кодирование и декодирование видео) используется в широком диапазоне приложений цифрового видео, например, в широковещательном цифровом телевидении, передаче видео через интернет и мобильные сети, в диалоговых приложениях в реальном времени, таких как видеочат, видеоконференцсвязь, DVD и Blu- Ray диски, системы сбора и редактирования видеоконтента и в приложениях видеокамер безопасности. Video encoding (video encoding and decoding) is used in a wide range of digital video applications, such as digital television broadcast, video transmission over the Internet and mobile networks, real-time conversational applications such as video chat, video conferencing, DVD and Blu-ray discs. , video content collection and editing systems and security camera applications.

Объем видеоданных, необходимых для изображения даже относительно короткого видео, может быть существенным, что может затруднить передачу данных в сети связи с ограниченной пропускной способностью. Таким образом, в современных сетях связи до передачи видеоданные обычно сжимаются. Размер видео также имеет значение, поскольку ресурсы памяти могут быть ограничены для хранения видео в устройстве хранения. Устройства сжатия видео часто используют программное обеспечение и/или аппаратное обеспечение на источнике для кодирования видеоданных до передачи или хранения, тем самым, уменьшая объем данных, необходимых для представления цифровых видеоизображений. Затем сжатые данные принимаются в точке назначения устройством распаковки видео, которое декодирует видеоданные. Из-за ограниченных сетевых ресурсов и постоянно растущих требований более высокого качества видео, требуются усовершенствованные технологии сжатия и распаковки, которые повышают коэффициент сжатия практически без ухудшения качества изображения.The amount of video data required to display even a relatively short video can be significant, which can make it difficult to transfer data over a communication network with limited bandwidth. Thus, in modern communication networks, video data is usually compressed prior to transmission. The size of the video also matters because memory resources may be limited to store the video on the storage device. Video compression devices often use source software and/or hardware to encode video data prior to transmission or storage, thereby reducing the amount of data required to represent digital video images. The compressed data is then received at the destination by a video decompressor, which decodes the video data. Due to limited network resources and ever-increasing demands for higher video quality, advanced compression and decompression technologies are required that increase the compression ratio with little or no degradation in image quality.

Раскрытие сущности изобретенияDisclosure of the essence of the invention

Варианты осуществления настоящего раскрытия предлагают устройства и способы кодирования и декодирования в соответствии с независимыми пунктами формулы изобретения.Embodiments of the present disclosure provide devices and methods for encoding and decoding in accordance with the independent claims.

Вышеуказанные и другие задачи настоящего раскрытия решаются посредством независимых пунктов формула изобретения. Дополнительные формы реализации очевидны из зависимых пунктов формулы изобретения, описания и чертежей.The above and other objects of the present disclosure are solved by independent claims. Additional forms of implementation are obvious from the dependent claims, description and drawings.

Варианты осуществления изобретения определяются признаками независимых пунктов формулы изобретения и дополнительными предпочтительными реализациями вариантов осуществления по признакам зависимых пунктов формулы изобретения.Embodiments of the invention are defined by the features of the independent claims and further preferred embodiments of the embodiments by the features of the dependent claims.

Согласно аспекту настоящего раскрытия, предложен способ внутреннего или внешнего предсказания обработки видеокадров, содержащий этапы: получение опорной выборки; получение значения смещения субпикселя; и фильтрация, используя 4-отводной интерполяционный фильтр субпикселя, опорную выборку для получения предсказанного значения выборки, в котором коэффициенты фильтра 4-отводного интерполяционного фильтра субпикселя удовлетворяют:According to an aspect of the present disclosure, a method for intra or inter prediction of video frame processing is provided, comprising the steps of: obtaining a reference sample; obtaining a sub-pixel offset value; and filtering, using the 4-tap sub-pixel interpolation filter, a reference sample to obtain a predicted sample value in which the filter coefficients of the 4-tap sub-pixel interpolation filter satisfy:

Figure 00000001
Figure 00000001

в котором p является дробной частью значения смещения субпикселя и

Figure 00000002
,
Figure 00000003
,
Figure 00000004
и
Figure 00000005
являются коэффициентами фильтрации 4-отводного интерполяционного фильтра субпикселя.in which p is the fractional part of the sub-pixel offset value and
Figure 00000002
,
Figure 00000003
,
Figure 00000004
and
Figure 00000005
are the filter coefficients of the 4-tap sub-pixel interpolation filter.

В одной примерной реализации опорные выборки могут обозначаться ref [x], сIn one exemplary implementation, reference samples may be denoted ref[x], with

ref[ x ] = p[ −1 − refIdx + x ][ −1 − refIdx ], с x = 0..nTbW + refIdx + 1.ref[ x ] = p[ −1 − refIdx + x ][ −1 − refIdx ], with x = 0..nTbW + refIdx + 1.

соответствующий массив опорных выборок и «р», относящихся к х-y двумерному массиву p[ x ][ y ], содержащий значения выборки. Количество используемых опорных выборок может быть, по меньше, одна. В другом примере количество опорных выборок может быть четыре.the corresponding array of reference samples and "p" referring to the x-y two-dimensional array p[ x ][ y ] containing the values of the sample. The number of reference samples used may be less than one. In another example, the number of reference samples may be four.

В одной примерной реализации полученное значение смещения субпикселя может быть обозначаться, какIn one exemplary implementation, the resulting sub-pixel offset value may be denoted as

(y + 1 + refIdx ) * intraPredAngle(y + 1 + refIdx ) * intraPredAngle

где «IntraPredAngle» является значением угла внутреннего предсказания.where "IntraPredAngle" is an intra prediction angle value.

В одной примерной реализации предсказанное значение выборки «predSamples[ x ][ y ]» может быть получено следующим образомIn one exemplary implementation, the predicted sample value "predSamples[ x ][ y ]" can be obtained as follows

predSamples[ x ][ y ] = Clip1( ( (

Figure 00000006
) + 32 ) >> 6 )predSamples[ x ][ y ] = Clip1( ( (
Figure 00000006
) + 32 ) >> 6 )

где fT[ i ] относится к коэффициентам фильтрации. Эти коэффициенты могут представлять собой коэффициенты фильтра яркости или цветности для внешнего предсказания, относящегося к fG и fC, соответственно.where fT[ i ] refers to the filter coefficients. These coefficients may be luminance or chrominance filter coefficients for inter prediction related to fG and fC, respectively.

Выбор коэффициентов фильтра как яркости, так и цветности, может быть реализован путем использования и установки флага «flterFlag», например, какThe choice of filter coefficients, both luma and chrominance, can be implemented by using and setting the "flterFlag" flag, for example, as

fT[ j ] = filterFlag ? fG[ iFact ][ j ] : fC[ iFact ][ j ]fT[j] = filterFlag ? fG[ iFact ][ j ] : fC[ iFact ][ j ]

с With

iFact = ( ( y + 1 + refIdx ) * intraPredAngle ) & 31.iFact = ( ( y + 1 + refIdx ) * intraPredAngle ) & 31.

Значение «31» относится к дробной части значения смещения субпикселя и может принять другие значения, отличные от «31». Значения коэффициентов фильтра fG (яркости) и/или fC (цветности), получают аналитически по ходу выполнения с использованием вышеуказанного аналитического выражения для коэффициентов фильтра 4-отводного фильтра. Таким образом, коэффициенты фильтра определяются в соответствии со значением смещения субпикселя.The value "31" refers to the fractional part of the sub-pixel offset value and can take other values than "31". The values of the filter coefficients fG (luminance) and/or fC (chrominance) are obtained analytically at runtime using the above analytical expression for the filter coefficients of the 4-tap filter. Thus, the filter coefficients are determined according to the sub-pixel offset value.

Следовательно, коэффициенты фильтра получают без доступа к соответствующим значениям коэффициентов фильтра из LUT, а скорее получают путем расчета.Therefore, the filter coefficients are obtained without access to the corresponding filter coefficient values from the LUT, but rather are obtained by calculation.

Альтернативно, коэффициенты фильтра могут быть рассчитаны с использованием приведенных выше уравнений и значения могут храниться в LUT.Alternatively, the filter coefficients can be calculated using the above equations and the values can be stored in the LUT.

Согласно аспекту настоящего раскрытия, коэффициенты фильтра 4-отводного интерполяционного фильтра субпикселя определяются в таблице следующим образом:According to an aspect of the present disclosure, the filter coefficients of a 4-tap sub-pixel interpolation filter are defined in a table as follows:

PP

Figure 00000002
Figure 00000002
Figure 00000003
Figure 00000003
Figure 00000004
Figure 00000004
Figure 00000005
Figure 00000005
00 16sixteen 3232 16sixteen 00 11 16sixteen 3232 16sixteen 00 22 1515 3131 1717 11 33 1515 3131 1717 11 4four 14fourteen 30thirty 18eighteen 22 5five 14fourteen 30thirty 18eighteen 22 66 1313 2929 19nineteen 33 77 1313 2929 19nineteen 33 88 1212 2828 2020 4four 9nine 1212 2828 2020 4four 1010 11eleven 2727 2121 5five 11eleven 11eleven 2727 2121 5five 1212 1010 2626 2222 66 1313 1010 2626 2222 66 14fourteen 9nine 2525 2323 77 1515 9nine 2525 2323 77 16sixteen 88 2424 2424 88 1717 88 2424 2424 88 18eighteen 77 2323 2525 9nine 19nineteen 77 2323 2525 9nine 2020 66 2222 2626 1010 2121 66 2222 2626 1010 2222 5five 2121 2727 11eleven 2323 5five 2121 2727 11eleven 2424 4four 2020 2828 1212 2525 4four 2020 2828 1212 2626 33 19nineteen 2929 1313 2727 33 19nineteen 2929 1313 2828 22 18eighteen 30thirty 14fourteen 2929 22 18eighteen 30thirty 14fourteen 30thirty 11 1717 3131 1515 3131 11 1717 3131 1515

Согласно аспекту настоящего раскрытия предложен способ внутреннего или внешнего предсказания обработки видеокадров, содержащий этапы: получение опорной выборки; получение значения смещения субпикселя; и фильтрация с использованием 4-отводного интерполяционного фильтра субпикселя, опорной выборки для получения предсказанного значения выборки, в котором коэффициенты фильтра 4-отводного интерполяционного фильтра субпикселя определяются следующим образом:According to an aspect of the present disclosure, a method for intra or inter prediction of video frame processing is provided, comprising the steps of: obtaining a reference sample; obtaining a sub-pixel offset value; and filtering using a 4-tap sub-pixel interpolation filter, a reference sample to obtain a predicted sample value, in which the filter coefficients of the 4-tap sub-pixel interpolation filter are determined as follows:

pp

Figure 00000002
Figure 00000002
Figure 00000003
Figure 00000003
Figure 00000004
Figure 00000004
Figure 00000005
Figure 00000005
00 16sixteen 3232 16sixteen 00 11 16sixteen 3232 16sixteen 00 22 1515 3131 1717 11 33 1515 3131 1717 11 4four 14fourteen 30thirty 18eighteen 22 5five 14fourteen 30thirty 18eighteen 22 66 1313 2929 19nineteen 33 77 1313 2929 19nineteen 33 88 1212 2828 2020 4four 9nine 1212 2828 2020 4four 1010 11eleven 2727 2121 5five 11eleven 11eleven 2727 2121 5five 1212 1010 2626 2222 66 1313 1010 2626 2222 66 14fourteen 9nine 2525 2323 77 1515 9nine 2525 2323 77 16sixteen 88 2424 2424 88 1717 88 2424 2424 88 18eighteen 77 2323 2525 9nine 19nineteen 77 2323 2525 9nine 2020 66 2222 2626 1010 2121 66 2222 2626 1010 2222 5five 2121 2727 11eleven 2323 5five 2121 2727 11eleven 2424 4four 2020 2828 1212 2525 4four 2020 2828 1212 2626 33 19nineteen 2929 1313 2727 33 19nineteen 2929 1313 2828 22 18eighteen 30thirty 14fourteen 2929 22 18eighteen 30thirty 14fourteen 30thirty 11 1717 3131 1515 3131 11 1717 3131 1515

где p является дробной частью значения смещения субпикселя и

Figure 00000002
,
Figure 00000003
,
Figure 00000004
и
Figure 00000005
являются коэффициентами фильтра.where p is the fractional part of the subpixel offset value and
Figure 00000002
,
Figure 00000003
,
Figure 00000004
and
Figure 00000005
are the filter coefficients.

В одной примерной реализации значения коэффициентов фильтра могут храниться в LUT. Это означает, что для интерполяционной фильтрации субпикселя соответствующие значения коэффициентов фильтра должны быть получены из LUT.In one exemplary implementation, filter coefficient values may be stored in a LUT. This means that for sub-pixel interpolation filtering, the corresponding values of the filter coefficients must be obtained from the LUT.

Фиг. 23 показывает блок-схему алгоритма процесса внутреннего/внешнего предсказания. На этапе 2301 получают опорную выборку. Опорная выборка может включать в себя одну или более опорных выборок. На этапе 2302 получено значение смещения субпикселя. На этапе 2303 опорную выборку затем фильтруют с использованием интерполяционного фильтра субпикселя, имеющего коэффициенты

Figure 00000007
с i = 0, … 3 фильтра. Это называется 4-отводным фильтром и/или 4-точечным фильтром.Fig. 23 shows a flowchart of an intra/inter prediction process. At 2301, a reference sample is obtained. The reference sample may include one or more reference samples. At step 2302, a sub-pixel offset value is obtained. In step 2303, the reference sample is then filtered using a sub-pixel interpolation filter having coefficients
Figure 00000007
with i = 0, … 3 filters. This is called a 4-tap filter and/or a 4-point filter.

Коэффициенты фильтра могут быть получены из аналитических выражений с заданной дробной частью р значения смещения субпикселя. Коэффициенты фильтра также могут быть получены из LUT со ссылкой на р значения.The filter coefficients can be obtained from analytical expressions with a given fractional part p of the sub-pixel offset value. The filter coefficients can also be obtained from the LUT with reference to p values.

Согласно аспекту настоящего раскрытия, бит р устанавливается на ноль.According to an aspect of the present disclosure, the p bit is set to zero.

Согласно аспекту настоящего раскрытия, р увеличивается на 1 и затем младший бит увеличенного р установлен на установлен на ноль до использования этого значения для получения коэффициентов фильтра.According to an aspect of the present disclosure, p is incremented by 1 and then the least significant bit of the incremented p is set to zero prior to using that value to derive the filter coefficients.

Согласно аспекту настоящего раскрытия, получение коэффициентов фильтра содержит этап вычисления коэффициентов фильтра в соответствии сAccording to an aspect of the present disclosure, obtaining the filter coefficients comprises the step of calculating the filter coefficients in accordance with

Figure 00000008
Figure 00000008

Это может обеспечить преимущество вычисления коэффициента

Figure 00000009
фильтра из предшествующего коэффициента
Figure 00000010
фильтра. Это может дополнительно сократить время для расчета коэффициентов фильтра.This may provide the advantage of calculating the coefficient
Figure 00000009
filter from previous coefficient
Figure 00000010
filter. This can further reduce the time to calculate the filter coefficients.

Согласно аспекту настоящего раскрытия, предусмотрен способ кодирования видео, способ содержит процесс внутреннего предсказания блока видеокадра, содержащий: фильтрацию, с использованием 4-отводного интерполяционного фильтра субпикселя, опорной выборки видеокадра; в котором 4-отводной интерполяционный фильтр субпикселя представляет собой комбинацию фильтров, с коэффициентами фильтра, по меньшей мере, один из фильтров, удовлетворяющий:According to an aspect of the present disclosure, a video coding method is provided, the method comprising a process of intra prediction of a video frame block, comprising: filtering, using a 4-tap sub-pixel interpolation filter, a video frame reference sample; wherein the 4-tap sub-pixel interpolation filter is a combination of filters, with filter coefficients of at least one of the filters satisfying:

Figure 00000001
Figure 00000001

где p является дробной частью значения смещения субпикселя и

Figure 00000002
,
Figure 00000003
,
Figure 00000004
и
Figure 00000005
являются коэффициентами фильтра.where p is the fractional part of the subpixel offset value and
Figure 00000002
,
Figure 00000003
,
Figure 00000004
and
Figure 00000005
are the filter coefficients.

Фиг. 24 показывает блок-схему алгоритма процесса кодирования видео. На этапе 2401 выполняется процесс внутреннего предсказания путем фильтрации опорной выборки блока с использованием 4-отводного интерполяционного фильтра субпикселя.Fig. 24 shows a flowchart of a video encoding process. In step 2401, an intra prediction process is performed by filtering the block reference sample using a 4-tap sub-pixel interpolation filter.

Согласно аспекту настоящего раскрытия, 4-отводной интерполяционный фильтр является сглаживающим фильтром, который является параллельной комбинацией двух фазозависимых линейных фильтров и фильтра нижних частот.According to an aspect of the present disclosure, the 4-tap interpolation filter is an anti-aliasing filter that is a parallel combination of two phase dependent linear filters and a low pass filter.

Согласно аспекту настоящего раскрытия, 4-отводной интерполяционный фильтр субпикселя представляет собой фильтр увеличения резкости, который представляет собой параллельную комбинацию одного фазозависимого линейного фильтра и высокочастотного фильтра с изменяющейся мощностью.According to an aspect of the present disclosure, the 4-tap sub-pixel interpolation filter is a sharpening filter that is a parallel combination of one phase-dependent linear filter and a power-varying high-pass filter.

Согласно аспекту нынешнего изобретения, высокочастотный фильтр с изменяющейся мощностью представляет собой фазонезависимый высокочастотный фильтр с конечной импульсной характеристикой FIR, выход которого умножен на параметр фазозависимой мощности.According to an aspect of the present invention, the power-changing high-pass filter is a phase-independent finite impulse response high-pass filter FIR whose output is multiplied by a phase-dependent power parameter.

Согласно любому из предшествующих аспектов настоящего раскрытия, младший бит р устанавливается на ноль.According to any of the preceding aspects of the present disclosure, the least significant bit of p is set to zero.

Согласно аспекту настоящего раскрытия, р увеличивается на 1, и затем младший бит увеличенного значения установлен на ноль до использования этого значения для получения коэффициентов интерполяционного фильтра.According to an aspect of the present disclosure, p is incremented by 1 and then the least significant bit of the incremented value is set to zero prior to using that value to derive the interpolation filter coefficients.

Согласно аспекту настоящего раскрытия, выполняется операция отсечения для выхода высокочастотного фильтра с изменяющейся мощностью.According to an aspect of the present disclosure, a clipping operation is performed for the output of a power varying high pass filter.

Согласно аспекту настоящего раскрытия, предложено устройство для внутреннего или внешнего предсказания видеокадра, включающее в себя: блок получения опорной выборки, выполненный с возможностью получать опорную выборку; блок получения значения смещения субпикселя, выполненный с возможностью получать значения смещения субпикселя; и 4-отводной интерполяционный фильтр субпикселя, выполненный с возможностью фильтрации опорной выборки для получения предсказанного значения выборки, в котором коэффициенты фильтра 4-отводного интерполяционного фильтра субпикселя удовлетворяют:According to an aspect of the present disclosure, an apparatus for intra or inter prediction of a video frame is provided, including: a reference sample acquisition unit configured to acquire a reference sample; a sub-pixel offset value obtaining unit, configured to obtain sub-pixel offset values; and a 4-tap sub-pixel interpolation filter configured to filter the reference sample to obtain a predicted sample value in which the filter coefficients of the 4-tap sub-pixel interpolation filter satisfy:

Figure 00000001
Figure 00000001

где p является дробной частью значения смещения субпикселя и

Figure 00000002
,
Figure 00000003
,
Figure 00000004
и
Figure 00000005
являются коэффициентами фильтра 4-отводного интерполяционного фильтра субпикселя.where p is the fractional part of the subpixel offset value and
Figure 00000002
,
Figure 00000003
,
Figure 00000004
and
Figure 00000005
are the filter coefficients of the 4-tap sub-pixel interpolation filter.

Согласно аспекту настоящего раскрытия, коэффициенты фильтра 4-отводного интерполяционного фильтра субпикселя определяются в таблице следующим образом:According to an aspect of the present disclosure, the filter coefficients of a 4-tap sub-pixel interpolation filter are defined in a table as follows:

pp

Figure 00000002
Figure 00000002
Figure 00000003
Figure 00000003
Figure 00000004
Figure 00000004
Figure 00000005
Figure 00000005
00 16sixteen 3232 16sixteen 00 11 16sixteen 3232 16sixteen 00 22 1515 3131 1717 11 33 1515 3131 1717 11 4four 14fourteen 30thirty 18eighteen 22 5five 14fourteen 30thirty 18eighteen 22 66 1313 2929 19nineteen 33 77 1313 2929 19nineteen 33 88 1212 2828 2020 4four 9nine 1212 2828 2020 4four 1010 11eleven 2727 2121 5five 11eleven 11eleven 2727 2121 5five 1212 1010 2626 2222 66 1313 1010 2626 2222 66 14fourteen 9nine 2525 2323 77 1515 9nine 2525 2323 77 16sixteen 88 2424 2424 88 1717 88 2424 2424 88 18eighteen 77 2323 2525 9nine 19nineteen 77 2323 2525 9nine 2020 66 2222 2626 1010 2121 66 2222 2626 1010 2222 5five 2121 2727 11eleven 2323 5five 2121 2727 11eleven 2424 4four 2020 2828 1212 2525 4four 2020 2828 1212 2626 33 19nineteen 2929 1313 2727 33 19nineteen 2929 1313 2828 22 18eighteen 30thirty 14fourteen 2929 22 18eighteen 30thirty 14fourteen 30thirty 11 1717 3131 1515 3131 11 1717 3131 1515

Согласно аспекту настоящего раскрытия, предложено устройство для внутреннего или внешнего предсказания видеокадра, содержащее: блок получения опорной выборки, выполненный с возможностью получать опорную выборку; блок получения значения смещения субпикселя, выполненный с возможностью получать значение смещения субпикселя; и 4-отводной интерполяционный фильтр субпикселя, выполненный с возможностью фильтрации опорной выборки для получения предсказанного значения выборки, в котором коэффициенты фильтра 4-отводного интерполяционного фильтра субпикселя определяются следующим образом:According to an aspect of the present disclosure, a device for intra or inter prediction of a video frame is provided, comprising: a reference sample acquisition unit configured to obtain a reference sample; a sub-pixel offset value obtaining unit, configured to obtain the sub-pixel offset value; and a 4-tap sub-pixel interpolation filter configured to filter the reference sample to obtain a predicted sample value, wherein the filter coefficients of the 4-tap sub-pixel interpolation filter are determined as follows:

pp

Figure 00000002
Figure 00000002
Figure 00000003
Figure 00000003
Figure 00000004
Figure 00000004
Figure 00000005
Figure 00000005
00 16sixteen 3232 16sixteen 00 11 16sixteen 3232 16sixteen 00 22 1515 3131 1717 11 33 1515 3131 1717 11 4four 14fourteen 30thirty 18eighteen 22 5five 14fourteen 30thirty 18eighteen 22 66 1313 2929 19nineteen 33 77 1313 2929 19nineteen 33 88 1212 2828 2020 4four 9nine 1212 2828 2020 4four 1010 11eleven 2727 2121 5five 11eleven 11eleven 2727 2121 5five 1212 1010 2626 2222 66 1313 1010 2626 2222 66 14fourteen 9nine 2525 2323 77 1515 9nine 2525 2323 77 16sixteen 88 2424 2424 88 1717 88 2424 2424 88 18eighteen 77 2323 2525 9nine 19nineteen 77 2323 2525 9nine 2020 66 2222 2626 1010 2121 66 2222 2626 1010 2222 5five 2121 2727 11eleven 2323 5five 2121 2727 11eleven 2424 4four 2020 2828 1212 2525 4four 2020 2828 1212 2626 33 19nineteen 2929 1313 2727 33 19nineteen 2929 1313 2828 22 18eighteen 30thirty 14fourteen 2929 22 18eighteen 30thirty 14fourteen 30thirty 11 1717 3131 1515 3131 11 1717 3131 1515

где p является дробной частью значения смещения субпикселя и

Figure 00000002
,
Figure 00000003
,
Figure 00000004
и
Figure 00000005
являются коэффициентами фильтра.where p is the fractional part of the subpixel offset value and
Figure 00000002
,
Figure 00000003
,
Figure 00000004
and
Figure 00000005
are the filter coefficients.

Фиг. 25 показывает схему модуля 2500 обработки внутреннего/внешнего предсказания, который содержит блок 2510 получения опорной выборки, блок 2520 получения значения смещения субпикселя и интерполяционный фильтр 2530 субпикселя.Fig. 25 shows a diagram of an intra/inter prediction processing unit 2500, which includes a reference sample acquisition unit 2510, a subpixel offset value acquisition unit 2520, and a subpixel interpolation filter 2530.

Согласно аспекту настоящего раскрытия, предложено устройство для кодирования видео, содержащее: блок обработки внутреннего предсказания, выполненный с возможностью выполнять внутреннее предсказание блока видеокадра; и 4-отводной интерполяционный фильтр субпикселя, выполненный с возможностью фильтрации опорной выборки видеокадра; в котором 4-отводной интерполяционный фильтр субпикселя представляет собой комбинацию фильтров, с коэффициентами фильтра, по меньшей мере, одного из фильтров, удовлетворяющий:According to an aspect of the present disclosure, a device for encoding a video is provided, comprising: an intra prediction processing unit configured to perform intra prediction of a block of a video frame; and a 4-tap sub-pixel interpolation filter configured to filter a video frame reference sample; wherein the 4-tap sub-pixel interpolation filter is a combination of filters, with filter coefficients of at least one of the filters, satisfying:

Figure 00000001
Figure 00000001

где p является дробной частью значения смещения субпикселя и

Figure 00000002
,
Figure 00000003
,
Figure 00000004
и
Figure 00000005
являются коэффициентами фильтра.where p is the fractional part of the subpixel offset value and
Figure 00000002
,
Figure 00000003
,
Figure 00000004
and
Figure 00000005
are the filter coefficients.

Фиг. 26 показывает схему модуля 2600 кодирования видео, который содержит блок 2610 обработки внутреннего предсказания и интерполяционный фильтр 2620 субпикселя.Fig. 26 shows a diagram of a video encoding unit 2600, which includes an intra prediction processing unit 2610 and a sub-pixel interpolation filter 2620.

Согласно аспекту настоящего раскрытия, предусмотрен кодер (20), содержащий схему обработки для выполнения способа по любому из предшествующих аспектов настоящего раскрытия.According to an aspect of the present disclosure, an encoder (20) is provided, containing a processing circuit for performing the method according to any of the preceding aspects of the present disclosure.

Согласно аспекту настоящего раскрытия, предложен декодер (30), содержащий схему обработки для выполнения способа по любому из предшествующих аспектов настоящего раскрытия.According to an aspect of the present disclosure, a decoder (30) is provided, comprising a processing circuit for performing a method according to any of the preceding aspects of the present disclosure.

Согласно аспекту настоящего раскрытия, предоставляется компьютерный программный продукт, содержащий программный код для выполнения способа в соответствии с любым из предшествующих аспектов настоящего раскрытия.According to an aspect of the present disclosure, a computer program product is provided that contains program code for performing a method in accordance with any of the preceding aspects of the present disclosure.

Согласно аспекту настоящего раскрытия, предусмотрен декодер, содержащий: один или более процессоров; и постоянный машиночитаемый носитель, соединенный с процессорами и хранящий программы для выполнения процессорами, в котором программы, при выполнении процессорами, конфигурируют декодер выполнить способ в соответствии с любым из предшествующих аспектов настоящего раскрытия.According to an aspect of the present disclosure, a decoder is provided, comprising: one or more processors; and a persistent computer-readable medium coupled to the processors and storing programs for execution by the processors, wherein the programs, when executed by the processors, configure a decoder to execute a method in accordance with any of the preceding aspects of the present disclosure.

Согласно аспекту настоящего раскрытия, предусмотрен кодер, содержащий: один или более процессоров; и постоянный машиночитаемый носитель, соединенный с процессорами и хранящий программы для выполнения процессорами, в котором программы, при выполнении процессорами, конфигурируют кодер выполнить способ в соответствии с любым из предшествующих аспектов настоящего раскрытия.According to an aspect of the present disclosure, an encoder is provided, comprising: one or more processors; and a persistent computer-readable medium coupled to the processors and storing programs for execution by the processors, wherein the programs, when executed by the processors, configure an encoder to execute a method in accordance with any of the preceding aspects of the present disclosure.

Настоящее изобретение по любому из предшествующих аспектов может обеспечить более эффективный способ внутреннего/внешнего предсказания видеокадра. Это связано с тем, что коэффициенты фильтра интерполяционного фильтра получены аналитическими способом, то есть, упомянутые коэффициенты вычисляются в процессе обработки. Это позволяет избежать хранения коэффициентов в таблице поиска (LUT), требующих времени доступа для чтения коэффициентов из памяти.The present invention according to any of the preceding aspects can provide a more efficient method for intra/inter prediction of a video frame. This is due to the fact that the filter coefficients of the interpolation filter are obtained in an analytical way, that is, the said coefficients are calculated during processing. This avoids storing the coefficients in a lookup table (LUT), requiring access time to read the coefficients from memory.

Таким образом, предсказание становится более эффективным и требует меньшего объема памяти. Это обеспечивает также недорогую реализацию предсказания. Более того, поскольку аналитические коэффициенты

Figure 00000007
фильтра являются линейными на позиции р дробной выборки, и используются операции деления на 2, соответствующая операция может быть эффективно выполнена, используя быструю низкоуровневую битовую операцию. Соответствующее время для выполнения битовой операции и для расчета коэффициентов фильтра короче времени доступа к хранимым коэффициентам из LUT. Таким образом, задержка обработки сокращается.Thus, the prediction becomes more efficient and requires less memory. It also provides an inexpensive implementation of the prediction. Moreover, since the analytic coefficients
Figure 00000007
filters are linear at position p of a fractional sample, and divide-by-2 operations are used, the corresponding operation can be efficiently performed using a fast low-level bit operation. The corresponding time to perform a bit operation and to calculate the filter coefficients is shorter than the time to access the stored coefficients from the LUT. Thus, the processing delay is reduced.

Более того, конкретная аналитическая структура коэффициентов фильтра может обеспечить преимущество реализации низкой сложности блока (блоков) фильтра. Как было описано ранее, частотная характеристика фильтра (т.е. частотная характеристика) для различных позиций субпикселей соответствует отношению амплитуде и фазы и предотвращает появления артефактов в частотной характеристике, в частности, на высоких частотах. Линейность коэффициентов фильтра может обеспечить преимущество повторного использования оборудования.Moreover, the specific analytical structure of the filter coefficients may provide the advantage of implementing a low complexity filter block(s). As previously described, the filter's frequency response (ie, frequency response) for different subpixel positions follows the amplitude-to-phase relationship and prevents artifacts in the frequency response, particularly at high frequencies. The linearity of the filter coefficients can provide the benefit of equipment reuse.

Далее приведено подробное описание одного или нескольких вариантов осуществления со ссылкой на прилагаемые чертежи. Другие признаки, объекты и преимущества будут очевидны из описания, чертежей и формулы изобретения.The following is a detailed description of one or more embodiments with reference to the accompanying drawings. Other features, objects and advantages will be apparent from the description, drawings and claims.

Изобретение может быть реализовано в аппаратном и/или программном обеспечении.The invention may be implemented in hardware and/or software.

В целях ясности любой из вышеперечисленных вариантов осуществления может быть объединен с любыми или несколькими другими вышеуказанными вариантами осуществления для получения нового варианта осуществления в объеме настоящего раскрытия.For purposes of clarity, any of the above embodiments may be combined with any or more of the other above embodiments to provide a new embodiment within the scope of this disclosure.

Эти и другие признаки будут более поняты из следующего подробного описания со ссылкой на прилагаемые чертежи и формулу изобретения.These and other features will be better understood from the following detailed description with reference to the accompanying drawings and claims.

Краткое описание чертежейBrief description of the drawings

Далее приведено подробное описание вариантов осуществления изобретения со ссылкой на прилагаемые чертежи, на которых:The following is a detailed description of embodiments of the invention with reference to the accompanying drawings, in which:

фиг. 1A является блок-схемой, показывающей пример системы кодирования видео, выполненной с возможностью реализации вариантов осуществления изобретения;fig. 1A is a block diagram showing an example of a video coding system capable of implementing embodiments of the invention;

фиг. 1B является блок-схемой, показывающей другой пример системы кодирования видео, выполненной с возможностью реализации вариантов осуществления изобретения;fig. 1B is a block diagram showing another example of a video coding system capable of implementing embodiments of the invention;

фиг. 2 представляет собой блок-схему, показывающую пример видеокодера, выполненного с возможностью реализации вариантов осуществления изобретения;fig. 2 is a block diagram showing an example of a video encoder capable of implementing embodiments of the invention;

фиг. 3 представляет собой блок-схему, показывающую примерную структуру видеокодера, выполненного с возможностью реализации вариантов осуществления изобретения;fig. 3 is a block diagram showing an exemplary structure of a video encoder capable of implementing embodiments of the invention;

фиг. 4 является блок-схемой, иллюстрирующей пример устройства кодирования или устройства декодирования;fig. 4 is a block diagram illustrating an example of an encoding device or a decoding device;

фиг. 5 является блок-схемой, иллюстрирующей другой пример устройства кодирования или устройства декодирования;fig. 5 is a block diagram illustrating another example of an encoding device or a decoding device;

фиг. 6 является схемой, показывающей угловые направления внутреннего предсказания и ассоциированные с ними режимы внутреннего предсказания в HEVC;fig. 6 is a diagram showing intra prediction angular directions and their associated intra prediction modes in HEVC;

фиг. 7 является схемой, показывающей угловые направления внутреннего предсказания и ассоциированные с ними режимы внутреннего предсказания в JEM;fig. 7 is a diagram showing intra prediction angular directions and associated intra prediction modes in JEM;

фиг. 8 представляет собой схему, показывающую угловые направления внутреннего предсказания и ассоциированные режимы внутреннего предсказания в VTM-3.0 и VVC проекте v.3 спецификации;fig. 8 is a diagram showing intra prediction angular directions and associated intra prediction modes in the VTM-3.0 and VVC draft v.3 specifications;

фиг. 9 представляет собой схему, показывающую пример комбинации фильтра для сглаживания, где в интерполяционный фильтр вводится набор опорных выборок;fig. 9 is a diagram showing an example of a filter combination for smoothing, where a set of reference samples is input to the interpolation filter;

фиг. 10 представляет собой схему, показывающую примерную комбинацию фильтров для повышения резкости интерполяционной фильтрации, включающую в себя операцию отсечения;fig. 10 is a diagram showing an exemplary filter combination for sharpening interpolation filtering, including a clipping operation;

фиг. 11 представляет собой схему, показывающую примерную комбинацию фильтров для повышения резкости интерполяционной фильтрации с альтернативным положением операции отсечения;fig. 11 is a diagram showing an exemplary filter combination for sharpening interpolation filtering with an alternative clipping position;

фиг. 12А представляет собой схему, показывающую примерную комбинацию фильтров для повышения резкости интерполяционной фильтрации, используя фильтр регулируемой мощности;fig. 12A is a diagram showing an exemplary filter combination for sharpening interpolation filtering using a variable power filter;

фиг. 12В представляет собой схему, показывающую еще одну примерную комбинацию фильтров для повышения резкости интерполяционной фильтрации с использованием фильтра регулируемой мощности;fig. 12B is a diagram showing another exemplary filter combination for sharpening interpolation filtering using a variable power filter;

фиг. 13-21 представляют собой схемы, показывающие различные комбинации LUT и аналитические представления коэффициентов интерполяционного фильтра;fig. 13-21 are diagrams showing various combinations of LUTs and analytical representations of interpolation filter coefficients;

фиг. 22 представляет собой схему, показывающую примерную реализацию способа расчета коэффициентов;fig. 22 is a diagram showing an exemplary implementation of the coefficient calculation method;

фиг. 23 представляет собой блок-схему алгоритма процесса внутреннего/внешнего предсказания;fig. 23 is a flowchart of an intra/inter prediction process;

фиг. 24 представляет собой блок-схему алгоритма кодирования видео;fig. 24 is a block diagram of a video coding algorithm;

фиг. 25 представляет собой блок-схему модуля обработки внутреннего/внешнего предсказания, включающего в себя блок получения опорной выборки, блок получения смещения субпикселя и интерполяционный фильтр субпикселя;fig. 25 is a block diagram of an intra/inter prediction processing unit including a reference sample acquisition unit, a subpixel offset acquisition unit, and a subpixel interpolation filter;

фиг. 26 представляет собой блок-схему модуля кодирования видео, включающий в себя блок обработки внешнего предсказания и интерполяционный фильтр субпикселя.fig. 26 is a block diagram of a video encoding unit including an inter prediction processing unit and a sub-pixel interpolation filter.

В последующем описании идентичные ссылочные позиции относятся к идентичным или, по меньшей мере, функционально эквивалентным признакам, если явно не указано иначе.In the following description, identical reference numerals refer to identical or at least functionally equivalent features, unless expressly indicated otherwise.

Осуществление изобретенияImplementation of the invention

В нижеследующем описании приведена ссылка на сопроводительные чертежи, которые составляют часть настоящего раскрытия и показывают в качестве иллюстрации конкретные аспекты вариантов осуществления изобретения или конкретные аспекты, в которых могут использоваться варианты осуществления настоящего раскрытия. Очевидно, что варианты осуществления изобретения могут использоваться в других аспектах и содержать структурные или логические изменения, не изображенные на чертежах. Поэтому нижеследующее подробное описание не следует воспринимать в ограничивающем смысле, и объем настоящего раскрытия определяется прилагаемой формулой изобретения.In the following description, reference is made to the accompanying drawings, which form part of the present disclosure and show, by way of illustration, specific aspects of embodiments of the invention or specific aspects in which embodiments of the present disclosure may be used. Obviously, embodiments of the invention can be used in other aspects and contain structural or logical changes not shown in the drawings. Therefore, the following detailed description should not be taken in a limiting sense, and the scope of the present disclosure is defined by the appended claims.

Например, очевидно, что настоящее изобретение с описанным способом также может быть верным для соответствующего устройства или системы, выполненной с возможностью выполнять способ, и наоборот. Например, если описан один или более конкретных этапов способа, соответствующее устройство может включать в себя один или более блоков, например, функциональные блоки, чтобы выполнять описанный один или множество этапов способа (например, один блок, выполняющий один или множество этапов, или множество блоков, каждый из которых выполняет один или более из множества этапов) даже, если такой один или более блоков не описаны и не проиллюстрированы явно на чертежах. С другой стороны, например, если конкретное устройство описано на основании одного или множества блоков, например, функциональных блоков, соответствующий способ может включать в себя один этап для выполнения функциональных возможностей одного или множества блоков (например, один этап, выполняющий функциональные возможности одного или множества блоков, или множество этапов, каждый из которых выполняет функциональные возможности одного или нескольких из множество блоков) даже, если такой один или множество этапов явно не описаны или не проиллюстрированы на чертежах. Кроме того, понятно, что признаки различных примерных вариантов осуществления и/или аспектов, описанных в данном документе, могут быть объединены друг с другом, если специально не указано иное.For example, it is obvious that the present invention with the described method can also be true for the corresponding device or system configured to perform the method, and vice versa. For example, if one or more specific method steps are described, the corresponding device may include one or more blocks, such as functional blocks, to perform the one or more method steps described (for example, one block performing one or more steps, or a plurality of blocks , each of which performs one or more of a plurality of steps) even if such one or more units are not explicitly described and illustrated in the drawings. On the other hand, for example, if a particular device is described in terms of one or more blocks, such as functional blocks, the corresponding method may include one step to perform the functionality of one or more blocks (for example, one step to perform the functionality of one or more blocks). blocks, or a plurality of steps, each of which performs the functionality of one or more of the plurality of blocks) even if such one or more steps is not explicitly described or illustrated in the drawings. In addition, it is understood that features of the various exemplary embodiments and/or aspects described herein may be combined with one another unless specifically noted otherwise.

Кодирование видео обычно относится к обработке последовательности изображений, которые образуют видео или видеопоследовательность. Вместо термина «изображение» можно использовать термин «кадр» или «изображение» как синонимы в области кодирования видео. Кодирование видео, используемое в настоящем изобретении (или настоящем раскрытии), указывает либо кодирование видео, либо декодирование видео. Кодирование видео выполняется на стороне источника, обычно, содержащее обработку (например, путем сжатия) исходных видеоизображений для уменьшения объема данных, необходимых для представления видеоизображений (для более эффективного хранения и/или передачи). Декодирование видео выполняется на стороне назначения и обычно содержит обратную обработку по сравнению с кодером для восстановления видеоизображений. Варианты осуществления, относящиеся к «кодированию» видеоизображений (или изображений в целом, как будет объяснено позже), следует понимать как относящиеся либо к «кодированию», либо к «декодированию» видеопоследовательности. Комбинация части кодирования и части декодирования также называется CODEC (Coding and Decoding).Video coding generally refers to the processing of a sequence of images that form a video or video sequence. Instead of the term "image", the term "frame" or "image" can be used as synonyms in the field of video coding. The video coding used in the present invention (or the present disclosure) indicates either video coding or video decoding. Video encoding is performed at the source side, typically involving processing (eg, by compressing) the source video images to reduce the amount of data needed to represent the video images (for more efficient storage and/or transmission). Video decoding is performed on the destination side and usually contains inverse processing compared to the encoder for recovering video images. Embodiments relating to "encoding" video images (or images in general, as will be explained later) should be understood to refer to either "encoding" or "decoding" a video sequence. The combination of an encoding part and a decoding part is also called CODEC (Coding and Decoding).

В случае кодирования видео без потерь исходные видеоизображения могут быть восстановлены, то есть, восстановленные видеоизображения имеют то же качество, что и исходные видеоизображения (при условии отсутствия потерь передачи или других потерь данных во время хранения или передачи). В случае кодирования видео с потерями выполняется дополнительное сжатие, например, посредством квантования, для уменьшения объема данных, представляющих видеоизображения, которые не могут быть полностью восстановлены в декодере, то есть, качество восстановленных видеоизображений ниже или хуже по сравнению с качеством исходных видеоизображений.In the case of lossless video coding, the original video images can be reconstructed, that is, the reconstructed video images have the same quality as the original video images (assuming no transmission loss or other data loss during storage or transmission). In the case of lossy video coding, additional compression is performed, for example by quantization, to reduce the amount of data representing video images that cannot be fully reconstructed in the decoder, i.e., the quality of the reconstructed video images is lower or worse compared to the quality of the original video images.

Несколько стандартов кодирования видео принадлежат к группе «гибридных видеокодеков с потерями» (т.е. объединяют пространственное и временное предсказания в области выборки и кодирование с 2D преобразованием для применения квантования в области преобразования). Каждое изображение видеопоследовательности обычно разделяется на набор неперекрывающихся блоков, и кодирование обычно выполняется на уровне блоков. Другими словами, в кодере видео обычно обрабатывается, то есть, кодируется, на уровне блока (видеоблока), например, с использованием пространственного (внутреннее изображение) предсказания и временного (внешнее изображение) предсказания для генерирования блока предсказания, вычитание блока предсказания из текущего блока (блока, который в настоящее время обрабатывается/должен быть обработан) для получения остаточного блока, преобразование остаточного блока и квантование остаточного блока в области преобразования для уменьшения объема данных, которые должны быть переданы (сжаты), тогда как в декодере частично выполняется обратная обработка по сравнению с кодером к кодированному или сжатому блоку для восстановления текущего блока для представления. Кроме того, кодер дублирует цикл обработки декодера, так что оба будут генерировать идентичные предсказания (например, внутреннее и внешнее предсказание) и/или повторно восстанавливать для обработки, то есть, кодировать, последующие блоки.Several video coding standards belong to the group of "hybrid lossy video codecs" (ie, combine spatial and temporal sample-domain prediction and 2D transform coding to apply transform-domain quantization). Each picture of a video sequence is usually divided into a set of non-overlapping blocks, and encoding is usually done at the block level. In other words, in the encoder, video is usually processed, that is, encoded, at the block (video block) level, for example, using spatial (inner picture) prediction and temporal (outer picture) prediction to generate a prediction block, subtracting the prediction block from the current block ( block currently being processed/to be processed) to obtain a residual block, transforming the residual block, and quantizing the residual block in the transform domain to reduce the amount of data to be transmitted (compressed), while the decoder partially performs inverse processing compared to with the encoder to the encoded or compressed block to reconstruct the current block for presentation. In addition, the encoder duplicates the processing cycle of the decoder so that both will generate identical predictions (eg, intra and inter prediction) and/or re-restore for processing, ie, encoding, subsequent blocks.

В следующих вариантах осуществления со ссылкой на фиг. 1-3 приведено описание кодера 20, декодера 30 и системы 10 кодирования.In the following embodiments, with reference to FIG. 1-3, the encoder 20, the decoder 30 and the encoding system 10 are described.

Фиг. 1A представляет собой блок-схему, иллюстрирующую пример системы 10 кодирования, например, системы 10 кодирования видео (или сокращенно, система 10 кодирования), которая может использовать способы этого настоящего раскрытия. Видеокодер 20 (например, кодер 20) и видеодекодер 30 (например, декодер 30) системы 10 кодирования видео представляют собой примеры устройств, которые могут быть выполнены с возможностью выполнять способы в соответствии с различными примерами, описанными в настоящем изобретении. Fig. 1A is a block diagram illustrating an example of a coding system 10, such as a video coding system 10 (or coding system 10 for short), that may use the methods of this present disclosure. Video encoder 20 (eg, encoder 20) and video decoder 30 (eg, decoder 30) of video coding system 10 are examples of devices that can be configured to perform methods in accordance with the various examples described in the present invention.

Как показано на фиг. 1A, система 10 кодирования содержит устройство 12 источника, выполненное с возможностью предоставлять данные 21 закодированного изображения, например, в устройство 14 назначения для декодирования данных 13 закодированного изображения.As shown in FIG. 1A, the encoding system 10 includes a source device 12 configured to provide encoded image data 21 to, for example, destination device 14 for decoding encoded image data 13.

Устройство 12 источника содержит кодер 20 и может дополнительно, т.е. возможно, содержать источник 16 изображения, препроцессор 18 (блок предварительной обработки), например, препроцессор 18 изображения и интерфейс связи или блок 22 связи.The source device 12 includes an encoder 20 and may additionally, i. e. possibly contain an image source 16, a preprocessor 18 (pre-processor), for example, an image preprocessor 18 and a communication interface or communication unit 22.

Источник 16 изображения может содержать или быть устройством захвата изображения любого типа, например, для захвата реального изображения и/или любого вида изображения или комментария (для кодирования содержимого экрана некоторые тексты на экране также считаются часть изображения или изображения, которое должно быть закодировано), устройство генерирования, например процессор компьютерной графики для генерирования компьютерного анимированного изображения, или любое устройство для получения и/или предоставления реального изображения, компьютерного анимированного изображения (например, контент экрана, изображение виртуальной реальности (VR)) и/или любую их комбинацию (например, изображение дополненной реальности (AR)). Источником изображения может быть любой тип памяти или хранилища, в котором хранятся любые из вышеупомянутых изображений.Image source 16 may comprise or be any type of image capture device, such as for capturing a real image and/or any kind of image or commentary (for screen encoding, some texts on the screen are also considered part of the image or image to be encoded), device generating, such as a computer graphics processor for generating a computer animated image, or any device for receiving and/or rendering a real image, a computer animated image (e.g., screen content, a virtual reality (VR) image), and/or any combination thereof (e.g., an image augmented reality (AR)). The image source can be any type of memory or storage that stores any of the above images.

В отличие от препроцессора 18 и обработки, выполняемой блоком 18 предварительной обработки, изображение или данные 17 изображения также могут называться необработанным изображением или данными 17 исходного изображения.Unlike the preprocessor 18 and the processing performed by the preprocessor 18, the image or image data 17 may also be referred to as raw image or original image data 17.

Препроцессор 18 выполнен с возможностью принимать (необработанные) данные 17 изображения и выполнять предварительную обработку данных 17 изображения для получения предварительно обработанного изображения 19 или данных 19 предварительно обработанного изображения. Предварительная обработка выполняется препроцессором 18, которая, например, содержит обрезку, преобразование цветового формата (например, из RGB в YCbCr), цветокоррекцию или устранение шумов. Очевидно, что препроцессор 18 может быть возможным компонентом.The preprocessor 18 is configured to receive (raw) image data 17 and perform pre-processing of the image data 17 to obtain a pre-processed image 19 or pre-processed image data 19. Pre-processing is performed by the preprocessor 18, which includes, for example, cropping, color format conversion (eg from RGB to YCbCr), color correction or denoising. Obviously, preprocessor 18 could be a possible component.

Видеокодер 20 выполнен с возможностью принимать данные 19 предварительно обработанного изображения и предоставлять данные 21 закодированного изображения (дополнительные подробности будут описаны ниже, например, со ссылкой на фиг. 2).Video encoder 20 is configured to receive pre-processed image data 19 and provide encoded image data 21 (more details will be described below, for example, with reference to FIG. 2).

Интерфейс 22 связи устройства 12 источника может быть выполнен с возможностью принимать данные 21 закодированного изображения и передавать данные 21 закодированного изображения (или любой их дополнительной обработанной версии) по каналу 13 связи в другое устройство, например, устройство 14 назначения или любое другое устройство для хранения или прямого восстановления.Communication interface 22 of source device 12 may be configured to receive encoded image data 21 and transmit encoded image data 21 (or any further processed version thereof) over communication channel 13 to another device, such as destination device 14 or any other device for storage or direct recovery.

Устройство 14 назначения содержит декодер 30 (например, видеодекодер 30) и может дополнительно, т.е. возможно, содержать интерфейс связи или блок 28 связи, постпроцессор 32 (блок 32 постобработки) и устройство 34 отображения.Destination device 14 includes a decoder 30 (eg video decoder 30) and may additionally, i. e. possibly contain a communication interface or a communication unit 28, a post-processor 32 (post-processing unit 32) and a display device 34.

Интерфейс 28 связи устройства 14 назначения выполнен с возможностью принимать данные 21 закодированного изображения (или любой их дополнительно обработанной версии), например, непосредственно из устройства 12 источника или из любого другого источника, например, запоминающее устройство, например, устройство хранения данных закодированного изображения, и предоставить данные 21 закодированного изображения в декодер 30.The communication interface 28 of the destination device 14 is configured to receive the encoded image data 21 (or any further processed version thereof), for example, directly from the source device 12 or from any other source, for example, a storage device, for example, an encoded image data storage device, and provide encoded picture data 21 to decoder 30.

Интерфейс 22 связи и интерфейс 28 связи могут быть выполнены с возможностью передавать или принимать данные 21 кодированного изображения или закодированные данные 13 через прямую линию связи между устройством 12 источника и устройством 14 назначения, например, прямое проводное или беспроводное соединение или через любую сеть, например, проводная или беспроводная сеть или любая их комбинация, или любая частная и общественная сеть, или любая их комбинация.Communication interface 22 and communication interface 28 may be configured to transmit or receive encoded image data 21 or encoded data 13 via a direct link between source device 12 and destination device 14, such as a direct wired or wireless connection, or over any network, such as wired or wireless network or any combination thereof, or any private and public network or any combination thereof.

Интерфейс 22 связи может быть, например, выполнен с возможностью упаковывать данные 21 закодированного изображения в соответствующий формат, например, пакеты и/или обрабатывать данные закодированного изображения с использованием любого вида кодирования передачи или обработки для передачи по каналу связи или сети связи.The communication interface 22 may, for example, be configured to pack the encoded image data 21 into an appropriate format, such as packets, and/or process the encoded image data using any kind of transmission coding or processing for transmission over a communication channel or communication network.

Интерфейс 28 связи, образующий аналог интерфейса 22 связи, может быть, например, выполнен с возможностью принимать переданные данные и обрабатывать передаваемые данные с использованием любого вида соответствующего декодирования передачи или обработки и/или распаковки для получения данных 21 закодированного изображения. Communication interface 28 analogous to communication interface 22 may, for example, be configured to receive transmitted data and process transmitted data using any kind of appropriate transmission decoding or processing and/or decompression to obtain encoded image data 21.

Как интерфейс 22 связи, так и интерфейс 28 связи могут быть сконфигурированы как однонаправленные интерфейсы связи, как показано стрелкой для данных 13 закодированного изображения на фиг. 1A, указывающей от устройства 12 источника к устройству 14 назначения или, как интерфейсы двунаправленной связи, и может быть выполнен с возможностью, например, отправлять и получать сообщения, например, для установки соединения, подтверждения и обмена любой другой информацией, относящейся к каналу связи и/или передаче данных, например, передача данных закодированного изображения.Both the communication interface 22 and the communication interface 28 can be configured as unidirectional communication interfaces, as indicated by the arrow for the encoded image data 13 in FIG. 1A pointing from source device 12 to destination device 14 or, as bi-directional communication interfaces, and may be configured to send and receive messages, for example, to establish a connection, acknowledge and exchange any other information related to the communication channel and /or data transmission, for example, transmission of encoded image data.

Декодер 30 выполнен с возможностью принимать данные 21 кодированного изображения и предоставлять данные 31 декодированного изображения или декодированного изображения 31 (дополнительные подробности будут описаны ниже, например, на основании фиг. 3 или фиг. 5).The decoder 30 is configured to receive encoded image data 21 and provide decoded image data 31 or decoded image 31 (more details will be described below, for example, based on FIG. 3 or FIG. 5).

Постпроцессор 32 устройства 14 назначения выполнен с возможностью пост-обработки данных 31 декодированного изображения (также называемых данными восстановленного изображения), например, декодированное изображение 31, для получения данных 33 изображения после обработки, например, пост-обработанное изображение 33. Постобработка, выполняемая блоком 32 постобработки, может содержать, например, преобразование цветового формата (например, из YCbCr в RGB), цветокоррекция, обрезка или повторная выборка, или любая другая обработка, например, для подготовки данных 31 декодированного изображения для отображения, например, с помощью устройства 34 отображения.The post processor 32 of the destination device 14 is configured to post-process the decoded image data 31 (also referred to as reconstructed image data), such as the decoded image 31, to obtain post-processed image data 33, such as the post-processed image 33. Post-processing performed by block 32 post-processing may include, for example, color format conversion (for example, from YCbCr to RGB), color correction, cropping or resampling, or any other processing, for example, to prepare the decoded image data 31 for display, for example, using the display device 34.

Устройство 34 отображения устройства 14 назначения выполнено с возможностью принимать данные 33 изображения после обработки для отображения изображения, например, пользователю или зрителю. Устройство 34 отображения может быть или содержать любой вид дисплея для представления восстановленного изображения, например, встроенный или внешний дисплей или монитор. Дисплеи могут, например, состоят из жидкокристаллических дисплеев (LCD), дисплеев на органических светодиодах (OLED), плазменных дисплеев, проекторов, микро-светодиодных дисплеев, жидких кристаллов на кремнии (LCoS), цифрового светового процессора (DLP) или любого другого дисплея.The display device 34 of the destination device 14 is configured to receive the image data 33 after being processed to display the image to, for example, a user or a viewer. The display device 34 may be or comprise any kind of display for presenting the reconstructed image, such as a built-in or external display or monitor. The displays may, for example, consist of liquid crystal displays (LCD), organic light emitting diode (OLED) displays, plasma displays, projectors, micro LED displays, liquid crystals on silicon (LCoS), digital light processor (DLP) or any other display.

Хотя фиг. 1A изображает устройство 12 источника и устройство 14 назначения как отдельные устройства, варианты осуществления устройств также могут содержать оба или обе функциональные возможности устройство 12 источника или соответствующие функциональные возможности и устройство 14 назначения или соответствующие функциональные возможности. В таких вариантах осуществления устройство 12 источника или соответствующие функциональные возможности и устройство 14 назначения или соответствующие функциональные возможности могут быть реализованы с использованием одного и того же аппаратного и/или программного обеспечения или с помощью отдельного аппаратного и/или программного обеспечения или любой их комбинации.Although FIG. 1A depicts source device 12 and destination device 14 as separate devices, device embodiments may also comprise both or both source device 12 functionality or corresponding functionality and destination device 14 or corresponding functionality. In such embodiments, source device 12 or related functionality and destination device 14 or related functionality may be implemented using the same hardware and/or software, or using separate hardware and/or software, or any combination thereof.

Как будет очевидно для специалиста на основании описания, наличие и (точное) разделение функциональных возможностей различных блоков или функций в устройстве 12 источника и/или устройстве 14 назначения, как показано на фиг. 1A, может варьироваться в зависимости от фактического устройства и реализации.As will be apparent to those skilled in the art based on the description, the presence and (precise) separation of the functionality of the various blocks or functions in source device 12 and/or destination device 14, as shown in FIG. 1A may vary depending on the actual device and implementation.

Кодер 20 (например, видеокодер 20) и декодер 30 (например, видеодекодер 30) или оба кодер 20 или декодер 30 может быть реализован посредством схемы обработки, как показано на фиг. 1В, такой как один или более микропроцессоров, процессоров цифровых сигналов (DSPs), специальные интегральные схемы (ASICs), программируемые пользователем вентильные матрицы (FPGAs), дискретная логика, оборудование или любые их комбинации. Кодер 20 может быть реализован посредством схемы 46 обработки для реализации различных модулей, как обсуждалось в отношении кодера 20 на фиг. 2 и/или любой другой кодирующей системе или подсистеме, описанной в данном документе. Декодер 30 может быть реализован посредством схемы 46 обработки для воплощения различных модулей, как обсуждалось в отношении декодера 30 на фиг. 3 и/или любую другую систему или подсистему декодера, описанную в данном документе. Схема обработки может быть выполнена с возможностью выполнять различные операции, как описано ниже. Как показано на фиг. 5, если способы частично реализованы в программном обеспечении, устройство может хранить инструкции для программного обеспечения на подходящем постоянном машиночитаемом носителе данных и может выполнять инструкции в аппаратных средствах, используя один или более процессоров для выполнения способов этого настоящего раскрытия. Любой из видеокодера 20 и видеодекодера 30 может быть интегрирован как часть комбинированного кодера/декодера (CODEC) в одном устройстве, например, как показано на фиг. 1B.Encoder 20 (eg, video encoder 20) and decoder 30 (eg, video decoder 30), or both encoder 20 or decoder 30, may be implemented by a processing circuit as shown in FIG. 1B, such as one or more microprocessors, digital signal processors (DSPs), application specific integrated circuits (ASICs), field programmable gate arrays (FPGAs), discrete logic, hardware, or any combination thereof. Encoder 20 may be implemented by processing circuitry 46 to implement various modules, as discussed with respect to encoder 20 in FIG. 2 and/or any other coding system or subsystem described herein. Decoder 30 may be implemented by processing circuitry 46 to implement various modules, as discussed with respect to decoder 30 in FIG. 3 and/or any other decoder system or subsystem described herein. The processing circuit may be configured to perform various operations as described below. As shown in FIG. 5, if the methods are partially implemented in software, the device may store instructions for the software on a suitable persistent computer-readable storage medium and may execute the instructions in hardware using one or more processors to execute the methods of this disclosure. Either of video encoder 20 and video decoder 30 may be integrated as part of a combined encoder/decoder (CODEC) in a single device, such as shown in FIG. 1b.

Устройство 12 источника и устройство 14 назначения могут содержать любое из широкого диапазона устройств, включающие в себя любые виды портативных или стационарных устройств, например, ноутбуки или портативные компьютеры, мобильные телефоны, смартфоны, планшеты или планшетные компьютеры, камеры, настольные компьютеры, телевизионные приставки, телевизоры, устройства отображения, цифровые медиаплееры, игровые приставки, устройства потокового видео (например, серверы служб контента или контент серверы доставки), широковещательное приемное устройство, широковещательное передающее устройство и т.п. и могут использовать или не использовать любой тип операционной системы. В некоторых случаях устройство 12 источника и устройство 14 назначения могут быть оборудованы для осуществления беспроводной связи. Таким образом, устройство 12 источника и устройство 14 назначения могут быть устройствами беспроводной связи.Source device 12 and destination device 14 may comprise any of a wide range of devices, including any kind of portable or stationary devices, such as laptops or laptops, mobile phones, smartphones, tablets or tablet computers, cameras, desktop computers, set-top boxes, televisions, display devices, digital media players, game consoles, video streaming devices (eg, content service servers or content delivery servers), broadcast receiver, broadcast transmitter, and the like. and may or may not use any type of operating system. In some cases, source device 12 and destination device 14 may be equipped for wireless communication. Thus, source device 12 and destination device 14 may be wireless communication devices.

В некоторых случаях система 10 кодирования видео, проиллюстрированная на фиг. 1A, является просто примером, и способы настоящего раскрытия могут применяться к настройкам кодирования видео (например, кодирование видео или декодирование видео), которые не обязательно включают в себя какой-либо обмен данными между устройствами кодирования и декодирования. В других примерах данные извлекаются из локальной памяти, передаются по сети и т.п. Устройство для кодирования видео может кодировать и сохранять данные в памяти, и/или устройство для декодирования видео может извлекать и декодировать данные из памяти. В некоторых примерах кодирование и декодирование выполняются устройствами, которые не обмениваются данными друг с другом, а просто кодируют данные в памяти и/или извлекают и декодируют данные из памяти.In some cases, the video coding system 10 illustrated in FIG. 1A is merely an example, and the methods of the present disclosure may apply to video encoding settings (eg, video encoding or video decoding) that do not necessarily involve any communication between encoding and decoding devices. In other examples, data is retrieved from local memory, transferred over a network, and the like. The video encoding device may encode and store data in memory, and/or the video decoding device may retrieve and decode data from memory. In some examples, encoding and decoding are performed by devices that do not communicate with each other, but simply encode data in memory and/or retrieve and decode data from memory.

Для удобства описания в настоящем документе описаны варианты осуществления изобретения, например, со ссылкой на высокоэффективное кодирование видео (HEVC) или на эталонное программное обеспечение универсального кодирования видео (VVC), стандарта кодирования видео следующего поколения, разработанного группой сотрудничества по кодированию видео (JCT-VC) группы экспертов ITU-T по кодированию видео (VCEG) и ISO/IEC группой экспертов по движущимся изображениям (MPEG). Для специалиста в данной области техники очевидно, что варианты осуществления изобретения не ограничиваются HEVC или VVC. For convenience of description, embodiments of the invention are described herein, for example, with reference to High Efficiency Video Coding (HEVC) or Universal Video Coding (VVC) reference software, the next generation video coding standard developed by the Collaborative Video Coding Group (JCT-VC). ) the ITU-T Video Coding Expert Group (VCEG) and the ISO/IEC Moving Picture Expert Group (MPEG). For a person skilled in the art it is obvious that the embodiments of the invention are not limited to HEVC or VVC.

Кодер и способ кодированияEncoder and encoding method

Фиг. 2 показывает блок-схему примерного видеокодера 20, который выполнен с возможностью реализации способов настоящего раскрытия. В примере на фиг. 2, видеокодер 20 содержит вход 201 (или входной интерфейс 201), блок 204 вычисления остатка, блок 206 обработки преобразования, блок 208 квантования, блок 210 обратного квантования и блок 212 обработки обратного преобразования, блок 214 восстановления, блок 220 контурного фильтра, буфер 230 декодированных изображений (DPB), блок 260 выбора режима, блок 270 энтропийного кодирования и блок 272 выхода (или выходной интерфейс 272). Блок 260 выбора режима может включать в себя блок 244 внешнего предсказания, блок 254 внутреннего предсказания и блок 262 разделения. Блок 244 внешнего предсказания может включать в себя блок оценки движения и блок компенсации движения (не показаны). Видеокодер 20, показанный на фиг. 2, также может называться гибридным видеокодером или видеокодером согласно гибридному видеокодеку.Fig. 2 shows a block diagram of an exemplary video encoder 20 that is configured to implement the methods of the present disclosure. In the example in FIG. 2, video encoder 20 comprises an input 201 (or input interface 201), a residual calculation block 204, a transform processing block 206, a quantization block 208, an inverse quantization block 210, and an inverse transform processing block 212, a reconstruction block 214, a loop filter block 220, a buffer 230 decoded pictures (DPB), mode selection block 260, entropy encoding block 270, and output block 272 (or output interface 272). The mode selector 260 may include an inter-predictor 244, an intra-predictor 254, and a splitter 262. Inter prediction block 244 may include a motion estimator and a motion compensation block (not shown). Video encoder 20 shown in FIG. 2 may also be referred to as a hybrid video encoder or a video encoder according to a hybrid video codec.

Блок 204 вычисления остатка, блок 206 обработки преобразования, блок 208 квантования, блок 260 выбора режима образуют прямой путь сигнала кодера 20, тогда как, например, блок 210 обратного квантования, блок 212 обработки обратного преобразования, блок 214 восстановления, буфер 216, контурный фильтр 220, буфер 230 декодированных изображений (DPB), блок 244 внешнего предсказания и блок 254 внутреннего предсказания образуют обратный путь сигнала кодера, в котором обратный путь сигнала кодера соответствует пути сигнала декодера (см. декодер 30 на фиг. 3). Блок 210 обратного квантования, блок 212 обработки обратного преобразования, блок 214 восстановления, контурный фильтр 220, буфер 230 декодированных изображений (DPB), блок 244 внешнего предсказания и блок 254 внутреннего предсказания также относятся к формированию «встроенного декодера» видеокодера 20. The residual calculator 204, the transform processing block 206, the quantizer 208, the mode selector 260 form the direct signal path of the encoder 20, while, for example, the inverse quantizer 210, the inverse transform processor 212, the reconstruction block 214, the buffer 216, the loop filter 220, a decoded picture buffer (DPB) 230, inter predictor 244, and intra prediction 254 form an encoder signal return path, in which the encoder return signal path corresponds to the decoder signal path (see decoder 30 in FIG. 3). An inverse quantization block 210, an inverse transform processing block 212, a reconstruction block 214, a loop filter 220, a decoded picture buffer (DPB) 230, an inter prediction block 244, and an intra prediction block 254 are also related to the formation of the “embedded decoder” of the video encoder 20.

Изображения & разделение изображения (изображения и блоки)Images & image sharing (images and blocks)

Кодер 20 выполнен с возможностью принимать, например, через вход 201 изображение 17 (или данные 17 изображения), например, изображение последовательности изображений, образующих видео или видеопоследовательность. Принятое изображение или данные изображения также могут быть предварительно обработанным изображением 19 (или предварительно обработанными данными 19 изображения). Для простоты описания далее в настоящем документе упоминаться как изображение 17. Изображение 17 также упоминается, как текущее изображение или изображение, подлежащее кодированию (в частности, при кодировании видео для различия текущего изображения от других изображений, например, ранее закодированных и/или декодированных изображений одной и той же видеопоследовательности, то есть, видеопоследовательности, которая также содержит текущее изображение).Encoder 20 is configured to receive, for example, via input 201 an image 17 (or image data 17), for example an image of a sequence of images constituting a video or video sequence. The received image or image data may also be a pre-processed image 19 (or pre-processed image data 19). For ease of description, hereinafter referred to as picture 17. Picture 17 is also referred to as the current picture or the picture to be encoded (in particular, when encoding video to distinguish the current picture from other pictures, for example, previously encoded and/or decoded pictures of one and the same video sequence, that is, a video sequence that also contains the current image).

(Цифровое) изображение представляет собой или может рассматриваться как двумерный массив или матрица выборок со значениями интенсивности. Выборка в массиве также может называться пикселем (сокращенная форма элемента изображения) или пикселем. Количество выборок в горизонтальном и вертикальном направлении (или по оси) массива или изображения определяет размер и/или разрешение изображения. Для представления цвета обычно используются три цветовых компонента, то есть, изображение может быть представлено или содержать три массива выборок. В формате RBG или цветовом пространстве изображение содержит соответствующий массив выборок красного, зеленого и синего цветов. Однако при кодировании видео каждый пиксель обычно представлен в формате яркости и цветности или цветовом пространстве, например YCbCr, который содержит компонент яркости, обозначенный Y (иногда вместо него также используется L), и два компонента цветности, обозначенные Cb и Cr. Компонент Y яркости (или кратко, яркость) представляет яркость или интенсивность уровня серого (например, как в полутоновом изображении), в то время как два компонента цветности (или кратко, цветность) Cb и Cr представляют компоненты цветности или информации о цвете. Соответственно, изображение в формате YCbCr содержит массив выборок яркости значений выборок яркости (Y) и два массива выборок цветности значений цветности (Cb и Cr). Изображения в формате RGB могут быть преобразованы в формат YCbCr и наоборот, этот процесс также известен как преобразование цвета. Если изображение является монохромным, оно может содержать только массив выборок яркости. Соответственно, изображение может быть, например, массивом выборок яркости в монохромном формате или массивом выборок яркости и двумя соответствующими массивами выборок цветности в 4:2:0, 4:2:2 и 4:4:4 цветовой формат.A (digital) image is, or can be viewed as, a two-dimensional array or matrix of samples with intensity values. A sample in an array can also be called a pixel (short for picture element) or a pixel. The number of samples in the horizontal and vertical direction (or axis) of the array or image determines the size and/or resolution of the image. Three color components are typically used to represent a color, that is, an image can be represented or contain three arrays of samples. In RBG format or color space, an image contains a corresponding array of red, green, and blue color samples. However, in video encoding, each pixel is usually represented in a luma and chrominance format or color space, such as YCbCr, which contains a luma component labeled Y (sometimes L is also used instead) and two chrominance components labeled Cb and Cr. The Y component of luminance (or briefly, luminance) represents the brightness or intensity of the gray level (eg, as in a grayscale image), while the two chrominance components (or briefly, chrominance) Cb and Cr represent components of chrominance or color information. Accordingly, an image in YCbCr format contains an array of luma samples of luminance sample values (Y) and two chrominance sample arrays of chrominance values (Cb and Cr). RGB images can be converted to YCbCr format and vice versa, a process also known as color conversion. If the image is monochrome, it can only contain an array of brightness samples. Accordingly, the image may be, for example, an array of luminance samples in monochrome format, or an array of luminance samples and two corresponding arrays of chrominance samples in 4:2:0, 4:2:2 and 4:4:4 color format.

Варианты осуществления кодера 20 могут содержать блок разделения (не показан на фиг. 2), выполненный с возможностью разделять изображение 17 на множество (обычно не перекрывающихся) блоков 203 изображения. Эти блоки также могут называться корневыми блоками, макроблоками (H.264/AVC) или блоками дерева кодирования (CTB) или блоками дерева кодирования (CTU) (H.265/HEVC и VVC). Блок разделения может быть выполнен с возможностью использовать один и тот же размер блока для всех изображений видеопоследовательности и соответствующей сетки, определяющей размер блока, или изменять размер блока между изображениями, подмножествами или группами изображений и разделять каждое изображение на соответствующие блоки.Embodiments of encoder 20 may include a splitter (not shown in FIG. 2) configured to split image 17 into multiple (generally non-overlapping) image blocks 203. These blocks may also be referred to as root blocks, macroblocks (H.264/AVC), or coding tree blocks (CTBs) or coding tree blocks (CTUs) (H.265/HEVC and VVC). The partition block may be configured to use the same block size for all images of the video sequence and the corresponding grid defining the block size, or to change the block size between images, subsets or groups of images and divide each image into appropriate blocks.

В дополнительных вариантах осуществления видеокодер может быть выполнен с возможностью принимать непосредственно блок 203 изображения 17, например один, несколько или все блоки, образующие изображение 17. Блок 203 изображения также может упоминаться как текущий блок изображения или блок изображения, который должен быть кодирован. In additional embodiments, the video encoder may be configured to directly receive block 203 of image 17, such as one, several or all of the blocks that make up image 17. Image block 203 may also be referred to as the current image block or the image block to be encoded.

Подобно изображению 17, блок 203 изображения снова является или может рассматриваться как двумерный массив или матрица выборок со значениями интенсивности (значениями выборок), хотя и меньшего размера, чем изображение 17. Другими словами, блок 203 может содержать, например, один массив выборок (например, массив яркости в случае монохромного изображения 17 или массив яркости или цветности в случае цветного изображения) или три массива выборок (например, массив яркости и два массива цветности в случае цветного изображения 17) или любое другое количество и/или видов массивов в зависимости от применяемого цветового формата. Количество выборок в горизонтальном и вертикальном направлении (или оси) блока 203 определяет размер блока 203. Соответственно, блок может, например, представлять собой массив выборок MxN (M-столбец на N-строку) или MxN массив коэффициентов преобразования.Like image 17, image block 203 is again, or can be viewed as, a two-dimensional array or matrix of samples with intensity values (sample values), albeit smaller than image 17. In other words, block 203 may contain, for example, one array of samples (for example , a luma array in the case of a monochrome image 17 or a luminance or chrominance array in the case of a color image) or three arrays of samples (for example, a luminance array and two chrominance arrays in the case of a color image 17) or any other number and/or types of arrays, depending on the applied color format. The number of samples in the horizontal and vertical direction (or axis) of block 203 determines the size of block 203. Accordingly, the block may, for example, be an array of MxN samples (M-column per N-row) or an MxN array of transform coefficients.

Варианты осуществления видеокодера 20, как показано на фиг. 2, могут быть дополнительно выполнены с возможностью кодировать изображение 17 блок за блоком, например, разделять и кодировать блок 203. Embodiments of video encoder 20, as shown in FIG. 2 may be further configured to encode image 17 block by block, such as splitting and encoding block 203.

Вычисление остаткаRemainder Calculation

Блок 204 вычисления остатка выполнен с возможностью вычислять остаточный блок 205 (также обозначен как остаток 205) на основании блока 203 изображения и блока 265 предсказания (дополнительные подробности о блоке 265 предсказания предоставлены позже), например, путем вычитания значений выборок блока 265 предсказания из значений выборок блока 203 изображения, выборка за выборкой (пиксель за пикселем) для получения остаточного блока 205 в области выборки.Residual block 204 is configured to calculate residual block 205 (also referred to as residual 205) based on image block 203 and prediction block 265 (more details about predictor 265 are provided later), for example, by subtracting the sample values of predictor 265 from the sample values. image block 203, sample by sample (pixel by pixel) to obtain a residual block 205 in the sample area.

Преобразованиеtransformation

Блок 206 обработки преобразования выполнен с возможностью применять преобразования, например, дискретное косинусное преобразование (DCT) или дискретное синусоидальное преобразование (DST) на значениях выборки остаточного блока 205 для получения коэффициентов 207 преобразования в области преобразования. Коэффициенты 207 преобразования также могут называться остаточными коэффициентами преобразования и представлять остаточный блок 205 в области преобразования.Transform processing unit 206 is configured to apply transforms, such as discrete cosine transform (DCT) or discrete sine transform (DST), on sample values of residual block 205 to obtain transform coefficients 207 in the transform domain. The transform coefficients 207 may also be referred to as residual transform coefficients and represent the residual block 205 in the transform region.

Блок 206 обработки преобразования может быть выполнен с возможностью применять целочисленные аппроксимации DCT/DST, такие как преобразования, указанные для HEVC/H.265. По сравнению с ортогональным преобразованием DCT, такие целочисленные приближения обычно масштабируются с определенным коэффициентом. Для сохранения нормы остаточного блока, который обрабатывается прямым и обратным преобразованиями, в процессе преобразования применяются дополнительные коэффициенты масштабирования. Коэффициенты масштабирования обычно выбираются на основании определенных ограничений, таких как коэффициенты масштабирования, являющиеся степенью два для операции сдвига, разрядности коэффициентов преобразования, компромисса между точностью и затратами на реализацию и т.д. Конкретные коэффициенты масштабирования, например, указываются для обратного преобразования, например, блоком 212 обработки обратного преобразования (и соответствующим обратным преобразованием, например, блоком 312 обработки обратного преобразования в декодере 30) и соответствующие коэффициенты масштабирования для прямого преобразования, например, блоком 206 обработки преобразования в кодере 20, соответственно.The transform processing unit 206 may be configured to apply DCT/DST integer approximations such as the transforms specified for HEVC/H.265. Compared to the orthogonal DCT, such integer approximations are usually scaled by a certain factor. To preserve the norm of the residual block, which is processed by direct and inverse transformations, additional scaling factors are applied during the transformation. The scaling factors are usually chosen based on certain constraints, such as the scaling factors being a power of two for the shift operation, the bit width of the transform coefficients, the trade-off between precision and implementation cost, and so on. Specific scaling factors are, for example, specified for the inverse transform, for example, by the inverse transform processing unit 212 (and the corresponding inverse transform, for example, by the inverse transform processing unit 312 in the decoder 30), and the corresponding scaling factors for the forward transform, for example, by the transform processing unit 206 in encoder 20, respectively.

Варианты осуществления видеокодера 20 (соответственно блока 206 обработки преобразования) могут быть выполнены с возможностью выводить параметры преобразования, например, тип преобразования или преобразования, например, непосредственно или закодированные или сжатые блоком 270 энтропийного кодирования, так что, например, видеодекодер 30 может принимать и использовать параметры преобразования для декодирования.Embodiments of video encoder 20 (respectively, transform processing unit 206) may be configured to output transform parameters, such as the type of transform or transform, such as directly or encoded or compressed by entropy encoding unit 270, such that, for example, video decoder 30 may receive and use conversion parameters for decoding.

КвантованиеQuantization

Блок 208 квантования выполнен с возможностью квантовать коэффициенты 207 преобразования для получения квантованных коэффициентов 209 преобразования, например, путем применения скалярного квантования или векторного квантования. Квантованные коэффициенты 209 преобразования также могут упоминаться как квантованные остаточные коэффициенты 209. Quantizer 208 is configured to quantize transform coefficients 207 to obtain quantized transform coefficients 209, for example by applying scalar quantization or vector quantization. The quantized transform coefficients 209 may also be referred to as quantized residual coefficients 209.

Процесс квантования может уменьшить битовую глубину, ассоциированную с некоторыми или всеми коэффициентами 207 преобразования. Например, n-битовый коэффициент преобразования может быть округлен с понижением до m-битного коэффициента преобразования во время квантования, где n больше m. Степень квантования может быть изменена путем регулировки параметра квантования (QP). Например, для скалярного квантования может применяться другое масштабирование для достижения более тонкого или более грубого квантования. Меньшие размеры этапов квантования соответствуют более тонкому квантованию, тогда как большие размеры шагов квантования соответствуют более грубому квантованию. Применимый размер шага квантования может быть указан параметром квантования (QP). Параметр квантования может, например, быть индексом для заранее определенного набора применимых размеров шага квантования. Например, малые параметры квантования могут соответствовать точному квантованию (малые размеры шага квантования), и большие параметры квантования могут соответствовать грубому квантованию (большие размеры шага квантования) или наоборот. Квантование может включать в себя деление по размеру шага квантования и соответствующее или обратное деквантование, например, блоком 210 обратного квантования, может включать в себя умножение на размер шага квантования. Варианты осуществления согласно некоторым стандартам, например HEVC, могут быть выполнены с возможностью использовать параметр квантования для определения размера шага квантования. Обычно размер шага квантования может быть вычислен на основании параметра квантования с использованием аппроксимации с фиксированной точкой уравнения, включающей в себя деление. Дополнительные коэффициенты масштабирования могут быть введены для квантования и деквантования для восстановления нормы остаточного блока, который может быть изменен из-за масштабирования, используемого при аппроксимации с фиксированной точкой уравнения для размера шага квантования и параметра квантования. В одной примерной реализации масштабирование обратного преобразования и деквантования могут быть объединены. В качестве альтернативы могут использоваться настроенные таблицы квантования и сигнализироваться из кодера к декодеру, например, в битовом потоке. Квантование является операцией с потерями, при которой потери возрастают с увеличением размеров шага квантования.The quantization process may reduce the bit depth associated with some or all of the transform coefficients 207 . For example, an n-bit transform factor may be rounded down to an m-bit transform factor during quantization, where n is greater than m. The degree of quantization can be changed by adjusting the quantization parameter (QP). For example, for scalar quantization, different scaling may be applied to achieve finer or coarser quantization. Smaller quantization step sizes correspond to finer quantization, while larger quantization step sizes correspond to coarser quantization. The applicable quantization step size may be indicated by a quantization parameter (QP). The quantization parameter may, for example, be an index to a predetermined set of applicable quantization step sizes. For example, small quantization parameters may correspond to fine quantization (small quantization step sizes), and large quantization parameters may correspond to coarse quantization (large quantization step sizes), or vice versa. Quantization may include division by the quantization step size and corresponding or inverse dequantization, for example by inverse quantizer 210, may include multiplication by the quantization step size. Embodiments according to some standards, such as HEVC, may be configured to use a quantization parameter to determine the quantization step size. Typically, the quantization step size can be calculated based on the quantization parameter using a fixed-point approximation of an equation involving division. Additional scaling factors may be introduced for quantization and dequantization to recover the residual block norm, which may be modified due to the scaling used in the fixed-point approximation of the equation for the quantization step size and quantization parameter. In one exemplary implementation, inverse transform scaling and dequantization may be combined. Alternatively, customized quantization tables can be used and signaled from the encoder to the decoder, for example, in a bitstream. Quantization is a lossy operation in which the loss increases with increasing quantization step sizes.

Варианты осуществления видеокодера 20 (соответственно, блок 208 квантования) могут быть выполнены с возможностью выводить параметры квантования (QP), например, непосредственно или закодированы блоком 270 энтропийного кодирования, так что, например, видеодекодер 30 может принимать и применять параметры квантования для декодирования.Embodiments of video encoder 20 (respectively, quantizer 208) may be configured to output quantization parameters (QPs), for example, directly or encoded by entropy coding unit 270, such that, for example, video decoder 30 may receive and apply quantization parameters for decoding.

Обратное квантованиеInverse quantization

Блок 210 обратного квантования выполнен с возможностью применять обратное квантование блока 208 квантования к квантованным коэффициентам для получения деквантованных коэффициентов 211, например, путем применения схемы обратного квантования, применяемой блоком 208 квантования, на основании или с использованием того же размера шага квантования, что и блок 208 квантования. Деквантованные коэффициенты 211 также могут называться деквантованными остаточными коэффициентами 211 и соответствовать, хотя обычно не идентичны коэффициентам преобразования из-за потерь при квантовании, коэффициентам 207 преобразования.Inverse quantizer 210 is configured to apply the inverse quantization of quantizer 208 to the quantized coefficients to obtain dequantized coefficients 211, for example, by applying the inverse quantization scheme applied by quantizer 208 based on or using the same quantization step size as block 208 quantization. The dequantized coefficients 211 may also be referred to as the dequantized residual coefficients 211 and correspond, although not usually identical to the transform coefficients due to quantization loss, to the transform coefficients 207.

Обратное преобразованиеReverse transformation

Блок 212 обработки обратного преобразования выполнен с возможностью применять обратное преобразование, применяемое блоком 206 обработки преобразования, например, обратное дискретное косинусное преобразование (DCT) или обратное дискретное синусоидальное преобразование (DST) для получения восстановленного остаточного блока 213 (или соответствующих деквантованных коэффициентов 213) в области выборки. Восстановленный остаточный блок 213 также может называться блоком 213 преобразования.The inverse transform processing unit 212 is configured to apply an inverse transform applied by the transform processing unit 206, such as an inverse discrete cosine transform (DCT) or an inverse discrete sine transform (DST) to obtain a reconstructed residual block 213 (or corresponding dequantized coefficients 213) in the region samples. The recovered residual block 213 may also be referred to as a transformation block 213 .

ВосстановлениеRecovery

Блок 214 восстановления (например, блок суммирования или сумматор 214) выполнен с возможностью добавлять блок 213 преобразования (то есть, восстановленный остаточный блок 213) к блоку 265 предсказания для получения восстановленного блока 215 в области выборки, например, путем сложения, выборка к выборке, значений выборок восстановленного остаточного блока 213 и значений выборок блока 265 предсказания.Restoration block 214 (e.g., adder or adder 214) is configured to add transform block 213 (i.e., reconstructed residual block 213) to prediction block 265 to obtain reconstructed block 215 in the sample area, for example, by addition, sample by sample, the sample values of the reconstructed residual block 213 and the sample values of the prediction block 265 .

ФильтрацияFiltration

Блок 220 контурного фильтра (или коротко, «контурный фильтр» 220) выполнен с возможностью фильтрации восстановленного блока 215 для получения отфильтрованного блока 221 или, как правило, для фильтрации восстановленных выборок для получения отфильтрованных выборок. Блок контурного фильтра предназначен, например, для сглаживания пиксельных переходов или для иного способа повышения качества видео. Блок 220 контурного фильтра может содержать один или более контурных фильтров, таких как фильтр деблокинга, фильтр с адаптивным сдвигом (SAO) или другие фильтры, например, двусторонний фильтр или адаптивный контурный фильтр (ALF), или фильтры повышения резкости или сглаживания, или коллаборативные фильтры или любую их комбинацию. Хотя блок 220 контурного фильтра показан на фиг. 2 как контурный фильтр, в других конфигурациях блок 220 контурного фильтра может быть реализован как постконтурный фильтр. Отфильтрованный блок 221 также может упоминаться как фильтрованный восстановленный блок 221. The loop filter block 220 (or "loop filter" 220 for short) is configured to filter the reconstructed block 215 to obtain a filtered block 221 or, typically, to filter the reconstructed samples to obtain filtered samples. The edge filter block is designed, for example, to smooth out pixel transitions or otherwise improve video quality. The loop filter block 220 may comprise one or more loop filters, such as a deblocking filter, an adaptive shift (SAO) filter, or other filters, such as a two-sided filter or an adaptive loop filter (ALF), or sharpening or smoothing filters, or collaborative filters. or any combination of them. Although the loop filter unit 220 is shown in FIG. 2 as a loop filter, in other configurations, the loop filter unit 220 may be implemented as a post loop filter. The filtered block 221 may also be referred to as the filtered reconstructed block 221.

Варианты осуществления видеокодера 20 (соответственно блока 220 контурного фильтра) могут быть выполнены с возможностью выводить параметры контурного фильтра (такие как информация адаптивного смещения выборки), например, непосредственно или закодированные блоком 270 энтропийного кодирования, так что, например, декодер 30 может принимать и применять те же параметры контурного фильтра или соответствующие контурные фильтры для декодирования.Embodiments of video encoder 20 (respectively, loop filter unit 220) may be configured to output loop filter parameters (such as adaptive sample offset information), for example, directly or encoded by entropy encoding unit 270, such that, for example, decoder 30 may receive and apply the same loop filter parameters or corresponding loop filters for decoding.

Буфер декодированных изображенийDecoded picture buffer

Буфер 230 декодированных изображений (DPB) может быть памятью опорных изображений, в которой хранятся данные опорных изображений для использования при кодировании видеоданных видеокодером 20. DPB 230 может быть сформирован любым из множества запоминающих устройств, таких как динамическая память произвольного доступа (DRAM), включающая в себя синхронную DRAM (SDRAM), магниторезистивную RAM (MRAM), резистивную RAM (RRAM) или другие типы запоминающих устройств. Буфер 230 декодированных изображений (DPB) выполнен с возможностью хранить фильтрованный блок 221. Буфер 230 декодированных изображений может быть дополнительно выполнен с возможностью хранить другие ранее отфильтрованные блоки, например, ранее восстановленные и отфильтрованные блоки 221 одного и того же текущего изображения или разных изображений, например, ранее восстановленные изображения, и могут предоставлять полные ранее реконструированные, то есть, декодированные, изображения (и соответствующие опорные блоки и выборки) и/или частично восстановленное текущее изображение (и соответствующие опорные блоки и выборки), например, для внешнего предсказания. Буфер 230 декодированного изображения (DPB) также выполнен с возможностью хранить один или более нефильтрованных восстановленных блоков 215 или, в общем, нефильтрованные восстановленные выборки, например, если восстановленный блок 215 не фильтруется блоком 220 контурного фильтра или любой другой дополнительно обработанной версией восстановленных блоков или выборок.Decoded picture buffer (DPB) 230 may be a reference picture memory that stores reference picture data for use in encoding video data by video encoder 20. DPB 230 may be formed by any of a variety of memories, such as dynamic random access memory (DRAM), including synchronous DRAM (SDRAM), magnetoresistive RAM (MRAM), resistive RAM (RRAM), or other types of storage devices. The decoded picture buffer (DPB) 230 is configured to store the filtered block 221. The decoded picture buffer 230 can be further configured to store other previously filtered blocks, such as previously reconstructed and filtered blocks 221 of the same current picture or different pictures, such as , previously reconstructed images, and may provide complete previously reconstructed, i.e., decoded, images (and corresponding reference blocks and samples) and/or partially reconstructed current image (and corresponding reference blocks and samples), for example, for inter prediction. The decoded picture buffer (DPB) 230 is also configured to store one or more unfiltered reconstructed blocks 215 or, in general, unfiltered reconstructed samples, for example, if the reconstructed block 215 is not filtered by the loop filter block 220 or any other further processed version of the reconstructed blocks or samples. .

Выбор режима (разделение и предсказание)Mode selection (separation and prediction)

Блок 260 выбора режима содержит блок 262 разделения, блок 244 внешнего предсказания и блок 254 внутреннего предсказания и выполнен с возможностью принимать или получать исходные данные изображения, например, исходный блок 203 (текущий блок 203 текущего изображения 17) и восстановленные данные изображения, например, фильтрованные и/или нефильтрованные восстановленные выборки или блоки одного и того же (текущего) изображения и/или из одного или множества ранее декодированных изображений, например, из буфера 230 декодированного изображения или других буферов (например, линейный буфер, не показан). Данные восстановленное изображение используется в качестве данных опорного изображения для предсказания, например, внешнее предсказание или внутреннее предсказание, для получения блока 265 предсказания или предиктора 265.The mode selection section 260 comprises a splitter 262, an inter prediction section 244, and an intra prediction section 254, and is configured to receive or obtain original image data, such as the original block 203 (the current block 203 of the current image 17) and reconstructed image data, such as filtered and/or unfiltered reconstructed samples or blocks of the same (current) picture and/or from one or more previously decoded pictures, eg decoded picture buffer 230 or other buffers (eg, linear buffer, not shown). The reconstructed image data is used as reference image data for prediction, such as inter prediction or intra prediction, to obtain prediction block 265 or predictor 265.

Блок 260 выбора режима может быть выполнен с возможностью определять или выбирать разделение для режима предсказания текущего блока (включающее в себя отсутствие разделения) и режима предсказания (например, режим внутреннего или внешнего предсказания) и генерировать соответствующий блок 265 предсказания, который используется для вычисления остаточного блока 205 и для восстановления восстановленного блока 215.The mode selector 260 may be configured to determine or select a split for the current block prediction mode (including no split) and the prediction mode (e.g., intra or inter prediction mode) and generate a corresponding prediction block 265 that is used to calculate the residual block. 205 and to restore the restored block 215.

Варианты осуществления блока 260 выбора режима могут быть выполнены с возможностью выбирать разделение и режим предсказания (например, из тех, которые поддерживаются или доступны для блока 260 выбора режима), которые обеспечивают наилучшее совпадение или, другими словами, минимальный остаток (минимальный остаток означает лучшее сжатие для передачи или хранения), или минимальные накладные расходы на сигнализацию (минимальные накладные расходы на сигнализацию означают лучшее сжатие для передачи или хранения), или который учитывает или уравновешивает оба. Блок 260 выбора режима может быть выполнен с возможностью определять режим разделения и предсказания на основании оптимизации искажения скорости (RDO), то есть, выбирать режим предсказания, который обеспечивает минимальное искажение скорости. Такие термины, как «лучший», «минимум», «оптимальный» и т.д. в этом контексте не обязательно относятся к общему «лучшему», «минимуму», «оптимальному» и т.д., но также могут относиться к выполнению прекращения или критерий выбора, такой как значение, превышающее или падающее ниже порогового значения, или другие ограничения, потенциально ведущие к «неоптимальному выбору», но уменьшающие сложность и время обработки.Embodiments of mode selector 260 may be configured to select a split and prediction mode (e.g., from those supported or available to mode selector 260) that provides the best match, or in other words, minimum residual (minimum residual means better compression). for transmission or storage), or minimal signaling overhead (minimum signaling overhead means better compression for transmission or storage), or which takes into account or balances both. The mode selector 260 may be configured to determine the division and prediction mode based on rate distortion optimization (RDO), that is, select the prediction mode that provides the minimum rate distortion. Terms such as "best", "minimum", "optimum", etc. in this context does not necessarily refer to the general "best", "minimum", "optimal", etc., but may also refer to termination performance or selection criteria such as a value exceeding or falling below a threshold, or other restrictions , potentially leading to a "non-optimal choice" but reducing complexity and processing time.

Другими словами, блок 262 разделения может быть выполнен с возможностью разделять блок 203 на уменьшенные блоки или субблоки (которые вновь образуют блоки), например, итеративно с использованием разделения дерева квадрантов (QT), двоичного разделения (BT) или троичного дерева (TT) или любой их комбинации и для выполнения, например, предсказания для каждого из разделов блоков или субблоков, в котором выбор режима содержит выбор древовидной структуры разделенного блока 203 и режимы предсказания применяются к каждому из разделов или субблокам.In other words, partitioner 262 may be configured to partition block 203 into smaller blocks or subblocks (which again form blocks), for example, iteratively using quadtree partitioning (QT), binary partitioning (BT), or ternary tree (TT), or any combination thereof, and to perform, for example, prediction for each of the partitions of blocks or subblocks, wherein the mode selection comprises selecting a tree structure of the partitioned block 203 and the prediction modes are applied to each of the partitions or subblocks.

Далее более подробно поясняется процесс разделения (например, блоком 260 разделения) и обработка предсказания (блоком 244 внешнего предсказания и блоком 254 внутреннего предсказания), выполняемые примерным видеокодером 20.The following explains in more detail the splitting process (for example, splitter 260) and prediction processing (inter predictor 244 and intra predictor 254) performed by exemplary video encoder 20.

РазделениеSeparation

Блок 262 разделения может разделять (или разбивать) текущий блок 203 на меньшие разделы, например, блоки меньшего размера квадратной или прямоугольной формы. Эти меньшие блоки (которые также могут называться субблоками) могут быть дополнительно разделены на еще меньшие разделы. Это также называется разделением дерева или иерархическим разделением дерева, в котором корневой блок, например, на корневом уровне 0 дерева (уровень 0 иерархии, глубина 0) может быть рекурсивно разделен, например, разделен на два или более блока следующего более нижнего уровня дерева, например, узлы на уровне 1 дерева (уровень 1 иерархии, глубина 1), в котором эти блоки могут быть снова разделены на два или более блоков следующего более нижнего уровня, например, уровень 2 дерева (уровень 2 иерархии, глубина 2) и т.д., пока не будет завершено разделение, например, при выполнении критерия прекращения, например, достигается максимальная глубина дерева или минимальный размер блока. Блоки, которые не разделяются далее, также называются листовыми блоками или листовыми узлами дерева. Дерево, использующее разделение на два раздела, называется двоичным деревом (BT), дерево, использующее разделение на три раздела, называется тройным деревом (TT) и дерево, использующее разделение на четыре раздела, называется деревом квадрантов (QT).Partitioner 262 may divide (or split) the current block 203 into smaller sections, such as smaller square or rectangular blocks. These smaller blocks (which may also be referred to as sub-blocks) can be further subdivided into even smaller sections. This is also called tree splitting or hierarchical tree splitting, in which a root block, e.g. at root level 0 of the tree (hierarchy level 0, depth 0) can be recursively split, e.g. split into two or more next lower tree level boxes, e.g. , nodes at level 1 of the tree (hierarchy level 1, depth 1) in which these blocks can be split again into two or more next lower level blocks, e.g. tree level 2 (hierarchy level 2, depth 2), etc. . until the split is complete, for example, when a termination criterion is met, such as the maximum tree depth or the minimum block size is reached. Blocks that are not split further are also called leaf blocks or leaf nodes of the tree. A tree using two partitions is called a binary tree (BT), a tree using three partitions is called a ternary tree (TT), and a tree using four partitions is called a quadtree (QT).

Как упоминало ранее, термин «блок», используемый в настоящем документе, может быть частью, конкретно, частью квадратной или прямоугольной формы изображения. Со ссылкой, например, на HEVC и VVC, блок может быть или соответствовать блоку дерева кодирования (CTU), блоку кодирования (CU), блоку предсказания (PU) и блоку преобразования (TU) и/или соответствовать блокам, например, блоку дерева кодирования (CTB), блоку кодирования (CB), блоку преобразования (TB) или блоку предсказания (PB). As mentioned earlier, the term "block" as used herein may be part, specifically, part of a square or rectangular shape of an image. With reference to, for example, HEVC and VVC, a block may either correspond to a coding tree block (CTU), a coding unit (CU), a prediction block (PU), and a transform unit (TU), and/or correspond to blocks, for example, a coding tree block (CTB), coding block (CB), transform block (TB), or prediction block (PB).

Например, блок дерева кодирования (CTU) может быть или содержать CTB выборок яркости, два соответствующих CTBs выборок цветности изображения, которое имеет три массива выборок, или CTB выборок монохромного изображения или изображения, которое кодируется с использованием трех отдельных цветовых плоскостей и синтаксических структур, используемых для кодирования выборок. Соответственно, блок дерева кодирования (CTB) может быть блоком NxN выборок для некоторого значения N, так что разделение компонента на CTBs является разделением. Блок кодирования (CU) может быть или содержать блок кодирования выборок яркости, два соответствующих блока кодирования выборок цветности изображения, которое имеет три массива выборок, или блок кодирования выборок монохромного изображения или изображения, которое кодируется с использованием трех отдельных цветовых плоскостей и синтаксических структур, используемые для кодирования выборок. Соответственно, блок кодирования (CB) может быть блоком MxN выборок для некоторых значений M и N, так что разделение CTB на блоки кодирования является разделением.For example, a coding tree unit (CTU) may be either a luminance sample CTB, two corresponding chrominance sample CTBs of an image that has three sample arrays, or a monochrome image sample CTB or an image that is encoded using three separate color planes and the syntax structures used for coding samples. Accordingly, a coding tree block (CTB) may be a block of NxN samples for some value of N, such that splitting a component into CTBs is a split. A coding unit (CU) may be or comprise a luminance sample coding unit, two corresponding chrominance sample coding units of an image that has three sample arrays, or a monochrome image sample coding unit or an image that is encoded using three separate color planes and the syntax structures used for coding samples. Accordingly, a coding block (CB) may be a block of MxN samples for some values of M and N, so that the division of the CTB into coding blocks is a division.

В вариантах осуществления, например, в соответствии с HEVC, блок дерева кодирования (CTU) может быть разделен на CUs с использованием структуры дерева квадратов, обозначенной как дерево кодирования. Решение о том, кодировать ли область изображения с использованием внешнего (временного) или внутреннего (пространственного) предсказания, принимается на CU уровне. Каждый CU может быть дополнительно разделен на один, два или четыре PUs в соответствии с типом разделения PU. Внутри одного PU применяется тот же процесс предсказания, и соответствующая информация передается в декодер на основании PU. После получения остаточного блока путем применения процесса предсказания на основании типа разделения PU, CU может быть разделен на блоки преобразования (TUs) в соответствии с другой структурой дерева квадрантов, аналогичной дереву кодирования для CU.In embodiments, for example in accordance with HEVC, a coding tree unit (CTU) may be partitioned into CUs using a square tree structure referred to as a coding tree. The decision as to whether to encode an image region using extrinsic (temporal) or intrinsic (spatial) prediction is made at the CU layer. Each CU may be further partitioned into one, two or four PUs according to the partition type of the PU. Within one PU, the same prediction process is applied, and the corresponding information is transmitted to the decoder based on the PU. After obtaining the residual block by applying a prediction process based on the division type of the PU, the CU may be divided into transform units (TUs) according to a different quadtree structure similar to the coding tree for the CU.

В вариантах осуществления, например, в соответствии с последним разрабатываемым в настоящее время стандартом кодирования видео, который называется универсальным кодированием видео (VVC), разделение дерева квадратов и двоичного дерева (QTBT) с использованием разделения блока кодирования. В QTBT структуре блока, CU может иметь либо квадратную, либо прямоугольную форму. Например, блок дерева кодирования (CTU) сначала разделяется структурой деревом квадрантов. Листовые узлы дерева квадрантов могут быть дополнительно разделены с помощью древовидной структуры двоичного дерева или троичного (или тройного) дерева. Листовые узлы дерева квадрантов называются блоками кодирования (CUs) и сегментация используются для предсказания и преобразования без любого дополнительного разделения. Это означает, что в большинстве случаев CU, PU и TU имеют одинаковый размер блока в QTBT структуре блока кодирования. Параллельно, также было предложено множество разделений, например, разделение троичного дерева было использовано совместно с QTBT структуре блока. In embodiments, for example, in accordance with the latest video coding standard currently being developed, called universal video coding (VVC), square tree and binary tree (QTBT) splitting using coding block splitting. In the QTBT block structure, the CU can be either square or rectangular. For example, a coding tree unit (CTU) is first divided by a quadtree structure. The leaf nodes of a quadtree can be further subdivided using a binary tree or ternary (or ternary) tree structure. The leaf nodes of the quadtree are called coding units (CUs) and segmentation is used for prediction and transformation without any additional partitioning. This means that in most cases CU, PU and TU have the same block size in the QTBT coding block structure. In parallel, many partitions have also been proposed, for example, ternary tree partitioning has been used in conjunction with the QTBT block structure.

В одном примере блок 260 выбора режима видеокодера 20 может быть выполнен с возможностью выполнять любую комбинацию способов разделения, описанных в данном документе. In one example, mode selector 260 of video encoder 20 may be configured to perform any combination of the separation methods described herein.

Как описано выше, кодер 20 выполнен с возможностью определять или выбирать наилучший или оптимальный режим предсказания из набора (предопределенных) режимов предсказания. Набор режимов предсказания может содержать, например, режимы внутреннего предсказания и/или режимы внешнего предсказания.As described above, encoder 20 is configured to determine or select the best or optimal prediction mode from a set of (predefined) prediction modes. The set of prediction modes may include, for example, intra prediction modes and/or inter prediction modes.

Внутреннее предсказаниеInternal prediction

Набор режимов внутреннего предсказания может содержать 35 различных режимов внутреннего предсказания, например, ненаправленные режимы, такие как DC режим (или средний) и планарный режим, или направленные режимы, например, как определено в HEVC, или может содержать 67 различных режимов внутреннего предсказания, например, ненаправленные режимы, такие как DC режим (или средний) и планарный режим, или направленные режимы, например, как определено для VVC. The intra prediction mode set may comprise 35 different intra prediction modes, such as non-directional modes such as DC (or average) mode and planar mode, or directional modes such as those defined in HEVC, or may comprise 67 different intra prediction modes such as , non-directional modes such as DC (or medium) mode and planar mode, or directional modes such as those defined for VVC.

Блок 254 внутреннего предсказания выполнен с возможностью использовать восстановленные выборки соседних блоков одного и того же текущего изображения для генерирования блока 265 внутреннего предсказания согласно режиму внутреннего предсказания набора режимов внутреннего предсказания.The intra prediction block 254 is configured to use the reconstructed samples of adjacent blocks of the same current picture to generate the intra prediction block 265 according to the intra prediction mode of the intra prediction mode set.

Блок 254 внутреннего предсказания (или, в общем, блок 260 выбора режима) дополнительно выполнен с возможностью выводить параметры внутреннего предсказания (или, в общем, информацию, указывающую выбранный режим внутреннего предсказания для блока) в блок 270 энтропийного кодирования в форме элементов 266 синтаксиса для включения в данные 21 кодированного изображения, чтобы, например, видеодекодер 30 мог принимать и использовать параметры предсказания для декодирования.Block 254 intra prediction (or, in General, block 260 mode selection) is further configured to output parameters of intra prediction (or, in General, information indicating the selected intra prediction mode for the block) in block 270 entropy encoding in the form of elements 266 syntax for including an encoded image in data 21 so that, for example, video decoder 30 can receive and use prediction parameters for decoding.

Внешнее предсказаниеexternal prediction

Набор (или возможные) режимов внешнего предсказания зависит от доступных опорных изображений (то есть, предшествующих, по меньшей мере, частично декодированных изображений, например, сохраненных в DBP 230) и других параметров внешнего предсказания, например будь то опорное изображение целиком или только его часть, например, окно поиска области вокруг области текущего блока, опорного кадра используется для поиска наилучшего соответствия опорного блока и/или, например, применяется ли интерполяция пикселей, например, интерполяция пол/полупикселя, четверти пикселя и/или 1/16 пикселя или нет.The set (or possible) inter prediction modes depends on the available reference pictures (i.e., previous at least partially decoded pictures, e.g. stored in DBP 230) and other inter prediction parameters, e.g. , for example, an area search box around the area of the current block, a reference frame is used to find the best match of the reference block and/or, for example, whether pixel interpolation is applied, such as half/half pixel, quarter pixel and/or 1/16 pixel interpolation or not.

В дополнение к вышеупомянутым режимам предсказания может применяться режим пропуска и/или прямой режим.In addition to the aforementioned prediction modes, a skip mode and/or a direct mode may be applied.

Блок 244 внешнего предсказания может включать в себя блок оценки движения (ME) и блок компенсации движения (MC) (оба не показаны на фиг. 2). Блок оценки движения выполнен с возможностью принимать или получать блок 203 изображения (текущий блок 203 изображения текущего изображения 201) и декодированное изображение 231 или, по меньшей мере, один или множество ранее восстановленных блоков, например, восстановленные блоки одного или множества других/различных ранее декодированных изображений 231 для оценки движения. Например, видеопоследовательность может содержать текущее изображение и ранее декодированные изображения 231 или, другими словами, текущее изображение и ранее декодированные изображения 231 могут быть частью или формировать последовательность изображений, образующих видеопоследовательность.Inter prediction block 244 may include a motion estimator (ME) and a motion compensation (MC) block (both not shown in FIG. 2). The motion estimator is configured to receive or obtain an image block 203 (the current image block 203 of the current image 201) and a decoded image 231 or at least one or a plurality of previously reconstructed blocks, e.g., reconstructed blocks of one or a plurality of other/different previously decoded 231 images for motion estimation. For example, the video sequence may comprise the current picture and previously decoded pictures 231 or, in other words, the current picture and previously decoded pictures 231 may be part of or form a sequence of pictures that make up the video sequence.

Кодер 20 может, например, быть выполнен с возможностью выбирать опорный блок из множества опорных блоков одинаковых или различных изображений из множества других изображений и предоставлять опорное изображение (или индекс опорного изображения) и/или сдвиг (пространственное сдвиг) между позицией (x, y координат) опорного блока и позицией текущего блока в качестве параметров внешнего предсказания в блок оценки движения. Это сдвиг также называется вектором движения (MV).The encoder 20 may, for example, be configured to select a reference block from a plurality of reference blocks of the same or different pictures from a plurality of other pictures and provide a reference picture (or reference picture index) and/or a shift (spatial shift) between position (x, y coordinates ) of the reference block and the position of the current block as inter-prediction parameters to the motion estimation block. This shift is also called motion vector (MV).

Блок компенсации движения выполнен с возможностью получать, например, принимать параметр внешнего предсказания и выполнять внешнее предсказание на основании или с использованием параметра внешнего предсказания для получения блока 265 внешнего предсказания. Компенсация движения, выполняемая блоком компенсации движения, может содержать выборку или генерирование блока предсказания на основании вектора движения/блока, определяемого оценкой движения, возможно выполнение интерполяции до субпиксельной точности. Интерполяционная фильтрация может генерировать дополнительные выборки пикселей из известных выборок пикселей, таким образом, потенциально увеличивая количество кандидатов блоков предсказания, которые могут использоваться для кодирования блока изображения. После приема вектора движения для PU текущего блока изображения блок компенсации движения может локализовать блок предсказания, на который указывает вектор движения, в одном из списков опорных изображений.The motion compensation block is configured to obtain, for example, receive an inter prediction parameter, and perform inter prediction based on or using the inter prediction parameter to obtain inter prediction block 265. The motion compensation performed by the motion compensator may comprise sampling or generating a prediction block based on the motion vector/block determined by the motion estimate, possibly performing interpolation to sub-pixel precision. Interpolation filtering can generate additional pixel samples from known pixel samples, thus potentially increasing the number of prediction block candidates that can be used to encode an image block. After receiving the motion vector for the PU of the current picture block, the motion compensator may locate the prediction block pointed to by the motion vector in one of the reference picture lists.

Блок компенсации движения может также генерировать элементы синтаксиса, ассоциированные с блоками и сегментом видео, для использования видеодекодером 30 при декодировании блоков изображения сегмента видео. The motion compensation block may also generate syntax elements associated with blocks and a video segment for use by video decoder 30 when decoding image blocks of a video segment.

Энтропийное кодированиеEntropy coding

Блок 270 энтропийного кодирования выполнен с возможностью применять алгоритм или схемы энтропийного кодирования (например, схемы кодирования с переменной длиной (VLC), контекстно-адаптивной схемы VLC (CALVC), схемы арифметического кодирования, контекстно-адаптивного двоичного арифметического кодирования (CABAC), основанное на синтаксисе контекстно-адаптивное двоичное арифметическое кодирование (SBAC), энтропийное кодирование с интервалом вероятности (PIPE) или другие технологии или способы энтропийного кодирования) или схему обхода (без сжатия) на квантованных остаточных коэффициентах 209, параметрах внешнего предсказания, параметрах внутреннего предсказания и/или параметрах контурного фильтра и/или других элементах синтаксиса для получения данных 21 закодированного изображения, которые могут выводиться посредством выхода 272, например, в форме кодированного битового потока 21, так что, например, декодер 30 может принимать и использовать параметры для декодирования. Закодированный битовый поток 21 может быть передан в видеодекодер 30 или сохранен в памяти для последующей передачи или извлечения видеодекодером 30. The entropy encoding unit 270 is configured to apply an entropy encoding algorithm or schemes (e.g., variable length coding (VLC) schemes, context adaptive VLC scheme (CALVC), arithmetic coding scheme, context adaptive binary arithmetic coding (CABAC) based on context adaptive binary arithmetic coding (SBAC), probability interval entropy coding (PIPE), or other entropy coding technologies or methods) or bypass scheme (no compression) on quantized residual coefficients 209, inter prediction parameters, intra prediction parameters, and/or loop filter parameters and/or other syntax elements for obtaining encoded image data 21 that can be output by output 272, for example in the form of encoded bitstream 21, so that, for example, decoder 30 can receive and use parameters for decoding. The encoded bitstream 21 may be transmitted to video decoder 30 or stored in memory for later transmission or retrieval by video decoder 30.

Для кодирования видеопотока могут использоваться другие структурные вариации видеокодера 20. Например, кодер 20, не основанный на преобразовании, может квантовать остаточный сигнал напрямую без блока 206 обработки преобразования для конкретных блоков или кадров. В другой реализации кодер 20 может иметь блок 208 квантования и блок 210 обратного квантования, объединенные в единый блок.Other structural variations of video encoder 20 may be used to encode the video stream. For example, non-transform-based encoder 20 may quantize the residual signal directly without transform processor 206 for specific blocks or frames. In another implementation, encoder 20 may have quantizer 208 and inverse quantizer 210 combined into a single block.

Декодер и способ декодированияDecoder and decoding method

На фиг. 3 показан пример видеодекодера 30, который выполнен с возможностью реализации способов настоящего раскрытия. Видеодекодер 30 выполнен с возможностью принимать данные 21 кодированного изображения (например, кодированного битового потока 21), например, кодируемые кодером 20, для получения декодированного изображения 331. Данные кодированного изображения или битовый поток содержит информацию для декодирования данных кодированного изображения, например, данные, которые представляют собой блоки изображения кодированного сегмента видео и ассоциированные элементы синтаксиса.In FIG. 3 shows an example of a video decoder 30 that is configured to implement the methods of the present disclosure. Video decoder 30 is configured to receive encoded picture data 21 (e.g., encoded bitstream 21), such as encoded by encoder 20, to obtain a decoded picture 331. The encoded picture data or bitstream contains information for decoding encoded picture data, such as data that are image blocks of the encoded video segment and associated syntax elements.

В примере на фиг. 3, декодер 30 содержит блок 304 энтропийного декодирования, блок 310 обратного квантования, блок 312 обработки обратного преобразования, блок 314 восстановления (например, сумматор 314), контурный фильтр 320, буфер 330 декодированного изображения (DBP), блок 344 внешнего предсказания и блок 354 внутреннего предсказания. Блок внешнего предсказания может быть или включать в себя блок компенсации движения. Видеодекодер 30 может, в некоторых примерах, выполнять процесс декодирования, в целом, обратный этапу кодирования, описанный применительно к видеокодеру 100 на фиг. 2.In the example in FIG. 3, the decoder 30 includes an entropy decoding block 304, an inverse quantization block 310, an inverse transform processing block 312, a reconstruction block 314 (e.g., adder 314), a loop filter 320, a decoded picture (DBP) buffer 330, an inter prediction block 344, and a block 354 internal prediction. The inter prediction block may be or include a motion compensation block. Video decoder 30 may, in some examples, perform a decoding process that is generally the reverse of the encoding step described with respect to video encoder 100 in FIG. 2.

Как объяснялось в отношении кодера 20, блок 210 обратного квантования, блок 212 обработки обратного преобразования, блок 214 восстановления, контурный фильтр 220, буфер 230 декодированного изображения (DPB), блок 344 внешнего предсказания и блок 354 внутреннего предсказания также называется формированием «встроенного декодера» видеокодера 20. Соответственно, блок 310 обратного квантования может быть идентичен по функциям блоку 110 обратного квантования, блок 312 обработки обратного преобразования может быть идентичным по функциям блоку 212 обработки обратного преобразования, блок 314 восстановления может быть идентичен по функциям блоку 214 восстановления, контурный фильтр 320 может быть идентичен по функциям контурному фильтру 220 и буфер 330 декодированного изображения может быть идентичен по функциям буферу 230 декодированного изображения. Следовательно, пояснения, предоставленные для соответствующих блоков и функций видеокодера 20, применяются соответственно к соответствующим блокам и функциям видеодекодера 30.As explained with respect to the encoder 20, the inverse quantization block 210, the inverse transform processing block 212, the reconstruction block 214, the loop filter 220, the decoded picture buffer (DPB) 230, the inter prediction block 344, and the intra prediction block 354 are also called "inline decoder" generation. of the video encoder 20. Accordingly, the inverse quantizer 310 may be identical in function to the inverse quantizer 110, the inverse transform processor 312 may be identical in function to the inverse transform processor 212, the restorer 314 may be identical in function to the restorer 214, the loop filter 320 may be identical in function to the loop filter 220 and the buffer 330 of the decoded image may be identical in function to the buffer 230 of the decoded image. Therefore, the explanations provided for the respective blocks and functions of the video encoder 20 apply to the respective blocks and functions of the video decoder 30, respectively.

Энтропийное декодированиеEntropy decoding

Блок 304 энтропийного декодирования выполнен с возможностью выполнять синтаксический анализ битового потока 21 (или, в общем, данных 21 закодированного изображения) и выполнять, например, энтропийное декодирование данных 21 кодированного изображения для получения, например, квантованных коэффициентов 309 и/или параметров декодированного кодирования (не показано на фиг. 3), например, любого или всех параметров внешнего предсказания (например, индекс опорного изображения и вектор движения), параметров внутреннего предсказания (например, режим внутреннего предсказания или индекс), параметров преобразования, параметров квантования, параметров контурного фильтра и/или других элементов синтаксиса. Блок 304 энтропийного декодирования может быть выполнен с возможностью применять алгоритмы или схемы декодирования, соответствующие схемам кодирования, как описано в отношении блока 270 энтропийного кодирования кодера 20. Блок 304 энтропийного декодирования может быть дополнительно выполнен с возможностью предоставлять параметры внешнего предсказания, параметр внутреннего предсказания и/или другие элементы синтаксиса в блок 360 выбора режима и другие параметры в другие блоки декодера 30. Видеодекодер 30 может принимать элементы синтаксиса на уровне сегмента видео и/или уровне видеоблока. The entropy decoding unit 304 is configured to parse the bitstream 21 (or, more generally, the encoded image data 21) and perform, for example, entropy decoding of the encoded image data 21 to obtain, for example, quantized coefficients 309 and/or decoded coding parameters ( not shown in Figure 3), such as any or all inter prediction parameters (eg, reference picture index and motion vector), intra prediction parameters (eg, intra prediction mode or index), transform parameters, quantization parameters, loop filter parameters, and /or other syntax elements. Entropy decoding unit 304 may be configured to apply decoding algorithms or schemes corresponding to coding schemes as described with respect to entropy encoding unit 270 of encoder 20. Entropy decoding unit 304 may be further configured to provide inter prediction parameters, an intra prediction parameter, and/ or other syntax elements to mode select block 360 and other parameters to other blocks of decoder 30. Video decoder 30 may receive syntax elements at the video segment level and/or video block level.

Обратное квантованиеInverse quantization

Блок 310 обратного квантования может быть выполнен с возможностью принимать параметры квантования (QP) (или, в общем, информацию, относящуюся к обратному квантованию) и квантованные коэффициенты из данных 21 кодированного изображения (например, путем синтаксического анализа и/или декодирования, например, посредством блока 304 энтропийного декодирования) и применять на основании параметров квантования обратное квантование к декодированным квантованным коэффициентам 309 для получения деквантованных коэффициентов 311, которые также могут называться коэффициентами 311 преобразования. Процесс обратного квантования может включать в себя использование параметра квантования, определенного видеокодером 20 для каждого блока видео в сегменте видео, для определения степени квантования и аналогично степени обратного квантования.The inverse quantizer 310 may be configured to receive quantization parameters (QPs) (or inverse quantization related information in general) and quantized coefficients from the encoded picture data 21 (e.g., by parsing and/or decoding, e.g., by entropy decoding block 304) and apply, based on the quantization parameters, inverse quantization to the decoded quantized coefficients 309 to obtain dequantized coefficients 311, which may also be referred to as transform coefficients 311. The inverse quantization process may include using a quantization parameter determined by video encoder 20 for each video block in a video segment to determine the degree of quantization, and likewise the degree of inverse quantization.

Обратное преобразованиеReverse transformation

Блок 312 обработки обратного преобразования может быть выполнен с возможностью принимать деквантованные коэффициенты 311, также называемые коэффициентами 311 преобразования и применять преобразования к деквантованным коэффициентам 311 для получения восстановленных остаточных блоков 213 в области выборки. Восстановленные остаточные блоки 213 также могут называться блоками 313 преобразования. Преобразование может быть обратным преобразованием, например, обратным DCT, обратным DST, обратным целочисленным преобразованием или концептуально аналогичным процессом обратного преобразования. Блок 312 обработки обратного преобразования может быть дополнительно выполнен с возможностью принимать параметры преобразования или соответствующую информацию из данных 21 закодированного изображения (например, путем синтаксического анализа и/или декодирования, например, посредством блока 304 энтропийного декодирования) для определения преобразования, которое должно применяться к деквантованным коэффициентам 311.The inverse transform processor 312 may be configured to receive the dequantized coefficients 311, also referred to as transform coefficients 311, and apply transforms to the dequantized coefficients 311 to obtain reconstructed residual blocks 213 in the sample area. The restored residual blocks 213 may also be referred to as transform blocks 313 . The transformation may be an inverse transformation, eg, inverse DCT, inverse DST, inverse integer transformation, or a conceptually similar inverse transformation process. The inverse transform processing unit 312 may be further configured to receive transform parameters or corresponding information from the encoded image data 21 (e.g., by parsing and/or decoding, e.g., by entropy decoding block 304) to determine the transform to be applied to the dequantized coefficients 311.

ВосстановлениеRecovery

Блок 314 восстановления (например, сумматор 314) выполнен с возможностью добавлять восстановленный остаточный блок 313 к блоку 365 предсказания для получения восстановленного блока 315 в области выборки, например, путем сложения значений выборок восстановленного остаточного блока 313 и значений выборок блока 365 предсказания.A reconstructor 314 (e.g., adder 314) is configured to add the reconstructed residual block 313 to the prediction block 365 to obtain a reconstructed block 315 in the sample area, for example, by adding the sample values of the reconstructed residual block 313 and the sample values of the prediction block 365.

ФильтрацияFiltration

Блок 320 контурного фильтра (либо в контуре кодирования, либо после контура кодирования) выполнен с возможностью фильтрации восстановленного блока 315 для получения отфильтрованного блока 321, например, для сглаживания переходов пикселей или иного повышения качества видео. Блок 320 контурного фильтра может содержать один или более контурных фильтров, таких как фильтр деблокинга, фильтр с адаптивным сдвигом (SAO) или один или более других фильтров, например, двунаправленный фильтр, адаптивный контурный фильтр (ALF), фильтр сглаживания, фильтр увеличения резкости или коллоборативные фильтры или любую их комбинацию. Хотя на фиг. 3 показан блок 320 контурного фильтра как контурный фильтр, в других конфигурациях блок 320 контурного фильтра может быть реализован как постконтурный фильтр.The loop filter block 320 (either in the encoding loop or after the encoding loop) is configured to filter the reconstructed block 315 to obtain a filtered block 321, for example, to smooth pixel transitions or otherwise improve video quality. The loop filter block 320 may comprise one or more loop filters, such as a deblocking filter, an adaptive shift filter (SAO), or one or more other filters, such as a bidirectional filter, an adaptive loop filter (ALF), an anti-aliasing filter, a sharpening filter, or collaborative filters or any combination thereof. Although in FIG. 3 shows the loop filter block 320 as a loop filter, in other configurations the loop filter block 320 may be implemented as a post loop filter.

Буфер декодированного изображенияDecoded image buffer

Затем декодированные видеоблоки 321 в данном кадре или изображении сохраняются в буфере 330 декодированного изображения, в котором хранятся декодированные изображения 331 в качестве опорных изображений, используемые для последующей компенсации движения для других изображений и/или вывода соответствующего изображения для отображения на дисплее.The decoded video blocks 321 in that frame or picture are then stored in the decoded picture buffer 330, which stores the decoded pictures 331 as reference pictures, used for subsequent motion compensation for other pictures and/or outputting the corresponding picture for display.

Декодер 30 выполнен с возможностью выводить декодированное изображение 311, например, через выход 312 для представления или просмотра пользователю.The decoder 30 is configured to output the decoded image 311, for example, through the output 312 for presentation or viewing to the user.

ПредсказаниеPrediction

Блок 344 внешнего предсказания может быть идентичен блоку 244 внешнего предсказания (в частности, блоку компенсации движения) и блок 354 внутреннего предсказания может быть идентичен блоку 254 внешнего предсказания по функциям и выполняет решения о разделении или разбиении и предсказания на основании параметров разделения и/или предсказания или соответствующей информации, принятой из данных 21 закодированного изображения (например, путем синтаксического анализа и/или декодирования, например, посредством блока 304 энтропийного декодирования). Блок 360 выбора режима может быть выполнен с возможностью выполнять предсказание (внутреннее или внешнее предсказание) для каждого блока на основании восстановленных изображений, блоков или соответствующих выборок (фильтрованных или нефильтрованных) для получения блока 365 предсказания.Inter prediction block 344 may be identical to inter prediction block 244 (in particular, a motion compensation block) and intra prediction block 354 may be identical to inter function prediction block 254 and performs split or split decisions and predictions based on split and/or prediction parameters. or corresponding information received from the encoded image data 21 (eg, by parsing and/or decoding, eg, by entropy decoding block 304). The mode selector 360 may be configured to perform prediction (intra or inter prediction) for each block based on the reconstructed images, blocks, or corresponding samples (filtered or unfiltered) to obtain prediction block 365.

Когда сегмент видео кодируется как внутри кодированный (I) сегмент, блок 354 внутреннего предсказания блока 360 выбора режима выполнен с возможностью генерировать блок 365 предсказания для блока изображения текущего сегмента видео на основании сигнализируемого режима внутреннего предсказания и данных из ранее декодированных блоков текущего изображения. Когда видеоизображение кодируется как внешне кодируемый (то есть, B или P) сегмент, блок 344 внешнего предсказания (например, блок компенсации движения) блока 360 выбора режима выполнен с возможностью формировать блоки 365 предсказания для блока видео текущего сегмента видео на основании векторов движения и других элементов синтаксиса, принятых из блока 304 энтропийного декодирования. Для внешнего предсказания блоки предсказания могут быть сформированы из одного из опорных изображений в одном из списков опорных изображений. Видеодекодер 30 может составлять списки опорных кадров, список 0 и список 1, используя способы построения по умолчанию на основании опорных изображений, хранящихся в DPB 330. When a video segment is encoded as an intra-coded (I) segment, the intra prediction block 354 of the mode selector 360 is configured to generate a prediction block 365 for a picture block of the current video segment based on the signaled intra prediction mode and data from previously decoded blocks of the current picture. When a video image is encoded as an inter-coded (i.e., B or P) segment, the inter prediction block 344 (e.g., motion compensation block) of the mode select block 360 is configured to generate prediction blocks 365 for the video block of the current video segment based on motion vectors and others. syntax elements received from block 304 entropy decoding. For inter prediction, prediction blocks may be generated from one of the reference pictures in one of the reference picture lists. Video decoder 30 may construct reference frame lists, list 0 and list 1 using default construction methods based on reference pictures stored in DPB 330.

Блок 360 выбора режима выполнен с возможностью определять информацию предсказания для блока видео текущего сегмента видео путем анализа векторов движения или других элементов синтаксиса, и использует информацию предсказания для формирования блоков предсказания для текущего декодируемого блока видео. Например, блок 360 выбора режима использует некоторые из принятых элементов синтаксиса для определения режима предсказания (например, внутреннее или внешнее предсказание), используемого для кодирования блоков видео сегмента видео, типа сегмента внешнего предсказания (например, B-сегмент, P-сегмент или GPB-сегмент), информации о построении для одного или нескольких списков опорных изображений для сегмента, векторов движения для каждого внешне кодированного блока видео сегмента, статус внешнего предсказания для каждого внешне кодированного блока видео сегмента и другую информацию для декодирования блоков видео в текущем сегменте видео. The mode selector 360 is configured to determine prediction information for the video block of the current video segment by analyzing motion vectors or other syntax elements, and uses the prediction information to generate prediction blocks for the current video block being decoded. For example, the mode selector 360 uses some of the received syntax elements to determine the prediction mode (eg, intra or inter prediction) used to encode the video blocks of a video segment, the inter prediction segment type (eg, B-segment, P-segment, or GPB- segment), construction information for one or more reference picture lists for the segment, motion vectors for each externally coded video block of the segment, inter prediction status for each externally coded video block of the segment, and other information for decoding video blocks in the current video segment.

Для декодирования данных 21 закодированного изображения могут использоваться другие варианты видеодекодера 30. Например, декодер 30 может формировать выходной видеопоток без блока 320 контурной фильтрации. Например, декодер 30, не основанный на преобразовании, может выполнять обратное преобразование квантования остаточного сигнала напрямую без блока 312 обработки обратного преобразования для определенных блоков или кадров. В другой реализации видеодекодер 30 может иметь блок 310 обратного квантования и блок 312 обработки обратного преобразования, объединенные в один блок.Other variants of the video decoder 30 may be used to decode the encoded image data 21. For example, the decoder 30 may generate an output video stream without the loop filter block 320 . For example, the non-transform-based decoder 30 can perform the inverse transform of the residual signal quantization directly without the inverse transform processing unit 312 for certain blocks or frames. In another implementation, video decoder 30 may have an inverse quantizer 310 and an inverse transform processor 312 combined into one block.

Следует понимать, что в кодере 20 и декодере 30 результат обработки текущего этапа может быть дополнительно обработан и затем выведен на следующий этап. Например, после интерполяционной фильтрации, вывода вектора движения или контурной фильтрации может выполняться дополнительная операция, такая как ограничение или сдвиг, над результатом обработки интерполяционной фильтрации, вывода вектора движения или контурной фильтрации.It should be understood that in encoder 20 and decoder 30, the processing result of the current step may be further processed and then output to the next step. For example, after the interpolation filtering, motion vector output, or loop filtering, an additional operation such as clipping or shifting may be performed on the result of the interpolation filtering, motion vector output, or loop filtering processing.

Следует отметить, что к полученным векторам движения текущего блока (включающие в себя, но не ограничивающие, векторы движения точки управления аффинного режима, векторы движения субблока аффинного, планарного, ATMVP режимов, временные векторы движения и т.п.) могут быть применены дополнительные операции. Например, значение вектора движения ограничивается заданным диапазоном в соответствии с его представляющим битом. Если представляющий бит вектора движения является bitDepth, то диапазон составляет -2 ^ (bitDepth-1) ~ 2 ^ (bitDepth-1) -1, в котором «^» означает возведение в степень. Например, если bitDepth установлен равный 16, то диапазон составляет -32768 ~ 32767; если bitDepth установлен равным 18, то диапазон составляет -131072 ~ 131071. Например, значение полученного вектора движения (например, MVs четырех 4x4 субблоков в пределах одного 8x8 блока) ограничено таким образом, что максимальная разница между целыми частями четырех 4х4 субблока MVs не превышает N пикселей, например, не более 1 пикселя. It should be noted that additional operations can be applied to the received motion vectors of the current block (including, but not limited to, affine mode control point motion vectors, sub-block motion vectors of affine, planar, ATMVP modes, temporal motion vectors, etc.). . For example, the motion vector value is limited to a given range according to its representing bit. If the representing bit of the motion vector is bitDepth, then the range is -2^(bitDepth-1)~2^(bitDepth-1)-1, in which "^" means exponentiation. For example, if bitDepth is set to 16, then the range is -32768 ~ 32767; if bitDepth is set to 18, then the range is -131072 ~ 131071. For example, the value of the received motion vector (for example, MVs of four 4x4 subblocks within one 8x8 block) is limited such that the maximum difference between the integer parts of four 4x4 subblock MVs does not exceed N pixels, for example, no more than 1 pixel.

Настоящее изобретение предлагает два способа для ограничения вектора движения в соответствии с bitDepth.The present invention provides two methods for limiting a motion vector according to bitDepth.

Способ 1: удалить переполнение MSB (наиболее значимый бит) посредством операций истеченияMethod 1: Remove MSB (Most Significant Bit) Overflow Through Expiration Operations

ux = (mvx + 2bitDepth)% 2 bitDepth … (1)ux = (mvx + 2 bitDepth )% 2 bitDepth … (1)

mvx = (ux> = 2 bitDepth -1)? (ux - 2 bitDepth): ux … (2)mvx = (ux >= 2 bitDepth -1 )? (ux - 2 bitDepth ): ux ... (2)

uy = (mvy + 2 bitDepth)% 2bitDepth … (30)uy = (mvy + 2 bitDepth )% 2 bitDepth … (30)

mvy = (uy> = 2 bitDepth -1)? (uy - 2 bitDepth): uy … (4)mvy = (uy >= 2 bitDepth -1 )? (uy - 2 bitDepth ): uy … (4)

в котором mvx является горизонтальным компонентом вектора движения блока изображения или субблока, mvy является вертикальным компонентом вектора движения блока изображения или субблока и ux и uy указывают на промежуточное значение;in which mvx is the horizontal component of the motion vector of the image block or sub-block, mvy is the vertical component of the motion vector of the image block or sub-block, and ux and uy indicate an intermediate value;

Например, если значение mvx составляет -32769, после применения формулы (1) и (2), полученное значение составляет 32767. В компьютерной системе десятичные числа хранятся в виде двоичной компоненты. Двоичная компонента -32769 составляет 1, 0111,1111,1111,1111 (17 битов) и MSB отбрасывается, поэтому полученная двоичная компонента равна 0111,1111,1111,1111 (десятичное число 32767), что является таким же, как выходное значение после применения формулы (1) и (2).For example, if the mvx value is -32769, after formula (1) and (2) is applied, the resulting value is 32767. In a computer system, decimal numbers are stored as a binary component. The binary component of -32769 is 1.0111.1111.1111.1111 (17 bits) and the MSB is discarded, so the resulting binary component is 0111.1111.1111.1111 (decimal 32767), which is the same as the output value after applying formulas (1) and (2).

ux = (mvpx + mvdx + 2bitDepth)% 2bitDepth … (5)ux = (mvpx + mvdx + 2 bitDepth )% 2 bitDepth ... (5)

mvx = (ux> = 2bitDepth -1)? (ux - 2bitDepth): ux … (6)mvx = (ux >= 2 bitDepth -1 )? (ux - 2 bitDepth ): ux ... (6)

uy = (mvpy + mvdy + 2bitDepth)% 2bitDepth … (7)uy = (mvpy + mvdy + 2 bitDepth )% 2 bitDepth ... (7)

mvy = (uy> = 2bitDepth -1)? (uy - 2bitDepth): uy …. (8)mvy = (uy >= 2 bitDepth -1 )? (uy - 2 bitDepth ): uy …. (8)

Операции могут быть применены во время суммирования mvp и mvp, как показано в формуле (5) до (8).Operations can be applied during summation of mvp and mvp as shown in formula (5) to (8).

Способ 2: удалить переполнение MSB посредством ограничения значенияMethod 2: Remove MSB overflow via value constraint

vx = Clip3(-2bitDepth-1, 2bitDepth-1 -1, vx)vx = Clip3(-2 bitDepth-1 , 2 bitDepth-1 -1, vx)

vy = Clip3(-2bitDepth-1, 2bitDepth-1 -1, vy)vy = Clip3(-2 bitDepth-1 , 2 bitDepth-1 -1, vy)

в котором vx является горизонтальным компонентом вектора движения блока изображения или субблока, vy является вертикальным компонентом вектора движения блока изображения или субблока; x, y и z соответствуют трем входным значениям процесса ограничения MV и определение функции Clip3 является следующим:in which vx is the horizontal component of the motion vector of the image block or sub-block, vy is the vertical component of the motion vector of the image block or sub-block; x, y and z correspond to the three input values of the MV clipping process and the Clip3 function definition is as follows:

Clip3( x, y, z ) =

Figure 00000011
Clip3(x, y, z) =
Figure 00000011

Фиг. 4 является схемой устройства 400 кодирования видео согласно варианту осуществления настоящего раскрытия. Устройство 400 кодирования видео подходит для реализации раскрытых вариантов осуществления, как описано в данном документе. В варианте осуществления устройство 400 кодирования видео может быть декодером, таким как видеодекодер 30 по фиг. 1A или кодер, такой как видеокодер 20 по фиг. 1А. Fig. 4 is a diagram of a video encoding apparatus 400 according to an embodiment of the present disclosure. The video encoding device 400 is suitable for implementing the disclosed embodiments as described herein. In an embodiment, video encoding device 400 may be a decoder, such as video decoder 30 of FIG. 1A or an encoder such as video encoder 20 of FIG. 1A.

Устройство 400 кодирования видео содержит входные порты 410 и блоки 420 приемника (Rx) для приема данных; процессор, логический блок или центральный процессор (CPU) 430 для обработки данных; блоки 440 передатчика (Tx) и выходные порты 450 для передачи данных; и память 460 для хранения данных. Устройство 400 кодирования видео может также содержать оптико-электрические (OE) компоненты и электрические-оптические (EO) компоненты, подключенные к входным портам 410, блокам 420 приемника, блокам 440 передатчика и выходным портам 450 для вывода или ввода оптических или электрических сигналов.The video encoding device 400 includes input ports 410 and receiver (Rx) units 420 for receiving data; a processor, logical unit, or central processing unit (CPU) 430 for processing data; transmitter (Tx) blocks 440 and data output ports 450; and a memory 460 for storing data. The video encoder 400 may also include optical-electrical (OE) components and electrical-optical (EO) components connected to input ports 410, receiver units 420, transmitter units 440, and output ports 450 for outputting or inputting optical or electrical signals.

Процессор 430 реализован аппаратным обеспечением и программным обеспечением. Процессор 430 может быть реализован как одна или более микросхем CPU, ядер (например, как многоядерный процессор), FPGAs, ASICs и DSPs. Процессор 430 связан с входными портами 410, блоками 420 приемника, блоками 440 передатчика, выходными портами 450 и памятью 460. Процессор 430 содержит модуль 470 кодирования. Модуль 470 кодирования реализует раскрытые варианты осуществления, описанные выше. Например, модуль 470 кодирования реализует, обрабатывает, подготавливает или предоставляет различные операции кодирования. Таким образом, использование модуля 470 кодирования обеспечивает существенное улучшение функциональных возможностей устройства 400 кодирования видео и обеспечивает преобразование устройства 400 кодирования видео в другое состояние. В качестве альтернативы модуль 470 кодирования реализован как инструкции, хранящиеся в памяти 460 и выполняемые процессором 430.Processor 430 is implemented in hardware and software. Processor 430 may be implemented as one or more CPU chips, cores (eg, as a multi-core processor), FPGAs, ASICs, and DSPs. Processor 430 is connected to input ports 410, receiver units 420, transmitter units 440, output ports 450, and memory 460. Processor 430 includes an encoder 470. Encoding module 470 implements the disclosed embodiments described above. For example, encoding module 470 implements, processes, prepares, or provides various encoding operations. Thus, the use of the encoding module 470 provides a significant improvement in the functionality of the video encoding device 400 and causes the video encoding device 400 to be converted to another state. Alternatively, encoding module 470 is implemented as instructions stored in memory 460 and executed by processor 430.

Память 460 содержит один или более дисков, ленточных накопителей и твердотельных накопителей и может использоваться в качестве устройства хранения данных с переполнением, для хранения программ, когда такие программы выбраны для выполнения, и для хранения инструкций и данных, которые считываются во время выполнения программы. Память 460 может быть энергозависимой и/или энергонезависимой и может представлять собой постоянную память (ROM), оперативную память (RAM), троичную память с адресацией по содержимому (TCAM) и/или статическую память с произвольным доступом (SRAM).The memory 460 contains one or more disks, tape drives, and solid state drives and can be used as an overflow storage device, for storing programs when such programs are selected for execution, and for storing instructions and data that are read during program execution. Memory 460 may be volatile and/or non-volatile and may be read only memory (ROM), random access memory (RAM), ternary content addressable memory (TCAM), and/or static random access memory (SRAM).

Фиг. 5 является упрощенной блок-схемой устройства 500, которое может использоваться как одно или оба устройство 12 источника и устройство 14 назначения по фиг. 1 согласно примерному варианту осуществления. Fig. 5 is a simplified block diagram of a device 500 that can be used as either or both source device 12 and destination device 14 of FIG. 1 according to an exemplary embodiment.

Процессор 502 в устройстве 500 может быть центральным процессором. В качестве альтернативы процессор 502 может быть устройством любого другого типа или множеством устройств, способных манипулировать или обрабатывать информацию, существующую в настоящее время или разработанную в будущем. Хотя раскрытые реализации могут быть реализованы с одним процессором, как показано, например, с процессором 502, преимущества в скорости и эффективности могут быть достигнуты с использованием более чем одного процессора.Processor 502 in device 500 may be a central processing unit. Alternatively, processor 502 may be any other type of device or a plurality of devices capable of manipulating or processing information that currently exists or will be developed in the future. Although the disclosed implementations may be implemented with a single processor, as shown with processor 502, for example, speed and efficiency advantages may be achieved using more than one processor.

В реализации память 504 в устройстве 500 может быть постоянным запоминающим устройством (ROM) или устройством оперативной памяти (RAM). В качестве памяти 504 может использоваться любой другой подходящий тип запоминающего устройства. Память 504 может включать в себя код и данные 506, к которым обращается процессор 502 с использованием шины 512. Память 504 может дополнительно содержать в себя операционную систему 508 и прикладные программы 510, прикладные программы 510 включают в себя, по меньшей мере, одну программу, которая позволяет процессору 502 выполнять описанные в настоящем документе способы. Например, прикладные программы 510 могут содержать в себя приложения с 1 по N, которые дополнительно включают в себя приложение кодирования видео, которое выполняет описанные здесь способы. In an implementation, memory 504 in device 500 may be read only memory (ROM) or random access memory (RAM). The memory 504 may be any other suitable type of storage device. Memory 504 may include code and data 506 accessed by processor 502 using bus 512. Memory 504 may further include an operating system 508 and application programs 510, application programs 510 include at least one program, which allows the processor 502 to perform the methods described herein. For example, application programs 510 may include applications 1 through N, which further include a video encoding application that performs the methods described herein.

Устройство 500 также может включать в себя одно или более устройств вывода, таких как дисплей 518. Дисплей 518 может быть, в одном примере, сенсорным дисплеем, который объединяет дисплей с сенсорным элементом, способным распознавать сенсорные вводы. Дисплей 518 может быть подключен к процессору 502 через шину 512.The device 500 may also include one or more output devices such as a display 518. The display 518 may be, in one example, a touch display that combines a display with a touch element capable of recognizing touch inputs. Display 518 may be connected to processor 502 via bus 512.

Хотя изображена как одна шина, шина 512 устройства 500 может состоять из нескольких шин. Кроме того, вторичное хранилище 514 может быть напрямую связано с другими компонентами устройства 500 или может быть доступно через сеть и может содержать один интегрированный блок, такой как карта памяти, или более блоков, например, несколько карт памяти. Таким образом, устройство 500 может быть реализовано в широком разнообразии конфигураций.Although depicted as a single bus, bus 512 of device 500 may be comprised of multiple buses. In addition, secondary storage 514 may be directly connected to other components of the device 500 or may be accessed via a network and may contain one integrated unit, such as a memory card, or more units, such as multiple memory cards. Thus, device 500 can be implemented in a wide variety of configurations.

Фиг. 6 иллюстрирует схему множества режимов внутреннего предсказания, используемых в UIP HEVC схеме. Для блоков яркости режимы внутреннего предсказания могут содержать до 36 режимов внутреннего предсказания, что может включать в себя три ненаправленных режима и 33 направленных режима. Ненаправленные режимы могут содержать режим по среднему предсказания (DC) и режим предсказания цветности из (LM) режима предсказания яркости. Планарный режим предсказания может выполнять предсказание, предполагая, что поверхность амплитуды блока с горизонтальной и вертикальной составляющей наклонена от границы блока. DC режим предсказания может выполнять предсказание, предполагая плоскую поверхность блока со значением, соответствующим среднему значению границы блока. Режим предсказания LM может выполнять предсказание, при условии, что значение цветности для блока совпадает с значением яркости для блока.Fig. 6 illustrates a design of a plurality of intra prediction modes used in the UIP HEVC design. For luma blocks, the intra prediction modes may contain up to 36 intra prediction modes, which may include three non-directional modes and 33 directional modes. The non-directional modes may comprise a mean prediction mode (DC) and a chrominance prediction mode from (LM) a luminance prediction mode. The planar prediction mode can perform prediction by assuming that the amplitude surface of the block with horizontal and vertical components is sloped from the block boundary. The DC prediction mode can perform prediction by assuming a flat block surface with a value corresponding to the average value of the block boundary. The LM prediction mode can perform prediction as long as the chrominance value for the block matches the luma value for the block.

На фиг. 7 показан пример 67 режимов внутреннего предсказания, например, как, предложенные для VVC, множество режимов внутреннего предсказания из 67 режимов внутреннего предсказания, содержат: планарный режим (индекс 0), dc режим (индекс 1) и угловые режимы с индексами 2-66, в котором левый нижний угловой режим на фиг. 7 относится к индексу 2, и нумерация индексов увеличивается до того, как индекс 66 не будет равным верхнему правому угловому режиму на фиг. 7.In FIG. 7 shows an example of 67 intra prediction modes, for example, as proposed for VVC, a plurality of intra prediction modes of 67 intra prediction modes include: planar mode (index 0), dc mode (index 1), and angular modes with indices 2-66, in which the lower left corner mode in FIG. 7 refers to index 2 and the index numbering is incremented until index 66 is equal to the upper right corner mode in FIG. 7.

Как показано на фиг. 8, начиная со второй версии VVC, используют несколько режимов, соответствующие наклонным направлениям внутреннего предсказания, включающие в себя широкоугольные (показанные как пунктирные линии). Для любого из этих режимов следует выполнять предсказания выборок в блочной интерполяции набора соседних опорных выборок, если соответствующее положение на стороне блока является дробным. HEVC и VVC используют линейную интерполяцию между двумя соседними опорными выборками. JEM использует более сложные 4-выводные интерполяционные фильтры. Коэффициенты фильтра выбираются как гауссовые, либо кубические в зависимости от ширины или значения высоты. Решение о том, следует ли использовать ширину или высоту, согласуется с решением о выборе главной опорной стороны: когда режим внутреннего предсказания больше или равен диагональному режиму, то выбирается верхняя сторона опорных выборок в качестве главной опорной стороны и значение ширины выбирается для определения использования интерполяционного фильтра. В противном случае основная опорная сторона выбирается с левой стороны блока и высота, управляет процессом выбора фильтра. В частности, если выбранная длина боковой стороны меньше или равна 8 выборкам, применяется 4-отводная кубическая интерполяция. В противном случае интерполяционный фильтр является 4-отводным гауссовским.As shown in FIG. 8, since the second version of VVC, several modes are used corresponding to the oblique directions of intra prediction, including wide-angle (shown as dotted lines). For any of these modes, sample predictions in block interpolation of a set of adjacent reference samples should be performed if the corresponding position on the side of the block is fractional. HEVC and VVC use linear interpolation between two adjacent reference samples. JEM uses more complex 4-pin interpolation filters. The filter coefficients are selected as either Gaussian or Cubic depending on the width or height value. The decision whether to use the width or height is consistent with the decision to select the main reference side: when the intra prediction mode is greater than or equal to the diagonal mode, then the top side of the reference samples is selected as the main reference side, and the width value is selected to determine the use of the interpolation filter . Otherwise, the base seat is selected from the left side of the block and the height controls the filter selection process. In particular, if the selected side length is less than or equal to 8 samples, 4-tap cubic interpolation is applied. Otherwise, the interpolation filter is a 4-tap Gaussian.

Подобно внешнему предсказанию, внутреннее предсказание может потребовать интерполяционной фильтрации, когда выборки внутри блока предсказаны согласно режиму дробного наклона. Если для этой цели используется линейный фильтр, коэффициенты фильтра могут быть легко рассчитаны, если предсказуемая выборка в блоке находится на дробной (субпиксельной) позиции в отношении опорных выборок. Таким образом, линейный фильтр не требует LUT (таблица поиска) для хранения его коэффициента. Тем не менее, его можно использовать, а непосредственно вычислять. Тем не менее, если модуль предсказания использует многоотводные (например, 4- или 8-отводные) интерполяционные фильтры, то может потребоваться LUT для сохранения коэффициента интерполяционных фильтров, так это реализуется в модуле внешнего предсказания, где в таблице храниться 8-выводной DCT-IF для яркости 4-отводной DCT-IF для цветности, как показано в таблице 1 и таблице 2, соответственно.Like inter prediction, intra prediction may require interpolation filtering when intra-block samples are predicted according to the fractional slope mode. If a linear filter is used for this purpose, the filter coefficients can be easily calculated if the predicted sample in the block is in a fractional (subpixel) position with respect to the reference samples. Thus, a linear filter does not require a LUT (lookup table) to store its coefficient. However, it can be used and directly computed. However, if the prediction module uses multi-tap (e.g. 4-tap or 8-tap) interpolation filters, then a LUT may be required to store the coefficient of the interpolation filters, as this is implemented in the inter-prediction module, where the 8-tap DCT-IF is stored in the table for luminance 4-tap DCT-IF for chrominance, as shown in Table 1 and Table 2, respectively.

Таблица 1. Спецификация коэффициентов fL[p] интерполяционного фильтра внешнего предсказания яркости для каждой 1/16 позиции р дробной выборки.Table 1. Specification of coefficients f L [p] of interpolation luma prediction filter for each 1/16 position p of the fractional sample.

Позиции р дробной выборкиPositions p fractional sample Коэффициенты интерполяционного фильтраInterpolation filter coefficients fL[p][0] fL [p][0] fL[p][1] fL [p][1] fL[p][2] fL [p][2] fL[p][3] fL [p][3] fL[p][4] fL [p][4] fL[p][5] fL [p][5] fL[p][6] fL [p][6] fL[p][7] fL [p][7] 11 00 11 −3−3 6363 4four −2−2 11 00 22 −1−1 22 −5−5 6262 88 −3−3 11 00 33 −1−1 33 −8−8 6060 1313 −4−4 11 00 4four −1−1 4four −10−10 5858 1717 −5−5 11 00 5five −1−1 4four −11−11 5252 2626 −8−8 33 −1−1 66 −1−1 33 −9−9 4747 3131 −10−10 4four −1−1 77 −1−1 4four −11−11 4545 3434 −10−10 4four −1−1 88 −1−1 4four −11−11 4040 4040 −11−11 4four −1−1 9nine −1−1 4four −10−10 3434 4545 −11−11 4four −1−1 1010 −1−1 4four −10−10 3131 4747 −9−9 33 −1−1 11eleven −1−1 33 −8−8 2626 5252 −11−11 4four −1−1 1212 00 11 −5−5 1717 5858 −10−10 4four −1−1 1313 00 11 −4−4 1313 6060 −8−8 33 −1−1 14fourteen 00 11 −3−3 88 6262 −5−5 22 −1−1 1515 00 11 −2−2 4four 6363 −3−3 11 00

Таблица 2. Спецификация коэффициентов fC[p] интерполяционного фильтра внешнего предсказания цветности для каждой 1/32 позиции р дробной выборки.Table 2 Specification of interpolation chroma prediction interpolation filter coefficients f C [p] for each 1/32 position p of the fractional sample.

Позиции р дробной выборкиPositions p fractional sample Коэффициенты интерполяционного фильтраInterpolation filter coefficients fC[ p ][ 0 ]f C [ p ][ 0 ] fC[ p ][ 1 ]f C [ p ][ 1 ] fC[ p ][ 2 ]f C [ p ][ 2 ] fC[ p ][ 3 ]f C [ p ][ 3 ] 11 −1−1 6363 22 00 22 −2−2 6262 4four 00 33 -2-2 6060 77 −1−1 4four −2−2 5858 1010 −2−2 5five −3−3 5757 1212 −2−2 66 −4−4 5656 14fourteen −2−2 77 −4−4 5555 1515 −2−2 88 −4−4 5454 16sixteen −2−2 9nine −5−5 5353 18eighteen −2−2 1010 −6−6 5252 2020 −2−2 11eleven −6−6 4949 2424 −3−3 1212 −6−6 4646 2828 −4−4 1313 −5−5 4444 2929 −4−4 14fourteen −4−4 4242 30thirty −4−4 1515 −4−4 3939 3333 −4−4 16sixteen −4−4 3636 3636 −4−4 1717 −4−4 3333 3939 −4−4 18eighteen −4−4 30thirty 4242 −4−4 19nineteen −4−4 2929 4444 −5−5 2020 −4−4 2828 4646 −6−6 2121 −3−3 2424 4949 −6−6 2222 −2−2 2020 5252 −6−6 2323 −2−2 18eighteen 5353 −5−5 2424 −2−2 16sixteen 5454 −4−4 2525 −2−2 1515 5555 −4−4 2626 −2−2 14fourteen 5656 −4−4 2727 −2−2 1212 5757 −3−3 2828 −2−2 1010 5858 −2−2 2929 −1−1 77 6060 −2−2 30thirty 00 4four 6262 −2−2 3131 00 22 6363 −1−1

Может быть определен конкретный набор коэффициентов, как показано в таблице 3.A specific set of coefficients can be defined, as shown in Table 3.

Таблица 3. Спецификация коэффициентов fC и fG интерполяции внутреннего предсказания, как описано в спецификации VVC версии 3.Table 3 Specification of the intra prediction interpolation coefficients fC and fG as described in the VVC version 3 specification.

Позиции р дробной выборкиPositions p fractional sample Коэффициенты fC интерполяционного фильтраInterpolation filter coefficients fC Коэффициенты fG интерполяционного фильтраInterpolation filter coefficients fG fC[p][0]f C [p][0] fC[p][1]f C [p][1] fC[p][2]f C [p][2] fC[p][3]f C [p][3] fG[p][0]fG[p][0] fG[p][1]fG[p][1] fG[p][2]fG[p][2] fG[p][3]fG[p][3] 00 00 6464 00 00 16sixteen 3232 16sixteen 00 11 −1−1 6363 22 00 1515 2929 1717 33 22 −2−2 6262 4four 00 1515 2929 1717 33 33 −2−2 6060 77 −1−1 14fourteen 2929 18eighteen 33 4four −2−2 5858 1010 −2−2 1313 2929 18eighteen 4four 5five −3−3 5757 1212 −2−2 1313 2828 19nineteen 4four 66 −4−4 5656 14fourteen −2−2 1313 2828 19nineteen 4four 77 −4−4 5555 1515 −2−2 1212 2828 2020 4four 88 −4−4 5454 16sixteen −2−2 11eleven 2828 2020 5five 9nine −5−5 5353 18eighteen −2−2 11eleven 2727 2121 5five 1010 −6−6 5252 2020 −2−2 1010 2727 2222 5five 11eleven −6−6 4949 2424 −3−3 9nine 2727 2222 66 1212 −6−6 4646 2828 −4−4 9nine 2626 2323 66 1313 −5−5 4444 2929 −4−4 9nine 2626 2323 66 14fourteen −4−4 4242 30thirty −4−4 88 2525 2424 77 1515 −4−4 3939 3333 −4−4 88 2525 2424 77 16sixteen −4−4 3636 3636 −4−4 88 2424 2424 88 1717 −4−4 3333 3939 −4−4 77 2424 2525 88 18eighteen −4−4 30thirty 4242 −4−4 77 2424 2525 88 19nineteen −4−4 2929 4444 −5−5 66 2323 2626 9nine 2020 −4−4 2828 4646 −6−6 66 2323 2626 9nine 2121 −3−3 2424 4949 −6−6 66 2222 2727 9nine 2222 −2−2 2020 5252 −6−6 5five 2222 2727 1010 2323 −2−2 18eighteen 5353 −5−5 5five 2121 2727 11eleven 2424 −2−2 16sixteen 5454 −4−4 5five 2020 2828 11eleven 2525 −2−2 1515 5555 −4−4 4four 2020 2828 1212 2626 −2−2 14fourteen 5656 −4−4 4four 19nineteen 2828 1313 2727 −2−2 1212 5757 −3−3 4four 19nineteen 2828 1313 2828 −2−2 1010 5858 −2−2 4four 18eighteen 2929 1313 2929 −1−1 77 6060 −2−2 33 18eighteen 2929 14fourteen 30thirty 00 4four 6262 −2−2 33 1717 2929 1515 3131 00 22 6363 −1−1 33 1717 2929 1515

Вычисляется выборка с внутренним предсказанием путем свертывания с коэффициентами, определенными в соответствии со смещением субпикселя и типом фильтра следующим образом:An intra-predictive convolution sample is computed with coefficients determined according to the sub-pixel offset and filter type as follows:

Figure 00000012
Figure 00000012

В этом уравнении

Figure 00000013
указывает побитовую операцию сдвига вправо.In this equation
Figure 00000013
specifies a bitwise right shift operation.

Набор коэффициентов

Figure 00000014
извлечен из таблицы поиска (LUT). В таблице 3 приведен пример значений, хранящихся в соответствии с текущей структурой VVC, описанной в проекте спецификации версии 3 (DJVET-L1001 «Универсальное кодирование видео (проект 3)». Осуществляется выбор между сглаживающим (fG), повышения резкости (fG) и интерполяционными фильтрами с использованием условий MDIS (зависимый от режима внутреннего сглаживания). Таким образом, fC или fG могут использоваться для генерирования предсказанных выборок блока.Set of coefficients
Figure 00000014
retrieved from a lookup table (LUT). Table 3 shows an example of the values stored according to the current VVC structure described in the Draft Specification Version 3 (DJVET-L1001 Universal Video Coding (Draft 3)). filters using MDIS (internal smoothing mode dependent) conditions.Thus, fC or fG can be used to generate predicted block samples.

Если выбран фильтр повышения резкости, предсказанная выборка

Figure 00000015
дополнительно обрезается до допустимого диапазона значений, который либо определяется с использованием SPS, или получен из битой глубины выбранного компонента.If a sharpening filter is selected, the predicted sample
Figure 00000015
optionally clipped to a valid range of values, which is either determined using SPS or derived from the bit depth of the selected component.

Для некоторых случаев использования можно выгодно избежать сохранения явных LUTs для интерполяционных фильтров, поскольку обработка LUT требует дополнительной памяти и, таким образом, повышает потребление энергии, а также размер кристалла. 1-й аспект имеет решающее значение для мобильных приложений. 2-й аспект неблагоприятно влияет на цену.For some use cases, saving explicit LUTs for interpolation filters can be advantageously avoided because LUT processing requires additional memory and thus increases power consumption as well as chip size. The 1st aspect is critical for mobile applications. The 2nd aspect adversely affects the price.

Для упомянутых случаев использования разумно аналитически определить коэффициенты интерполяционных фильтров. Вместо того, чтобы выполнять извлечение из LUT, коэффициенты фильтра могут быть рассчитаны от входной позиции р дробной выборки.For the mentioned use cases, it is reasonable to analytically determine the interpolation filter coefficients. Instead of extracting from the LUT, the filter coefficients can be calculated from the input position p of the fractional sample.

Согласно варианту осуществления настоящего раскрытия, предложен способ внутреннего или внешнего предсказания обработки видеокадров, содержащий этапы: получение опорной выборки; получение значения смещения субпикселя; и фильтрация, используя 4-отводной интерполяционный фильтр субпикселя, опорной выборки для получения предсказанного значения выборки, в котором коэффициенты фильтра 4-отводного интерполяционного фильтра субпикселя удовлетворяют:According to an embodiment of the present disclosure, a method for intra or inter prediction of video frame processing is provided, comprising the steps of: obtaining a reference sample; obtaining a sub-pixel offset value; and filtering, using the 4-tap sub-pixel interpolation filter, the reference sample to obtain a predicted sample value in which the filter coefficients of the 4-tap sub-pixel interpolation filter satisfy:

Figure 00000001
Figure 00000001

В котором р является дробной частью значения смещения субпикселя и

Figure 00000002
,
Figure 00000003
,
Figure 00000004
, и
Figure 00000005
являются коэффициентами фильтра 4-отводного интерполяционного фильтра субпикселя.Wherein p is the fractional part of the sub-pixel offset value and
Figure 00000002
,
Figure 00000003
,
Figure 00000004
, and
Figure 00000005
are the filter coefficients of the 4-tap sub-pixel interpolation filter.

В одной примерной реализации опорные выборки могут обозначаться ref[ x ], с In one exemplary implementation, reference samples may be denoted ref[ x ], with

ref[ x ] = p[ −1 − refIdx + x ][ −1 − refIdx ], with x = 0..nTbW + refIdx + 1.ref[ x ] = p[ −1 − refIdx + x ][ −1 − refIdx ], with x = 0..nTbW + refIdx + 1.

Соответствующий массив опорных выборок и «р» относится к x-y двумерным массивам p[ x ][ y ], содержащий значения выборки. Количество используемых опорных выборок может быть, по меньшей мере, один. В другом примере количество опорных выборок может быть четыре.The corresponding array of reference samples and "p" refers to x-y two-dimensional arrays p[ x ][ y ] containing sample values. The number of reference samples used may be at least one. In another example, the number of reference samples may be four.

В одной примерной реализации полученное значение смещения субпикселя может обозначатьсяIn one exemplary implementation, the resulting sub-pixel offset value may be denoted

(y + 1 + refIdx ) * intraPredAngle(y + 1 + refIdx ) * intraPredAngle

где «IntraРredAngle» является значением угла внутреннего предсказания.where "IntraPredAngle" is an intra prediction angle value.

В одной примерной реализации предсказанное значение выборки «predSamples[ x ][ y ]» может быть получено с помощьюIn one exemplary implementation, the predicted sample value "predSamples[ x ][ y ]" can be obtained using

predSamples[ x ][ y ] = Clip1( ( (

Figure 00000006
) + 32 ) >> 6 )predSamples[ x ][ y ] = Clip1( ( (
Figure 00000006
) + 32 ) >> 6 )

где fT[ i ] обозначает коэффициенты фильтрации. Эти коэффициенты могут представлять собой коэффициенты фильтра яркости или цветности для внешнего предсказания, относящиеся к fG и fC соответственно.where fT[ i ] denotes the filter coefficients. These coefficients may be inter prediction luminance or chrominance filter coefficients related to fG and fC, respectively.

Выбор коэффициентов фильтра, являющихся цветности или яркости, может быть реализован путем использования и установки флага «filterFlag», например, какThe choice of filter coefficients being chrominance or luma can be implemented by using and setting the "filterFlag" flag, for example, as

fT[ j ] = filterFlag ? fG[ iFact ][ j ] : fC[ iFact ][ j ]fT[ j ] = filterFlag ? fG[ iFact ][ j ] : fC[ iFact ][ j ]

с With

iFact = ( ( y + 1 + refIdx ) * intraPredAngle ) & 31.iFact = ( ( y + 1 + refIdx ) * intraPredAngle ) & 31.

Значение «31» относится к дробной части значения смещения субпикселя и может принять другие значения, отличные от «31». Значения коэффициентов фильтра fG (яркости) и/или fC (цветности), получают аналитически по ходу выполнения с использованием вышеуказанного аналитического выражения для коэффициентов фильтра 4-отводного фильтра. Таким образом, коэффициенты фильтра определяются в соответствии со значением смещения субпикселя.The value "31" refers to the fractional part of the sub-pixel offset value and can take other values than "31". Filter coefficient values fG (luminance) and/or fC (chrominance) are obtained analytically at runtime using the above analytical expression for the 4-tap filter coefficients. Thus, the filter coefficients are determined according to the sub-pixel offset value.

Следовательно, коэффициенты фильтра получают без доступа к соответствующим значениям коэффициентов фильтра из LUT, а скорее получают путем расчета.Therefore, the filter coefficients are obtained without access to the corresponding filter coefficient values from the LUT, but rather are obtained by calculation.

Альтернативно, коэффициенты фильтра могут быть рассчитаны с использованием приведенные выше уравнения и значения могут храниться в LUT.Alternatively, the filter coefficients can be calculated using the equations above and the values can be stored in the LUT.

Согласно варианту осуществления настоящего раскрытия, коэффициенты фильтра 4-отводного интерполяционного фильтра субпикселя определены в таблице следующим образом:According to an embodiment of the present disclosure, the filter coefficients of the 4-tap sub-pixel interpolation filter are defined in the table as follows:

pp

Figure 00000002
Figure 00000002
Figure 00000003
Figure 00000003
Figure 00000004
Figure 00000004
Figure 00000005
Figure 00000005
00 16sixteen 3232 16sixteen 00 11 16sixteen 3232 16sixteen 00 22 1515 3131 1717 11 33 1515 3131 1717 11 4four 14fourteen 30thirty 18eighteen 22 5five 14fourteen 30thirty 18eighteen 22 66 1313 2929 19nineteen 33 77 1313 2929 19nineteen 33 88 1212 2828 2020 4four 9nine 1212 2828 2020 4four 1010 11eleven 2727 2121 5five 11eleven 11eleven 2727 2121 5five 1212 1010 2626 2222 66 1313 1010 2626 2222 66 14fourteen 9nine 2525 2323 77 1515 9nine 2525 2323 77 16sixteen 88 2424 2424 88 1717 88 2424 2424 88 18eighteen 77 2323 2525 9nine 19nineteen 77 2323 2525 9nine 2020 66 2222 2626 1010 2121 66 2222 2626 1010 2222 5five 2121 2727 11eleven 2323 5five 2121 2727 11eleven 2424 4four 2020 2828 1212 2525 4four 2020 2828 1212 2626 33 19nineteen 2929 1313 2727 33 19nineteen 2929 1313 2828 22 18eighteen 30thirty 14fourteen 2929 22 18eighteen 30thirty 14fourteen 30thirty 11 1717 3131 1515 3131 11 1717 3131 1515

Согласно аспекту настоящего раскрытия предложен способ внутреннего или внешнего предсказания обработки видеокадров, содержащий этапы: получение опорной выборки; получение значения смещения субпикселя; и фильтрация с использованием 4-отводного интерполяционного фильтра субпикселя, опорной выборки для получения предсказанного значения выборки, в котором коэффициенты фильтра 4-отводного интерполяционного фильтра субпикселя определяются следующим образом:According to an aspect of the present disclosure, a method for intra or inter prediction of video frame processing is provided, comprising the steps of: obtaining a reference sample; obtaining a sub-pixel offset value; and filtering using a 4-tap sub-pixel interpolation filter, a reference sample to obtain a predicted sample value, in which the filter coefficients of the 4-tap sub-pixel interpolation filter are determined as follows:

pp

Figure 00000002
Figure 00000002
Figure 00000003
Figure 00000003
Figure 00000004
Figure 00000004
Figure 00000005
Figure 00000005
00 16sixteen 3232 16sixteen 00 11 16sixteen 3232 16sixteen 00 22 1515 3131 1717 11 33 1515 3131 1717 11 4four 14fourteen 30thirty 18eighteen 22 5five 14fourteen 30thirty 18eighteen 22 66 1313 2929 19nineteen 33 77 1313 2929 19nineteen 33 88 1212 2828 2020 4four 9nine 1212 2828 2020 4four 1010 11eleven 2727 2121 5five 11eleven 11eleven 2727 2121 5five 1212 1010 2626 2222 66 1313 1010 2626 2222 66 14fourteen 9nine 2525 2323 77 1515 9nine 2525 2323 77 16sixteen 88 2424 2424 88 1717 88 2424 2424 88 18eighteen 77 2323 2525 9nine 19nineteen 77 2323 2525 9nine 2020 66 2222 2626 1010 2121 66 2222 2626 1010 2222 5five 2121 2727 11eleven 2323 5five 2121 2727 11eleven 2424 4four 2020 2828 1212 2525 4four 2020 2828 1212 2626 33 19nineteen 2929 1313 2727 33 19nineteen 2929 1313 2828 22 18eighteen 30thirty 14fourteen 2929 22 18eighteen 30thirty 14fourteen 30thirty 11 1717 3131 1515 3131 11 1717 3131 1515

где p является дробной частью значения смещения субпикселя и

Figure 00000002
,
Figure 00000003
,
Figure 00000004
и
Figure 00000005
являются коэффициентами фильтра 4-отводного интерполяционного фильтра субпикселя.where p is the fractional part of the subpixel offset value and
Figure 00000002
,
Figure 00000003
,
Figure 00000004
and
Figure 00000005
are the filter coefficients of the 4-tap sub-pixel interpolation filter.

В одной примерной реализации значения коэффициентов фильтра могут храниться в LUT. Это означает, что для интерполяционной фильтрации субпикселей соответствующие значения коэффициентов фильтра должны быть извлечены из LUT.In one exemplary implementation, filter coefficient values may be stored in a LUT. This means that for sub-pixel interpolation filtering, the corresponding values of the filter coefficients must be extracted from the LUT.

Фиг. 23 показывает блок-схему алгоритма процесса внутреннего/внешнего предсказания. На этапе 2301 получается опорную выборку. Опорная выборка может включать в себя одну или более опорных выборок. На этапе 2302 получено значение смещения субпикселя. На этапе 2303 опорную выборку затем фильтруют с использованием интерполяционного фильтра субпикселя, имеющего коэффициенты фильтра

Figure 00000007
с i = 0, … 3. Это называется 4-отводным фильтром и/или 4-точечным фильтром.Fig. 23 shows a flowchart of an intra/inter prediction process. At step 2301, a reference sample is obtained. The reference sample may include one or more reference samples. At step 2302, a sub-pixel offset value is obtained. In step 2303, the reference sample is then filtered using a sub-pixel interpolation filter having filter coefficients
Figure 00000007
with i = 0, … 3. This is called a 4-tap filter and/or a 4-point filter.

Коэффициенты фильтра могут быть получены из аналитических выражений с заданной дробной частью р значения смещения субпикселя. Коэффициенты фильтра также могут быть получены из LUT со ссылкой на значения р.The filter coefficients can be obtained from analytical expressions with a given fractional part p of the sub-pixel offset value. The filter coefficients can also be obtained from the LUT with reference to p values.

Согласно варианту осуществления настоящего раскрытия, бит р устанавливается на ноль.According to an embodiment of the present disclosure, the p bit is set to zero.

Согласно варианту осуществления настоящего раскрытия, р увеличивается на 1 и впоследствии младший бит увеличенного р устанавливается на ноль до того, как упомянутый р используется для получения коэффициентов фильтра.According to an embodiment of the present disclosure, p is incremented by 1 and subsequently the least significant bit of the incremented p is set to zero before said p is used to derive the filter coefficients.

Согласно варианту осуществления настоящего раскрытия, получение коэффициентов фильтра содержит этап вычисления коэффициентов фильтра в соответствии сAccording to an embodiment of the present disclosure, obtaining the filter coefficients comprises the step of calculating the filter coefficients according to

Figure 00000008
Figure 00000008

Это может обеспечить преимущество вычисления коэффициента

Figure 00000009
фильтра от предшествующего коэффициента
Figure 00000010
фильтра. Это может дополнительно уменьшить время для расчета коэффициентов фильтра.This may provide the advantage of calculating the coefficient
Figure 00000009
filter from the previous coefficient
Figure 00000010
filter. This can further reduce the time to calculate the filter coefficients.

Предлагаемое изобретение позволяет использовать оба подхода для получения коэффициентов фильтра: получение из LUT и непосредственным вычислением в соответствии с предлагаемыми уравнениями.The present invention allows using both approaches to obtain the filter coefficients: obtaining from the LUT and direct calculation in accordance with the proposed equations.

Один из признаков интерполяционного фильтра состоит в линейной зависимости его фазового сдвига на позиции р дробной выборки. Варианты осуществления изобретения используют эту зависимость, чтобы получить значение коэффициента фильтра с использованием простых операций на позиции р дробной выборки.One of the signs of the interpolation filter is the linear dependence of its phase shift at the position p of the fractional sample. Embodiments of the invention use this relationship to obtain the value of the filter coefficient using simple operations on position p of the fractional sample.

Линейная зависимость используется для получения коэффициентов fG сглаживания интерполяционного фильтра. Получение коэффициентов fC повышения резкости интерполяционного фильтра основано на получении абсолютного значения линейного выражения на основе p.The linear relationship is used to obtain the smoothing coefficients fG of the interpolation filter. Deriving the sharpening coefficients fC of the interpolation filter is based on deriving the absolute value of a linear expression based on p.

Согласно варианту осуществления настоящего раскрытия, предложен способ кодирования видео, способ содержит обработку внутреннего предсказания блока видеокадра, содержащую: фильтрацию с использованием 4-отводного интерполяционного фильтра субпикселя опорной выборки видеокадра; в котором 4-отводной интерполяционный фильтр субпикселя представляет собой комбинацию фильтров, с коэффициентами фильтра, по меньшей мере, одного из фильтров, удовлетворяющий:According to an embodiment of the present disclosure, a video coding method is provided, the method comprising intra prediction processing of a video frame block, comprising: filtering using a 4-tap interpolation filter of a sub-pixel of a reference sample of a video frame; wherein the 4-tap sub-pixel interpolation filter is a combination of filters, with filter coefficients of at least one of the filters, satisfying:

Figure 00000001
Figure 00000001

где p является дробной частью значения смещения субпикселя и

Figure 00000002
,
Figure 00000003
,
Figure 00000004
и
Figure 00000005
являются коэффициентами фильтра. where p is the fractional part of the subpixel offset value and
Figure 00000002
,
Figure 00000003
,
Figure 00000004
and
Figure 00000005
are the filter coefficients.

Фиг. 24 показывает блок-схему алгоритма процесса кодирования видео. На этапе 2410 выполняется обработка внутреннего предсказания путем фильтрации опорной выборки блока с использованием 4-отводного интерполяционного фильтра субпикселя.Fig. 24 shows a flowchart of a video encoding process. In step 2410, intra prediction processing is performed by filtering the block reference sample using a 4-tap sub-pixel interpolation filter.

Согласно варианту осуществления настоящего раскрытия, 4-отводной интерполяционный фильтр субпикселя представляет собой сглаживающий фильтр, который представляет собой параллельную комбинацию двух фазозависимых линейных фильтров и фильтра низких частот.According to an embodiment of the present disclosure, the 4-tap sub-pixel interpolation filter is an anti-aliasing filter that is a parallel combination of two phase dependent linear filters and a low pass filter.

Согласно варианту осуществления настоящего раскрытия, 4-отводной интерполяционный фильтр субпикселя представляет собой фильтр повышения резкости, который представляет собой параллельную комбинацию одного фазозависимого линейного фильтра и высокочастотного фильтра с изменяющейся мощностью.According to an embodiment of the present disclosure, the 4-tap sub-pixel interpolation filter is a sharpening filter that is a parallel combination of one phase-dependent linear filter and a power-varying high-pass filter.

Согласно аспекту нынешнего изобретения, высокочастотный фильтр с изменяющейся мощностью представляет собой фазонезависимый высокочастотный фильтр с конечной импульсной характеристикой FIR, выход которого умножен на параметр фазозависимой мощности.According to an aspect of the present invention, the power-changing high-pass filter is a phase-independent finite impulse response high-pass filter FIR whose output is multiplied by a phase-dependent power parameter.

Согласно любому из предшествующих аспектов настоящего раскрытия, младший бит р устанавливается на ноль.According to any of the preceding aspects of the present disclosure, the least significant bit of p is set to zero.

Согласно аспекту настоящего раскрытия, р увеличивается на 1, и затем младший бит увеличенного значения установлен на ноль до использования этого значения для получения коэффициентов интерполяционного фильтра.According to an aspect of the present disclosure, p is incremented by 1 and then the least significant bit of the incremented value is set to zero prior to using that value to derive the interpolation filter coefficients.

Согласно аспекту настоящего раскрытия, выполняется операция отсечения для выхода высокочастотного фильтра с изменяющейся мощностью.According to an aspect of the present disclosure, a clipping operation is performed for the output of a power varying high pass filter.

Варианты осуществления изобретения выражают коэффициент фильтра как комбинация двух или более FIR (конечная импульсная характеристика) фильтров. Эта комбинация может содержать следующие варианты:Embodiments of the invention express the filter coefficient as a combination of two or more FIR (finite impulse response) filters. This combination may contain the following options:

- последовательная комбинация, то есть, свертка коэффициентов;- sequential combination, that is, convolution of coefficients;

- параллельная комбинация, то есть, взвешенная сумма коэффициентов.- a parallel combination, that is, a weighted sum of coefficients.

Каждый из этих фильтров может или не может зависеть от параметра P фазы, который является функцией позиции р дробной выборки. Коэффициенты фильтров, принадлежащих к комбинации, имеют простое представление из параметра P фазы.Each of these filters may or may not depend on the phase parameter P, which is a function of the fractional sample position p. The coefficients of the filters belonging to the combination have a simple representation from the phase parameter P.

В одном варианте осуществления на фиг. 9, используется набор опорных выборок в интерполяционном фильтре.In one embodiment, in FIG. 9, a set of reference samples is used in the interpolation filter.

В одном варианте осуществления для случая сглаживающего интерполяционного фильтра значение параметра P фазы является таким же значение позиции р дробной выборки. На фиг. 9, блоки F1 и F2 представляют линейные интерполяционные фильтры. Коэффициенты для каждого из этих фильтров выражены из параметра P фазы следующим образом:In one embodiment, for the case of a smoothing interpolation filter, the value of the phase parameter P is the same as the value of the position p of the fractional sample. In FIG. 9, blocks F1 and F2 represent linear interpolation filters. The coefficients for each of these filters are expressed from the phase parameter P as follows:

Figure 00000016
Figure 00000016

Figure 00000017
Figure 00000017

В примере, здесь и дальше, операция разделения может быть определена с округлением или без возобновления, то есть:In the example here and below, the split operation can be defined with or without rounding, i.e.:

Figure 00000018
Figure 00000018

илиor

Figure 00000019
Figure 00000019

В котором «а» является знаменателем деления, и «n» является степенью двух параметров знаменателя.In which "a" is the denominator of the division, and "n" is the power of the two parameters of the denominator.

Блок F3 представляет собой двухотводной фильтр низких частот, имеющий постоянные коэффициенты:Block F3 is a two-tap low-pass filter with constant coefficients:

Figure 00000020
,
Figure 00000020
,

Figure 00000021
.
Figure 00000021
.

В примере, фильтры F1..F3 не нормированы, F3 имеет более высокий DC усиления, чем F1 и F3 имеют более высокий DC усиления, чем F2.In the example, filters F1..F3 are not normalized, F3 has a higher DC gain than F1 and F3 has a higher DC gain than F2.

Выход фильтров F1 .. F3 суммируется и нормализован. Нормализация (блок «>>») может быть выполнена, например, смещением вправо или делением с округлением, как описано выше.The output of filters F1 .. F3 is summed and normalized. The normalization (">>" block) can be performed, for example, by shifting to the right or division with rounding, as described above.

Результирующее уравнение для этой комбинации (эквивалентный 4-отводному фильтру) выражается следующим образом:The resulting equation for this combination (equivalent to a 4-tap filter) is expressed as:

Figure 00000022
Figure 00000022

Этот вариант осуществления обеспечивает реализацию на основе LUT. Согласно этой реализации, значения коэффициентов также могут быть определены с использованием LUT. Значения, хранящиеся в этой LUT, определяются с помощью таблицы 4 (для обоих случаев: с и без округления).This embodiment provides a LUT-based implementation. According to this implementation, coefficient values can also be determined using the LUT. The values stored in this LUT are determined using Table 4 (for both cases: with and without rounding).

Таблица 4 - Спецификация коэффициента фильтра интерполяции внутреннего предсказания сглаживающего фильтра.Table 4 - Specification of the smoothing filter intra prediction interpolation filter coefficient.

pp С округлениемwith rounding Без округленияNo rounding

Figure 00000002
Figure 00000002
Figure 00000003
Figure 00000003
Figure 00000004
Figure 00000004
Figure 00000005
Figure 00000005
Figure 00000002
Figure 00000002
Figure 00000003
Figure 00000003
Figure 00000004
Figure 00000004
Figure 00000005
Figure 00000005
00 16sixteen 3232 16sixteen 00 16sixteen 3232 16sixteen 00 11 1515 3131 1717 11 16sixteen 3232 16sixteen 00 22 1515 3131 1717 11 1515 3131 1717 11 33 14fourteen 30thirty 18eighteen 22 1515 3131 1717 11 4four 14fourteen 30thirty 18eighteen 22 14fourteen 30thirty 18eighteen 22 5five 1313 2929 19nineteen 33 14fourteen 30thirty 18eighteen 22 66 1313 2929 19nineteen 33 1313 2929 19nineteen 33 77 1212 2828 2020 4four 1313 2929 19nineteen 33 88 1212 2828 2020 4four 1212 2828 2020 4four 9nine 11eleven 2727 2121 5five 1212 2828 2020 4four 1010 11eleven 2727 2121 5five 11eleven 2727 2121 5five 11eleven 1010 2626 2222 66 11eleven 2727 2121 5five 1212 1010 2626 2222 66 1010 2626 2222 66 1313 9nine 2525 2323 77 1010 2626 2222 66 14fourteen 9nine 2525 2323 77 9nine 2525 2323 77 1515 88 2424 2424 88 9nine 2525 2323 77 16sixteen 88 2424 2424 88 88 2424 2424 88 1717 77 2323 2525 9nine 88 2424 2424 88 18eighteen 77 2323 2525 9nine 77 2323 2525 9nine 19nineteen 66 2222 2626 1010 77 2323 2525 9nine 2020 66 2222 2626 1010 66 2222 2626 1010 2121 5five 2121 2727 11eleven 66 2222 2626 1010 2222 5five 2121 2727 11eleven 5five 2121 2727 11eleven 2323 4four 2020 2828 1212 5five 2121 2727 11eleven 2424 4four 2020 2828 1212 4four 2020 2828 1212 2525 33 19nineteen 2929 1313 4four 2020 2828 1212 2626 33 19nineteen 2929 1313 33 19nineteen 2929 1313 2727 22 18eighteen 30thirty 14fourteen 33 19nineteen 2929 1313 2828 22 18eighteen 30thirty 14fourteen 22 18eighteen 30thirty 14fourteen 2929 11 1717 3131 1515 22 18eighteen 30thirty 14fourteen 30thirty 11 1717 3131 1515 11 1717 3131 1515 3131 00 16sixteen 3232 16sixteen 11 1717 3131 1515

Из таблицы 4 можно заметить, что коэффициенты находятся в пределах диапазона [0, 31]. Этот факт объясняет техническую выгоду изобретения, которая состоит в использовании 16-битных множителей для 8-битных и 10-битных изображений, которые используются и будут использоваться, по меньшей мере, на среднесрочной перспективе. Типичная реализация изобретения будет содержать четыре параллельные операции умножения, в котором операнды умножения имеют битовые глубины, максимум 6 для коэффициентов фильтра и 10 для выборок. Результат умножения не превысит 16-битное значение, что делает предложенные коэффициенты, дружественные от точки зрения реализации.From Table 4, you can see that the coefficients are within the range [0, 31]. This fact explains the technical benefit of the invention, which is the use of 16-bit multipliers for 8-bit and 10-bit images, which are and will be used, at least in the medium term. A typical implementation of the invention will contain four parallel multiplication operations, in which the multiplication operands have bit depths, a maximum of 6 for filter coefficients and 10 for samples. The result of the multiplication will not exceed a 16-bit value, which makes the proposed coefficients implementation-friendly.

В режиме внешнего предсказания выполняется компенсация движения блока движения. Компенсация движения может содержать этап интерполяционной фильтрации, которая аналогична фильтрации внутреннего предсказания. Еще одно полезное свойство изобретения состоит в том, что коэффициенты интерполяционных фильтров имеют одинаковую точность (то есть, глубина битов значения коэффициентов одинакова) для режимов внутреннего и внешнего предсказания. Если точность коэффициентов интерполяционных фильтров выше в случае внутреннего предсказания, что может отрицательно повлиять на вычислительную сложность видеокодека. Причина в том, что внутреннее предсказание по своей природе последовательно, поскольку требуется восстановленных выборок предшествующих блоков. Напротив, внешнее предсказание можно выполнять параллельно. Следовательно, если точность интерполяции выше для внутреннего предсказания, чем для внешнего предсказания, что может углубить несоответствие осуществления между конвейерами внутреннего и внешнего предсказания. Это выравнивание точности позволяет избежать таких негативных последствий.In the inter prediction mode, motion compensation of the motion block is performed. The motion compensation may comprise an interpolation filtering step, which is similar to intra prediction filtering. Another useful feature of the invention is that the coefficients of the interpolation filters have the same precision (ie, the bit depth of the coefficient value is the same) for the intra and inter prediction modes. If the accuracy of the interpolation filter coefficients is higher in the case of intra prediction, which can adversely affect the computational complexity of the video codec. The reason is that intra-prediction is by nature sequential, since it requires reconstructed samples of previous blocks. In contrast, extrinsic prediction can be performed in parallel. Therefore, if the interpolation accuracy is higher for intra prediction than for inter prediction, which may deepen the implementation mismatch between the intra and inter prediction pipelines. This leveling of accuracy avoids such negative consequences.

Еще одним преимуществом предлагаемого изобретения является уменьшение разнообразия коэффициентов. Учитывая, что пары соседних строк табл.4 идентичны, практическая реализация изобретения будет использовать LUT, которая имеет всего 16 строк (строки, соответствующие четным значениям p в столбце «без округления», и строки, соответствующие нечетным значениям p в столбце «с округлением») вместо 32 строк.Another advantage of the present invention is the reduction in coefficient diversity. Given that pairs of adjacent rows in Table 4 are identical, a practical implementation of the invention would use a LUT that has a total of 16 rows (rows corresponding to even p values in the "no rounding" column and rows corresponding to odd p values in the "rounded" column ) instead of 32 lines.

Техническим эффектом изобретения является возможность реализаций, по меньшей мере, следующих:The technical effect of the invention is the possibility of implementing at least the following:

- реализация без LUT, которые вычисляют коэффициенты фильтра с использованием значений р, в котором вычисление основано на аналитических уравнениях, описанных выше; и- implementation without LUT, which calculate the filter coefficients using p-values, in which the calculation is based on the analytical equations described above; and

- реализация на основании LUT, которые получают коэффициенты фильтра из LUT, используя значение индекса на основании значения p.is an LUT-based implementation that derives the filter coefficients from the LUT using an index value based on the p-value.

Точность значения p уменьшается при вычислении значений коэффициентов. В частности, значение коэффициентов получены на основании результата целочисленного деления на 2, то есть, р/2, которые могут быть реализованы в виде смещения вправо на 1, что просто реализуется в оборудовании. Для реализации на основе LUT точность уменьшается, что приводит к снижению памяти, необходимой для хранения LUT. В оборудовании это также уменьшит количество проводов адресной шины LUT.The precision of the p-value decreases as the coefficient values are calculated. In particular, the value of the coefficients are obtained based on the result of an integer division by 2, i.e., p/2, which can be implemented as a right-shift by 1, which is simply implemented in the hardware. For a LUT-based implementation, the precision is reduced, resulting in a reduction in the memory required to store the LUT. In hardware, this will also reduce the number of LUT address bus wires.

Согласно варианту осуществления настоящего раскрытия, предложено устройство для внутреннего или внешнего предсказания обработки видеокадра, включающее в себя: блок получения опорной выборки, выполненный с возможностью получать опорную выборку; блок получения значения смещения субпикселя, выполненный с возможностью получать значение смещения субпикселя; и 4-отводной интерполяционный фильтр субпикселя, выполненный с возможностью фильтрации опорной выборки для получения предсказанного значения выборки, в котором коэффициенты фильтра 4-отводного интерполяционного фильтра субпикселя удовлетворяют:According to an embodiment of the present disclosure, an apparatus for intra or inter prediction of video frame processing is provided, including: a reference sample acquisition unit configured to acquire a reference sample; a sub-pixel offset value obtaining unit, configured to obtain the sub-pixel offset value; and a 4-tap sub-pixel interpolation filter configured to filter the reference sample to obtain a predicted sample value in which the filter coefficients of the 4-tap sub-pixel interpolation filter satisfy:

Figure 00000001
Figure 00000001

где p является дробной частью значения смещения субпикселя и

Figure 00000002
,
Figure 00000003
,
Figure 00000004
и
Figure 00000005
являются коэффициентами фильтра 4-отводного интерполяционного фильтра субпикселя. where p is the fractional part of the subpixel offset value and
Figure 00000002
,
Figure 00000003
,
Figure 00000004
and
Figure 00000005
are the filter coefficients of the 4-tap sub-pixel interpolation filter.

Согласно варианту осуществления настоящего раскрытия, коэффициенты фильтра 4-отводного интерполяционного фильтра субпикселя определены в таблице следующим образом:According to an embodiment of the present disclosure, the filter coefficients of the 4-tap sub-pixel interpolation filter are defined in the table as follows:

pp

Figure 00000002
Figure 00000002
Figure 00000003
Figure 00000003
Figure 00000004
Figure 00000004
Figure 00000005
Figure 00000005
00 16sixteen 3232 16sixteen 00 11 16sixteen 3232 16sixteen 00 22 1515 3131 1717 11 33 1515 3131 1717 11 4four 14fourteen 30thirty 18eighteen 22 5five 14fourteen 30thirty 18eighteen 22 66 1313 2929 19nineteen 33 77 1313 2929 19nineteen 33 88 1212 2828 2020 4four 9nine 1212 2828 2020 4four 1010 11eleven 2727 2121 5five 11eleven 11eleven 2727 2121 5five 1212 1010 2626 2222 66 1313 1010 2626 2222 66 14fourteen 9nine 2525 2323 77 1515 9nine 2525 2323 77 16sixteen 88 2424 2424 88 1717 88 2424 2424 88 18eighteen 77 2323 2525 9nine 19nineteen 77 2323 2525 9nine 2020 66 2222 2626 1010 2121 66 2222 2626 1010 2222 5five 2121 2727 11eleven 2323 5five 2121 2727 11eleven 2424 4four 2020 2828 1212 2525 4four 2020 2828 1212 2626 33 19nineteen 2929 1313 2727 33 19nineteen 2929 1313 2828 22 18eighteen 30thirty 14fourteen 2929 22 18eighteen 30thirty 14fourteen 30thirty 11 1717 3131 1515 3131 11 1717 3131 1515

Согласно аспекту настоящего раскрытия, предложено устройство для внутреннего или внешнего предсказания видеокадра, содержащее: блок получения опорной выборки, выполненный с возможностью получать опорную выборку; блок получения значения смещения субпикселя, выполненный с возможностью получать значение смещения субпикселя; и 4-отводной интерполяционный фильтр субпикселя, выполненный с возможностью фильтрации опорной выборки для получения предсказанного значения выборки, в котором коэффициенты фильтра 4-отводного интерполяционного фильтра субпикселя определяются следующим образом:According to an aspect of the present disclosure, a device for intra or inter prediction of a video frame is provided, comprising: a reference sample acquisition unit configured to obtain a reference sample; a sub-pixel offset value obtaining unit, configured to obtain the sub-pixel offset value; and a 4-tap sub-pixel interpolation filter configured to filter the reference sample to obtain a predicted sample value, wherein the filter coefficients of the 4-tap sub-pixel interpolation filter are determined as follows:

pp

Figure 00000002
Figure 00000002
Figure 00000003
Figure 00000003
Figure 00000004
Figure 00000004
Figure 00000005
Figure 00000005
00 16sixteen 3232 16sixteen 00 11 16sixteen 3232 16sixteen 00 22 1515 3131 1717 11 33 1515 3131 1717 11 4four 14fourteen 30thirty 18eighteen 22 5five 14fourteen 30thirty 18eighteen 22 66 1313 2929 19nineteen 33 77 1313 2929 19nineteen 33 88 1212 2828 2020 4four 9nine 1212 2828 2020 4four 1010 11eleven 2727 2121 5five 11eleven 11eleven 2727 2121 5five 1212 1010 2626 2222 66 1313 1010 2626 2222 66 14fourteen 9nine 2525 2323 77 1515 9nine 2525 2323 77 16sixteen 88 2424 2424 88 1717 88 2424 2424 88 18eighteen 77 2323 2525 9nine 19nineteen 77 2323 2525 9nine 2020 66 2222 2626 1010 2121 66 2222 2626 1010 2222 5five 2121 2727 11eleven 2323 5five 2121 2727 11eleven 2424 4four 2020 2828 1212 2525 4four 2020 2828 1212 2626 33 19nineteen 2929 1313 2727 33 19nineteen 2929 1313 2828 22 18eighteen 30thirty 14fourteen 2929 22 18eighteen 30thirty 14fourteen 30thirty 11 1717 3131 1515 3131 11 1717 3131 1515

где p является дробной частью значения смещения субпикселя и

Figure 00000002
,
Figure 00000003
,
Figure 00000004
и
Figure 00000005
являются коэффициентами фильтра. where p is the fractional part of the subpixel offset value and
Figure 00000002
,
Figure 00000003
,
Figure 00000004
and
Figure 00000005
are the filter coefficients.

Фиг. 25 показывает схему модуля 2500 обработки внутреннего/внешнего предсказания, который содержит блок 2510 получения опорной выборки, блок 2520 получения значения смещения субпикселя и интерполяционный фильтр 2530 субпикселя.Fig. 25 shows a diagram of an intra/inter prediction processing unit 2500, which includes a reference sample acquisition unit 2510, a subpixel offset value acquisition unit 2520, and a subpixel interpolation filter 2530.

Согласно аспекту настоящего раскрытия, предложено устройство для кодирования видео, содержащее: блок обработки внутреннего предсказания, выполненный с возможностью выполнять внутреннее предсказание блока видеокадра; и 4-отводной интерполяционный фильтр субпикселя, выполненный с возможностью фильтрации опорной выборки видеокадра; в котором 4-отводной интерполяционный фильтр субпикселя представляет собой комбинацию фильтров, с коэффициентами фильтра, по меньшей мере, одного из фильтров, удовлетворяющий:According to an aspect of the present disclosure, a device for encoding a video is provided, comprising: an intra prediction processing unit configured to perform intra prediction of a block of a video frame; and a 4-tap sub-pixel interpolation filter configured to filter a video frame reference sample; wherein the 4-tap sub-pixel interpolation filter is a combination of filters, with filter coefficients of at least one of the filters, satisfying:

Figure 00000001
Figure 00000001

где p является дробной частью значения смещения субпикселя и

Figure 00000002
,
Figure 00000003
,
Figure 00000004
и
Figure 00000005
являются коэффициентами фильтра.where p is the fractional part of the subpixel offset value and
Figure 00000002
,
Figure 00000003
,
Figure 00000004
and
Figure 00000005
are the filter coefficients.

Фиг. 26 показывает схему модуля 2600 кодирования видео, который содержит блок 2610 обработки внутреннего предсказания и интерполяционный фильтр 2620 субпикселя.Fig. 26 shows a diagram of a video encoding unit 2600, which includes an intra prediction processing unit 2610 and a sub-pixel interpolation filter 2620.

Согласно аспекту настоящего раскрытия, предусмотрен кодер (20), содержащий схему обработки для выполнения способа по любому из предшествующих аспектов настоящего раскрытия.According to an aspect of the present disclosure, an encoder (20) is provided, containing a processing circuit for performing the method according to any of the preceding aspects of the present disclosure.

Согласно аспекту настоящего раскрытия, предложен декодер (30), содержащий схему обработки для выполнения способа по любому из предшествующих аспектов настоящего раскрытия.According to an aspect of the present disclosure, a decoder (30) is provided, comprising a processing circuit for performing a method according to any of the preceding aspects of the present disclosure.

Согласно аспекту настоящего раскрытия, предоставляется компьютерный программный продукт, содержащий программный код для выполнения способа в соответствии с любым из предшествующих аспектов настоящего раскрытия.According to an aspect of the present disclosure, a computer program product is provided that contains program code for performing a method in accordance with any of the preceding aspects of the present disclosure.

Согласно аспекту настоящего раскрытия, предусмотрен декодер, содержащий: один или более процессоров; и постоянный машиночитаемый носитель, соединенный с процессорами и хранящий программы для выполнения процессорами, в котором программы, при выполнении процессорами, конфигурируют декодер выполнить способ в соответствии с любым из предшествующих аспектов настоящего раскрытия.According to an aspect of the present disclosure, a decoder is provided, comprising: one or more processors; and a persistent computer-readable medium coupled to the processors and storing programs for execution by the processors, wherein the programs, when executed by the processors, configure a decoder to execute a method in accordance with any of the preceding aspects of the present disclosure.

Согласно аспекту настоящего раскрытия, предусмотрен кодер, содержащий: один или более процессоров; и постоянный машиночитаемый носитель, соединенный с процессорами и хранящий программы для выполнения процессорами, в котором программы, при выполнении процессорами, конфигурируют кодер выполнить способ в соответствии с любым из предшествующих аспектов настоящего раскрытия.According to an aspect of the present disclosure, an encoder is provided, comprising: one or more processors; and a persistent computer-readable medium coupled to the processors and storing programs for execution by the processors, wherein the programs, when executed by the processors, configure an encoder to execute a method in accordance with any of the preceding aspects of the present disclosure.

Настоящее изобретение по любому из предшествующих аспектов может обеспечить более эффективный способ внутреннего/внешнего предсказания видеокадра. Это связано с тем, что коэффициенты фильтра интерполяционного фильтра получены аналитическими способом, то есть, упомянутые коэффициенты вычисляются в процессе обработки. Это позволяет избежать хранения коэффициентов в таблице поиска (LUT), требующих времени доступа для чтения коэффициентов из памяти.The present invention according to any of the preceding aspects can provide a more efficient method for intra/inter prediction of a video frame. This is due to the fact that the filter coefficients of the interpolation filter are obtained in an analytical way, that is, the said coefficients are calculated during processing. This avoids storing the coefficients in a lookup table (LUT), requiring access time to read the coefficients from memory.

Таким образом, предсказание становится более эффективным и требует меньшего объема памяти. Это обеспечивает также недорогую реализацию предсказания. Более того, поскольку аналитические коэффициенты

Figure 00000007
фильтра являются линейными на позиции р дробной выборки, и используются операции деления на 2, соответствующая операция может быть эффективно выполнена, используя быструю низкоуровневую битовую операцию. Соответствующее время для выполнения битовой операции и для расчета коэффициентов фильтра короче времени доступа к хранимым коэффициентам из LUT. Таким образом, задержка обработки сокращается.Thus, the prediction becomes more efficient and requires less memory. It also provides an inexpensive implementation of the prediction. Moreover, since the analytic coefficients
Figure 00000007
filters are linear at position p of a fractional sample, and divide-by-2 operations are used, the corresponding operation can be efficiently performed using a fast low-level bit operation. The corresponding time to perform a bit operation and to calculate the filter coefficients is shorter than the time to access the stored coefficients from the LUT. Thus, the processing delay is reduced.

Более того, конкретная аналитическая структура коэффициентов фильтра может обеспечить преимущество реализации низкой сложности блока (блоков) фильтра. Как было описано ранее, частотная характеристика фильтра (т.е. частотная характеристика) для различных позиций субпикселей соответствует отношению амплитуде и фазы и предотвращает появления артефактов в частотной характеристике, в частности, на высоких частотах. Линейность коэффициентов фильтра может обеспечить преимущество повторного использования оборудования.Moreover, the specific analytical structure of the filter coefficients may provide the advantage of implementing a low complexity filter block(s). As previously described, the filter's frequency response (ie, frequency response) for different subpixel positions follows the amplitude-to-phase relationship and prevents artifacts in the frequency response, particularly at high frequencies. The linearity of the filter coefficients can provide the benefit of equipment reuse.

В одном варианте осуществления для случая интерполяционного фильтра повышения резкости параметр S мощности определяется следующим образом:In one embodiment, for the case of an interpolation sharpening filter, the power parameter S is defined as follows:

Figure 00000023
Figure 00000023

Этот параметр S мощности определяется для получения максимального значения на позиции полупикселя (p = 16). Для позиций субпикселей, близких к целочисленным, параметр S мощности имеет более низкое значение. Примерная комбинация фильтров показана на фиг. 10. Блок F1 в этой фигуре представляет собой линейный фильтр с его коэффициентами, определенными следующим образом:This power parameter S is determined to obtain the maximum value at the half-pixel position (p = 16). For subpixel positions close to integer, the power parameter S has a lower value. An exemplary filter combination is shown in FIG. 10. Block F1 in this figure is a linear filter with its coefficients defined as follows:

Figure 00000024
,
Figure 00000024
,

Figure 00000025
.
Figure 00000025
.

Блок F2 представляет собой высокочастотный фильтр, имеющий следующие коэффициенты:Block F2 is a high pass filter having the following coefficients:

Figure 00000026
Figure 00000026

Выход блока F2 умножается на параметр S мощности. Результат умножения дополнительно суммируется с выходом линейного фильтра F1, и полученная сумма нормализована.The output of block F2 is multiplied by the power parameter S. The result of the multiplication is additionally summed with the output of the linear filter F1, and the resulting sum is normalized.

Результирующее уравнение для этой комбинации (эквивалентный 4-отводному фильтру) выражается следующим образом:The resulting equation for this combination (equivalent to a 4-tap filter) is expressed as:

Figure 00000027
Figure 00000027

Для этого уравнения также возможна реализация на основе LUT. Таблица 5 иллюстрирует значения коэффициентов.For this equation, a LUT-based implementation is also possible. Table 5 illustrates the values of the coefficients.

Таблица 5. Спецификация интерполяционного фильтра внутреннего предсказания коэффициента фильтра повышения резкостиTable 5 Specification of the interpolation filter of the sharpening filter coefficient intra prediction

pp

Figure 00000002
Figure 00000002
Figure 00000003
Figure 00000003
Figure 00000004
Figure 00000004
Figure 00000005
Figure 00000005
00 00 6464 00 00 11 00 6262 22 00 22 00 6060 4four 00 33 -1-1 5959 77 -1-1 4four -1-1 5757 9nine -1-1 5five -1-1 5555 11eleven -1-1 66 -2-2 5454 14fourteen -2-2 77 -2-2 5252 16sixteen -2-2 88 -3-3 5151 19nineteen -3-3 9nine -3-3 4949 2121 -3-3 1010 -3-3 4747 2323 -3-3 11eleven -4-four 4646 2626 -4-four 1212 -4-four 4444 2828 -4-four 1313 -4-four 4242 30thirty -4-four 14fourteen -5-five 4141 3333 -5-five 1515 -5-five 3939 3535 -5-five 16sixteen -6-6 3838 3838 -6-6 1717 -5-five 3535 3939 -5-five 18eighteen -5-five 3333 4141 -5-five 19nineteen -4-four 30thirty 4242 -4-four 2020 -4-four 2828 4444 -4-four 2121 -4-four 2626 4646 -4-four 2222 -3-3 2323 4747 -3-3 2323 -3-3 2121 4949 -3-3 2424 -3-3 19nineteen 5151 -3-3 2525 -2-2 16sixteen 5252 -2-2 2626 -2-2 14fourteen 5454 -2-2 2727 -1-1 11eleven 5555 -1-1 2828 -1-1 9nine 5757 -1-1 2929 -1-1 77 5959 -1-1 30thirty 00 4four 6060 00 3131 00 22 6262 00

Поскольку фильтр F2 имеет отрицательные коэффициенты, нормализованный результат дополнительно обрезается, чтобы соответствовать диапазону допустимых значений, которые могут быть либо сигнализируются в SPS или получены из битовой глубины выборок.Because filter F2 has negative coefficients, the normalized result is further clipped to fit the range of valid values that can either be signaled in the SPS or obtained from the bit depth of the samples.

Альтернативный вариант осуществления состоит в том, чтобы указать альтернативную позицию операции отсечения (см. фиг. 11). Этот альтернативный вариант основан на том, что линейный фильтр F1 может не иметь выходного значения, которое ниже или выше, чем любое из его входных значений.An alternative implementation is to indicate an alternative position of the clipping operation (see Fig. 11). This alternative is based on the fact that the F1 linear filter may not have an output value that is lower or higher than any of its input values.

В одном варианте осуществления блок отсечения работает с использованием следующих этапов.In one embodiment, the pruning unit operates using the following steps.

Этап один состоит в определении выполнить отсечение по минимальному пороговому значению или максимальному пороговому значению.Step one is to determine whether to clip on the minimum threshold or the maximum threshold.

Этап два зависит от результата этапа один. В частности, выполняется отсечение либо минимальному, либо по максимальному пороговому значению.Stage two depends on the outcome of stage one. In particular, clipping is performed on either the minimum or maximum threshold value.

Минимальное пороговое значение применяется в случае, когда вход в блок отсечения является отрицательным. В противном случае применяется максимальное пороговое значение. Выход

Figure 00000028
этапа два (и блока отсечения) может быть определен следующим образом:The minimum threshold applies when the clipping block input is negative. Otherwise, the maximum threshold is applied. Output
Figure 00000028
stage two (and the clipping block) can be defined as follows:

Figure 00000029
Figure 00000029

Для входного значения

Figure 00000030
рассчитывается вывод минимального порогового значения
Figure 00000031
следующим образом:For input value
Figure 00000030
the output of the minimum threshold value is calculated
Figure 00000031
in the following way:

Figure 00000032
Figure 00000032

Выход максимального порогового значения рассчитывается следующим образом:The maximum threshold output is calculated as follows:

Figure 00000033
Figure 00000033

в котором

Figure 00000034
является максимальным значением диапазона допустимого значения выборки.wherein
Figure 00000034
is the maximum value of the range of valid sample value.

Значения

Figure 00000035
и
Figure 00000036
являются входными опорными выборками, показанными на фиг. 11, которые являются входом линейного фильтра F1.Values
Figure 00000035
and
Figure 00000036
are the input reference samples shown in FIG. 11, which are the input of the line filter F1.

В одном варианте осуществления на случае выполнения отсечения после операции умножения,

Figure 00000028
рассчитывается следующим образом:In one embodiment, in the case of performing a cut after a multiplication operation,
Figure 00000028
calculated as follows:

Figure 00000037
Figure 00000037

В некоторых вариантах осуществления фильтр F3 на фиг. 9, фильтр F2 на фиг. 10 и фиг. 11 может не зависеть от параметра Р фазы. Эти варианты осуществления упрощают реализацию, поскольку вывод этих фильтров может быть одинаковым для каждого входной строки предсказанных выборок, таким образом, этот этап может быть выполнен перед началом процесса интерполяции, например, на этапе фильтрации опорной выборки. Этот подход увеличивает параллелизм и, таким образом, снижает задержку направленной фильтрации.In some embodiments, filter F3 in FIG. 9, filter F2 in FIG. 10 and FIG. 11 may not depend on the parameter P of the phase. These embodiments simplify implementation because the output of these filters may be the same for each input row of predicted samples, thus this step can be performed before starting the interpolation process, for example, in the reference sample filtering step. This approach increases concurrency and thus reduces directional filtering latency.

Другой альтернативный вариант осуществления (см. фиг. 12) использует фильтр регулируемой мощности, а не только множитель выхода фильтра. Фиг. 12А показывает случай, когда выполняется отсечение выхода высокочастотного фильтра F2. Фиг. 12B показывает случай, когда выполняется отсечение выхода нормированного выхода комбинации F1 и F2. Пример фильтров регулируемой мощности может быть следующим: двусторонний фильтр, фильтр обратного преобразования и т.д.Another alternative implementation (see FIG. 12) uses a variable power filter and not just a filter output multiplier. Fig. 12A shows the case where the output of the high pass filter F2 is clipped. Fig. 12B shows the case where output clipping of the normalized output of the combination of F1 and F2 is performed. An example of adjustable power filters could be: a two-way filter, an inverse transform filter, etc.

Другой вариант осуществления использует снижение разрешения р, то есть, только 16 из 32 записей. Это достигается, например, установкой наименее значимого бита р на ноль.Another embodiment uses resolution reduction p, that is, only 16 out of 32 entries. This is achieved, for example, by setting the least significant bit of p to zero.

Как показано на фиг. 13-21, различные комбинации с использованием LUT и аналитических представлений коэффициентов интерполяционного фильтра возможны как для внутреннего, так и для внешнего предсказания. Для примеров фиг. 14 иллюстрирует случай использования, когда вычисляются коэффициенты для сглаживания интерполяционного фильтра, используемыми в случае внутреннего предсказания, в то время, как коэффициенты для других интерполяционных фильтров для внутреннего предсказания, так и для внешнего предсказания хранятся в LUTs. Дополнительно, спецификация кодирования видео может включать в себя как LUT, так и аналитические представления коэффициентов интерполяционного фильтра для осуществления различных реализаций. Если описаны оба представления на основе LUT и аналитические представления должны обеспечивать идентичные коэффициенты.As shown in FIG. 13-21, various combinations using LUTs and analytic representations of the interpolation filter coefficients are possible for both intra and inter prediction. For the examples of FIG. 14 illustrates a use case where coefficients for smoothing an interpolation filter used in the case of intra prediction are calculated, while coefficients for other interpolation filters for both intra prediction and inter prediction are stored in LUTs. Additionally, the video coding specification may include both LUTs and analytic representations of the interpolation filter coefficients for various implementations. If both LUT-based representations and analytic representations are described, they must provide identical coefficients.

Фиг. 22 представляет собой реализацию способа расчета коэффициентов, как показано на фиг. 1.Fig. 22 is an implementation of the coefficient calculation method as shown in FIG. 1.

В уравненииIn the equation

Figure 00000027
Figure 00000027

Параметр S мощности определяется следующим образом:The power parameter S is defined as follows:

Figure 00000023
Figure 00000023

Эта реализация соответствует другому способу получения параметра S мощности (обозначается как результирующее значение «q» на фиг. 22). Значение позиции р дробной выборки p направляется в демультиплексор Demux, который управляется входным 1-битным сигналом SEL, который устанавливается на значение 5-го наименьшего значимого бита р (имеющего и индекс 4, если индексация начинается с нуля). Если этот бит равен «1», то сигнал SEL указывает, что значение р больше 16, и следует рассчитывать следующее значение:This implementation corresponds to another way of obtaining the power parameter S (denoted as the resulting value "q" in Fig. 22). The value of the fractional sample position p p is sent to the Demux demultiplexer, which is controlled by the input 1-bit signal SEL, which is set to the value of the 5th least significant bit of p (which also has index 4 if indexing starts from zero). If this bit is set to "1", then the SEL signal indicates that the value of p is greater than 16, and the following value should be calculated:

Figure 00000038
= − ( not (31 xor
Figure 00000039
) ),
Figure 00000038
= − ( not (31xor
Figure 00000039
) ),

Где «not» и «xor» являются побитовыми операциями NOT и XOR, соответственно. Это выражение относится к q = (32 - р) и может быть записано на языках программирования C/C ++, какWhere "not" and "xor" are the bitwise NOT and XOR operations, respectively. This expression refers to q = (32 - p) and can be written in C/C++ programming languages as

Figure 00000038
= -(~(0x1F ^
Figure 00000039
)).
Figure 00000038
= -(~(0x1F ^
Figure 00000039
)).

В противном случае (то есть, если входной сигнал SEL демультиплексора Demux равен «0»), любые расчеты обойдены, и сигнал р направляется в мультиплексор MUX, как сигнал q. Выходной сигнал r мультиплексора MUX передается в модуль, который вычисляет значение t следующим образом:Otherwise (that is, if the input signal SEL of the Demux is "0"), any calculations are bypassed and signal p is sent to the MUX as signal q. The output signal r of the MUX multiplexer is passed to the module, which calculates the value t as follows:

t = ((r << 1) + r) >> 3,t = ((r << 1) + r) >> 3,

Где «<<» и «>>» являются смещением вправо и влево, соответственно.Where "<<" and ">>" are offsets to the right and left, respectively.

Фактически, это значение t представляет собой параметр S мощности. Возможна дополнительная оптимизация путем выполнения этапов, показанных на фиг. 22, параллельно с одним из коэффициентов линейного фильтра:In fact, this value of t is the power parameter S. Further optimization is possible by performing the steps shown in FIG. 22, in parallel with one of the linear filter coefficients:

z = (64 - (p << 1))z = (64 - (p << 1))

Как только значения z и S были вычислены, их можно добавить друг к другу для получения

Figure 00000040
.Once the z and S values have been calculated, they can be added to each other to get
Figure 00000040
.

Хотя варианты осуществления изобретения были в основном описаны на основании кодирования видео, следует отметить, что варианты осуществления системы 10 кодирования, кодера 20 и декодера 30 (и, соответственно, системы 10) и другие варианты осуществления, описанные в данном документе, также могут быть выполнены с возможностью обработки или кодирования неподвижного изображения, то есть, обработка или кодирование отдельного изображения независимо от любого предшествующего или последующего изображения, как при кодировании видео. В общем, если обработка кодирования изображения ограничена одним изображением 17, могут быть недоступны только блоки 244 (кодер) и 344 (декодер) внешнего предсказания. Все другие функции (также называемые инструментами или технологиями) видеокодера 20 и видеодекодер 30 могут в равной степени использоваться для обработки неподвижных изображений, например, вычисление остатка 204/304, преобразование 206, квантование 208, обратное квантование 210/310, (обратное) преобразование 212/312, разделение 262/362, внутреннее предсказание 254/354 и/или контурная фильтрация 220, 320 и энтропийное кодирование 270 и энтропийное декодирование 304.Although embodiments of the invention have been primarily described in terms of video coding, it should be noted that the embodiments of encoding system 10, encoder 20, and decoder 30 (and system 10, respectively) and other embodiments described herein can also be performed. capable of processing or encoding a still image, that is, processing or encoding a single image independently of any preceding or subsequent image, as in video encoding. In general, if the image encoding processing is limited to one image 17, only inter prediction blocks 244 (encoder) and 344 (decoder) may be unavailable. All other functions (also referred to as tools or technologies) of video encoder 20 and video decoder 30 can equally be used for still picture processing, e.g. /312, split 262/362, intra prediction 254/354, and/or loop filtering 220, 320 and entropy coding 270 and entropy decoding 304.

Варианты осуществления, например, кодера 20 и декодера 30, а также описанные здесь функции, например, применительно к кодеру 20 и декодеру 30 могут быть реализованы аппаратным обеспечением, программным обеспечением, встроенным программным обеспечением или любой их комбинацией. Если реализованы в программном обеспечении, функции могут храниться на машиночитаемом носителе или передаваться через среду связи в виде одной или нескольких инструкций или кода и выполняться аппаратным процессором. Машиночитаемый носитель может содержать в себя машиночитаемый носитель данных, который соответствует материальному носителю, например, носителю данных, или носителю связи, включающему в себя любой носитель, который облегчает передачу компьютерной программы из одного места в другое, например, в соответствии с протоколом связи. Таким образом, машиночитаемые носители обычно могут соответствовать (1) материальным машиночитаемым носителям данных, которые являются энергонезависимыми, или (2) средам связи, таким как сигнал или несущая волна. Носители данных могут быть любыми доступными носителями, к которым может получить доступ один или более компьютеров или один или более процессоров для извлечения инструкций, кода и/или структур данных для реализации способов, описанных в настоящем изобретении. Компьютерный программный продукт может содержать в себя машиночитаемый носитель.Embodiments of, for example, encoder 20 and decoder 30, as well as the functions described herein, for example, in relation to encoder 20 and decoder 30, may be implemented in hardware, software, firmware, or any combination thereof. If implemented in software, the functions may be stored on a computer-readable medium or transmitted over a communication medium as one or more instructions or code and executed by a hardware processor. The computer-readable medium may include a computer-readable medium that corresponds to a tangible medium, such as a data medium, or a communication medium, including any medium that facilitates the transfer of a computer program from one place to another, for example, in accordance with a communication protocol. Thus, computer-readable media can typically correspond to (1) tangible computer-readable storage media that are non-volatile, or (2) communication media such as a signal or carrier wave. Storage media can be any available media that can be accessed by one or more computers or one or more processors to retrieve instructions, code, and/or data structures for implementing the methods described in the present invention. The computer program product may include a computer-readable medium.

В качестве примера, но не ограничения, такие машиночитаемые носители данных могут содержать RAM, ROM, EEPROM, CD-ROM или другое запоминающее устройство на оптическом диске, запоминающее устройство на магнитном диске или другие магнитные запоминающие устройства, флэш-память или любой другой носитель, который может использоваться для хранения требуемого программного кода в форме инструкций или структур данных и может быть доступен для компьютера. Дополнительно, любое соединение правильно называть машиночитаемым носителем. Например, если инструкции передаются с веб-сайта, сервера или другого удаленного источника с использованием коаксиального кабеля, оптоволоконного кабеля, витой пары, цифровой абонентской линии (DSL) или беспроводных технологий, таких как инфракрасный порт, радио и микроволновый сигнал, тогда коаксиальный кабель, оптоволоконный кабель, витая пара, DSL или беспроводные технологии, такие как инфракрасный порт, радио и микроволновый сигнал рассматриваются в качестве среды связи. Однако следует понимать, что машиночитаемые носители данных и носители данных не включают в себя соединения, несущие волны, сигналы или другие временные носители, а вместо этого относятся к энергонезависимым материальным носителям данных. Диск, как используется в настоящем документе, включает в себя компакт-диск (CD), лазерный диск, оптический диск, цифровой универсальный диск (DVD), дискету и диск Blu-ray, где диски обычно воспроизводят данные магнитным способом, и диски воспроизводят данные оптически с помощью лазеров. Комбинации вышеперечисленного также должны быть включены в объем машиночитаемых носителей.By way of example, and not limitation, such computer-readable storage media may include RAM, ROM, EEPROM, CD-ROM or other optical disk storage, magnetic disk or other magnetic storage devices, flash memory, or any other media which can be used to store the required program code in the form of instructions or data structures and can be accessed by a computer. Additionally, any connection is properly referred to as a computer-readable medium. For example, if instructions are transmitted from a website, server, or other remote source using coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), or wireless technologies such as infrared, radio, and microwave, then the coaxial cable, fiber optic cable, twisted pair, DSL, or wireless technologies such as infrared, radio, and microwave are considered as the communication medium. However, it should be understood that computer-readable storage media and storage media do not include connections, carrier waves, signals, or other temporary media, but instead refer to non-volatile, tangible storage media. A disc as used herein includes a compact disc (CD), a laser disc, an optical disc, a digital versatile disc (DVD), a floppy disk, and a Blu-ray disc, where the discs usually reproduce data magnetically and the discs reproduce data optically with lasers. Combinations of the above should also be included within the scope of computer readable media.

Инструкции могут выполняться одним или несколькими процессорами, такими как один или более процессоров цифровых сигналов (DSP), микропроцессоры общего назначения, специализированные интегральные схемы (ASIC), программируемые логические матрицы (FPGA) или другие эквивалентные интегральные или дискретные логические схемы. Соответственно, термин «процессор», используемый в настоящем описании, может относиться к любой из вышеупомянутой структуре или любой другой структуре, подходящей для реализации описанных способов. Дополнительно, в некоторых аспектах, описанные в настоящем документе, функциональные возможности могут быть предоставлены в рамках выделенных аппаратных и/или программных модулей, выполненных с возможностью кодировать и декодировать или содержащиеся в комбинированном кодеке. Дополнительно, способы могут быть полностью реализованы в одной или нескольких схемах или логических элементах.The instructions may be executed by one or more processors, such as one or more digital signal processors (DSPs), general purpose microprocessors, application specific integrated circuits (ASICs), programmable logic arrays (FPGAs), or other equivalent integrated or discrete logic circuits. Accordingly, the term "processor" as used herein may refer to any of the aforementioned structure, or any other structure suitable for implementing the described methods. Additionally, in some aspects described herein, functionality may be provided within dedicated hardware and/or software modules capable of encoding and decoding or contained in a combined codec. Additionally, the methods may be fully implemented in one or more circuits or logic elements.

Способы настоящего раскрытия могут быть реализованы в большом количестве устройств или приспособлений, включающие в себя беспроводной телефон, интегральную схему (IC) или набор ICs (например, набор микросхем). В настоящем изобретении описаны различные компоненты, модули или блоки для представления функциональных аспектов устройств, выполненных с возможностью выполнять раскрытые технологии, но не обязательно требующих реализации различными аппаратными блоками. Скорее, как описано выше, различные блоки могут быть объединены в аппаратный блок кодека или предоставлены набором взаимодействующих аппаратных блоков, включающий в себя один или более процессоров, как описано выше, в сочетании с подходящим программным обеспечением и/или встроенным программным обеспечением.The methods of the present disclosure may be implemented in a wide variety of devices or appliances, including a wireless telephone, an integrated circuit (IC), or a set of ICs (eg, a chipset). The present invention describes various components, modules, or blocks to represent the functional aspects of devices capable of performing the disclosed technologies, but not necessarily requiring implementation in different hardware blocks. Rather, as described above, the various blocks may be combined into a codec hardware block or provided by a set of cooperating hardware blocks including one or more processors, as described above, in combination with suitable software and/or firmware.

Суммируя, настоящее изобретение относится к внутреннему или внешнему предсказанию для кодирования и декодирования видео. Для этой цели устройство и способы получают опорную выборку и значение смещения субпикселя. Для получения предсказанного значения для фильтрации опорного выборки используется 4-отводной интерполяционный фильтр субпикселя. Коэффициенты фильтрации 4-отводного интерполяционного фильтра субпикселя определены в соответствии со значением смещения субпикселя, таких как

Figure 00000016
,
Figure 00000041
,
Figure 00000042
и
Figure 00000043
, = p / 2, р является дробной частью значения смещения субпикселя.In summary, the present invention relates to intra or inter prediction for video encoding and decoding. For this purpose, the apparatus and methods obtain a reference sample and a sub-pixel offset value. A 4-tap sub-pixel interpolation filter is used to obtain the predicted value for filtering the reference sample. The filter coefficients of the 4-tap sub-pixel interpolation filter are determined according to the sub-pixel offset value, such as
Figure 00000016
,
Figure 00000041
,
Figure 00000042
and
Figure 00000043
, = p / 2, p is the fractional part of the sub-pixel offset value.

Дополнительные варианты осуществления суммированы в следующих пунктах:Additional embodiments are summarized in the following paragraphs:

Пункт 1: Способ внутреннего или внешнего предсказания технологии кодирования видео, способ содержит:Item 1: The video coding technology intra or inter prediction method, the method comprises:

получение опорной выборки (то есть, по меньшей мере, одну опорную выборку в примере, количество опорных выборок может быть четыре);obtaining a reference sample (ie, at least one reference sample in the example, the number of reference samples may be four);

получение значения смещения субпикселя; иobtaining a sub-pixel offset value; and

фильтрация, используя интерполяционный фильтр субпикселя, опорной выборки для получения предсказанного значения выборки, в котором коэффициенты фильтра интерполяционного фильтра субпикселя получают в соответствии со значением смещения субпикселя.filtering, using the sub-pixel interpolation filter, the reference sample to obtain a predicted sample value, in which the filter coefficients of the sub-pixel interpolation filter are obtained in accordance with the sub-pixel offset value.

Пункт 2: Способ по п. 1, в котором коэффициент фильтра интерполяционного фильтра субпикселя получают в зависимости от дробной части значения смещения субпикселя.Claim 2: The method of claim 1, wherein the filter coefficient of the sub-pixel interpolation filter is obtained depending on the fractional part of the sub-pixel offset value.

Пункт 3: Способ по п. 1 или п. 2, в котором интерполяционный фильтр субпикселя представляет собой эквивалентный 4-отводной фильтр.Claim 3: The method of claim 1 or claim 2, wherein the sub-pixel interpolation filter is an equivalent 4-tap filter.

Пункт 4: Способ по п. 3, в котором коэффициенты фильтра интерполяционного фильтра субпикселя получают в соответствии сClaim 4: The method of claim 3, wherein the filter coefficients of the sub-pixel interpolation filter are obtained according to

Figure 00000001
Figure 00000001

в котором р является дробной частью значения смещения субпикселя.in which p is the fractional part of the sub-pixel offset value.

Пункт 5: Способ по п. 3, в котором коэффициенты фильтрации интерполяционного фильтра субпикселя получают в соответствии сClaim 5: The method of claim 3, wherein the filter coefficients of the sub-pixel interpolation filter are obtained according to

Figure 00000027
Figure 00000027

где параметр S мощности определяется следующим образом:where the power parameter S is defined as follows:

Figure 00000023
Figure 00000023

в котором р является дробной частью значения смещения субпикселя.in which p is the fractional part of the sub-pixel offset value.

Пункт 6: Способ по любому из пп. 1-5, в котором бит (например, младший бит или самый младший бит) смещения р субпикселя устанавливается на ноль.Item 6: The method according to any one of paragraphs. 1-5, in which a bit (eg, the least significant bit or least significant bit) of the sub-pixel offset p is set to zero.

Пункт7: Способ по любому из пп. 1-5, в котором значение смещения p увеличивается на 1, и после этого младший бит увеличенного значения установлен на нулевое значение до использования этого значения для получения коэффициентов фильтра.Item 7: The method according to any one of paragraphs. 1-5, in which the offset value p is incremented by 1, and thereafter the least significant bit of the incremented value is set to a value of zero prior to using this value to obtain the filter coefficients.

Пункт 8: Способ кодирования видео, способ содержит обработку внутреннего предсказание блока, содержащий интерполированную фильтрацию субпикселя, применяемую к опорным выборкам;Item 8: A video coding method, the method comprises block intra-prediction processing comprising interpolated sub-pixel filtering applied to the reference samples;

в котором интерполяционный фильтр субпикселя представляет собой комбинацию фильтров, по меньшей мере, одного из фильтров, определяемый в соответствии со смещением субпикселя.wherein the sub-pixel interpolation filter is a combination of filters of at least one of the filters determined according to the sub-pixel offset.

Пункт 9: Способ по п. 8, в котором интерполяционный фильтр представляет собой сглаживающий фильтр, который является параллельной комбинацией двух фазозависимых линейных фильтров и фильтра нижних частот.Claim 9: The method of claim 8, wherein the interpolation filter is an anti-aliasing filter that is a parallel combination of two phase dependent linear filters and a low pass filter.

Пункт 10: Способ по п. 8, в котором интерполяционный фильтр представляет собой фильтр повышения резкости, который является параллельной комбинацией одного фазозависимого линейного фильтра и высокочастотного фильтра с изменяющейся мощностью.Claim 10: The method of claim 8, wherein the interpolation filter is a sharpening filter that is a parallel combination of one phase-dependent linear filter and a power-varying high-pass filter.

Пункт 11: Способ по п. 10, в котором высокочастотного фильтра с изменяющейся мощностью представляет собой фазозависимый высокочастотный фильтр, выход которого умножается на фазозависимый параметр мощности.Claim 11: The method of claim 10, wherein the power variable high pass filter is a phase dependent high pass filter whose output is multiplied by a phase dependent power parameter.

Пункт 12: Способ по п. 9, в котором комбинация фильтра представляет собой эквивалент 4-отводного фильтра, имеющий коэффициенты, указанные в соответствии с уравнениями:Item 12: The method of claim 9, wherein the filter combination is the equivalent of a 4-tap filter having coefficients given according to the equations:

Figure 00000001
Figure 00000001

в котором р является позицией р дробной выборки.where p is the position p of the fractional sample.

Пункт 13: Способ по п. 11, в котором комбинация фильтра представляет собой эквивалент 4-отводного фильтра, имеющий коэффициенты, указанные в соответствии с уравнениями:Claim 13: The method of claim 11 wherein the filter combination is the equivalent of a 4-tap filter having coefficients given according to the equations:

Figure 00000027
Figure 00000027

в котором параметр S мощности определяется следующим образом:in which the power parameter S is defined as follows:

Figure 00000023
Figure 00000023

Пункт 14: Способ по любому из предшествующих пунктов, в котором младший бит позиции р дробной выборки устанавливается на ноль.Claim 14: The method according to any of the preceding claims, wherein the least significant bit of position p of the fractional sample is set to zero.

Пункт 15: Способ по любому из пп. 8-13, в котором позиция р дробной выборки увеличивается на 1, и после этого младший бит увеличенного значения устанавливается на ноль до использования для получения коэффициентов интерполяционного фильтра.Item 15: The method according to any one of paragraphs. 8-13, in which the position p of the fractional sample is incremented by 1, and thereafter the least significant bit of the incremented value is set to zero before being used to obtain the interpolation filter coefficients.

Пункт 16: Способ по п. 10 или п. 11, в котором операция отсечения выполняется для вывода высокочастотного фильтра с изменяющейся мощностью.Claim 16: The method according to claim 10 or claim 11, wherein the clipping operation is performed to output a power-changing high-pass filter.

Пункт 17: Кодер (20), содержащий схему обработки для выполнения способа по любому из пп. 1-16.Item 17: Encoder (20) containing the processing circuit for performing the method according to any one of paragraphs. 1-16.

Пункт 18: Декодер (30), содержащий схему обработки для выполнения способа по любому из пп. 1-16.Item 18: Decoder (30) containing the processing circuit for performing the method according to any one of paragraphs. 1-16.

Пункт 19: Компьютерный программный продукт, содержащий программный код для выполнения способа по любому из пп. 1-16.Item 19: A computer program product containing program code for performing the method according to any one of paragraphs. 1-16.

Пункт 20: Декодер, содержащий:Item 20: A decoder comprising:

один или более процессоров; иone or more processors; and

машиночитаемый носитель, соединенный с процессорами, и хранящий программы для выполнения процессором, в котором программы при выполнении процессором, побуждают декодер выполнить способ по любому из пп. 1-16.a computer-readable medium coupled to the processors and storing programs for execution by the processor, wherein the programs, when executed by the processor, cause the decoder to execute the method of any one of claims. 1-16.

Пункт 21: Кодер, содержащий:Item 21: An encoder containing:

один или более процессоров; иone or more processors; and

машиночитаемый носитель, соединенный с процессорами, и хранящий программы для выполнения процессором, в котором программы при выполнении процессором, побуждают кодер выполнить способ по любому из пп. 1-16.a computer-readable medium coupled to the processors and storing programs for execution by the processor, wherein the programs, when executed by the processor, cause the encoder to execute the method of any one of claims. 1-16.

Пункт 22: Способ для внутреннего или внешнего предсказания технологии кодирования видео, способ содержит:Item 22: A method for intra or inter prediction of video coding technology, the method comprises:

получение опорной выборки (то есть, по меньшей мере, одну опорную выборку в примере, количество опорных выборок может быть четыре);obtaining a reference sample (ie, at least one reference sample in the example, the number of reference samples may be four);

получение позиции дробной выборки; иgetting the position of a fractional sample; and

фильтрацию с использованием интерполяционного фильтра субпикселя опорной выборки для получения предсказанного значения выборки, в котором коэффициенты фильтра интерполяционного фильтра субпикселя получены в соответствии сfiltering using the reference sample sub-pixel interpolation filter to obtain a predicted sample value in which the filter coefficients of the sub-pixel interpolation filter are obtained according to

Figure 00000027
Figure 00000027

в котором S является параметром мощности, р является позицией дробной выборки,

Figure 00000044
являются коэффициентами фильтра.where S is the power parameter, p is the position of the fractional sample,
Figure 00000044
are the filter coefficients.

Пункт 23: Способ по п. 22, в котором способ дополнительно содержит:Claim 23: The method of claim 22, wherein the method further comprises:

получение значения сигнала SEL путем принятия N-го наиболее значительного бита позиции р дробной выборки, N является положительным целым числом;obtaining the value of the SEL signal by taking the N-th most significant bit of the position p of the fractional sample, N being a positive integer;

получение промежуточного значения q, в котором q устанавливается равным значению позиции р дробной выборки, когда сигнал SEL равен нулю; или q установлен на - (not (31 xor p)), когда сигнал SEL не нулевой;obtaining an intermediate value q, in which q is set to the value of the fractional sample position p when the signal SEL is zero; or q is set to - (not (31 xor p)) when the SEL signal is non-zero;

получение параметра S мощности, используя одну дополнительную операцию и операции сдвига:obtaining the power parameter S using one additional operation and shift operations:

S = ((

Figure 00000038
<< 1) +
Figure 00000038
) >> 3S = ((
Figure 00000038
<< 1) +
Figure 00000038
) >> 3

Пункт 24: Способ по п. 23, где N равен 5.Item 24: The method according to item 23, where N is 5.

Пункт 25: Способ по любому из пп. 22-24, в котором интерполяционный фильтр субпикселя представляет собой эквивалент 4-отводного фильтра.Item 25: The method according to any one of paragraphs. 22-24, in which the sub-pixel interpolation filter is the equivalent of a 4-tap filter.

Пункт 26: Способ по любому из пп. 22-25, в котором параметр S мощности рассчитывается параллельно с коэффициентом z линейного фильтра, в котором коэффициент z линейного фильтра используется для получения коэффициента

Figure 00000045
интерполяционного фильтра и гдеItem 26: The method according to any one of paragraphs. 22-25, in which the power parameter S is calculated in parallel with the coefficient z of the linear filter, in which the coefficient z of the linear filter is used to obtain the coefficient
Figure 00000045
interpolation filter and where

Figure 00000046
Figure 00000046

Пункт 27: Способ по любому из пп. 22-25, в котором бит (например, младший бит или более низкий бит) позиции р дробной выборки устанавливается на ноль.Item 27: The method according to any one of paragraphs. 22-25, in which a bit (eg, the least significant bit or lower bit) of the position p of the fractional sample is set to zero.

Пункт 28: Способ по любому из пп. 22-26, в котором позиция р дробной выборки повышается на 1 и затем младший бит увеличенного значения устанавливается на ноль до использования данного значения для получения коэффициентов фильтра.Item 28: The method according to any one of paragraphs. 22-26, in which the position p of the fractional sample is incremented by 1 and then the least significant bit of the incremented value is set to zero before the value is used to obtain the filter coefficients.

Пункт 29: Способ кодирования видео, способ содержит обработку внутреннего предсказания блока, содержащую интерполяционную фильтрацию субпикселя, применяемую к опорным выборкам;Item 29: A video coding method, the method comprises block intra prediction processing comprising sub-pixel interpolation filtering applied to the reference samples;

в котором интерполяционный фильтр субпикселя представляет собой комбинацию фильтров, по меньшей мере, одного из фильтров, определяемого в соответствии с позицией дробной выборки.wherein the sub-pixel interpolation filter is a combination of filters of at least one of the filters determined according to the position of the fractional sample.

Пункт 29: Способ по п. 28, в котором интерполяционный фильтр представляет собой сглаживающий фильтр, который является параллельной комбинацией двух фазозависимых линейных фильтров и фильтра нижних частот.Claim 29: The method of claim 28, wherein the interpolation filter is an anti-aliasing filter that is a parallel combination of two phase dependent linear filters and a low pass filter.

Пункт 30: способ по п. 29, в котором интерполяционный фильтр представляет собой фильтр повышения резкости, который представляет собой параллельную комбинацию одного фазозависимого линейного фильтра и высокочастотного фильтра с изменяющейся мощностью.Claim 30: The method of Claim 29, wherein the interpolation filter is a sharpening filter that is a parallel combination of one phase-dependent linear filter and a power-varying high-pass filter.

Пункт 31: Способ по п. 30, в котором высокочастотный фильтр с изменяющейся мощностью представляет собой FIR фазонезависимый высокочастотный фильтр, выход которого умножается на параметр фазозависимой мощности.Claim 31: The method of claim 30, wherein the power varying high pass filter is an FIR phase independent high pass filter whose output is multiplied by a phase dependent power parameter.

Пункт 32: Кодер (20), содержащий схему обработки для выполнения способа по любому из пп. 22-31.Item 32: Encoder (20) containing the processing circuit for performing the method according to any one of paragraphs. 22-31.

Пункт 33: декодер (30), содержащий схему обработки для выполнения способа по любому из пп. 22-31.Item 33: decoder (30) containing the processing circuit for performing the method according to any one of paragraphs. 22-31.

Пункт 34: Компьютерный программный продукт, содержащий программный код для выполнения способа по любому из пп. 22-31.Item 34: A computer program product containing program code for performing the method according to any one of paragraphs. 22-31.

Пункт 35: Декодер, содержащий:Item 35: A decoder comprising:

один или более процессоров; а такжеone or more processors; as well as

машиночитаемый носитель, соединенный с процессорами, и хранящий программы для выполнения процессором, в котором программы при выполнении процессором, побуждают декодер выполнить способ по любому из пп. 22-31.a computer-readable medium coupled to the processors and storing programs for execution by the processor, wherein the programs, when executed by the processor, cause the decoder to execute the method of any one of claims. 22-31.

Пункт 36: Кодер, содержащий:Item 36: An encoder containing:

один или более процессоров; иone or more processors; and

машиночитаемый носитель, соединенный с процессорами, и хранящий программы для выполнения процессором, в котором программы при выполнении процессором, побуждают кодер выполнить способ по любому из пп. 22-31.a computer-readable medium coupled to the processors and storing programs for execution by the processor, wherein the programs, when executed by the processor, cause the encoder to execute the method of any one of claims. 22-31.

Список ссылочных позицийList of reference positions

Фиг. 1АFig. 1A

10 система кодирования видео10 video encoding system

12 устройство источника12 source device

13 канал связи13 communication channel

14 устройство назначения14 destination device

16 источник изображения16 image source

17 данные изображения17 image data

18 предварительный процессор18 preprocessor

19 предварительно обработанные данные изображения19 preprocessed image data

20 видеокодер20 video encoder

21 закодированные данные изображения21 encoded image data

22 интерфейс связи22 communication interface

28 интерфейс связи28 communication interface

30 видеодекодер30 video decoder

31 данные декодированного изображения31 decoded image data

32 постпроцессор32 postprocessor

33 пост-обработанные данные изображения33 post-processed image data

34 устройство отображения34 display device

Фиг1В.Fig1B.

40 система кодирования видео40 video encoding system

41 устройство (устройства) визуализации41 imaging device(s)

42 антенна42 antenna

43 процессор (ы)43 processor(s)

44 память44 memory

45 устройство отображения45 display device

46 схема обработки46 processing scheme

20 видеокодер20 video encoder

30 видеодекодер30 video decoder

Фиг. 2.Fig. 2.

17 изображение (данные)17 image (data)

19 предварительно обработанное изображение (данные)19 preprocessed image (data)

20 кодер20 encoder

21 данные закодированного изображения21 encoded image data

201 вход (интерфейс)201 inputs (interface)

204 вычисление остатка [блок или этап]204 calculation of remainder [block or step]

206 блок обработки преобразования206 conversion processing unit

208 блок квантования208 quantization block

210 блок обратного квантования210 inverse quantizer

212 блок обработки обратного преобразования212 inverse conversion processing unit

214 блок восстановления214 recovery block

220 блок контурного фильтра220 loop filter unit

230 буфер декодированных изображений (DPB)230 Decoded Picture Buffer (DPB)

260 блок выбора режима260 mode selection block

270 блок энтропийного кодирования270 entropy coding block

272 выход (интерфейс)272 output (interface)

244 блок внешнего предсказания244 inter prediction block

254 блок внутреннего предсказания254 intra prediction block

262 блок разделения262 separation unit

203 блок изображения203 image block

205 остаточный блок205 residual block

213 восстановленный остаточный блок213 restored residual block

215 восстановленный блок215 restored block

221 фильтрованный блок221 filter blocks

231 декодированное изобретение231 inventions decoded

265 блок предсказания265 prediction block

266 синтаксические элементы266 syntax elements

207 коэффициенты преобразования207 conversion factors

209 квантовые коэффициенты209 quantum coefficients

211 деквантованные коэффициенты211 dequantized coefficients

Фиг. 3Fig. 3

21 данные закодированного изображения21 encoded image data

30 видеодекодер30 video decoder

304 блок энтропийного декодирования304 entropy decoding block

309 квантованные коэффициенты309 quantized coefficients

310 блок обратного квантования310 inverse quantizer

311 деквантованные коэффициентов311 dequantized coefficients

312 блок обработки обратного преобразования312 inverse conversion processing unit

313 восстановленный остаточный блок313 rebuilt residual block

314 блок восстановления 314 recovery block

315 восстановленный блок315 rebuilt block

320 контурный фильтр320 loop filter

321 отфильтрованный блок321 filtered blocks

330 буфер декодированного изображения DBP330 DBP decoded picture buffer

331 декодированное изображение331 decoded pictures

360 блок применения режима360 mode application block

365 блок предсказания365 prediction block

366 синтаксические элементы366 syntax elements

344 блок внешнего предсказания344 inter prediction block

354 блок внутреннего предсказания354 intra prediction block

Фиг. 4.Fig. four.

400 устройство кодирования видео400 video encoder

410 порты ввода / порты входа410 input ports / input ports

420 блоки приемника RX420 RX receiver blocks

430 процессор430 processor

440 блоки передатчика TX440 TX transmitter units

450 порты вывода / порты выхода450 output ports / output ports

460 память460 memory

470 модуль кодирования470 encoding module

Фиг. 5.Fig. five.

500 устройство источника или устройство назначения500 source device or destination device

502 процессор502 processor

504 память504 memory

506 код и данные506 code and data

508 операционной системы508 operating system

510 прикладные программы510 application programs

512 шина512 tire

518 дисплей518 display

Фиг. 23Fig. 23

2300 блок-схема алгоритма способа обработки внутреннего/внешнего предсказания2300 flowchart of the intra/inter prediction processing method

Фиг. 24Fig. 24

2400 блок-схема алгоритма способа кодирования видео2400 flowchart of a video encoding method

Фиг. 25.Fig. 25.

2500 модуль внутреннего/внешнего предсказания2500 internal/external prediction module

2510 блок получения опорной выборки2510 reference sample acquisition block

2520 блок получения значения смещения субпикселя2520 sub-pixel offset value acquisition block

2530 интерполяционный фильтр субпикселя2530 subpixel interpolation filter

Фиг. 26Fig. 26

2600 модуль кодирования видео2600 video encoding module

2610 блок обработки внутреннего предсказания2610 Intra prediction processing block

2620 интерполяционный фильтр субпикселя2620 subpixel interpolation filter

Claims (39)

1. Способ обработки внутреннего предсказания или внешнего предсказания видеокадра, содержащий этапы, на которых:1. A method for processing intra prediction or inter prediction of a video frame, comprising the steps of: получают опорную выборку;get a reference sample; получают значение смещения субпикселя иget the subpixel offset value and выполняют фильтрацию, с использованием 4-отводного интерполяционного фильтра, опорной выборки для получения предсказанного значения выборки, причемfiltering, using a 4-tap interpolation filter, the reference sample to obtain a predicted sample value, wherein коэффициенты фильтрации, 4-отводного интерполяционного фильтра, определяются следующим образом:The filter coefficients of a 4-tap interpolation filter are defined as follows:
Figure 00000047
Figure 00000047
где р является дробной частью значения смещения субпикселя, а с0, с1, с2 и с3 являются коэффициентами фильтрации.where p is the fractional part of the sub-pixel offset value, and c 0 , c 1 , c 2 , and c 3 are the filter coefficients. 2. Способ по п. 1, в котором наименее значащий бит р устанавливается в ноль.2. The method of claim 1, wherein the least significant bit of p is set to zero. 3. Способ по п. 1, в котором р увеличивается на 1 и впоследствии младший бит увеличенного р устанавливается в ноль до того, как упомянутый р используется для получения коэффициентов фильтрации.3. The method of claim 1, wherein p is incremented by 1 and subsequently the least significant bit of the incremented p is set to zero before said p is used to derive the filter coefficients. 4. Способ по п. 1, в котором коэффициенты фильтрации вычислены в соответствии с4. The method according to claim 1, in which the filter coefficients are calculated in accordance with
Figure 00000048
,
Figure 00000048
,
с1=16+с0,c 1 \u003d 16 + c 0 , с20+р,c 2 \u003d c 0 + p,
Figure 00000049
Figure 00000049
причем операция деления выполняется с округлением в меньшую сторону.and the division operation is performed with rounding down. 5. Устройство обработки внутреннего предсказания или внешнего предсказания видеокадра, содержащее:5. An intra prediction or inter prediction processing device for a video frame, comprising: блок получения опорной выборки, выполненный с возможностью получения опорной выборки;a reference sample acquisition unit configured to obtain a reference sample; блок получения значения смещения субпикселя, выполненный с возможностью получения значения смещения субпикселя; иa sub-pixel offset value obtaining unit, configured to obtain a sub-pixel offset value; and 4-отводной интерполяционный фильтр, выполненный с возможностью фильтрации опорной выборки для получения предсказанного значения выборки, причемA 4-tap interpolation filter configured to filter the reference sample to obtain a predicted sample value, wherein коэффициенты фильтрации, 4-отводного интерполяционного фильтра, определяются следующим образом:The filter coefficients of a 4-tap interpolation filter are defined as follows:
Figure 00000050
Figure 00000050
Figure 00000051
Figure 00000051
где р является дробной частью значения смещения субпикселя, а с0, с1, с2 и с3 являются коэффициентами фильтра.where p is the fractional part of the sub-pixel offset value, and c0 , c1, c2, and c3 are the filter coefficients. 6. Устройство по п. 5, в котором наименее значащий бит р установлен в ноль.6. The apparatus of claim 5, wherein the least significant bit p is set to zero. 7. Устройство по п. 5, в котором р увеличивается на 1 и далее младший бит увеличенного р устанавливается в ноль до использования указанного р для получения коэффициентов фильтрации.7. The apparatus of claim 5, wherein p is incremented by 1 and then the least significant bit of the incremented p is set to zero before said p is used to obtain the filter coefficients. 8. Устройство по п. 5, в котором коэффициенты фильтрации вычислены согласно8. The device according to claim 5, in which the filter coefficients are calculated according to
Figure 00000048
,
Figure 00000048
,
с1=16+с0,c 1 \u003d 16 + c 0 , с20c 2 \u003d c 0 + p
Figure 00000049
Figure 00000049
причем операция деления выполняется с округлением в меньшую сторонуand the division operation is performed with rounding down 9. Декодер, содержащий:9. Decoder containing: один или более процессоров иone or more processors and постоянный машиночитаемый носитель, соединенный с процессорами и хранящий программы, вызывающие, при исполнении процессорами, выполнение декодером способа по любому из пп. 1-4.a permanent computer-readable medium connected to the processors and storing programs that cause, when executed by the processors, the execution by the decoder of the method according to any one of paragraphs. 1-4. 10. Постоянный носитель, содержащий битовый поток, декодированный способом по любому из пп. 1-4.10. Permanent media containing a bit stream decoded by the method according to any one of paragraphs. 1-4. 11. Машиночитаемый носитель, хранящий программу, записанную на нем, при этом программа вызывает выполнение компьютером способа по любому из пп. 1-4.11. A computer-readable medium that stores a program recorded thereon, wherein the program causes the computer to execute the method according to any one of claims. 1-4. 12. Кодер, содержащий:12. An encoder containing: один или более процессоров иone or more processors and постоянный машиночитаемый носитель, соединенный с процессорами и хранящий программы, вызывающие, при исполнении процессорами, выполнение кодером способа по любому из пп. 1-4.a permanent computer-readable medium connected to the processors and storing programs that cause, when executed by the processors, the encoder to execute the method according to any one of paragraphs. 1-4.
RU2021121545A 2018-12-21 2019-12-20 Method and device for interpolation filtration for encoding with prediction RU2787217C1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US62/784,319 2018-12-21

Publications (1)

Publication Number Publication Date
RU2787217C1 true RU2787217C1 (en) 2022-12-30

Family

ID=

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140161189A1 (en) * 2012-12-07 2014-06-12 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US20160014425A1 (en) * 2012-10-01 2016-01-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Scalable video coding using inter-layer prediction contribution to enhancement layer prediction
US9451254B2 (en) * 2013-07-19 2016-09-20 Qualcomm Incorporated Disabling intra prediction filtering
WO2017086823A1 (en) * 2015-11-17 2017-05-26 Huawei Technologies Co., Ltd. Method and apparatus of adaptive filtering of samples for video coding
US20180338150A1 (en) * 2012-09-10 2018-11-22 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180338150A1 (en) * 2012-09-10 2018-11-22 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
US20160014425A1 (en) * 2012-10-01 2016-01-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Scalable video coding using inter-layer prediction contribution to enhancement layer prediction
US20140161189A1 (en) * 2012-12-07 2014-06-12 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US9451254B2 (en) * 2013-07-19 2016-09-20 Qualcomm Incorporated Disabling intra prediction filtering
WO2017086823A1 (en) * 2015-11-17 2017-05-26 Huawei Technologies Co., Ltd. Method and apparatus of adaptive filtering of samples for video coding

Similar Documents

Publication Publication Date Title
JP7508645B2 (en) Method and apparatus for mode and size dependent block level restriction - Patents.com
AU2020232820B2 (en) The method of efficient signalling of CBF flags
US11936860B2 (en) Method and apparatus of sharpening interpolation filtering for predictive coding
US20230074457A1 (en) Method and apparatus of subsample interpolation filtering
AU2020206492B2 (en) Encoder, decoder, non-transitionary computer-readable medium and method of video coding a block of a picture
WO2019204672A1 (en) Interpolation filter for an intra prediction apparatus and method for video coding
WO2021037053A1 (en) An encoder, a decoder and corresponding methods of cabac coding for the indices of geometric partition flag
CN113647103A (en) Method and apparatus for quantizing coefficients for matrix-based intra prediction techniques
RU2787217C1 (en) Method and device for interpolation filtration for encoding with prediction
JP7293361B2 (en) Interpolation filtering method and apparatus for predictive coding
RU2786022C1 (en) Device and method for limitations of block level depending on mode and size
RU2771925C1 (en) Encoder, decoder and corresponding methods using a compact mv storage
RU2783385C2 (en) Encoder, decoder and related methods using compact mv storage
RU2801589C2 (en) Encoder, decoder and corresponding methods using dct2 high level permission flag
RU2821334C2 (en) Encoder, decoder and related methods using high-level resolution flag dct2
WO2021068785A1 (en) An encoder, a decoder and corresponding methods of unifying interplolation filter of luma and chroma components