JPWO2020192020A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2020192020A5
JPWO2020192020A5 JP2021556289A JP2021556289A JPWO2020192020A5 JP WO2020192020 A5 JPWO2020192020 A5 JP WO2020192020A5 JP 2021556289 A JP2021556289 A JP 2021556289A JP 2021556289 A JP2021556289 A JP 2021556289A JP WO2020192020 A5 JPWO2020192020 A5 JP WO2020192020A5
Authority
JP
Japan
Prior art keywords
information
filtering
processing
component
types
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021556289A
Other languages
Japanese (ja)
Other versions
JP2022526107A (en
Publication date
Application filed filed Critical
Priority claimed from PCT/CN2019/104499 external-priority patent/WO2020192020A1/en
Publication of JP2022526107A publication Critical patent/JP2022526107A/en
Publication of JPWO2020192020A5 publication Critical patent/JPWO2020192020A5/ja
Pending legal-status Critical Current

Links

Description

図1は従来の符号化ブロック図の構造模式図である。図1に示すように、該従来の符号化ブロック図10は、変換及び量子化ユニット101、逆変換及び逆量子化ユニット102、予測ユニット103、インループフィルタリングユニット104、並びにエントロピー符号化ユニット105等の部材を含んでもよく、予測ユニット103は更にイントラ予測ユニット1031及びインター予測ユニット1032を含む。入力されたオリジナル画像については、初期分割によって符号化ツリーユニット(CTU、Coding Tree Unit)を取得することができ、1つのCTUに対して引き続きコンテンツ適応分割を行えば、CUを取得することができ、CUは一般的に1つ又は複数の符号化ブロック(CB、Coding Block)を含む。符号化ブロックに対してイントラ予測ユニット1031によるイントラ予測又はインター予測ユニット1032によるインター予測を行って、残差情報を取得することができる。該残差情報について変換及び量子化ユニット101によって該符号化ブロックに対して変換することは、残差情報を画素フィールドから変換フィールドに変換することと、ビットレートを更に減少させるために、取得された変換係数を量子化することと、を含む。予測モードを決定した後、予測ユニット103は更に、選択されたイントラ予測データ又はインター予測データをエントロピー符号化ユニット105に提供することに用いられる。また、逆変換及び逆量子化ユニット102は該符号化ブロックの再構築に使用され、画素フィールドにおいて残差ブロックを再構築し、該再構築された残差ブロックはインループフィルタリングユニット104によってブロッキング効果アーティファクトを除去し、次に、再構築された参照画像を生成するために、該再構築された残差ブロックを復号画像キャッシュユニットに追加する。エントロピー符号化ユニット105は様々な符号化パラメータ及び量子化後の変換係数を符号化することに用いられ、例えば、エントロピー符号化ユニット105はヘッダー情報符号化及びコンテキストベースの適応2値算術符号化(CABAC、Context-based Adaptive Binary Arithmetic Coding)アルゴリズムを用い、決定された予測モードを示す符号化情報を符号化して、対応のビットストリームを出力することに用いられてもよい。 FIG. 1 is a structural schematic diagram of a conventional encoding block diagram. As shown in FIG. 1, the conventional coding block diagram 10 includes a transform and quantization unit 101, an inverse transform and inverse quantization unit 102, a prediction unit 103, an in-loop filtering unit 104, an entropy coding unit 105, etc. and the prediction unit 103 further includes an intra prediction unit 1031 and an inter prediction unit 1032 . For an input original image, a coding tree unit (CTU) can be obtained by initial division, and a CU can be obtained by continuing to perform content adaptive division on one CTU. , CU generally includes one or more coding blocks (CBs). Intra prediction by an intra prediction unit 1031 or inter prediction by an inter prediction unit 1032 may be performed on the coded block to obtain residual information. Transforming the residual information to the coding block by transform and quantization unit 101 is obtained in order to transform the residual information from the pixel field to the transform field and further reduce the bit rate. and quantizing the transformed transform coefficients. After determining the prediction mode, prediction unit 103 is further used to provide selected intra-prediction data or inter-prediction data to entropy encoding unit 105 . Also, an inverse transform and inverse quantization unit 102 is used to reconstruct the coded block and reconstruct a residual block in the pixel field, which is subjected to blocking effects by an in-loop filtering unit 104 . Remove artifacts and then add the reconstructed residual block to a decoded image cache unit to generate a reconstructed reference image. The entropy coding unit 105 is used to code various coding parameters and transform coefficients after quantization, for example, the entropy coding unit 105 performs header information coding and context-based adaptive binary arithmetic coding ( CABAC (Context-based Adaptive Binary Arithmetic Coding) algorithm may be used to encode the encoding information indicating the determined prediction mode and output a corresponding bitstream.

なお、符号化対象ビデオにおけるオリジナル画像に対してビデオ符号化を行う過程において、オリジナル画像に対してビデオ符号化処理を行うときには、CU分割、予測、変換及び量子化等の処理を行い、且つ、後続の符号化対象画像に対してビデオ符号化を行うための参照画像を取得するために、更に逆変換及び逆量子化、再構成並びにフィルタリング等の処理を行ってもよい。即ち、フィルタリング対象画素情報はエンコーダに入力されたばかりのオリジナル画像における画像ブロックであってもよく、これは前処理フィルタに適用される場合であり、フィルタリング対象画素情報はインループフィルタリング処理後に取得したばかりの画像ブロックであってもよく、これは後処理フィルタに適用される場合であり、このようにして、フィルタリング対象画素情報を取得する。 In the process of performing video encoding on the original image in the encoding target video, when video encoding processing is performed on the original image, processing such as CU division, prediction, transformation, and quantization is performed, and Further processing such as inverse transform and inverse quantization, reconstruction and filtering may be performed to obtain a reference image for video encoding of subsequent encoding target images. That is, the filtered pixel information may be an image block in the original image that has just been input to the encoder, which is the case when the preprocessing filter is applied, and the filtered pixel information has just been obtained after the in-loop filtering process. , which is the case when a post-processing filter is applied, thus obtaining filtered pixel information.

図5は本願の実施例に係る従来のCNNフィルタの構造模式図である。図5に示すように、該従来のCNNフィルタ50は前世代のビデオ符号化標準H.265/高効率ビデオ符号化(HEVC、High Efficiency Video Coding)に基づいて改善されたものであり、2層の畳み込みネットワーク構造を含み、デブロッキングフィルタ及びサンプル適応オフセットフィルタを代替することができる。フィルタリング対象画像(Finで示される)を従来のCNNフィルタ50の入力層に入力した後、第1層の畳み込みネットワークF(畳み込みカーネルのサイズが3×3であり、64枚の特徴マップを含むと仮定する)及び第2層の畳み込みネットワークF(畳み込みカーネルのサイズが5×5であり、32枚の特徴マップを含むと仮定する)を通過した後、1つの残差情報Fを取得し、次に、フィルタリング対象画像Finと残差情報Fを加算演算して、最終的に該従来のCNNフィルタ50が出力したフィルタリング後の画像(Foutで示される)を取得する。該畳み込みネットワーク構造は残差ニューラルネットワークとも称され、フィルタリング対象画像に対応する残差情報を出力することに用いられる。該従来のCNNフィルタ50において、それぞれフィルタリング対象画像の3つの画像成分を独立して処理するが、同じフィルタリングネットワーク及びフィルタリングネットワークの関連パラメータを共有する。 FIG. 5 is a structural schematic diagram of a conventional CNN filter according to an embodiment of the present application. As shown in FIG. 5, the conventional CNN filter 50 conforms to the previous generation video coding standard H.365. H.265/High Efficiency Video Coding (HEVC), it contains a two-layer convolutional network structure and can replace the deblocking filter and the sample adaptive offset filter. After inputting the image to be filtered (denoted by F in ) into the input layer of a conventional CNN filter 50, the first layer convolutional network F 1 (with a convolution kernel size of 3×3 and 64 feature maps ) and the second layer convolutional network F 2 (assuming that the size of the convolution kernel is 5×5 and contains 32 feature maps), one residual information F 3 is Then, the filtered image F in and the residual information F 3 are added to obtain the filtered image (denoted by F out ) finally output by the conventional CNN filter 50 . The convolutional network structure is also called a residual neural network and is used to output residual information corresponding to the image to be filtered. In the conventional CNN filter 50 , each of the three image components of the filtered image are processed independently, but share the same filtering network and associated parameters of the filtering network.

フィルタリング対象画素情報の3種類の成分をニューラルネットワークに基づくフィルタに同時に入力し、且つ分岐-マージ-分岐のカスケード処理構造を用いる場合を例として、図7は本願の実施例に係る選択可能なフィルタリングフレームワークの構造模式図である。図7に示すように、該フィルタリングフレームワーク70は、フィルタリング対象画素情報の3種類の成分(それぞれY、U、Vで示される)701、第1分岐ユニット702、第1辺情報703、Y画像成分第1処理ユニット704、U画像成分第1処理ユニット705、V画像成分第1処理ユニット706、第2辺情報707、入力融合ユニット708、連携処理ユニット709、第2分岐ユニット710、Y画像成分第2処理ユニット711、U画像成分第2処理ユニット712、V画像成分第2処理ユニット713、第1加算器714、第2加算器715、第3加算器716、及びフィルタリング後の3つの画像成分(それぞれOut_Y、Out_U、Out_Vで示される)717を含んでもよい。具体的に、フィルタリング対象画像ブロックの3つの画像成分701は第1分岐ユニット702を通過した後、3チャネルの信号、即ちY画像成分、U画像成分及びV画像成分に分割され、第1チャネルのY画像成分及び対応の第1辺情報703はY画像成分第1処理ユニット704に入り、第2チャネルのU画像成分及び対応の第1辺情報703はU画像成分第1処理ユニット705に入り、第3チャネルのV画像成分及び対応の第1辺情報703はV画像成分第1処理ユニット706に入り、そうすると、3チャネルの新しい画像成分が出力される。入力融合ユニット708はこの3チャネルの新しい画像成分及び第2辺情報707を融合し、次に連携処理ユニット709に入力することに用いられ、連携処理ユニット709は複数層の畳み込みフィルタリングネットワークを含み、入力された情報に対して畳み込み計算を行うことに用いられる。具体的な畳み込み計算過程は関連の技術案に類似するため、連携処理ユニット709の具体的な実行ステップについて説明しない。連携処理ユニット709を通過した後、改めて3チャネルの信号に分割するように第2分岐ユニット710に入り、次に、この3チャネルの信号をそれぞれY画像成分第2処理ユニット711、U画像成分第2処理ユニット712及びV画像成分第2処理ユニット713に入力し、それにより順にY画像成分の残差情報、U画像成分の残差情報及びV画像成分の残差情報を取得することができる。フィルタリング対象画像ブロックの3つの画像成分701のうちのY画像成分と取得されたY画像成分の残差情報を一緒に第1加算器714に入力すれば、第1加算器714の出力はフィルタリング後のY画像成分(Out_Yで示される)であり、フィルタリング対象画像ブロックの3つの画像成分701のうちのU画像成分と取得されたU画像成分の残差情報を一緒に第2加算器715に入力すれば、第2加算器715の出力はフィルタリング後のU画像成分(Out_Uで示される)であり、フィルタリング対象画像ブロックの3つの画像成分701のうちのV画像成分と取得されたV画像成分の残差情報を一緒に第3加算器716に入力すれば、第3加算器716の出力はフィルタリング後のV画像成分(Out_Vで示される)である。ここで、成分の出力については、フィルタリング後のY画像成分のみを出力する必要がある場合、フィルタリングフレームワーク70は第2分岐ユニット710、第2加算器715及び第3加算器716を含まなくてもよく、フィルタリング後のU画像成分のみを出力する必要がある場合、フィルタリングフレームワーク70は第2分岐ユニット710、第1加算器714及び第3加算器716を含まなくてもよく、フィルタリング後のY画像成分及びフィルタリング後のU画像成分を出力する必要がある場合、フィルタリングフレームワーク70は第3加算器716を含まなくてもよく、本願の実施例は具体的に限定しない。 Taking the case of simultaneously inputting three components of filtering target pixel information into a neural network-based filter and using a branch-merge-branch cascade processing structure, FIG. 1 is a structural schematic diagram of a framework; FIG. As shown in FIG. 7, the filtering framework 70 includes three components of pixel information to be filtered (denoted Y, U and V respectively) 701, a first branching unit 702, a first side information 703, a Y image component first processing unit 704, U image component first processing unit 705, V image component first processing unit 706, second edge information 707, input fusion unit 708, joint processing unit 709, second branching unit 710, Y image component Second processing unit 711, U image component second processing unit 712, V image component second processing unit 713, first adder 714, second adder 715, third adder 716, and three image components after filtering. 717 (indicated by Out_Y, Out_U, and Out_V, respectively). Specifically, the three image components 701 of the image block to be filtered are divided into three channel signals, namely Y image component, U image component and V image component after passing through the first branching unit 702, and Y image components and corresponding first edge information 703 enter Y image component first processing unit 704, U image components of the second channel and corresponding first edge information 703 enter U image component first processing unit 705, The third channel V image component and corresponding first edge information 703 enter the V image component first processing unit 706, which in turn outputs three channels of new image components. An input fusion unit 708 is used to fuse this three-channel new image component and the second edge information 707, and then input to a joint processing unit 709, which includes a multi-layer convolutional filtering network, It is used to perform convolution calculations on the input information. Since the specific convolution calculation process is similar to the related technical solutions, the specific execution steps of the cooperative processing unit 709 will not be described. After passing through the joint processing unit 709, it enters the second branching unit 710 so as to be divided into 3-channel signals again. 2 processing unit 712 and the V image component into the second processing unit 713, which can sequentially obtain the residual information of the Y image component, the residual information of the U image component and the residual information of the V image component. If the Y image component of the three image components 701 of the filtering target image block and the residual information of the acquired Y image component are input together to the first adder 714, the output of the first adder 714 is the filtered is the Y image component (denoted by Out_Y) of the filtering target image block , and the U image component among the three image components 701 of the filtering target image block and the residual information of the obtained U image component are input together to the second adder 715 Then, the output of the second adder 715 is the filtered U image component (denoted by Out_U), which is the sum of the V image component of the three image components 701 of the filtered image block and the acquired V image component. If the residual information is also input to the third adder 716, the output of the third adder 716 is the filtered V image components (denoted Out_V). Here, for component output, filtering framework 70 does not need to include second branch unit 710, second adder 715 and third adder 716 if only the Y image component after filtering needs to be output. Alternatively, the filtering framework 70 may not include the second branching unit 710, the first adder 714 and the third adder 716 if only the filtered U image component needs to be output, and the filtered If the Y image component and the U image component after filtering need to be output, the filtering framework 70 may not include the third adder 716, and embodiments of the present application are not specifically limited.

図9は本願の実施例に係るまた更に他の選択可能なフィルタリングフレームワークの構造模式図である。図9に示すように、該フィルタリングフレームワーク90は、フィルタリング対象画素情報の3種類の成分(それぞれY、U、Vで示される)901、第1辺情報902、Y画像成分第1処理ユニット903、U画像成分第1処理ユニット904、V画像成分第1処理ユニット905、第2辺情報906、融合ユニット907、連携処理ユニット908、分岐ユニット909、Y画像成分第2処理ユニット910、U画像成分第2処理ユニット911、V画像成分第2処理ユニット912、第1加算器913、第2加算器914、第3加算器915、及びフィルタリング後の3つの画像成分(それぞれOut_Y、Out_U、Out_Vで示される)916を含んでもよい。具体的に、フィルタリング対象画素情報の3種類の成分901は成分処理を経て、3チャネルの信号、即ちY画像成分、U画像成分及びV画像成分に分割され、第1チャネルのY画像成分及び対応の第1辺情報902はY画像成分第1処理ユニット903に入り、第2チャネルのU画像成分及び対応の第1辺情報902はU画像成分第1処理ユニット904に入り、第3チャネルのV画像成分及び対応の第1辺情報902はV画像成分第1処理ユニット905に入り、そうすると、3チャネルの新しい画像成分が出力される。融合ユニット907はこの3チャネルの新しい画像成分及び第2辺情報906を融合し、次に連携処理ユニット908に入力することに用いられ、連携処理ユニット908は複数層の畳み込みフィルタリングネットワークを含み、入力された情報に対して畳み込み計算を行うことに用いられる。具体的な畳み込み計算過程は関連の技術案に類似するため、連携処理ユニット908の具体的な実行ステップについて説明しない。連携処理ユニット908を通過した後、改めて3チャネルの信号に分割するように分岐ユニット909に入り、次に、この3チャネルの信号をそれぞれY画像成分第2処理ユニット910、U画像成分第2処理ユニット911及びV画像成分第2処理ユニット912に入力し、それにより順にY画像成分の残差情報、U画像成分の残差情報及びV画像成分の残差情報を取得することができる。フィルタリング対象画素情報の3種類の成分901のうちのY画像成分と取得されたY画像成分の残差情報を一緒に第1加算器913に入力し、第1加算器913の出力はフィルタリング後のY画像成分(Out_Yで示される)であり、フィルタリング対象画素情報の3種類の成分901のうちのU画像成分と取得されたU画像成分の残差情報を一緒に第2加算器914に入力し、第2加算器914の出力はフィルタリング後のU画像成分(Out_Uで示される)であり、フィルタリング対象画素情報の3種類の成分901のうちのV画像成分と取得されたV画像成分の残差情報を一緒に第3加算器915に入力し、第3加算器915の出力はフィルタリング後のV画像成分(Out_Vで示される)である。ここで、成分の出力については、フィルタリング後のY画像成分のみを出力する必要がある場合、フィルタリングフレームワーク90は分岐ユニット909、第2加算器914及び第3加算器915を含まなくてもよく、フィルタリング後のU画像成分のみを出力する必要がある場合、フィルタリングフレームワーク90は分岐ユニット909、第1加算器913及び第3加算器915を含まなくてもよく、フィルタリング後のY画像成分及びフィルタリング後のU画像成分を出力する必要がある場合、フィルタリングフレームワーク90は第3加算器915を含まなくてもよく、本願の実施例は具体的に限定しない。 FIG. 9 is a structural schematic diagram of yet another selectable filtering framework according to an embodiment of the present application. As shown in FIG. 9, the filtering framework 90 includes three components of pixel information to be filtered (denoted Y, U and V respectively) 901 , first edge information 902 and a Y image component first processing unit 903 . , U image component first processing unit 904, V image component first processing unit 905, second side information 906, fusion unit 907, cooperation processing unit 908, branching unit 909, Y image component second processing unit 910, U image component A second processing unit 911, a V image component second processing unit 912, a first adder 913, a second adder 914, a third adder 915, and three filtered image components (denoted Out_Y, Out_U, and Out_V, respectively). ) 916. Specifically, the three components 901 of the pixel information to be filtered are divided into three channel signals, that is, the Y image component, the U image component and the V image component through component processing, and the Y image component of the first channel and the corresponding 902 enters the Y image component first processing unit 903, the second channel U image component and corresponding first edge information 902 enters the U image component first processing unit 904, the third channel V The image components and corresponding first edge information 902 enter the V image component first processing unit 905, which outputs three channels of new image components. A fusion unit 907 is used to fuse this three-channel new image component and the second edge information 906, and then input to a joint processing unit 908, which includes a multi-layer convolutional filtering network to input It is used to perform convolution calculations on the obtained information. Since the specific convolution calculation process is similar to the related technical solutions, the specific execution steps of the cooperative processing unit 908 will not be described. After passing through the joint processing unit 908, it enters the branching unit 909 so as to be divided into 3-channel signals again, and then the 3-channel signals are respectively processed by a Y image component second processing unit 910 and a U image component second processing unit. Unit 911 and V image component second processing unit 912, which can sequentially obtain residual information of Y image component, residual information of U image component and residual information of V image component. The Y image component of the three types of components 901 of the filtering target pixel information and the residual information of the acquired Y image component are input together to the first adder 913, and the output of the first adder 913 is the filtered Y image component (indicated by Out_Y), the U image component among the three types of components 901 of the filtering target pixel information and the residual information of the acquired U image component are input together to the second adder 914 . , the output of the second adder 914 is the filtered U image component (denoted by Out_U), which is the V image component among the three components 901 of the filtering target pixel information and the residual of the acquired V image component The information is input together into a third adder 915 whose output is the filtered V image components (denoted Out_V). Here, for component output, filtering framework 90 may not include branching unit 909, second adder 914 and third adder 915 if only the Y image component after filtering needs to be output. , the filtering framework 90 may not include the branching unit 909, the first adder 913 and the third adder 915 if only the filtered U image component needs to be output, and the filtered Y image component and The filtering framework 90 may not include the third adder 915 if the filtered U image component needs to be output, and the embodiments of the present application are not specifically limited.

本願の実施例はフィルタリング方法を提供し、まず、フィルタリング方法はフィルタリング対象画素情報を取得し、少なくとも1種類の辺情報を取得し、フィルタリング対象画素情報の少なくとも2種類の成分及び少なくとも1種類の辺情報をニューラルネットワークに基づくフィルタに入力して、フィルタリング対象画素情報をフィルタリングした後の少なくとも1種類の成分を出力して取得する。即ち、本願の実施例では、フィルタリング対象画素情報の少なくとも2種類の成分及び少なくとも1種類の辺情報を取得し、ニューラルネットワークに基づくフィルタに入力して処理し、フィルタリング過程において、少なくとも1種類の成分の辺情報を融合することにより、フィルタリング後の画素情報を取得する。そうすると、複数の種類の成分の間の関係を十分に利用するだけではなく、少なくとも2種類の成分に対して完全なネットワークフォワード計算を複数回行う必要があるという問題も効果的に回避し、ひいては計算複雑性を低減し、符号化率を節約し、符号化/復号化過程において前処理フィルタリング後に取得した画像及び後処理フィルタリング後に取得した画像の品質を向上させ、それにより再構成画像の品質を向上させる。
Embodiments of the present application provide a filtering method, firstly, the filtering method obtains pixel information to be filtered, obtains at least one kind of edge information, obtains at least two kinds of components of the pixel information to be filtered and at least one kind of edge The information is input to a neural network-based filter to output and obtain at least one component after filtering the pixel information to be filtered. That is, in the embodiments of the present application, at least two types of components and at least one type of side information of the pixel information to be filtered are obtained, input to a filter based on a neural network for processing, and in the filtering process, at least one type of component By fusing the edge information of , pixel information after filtering is obtained. This not only fully exploits the relationships between multiple types of components, but also effectively avoids the problem of requiring multiple full network forward computations for at least two types of components, and thus It reduces the computational complexity, saves the coding rate, and improves the quality of the images obtained after preprocessing filtering and the images obtained after postprocessing filtering in the encoding/decoding process, thereby improving the quality of the reconstructed image. Improve.

Claims (15)

エンコーダに適用されるフィルタリング方法であって、
フィルタリング対象画素情報を取得することと、
少なくとも1種類の辺情報を取得することと、
前記フィルタリング対象画素情報の少なくとも2種類の成分値及び前記少なくとも1種類の辺情報をニューラルネットワークに基づくフィルタに入力して、前記フィルタリング対象画素情報をフィルタリングした後の少なくとも1種類の成分値を出力して取得することと、を含む、フィルタリング方法。
A filtering method applied to an encoder , comprising:
Acquiring filtering target pixel information;
obtaining at least one type of edge information;
inputting at least two types of component values and said at least one type of side information of said filtering target pixel information to a filter based on a neural network, and outputting at least one type of component value after filtering said filtering target pixel information; and filtering methods.
前記フィルタリング対象画素情報の少なくとも2種類の成分値及び前記少なくとも1種類の辺情報をニューラルネットワークに基づくフィルタに入力して、前記フィルタリング対象画素情報をフィルタリングした後の少なくとも1種類の成分値を出力して取得することは、
それぞれ前記少なくとも2種類の成分値のうちの各成分値を処理して、処理後の少なくとも2種類の成分値を取得することと、
前記少なくとも1種類の辺情報及び前記処理後の少なくとも2種類の成分値に基づいて融合処理して、前記フィルタリング対象画素情報の融合情報を取得することと、
前記融合情報を処理して、前記フィルタリング対象画素情報をフィルタリングした後の少なくとも1種類の成分値を取得することと、を含む、請求項1に記載の方法。
inputting at least two types of component values and said at least one type of side information of said filtering target pixel information to a filter based on a neural network, and outputting at least one type of component value after filtering said filtering target pixel information; to get
respectively processing each of the at least two component values to obtain at least two post-processing component values ;
performing a fusion process based on the at least one type of side information and the at least two types of component values after the processing to obtain fusion information of the filtering target pixel information;
2. The method of claim 1, comprising processing the fusion information to obtain at least one component value after filtering the filtered pixel information.
成分値に対応する第1辺情報を取得した場合、それに対応して、それぞれ前記少なくとも2種類の成分値のうちの各成分値を処理して、処理後の少なくとも2種類の成分値を取得することは、
それぞれ前記少なくとも2種類の成分値のうちの各成分値及び各成分値に対応する第1辺情報を融合処理して、前記処理後の少なくとも2種類の成分値を取得することを含み、
前記第1辺情報は少なくともブロック分割情報及び/又は量子化パラメータ情報を含み、
前記少なくとも1種類の辺情報及び前記処理後の少なくとも2種類の成分値に基づいて融合処理して、前記フィルタリング対象画素情報の融合情報を取得することは、
前記処理後の少なくとも2種類の成分値及び各成分値に対応する第1辺情報を融合処理して、前記フィルタリング対象画素情報の融合情報を取得することを含む、請求項2に記載の方法。
When the first side information corresponding to each component value is obtained, correspondingly, each component value of the at least two types of component values is processed to obtain at least two types of component values after processing. to do
fusing each component value of the at least two types of component values and the first side information corresponding to each component value to obtain at least two types of component values after the processing;
the first side information includes at least block division information and/or quantization parameter information ;
Performing a fusion process based on the at least one type of side information and the at least two types of component values after the processing to obtain fusion information of the filtering target pixel information,
3. The method of claim 2 , comprising fusing the at least two types of component values after processing and the first edge information corresponding to each component value to obtain fusion information of the filtering target pixel information .
前記融合情報を処理して、前記フィルタリング対象画素情報をフィルタリングした後の少なくとも1種類の成分値を取得することは、
前記融合情報に対して連携処理及び分岐処理を行って、前記少なくとも2種類の成分値のうちの少なくとも1種類の成分値に対応する残差情報を取得することと、
前記少なくとも2種類の成分値のうちの少なくとも1種類の成分値と前記少なくとも1種類の成分値に対応する残差情報を加算演算して、前記フィルタリング対象画素情報をフィルタリングした後の少なくとも1種類の成分値を取得することと、を含む、請求項2に記載の方法。
processing the fusion information to obtain at least one component value after filtering the filtering target pixel information;
Performing cooperation processing and branching processing on the fusion information to obtain residual information corresponding to at least one type of component value among the at least two types of component values ;
At least one component value out of the at least two component values and residual information corresponding to the at least one component value are added to obtain at least one component value after filtering the filtering target pixel information. 3. The method of claim 2, comprising obtaining component values .
成分値に対応する第2辺情報を取得した場合、それに対応して、それぞれ前記少なくとも2種類の成分値のうちの各成分値を処理して、処理後の少なくとも2種類の成分値を取得することは、
それぞれ前記少なくとも2種類の成分値のうちの各成分値及び各成分値に対応する第2辺情報を融合処理して、前記処理後の少なくとも2種類の成分値を取得することを含み、
前記第2辺情報は第1辺情報と異なり、
前記少なくとも1種類の辺情報及び前記処理後の少なくとも2種類の成分値に基づいて融合処理して、前記フィルタリング対象画素情報の融合情報を取得することは、
前記処理後の少なくとも2種類の成分値及び各成分値に対応する第2辺情報を融合処理して、前記フィルタリング対象画素情報の融合情報を取得することを含む、請求項1~のいずれか1項に記載の方法。
When the second side information corresponding to each component value is obtained, each component value of the at least two types of component values is correspondingly processed to obtain at least two types of component values after processing. to do
fusing each component value of the at least two types of component values and second side information corresponding to each component value to obtain at least two types of component values after the processing;
The second side information is different from the first side information,
Performing a fusion process based on the at least one type of side information and the at least two types of component values after the processing to obtain fusion information of the filtering target pixel information,
5. The method according to any one of claims 1 to 4 , comprising fusing at least two types of component values after said processing and second side information corresponding to each component value to obtain fusion information of said filtering target pixel information . 1. The method according to item 1.
前記方法は前記エンコーダの前処理フィルタリングモジュールに適用され、前記方法は更に、The method is applied to a pre-processing filtering module of the encoder, the method further comprising:
入力画像を取得することと、 obtaining an input image;
前記入力画像に含まれる画素をフィルタリング対象画素情報とし、前記フィルタリング方法を実行して、フィルタリング対象画素情報をフィルタリングした後の少なくとも1種類の成分値を取得することと、 setting pixels included in the input image as filtering target pixel information, and performing the filtering method to obtain at least one type of component value after filtering the filtering target pixel information;
フィルタリング対象画素情報をフィルタリングした後の少なくとも1種類の成分値を符号化して、ビットストリームを生成することと、を含む、請求項1に記載の方法。 2. The method of claim 1, comprising encoding at least one component value after filtering the filtered pixel information to generate a bitstream.
前記方法は前記エンコーダの後処理フィルタリングモジュールに適用され、前記方法は更に、The method is applied in a post-processing filtering module of the encoder, the method further comprising:
入力画像を取得し、前記入力画像を符号化して、インループフィルタリング後の画像を取得することと、 obtaining an input image and encoding the input image to obtain an in-loop filtered image;
インループフィルタリング後の画像に含まれる画素をフィルタリング対象画素情報とし、前記フィルタリング方法を実行して、フィルタリング対象画素情報をフィルタリングした後の少なくとも1種類の成分値を取得することと、 setting pixels included in the image after in-loop filtering as filtering target pixel information, and performing the filtering method to obtain at least one component value after filtering the filtering target pixel information;
フィルタリング対象画素情報をフィルタリングした後の少なくとも1種類の成分値を符号化して、ビットストリームを生成することと、を含む、請求項1に記載の方法。 2. The method of claim 1, comprising encoding at least one component value after filtering the filtered pixel information to generate a bitstream.
デコーダに適用されるフィルタリング方法であって、A filtering method applied to a decoder, comprising:
フィルタリング対象画素情報を取得することと、 Acquiring filtering target pixel information;
少なくとも1種類の辺情報を取得することと、 obtaining at least one type of edge information;
前記フィルタリング対象画素情報の少なくとも2種類の成分値及び前記少なくとも1種類の辺情報をニューラルネットワークに基づくフィルタに入力して、前記フィルタリング対象画素情報をフィルタリングした後の少なくとも1種類の成分値を出力して取得することと、を含む、フィルタリング方法。 inputting at least two types of component values and said at least one type of side information of said filtering target pixel information to a filter based on a neural network, and outputting at least one type of component value after filtering said filtering target pixel information; and filtering methods.
前記フィルタリング対象画素情報の少なくとも2種類の成分値及び前記少なくとも1種類の辺情報をニューラルネットワークに基づくフィルタに入力して、前記フィルタリング対象画素情報をフィルタリングした後の少なくとも1種類の成分値を出力して取得することは、inputting at least two types of component values and said at least one type of side information of said filtering target pixel information to a filter based on a neural network, and outputting at least one type of component value after filtering said filtering target pixel information; to get
それぞれ前記少なくとも2種類の成分値のうちの各成分値を処理して、処理後の少なくとも2種類の成分値を取得することと、 respectively processing each of the at least two component values to obtain at least two post-processing component values;
前記少なくとも1種類の辺情報及び前記処理後の少なくとも2種類の成分値に基づいて融合処理して、前記フィルタリング対象画素情報の融合情報を取得することと、 performing a fusion process based on the at least one type of side information and the at least two types of component values after the processing to obtain fusion information of the filtering target pixel information;
前記融合情報を処理して、前記フィルタリング対象画素情報をフィルタリングした後の少なくとも1種類の成分値を取得することと、を含む、請求項8に記載の方法。 9. The method of claim 8, comprising processing the fusion information to obtain at least one component value after filtering the filtered pixel information.
各成分値に対応する第1辺情報を取得した場合、それに対応して、それぞれ前記少なくとも2種類の成分値のうちの各成分値を処理して、処理後の少なくとも2種類の成分値を取得することは、When the first side information corresponding to each component value is obtained, correspondingly, each component value of the at least two types of component values is processed to obtain at least two types of component values after processing. to do
それぞれ前記少なくとも2種類の成分値のうちの各成分値及び各成分値に対応する第1辺情報を融合処理して、前記処理後の少なくとも2種類の成分値を取得することを含み、 fusing each component value of the at least two types of component values and the first side information corresponding to each component value to obtain at least two types of component values after the processing;
前記第1辺情報は少なくともブロック分割情報及び/又は量子化パラメータ情報を含み、 the first side information includes at least block division information and/or quantization parameter information;
前記少なくとも1種類の辺情報及び前記処理後の少なくとも2種類の成分値に基づいて融合処理して、前記フィルタリング対象画素情報の融合情報を取得することは、 Performing a fusion process based on the at least one type of side information and the at least two types of component values after the processing to obtain fusion information of the filtering target pixel information,
前記処理後の少なくとも2種類の成分値及び各成分値に対応する第1辺情報を融合処理して、前記フィルタリング対象画素情報の融合情報を取得することを含む、請求項9に記載の方法。 10. The method of claim 9, comprising fusing the at least two types of component values after processing and the first edge information corresponding to each component value to obtain fusion information of the filtering target pixel information.
前記融合情報を処理して、前記フィルタリング対象画素情報をフィルタリングした後の少なくとも1種類の成分値を取得することは、processing the fusion information to obtain at least one component value after filtering the filtering target pixel information;
前記融合情報に対して連携処理及び分岐処理を行って、前記少なくとも2種類の成分値のうちの少なくとも1種類の成分値に対応する残差情報を取得することと、 Performing cooperation processing and branching processing on the fusion information to obtain residual information corresponding to at least one type of component value among the at least two types of component values;
前記少なくとも2種類の成分値のうちの少なくとも1種類の成分値と前記少なくとも1種類の成分値に対応する残差情報を加算演算して、前記フィルタリング対象画素情報をフィルタリングした後の少なくとも1種類の成分値を取得することと、を含む、請求項9に記載の方法。 At least one component value out of the at least two component values and residual information corresponding to the at least one component value are added to obtain at least one component value after filtering the filtering target pixel information. 10. The method of claim 9, comprising obtaining component values.
各成分値に対応する第2辺情報を取得した場合、それに対応して、それぞれ前記少なくとも2種類の成分値のうちの各成分値を処理して、処理後の少なくとも2種類の成分値を取得することは、When the second side information corresponding to each component value is obtained, each component value of the at least two types of component values is correspondingly processed to obtain at least two types of component values after processing. to do
それぞれ前記少なくとも2種類の成分値のうちの各成分値及び各成分値に対応する第2辺情報を融合処理して、前記処理後の少なくとも2種類の成分値を取得することを含み、 fusing each component value of the at least two types of component values and second side information corresponding to each component value to obtain at least two types of component values after the processing;
前記第2辺情報は第1辺情報と異なり、 The second side information is different from the first side information,
前記少なくとも1種類の辺情報及び前記処理後の少なくとも2種類の成分値に基づいて融合処理して、前記フィルタリング対象画素情報の融合情報を取得することは、 Performing a fusion process based on the at least one type of side information and the at least two types of component values after the processing to obtain fusion information of the filtering target pixel information,
前記処理後の少なくとも2種類の成分値及び各成分値に対応する第2辺情報を融合処理して、前記フィルタリング対象画素情報の融合情報を取得することを含む、請求項8~11のいずれか1項に記載の方法。 12. The method according to any one of claims 8 to 11, comprising fusing at least two types of component values after said processing and second side information corresponding to each component value to obtain fusion information of said filtering target pixel information. 1. The method according to item 1.
前記方法は前記デコーダの後処理フィルタリングモジュールに適用され、前記方法は更に、The method is applied in a post-processing filtering module of the decoder, the method further comprising:
ビットストリームを復号化して、インループフィルタリング後の画像を取得することと、 decoding the bitstream to obtain an image after in-loop filtering;
インループフィルタリング後の画像に含まれる画素をフィルタリング対象画素情報とし、前記フィルタリング方法を実行して、前記フィルタリング対象画素情報をフィルタリングした後の少なくとも1種類の成分値を取得することと、 setting pixels included in an image after in-loop filtering as filtering target pixel information, and performing the filtering method to obtain at least one component value after filtering the filtering target pixel information;
前記フィルタリング対象画素情報をフィルタリングした後の少なくとも1種類の成分値に基づいて、画像を再構築するすることと、を含む、請求項8に記載の方法。 9. The method of claim 8, comprising reconstructing an image based on at least one component value after filtering the filtered pixel information.
エンコーダであって、請求項1~7のいずれか1項に記載の方法を実行するように構成される、エンコーダ。 An encoder configured to perform the method of any one of claims 1-7. デコーダであって、請求項8~13のいずれか1項に記載の方法を実行するように構成される、デコーダ。A decoder, arranged to perform the method of any one of claims 8-13.
JP2021556289A 2019-03-24 2019-09-05 Filtering methods, devices, encoders and computer storage media Pending JP2022526107A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962822951P 2019-03-24 2019-03-24
US62/822,951 2019-03-24
PCT/CN2019/104499 WO2020192020A1 (en) 2019-03-24 2019-09-05 Filtering method and device, encoder and computer storage medium

Publications (2)

Publication Number Publication Date
JP2022526107A JP2022526107A (en) 2022-05-23
JPWO2020192020A5 true JPWO2020192020A5 (en) 2022-09-05

Family

ID=72608393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021556289A Pending JP2022526107A (en) 2019-03-24 2019-09-05 Filtering methods, devices, encoders and computer storage media

Country Status (6)

Country Link
US (1) US20220021905A1 (en)
EP (1) EP3941057A4 (en)
JP (1) JP2022526107A (en)
KR (1) KR20210139342A (en)
CN (1) CN113574884A (en)
WO (1) WO2020192020A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021249684A1 (en) * 2020-06-10 2021-12-16 Huawei Technologies Co., Ltd. Adaptive image enhancement using inter-channel correlation information
US11838522B2 (en) * 2020-12-29 2023-12-05 Tencent America LLC Method and apparatus for video coding
US20230023579A1 (en) * 2021-07-07 2023-01-26 Lemon, Inc. Configurable Neural Network Model Depth In Neural Network-Based Video Coding
WO2023190053A1 (en) * 2022-03-31 2023-10-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Image encoding device, image decoding device, image encoding method, and image decoding method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2016203181B2 (en) * 2016-05-16 2018-09-06 Canon Kabushiki Kaisha Method, apparatus and system for determining a luma value
CN109120937B (en) * 2017-06-26 2020-03-27 杭州海康威视数字技术股份有限公司 Video encoding method, decoding method, device and electronic equipment
CN109151475B (en) * 2017-06-27 2020-03-27 杭州海康威视数字技术股份有限公司 Video encoding method, decoding method, device and electronic equipment
WO2019031410A1 (en) * 2017-08-10 2019-02-14 シャープ株式会社 Image filter device, image decoding device, and image coding device
EP3451670A1 (en) * 2017-08-28 2019-03-06 Thomson Licensing Method and apparatus for filtering with mode-aware deep learning
CN108184129B (en) * 2017-12-11 2020-01-10 北京大学 Video coding and decoding method and device and neural network for image filtering

Similar Documents

Publication Publication Date Title
TWI709329B (en) Method and apparatus of neural network for video coding
CN107925762B (en) Video coding and decoding processing method and device based on neural network
TWI729378B (en) Method and apparatus of neural network for video coding
JP6425609B2 (en) Method and apparatus for space change residual coding
CN113747179B (en) Loop filter implementation method and device and computer storage medium
JP7350082B2 (en) Loop filtering method, apparatus and computer storage medium
CN113766249B (en) Loop filtering method, device, equipment and storage medium in video coding and decoding
TWI779161B (en) Method and apparatus of neural networks with grouping for video coding
US20220021905A1 (en) Filtering method and device, encoder and computer storage medium
CN113574897A (en) Filtering method and device and computer storage medium
US20210400311A1 (en) Method and Apparatus of Line Buffer Reduction for Neural Network in Video Coding
Saldanha et al. An overview of dedicated hardware designs for state-of-the-art AV1 and H. 266/VVC video codecs
JP2024045387A (en) Image decoding method, decoder, and computer storage medium
CN110619607B (en) Image denoising and image coding and decoding method and device including image denoising
JPWO2020192020A5 (en)
Liu et al. Exploring effective mask sampling modeling for neural image compression
Zhang et al. A Reconfigurable Framework for Neural Network Based Video In-Loop Filtering
WO2023051223A1 (en) Filtering method and apparatus, encoding method and apparatus, decoding method and apparatus, computer-readable medium, and electronic device
WO2023134731A1 (en) In-loop neural networks for video coding
CN117981309A (en) Encoding and decoding method, code stream, encoder, decoder, storage medium, and system
CN113556567A (en) Method and device for inter-frame prediction