JP2015154198A - Moving image decoding device and program - Google Patents

Moving image decoding device and program Download PDF

Info

Publication number
JP2015154198A
JP2015154198A JP2014025669A JP2014025669A JP2015154198A JP 2015154198 A JP2015154198 A JP 2015154198A JP 2014025669 A JP2014025669 A JP 2014025669A JP 2014025669 A JP2014025669 A JP 2014025669A JP 2015154198 A JP2015154198 A JP 2015154198A
Authority
JP
Japan
Prior art keywords
unit
image
information
transform coefficient
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014025669A
Other languages
Japanese (ja)
Other versions
JP6269137B2 (en
Inventor
中川 聰
Satoshi Nakagawa
聰 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2014025669A priority Critical patent/JP6269137B2/en
Publication of JP2015154198A publication Critical patent/JP2015154198A/en
Application granted granted Critical
Publication of JP6269137B2 publication Critical patent/JP6269137B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a moving image decoding device capable of improving the image quality of a decoded image of a WZ frame.SOLUTION: The moving image decoding device (DVC decoding device 30) is configured to decode coded image information on which distributed video coding has been performed in a conversion coefficient area obtained by performing space conversion on image information and comprises: a WZ decoding section 31 for decoding the coded image information on which the distributed video coding has been performed, into quantized conversion coefficient information and generating a decoded image from the resultant quantized conversion coefficient information and a conversion coefficient obtained by performing space conversion on a prediction image; and an image quality improving section 32 which includes a space domain filtering part 40 for applying filtering processing in a space domain to the decoded image obtained by the WZ decoding section, reconstructs a conversion coefficient in a conversion coefficient domain by applying the decoded image to which the filtering processing has been applied, and generates a decoded image by performing inverse space conversion.

Description

本発明は動画像復号装置及びプログラムに関し、特に、分散映像符号化方式(Distributed Video Coding:以下、「DVC方式」と呼ぶ)に従って符号化された符号化画像情報を復号する場合に適用し得るものである。   The present invention relates to a moving picture decoding apparatus and program, and in particular, can be applied to decoding encoded picture information encoded according to a distributed video coding scheme (hereinafter referred to as “DVC scheme”). It is.

従来、動画像情報(映像情報)の符号化方式としてDVC方式がある。DVC方式では、動画像を構成する各フレーム画像(以下、単に「フレーム」と呼ぶこともある)を、キーフレーム(Keyフレーム)とWyner−Ziv(以下、「WZ」と呼ぶ)フレームに分ける。そして、DVC方式では、キーフレームについては、例えば、H.264/AVC等による符号化を行う。一方、WZフレームについては、Slepian−Wolf定理及びWyner−Ziv定理等の誤り訂正符号技術を応用した符号化を行う。DVC方式の1種類として、Transform domain DVCと呼ばれる変換係数領域でのDVC方式がある(例えば、非特許文献1、非特許文献2参照)。   Conventionally, there is a DVC method as a method for encoding moving image information (video information). In the DVC system, each frame image (hereinafter also referred to simply as “frame”) constituting a moving image is divided into a key frame (Key frame) and a Wyner-Ziv (hereinafter referred to as “WZ”) frame. In the DVC system, for example, H. H.264 / AVC encoding is performed. On the other hand, the WZ frame is encoded by applying error correction coding techniques such as the Slepian-Wolf theorem and the Wyner-Ziv theorem. As one type of DVC method, there is a DVC method in a transform coefficient region called Transform domain DVC (see, for example, Non-Patent Document 1 and Non-Patent Document 2).

図3は、変換係数領域でのDVC方式に従った従来のDVC符号化装置(DVCエンコーダ)及びDVC復号装置(DVCデコーダ)の構成を示すブロック図である。   FIG. 3 is a block diagram showing a configuration of a conventional DVC encoding apparatus (DVC encoder) and DVC decoding apparatus (DVC decoder) according to the DVC scheme in the transform coefficient domain.

DVCエンコーダ10においては、空間変換部12が、WZフレームに対して、ブロックごとにDCT(離散コサイン変換)等の空間変換を施して変換係数領域に変換する。その後、量子化部13が、得られた変換係数を量子化し、SW符号化部14が、量子化された変換係数情報についてSlepian−Wolf符号化を行う。Slepian−Wolf符号化には、Turbo符号やLDPC(Low Density Parity Check)符号等の誤り訂正符号技術が用いられる。   In the DVC encoder 10, the space conversion unit 12 performs space conversion such as DCT (discrete cosine conversion) on the WZ frame for each block to convert it into a transform coefficient region. Thereafter, the quantizing unit 13 quantizes the obtained transform coefficient, and the SW encoding unit 14 performs the Slepian-Wolf coding on the quantized transform coefficient information. Error correction coding techniques such as Turbo code and LDPC (Low Density Parity Check) code are used for the Slepian-Wolf coding.

DVCデコーダ20においては、予測画像生成部22が、復号された複数のキーフレームからキーフレーム間のWZフレームの画像を動き補償補間等を用いて予測した予測画像を生成する。空間変換部23が、予測画像を空間変換により変換係数領域に変換した変換係数を求め、これを元にWZ復号のためのサイドインフォメーション(副次情報;Side lnformation)を生成する。そして、SW復号部24が、WZフレームの符号データと、サイドインフォメーションとを基に、Slepian−Wolf復号を行って、WZフレームに対する量子化された変換係数情報を得る。得られた量子化された変換係数情報は、WZフレームの各変換係数が取り得る値の範囲をそれぞれ表すものである。逆量子化再構築部25は、サイドインフォメーションの変換係数と復号された量子化された変換係数情報を元にWZフレームに対する変換係数を再構築し、逆空間変換部26が、これを逆空間変換することによりWZフレームの復号画像を生成する。   In the DVC decoder 20, the predicted image generation unit 22 generates a predicted image obtained by predicting an image of a WZ frame between key frames from a plurality of decoded key frames using motion compensation interpolation or the like. The space conversion unit 23 obtains a transform coefficient obtained by transforming the predicted image into a transform coefficient region by spatial transform, and generates side information (secondary information) for WZ decoding based on the transform coefficient. Then, the SW decoding unit 24 performs Slepian-Wolf decoding based on the WZ frame code data and the side information to obtain quantized transform coefficient information for the WZ frame. The obtained quantized transform coefficient information represents a range of values that each transform coefficient of the WZ frame can take. The inverse quantization reconstruction unit 25 reconstructs the transform coefficient for the WZ frame based on the transform coefficient of the side information and the decoded quantized transform coefficient information, and the inverse space transform unit 26 performs the inverse space transform on the transform coefficient. As a result, a decoded image of the WZ frame is generated.

X.Artigas,J.Ascenso,M.Dalai,S.Klomp,D.Kubasov and M.Ouaret,“The Discover Codec:Architecture,Techniques and Evaluation”,in Proc.of Picture Coding Symposium(PCS’07),Vol.6,pp.14496−14410,Lisbon,Portugal,Nov.2007.X. Artigas, J. et al. Ascenso, M .; Darai, S .; Klomp, D.M. Kubasov and M.K. Ouaret, “The Discover Codec: Architecture, Techniques and Evaluation”, in Proc. of Picture Coding Symposium (PCS'07), Vol. 6, pp. 14496-14410, Lisbon, Portugal, Nov. 2007. J.Ascenso,C.Brites,F.Dufaux,A.Femando,T.Ebrahimi,F.Pareira,and S.Tubaro,“The VISNET II DVC Codec:Architecture,TooIs and Performance”,Proc.of the 18th European Signal Processing Conference(EUSIPCO−2010),2010.J. et al. Ascenso, C.I. Brites, F.M. Dufaux, A .; Femando, T .; Ebrahimi, F.M. Paraira, and S.R. Tubaro, “The VISNET II DVC Codec: Architecture, TooIs and Performance”, Proc. of the 18th European Signal Processing Conference (EUSIPCO-2010), 2010.

しかしながら、従来のDVC方式ではSlepian−Wolf復号で得られた量子化された変換係数情報が、量子化による誤差を含んだ変換係数の範囲情報しか提供しないため、サイドインフォメーションとして予測した画像の変換係数が、復号された量子化範囲を逸脱している場合や予測画像の生成の際の動き補償のための動きベクトルが隣接するブロックで大きく異なる場合等では、ブロックノイズ等の画質劣化が生じることがあるという課題がある。   However, in the conventional DVC method, since the quantized transform coefficient information obtained by the Slepian-Wolf decoding provides only range information of transform coefficients including an error due to quantization, the transform coefficient of an image predicted as side information is provided. However, when the decoded quantization range is deviated or when motion vectors for motion compensation at the time of predictive image generation differ greatly between adjacent blocks, image quality degradation such as block noise may occur. There is a problem that there is.

非特許文献2の記載技術では、このようなブロックノイズ低減のためにデブロッキングフィルタを適用しているが、フィルタ処理によって却って画質を劣化させることもあった。   In the technique described in Non-Patent Document 2, a deblocking filter is applied to reduce such block noise. However, the image quality may be deteriorated by the filter process.

そのため、WZフレームの復号画像の画質を高めることができる動画像復号装置及びプログラムが望まれている。   Therefore, there is a demand for a moving image decoding apparatus and program that can improve the image quality of the decoded image of the WZ frame.

上記課題を解決するため、第1の本発明は、画像情報を空間変換した変換係数領域で分散映像符号化された符号化画像情報を復号する動画像復号装置において、(1)分散映像符号化された符号化画像情報を量子化された変換係数情報に復号し、得られた量子化された変換係数情報と、予測画像を空間変換した変換係数とから、復号画像を生成するWZ復号部と、(2)上記WZ復号部が得た復号画像に対して、空間領域でのフィルタ処理を施す空間領域フィルタ部を有し、フィルタ処理された復号画像を適用して、変換係数領域での変換係数を再構築し、逆空間変換して復号画像を生成する画質向上部とを有することを特徴とする。   In order to solve the above problems, a first aspect of the present invention provides a moving image decoding apparatus for decoding encoded image information that has been distributed video encoded in a transform coefficient region obtained by spatially converting image information. (1) Distributed video encoding WZ decoding unit that decodes the encoded image information thus obtained into quantized transform coefficient information, and generates a decoded image from the obtained quantized transform coefficient information and the transform coefficient obtained by spatially transforming the predicted image; (2) The decoded image obtained by the WZ decoding unit has a spatial domain filter unit that performs a filtering process in the spatial domain, and applies the filtered decoded image to transform in the transform coefficient domain. And an image quality improvement unit that reconstructs coefficients and performs inverse space transform to generate a decoded image.

上記課題を解決するため、第2の本発明の動画像復号プログラムは、コンピュータを、(1)分散映像符号化された符号化画像情報を量子化された変換係数情報に復号し、得られた量子化された変換係数情報と、予測画像を空間変換した変換係数とから、復号画像を生成するWZ復号部と、(2)上記WZ復号部が得た復号画像に対して、空間領域でのフィルタ処理を施す空間領域フィルタ部を有し、フィルタ処理された復号画像を適用して、変換係数領域での変換係数を再構築し、逆空間変換して復号画像を生成する画質向上部として機能させることを特徴とする。   In order to solve the above-described problem, a moving picture decoding program according to a second aspect of the present invention is obtained by decoding a computer (1) encoded image information that has been distributed video encoded into quantized transform coefficient information. A WZ decoding unit that generates a decoded image from the quantized transform coefficient information and a transform coefficient obtained by spatially transforming the predicted image; and (2) the decoded image obtained by the WZ decoding unit in the spatial domain. Function as an image quality improvement unit that has a spatial domain filter unit that performs filter processing, applies the filtered decoded image, reconstructs transform coefficients in the transform coefficient region, and generates a decoded image by inverse spatial transformation It is characterized by making it.

本発明によれば、サイドインフォメーションとして予測した画像の変換係数が、量子化範囲を逸脱している場合等に生じるノイズを空間領域でのフィルタ処理で低減することができ、しかも、フィルタ処理による画質劣化の影響を量子化範囲内にとどめることができて画質を改善できる動画像復号装置及びプログラムを実現できる。   According to the present invention, noise generated when the image conversion coefficient predicted as side information deviates from the quantization range can be reduced by filtering in the spatial domain. It is possible to realize a moving picture decoding apparatus and program that can keep the influence of deterioration within the quantization range and improve the image quality.

第1の実施形態に係るDVC復号装置(DVCデコーダ)の構成を示すブロック図である。It is a block diagram which shows the structure of the DVC decoding apparatus (DVC decoder) which concerns on 1st Embodiment. 第2の実施形態に係るDVC復号装置(DVCデコーダ)の構成を示すブロック図である。It is a block diagram which shows the structure of the DVC decoding apparatus (DVC decoder) which concerns on 2nd Embodiment. 変換係数領域でのDVC方式に従った従来のDVCエンコーダ及びDVCデコーダの構成を示すブロック図である。It is a block diagram which shows the structure of the conventional DVC encoder and DVC decoder according to the DVC system in a conversion factor area | region.

(A)第1の実施形態
以下、本発明による動画像復号装置及びプログラムの第1の実施形態を、図面を参照しながら説明する。第1の実施形態の動画像復号装置は、変換係数領域でのDVC方式に従ったDVC符号化装置(DVCエンコーダ;図3参照)が符号化した符号化データ(WZフレーム符号化データ及びキーフレーム符号化データ)を復号するDVC復号装置(DVCデコーダ)である。
(A) First Embodiment Hereinafter, a first embodiment of a moving picture decoding apparatus and a program according to the present invention will be described with reference to the drawings. The moving picture decoding apparatus according to the first embodiment includes encoded data (WZ frame encoded data and key frame) encoded by a DVC encoding apparatus (DVC encoder; see FIG. 3) according to the DVC method in the transform coefficient region. A DVC decoding device (DVC decoder) for decoding (encoded data).

(A−1)第1の実施形態の構成
図1は、第1の実施形態に係るDVC復号装置(DVCデコーダ)の構成を示すブロック図であり、上述した従来のDVC復号装置の構成を示す図3との同一、対応部分には同一符号を付して示している。ここで、第1の実施形態のDVC復号装置は、ハードウェアで構成することも可能であり、また、CPUが実行するソフトウェア(DVC復号プログラム)とCPUとで実現することも可能であるが、いずれの実現方法を採用した場合であっても、機能的には図1で表すことができる。
(A-1) Configuration of the First Embodiment FIG. 1 is a block diagram showing the configuration of the DVC decoding device (DVC decoder) according to the first embodiment, and shows the configuration of the conventional DVC decoding device described above. The same and corresponding parts as those in FIG. 3 are denoted by the same reference numerals. Here, the DVC decoding apparatus according to the first embodiment can be configured by hardware, and can also be realized by software (DVC decoding program) executed by the CPU and the CPU. Whichever implementation method is employed, it can be functionally represented in FIG.

図1において、第1の実施形態のDVC復号装置30は、WZ復号部31と画質向上部32とを有する。   In FIG. 1, the DVC decoding device 30 according to the first embodiment includes a WZ decoding unit 31 and an image quality improvement unit 32.

WZ復号部31は、従来のDVC復号装置と同様な構成を有する。すなわち、WZ復号部31は、キーフレームデコーダ21、予測画像生成部22、空間変換部(以下、「第1の空間変換部」と呼ぶ)23、SW復号部24、逆量子化再構築部(以下、「第1の逆量子化再構築部」と呼ぶ)25及び逆空間変換部(以下、「第1の逆空間変換部」と呼ぶ)26を有する。一方、画質向上部32は、空間領域フィルタ部40、第2の空間変換部41、第2の逆量子化再構築部42及び第2の逆空間変換部43を有する。   The WZ decoding unit 31 has the same configuration as that of a conventional DVC decoding device. That is, the WZ decoding unit 31 includes a key frame decoder 21, a predicted image generation unit 22, a spatial conversion unit (hereinafter referred to as “first spatial conversion unit”) 23, an SW decoding unit 24, an inverse quantization reconstruction unit ( Hereinafter, it has a "first inverse quantization reconstruction unit") 25 and an inverse space transform unit (hereinafter referred to as "first inverse space transform unit") 26. On the other hand, the image quality improvement unit 32 includes a spatial domain filter unit 40, a second spatial transformation unit 41, a second inverse quantization reconstruction unit 42, and a second inverse spatial transformation unit 43.

WZ復号部31における各部は、従来のDVC復号装置における各部と同様なものである。キーフレームデコーダ21は、キーフレーム符号化データを復号し、キーフレーム復号画像を得るものである。予測画像生成部22は、複数のキーフレーム復号画像から、キーフレーム間のWZフレームの画像を動き補償補間等を用いて予測した予測画像を生成するものである。第1の空間変換部23は、予測画像を変換係数領域に空間変換するものである。SW復号部24は、これをサイドインフォメーションとして、WZフレーム符号化データから、量子化された変換係数情報を復号するものである。第1の逆量子化再構築部25は、復号された量子化された変換係数情報とサイドインフォメーションから、WZフレームの変換係数を再構築するものである。第1の逆空間変換部26は、再構築された変換係数を空間領域の復号画像に変換するものである。   Each unit in the WZ decoding unit 31 is the same as each unit in the conventional DVC decoding apparatus. The key frame decoder 21 decodes key frame encoded data to obtain a key frame decoded image. The predicted image generation unit 22 generates a predicted image obtained by predicting a WZ frame image between key frames by using motion compensation interpolation or the like from a plurality of key frame decoded images. The first spatial conversion unit 23 performs spatial conversion of the predicted image into a conversion coefficient region. The SW decoding unit 24 decodes quantized transform coefficient information from the WZ frame encoded data using this as side information. The first inverse quantization reconstruction unit 25 reconstructs the transform coefficient of the WZ frame from the decoded quantized transform coefficient information and side information. The first inverse space transform unit 26 transforms the reconstructed transform coefficient into a spatial domain decoded image.

従来であれば、WZ復号部31から出力されたWZフレーム復号画像が最終的な復号画像として出力されていたが、この第1の実施形態の場合、WZ復号部31から出力されたWZフレーム復号画像は、画質向上部32に与えられる。   Conventionally, the WZ frame decoded image output from the WZ decoding unit 31 is output as the final decoded image. In the case of the first embodiment, the WZ frame decoding output from the WZ decoding unit 31 is performed. The image is given to the image quality improvement unit 32.

画質向上部32における空間領域フィルタ部40は、WZ復号部1で得られたWZフレーム復号画像に対して空間領域(画素値領域)でのフィルタ処理を行うものである。空間領域フィルタ部40として、例えば、空間変換単位のブロックの境界に対するデブロッキングフィルタや、高周波成分を抑圧する平滑化フィルタ等を適用することができる。ここで、複数のフィルタを併用するようにしても良い。   The spatial region filter unit 40 in the image quality improvement unit 32 performs a filtering process in the spatial region (pixel value region) on the WZ frame decoded image obtained by the WZ decoding unit 1. As the spatial domain filter unit 40, for example, a deblocking filter for a boundary of a block of a spatial transformation unit, a smoothing filter that suppresses high frequency components, or the like can be applied. Here, a plurality of filters may be used in combination.

第2の空間変換部41は、空間領域フィルタ部40で得られたフィルタ処理された画像を変換係数領域に変換するものである。第2の空間変換部41が適用する空間変換方法は、例えばDCTなど、第1の空間変換部23が適用している空間変換方法と同一である。   The second space conversion unit 41 converts the filtered image obtained by the space region filter unit 40 into a conversion coefficient region. The space conversion method applied by the second space conversion unit 41 is the same as the space conversion method applied by the first space conversion unit 23, such as DCT.

第2の逆量子化再構築部42は、フィルタ処理された画像から得られた変換係数と、SW復号部24で得られた量子化された変換係数情報とから、フィルタ後の変換係数を再構築し直すものである。ここでの再構築方法としては、例えば、変換係数を量子化された変換係数情報が示す量子化範囲内にクリップする、あるいは、量子化範囲内での期待値を求めるなどの方法を適用することができる。このような再構築処理により、空間領域でのフィルタ処理によって変換係数領域では量子化範囲外にはみ出してしまうような場合を防止することができる。また、量子化範囲内の変換係数についても、よりノイズの低減された変換係数を得ることができる。   The second inverse quantization reconstruction unit 42 reconstructs the transformed transform coefficient from the transform coefficient obtained from the filtered image and the quantized transform coefficient information obtained by the SW decoding unit 24. It is to reconstruct. As a reconstruction method here, for example, a method of clipping the transform coefficient within the quantization range indicated by the quantized transform coefficient information or obtaining an expected value within the quantization range is applied. Can do. By such a reconstruction process, it is possible to prevent a case in which the transform coefficient domain protrudes outside the quantization range due to the filter process in the spatial domain. Also, a transform coefficient with further reduced noise can be obtained for transform coefficients within the quantization range.

第2の逆空間変換部43は、第2の逆量子化再構築部42で得られた変換係数を空間領域に逆変換して復号画像を生成して出力するものである。この第1の実施形態の場合、第2の逆空間変換部43から出力された復号画像が、最終的なWZフレーム復号画像として次段装置へ送出される。   The second inverse space transform unit 43 generates a decoded image by inversely transforming the transform coefficient obtained by the second inverse quantization reconstructing unit 42 into a spatial domain and outputs the decoded image. In the case of the first embodiment, the decoded image output from the second inverse space transform unit 43 is sent to the next stage apparatus as the final WZ frame decoded image.

(A−2)第1の実施形態の動作
次に、第1の実施形態のDVC復号装置30における復号動作について説明する。
(A-2) Operation of the First Embodiment Next, the decoding operation in the DVC decoding device 30 of the first embodiment will be described.

第1の実施形態のDVC復号装置30に対しては、対向するDVC符号化装置(DVCエンコーダ;図3参照)が送出したキーフレーム符号化データ及びWZフレーム符号化データが与えられる。   The DVC decoding apparatus 30 according to the first embodiment is provided with key frame encoded data and WZ frame encoded data transmitted by the opposing DVC encoding apparatus (DVC encoder; see FIG. 3).

キーフレーム符号化データは、キーフレームデコーダ21によって復号され、得られたキーフレーム復号画像が、予測画像生成部22に与えられると共に、次段装置に送出される。予測画像生成部22においては、複数のキーフレーム復号画像から、キーフレーム間のWZフレームの画像を動き補償補間等を用いて予測した予測画像が生成され、第1の空間変換部23に与えられる。第1の空間変換部23においては、予測画像に対して空間変換が実行され、得られた変換係数がサイドインフォメーションとしてSW復号部24及び第1の逆量子化再構築部25に与えられる。SW復号部24においては、サイドインフォメーションと入力されたWZフレーム符号化データとから、量子化された変換係数情報が復号され、第1及び第2の逆量子化再構築部25及び42に与えられる。第1の逆量子化再構築部25においては、復号された量子化された変換係数情報とサイドインフォメーションとから、WZフレームの変換係数が再構築され、再構築された変換係数が第1の逆空間変換部26によって空間領域の情報に変換され、得られた復号画像が、画質向上部32の空間領域フィルタ部40に与えられる。   The key frame encoded data is decoded by the key frame decoder 21, and the obtained key frame decoded image is given to the predicted image generation unit 22 and sent to the next stage apparatus. In the predicted image generation unit 22, a predicted image obtained by predicting a WZ frame image between key frames using motion compensation interpolation or the like is generated from a plurality of key frame decoded images, and is provided to the first space conversion unit 23. . In the first spatial transformation unit 23, spatial transformation is performed on the predicted image, and the obtained transformation coefficient is provided to the SW decoding unit 24 and the first inverse quantization reconstruction unit 25 as side information. In the SW decoding unit 24, the quantized transform coefficient information is decoded from the side information and the input WZ frame encoded data, and is supplied to the first and second inverse quantization reconstructing units 25 and 42. . In the first inverse quantization reconstructing unit 25, the transform coefficient of the WZ frame is reconstructed from the decoded quantized transform coefficient information and the side information, and the reconstructed transform coefficient is converted into the first inverse transform coefficient. The decoded image obtained by converting into space area information by the space converting unit 26 is provided to the space area filter unit 40 of the image quality improving unit 32.

空間領域フィルタ部40において、WZ復号部31で得られたWZフレーム復号画像に対して、空間領域(画素値領域)でのフィルタ処理が実行され、フィルタ処理後の画像が第2の空間変換部41に与えられる。   In the spatial domain filter unit 40, the WZ frame decoded image obtained by the WZ decoding unit 31 is subjected to filter processing in the spatial domain (pixel value region), and the image after the filtering process is the second spatial conversion unit. 41.

第2の空間変換部41においては、第1の空間変換部23と同様に、フィルタ処理された画像に対する変換係数領域への変換が実行され、得られた変換係数が第2の逆量子化再構築部42に与えられる。   In the second spatial transformation unit 41, as in the first spatial transformation unit 23, transformation of the filtered image into a transformation coefficient region is executed, and the obtained transformation coefficient is converted into the second inverse quantization re-production. It is given to the construction unit 42.

これにより、第2の逆量子化再構築部42によって、フィルタ処理された画像から得られた変換係数と、SW復号部24で得られた量子化された変換係数情報とから、フィルタ後の変換係数が再構築されて、第2の逆空間変換部43に与えられ、第2の逆空間変換部43によって、再構築された変換係数が空間領域に逆変換されて最終的なWZフレーム復号画像が生成され、次段装置へ送出される。   As a result, the second inverse quantization reconstruction unit 42 uses the transform coefficient obtained from the filtered image and the quantized transform coefficient information obtained by the SW decoding unit 24 to perform post-filter transform. The coefficients are reconstructed and given to the second inverse space transform unit 43, and the second inverse space transform unit 43 transforms the reconstructed transform coefficients back into the spatial domain, resulting in a final WZ frame decoded image. Is generated and sent to the next-stage apparatus.

(A−3)第1の実施形態の効果
第1の実施形態によれば、以下のような効果が得られる。
(A-3) Effects of First Embodiment According to the first embodiment, the following effects can be obtained.

サイドインフォメーションとして予測した画像の変換係数が、量子化範囲を逸脱している場合等に生じるノイズを空間領域でのフィルタ処理で低減することができる。また、フィルタ処理による画質劣化の影響を量子化範囲内にとどめることができ、さらに画質を改善することができる。   Noise generated when the image conversion coefficient predicted as side information deviates from the quantization range can be reduced by filtering in the spatial domain. Further, the influence of the image quality deterioration due to the filter processing can be kept within the quantization range, and the image quality can be further improved.

(B)第2の実施形態
次に、本発明による動画像復号装置及びプログラムの第2の実施形態を、図面を参照しながら説明する。第2の実施形態の動画像復号装置も、DVC復号装置(DVCデコーダ)である。
(B) Second Embodiment Next, a second embodiment of the moving picture decoding apparatus and program according to the present invention will be described with reference to the drawings. The moving picture decoding apparatus according to the second embodiment is also a DVC decoding apparatus (DVC decoder).

(B−1)第2の実施形態の構成
図2は、第2の実施形態に係るDVC復号装置(DVCデコーダ)の構成を示すブロック図であり、上述した第1の実施形態に係る図1との同一、対応部分には同一、対応符号を付して示している。
(B-1) Configuration of Second Embodiment FIG. 2 is a block diagram showing a configuration of a DVC decoding device (DVC decoder) according to the second embodiment, and FIG. 1 according to the first embodiment described above. The same and corresponding parts are indicated by the same and corresponding reference numerals.

図2において、第2の実施形態のDVC復号装置30Aも、WZ復号部31Aと画質向上部32Aとを有する。   In FIG. 2, the DVC decoding device 30A of the second embodiment also includes a WZ decoding unit 31A and an image quality improvement unit 32A.

WZ復号部31Aは、第1の実施形態と同様に、キーフレームデコーダ21、予測画像生成部22A、第1の空間変換部23、SW復号部24、第1の逆量子化再構築部25A及び第1の逆空間変換部26を有するが、予測画像生成部22A及び第1の逆量子化再構築部25Aが第1の実施形態のものと多少異なっている。   As in the first embodiment, the WZ decoding unit 31A includes a key frame decoder 21, a predicted image generation unit 22A, a first spatial transformation unit 23, a SW decoding unit 24, a first inverse quantization reconstruction unit 25A, and Although the first inverse space conversion unit 26 is included, the predicted image generation unit 22A and the first inverse quantization reconstruction unit 25A are slightly different from those of the first embodiment.

第2の実施形態の場合、画質向上部32Aは、空間領域フィルタ部40A、第2の空間変換部41、第2の逆量子化再構築部42及び第2の逆空間変換部43に加え、フィルタ制御部44を有しており、また、空間領域フィルタ部40Aが第1の実施形態のものと多少異なっている。   In the case of the second embodiment, the image quality improvement unit 32A is added to the spatial domain filter unit 40A, the second spatial transformation unit 41, the second inverse quantization reconstruction unit 42, and the second inverse spatial transformation unit 43, The filter control unit 44 is provided, and the spatial domain filter unit 40A is slightly different from that of the first embodiment.

以下では、第1の実施形態と異なる構成を主に説明する。   Hereinafter, a configuration different from the first embodiment will be mainly described.

予測画像生成部22Aは、第1の実施形態の予測画像生成部22が実行する機能に加え、動き補償補間等で用いた動きベクトルが動き補償ブロック間で異なる場合等の動き境界情報をフィルタ制御部44に供給する機能を有している。   In addition to the function executed by the prediction image generation unit 22 of the first embodiment, the prediction image generation unit 22A performs filter control on motion boundary information when the motion vector used in motion compensation interpolation or the like differs between motion compensation blocks. The function of supplying to the unit 44 is provided.

逆量子化再構築部25Aは、第1の実施形態の逆量子化再構築部25が実行する機能に加え、変換係数の再構築の際にサイドインフォメーションの変換係数がSW復号部24Aから得られる量子化された変換係数情報の示す量子化範囲の範囲外であったことを示す範囲外情報をフィルタ制御部44に供給する機能を有している。   In addition to the function executed by the inverse quantization reconstruction unit 25 of the first embodiment, the inverse quantization reconstruction unit 25A obtains the conversion coefficient of the side information from the SW decoding unit 24A at the time of reconstruction of the conversion coefficient. The filter control unit 44 has a function of supplying out-of-range information indicating that the quantized transform coefficient information is outside the quantization range indicated by the quantized transform coefficient information.

第2の実施形態で新たに設けられたフィルタ制御部44は、予測画像生成部22Aから与えられる動き境界情報と、逆量子化再構築部25Aから与えられる範囲外情報に基づいて、空間領域フィルタ部40Aで適用するフィルタの種類やフィルタリングの強度を制御するものである。フィルタ制御部44は、例えば、動き境界や量子化範囲外係数を含む空間変換単位領域の境界に対してデブロッキングフィルタを適用し、量子化範囲外の高周波成分を含む空間変換単位領域に対して平滑化フィルタを適用する等の判断を行う。ここで、デブロッキングフィルタを適用するためであれば、動きベクトル間の差ベクトルの大きさなどに基づいて境界強度を切り換えるようにしても良く、また、平滑化フィルタを適用する場合であれば高周波成分のレベル等に応じて平滑化の重み付け係数を切り換えるようにしても良い。   The filter control unit 44 newly provided in the second embodiment is based on the motion boundary information given from the predicted image generation unit 22A and the out-of-range information given from the dequantization reconstruction unit 25A. The type of filter applied by the unit 40A and the strength of filtering are controlled. For example, the filter control unit 44 applies a deblocking filter to the boundary of the spatial transformation unit region including the motion boundary and the coefficient outside the quantization range, and applies to the spatial transformation unit region including the high frequency component outside the quantization range. Judgment is made such as applying a smoothing filter. Here, if the deblocking filter is applied, the boundary strength may be switched based on the magnitude of the difference vector between the motion vectors, and if the smoothing filter is applied, the high frequency is applied. The smoothing weighting coefficient may be switched according to the component level or the like.

空間領域フィルタ部40Aは、第1の実施形態の空間領域フィルタ部40とは異なり、適用するフィルタの種類やフィルタリングの強度を変えることができるものとなっており、フィルタ制御部44からの制御情報に従って、WZ復号部31Aからの復号画像に対して画像領域や領域境界ごとに適応的にフィルタ処理を行うものである。   Unlike the spatial domain filter unit 40 of the first embodiment, the spatial domain filter unit 40A can change the type of filter to be applied and the strength of filtering, and control information from the filter control unit 44 can be changed. Accordingly, the filtering process is adaptively performed on the decoded image from the WZ decoding unit 31A for each image region or region boundary.

(B−2)第2の実施形態の動作
次に、第2の実施形態のDVC復号装置30Aにおける復号動作について説明する。
(B-2) Operation of the Second Embodiment Next, the decoding operation in the DVC decoding device 30A of the second embodiment will be described.

第2の実施形態のDVC復号装置30Aにおける復号動作も、基本的な流れは、第1の実施形態のDVC復号装置30における復号動作と同様である。   The basic operation of the decoding operation in the DVC decoding device 30A of the second embodiment is the same as the decoding operation in the DVC decoding device 30 of the first embodiment.

すなわち、対向するDVC符号化装置が送出したキーフレーム符号化データは、キーフレームデコーダ21によって復号され、得られたキーフレーム復号画像が、予測画像生成部22Aに与えられると共に、次段装置に送出される。予測画像生成部22Aにおいて、複数のキーフレーム復号画像から、キーフレーム間のWZフレームの画像を動き補償補間等を用いて予測した予測画像が生成され、第1の空間変換部23において、予測画像に対して空間変換が実行される。SW復号部24において、第1の空間変換部23からのサイドインフォメーションと対向するDVC符号化装置が送出したWZフレーム符号化データとから、量子化された変換係数情報が復号され、第1の逆量子化再構築部25Aにおいて、復号された量子化された変換係数情報とサイドインフォメーションとから、WZフレームの変換係数が再構築され、再構築された変換係数が第1の逆空間変換部26によって空間領域の情報に変換され、得られた復号画像が、画質向上部32Aの空間領域フィルタ部40Aに与えられる。   That is, the key frame encoded data sent by the opposing DVC encoding device is decoded by the key frame decoder 21, and the obtained key frame decoded image is given to the predicted image generation unit 22A and sent to the next stage device. Is done. In the predicted image generation unit 22A, a predicted image in which an image of a WZ frame between key frames is predicted using motion compensation interpolation or the like is generated from a plurality of decoded key frame images, and in the first spatial conversion unit 23, a predicted image is generated. A spatial transformation is performed on. In the SW decoding unit 24, the quantized transform coefficient information is decoded from the side information from the first spatial transform unit 23 and the WZ frame encoded data transmitted by the opposite DVC encoding device, and the first inverse In the quantization reconstructing unit 25A, the transform coefficient of the WZ frame is reconstructed from the decoded quantized transform coefficient information and the side information, and the reconstructed transform coefficient is converted by the first inverse space transform unit 26. The decoded image obtained by conversion into the spatial domain information is provided to the spatial domain filter unit 40A of the image quality improvement unit 32A.

空間領域フィルタ部40Aにおいて、得られたWZフレーム復号画像に対して、空間領域(画素値領域)でのフィルタ処理が実行され、第2の空間変換部41において、フィルタ処理された画像に対する変換係数領域への変換が実行され、第2の逆量子化再構築部42において、フィルタ処理された画像から得られた変換係数と、SW復号部24で得られた量子化された変換係数情報とから、フィルタ後の変換係数が再構築されて、第2の逆空間変換部43において、再構築された変換係数が空間領域に逆変換されて最終的なWZフレーム復号画像が生成され、次段装置へ送出される。   The spatial domain filter unit 40A performs a filtering process in the spatial domain (pixel value domain) on the obtained WZ frame decoded image, and the second spatial transformation unit 41 performs a transform coefficient for the filtered image. The conversion to the region is executed, and the second inverse quantization reconstruction unit 42 uses the transform coefficient obtained from the filtered image and the quantized transform coefficient information obtained by the SW decoding unit 24. Then, the filtered transform coefficients are reconstructed, and the second inverse space transform unit 43 transforms the reconstructed transform coefficients back into the spatial domain to generate a final WZ frame decoded image. Is sent to.

第2の実施形態の場合、空間領域フィルタ部40Aがフィルタ処理を適応的に切り替える点が、第1の実施形態と異なっており、以下、フィルタ処理を適応的に切り替えることに関連した動作を説明する。   In the case of the second embodiment, the point that the spatial domain filter unit 40A adaptively switches the filter processing is different from the first embodiment, and the operation related to adaptively switching the filter processing will be described below. To do.

上述したように、予測画像生成部22Aにおいて、動き補償補間等を用いて予測画像の生成を行うが、隣接する動き補償ブロック間で動き補償に用いた参照画像や動きベクトルが異なる場合など、ブロック境界が不連続な予測画像となる場合がある。このような動き補償ブロック間の動きの不連続な境界が、予測画像生成部22Aにおいて検出され、各動き補償ブロックに対する動き境界情報としてフィルタ制御部44に与えられる。   As described above, the predicted image generation unit 22A generates a predicted image using motion compensation interpolation or the like. However, when the reference image or motion vector used for motion compensation is different between adjacent motion compensation blocks, There are cases where the predicted image has a discontinuous boundary. Such a discontinuous boundary between motion compensation blocks is detected by the predicted image generation unit 22A, and is provided to the filter control unit 44 as motion boundary information for each motion compensation block.

また、逆量子化再構築部25Aにおいては、サイドインフォメーションの変換係数が、SW復号部24から得られる量子化された変換係数情報を用いて量子化範囲内となるように再構築されるが、サイドインフォメーションの各変換係数について、変換係数が量子化された変換係数情報が示す量子化範囲の範囲外であったことを示す範囲外情報が逆量子化再構築部25Aからフィルタ制御部44に与えられる。   Further, in the inverse quantization reconstruction unit 25A, the conversion coefficient of the side information is reconstructed so as to be within the quantization range using the quantized conversion coefficient information obtained from the SW decoding unit 24. For each transform coefficient of the side information, out-of-range information indicating that the transform coefficient is out of the quantization range indicated by the quantized transform coefficient information is given from the inverse quantization reconstruction unit 25A to the filter control unit 44. It is done.

フィルタ制御部44においては、予測画像生成部22Aから与えられた動き境界情報と、逆量子化再構築部25Aから与えられた範囲外情報を適用して、各動き補償ブロック境界や各空間変換単位領域について、空間領域フィルタ部40Aで適用するフィルタの種類や強度が決定され、決定された内容を含む制御情報が空間領域フィルタ部40Aに与えられる。   In the filter control unit 44, the motion boundary information given from the predicted image generation unit 22A and the out-of-range information given from the inverse quantization reconstruction unit 25A are applied to each motion compensation block boundary and each spatial transformation unit. For the region, the type and strength of the filter to be applied by the spatial region filter unit 40A are determined, and control information including the determined content is given to the spatial region filter unit 40A.

このようなフィルタ制御部44からの制御情報に従って、空間領域フィルタ部40Aにおいて、WZ復号部31Aからの復号画像に対してフィルタ処理が実行される。すなわち、画像領域や領域境界ごとに適応的にフィルタの種類や強度の異なるフィルタ処理が実行される。   In accordance with the control information from the filter control unit 44, the spatial domain filter unit 40A performs a filter process on the decoded image from the WZ decoding unit 31A. That is, filter processing with different filter types and intensities is adaptively performed for each image region or region boundary.

(B−3)第2の実施形態の効果
第2の実施形態によれば、第1の実施形態と同様の効果に加えて、以下の効果を奏することができる。すなわち、空間領域でのフィルタ処理を、ブロックノイズ等が発生し易い領域等について適応的に制御することができ、より画質劣化の少ない復号画像を得ることができる。
(B-3) Effects of Second Embodiment According to the second embodiment, in addition to the same effects as those of the first embodiment, the following effects can be achieved. That is, the filtering process in the spatial domain can be adaptively controlled in a region where block noise or the like is likely to occur, and a decoded image with less image quality degradation can be obtained.

(C)他の実施形態
本発明は、上記各実施形態に限定されるものではない。以下に例示するような変形実施形態を挙げることができる。
(C) Other Embodiments The present invention is not limited to the above embodiments. The following modified embodiments can be given.

例えば、キーフレームの符号化方式としてH.264/AVCやその他の符号化方法を用いているもの、空間変換としてDCTやDCT以外の変換を用いるもの、Slepian−Wolf符号化としてTurbo符号やLDPC符号を応用した誤り訂正技術を用いているもの、Slepian−Wolf符号化にフィードバックを用いるものや用いないもの、などさまざまなDVC方式の形態に利用可能である。   For example, H.264 is used as a key frame encoding method. H.264 / AVC and other encoding methods, spatial conversion using conversions other than DCT and DCT, and Slepian-Wolf encoding using error correction technology applying Turbo code or LDPC code The present invention can be used in various DVC schemes such as those that use feedback and those that do not use feedback in Slepian-Wolf encoding.

上記各実施形態では、画質向上部内の第2の空間変換部、第2の逆量子化最構築部、第2の逆空間変換部を、WZ復号部と独立に構成する例を記載したが、WZ復号部内の同様の機能を有する処理部と、処理機能を共用するように構成しても良い。例えば、空間変換部、逆量子化最構築部若しくは逆空間変換部の機能を実行するサブルーチン(プログラム)や回路として用意しているものを、WZ復号部と画質向上部とで時分割で適用するようにしても良い。   In each of the above embodiments, the example in which the second spatial transformation unit, the second inverse quantization reconstructing unit, and the second inverse spatial transformation unit in the image quality improvement unit are configured independently of the WZ decoding unit has been described. You may comprise so that a processing function may be shared with the process part which has the same function in a WZ decoding part. For example, what is prepared as a subroutine (program) or a circuit for executing the functions of the space conversion unit, the inverse quantization reconstructing unit, or the inverse space conversion unit is applied in a time division manner between the WZ decoding unit and the image quality improvement unit. You may do it.

また、上記各実施形態では、フィルタ処理後に再構築された変換係数を復号画像生成にのみ用いる例を説明したが、この再構築されたフィルタ後の変換係数を予測画像に代わる新たなサイドインフォメーションとしてWZ復号部にフィードバックし、繰り返し復号を行うような構成とするようにしても良い。ここで、繰り返し回数は任意に選定するようにすれば良い。   Further, in each of the above embodiments, the example in which the transform coefficient reconstructed after the filter process is used only for generation of the decoded image has been described. However, the reconstructed transform coefficient after the filter is used as new side information in place of the prediction image. The configuration may be such that feedback is performed to the WZ decoding unit and iterative decoding is performed. Here, the number of repetitions may be arbitrarily selected.

さらに、上記各実施形態では、第2の空間変換部41が得た空間変換係数を第2の逆量子化再構築部42だけが利用する場合を示したが、入力されたWZフレーム符号化データが与えられる第2のSW復号部を設け、第2の空間変換部41が得た空間変換係数を第2のSW復号部に与え、入力されたWZフレーム符号化データをSW復号させ、その復号後の量子化されている変換係数を第2の逆量子化再構築部42に入力するようにしても良い。   Furthermore, although each said embodiment showed the case where only the 2nd dequantization reconstruction part 42 utilized the space conversion coefficient which the 2nd space conversion part 41 obtained, input WZ frame coding data The second SW decoding unit is provided, the spatial conversion coefficient obtained by the second spatial conversion unit 41 is provided to the second SW decoding unit, the input WZ frame encoded data is SW decoded, and the decoding is performed. The later quantized transform coefficient may be input to the second inverse quantization reconstruction unit 42.

30、30A…DVC復号装置、
31、31A…WZ復号部、
21…キーフレームデコーダ、22、22A…予測画像生成部、23…第1の空間変換部、24…SW復号部、25、25A…第1の逆量子化再構築部、26…第1の逆空間変換部、
32、32A…画質向上部、
40、40A…空間領域フィルタ部、41…第2の空間変換部、42…第2の逆量子化再構築部、43…第2の逆空間変換部、44…フィルタ制御部。
30, 30A ... DVC decoding device,
31, 31A ... WZ decoding unit,
DESCRIPTION OF SYMBOLS 21 ... Key frame decoder 22, 22A ... Predictive image production | generation part, 23 ... 1st spatial transformation part, 24 ... SW decoding part, 25, 25A ... 1st inverse quantization reconstruction part, 26 ... 1st reverse Spatial conversion part,
32, 32A ... image quality improvement unit,
40, 40A ... Spatial domain filter unit, 41 ... Second spatial transformation unit, 42 ... Second inverse quantization reconstruction unit, 43 ... Second inverse spatial transformation unit, 44 ... Filter control unit.

Claims (11)

画像情報を空間変換した変換係数領域で分散映像符号化された符号化画像情報を復号する動画像復号装置において、
分散映像符号化された符号化画像情報を量子化された変換係数情報に復号し、得られた量子化された変換係数情報と、予測画像を空間変換した変換係数とから、復号画像を生成するWZ復号部と、
上記WZ復号部が得た復号画像に対して、空間領域でのフィルタ処理を施す空間領域フィルタ部を有し、フィルタ処理された復号画像を適用して、変換係数領域での変換係数を再構築し、逆空間変換して復号画像を生成する画質向上部と
を有することを特徴とする動画像復号装置。
In a video decoding device for decoding encoded image information that has been distributed video encoded in a transform coefficient region obtained by spatially converting image information,
The encoded image information that has been distributed video encoded is decoded into quantized transform coefficient information, and a decoded image is generated from the obtained quantized transform coefficient information and a transform coefficient obtained by spatially transforming the predicted image. A WZ decoding unit;
The decoded image obtained by the WZ decoding unit has a spatial domain filter unit that performs a filtering process in the spatial domain, and applies the decoded decoded image to reconstruct the transform coefficient in the transform coefficient region And an image quality improving unit that generates a decoded image by inverse space conversion.
上記画質向上部は、上記空間領域フィルタ部に加え、
フィルタ処理された復号画像を変換係数領域に変換する空間変換部と、
上記WZ復号部で得られた量子化された変換係数情報と、上記空間変換部が得た変換係数から、フィルタ処理後の変換係数を再構築する逆量子化再構築部と、
再構築された変換係数を逆空間変換して復号画像を生成する逆空間変換部とを有する
ことを特徴とする請求項1に記載の動画像復号装置。
In addition to the spatial domain filter unit, the image quality improvement unit includes:
A spatial transform unit that transforms the filtered decoded image into a transform coefficient region;
An inverse quantization reconstructing unit that reconstructs the transformed transform coefficient after filtering from the quantized transform coefficient information obtained by the WZ decoding unit and the transform coefficient obtained by the spatial transform unit;
The moving image decoding apparatus according to claim 1, further comprising: an inverse space conversion unit that generates a decoded image by performing inverse space conversion on the reconstructed transform coefficient.
上記画質向上部は、上記WZ復号部における復号処理の過程で得られた情報から画質劣化の可能性がある領域を検出し、上記空間領域フィルタ部において適用するフィルタを、画質劣化の可能性のある領域ごとに制御するフィルタ制御部を有し、
上記空間領域フィルタ部が、上記フィルタ制御部からの制御情報を元に、上記WZ復号部が得た復号画像に対して、適応的にフィルタ処理を施す
ことを特徴とする請求項1又は2に記載の動画像復号装置。
The image quality improvement unit detects an area having a possibility of image quality degradation from information obtained in the process of the decoding process in the WZ decoding unit, and applies a filter applied in the spatial domain filter unit to the possibility of image quality degradation. It has a filter control unit that controls each area,
3. The spatial domain filter unit adaptively performs a filtering process on the decoded image obtained by the WZ decoding unit based on control information from the filter control unit. The moving picture decoding apparatus described.
上記フィルタ制御部は、上記WZ復号部における予測画像を空間変換した変換係数が、量子化された変換係数情報の量子化範囲外であったことを範囲外情報として検出し、上記空間領域フィルタ部における空間変換単位領域ごとに適用するフィルタを、範囲外情報を元に制御することを特徴とする請求項3に記載の動画像復号装置。   The filter control unit detects out-of-range information that the transform coefficient obtained by spatially transforming the prediction image in the WZ decoding unit is outside the quantization range of the quantized transform coefficient information, and the spatial domain filter unit The moving picture decoding apparatus according to claim 3, wherein a filter to be applied to each spatial transformation unit area is controlled based on out-of-range information. 上記フィルタ制御部は、上記WZ復号部における予測画像を動き補償補間を用いて生成する際に、動き補償領域間で動き情報が異なることを動き境界情報として検出し、上記空間領域フィルタ部における動き補償領域境界ごとに適用するフィルタを、動き境界情報を元に制御することを特徴とする請求項3に記載の動画像復号装置。   The filter control unit detects that motion information is different between motion compensation regions when generating a predicted image in the WZ decoding unit using motion compensation interpolation, and detects motion motion in the spatial domain filter unit. 4. The moving picture decoding apparatus according to claim 3, wherein a filter to be applied for each compensation region boundary is controlled based on motion boundary information. 上記フィルタ制御部は、上記WZ復号部における予測画像を空間変換した変換係数が、量子化された変換係数情報の量子化範囲外であったことを範囲外情報として検出し、上記WZ復号部における予測画像を動き補償補間を用いて生成する際に、動き補償領域間で動き情報が異なることを動き境界情報として検出し、上記範囲外情報と上記動き境界情報の双方を用いて、各画像領域、各領域境界の制御情報を形成することを特徴とする請求項3に記載の動画像復号装置。   The filter control unit detects, as out-of-range information, that the transform coefficient obtained by spatially transforming the prediction image in the WZ decoding unit is outside the quantization range of the quantized transform coefficient information, and the WZ decoding unit When generating a prediction image using motion compensation interpolation, it is detected as motion boundary information that motion information differs between motion compensation regions, and each image region is detected using both the out-of-range information and the motion boundary information. 4. The moving picture decoding apparatus according to claim 3, wherein control information for each area boundary is formed. 上記空間領域フィルタ部で適用するフィルタとして、処理単位領域の境界に対するデブロッキングフィルタを含むことを特徴とする請求項1乃至6のいずれかに記載の動画像復号装置。   The moving picture decoding apparatus according to claim 1, wherein the filter applied by the spatial domain filter unit includes a deblocking filter for a boundary of a processing unit area. 上記空間領域フィルタ部で適用するフィルタとして、画素値の平滑化処理を施す平滑化フィルタを含むことを特徴とする請求項1乃至7のいずれかに記載の動画像復号装置。   The moving picture decoding apparatus according to claim 1, wherein the filter applied by the spatial domain filter unit includes a smoothing filter that performs a smoothing process on pixel values. 上記WZ復号部と上記画質向上部内の同等の機能を有する処理部を、上記WZ復号部及び上記画質向上部で共用することを特徴とする請求項1乃至8のいずれかに記載の動画像復号装置。   9. The moving picture decoding according to claim 1, wherein the WZ decoding unit and a processing unit having an equivalent function in the image quality improving unit are shared by the WZ decoding unit and the image quality improving unit. apparatus. 上記画質向上部は、フィルタ処理後の変換係数を再構築する逆量子化再構築部を備え、上記逆量子化再構築部で得られた再構築されたフィルタ後の変換係数を、予測画像に代わるサイドインフォメーションとして上記WZ復号部にフィードバックし、WZ復号を繰り返して行うようにしたことを特徴とする請求項1乃至9のいずれかに記載の動画像復号装置。   The image quality improvement unit includes an inverse quantization reconstruction unit that reconstructs the transform coefficient after the filter processing, and converts the reconstructed filter conversion coefficient obtained by the inverse quantization reconstruction unit into a predicted image. The moving picture decoding apparatus according to any one of claims 1 to 9, wherein the side information is fed back to the WZ decoding unit and WZ decoding is repeatedly performed. コンピュータを、
分散映像符号化された符号化画像情報を量子化された変換係数情報に復号し、得られた量子化された変換係数情報と、予測画像を空間変換した変換係数とから、復号画像を生成するWZ復号部と、
上記WZ復号部が得た復号画像に対して、空間領域でのフィルタ処理を施す空間領域フィルタ部を有し、フィルタ処理された復号画像を適用して、変換係数領域での変換係数を再構築し、逆空間変換して復号画像を生成する画質向上部と
して機能させることを特徴とする動画像復号プログラム。
Computer
The encoded image information that has been distributed video encoded is decoded into quantized transform coefficient information, and a decoded image is generated from the obtained quantized transform coefficient information and a transform coefficient obtained by spatially transforming the predicted image. A WZ decoding unit;
The decoded image obtained by the WZ decoding unit has a spatial domain filter unit that performs a filtering process in the spatial domain, and applies the decoded decoded image to reconstruct the transform coefficient in the transform coefficient region And a moving picture decoding program that functions as an image quality improvement unit that generates a decoded picture by performing inverse space transformation.
JP2014025669A 2014-02-13 2014-02-13 Moving picture decoding apparatus and program Active JP6269137B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014025669A JP6269137B2 (en) 2014-02-13 2014-02-13 Moving picture decoding apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014025669A JP6269137B2 (en) 2014-02-13 2014-02-13 Moving picture decoding apparatus and program

Publications (2)

Publication Number Publication Date
JP2015154198A true JP2015154198A (en) 2015-08-24
JP6269137B2 JP6269137B2 (en) 2018-01-31

Family

ID=53896061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014025669A Active JP6269137B2 (en) 2014-02-13 2014-02-13 Moving picture decoding apparatus and program

Country Status (1)

Country Link
JP (1) JP6269137B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107071447A (en) * 2017-04-06 2017-08-18 华南理工大学 A kind of correlated noise modeling method based on two secondary side information in DVC
CN108632613A (en) * 2018-05-21 2018-10-09 南京邮电大学 Classification distributed type method for video coding and system based on DISCOVER frames
CN108712653A (en) * 2018-05-25 2018-10-26 西安电子科技大学 Unidirectional distributed video coding/decoding method based on the refinement of iteration correlated noise

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232066A (en) * 2008-03-21 2009-10-08 Oki Electric Ind Co Ltd Predictive value generation device, predictive value generation method and decoding device
US20110188766A1 (en) * 2010-01-29 2011-08-04 Canon Kabushiki Kaisha Decoding a sequence of digital images with error concealment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232066A (en) * 2008-03-21 2009-10-08 Oki Electric Ind Co Ltd Predictive value generation device, predictive value generation method and decoding device
US20110188766A1 (en) * 2010-01-29 2011-08-04 Canon Kabushiki Kaisha Decoding a sequence of digital images with error concealment

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ABDALBASSIR ABOU-ELAILAH ET AL.: "Fusion of global and local side information using Support Vector Machine in transform-domain DVC", PROCEEDINGS OF THE 20TH EUROPEAN SIGNAL PROCESSING CONFERENCE (EUSIPCO 2012), JPN6017034276, August 2012 (2012-08-01), pages 574 - 578, XP032254847 *
ANNE AARON ET AL.: "Transform-domain Wyner-Ziv codec for video", VISUAL COMMUNICATIONS AND IMAGE PROCESSING 2004, vol. Vol.5308, JPN7017002916, January 2004 (2004-01-01), pages 520 - 528 *
R. MARTINS ET AL.: "Statistical motion learning for improved transform domain Wyner-Ziv video coding", IET IMAGE PROCESSING, vol. 4, no. 1, JPN6017034279, 2010, pages 28 - 41, XP006034534, DOI: doi:10.1049/IET-IPR:20080133 *
X. ARTIGAS ET AL.: "The DISCOVER codec: Architecture, Techniques and Evaluation", PICTURE CODING SYMPOSIUM (PCS'07), JPN6017034273, November 2007 (2007-11-01), pages 1 - 4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107071447A (en) * 2017-04-06 2017-08-18 华南理工大学 A kind of correlated noise modeling method based on two secondary side information in DVC
CN107071447B (en) * 2017-04-06 2020-06-19 华南理工大学 Correlated noise modeling method based on secondary side information in DVC
CN108632613A (en) * 2018-05-21 2018-10-09 南京邮电大学 Classification distributed type method for video coding and system based on DISCOVER frames
CN108712653A (en) * 2018-05-25 2018-10-26 西安电子科技大学 Unidirectional distributed video coding/decoding method based on the refinement of iteration correlated noise
CN108712653B (en) * 2018-05-25 2019-12-10 西安电子科技大学 unidirectional distributed video decoding method based on iterative correlation noise refinement

Also Published As

Publication number Publication date
JP6269137B2 (en) 2018-01-31

Similar Documents

Publication Publication Date Title
JP5372910B2 (en) Direction change for intra coding
CN1870754B (en) Encoding and decoding apparatus and method for reducing blocking phenomenon
JP5964755B2 (en) Method and apparatus for adaptive combined pre-processing and post-processing filters for video encoding and decoding
JP2005507589A5 (en)
JP2005507589A (en) Spatial expandable compression
CN105791840A (en) Flexible band offset mode in sample adaptive offset in HEVC
JP2005506815A5 (en)
WO2011099428A1 (en) Predictive coding method for motion vector, predictive decoding method for motion vector, video coding device, video decoding device, and programs therefor
JP2012142886A (en) Image coding device and image decoding device
JP2009141688A (en) Image encoding-decoding method, system, image encoding program, and image decoding program
KR20140109770A (en) Method and apparatus for image encoding/decoding
JP2015109695A (en) Moving image encoder and moving image decoder
JP6269137B2 (en) Moving picture decoding apparatus and program
JP4844455B2 (en) Video signal hierarchical decoding device, video signal hierarchical decoding method, and video signal hierarchical decoding program
JP2008306510A (en) Image coding method, image coding device, image decoding method and image decoding device
JP4844456B2 (en) Video signal hierarchical encoding apparatus, video signal hierarchical encoding method, and video signal hierarchical encoding program
JP5019053B2 (en) Image decoding method, image decoding apparatus, and program
JP4835855B2 (en) Apparatus, method and program for moving picture encoding, and apparatus method and program for moving picture decoding
JP5526277B2 (en) Moving picture decoding apparatus, method and program
JP2021027464A (en) Prediction block generation device, image coding device, image decoding device, and program
JP2022096655A (en) Decoding device, program, and decoding method
KR20080013843A (en) Method and apparatus for loseless encoding and decoding image
JP2007074306A (en) Apparatus for generating supplementary pixel, decoding system, decoding method, image coding communication system, decoding program and computer-readable recording medium
TW202037171A (en) Block-Based Predictive Coding and Decoding of a Picture
JP7444599B2 (en) Intra prediction device, image encoding device, image decoding device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171218

R150 Certificate of patent or registration of utility model

Ref document number: 6269137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150