JP5672302B2 - 動画像復号装置、動画像復号方法及び動画像符号化装置ならびに動画像符号化方法 - Google Patents
動画像復号装置、動画像復号方法及び動画像符号化装置ならびに動画像符号化方法 Download PDFInfo
- Publication number
- JP5672302B2 JP5672302B2 JP2012524394A JP2012524394A JP5672302B2 JP 5672302 B2 JP5672302 B2 JP 5672302B2 JP 2012524394 A JP2012524394 A JP 2012524394A JP 2012524394 A JP2012524394 A JP 2012524394A JP 5672302 B2 JP5672302 B2 JP 5672302B2
- Authority
- JP
- Japan
- Prior art keywords
- block
- picture
- clean
- decoding
- encoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/156—Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/55—Motion estimation with spatial constraints, e.g. at image or region borders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
このような符号化標準では、符号化対象のピクチャと、その前後のピクチャの情報を用いて、符号化対象のピクチャを符号化するインター符号化方法及び符号化対象ピクチャが持つ情報のみを用いて符号化するイントラ符号化方法が採用されている。
しかし、インター符号化方法では、あるピクチャを符号化する際に生じた誤差が、そのピクチャよりも後に符号化されるピクチャを符号化する際に伝播する。そのため、インター符号化方法を用いて連続する複数のピクチャが符号化されると、後で符号化されるピクチャほど画質が劣化する。また、動画像復号装置は、符号化された動画像データをその途中から取得した場合のように、基準となるピクチャを取得できないと、その基準となるピクチャに基づいてインター符号化されたインターピクチャを正常に復号できない。
しかし、イントラ符号化方法の圧縮効率は、一般的にインター符号化方法の圧縮効率よりも低い。そのため、復号後におけるイントラピクチャの画質とインターピクチャの画質をほぼ同等に保つためには、一般的に、イントラピクチャの情報量は、インターピクチャの情報量よりも多くなる。
したがって、バッファリング遅延を最小化するためには、各ピクチャの情報量をほぼ一定にする必要がある。上記のように、復号後における各ピクチャの画質を同等にするためには、イントラピクチャの情報量はインターピクチャの情報量よりも多くなる。そのため、各ピクチャの情報量を一定にするために、単にイントラピクチャの情報量をインターピクチャの情報量と同程度にすると、イントラピクチャの画質が大幅に落ちることになる。そのため、イントラピクチャを参照ピクチャとするインターピクチャの画質も大幅に落ち、結果として動画像データ全体の画質が大きく低下する。
例えば巡回方向がピクチャ内で上から下へ向かう方向である場合、イントラスライスが最上にあるピクチャがリフレッシュピクチャとなり、ピクチャの上端から順に正常な画素値再生が行われていく。イントラスライスが最下に来るピクチャにて、ピクチャ全体の画素値が正常に再生される。リフレッシュピクチャの間隔、すなわち、リフレッシュ周期は、イントラスライスの巡回周期と同じになる。
なお、実際にはイントラスライス内の各マクロブロックは、必ずしもイントラ符号化されなくてもよい。リフレッシュピクチャから復号を開始した場合に、それ以降のピクチャの画素値が正常に再生されることが保証されるように、イントラスライス内の各マクロブロックは符号化されればよい。例えば、イントラスライス内のマクロブロックは、ピクチャ内で画素値が正常に再生されることが保証された領域(以下、このような領域をクリーン領域と呼ぶ)内の領域を参照する動きベクトルを用いて、インター符号化されてもよい。
例えば、クリーン領域内の符号化対象マクロブロックがインター符号化される場合、その符号化対象マクロブロックが参照する、参照ピクチャ上のブロック全体もクリーン領域に含まれなければならない。
さらに、符号化対象マクロブロックと参照ピクチャ上で同一位置にあるマクロブロックの動きベクトルをもう一つの予測値PMVCOLとし、PMVMEDとPMVCOLの内、誤差が小さくなる方を予測値とする技術が提案されている(例えば、非特許文献1を参照)。この場合、PMVMEDとPMVCOLのどちらを選択したかを示すフラグが、符号化動画像データに含められる。
リフレッシュピクチャ以降のピクチャも、参照ピクチャ(リフレッシュピクチャを含む)の動きベクトルを参照するため、動きベクトルの異常再生の影響が伝搬する。このためクリーン領域内のマクロブロックがPMVMEDとPMVCOLを動きベクトルの予測値として参照する場合、PMVMEDとPMVCOLの正常復号が保証されていないので、動きベクトルが正常復号できず、結果として正常な画素値が再生されない。したがって、イントラスライス方式では、PMVMEDとPMVCOLのうちの一方を動きベクトルの予測値として使用する符号化方法は使用できない。
さらに、MPEG-4 AVC/H.264では、隣接するブロックとの境界にて低域通過型のフィルタを適用することにより、ブロック境界に発生するブロック歪を除去するデブロッキングフィルタ処理が採用されている。したがって、イントラスライス方式では、クリーン領域内の画素に適用されるデブロッキングフィルタが参照する画素の全ても、クリーン領域に含まれている必要がある。
その理由の一つは、クリーン領域と非クリーン領域との境界(以降、クリーン領域境界と呼ぶ)を示すための情報を符号化動画像データストリームに含めることによる情報量の増加である。例えば、MPEG-4 AVC/H.264では、クリーン領域境界に位置するマクロブロック間に、その境界を示すスライスヘッダが挿入される。このようなスライスヘッダが挿入されることにより、符号化動画像ストリームに含まれる情報量が増加するので、符号化効率が低下する。
また、各マクロブロックの量子化係数及び動きベクトルを可変長符号化するためのエントロピー符号化方式として、コンテクスト適応型算術符号(Context Adaptive Binary Arithmetic Coding、CABAC)が用いられることがある。このような場合、スライスヘッダが挿入された位置でコンテクストが初期化されるので、エントロピー符号化の効率が低下する。
さらに、動きベクトルの符号化において、隣接ブロックの動きベクトルを予測値として、動きベクトルと予測値間の誤差が符号化される。しかし、スライスヘッダによって別のスライスに属すると判断されたブロックの動きベクトルは、予測値として用いることはできない。この結果、動きベクトルの予測効率が低下し、符号化効率が更に低下する。
しかし、MPEG-4 AVC/H.264において一般的に広く採用されるMain Profile及びHigh Profileといったツールキットが使用される場合、ピクチャの上から下へマクロブロックが符号化される。そのため、イントラスライスが垂直方向にピクチャを横断するように挿入される場合には、マクロブロックラインごとにスライスヘッダは挿入されなければならず、必要なスライスヘッダの数が増える。その結果、符号化効率はより低下する。
しかしながら、動きベクトルによって参照される参照ピクチャ内の領域の殆どが非クリーン領域に含まれる場合には、外挿により算出された参照値と、対応する符号化対象ピクチャの画素値との差が大きくなるため、動き予測による符号化効率が向上しない。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を制限するものではないことを理解されたい。
また、符号化された動画像は、カラー動画像であってもよく、あるいは、モノクロ動画像であってもよい。
図1において示されたピクチャ101〜105のうち、最も左側に位置するピクチャ101が最も古いピクチャであり、右側に位置するピクチャほど、時刻が後のピクチャである。各ピクチャは、自身よりも前の時刻のピクチャを参照して符号化されている。すなわち、各ピクチャは時刻順に再生される。
さらに、各ピクチャは、水平方向にピクチャを横断する拡張クリーン領域110、クリーン領域111及び非クリーン領域112を含む。拡張クリーン領域110は、クリーン領域に含まれ、自身よりも前の時刻のピクチャでのクリーン領域111から拡張した領域である。拡張クリーン領域110内のマクロブロックはイントラ符号化もしくはインター符号化で符号化される。クリーン領域111以外の領域、この例ではクリーン領域111より下方の領域が非クリーン領域112となる。
クリーン領域111に含まれる複数のマクロブロックは、そのクリーン領域111を含むピクチャ内の情報または直前のピクチャのクリーン領域内の情報を用いて、正常画素値が復号されることが保証されるように符号化されている。そしてこの例では、ピクチャ101においてクリーン領域111は、ピクチャの上端に位置する。このピクチャでは拡張クリーン領域110とクリーン領域111は同一である。即ち、ピクチャ101自身よりも前の時刻のピクチャの領域は全て非クリーン領域であるとみなす。クリーン領域111と非クリーン領域112との境界が時刻の経過に応じて上から下へ移動する。そしてピクチャ105において、クリーン領域111はピクチャ全体を占める。即ち、ピクチャ全体の画素が正常に復号されたことになる。なお、ピクチャ105の次のピクチャ(図示せず)では、ピクチャ101と同様にクリーン領域は再度ピクチャの上端に位置することになる。このように、この例ではリフレッシュ周期は5である。またリフレッシュピクチャは、例えば、クリーン領域111及び同一領域を示す拡張クリーン領域110がピクチャ上の何れかの端部に設定され、次のピクチャでクリーン領域111と非クリーン領域112との境界がピクチャの中央へ向かって移動するピクチャとなる。この例では、クリーン領域111及び同一領域を示す拡張クリーン領域110がピクチャの上端に位置するピクチャ101がリフレッシュピクチャとなる。
動画像復号装置1が有するこれらの各部は、それぞれ別個の回路として形成される。あるいは動画像復号装置1が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として動画像復号装置1に実装されてもよい。さらに、動画像復号装置1が有するこれらの各部は、動画像復号装置1が有するプロセッサ上で実行されるコンピュータプログラムにより実現される、機能モジュールであってもよい。
またエントロピー復号部10は、符号化された動画像データから、動画像データを復号するために用いられる各種パラメータを取り出す。
シーケンスパラメータ(Sequence Parameter Set、SPS)300は、動画像の画面サイズ及びフレームレートといった、複数のピクチャで共通するパラメータを含む。SPS300は、符号化動画像データ中の各リフレッシュピクチャ等に付加される。本実施形態では、SPS300は、リフレッシュピクチャに付加される。
‘000’:クリーン領域境界は、ピクチャの上側から下側へ移動する。すなわち、拡張クリーン領域は、ピクチャを水平に横切るように設定され、クリーン領域境界は、時間の経過とともに上から下へ移動する。クリーン領域境界がピクチャの下側端に到達した場合、次のピクチャで拡張クリーン領域はピクチャの上側端に設定される。
‘001’:クリーン領域境界は、ピクチャの下側から上側へ移動する。すなわち、拡張クリーン領域は、ピクチャを水平に横切るように設定され、クリーン領域境界は、時間の経過とともに下から上へ移動する。クリーン領域境界がピクチャの上側端に到達した場合、次のピクチャで拡張クリーン領域はピクチャの下側端に設定される。
‘010’:クリーン領域境界は、ピクチャの左側から右側へ移動する。すなわち、拡張クリーン領域は、ピクチャを垂直に横切るように設定され、クリーン領域境界は、時間の経過とともに左から右へ移動する。クリーン領域境界がピクチャの右側端に到達した場合、次のピクチャで拡張クリーン領域はピクチャの左側端に設定される。
‘011’:クリーン領域境界は、ピクチャの右側から左側へ移動する。すなわち、拡張クリーン領域は、ピクチャを垂直に横切るように設定され、クリーン領域境界は、時間の経過とともに右から左へ移動する。クリーン領域境界がピクチャの左側端に到達した場合、次のピクチャで拡張クリーン領域はピクチャの右側端に設定される。
‘100’:クリーン領域境界は、ピクチャの先頭位置からラスタスキャン順に沿って移動する。すなわち、拡張クリーン領域は、一つまたは複数の水平に並んだマクロブロックとして設定され、クリーン領域境界は、時間の経過とともにラスタスキャン順に沿って移動する。クリーン領域境界がピクチャの右下端に到着した場合、次のピクチャで拡張クリーン領域はピクチャの左上端に設定される。
またPPS302は、境界移動量情報(Boundary Distance、BD)321を含む。BD321は、クリーン領域境界位置情報に含まれる情報の一例であり、復号されるピクチャの一つ前のピクチャにおけるクリーン領域境界の位置から、復号対象ピクチャ内のクリーン領域境界の位置までの移動量を表す。例えば、BD321は、マクロブロック単位または画素単位でクリーン領域境界の移動量を表す。
mb331は、マクロブロック全体に共通する復号パラメータ(例えば、マクロブロックの符号化モード、量子化パラメータ等)を含む。さらにmb331は、マクロブロックがインター符号化されている場合、そのマクロブロック内の各ブロックの動きパラメータを含む。動きパラメータは、参照するピクチャを表す参照ピクチャ識別子及び動きベクトルを含む。さらに、動きベクトルそのものも予測符号化されている場合には、動きパラメータは、動きベクトルの予測方法を表す指標pmvIdxと、動きベクトルと予測動きベクトル間の誤差とを含む。
またmb331は、マクロブロックがイントラ予測符号化されている場合、そのマクロブロック内の各ブロックに対するイントラ予測モードを、隣接するブロックのイントラ予測モードに基づいて決定するためのイントラ予測フラグprevIntraPredModeFlagを含む。
さらにmb331は、マクロブロックの各画素の予測誤差を直交変換及び量子化した量子化係数を含む。
(a)mb331に対応するマクロブロックがインター符号化されている。
(b)mb331に対応するマクロブロック内の少なくとも一つのブロックについて、そのブロックがピクチャのクリーン領域内にある。
(c)(a)及び(b)の条件を満たすブロックの動きパラメータによって参照される参照ピクチャ内の参照領域の少なくとも一部が、参照ピクチャの非クリーン領域に含まれる。
alpha332は、上記の(a)〜(c)の条件に該当する各ブロックについて、対応する参照領域内に水平方向のクリーン領域境界及び垂直方向のクリーン領域境界の何れか一方のみにある場合には一つ規定される。またalpha332は、対応する参照領域内に水平方向のクリーン領域境界及び垂直方向のクリーン領域境界の両方がある場合には二つ規定される。
この動き補償パラメータalpha332は、後述するように、クリーン領域境界近傍での画素値の変動傾向を表す。例えば、クリーン領域から非クリーン領域へ向けて画素値が急激に大きくなるほど、alpha332は正の値でかつその絶対値も大きな値となる。一方、クリーン領域から非クリーン領域へ向けて画素値が急激に小さくなるほど、alpha332は負の値でかつその絶対値は大きな値となる。
またエントロピー復号部10は、所定のエントロピー符号化方式にしたがって復号されたマクロブロックデータのうち、各マクロブロックの量子化係数を逆量子化・直交変換部13へ出力する。さらにエントロピー復号部10は、各マクロブロックのうち、インター符号化されたマクロブロックの動きパラメータを動き補償部16へ出力する。またエントロピー復号部10は、各マクロブロックのうち、イントラ予測符号化されたマクロブロックのイントラ予測フラグをイントラ予測部17へ出力する。さらにエントロピー復号部10は、復号対象マクロブロックの符号化モードをセレクタ15へ出力する。
図4(A)及び図4(B)において、領域401はクリーン領域を表す。また領域402は、非クリーン領域を表す。ピクチャ(T-1)においてクリーン領域境界403がピクチャの上端からN番目のラインに位置する場合、ピクチャTにおけるクリーン領域境界403は、ピクチャの上端から(N + BoundaryDistance * BlockSize)番目のラインとなる。
図5(A)及び図5(B)において、領域501は非クリーン領域を表す。また領域502は、クリーン領域を表す。ピクチャ(T-1)においてクリーン領域境界503がピクチャの上端からN番目のラインに位置する場合、ピクチャTにおけるクリーン領域境界503は、ピクチャの上端から(N - BoundaryDistance * BlockSize)番目のラインとなる。
図6(A)及び図6(B)において、領域601はクリーン領域を表す。また領域602は、非クリーン領域を表す。ピクチャ(T-1)においてクリーン領域境界603がピクチャの左端からN番目のカラムに位置する場合、ピクチャTにおけるクリーン領域境界603は、ピクチャの左端から(N + BoundaryDistance * BlockSize)番目のカラムとなる。
図7(A)及び図7(B)において、領域701は非クリーン領域を表す。また領域702は、クリーン領域を表す。ピクチャ(T-1)においてクリーン領域境界703がピクチャの左端からN番目のカラムに位置する場合、ピクチャTにおけるクリーン領域境界703は、ピクチャの左端から(N - BoundaryDistance * BlockSize)番目のカラムとなる。
図8(A)及び図8(B)において、領域801はクリーン領域を表す。また領域802は、非クリーン領域を表す。ピクチャ(T-1)においてクリーン領域境界803がラスタスキャン順でピクチャの左上端のマクロブロックMB0からM番目のマクロブロックMBMにより規定される。この場合、ピクチャTにおけるクリーン領域境界803は、マクロブロックMB0からM'(=M + BoundaryDistance)番目のマクロブロックMBM'により規定される。
参照可否判定部12は、動き補償部16、イントラ予測部17またはポストフィルタ部18から、復号対象ブロックの位置と、復号対象ブロックが参照する参照領域の位置及び範囲と、参照領域が含まれる参照ピクチャの識別子とを含む情報を受け取る。なお、参照領域は、例えば、復号対象マクロブロックがインター符号化されている場合、動きベクトルによって特定され、復号対象ブロックの予測画像として用いられる領域である。また、復号対象マクロブロックがイントラ予測符号化されている場合、参照領域は、その復号対象ブロックに隣接する、既に復号されたブロックである。この既復号ブロックは、復号対象マクロブロック内、もしくは復号対象マクロブロックの隣接マクロブロック内に位置する。さらに、復号対象ブロックがデブロッキングフィルタ処理される場合、参照領域は、そのデブロッキングフィルタを用いて演算される領域である。
また参照可否判定部12は、復号対象ピクチャについてのクリーン領域の範囲と非クリーン領域の範囲を表す情報を領域分類部11から受け取る。そして参照可否判定部12は、例えば、内蔵するメモリ回路に復号対象ピクチャがそれ以降のピクチャについての参照ピクチャとなる可能性がある間、その情報を保持する。あるいは、参照可否判定部12は、参照ピクチャについてのクリーン領域の範囲と非クリーン領域の範囲を表す情報を画像メモリ19から読み込んでもよい。
復号対象ブロックが非クリーン領域に含まれる場合、参照可否判定部12は、復号対象ブロックを復号するために、参照領域内の画素全てが参照可能であると判定する。そして参照可否判定部12は、その判定結果を、動き補償部16、イントラ予測部17またはポストフィルタ部18へ通知する。
参照領域に含まれる全ての画素が参照ピクチャのクリーン領域に含まれている場合、参照可否判定部12は、参照領域に含まれる全ての画素が参照可能であるとの判定結果を動き補償部16、イントラ予測部17またはポストフィルタ部18へ通知する。
一方、参照領域内の少なくとも一部の画素が参照ピクチャの非クリーン領域内にある場合、参照可否判定部12は、参照領域内で参照可能な画素、及び参照不能な画素を表す情報を動き補償部16、イントラ予測部17またはポストフィルタ部18へ通知する。
そのために、参照可否判定部12は、動き補償部16から、復号対象ブロックの位置と、予測動きベクトルを決定するために参照される可能性のあるブロックの全てを含む領域を参照領域として、その参照領域の位置及び範囲を受け取る。そして参照可否判定部12は、復号対象ブロックがクリーン領域内にある場合には、参照領域内の各ブロックについて、そのブロックがクリーン領域に含まれる場合、そのブロックは参照可能であると判定し、それ以外のブロックは参照不能と判定する。また復号対象ブロックが非クリーン領域にある場合には、参照可否判定部12は参照領域内の全ブロックを参照可能と判定する。参照可否判定部12は、参照領域内の各ブロックについて、参照可能か否かの判定結果を動き補償部16へ通知する。
逆量子化・直交変換部13は、復号対象マクロブロックに含まれる各画素の予測誤差を加算器14へ出力する。
一方、符号化モードが、復号対象マクロブロックがイントラ予測符号化されていることを示している場合、セレクタ15は、イントラ予測画像をイントラ予測部17から受け取り、その予測画像を加算器14へ出力する。
例えば、動き補償部16は、参照ピクチャ識別子に基づいて参照ピクチャを特定する。また動き補償部16は、復号対象ブロックの位置に動きベクトルを加算することで参照領域を特定する。例えば、参照領域は、以下のように決定される。
復号対象ブロックの左上の位置、ブロックサイズ、動きベクトルの整数部分を、それぞれ(x, y)、(BlockSize, BlockSize)、(vx, vy)とする。この場合、参照領域は、4点(x + vx, y + vy)、(x + vx + BlockSize + ExtSizeH - 1, y + vy), (x + vx, y + vy + BlockSize + ExtSizeV - 1), (x + vx + BlockSize + ExtSizeH - 1, y + vy + BlockSize + ExtSizeV - 1)に囲まれた領域となる。即ち、参照領域は、左上の角の位置が(x + vx, y + vy)であり、水平方向及び垂直方向のサイズが(BlockSize + ExtSizeH - 1, BlockSize + ExtSizeV - 1)である矩形領域である。なお、ExtSizeH及びExtSizeVは、それぞれ、動きベクトルの水平成分、垂直成分が小数成分を含む場合に、非整数位置の画素値を計算するときに適用される補間フィルタのタップ数である。MPEG-4 AVC/H.264では、ExtSizeH及びExtSizeVは、それぞれ6である。
動き補償部16は、復号対象ブロックの位置と、参照領域の位置及び範囲と、参照ピクチャの識別子とを含む情報を参照可否判定部12へ通知する。
図9は、参照領域と参照ピクチャにおけるクリーン領域及び非クリーン領域との位置関係の一例を示す図である。図9において、領域900は参照領域であり、水平方向の幅bH及び垂直方向の高さbVを持つ。また領域910はクリーン領域である。そして参照領域900内の領域920(すなわち、右端の2列及び下端の3行)が非クリーン領域内に位置している。復号対象ブロックはクリーン領域内に位置するとする。
本実施形態では、参照領域900内でクリーン領域910に含まれない領域920は、クリーン領域910と垂直方向に隣接している領域p1、クリーン領域910と水平方向に隣接している領域p2及びその他の領域p3に分割される。
動き補償部16は、領域p1〜p3ごとに、例えば、次式に従って外挿演算を行うことにより、その領域p1〜p3に含まれる、水平方向座標x、垂直方向座標yの予測画素の値を求める。
動画像符号化装置は、符号化前の参照領域内の各画素の正確な値を知っているので、最適な動き補償パラメータを算出できる。そのため、参照領域において画素値がグラディエーション状に変化している場合でも、動き補償部16は、この動き補償パラメータを用いて外挿演算することにより、領域p1〜p3内の予測画素の値を実際の画素値に近い値とすることができる。
なお、動き補償部16は、領域p1内の画素の値を、その領域p1に隣接するクリーン領域内の画素値で置換してもよい。同様に、動き補償部16は、領域p2内の画素の値を、その領域p2に隣接するクリーン領域内の画素値で置換してもよい。
また、bH≦dHである場合、すなわち、参照領域の左端から右端までの各カラムについて、少なくとも1画素がクリーン領域に含まれる場合、動き補償部16は、クリーン領域に含まれない各予測画素の値を全てp1領域に対する式に従って算出する。
また、クリーン領域が右から左へ移動する場合、領域p2はクリーン領域の左側に隣接することになる。そこでこのような場合、動き補償部16は、(1)式における(dH-1)を(bH-dH)に置換し、かつ(x-dH+1)を(bH-dH-x)に置換した式を用いて領域p2に含まれる予測画素の値を求める。
同様に、クリーン領域が下から上へ移動する場合、領域p1はクリーン領域の上側に隣接することになる。そこでこのような場合、動き補償部16は、(1)式における(dV-1)を(bV-dV)に置換し、かつ(y-dV+1)を(bV-dV-y)に置換した式を用いて領域p1に含まれる予測画素の値を求める。
なお、参照可否判定部にて参照領域の画素が全て参照不可と判定された場合は、動き補償部16は、規定値を全画素の画素値としてもよい。また、動き補償部16は、その規定値を動き補償パラメータalphaで補正した値を全画素の画素値としてもよい。
そして動き補償部16は、参照可否判定部12から、参照可能なブロックを表す判定結果を受け取る。動き補償部16は、その判定結果及び指標pmvIdxに基づいて、予測動きベクトルを決定する。
さらに、時刻(T-1)におけるピクチャ1001において、復号対象ブロック1000と同一の位置にあるブロックcol及びその周囲の各ブロックt0〜t7もまた、参照ブロックとなる。各参照ブロックcol及びti(i=0,1,...,7)の動きベクトルを、それぞれ、Vcol及びVtiで表す。
pmvIdx=0:PMV=VbA
pmvIdx=1:PMV=VbB
pmvIdx=2:PMV=VbC
pmvIdx=3:PMV=VbD
pmvIdx=4:PMV=median(VbA, VbB, VbC)
pmvIdx=5:PMV=VspaEXT
pmvIdx=6:PMV=Vcol
pmvIdx=7:PMV=median(Vcol, Vt0, Vt1, Vt2, Vt3)
pmvIdx=8:PMV=median(Vcol, Vt0, Vt1, Vt2, Vt3, Vt4, Vt5, Vt6, Vt7)
pmvIdx=9:PMV=median(Vcol, Vcol, VbA, VbB, VbC)
関数median(Vj) (Vj∈{VbA,VbB,VbC,Vcol,Vti})は、その関数の引数である動きベクトルVjの水平方向成分の中央値及び垂直方向成分の中央値をそれぞれ独立して出力する関数である。例えば、VbA = (2, 4), VbB = (4, 2), VbC = (6, 10)の場合、median(VbA, VbB, VbC) = (4, 4)となる。また関数median(Vj)の引数の何れかが未定義である場合、関数median(Vj)の出力値も定義されない。
VspaEXT = median(VbA, VbB, VbC) (bA、bB及びbCが全て有効である場合)
= VbA (bAが有効で、bBまたはbCの少なくとも一方が有効でない場合)
= VbB (bBが有効で、bAが有効でない場合)
= VbC (上記の何れの条件も満たされない場合)
なお、参照ブロックが参照可能であり、かつ、参照ピクチャ内に位置し、さらにインター符号化されている場合、その参照ブロックは有効である。それ以外の場合、その参照ブロックは有効でない。
有効でない参照ブロックがbA:VbA = (0,0)
有効でない参照ブロックがbB:VbB = VbA
有効でない参照ブロックがbC:VbC = VbA
有効でない参照ブロックがbD:VbD = VbA
有効でない参照ブロックがcol:Vcolは未定義
有効でない参照ブロックがti(i=0,1,...,7):Vti = Vcol
未定義である動きベクトルに対応する指標pmvIdxの値も未定義となる。さらに、予測動きベクトルが同一となる複数の指標pmvIdxの値が存在する場合、そのうちの最小値以外は取り除かれるように、指標pmvIdxの値は再割り当てされてもよい。この場合、マクロブロックデータ中において指標pmvIdxに割り当てられるビット数は、有効な指標pmvIdxの値の範囲を表現可能な最小値に設定される。例えば、指標pmvIdxが、'0'〜'5'の値を取る場合(すなわち、Vcolが「未定義」の場合に該当する)、指標pmvIdxは、3ビットでエントロピー符号化される。また、全ての参照ブロックが参照可能であり、その結果pmvIdxが'0'〜'9'の値を取る場合には、指標pmvIdxは、4ビットでエントロピー符号化される。
pmvIdx=0:PMV=VbA
pmvIdx=1:PMV=VbC
pmvIdx=0:PMV=VbA
pmvIdx=1:PMV=VbB
pmvIdx=2:PMV=VbD
pmvIdx=3:PMV=Vcol
pmvIdx=4:PMV=median(Vcol, Vcol, Vcol, Vt2, Vt3)
pmvIdx=5:PMV=median(Vcol, Vcol, Vcol, Vt2, Vt3, Vcol, Vt5, Vt6, Vtcol)
pmvIdx=6:PMV=median(Vcol, Vcol, VbA, VbB)
この結果、指標pmvIdxのエントロピー符号化ビット幅は3となる。
動き補償部16は、算出された動きベクトルを用いて、上記のように予測画像を生成する。
動き補償部16は、動き補償された予測画像をセレクタ15へ出力する。
もし左隣接ブロックが、参照可否判定部で参照不可と判定されたか、ピクチャ外に位置するか、まだ復号されていないか、もしくはインター符号化されていれば、intraPredModeAは、DCモードを表す値(例えば、'2')に設定される。同様に、上隣接ブロックが、参照可否判定部で参照不可と判定されたか、ピクチャ外に位置するか、まだ復号されていないか、もしくはインター符号化されていれば、intraPredModeBは、DCモードを表す値に設定される。
一方、prevIntraPredModeFlagの値が'0'の場合には、イントラ予測部17は、ブロックデータ中に含まれる、イントラ予測モードの予測値に対する誤差を表す3ビットのデータremIntraPredModeを参照する。そしてイントラ予測部17は、以下のように復号対象ブロックのイントラ予測符号化モードintraPredModeを決定する。
remIntraPredModeの値がpredIntraPredModeの値よりも小さい場合、イントラ予測部17は、イントラ予測符号化モードintraPredModeを、remIntraPredModeの値で表されたモードとする。一方、remIntraPredModeの値がpredIntraPredModeの値以上である場合、イントラ予測部17は、イントラ予測符号化モードintraPredModeを、(remIntraPredMode+1)の値で表されたモードとする。
イントラ予測部17は、予測画像の生成に利用される画素が参照可能であれば、予測画像を生成する。その際、例えば、イントラ予測部17は、MPEG-4 AVC/H.264標準で規定された方法に従って予測画像を生成する。
一方、イントラ予測部17は、予測画像の生成に利用される画素の少なくとも何れかが、参照不能であるか、ピクチャ外に位置していれば、復号に失敗したと判定する。この場合、イントラ予測部17は、予測画像を生成しない。
intraPredMode = 0:復号対象ブロックの上側の隣接ブロックが「無効」の場合、イントラ予測部17は、復号に失敗したと判定とする。
intraPredMode = 1:復号対象ブロックの左側の隣接ブロックが「無効」の場合、イントラ予測部17は、復号に失敗したと判定とする。
intraPredMode = 2:イントラ予測部17は、常に復号に成功したと判定する。ただし、復号対象ブロックの上側または左側に隣接するブロックが「無効」の場合、予測画像内の各画素の値は'128'に設定される。
intraPredMode = 3:復号対象ブロックの上側の隣接ブロックが「無効」の場合、イントラ予測部17は、復号に失敗したと判定とする。
intraPredMode = 4:復号対象ブロックの上側及び左側の隣接ブロックのうちの少なくとも一つが「無効」の場合、イントラ予測部17は、復号に失敗したと判定とする。
intraPredMode = 5:復号対象ブロックの上側及び左側の隣接ブロックのうちの少なくとも一つが「無効」の場合、イントラ予測部17は、復号に失敗したと判定とする。
intraPredMode = 6:復号対象ブロックの上側及び左側の隣接ブロックのうちの少なくとも一つが「無効」の場合、イントラ予測部17は、復号に失敗したと判定とする。
intraPredMode = 7:復号対象ブロックの上側の隣接ブロックが「無効」の場合、イントラ予測部17は、復号に失敗したと判定とする。
intraPredMode = 8:復号対象ブロックの左側の隣接ブロックが「無効」の場合、イントラ予測部17は、復号に失敗したと判定とする。
なお、intraPredModeが3もしくは7のときのように、イントラ予測部17がイントラ予測において右上のブロックの画素を参照する場合には、復号対象ブロックの上右側の隣接ブロックの画素値、具体的には図11における画素E、F、G、Hの画素値を参照する。もし復号対象ブロックの上側の隣接ブロックが「無効」でなく、かつ復号対象ブロックの上右側の隣接ブロックが「無効」の場合には、画素E、F、G、Hの値を画素Dと同じ画素値として、イントラ予測画像を生成してもよい。
イントラ予測部17は、復号対象ブロックに対する予測画像を生成した場合、その予測画像をセレクタ15へ出力する。またイントラ予測部17は、復号対象ブロックのイントラ予測符号化モードを、以降に復号されるブロックで参照可能なように、その復号対象ブロックを識別する識別子とともにイントラ予測部17が内蔵するメモリに格納する。
ポストフィルタ部18は、対象ブロック内の着目する画素に対してデブロッキングフィルタが参照する領域を参照領域として、対象ブロックの位置及び参照領域の位置及び範囲を参照可否判定部12へ通知する。
表示用フィルタ処理は、例えば、MPEG-4 AVC/H.264標準にて規定されているデブロッキングフィルタを用いたフィルタ処理である。この表示用フィルタ処理では、ポストフィルタ部18は、その参照不能と判定された画素の値も用いてデブロッキングフィルタ処理を行う。そして表示用フィルタ処理が適用された対象ブロックのデータは、表示用に利用される。これにより、動画像復号装置1は、クリーン領域境界近傍に位置するブロックについてもデブロッキングフィルタを理想的に適用してブロック歪をより良好に除去した復号ピクチャを表示できる。
この場合、ポストフィルタ部18は、着目画素p0〜p2に対する表示用フィルタ処理として、例えば、MPEG-4 AVC/H.264標準で規定されている最も強いフィルタと同様に、次式に従ってフィルタ処理を実行する。
ポストフィルタ部18は、表示用フィルタ処理が適用された対象マクロブロックの各画素値と、復号用フィルタ処理が適用された対象マクロブロックの各画素値とを、それぞれ画像メモリ19に格納する。
そして画像メモリ19は、動き補償部16及びイントラ予測部17にそのマクロブロックのデータを予測画像を生成するために供給する。また画像メモリ19は、各マクロブロックのデータをへ出力する。なお、画像メモリ19は、予め定められた所定枚数分のピクチャに相当するデータを記憶し、記憶されているデータ量がその所定枚数に相当する量を超えると、符号化順序が古いピクチャのデータから順に破棄する。
エントロピー復号部10は、符号化された動画像データから巡回方向情報および境界移動量情報を抽出する(ステップS101)。そしてエントロピー復号部10は、巡回方向情報及び境界移動量情報を領域分類部11へ出力する。
領域分類部11は、一つ前のピクチャのクリーン領域境界、巡回方向情報および境界移動量情報に基づいて、復号対象ピクチャのクリーン領域及び非クリーン領域を特定する(ステップS102)。そして領域分類部11は復号対象ピクチャのクリーン領域及び非クリーン領域を表す情報を参照可否判定部12へ出力する。
復号対象マクロブロックがイントラ予測符号化されている場合(ステップS104−Yes)、エントロピー復号部10は、セレクタ15へ、復号対象マクロブロックはイントラ予測符号化されていることを通知する。またエントロピー復号部10は、復号対象マクロブロック内の各復号対象ブロックについてのイントラ予測モードフラグprevIntraPredModeFlagをイントラ予測部17へ出力する。
イントラ予測部17は、イントラ予測モードフラグprevIntraPredModeFlagに基づいてイントラ予測モードを求める。そしてイントラ予測部17は、イントラ予測モード及び参照可能な参照ブロックに基づいてイントラ予測画像を生成する(ステップS106)。なお、イントラ予測モードによって規定された参照ブロックが参照不能である場合、イントラ予測部17は、イントラ予測画像を生成せず、復号対象ブロックの復号に失敗したと判定する。イントラ予測部17は、イントラ予測画像をセレクタ15へ出力する。
動き補償部16は、参照可能なブロックと指標pmvIdxに基づいて予測動きベクトルを決定する(ステップS108)。そして動き補償部16は、予測動きベクトルに動きベクトルと予測動きベクトル間の予測誤差を加算して動きベクトルを再生する(ステップS109)。
動き補償部16は、参照領域の全ての画素が参照可能か否か判定する(ステップS111)。参照領域内の一部の画素が参照不能である場合(ステップS111−No)、動き補償部16は、参照可能な範囲内の画素値に基づいて求めた値で参照不能な画素の値を置換する(ステップS112)。
ステップS112の後、あるいはステップS111にて参照領域の全ての画素が参照可能である場合(ステップS111−Yes)、動き補償部16は、参照領域及び動きベクトルに基づいて、動き補償された予測画像を生成する(ステップS113)。そして動き補償部16は、動き補償された予測画像をセレクタ15へ出力する。
加算器14は、各画素の予測誤差にセレクタ15から受け取った予測画像の対応画素の値を加えることにより、復号対象マクロブロックを再生する(ステップS115)。
動画像復号装置1は、復号対象ピクチャ内の全てのマクロブロックが復号されたか否か判定する(ステップS116)。一部のマクロブロックが復号されていない場合(ステップS116−No)、動画像復号装置1は、ステップS103以降の処理を繰り返す。
ポストフィルタ部18は、参照範囲内の全ての画素は参照可能か否か判定する(ステップS118)。
一方、参照範囲内の一部の画素が参照不能である場合(ステップS118−No)、ポストフィルタ部18は、デブロッキングフィルタ処理を実行して、表示用ブロックデータを生成する(ステップS120)。
またポストフィルタ部18は、参照不能な画素の値を対象ブロック内の画素値で置換する(ステップS121)。
そしてポストフィルタ部18は、一部の画素値が置換された参照範囲内の画素値を用いてデブロッキングフィルタ処理を実行して、復号用ブロックデータを生成する(ステップS122)。
ステップS119またはS122の後、動画像復号装置1は、再生されたマクロブロックをマクロブロックの符号化順序に従って順次結合することにより、復号対象ピクチャを再生する(ステップS123)。そして動画像復号装置1は、1枚のピクチャに対する動画像復号処理を終了する。
なお、動画像復号装置1は、ステップS104〜S106の処理よりも、ステップS107〜S113の処理を先に行ってもよい。
さらに、この動画像復号装置は、クリーン領域境界の巡回方向を表す情報及びクリーン領域境界の移動量を表す情報を設定するだけで、自由にクリーン領域境界の巡回方向を規定できる。そのため、例えば、シーンごとにピクチャに写っている像の移動方向と略一致するようにクリーン領域境界の巡回方向が設定されることで、クリーン領域内のマクロブロックについても、最適な動きベクトルを用いることが出来る確率が向上する。
また他の実施形態によれば、クリーン領域境界は、符号化された動画像データにおいて、クリーン領域境界の方向と連続する二つのピクチャ間でのクリーン領域境界の移動量とによって規定されてもよい。
‘00’:クリーン領域境界は、ピクチャの位置(0,Δ)と(width-1,Δ)とを結ぶ水平線上にある。なお、位置(x,y)は、ピクチャの左上端の画素を原点とする水平座標x、垂直座標yの位置を表す。またwidthは、ピクチャの水平方向の画素数(すなわち、ピクチャの幅)である。Δはクリーン領域境界位置であり、境界情報によって規定される。ただし、この水平線自体は、クリーン領域に含まれる。
‘01’:クリーン領域境界は、ピクチャの位置(Δ,0)と(Δ,height-1)とを結ぶ垂直線上にある。なお、heightは、ピクチャの垂直方向の画素数(すなわち、ピクチャの高さ)である。ただし、この垂直線自体は、クリーン領域に含まれる。
‘10’:クリーン領域境界は、ピクチャの先頭位置(例えば、左上端)からラスタスキャン順に沿ってΔ番目のマクロブロックまでが含まれる領域とその他のマクロブロックとを分離する線上にある。ただし、この線自体は、クリーン領域に含まれる。
boundaryDistanceは、正または負の整数であり、復号対象ピクチャのクリーン領域境界位置Δは、次式に従って求められる。
Δ = Δ' + (boundaryDistance * blockSize) (BoundaryDirectionが'00'または'01'である場合)
Δ = Δ' + boundaryDistance (BoundaryDirectionが'10'である場合)
なお、Δ'は、復号対象ピクチャの一つ前のピクチャにおけるクリーン領域境界位置である。ただし、復号対象ピクチャがリフレッシュピクチャであり、かつboundaryDistanceが正である場合、Δ'は0に設定される。また復号対象ピクチャがリフレッシュピクチャであり、かつboundaryDistanceが負である場合、Δ'は、(width-1)(BoundaryDirectionが'00'の場合)または(height-1) (BoundaryDirectionが'01'の場合)に設定される。blockSizeは、直交変換処理の単位となるブロックの高さまたは幅である。例えば、MPEG-2では、blockSizeは8となる。
なお、offsetPositionの値と指定される位置の関係は、以下のように定義される。
offsetPosition = '00':指定位置=ピクチャの左上端
offsetPosition = '01':指定位置=ピクチャの右上端
offsetPosition = '10':指定位置=ピクチャの左下端
offsetPosition = '11':指定位置=ピクチャの右下端
復号対象ブロックの識別子をidx1、参照領域に含まれるブロックである参照ブロックの識別子をidx2とした場合、参照可否判定部12は、下記の条件を満たす参照ブロックを参照不可と判定する。
(idx1 > idx2) または (idx2-idx1 ≧ N/2)
この場合、クリーン領域境界の位置は、変数Mで規定される。ピクチャの左上端のマクロブロックをBlock(0,0)とし、ピクチャの左端から水平方向に右へa番目で、かつピクチャの上端から垂直方向に下方へb番目のマクロブロックをBlock(a,b)で表す。この場合、クリーン領域境界は、
Block(a,b) | (a+b) ≦ M
の条件を満たすマクロブロックとその他のマクロブロックとの境界となる。そして変数Mは、例えば、境界情報に含まれるboundaryDistanceの値を、一つ前のピクチャに対する変数M'に加算した値として求められる。
例えば、ポストフィルタ部は、2次元空間フィルタによって参照される全ての画素が参照可能である場合、次式に従って2次元空間フィルタ処理を実行する。すなわち、2次元空間フィルタ処理の対象となる画素が非クリーン領域に属している場合、あるいは、2次元空間フィルタが参照する全ての画素がクリーン領域に属している場合、次式が適用される。
ポストフィルタ部は、例えば、参照不能領域内の画素値を参照可能領域内の何れかの画素の値で置換して、q(x,y)を求める。
例えば、図16(A)〜図16(C)のそれぞれのケースについて、ポストフィルタ部は、左上を原点とし、水平座標X、垂直座標Yの画素値q(X,Y)を以下のように算出する。
ケース1(図16(A)):参照領域内の下方に参照不能領域がある場合
q(X,Y) = p(X,Y) | (Y < y+N) (図16(A)では、N=1)
q(X,Y) = p(X, y+N-1) | (Y ≧ y+N)
なお、参照領域内の上方に参照不能領域がある場合も同様に、参照不能領域内の画素値を、その参照不能領域に隣接する参照可能領域の画素値で置換することでq(X,Y)は算出される。
ケース2(図16(B)):参照領域内の右側に参照不能領域がある場合
q(X,Y) = p(X,Y) | (X < x+M) (図16(B)では、M=2)
q(X,Y) = p(x+M-1, Y) | (X ≧ x+M)
なお、参照領域内の左側に参照不能領域がある場合も同様に、参照不能領域内の画素値を、その参照不能領域に隣接する参照可能領域の画素値で置換することでq(X,Y)は算出される。
ケース3(図16(C)):参照領域内の下側及び右側に参照不能領域がある場合
q(X,Y) = p(X,Y) | (X < x+M)かつ(Y < y+N) (図16(C)では、M=2、N=1)
q(X,Y) = p(x+M-1, y+N-1) | (X ≧ x+M または Y ≧ y+N)
なお、参照領域内の左側及び上側に参照不能領域がある場合、参照可能領域の左上端の画素値で参照不能領域内の画素値を置換することでq(X,Y)は算出される。
また、ポストフィルタ部は、図16(D)に示されるケースでは、フィルタによって参照される画素がクリーン領域または非クリーン領域の何れに属している場合でも、(4)式に従って2次元空間フィルタ処理を実行する。
動き補償部は、予測動きベクトルPMVを、標準で規定された予測動きベクトルの導出方法に従って算出する。ただし、動き補償部は、ブロックbA、bB及びbCが有効か否かを判断する際、それぞれのブロックが復号対象ブロックと別スライスにあるか否かを判断する代わりに、それぞれのブロックが参照可否判定部による参照可能か否かの判定結果を用いる。
mvcompSel=0:動き予測ベクトルPMVは、MPEG-4 AVC/H.264標準で規定された予測動きベクトルの導出方法に従って求められる。
mvcompSel=1:PMV=Vcol
この実施形態による動画像符号化装置は、イントラスライス方式で動画像データを符号化する。そして、この動画像符号化装置は、符号化動画像データに、クリーン領域の境界位置を表すスライスヘッダをピクチャごとに挿入する代わりに、クリーン領域境界の巡回方向情報及び一つ前のピクチャからのクリーン領域境界の移動量情報を含める。これにより、この動画像符号化装置は、クリーン領域境界を表す情報の量を減らし、またスライスヘッダ挿入による符号化効率の低下を防ぎ、またクリーン領域境界の巡回方向を柔軟に変更可能とすることで符号化効率の向上を図る。
動画像符号化装置2が有するこれらの各部は、それぞれ別個の回路として形成される。あるいは動画像符号化装置2が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として動画像符号化装置2に実装されてもよい。さらに、動画像符号化装置2が有するこれらの各部は、動画像符号化装置2が有するプロセッサ上で実行されるコンピュータプログラムにより実現される、機能モジュールであってもよい。
クリーン領域境界位置決定部21は、クリーン領域境界に基づいて決定される符号化対象ピクチャのクリーン領域の範囲と非クリーン領域の範囲を表す情報を、符号化対象ピクチャの識別子とともに参照可否判定部22へ出力する。またクリーン領域境界位置決定部21は、符号化対象ピクチャのクリーン領域境界の位置及びクリーン領域の範囲を予測モード判定部23へ通知する。さらに、クリーン領域境界位置決定部21は、符号化対象ピクチャ以降のピクチャにおけるクリーン領域境界の位置を決定するために、符号化対象ピクチャのクリーン領域境界の位置を、例えば、内蔵するメモリに格納する。さらに、クリーン領域境界位置決定部21は、クリーン領域境界の巡回方向を表す情報と、連続する二つのピクチャ間でのクリーン領域境界の移動量を表す情報とを、エントロピー符号化部29へ通知する。
また予測モード判定部23は、符号化対象マクロブロックがクリーン領域に属する場合には、インター符号化する場合またはイントラ予測符号化する場合に参照される可能性のある領域をそれぞれ参照領域として特定する。そして予測モード判定部23は、符号化対象マクロブロックの位置と、そのマクロブロックがインター符号化される場合及びイントラ予測符号化される場合のそれぞれの参照領域の位置及び範囲を参照可否判定部22へ通知する。
また予測モード判定部23は、符号化対象マクロブロックが非クリーン領域に属する場合には、符号化対象マクロブロックの予測モードを、イントラ符号化モードまたはイントラ予測符号化モードとする。
予測モード判定部23は、参照可否判定部22から参照領域内の各画素について参照可能か否かの判定結果を受け取る。そして予測モード判定部23は、各符号化モードについてのマクロブロックの符号化されたデータ量の評価値であるコストをそれぞれ算出する。そして予測モード判定部23は、コストが最小となる符号化モードを、符号化対象マクロブロックに対して適用される符号化モードとする。
各符号化モードに対するコストは、例えば、次のように計算される。
予測モード判定部23は、選択した符号化モードをセレクタ26及びエントロピー符号化部29へ通知する。また予測モード判定部23は、選択した符号化モードがイントラ予測符号化モードであれば、イントラ予測部24へ予測画像を生成するよう通知する。一方、選択した符号化モードがインター符号化モードであれば、予測モード判定部23は、動き補償部25へ動き補償された予測画像を生成するよう通知する。
イントラ予測部24は、生成された予測画像をセレクタ26へ渡す。
動き補償部25は、符号化対象ブロックの位置と、動きベクトルを求めるために参照される可能性のある参照ピクチャ上の参照領域の位置及び範囲とを参照可否判定部22へ通知する。そして動き補償部25は、参照可否判定部22から、参照領域内で参照可能な画素を表す情報を受け取る。
動き補償部25は、符号化対象ブロックと、参照ピクチャとのブロックマッチングを実行することにより、符号化対象ブロックと最も一致する参照ピクチャ及びその参照ピクチャが含まれるピクチャ上での位置を決定する。なお、参照領域内の一部の画素が参照不能な場合、動き補償部25は、符号化対象ブロックとのブロックマッチングを行う参照ピクチャ上の範囲を、参照可否判定部22により示された参照可能な画素を少なくとも一部に含む範囲に限定する。
動き補償部25は、画像メモリ32から得た参照ピクチャ中の符号化対象ブロックと最も一致するブロックを動きベクトルに基づいて動き補償することにより予測画像を生成する。なお、動き補償は、動きベクトルで表された、ブロックとそれに対して最も類似する参照ピクチャ上のブロックの位置ずれ量を相殺するように、その最も類似する参照ピクチャ上のブロックの位置を移動する処理である。
そして動き補償部25は、動画像復号装置2の動き補償部16と同様に、例えば(1)式に従って算出された値で、参照ブロック中の参照不能な画素の値を置換する。
そして動き補償部25は、その置換された画素値を含む参照ブロックに基づいて予測画像を生成する。
動き補償部25は、動きベクトル、動き補償パラメータとともに参照ピクチャの識別子をエントロピー符号化部29へ渡す。また動き補償部25は、予測画像をセレクタ26へ渡す。
あるいは、水平方向及び垂直方向の周波数成分のそれぞれに対応する量子化幅を規定する量子化マトリクスが、予め複数準備され、直交変換・量子化部28が有するメモリに記憶される。そして直交変換・量子化部28は、量子化パラメータにしたがって、それら量子化マトリクスのうちの特定の量子化マトリクスを選択する。そして直交変換・量子化部28は、選択された量子化マトリクスを参照して、周波数信号の各周波数成分に対する量子化幅を決定してもよい。
直交変換・量子化部28は、量子化処理を実行することにより、量子化係数を求め、その量子化係数をエントロピー符号化部29及び逆量子化・直交変換部30へ出力する。
そして逆量子化・直交変換部30は、再生された各画素の予測誤差を加算器31へ出力する。
加算器31は、得られた参照ピクチャを画像メモリ32に記憶させる。
クリーン領域境界位置決定部21は、一つ前のピクチャのクリーン領域境界、巡回方向情報および移動量情報に基づいて、符号化対象ピクチャのクリーン領域境界を決定する(ステップS201)。そしてクリーン領域境界位置決定部21は、クリーン領域境界に基づいて決定されるクリーン領域の範囲及び非クリーン領域の範囲を表す情報を参照可否判定部22へ出力する。
予測モード判定部23は、符号化対象マクロブロックを符号化するために参照される可能性のある符号化対象ピクチャ及び参照ピクチャ上の領域を参照領域として、その参照領域の位置及び範囲と符号化対象マクロブロックの位置とを参照可否判定部22へ通知する。参照可否判定部22は、参照領域内で参照可能な画素を判定する(ステップS203)。参照可否判定部22はその判定結果を予測モード判定部23へ通知する。
予測モード判定部23は、参照可能な画素に基づいて各符号化モードのコストを最小化する符号化モードを符号化対象マクロブロックの符号化モードとして決定する(ステップS204)。
イントラ予測部24は、参照可能な参照ブロックに基づいてイントラ予測画像を生成する(ステップS206)。そしてイントラ予測部24は、イントラ予測画像をセレクタ26へ出力する。
動きベクトルで特定された領域内の全ての画素が参照可能か否か判定する(ステップS209)。特定された領域内の一部の画素が参照不能である場合(ステップS209−No)、動き補償部25は、動き補償パラメータを算出する(ステップS210)。そして動き補償部25は、その動き補償パラメータ及び参照可能な範囲内の画素値に基づいて求めた値で参照不能な画素の値を置換する(ステップS211)。
ステップS209にて特定された領域内の全ての画素が参照可能である場合(ステップS209−Yes)、あるいはステップS211の後、動き補償部25は、動き補償された予測画像を生成する(ステップS212)。また動き補償部25は、参照可能なブロックに基づいて、予測動きベクトル及び指標pmVIdxを決定する(ステップS213)。そして動き補償部25は、動きベクトルと予測動きベクトル間の予測誤差を算出する。
動き補償部25は、動き補償された予測画像をセレクタ26へ出力する。また動き補償部25は、動き補償パラメータ、動きベクトルと予測動きベクトル間の予測誤差及び指標pmVIdxをエントロピー符号化部29へ出力する。
加算器31は、各画素の予測誤差を予測画像の対応画素の値に加えることにより、符号化対象マクロブロックを参照用のデータとして再生する(ステップS217)。そして加算器31は、再生したマクロブロックを画像メモリ32に格納する。
一方、エントロピー符号化部29は、所定のエントロピー符号化方式にしたがって符号化対象マクロブロックの量子化係数、動きベクトルなどのマクロブロックデータを符号化する(ステップS218)。
一方、符号化対象ピクチャ内の全てのマクロブロックが符号化されていれば(ステップS219−Yes)、エントロピー符号化部29は、クリーン領域境界についての巡回方向情報及び移動量情報を含むように、符号化された動画像データを生成する(ステップS220)。そして動画像符号化装置2は、動画像符号化処理を終了する。
なお、動画像符号化装置2は、ステップS216〜S217の処理と、ステップS218の処理とを平行して実行してもよい。
さらに、この動画像符号化装置は、クリーン領域境界の巡回方向を表す情報及びクリーン領域境界の移動量を表す情報を設定するだけで、自由にクリーン領域境界の巡回方向を規定できる。そのため、例えば、シーンごとにピクチャに写っている像の移動方向と略一致するようにクリーン領域境界の巡回方向が設定されることで、クリーン領域内のマクロブロックについても、最適な動きベクトルを用いることが出来る確率が向上する。
なお、クリーン領域境界の符号化方法は上記に限定するものではなく、例えば、クリーン領域に属するマクロブロックの識別情報(ID)あるいはマクロブロックアドレスをすべてヘッダで符号化することによって、クリーン領域境界は符号化されてもよい。あるいは、クリーン領域境界の符号化方法として、ITU-T H.264/MPEG-4 AVCのフレキシブルマクロブロックオーダ(FMO)のSlice Groupの規定で定義されるような領域の分類方法など、画像の領域を指定する他の一般的な方法も、一般性を失うことなく用いることが可能である。
10 エントロピー復号部
11 領域分類部
12 参照可否判定部
13 逆量子化・直交変換部
14 加算器
15 セレクタ
16 動き補償部
17 イントラ予測部
18 ポストフィルタ部
19 画像メモリ
20 復号部
2 動画像符号化装置
21 クリーン領域境界位置決定部
22 参照可否判定部
23 予測モード判定部
24 イントラ予測部
25 動き補償部
26 セレクタ
27 予測誤差信号生成部
28 直交変換・量子化部
29 エントロピー符号化部
30 逆量子化・直交変換部
31 加算器
32 画像メモリ
33 符号化部
Claims (11)
- 正常に画素値が復号されることが保証されるように符号化される少なくとも一つのブロックを含むクリーン領域が、所定の周期でピクチャ全体を占めるように符号化された動画像データを復号する動画像復号装置であって、
前記符号化された動画像データからクリーン領域と非クリーン領域との領域境界位置情報を抽出する領域境界位置情報抽出部と、
前記領域境界位置情報に基づいて、ピクチャ内のクリーン領域と非クリーン領域とを特定する領域分類部と、
前記符号化された動画像データに含まれる復号対象ピクチャ内の復号対象ブロックが前記クリーン領域に属する場合には復号対象ピクチャ及び参照ピクチャ内の前記非クリーン領域内のブロックを参照不能である参照不能ブロック、復号対象ピクチャ及び参照ピクチャ内の前記クリーン領域内のブロックを参照可能である参照可能ブロックと判定し、復号対象ブロックが前記非クリーン領域に属する場合には復号対象ピクチャ及び参照ピクチャの全ブロックを前記参照可能ブロックと判定する参照可否判定部と、
前記復号対象ブロックと前記参照ピクチャ間の動きを表す動きベクトルを用いて、前記参照ピクチャに含まれる参照ブロックを動き補償することにより第1の予測画像を生成する動き補償部を有し、前記符号化された動画像データから再生した前記復号対象ブロック内の各画素の予測誤差に前記第1の予測画像の対応する画素の値を加算することにより、前記復号対象ブロックを復号する復号部と、を有し、
前記符号化された動画像データは、前記復号対象ブロックの動きベクトルの予測方法を表す指標及び動きベクトルの予測誤差を含み、
前記参照可否判定部は、前記復号対象ブロックの前記動きベクトルの予測値を決定するために参照される可能性のある複数のブロックを含む参照領域のうちで前記復号対象ブロックが参照できる前記参照可能ブロックを決定し、
前記動き補償部は、前記参照可能ブロックと前記指標とに基づいて前記動きベクトルの予測値を決定し、かつ、前記動きベクトルの予測値に前記動きベクトルの予測誤差を加算することにより前記動きベクトルを再生する、
動画像復号装置。 - 正常に画素値が復号されることが保証されるように符号化される少なくとも一つのブロックを含むクリーン領域が、所定の周期でピクチャ全体を占めるように符号化された動画像データを復号する動画像復号装置であって、
前記符号化された動画像データからクリーン領域と非クリーン領域との領域境界位置情報を抽出する領域境界位置情報抽出部と、
前記領域境界位置情報に基づいて、ピクチャ内のクリーン領域と非クリーン領域とを特定する領域分類部と、
前記符号化された動画像データに含まれる復号対象ピクチャ内の復号対象ブロックが前記クリーン領域に属する場合には復号対象ピクチャ及び参照ピクチャ内の前記非クリーン領域内のブロックを参照不能である参照不能ブロック、復号対象ピクチャ及び参照ピクチャ内の前記クリーン領域内のブロックを参照可能である参照可能ブロックと判定し、復号対象ブロックが前記非クリーン領域に属する場合には復号対象ピクチャ及び参照ピクチャの全ブロックを前記参照可能ブロックと判定する参照可否判定部と、
前記参照可否判定部の判定に基づいて、前記参照可能ブロックのみを参照して前記復号対象ブロックを復号する復号部と、を有し、
前記復号部は、
前記復号対象ブロックと隣接する隣接ブロックが前記参照可能ブロックである場合に前記隣接ブロック内の画素値を用いて第2の予測画像を生成し、一方、前記隣接ブロックが前記参照不能ブロックである場合、前記第2の予測画像を生成しないイントラ予測部を有し、
前記復号部は、前記第2の予測画像が生成された場合に限り、前記符号化された動画像データから再生した前記復号対象ブロック内の各画素の予測誤差に前記第2の予測画像の対応する画素の値を加算することにより、前記復号対象ブロックを復号する、動画像復号装置。 - 正常に画素値が復号されることが保証されるように符号化される少なくとも一つのブロックを含むクリーン領域が、所定の周期でピクチャ全体を占めるように符号化された動画像データを復号する動画像復号装置であって、
前記符号化された動画像データからクリーン領域と非クリーン領域との領域境界位置情報を抽出する領域境界位置情報抽出部と、
前記領域境界位置情報に基づいて、ピクチャ内のクリーン領域と非クリーン領域とを特定する領域分類部と、
前記符号化された動画像データに含まれる復号対象ピクチャ内の復号対象ブロックが前記クリーン領域に属する場合には復号対象ピクチャ及び参照ピクチャ内の前記非クリーン領域内のブロックを参照不能である参照不能ブロック、復号対象ピクチャ及び参照ピクチャ内の前記クリーン領域内のブロックを参照可能である参照可能ブロックと判定し、復号対象ブロックが前記非クリーン領域に属する場合には復号対象ピクチャ及び参照ピクチャの全ブロックを前記参照可能ブロックと判定する参照可否判定部と、
前記参照可否判定部の判定に基づいて、前記参照可能ブロックのみを参照して前記復号対象ブロックを復号する復号部と、を有し、
前記復号部は、
再生された前記復号対象ブロックに対して所定のフィルタを適用するフィルタ処理を行うポストフィルタ部を有し、
前記ポストフィルタ部は、前記所定のフィルタが参照する領域内に前記参照不能ブロック内の画素が含まれている場合、当該参照不能ブロック内の画素の値を前記フィルタが参照する領域内の前記参照可能ブロック内の画素の何れかの値で置換した後にフィルタ処理を実行することにより、他のブロックの復号に利用される第1の復号データを求める、動画像復号装置。 - 前記領域境界位置情報は、領域境界の移動方向情報及びピクチャ間の領域境界の変移を含む、請求項1〜3の何れか一項に記載の動画像復号装置。
- 正常に画素値が復号されることが保証されるように符号化される少なくとも一つのブロックを含むクリーン領域が、所定の周期でピクチャ全体を占めるように符号化された動画像データを復号する動画像復号方法であって、
前記符号化された動画像データからクリーン領域と非クリーン領域との領域境界位置情報を抽出し、
前記領域境界位置情報に基づいて、ピクチャ内のクリーン領域と非クリーン領域とを特定し、
前記符号化された動画像データに含まれる復号対象ピクチャ内の復号対象ブロックが前記クリーン領域に属する場合には復号対象ピクチャ及び参照ピクチャ内の前記非クリーン領域内のブロックを参照不能である参照不能ブロック、復号対象ピクチャ及び参照ピクチャ内の前記クリーン領域内のブロックを参照可能である参照可能ブロックと判定し、復号対象ブロックが前記非クリーン領域に属する場合には復号対象ピクチャ及び参照ピクチャの全ブロックを前記参照可能ブロックと判定し、
前記復号対象ブロックと前記参照ピクチャ間の動きを表す動きベクトルを用いて、前記参照ピクチャに含まれる参照ブロックを動き補償することにより第1の予測画像を生成し、前記符号化された動画像データから再生した前記復号対象ブロック内の各画素の予測誤差に前記第1の予測画像の対応する画素の値を加算することにより、前記復号対象ブロックを復号する
ことを含み、
前記符号化された動画像データは、前記復号対象ブロックの動きベクトルの予測方法を表す指標及び動きベクトルの予測誤差を含み、
前記参照不能ブロック及び前記参照可能ブロックを判定することは、前記復号対象ブロックの前記動きベクトルの予測値を決定するために参照される可能性のある複数のブロックを含む参照領域のうちで前記復号対象ブロックが参照できる前記参照可能ブロックを決定することを含み、
前記第1の予測画像を生成することは、前記参照可能ブロックと前記指標とに基づいて前記動きベクトルの予測値を決定し、かつ、前記動きベクトルの予測値に前記動きベクトルの予測誤差を加算することにより前記動きベクトルを再生することを含む、
動画像復号方法。 - 正常に画素値が復号されることが保証されるように符号化される少なくとも一つのブロックを含むクリーン領域が、所定の周期でピクチャ全体を占めるように符号化された動画像データを復号する動画像復号方法であって、
前記符号化された動画像データからクリーン領域と非クリーン領域との領域境界位置情報を抽出し、
前記領域境界位置情報に基づいて、ピクチャ内のクリーン領域と非クリーン領域とを特定し、
前記符号化された動画像データに含まれる復号対象ピクチャ内の復号対象ブロックが前記クリーン領域に属する場合には復号対象ピクチャ及び参照ピクチャ内の前記非クリーン領域内のブロックを参照不能である参照不能ブロック、復号対象ピクチャ及び参照ピクチャ内の前記クリーン領域内のブロックを参照可能である参照可能ブロックと判定し、復号対象ブロックが前記非クリーン領域に属する場合には復号対象ピクチャ及び参照ピクチャの全ブロックを前記参照可能ブロックと判定し、
前記復号対象ブロックと隣接する隣接ブロックが前記参照可能ブロックである場合に前記隣接ブロック内の画素値を用いて第2の予測画像を生成し、一方、前記隣接ブロックが前記参照不能ブロックである場合、前記第2の予測画像を生成せず、
前記第2の予測画像が生成された場合に限り、前記符号化された動画像データから再生した前記復号対象ブロック内の各画素の予測誤差に前記第2の予測画像の対応する画素の値を加算することにより、前記復号対象ブロックを復号する、
ことを含む動画像復号方法。 - 正常に画素値が復号されることが保証されるように符号化される少なくとも一つのブロックを含むクリーン領域が、所定の周期でピクチャ全体を占めるように符号化された動画像データを復号する動画像復号方法であって、
前記符号化された動画像データからクリーン領域と非クリーン領域との領域境界位置情報を抽出し、
前記領域境界位置情報に基づいて、ピクチャ内のクリーン領域と非クリーン領域とを特定し、
前記符号化された動画像データに含まれる復号対象ピクチャ内の復号対象ブロックが前記クリーン領域に属する場合には復号対象ピクチャ及び参照ピクチャ内の前記非クリーン領域内のブロックを参照不能である参照不能ブロック、復号対象ピクチャ及び参照ピクチャ内の前記クリーン領域内のブロックを参照可能である参照可能ブロックと判定し、復号対象ブロックが前記非クリーン領域に属する場合には復号対象ピクチャ及び参照ピクチャの全ブロックを前記参照可能ブロックと判定し、
前記参照可能ブロックのみを参照して前記復号対象ブロックを復号し、
復号された前記復号対象ブロックに対して適用される所定のフィルタが参照する領域内に前記参照不能ブロック内の画素が含まれている場合、当該参照不能ブロック内の画素の値を前記所定のフィルタが参照する領域内の前記参照可能ブロック内の画素の何れかの値で置換した後に復号された前記復号対象ブロックに対して前記所定のフィルタを適用することにより、他のブロックの復号に利用される第1の復号データを求める、
ことを含む動画像復号方法。 - 正常に画素値が復号されることが保証されるように符号化される少なくとも一つのブロックを含むクリーン領域が、所定の周期でピクチャ全体を占めるように動画像データを符号化する動画像符号化装置であって、
ピクチャ内のクリーン領域と非クリーン領域とを決定する領域分類部と、
符号化対象ピクチャ内の符号化対象ブロックが前記クリーン領域に属する場合には符号化対象ピクチャ及び参照ピクチャ内の前記非クリーン領域内のブロックを参照不能である参照不能ブロック、符号化対象ピクチャ及び参照ピクチャ内の前記クリーン領域内のブロックを参照可能である参照可能ブロックと判定し、符号化対象ブロックが前記非クリーン領域に属する場合には符号化対象ピクチャ及び参照ピクチャの全ブロックを前記参照可能ブロックと判定する参照可否判定部と、
前記参照可否判定部の判定に基いて、前記参照可能ブロックのみを参照して前記符号化対象ブロックを符号化し、クリーン領域と非クリーン領域との領域境界位置情報を符号化された動画像データに含める符号化部と、
を有し、
前記符号化部は、
前記符号化対象ブロックと前記参照ピクチャ間の動きを表す動きベクトルを用いて、前記参照ピクチャに含まれる参照ブロックを動き補償することにより第1の予測画像を生成する動き補償部を有し、前記符号化対象ブロックと前記第1の予測画像間の対応する各画素の差である予測誤差を符号化し、
前記参照可否判定部は、前記符号化対象ブロックの前記動きベクトルの予測値を決定するために参照される可能性のある複数のブロックを含む参照領域のうち、前記符号化対象ブロックが参照できる前記参照可能ブロックを決定し、
前記動き補償部は、前記符号化対象ブロックの動きベクトルの予測方法の中から前記参照可能ブロックの動きベクトルを参照する予測方法を表す指標を求め、前記参照可能ブロック及び前記指標に基づいて前記動きベクトルの予測値を決定し、かつ、前記動きベクトルと前記動きベクトルの予測値間の予測誤差を求め、
前記符号化部は前記動きベクトルと前記動きベクトルの予測値間の予測誤差及び前記指標を前記符号化された動画像データに含める、
動画像符号化装置。 - 正常に画素値が復号されることが保証されるように符号化される少なくとも一つのブロックを含むクリーン領域が、所定の周期でピクチャ全体を占めるように動画像データを符号化する動画像符号化装置であって、
ピクチャ内のクリーン領域と非クリーン領域とを決定する領域分類部と、
符号化対象ピクチャ内の符号化対象ブロックが前記クリーン領域に属する場合には符号化対象ピクチャ及び参照ピクチャ内の前記非クリーン領域内のブロックを参照不能である参照不能ブロック、符号化対象ピクチャ及び参照ピクチャ内の前記クリーン領域内のブロックを参照可能である参照可能ブロックと判定し、符号化対象ブロックが前記非クリーン領域に属する場合には符号化対象ピクチャ及び参照ピクチャの全ブロックを前記参照可能ブロックと判定する参照可否判定部と、
前記参照可否判定部の判定に基いて、前記参照可能ブロックのみを参照して前記符号化対象ブロックを符号化し、クリーン領域と非クリーン領域との領域境界位置情報を符号化された動画像データに含める符号化部と、
を有し、
前記符号化部は、
前記符号化対象ブロックと隣接する隣接ブロックのうち、前記参照可能ブロックである隣接ブロック内の画素値を用いて第2の予測画像を生成し、前記符号化対象ブロックと前記第2の予測画像間の対応する各画素の差である予測誤差を符号化する、
動画像符号化装置。 - 正常に画素値が復号されることが保証されるように符号化される少なくとも一つのブロックを含むクリーン領域が、所定の周期でピクチャ全体を占めるように動画像データを符号化する動画像符号化方法であって、
ピクチャ内のクリーン領域と非クリーン領域とを決定し、
符号化対象ピクチャ内の符号化対象ブロックが前記クリーン領域に属する場合には符号化対象ピクチャ及び参照ピクチャ内の前記非クリーン領域内のブロックを参照不能である参照不能ブロック、符号化対象ピクチャ及び参照ピクチャ内の前記クリーン領域内のブロックを参照可能である参照可能ブロックと判定し、符号化対象ブロックが前記非クリーン領域に属する場合には符号化対象ピクチャ及び参照ピクチャの全ブロックを前記参照可能ブロックと判定し、
前記参照可能ブロックのみを参照して前記符号化対象ブロックを符号化し、
クリーン領域と非クリーン領域との領域境界位置情報を符号化された動画像データに含める、
ことを含み、
前記符号化対象ブロックを符号化することは、
前記符号化対象ブロックと前記参照ピクチャ間の動きを表す動きベクトルを用いて、前記参照ピクチャに含まれる参照ブロックを動き補償することにより第1の予測画像を生成し、前記符号化対象ブロックと前記第1の予測画像間の対応する各画素の差である予測誤差を符号化することを含み、
前記参照不能ブロック及び前記参照可能ブロックを判定することは、前記符号化対象ブロックの前記動きベクトルの予測値を決定するために参照される可能性のある複数のブロックを含む参照領域のうち、前記符号化対象ブロックが参照できる前記参照可能ブロックを決定することを含み、
前記第1の予測画像を生成することは、前記符号化対象ブロックの動きベクトルの予測方法の中から前記参照可能ブロックの動きベクトルを参照する予測方法を表す指標を求め、前記参照可能ブロック及び前記指標に基づいて前記動きベクトルの予測値を決定し、かつ、前記動きベクトルと前記動きベクトルの予測値間の予測誤差を求めることを含み、
前記符号化対象ブロックを符号化することは、前記動きベクトルと前記動きベクトルの予測値間の予測誤差及び前記指標を前記符号化された動画像データに含めることを含む、
動画像符号化方法。 - 正常に画素値が復号されることが保証されるように符号化される少なくとも一つのブロックを含むクリーン領域が、所定の周期でピクチャ全体を占めるように動画像データを符号化する動画像符号化方法であって、
ピクチャ内のクリーン領域と非クリーン領域とを決定し、
符号化対象ピクチャ内の符号化対象ブロックが前記クリーン領域に属する場合には符号化対象ピクチャ及び参照ピクチャ内の前記非クリーン領域内のブロックを参照不能である参照不能ブロック、符号化対象ピクチャ及び参照ピクチャ内の前記クリーン領域内のブロックを参照可能である参照可能ブロックと判定し、符号化対象ブロックが前記非クリーン領域に属する場合には符号化対象ピクチャ及び参照ピクチャの全ブロックを前記参照可能ブロックと判定し、
前記参照可能ブロックのみを参照して前記符号化対象ブロックを符号化し、
クリーン領域と非クリーン領域との領域境界位置情報を符号化された動画像データに含める、
ことを含み、
前記符号化対象ブロックを符号化することは、
前記符号化対象ブロックと隣接する隣接ブロックのうち、前記参照可能ブロックである隣接ブロック内の画素値を用いて第2の予測画像を生成し、前記符号化対象ブロックと前記第2の予測画像間の対応する各画素の差である予測誤差を符号化することを含む、
動画像符号化方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012524394A JP5672302B2 (ja) | 2010-07-15 | 2010-07-21 | 動画像復号装置、動画像復号方法及び動画像符号化装置ならびに動画像符号化方法 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JPPCT/JP2010/061996 | 2010-07-15 | ||
PCT/JP2010/061996 WO2012008037A1 (ja) | 2010-07-15 | 2010-07-15 | 動画像復号装置、動画像復号方法及び動画像符号化装置ならびに動画像符号化方法 |
PCT/JP2010/062266 WO2012008054A1 (ja) | 2010-07-15 | 2010-07-21 | 動画像復号装置、動画像復号方法及び動画像符号化装置ならびに動画像符号化方法 |
JP2012524394A JP5672302B2 (ja) | 2010-07-15 | 2010-07-21 | 動画像復号装置、動画像復号方法及び動画像符号化装置ならびに動画像符号化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2012008054A1 JPWO2012008054A1 (ja) | 2013-09-05 |
JP5672302B2 true JP5672302B2 (ja) | 2015-02-18 |
Family
ID=45469061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012524394A Expired - Fee Related JP5672302B2 (ja) | 2010-07-15 | 2010-07-21 | 動画像復号装置、動画像復号方法及び動画像符号化装置ならびに動画像符号化方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9591305B2 (ja) |
JP (1) | JP5672302B2 (ja) |
WO (2) | WO2012008037A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012151576A (ja) | 2011-01-18 | 2012-08-09 | Hitachi Ltd | 画像符号化方法、画像符号化装置、画像復号方法及び画像復号装置 |
JP5717886B2 (ja) * | 2011-03-09 | 2015-05-13 | シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft | デジタル画像のシーケンスを符号化する方法 |
US10511862B2 (en) * | 2012-06-25 | 2019-12-17 | Nec Corporation | Video encoding/decoding device, method, and program |
GB2519289B (en) * | 2013-10-11 | 2016-10-12 | Canon Kk | Method and apparatus for displacement vector component transformation in video coding and decoding |
JP2015106747A (ja) * | 2013-11-28 | 2015-06-08 | 富士通株式会社 | 動画像符号化装置、動画像符号化方法及び動画像符号化用コンピュータプログラム |
JP6268989B2 (ja) * | 2013-11-29 | 2018-01-31 | 富士通株式会社 | 動画像符号化装置、動画像符号化方法及び動画像符号化用コンピュータプログラム |
FR3066873A1 (fr) * | 2017-05-29 | 2018-11-30 | Orange | Procedes et dispositifs de codage et de decodage d'un flux de donnees representatif d'au moins une image |
US12003775B2 (en) | 2018-08-06 | 2024-06-04 | Sharp Kabushiki Kaisha | Video decoding apparatus and video coding apparatus |
WO2020054784A1 (ja) * | 2018-09-11 | 2020-03-19 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法および復号方法 |
WO2020054781A1 (ja) * | 2018-09-11 | 2020-03-19 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法および復号方法 |
JP2020108077A (ja) * | 2018-12-28 | 2020-07-09 | 富士通株式会社 | 映像符号化装置、映像符号化方法、映像符号化プログラム、映像復号装置、映像復号方法、及び映像復号プログラム |
CN110083728B (zh) * | 2019-04-03 | 2021-08-20 | 上海铼锶信息技术有限公司 | 一种优化自动化图片数据清洗质量的方法、装置和*** |
US11432015B2 (en) * | 2019-07-11 | 2022-08-30 | Qualcomm Incorporated | Adaptive loop filtering across raster-scan slices |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009021908A (ja) * | 2007-07-13 | 2009-01-29 | Fujitsu Ltd | 動画像符号化装置及びプログラム |
WO2009037726A1 (ja) * | 2007-09-18 | 2009-03-26 | Fujitsu Limited | 動画像符号化装置および動画像復号装置 |
JP2009095064A (ja) * | 2009-01-19 | 2009-04-30 | Mitsubishi Electric Corp | 復号化方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06101841B2 (ja) | 1984-01-11 | 1994-12-12 | 日本電気株式会社 | 動画像信号の符号化方法およびその装置 |
JPH06113286A (ja) | 1992-09-30 | 1994-04-22 | Matsushita Electric Ind Co Ltd | 高能率符号化装置 |
JP4186242B2 (ja) * | 1997-12-26 | 2008-11-26 | ソニー株式会社 | 画像信号処理装置及び画像信号処理方法 |
US7391812B2 (en) * | 2002-07-14 | 2008-06-24 | Apple Inc. | Adaptively post filtering encoded video |
JP4276420B2 (ja) | 2002-11-05 | 2009-06-10 | 三菱電機株式会社 | 動き補償方法 |
US20050201470A1 (en) | 2004-03-12 | 2005-09-15 | John Sievers | Intra block walk around refresh for H.264 |
JP4680608B2 (ja) * | 2005-01-17 | 2011-05-11 | パナソニック株式会社 | 画像復号装置及び方法 |
US7929776B2 (en) * | 2005-03-10 | 2011-04-19 | Qualcomm, Incorporated | Method and apparatus for error recovery using intra-slice resynchronization points |
CN100459717C (zh) * | 2005-04-20 | 2009-02-04 | 华为技术有限公司 | 基于h.264的压缩视频传输误码消除方法 |
KR20080061379A (ko) * | 2005-09-26 | 2008-07-02 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 비디오 에러 은폐를 개선하기 위한 코딩/디코딩 방법 및장치 |
JP4724061B2 (ja) * | 2006-07-06 | 2011-07-13 | 株式会社東芝 | 動画像符号化装置 |
US8520730B2 (en) * | 2007-11-28 | 2013-08-27 | Panasonic Corporation | Picture coding method and picture coding apparatus |
US8289444B2 (en) * | 2009-05-06 | 2012-10-16 | Samsung Electronics Co., Ltd. | System and method for reducing visible halo in digital video with covering and uncovering detection |
-
2010
- 2010-07-15 WO PCT/JP2010/061996 patent/WO2012008037A1/ja active Application Filing
- 2010-07-21 JP JP2012524394A patent/JP5672302B2/ja not_active Expired - Fee Related
- 2010-07-21 WO PCT/JP2010/062266 patent/WO2012008054A1/ja active Application Filing
-
2013
- 2013-01-14 US US13/740,459 patent/US9591305B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009021908A (ja) * | 2007-07-13 | 2009-01-29 | Fujitsu Ltd | 動画像符号化装置及びプログラム |
WO2009037726A1 (ja) * | 2007-09-18 | 2009-03-26 | Fujitsu Limited | 動画像符号化装置および動画像復号装置 |
JP2009095064A (ja) * | 2009-01-19 | 2009-04-30 | Mitsubishi Electric Corp | 復号化方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2012008054A1 (ja) | 2012-01-19 |
US20130128981A1 (en) | 2013-05-23 |
US9591305B2 (en) | 2017-03-07 |
JPWO2012008054A1 (ja) | 2013-09-05 |
WO2012008037A1 (ja) | 2012-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5672302B2 (ja) | 動画像復号装置、動画像復号方法及び動画像符号化装置ならびに動画像符号化方法 | |
JP6835448B2 (ja) | 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法及び符号化ビットストリームを記録した記録媒体 | |
US9451279B2 (en) | Method for decoding a moving picture | |
US9609354B2 (en) | Apparatus for decoding a moving picture | |
JP6082073B2 (ja) | 画像復号装置、画像復号方法、画像符号化装置、画像符号化方法及びビットストリーム | |
JP6025726B2 (ja) | 動画復号化装置 | |
CN105959706B (zh) | 图像编码装置和方法、以及图像译码装置和方法 | |
KR20130101070A (ko) | 동화상 부호화 장치, 동화상 복호 장치, 동화상 부호화 방법 및 동화상 복호 방법 | |
US9473789B2 (en) | Apparatus for decoding a moving picture | |
WO2014049981A1 (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
WO2014049982A1 (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
JP2015080002A (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
KR100728032B1 (ko) | 워핑 기반의 인트라 예측 방법 | |
JP4561701B2 (ja) | 動画像符号化装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140401 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140624 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5672302 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |