JP5669278B2 - 画像シーケンスのブロックを符号化する方法およびこのブロックを再構成する方法 - Google Patents

画像シーケンスのブロックを符号化する方法およびこのブロックを再構成する方法 Download PDF

Info

Publication number
JP5669278B2
JP5669278B2 JP2012534624A JP2012534624A JP5669278B2 JP 5669278 B2 JP5669278 B2 JP 5669278B2 JP 2012534624 A JP2012534624 A JP 2012534624A JP 2012534624 A JP2012534624 A JP 2012534624A JP 5669278 B2 JP5669278 B2 JP 5669278B2
Authority
JP
Japan
Prior art keywords
motion vector
determining
block
candidate
corrected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012534624A
Other languages
English (en)
Other versions
JP2013509063A (ja
JP2013509063A5 (ja
Inventor
フランソワ,エドウアール
ソロー,ドミニク
ビエロン,ジエローム
マルタン,オーレリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2013509063A publication Critical patent/JP2013509063A/ja
Publication of JP2013509063A5 publication Critical patent/JP2013509063A5/ja
Application granted granted Critical
Publication of JP5669278B2 publication Critical patent/JP5669278B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、画像符号化の一般的な領域に関する。より具体的には、本発明は、画像シーケンスの各画素のブロックを符号化する方法、さらに、このようなブロックを再構成する方法に関する。
従来技術において、画像シーケンスを効率的に符号化し、図1に示されたような時間予測またはインター画像符号化(モード・インター)によって符号化する方法を使用することが知られている。画像Icの現在のブロックBcは、特に相関性を有する、以前に符号化され、再構成された参照画像Irefから補間されることがあるブロックBpからの時間予測によって符号化される。参照画像のブロックBpは、予測ブロックと呼ばれている。予測ブロックは、現在のブロックBcに関連付けられた動きブロックMVcを使用して特定される。動きベクトルMVcは、動き推定の方法、例えば、ブロック・ペアリング法(block pairing method)によって決定される。時間予測による既知の符号化方法によれば、動きベクトルMVcおよび残差データは、現在のブロックBcのストリームFにおいて号化される。残差データは、現在のブロックBcから予測ブロックBpを減算することによって得られる。再構成された参照画像Irefと現在のブロックBcに関連付けられた動きベクトルMVcとの、この残差データを使用することによって、現在のブロックBcを再構成することができる。
さらに、現在のブロックBcに隣接するブロックA、B、およびCに関連付けられた動きベクトルを使用して、予測により現在のブロックBcに関連付けられた動きベクトルMVcを符号化することが本技術分野において知られている。図2を参照するに、ステップ10において、隣接するブロックA、B、およびCに関連付けられた動きベクトルのうちから1つ以上の候補動きベクトルMVctが決定される。一般的に、3つの候補動きベクトルが使用される。ブロックA、B、および/またはCのうちの1つが画像の外にあるとき、または、ブロックのうちの1つが時間予測によって符号化されていない(例えば、イントラモードで符号化されている)とき、例外が存在する。実際、後者の場合には、対象となるブロックに関連付けられた動きベクトルは存在しない。ステップ12において、予測動きベクトルMVpが候補動きベクトルMVctから決定される。予測動きベクトルMVpが、座標として、各候補動きベクトルの横軸中央値(abscissa median value)と各候補動きベクトルの縦軸中央値(ordinate median value)を有することが知られている。ステップ14において、現在のブロックBcは、予測動きベクトルMVpを考慮して符号化される。ブロックBcについて、現在のブロックBcから予測ブロックBpおよび動きベクトル差分MVdiffを減算することによって得られた残差データを符号化することが知られている。MVcおよびMVpから計算される動きベクトル差分MVdiffは、ストリームFにおいて号化される。MVdiffは、座標(MVx−MVpx;MVy−MVpy)を有し、ここで、(MVx;MVy)はMvcの座標であり、(MVpx;MVpy)はMVpの座標である。一般的に、残差データは、変換され、次に、量子化される。変換され次に量子化された残差データと動きベクトル差分MVdiffは、可変長符号化(VLC)タイプのエントロピー符号化によって符号化され、符号化されたデータとなる。
図1および図2を参照して説明される動きベクトルMVcを符号化する方法は、符号化コストの観点からは、必ずしも効率的なものとは限らない。
本発明の目的は、従来技術の欠点のうちの少なくとも1つを克服することにある。この目的のため、本発明は、画像シーケンスの現在のブロックを符号化する方法に関し、この方法は、
現在のブロックの近傍のブロックに関連付けられた少なくとも1つの候補動きブロックを決定するステップと、
少なくとも1つの候補動きベクトルから予測動きベクトルを決定するステップと、
予測動きベクトルから現在のブロックを符号化するステップと、を含む。
予測動きベクトルが、
上記少なくとも1つの候補動きベクトルについて、連続的に符号化され、再構成された近傍のブロックと、補正動きベクトルによって修正された少なくとも1つの候補動きベクトルによって動き補償された予測ブロックとの間で計算された歪みが最小になるように補正動きベクトルを決定するステップと、
補正動きベクトルによって修正された少なくとも1つの候補動きベクトルから予測動きベクトルを決定するステップと、に従って決定されると有益である。
本発明の特定の特徴によれば、符号化方法は、現在のブロックBcに関連付けられた現在の動きベクトルと予測動きベクトルとから計算された動きベクトル差分を決定するステップを含み、現在のブロックを符号化するステップは、動きベクトル差分を符号化するステップを含む。
本発明の特定の態様によれば、補正動きベクトルの座標の各々の値の範囲の大きさが第1の閾値によって制限される。
本発明の別の態様によれば、上記第1の閾値は、動きベクトルの符号化の精度を表す第2の閾値よりも小さい。
本発明の特定の態様によれば、上記第1の閾値は、1/8であり、上記第2の閾値は、1/4である。
本発明の特定の態様によれば、上記第1の閾値は、1/4であり、上記第2の閾値は、1/2である。
本発明の別の特定の態様によれば、上記補正動きベクトルの座標の各々は、動きベクトルの符号化精度よりも高い精度で候補動きベクトルの周りの規定された間隔内で決定される。
本発明の第1の実施形態によれば、
少なくとも1つの候補動きベクトルを決定するステップは、
少なくとも2つの候補動きベクトルを決定するステップと、
少なくとも2つの候補動きベクトルを統合して統合された動きベクトルにするステップと、
少なくとも2つの候補動きベクトルのうちから、統合された動きベクトルに最も近い動きベクトルを選択するステップと、を含む。
本発明の第2の実施形態によれば、少なくとも2つの候補動きベクトルが決定され、補正動きベクトルを決定するステップは、少なくとも2つの候補動きベクトルの各々について、補正動きベクトルを決定するステップを含み、予測動きベクトルを決定するステップは、補正動きベクトルの各々によって修正された候補動きベクトルを統合して単一の予測動きベクトルにするステップを含む。
さらに、本発明は、現在のブロックを再構成する方法に関し、この方法は、
上記現在のブロックの近傍のブロックに関連付けられた少なくとも1つの候補動きベクトルを決定するステップと、
少なくとも1つの候補動きベクトルから予測動きベクトルを決定するステップと、
上記予測動きベクトルから現在のブロックを再構成するステップと、を含む。
予測動きベクトルは、
再構成された近傍のブロックと、補正動きベクトルによって修正された少なくとも1つの候補動きベクトルによって動き補償された予測ブロックとの間で計算された歪みが最小になるように補正動きベクトルを決定するステップと、上記補正動きベクトルによって修正された候補動きベクトルから予測動きベクトルを決定するステップと、に従って決定される。
本発明の特定の態様によれば、再構成方法は、
上記現在のブロックについて、動きベクトル差分を復号するステップと、
上記現在のブロックについて、上記動きベクトル差分および上記予測動きベクトルから少なくとも1つの現在の動きベクトルを決定するステップと、
上記現在のブロックを上記現在の動きベクトルから再構成するステップと、をさらに含む。
本発明に従った符号化および再構成の方法は、符号化効率を高める、即ち、一定の品質で画像シーケンスの符号化コストを低減し、所与の符号化コストで再構成された画像シーケンスの品質を高めるという利点を有する。
本発明は、添付図面を参照して、以下の実施形態および実施例により良好に理解され、例示されるであろう。これらの実施形態および実施例は、決して限定的なものではない。
従来技術に係る時間予測を通じた符号化方法を示す図である。 従来技術に係る現在のブロックを符号化する方法のフローチャートである。 本発明の第1の実施形態に係る現在のブロックを符号化する方法のフローチャートである。 本発明の第1の実施形態に係る現在のブロックを符号化する方法のステップを示す図である。 本発明の第1の実施形態の変形例に係る現在のブロックを符号化する方法のフローチャートである。 本発明の第2の実施形態に係る現在のブロックを符号化する方法のフローチャートである。 本発明の第1の実施形態に係る現在のブロックを再構成する方法のフローチャートである。 本発明の第1の実施形態の変形例に係る現在のブロックを再構成する方法のフローチャートである。 本発明の第2の実施形態に係る現在のブロックを再構成する方法のフローチャートである。 本発明に係る符号化装置を示す図である。 本発明に係る復号装置を示す図である。
画像シーケンスは、幾つかの、一連のピクチャの画像である。各画像は、各々が少なくとも1つの画像データに関連付けられている、複数の画素または、画像ポイントからなる。例えば、1つの画像データは、1つの輝度データ、または、1つの色差データである。
用語「動きデータ」は、広い意味で理解されるべきである。動きデータは、動きベクトルを含み、画像シーケンスにおいて参照画像が識別できるようにする参照画像インデックスを含むことがある。さらに、動きデータは、予測ブロックを決定するために使用される補間タイプを示す1つの情報を含むことがある。実際、ブロックBcに関連付けられた動きベクトルMVcが整数座標を有していない場合には、画像データは、予測ブロックBpを決定するために、参照画像Irefにおいて補間されなければならない。ブロックに関連付けられた動きデータは、一般的には、動き推定方法、例えば、ブロック・ペアリングによって計算される。しかしながら、本発明は、動きベクトルがブロックに関連付けられるようにする方法に決して限定されるものではない。
用語「残差データ」は、他のデータの抽出後に得られるデータを意味する。抽出は、一般的には、ソース・データから予測データを画素毎に減算することである。しかしながら、抽出は、より一般的な用語であり、特に、重み付け減算を含む。この用語「残差データ」は、用語「残差」と同義である。残差ブロックは、残差データが関連付けられた画素のブロックである。
用語「変換された残差データ」は、変換が適用された残差データを意味する。離散コサイン変換(DCT)は、2003年9月にJ.Wiley&Son社によって出版されたI.E. Richardson氏の「H.264およびMPEG−4ビデオ圧縮(H.264 and MPEG−4 video compression)」と題された書籍のチャプタ3.4.2.2に記載されたこのような変換の例である。I.E. Richardson氏の書籍のチャプタ3.4.2.3に記載されたウェーブレット変換およびアダマール(Hadamard)変換は、別の例である。このような変換は、画像データのブロック、例えば残差輝度および/または色差のデータを「周波数データのブロック」または「係数のブロック」とも呼ばれる「変換されたデータのブロック」に「変換」する。
用語「予測データ」は、他のデータを予測するために使用されるデータを意味する。予測ブロックは、予測データが関連付けられている画素のブロックである。
予測ブロックは、予測するブロックが属する画像と同じ画像の1つのブロックまたは、幾つかのブロックから得られる(空間予測または画像内予測)。もしくは、予測ブロックは、予測するブロックが属する画像とは異なる画像の1つのブロック(一方向予測)または幾つかのブロック(双方向予測)から得られる(時間予測または画像間予測)。
用語「再構成されたデータ」は、残差データを予測データと統合した後に得られるデータを意味する。この統合は、一般的には、予測データと残差データの画素毎の和である。しかしながら、統合は、より一般的なものであり、特に、重み付けされた和を含む。再構成されたブロックは、再構成された画像データが関連付けられた画素のブロックである。
図3を参照するに、本発明は、画像シーケンスの現在のブロックを符号化する方法に関する。
ステップ20において、座標(vx,vy)の候補動きベクトルMVctが現在のブロックBcに対して空間的に近傍のブロックに関連付けられた複数の動きベクトルのうちから決定される。この現在のブロックBcは、画像Icに属する。例えば、候補ベクトルMVctは、図1に示されているような、現在のブロックBcに隣接するブロックA、B、および/またはCの動きベクトルのうちの1つとして決定される。変形例によれば、候補動きベクトルMVctは、ブロックBcに対して空間的に近傍にあるブロックの動きベクトルとして決定されるが、この動きベクトルは、必ずしもブロックBcに隣接するブロックのものでなくともよい。決定された候補動きベクトルMVctが関連付けられた現在のブロックBcに対して近傍のブロックをBvと呼ぶ。デフォルトで保持されている動きベクトルは、例えば、現在のブロックBcの左側に位置する近傍のブロックに関連付けられた動きベクトルである。変形例によれば、デフォルトで保持されている動きベクトルは、例えば、図4に示されているように、現在のブロックBcの上側に位置する近傍のブロックに関連付けられた動きベクトルである。
ステップ22において、座標(dx,dy)の補正動きベクトルΔMVが決定される。補正動きベクトルΔMVは、歪みを最小する手法によって決定される。この歪は、
Figure 0005669278
で示される、連続的に符号化され、再構成された近傍のブロックと、補正動きベクトルΔMVによって修正された候補動きベクトルMVctによって動き補償された予測ブロックとの間で計算される。その予測ブロックは、参照画像Irefに属する。例えば、以下の関数が使用される。
Figure 0005669278
ここで、
Figure 0005669278
は、MVct+ΔMVによって動き補償された予測ブロックである。
Figure 0005669278
は、画像Icにおける画素(x,y)の符号化され、再構成された1つの画像データの値である。
Figure 0005669278
は、参照画像の画素(x,y)の符号化され、再構成された1つの画像データの値である。
変形例によれば、
Figure 0005669278
である。別の変形例によれば、
Figure 0005669278
である。
ステップ22において、このようにE(.,.)を最小にする動きベクトルΔMVがサーチされる。例えば、想定される値(dx,dy)の各々について、E(dx,dy)の値が計算され、E(dx,dy)の値が最小となる値(dx,dy)が保持される。
ステップ22の変形例によれば、補正動きベクトルΔMVは、座標dxおよびdyの各々の値の範囲の大きさが第1の閾値aenhよりも小さいという追加の制約においてE(.,.)を最小にするものであり、ここで、aenhは、動き補償のために認められた精度である。例えば、動きベクトルが1/4の画素の精度で符号化され、復号される場合には、aenh=1/8である。この変形例は、補正動きベクトルΔMVの決定のための計算の演算量を制限することを可能とする。実際、この変形例によれば、ΔMVは、候補ベクトルMVctの周りの限定された間隔でのみサーチされる。この間隔は、水平方向の成分および垂直方向の成分について、[−acod+aenh,acod−aenh]のように規定される。計算がより網羅的であり、より計算コストが大きな場合では、サーチは、[−R,R]のように規定されるより大きな間隔で行うことができ、サーチ範囲はR>aenhで表される。例えば、R=2.25の値を使用することができる。この後者の場合には、補正動きベクトルΔMVの座標は、精度aenhで、候補ベクトルMctの周りの間隔[−R,R]でサーチされる。
ステップ24において、予測動きベクトルMVpは、補正動きベクトルΔMVによって修正される候補動きベクトルMVctから決定される。
MVp=MVct+ΔMV
ステップ26において、現在のブロックBcが予測動きベクトルMVpを考慮して符号化される。ブロックBcについて、現在のブロックBcから予測ブロックBpおよび動きベクトル差分MVdiffを減算することによって得られた残差データを符号化することが知られている。MVcおよびMVpから計算される動きベクトル差分MVdiffは、ストリームFにおいて符号化される。MVdiffは、座標(MVx−MVpx;MVy−MVpy)を有し、ここで、Mvcの座標は(MVx;MVy)であり、MVpの座標は(MVpx;MVpy)である。一般的に、残差データは、変換され、次に、量子化される。変換され次に量子化された残差データおよび動きベクトル差分MVdiffは、可変長符号化(VLC)のタイプのエントロピー符号化、または、コンテクスト適応2値算術符号化(Context−Adaptive Binary Arithmetic Coding(CABAC))のタイプの符号化によって符号化され、符号化されたデータとなる。MVdiffに認められた最大の符号化精度は、acodである。エントロピー符号化方法の例は、I.E. Richardson氏による書籍のチャプタ6.5.4、さらに、「情報技術−オーディオビジュアル・オブジェクトの符号化−Part 10:アドバンスドビデオ符号化(Information technology − Coding of audio−visual objects Part 10: Advanced Video Coding)」と題されたISO/IEC 14496−10の文献のセクション9.3に記載されている。別の変形例によれば、コンテクストベースの適応可変長符号化(Context−based Adaptive Variable Lengh Coding(CAVLC))のタイプの方法を使用することができる。これは、「情報技術−オーディオビジュアル・オブジェクトの符号化−Part 10:アドバンスドビデオ符号化(Information technology − Coding of audio−visual objects Part 10: Advanced Video Coding)」と題されたISO/IEC 14496−10の文献のセクション9.2、さらに、I.E. Richardson氏の書籍のチャプタ6.4.13.2に記載されているようなものである。
変形例によれば、SKIP符号化モードに従って現在のブロックBcが符号化される。この場合、現在のブロックBcについて、ストリームFにおいて号化される残差データや動きデータは存在しない。実際、ステップ24において決定される予測動きベクトルMVpから予測ブロックが決定され、この予測ブロックを現在のブロックから抽出することによって得られる残差ブロックの係数の全てが零である場合、現在のブロックBcを符号化するために「skip」符号化モードが保持される。
図5に示された第1の実施形態の変形例によれば、候補動きベクトルMVctを決定するステップ20は、少なくとも2つの候補動きベクトルを決定するステップ200と、ステップ200において決定された複数の候補動きベクトルを統合して統合された動きベクトルにするステップ202と、統合された動きベクトルに従ってステップ200において決定された動きベクトルのうちから候補動きベクトルMVctを選択するステップ204と、を含む。図5において、図3のステップと同じステップを同じ参照符号を用いて特定し、さらなる説明を行わない。
ステップ200において、現在のブロックBcに対して空間的に近傍のブロックに関連付けられた動きベクトルのうちから少なくとも2つの候補動きベクトルMVct1およびMVct2が決定される。例えば、候補動きベクトルMVct1およびMVct2は、図1に示されているような、現在のブロックBcに隣接するブロックA、B、および/またはCの動きベクトルとして決定される。変形例によれば、候補動きベクトルMVct1およびMVct2は、ブロックBcに対して空間的に近傍にあるブロックの動きベクトルとして決定され、ここで、これらの動きベクトルは、必ずしもブロックBcに隣接するブロックのものでなくともよい。候補動きベクトルMVct1が関連付けられた現在のブロックBcに対して近傍のブロックをBv1と呼び、候補動きベクトルMVct2が関連付けられた現在のブロックBcに対して近傍のブロックをBv2と呼ぶ。候補動きベクトルMVct1の座標は(vx1,vy1)であり、候補動きベクトルMVct2の座標は(vx2,vy2)である。
ステップ202において、ステップ200で決定される各候補動きベクトルは、座標(MVfus(x),MVfus(y))の単一の動きベクトルMVfusに統合される。例えば、MVfus(x)=median(vx1,vx2,0)であり、MVfus(y)=median(vy1,vy2,0)である。変形例によれば、MVfus(x)=0.5×(vx1+vx2)であり、MVfus(y)=0.5×(vy1+vy2)である。
ステップ204において、特定の基準において、MVfusに対して最も近い、ステップ200において決定される候補動きベクトルが、候補動きベクトルMVctとして選択される。例えば、||MVct2−MVfus||<||MVct1−MVfus||であれば、MVct=MVct2であり、そうでなければ、MVct=MVct1である。この基準は、例えば、基準L2である。この基準は、絶対値であってもよい。
2つの候補動きベクトルMVct1およびMVct2を用いて説明されるこの変形例は、どのような数の動きベクトルにも同じように適用することができる。
第2の実施形態が図6に示されている。
ステップ30において、現在のブロックBcに対して空間的に近傍にあるブロックに関連付けられた動きベクトルのうちから少なくとも2つの候補動きベクトルMVct1およびMVct2が決定される。例えば、候補動きベクトルMVct1およびMVct2は、図1に示されているような、現在のブロックBcに隣接するブロックA、B、および/またはCの動きベクトルとして決定される。変形例によれば、候補動きベクトルMVct1およびMVct2は、ブロックBcに対して空間的に近傍にあるブロックの動きベクトルとして決定されるが、この動きベクトルは、必ずしもブロックBcに隣接するブロックのものでなくともよい。候補動きベクトルMVct1に関連付けられた現在のブロックBcに対して近傍のブロックをBv1と呼び、候補動きベクトルMVct2に関連付けられた現在のブロックBcに対して近傍のブロックをBv2と呼ぶ。
ステップ32において、候補動きベクトルMVct1について、座標(dx1,dy1)の補正動きベクトルΔMV1が決定され、候補動きベクトルMVct2について、座標(dx2,dy2)の補正動きベクトルΔMV2が決定される。動きベクトルΔMV1は、連続的に符号化され、再構成された候補動きベクトルMVct1に関連付けられた近傍のブロックと補正動きベクトルΔMV1によって修正された候補動きベクトルMVct1によって動き補償された予測ブロックとの間で計算された歪みが最小になるように決定される。同様に、動きベクトルΔMV2は、連続的に符号化され、再構成された候補動きベクトルMVct2に関連付けられた近傍のブロックと補正動きベクトルΔMV2によって修正された候補動きベクトルMVct2によって動き補償された予測ブロックとの間で計算された歪みが最小になるように決定される。例えば、以下の関数が使用される。
Figure 0005669278
変形例によれば、
Figure 0005669278
であり、
Figure 0005669278

である。別の変形例によれば、
Figure 0005669278
であり、
Figure 0005669278
である。
ステップ32において、このようにE1(.,.)を最小にするΔMV1がサーチされ、E2(.,.)を最小にするΔMV2がサーチされる。例えば、想定される値(dx1,dy1)の各々について、E1(dx1,dy1)の値が計算され、E1(dx1,dy1)の値が最小となる値(dx1,dy1)が保持される。同様に、想定される値(dx2,dy2)の各々について、E2(dx2,dy2)の値が計算され、E2(dx2,dy2)の値が最小となる値(dx2,dy2)が保持される。
ステップ32の変形例によれば、補正動きベクトルΔMV1およびΔMV2は、各々の、または、これらの座標dx1、dx2、dy1、およびdy2の値の範囲の大きさがaenhよりも小さいという追加の制約を有してE1(.,.)およびE2(.,.)をそれぞれ最小にするものであり、ここで、aenhは、動き補償のために認められた精度である。例えば、動きベクトルが1/4の画素の精度で符号化され、復号される場合には、aenh=1/8である。この変形例は、補正動きベクトルΔMV1およびΔMV2の決定のための計算の演算量を制限することを可能にする。実際、この変形例によれば、ΔMV1およびΔMV2は、候補ベクトルMVctおよびMVct2のそれぞれの周りの限定された間隔においてのみサーチされる。この間隔は、水平方向の成分および垂直方向の成分のそれぞれについて、[−acod+aenh,acod−aenh]のように規定される。計算がより網羅的であり、より計算コストが大きな場合では、サーチは、[−R,R]のように規定されるより大きな間隔で行うことができ、サーチ範囲はR>aenhで表される。例えば、R=2の値を使用することができる。この後者の場合では、補正動きベクトルの座標は、aenhの精度で、候補ベクトルの周りで、間隔[−R,R]内でサーチされる。
ステップ34において、予測動きベクトルMVpは、補正動きベクトルΔMV1およびMV2によってそれぞれ修正された候補動きベクトルMVct1およびMVct2を統合することによって決定される。例えば、MVpx=median(vx1+dx1,vx2+dx2,0)であり、MVpy=median(vy1+dy1,vy2+dy2,0)である。変形例によれば、MVpx=min(vx1+dx1,vx2+dx2,0)であり、MVpy=min(vy1+dy1,vy2+dy2,0)である。別の変形例によれば、MVpx=0.5×(vx1+dx1+vx2+dx2)であり、MVpy=0.5×(vy1+dy1+vy2+dy2)である。
ステップ36において、現在のブロックBcは、予測動きベクトルMVpを考慮して符号化される。ブロックBcについて、現在のブロックBcから予測ブロックBpおよび動きベクトル差分MVdiffを減算することによって得られた残差データを符号化することが知られている。MVcおよびMVpから計算される動きベクトル差分MVdiffは、ストリームFにおいて符号化される。MVdiffは、座標(MVx−MVpx; MVy−MVpy)を有し、ここで、Mvcの座標は(MVx;MVy)であり、MVpの座標は(MVpx;MVpy)である。一般的に、残差データは、変換され、次に、量子化される。変換され次に量子化された残差データおよび動きベクトル差分MVdiffは、可変長符号化(VLC)タイプのエントロピー符号化、または、コンテクスト適応2値算術符号化(CABAC)タイプの符号化によって符号化され、符号化されたデータとなる。MVdiffのために認められる最大の符号化精度はacodである。エントロピー符号化方法の例は、I.E. Richardson氏による書籍のチャプタ6.5.4、さらに、「情報技術−オーディオビジュアル・オブジェクトの符号化−Part 10:アドバンスドビデオ符号化(Information technology − Coding of audio−visual objects Part 10: Advanced Video Coding)」と題されたISO/IEC 14496−10の文献のセクション9.3に記載されている。別の変形例によれば、コンテクストベースの適応可変長符号化(CAVLC)のタイプの方法を使用することができる。これは、「情報技術−オーディオビジュアル・オブジェクトの符号化−Part 10:アドバンスドビデオ符号化(Information technology − Coding of audio−visual objects Part 10: Advanced Video Coding)」と題されたISO/IEC 14496−10の文献のセクション9.2、さらに、I.E. Richardson氏の書籍のチャプタ6.4.13.2に記載されているようなものである。
変形例によれば、SKIP符号化モードに従って現在のブロックBcが符号化される。この場合、現在のブロックBcについて、ストリームFにおいて符号化される残差データや動きデータは存在しない。実際、ステップ24において決定される予測動きベクトルMVpから予測ブロックが決定され、この予測ブロックを現在のブロックから抽出することによって得られる残差ブロックの係数の全てが零である場合、現在のブロックBcを符号化するために「skip」符号化モードが保持される。
2つの候補動きベクトルMVct1およびMVct2を用いて図5を参照して実施形態を説明しているが、実施形態は、どのような数の候補動きベクトルに適用することもできる。この場合、ステップ32において、各候補動きベクトルについて、補正動きベクトルが決定される。ステップ34において、予測動きベクトルMVpがこれらの各々の補正動きベクトルによって修正された候補動きベクトルから決定される。
図7を参照するに、本発明は、さらに、画像シーケンスの現在のブロックを再構成する方法に関する。
ステップ52において、座標(vx,vy)の候補動きベクトルMVctが現在のブロックBcに対して空間的に近傍のブロックに関連付けられた動きベクトルのうちから決定される。例えば、候補ベクトルMVctは、図1に示されているような、現在のブロックBcに隣接するブロックA、B、および/またはCの動きベクトルのうちの1つとして決定される。変形例によれば、候補動きベクトルMVctは、ブロックBcに対して空間的に近傍にあるブロックの動きベクトルとして決定されるが、この動きベクトルは、必ずしもブロックBcに隣接するブロックのものでなくともよい。決定された候補動きベクトルMVctに関連付けられた現在のブロックBcの近傍のブロックをBvと呼ぶ。デフォルトで保持される動きベクトルは、例えば、現在のベクトルBcの左側に位置する近傍のブロックに関連付けられた動きベクトルである。変形例によれば、デフォルトで保持される動きベクトルは、例えば、図4に示されているような現在のベクトルBcの上側に位置する近傍のブロックに関連付けられた動きベクトルである。ステップ52は、符号化方法のステップ20と同一である。
ステップ54において、座標(dx,dy)の補正動きベクトルΔMVが決定される。補正動きベクトルΔMVは、歪みを最小する手法によって決定される。この歪は、
Figure 0005669278
で示される、
連続的に符号化され、再構成された近傍のブロックと、補正動きベクトルΔMVによって修正された候補動きベクトルMVctによって動き補償された予測ブロックとの間で計算される。予測ブロックは、参照画像Irefに属する。例えば、以下の関数が使用される。
Figure 0005669278
ここで、
Figure 0005669278
は、MVct+ΔMVによって動き補償された予測ブロックである。
Figure 0005669278
は、画像Icにおける画素(x,y)の符号化され、再構成された1つの画像データの値である
Figure 0005669278
は、参照画像の画素(x,y)の符号化され、再構成された1つの画像データの値である。
変形例によれば、
Figure 0005669278
である。別の変形例によれば、
Figure 0005669278
である。
ステップ54において、このようにE(.,.)を最小にする動きベクトルΔMVがサーチされる。例えば、想定される値(dx,dy)の各々について、E(dx,dy)の値が計算され、E(dx,dy)の値が最小となる値(dx,dy)が保持される。ステップ54は、符号化方法のステップ22と同じである。
ステップ54の変形例によれば、補正動きベクトルΔMVは、座標dxおよびdyの各々の値の範囲の大きさが第1の閾値aenhよりも小さいという追加の制約を有してE(.,.)を最小にするものであり、ここで、aenhは、動き補償のために認められた精度である。例えば、動きベクトルが1/4の画素の精度で符号化され、復号される場合には、aenh=1/8である。この変形例は、補正動きベクトルΔMVの決定のための計算の演算量を制限することを可能とする。実際、この変形例によれば、ΔMVは、候補ベクトルMVctの周りの限定された間隔でのみサーチされる。この間隔は、水平方向の成分および垂直方向の成分について、[−acod+aenh,acod−aenh]のように規定される。計算がより網羅的であり、より計算コストが大きな場合では、サーチは、[−R,R]のように規定されるより大きな間隔で行うことができ、サーチ範囲はR>aenhで表される。例えば、R=2の値を使用することができる。この後者の場合には、補正動きベクトルΔMVの座標は、精度aenhで、候補ベクトルMctの周りの間隔[−R,R]でサーチされる。
ステップ56において、予測動きベクトルMVpが補正動きベクトルΔMVによって修正される候補動きベクトルMVctから決定される。
MVp=MVct+ΔMV
ステップ56は、符号化方法のステップ24と同一である。
ステップ58において、予測動きベクトルMVpを考慮して現在の動きブロックBcが再構成される。より具体的には、変換/量子化された残差データおよび動きベクトル差分MVdiffは、可変長符号化(VLC)のタイプのエントロピー符号化、または、コンテクスト適応2値算術符号化(CABAC)のタイプの符号化によって、ストリームFから復号される。変換/量子化された残差データは、逆量子化され、次に、逆変換によって、符号化方法のステップ26において使用されたものに変換される。現在のブロックBcの動きベクトルMVcは、動きベクトル差分MVdiffおよびステップ56において決定された予測動きベクトルMVpから再構成される。MVcは、座標(MVdiffx+MVpx;MVdiffy+MVpy)を有し、ここで、MVdiffの座標は、(MVdiffx;MVdiffy)であり、MVpの座標は、(MVpx;MVpy)である。予測ブロックは、動きベクトルMVcから再構成された参照画像において決定され、動きベクトルMVcによって動き補償された予測ブロックに関連する。予測ブロックは、次に、例えば、画素毎の加算により、現在のブロックについて、ストリームFから再構成された残差データのブロックに統合される。
変形例によれば、現在のブロックBcは、SKIP符号化モードに従って再構成される。この場合、現在のブロックBcについて、ストリームFにおいて符号化された残差データや動きデータは存在しない。この場合、再構成されるブロックBcは、ステップ56において決定された予測動きベクトルMVpによって動き補償された予測ブロックである。
図8に示されている変形例によれば、候補動きベクトルMVctを決定するステップ52は、少なくとも2つの動きベクトルを決定するステップ520と、ステップ520において決定された候補動きベクトルを統合して統合された動きベクトルにするステップ522と、統合された動きベクトルに従ってステップ520において決定された動きベクトルのうちから候補動きベクトルMVctを選択するステップ524と、を含む。ステップ520は、図5のステップ200と同一であり、ステップ522は、図5のステップ202と同一であり、ステップ524は、図5のステップ204と同一である。
別の実施形態が図9に示されている。
ステップ62において、現在のブロックBcに対して空間的に近傍のブロックに関連付けられた動きベクトルのうちから少なくとも2つの候補動きベクトルMVct1およびMVct2が決定される。例えば、候補ベクトルMVct1およびMVct2は、図1に示されているような、現在のブロックBcに隣接するブロックA、B、および/またはCとして決定される。変形例によれば、候補動きベクトルMVct1およびMVct2は、ブロックBcに対して空間的に近傍にあるブロックの動きベクトルとして決定されるが、この動きベクトルは、必ずしもブロックBcに隣接するブロックのものでなくともよい。候補動きベクトルMVct1が関連付けられた現在のブロックBcに対して近傍のブロックをBv1と呼び、候補動きベクトルMVct2が関連付けられた現在のブロックBcをBv2と呼ぶ。このステップ62は、図6のステップ30と同一である。
ステップ64において、候補ベクトルMVct1について、座標(dx1,dy1)の補正動きベクトルΔMV1が決定され、候補動きベクトルMVct2について、座標(dx2,dy2)の補正動きベクトルΔMV2が決定される。補正動きベクトルΔMV1は、連続的に符号化され、再構成された候補動きベクトルMVct1に関連付けられた近傍のブロックと、補正動きベクトルΔMV1によって修正された候補動きベクトルMVct1によって動き補償された予測ブロックとの間で計算された歪みが最小になるように決定される。同様に、補正動きベクトルΔMV2は、連続的に符号化され、再構成された候補動きベクトルMVct2に関連付けられた近傍のブロックと、補正動きベクトルΔMV2によって修正された候補動きベクトルMVct2によって動き補償された予測ブロックとの間で計算された歪みが最小になるように決定される。例えば、以下の関数が使用される。
Figure 0005669278
変形例によれば、
Figure 0005669278
であり、
Figure 0005669278
である。別の変形例によれば、
Figure 0005669278
であり、
Figure 0005669278
である。
ステップ64において、このようにE1(.,.)を最小にするΔMV1がサーチされ、E2(.,.)を最小にするΔMV2がサーチされる。例えば、想定される値(dx1,dy1)の各々について、E1(dx1,dy1)の値が計算され、E1(dx1,dy1)の値が最小となる値(dx1,dy1)が保持される。同様に、想定される値(dx2,dy2)の各々について、E2(dx2,dy2)の値が計算され、E2(dx2,dy2)の値が最小となる値(dx2,dy2)が保持される。このステップ64は、図6のステップ32と同じである。
ステップ64の変形例によれば、補正動きベクトルΔMV1およびΔMV2は、各々の、または、これらの座標dx1、dx2、dy1、およびdy2の値の範囲の大きさがaenhよりも小さいという追加の制約を有してE1(.,.)およびE2(.,.)をそれぞれ最小にするものであり、ここで、aenhは、動き補償のために認められた精度である。例えば、動きベクトルが1/4の画素の精度で符号化され、復号される場合には、aenh=1/8である。この変形例は、補正動きベクトルΔMV1およびΔMV2の決定のための計算の演算量を制限することを可能とする。実際、この変形例によれば、ΔMV1およびΔMV2は、候補ベクトルMVctおよびMVct2のそれぞれの周りの限定された間隔でのみサーチされる。この間隔は、水平方向の成分および垂直方向の成分について、[−acod+aenh,acod−aenh]のように規定される。計算がより網羅的であり、より計算コストが大きな場合では、サーチは、[−R,R]のように規定されるより大きな間隔で行うことができ、サーチ範囲はR>aenhで表される。例えば、R=2の値を使用することができる。この後者の場合には、補正動きベクトルΔMVの座標は、精度aenhで、候補ベクトルMVctの周りの間隔[−R,R]でサーチされる。
ステップ66において、補正動きベクトルΔMV1およびΔMV2のそれぞれによって修正された候補動きベクトルMVct1およびMVct2を統合することによって、予測動きベクトルMVpが決定される。例えば、MVpx=median(vx1+dx1,vx2+dx2,0)であり、MVpy=median(vy1+dy1,vy2+dy2,0)である。変形例によれば、MVpx=min(vx1+dx1,vx2+dx2,0)であり、MVpy=min(vy1+dy1,vy2+dy2,0)である。別の変形例によれば、MVpx=0.5×(vx1+dx1+vx2+dx2)であり、MVpy=0.5×(vy1+dy1+vy2+dy2)である。このステップ66は、図6のステップ34と同じである。
ステップ68において、現在のブロックBcは、予測動きベクトルMVpを考慮して再構成される。より具体的には、変換/量子化された残差データおよび動きベクトル差分MVdiffは、可変長符号化(VLC)のタイプのエントロピー符号化、または、コンテクスト適応2値算術符号化(CABAC)のタイプの符号化によって、ストリームFから復号される。変換/量子化された残差データは、逆量子化され、次に、逆変換によって、符号化方法のステップ26において使用されたものに変換される。現在のブロックBcの動きベクトルMVcは、動きベクトル差分MVdiffおよびステップ56において決定された予測動きベクトルMVpから再構成される。MVcは、座標(MVdiffx+MVpx;MVdiffx+MVpy)を有し、ここで、MVdiffの座標は、(MVdiffx;MVdiffy)であり、MVpの座標は、(MVpx;MVpy)である。予測ブロックは、動きベクトルMVcから再構成された参照画像において決定され、動きベクトルMVcによって動き補償された予測ブロックに関連する。予測ブロックは、次に、例えば、画素毎の加算により、現在のブロックについて、ストリームFから再構成された残差データのブロックに統合される。
変形例によれば、現在のブロックBcは、SKIP符号化モードに従って再構成される。この場合、現在のブロックBcについて、ストリームFにおいて符号化された残差データや動きデータは存在しない。この場合、再構成されるブロックBcは、ステップ66において決定された予測動きベクトルMVpによって動き補償された予測ブロックである。
単一の動きベクトルがブロックに関連付けられている場合(一方向予測)について本発明を説明しているが、本発明は、2つ以上の動きベクトルがブロックに関連付けられている場合(例えば、双方向予測)にも直接拡張される。この場合、各動きベクトルは、参照画像のリストに関連付けられている。例えば、H.264において、双方向タイプのブロックは、2つのリストL0およびL1を使用し、各リストについて、動きベクトルが規定される。双方向の場合においては、ステップ20〜24、または、30〜34は、各リストについて、独立に適用される。ステップ20において(また、ステップ30において)、1つの候補動きベクトルまたは複数の候補動きベクトルが現在のリストと同じリストの動きベクトルのうちから決定され、現在のブロックBcに対して空間的に近傍のブロックに関連付けられる。ステップ26において(また、ステップ36において)符号化された現在のブロックBcは、ステップ24(また、ステップ34)からの各リストの動きベクトルから符号化される。
本発明に従った動きベクトルの符号化および再構成の方法は、補正動きベクトルを使用した動きベクトルの予測方法を改善するという利点を有する。従って、この方法は、品質および/または符号化コストの観点から、符号化効率を向上するという利点を有する。本発明に係る方法は、特に、「skip」符号化モードの選択を望ましいものにすることができる。これは、さらに、時間予測の場合に動きデータの符号化コストを低減するか、動きベクトルの精度を向上させ、一定のコストで動き補償の品質を向上させるものである。実際、予測動きベクトルMVpは、精度aenhを有し、符号化されたベクトル差分MVdiffは、精度acodを有し、従って、予測動きベクトルと符号化されたベクトル差分との和から生じる再構成されたベクトルMVcは、精度aenhを有する。従って、本発明に係る符号化および再構成の方法は、動きベクトルを特定の精度acodで符号化できるようにし、aenhと等しいより良好な精度の動きベクトルで動き補償を実行するものである。
さらに、本発明は、図10を参照して説明される符号化装置12と図11を参照して説明される復号装置13に関する。図10および図11において、図示された各モジュールは、機能的なユニットであり、物理的に区別可能なユニットに対応することもあるし、物理的に区別可能でないユニットに対応することもある。例えば、これらのモジュール、または、モジュールのうちの幾つかは、単一のコンポーネントにグループ化されることもあれば、同一のソフトウエアの複数の機能を構成することもある。逆に、幾つかのモジュールは、別個の物理的なエンティティで構成されていてもよい。
図10を参照するに、符号化装置12は、画像シーケンスに属する画像を入力部で受信する。各画像は、各々が画像データの少なくとも1つに関連付けられる画素のブロックに分割される。特に、符号化装置12は、時間予測を用いた符号化を実行する。時間予測による符号化、またはインター符号化に関連する符号化装置12のモジュールのみが図12に示されている。図示されていないが、ビデオ符号化器の技術における当業者よって知られている他のモジュールは、空間予測を用いて、または、空間予測を用いないでイントラ符号化を実施する。符号化装置12は、特に、例えば、画素毎の減算により、現在のブロックBcから予測ブロックBpを差し引いて残差画像データのブロック、または、残差ブロックBresを生成することが可能な計算モジュール1200を含む。符号化装置12は、さらに、残差ブロックBresを変換し、次に、量子化して量子化データにすることが可能なモジュール1202を含む。変換Tは、例えば、離散コサイン変換(DCT)である。符号化装置12は、さらに、量子化されたデータを符号化して符号化されたデータのストリームFにすることが可能なエントロピー符号化モジュール1204を含む。符号化装置12は、さらに、モジュール1202の逆の処理を実行するモジュール1206を含む。モジュール1206は、逆量子化Q−1を実行し、その後に逆変換T−1を実行する。モジュール1206は、例えば、このモジュール1206からのデータのブロックと予測ブロックBpとを画素毎に加算することによって統合し、メモリ1210に記憶される再構成された画像データのブロックを生成することが可能な計算モジュール1208に結合されている。
符号化装置12は、ブロックBcとメモリ1210に記憶された参照画像Irefのブロックとの間で少なくとも1つの動きベクトルMVcを推定することが可能な動き推定モジュール1212をさらに含み、この参照画像Irefは、既に符号化され、再構成されているものである。変形例によれば、動き推定は、現在のブロックBcと、原参照画像Icとの間で実行され、この場合、メモリ1210は、動き推定モジュール1212に結合されていない。当業者にとって良く知られた方法によれば、動き推定モジュールは、1つの動きデータ、特に、動きベクトルについて、参照画像Irefをサーチし、これは、現在のブロックBcとこの1つの動きデータによって識別される参照画像Iref内のブロックとの間で計算されたエラーを最小にするように行われる。
決定された動きデータは、動き推定モジュール1212によって決定モジュール1214に送信される。この決定モジュール1214は、所定のセットの符号化モードのうちから、ブロックBcのための符号化モードを選択することが可能である。保持される符号化モードは、例えば、ビットレート歪みタイプの基準を最小にするものである。しかしながら、本発明は、この選択方法に制限されるものではなく、保持されるモードは、別の基準、例えば、先験的なタイプの基準に従って選択することもできる。決定モジュール1214によって選択される符号化モード、さらに、例えば、時間予測モードまたはインターモードの場合の1つまたは複数の動きデータは、予測モジュール1216に送信される。予測モジュール1216は、符号化方法のステップ20〜24または30〜34を実施することが可能である。ステップ26および36は、符号化装置12のモジュールのセットを介して実施される。選択される符号化モジュール、さらに、反対の場合の1つまたは複数の動きデータは、追加的に、エントロピー符号化モジュール1204に送信されてストリームFの形態に符号化される。予測モジュール1216は、決定モジュール1214によって決定される符号化モードから予測モードBpを決定する。これは、動き推定モジュール1212によって決定される動きデータから決定されることもある(インター画像予測の場合)。
図11を参照するに、復号モジュール13は、入力部において、画像シーケンスを表す符号化されたデータのストリームFを受信する。例えば、ストリームFは、チャンネルを介して符号化装置12によって送信される。復号装置13は、復号されたデータ、例えば、符号化モードおよび画像のコンテンツに関連する復号されたデータを生成することが可能なエントロピー復号モジュール1300を含む。
復号装置13は、さらに、動きデータ再構成モジュールを含む。第1の実施形態によれば、動きデータ再構成モジュールは、上記動きデータを表すストリームFの部分を復号するエントロピー復号モジュール1300である。図13に示されていない変形例によれば、動きデータ再構成モジュールは、動き推定モジュールである。復号装置13を介して動きデータを再構成するこの解決法は、「テンプレート一致(template matching)」と呼ばれる。
次に、画像のコンテンツに関連する復号されたデータは、逆量子化を行った後に逆変換を行うことが可能なモジュール1302に送信される。モジュール1302は、符号化されたストリームFを生成した符号化装置12のモジュール1206と同一である。モジュール1302は、例えば、このモジュール1302からのブロックと予測ブロックBpとを画素毎に加算することによって統合し、メモリ1306に記憶される再構成された現在のブロックBcを生成することが可能な計算モジュール1304に結合されている。復号装置13は、さらに、予測モジュール1308を含む。予測モジュール1308は、現在のブロックについて、エントロピー復号モジュール1300によって復号された符号化モードから予測ブロックBpを決定する。これは、動きデータ再構成モジュールによって決定された動きデータから決定されることもある。予測モジュール1308は、本発明に従った復号方法のステップ52〜56、または、62〜66を実行することが可能である。ステップ58および68は、復号装置12の各モジュールのセットによって実施される。
勿論、本発明は、上述した実施形態の例に限定されるものではない。
特に、当業者であれば、上述した各実施形態に対してどのような変形例を適用してもよく、各実施形態を組み合わせて様々な利点からの恩恵を受けることができる。特に、本発明は、現在のブロックに必ずしも隣接する候補動きベクトルのタイプに限定されるものでは決してない。さらに、1つの動きベクトルがブロックに関連付けられている場合(一方向予測)について本発明を説明しているが、本発明は、2つ以上の動きベクトルがブロックに関連付けられている場合(例えば、双方向予測)にも直接拡張される。

Claims (15)

  1. 画像シーケンスの現在のブロックを符号化する方法であって、
    前記現在のブロックの近傍のブロックに関連付けられた少なくとも1つの候補動きベクトルを決定するステップと、
    前記少なくとも1つの候補動きベクトルから予測動きベクトルを決定するステップと、
    前記予測動きベクトルから前記現在のブロックを符号化するステップと、を含み、
    前記予測動きベクトルが、
    前記少なくとも1つの候補動きベクトルに対して補正動きベクトルを決定するステップであって、連続的に符号化され再構成された近傍のブロックと、該補正動きベクトルによって修正された前記少なくとも1つの候補動きベクトルによって動き補償された予測ブロックとの間で計算される歪みが最小になるように該補正動きベクトルを決定するステップと、
    前記補正動きベクトルによって修正された前記少なくとも1つの候補動きベクトルから前記予測動きベクトルを決定するステップと、に従って決定される、前記方法。
  2. 前記予測動きベクトルから前記現在のブロックを符号化するステップは、前記現在のブロックBcに関連付けられた現在の動きベクトルと前記予測動きベクトルとから計算された動きベクトル差分を決定するステップと、前記動きベクトル差分を符号化するステップと、を含む、請求項1に記載の方法。
  3. 前記補正動きベクトルを決定するステップの間に、該補正動きベクトル(dx,dy)の座標の各々の値の範囲の大きさが動き補償の精度を表す第1の閾値aenhよりも小さい、請求項1または2に記載の方法。
  4. 前記第1の閾値aenhは、動きベクトルの符号化の精度を表す第2の閾値acodよりも小さい、請求項3に記載の方法。
  5. 前記第1の閾値aenhは1/8であり、前記第2の閾値acodは1/4である、請求項4に記載の方法。
  6. 前記第1の閾値aenhは1/4であり、前記第2の閾値acodは、1/2である、請求項4に記載の方法。
  7. 前記補正動きベクトルの座標(dx,dy)の各々は、前記候補動きベクトルの周りの[−acod+aenh,acod−aenh]に等しい間隔内で決定される、請求項4〜6のいずれか一項に記載の方法。
  8. 前記少なくとも1つの候補動きベクトルを決定するステップは、
    少なくとも2つの候補動きベクトルを決定するステップと、
    前記少なくとも2つの候補動きベクトルを単一の動きベクトルに統合するステップと、
    前記少なくとも2つの候補動きベクトルのうちから、前記単一の動きベクトルに最も近い動きベクトルを選択するステップと
    を含む、請求項1〜7のいずれか1項に記載の方法。
  9. 少なくとも2つの候補動きベクトルが決定され、前記補正動きベクトルを決定するステップは、前記少なくとも2つの候補動きベクトルの各々に対して補正動きベクトルを決定するステップを含み、前記予測動きベクトルを決定するステップは、前記補正動きベクトルの各々によって修正された前記候補動きベクトルを単一の予測動きベクトルに統合することを含む、請求項1〜7のいずれか1項に記載の方法。
  10. 画像シーケンスの現在のブロックを再構成する方法であって、
    前記現在のブロックの近傍のブロックに関連付けられた少なくとも1つの候補動きベクトルを決定するステップと、
    前記少なくとも1つの候補動きベクトルから予測動きベクトルを決定するステップと、
    前記予測動きベクトルから前記現在のブロックを再構成するステップと、を含み、
    前記予測動きベクトルが、
    補正動きベクトル(dx,dy)を決定するステップであって、再構成された近傍のブロックと、該補正動きベクトル(dx,dy)によって修正された前記少なくとも1つの候補動きベクトルによって動き補償された予測ブロックとの間で計算された歪みが最小になるように該補正動きベクトル(dx,dy)を決定するステップと、
    前記補正動きベクトルによって修正された前記候補動きベクトルから前記予測動きベクトルを決定するステップと、に従って決定される、前記方法。
  11. 前記補正動きベクトルを決定するステップの間に、該補正動きベクトル(dx,dy)の座標の各々の値の範囲の大きさが動き補償の精度を表す第1の閾値aenhよりも小さい、請求項10に記載の方法。
  12. 前記第1の閾値aenhは、動きベクトルの符号化の精度を表す第2の閾値acodよりも小さい、請求項11に記載の方法。
  13. 前記補正動きベクトルの座標(dx,dy)の各々は、前記候補動きベクトルの周りの[−acod+aenh,acod−aenh]に等しい間隔内で決定される、請求項12に記載の方法。
  14. 画像シーケンスの現在のブロックを再構築する装置であって、
    前記現在のブロックの近傍のブロックに関連付けられた少なくとも1つの候補動きベクトルを決定する手段と、
    前記少なくとも1つの候補動きベクトルから予測動きベクトルを決定する手段と、
    前記予測動きベクトルから前記現在のブロックを再構築する手段と、を含み、
    前記予測動きベクトルを決定する手段が、
    補正動きベクトル(dx,dy)を決定する手段であって、再構築された近傍のブロックと、該補正動きベクトル(dx,dy)によって修正された前記少なくとも1つの候補動きベクトルによって動き補償された予測ブロックとの間で計算された歪みが最小になるように該補正動きベクトル(dx,dy)を決定する手段と、
    前記補正動きベクトルによって修正された前記候補動きベクトルから前記予測動きベクトルを決定する手段と、
    を含む、前記装置。
  15. 画像シーケンスの現在のブロックを符号化する符号化装置であって、
    前記現在のブロックの近傍のブロックに関連付けられた少なくとも1つの候補動きベクトルを決定する手段と、
    前記少なくとも1つの候補動きベクトルから予測動きベクトルを決定する手段と、
    前記予測動きベクトルから前記現在のブロックを符号化する手段と、を備え、
    前記予測動きベクトルを決定する手段が、
    前記少なくとも1つの候補動きベクトルに対して補正動きベクトルを決定する手段であって、連続的に符号化され再構築された近傍のブロックと、該補正動きベクトルによって修正された前記少なくとも1つの候補動きベクトルによって動き補償された予測ブロックとの間で計算される歪みを最小にするように該補正動きベクトルを決定する手段と、
    前記補正動きベクトルによって修正された前記少なくとも1つの候補動きベクトルから前記予測動きベクトルを決定する手段と、を含む、前記符号化装置。
JP2012534624A 2009-10-20 2010-10-13 画像シーケンスのブロックを符号化する方法およびこのブロックを再構成する方法 Active JP5669278B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR0957342 2009-10-20
FR0957342 2009-10-20
PCT/EP2010/065316 WO2011047994A1 (en) 2009-10-20 2010-10-13 Motion vector prediction and refinement

Publications (3)

Publication Number Publication Date
JP2013509063A JP2013509063A (ja) 2013-03-07
JP2013509063A5 JP2013509063A5 (ja) 2013-11-28
JP5669278B2 true JP5669278B2 (ja) 2015-02-12

Family

ID=42235402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012534624A Active JP5669278B2 (ja) 2009-10-20 2010-10-13 画像シーケンスのブロックを符号化する方法およびこのブロックを再構成する方法

Country Status (8)

Country Link
US (1) US10142650B2 (ja)
EP (1) EP2491717A1 (ja)
JP (1) JP5669278B2 (ja)
KR (1) KR101711688B1 (ja)
CN (1) CN102668562B (ja)
BR (1) BR112012009042A2 (ja)
TW (1) TWI566586B (ja)
WO (1) WO2011047994A1 (ja)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008153262A1 (en) 2007-06-15 2008-12-18 Sungkyunkwan University Foundation For Corporate Collaboration Bi-prediction coding method and apparatus, bi-prediction decoding method and apparatus, and recording midium
US8526499B2 (en) 2007-06-15 2013-09-03 Sungkyunkwan University Foundation For Corporate Collaboration Bi-prediction coding method and apparatus, bi-prediction decoding method and apparatus, and recording medium
FR2955730A1 (fr) * 2010-01-25 2011-07-29 Thomson Licensing Procedes de codage et de decodage
HUE061938T2 (hu) 2011-03-21 2023-09-28 Lg Electronics Inc Mozgásvektor-prediktor kiválasztása
BR112013023478B8 (pt) 2011-04-12 2022-09-13 Panassonic Corp Método de codificação de imagem em movimento, aparelho de codificação de imagem em movimento, método de decodificação de imagem em movimento, aparelho de decodificação de imagem em movimento e aparelho de codificação e decodificação de imagem em movimento
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
CA2834123C (en) 2011-05-27 2020-02-11 Panasonic Corporation Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
SG194746A1 (en) 2011-05-31 2013-12-30 Kaba Gmbh Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
US8989271B2 (en) 2011-05-31 2015-03-24 Panasonic Intellectual Property Corporation Of America Decoding method and apparatus with candidate motion vectors
US9313494B2 (en) 2011-06-20 2016-04-12 Qualcomm Incorporated Parallelization friendly merge candidates for video coding
FI4164224T3 (fi) * 2011-06-28 2024-05-07 Lg Electronics Inc Videodekoodauslaitteisto ja videokoodauslaitteisto
CN103535039B (zh) 2011-06-30 2018-08-28 太阳专利托管公司 图像解码方法、图像编码方法、图像解码装置、图像编码装置以及图像编解码装置
US10536701B2 (en) 2011-07-01 2020-01-14 Qualcomm Incorporated Video coding using adaptive motion vector resolution
CN103718558B (zh) 2011-08-03 2017-04-19 太阳专利托管公司 运动图像编码方法及装置、解码方法及装置和编解码装置
GB2493755B (en) 2011-08-17 2016-10-19 Canon Kk Method and device for encoding a sequence of images and method and device for decoding a sequence of images
US9736489B2 (en) 2011-09-17 2017-08-15 Qualcomm Incorporated Motion vector determination for video coding
US9083983B2 (en) * 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
JP6308495B2 (ja) 2011-10-19 2018-04-11 サン パテント トラスト 画像復号方法、および、画像復号装置
ES2794582T3 (es) 2011-11-08 2020-11-18 Toshiba Kk Procedimiento de decodificación de imágenes y aparato de decodificación de imágenes
PL400344A1 (pl) * 2012-08-13 2014-02-17 Politechnika Poznanska Sposób wyznaczania predyktora wektora ruchu
CN102883161B (zh) * 2012-09-19 2015-09-30 华为技术有限公司 视频编码和解码的处理方法和装置
CN104904206B (zh) 2013-01-07 2018-08-28 联发科技股份有限公司 空间运动矢量预测推导方法和装置
WO2015010319A1 (zh) * 2013-07-26 2015-01-29 北京大学深圳研究生院 一种基于p帧的多假设运动补偿编码方法
WO2015010317A1 (zh) * 2013-07-26 2015-01-29 北京大学深圳研究生院 一种基于p帧的多假设运动补偿方法
RU2654129C2 (ru) 2013-10-14 2018-05-16 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Функциональные возможности режима внутреннего предсказания с блочным копированием для кодирования и декодирования видео и изображений
CN105659602B (zh) 2013-10-14 2019-10-08 微软技术许可有限责任公司 用于视频和图像编码的帧内块复制预测模式的编码器侧选项
US10390034B2 (en) 2014-01-03 2019-08-20 Microsoft Technology Licensing, Llc Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
US10469863B2 (en) * 2014-01-03 2019-11-05 Microsoft Technology Licensing, Llc Block vector prediction in video and image coding/decoding
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
BR112016017201B1 (pt) * 2014-01-29 2023-09-26 Hfi Innovation Inc Método de codificação e decodificação para precisão adaptativa de vetor de movimento de um bloco de dados de vídeo
EP3253059A1 (en) 2014-03-04 2017-12-06 Microsoft Technology Licensing, LLC Block flipping and skip mode in intra block copy prediction
CN105493505B (zh) 2014-06-19 2019-08-06 微软技术许可有限责任公司 统一的帧内块复制和帧间预测模式
AU2014408228B2 (en) 2014-09-30 2019-09-19 Microsoft Technology Licensing, Llc Rules for intra-picture prediction modes when wavefront parallel processing is enabled
US10812822B2 (en) * 2015-10-02 2020-10-20 Qualcomm Incorporated Intra block copy merge mode and padding of unavailable IBC reference region
EP3264769A1 (en) * 2016-06-30 2018-01-03 Thomson Licensing Method and apparatus for video coding with automatic motion information refinement
EP3264768A1 (en) * 2016-06-30 2018-01-03 Thomson Licensing Method and apparatus for video coding with adaptive motion information refinement
CN117528109A (zh) * 2016-11-28 2024-02-06 英迪股份有限公司 图像编码方法、图像解码方法及用于传送比特流的方法
CN116320475A (zh) 2016-12-22 2023-06-23 株式会社Kt 对视频进行解码或编码的方法和发送视频数据的方法
EP3343925A1 (en) * 2017-01-03 2018-07-04 Thomson Licensing Method and apparatus for encoding and decoding motion information
CN110651472B (zh) 2017-05-17 2023-08-18 株式会社Kt 用于视频信号处理的方法和装置
JP6344508B2 (ja) * 2017-06-12 2018-06-20 株式会社Jvcケンウッド 画像復号装置、画像復号方法、画像復号プログラム
JP6344509B2 (ja) * 2017-06-12 2018-06-20 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法、画像符号化プログラム
WO2019009567A1 (ko) * 2017-07-03 2019-01-10 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치
EP3644608A4 (en) * 2017-07-11 2020-06-10 Huawei Technologies Co. Ltd. METHOD AND DEVICE FOR DECODING BASED ON A TEMPLATE
US10986349B2 (en) 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction
CN110166778A (zh) * 2018-02-12 2019-08-23 华为技术有限公司 视频解码方法、视频解码器以及电子设备
WO2019190224A1 (ko) * 2018-03-30 2019-10-03 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2019194497A1 (ko) * 2018-04-01 2019-10-10 엘지전자 주식회사 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2019211514A1 (en) * 2018-05-02 2019-11-07 Nokia Technologies Oy Video encoding and decoding
WO2019234676A1 (en) * 2018-06-07 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Mv precision refine
CN110719489B (zh) * 2019-09-18 2022-02-18 浙江大华技术股份有限公司 运动矢量修正、预测、编码方法、编码器及存储装置

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9519923D0 (en) 1995-09-29 1995-11-29 Philips Electronics Nv Motion estimation for predictive image coding
KR100197368B1 (ko) * 1995-12-23 1999-06-15 전주범 영상 에러 복구 장치
EP1152621A1 (en) 2000-05-05 2001-11-07 STMicroelectronics S.r.l. Motion estimation process and system.
CN1265649C (zh) 2002-01-24 2006-07-19 株式会社日立制作所 运动图像的编码方法、解码方法、编码装置及解码装置
KR100492127B1 (ko) * 2002-02-23 2005-06-01 삼성전자주식회사 적응형 움직임 추정장치 및 추정 방법
JP4724351B2 (ja) 2002-07-15 2011-07-13 三菱電機株式会社 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置
KR100774296B1 (ko) 2002-07-16 2007-11-08 삼성전자주식회사 움직임 벡터 부호화 방법, 복호화 방법 및 그 장치
US20050013498A1 (en) * 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
KR100579542B1 (ko) * 2003-07-29 2006-05-15 삼성전자주식회사 블럭 간의 상관성을 고려한 움직임 추정 장치 및 방법
US7880769B2 (en) * 2004-02-13 2011-02-01 Qualcomm Incorporated Adaptive image stabilization
US7720148B2 (en) * 2004-03-26 2010-05-18 The Hong Kong University Of Science And Technology Efficient multi-frame motion estimation for video compression
FR2872989A1 (fr) 2004-07-06 2006-01-13 Thomson Licensing Sa Procede et dispositif pour choisir un vecteur mouvement pour le codage d'un ensemble de blocs
CA2574590C (en) * 2004-07-20 2013-02-19 Qualcomm Incorporated Method and apparatus for motion vector prediction in temporal video compression
US20060153300A1 (en) * 2005-01-12 2006-07-13 Nokia Corporation Method and system for motion vector prediction in scalable video coding
US9172973B2 (en) 2005-04-01 2015-10-27 Broadcom Corporation Method and system for motion estimation in a video encoder
EP1727371A1 (en) 2005-05-27 2006-11-29 Thomson Licensing Method for controlling the encoder output bit rate in a block-based video encoder, and corresponding video encoder apparatus
CN100473168C (zh) 2005-06-21 2009-03-25 中国科学院计算技术研究所 视频编码的运动矢量空间预测方法
KR100942887B1 (ko) 2005-06-23 2010-02-17 엔엑스피 비 브이 추정된 움직임 벡터 결정 방법 및 컴퓨터 판독가능한 기록매체
US7616821B2 (en) 2005-07-19 2009-11-10 International Business Machines Corporation Methods for transitioning compression levels in a streaming image system
US20070076796A1 (en) * 2005-09-27 2007-04-05 Fang Shi Frame interpolation using more accurate motion information
US8121194B2 (en) 2005-12-16 2012-02-21 Texas Instruments Incorporated Fast macroblock encoding with the early qualification of skip prediction mode using its temporal coherence
CN101090491B (zh) 2006-06-16 2016-05-18 香港科技大学 用于视频压缩的增强的基于块的运动估计算法
FR2907301A1 (fr) 2006-10-12 2008-04-18 Thomson Licensing Sas Procede d'interpolation d'une image compensee en mouvement et dispositif pour la mise en oeuvre dudit procede
US8218636B2 (en) 2006-11-21 2012-07-10 Vixs Systems, Inc. Motion refinement engine with a plurality of cost calculation methods for use in video encoding and methods for use therewith
KR101365574B1 (ko) 2007-01-29 2014-02-20 삼성전자주식회사 영상 부호화 방법 및 장치, 복호화 방법 및 장치
US8265136B2 (en) * 2007-02-20 2012-09-11 Vixs Systems, Inc. Motion refinement engine for use in video encoding in accordance with a plurality of sub-pixel resolutions and methods for use therewith
JP2010524379A (ja) * 2007-04-09 2010-07-15 ノキア コーポレイション エンコーダ及びデコーダの低複雑度を伴うビデオ符号化のための高精度動きベクトル
US8160150B2 (en) * 2007-04-10 2012-04-17 Texas Instruments Incorporated Method and system for rate distortion optimization
US20080285651A1 (en) * 2007-05-17 2008-11-20 The Hong Kong University Of Science And Technology Spatio-temporal boundary matching algorithm for temporal error concealment
US8351509B1 (en) * 2007-12-21 2013-01-08 Dimension, Inc. Video codec systems and methods for optimal motion vector with variable size blocks
US8275033B2 (en) * 2008-01-15 2012-09-25 Sony Corporation Picture mode selection for video transcoding
JP2011515060A (ja) * 2008-03-09 2011-05-12 エルジー エレクトロニクス インコーポレイティド ビデオ信号のエンコーディングまたはデコーディング方法及び装置

Also Published As

Publication number Publication date
TW201116070A (en) 2011-05-01
CN102668562A (zh) 2012-09-12
WO2011047994A1 (en) 2011-04-28
JP2013509063A (ja) 2013-03-07
KR20120096471A (ko) 2012-08-30
TWI566586B (zh) 2017-01-11
BR112012009042A2 (pt) 2016-04-19
US20130101040A1 (en) 2013-04-25
CN102668562B (zh) 2015-09-30
EP2491717A1 (en) 2012-08-29
KR101711688B1 (ko) 2017-03-02
US10142650B2 (en) 2018-11-27

Similar Documents

Publication Publication Date Title
JP5669278B2 (ja) 画像シーケンスのブロックを符号化する方法およびこのブロックを再構成する方法
US11546627B2 (en) Moving picture decoding method and moving picture encoding method
JP5081305B2 (ja) フレーム間予測符号化の方法および装置
JP4373702B2 (ja) 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
JP5490823B2 (ja) 画像の系列を表すストリームを復号化する方法、画像の系列を符号化する方法及び符号化データ構造
KR100619377B1 (ko) 움직임 추정 방법 및 장치
JP5545783B2 (ja) 画像シーケンスを表す符号化されたデータのストリームを復号する方法および画像シーケンスを符号化する方法
JP4993676B2 (ja) 画像符号化装置及び画像符号化方法
JP2004215275A (ja) 動き補償に基づいた改善されたノイズ予測方法及びその装置とそれを使用した動画符号化方法及びその装置
US10015508B2 (en) Video encoding device and video encoding method
JP5938424B2 (ja) 画像ブロックを再構成および符号化する方法
JP2009290889A (ja) 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
KR101668133B1 (ko) 화상 데이터의 블록을 예측하는 방법, 이 방법을 실행하는 복호 장치 및 부호화 장치
KR20120058584A (ko) 이미지들의 시퀀스를 코딩하는 방법
WO2010061515A1 (ja) 動画像符号化装置及び符号化方法、動画像復号化装置及び復号化方法
JP6004852B2 (ja) ピクセルブロックを符号化及び再構成する方法と装置
JP5533885B2 (ja) 動画像符号化装置および動画像復号装置
JP2014068361A (ja) 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
JP2012138947A (ja) 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
KR20130052818A (ko) 움직임 벡터 부호화 장치 및 복호화 장치, 그리고 그것의 부호화 및 복호화 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131008

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141212

R150 Certificate of patent or registration of utility model

Ref document number: 5669278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250