JP6309593B2 - ビデオ信号処理方法及び装置 - Google Patents

ビデオ信号処理方法及び装置 Download PDF

Info

Publication number
JP6309593B2
JP6309593B2 JP2016216545A JP2016216545A JP6309593B2 JP 6309593 B2 JP6309593 B2 JP 6309593B2 JP 2016216545 A JP2016216545 A JP 2016216545A JP 2016216545 A JP2016216545 A JP 2016216545A JP 6309593 B2 JP6309593 B2 JP 6309593B2
Authority
JP
Japan
Prior art keywords
inter
block
motion vector
view
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016216545A
Other languages
English (en)
Other versions
JP2017022789A (ja
Inventor
チェウォン ソン
チェウォン ソン
セフン イェ
セフン イェ
ムンモ ク
ムンモ ク
チン ホ
チン ホ
テソプ キム
テソプ キム
チウク チョン
チウク チョン
ウンヨン ソン
ウンヨン ソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2017022789A publication Critical patent/JP2017022789A/ja
Application granted granted Critical
Publication of JP6309593B2 publication Critical patent/JP6309593B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、ビデオ信号の符号化方法及び装置に関する。
圧縮符号化とは、デジタル化した情報を通信回線を通じて送信したり、記憶媒体に好適な形態で記憶させたりするための一連の信号処理技術を意味する。圧縮符号化の対象には、音声、映像、文字などがあり、特に、映像を対象に圧縮符号化を行う技術をビデオ映像圧縮と呼ぶ。多視点ビデオ映像の一般的な特徴は、空間的冗長性、時間的冗長性及び視点間冗長性を有することにある。
本発明の目的は、ビデオ信号の符号化効率を向上させることにある。
本発明は、空間的/時間的隣接ブロックの視点間動きベクトル(inter-view motion vector)及び視差ベクトル(disparity vector)のうち少なくとも一つに基づいて、現在テクスチャブロックの視点間動きベクトルを導出することを特徴とする。
本発明は、空間的/時間的隣接ブロック及び視差ベクトルのうち少なくとも一つを含む候補間の優先順位を考慮して視点間動きベクトルを導出することを特徴とする。
本発明における空間的隣接ブロックは、左下、左、右上、上、左上に隣接した隣接ブロックのうち少なくとも一つを含み、空間的隣接ブロック間の優先順位を考慮して、視点間インタ予測で符号化されたブロックを探索し、空間的視点間動きベクトルを取得することを特徴をする。
本発明における時間的隣接ブロックは、同一位置のブロック、同一位置のブロックに隣接した隣接ブロック、及び同一位置のブロックを含む符号化ブロックのうち少なくとも一つを含み、時間的隣接ブロック間の優先順位を考慮して、視点間インタ予測で符号化されたブロックを探索し、時間的視点間動きベクトルを取得することを特徴とする。
本発明は、視差ベクトルマップを用いて現在ピクチャの視差ベクトルを取得すると同時に、視差ベクトルオフセットを用いて視差ベクトルマップに記憶されている視差ベクトルを補正することを特徴とする。
本発明は、視点間動きベクトル候補間の固定した優先順位を設定し、固定した優先順位に従って視点間動きベクトル候補から現在テクスチャブロックの視点間動きベクトルを導出することを特徴とする。
本発明は、空間的/時間的隣接ブロックのうち、視点間インタ予測で符号化されたブロックの視点間動きベクトルの他、時間的インタ予測で符号化されたブロックの視点間動きベクトルも候補として用いることを特徴とする。
本発明は、複数個の優先順位テーブルを定義し、優先順位テーブルインデクスに基づいて選択的に優先順位テーブルを用いることを特徴とする。
本発明は、以前に符号化されたブロックの状態変数に基づいて、現在符号化されるブロックの視点間動きベクトル候補間の優先順位を決定することを特徴とする。
本発明は、視点間動きベクトルを用いた視点間インタ予測を行うことによって、視点間の相関関係を活用してビデオデータ予測の正確性を高めることができる。また、視点間動きベクトルは空間的/時間的隣接ブロックの視点間動きベクトル又は視差ベクトルのいずれかを選択的に用いることによって、正確な視点間動きベクトルを導出して視点間インタ予測の正確性を高めることができ、伝送されるレジデュアルデータの量を減らすことによって符号化効率を向上させることができる。また、空間的/時間的隣接ブロックのうち、視点間インタ予測で符号化されたブロックだけでなく、時間的インタ予測で符号化されたブロックである場合にも、参照視点(reference view)動きベクトルに対応する視点間動きベクトルを候補として用いるようにすることによって、正確な視点間動きベクトルを予測することができる。一方、複数の視点間動きベクトル候補に関して優先順位を決定し、対応する優先順位に従って順次、視点間インタ予測で符号化されたブロックを探索することによって、視点間動きベクトルを導出する過程の複雑度を減らすことができる。
本発明が適用される一実施例による、ビデオ復号器の概略ブロック図である。 本発明が適用される一実施例による、動きベクトルリスト生成部710の概略的な構成を示す図である。 本発明が適用される一実施例による、空間的動きベクトルを決定する過程を示す図である。 本発明が適用される一実施例による、空間的隣接ブロックの例を示す図である。 本発明が適用される一実施例による、時間的隣接ブロックの例を示す図である。 本発明が適用される一実施例による、同一位置のブロックを含む符号化ブロックが時間的隣接ブロックとして用いられる場合の、符号化ブロック内に含まれたブロック間の優先順位を示す図である。 本発明が適用される一実施例による、奥行きデータを用いて現在テクスチャブロックの視差ベクトルを導出する方法を示す図である。 本発明が適用される一実施例による、現在ピクチャ内のインタ予測されたブロックに対する視差ベクトルマップを更新する過程を示す図である。 本発明が適用される一実施例による、あらかじめ設定された優先順位に基づいて、視点間インタ予測で符号化された隣接ブロックから視点間動きベクトルを導出する方法を示す図である。 本発明が適用される一実施例による、あらかじめ設定された優先順位に基づいて、時間的インタ予測で符号化された隣接ブロック及び視点間インタ予測で符号化された隣接ブロックから視点間動きベクトルを導出する方法を示す図である。 本発明が適用される一実施例による、空間的隣接ブロックが用いた視点間動きベクトルの頻度値を考慮して優先順位テーブルを選択する方法を示す図である。 本発明が適用される一実施例による、空間的隣接ブロックの視点間動きベクトルタイプを考慮して優先順位テーブルを選択する方法を示す図である。 本発明が適用される一実施例による、状態変数を用いて優先順位を決定する方法を示す図である。
上記のような目的を達成するために、本発明に係るビデオ信号処理方法は、現在テクスチャブロックの視点間動きベクトル候補間の優先順位を考慮して上記視点間動きベクトル候補のいずれかから上記現在テクスチャブロックの視点間動きベクトルを導出し、該導出された視点間動きベクトルを用いて現在テクスチャブロックに対して視点間インタ予測を行うことができる。
本発明によれば、上記空間的隣接ブロックの視点間動きベクトルは上記時間的隣接ブロックの視点間動きベクトルよりも高い優先順位を有し、上記時間的隣接ブロックの視点間動きベクトルは、上記視差ベクトルよりも高い優先順位を有することができる。
本発明によれば、最優先順位を有する上記空間的隣接ブロックに関して、視点間インタ予測で符号化されたブロックを探索し、視点間インタ予測で符号化されたブロックが存在する場合、上記空間的隣接ブロックの視点間動きベクトルから上記現在テクスチャブロックの視点間動きベクトルを導出し、視点間インタ予測で符号化されたブロックが存在しない場合、次優先順位を有する時間的隣接ブロックに関して、視点間インタ予測で符号化されたブロックを探索することができる。
本発明によれば、上記空間的隣接ブロックは、上記現在テクスチャブロックの左下の隣接ブロック、左の隣接ブロック、右上の隣接ブロック、上の隣接ブロック及び左上の隣接ブロックのうち少なくとも一つを含むことができる。
本発明によれば、上記空間的隣接ブロック間の優先順位に従う順序に基づいて、視点間インタ予測で符号化されたブロックを探索し、このとき、上記空間的隣接ブロック間の優先順位は、左下の隣接ブロック、左の隣接ブロック、右上の隣接ブロック、上の隣接ブロック、左上の隣接ブロックの順に低い優先順位を有することができる。
本発明によれば、上記時間的隣接ブロックは、同一位置のブロック、同一位置のブロックに隣接した隣接ブロック、及び同一位置のブロックを含む符号化ブロックのうち少なくとも一つを含むことができる。
本発明によれば、上記時間的隣接ブロック間の優先順位に従う順序に基づいて、視点間インタ予測で符号化されたブロックを探索し、このとき、上記時間的隣接ブロック間の優先順位は、同一位置のブロック、同一位置のブロックに隣接した隣接ブロック、同一位置のブロックを含む符号化ブロックの順に低い優先順位を有することができる。
(実施例)
多視点ビデオ信号データを圧縮符号化又は復号する技術は、空間的冗長性、時間的冗長性、及び視点間に存在する冗長性を考慮している。また、多視点映像の場合、3次元映像を具現するために2箇所以上の視点で撮影された多視点テクスチャ映像を符号化することができる。また、必要によって、多視点テクスチャ映像に対応する奥行きデータを更に符号化してもよい。勿論、奥行きデータを符号化する際、空間的冗長性、時間的冗長性又は視点間冗長性を考慮して圧縮符号化することができる。奥行きデータは、カメラと対応する画素との間の距離情報を表現したものであり、本明細書において奥行きデータは、奥行き情報、奥行き映像、奥行きピクチャ、奥行きシーケンス、奥行きビットストリームなどのように、奥行きに関連する情報として柔軟に解釈することができる。また、本明細書でいう符号化は、符号化及び復号の両方の概念を含むことができ、本発明の技術的思想及び技術的範囲によって柔軟に解釈することができる。
図1は、本発明が適用される一実施例による、ビデオ復号器の概略ブロック図である。
図1を参照すると、ビデオ復号器は、NALパース部100、エントロピ復号部200、逆量子化/逆変換部300、イントラ予測部400、ループ内フィルタ部500、復号ピクチャバッファ部600、インタ予測部700を含むことができる。NALパース部100は、多視点テクスチャデータを含むビットストリームを受信することができる。また、奥行きデータがテクスチャデータの符号化に必要な場合、符号化された奥行きデータを含むビットストリームを更に受信することができる。このとき、入力されるテクスチャデータ及び奥行きデータは、一つのビットストリームで伝送してもよいし、又は別個のビットストリームで伝送してもよい。NALパース部100は、入力されたビットストリームを復号化するためにNAL単位にパースすることができる。入力されたビットストリームが多視点関連データ(例えば、3次元映像)である場合、入力されたビットストリームはカメラパラメータを更に含むことができる。カメラパラメータには固有のカメラパラメータ(intrinsic camera parameter)及び非固有のカメラパラメータ(extrinsic camera parameter)があり得る。固有のカメラパラメータは、焦点距離、アスペクト比、主点(principal point)などを含むことができ、非固有のカメラパラメータは、世界座標系におけるカメラの位置情報などを含むことができる。
エントロピ復号部200は、エントロピ復号を用いて、量子化した変換係数、テクスチャピクチャの予測のための符号化情報などを抽出することができる。逆量子化/逆変換部300では、量子化した変換係数に量子化パラメータを適用して変換係数を取得し、変換係数を逆変換してテクスチャデータ又は奥行きデータを復号化することができる。ここで、復号化したテクスチャデータ又は奥行きデータは、予測処理によるレジデュアルデータを含むことがある。また、奥行きブロックに対する量子化パラメータは、テクスチャデータの複雑度を考慮して設定することができる。例えば、奥行きブロックに対応するテクスチャブロックが複雑度の高い領域であるときは、低い量子化パラメータを設定し、複雑度の低い領域であるときは、高い量子化パラメータを設定することができる。テクスチャブロックの複雑度は、式1のように、復元されたテクスチャピクチャ内で互いに隣接した画素間の差分値に基づいて決定することができる。
Figure 0006309593
式1において、Eは、テクスチャデータの複雑度を表し、Cは、復元されたテクスチャデータを表し、Nは、複雑度を算出しようとするテクスチャデータ領域内の画素数を表すことができる。式1を参照すると、テクスチャデータの複雑度は、(x,y)位置に対応するテクスチャデータと(x−1,y)位置に対応するテクスチャデータとの差分値、及び(x,y)位置に対応するテクスチャデータと(x+1,y)位置に対応するテクスチャデータとの差分値を用いて算出することができる。また、複雑度は、テクスチャピクチャ及びテクスチャブロックに関してそれぞれ算出することができ、これを用いて次の式2のように量子化パラメータを導出することができる。
Figure 0006309593
式2を参照すると、奥行きブロックに対する量子化パラメータは、テクスチャピクチャの複雑度とテクスチャブロックの複雑度との比率に基づいて決定することができる。α及びβは、復号器で導出される可変的な整数であってもよく、復号器内で既に決定された整数であってもよい。
イントラ予測部400は、現在テクスチャピクチャ内の復元されたテクスチャデータを用いて画面内予測を行うことができる。奥行きピクチャに対しても、テクスチャピクチャと同じ方式で画面内予測を行うことができる。例えば、テクスチャピクチャの画面内予測のために用いられる符号化情報を奥行きピクチャにおいても同様に用いることができる。ここで、画面内予測のために用いられる符号化情報は、イントラ予測モード、イントラ予測のパーティション情報を含むことができる。
ループ内フィルタ部500は、ブロック歪み現象を減少させるために、それぞれの符号化されたブロックにループ内フィルタを適用することができる。フィルタは、ブロックのエッジを滑らかにして、復号されたピクチャの画質を向上させることができる。フィルタ処理を経たテクスチャピクチャ又は奥行きピクチャは、出力してもよいし、参照ピクチャとして用いるために復号ピクチャバッファ部600に記憶させてもよい。一方、テクスチャデータの特性と奥行きデータの特性とが互いに異なるため、同一のループ内フィルタを用いてテクスチャデータ及び奥行きデータの符号化を行うと符号化効率が低下することがある。そのため、奥行きデータのための別のループ内フィルタを定義してもよい。以下、奥行きデータを効率的に符号化できるループ内フィルタ処理方法として、領域ベース適応ループフィルタ(region−based adaptive loop filter)及びトライラテラルループフィルタ(trilateral loop filter)について説明する。
領域ベース適応ループフィルタの場合、奥行きブロックの分散(variance)に基づいて領域ベース適応ループフィルタを適用するか否かを決定することができる。ここで、奥行きブロックの分散は、奥行きブロック内で最大画素値と最小画素値との差分と定義することができる。奥行きブロックの分散と既に決定されたしきい値との比較に基づいて、フィルタを適用するか否かを決定することができる。例えば、奥行きブロックの分散が既に決定されたしきい値よりも大きいか、又は等しい場合、奥行きブロック内の最大画素値と最小画素値との差が大きいことを意味するため、領域ベース適応ループフィルタを適用すると決定することができる。逆に、奥行き分散が既に決定されたしきい値よりも小さい場合には、領域ベース適応ループフィルタを適用しないと決定することができる。上記の比較の結果によってフィルタを適用する場合、フィルタ処理された奥行きブロックの画素値は、所定の重み付け値を隣接画素値に適用して導出することができる。ここで、所定の重み付け値は、現在フィルタ処理される画素と隣接画素との位置差及び/又は現在フィルタ処理される画素値と隣接画素値との差分値に基づいて決定することができる。また、隣接画素値は、奥行きブロック内に含まれた画素値のうち、現在フィルタ処理される画素値以外のいずれか一つを意味することができる。
本発明に係るトライラテラルループフィルタは、領域ベース適応ループフィルタと略同様であるが、テクスチャデータを更に考慮するという点が異なる。具体的には、トライラテラルループフィルタは、次の三つの条件を比較して、それらを満たす隣接画素の奥行きデータを抽出することができる。
Figure 0006309593
Figure 0006309593
Figure 0006309593
条件1は、奥行きブロック内の現在画素pと隣接画素qとの位置差を、既に決定された媒介変数と比較することであり、条件2は、現在画素pの奥行きデータと隣接画素qの奥行きデータとの差分を、既に決定された媒介変数と比較することであり、条件3は、現在画素pのテクスチャデータと隣接画素qのテクスチャデータとの差分を、既に決定された媒介変数と比較することである。
上記の3つの条件を満たす隣接画素を抽出し、これらの奥行きデータの中央値又は平均値で現在画素pをフィルタ処理することができる。
復号ピクチャバッファ部600では、画面間予測を行うために、以前に符号化されたテクスチャピクチャ又は奥行きピクチャを記憶したり、開いたりする。ここで、復号ピクチャバッファ部600に記憶したり、開いたりするために、各ピクチャのframe_num及びPOC(Picture Order Count)を用いることができる。さらに、奥行き符号化において、以前に符号化されたピクチャには、現在奥行きピクチャと異なる視点にある奥行きピクチャもあるため、これらのピクチャを参照ピクチャとして活用するために奥行きピクチャの視点を識別する視点識別情報を用いることもできる。復号ピクチャバッファ部600は、より柔軟に画面間予測を実現するために、適応メモリ管理方法及び移動ウィンドウ法(Sliding Window Method)などを用いて参照ピクチャを管理することができる。これは、参照ピクチャ及び非参照ピクチャのメモリを一つのメモリに統一して管理し、少ないメモリで効率的に管理するためである。奥行き符号化において、奥行きピクチャを復号ピクチャバッファ部内でテクスチャピクチャと区別するために、奥行きピクチャを別途の表示でマークすることができ、このマーク過程で各奥行きピクチャを識別するための情報を用いることができる。
インタ予測部700は、復号ピクチャバッファ部600に記憶された参照ピクチャと動き情報を用いて現在ブロックの動き補償を行うことができる。本明細書でいう動き情報は、動きベクトル、参照インデクス情報を含む広義の概念と理解してもよい。また、インタ予測部700は、動き補償を行うために時間的インタ予測を行うことができる。時間的インタ予測とは、現在テクスチャブロックと同一視点かつ異なる時間帯に位置している参照ピクチャ及び現在テクスチャブロックの動き情報を用いたインタ予測を意味する。また、複数個のカメラにより撮影された多視点映像の場合、時間的インタ予測に加えて、視点間インタ予測を更に行うこともできる。視点間インタ予測とは、現在テクスチャブロックと異なる視点に位置している参照ピクチャと、現在テクスチャブロックの動き情報とを用いたインタ予測を意味する。一方、理解の便宜上、視点間予測に用いられる動き情報を視点間動きベクトル、視点間参照インデクス情報と呼ぶものとする。したがって、本明細書では、動き情報は視点間動きベクトル及び視点間参照インデクス情報を含む概念として柔軟に解釈してもよい。以下、インタ予測部700で現在テクスチャブロックの動き情報、特に、動きベクトルを導出する方法について説明する。
図2は、本発明が適用される一実施例による、動きベクトルリスト生成部710の概略的な構成を示す図である。
本発明の動きベクトルリスト生成部710は、復号器のインタ予測部700に備えることができる。動きベクトルリスト生成部710は、大別して、リスト初期化部720及びリスト修正部730で構成することができる。リスト初期化部720は、動きベクトル候補で構成された動きベクトルリストを生成することができる。ここで、動きベクトル候補は、現在テクスチャブロックの動きベクトル又は予測された動きベクトルとして利用可能な動きベクトルの集合を意味する。本発明の動きベクトル候補は、空間的動きベクトル、時間的動きベクトル及び参照視点動きベクトルのうち少なくとも一つを含むことができる。本発明の動きベクトル候補に含まれた空間的動きベクトル、時間的動きベクトル及び参照視点動きベクトルは、動きベクトルリスト初期化部720に含まれた空間的動きベクトル決定部740、時間的動きベクトル決定部750及び参照視点動きベクトル決定部760でそれぞれ取得される。まず、空間的動きベクトル決定部740は、現在テクスチャブロックに空間的に隣接した隣接ブロックの動きベクトルから空間的動きベクトルを導出することができる。空間的動きベクトルを決定する方法については図3を参照して具体的に説明する。時間的動きベクトル決定部750は、現在テクスチャブロックに時間的に隣接した隣接ブロックの動きベクトルから時間的動きベクトルを導出することができる。例えば、時間的に隣接した隣接ブロックは、現在テクスチャブロックと同一視点かつ異なる時間帯に位置している参照ピクチャ内で現在テクスチャブロックと同じ位置にあるブロック(collocated block)に対応する。ここで、参照ピクチャは、上記の同一位置のブロックを含むピクチャの参照インデクス情報によって特定することができる。参照視点動きベクトル決定部760は、現在テクスチャブロックと異なる視点に位置している対応ブロックの動きベクトルから参照視点動きベクトルを導出することができる。ここで、対応ブロックは、現在テクスチャブロックの視点間動きベクトルによって指示されたブロックであってもよい。例えば、現在テクスチャブロックの視点間動きベクトルを用いて参照視点内の参照ブロックを特定し、特定した参照ブロックの動きベクトルを、現在テクスチャブロックの参照視点動きベクトルに設定することができる。一方、参照視点動きベクトルを決定する際に用いられる視点間動きベクトルも、現在テクスチャブロックの動きベクトル候補に含めて動きベクトルリストを構成してもよい。この場合、視点間動きベクトルは、現在テクスチャブロックの参照ピクチャが同一視点に位置するか、又は異なる視点に位置するかを考慮して動きベクトルリストに含めることができる。例えば、現在テクスチャブロックの参照ピクチャが、現在テクスチャブロックと異なる視点を有する場合に動きベクトルリストに追加することができる。又は、現在テクスチャブロックの参照インデクス情報が視点間予測のための参照ピクチャを示す場合に、視点間動きベクトルを動きベクトルリストに追加してもよい。一方、本発明に係る視点間動きベクトルを導出する方法については、図4乃至図13を参照して説明する。
リスト初期化部720で生成された動きベクトルリストは、現在テクスチャブロックの動きベクトルを導出するための最終的な動きベクトルリストとして用いてもよいし、動きベクトル候補間の冗長性の除去などのためにリスト修正部730によって修正してもよい。例えば、リスト修正部730は、リスト初期化部720で生成された動きベクトルリストにおいて空間的動きベクトル同士が同一か否かを確認することができる。確認の結果、同一の空間的動きベクトルが存在する場合、両者のいずれか一方を動きベクトルリストから除去することができる。さらに、動きベクトルリスト内で動きベクトル候補間の冗長性を除去した後、動きベクトルリストに残っている動きベクトル候補の個数が2個未満である場合は、ゼロ動きベクトル(zero motion vector)を追加することができる。また、動きベクトル候補間の冗長性を除去した後、動きベクトルリストに残っている動きベクトル候補の個数が2個を超える場合は、2個の動きベクトル候補を除く残りの動きベクトル候補を動きベクトルリストから除去することができる。ここで、動きベクトルリストに残っている2個の動きベクトル候補は、動きベクトルリスト内で相対的に小さいリスト識別インデクスを有する候補であってもよい。ここで、リスト識別インデクスは、動きベクトルリストに含まれた動きベクトル候補にそれぞれ割り当てられたものであり、動きベクトルリストに含まれたそれぞれの動きベクトル候補を識別するための情報を意味する。
図3は、本発明が適用される一実施例による、空間的動きベクトルを決定する過程を示す図である。
本発明の空間的動きベクトルは、現在テクスチャブロックに空間的に隣接した隣接ブロックの動きベクトルから導出することができる。空間的に隣接した隣接ブロックは、現在テクスチャブロックの左、上、左下、左上、右上にそれぞれ位置しているブロックのいずれかを意味する。空間的動きベクトルを決定する際に、現在テクスチャブロックと隣接ブロック間の参照ピクチャが同一か否かを確認することができる(S300)。例えば、現在テクスチャブロックの参照ピクチャと隣接ブロックの参照ピクチャとが同一か否かを判断するために、両者の参照インデクス情報が同一か否かを比較することができる。又は、現在テクスチャブロックの参照ピクチャに割り当てられたPOC(Picture Order Count)情報と、隣接ブロックの参照ピクチャに割り当てられたPOC情報とが同一か否かを比較することができる。現在テクスチャブロックが用いる参照ピクチャリストと、隣接ブロックが用いる参照ピクチャリストとが互いに異なる場合にも、それぞれの参照ピクチャに割り当てられたPOC情報を比較することによって、参照ピクチャが同一か否かを確認することができる。POC情報は、ピクチャの出力順序又は時間的順序を示す情報であり、かつ出力順序は各ピクチャの固有の値であるためである。また、参照ピクチャが同一か否かを確認する過程は、空間的に隣接した隣接ブロックを2個のグループに分けて行うこともできる。例えば、現在テクスチャブロックの左及び左下の隣接ブロックを第1グループとし、現在テクスチャブロックの上、左上、右上の隣接ブロックを第2グループとしてもよい。この場合、現在テクスチャブロックは、第1グループに含まれた隣接ブロックのうち少なくとも一つと参照ピクチャが同一か否かを確認することができ、第2グループに含まれた隣接ブロックのうち少なくとも一つと参照ピクチャが同一か否かを確認することができる。また、参照ピクチャが同一か否かの確認は、既に決定された順に現在テクスチャブロックと隣接ブロックとを比較して行うことができる。例えば、第1グループの場合、左下の隣接ブロック、左の隣接ブロックの順に参照ピクチャが同一か否かを比較することができ、第2グループの場合、右上の隣接ブロック、上の隣接ブロック、左上の隣接ブロックの順に参照ピクチャが同一か否かを比較することができる。S300によって現在テクスチャブロックと隣接ブロックの参照ピクチャが同一であると判断される場合、同一の参照ピクチャを有する隣接ブロックの動きベクトルを動きベクトルリストに追加することができる(S310)。一方、現在テクスチャブロックの参照ピクチャと隣接ブロックの参照ピクチャとが同一でないと判断される場合、隣接ブロックの動きベクトルに所定の拡大縮小係数(scaling factor)を適用することができる(S320)。拡大縮小係数は、現在テクスチャブロックを含む現在ピクチャの参照ピクチャと現在テクスチャブロックの参照ピクチャとの間の時間的距離を考慮して決定することができる。例えば、現在ピクチャに割り当てられたPOC情報と現在テクスチャブロックの参照ピクチャに割り当てられたPOC情報との差分値を考慮して決定することができる。また、現在ピクチャと隣接ブロックの参照ピクチャ間の時間的距離を更に考慮してもよい。例えば、現在ピクチャに割り当てられたPOC情報と隣接ブロックの参照ピクチャに割り当てられたPOC情報との差分値を考慮して決定してもよい。拡大縮小された隣接ブロックの動きベクトルを動きベクトルリストに追加することができる(S330)。
図2及び図3を参照して、動きベクトルリストを生成する方法について説明した。次に、インタ予測部700で動きベクトルリストから現在テクスチャブロックの動きベクトルを導出する方法について説明する。
まず、現在テクスチャブロックに対する動きベクトル識別情報をビットストリームから抽出することができる。動きベクトル識別情報は、現在テクスチャブロックの動きベクトル又は予測された動きベクトルとして用いられる動きベクトル候補を特定する情報であってもよい。すなわち、抽出された動きベクトル識別情報に対応する動きベクトル候補を動きベクトルリストから抽出し、これを、現在テクスチャブロックの動きベクトル又は予測された動きベクトルに設定することができる。また、動きベクトル識別情報に対応する動きベクトル候補が現在テクスチャブロックの予測された動きベクトルに設定される場合、現在テクスチャブロックの動きベクトルを復元するために動きベクトル差分値を用いることができる。ここで、動きベクトル差分値は、復号された動きベクトルと予測された動きベクトルとの差分ベクトルを意味する。したがって、動きベクトルリストから取得された予測された動きベクトルとビットストリームから抽出された動きベクトル差分値を用いて現在テクスチャブロックの動きベクトルを復号することができる。復号された動きベクトル及び参照ピクチャリストを用いて現在テクスチャブロックの画素値を予測することができる。ここで、参照ピクチャリストは、時間的インタ予測のための参照ピクチャだけでなく、視点間インタ予測のための参照ピクチャを含んでもよい。
図2で説明した視点間動きベクトルは、空間的視点間動きベクトル、時間的視点間動きベクトル及び視差ベクトルから選択されたいずれか一つから導出することができる。本発明の空間的視点間動きベクトルは、現在テクスチャブロックに空間的に隣接した隣接ブロックのうち、視点間インタ予測で符号化された隣接ブロックの動きベクトルから導出することができる。換言すれば、空間的視点間動きベクトルは、現在テクスチャブロックの空間的隣接ブロックのうち、視点間動きベクトルを有する隣接ブロックを用いて導出でき、これについては図4を参照して説明する。本発明の時間的視点間動きベクトルは、現在テクスチャブロックの時間的隣接ブロックのうち、視点間インタ予測で符号化された隣接ブロックの動きベクトルから導出することができる。換言すれば、時間的視点間動きベクトルは、現在テクスチャブロックの時間的隣接ブロックのうち、視点間動きベクトルを有する隣接ブロックを用いて導出することができる。ここで、時間的隣接ブロックは、現在テクスチャブロックを含む現在ピクチャと同一視点を有する参照ピクチャ内で現在テクスチャブロックと同一位置及び/又は隣接位置にあるブロックを意味し、これについては図5を参照して説明する。一方、本発明の視差ベクトルは、多視点映像における視点間視差を示すことができる。多視点映像の場合、カメラ位置による視点間視差が発生することがあり、視差ベクトルはこのような視点間視差を補償することができる。視差ベクトルを導出する方法については図6を参照して説明する。
図4は、本発明が適用される一実施例による、空間的隣接ブロックの例を示す図である。
図4(a)を参照すると、空間的隣接ブロックは、左下の隣接ブロックA0、左の隣接ブロックA1、右上の隣接ブロックB0、上の隣接ブロックB1、左上の隣接ブロックB2のうち少なくとも一つを含むことができる。まず、上述した空間的隣接ブロックから、視点間インタ予測で符号化されたブロックを探索し、視点間インタ予測で符号化された隣接ブロックの視点間動きベクトルを、現在テクスチャブロックの視点間動きベクトルに設定することができる。一方、空間的隣接ブロック間の優先順位を考慮して、視点間インタ予測で符号化されたブロックを探索することができる。視点間インタ予測で符号化されたブロックを探索する際に、空間的隣接ブロック間の優先順位が表1のように設定されていると仮定する。
Figure 0006309593
表1を参照すると、優先順位の値が小さいほど高い優先順位を意味する。したがって、左下の隣接ブロック、左の隣接ブロック、右上の隣接ブロック、上の隣接ブロック、左上の隣接ブロックの順に、視点間インタ予測で符号化されたブロックを探すまで探索を行うことができる。例えば、左下の隣接ブロックが視点間インタ予測で符号化されたブロックである場合、左下の隣接ブロックの視点間動きベクトルを現在テクスチャブロックの視点間動きベクトルに設定し、探索を終了することができる。しかし、探索の結果、左下の隣接ブロックが視点間インタ予測で符号化されていない場合には、左の隣接ブロックが視点間インタ予測で符号化されているか確認することができる。又は、左の隣接ブロック、上の隣接ブロック、右上の隣接ブロック、左下の隣接ブロック、左上の隣接ブロックの順に、視点間インタ予測で符号化されたブロックを探すまで探索を行うこともできる。ただし、空間的隣接ブロック間の優先順位は上記の実施例に限定されない。
一方、視点間インタ予測で符号化されるか否かを判別する方法について説明する。一実施例として、視点間インタ予測で符号化されるか否かは、対応する隣接ブロックが視点間参照ピクチャリストを用いているかに基づいて判別することができる。視点間参照ピクチャリストは、対応する隣接ブロックの視点と異なる視点に位置している参照ピクチャで構成されたリストを意味する。又は、対応する隣接ブロックの参照インデクス情報に基づいて判別してもよい。例えば、対応する隣接ブロックの参照インデクス情報が対応する隣接ブロックの視点と異なる視点に位置している参照ピクチャを特定する場合、対応する隣接ブロックは視点間インタ予測で符号化されることを特定できる。又は、対応する隣接ブロックを含むピクチャのPOCと対応する隣接ブロックの参照ピクチャのPOCとが同一であるか否かに基づいて判別してもよい。POCは出力順序情報であり、同一アクセスユニット内のピクチャは同一POCを有することができる。したがって、両者のPOCが同一であるということは、対応する隣接ブロックを含むピクチャと参照ピクチャとが互いに異なる視点に位置することを意味し、この場合、対応する隣接ブロックは視点間インタ予測で符号化されると特定することができる。
図4(b)は、空間的隣接ブロックの候補を拡張した例である。左の隣接ブロックA1の大きさが現在テクスチャブロックの大きさよりも小さい場合、現在テクスチャブロックは少なくとも一つの左の隣接ブロックを更に有することができる。例えば、図4(b)のように、本発明の空間的隣接ブロックは、左の隣接ブロックA1と左上の隣接ブロックB4との間に位置している左の隣接ブロックA2,A3を更に含むことができる。同様の方式で、上の隣接ブロックB1の大きさが現在テクスチャブロックの大きさよりも小さい場合、本発明の空間的隣接ブロックは、上の隣接ブロックB1と左上の隣接ブロックB4との間に位置している上の隣接ブロックB2,B3を更に含むことができる。この場合にも、空間的隣接ブロック間の優先順位(例えば、A0−>A1−>A2−>A3−>B0−>B1−>B2−>B3−>B4)を考慮して、視点間インタ予測で符号化されたブロックを探索できることは勿論である。このように、現在テクスチャブロックの視点間動きベクトルを導出するための空間的隣接ブロックの候補を拡張することによって、現在テクスチャブロックの視点間動きベクトルを取得できる確率を高めることができる。
図5は、本発明が適用される一実施例による、時間的隣接ブロックの例を示す図である。
図5を参照すると、時間的隣接ブロックは、現在テクスチャブロックの参照ピクチャ内で現在テクスチャブロックと同じ位置にあるブロック(以下、同一位置のブロックという。)を意味する。ここで、参照ピクチャは、現在テクスチャブロックを含む現在ピクチャと同一視点及び異なる時間帯に位置しているピクチャを意味する。本発明の同一位置のブロックは、図5に示すように2つの方法で定義することができる。図5(A)を参照すると、同一位置のブロックは、現在テクスチャブロックの中心画素の位置Cに対応する参照ピクチャ内におけるC位置を含むブロックと定義することができる。又は、図5(b)を参照すると、同一位置のブロックは、現在テクスチャブロックの左上画素の位置Xに対応する参照ピクチャ内におけるX位置を含むブロックと定義してもよい。
一方、本発明の時間的隣接ブロックは、同一位置のブロックに限定されず、上記同一位置のブロックに隣接した隣接ブロックを意味することもある。図5(a)に示すように、同一位置のブロックに隣接した隣接ブロックとして、左下の隣接ブロックA0、左の隣接ブロックA1、右上の隣接ブロックB0、上の隣接ブロックB1、左上の隣接ブロックB2のうち少なくとも一つを用いることができる。さらに、参照ピクチャは現在ピクチャ以前に既に復号されているため、同一位置のブロックの下及び右に隣接した隣接ブロックも時間的隣接ブロックとして用いることができる。例えば、図5(a)に示すように、時間的隣接ブロックとして、右下の隣接ブロックC0、下の隣接ブロックC1、右の隣接ブロックC2を用いることもできる。
また、本発明の時間的隣接ブロックは、同一位置のブロックを含む符号化ブロックを意味することもある。符号化ブロックはビデオ信号の処理過程(例えば、イントラ/インタ予測、変換、量子化、エントロピ符号化など)で映像を処理するための基本単位を意味する。一つの符号化ブロックは更に複数個の符号化ブロックに分割することができる。例えば、2N×2Nの大きさを有する一つの符号化ブロックはさらに、4個のN×Nの大きさを有する符号化ブロックに分割することができる。このような符号化ブロックの分割は再帰的に行うことができる。時間的隣接ブロックが同一位置のブロックを含む符号化ブロックと定義される場合、対応する符号化ブロックに含まれたブロックであって、視点間インタ予測で符号化されたブロックの視点間動きベクトルは、現在テクスチャブロックの視点間動きベクトルの候補となり得る。この場合、対応する符号化ブロック内に含まれたブロック間の優先順位を考慮して、視点間インタ予測で符号化されたブロックを探索することができ、これについて図6を参照して説明する。図6は、本発明が適用される一実施例による、同一位置のブロックを含む符号化ブロックが時間的隣接ブロックとして用いられる場合、符号化ブロック内に含まれたブロック間の優先順位を示す図である。
図6(a)を参照すると、符号化ブロック内に含まれたブロック間の優先順位は、ラスタスキャン順序によって決定することができる。ラスタスキャンは、左から右へとライン別に走査する方式を意味する。したがって、ラスタスキャン順序に従って、視点間インタ予測で符号化されたブロックを探索し、視点間インタ予測で符号化されたブロックを探した場合には、対応するブロックの視点間動きベクトルを現在テクスチャブロックの視点間動きベクトルに設定することができる。又は、図6(b)に示すように、符号化ブロックの内側に位置しているブロックから外側に位置しているブロックに時計回り方向又は反時計回り方向のスキャン順序に従って優先順位を決定してもよい。
一方、時間的隣接ブロックの候補として言及した、a)同一位置のブロック、b)同一位置のブロックに隣接した隣接ブロック、c)同一位置のブロックを含む符号化ブロック間にも、優先順位を考慮して、視点間インタ予測で符号化されたブロックを探索することができる。すなわち、最優先順位を有する時間的隣接ブロックが視点間インタ予測で符号化されたブロックであるか否かを判別し、最優先順位を有する時間的隣接ブロックが視点間インタ予測で符号化されていない場合には、次優先順位を有する時間的隣接ブロックが視点間インタ予測で符号化されたブロックであるか否かを判別することができる。これは、視点間インタ予測で符号化されたブロックを探すまで行うことができる。例えば、時間的隣接ブロック間の優先順位が表2のように設定されていると仮定しよう。ただし、これは一実施例に過ぎず、本発明はこれに限定されない。
Figure 0006309593
表2を参照すると、優先順位の値が小さいほど高い優先順位を意味する。したがって、最優先順位を有する同一位置のブロックが視点間インタ予測で符号化されたブロックであるか判別し、視点間インタ予測で符号化されたブロックである場合には、同一位置のブロックの視点間動きベクトルを現在テクスチャブロックの視点間動きベクトルに設定し、探索を中止することができる。ただし、視点間インタ予測で符号化されたブロックでない場合には、同一位置のブロックに隣接した隣接ブロック、同一位置のブロックを含む符号化ブロックの順に、視点間インタ予測で符号化されたブロックを探すまで探索を行うことができる。
現在テクスチャブロックの視点間動きベクトルを導出する際に、時間的隣接ブロックは、時間的動きフラグ情報に基づいて選択的に用いることができる。時間的動きフラグ情報は、時間的隣接ブロックが現在ピクチャの動きベクトル又は視点間動きベクトルを導出する時に用いられるか否かを特定する情報を意味する。すなわち、符号化器は、時間的隣接ブロックの視点間動きベクトルを現在ピクチャの視点間動きベクトルの候補として用いることが効率的である場合は、時間的動きフラグ情報を1に符号化し、そうでない場合には0に符号化して、復号器に伝送することができる。復号器は、現在ピクチャに対する時間的動きフラグ情報によって時間的隣接ブロックが用いられる場合に限って、現在ピクチャに含まれた各テクスチャブロックの視点間動きベクトルを導出するときに時間的隣接ブロックを候補として用いることができる。このように、時間的動きフラグ情報を用いて時間的隣接ブロックを制限的に用いるようにすることによって、参照ピクチャの符号化情報の利用を制限でき、それによって、復号過程の複雑度を減らし、参照ピクチャを記憶しているメモリを参照する回数も減らすことができる。以下、現在テクスチャブロックの視点間動きベクトルとして利用可能な視差ベクトルを取得する方法について説明する。
図7は、本発明が適用される一実施例による、奥行きデータを用いて現在テクスチャブロックの視差ベクトルを導出する方法を示す図である。
図7を参照すると、現在ピクチャの現在テクスチャブロックの位置情報に基づいて、これに対応する奥行きピクチャ内の奥行きブロック(以下、現在奥行きブロックという。)の位置情報を取得することができる(S700)。現在奥行きブロックの位置は、奥行きピクチャ及び現在ピクチャの空間解像度を考慮して決定することができる。例えば、奥行きピクチャと現在ピクチャとが同一の空間解像度で符号化された場合、現在奥行きブロックの位置は現在ピクチャの現在テクスチャブロックと同一位置のブロックと決定することができる。一方、現在ピクチャと奥行きピクチャとが異なる空間解像度で符号化されることもある。カメラと被写体との間の距離情報を示す奥行き情報の特性の点で、空間解像度を低くして符号化しても符号化効率が大きく低下しなくて済むためである。したがって、奥行きピクチャの空間解像度が現在ピクチャよりも低く符号化された場合、復号器は、現在奥行きブロックの位置情報を取得する前に、奥行きピクチャに対するアップサンプリング過程を行ってもよい。また、アップサンプリングされた奥行きピクチャのアスペクト比と現在ピクチャのアスペクト比とが正確に一致しない場合、アップサンプリングされた奥行きピクチャ内で現在奥行きブロックの位置情報を取得する際にオフセット情報を更に考慮してもよい。ここで、オフセット情報は、上オフセット情報、左オフセット情報、右オフセット情報、下オフセット情報のうち少なくとも一つを含むことができる。上オフセット情報は、アップサンプリングされた奥行きピクチャの上に位置している少なくとも一つの画素と現在ピクチャの上に位置している少なくとも一つの画素との間の位置差を示す。左、右、下オフセット情報も同様の方式でそれぞれ定義することができる。
現在奥行きブロックの位置情報に対応する奥行きデータを取得することができる(S710)。現在奥行きブロック内に複数個の画素が存在する場合、現在奥行きブロックのコーナ画素(corner pixel)に対応する奥行きデータを用いることができる。又は、現在奥行きブロックの中央画素に対応する奥行きデータを用いてもよい。又は、複数個の画素に対応する複数個の奥行きデータのうち、最大値、最小値、最頻値のいずれか一つを選択的に用いてもよいし、複数個の奥行きデータ間の平均値を用いてもよい。取得された奥行きデータ及びカメラパラメータを用いて現在テクスチャブロックの視差ベクトルを導出することができる(S720)。具体的な導出方法を式3及び式4に基づいて説明する。
Figure 0006309593
式3を参照すると、Zは、対応する画素のカメラからの距離を意味し、DはZを量子化した値で、本発明の奥行きデータに対応する。Znear及びZfarは、奥行きピクチャの属した視点に対して定義されたZの最小値及び最大値をそれぞれ意味する。また、Znear及びZfarは、シーケンスパラメータセット、スライスヘッダなどによってビットストリームから抽出されてもよいし、復号器内にあらかじめ定義された情報であってもよい。したがって、対応する画素のカメラからの距離Zを256レベルに量子化した場合、式3のように、奥行きデータ、Znear及びZfarを用いてZを復元することができる。その後、復元されたZを用いて式4のように現在テクスチャブロックに対する視差ベクトルを導出することができる。
Figure 0006309593
式4において、fはカメラの焦点距離を意味し、Bはカメラ間の距離を意味する。f及びBはすべてのカメラに関して同一であると仮定してもよいし、よって、復号器にあらかじめ定義された情報であってもよい。
一方、多視点映像に関してテクスチャデータだけを符号化する場合にはカメラパラメータに関する情報を用いることができないため、奥行きデータから視差ベクトルを導出する方法を用いることができない。そのため、多視点映像のテクスチャデータだけを符号化する場合には、視差ベクトルを記憶している視差ベクトルマップを用いることができる。視差ベクトルマップは、水平成分と垂直成分とで構成された視差ベクトルが2次元配列で記憶されているマップであってもよい。本発明の視差ベクトルマップは、様々な大きさで表現することができる。例えば、一つのピクチャごとに一つの視差ベクトルだけを用いる場合には1×1の大きさを有してもよいし、ピクチャ内の4×4ブロックごとに視差ベクトルを用いる場合には、ピクチャの大きさに対応して1/4の幅と高さを有するため、視差ベクトルマップはピクチャの1/16の大きさを有してもよい。また、一つのピクチャ内の現在テクスチャブロックの大きさは適応的に決定してもよいし、対応するテクスチャブロックごとに視差ベクトルを記憶してもよい。
現在ピクチャは、それに対応する視差ベクトルマップから抽出された視差ベクトルを用いて復号を行うことができる。一方、現在ピクチャの復号結果に基づいて、現在ピクチャに対応する視差ベクトルマップを更新することができる。更新された視差ベクトルマップは、現在ピクチャ以降に符号化されるピクチャの視差ベクトルマップとして用いることができる。以下、図8を参照して視差ベクトルマップを更新する方法について説明する。
図8は、本発明が適用される一実施例による、現在ピクチャ内のインタ予測されたブロックに対する視差ベクトルマップを更新する過程を示す図である。
図8を参照すると、ビットストリームから現在テクスチャブロックの予測モード情報を抽出することができる(S800)。予測モード情報は、現在ブロックがイントラ予測で符号化されるか、又はインタ予測で符号化されるかを示す情報を意味する。抽出された予測モード情報によって現在テクスチャブロックがインタ予測で符号化される場合、現在テクスチャブロックのL0方向及びL1方向に対する予測が時間的インタ予測であるか、視点間インタ予測であるかを判別できる(S810)。L0方向に対する予測とは、一方向のインタ予測のための参照ピクチャリスト0を用いた予測を意味し、L1方向に対する予測とは、双方向のインタ予測のための参照ピクチャリスト0及び参照ピクチャリスト1のうち、参照ピクチャリスト1を用いた予測を意味する。視点間インタ予測であるか否かを判別する方法としては、a)視点間参照ピクチャリストを用いる方法、b)参照インデクス情報を用いる方法、c)現在テクスチャブロックを含むピクチャのPOCと現在テクスチャブロックの参照ピクチャのPOCとの同一性を用いる方法などを用いることができ、これは図4で説明した通りである。S810の判別結果、現在テクスチャブロックのL0方向及びL1方向の予測のうち少なくとも一つが視点間インタ予測である場合は、視点間インタ予測に用いられた視点間動きベクトルを視差ベクトルマップに記録してもよい(S820)。このとき、L0方向及びL1方向の予測とも視点間インタ予測である場合には、視点間インタ予測に用いられた2個の視点間動きベクトルの平均値を視差ベクトルマップに記録してもよい。又は、視点間インタ予測に用いられた視点間動きベクトルにおける水平成分だけを視差ベクトルマップに記録してもよい。一方、現在テクスチャブロックのL0方向及びL1方向の予測の両方とも視点間インタ予測でない場合には、現在テクスチャブロックの動きベクトルが参照視点動きベクトルから導出されたか否かを確認することができる(S830)。参照視点動きベクトルは、前述したように、現在テクスチャブロックの視点間動きベクトルによって特定されたブロックが用いた動きベクトルを意味する。S830の確認の結果、現在テクスチャブロックの動きベクトルが参照視点動きベクトルから導出された場合には、併合モードフラグ情報に基づいて、現在テクスチャブロックが併合モードで符号化されるか否かを判別することができる(S840)。併合モードフラグ情報は、対応するブロックが併合モードで符号化されるか否かを示す情報であり、併合モードとは、対応するブロックの動きベクトルが空間的動きベクトル、時間的動きベクトル、参照視点動きベクトル及び視点間動きベクトルのいずれかから導出され、動きベクトル差分値を含まない方式を意味する。一方、非併合モードは、対応するブロックの動きベクトルが空間的動きベクトル、時間的動きベクトル、参照視点動きベクトル及び視点間動きベクトルのいずれかから導出されるが、導出された動きベクトルは予測された動きベクトルとして用いられるため、動きベクトルを復元するための動きベクトル差分値を含む方式を意味する。
S840の判別の結果、現在テクスチャブロックが併合モードで符号化された場合には、上記参照視点動きベクトルに対応する視点間動きベクトルを視差ベクトルマップに記録することができる(S850)。ただし、S840の判別の結果、現在テクスチャブロックが併合モードで符号化されていない場合には、現在テクスチャブロックの動きベクトル差分値としきい値とを比較することができる(S860)。本発明のしきい値は、既に決定された整数値に設定することができる。例えば、垂直成分のしきい値は2画素、水平成分のしきい値は2画素に設定してもよい。比較の結果、動きベクトル差分値がしきい値以下のとき、参照視点動きベクトルに対応する視点間動きベクトルを視差ベクトルマップに記録してもよい(S850)。しかし、動きベクトル差分値がしきい値よりも大きい場合には、現在テクスチャブロックの動きベクトルを用いて視差ベクトルマップに対して動き補償を行ってもよい(S870)。すなわち、参照ピクチャの視差ベクトルマップから、現在テクスチャブロックの動きベクトルによって特定される視差ベクトルを抽出し、これを現在ピクチャの視差ベクトルマップに記録してもよい。
また、S830の確認結果、現在テクスチャブロックの動きベクトルが参照視点動きベクトルから導出されていない場合にも、現在テクスチャブロックの動きベクトルを用いて視差ベクトルマップに対して動き補償を行って、現在ピクチャの視差ベクトルマップを更新してもよい(S850)。
符号化器は、視差ベクトルマップに記憶されている視差ベクトルの中で最高頻度値を有する視差ベクトルを抽出し、それに対する視差ベクトルオフセットを算出して復号器に伝送することができる。復号器は、視差ベクトルマップに記憶されている視差ベクトルの中で最高頻度値を有する視差ベクトルを抽出し、ビットストリームから取得された視差ベクトルオフセットを用いて、抽出された視差ベクトルを補正することができる。
又は、符号化器は、視差ベクトルマップに記憶されている視差ベクトルの中で最高頻度値を有する順にK個の視差ベクトルを抽出し、それぞれの視差ベクトルに対する視差ベクトルオフセットを算出して復号器に伝送してもよい。また、符号化器は、復号器に伝送される視差ベクトルオフセットの個数を示すオフセット個数情報を更に符号化して復号器に伝送してもよい。したがって、復号器は、ビットストリームからオフセット個数情報を抽出し、オフセット個数情報に基づく個数分の視差ベクトルオフセットをビットストリームから抽出することができる。また、視差ベクトルマップから最高頻度値を有する順にオフセット個数情報に基づく個数分の視差ベクトルを抽出することができる。その後、抽出された視差ベクトルに上記視差ベクトルオフセットを適用して視差ベクトルを補正することができる。
又は、符号化器は、視差ベクトルマップに記憶されている視差ベクトルのうち最大値と最小値を抽出し、これを用いて、視差ベクトルマップに記憶されている視差ベクトルの範囲を算出してもよい。上記視差ベクトルの範囲をN個の区間に分け、各区間に対応する視差ベクトルオフセットを符号化して復号器に伝送することができる。また、符号化器は、符号化器で決定した区間の個数情報を符号化して復号器に伝送することができる。したがって、復号器は、ビットストリームから区間の個数情報を抽出し、区間の個数情報に基づく個数分の視差ベクトルオフセットを抽出することができる。その後、対応する区間に属した視差ベクトルに対応する区間に対応する視差ベクトルオフセットを加えて視差ベクトルを補正することができる。
一方、上述した最高頻度値を有するK個の視差ベクトルを補正する方法と、視差ベクトルの範囲をN個の区間に分けて視差ベクトルを補正する方法とを選択的に用いてもよい。そのために、最高頻度値を有するK個の視差ベクトルを補正するか、又はN個の区間別に視差ベクトルを補正するかを示すオフセットタイプ情報を定義することができる。したがって、オフセットタイプ情報によって、最高頻度値を有するK個の視差ベクトルを抽出し、それに対して視差ベクトルオフセットを適用してもよいし、又は、視差ベクトルの範囲をN個の区間に分け、各区間別視差ベクトルオフセットを用いて対応する区間の視差ベクトルを補正してもよい。
現在テクスチャブロックの視点間動きベクトル候補には、空間的視点間動きベクトル、時間的視点間動きベクトル及び視差ベクトルがあり、これらから選択されたいずれかから、現在テクスチャブロックの視点間動きベクトルを導出できることは上述した通りである。以下、視点間動きベクトル候補から現在テクスチャブロックの視点間動きベクトルを導出する方法について説明する。
現在テクスチャブロックの視点間動きベクトル候補間の優先順位を考慮して視点間動きベクトルを取得することができる。視点間動きベクトル候補間の優先順位は、下記の表3のように設定することができる。
Figure 0006309593
表3では、優先順位値が小さいほど高い優先順位を意味する。すなわち、空間的視点間動きベクトルが最優先順位を有し、続いて時間的視点間動きベクトル、視差ベクトルの順に優先順位を設定することができる。表3のように候補間の優先順位が設定された場合に視点間動きベクトルを導出する方法を、図9を参照して説明する。ただし、表3は一実施例に過ぎず、本発明はこれに限定されない。例えば、時間的視点間動きベクトル、空間的視点間動きベクトル、視差ベクトルの順に優先順位を設定してもよいし、又は、視差ベクトル、空間的視点間動きベクトル、時間的視点間動きベクトルの順に優先順位を設定してもよい。又は、一定のカテゴリだけに対してそれら間の優先順位を設定してもよい。例えば、空間的視点間動きベクトルと時間的視点間動きベクトル間の優先順位を設定してもよいし、又は、空間的視点間動きベクトルと視差ベクトル間の優先順位を設定してもよい。
図9は、本発明が適用される一実施例による、あらかじめ設定された優先順位に基づいて、視点間インタ予測で符号化された隣接ブロックから視点間動きベクトルを導出する方法を示す図である。
図9を参照すると、視点間インタ予測で符号化されたブロックを空間的隣接ブロックから探索することができる(S900)。図4に示すように、視点間インタ予測で符号化されたブロックを探索する過程でも空間的隣接ブロック間の優先順位を考慮することができる。例えば、左下の隣接ブロック、左の隣接ブロック、右上の隣接ブロック、上の隣接ブロック、左上の隣接ブロックの順に、視点間インタ予測で符号化されたブロックを探索することができる。また、視点間インタ予測であるか否かを判別する方法と関連して、a)視点間参照ピクチャリストを用いる方法、b)参照インデクス情報を用いる方法、c)空間的隣接ブロックを含むピクチャのPOCと空間的隣接ブロックの参照ピクチャのPOC間の同一性を用いる方法などを用いることができる。これについては図4で上述した通りであり、本実施例にも同様な適用が可能なため、その詳細な説明は省略する。
S900の探索結果、視点間インタ予測で符号化されたブロックが空間的隣接ブロックに存在する場合、対応する空間的隣接ブロックの視点間動きベクトルから現在テクスチャブロックの視点間動きベクトルを導出することができる(S910)。しかし、S900の探索の結果、視点間インタ予測で符号化されたブロックが空間的隣接ブロックに存在しない場合、視点間インタ予測で符号化されたブロックを時間的隣接ブロックから探索することができる(S920)。時間的隣接ブロックの候補は、a)同一位置のブロック、b)同一位置のブロックに隣接した隣接ブロック、c)同一位置のブロックを含む符号化ブロック、のうち少なくとも一つを含んでもよいし、勿論、前述したように、時間的隣接ブロックの候補間の優先順位を考慮して、視点間インタ予測で符号化されたブロックを探索してもよい。
S920の探索の結果、視点間インタ予測で符号化されたブロックが時間的隣接ブロックに存在する場合には、対応する時間的隣接ブロックの視点間動きベクトルを用いて現在テクスチャブロックの視点間動きベクトルを導出してもよい(S930)。一方、視点間インタ予測で符号化されたブロックが時間的隣接ブロックに存在しない場合には、現在テクスチャブロックの視差ベクトルを用いて視点間動きベクトルを導出してもよい(S940)。
一方、空間的又は時間的隣接ブロックが視点間インタ予測で符号化されていない場合、すなわち、時間的インタ予測で符号化された場合であっても、対応する隣接ブロックの動きベクトルが参照視点動きベクトルから導出された場合には、参照視点動きベクトルに対応する視点間動きベクトルも同様に現在テクスチャブロックの視点間動きベクトル候補として用いることができる。以下、視点間動きベクトル候補が表3のような優先順位を有するという前提の下に、時間的インタ予測で符号化された隣接ブロックを用いて視点間動きベクトルを導出する方法を説明する。
図10は、本発明が適用される一実施例による、あらかじめ設定された優先順位に基づいて、時間的インタ予測で符号化された隣接ブロック及び視点間インタ予測で符号化された隣接ブロックから視点間動きベクトルを導出する方法を示す図である。
図10を参照すると、空間的隣接ブロックが時間的インタ予測で符号化されたブロックであるか、視点間インタ予測で符号化されたブロックであるかを確認することができる(S1000)。空間的隣接ブロック間の優先順位に従って順次、時間的又は視点間インタ予測で符号化されたブロックであるかを確認することができる。確認過程は、時間的又は視点間インタ予測で符号化されたブロックを探すまで行うことができる。S1000の確認の結果、空間的隣接ブロックが視点間インタ予測で符号化された場合には、対応する空間的隣接ブロックの視点間動きベクトルを用いて現在テクスチャブロックの視点間動きベクトルを導出することができる(S1010)。しかし、空間的隣接ブロックが時間的インタ予測で符号化された場合には、空間的隣接ブロックの動きベクトルが参照視点動きベクトルから導出されたか確認することができる(S1020)。対応する空間的隣接ブロックの動きベクトルが参照視点動きベクトルから導出されていない場合には、該空間的隣接ブロックが最低の優先順位を有するか確認することができる(S1030)。確認の結果、空間的隣接ブロックが最低の優先順位を有しない場合には、次の優先順位を有する空間的隣接ブロックに対して時間的又は視点間インタ予測で符号化されたブロックであるか確認することができる(S1000)。しかし、対応する空間的隣接ブロックが最低の優先順位を有する場合には、それ以上空間的隣接ブロックから視点間動きベクトルを導出出できないため、優先順位に従って時間的隣接ブロック又は視差ベクトルから視点間動きベクトルを導出する過程を行ってもよい。
S1020の確認の結果、対応する空間的隣接ブロックの動きベクトルが参照視点動きベクトルから導出された場合には、空間的隣接ブロックが併合モードで符号化されたか確認することができる(S1040)。これは空間的隣接ブロックの併合モードフラグ情報に基づいて判断することができる。S1040の確認結果、空間的隣接ブロックが併合モードで符号化された場合には、参照視点動きベクトルに対応する視点間動きベクトルを用いて現在テクスチャブロックの視点間動きベクトルを導出することができる(S1050)。しかし、空間的隣接ブロックが併合モードで符号化されていない場合には、空間的隣接ブロックの動きベクトル差分値としきい値とを比較することができる(S1060)。ここで、しきい値は、既に決定された整数値とすることができる。例えば、垂直成分のしきい値は2画素、水平成分のしきい値は2画素に設定することができる。S1060の比較の結果、動きベクトル差分値がしきい値以下である場合には、空間的隣接ブロックの参照視点動きベクトルに対応する視点間動きベクトルから現在テクスチャブロックの視点間動きベクトルを導出することができる(S1050)。しかし、動きベクトル差分値がしきい値よりも大きい場合には、空間的隣接ブロックの参照視点動きベクトルの誤差が大きいことを意味する。したがって、その場合は、参照視点動きベクトルに対応する視点間動きベクトルを有効でない値に設定することができる(S1070)。
本発明は、既に決定された一つの優先順位を用いることに限定されず、下記の表4のように、複数個の優先順位テーブルを定義し、それらを選択的に用いることもできる。
Figure 0006309593
以下、複数個の優先順位テーブルのいずれかを選択的に用いる方法について説明する。
本発明の一実施例として、符号化器は、最も効率の良い優先順位テーブルを選択し、それに対応する優先順位テーブルインデクスを符号化して復号器に伝送することができる。したがって、復号器は、ビットストリームから優先順位テーブルインデクスを抽出し、それに対応する優先順位テーブルを選択することができる。
また、現在テクスチャブロック以前に符号化されたブロックが用いた視点間動きベクトルを考慮して優先順位テーブルを選択してもよく、これについて図11及び図12を参照して説明する。
図11は、本発明が適用される一実施例による、空間的隣接ブロックが用いた視点間動きベクトルの頻度値を考慮して優先順位テーブルを選択する方法を示す図である。
図11を参照すると、空間的隣接ブロックの視点間動きベクトルを導出することができる(S1100)。前述した通り、空間的隣接ブロックの視点間動きベクトルも現在テクスチャブロックの視点間動きベクトルを導出する方法で導出することができる。したがって、空間的隣接ブロックの視点間動きベクトルは、空間的視点間動きベクトル、時間的視点間動きベクトル及び視差ベクトルのいずれかから導出することができる。その後、空間的隣接ブロックの視点間動きベクトルが空間的視点間動きベクトルから導出されたか、時間的視点間動きベクトルから導出されたか、又は視差ベクトルから導出されたかによって、空間的隣接ブロックを分類することができる(S1110)。この分類過程を通じて空間的視点間動きベクトル、時間的視点間動きベクトル及び視差ベクトルの中から最高頻度で用いられるベクトルを決定することができる(S1120)。最高頻度で用いられるベクトルによって現在テクスチャブロックのための優先順位テーブルを選択することができる(S1130)。例えば、空間的隣接ブロックの視点間動きベクトルを導出する際に、空間的視点間動きベクトルが最高頻度で用いられた場合、現在テクスチャブロックは、空間的視点間動きベクトルが最優先順位を有するテーブルを選択してもよい。そうでない場合、現在テクスチャブロックは、時間的視点間動きベクトルが最優先順位を有するテーブルを選択してもよい。
図12は、本発明が適用される一実施例による、空間的隣接ブロックの視点間動きベクトルタイプを考慮して優先順位テーブルを選択する方法を示す図である。
図12を参照すると、空間的隣接ブロックの視点間動きベクトルタイプを確認することができる(S1200)。換言すれば、視点間動きベクトルが空間的視点間動きベクトルから導出されたか、時間的視点間動きベクトルから導出されたか、又は視差ベクトルから導出されたかを確認することができる。空間的隣接ブロックの視点間動きベクトルタイプによって、各空間的隣接ブロックに対するベクトルタイプインデクスを決定することができる(S1210)。ベクトルタイプインデクスは、空間的隣接ブロックの視点間動きベクトルが空間的視点間動きベクトルから導出されたか、時間的視点間動きベクトルから導出されたか、又は視差ベクトルから導出されたかを示す情報であってよい。例えば、空間的視点間動きベクトルから導出された場合には、対応する空間的隣接ブロックに対するベクトルタイプインデクスを0に決定でき、時間的視点間動きベクトルから導出された場合には、ベクトルタイプインデクスを1に決定でき、視差ベクトルから導出された場合にはベクトルタイプインデクスを2に設定できる。この決定された空間的隣接ブロックのベクトルタイプインデクスに基づいて現在テクスチャブロックの優先順位テーブルを決定することができる(S1220)。例えば、表5のように、空間的隣接ブロックのベクトルタイプインデクスとこれに対応する優先順位テーブルインデクスとで構成されたテーブルを用いることができる。一方、表5では、理解の便宜上、空間的隣接ブロックとして左の隣接ブロックと上の隣接ブロックだけを取り上げたが、これに限定されず、優先順位テーブルインデクスは表4に基づく。
Figure 0006309593
空間的隣接ブロックのうち左の隣接ブロックの視点間動きベクトルが空間的視点間動きベクトルから導出された場合、左の隣接ブロックに対するベクトルタイプインデクスは0と決定することができる。また、上の隣接ブロックも空間的視点間動きベクトルから導出された場合、上の隣接ブロックに対するベクトルタイプインデクスは0と決定することができる。表5を参照すると、左の隣接ブロックと上の隣接ブロックのベクトルタイプインデクスがそれぞれ0である場合、現在テクスチャブロックの優先順位テーブルインデクスは0と決定される。したがって、現在テクスチャブロックは、空間的視点間動きベクトルを最優先順位として有するテーブルを用いることができる。
又は、左の隣接ブロックの視点間動きベクトルが視差ベクトルから導出された場合、左の隣接ブロックに対するベクトルタイプインデクスは2と決定することができる。上の隣接ブロックの視点間動きベクトルが時間的視点間動きベクトルから導出された場合、上の隣接ブロックに対するベクトルタイプインデクスは1と決定することができる。この場合、現在テクスチャブロックの優先順位テーブルインデクスは2と決定される。すなわち、現在テクスチャブロックは、視差ベクトルを最優先順位として有するテーブルを用いることができる。
S1220で決定された優先順位テーブルによる優先順位を考慮して、現在テクスチャブロックの視点間動きベクトルを導出することができる(S1230)。
図13は、本発明が適用される一実施例による、状態変数を用いて優先順位を決定する方法を示す図である。
図13を参照すると、現在テクスチャブロック以前に符号化されたブロックに対する状態変数を決定することができる(S1300)。ここで、状態変数は、現在テクスチャブロック以前に符号化されたブロックの視点間動きベクトルが空間的視点間動きベクトルから導出されるか、又は時間的視点間動きベクトルから導出されるかを示す変数を意味する。例えば、以前に符号化されたブロックの視点間動きベクトルが空間的隣接ブロックの視点間動きベクトルから導出された場合には、以前に符号化されたブロックの状態変数を0に設定でき、時間的隣接ブロックの視点間動きベクトルから導出された場合には状態変数を1に設定できる。又は、逆に、空間的隣接ブロックの視点間動きベクトルから導出された場合には0に、時間的隣接ブロックの視点間動きベクトルから導出された場合には1に、状態変数をそれぞれ設定してもよい。
該決定された以前に符号化されたブロックの状態変数に基づいて、現在テクスチャブロックの視点間動きベクトル候補間の優先順位を決定することができる(S1310)。例えば、以前に符号化されたブロックの状態変数が空間的視点間動きベクトルから導出されることを示す値に設定された場合、現在テクスチャブロックの視点間動きベクトル候補のうち空間的視点間動きベクトルに高い優先順位を与えることができる。一方、以前に符号化されたブロックの状態変数が時間的視点間動きベクトルから導出されることを示す値に設定された場合には、時間的視点間動きベクトルに高い優先順位を与えることができる。又は、表4で説明したように、複数個の優先順位テーブルを定義する場合には、下記の表6のように、状態変数とそれに対応する優先順位テーブルインデクスで構成されたテーブルを用いて視点間動きベクトル候補間の優先順位を決定してもよい。
Figure 0006309593
表6を参照すると、以前に符号化されたブロックの状態変数が0の場合、換言すれば、以前に符号化されたブロックの視点間動きベクトルが空間的視点間動きベクトルから導出された場合、現在テクスチャブロックの優先順位テーブルインデクスは0と決定され、これによって、現在テクスチャブロックは、空間的視点間動きベクトルが最優先順位を有するテーブルを用いることができる。一方、以前に符号化されたブロックの状態変数が1の場合は、現在テクスチャブロックの優先順位テーブルインデクスは1と決定され、これによって、現在テクスチャブロックは、時間的視点間動きベクトルが最優先順位を有するテーブルを用いることができる。
該決定された優先順位に基づいて現在テクスチャブロックの視点間動きベクトルを導出することができる(S1320)。一方、現在テクスチャブロックの状態変数は、以降に符号化されるブロックの優先順位を決定するときに用いることができる。したがって、S1320で導出された視点間動きベクトルに基づいて現在テクスチャブロックに対する状態変数を更新する必要がある。そのために、現在テクスチャブロックの視点間動きベクトルタイプと以前に符号化されたブロックの視点間動きベクトルタイプとを比較することができる(S1330)。例えば、以前に符号化されたブロックの視点間動きベクトルが空間的視点間動きベクトルから導出されるため、状態変数が0に設定され、これによって、現在テクスチャブロックの視点間動きベクトル候補のうち空間的視点間動きベクトルに高い優先順位を与えると仮定しよう。この場合、現在テクスチャブロックは、最優先順位を有する空間的隣接ブロックに関して視点間動きベクトルが存在するかを探索することができ、これによって、空間的隣接ブロックの視点間動きベクトルから現在テクスチャブロックの視点間動きベクトルを導出することができる。このような場合は、現在テクスチャブロックの視点間動きベクトルタイプと以前に符号化されたブロックの視点間動きベクトルタイプとが同一であると判断できる。しかし、空間的隣接ブロックが利用可能でないと判断される場合、現在テクスチャブロックは、次優先順位を有する候補(例えば、時間的隣接ブロック)に関して視点間動きベクトルが存在するかを探索し、これによって、現在テクスチャブロックは、次優先順位を有する候補の視点間動きベクトルから視点間動きベクトルを導出することができる。このような場合は、両者の視点間動きベクトルタイプが互いに異なると判断できる。S1330の比較の結果、両者の視点間動きベクトルタイプが互いに異なると判断される場合は、S1320で導出された現在テクスチャブロックの視点間動きベクトルタイプに基づいて状態変数を更新することができる(S1340)。例えば、以前に符号化されたブロックの視点間動きベクトルが空間的視点間動きベクトルから導出されるため、状態変数が0に設定されたが、現在テクスチャブロックの視点間動きベクトルが時間的視点間動きベクトルから導出された場合は、状態変数を1に更新することができる。一方、両者の視点間動きベクトルタイプが同一である場合は、以前に符号化されたブロックの状態変数を同様に維持することができる。
上述した視点間動きベクトル候補を入力とする統計関数を用いて現在テクスチャブロックの視点間動きベクトルを導出することができる。例えば、視点間動きベクトル候補の中央値(median)、最頻値、平均値などから現在テクスチャブロックの視点間動きベクトルを導出することができる。このとき、統計関数に入力された候補は、空間的視点間動きベクトル、時間的視点間動きベクトル及び視差ベクトルをすべて含んでもよい。又は、各カテゴリ別に優先順位に従って探索して、最初に取得された視点間動きベクトルだけを統計関数の入力として用いてもよい。又は、特定カテゴリに属する候補だけを用いるように制限してもよい。例えば、a)空間的視点間動きベクトル及び時間的視点間動きベクトル、b)空間的視点間動きベクトル及び視差ベクトル、c)時間的視点間動きベクトル及び視差ベクトルのように、特定カテゴリ間の組合せに属した候補だけを統計関数の入力として用いてもよい。
一つの現在テクスチャブロックに対して2つ以上の視点間動きベクトルを導出してもよい。すなわち、視点間動きベクトル候補の中から2つ以上の視点間動きベクトルを決定し、現在テクスチャブロックの動きベクトルを導出する際にそれらを動きベクトルリストに含めて活用してもよい。複数個の視点間動きベクトルを導出する方法について説明すると、カテゴリごとに少なくとも一つの視点間動きベクトルを取得することができる。例えば、空間的隣接ブロックから少なくとも一つの視点間動きベクトルを取得し、時間的隣接ブロックから少なくとも一つの視点間動きベクトルを取得することができる。また、空間的隣接ブロックを、左下の隣接ブロック及び左の隣接ブロックを含む第1グループと、右上の隣接ブロック、上の隣接ブロック及び左上の隣接ブロックを含む第2グループと、に分け、グループごとに視点間動きベクトルを取得してもよい。また、グループごとに既に決定された優先順位に従って視点間動きベクトルを取得し、最初に取得された視点間動きベクトルを各グループの視点間動きベクトル代表値に設定してもよい。
一方、複数個の視点間動きベクトルを導出する場合、同一の値を有する視点間動きベクトルが存在することがある。そのため、現在テクスチャブロックの動きベクトルリストに含めるとき、重複する視点間動きベクトルを除去する過程を行ってもよい。
以上説明してきた実施例は、本発明の構成要素及び特徴を所定の形態で結合したものである。各構成要素又は特徴は、別の明示的な言及がない限り、選択的なものとして考慮しなければならない。各構成要素又は特徴は、他の構成要素又は特徴と結合されない形態で実施してもよいし、一部の構成要素及び/又は特徴を結合して本発明の実施例を構成してもよい。本発明の実施例で説明される動作の順序は変更してもよい。ある実施例の一部の構成又は特徴は他の実施例に含めてもよいし、他の実施例の対応する構成又は特徴に置き換えてもよい。
以上で説明した通り、本発明の適用される復号/符号化装置は、デジタルマルチメディア放送(DMB)のようなマルチメディア放送の送/受信装置に含めて、ビデオ信号及びデータ信号などを復号するために用いることができる。また、マルチメディア放送の送/受信装置は移動体通信端末機を含むことができる。
また、本発明の適用される復号/符号化方法は、計算機で実行するためのプログラムとして製作して、計算機が読み取り可能な記録媒体に記憶させることができ、本発明によるデータ構造を有するマルチメディアデータも、計算機が読み取り可能な記録媒体に記憶させることができる。計算機が読み取り可能な記録媒体は、計算機システムによって読み取り可能なデータを記憶可能ないずれの種類の記憶装置も含む。計算機が読み取り可能な記録媒体の例には、ROM、RAM、CD−ROM、磁気テープ、フレキシブルディスク、光データ記憶装置などがあり、さらに、搬送は(例えば、インターネットを介した伝送の形態)として具現されるものも含む。また、上記の符号化方法によって生成されたビットストリームは、計算機が読み取り可能な記録媒体に記憶させてもよいし、有線/無線通信網を介して伝送してもよい。
本発明は、ビデオ信号を符号化するために用いることができる。

Claims (12)

  1. ビデオ信号を処理する方法であって、
    視点間動きベクトル候補間の優先順位に基づいて視点間動きベクトル候補の一つを用いて現在テクスチャブロックに対する視点間動きベクトルを決定するステップと、
    空間的隣接ブロックの動きベクトルと前記決定された視点間動きベクトルを用いて前記現在テクスチャブロックに対する動きベクトルリストを生成するステップと、
    前記現在テクスチャブロックに対する前記動きベクトルリストを用いて前記現在テクスチャブロックに対する視点間インタ予測を実行するステップとを含み、
    前記視点間動きベクトル候補は、少なくとも一つの空間的隣接ブロックの視点間動きベクトル、時間的隣接ブロックの視点間動きベクトル、及び奥行きブロックの奥行きデータを用いて生成された視点間動きベクトルである奥行きベクトルの少なくとも一つを含
    前記現在テクスチャブロックに対する前記視点間動きベクトルを決定するステップは
    前記時間的隣接ブロックが視点間インタ予測にしたがって符号化されたブロックであるか決定するステップと
    前記時間的隣接ブロックが視点間インタ予測にしたがって符号化されたブロックである時、前記時間的隣接ブロックの前記視点間動きベクトルを用いて前記現在テクスチャブロックの前記視点間動きベクトルを導出するステップと
    前記時間的隣接ブロックが視点間インタ予測にしたがって符号化されたブロックでない時、前記少なくとも一つの空間的隣接ブロックが視点間インタ予測にしたがって符号化されたブロックであるか決定するステップを含む、方法。
  2. 前記少なくとも一つの空間隣接ブロックの視点間動きベクトルは、前記奥行きベクトルより優先順位が高く、
    前記時間的隣接ブロックの視点間動きベクトルは、前記少なくとも一つの空間的隣接ブロックの視点間動きベクトルより優先順位が高い、請求項1に記載の方法。
  3. 前記少なくとも一つの空間的隣接ブロックは、前記現在テクスチャブロックの左の隣接ブロックと上の隣接ブロックを含む、請求項に記載の方法。
  4. 視点間インタ予測にしたがって符号化された前記少なくとも一つの空間的隣接ブロックは、前記少なくとも一つの空間的隣接ブロックの優先順位を用いて検出され、
    前記少なくとも一つの空間的隣接ブロックが視点間インタ予測にしたがって符号化されたブロックであるかを決定するステップは、
    前記左の隣接ブロックが視点間予測にしたがって符号化されたブロックであるか決定するステップと、
    前記左の隣接ブロックが視点間予測にしたがって符号化されたブロックである時、前記左の隣接ブロックの視点間動きベクトルを用いて前記現在テクスチャブロックの視点間動きベクトルを導出するステップと、
    前記左の隣接ブロックが視点間予測にしたがって符号化されたブロックでない時、前記上の隣接ブロックが視点間予測にしたがって符号化されたブロックであるかを決定するステップと、
    前記上の隣接ブロックが視点間予測にしたがって符号化されたブロックである時、前記上の隣接ブロックの視点間動きベクトルを用いて前記現在テクスチャブロックの視点間動きべクトルを導出するステップとを含む、請求項に記載の方法。
  5. 前記時間的隣接ブロックの視点間動きベクトルは、同一位置のブロックの視点間動きベクトルを示す、請求項1に記載の方法。
  6. 前記決定された視点間動きベクトルが前記空間的隣接ブロックの動きベクトルと同じである時、前記決定された視点間動きベクトルは前記現在テクスチャブロックのための前記動きベクトルリストを生成するために使用されない、請求項1に記載の方法。
  7. ビデオ信号を処理する装置であって、
    視点間動きベクトル候補の優先順位に基づいて視点間動きベクトル候補の一つを用いて現在テクスチャブロックに対する視点間動きベクトルを決定し、空間的隣接ブロックの動きベクトルと前記決定された視点間動きベクトルを用いて前記現在テクスチャブロックに対する動きベクトルリストを生成し、前記現在テクスチャブロックに対する動きベクトルリストを用いて前記現在テクスチャブロックに対する視点間インタ予測を実行するインタ予測部を備え、
    前記視点間動きベクトル候補は、少なくとも一つの空間的隣接ブロックの視点間動きベクトル、時間的隣接ブロックの視点間動きベクトル、及び奥行きブロックの奥行きデータを用いて生成された視点間動きベクトルである奥行きベクトルの少なくとも一つを含
    前記インタ予測部は、前記時間的隣接ブロックが視点間インタ予測にしたがって符号化されたブロックであるか決定し、前記時間的隣接ブロックが視点間インタ予測にしたがって符号化されたブロックである時、前記時間的隣接ブロックの前記視点間動きベクトルを用いて前記現在テクスチャブロックの前記視点間動きベクトルを導出し、前記時間的隣接ブロックが視点間インタ予測にしたがって符号化されたブロックでない時、前記少なくとも一つの空間的隣接ブロックが視点間インタ予測にしたがって符号化されたブロックであるか決定する、装置。
  8. 前記少なくとも一つの空間隣接ブロックの視点間動きベクトルは、前記奥行きベクトルより優先順位が高く、
    前記時間的隣接ブロックの視点間動きベクトルは、前記少なくとも一つの空間隣接ブロックの視点間動きベクトルより優先順位が高い、請求項に記載の装置。
  9. 前記少なくとも一つの空間的隣接ブロックは、前記現在テクスチャブロックの左の隣接ブロックと、上の隣接ブロックを含む、請求項に記載の装置。
  10. 視点間インタ予測にしたがって符号化された前記少なくとも一つの空間的隣接ブロックは、前記少なくとも一つの空間的隣接ブロックの優先順位を用いて検出され、
    前記インタ予測部は、前記左の隣接ブロックが視点間インタ予測にしたがって符号化されたブロックであるかを決定し、前記左の隣接ブロックが視点間予測にしたがって符号化されたブロックである時、前記左の隣接ブロックの視点間動きベクトルを用いて前記現在テクスチャブロックの視点間動きベクトルを導出し、前記左の隣接ブロックが視点間予測にしたがって符号化されたブロックでない時、前記上の隣接ブロックが視点間予測にしたがって符号化されたブロックであるかを決定し、前記上の隣接ブロックが視点間予測にしたがって符号化されたブロックである時、前記上の隣接ブロックの視点間動きベクトルを用いて前記現在テクスチャブロックの視点間動きべクトルを導出する、請求項に記載の装置。
  11. 前記時間的隣接ブロックの視点間動きベクトルは、同一位置のブロックの視点間動きベクトルを示す、請求項に記載の装置。
  12. 前記決定された視点間動きベクトルが前記空間的隣接ブロックの動きベクトルと同じである時、前記決定された視点間動きベクトルは前記現在テクスチャブロックのための前記動きベクトルリストを生成するために使用されない、請求項に記載の装置。
JP2016216545A 2012-05-10 2016-11-04 ビデオ信号処理方法及び装置 Active JP6309593B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261645582P 2012-05-10 2012-05-10
US61/645,582 2012-05-10

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015511367A Division JP6039793B2 (ja) 2012-05-10 2013-05-09 ビデオ信号処理方法及び装置

Publications (2)

Publication Number Publication Date
JP2017022789A JP2017022789A (ja) 2017-01-26
JP6309593B2 true JP6309593B2 (ja) 2018-04-11

Family

ID=49550991

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015511367A Active JP6039793B2 (ja) 2012-05-10 2013-05-09 ビデオ信号処理方法及び装置
JP2016216545A Active JP6309593B2 (ja) 2012-05-10 2016-11-04 ビデオ信号処理方法及び装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015511367A Active JP6039793B2 (ja) 2012-05-10 2013-05-09 ビデオ信号処理方法及び装置

Country Status (6)

Country Link
US (1) US10341677B2 (ja)
EP (1) EP2849441B1 (ja)
JP (2) JP6039793B2 (ja)
KR (2) KR101626759B1 (ja)
CN (1) CN104365102B (ja)
WO (1) WO2013169031A1 (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9445076B2 (en) 2012-03-14 2016-09-13 Qualcomm Incorporated Disparity vector construction method for 3D-HEVC
US9525861B2 (en) 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US9549180B2 (en) 2012-04-20 2017-01-17 Qualcomm Incorporated Disparity vector generation for inter-view prediction for video coding
US20130336405A1 (en) * 2012-06-15 2013-12-19 Qualcomm Incorporated Disparity vector selection in video coding
WO2014166109A1 (en) * 2013-04-12 2014-10-16 Mediatek Singapore Pte. Ltd. Methods for disparity vector derivation
US9288507B2 (en) * 2013-06-21 2016-03-15 Qualcomm Incorporated More accurate advanced residual prediction (ARP) for texture coding
US9716899B2 (en) 2013-06-27 2017-07-25 Qualcomm Incorporated Depth oriented inter-view motion vector prediction
WO2015006922A1 (en) * 2013-07-16 2015-01-22 Mediatek Singapore Pte. Ltd. Methods for residual prediction
KR102147356B1 (ko) * 2013-09-30 2020-08-24 삼성전자 주식회사 캐시 메모리 시스템 및 그 동작방법
WO2015062002A1 (en) * 2013-10-31 2015-05-07 Mediatek Singapore Pte. Ltd. Methods for sub-pu level prediction
CN110855992B (zh) 2014-01-03 2024-06-07 庆熙大学校产学协力团 导出子预测单元的时间点之间的运动信息的方法和装置
US10652569B2 (en) 2015-12-22 2020-05-12 Realnetworks, Inc. Motion vector selection and prediction in video coding systems and methods
US10880548B2 (en) * 2016-06-01 2020-12-29 Samsung Electronics Co., Ltd. Methods and apparatuses for encoding and decoding video according to coding order
JP6895247B2 (ja) * 2016-10-06 2021-06-30 日本放送協会 符号化装置、復号装置及びプログラム
CN116886897A (zh) 2017-01-16 2023-10-13 世宗大学校产学协力团 影像解码/编码方法以及传送比特流的方法
CN108900829B (zh) * 2017-04-10 2022-02-22 钰立微电子股份有限公司 动态显示***
CN111567045A (zh) 2017-10-10 2020-08-21 韩国电子通信研究院 使用帧间预测信息的方法和装置
WO2019074273A1 (ko) * 2017-10-10 2019-04-18 한국전자통신연구원 인터 예측 정보를 사용하는 방법 및 장치
GB2588531B (en) 2018-06-29 2023-02-01 Beijing Bytedance Network Tech Co Ltd Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks
CN114125450B (zh) 2018-06-29 2023-11-17 北京字节跳动网络技术有限公司 一种用于处理视频数据的方法、装置和计算机可读介质
KR20240007298A (ko) 2018-06-29 2024-01-16 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut에서의 모션 후보들의 검사 순서
CN114466197A (zh) 2018-06-29 2022-05-10 北京字节跳动网络技术有限公司 用于查找表更新的编码的运动信息的选择
KR102627814B1 (ko) * 2018-06-29 2024-01-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 룩업 테이블의 업데이트: fifo, 제약된 fifo
TWI752331B (zh) 2018-06-29 2022-01-11 大陸商北京字節跳動網絡技術有限公司 當向Merge/AMVP添加HMVP候選時的部分/完全修剪
TWI728390B (zh) 2018-06-29 2021-05-21 大陸商北京字節跳動網絡技術有限公司 查找表尺寸
EP3794824A1 (en) 2018-06-29 2021-03-24 Beijing Bytedance Network Technology Co. Ltd. Conditions for updating luts
TWI719526B (zh) 2018-07-02 2021-02-21 大陸商北京字節跳動網絡技術有限公司 查找表的更新
TWI820211B (zh) 2018-09-12 2023-11-01 大陸商北京字節跳動網絡技術有限公司 取決於總數減去k的開始檢查hmvp候選的條件
WO2020084475A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Utilization of refined motion vector
WO2020084476A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Sub-block based prediction
EP3857879A4 (en) 2018-11-12 2022-03-16 Beijing Bytedance Network Technology Co., Ltd. SIMPLIFICATION OF COMBINED INTER-INTRA PREDICTION
US10708626B2 (en) * 2018-11-19 2020-07-07 Google Llc Iterative IDCT with adaptive non-linear filtering
KR20210091161A (ko) 2018-11-20 2021-07-21 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 부분적 위치에 기반한 차분 계산
WO2020103877A1 (en) 2018-11-20 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Coding and decoding of video coding modes
US20220086475A1 (en) * 2019-01-09 2022-03-17 Lg Electronics Inc. Method and device for signaling whether tmvp candidate is available
JP7275286B2 (ja) 2019-01-10 2023-05-17 北京字節跳動網絡技術有限公司 Lut更新の起動
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147772A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Motion candidates derivation
KR102635518B1 (ko) 2019-03-06 2024-02-07 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 변환된 단예측 후보의 사용
CN113615193B (zh) 2019-03-22 2024-06-25 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
KR20230169434A (ko) 2019-04-02 2023-12-15 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 디코더 측 움직임 벡터 유도

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100631777B1 (ko) 2004-03-31 2006-10-12 삼성전자주식회사 다 계층의 모션 벡터를 효율적으로 압축하는 방법 및 장치
JP2005094803A (ja) 2004-11-15 2005-04-07 Toshiba Corp 動画像符号化装置および動画像符号化方法
US8644386B2 (en) 2005-09-22 2014-02-04 Samsung Electronics Co., Ltd. Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
US7903737B2 (en) * 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
KR20080008944A (ko) 2006-07-21 2008-01-24 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
KR20080015760A (ko) 2006-08-16 2008-02-20 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
KR20080047944A (ko) 2006-11-27 2008-05-30 엘지전자 주식회사 비디오 신호 디코딩 장치 및, 비디오 신호 디코딩 방법
EP2288163B1 (en) * 2008-05-07 2015-07-01 Lg Electronics Inc. Method and apparatus for decoding video signal
KR20110071047A (ko) 2009-12-20 2011-06-28 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
KR101752418B1 (ko) * 2010-04-09 2017-06-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
WO2013055148A2 (ko) * 2011-10-12 2013-04-18 엘지전자 주식회사 영상 인코딩 방법 및 디코딩 방법
US20130176390A1 (en) * 2012-01-06 2013-07-11 Qualcomm Incorporated Multi-hypothesis disparity vector construction in 3d video coding with depth
US20130272412A1 (en) * 2012-04-12 2013-10-17 Qualcomm Incorporated Common motion information candidate list construction process

Also Published As

Publication number Publication date
US20150098509A1 (en) 2015-04-09
KR20160075753A (ko) 2016-06-29
CN104365102A (zh) 2015-02-18
KR20150029627A (ko) 2015-03-18
EP2849441A4 (en) 2015-11-25
JP2015519835A (ja) 2015-07-09
CN104365102B (zh) 2018-01-02
KR101626759B1 (ko) 2016-06-02
WO2013169031A1 (ko) 2013-11-14
EP2849441B1 (en) 2019-08-21
EP2849441A1 (en) 2015-03-18
JP2017022789A (ja) 2017-01-26
JP6039793B2 (ja) 2016-12-07
US10341677B2 (en) 2019-07-02

Similar Documents

Publication Publication Date Title
JP6309593B2 (ja) ビデオ信号処理方法及び装置
KR102387363B1 (ko) 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치
US20220217361A1 (en) Method and apparatus for processing video signal based on inter prediction
US10880552B2 (en) Method and apparatus for performing optimal prediction based on weight index
US9349192B2 (en) Method and apparatus for processing video signal
CN111971960B (zh) 用于基于帧间预测模式处理图像的方法及其装置
KR20200014913A (ko) 인터 예측 기반의 영상 처리 방법 및 이를 위한 장치
KR20150109282A (ko) 다시점 비디오 신호 처리 방법 및 장치
US20210021860A1 (en) Image processing method based on inter prediction mode, and device therefor
CN107318027B (zh) 图像编码/解码方法、图像编码/解码装置、以及图像编码/解码程序
US20210144399A1 (en) Image decoding method and apparatus based on motion prediction in sub-block unit in image coding system
US11606566B2 (en) Method for processing image on basis of inter-prediction mode and apparatus therefor
JP6291032B2 (ja) ビデオ信号処理方法及び装置
US20210105481A1 (en) Method and apparatus for processing video signal by using affine prediction
JP6231560B2 (ja) ビデオ信号処理方法およびビデオ信号処理装置
KR20150110357A (ko) 다시점 비디오 신호 처리 방법 및 장치
KR102572012B1 (ko) 시점 간 움직임 병합 후보 유도 방법 및 장치
JP2015527805A (ja) ビデオ信号処理方法及び装置
US11595639B2 (en) Method and apparatus for processing video signals using affine prediction
CN112204980B (zh) 视频编码***中用于帧间预测的方法和装置
US9602831B2 (en) Method and apparatus for processing video signals
KR102639614B1 (ko) 움직임 벡터 예측 기반 영상/비디오 코딩 방법 및 장치
CN113678455B (zh) 用于导出双预测的权重索引信息的视频或图像编码
KR20150136018A (ko) 다시점 비디오 신호 처리 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180314

R150 Certificate of patent or registration of utility model

Ref document number: 6309593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250