JP2015527806A - ビデオ信号処理方法及び装置 - Google Patents

ビデオ信号処理方法及び装置 Download PDF

Info

Publication number
JP2015527806A
JP2015527806A JP2015521547A JP2015521547A JP2015527806A JP 2015527806 A JP2015527806 A JP 2015527806A JP 2015521547 A JP2015521547 A JP 2015521547A JP 2015521547 A JP2015521547 A JP 2015521547A JP 2015527806 A JP2015527806 A JP 2015527806A
Authority
JP
Japan
Prior art keywords
inter
block
compensation
current texture
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015521547A
Other languages
English (en)
Inventor
チウク チョン
チウク チョン
セフン ヨ
セフン ヨ
ムンモ ク
ムンモ ク
チン ホ
チン ホ
テソプ キム
テソプ キム
チェウォン ソン
チェウォン ソン
ウンヨン ソン
ウンヨン ソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2015527806A publication Critical patent/JP2015527806A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/007Aspects relating to detection of stereoscopic image format, e.g. for adaptation to the display format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Devices (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】多視点映像における視点間インター予測の正確度を高める方法を提供する。【解決手段】本発明は、現在のテクスチャブロックの予測値を獲得し、第1補償係数、第2補償係数を用いて現在のテクスチャブロックの予測値を視点間補償することを特徴とし、第1補償係数は、現在のテクスチャブロックの隣接ピクセル及び参照ブロックの隣接ピクセルを用いて獲得され、第2補償係数は、現在のテクスチャブロックの隣接ピクセル、参照ブロックの隣接ピクセル及び第1補償係数を用いて獲得されることを特徴とするビデオ信号処理方法及び装置に関する。本発明は、多視点映像の撮影時に照明またはカメラのような撮影条件によって生じた視点間の差を補償して視点間インター予測時の正確度を高めることを特徴とする。【選択図】図6

Description

本発明は、ビデオ信号のコーディング方法及び装置に関する。
圧縮符号化とは、デジタル化した情報を通信回線を介して伝送したり、格納媒体に適した形態で格納したりする一連の信号処理技術を意味する。圧縮符号化の対象としては、音声、映像、文字などが存在し、特に、映像を対象として圧縮符号化を行う技術をビデオ映像圧縮と称する。多視点ビデオ映像の一般的な特徴は、空間的冗長性、時間的冗長性及び視点間冗長性を有している点にある。
本発明の目的は、ビデオ信号のコーディング効率を高めることにある。
本発明は、現在のテクスチャブロックの予測値に対する視点間補償過程を行うことで視点間インター予測の正確度を高めることを特徴とする。
本発明は、視点間補償過程を行うための第1補償係数及び第2補償係数を、現在のテクスチャブロックの周辺ピクセル値と参照ブロックの周辺ピクセル値を用いて獲得することができる。
本発明は、現在のピクチャと参照ピクチャとのピクセル値の分布の差を比較して、視点間補償を行うか否かを決定することができる。
本発明は、現在のピクチャと参照ピクチャとのピクセル値のSADと、既決定の閾値とを比較して、視点間補償を行うか否かを決定することができる。
本発明は、正規化相関値と既決定の閾値とを比較して、視点間補償を行うか否かを決定することができる。
本発明は、多視点映像の撮影時に照明またはカメラのような撮影条件によって発生した視点間の差を補償して、視点間インター予測の正確度を高めることを特徴とする。
本発明は、視点間補償過程を行うか否かを判断して、視点間補償過程の実行によって発生し得るコーディング性能の低下及び複雑度の増加を防止することができる。
本発明が適用される一実施例であって、ビデオデコーダーの概略的なブロック図である。 本発明が適用される一実施例であって、インター予測の種類として時間的インター予測の例を示す図である。 本発明が適用される一実施例であって、インター予測の種類として視点間インター予測の例を示す図である。 本発明が適用される一実施例であって、視点間の差の補償過程で使用される現在のテクスチャブロック、参照ブロック、現在のテクスチャブロックの周辺ピクセル、参照ブロックの周辺ピクセルの例を示す図である。 本発明が適用される一実施例であって、現在のピクチャと参照ピクチャのそれぞれのヒストグラムを示した例を示す図である。 本発明が適用される一実施例であって、視点間補償方法に関するフローチャートを示す図である。 本発明が適用される一実施例であって、視点間補償フラグを獲得する方法に関するフローチャートを示す図である。
本発明は、視点間モーションベクトルを用いて参照ブロックの位置を獲得し、参照ブロックを用いて現在のテクスチャブロックの予測値を獲得し、補償係数を獲得し、第1補償係数、第2補償係数を用いて現在のテクスチャブロックの予測値を視点間補償し、視点間補償された現在のテクスチャブロックの予測値を用いて現在のテクスチャブロックをデコーディングし、第1補償係数は、現在のテクスチャブロックの隣接ピクセル及び参照ブロックの隣接ピクセルを用いて獲得され、第2補償係数は、現在のテクスチャブロックの隣接ピクセル、参照ブロックの隣接ピクセル及び第1補償係数を用いて獲得されることを特徴とするビデオ信号処理方法及び装置である。
本発明は、視点間補償フラグを獲得し、視点間補償フラグを用いて視点間補償を行うか否かを決定するステップをさらに含むことを特徴とするビデオ信号処理方法及び装置である。
本発明の視点間補償フラグは、スライスヘッダから獲得されることを特徴とするビデオ信号処理方法及び装置である。
本発明の視点間補償フラグは、ピクチャパラメータセットまたはビデオパラメータセットから獲得されることを特徴とするビデオ信号処理方法及び装置である。
本発明の視点間補償フラグは、現在のテクスチャブロックが含まれた現在のピクチャのピクセル値と、参照ブロックが含まれた参照ピクチャのピクセル値との差を用いて獲得されることを特徴とするビデオ信号処理方法及び装置である。
本発明の視点間補償フラグは、現在のテクスチャブロックが含まれた現在のピクチャのピクセル値と参照ブロックが含まれた参照ピクチャのピクセル値との差に対する絶対値の和と、既決定の閾値とを比較して獲得されることを特徴とするビデオ信号処理方法及び装置である。
本発明の視点間モーションベクトルは、現在のテクスチャブロックの視点間インター予測でコーディングされた隣接ブロックから獲得されることを特徴とするビデオ信号処理方法及び装置である。
本発明の隣接ブロックは、空間的隣接ブロック及び時間的隣接ブロックを含むことを特徴とするビデオ信号処理方法及び装置である。
多視点ビデオ信号データを圧縮符号化または復号化する技術は、空間的冗長性、時間的冗長性及び視点間に存在する冗長性を考慮している。また、多視点映像の場合、3次元映像を具現するために2つ以上の視点で撮影された多視点テクスチャ映像をコーディングすることができる。また、必要に応じて、多視点テクスチャ映像に対応するデプスデータをさらにコーディングすることもできる。デプスデータをコーディングする際に、空間的冗長性、時間的冗長性または視点間冗長性を考慮して圧縮コーディングできることは勿論である。デプスデータは、カメラと当該画素との間の距離情報を表現したものであり、本明細書内においてデプスデータは、デプス情報、デプス映像、デプスピクチャ、デプスシーケンス、デプスビットストリームなどのように、デプスに関連する情報として柔軟に解釈することができる。また、本明細書においてコーディングというのは、エンコーディングとデコーディングの概念を全て含むことができ、本発明の技術的思想及び技術的範囲によって柔軟に解釈することができる。
図1は、本発明が適用される一実施例であって、ビデオデコーダーの概略的なブロック図を示したものである。
図1を参照すると、ビデオデコーダーは、NALパージング部100、エントロピーデコーディング部200、逆量子化/逆変換部300、イントラ予測部400、インループフィルタ部500、復号ピクチャバッファ部600、インター予測部700を含むことができる。NALパージング部100は、多視点テクスチャデータを含んだビットストリームを受信することができる。また、デプスデータがテクスチャデータのコーディングに必要な場合、エンコーディングされたデプスデータを含んだビットストリームをさらに受信することもできる。このとき、入力されるテクスチャデータ及びデプスデータは、1つのビットストリームで伝送されてもよく、または別個のビットストリームで伝送されてもよい。NALパージング部100は、入力されたビットストリームを復号化するためにNAL単位でパージングを行うことができる。入力されたビットストリームが多視点関連データ(例えば、3−Dimensional Video)である場合、入力されたビットストリームはカメラパラメータをさらに含むことができる。カメラパラメータとしては、固有のカメラパラメータ(intrinsic camera parameter)及び非固有のカメラパラメータ(extrinsic camera parameter)があり得る。固有のカメラパラメータは、焦点距離(focal length)、縦横比(aspect ratio)、主点(principal point)などを含むことができ、非固有のカメラパラメータは、世界座標系でのカメラの位置情報などを含むことができる。
エントロピーデコーディング部200は、エントロピーデコーディングを通じて、量子化された変換係数、テクスチャピクチャの予測のためのコーディング情報などを抽出することができる。
逆量子化/逆変換部300では、量子化された変換係数に量子化パラメータを適用して変換係数を獲得し、変換係数を逆変換してテクスチャデータまたはデプスデータを復号化することができる。ここで、復号化されたテクスチャデータまたはデプスデータは、予測処理によるレジデュアルデータを含むことができる。また、デプスブロックに対する量子化パラメータは、テクスチャデータの複雑度を考慮して設定することができる。例えば、デプスブロックに対応するテクスチャブロックが複雑度の高い領域である場合には、低い量子化パラメータを設定し、複雑度の低い領域である場合には、高い量子化パラメータを設定することができる。
イントラ予測部400は、現在のテクスチャピクチャ内の復元されたテクスチャデータを用いて画面内予測を行うことができる。デプスピクチャに対してもテクスチャピクチャと同様の方式で画面内予測を行うことができる。例えば、テクスチャピクチャの画面内予測のために用いられるコーディング情報をデプスピクチャでも同一に用いることができる。ここで、画面内予測のために用いられるコーディング情報は、イントラ予測モード、イントラ予測のパーティション情報を含むことができる。
インループフィルタ部500は、ブロック歪み現象を減少させるために、それぞれのコーディングされたブロックにインループフィルタを適用することができる。フィルターは、ブロックの縁部を滑らかにすることでデコーディングされたピクチャの画質を向上させることができる。フィルタリングを経たテクスチャピクチャまたはデプスピクチャは出力するか、または参照ピクチャとして用いるために復号ピクチャバッファ部600に格納してもよい。
復号ピクチャバッファ部(Decoded Picture Buffer unit)600では、画面間予測を行うために、以前にコーディングされたテクスチャピクチャまたはデプスピクチャを格納したり開放したりするなどの役割を果たす。このとき、復号ピクチャバッファ部600に格納したり開放したりするために、各ピクチャのframe_numとPOC(Picture Order Count)を用いることができる。さらに、デプスコーディングにおいて、以前にコーディングされたピクチャの中には、現在のデプスピクチャと異なる視点にあるデプスピクチャもあるので、このようなピクチャを参照ピクチャとして活用するためには、デプスピクチャの視点を識別する視点識別情報を用いることもできる。デプスコーディングにおいて、デプスピクチャは、復号ピクチャバッファ部内でテクスチャピクチャと区別するために別途の表示でマーキングすることができ、マーキング過程で各デプスピクチャを識別するための情報を用いることができる。
インター予測部700は、復号ピクチャバッファ部600に格納された参照ピクチャ及びモーション情報を用いて現在のブロックのモーション補償を行うことができる。
図2は、本発明が適用される一実施例であって、インター予測の種類として時間的インター予測の例を示したものである。
時間的インター予測(temporal inter prediction)は、現在のテクスチャブロックと同じ視点及び異なる時間帯に位置した参照ピクチャ、及び現在のテクスチャブロックのモーション情報を用いたインター予測を意味することができる。
本明細書では、理解の便宜のため、時間的インター予測に用いられる時間モーション情報は、時間モーションベクトル(temporal motion vector)、時間レファレンスインデックス(temporal reference index)情報を含む概念として柔軟に解釈することができる。
図3は、本発明が適用される一実施例であって、インター予測の種類として視点間インター予測の例を示したものである。
複数個のカメラにより撮影された多視点映像の場合、時間的インター予測だけでなく、異なる視点間のインター予測である視点間インター予測をさらに行うことができる。
視点間インター予測(inter−view prediction)は、現在のテクスチャブロックと異なる視点に位置した参照ピクチャ、及び現在のテクスチャブロックのモーション情報を用いたインター予測を意味することができる。
本明細書では、理解の便宜のため、視点間インター予測に用いられる視点モーション情報を、視点間モーションベクトル(inter−view motion vector)、視点間レファレンスインデックス(inter−view reference index)情報を含む概念として柔軟に解釈することができる。
以下では、隣接ブロックが視点間インター予測でコーディングされたか否かを判別する方法について説明する。
一実施例として、視点間インター予測でコーディングされるか否かは、当該隣接ブロックが視点間参照ピクチャリストを用いるかに基づいて判別することができる。視点間参照ピクチャリストは、当該隣接ブロックの視点と異なる視点に位置した参照ピクチャで構成されたリストを意味することができる。または、当該隣接ブロックのレファレンスインデックス情報に基づいて判別することもできる。例えば、当該隣接ブロックのレファレンスインデックス情報が、当該隣接ブロックの視点と異なる視点に位置した参照ピクチャを特定する場合、当該隣接ブロックは、視点間インター予測でコーディングされることを特定することができる。または、当該隣接ブロックを含んだピクチャのPOCと、当該隣接ブロックの参照ピクチャのPOCとが同一であるか否かに基づいて判別することもできる。POCは、出力順序情報であり、同一アクセスユニット(access unit)内のピクチャは、同じPOCを有することができる。したがって、両者のPOCが同一であるということは、当該隣接ブロックを含んだピクチャと参照ピクチャとが互いに異なる視点に位置することを意味するはずであり、この場合、当該隣接ブロックは、視点間インター予測でコーディングされるものと特定することができる。
互いに異なる視点間の予測である視点間インター予測の場合、現在の視点と異なる視点である参照視点から参照ブロックを探し、参照ブロックのピクセル値を現在のテクスチャブロックの予測値として使用する。視点間インター予測によるコーディング時に参照視点の参照ブロックを予測値として使用する場合、多視点映像の撮影時に、各異なる視点において照明やカメラの特性などの撮影条件による視点間の差によって、視点間インター予測の正確度が低くなることがあるため、差を補償する必要がある。視点間インター予測を行う場合、視点間の差を補償処理する過程を通じて視点間インター予測の正確度を高めることができる。
以下では、視点間の差を補償する過程について説明する。
図4は、本発明が適用される一実施例であって、視点間の差を補償する過程で使用される現在のテクスチャブロック、参照ブロック、現在のテクスチャブロックの周辺ピクセル、参照ブロックの周辺ピクセルの例を示したものである。
現在のテクスチャブロックは、現在コーディングしようとするブロックを示すことができる。参照ブロックは、現在のテクスチャブロックと同じ時間、異なる視点に位置したブロックを示すことができる。現在のテクスチャブロックの周辺ピクセルは、現在のテクスチャブロックの左側及び上側ピクセルのうち少なくとも1つを示すことができる。参照ブロックの周辺ピクセルは、参照ブロックの左側ピクセル及び上側ピクセルのうち少なくとも1つを示すことができる。
現在のテクスチャブロックをデコーディングする場合、参照ブロックのピクセル値を、現在のテクスチャブロックの予測値として用いることができる。現在のテクスチャブロックの周辺ピクセル値と異なる視点の参照ブロックの周辺ピクセル値を反映して、数式1を通じて現在のテクスチャブロックの補償された予測値を獲得することができる。
Figure 2015527806
数式1において、x、yは、参照ブロック及び現在のテクスチャブロックの内部での座標を意味する。Ref[x,y]は、参照ブロックのピクセル値を意味し、Pred[x,y]は、現在のテクスチャブロックの予測値を意味する。αは、第1補償係数であり、βは、第2補償係数である。α、βは、現在のテクスチャブロックの周辺ピクセル及び参照ブロックの周辺ピクセルによって得ることができる。α、βを獲得する方式は、線形最小二乗法による数式2の解を得て用いる方法があり得る。
Figure 2015527806
αは、数式2を通じて、現在のテクスチャブロックの予測値の周辺ピクセル値であるPredN(i)、及び参照ブロックのピクセル値の周辺ピクセル値であるRefN(i)を用いて獲得することができる。βは、数式2を通じて、現在のテクスチャブロックの予測値の周辺ピクセル値であるPredN(i)、参照ブロックのピクセル値の周辺ピクセル値であるRefN(i)及びαを用いて獲得することができる。数式2において、iは、現在のテクスチャブロックの隣接ピクセルと参照ブロックの隣接ピクセルに割り当てられたインデックスを意味する。PredN(i)は、現在のテクスチャブロックの周辺ピクセル値を意味し、RefN(i)は、参照ブロックの周辺ピクセル値を意味する。
視点間、ピクチャ間のピクセル値の分布の差が大きくない場合の視点間補償は、コーディング性能の低下及び複雑度の増加を招くことがある。したがって、現在コーディングされるピクチャと視点間参照ピクチャとのピクセル分布の差を見て視点間補償を行うか否かを示す視点間補償フラグを定義して、き損を防止することができる。
図5は、本発明が適用される一実施例であって、現在のピクチャと参照ピクチャのそれぞれのヒストグラムを示した例を示す。
分布の差を計算する方式の例として、現在のピクチャと参照ピクチャのそれぞれのヒストグラムの絶対差分和(Sum of Absolute Difference、SAD)を用いる方式があり得る。絶対差分和は、各ピクセルの差の絶対値を合算した値を示す。
現在のピクチャ及び参照ピクチャのピクセル値の分布を示すヒストグラムを生成する。ヒストグラムは、各ピクチャにおいて該当のピクセル値が現れた回数を表示する。
現在のピクチャと参照ピクチャのヒストグラムの各ピクセル値での差を求め、差の絶対値を合算する。
ヒストグラムの絶対差分和(SAD)が既決定の閾値以上である場合、視点間補償フラグを1に設定して補償を行うようにし、既決定の閾値以下である場合、視点間補償フラグを0に設定して補償を行わないようにする。
また、正規化相関(normalized correlation)値と既決定の閾値とを比較して視点間補償を行うか否かを決定する方式を使用することもできる。正規化相関値は、現在のピクチャと参照ピクチャの各ピクセル間の相互相関(cross−correlation)値を現在のピクチャの自己相関(auto−correlation)値で割って求めることができる。相互相関値は、参照ピクチャと現在のピクチャの各ピクセル間の積の和で獲得することができる。自己相関値は、現在のピクチャの各ピクセルの積の和で獲得することができる。
正規化相関値が既決定の閾値以上である場合、視点間補償フラグを1に設定して補償を行うようにし、閾値以下である場合、視点間補償フラグを0に設定して補償を行わないようにする。
また、視点間補償フラグをピクチャパラメータセット(Picture Parameter Set、PPS)またはビデオパラメータセット(Video Parameter Set、VPS)から獲得することができる。エンコーダーは、ピクチャパラメータセットまたはビデオパラメータセットに視点間補償フラグを含ませてデコーダーに伝送することができる。現在のテクスチャブロックが上位レベル(ピクチャパラメータセットまたはビデオパラメータセット)と異なる視点間補償フラグを有する場合、スライスヘッダに視点間補償フラグを含ませてデコーダーに伝送することができる。デコーダーは、ピクチャパラメータセットまたはビデオパラメータセットから視点間補償フラグを獲得するか、またはスライスヘッダから視点間補償フラグを獲得することができる。デコーダーは、ピクチャパラメータセットまたはビデオパラメータセットの視点間補償フラグとスライスヘッダの視点間補償フラグとが異なる場合、スライスヘッダの視点間補償フラグを用いてデコーディングすることができる。
図6は、本発明が適用される一実施例であって、視点間補償方法に関するフローチャートを示したものである。
参照ブロックを特定するための視点間モーションベクトルを獲得することができる(S600)。視点間モーションベクトルは、現在のテクスチャブロックから参照ブロックを指し示すベクトルとして定義することができる。参照ブロックは、現在のテクスチャブロックと異なる視点である参照視点内に含まれ得る。視点間モーションベクトルは、現在のテクスチャブロックの空間的隣接ブロックまたは時間的隣接ブロックから獲得することができる。
空間的隣接ブロックは、現在のテクスチャブロックの左側下端隣接ブロック、左側隣接ブロック、右側上端隣接ブロック、上端隣接ブロック、左側上端隣接ブロックのうち少なくとも1つを含むことができる。そして、空間的隣接ブロック間の優先順位を考慮して、視点間モーションベクトルを探索することができる。したがって、左側隣接ブロック、上端隣接ブロック、右側上端隣接ブロック、左側下端隣接ブロック、左側上端隣接ブロックの順に空間的隣接ブロックの探索を行うことができる。例えば、現在のテクスチャブロックの視点間モーションベクトルを隣接ブロックから誘導しようとするとき、左側隣接ブロックが視点間インター予測でコーディングされたブロックである場合、左側隣接ブロックの視点間モーションベクトルを現在のテクスチャブロックの視点間モーションベクトルとして獲得し、探索を終了することができる。しかし、探索結果、左側隣接ブロックが視点間インター予測でコーディングされていない場合には、上端隣接ブロックが視点間インター予測でコーディングされているか否かを確認することができる。または、左側下端隣接ブロック、左側隣接ブロック、右側上端隣接ブロック、上端隣接ブロック、左側上端隣接ブロックの順に、視点間インター予測でコーディングされたブロックを見つけるまで探索を行うこともできる。ただし、空間的隣接ブロック間の優先順位は、実施例に限定されない。
時間的隣接ブロックは、現在のテクスチャブロックの中心ピクセルの位置に対応する位置を含む参照ピクチャ内でのブロックとして定義することができる。ここで、参照ピクチャは、現在のテクスチャブロックを含む現在のピクチャと同じ視点、異なる時間のピクチャである。本発明の時間的隣接ブロックは、同じ位置のブロックに限定されず、同じ位置のブロックに隣接した隣接ブロックを意味することもできる。一方、時間的隣接ブロックの候補者として言及した、a)同じ位置のブロック、b)同じ位置のブロックに隣接した隣接ブロック、優先順位を考慮して時間的隣接ブロックを探索することができる。
また、視点間モーションベクトルは、現在のテクスチャブロックに対応するデプスデータを用いて求めることができる。デプスデータとカメラパラメータを用いて現在のテクスチャブロックの変移ベクトルを誘導することができる。具体的な誘導方法は、数式3及び4に基づいて説明する。
Figure 2015527806
数式3を参照すると、Zは、該当ピクセルのカメラからの距離を意味し、Dは、Zを量子化した値であって、本発明のデプスデータに対応する。Znear及びZfarは、デプスピクチャが属する視点に対して定義されたZの最小値及び最大値をそれぞれ意味する。また、Znear及びZfarは、シーケンスパラメータセット、スライスヘッダなどを通じてビットストリームから抽出することができ、デコーダー内に予め定義された情報であってもよい。したがって、該当ピクセルのカメラからの距離Zを256レベルに量子化した場合、数式3のように、デプスデータ、Znear及びZfarを用いてZを復元することができる。その後、復元されたZを用いて、数式4のように現在のテクスチャブロックに対する変移ベクトルを誘導することができる。
Figure 2015527806
数式4において、fは、カメラの焦点距離を意味し、Bは、カメラ間の距離を意味する。f及びBは、全てのカメラに対して同一であると仮定することができ、したがって、デコーダーに予め定義された情報であり得る。
視点間モーションベクトルを用いて参照ブロックの位置を特定し、参照ブロックを用いて現在のテクスチャブロックの予測値を獲得することができる(S610)。現在のテクスチャブロックにおいて視点間モーションベクトルが指し示すブロックを参照ブロックとして決定することができる。参照ブロックは、現在のテクスチャブロックとは異なる視点の同一時間にあり得る。参照ブロックのピクセル値を現在のテクスチャブロックの予測値として獲得することができる。S610で獲得された現在のテクスチャブロックの予測値は、参照ブロックのピクセル値と同一であり得る。
現在のテクスチャブロックの周辺ピクセル及び参照ブロックの周辺ピクセルを用いて補償係数を獲得することができる(S620)。図4で説明した現在のテクスチャブロック、参照ブロック、現在のテクスチャブロックの周辺ピクセル、参照ブロックの周辺ピクセルを用いて現在のテクスチャブロックの予測値を補償するための補償係数を獲得することができる。補償係数は、数式2を用いて獲得することができる。補償係数は、第1補償係数及び第2補償係数を含むことができる。本明細書において、αは第1補償係数、βは第2補償係数として定義することができる。
補償係数を用いて現在のテクスチャブロックの予測値を補償することができる(S630)。S620で獲得された補償係数を用いて、数式1を通じて現在のテクスチャブロックの予測値を補償することができる。
補償された予測値を用いて現在のテクスチャブロックをデコーディングすることができる(S640)。現在のテクスチャブロックのレジデュアルをさらに獲得することができ、獲得されたレジデュアルとS630で補償された予測値を用いて現在のテクスチャブロックをデコーディングすることができる。
現在のテクスチャブロックの周辺ピクセル及び参照ブロックの周辺ピクセルを用いて補償係数を獲得するステップ(S620)の前に、視点間補償フラグを獲得するステップを追加することができる。視点間補償フラグは、現在のテクスチャブロックの予測値に対して視点間補償ステップを行うか否かを示す情報である。例えば、視点間補償フラグが1である場合、視点間補償ステップを行って第1補償係数、第2補償係数を獲得するステップを行うことができる。視点間補償フラグが0である場合、視点間補償ステップを行わないか、または第1補償係数を1に、第2補償係数を0に設定することができる。以下では、視点間補償フラグを獲得する方法について説明する。
図7は、本発明が適用される一実施例であって、視点間補償フラグを獲得する方法に関するフローチャートを示したものである。
現在のピクチャのピクセル値及び参照ピクチャのピクセル値の分布を獲得する(S611)。現在のピクチャは、現在のテクスチャブロックが含まれたピクチャを意味し、参照ピクチャは、参照ブロックが含まれたピクチャを意味する。現在のピクチャのピクセル値及び参照ピクチャのピクセル値の分布は、図5で示したヒストグラムで表すことができる。ヒストグラムにおいてピクセル値の分布は、ピクチャ内で該当ピクセル値の回数で表すことができる。
現在のピクチャのピクセル値と参照ピクチャのピクセル値との差の絶対値を合算する(S612)。S611で獲得されたヒストグラムを用いて、各ピクセル値において現在のピクチャの回数と参照ピクチャの回数との差を獲得する。各ピクセル値での差の絶対値を合算して絶対差分和(Sum of Absolute Difference、SAD)を獲得する。
絶対差分和と既決定の閾値とを比較して視点間補償フラグを獲得する(S613)。S612で獲得された絶対差分和が既決定の閾値よりも大きいと、現在のピクチャと参照ピクチャとの差が大きいことを示し、絶対差分和が既決定の閾値よりも小さいと、現在のピクチャと参照ピクチャとの差が小さいことを示す。絶対差分和が既決定の閾値よりも大きい場合、現在のピクチャと参照ピクチャとの差を補償する必要があるので、視点間補償フラグを1に設定して視点間補償ステップを行うようにすることができる。逆に、絶対差分和が既決定の閾値よりも小さい場合、現在のピクチャと参照ピクチャとの差を補償する必要がないので、視点間補償フラグを0に設定して視点間補償ステップを行わないようにすることができる。または、視点間補償フラグを0に設定して、第1補償係数を1に、第2補償係数を0に設定することができる。
現在のテクスチャブロックをデコーディングする場合、エンコーダーから伝送された視点間補償フラグをデコーダーに伝送するか、またはデコーダーで視点間補償フラグ獲得方法を用いて視点間補償フラグを誘導することができる。
デコーディング装置の場合、インター予測部で視点間モーションベクトルを獲得し、視点間モーションベクトルを用いて参照ブロックを獲得し、参照ブロックを用いて現在のテクスチャブロックの予測値を獲得することができる。インター予測部において、第1補償係数は、現在のテクスチャブロックの隣接ピクセル及び参照ブロックの隣接ピクセルを用いて獲得し、第2補償係数は、現在のテクスチャブロックの隣接ピクセル、参照ブロックの隣接ピクセル及び第1補償係数を用いて獲得することができる。インター予測部において、第1補償係数、第2補償係数を用いて現在のテクスチャブロックの予測値を視点間補償し、視点間補償された現在のテクスチャブロックの予測値を用いて現在のテクスチャブロックをデコーディングすることができる。
そして、インター予測部は、視点間補償フラグを獲得し、視点間補償フラグを用いて視点間補償を行うか否かを決定することができる。
以上で説明したように、本発明が適用されるデコーディング/エンコーディング装置は、DMB(Digital Multimedia Broadcasting)のようなマルチメディア放送送/受信装置に備えられ、ビデオ信号及びデータ信号などをデコーディングするのに用いることができる。また、マルチメディア放送送/受信装置は移動通信端末機を含むことができる。
また、本発明が適用されるデコーディング/エンコーディング方法は、コンピュータで実行されるためのプログラムとして製作され、コンピュータ可読記録媒体に格納することができ、本発明に係るデータ構造を有するマルチメディアデータも、コンピュータ可読記録媒体に格納することができる。コンピュータ可読記録媒体は、コンピュータシステムにより読み取られるデータが格納される全ての種類の格納装置を含む。コンピュータ可読記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク、光データ格納装置などがあり、なお、搬送波(例えば、インターネットを介した伝送)の形態で具現されるものも含む。また、エンコーティング方法により生成されたビットストリームは、コンピュータ可読記録媒体に格納されるか、または有/無線通信網を用いて伝送されてもよい。
本発明は、ビデオ信号をコーディングするのに用いることができる。

Claims (15)

  1. 視点間モーションベクトルを獲得するステップと、
    前記視点間モーションベクトルを用いて参照ブロックを獲得するステップであって、前記参照ブロックは参照視点に位置するステップと、
    前記参照ブロックを用いて現在のテクスチャブロックの予測値を獲得するステップと、
    第1補償係数を獲得するステップと、
    第2補償係数を獲得するステップと、
    前記第1補償係数、前記第2補償係数を用いて前記現在のテクスチャブロックの予測値を視点間補償するステップと、
    前記視点間補償された現在のテクスチャブロックの予測値を用いて現在のテクスチャブロックをデコーディングするステップと、を含み、
    前記第1補償係数は、前記現在のテクスチャブロックの隣接ピクセル及び前記参照ブロックの隣接ピクセルを用いて獲得され、
    前記第2補償係数は、前記現在のテクスチャブロックの隣接ピクセル、前記参照ブロックの隣接ピクセル及び前記第1補償係数を用いて獲得されることを特徴とする、ビデオ信号処理方法。
  2. 視点間補償フラグを獲得するステップと、
    前記視点間補償フラグを用いて視点間補償を行うか否かを決定するステップと、をさらに含む、請求項1に記載のビデオ信号処理方法。
  3. 前記視点間補償フラグはスライスヘッダから獲得される、請求項2に記載のビデオ信号処理方法。
  4. 前記視点間補償フラグは、ピクチャパラメータセットまたはビデオパラメータセットから獲得される、請求項2に記載のビデオ信号処理方法。
  5. 前記視点間補償フラグは、前記現在のテクスチャブロックが含まれた現在のピクチャのピクセル値と、前記参照ブロックが含まれた参照ピクチャのピクセル値との差を用いて獲得される、請求項2に記載のビデオ信号処理方法。
  6. 前記視点間補償フラグは、前記現在のテクスチャブロックが含まれた現在のピクチャのピクセル値と前記参照ブロックが含まれた参照ピクチャのピクセル値との差に対する絶対値の和と、既決定の閾値とを比較して獲得される、請求項2に記載のビデオ信号処理方法。
  7. 前記視点間モーションベクトルは、現在のテクスチャブロックの視点間インター予測でコーディングされた隣接ブロックから獲得される、請求項1に記載のビデオ信号処理方法。
  8. 前記隣接ブロックは、空間的隣接ブロック及び時間的隣接ブロックを含む、請求項7に記載のビデオ信号処理方法。
  9. 視点間モーションベクトルを獲得するインター予測部を含み、
    前記インター予測部は、前記視点間モーションベクトルを用いて、参照視点に位置する参照ブロックを獲得し、前記参照ブロックを用いて現在のテクスチャブロックの予測値を獲得し、第1補償係数を獲得し、第2補償係数を獲得し、前記第1補償係数及び前記第2補償係数を用いて前記現在のテクスチャブロックの予測値を視点間補償し、前記視点間補償された現在のテクスチャブロックの予測値を用いて現在のテクスチャブロックをデコーディングし、
    前記第1補償係数は、前記現在のテクスチャブロックの隣接ピクセル及び前記参照ブロックの隣接ピクセルを用いて獲得され、
    前記第2補償係数は、前記現在のテクスチャブロックの隣接ピクセル、前記参照ブロックの隣接ピクセル及び前記第1補償係数を用いて獲得されることを特徴とする、ビデオ信号処理装置。
  10. 視点間補償フラグを獲得し、前記視点間補償フラグを用いて視点間補償を行うか否かを決定する前記インター予測部をさらに含む、請求項9に記載のビデオ信号処理装置。
  11. 前記視点間補償フラグはスライスヘッダから獲得される、請求項10に記載のビデオ信号処理装置。
  12. 前記視点間補償フラグは、ピクチャパラメータセットまたはビデオパラメータセットから獲得される、請求項10に記載のビデオ信号処理装置。
  13. 前記視点間補償フラグは、前記現在のテクスチャブロックが含まれた現在のピクチャのピクセル値と、前記参照ブロックが含まれた参照ピクチャのピクセル値との差を用いて獲得される、請求項10に記載のビデオ信号処理装置。
  14. 前記視点間補償フラグは、前記現在のテクスチャブロックが含まれた現在のピクチャのピクセル値と前記参照ブロックが含まれた参照ピクチャのピクセル値との差の絶対値の和と、既決定の閾値とを比較して獲得される、請求項10に記載のビデオ信号処理装置。
  15. 前記視点間モーションベクトルは、現在のテクスチャブロックの視点間インター予測でコーディングされた隣接ブロックから獲得され、
    前記隣接ブロックは、空間的隣接ブロック及び時間的隣接ブロックを含む、請求項9に記載のビデオ信号処理装置。
JP2015521547A 2012-07-11 2013-07-10 ビデオ信号処理方法及び装置 Pending JP2015527806A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261670145P 2012-07-11 2012-07-11
US61/670,145 2012-07-11
PCT/KR2013/006131 WO2014010935A1 (ko) 2012-07-11 2013-07-10 비디오 신호 처리 방법 및 장치

Publications (1)

Publication Number Publication Date
JP2015527806A true JP2015527806A (ja) 2015-09-17

Family

ID=49916306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015521547A Pending JP2015527806A (ja) 2012-07-11 2013-07-10 ビデオ信号処理方法及び装置

Country Status (11)

Country Link
US (1) US20150195569A1 (ja)
EP (1) EP2854393A4 (ja)
JP (1) JP2015527806A (ja)
KR (1) KR20150034729A (ja)
CN (1) CN104541507A (ja)
AU (1) AU2013287481B2 (ja)
CA (1) CA2878160C (ja)
IN (1) IN2014KN03053A (ja)
MX (1) MX340482B (ja)
RU (1) RU2609753C2 (ja)
WO (1) WO2014010935A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2733933A1 (en) * 2012-09-19 2014-05-21 Thomson Licensing Method and apparatus of compensating illumination variations in a sequence of images
US9800895B2 (en) * 2013-06-27 2017-10-24 Qualcomm Incorporated Depth oriented inter-view motion vector prediction
WO2017035833A1 (en) * 2015-09-06 2017-03-09 Mediatek Inc. Neighboring-derived prediction offset (npo)
US11250780B2 (en) 2019-08-15 2022-02-15 Samsung Display Co., Ltd. Estimation of pixel compensation coefficients by adaptation
US11087656B2 (en) 2019-08-15 2021-08-10 Samsung Display Co., Ltd. Fully differential front end for sensing
US11069282B2 (en) 2019-08-15 2021-07-20 Samsung Display Co., Ltd. Correlated double sampling pixel sensing front end
CN111031319B (zh) * 2019-12-13 2022-04-19 浙江大华技术股份有限公司 一种局部光照补偿预测方法、终端设备及计算机存储介质
US11081064B1 (en) 2020-01-13 2021-08-03 Samsung Display Co., Ltd. Reference signal generation by reusing the driver circuit
US11257416B2 (en) 2020-02-14 2022-02-22 Samsung Display Co., Ltd. Voltage mode pre-emphasis with floating phase
KR20210112042A (ko) * 2020-03-04 2021-09-14 에스케이하이닉스 주식회사 이미지 센싱 장치 및 그의 동작 방법
US11719738B2 (en) 2020-10-15 2023-08-08 Samsung Display Co., Ltd. Two-domain two-stage sensing front-end circuits and systems
CN113014905B (zh) * 2021-02-24 2023-04-14 北京金山云网络技术有限公司 图像帧的生成方法及装置、存储介质、电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010092772A1 (ja) * 2009-02-12 2010-08-19 日本電信電話株式会社 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
WO2012081877A2 (ko) * 2010-12-14 2012-06-21 삼성전자 주식회사 다시점 비디오 부호화/복호화 장치 및 방법

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050114751A (ko) * 2004-06-01 2005-12-06 경희대학교 산학협력단 예측 부호화/복호화 장치 및 예측 부호화/복호화 방법
CN101375593A (zh) * 2006-01-12 2009-02-25 Lg电子株式会社 处理多视图视频
DE202007019463U1 (de) * 2006-01-12 2012-10-09 Lg Electronics Inc. Multiview-Video-Verarbeitungsvorrichtung
WO2008123753A1 (en) * 2007-04-09 2008-10-16 Lg Electronics Inc. A method and an apparatus for processing a video signal
TW200910975A (en) * 2007-06-25 2009-03-01 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
JP5346076B2 (ja) * 2008-04-25 2013-11-20 トムソン ライセンシング 奥行きを用いた視点間スキップモード
CN101931803B (zh) * 2009-06-26 2013-01-09 华为技术有限公司 视频图像运动信息获取方法、装置及设备、模板构造方法
WO2011037420A2 (ko) * 2009-09-25 2011-03-31 에스케이텔레콤 주식회사 인접 화소를 이용한 인터 예측 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
KR101432767B1 (ko) * 2009-10-20 2014-08-26 에스케이텔레콤 주식회사 움직임 정보 기반의 인접 화소를 이용한 인터 예측 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
KR20110068792A (ko) * 2009-12-16 2011-06-22 한국전자통신연구원 적응적 영상 부호화 장치 및 방법
KR20110071047A (ko) * 2009-12-20 2011-06-28 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010092772A1 (ja) * 2009-02-12 2010-08-19 日本電信電話株式会社 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
WO2012081877A2 (ko) * 2010-12-14 2012-06-21 삼성전자 주식회사 다시점 비디오 부호화/복호화 장치 및 방법

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JPN6016006380; Hongbin Liu et al.: 3D-CE1.h related: Illumination Compensation for Inter-View Prediction , 20120720, Joint Collaborative Team on 3D Video Coding Extens *
JPN6016006382; Jianle Chen et al.: Chroma intra prediction by reconstructed luma samples , 20101007, Joint Collaborative Team on Video Coding (JCT-VC) *
JPN6016029248; Philippe Bordes: Weighted Prediction , 20110714, Joint Collaborative Team on Video Coding (JCT-VC) *

Also Published As

Publication number Publication date
WO2014010935A1 (ko) 2014-01-16
EP2854393A1 (en) 2015-04-01
RU2609753C2 (ru) 2017-02-02
AU2013287481B2 (en) 2015-12-10
CA2878160C (en) 2017-06-20
RU2015104394A (ru) 2016-08-27
MX340482B (es) 2016-07-08
EP2854393A4 (en) 2015-12-30
KR20150034729A (ko) 2015-04-03
US20150195569A1 (en) 2015-07-09
AU2013287481A1 (en) 2015-01-29
IN2014KN03053A (ja) 2015-05-08
CA2878160A1 (en) 2014-01-16
MX2015000288A (es) 2015-04-10
CN104541507A (zh) 2015-04-22

Similar Documents

Publication Publication Date Title
JP2015527806A (ja) ビデオ信号処理方法及び装置
CN111971960B (zh) 用于基于帧间预测模式处理图像的方法及其装置
CN112385213B (zh) 基于帧间预测模式处理图像的方法和用于该方法的设备
CN113424529A (zh) 用于执行基于mrl的帧内预测的图像编译方法和装置
JP6231560B2 (ja) ビデオ信号処理方法およびビデオ信号処理装置
CN116156189A (zh) 视频编码和解码方法、存储介质以及图像数据的传输方法
KR20160002716A (ko) 비디오 신호 처리 방법 및 장치
EP4113995A1 (en) Inter-prediction-based image encoding/decoding method and apparatus, and recording medium storing bitstream
JP2015527805A (ja) ビデオ信号処理方法及び装置
JP6280128B2 (ja) 多視点ビデオ信号の処理方法及び装置
CN114270835A (zh) 基于默认合并模式推导预测样本的图像解码方法及其装置
CN113508583A (zh) 基于帧内块编译的视频或图像编译
US9602831B2 (en) Method and apparatus for processing video signals
CA2897299C (en) Method and apparatus for processing video signal
JP6594773B2 (ja) ビデオ信号処理方法及び装置
JP2024019432A (ja) 決定された予測モードを適用して予測サンプルを生成する映像デコーディング方法及びその装置
US20240137560A1 (en) Intra prediction method and device based on intra prediction mode derivation
JP2015534416A (ja) ビデオ信号処理方法及び装置
JP6196372B2 (ja) ビデオ信号処理方法及び装置
CN117337565A (zh) 基于多个dimd模式的帧内预测方法和装置
CN113273210A (zh) 用于编译关于合并数据的信息的方法和装置
CN117356091A (zh) 使用辅mpm列表的帧内预测方法和装置
CN115211121A (zh) Ph nal单元编码相关图像解码方法及其装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161102

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161129