JPWO2015141549A1 - 動画像符号化装置及び方法、及び、動画像復号装置及び方法 - Google Patents

動画像符号化装置及び方法、及び、動画像復号装置及び方法 Download PDF

Info

Publication number
JPWO2015141549A1
JPWO2015141549A1 JP2016508681A JP2016508681A JPWO2015141549A1 JP WO2015141549 A1 JPWO2015141549 A1 JP WO2015141549A1 JP 2016508681 A JP2016508681 A JP 2016508681A JP 2016508681 A JP2016508681 A JP 2016508681A JP WO2015141549 A1 JPWO2015141549 A1 JP WO2015141549A1
Authority
JP
Japan
Prior art keywords
information
motion information
image
encoding
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016508681A
Other languages
English (en)
Inventor
信哉 志水
信哉 志水
志織 杉本
志織 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2015141549A1 publication Critical patent/JPWO2015141549A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

多視点動画像の1フレームを符号化する際に、符号化対象画像の視点とは異なる参照視点に対する参照視点画像の動き情報を用いて、異なる視点間で予測しながら、前記符号化対象画像を分割した符号化対象領域毎に符号化を行う。前記符号化対象領域に対して前記参照視点画像上の対応領域を示す情報と前記参照視点画像の動き情報とから、当該対応領域の仮動き情報を設定する。前記仮動き情報によって示される参照視点上の領域における、前記符号化対象画像の視点に対する視差情報と、前記対応領域を示す情報とを用いて前記仮動き情報を変換することにより、前記符号化対象領域に対する動き情報を生成する。

Description

本発明は、多視点動画像を符号化及び復号する動画像符号化装置、動画像復号装置、動画像符号化方法、及び、動画像復号方法に関する。
本願は、2014年3月20日に出願された特願2014−058903号に基づき優先権を主張し、その内容をここに援用する。
従来から、複数のカメラで同じ被写体と背景を撮影した複数の画像からなる多視点画像(Multiview images:マルチビューイメージ)が知られている。この複数のカメラで撮影した動画像のことを多視点動画像(または多視点映像)という。
以下の説明では、1つのカメラで撮影された画像(動画像)を”2次元画像(2次元動画像)”と称し、同じ被写体と背景とを位置や向き(以下、視点と称する)が異なる複数のカメラで撮影した2次元画像(2次元動画像)群を”多視点画像(多視点動画像)”と称する。
2次元動画像は、時間方向に関して強い相関があり、その相関を利用することによって符号化効率を高めることができる。一方、多視点画像や多視点動画像では、各カメラが同期されている場合、各カメラの映像の同じ時刻に対応するフレーム(画像)は、全く同じ状態の被写体と背景を別の位置から撮影したものであるので、カメラ間(同じ時刻の異なる2次元画像間)で強い相関がある。多視点画像や多視点動画像の符号化においては、この相関を利用することによって符号化効率を高めることができる。
ここで、2次元動画像の符号化技術に関する従来技術を説明する。国際符号化標準であるH.264、MPEG−2、MPEG−4をはじめとした従来の多くの2次元動画像符号化方式では、動き補償予測、直交変換、量子化、エントロピー符号化という技術を利用して、高効率な符号化を行う。例えば、H.264では、過去あるいは未来の複数枚のフレームと符号化対象フレームとの時間相関を利用した符号化が可能である。
H.264で使われている動き補償予測技術の詳細については、例えば非特許文献1に記載されている。H.264で使われている動き補償予測技術の概要を説明する。
H.264の動き補償予測は、符号化対象フレームを様々なサイズのブロックに分割し、各ブロックで異なる動きベクトルと異なる参照フレームを持つことを許可している。各ブロックで異なる動きベクトルを使用することで、被写体毎に異なる動きを補償した精度の高い予測を実現している。一方、各ブロックで異なる参照フレームを使用することで、時間変化によって生じるオクルージョンを考慮した精度の高い予測を実現している。
次に、従来の多視点画像や多視点動画像の符号化方式について説明する。
多視点画像の符号化方法と、多視点動画像の符号化方法との違いは、多視点動画像にはカメラ間の相関に加えて、時間方向の相関が同時に存在するということである。しかし、どちらの場合でも、同じ方法でカメラ間の相関を利用することができる。そのため、ここでは多視点動画像の符号化において用いられる方法について説明する。
多視点動画像の符号化については、カメラ間の相関を利用するために、動き補償予測を同じ時刻の異なるカメラで撮影された画像に適用した”視差補償予測”によって高効率に多視点動画像を符号化する方式が従来から存在する。ここで、視差とは、異なる位置に配置されたカメラの画像平面上で、被写体上の同じ部分が存在する位置の差である。
図8は、カメラ(第1のカメラと第2のカメラ)間で生じる視差を示す概念図である。図8に示す概念図では、光軸が平行なカメラの画像平面を垂直に見下ろしたものとなっている。このように、異なるカメラの画像平面上で被写体上の同じ部分が投影される位置は、一般的に対応点と呼ばれる。
視差補償予測では、この対応関係に基づいて、符号化対象フレームの各画素値を参照フレームから予測して、その予測残差と、対応関係を示す視差情報とを符号化する。視差は対象とするカメラ対や位置毎に変化するため、視差補償予測を行う領域毎に視差情報を符号化することが必要である。
実際に、H.264の多視点動画像符号化方式では、視差補償予測を用いるブロック毎に視差情報を表すベクトルを符号化している。
なお、視差情報によって与えられる対応関係は、カメラパラメータを用いることで、エピポーラ幾何拘束に基づき、2次元ベクトルではなく、被写体の3次元位置を示す1次元量で表すこともある。
被写体の3次元位置を示す情報としては、様々な表現が存在するが、基準となるカメラから被写体までの距離や、カメラの画像平面と平行ではない軸上の座標値を用いることが多い。なお、距離ではなく距離の逆数を用いる場合もある。また、距離の逆数は視差に比例する情報となるため、基準となるカメラを2つ設定し、それらのカメラで撮影された画像間での視差量として表現する場合もある。
どのような表現を用いたとしても本質的な違いはないため、以下では、表現による区別をせずに、それら3次元位置を示す情報をデプスと表現する。
多視点映像では、画像信号の他に動き情報についてもカメラ間で相関がある。非特許文献2では、そのような相関を利用するために、視差によって得られる対応関係に基づいて、符号化対象フレームの動き情報を参照フレームから推定する“視点間動きベクトル予測”によって、動き情報の符号化にかかる符号量を削減し、効率的な多視点動画像の符号化を実現している。
ITU-T Recommendation H.264 (03/2009), "Advanced video coding for generic audiovisual services", March, 2009. J. Konieczny and M. Domanski, "Depth-based interview prediction of motion vectors for improved multiview video coding," in Proc. 3DTV-CON2010, June 2010.
しかしながら、非特許文献2に記載の方法では、視差によって得られる対応関係に基づいて、参照フレームにおける動き情報を符号化対象フレームの動き情報とするため、参照フレームにおける動き情報と符号化対象フレームにおける実際の動き情報が一致していない場合、誤った動き情報を用いた画像信号の予測が行われ、画像信号の予測残差の符号化にかかる符号量が増加してしまうという問題がある。
この問題に対して、参照フレームの動き情報を複写するのではなく、参照フレームの動き情報を予測動き情報として用い、符号化対象フレームに対する動き情報を予測符号化することで、画像信号の予測残差の符号化にかかる符号量の増加を防ぎつつ、カメラ間の動き情報についての相関を利用した符号化を可能にする方法が考えられる。
一般に、被写体の運動は3次元空間で行われる自由な運動である。そのため、特定のカメラで観測される運動はそのような3次元運動を、カメラの投影面である2次元平面へ写像した結果になる。
2つの異なるカメラの投影面へ3次元運動を投影した際に、その動き情報が一致するためには、2つのカメラが平行に配置されており、3次元運動がカメラの光軸に対して垂直な平面で行われたときだけである。つまり、そのような特定の条件を満たさない場合、視点の異なるフレームに対する動き情報のカメラ間相関は低い。そのため、非特許文献2に記載の方法で生成された動き情報を予測に用いたとしても、精度の高い動き情報の予測が行えず、動き情報の符号化にかかる符号量を削減することができないという問題がある。
本発明は、このような事情に鑑みてなされたもので、視点の異なるフレームに対する動き情報におけるカメラ間相関が低い場合でも、動き情報に対して精度の高い予測を実現し、高効率な符号化を実現することができる動画像符号化装置、動画像復号装置、動画像符号化方法、及び、動画像復号方法を提供することを目的とする。
本発明は、複数の異なる視点の動画像からなる多視点動画像の1フレームを符号化する際に、符号化対象画像の視点とは異なる参照視点に対する参照視点画像の動き情報である参照視点動き情報を用いて、異なる視点間で予測しながら、前記符号化対象画像を分割した領域である符号化対象領域毎に符号化を行う動画像符号化装置であって、
前記符号化対象領域に対して、前記参照視点画像上の対応領域を示す符号化対象領域視差情報を設定する符号化対象領域視差情報設定手段と、
前記参照視点動き情報から、前記符号化対象領域視差情報によって示される前記参照視点画像上の対応領域の仮動き情報を設定する仮動き情報設定手段と、
前記仮動き情報によって示される参照視点上の領域における、前記符号化対象画像の視点に対する視差情報である過去視差情報を設定する過去視差情報設定手段と、
前記符号化対象領域視差情報と前記過去視差情報とを用いて前記仮動き情報を変換することにより、前記符号化対象領域に対する動き情報を生成する動き情報生成手段と
を有することを特徴とする動画像符号化装置を提供する。
典型例として、前記動き情報生成手段は、前記符号化対象領域視差情報と前記過去視差情報とを用いて、前記仮動き情報から被写体の三次元空間における動き情報を復元し、当該復元された動き情報を前記符号化対象画像へ投影することで、前記符号化対象領域に対する動き情報を生成する。
別の典型例として、上記動画像符号化装置は、前記参照画像上の対応領域を小領域へと分割する参照対象領域分割手段をさらに有し、
前記仮動き情報設定手段は、前記小領域毎に前記仮動き情報を設定し、
前記動き情報生成手段は、前記小領域毎に前記動き情報を生成する。
この場合、前記過去視差情報設定手段は、前記小領域毎に前記過去視差情報を設定するようにしても良い。
好適例として、前記符号化対象領域視差情報設定手段は、前記多視点動画像中の被写体に対するデプスマップから、前記符号化対象領域視差情報を設定する。
別の好適例として、前記過去視差情報設定手段は、前記多視点動画像中の被写体に対するデプスマップから、前記過去視差情報を設定する。
別の好適例として、前記参照画像上の対応領域における前記符号化対象画像の視点に対する視差情報である現在視差情報を設定する現在視差情報設定手段をさらに有し、
前記動き情報生成手段は、前記現在視差情報と前記過去視差情報とを用いて、前記仮動き情報を変換する。
前記現在視差情報設定手段は、前記多視点動画像中の被写体に対するデプスマップから、前記現在視差情報を設定するようにしても良い。
更に、前記動き情報生成手段は、前記符号化対象視差情報と前記過去視差情報と前記仮動き情報との和によって、前記符号化対象領域に対する動き情報を生成するようにしても良い。
本発明は、複数の異なる視点の動画像からなる多視点動画像の符号データから、復号対象画像を復号する際に、復号対象画像の視点とは異なる参照視点に対する参照視点画像の動き情報である参照視点動き情報を用いて、異なる視点間で予測しながら、前記復号対象画像を分割した領域である復号対象領域毎に復号を行う動画像復号装置であって、
前記復号対象領域に対して、前記参照視点画像上の対応領域を示す復号対象領域視差情報を設定する復号対象領域視差情報設定手段と、
前記参照視点動き情報から、前記復号対象領域視差情報によって示される前記参照視点画像上の対応領域の仮動き情報を設定する仮動き情報設定手段と、
前記仮動き情報によって示される参照視点上の領域における、前記復号対象画像の視点に対する視差情報である過去視差情報を設定する過去視差情報設定手段と、
前記復号対象領域視差情報と前記過去視差情報とを用いて、前記仮動き情報を変換することにより、前記復号対象領域に対する動き情報を生成する動き情報生成手段と
を有することを特徴とする動画像復号装置も提供する。
典型例として、前記動き情報生成手段は、前記復号対象領域視差情報と前記過去視差情報とを用いて、前記仮動き情報から被写体の三次元空間における動き情報を復元し、当該復元された動き情報を前記復号対象画像へ投影することで、前記復号対象領域に対する動き情報を生成する。
別の典型例として、前記参照画像上の対応領域を小領域へと分割する参照対象領域分割手段をさらに有し、
前記仮動き情報設定手段は、前記小領域毎に前記仮動き情報を設定し、
前記動き情報生成手段は、前記小領域毎に前記動き情報を生成する。
この場合、前記過去視差情報設定手段は、前記小領域毎に前記過去視差情報を設定するようにしても良い。
好適例として、前記復号対象領域視差情報設定手段は、前記多視点動画像中の被写体に対するデプスマップから、前記復号対象領域視差情報を設定する。
別の好適例として、前記過去視差情報設定手段は、前記多視点動画像中の被写体に対するデプスマップから、前記過去視差情報を設定する。
別の好適例として、前記参照画像上の対応領域における前記復号対象画像の視点に対する視差情報である現在視差情報を設定する現在視差情報設定手段をさらに有し、
前記動き情報生成手段は、前記現在視差情報と前記過去視差情報とを用いて、前記仮動き情報を変換する。
前記現在視差情報設定手段は、前記多視点動画像中の被写体に対するデプスマップから、前記現在視差情報を設定するようにしても良い。
更に、前記動き情報生成手段は、前記復号対象視差情報と前記過去視差情報と前記仮動き情報との和によって、前記復号対象領域に対する動き情報を生成するようにしても良い。
本発明は、複数の異なる視点の動画像からなる多視点動画像の1フレームを符号化する際に、符号化対象画像の視点とは異なる参照視点に対する参照視点画像の動き情報である参照視点動き情報を用いて、異なる視点間で予測しながら、前記符号化対象画像を分割した領域である符号化対象領域毎に符号化を行う動画像符号化方法であって、
前記符号化対象領域に対して、前記参照視点画像上の対応領域を示す符号化対象領域視差情報を設定する符号化対象領域視差情報設定ステップと、
前記参照視点動き情報から、前記符号化対象領域視差情報によって示される前記参照視点画像上の対応領域の仮動き情報を設定する仮動き情報設定ステップと、
前記仮動き情報によって示される参照視点上の領域における、前記符号化対象画像の視点に対する視差情報である過去視差情報を設定する過去視差情報設定ステップと、
前記符号化対象領域視差情報と前記過去視差情報とを用いて、前記仮動き情報を変換することで、前記符号化対象領域に対する動き情報を生成する動き情報生成ステップと
を備えることを特徴とする動画像符号化方法も提供する。
本発明はまた、複数の異なる視点の動画像からなる多視点動画像の符号データから、復号対象画像を復号する際に、復号対象画像の視点とは異なる参照視点に対する参照視点画像の動き情報である参照視点動き情報を用いて、異なる視点間で予測しながら、前記復号対象画像を分割した領域である復号対象領域毎に復号を行う動画像復号方法であって、
前記復号対象領域に対して、前記参照視点画像上の対応領域を示す復号対象領域視差情報を設定する復号対象領域視差情報設定ステップと、
前記参照視点動き情報から、前記復号対象領域視差情報によって示される前記参照視点画像上の対応領域の仮動き情報を設定する仮動き情報設定ステップと、
前記仮動き情報によって示される参照視点上の領域における、前記復号対象画像の視点に対する視差情報である過去視差情報を設定する過去視差情報設定ステップと、
前記復号対象領域視差情報と前記過去視差情報とを用いて、前記仮動き情報を変換することにより、前記復号対象領域に対する動き情報を生成する動き情報生成ステップと
を備えることを特徴とする動画像復号方法も提供する。
本発明によれば、動き情報の視点間相関が低い場合においても、物体の三次元的な運動に基づいた変換によって、動き情報について精度の高い予測を実現することが可能となり、少ない符号量で多視点動画像を符号化することができるという効果が得られる。
本発明の実施形態における動画像符号化装置の構成を示すブロック図である。 図1に示す動画像符号化装置100の動作を示すフローチャートである。 図1に示す動き情報生成部106における動き情報を生成する動作(ステップS103)の詳細処理動作を示すフローチャートである。 本発明の実施形態における動画像復号装置の構成を示すブロック図である。 図4に示す動画像復号装置200の動作を示すフローチャートである。 図1に示す動画像符号化装置100をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。 図4に示す動画像復号装置200をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。 カメラ間で生じる視差を示す概念図である。
以下、図面を参照して、本発明の実施形態による動画像符号化装置及び動画像復号装置を説明する。
以下の説明においては、第1の視点(視点Aという)、第2の視点(視点Bという)の2つの視点で撮影された多視点動画像を符号化する場合を想定し、視点Aを参照視点として視点Bの動画像の1フレームを符号化または復号するものとして説明する。
なお、デプス情報から視差を得るために必要となる情報は、必要に応じて別途与えられているものとする。具体的には、視点Aと視点Bの位置関係を表す外部パラメータや、カメラによる画像平面への投影情報を表す内部パラメータであるが、これら以外の形態であってもデプス情報から視差が得られるものであれば、別の情報が与えられていてもよい。
これらのカメラパラメータに関する詳しい説明は、例えば、参考文献「Oliver Faugeras, "Three-Dimension Computer Vision", MIT Press; BCTC/UFF-006.37 F259 1993, ISBN:0-262-06158-9.」に記載されている。この参考文献には、複数のカメラの位置関係を示すパラメータや、カメラによる画像平面への投影情報を表すパラメータに関する説明が記載されている。
図1は本実施形態における動画像符号化装置の構成を示すブロック図である。
動画像符号化装置100は、図1に示すように、符号化対象画像入力部101、符号化対象画像メモリ102、参照視点動き情報入力部103、参照視点動き情報メモリ104、視差情報生成部105、動き情報生成部106、画像符号化部107、画像復号部108、及び、参照画像メモリ109を備えている。
符号化対象画像入力部101は、符号化対象となる画像を動画像符号化装置100に入力する。以下では、この符号化対象となる画像を符号化対象画像と称する。ここでは視点Bに対する動画像を、別途定められた符号化順に従って1フレームずつ入力するものとする。また、符号化対象画像を撮影した視点(ここでは視点B)を符号化対象視点と称する。
符号化対象画像メモリ102は、入力した符号化対象画像を記憶する。
参照視点動き情報入力部103は、参照視点(ここでは視点A)の動画像に対する動き情報(動きベクトルなど)を動画像符号化装置100に入力する。以下では、ここで入力された動き情報を参照視点動き情報と称し、参照視点動き情報が与えられる、符号化対象画像と同時刻のフレームを、参照視点画像と称する。
参照視点動き情報メモリ104は、入力した参照視点動き情報を記憶する。
なお、符号化対象画像や参照視点動き情報が動画像符号化装置100の外部に記憶されており、適切なタイミングで、符号化対象画像入力部101や参照視点動き情報入力部103が、必要な符号対象画像や参照視点動き情報を動画像符号化装置100に入力するのであれば、符号化対象画像メモリ102や参照視点動き情報メモリ104は、備えなくても構わない。
視差情報生成部105は、符号対象画像と参照視点画像との視差情報(視差ベクトル)を生成する。
動き情報生成部106は、参照視点動き情報と視差情報とを用いて、符号化対象画像の動き情報を生成する。
画像符号化部107は、生成された動き情報を用いて、符号化対象画像を予測符号化する。
画像復号部108は、符号化対象画像のビットストリームを復号する。
参照画像メモリ109は、符号化対象画像のビットストリームを復号した際に得られる復号画像を記憶する。
次に、図2を参照して、図1に示す動画像符号化装置100の動作を説明する。図2は、図1に示す動画像符号化装置100の動作を示すフローチャートである。
まず、符号化対象画像入力部101は、符号化対象画像を動画像符号化装置100に入力し、符号化対象画像メモリ102に記憶する。参照視点動き情報入力部103は参照視点動き情報を動画像符号化装置100に入力し、参照視点動き情報メモリ104に記憶する(ステップS101)。
なお、ステップS101で入力される参照視点動き情報は、既に符号化済みのものを復号したものなど、復号側で得られるものと同じものとする。これは復号装置で得られるものと全く同じ情報を用いることで、ドリフト等の符号化ノイズの発生を抑えるためである。ただし、そのような符号化ノイズの発生を許容する場合には、符号化前のものなど、符号化側でしか得られないものが入力されてもよい。
参照視点動き情報は、参照視点画像を符号化する際に使用された動き情報を用いてもよいし、参照視点に対して別途符号化されたものでもよい。また、参照視点に対する動画像を復号し、そこから推定して得られた動き情報を用いることも可能である。
符号化対象画像および参照視点動き情報の入力が終了したら、符号化対象画像を予め定められた大きさの領域に分割し、分割した領域毎に、符号化対象画像の画像信号を符号化する(ステップS102〜S107)。
すなわち、符号化対象領域インデックスをblk、1フレーム中の総符号化対象領域数をnumBlksで表すとすると、blkを0で初期化し(ステップS102)、その後、blkに1を加算しながら(ステップS106)、blkがnumBlksになるまで(ステップS107)、以下の処理(ステップS103〜S105)を繰り返す。
一般的な符号化では、16画素×16画素のマクロブロックと呼ばれる処理単位ブロックへ分割するが、復号側と同じであればその他の大きさのブロックに分割してもよい。また、場所毎に異なる大きさのブロックに分割しても構わない。
符号化対象領域毎に繰り返される処理では、まず、動き情報生成部106は、符号化対象領域blkにおける動き情報mvを生成する(ステップS103)。ここでの処理は後で詳しく説明する。
符号化対象領域blkに対する動き情報が得られたら、画像符号化部107は、動き情報mvを用いて、参照画像メモリ109に記憶された画像を参照しながら、符号化対象領域blkに対する画像信号(画素値)を予測符号化する(ステップS104)。符号化の結果得られるビットストリームが動画像符号化装置100の出力となる。
なお、符号化する方法には、どのような方法を用いてもよい。MPEG−2やH.264/AVCなどの一般的な符号化では、ブロックblkの画像信号と予測画像との差分信号に対して、DCTなどの周波数変換、量子化、2値化、エントロピー符号化を順に施すことで符号化を行う。
また、生成された動き情報mvをどのように用いて符号化を行っても構わない。例えば、動き情報mvによる動き補償予測画像を予測画像として、符号化対象領域blkの画像信号を符号化しても構わない。
別の方法としては、mvに対する補正ベクトルcmvを設定・符号化し、mvをcmvで補正した動き情報に従って生成した動き補償予測画像を予測画像として、符号化対象領域blkの画像信号を符号化しても構わない。この場合、cmvに対するビットストリームも一緒に出力されることになる。
次に、画像復号部108は、ビットストリーム、動き情報mv及び参照画像メモリ109に記憶された画像を用いて、ブロックblkに対する画像信号を復号し、復号結果である復号画像を参照画像メモリ109に記憶する(ステップS105)。
ここでは、符号化時に用いた手法に対応する手法を用いる。例えば、MPEG−2やH.264/AVCなどの一般的な符号化であれば、ビットストリームに対して、エントロピー復号、逆2値化、逆量子化、IDCTなどの周波数逆変換を順に施し、得られた2次元信号に対して予測画像を加え、最後に画素値の値域でクリッピングを行うことで当該画像信号を復号する。
なお、符号化側での処理がロスレスになる直前のデータと予測画像を受け取り、簡略化した復号処理によって復号処理を行ってもよい。すなわち、前述の例であれば符号化時に量子化処理を加えた後の値と予測画像を受け取り、その量子化後の値に逆量子化、周波数逆変換を順に施して得られた2次元信号に対して予測画像を加え、画素値の値域でクリッピングを行うことで当該画像信号を復号してもよい。
次に、図3を参照して、図1に示す動き情報生成部106が、符号化対象領域blkにおける動き情報を生成する処理(図2に示すステップS103)の詳細を説明する。図3は、当該生成処理の詳細を示すフローチャートである。
動き情報を生成する処理では、まず、視差情報生成部105は、符号化対象領域blkにおける参照視点画像との視差ベクトルdvblk(本発明の符号化対象領域視差情報に対応)を設定する(ステップS1401)。
ここでの処理には、復号側で同じ処理が実現できるのであれば、どのような方法を用いても構わない。
例えば、符号化対象領域blkの周辺領域を符号化する際に使用された視差ベクトルや、符号化対象画像全体や符号化対象領域を含む部分画像に対して設定されたグローバル視差ベクトル、符号化対象領域に対して別途設定し符号化される視差ベクトルなどを用いることが可能である。また、異なる領域や過去に符号化された画像で使用した視差ベクトルを記憶しておいて用いるようにしてもよい。
なお、複数の視差ベクトル候補を設定し、それらの平均ベクトルを用いても構わないし、それらの中から何らかの基準(最頻、中央、最大ノルム、最小ノルムなど)によって1つの視差ベクトルを選択することで決定しても構わない。
もし、記憶されていた視差ベクトルの対象が参照視点とは異なる視点だった場合は、参照視点との位置関係に従ってスケーリングすることで変換を加えても構わない。
別の方法としては、符号化対象画像に対するデプスマップを別途動画像符号化装置に入力するものとし、符号化対象領域blkと同じ位置のデプスマップに基づいて、参照視点画像に対する視差情報を設定しても構わない。
さらに別の方法としては、符号化対象視点とは異なる視点の1つをデプス視点とするとき、デプス視点に対するデプスマップを別途入力し、そのデプスマップを用いて求めても構わない。
具体的には、符号化対象領域blkにおける符号化対象視点とデプス視点の視差DVを推定し、blk+DVによって得られる位置のデプスマップに基づいて、参照視点画像に対する視差情報を設定しても構わない。
次に、視差情報dvblkによって対応づけられる参照視点上の対応領域cblkを求める(ステップS1402)。具体的には、blkに対して、上記生成された視差情報を加えることdvblkで求める。なお、対応領域cblkは、視差情報dvblkで示される参照視点画像上の領域となる。
対応領域cblkが得られたら、視差情報生成部105は、対応領域cblkにおける符号化対象画像との視差ベクトルdv_srcblk(本発明の現在視差情報に対応)を設定する(ステップS1403)。
ここでの処理は、対象とする領域や始点と終点に対応する視点が異なるだけでステップS1401と同様であり、どのような方法を用いても構わない。なお、ステップS1401と同じ方法を用いなくても構わない。
また、処理を簡略化するために、dv_srcblk=−dvblkとしても構わない。
さらに、簡略化する方法と通常の方法を適応的に選択しても構わない。例えば、dvblkの精度(信頼度)を推定して、それに基づいて簡略化するか否かを決定しても構わない。
次に、動き情報生成部106は、対応領域cblkに対して記憶されている参照視点動き情報から、仮動き情報tmvを設定する(ステップS1404)。
なお、対応領域内に複数の動き情報が存在する場合は、その中から1つの動き情報を選択する。どのような基準で選択しても構わないが、例えば、対応領域の中心に対して記憶されている動き情報を選択しても構わないし、対応領域の中で最も広い領域に対して設定されている動き情報を選択しても構わない。
また、H.264等のように参照フレームリスト毎に異なる動きを設定した動き情報を用いる場合、参照フレームリスト毎に動きを選択して得られる動き情報を設定しても構わない。
仮動き情報tmvが得られたら、動き情報生成部106は、当該仮動き情報によって対応づけられる参照視点上の参照領域rblkを求める(ステップS1405)。具体的には、対応領域cblkに対して、仮動き情報tmvを加えることで求める。なお、参照領域rblkは、仮動き情報によって示される、時間的に異なるフレーム上の領域となる。
参照領域rblkが得られたら、視差情報生成部105は、参照領域rblkにおける符号化対象画像との視差ベクトルdv_dstblk(本発明の過去視差情報に対応)を設定する(ステップS1406)。
ここでの処理は、対象とする領域や視点と終点に対応する視点が異なるだけでステップS1401やS1403と同様であり、どのような方法を用いても構わない。なお、ステップS1401やS1403と同じ方法を用いなくても構わない。
最後に、動き情報生成部106は、dv_srcblk、dv_dstblk、tmvを用いて、符号化対象領域blkに対する動き情報mvを、次の(1)式に従って求める(ステップS1407)。
mv=tmv+dv_dstblk−dv_srcblk ・・・(1)
なお、前述の説明では、動き情報mvをそのまま符号化対象領域blkの動き情報として設定したが、時間間隔を予め設定し、その予め定められた時間間隔と動き情報mvが生成される時間間隔に従って、動き情報mvをスケーリングし、元の時間間隔をその予め定められた時間間隔に置き換えて得られる動き情報を設定してもよい。
このようにすることで、異なる領域に対して生成される動き情報が全て同じ時間間隔を持つことになり、動き補償予測時に参照する画像を統一し、アクセスするメモリ空間を限定することが可能となる。
なお、アクセスするメモリ空間が限定されることによって、キャッシュヒット(目当てのデータがキャッシュ領域に存在して、読みだせること)をさせて、処理速度を向上することが可能となる。
また、前述の説明では、全ての対応領域cblkに対して、参照視点動き情報が存在しているとしているが、対応領域cblkにおいてイントラ予測が行われている場合など、参照視点動き情報が存在しない可能性もある。そのような場合は、動き情報が得られないとして、処理を終了しても構わないし、予め定められた方法で動き情報を設定しても構わない。
対応領域cblkにおいて参照視点動き情報が存在しない場合に、仮動き情報を設定する方法としては、例えば、予め定められた時間間隔とゼロベクトルからなる仮動き情報を設定しても構わないし、直前に処理した符号化対象領域に対して生成した仮動き情報を記憶しておき、記憶されている仮動き情報を設定しても構わない。
なお、記憶する仮動き情報は一定のタイミングでゼロベクトルへとリセットするようにしても構わない。
また、対応領域cblkに対して参照視点動き情報が存在しなかった場合、仮動き情報を設定せずに、予め定められた方法で符号化対象領域blkに対する動き情報mvを直接生成しても構わない。例えば、予め定められた時間間隔とゼロベクトルからなる動き情報を設定しても構わない。
更に、前述の説明では、符号化対象領域blk全体に対して、1つの動き情報を生成しているが(参照フレームや予測方向毎に、複数の動きベクトルと参照フレームを含んでも構わない)、符号化対象領域を小領域に分割し、その小領域毎に動き情報を生成しても構わない。
その場合、図3に示した処理を小領域毎に繰り返しても構わないし、図3の一部の処理(例えばS1402〜1407)のみを小領域毎に繰り返すものとしても構わない。
次に、本実施形態における動画像復号装置について説明する。図4は本実施形態における動画像復号装置の構成を示すブロック図である。
動画像復号装置200は、図4に示すように、ビットストリーム入力部201、ビットストリームメモリ202、参照視点動き情報入力部203、参照視点動き情報メモリ204、視差情報生成部205、動き情報生成部206、画像復号部207、及び、参照画像メモリ208を備えている。
ビットストリーム入力部201は、復号対象となる動画像のビットストリームを動画像復号装置200に入力する。以下では、この復号対象となる動画像の1フレームを復号対象画像と呼ぶ。ここでは視点Bの動画像の1フレームを指す。また、以下では、復号対象画像を撮影した視点(ここでは視点B)を復号対象視点と呼ぶ。
ビットストリームメモリ202は、入力した復号対象画像に対するビットストリームを記憶する。
参照視点動き情報入力部203は、参照視点(ここでは視点A)の動画像に対する動き情報(動きベクトルなど)を動画像復号装置200に入力する。以下では、ここで入力された動き情報を参照視点動き情報、参照視点動き情報が与えられる、復号対象画像と同時刻のフレームを、参照視点画像と称する。
参照視点動き情報メモリ204は、入力した参照視点動き情報を記憶する。
なお、ビットストリームや参照視点動き情報が動画像復号装置200の外部に記憶されており、適切なタイミングで、ビットストリーム入力部201や参照視点動き情報入力部203が、必要なビットストリームや参照視点動き情報を動画像復号装置200に入力するのであれば、ビットストリームメモリ202や参照視点動き情報メモリ204は備えなくても構わない。
視差情報生成部205は、復号対象画像と参照視点画像との視差情報(視差ベクトル)を生成する。
動き情報生成部206は、参照視点動き情報と視差情報とを用いて、復号対象画像の動き情報を生成する。
画像復号部207は、生成された動き情報を用いて、ビットストリームから復号対象画像を復号して出力する。
参照画像メモリ208は、得られた復号対象画像を、以降の復号のために記憶する。
次に、図5を参照して、図4に示す動画像復号装置200の動作を説明する。図5は、図4に示す動画像復号装置200の動作を示すフローチャートである。
まず、ビットストリーム入力部201は、復号対象画像を符号化した結果のビットストリームを動画像復号装置200に入力し、ビットストリームメモリ202に記憶する。参照視点動き情報入力部203は参照視点動き情報を動画像復号装置200に入力し、参照視点動き情報メモリ204に記憶する(ステップS201)。
なお、ステップS201で入力される参照視点動き情報は、符号化側で使用されたものと同じものとする。これは動画像符号化装置で得られるものと全く同じ情報を用いることで、ドリフト等の符号化ノイズの発生を抑えるためである。ただし、そのような符号化ノイズの発生を許容する場合には、符号化時に使用されたものと異なるものが入力されてもよい。
参照視点動き情報は、参照視点画像を復号する際に使用された動き情報を用いてもよいし、参照視点に対して別途符号化されたものでもよい。また、参照視点に対する動画像を復号し、そこから推定して得られた動き情報を用いることも可能である。
ビットストリームおよび参照視点動き情報の入力が終了したら、復号対象画像を予め定められた大きさの領域に分割し、分割した領域毎に、復号対象画像の映像信号をビットストリームから復号する(ステップS202〜S206)。
すなわち、復号対象領域インデックスをblk、1フレーム中の総復号対象領域数をnumBlksで表すとすると、blkを0で初期化し(ステップS202)、その後、blkに1を加算しながら(ステップS205)、blkがnumBlksになるまで(ステップS206)、以下の処理(ステップS203、S204)を繰り返す。
一般的な復号では、16画素×16画素のマクロブロックと呼ばれる処理単位ブロックへ分割するが、符号化側と同じであればその他の大きさのブロックに分割してもよい。また、場所毎に異なる大きさのブロックに分割しても構わない。
復号対象領域毎に繰り返される処理において、まず、動き情報生成部206は、復号対象領域blkにおける動き情報mvを生成する(ステップS203)。ここでの処理は、“符号化”と“復号”が異なるだけで、前述したステップS103と同様である。
復号対象領域blkに対する動き情報mvが得られたら、画像復号部207は、その動き情報mvを用いて、参照画像メモリ208に記憶された画像を参照しながら、ビットストリームから、復号対象領域blkに対する復号対象画像の画像信号(画素値)を復号する(ステップS204)。得られた復号対象画像は参照画像メモリ208に記憶されると共に、動画像復号装置200の出力となる。
復号対象画像の復号には、符号化時に用いられた方法に対応する方法を用いる。例えば、MPEG−2やH.264/AVCなどの一般的な符号化が用いられている場合は、符号データに対して、エントロピー復号、逆2値化、逆量子化、IDCTなどの周波数逆変換を順に施し、得られた2次元信号に対して予測画像を加え、最後に画素値の値域でクリッピングを行うことで当該画像信号を復号する。
なお、生成された動き情報mvをどのように用いて復号を行っても構わない。例えば、動き情報mvによる動き補償予測画像を予測画像として、復号対象領域blkの映像信号を復号しても構わない。
別の方法としては、mvに対する補正ベクトルcmvをビットストリームから復号し、mvをcmvで補正した動き情報に従って生成した動き補償予測画像を予測画像として、復号対象領域blkの画像信号を復号しても構わない。この場合、cmvに対するビットストリームが、当該動画像復号装置に入力されたビットストリーム内に含まれているか、別途与えられる必要がある。
なお、前述した説明では、1フレームを符号化及び復号する処理を説明したが、複数フレーム繰り返すことで動画像を符号化することができる。なお、動画像の全てのフレームに適用しなくても構わない。
また、前述した説明においては、画像全体を符号化/復号する処理として説明したが、画像の一部分のみに適用することも可能である。この場合、処理を適用するか否かを判断して、それを示すフラグを符号化または復号してもよいし、なんらか別の手段でそれを指定してもよい。例えば、領域毎の予測画像を生成する手法を示すモードの1つとして表現するようにしてもよい。
更に、前述した説明では、動画像符号化装置及び動画像復号装置の構成及び処理動作を説明したが、これら動画像符号化装置及び動画像復号装置の各部の動作に対応した処理動作によって、本発明の動画像符号化方法及び動画像復号方法を実現することができる。
このように、処理対象の視点における動き情報を生成する際に、既存の動き情報を直接再利用するのではなく、符号化または復号の処理対象の視点とは異なる視点に対する動き情報を用いて、既存の動き情報に対応する三次元空間での動き情報を考慮し、処理対象の視点とは異なる視点に対する動き情報に変換を加えて利用する。これにより、視点の異なるフレーム上の動き情報におけるカメラ間相関が低い場合でも、動き情報について精度の高い予測を実現することが可能となり、少ない符号量で多視点動画像を符号化することができる。
図6は、前述した動画像符号化装置100をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。図6に示すシステムは:

・プログラムを実行するCPU50
・CPU50がアクセスするプログラムやデータが格納されるRAM等のメモリ51
・カメラ等からの符号化対象の映像信号を動画像符号化装置内に入力する符号化対象画像入力部52(ディスク装置等による映像信号を記憶する記憶部でもよい)
・メモリ等から参照視点の動き情報を動画像符号化装置内に入力する参照視点動き情報入力部53(ディスク装置等による動き情報を記憶する記憶部でもよい)
・動画像符号化処理をCPU50に実行させるソフトウェアプログラムである動画像符号化プログラム541が格納されたプログラム記憶装置54
・CPU50がメモリ51にロードされた動画像符号化プログラム541を実行することにより生成されたビットストリームを、例えばネットワークを介して出力するビットストリーム出力部55(ディスク装置等によるビットストリームを記憶する記憶部でもよい)
とが、バスで接続された構成になっている。
図7は、前述した動画像復号装置200をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。図7に示すシステムは:

・プログラムを実行するCPU60
・CPU60がアクセスするプログラムやデータが格納されるRAM等のメモリ61
・動画像符号化装置が本手法により符号化したビットストリームを動画像復号装置内に入力するビットストリーム入力部62(ディスク装置等によるビットストリームを記憶する記憶部でもよい)
・メモリ等からの参照視点の動き情報を動画像復号装置内に入力する参照視点動き情報入力部63(ディスク装置等による動き情報を記憶する記憶部でもよい)
・動画像復号処理をCPU60に実行させるソフトウェアプログラムである動画像復号プログラム641が格納されたプログラム記憶装置64
・CPU60がメモリ61にロードされた動画像復号プログラム641を実行することにより、ビットストリームを復号して得られた復号対象画像を、再生装置などに出力する復号対象画像出力部65(ディスク装置等による画像信号を記憶する記憶部でもよい)
とが、バスで接続された構成になっている。
前述した実施形態における動画像符号化装置100及び動画像復号装置200をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。
なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。
また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。
符号化(復号)対象画像を撮影した視点とは異なる視点から撮影された画像に対する動き情報を用いて、符号化(復号)対象画像の動き情報の推定または予測を行いながら符号化(復号)を行う際に、視点の異なる画像上の動き情報におけるカメラ間相関が低い場合でも、高い符号化効率を達成することが不可欠な用途に適用できる。
100・・・動画像符号化装置
101・・・符号化対象画像入力部
102・・・符号化対象画像メモリ
103・・・参照視点動き情報入力部
104・・・参照視点動き情報メモリ
105・・・視差情報生成部
106・・・動き情報生成部
107・・・画像符号化部
108・・・画像復号部
109・・・参照画像メモリ
200・・・動画像復号装置
201・・・ビットストリーム入力部
202・・・ビットストリームメモリ
203・・・参照視点動き情報入力部
204・・・参照視点動き情報メモリ
205・・・視差情報生成部
206・・・動き情報生成部
207・・・画像復号部
208・・・参照画像メモリ

Claims (20)

  1. 複数の異なる視点の動画像からなる多視点動画像の1フレームを符号化する際に、符号化対象画像の視点とは異なる参照視点に対する参照視点画像の動き情報である参照視点動き情報を用いて、異なる視点間で予測しながら、前記符号化対象画像を分割した領域である符号化対象領域毎に符号化を行う動画像符号化装置であって、
    前記符号化対象領域に対して、前記参照視点画像上の対応領域を示す符号化対象領域視差情報を設定する符号化対象領域視差情報設定手段と、
    前記参照視点動き情報から、前記符号化対象領域視差情報によって示される前記参照視点画像上の対応領域の仮動き情報を設定する仮動き情報設定手段と、
    前記仮動き情報によって示される参照視点上の領域における、前記符号化対象画像の視点に対する視差情報である過去視差情報を設定する過去視差情報設定手段と、
    前記符号化対象領域視差情報と前記過去視差情報とを用いて前記仮動き情報を変換することにより、前記符号化対象領域に対する動き情報を生成する動き情報生成手段と
    を有することを特徴とする動画像符号化装置。
  2. 前記動き情報生成手段は、前記符号化対象領域視差情報と前記過去視差情報とを用いて、前記仮動き情報から被写体の三次元空間における動き情報を復元し、当該復元された動き情報を前記符号化対象画像へ投影することで、前記符号化対象領域に対する動き情報を生成することを特徴とする請求項1に記載の動画像符号化装置。
  3. 前記参照画像上の対応領域を小領域へと分割する参照対象領域分割手段をさらに有し、
    前記仮動き情報設定手段は、前記小領域毎に前記仮動き情報を設定し、
    前記動き情報生成手段は、前記小領域毎に前記動き情報を生成することを特徴とする請求項1に記載の動画像符号化装置。
  4. 前記過去視差情報設定手段は、前記小領域毎に前記過去視差情報を設定することを特徴とする請求項3に記載の動画像符号化装置。
  5. 前記符号化対象領域視差情報設定手段は、前記多視点動画像中の被写体に対するデプスマップから、前記符号化対象領域視差情報を設定することを特徴とする請求項1に記載の動画像符号化装置。
  6. 前記過去視差情報設定手段は、前記多視点動画像中の被写体に対するデプスマップから、前記過去視差情報を設定することを特徴とする請求項1に記載の動画像符号化装置。
  7. 前記参照画像上の対応領域における前記符号化対象画像の視点に対する視差情報である現在視差情報を設定する現在視差情報設定手段をさらに有し、
    前記動き情報生成手段は、前記現在視差情報と前記過去視差情報とを用いて、前記仮動き情報を変換することを特徴とする請求項1に記載の動画像符号化装置。
  8. 前記現在視差情報設定手段は、前記多視点動画像中の被写体に対するデプスマップから、前記現在視差情報を設定することを特徴とする請求項7に記載の動画像符号化装置。
  9. 前記動き情報生成手段は、前記符号化対象視差情報と前記過去視差情報と前記仮動き情報との和によって、前記符号化対象領域に対する動き情報を生成することを特徴とする請求項1に記載の動画像符号化装置。
  10. 複数の異なる視点の動画像からなる多視点動画像の符号データから、復号対象画像を復号する際に、復号対象画像の視点とは異なる参照視点に対する参照視点画像の動き情報である参照視点動き情報を用いて、異なる視点間で予測しながら、前記復号対象画像を分割した領域である復号対象領域毎に復号を行う動画像復号装置であって、
    前記復号対象領域に対して、前記参照視点画像上の対応領域を示す復号対象領域視差情報を設定する復号対象領域視差情報設定手段と、
    前記参照視点動き情報から、前記復号対象領域視差情報によって示される前記参照視点画像上の対応領域の仮動き情報を設定する仮動き情報設定手段と、
    前記仮動き情報によって示される参照視点上の領域における、前記復号対象画像の視点に対する視差情報である過去視差情報を設定する過去視差情報設定手段と、
    前記復号対象領域視差情報と前記過去視差情報とを用いて、前記仮動き情報を変換することにより、前記復号対象領域に対する動き情報を生成する動き情報生成手段と
    を有することを特徴とする動画像復号装置。
  11. 前記動き情報生成手段は、前記復号対象領域視差情報と前記過去視差情報とを用いて、前記仮動き情報から被写体の三次元空間における動き情報を復元し、当該復元された動き情報を前記復号対象画像へ投影することで、前記復号対象領域に対する動き情報を生成することを特徴とする請求項10に記載の動画像復号装置。
  12. 前記参照画像上の対応領域を小領域へと分割する参照対象領域分割手段をさらに有し、
    前記仮動き情報設定手段は、前記小領域毎に前記仮動き情報を設定し、
    前記動き情報生成手段は、前記小領域毎に前記動き情報を生成することを特徴とする請求項10に記載の動画像復号装置。
  13. 前記過去視差情報設定手段は、前記小領域毎に前記過去視差情報を設定することを特徴とする請求項12に記載の動画像復号装置。
  14. 前記復号対象領域視差情報設定手段は、前記多視点動画像中の被写体に対するデプスマップから、前記復号対象領域視差情報を設定することを特徴とする請求項10に記載の動画像復号装置。
  15. 前記過去視差情報設定手段は、前記多視点動画像中の被写体に対するデプスマップから、前記過去視差情報を設定することを特徴とする請求項10に記載の動画像復号装置。
  16. 前記参照画像上の対応領域における前記復号対象画像の視点に対する視差情報である現在視差情報を設定する現在視差情報設定手段をさらに有し、
    前記動き情報生成手段は、前記現在視差情報と前記過去視差情報とを用いて、前記仮動き情報を変換することを特徴とする請求項10に記載の動画像復号装置。
  17. 前記現在視差情報設定手段は、前記多視点動画像中の被写体に対するデプスマップから、前記現在視差情報を設定することを特徴とする請求項16に記載の動画像復号装置。
  18. 前記動き情報生成手段は、前記復号対象視差情報と前記過去視差情報と前記仮動き情報との和によって、前記復号対象領域に対する動き情報を生成することを特徴とする請求項10に記載の動画像復号装置。
  19. 複数の異なる視点の動画像からなる多視点動画像の1フレームを符号化する際に、符号化対象画像の視点とは異なる参照視点に対する参照視点画像の動き情報である参照視点動き情報を用いて、異なる視点間で予測しながら、前記符号化対象画像を分割した領域である符号化対象領域毎に符号化を行う動画像符号化方法であって、
    前記符号化対象領域に対して、前記参照視点画像上の対応領域を示す符号化対象領域視差情報を設定する符号化対象領域視差情報設定ステップと、
    前記参照視点動き情報から、前記符号化対象領域視差情報によって示される前記参照視点画像上の対応領域の仮動き情報を設定する仮動き情報設定ステップと、
    前記仮動き情報によって示される参照視点上の領域における、前記符号化対象画像の視点に対する視差情報である過去視差情報を設定する過去視差情報設定ステップと、
    前記符号化対象領域視差情報と前記過去視差情報とを用いて前記仮動き情報を変換することにより、前記符号化対象領域に対する動き情報を生成する動き情報生成ステップと
    を備えることを特徴とする動画像符号化方法。
  20. 複数の異なる視点の動画像からなる多視点動画像の符号データから、復号対象画像を復号する際に、復号対象画像の視点とは異なる参照視点に対する参照視点画像の動き情報である参照視点動き情報を用いて、異なる視点間で予測しながら、前記復号対象画像を分割した領域である復号対象領域毎に復号を行う動画像復号方法であって、
    前記復号対象領域に対して、前記参照視点画像上の対応領域を示す復号対象領域視差情報を設定する復号対象領域視差情報設定ステップと、
    前記参照視点動き情報から、前記復号対象領域視差情報によって示される前記参照視点画像上の対応領域の仮動き情報を設定する仮動き情報設定ステップと、
    前記仮動き情報によって示される参照視点上の領域における、前記復号対象画像の視点に対する視差情報である過去視差情報を設定する過去視差情報設定ステップと、
    前記復号対象領域視差情報と前記過去視差情報とを用いて前記仮動き情報を変換することにより、前記復号対象領域に対する動き情報を生成する動き情報生成ステップと
    を備えることを特徴とする動画像復号方法。
JP2016508681A 2014-03-20 2015-03-12 動画像符号化装置及び方法、及び、動画像復号装置及び方法 Pending JPWO2015141549A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014058903 2014-03-20
JP2014058903 2014-03-20
PCT/JP2015/057254 WO2015141549A1 (ja) 2014-03-20 2015-03-12 動画像符号化装置及び方法、及び、動画像復号装置及び方法

Publications (1)

Publication Number Publication Date
JPWO2015141549A1 true JPWO2015141549A1 (ja) 2017-04-06

Family

ID=54144519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016508681A Pending JPWO2015141549A1 (ja) 2014-03-20 2015-03-12 動画像符号化装置及び方法、及び、動画像復号装置及び方法

Country Status (5)

Country Link
US (1) US20170019683A1 (ja)
JP (1) JPWO2015141549A1 (ja)
KR (1) KR20160140622A (ja)
CN (1) CN106464899A (ja)
WO (1) WO2015141549A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6981247B2 (ja) 2017-12-27 2021-12-15 富士通株式会社 情報処理装置、情報処理方法、及び情報処理プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013068547A2 (en) * 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Efficient multi-view coding using depth-map estimate and update

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101276720B1 (ko) * 2005-09-29 2013-06-19 삼성전자주식회사 카메라 파라미터를 이용하여 시차 벡터를 예측하는 방법,그 방법을 이용하여 다시점 영상을 부호화 및 복호화하는장치 및 이를 수행하기 위한 프로그램이 기록된 기록 매체
TWI344792B (en) * 2006-07-12 2011-07-01 Lg Electronics Inc A method and apparatus for processing a signal
EP2083571A4 (en) * 2006-10-30 2010-11-10 Nippon Telegraph & Telephone DYNAMIC PICTURE CODING METHOD, DECODING METHOD, DEVICE THEREFOR, PROGRAM THEREFOR AND THE PROGRAM CONTAINING STORAGE MEDIUM
CN107257484B (zh) * 2010-08-11 2020-05-12 Ge视频压缩有限责任公司 解码器、编码器、用于解码的方法和用于编码的方法
JP5747559B2 (ja) * 2011-03-01 2015-07-15 富士通株式会社 動画像復号方法、動画像符号化方法、動画像復号装置、及び動画像復号プログラム
KR20120118780A (ko) * 2011-04-19 2012-10-29 삼성전자주식회사 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9363535B2 (en) * 2011-07-22 2016-06-07 Qualcomm Incorporated Coding motion depth maps with depth range variation
WO2013159326A1 (en) * 2012-04-27 2013-10-31 Mediatek Singapore Pte. Ltd. Inter-view motion prediction in 3d video coding
US20130336405A1 (en) * 2012-06-15 2013-12-19 Qualcomm Incorporated Disparity vector selection in video coding

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013068547A2 (en) * 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Efficient multi-view coding using depth-map estimate and update

Also Published As

Publication number Publication date
CN106464899A (zh) 2017-02-22
KR20160140622A (ko) 2016-12-07
US20170019683A1 (en) 2017-01-19
WO2015141549A1 (ja) 2015-09-24

Similar Documents

Publication Publication Date Title
JP6232076B2 (ja) 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム及び映像復号プログラム
JP6027143B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
JP5947977B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
WO2014050830A1 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
JP6307152B2 (ja) 画像符号化装置及び方法、画像復号装置及び方法、及び、それらのプログラム
JPWO2014103967A1 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
JP6232075B2 (ja) 映像符号化装置及び方法、映像復号装置及び方法、及び、それらのプログラム
JP5926451B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
KR101750421B1 (ko) 동화상 부호화 방법, 동화상 복호 방법, 동화상 부호화 장치, 동화상 복호 장치, 동화상 부호화 프로그램, 및 동화상 복호 프로그램
JP2009164865A (ja) 映像符号化方法,復号方法,符号化装置,復号装置,それらのプログラムおよびコンピュータ読み取り可能な記録媒体
JP6386466B2 (ja) 映像符号化装置及び方法、及び、映像復号装置及び方法
WO2015141549A1 (ja) 動画像符号化装置及び方法、及び、動画像復号装置及び方法
JP2016127372A (ja) 動画像符号化装置、動画像復号装置、動画像処理システム、動画像符号化方法、動画像復号方法、およびプログラム
WO2015098827A1 (ja) 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム及び映像復号プログラム
JP6310340B2 (ja) 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法、映像符号化プログラム及び映像復号プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170601

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171010