JP4999864B2 - 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記憶媒体 - Google Patents

映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記憶媒体 Download PDF

Info

Publication number
JP4999864B2
JP4999864B2 JP2008552122A JP2008552122A JP4999864B2 JP 4999864 B2 JP4999864 B2 JP 4999864B2 JP 2008552122 A JP2008552122 A JP 2008552122A JP 2008552122 A JP2008552122 A JP 2008552122A JP 4999864 B2 JP4999864 B2 JP 4999864B2
Authority
JP
Japan
Prior art keywords
image
decoding
decoded
encoding
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008552122A
Other languages
English (en)
Other versions
JPWO2008081810A1 (ja
Inventor
信哉 志水
正樹 北原
一人 上倉
由幸 八島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008552122A priority Critical patent/JP4999864B2/ja
Publication of JPWO2008081810A1 publication Critical patent/JPWO2008081810A1/ja
Application granted granted Critical
Publication of JP4999864B2 publication Critical patent/JP4999864B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、多視点動画像の符号化および復号技術に関するものである。
本願は、2006年12月28日に出願された特願2006−353628号に基づき優先権を主張し、その内容をここに援用する。
多視点動画像(多視点映像)とは、複数のカメラで同じ被写体と背景を撮影した複数の動画像のことである。以下では、1つのカメラで撮影された動画像を“2次元動画像”と呼び、同じ被写体と背景を撮影した2次元動画像群を多視点動画像と呼ぶ。
多視点動画像に含まれる各カメラの2次元動画像は、時間方向に関して強い相関がある。一方、各カメラが同期されていた場合、同じ時間に対応した各カメラの映像は、全く同じ状態の被写体と背景を別の位置から撮影したものであるので、カメラ間で強い相関がある。動画像の符号化においては、これらの相関を利用することによって符号化効率を高めている。
まず、2次元動画像の符号化技術に関する従来技術を述べる。
国際符号化標準であるH.264、MPEG−2、MPEG−4をはじめとした従来の多くの2次元動画像符号化方式では、動き補償、直交変換、量子化、エントロピー符号化という技術を利用して、高効率な符号化を行う。例えば、H.264では、過去あるいは未来の複数枚のフレームとの時間相関を利用した符号化が可能である。
H.264で使われている動き補償技術の詳細については、下記の非特許文献1に記載されているが、以下で概要を説明する。
H.264の動き補償は、符号化対象フレームを様々なサイズのブロックに分割し、各ブロックで異なる動きベクトルを持つことを可能にし、局所的な映像変化に対しても高い符号化効率を達成している。
また、参照画像の候補として過去もしくは未来の既に符号化済みの複数枚のフレームを用意し、各ブロックで異なる参照フレームを持つことを可能にしている。これにより、時間変化によってオクルージョンが生じるような映像に対しても高い符号化効率を達成している。
次に、従来の多視点動画像の符号化方式について説明する。多視点動画像の符号化については、動き補償を同じ時刻の異なるカメラの画像に適用した“視差補償”によって、高効率に多視点動画像を符号化する方式が従来から存在する。ここで、視差とは、異なる位置に配置されたカメラの画像平面上で、被写体上の同じ位置が投影される位置の差である。
このカメラ間で生じる視差の概念図を図7に示す。この概念図では、光軸が平行なカメラA、Bの画像平面を垂直に見下ろしたものとなっている。このように、異なるカメラの画像平面上で被写体上の同じ位置が投影される位置は、一般的に対応点と呼ばれる。視差補償による符号化では、この対応関係に基づいて、符号化対象フレームの各画素値を参照フレームから予測して、その予測残差と、対応関係を示す視差情報とを符号化する。
多視点動画像の各フレームには、時間方向の冗長性とカメラ間の冗長性が同時に存在することから、同時に両方の冗長性を取り除く方法として、下記に示す非特許文献2や特許文献1(多視点画像符号化装置)の手法がある。
これらの手法では、原画像と視差補償画像の差分画像を時間方向で予測して、その差分画像の動き補償残差を符号化している。
この方法によると、カメラ間の冗長性を取り除く視差補償では取り除くことのできなかった時間方向の冗長性を、動き補償によって取り除くことができるため、最終的に符号化する予測残差が小さくなり、高い符号化効率を達成することが可能である。
ITU-T Rec.H.264/ISO/IEC 11496-10, "Editor's Proposed Draft Text Modifications for Joint Video Specification (ITU-T Rec. H.264 / ISO/IEC 14496-10 AVC), Draft 7", Final Committee Draft, Document JVT-E022, pp. 10-13, and 62-68, September 2002. Shinya SHIMIZU, Masaki KITAHARA, Kazuto KAMIKURA and Yoshiyuki YASHIMA, "Multi-view Video Coding based on 3-D Warping with Depth Map", In Proceedings of Picture Coding Symposium 2006, SS3-6, April , 2006. 特開平10−191393号公報
差分画像を動き補償して符号化を行うような従来の多視点動画像の符号化手法によれば、時間方向とカメラ間の冗長性を同時に持つような部分の予測残差を小さくすることができるため、効率的に符号化することが可能である。
しかしながら、図8のように被写体間でオクルージョンが生じる場合、同じ被写体であっても、カメラ間の冗長性が存在するかどうかが、時刻によって変化してしまう場合がある。
なお、図8は、時刻aと時刻bにそれぞれカメラAとカメラBで撮影された画像における被写体間のオクルージョンの例を示している。
図9は、オクルージョンがある場合の視差補償残差画像の例を示している。
非特許文献2の手法によると、視差補償の参照フレームの各画素に対して他のフレームとの対応点を示す視差情報が与えられることから、図8の場合にカメラBの画像をカメラAの映像から視差補償した場合の差分画像は、図9のようになる。
図9において、色の濃さは差分信号の大きさを表しており、白に近いほど差分が少ないことを表している。
参照フレームつまりカメラAの画像の各画素がカメラBの画像のどこに対応するかを示す視差情報を用いるため、カメラBの画像には存在するが、カメラAの画像には存在しない部分では視差補償が行われない。したがって、対応点が取れる部分では画像が白っぽくなり、図9中の点線で囲まれたRの対応点の取れない部分では、原画がそのまま差分信号として残っている。
ただし、カメラ感度の違いや反射などの影響により、対応点の取れる領域でも完全に差分信号がゼロになっているわけではない。図中のRのような部分では、図中の時刻aなどの別の時刻の差分画像から動き補償を行っても、予測残差を減らすことができないのは明らかである。
この問題に対処するための単純な方法として、ブロックごとに異なるフレームを参照するという機能を用いる方法が挙げられる。つまり、参照フレームとして差分画像の復号画像だけでなく、その差分画像に視差補償画像を加えた最終的なカメラ画像の復号画像を利用可能にして、ブロックごとにどちらを参照するか切り替える方法である。
こうすることで、元のカメラ画像のままである図中のRの領域でも、カメラ画像の復号画像から動き補償することで、予測残差を減らすことができる。
しかしながら、この方法では、ブロックごとに参照フレームを示すための情報を符号化する必要があるため、符号量の増大を招く。
また、1つのブロックの中でオクルージョンがある部分と無い部分が混在する場合には対処できないという問題もある。
一方、特許文献1の手法では、符号化対象フレームを符号化するのにあたり、差分画像を動き補償してフレーム全体を符号化するのではなく、ブロックごとに、差分画像を動き補償するか、視差補償のみを行うか、動き補償のみを行うかを選択可能にしている。
これにより、上記のようなカメラ間でオクルージョンが生じる部分でも、時間方向に冗長性があれば、予測残差を効率よく減らすことができる。
しかしながら、この場合ブロックごとにどの予測方法を用いたかを示す情報を符号化する必要があるため、予測残差を減らすことはできても、大量の付加情報を符号化する必要が生じるため、高い符号化効率を達成することができない。
また、ブロックごとに1つの予測の方法しか選択できないため、1つのブロックの中で部分ごとにオクルージョンの有無が異なる場合には、対処することができない。
本発明はかかる事情に鑑みてなされたものであって、予測のための付加情報の符号量を増やすことなく、適切な予測を実現することで、高い符号化効率を達成できるようにする新たな映像符号化および復号技術の提供を目的とする。
上記の課題を解決するために、本発明は、既に符号化済みの参照カメラ画像と、その参照カメラ画像に対する符号化対象カメラ画像との視差情報とを用いて、カメラ間の映像予測を行うことで視差補償画像を作り、符号化対象カメラ画像とその視差補償画像との差分画像を符号化する映像符号化方法であって、差分画像の所定区分単位(例えば画素)毎に、同じ位置の視差補償画像の有無の状態、すなわち視差補償画像の対応する画素値が有効な値であるか否かに応じて、
(i) 既に符号化済みのカメラ画像と視差補償画像との差分画像を復号した復号差分画像群(既に符号化された別の時刻の復号差分画像や、当該符号化対象カメラ画像に関する差分画像の既に符号化された部分の復号差分画像を含む復号差分画像の集合)か、
(ii) 既に符号化済みのカメラ画像を復号した復号カメラ画像群(各復号差分画像(別の時刻の復号差分画像を含む)と対応する視差補償画像の和で表される復号カメラ画像の集合)
のどちらか一方を参照対象として設定するステップを有する方法を提供する。
これによれば、モードや参照画像の切り替えに関する新たな情報を付加することなく、所望の区分単位で適切な参照画像を用いた予測符号化を実現することができる。つまり、付加情報の符号量を増やすことなく、符号化すべき残差成分を減らすことができるため、高い符号化効率の達成が可能である。
この手法は視差情報が、視差ベクトルの形式で与えられていても、カメラから被写体までの距離等の幾何情報を用いて表されていても、画像間の対応関係が得られるのであれば、どのような形式で与えられても構わない。
差分画像を設定された参照対象を用いて符号化する際には、一つの符号化処理ブロックでは、1つの予測方式を用いて符号化を行っても良い。
参照対象が異なる場合、通常の予測符号化では最適な予測方法が異なると考えられる。そのため、1つの符号化処理ブロック内に参照対象が異なる画素もしくはエリアが混在する場合、参照対象ごとに予測方式を選択して、複数の予測方式を示す付加情報が符号化されることになる。
しかし、上記のように一つの符号化処理ブロックでは、1つの予測方式を用いて符号化を行うようにすれば、符号化処理ブロックごとに1つの予測方式を示す情報を符号化するだけで済むことになるため、全体として必要な符号量を削減することができる。この場合、予測効率の低下が懸念されるが、前掲図9のような場合を考えると、その境界部分でも同じ方法(この場合、同じ動きベクトルを用いた動き補償)で映像予測を行っても予測効率は大きくは低下しないと考えられる。
また、予測効率と付加情報の符号量のバランスを鑑みてブロックごとに1つの予測方法を用いるのか、参照対象ごとに異なる予測方法を用いるのかを決めてもよい。このように予測効率と付加情報の符号量のバランスを鑑みることによって、より柔軟で高い符号化効率の符号化を達成できる。
その場合、復号側では符号化データから、予測方法を切り替えたのかどうかを知り、適切に映像を復号することができる。
本発明によれば、視差補償による差分画像を予測符号化する際に、新たな付加情報を用いることなく、適切な参照画像を画素単位で切り替えて用いることで、付加情報の符号量を増やすことなく、符号化対象の残差削減を実現し、多視点動画像全体としての高効率な映像符号化を実現することができる。
本発明の映像符号化装置の一実施形態を示す図である。 実施例における映像符号化フローチャートである。 実施例における予測モード決定に関する詳細フローチャートである。 本発明の映像復号装置の一実施形態を示す図である。 実施例における映像復号フローチャートである。 実施例における差分画像の符号化データ復号に関する詳細フローチャートである。 カメラ間で生じる視差の概念図である。 被写体間でオクルージョンが生じている例を示す図である。 オクルージョンが生じている場合の視差補償残差画像の例を示す図である。
符号の説明
100 映像符号化装置
101 画像入力部
102 参照画像入力部
103 視差情報入力部
104 視差補償画像生成部
105 差分映像予測符号化部
106 参照画像設定部
107 復号カメラ画像メモリ
108 復号差分画像メモリ
109 参照切替スイッチ
110 差分映像復号部
200 映像復号装置
201 符号化データ入力部
202 参照画像入力部
203 視差情報入力部
204 視差補償画像生成部
205 参照画像設定部
206 復号カメラ画像メモリ
207 復号差分画像メモリ
208 参照切替スイッチ
209 差分映像復号部
本発明の実施の形態を説明するに先立ち、本発明の概要を説明する。
従来技術では、多視点符号化において、どの画像を選択したかを符号化して送る必要があったのに対し、本発明では、どの画像を選択したかを別の情報から復号することが可能となるという特徴がある。これによって、本発明は、従来技術の場合と同じ付加情報量であれば、予測画像の画質が向上することになる。
多視点映像を符号化するにあたり、あるカメラの映像を他のカメラから視差補償合成された映像との差分を取り、その差分映像の時間相関を考慮しながら符号化する場合、従来技術では、図9のRのようなオクルージョン部分を効率的に符号化できないという問題があった。
本発明によると、図9のRのような部分では、視差補償合成された映像との差分映像ではなく、元の映像のデコード画像を用いて予測符号化することで、効率的に符号化を行うことができるようになる。
また、オクルージョン部分を効率的に符号化できないという問題を解決するために、容易に思いつく方法として、H.264に採用されているマルチフレーム参照技術を利用し、ブロック毎に異なる参照画像を用いて予測符号化を行う方法が考えられる。
しかし、その場合、ブロック毎に参照画像を指定する情報を符号化するために符号量の増大を招くだけでなく、ブロック単位でしか参照画像を切り替えることができないため、ブロック内でオクルージョンの有無がある場合に対処できないという問題がある。
しかし、本発明では、視差補償合成した際の情報を用いて、参照画像を切り替えるため、新たな情報を符号化する必要がない。また、その情報からは画素単位でオクルージョンの有無が得られるため、画素単位で参照画像を切り替えることが可能となる。
以上のことを実現するため、本発明では、別のカメラで撮影された画像から、符号化対象の視差補償画像Synを生成できるか否かを現すRef情報を生成し、このRef情報を利用して参照画像を切り替える。
視差補償画像Synが生成できるということは、別のカメラでも同じ被写体が写っているということであるため、オクルージョンが発生していないことを示す。
また、視差補償画像Synが生成できないということは、別のカメラには同じ被写体が写っていないことになるため、オクルージョンが発生していることを示す。
つまり、視差補償画像Synが生成できるか否かという情報を用いて、参照画像を切り替えることで、図9のRのようなオクルージョン部分で適切な予測を行うことができないという問題を解決することができる。
複数の参照画像候補から符号化に使用する参照画像を選択する既存の方法として、H.264で使われているマルチフレーム参照技術がある。この従来手法では、どの画像を選択したかを示す情報を符号化して伝送する必要があった。
しかし、本発明では、参照画像を選択する情報を、従来手法を用いる場合においても伝送する必要があった視差補償画像生成に使われる情報から生成することで、参照画像を切り替えるための情報を別途伝送する必要が生じず、符号量を削減することができる。
なお、後述する実施の形態では、視差補償画像生成に使われる情報から生成する参照画像を選択する情報をRef情報と表してあり、符号化側・復号側で同じものを生成することができる(例えば、符号化側は図2のステップA6で生成、復号側は図5のステップC4で生成)。
さらに、H.264のマルチフレーム参照技術などの従来手法を用いた場合、画素単位で参照画像を選択すると、符号化する予測誤差信号に必要な符号量を小さくすることができるが、画素ごとに参照画像を切り替えるための情報を符号化する必要が生じ、結果として符号量増大を招いてしまっていた。つまり、全体の符号量を抑えるためには、ブロック単位でしか参照画像を切り替えることができなかった。
しかし、本発明では、前述の通り参照画像を切り替えるための情報は別途伝送されるものでないため、この情報を画素に対応付けて生成することで、符号量を増やすことなく、参照画像を画素ごとに切り替えることが可能となる。その結果、予測誤差信号に必要な符号量を削減できる。
以下、実施の形態に従って本発明を詳細に説明する。
ここで、以下に説明する実施形態では、2つのカメラで撮影された多視点動画像を符号化する場合を想定し、カメラAの映像を参照画像として、カメラBの映像を符号化する方法について説明を行う。
図1に、本発明の映像符号化装置100の一実施形態を示す。
この映像符号化装置100は、符号化対象画像であるカメラBのカメラ撮影画像を入力する画像入力部101と、参照映像であるカメラAの復号画像を入力する参照画像入力部102と、参照画像上の各画素が符号化対象画像上でどの位置に対応するかを示す視差情報を入力する視差情報入力部103と、参照画像と視差情報とからカメラBの位置の視差補償画像を生成する視差補償画像生成部104と、符号化対象画像と視差補償画像の差分画像を予測符号化する差分映像予測符号化部105と、視差補償画像の状態によって画素毎に参照画像群を設定する参照画像設定部106と、参照画像群の1つであるカメラBによって撮影された画像の復号画像を格納する復号カメラ画像メモリ107と、もう1つの参照画像群である符号化された差分画像の復号画像を格納する復号差分画像メモリ108と、参照画像群の設定情報に基づいて参照画像メモリを切り替える参照切替スイッチ109と、符号化された差分画像を復号する差分映像復号部110とを備える。
図2、図3に、このように構成される映像符号化装置100の実行する処理フローを示す。これらの処理フローに従って、このように構成される本発明の映像符号化装置100の実行する処理について詳細に説明する。
映像符号化装置100では、符号化処理全体の概要を示す図2の処理フローに示すように、画像入力部101によりカメラBの画像が入力される[ステップA1]。
なお、ここで入力されたカメラBの画像と表示時刻(即ち、撮影時刻)が同じであるカメラAの復号画像が参照画像入力部102によって入力され、その時刻の画像間の視差情報が視差情報入力部103によって入力されるものとする。
以下では、この入力されたカメラBの画像を符号化対象カメラ画像と、カメラAの復号画像を参照カメラ画像と示す。
参照画像入力部102によって入力された参照カメラ画像と、視差情報入力部103によって入力された視差情報とを用いて、視差補償画像が視差補償画像生成部104で生成される[ステップA2]。
この視差補償画像生成は、参照カメラ画像の各画素の画素値を、視差補償画像上の対応画素における画素値とするように行われる。
その際に、参照カメラ画像上の複数の点が、視差補償画像上の同一点に対応する場合は、被写体の前後関係をカメラの位置関係と視差とから判断して、最もカメラに近い被写体の点の画素値を用いるようにする。例えば、カメラの光軸が平行であるならば、視差が大きいほどカメラに近い点と判断できる。
また、視差情報が、参照カメラ画像の各画素の符号化対象カメラ画像上での対応点を表すため、参照カメラ画像には映っていない部分については視差補償画像が存在しないことになる。
このようにして求められた視差補償画像を用いて、符号化処理ブロックごとに符号化対象カメラ画像の符号化を行う[ステップA3−A13]。
このフローでは、ブロックのインデックスをblkと表し、一つの画像に対する総ブロック数をmaxBlkと表す。つまり、インデックスblkを0に初期化した後[ステップA3]、以下の処理[ステップA4−A11]を、インデックスblkに1を加算しながら[ステップA12]、インデックスblkが総ブロック数maxBlkになるまで[ステップA13]、繰り返し実行することになる。
まず、ブロックblkの符号化対象カメラ画像をOrg、視差補償画像をSynとする[ステップA4]。そして、ブロックblkに含まれるピクセル毎に両者の差分Org−Synを計算し、差分画像Subとする[ステップA5]。
なお、ここで視差補償画像がないピクセル部分についてはSynの画素値を0として、差分画像を算出する。
次に、参照画像設定部106で、ブロックblkのピクセル毎に差分画像を予測符号化する際の参照先を表す情報Refを、次のように設定する[ステップA6]。
∀pix∈{0、1、... 、maxPix−1}
Ref[pix]=0 (Syn[pix]に視差補償画像がない場合)
Ref[pix]=1 (Syn[pix]に視差補償画像がある場合)
ここで、pixはブロックblkに含まれるピクセルのインデックス、maxPixはブロックblkに含まれる総ピクセル数を表す。また、ブロックの単位情報に[pix]を付加して表記することで、その情報のピクセルインデックスpixの位置の画素の情報を表す。
なお、Synに視差補償画像があるかどうかを判定してRefを生成する方法には、任意の方法を用いても構わないが、例えば以下のような方法で実現してもよい。
まず、視差補償画像Synを生成する前に、各画素の画素値の初期値として絶対に取りえない値(例えば−1)を設定しておき、「参照カメラ画像の各画素の画素値」を「視差補償画像上の対応画素における画素値」として上書することで、視差補償画像Synを生成する。そして、画素に対応付けられたSynが「−1」ならRefを「0」とし、Synが「−1」以外ならRefを「1」としてRefを生成する。このようにすることで、目的のRefをSynから一意に生成することができる。
この場合、上記ステップA5における差分画像Subの算出では、Synが「−1」の部分については画素値を0とみなして、Orgの値をSubの値とする計算を行う。
または、差分画像Subを算出する前に、上記の方法などによりRefを生成し、Synが「−1」の部分を「0」に置き換えてから、Org−Synを計算して差分画像Subを算出してもよい。
なお、ここでは説明の都合上、視差補償画像がないために画素値を0とみなした部分を含めたSynの全体を視差補償画像という。
このRefを用いながら、差分画像Subを予測符号化する際に、レート歪みコストが最小となるような予測モードを求めPMODEとする[ステップA7]。
ここでレート歪みコストcostは、ある予測モードのときの予測誤差の絶対値和をsadとし、その予測モードを表す情報を符号化するための符号量の予測量をbinと表した場合に、次の数式で求められる。ただし、λはラグランジュの未定乗数を表し、予め設定された値を用いるものとする。
cost=sad+λ・bin
こうして求められたPMODEを用いて、実際にブロックblkの差分画像Subを予測符号化する[ステップA8]。
これらの予測モードの決定や実際の符号化は、差分映像予測符号化部105で行われる。符号化結果には映像の符号化データのほかに、PMODEなど符号化に必要な情報の符号化データも含まれる。
符号化結果は映像符号化装置100の出力となるとともに、差分映像復号部110で復号される[ステップA9]。
ここで復号されたブロックblkの差分画像Subの復号画像をDecとする。Decは他のブロックを符号化する際のフレーム内予測や、他の時刻のフレームを符号化する際のフレーム間予測のために、復号差分画像メモリ108に格納する[ステップA10]。
また、DecとSynの和によってブロックblkの復号カメラ画像を生成し、復号カメラ画像メモリ107に格納する[ステップA11]。
以上がブロックごとに繰り返し行われる処理である。
図3に、差分映像予測符号化部105で行われる予測モード決定処理[ステップA7]の詳細な処理フローを示す。
このフローでは、予測モードごとに次の数式で表されるレート歪みコストcostを計算し、その値が最小となるモードを決定する。
cost=SAD+λ・code(pmode)
ここで、SADは予測画像と原画像の画素ごとの差分絶対値和を示し、pmodeは予測モードインデックスを示し、code(α)は与えられた予測モードαに対して、その情報を表すために必要な符号量の予測値を与える関数を示す。
処理フローによって示される通り、予測モードインデックスpmodeを0で初期化した後[ステップB1]、pmodeを1ずつ加算しながら[ステップB17]、pmodeがmaxPmodeで表される予測モード数になるまで[ステップB18]、以下の処理[ステップB2−B16]を繰り返すことで、costが最小になるような予測モードを求める。
以下の処理で各予測モードに対して、レート歪みコストを用いて評価を行うのであるが、その評価値として絶対に取りえない最大値をmaxCostと表す。さらに繰り返し評価を行うために、下記に示す各条件において最も良かった評価値をminCost、minCost1、minCost2と表し、そのときの予測モードインデックスをbest_mode、best_mode1、best_mode2と表すこととする。
ここで、変数のminCostとbest_modeは、ブロック内の全ての画素を予測した場合の最も良かった評価値と予測モードインデックスを表し、minCost1とbest_mode1は、対応するRefの値が0の画素だけを予測した場合の最も良かった評価値と予測モードインデックスを表し、minCost2とbest_mode2は、対応するRefの値が1の画素だけを予測した場合の最も良かった評価値と予測モードインデックスを表す。
minCost、minCost1、minCost2を全てmaxCostで初期化した後[ステップB1]、予測モードpmodeに対する予測画像を画素ごとに生成する[ステップB2−B8]。
予測画像の生成は、ブロック内の画素のインデックスpixを0で初期化した後[ステップB2]、pixを1ずつ加算しながら[ステップB7]、pixがmaxPixで表されるブロック内のピクセル数になるまで[ステップB8]、次の処理[ステップB3−B6]を繰り返すことで行われる。
まず、Ref[pix]に従って、対応画素において視差補償画像があるかどうかを判定する[ステップB3]。
視差補償画像が存在しない場合、参照切替スイッチ109を操作し、差分映像予測符号化部105が復号カメラ画像メモリ107を参照するようにセットする[ステップB4]。一方、視差補償画像が存在する場合には、復号差分画像メモリ108を参照するようにセットする[ステップB5]。
セットされた参照画像を用いて、予測モードpmodeでその画素に対する予測値Pred[pix]を計算する[ステップB6]。
ブロック内の全画素に対して、予測画像の生成が完了した後、次の式に従って3種類の原画との差分絶対値和を計算する[ステップB9]。
SAD1=
Σ|Sub[pix]−Pred[pix]|・(1−Ref[pix])
SAD2=
Σ|Sub[pix]−Pred[pix]|・Ref[pix]
SAD=SAD1+SAD2
ここで、SAD1は視差補償画像のない画素の差分絶対値和を表し、SAD2は視差補償画像のある画素の差分絶対値和を表し、SADはブロック内の全画素の差分絶対値和を表す。Σは、pixが0からmaxPix−1までの総和を表している。上式では積演算を用いているが、SAD1とSAD2の計算に用いられる画素は排他的なので、単純な条件分岐で上記差分絶対値和の計算を実現してもよい。
このSAD、SAD1、SAD2とpmodeを用いて、前述の式に従いレート歪みコストcost、cost1、cost2を計算する[ステップB10]。
そして、これまでに計算された最も良いレート歪みコストと比較を行い[ステップB11、B13、B15]、予測モードpmodeを用いた方がコストを減らすことができるのならば、最良予測モードを表す変数と最良コスト値を更新する[ステップB12、B14、B16]。
全ての予測モードに対して評価が終わった後で、視差補償がある画素とない画素で異なる予測モードを用いるか、同一の予測モードを用いるかを判定する[ステップB19−B21]。
まず、best_mode、best_mode1、best_mode2が全て同じであるかを調べる[ステップB19]。
もし、全てが同じ場合、ブロック内で一つのモードを使えばよいことを示しているため、予測符号化を行う際の予測モードPMODEとしてbest_modeを格納して終了する[ステップB22]。
1つでも異なるモードを示している場合には、minCost1とminCost2とOHCostとの和と、minCostとを比較する[ステップB20]。
前者はブロック内で異なるモードを使う場合のコストを示す。ここで、OHCostは、予測モードを2つ符号化することによるオーバヘッドコストを表す。
もし前者の方がよいコストになる場合には、best_mode1とbest_mode2の集合をPMODEに格納して終了する[ステップB21]。
後者がよいコストの場合にはPMODEにbest_modeを格納して終了する[ステップB22]。
本実施例では、ブロック内で1つの予測モードを用いるか、2つの予測モードを用いるかを選択している。
常に1つの予測モードを用いることにしてもよく、その場合にはステップB10ではcostのみを計算し、ステップB13−B16とステップB19−B22の処理を省略し、best_modeの代わりにPMODEを用いることができる。
また、常に2つの予測モードを用いることも可能であり、その場合にはステップB9のSADの計算と、ステップB10のCostの計算と、ステップB11−B12、B19−B20、B22の処理とが不要であり、ステップB18がYESの場合には、ステップB21に進むことで実現される。
本実施例における予測モードとは、どのように画素値を予測するかを示すものである。
予測の方法には、同じフレームの既に符号化・復号済みの周辺ブロックから画素値を予測するフレーム内予測と、既に符号化・復号済みの別のフレームから画素値を予測するフレーム間予測とが存在し、上記予測モードは両方の予測法を含む。フレーム間予測で必要な動きベクトルも予測モードに含まれる。また、既に符号化・復号済みのものから画素値を予測できる方法であれば、どのような方法でも予測モードに含めることができる。
図4に、本発明の映像復号装置200の一実施形態を示す。
この映像復号装置200は、符号化データを入力する符号化データ入力部201と、カメラAの復号画像を入力する参照画像入力部202と、カメラAの復号画像上の各画素が復号対象となっている画像上でどの位置に対応するかを示す視差情報を入力する視差情報入力部203と、カメラBの位置の視差補償画像を生成する視差補償画像生成部204と、視差補償画像の状態によって画素毎に参照画像群を設定する参照画像設定部205と、参照画像群の1つである、復号されたカメラBによって撮影された画像を格納する復号カメラ画像メモリ206と、もう1つの参照画像群である、差分画像の復号画像を格納する復号差分画像メモリ207と、参照画像群の設定情報に基づいて参照画像メモリを切り替える参照切替スイッチ208と、入力された符号化データを復号する差分映像復号部209とを備える。
図5、図6に、このように構成される映像復号装置200の実行する処理フローを示す。これはカメラBの符号化データを1フレーム復号するフローを示している。以下でフローを詳細に説明していく。
なお、復号するフレームと同時刻のカメラAのフレームが先立って復号されており、さらに視差情報が得られているものとする。
まず、符号化データ入力部201にカメラBの符号化データが入力される[ステップC1]。また、ここで入力されたカメラBの画像と表示時刻が同じであるカメラAの復号画像が、参照画像入力部202によって入力されているものとする。
次に、カメラAの復号画像と視差情報とを用いて、視差補償画像生成部204で視差補償画像が生成される[ステップC2]。ここでの処理は、既に説明した図2のステップA2で行われる処理と同じである。
この視差補償画像を用いながら、ブロックごとに入力された符号化データを復号し、カメラBの復号画像を得る[ステップC3−C9]。
この処理では、ブロックのインデックスをblkと表し、一つの画像に対する総ブロック数をmaxBlkと表すと、インデックスblkを0に初期化した後[ステップC3]、インデックスblkに1を加算しながら[ステップC8]、インデックスblkが総ブロック数maxBlkになるまで[ステップC9]、以下の処理[ステップC4−C7]を繰り返し実行することになる。
まず、参照画像設定部205で、ブロックblkのピクセル毎に、差分画像を予測符号化する際に使われた参照先を示す情報Refを、前述したステップA6の処理と同様の方法で生成する[ステップC4]。
そして、この情報を使いながら入力された符号化データを差分映像復号部209で復号して差分画像の復号値Decを得る[ステップC5]。
復号値Decはそのまま、他の時刻のフレームや、他のブロックを復号する際に利用するため、復号差分画像メモリ207に格納される[ステップC6]。
また、ブロックblkにおける・BR>牛キ補償画像SynとDecの和を画素ごとに求めることで、カメラBで撮影された画像の復号画像を得る。
この復号画像は、映像復号装置200の出力となるとともに、復号カメラ画像メモリ206に格納される[ステップC7]。
図6に、差分映像復号部209で行われるブロック毎の差分画像の復号処理[ステップC5]の詳細な処理フローを示す。
まず、符号化データから予測モード情報を復号してpmode[0]とする[ステップD1]。このとき、符号化データに別の予測モード情報が含まれているのならば[ステップD2]、それを復号してpmode[1]とする[ステップD3]。含まれていないのならば[ステップD2]、pmode[1]にpmode[0]と同じ値を設定する[ステップD4]。
次に、符号化データに含まれている画素ごとの予測残差を復号してDresとする[ステップD5]。
以降の処理はブロックに含まれる画素ごとに行われる。つまり、ピクセルインデックスpixを0で初期化した後[ステップD6]、pixに1を加算しながら[ステップD12]、pixがブロック内のピクセル数maxPixになるまで[ステップD13]、以下の処理[ステップD7−D11]を繰り返し実行する。
画素ごとに行われる処理では、まず、Ref[pix]の値に応じて[ステップD7]、参照切替スイッチ208を操作して、復号カメラ画像メモリ206を参照バッファにセットするか[ステップD8]、復号差分画像メモリ207を参照バッファにセットする[ステップD9]。
次に、画素pixの値Predを予測モードpmode[Ref[pix]]で予測する[ステップD10]。
そして、差分画像の復号値Dec[pix]を、Dres[pix]とPredの和から得る[ステップD11]。
本実施例では、参照カメラ画像上の各画素が同時刻のカメラBの画像上でどの位置に対応するかを示す視差情報が、映像符号化装置100や映像復号装置200の外部で求められ、符号化/伝送/復号されるとしている。
しかし、映像符号化装置100の内部で視差情報を求め、符号化し、差分画像の符号化データとともに出力しても構わない。同様に、映像復号装置200の内部で視差情報の符号化データを受け取り、復号して用いても構わない。
また、直接、参照カメラ画像上の各画素が同時刻のカメラBの画像上でどの位置に対応するかを示す情報ではないが、何らかの変換を施すことによって上記対応関係が得られるようなものが入力され、映像符号化装置100と映像復号装置200の内部で、入力された情報を、上記対応関係を表す視差情報へと変換しても構わない。
そのような情報の一例として、被写体の三次元情報とカメラパラメータとで構成される情報がある。三次元情報は、被写体の各部分の三次元座標であったり、被写体からカメラまでの距離を表すものであったりする。
また、実施形態においては参照対象としての画像群の切替を符号化対象カメラ画像の各画素毎に可能としているが、複数画素を含む所定の区分単位毎に行うようにしても良い。例えば所定サイズのブロック毎に切替可能とする場合、ブロック内の多数の画素に対して適切な参照対象を選択したり、視差補償画像の画素値が無効な画素が1つでも含まれる場合には復号カメラ画像群を選択するようにしたりできる。適切な区分単位での選択を行うことにより、処理時間を短縮できるという効果がある。
以上の映像符号化および映像復号の処理は、ハードウェアやファームウェアによって実現することができるとともに、コンピュータとソフトウェアプログラムとによっても実現することができ、そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも、ネットワークを通して提供することも可能である。
本発明によれば、視差補償による差分画像を予測符号化する際に、新たな付加情報を用いることなく、適切な参照画像を画素単位で切り替えて用いることで、付加情報の符号量を増やすことなく、符号化対象の残差削減を実現し、多視点動画像全体としての高効率な映像符号化を実現することができる。

Claims (16)

  1. 視差補償を用いて多視点動画像を符号化する映像符号化方法において、
    既に符号化済みのカメラ画像を復号した参照カメラ画像と、その参照カメラ画像に対する符号化対象カメラ画像との視差情報とから、上記符号化対象カメラ画像に対する視差補償画像を生成するステップと、
    上記視差補償画像の状態によって、上記符号化対象カメラ画像の所定区分単位毎に参照対象とする参照画像群を示す参照対象情報を設定するステップと、
    上記設定された参照対象情報に基づいて、上記符号化対象カメラ画像の前記所定区分単位毎に、既に符号化済みのカメラ画像と視差補償画像との差分画像を復号した復号差分画像群、および、既に符号化済みのカメラ画像を復号した復号カメラ画像群のいずれかを参照対象として選択するステップと、
    上記参照対象として選択された画像群に含まれる参照画像を参照して、上記符号化対象カメラ画像と上記視差補償画像との差分画像を予測符号化するステップと、
    上記符号化した差分画像を復号した復号差分画像を上記復号差分画像群の1つとして記憶するステップと、
    上記復号差分画像をもとに既に符号化済みのカメラ画像を復号した復号カメラ画像を上記復号カメラ画像群の1つとして記憶するステップとを有する
    ことを特徴とする映像符号化方法。
  2. 請求項1に記載の映像符号化方法において、
    上記差分画像を予測符号化するステップでは、上記差分画像における複数画素からなる各符号化処理ブロックに対して予め定められた複数の各予測方式を用いた場合の符号化のコストをそれぞれ算出し、1つの符号化処理ブロック内では符号化のコストが最小となる1つの予測方式を用いて映像予測を行う
    ことを特徴とする映像符号化方法。
  3. 請求項1に記載の映像符号化方法において、
    上記差分画像を予測符号化するステップでは、上記差分画像における複数画素からなる各符号化処理ブロックに対して、参照画像が異なる画素群ごとに予め定められた複数の各予測方式を用いた場合の符号化のコストをそれぞれ算出し、1つの符号化処理ブロック内で1つの予測方式を用いて映像予測を行うか、1つの符号化処理ブロック内で複数の予測方式を用いて映像予測を行うかを、上記算出した符号化のコストに応じて選択しながら符号化を行う
    ことを特徴とする映像符号化方法。
  4. 請求項1に記載の映像符号化方法において、前記所定区分単位は画素である
    ことを特徴とする映像符号化方法。
  5. 視差補償を用いて多視点動画像を復号する映像復号方法において、
    既に復号済みの参照カメラ画像と、その参照カメラ画像に対する復号対象カメラ画像との視差情報とから、上記復号対象カメラ画像に対する視差補償画像を生成するステップと、
    上記視差補償画像の状態によって、上記復号対象カメラ画像の所定区分単位毎に参照対象とする参照画像群を示す参照対象情報を設定するステップと、
    上記設定された参照対象情報に基づいて、上記復号対象カメラ画像の前記所定区分単位毎に、既に復号済みのカメラ画像と視差補償画像との復号差分画像群、および、既に復号済みの復号カメラ画像群のいずれかを参照対象として選択するステップと、
    入力した符号化データを復号した各画素ごとの予測残差をもとに、上記参照対象として選択された画像群に含まれる参照画像を参照して、上記復号対象カメラ画像と上記視差補償画像との差分画像を復号するステップと、
    上記復号した差分画像を上記復号差分画像群の1つとして記憶するステップと、
    上記復号した差分画像と上記視差補償画像とを足し合わせて、多視点動画像の復号カメラ画像として出力するとともに、その復号カメラ画像を上記復号カメラ画像群の1つとして記憶するステップとを有する
    ことを特徴とする映像復号方法。
  6. 請求項5に記載の映像復号方法において、
    上記差分画像を復号するステップでは、上記復号対象カメラ画像における複数画素からなる各復号処理ブロックに対して、1つの復号処理ブロック内では指定された1つの予測方式を用いて映像を復号する
    ことを特徴とする映像復号方法。
  7. 請求項5に記載の映像復号方法において、
    上記差分画像を復号するステップでは、上記復号対象カメラ画像における複数画素からなる各復号処理ブロックに対して、1つの復号処理ブロック内では指定された1つの予測方式を用いるか、指定された複数の予測方式を用いるかを切り替えながら、映像を復号する
    ことを特徴とする映像復号方法。
  8. 請求項5に記載の映像復号方法において、前記所定区分単位は画素である
    ことを特徴とする映像復号方法。
  9. 視差補償を用いて多視点動画像を符号化する映像符号化装置において、
    既に符号化済みのカメラ画像を復号した参照カメラ画像と、その参照カメラ画像に対する符号化対象カメラ画像との視差情報とから、上記符号化対象カメラ画像に対する視差補償画像を生成する手段と、
    上記視差補償画像の状態によって、上記符号化対象カメラ画像の所定区分単位毎に参照対象とする参照画像群を示す参照対象情報を設定する手段と、
    上記設定された参照対象情報に基づいて、上記符号化対象カメラ画像の前記所定区分単位毎に、既に符号化済みのカメラ画像と視差補償画像との差分画像を復号した復号差分画像群、および、既に符号化済みのカメラ画像を復号した復号カメラ画像群のいずれかを参照対象として選択する手段と、
    上記参照対象として選択された画像群に含まれる参照画像を参照して、上記符号化対象カメラ画像と上記視差補償画像との差分画像を予測符号化する手段と、
    上記符号化した差分画像を復号した復号差分画像を上記復号差分画像群の1つとして記憶する手段と、
    上記復号差分画像をもとに既に符号化済みのカメラ画像を復号した復号カメラ画像を上記復号カメラ画像群の1つとして記憶する手段とを備える
    ことを特徴とする映像符号化装置。
  10. 請求項9に記載の映像符号化装置において、前記所定区分単位は画素である
    ことを特徴とする映像符号化装置。
  11. 視差補償を用いて多視点動画像を復号する映像復号装置において、
    既に復号済みの参照カメラ画像と、その参照カメラ画像に対する復号対象カメラ画像との視差情報とから、上記復号対象カメラ画像に対する視差補償画像を生成する手段と、
    上記視差補償画像の状態によって、上記復号対象カメラ画像の所定区分単位毎に参照対象とする参照画像群を示す参照対象情報を設定する手段と、
    上記設定された参照対象情報に基づいて、上記復号対象カメラ画像の前記所定区分単位毎に、既に復号済みのカメラ画像と視差補償画像との復号差分画像群、および、既に復号済みの復号カメラ画像群のいずれかを参照対象として選択する手段と、
    入力した符号化データを復号した各画素ごとの予測残差をもとに、上記参照対象として選択された画像群に含まれる参照画像を参照して、上記復号対象カメラ画像と上記視差補償画像との差分画像を復号する手段と、
    上記復号した差分画像を上記復号差分画像群の1つとして記憶する手段と、
    上記復号した差分画像と上記視差補償画像とを足し合わせて、多視点動画像の復号カメラ画像として出力するとともに、その復号カメラ画像を上記復号カメラ画像群の1つとして記憶する手段とを備える
    ことを特徴とする映像復号装置。
  12. 請求項11に記載の映像復号装置において、前記所定区分単位は画素である
    ことを特徴とする映像復号装置。
  13. 請求項1に記載された映像符号化方法を、コンピュータに実行させるための映像符号化プログラム。
  14. 請求項5に記載された映像復号方法を、コンピュータに実行させるための映像復号プログラム。
  15. 請求項1に記載された映像符号化方法を、コンピュータに実行させるための映像符号化プログラムを記録したコンピュータ読み取り可能な記録媒体。
  16. 請求項5に記載された映像復号方法を、コンピュータに実行させるための映像復号プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2008552122A 2006-12-28 2007-12-26 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記憶媒体 Active JP4999864B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008552122A JP4999864B2 (ja) 2006-12-28 2007-12-26 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記憶媒体

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006353628 2006-12-28
JP2006353628 2006-12-28
JP2008552122A JP4999864B2 (ja) 2006-12-28 2007-12-26 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記憶媒体
PCT/JP2007/074941 WO2008081810A1 (ja) 2006-12-28 2007-12-26 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記憶媒体

Publications (2)

Publication Number Publication Date
JPWO2008081810A1 JPWO2008081810A1 (ja) 2010-04-30
JP4999864B2 true JP4999864B2 (ja) 2012-08-15

Family

ID=39588493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008552122A Active JP4999864B2 (ja) 2006-12-28 2007-12-26 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記憶媒体

Country Status (11)

Country Link
US (1) US9066096B2 (ja)
EP (1) EP2099226B1 (ja)
JP (1) JP4999864B2 (ja)
KR (1) KR101059178B1 (ja)
CN (1) CN101563930B (ja)
BR (1) BRPI0721077A2 (ja)
CA (1) CA2672924C (ja)
ES (1) ES2535314T3 (ja)
RU (1) RU2446618C2 (ja)
TW (1) TWI351883B (ja)
WO (1) WO2008081810A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120013966A (ko) 2009-05-01 2012-02-15 톰슨 라이센싱 3dv를 위한 기준 화상 리스트
HUE057597T2 (hu) 2010-04-13 2022-05-28 Ge Video Compression Llc Videó kódolás képek többes fa struktúrájú alosztásainak használatával
TWI666882B (zh) 2010-04-13 2019-07-21 美商Ge影像壓縮有限公司 在樣本陣列多元樹細分中之繼承技術
KR101549644B1 (ko) * 2010-04-13 2015-09-03 지이 비디오 컴프레션, 엘엘씨 샘플 영역 병합
KR102481529B1 (ko) 2010-04-13 2022-12-23 지이 비디오 컴프레션, 엘엘씨 평면 간 예측
EP2617194A1 (en) * 2010-09-14 2013-07-24 Thomson Licensing Compression methods and apparatus for occlusion data
JP5281632B2 (ja) * 2010-12-06 2013-09-04 日本電信電話株式会社 多視点画像符号化方法,多視点画像復号方法,多視点画像符号化装置,多視点画像復号装置およびそれらのプログラム
WO2012097376A1 (en) 2011-01-14 2012-07-19 General Instrument Corporation Spatial block merge mode
WO2012128242A1 (ja) * 2011-03-18 2012-09-27 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
JPWO2012147621A1 (ja) * 2011-04-28 2014-07-28 ソニー株式会社 符号化装置および符号化方法、並びに、復号装置および復号方法
JP5649523B2 (ja) * 2011-06-27 2015-01-07 日本電信電話株式会社 映像符号化方法,装置,映像復号方法,装置およびそれらのプログラム
JP5485969B2 (ja) * 2011-11-07 2014-05-07 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
WO2013068548A2 (en) 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Efficient multi-view coding using depth-map estimate for a dependent view
CN110139108B (zh) 2011-11-11 2023-07-18 Ge视频压缩有限责任公司 用于将多视点信号编码到多视点数据流中的装置及方法
EP3739886A1 (en) 2011-11-18 2020-11-18 GE Video Compression, LLC Multi-view coding with efficient residual handling
US9531990B1 (en) 2012-01-21 2016-12-27 Google Inc. Compound prediction using multiple sources or prediction modes
US8737824B1 (en) 2012-03-09 2014-05-27 Google Inc. Adaptively encoding a media stream with compound prediction
US9185414B1 (en) 2012-06-29 2015-11-10 Google Inc. Video encoding using variance
KR101966920B1 (ko) * 2012-07-10 2019-04-08 삼성전자주식회사 다시점 영상의 시차 정보를 이용하여 영상의 움직임을 추정하는 방법 및 장치
KR102445274B1 (ko) 2012-10-01 2022-09-20 지이 비디오 컴프레션, 엘엘씨 향상 레이어에서 변환 계수 블록들의 서브블록-기반 코딩을 이용한 스케일러블 비디오 코딩
US9350970B2 (en) 2012-12-14 2016-05-24 Qualcomm Incorporated Disparity vector derivation
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
JP2014192702A (ja) * 2013-03-27 2014-10-06 National Institute Of Information & Communication Technology 複数の入力画像をエンコーディングする方法、プログラムおよび装置
CN105075257A (zh) * 2013-04-11 2015-11-18 日本电信电话株式会社 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、以及图像解码程序
US9374578B1 (en) 2013-05-23 2016-06-21 Google Inc. Video coding using combined inter and intra predictors
KR102114346B1 (ko) * 2013-08-30 2020-05-22 삼성전자주식회사 스테레오 컨버전스 제어 방법 및 이를 적용한 스테레오 이미지 프로세서
US9609343B1 (en) 2013-12-20 2017-03-28 Google Inc. Video coding using compound prediction
US11323733B2 (en) 2014-05-23 2022-05-03 Qualcomm Incorporated Predictor palette initialization in palette-based video coding
US10382749B2 (en) 2014-05-23 2019-08-13 Qualcomm Incorporated Coding run values based on palette index in palette-based video coding
US10291940B2 (en) 2014-05-23 2019-05-14 Qualcomm Incorporated Coding runs with escape in palette-based video coding
JP7168848B2 (ja) * 2018-11-21 2022-11-10 日本電信電話株式会社 評価装置、評価方法、及びプログラム。

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07240944A (ja) * 1994-02-25 1995-09-12 Sanyo Electric Co Ltd ステレオ画像符号化装置
JPH09275578A (ja) * 1996-04-04 1997-10-21 Sharp Corp 多視点画像符号化装置および復号装置
JPH10191394A (ja) * 1996-12-24 1998-07-21 Sharp Corp 多視点画像符号化装置
JPH10191393A (ja) * 1996-12-24 1998-07-21 Sharp Corp 多視点画像符号化装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5790086A (en) * 1995-01-04 1998-08-04 Visualabs Inc. 3-D imaging system
US6173087B1 (en) 1996-11-13 2001-01-09 Sarnoff Corporation Multi-view image registration with application to mosaicing and lens distortion correction
JP4608136B2 (ja) 2001-06-22 2011-01-05 オリンパス株式会社 動きベクトル及び視差ベクトル検出装置
RU2237283C2 (ru) 2001-11-27 2004-09-27 Самсунг Электроникс Ко., Лтд. Устройство и способ представления трехмерного объекта на основе изображений с глубиной
US7379496B2 (en) * 2002-09-04 2008-05-27 Microsoft Corporation Multi-resolution video coding and decoding
CN100414566C (zh) * 2003-06-19 2008-08-27 邓兴峰 平面图像全景重建立体图像的方法
US7778328B2 (en) 2003-08-07 2010-08-17 Sony Corporation Semantics-based motion estimation for multi-view video coding
US7728878B2 (en) * 2004-12-17 2010-06-01 Mitsubishi Electric Research Labortories, Inc. Method and system for processing multiview videos for view synthesis using side information
KR100946790B1 (ko) * 2005-01-07 2010-03-11 니폰덴신뎅와 가부시키가이샤 영상 부호화 방법 및 장치, 영상 복호 방법 및 장치, 그들 프로그램을 기록한 기록 매체
KR100728009B1 (ko) * 2005-08-22 2007-06-13 삼성전자주식회사 다시점 동영상을 부호화하는 방법 및 장치
US8644386B2 (en) * 2005-09-22 2014-02-04 Samsung Electronics Co., Ltd. Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
JP2007180981A (ja) * 2005-12-28 2007-07-12 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法、及び画像符号化プログラム
ZA200805337B (en) * 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07240944A (ja) * 1994-02-25 1995-09-12 Sanyo Electric Co Ltd ステレオ画像符号化装置
JPH09275578A (ja) * 1996-04-04 1997-10-21 Sharp Corp 多視点画像符号化装置および復号装置
JPH10191394A (ja) * 1996-12-24 1998-07-21 Sharp Corp 多視点画像符号化装置
JPH10191393A (ja) * 1996-12-24 1998-07-21 Sharp Corp 多視点画像符号化装置

Also Published As

Publication number Publication date
CN101563930B (zh) 2011-05-25
CA2672924C (en) 2014-07-22
EP2099226A4 (en) 2012-02-22
KR20090091174A (ko) 2009-08-26
US9066096B2 (en) 2015-06-23
RU2446618C2 (ru) 2012-03-27
CA2672924A1 (en) 2008-07-10
CN101563930A (zh) 2009-10-21
RU2009122983A (ru) 2010-12-27
WO2008081810A1 (ja) 2008-07-10
US20100034260A1 (en) 2010-02-11
KR101059178B1 (ko) 2011-08-25
BRPI0721077A2 (pt) 2014-07-01
EP2099226A1 (en) 2009-09-09
JPWO2008081810A1 (ja) 2010-04-30
ES2535314T3 (es) 2015-05-08
EP2099226B1 (en) 2015-01-21
TWI351883B (en) 2011-11-01
TW200910977A (en) 2009-03-01

Similar Documents

Publication Publication Date Title
JP4999864B2 (ja) 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記憶媒体
JP5061179B2 (ja) 照明変化補償動き予測符号化および復号化方法とその装置
JP5234586B2 (ja) 映像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
CA2692250C (en) Video encoding and decoding methods using residual prediction, and corresponding apparatuses
KR101857755B1 (ko) 스킵 모드를 이용한 영상 복호화 방법 및 이러한 방법을 사용하는 장치
KR20080088046A (ko) 움직임 보상 필터링을 이용한 영상 부호화, 복호화 방법 및장치
JP6027143B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
JP5281632B2 (ja) 多視点画像符号化方法,多視点画像復号方法,多視点画像符号化装置,多視点画像復号装置およびそれらのプログラム
CN114845102A (zh) 光流修正的提前终止
WO2015141613A1 (ja) 画像符号化装置及び方法、画像復号装置及び方法、及び、それらのプログラム
KR20120095611A (ko) 다시점 비디오 부호화/복호화 방법 및 장치
US20160065958A1 (en) Method for encoding a plurality of input images, and storage medium having program stored thereon and apparatus
KR101524465B1 (ko) 색차 보상을 이용한 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치
US20160037172A1 (en) Image encoding method, image decoding method, image encoding apparatus, image decoding apparatus, image encoding program, and image decoding program
JP2006100871A (ja) 符号化装置、符号化方法、符号化方法のプログラム及び符号化方法のプログラムを記録した記録媒体
JP2013085156A (ja) 映像符号化方法,映像復号方法,映像符号化装置,映像復号装置およびそれらのプログラム
WO2011142221A1 (ja) 符号化装置、および、復号装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100127

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120515

R151 Written notification of patent or utility model registration

Ref document number: 4999864

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350