JP4999860B2 - 動画像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体 - Google Patents

動画像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体 Download PDF

Info

Publication number
JP4999860B2
JP4999860B2 JP2008542061A JP2008542061A JP4999860B2 JP 4999860 B2 JP4999860 B2 JP 4999860B2 JP 2008542061 A JP2008542061 A JP 2008542061A JP 2008542061 A JP2008542061 A JP 2008542061A JP 4999860 B2 JP4999860 B2 JP 4999860B2
Authority
JP
Japan
Prior art keywords
frame
information
region
image
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008542061A
Other languages
English (en)
Other versions
JPWO2008053758A1 (ja
Inventor
信哉 志水
英明 木全
一人 上倉
由幸 八島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008542061A priority Critical patent/JP4999860B2/ja
Publication of JPWO2008053758A1 publication Critical patent/JPWO2008053758A1/ja
Application granted granted Critical
Publication of JP4999860B2 publication Critical patent/JP4999860B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、フレーム間予測符号化方式を使って動画像を符号化する動画像符号化方法及びその装置と、その動画像符号化方法により生成された符号化データを復号する動画像復号方法及びその装置と、その動画像符号化方法の実現に用いられる動画像符号化プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体と、その動画像復号方法の実現に用いられる動画像復号プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体とに関する。
本願は、2006年10月30日に出願された特願2006−293901号に基づき優先権を主張し、その内容をここに援用する。
多視点動画像(多視点映像)とは、複数のカメラで同じ被写体と背景を撮影した複数の動画像のことである。以下では、1つのカメラで撮影された動画像を“2次元動画像" と呼び、同じ被写体と背景を撮影した2次元動画像群を“多視点動画像”と呼ぶ。
多視点動画像に含まれる各カメラの2次元動画像は、時間方向に関して強い相関がある。一方、各カメラが同期されていた場合、同じ時刻に撮影した各カメラの映像は全く同じ状態の被写体と背景を別の位置から撮影したものなので、カメラ間で強い相関がある。動画像の符号化においては、これらの相関を利用することによって符号化効率を高めている。
まず、2次元動画像の符号化技術に関する従来技術を述べる。
国際標準動画像符号化規格であるMPEG−2やH.264などをはじめとした従来の多くの2次元動画像符号化方式では、フレーム間予測符号化と呼ばれる方法によって、時間方向の相関を利用して高い符号化効率を実現している。
2次元動画像符号化におけるフレーム間予測符号化で用いる方法は、時間による映像の変化つまり動きを利用したものであるため、一般に動き補償と呼ばれる。以下では、その例に倣い時間方向のフレーム間予測符号化を動き補償と呼ぶ。なお、フレームとは動画像を構成するある時刻に撮影された1枚の画像を表す。
一般的な2次元動画像符号化における各フレームの符号化モードには、フレーム間の相関を使わずに符号化するIフレームと、過去に符号化した1枚のフレームから動き補償を行いながら符号化するPフレームと、過去に符号化した2枚のフレームから動き補償を行いながら符号化するBフレームとがある。
さらに、映像予測の効率を向上させるために、映像符号化方式H.263とH.264では、参照画像メモリに2フレーム以上の複数フレーム分の復号画像を蓄積しておき、そのメモリから参照画像を選択して予測をすることができる。
参照画像はブロック毎に選択することができ、参照画像を指定する参照画像指定情報を符号化することで復号処理を可能としている。
Pフレームでは1つの参照画像指定情報がブロック毎に符号化され、Bフレームでは2つの参照画像指定情報がブロック毎に符号化される。
動き補償では、参照画像指定情報のほかに、参照画像内のどの位置を用いて符号化対象ブロックの予測を行うのかを示すためのベクトルが符号化される。このベクトルは動きベクトルと呼ばれる。参照画像指定情報と同様に、Pフレームでは1つの動きベクトルが符号化され、Bフレームでは2つの動きベクトルが符号化される。
動きベクトルの符号化においては、MPEG−4やH.264では、符号化対象ブロックの隣接ブロックの動きベクトルから予測ベクトルを生成し、符号化対象ブロックの動き補償で用いる動きベクトルとこの予測ベクトルとの差分ベクトルのみを符号化する。この方法によれば、隣接ブロック間に動きの連続性がある場合に、動きベクトルを符号化効率よく符号化することができる。
H.264における予測ベクトルの生成手順の詳細については、下記に示す非特許文献1に記載されているが、以下で概要を説明する。
H.264では、図13Aに示すように、符号化対象ブロックの左のブロック(図中のa)、上のブロック(図中のb)、右上のブロック(図中のc)で用いた動きベクトル(mv_a,mv_b,mv_c)から、水平成分及び垂直成分を個々に中央値をとって求める。
H.264では、可変ブロックサイズ動き補償を採用しているため、符号化対象ブロックと周辺ブロックの動き補償ブロックサイズが同一でない場合があるが、その場合は、図13Bのように、ブロックaは左に隣接するブロックのうち最も上のブロックとし、ブロックbは上に隣接するブロックのうち最も左のブロックとし、ブロックcは右上に存在する最も近いブロックとする。
例外として、符号化対象ブロックのサイズが8×16画素の場合は、図13Cに示すように、中央値の代わりに、左のブロックはブロックaを、右のブロックはブロックcを予測に用い、符号化対象ブロックのサイズが16×8画素の場合は、図13Dに示すように、中央値の代わりに、下のブロックはブロックaを、上のブロックはブロックbを予測に用いる。
また、前述の通り、H.264では、過去に符号化した複数のフレームの中から、ブロック毎に参照フレームを選択し、その参照フレームを用いて動き補償を行う。
一般的に、被写体の動きは参照フレームによって変化するため、符号化対象ブロックの参照フレームと異なる参照フレームを用いて動き補償をしている場合の動きベクトルより、同じ参照フレームを用いて動き補償をしている場合の動きベクトルのほうが、符号化対象ブロックで用いる動きベクトルに近いベクトルであると考えられる。
そのため、H.264では、ブロックa,b,cの内、符号化対象ブロックと参照フレームが等しいブロックがひとつだけある場合は、中央値の代わりに、そのブロックの動きベクトルを予測ベクトルとして用いることで、より信頼度の高い予測ベクトルを生成している。
次に、従来の多視点動画像の符号化方式について説明する。
一般的な多視点動画像の符号化では、カメラ間の相関を利用するために、同じ時刻に異なるカメラで撮影されたフレーム間に動き補償を適用した“視差補償" を用いることで高い符号化効率を実現している。
この手法が使われている例としては、MPEG−2 Multiview profileや非特許文献2に記載される方法などがある。
非特許文献2の方法では、ブロック毎に動き補償と視差補償のどちらか一方を選択して符号化を行っている。ブロック毎に符号化効率のよいほうを選ぶことによって、時間方向の相関とカメラ間の相関の両方を利用することができ、どちらか一方しか使わない場合に比べて高い符号化効率を達成している。
視差補償では、予測残差のほかに視差ベクトルが符号化される。視差ベクトルとは、フレーム間の時間変化である動きベクトルに対応するものであり、異なる位置に配置されたカメラで撮影された画像平面上で、被写体上の同じ位置が投影されている位置の差を表す。
図14に、このカメラ間で生じる視差ベクトルの概念図を示す。この概念図では、光軸が平行なカメラの画像平面を垂直に見下ろしたものとなっている。
視差ベクトルの符号化においては、動きベクトルの符号化と同様に、符号化対象ブロックの隣接ブロックの視差ベクトルから予測ベクトルを生成し、符号化対象ブロックの視差補償で用いる視差ベクトルとこの予測ベクトルとの差分ベクトルのみを符号化する方法を用いることができる。この方法によれば、隣接ブロック間に視差の連続性がある場合に、視差ベクトルを符号化効率よく符号化することができる。
多視点動画像の各フレームには、時間方向の冗長性とカメラ間の冗長性が同時に存在することから、同時に両方の冗長性を取り除く方法として、下記に示す非特許文献3の手法がある。
この手法では、原画像と視差補償画像との差分画像を時間方向で予測して符号化を行う。つまり、視差補償後の差分画像における動き補償残差を符号化している。
この方法によると、カメラ間の冗長性を取り除く視差補償では取り除くことのできなかった時間方向の冗長性を、動き補償によって取り除くことができるため、最終的に符号化する予測残差が小さくなり、高い符号化効率を達成することが可能である。
ITU-T Rec.H.264/ISO/IEC 11496-10, "Editor's Proposed Draft Text Modifications for Joint Video Specification (ITU-T Rec. H.264 / ISO/IEC 14496-10 AVC), Draft 7", Final Committee Draft, Document JVT-E022, pp. 63-64, September 2002. Hideaki Kimata and Masaki Kitahara, "Preliminary results on multiple view video coding(3DAV)", document M10976 MPEG Redmond Meeting,July, 2004. Shinya Shimizu, Masaki Kitahara,Kazuto Kamikura and Yoshiyuki Yashima, "Multi-view Video Coding based on 3-D Warping with Depth Map", In Proceedings of Picture Coding Symposium 2006, SS3-6, April, 2006.
符号化対象ブロックで実際に用いる動きベクトルや視差ベクトルを、隣接ブロックで使用された動きベクトルや視差ベクトルを用いて生成した予測ベクトルとの差分で符号化するという従来の方法は、実空間上で被写体は連続して存在し、被写体の動きは同じ被写体内では大きくは変化しない確率が高いという事実に基づいているため、符号化対象ブロックで用いる動きベクトルや視差ベクトルを、より少ない符号量で符号化することが可能である。
しかしながら、符号化対象ブロックの画像を予測するのに最適な参照フレームが、隣接ブロックで使われていないような場合、実際に用いる動きベクトルと予測ベクトルとの差は大きくなり、符号量を十分に削減することが出来ない。
特に、ブロック毎に動き補償と視差補償とを適応的に選択して符号化を行う場合、動きベクトルと視差ベクトルとでは性質が大きく異なるため、動きベクトルから視差ベクトルの予測ベクトルを生成したり、視差ベクトルから動きベクトルの予測ベクトルを生成したりすることは不可能であり、動きベクトルや視差ベクトルを効率的に符号化することが出来ない。
一方、Bフレームや、非特許文献3の方法では、より正確に映像を予測し、最終的な符号化の対象となる残差信号を小さくすることで、映像を少ない符号量で符号化することが可能である。
しかしながら、Bフレームでは、2つの参照画像指定情報と2つのベクトル情報とを符号化しなければならないため、これらの予測画像生成のための付加情報の符号量が増えてしまう。
また、非特許文献3の方法でも、視差補償画像を生成するための奥行き(Depth)情報と、視差補償差分画像上での動き補償を行うための動きベクトルとを符号化する必要があり、映像予測のための情報は増加してしまう。
本発明はかかる事情に鑑みてなされたものであって、動画像符号化において、符号化を施す領域とその隣接する領域とでフレーム間予測符号化を行う際に用いる参照フレームが異なる場合においても、符号化対象となるフレーム間予測符号化のためのベクトル情報を効率よく符号化できるようにする新たな技術の提供を目的とする。
この目的を達成するために、本発明は、画像全体を領域分割して、領域毎に、既に符号化済みの複数のフレームの画像情報から予測画像を生成して、符号化対象フレーム内の符号化対象領域の画像と予測画像との差分情報を符号化することで動画像を符号化する動画像符号化方法であって、
既に符号化済みの複数のフレームから、参照ベクトル対象フレームを選択する参照ベクトル対象フレーム選択ステップと、
前記参照ベクトル対象フレームを指定する情報を符号化する参照ベクトル対象フレーム指定情報符号化ステップと、
符号化対象領域に対して、前記参照ベクトル対象フレーム上の領域を示す参照ベクトルを設定する参照ベクトル設定ステップと、
前記参照ベクトルを符号化する参照ベクトル符号化ステップと、
既に符号化済みの複数のフレームから、参照フレームを選択する参照フレーム選択ステップと、
前記参照フレームを指定する情報を符号化する参照フレーム指定情報符号化ステップと、
前記参照ベクトルによって示される参照ベクトル対象フレーム上の参照ベクトル対象領域の画像情報と前記参照フレームとを用いて対応領域の探索を行い、その探索結果に基づいて前記参照フレーム上の参照領域を設定する参照フレーム領域設定ステップと、
前記参照領域に対応する参照フレームの画像情報を用いて、予測画像を生成する予測画像生成ステップと、
符号化対象領域の画像情報と前記生成した予測画像との差分情報を符号化する差分情報符号化ステップと
を有する動画像符号化方法を提供する。
典型例として、前記予測画像生成ステップでは、前記参照領域の画像情報と前記参照ベクトル対象領域の画像情報とから、予測画像を生成する。
別の典型例として、
前記予測画像生成ステップでは、前記参照領域の画像情報から予測画像を生成するのか、前記参照領域の画像情報と前記参照ベクトル対象領域の画像情報とから予測画像を生成するのかを選択して、その選択した生成法を用いて予測画像を生成し、
さらに、前記選択した生成法を指定する情報を符号化する予測画像生成法指定情報符号化ステップを有する。
別の典型例として、前記参照フレーム選択ステップにおいて前記参照ベクトル対象領域を符号化する際に用いた参照フレームを前記参照フレームとして選択する場合には、前記参照フレーム領域設定ステップでは、前記参照ベクトル対象領域を符号化する際に用いた参照領域を、前記参照領域として設定する。
別の典型例として、前記参照フレーム選択ステップにおいて前記参照ベクトル対象領域を符号化する際に用いた参照ベクトル対象フレームを前記参照フレームとして選択する場合には、前記参照フレーム領域設定ステップでは、前記参照ベクトル対象領域を符号化する際に用いた参照ベクトル対象領域を、前記参照領域として設定する。
別の典型例として、前記参照フレーム選択ステップにおいて、符号化対象フレームとの間に、前記参照ベクトル対象領域を符号化する際に用いた参照ベクトル対象フレームと符号化対象領域に対して設定した参照ベクトル対象フレームとの時刻情報及び視点情報の関係に等しい関係を持つ既に符号化済みのフレームを前記参照フレームとして選択する場合には、前記参照フレーム領域設定ステップでは、前記符号化対象領域を始点として、前記参照ベクトル対象領域を符号化する際に用いた参照ベクトルと同じ向きと大きさとを持つベクトルによって示される前記選択した参照フレーム上の領域を、前記参照領域として設定する。
別の典型例として、前記参照フレーム選択ステップにおいて、符号化対象フレームとの間に、前記参照ベクトル対象領域を符号化する際に用いた参照フレームと符号化対象領域に対して設定した参照ベクトル対象フレームとの時刻情報及び視点情報の関係に等しい関係を持つ既に符号化済みのフレームを前記参照フレームとして選択する場合には、前記参照フレーム領域設定ステップでは、前記符号化対象領域を始点として、前記参照ベクトル対象領域と前記参照ベクトル対象領域を符号化する際に用いた参照領域との対応関係を示すベクトルと同じ向きと大きさとを持つベクトルによって示される前記選択した参照フレーム上の領域を、前記参照領域として設定する。
好適例として、
前記参照ベクトル対象フレームや前記参照フレームとは異なる既に符号化済みのフレームを中間フレームとして設定する中間フレーム設定ステップを有し、
前記参照フレーム領域設定ステップでは、前記参照ベクトル対象領域の情報を用いて前記中間フレーム上の領域であるところの中間領域を設定し、その中間領域の情報、あるいは、その中間領域の情報及び前記参照ベクトル対象領域の情報を用いて前記参照領域を設定する。
この場合、
前記中間フレーム設定ステップでは、前記参照ベクトル対象フレームとの時刻及び視点情報の関係が、前記符号化対象フレームと前記参照フレームとの時刻及び視点情報の関係と同じである既に符号化済みのフレームを中間フレームとして設定し、
前記予測画像生成ステップでは、前記参照領域の画像情報と前記中間領域の画像情報と前記参照ベクトル対象領域の画像情報とから、予測画像を生成する
ようにしても良い。
同様に、上記の場合、
前記中間フレーム設定ステップでは、前記参照ベクトル対象フレームとの時刻及び視点情報の関係が、前記符号化対象フレームと前記参照フレームとの時刻及び視点情報の関係と同じである既に符号化済みのフレームを中間フレームとして設定し、
前記予測画像生成ステップでは、前記参照領域の画像情報から予測画像を生成するのか、前記参照領域の画像情報と前記参照ベクトル対象領域の画像情報とから予測画像を生成するのか、前記参照領域の画像情報と前記中間領域の画像情報と前記参照ベクトル対象領域の画像情報とから予測画像を生成するのかを選択して、その選択した生成法を用いて予測画像を生成し、
さらに、前記選択した生成法を指定する情報を符号化する予測画像生成法指定情報符号化ステップを有するようにしても良い。
前記予測画像生成法指定情報符号化ステップを有する場合、
前記参照フレーム指定情報符号化ステップでは、前記参照ベクトル対象領域の符号化データを用いて、参照フレーム指定情報を符号化する際の符号語テーブルを切り替え、
前記予測画像生成法指定情報符号化ステップでは、前記参照ベクトル対象領域の符号化データ、前記参照フレーム、及び前記参照ベクトル対象フレームの少なくとも1つに応じて、予測画像生成法指定情報を符号化する際の符号語テーブルを切り替える
ようにしても良い。
本発明はまた、画像全体を領域分割して、領域毎に、既に復号済みの複数のフレームの画像情報から予測画像を生成して、予測画像と復号対象フレーム内の復号対象領域の画像との差分情報を復号することで動画像を復号する動画像復号方法であって、
符号化データから、既に復号済みの複数のフレームの中から選択される参照ベクトル対象フレームを指定する情報を復号する参照ベクトル対象フレーム指定情報復号ステップと、
符号化データから、復号対象領域に対して設定される前記参照ベクトル対象フレーム上の領域を示す参照ベクトルを復号する参照ベクトル復号ステップと、
符号化データから、既に復号済みの複数のフレームの中から選択される参照フレームを指定する情報を復号する参照フレーム指定情報復号ステップと、
前記参照ベクトルによって示される参照ベクトル対象フレーム上の参照ベクトル対象領域の画像情報と前記参照フレームとを用いて対応領域の探索を行い、その探索結果に基づいて前記参照フレーム上の参照領域を設定する参照フレーム領域設定ステップと、
前記参照領域に対応する参照フレームの画像情報を用いて、予測画像を生成する予測画像生成ステップと
を有する動画像復号方法を提供する。
典型例として、前記予測画像生成ステップでは、前記参照領域の画像情報と前記参照ベクトル対象領域の画像情報とから、予測画像を生成する。
別の典型例として、
符号化データから、前記参照領域の画像情報から予測画像を生成するのか、前記参照領域の画像情報と前記参照ベクトル対象領域の画像情報とから予測画像を生成するのかを指定する情報を復号する予測画像生成法指定情報復号ステップを有し、
前記予測画像生成ステップでは、前記復号した情報の指定する生成法を用いて予測画像を生成する。
別の典型例として、前記参照ベクトル対象領域を復号する際に復号された参照フレーム指定情報の示すフレームが、前記参照フレームと等しい場合、前記参照フレーム領域設定ステップでは、前記参照ベクトル対象領域を復号する際に用いた参照領域を、前記参照領域として設定する。
別の典型例として、前記参照ベクトル対象領域を復号する際に復号された参照ベクトル対象フレーム指定情報の示すフレームが前記参照フレームと等しい場合、前記参照フレーム領域設定ステップでは、前記参照ベクトル対象領域を復号する際に用いた参照ベクトル対象領域を、前記参照領域として設定する。
別の典型例として、前記参照ベクトル対象フレームと前記参照ベクトル対象領域を復号する際に復号された参照ベクトル対象フレーム指定情報の示すフレームとの時刻情報及び視点情報の関係が、前記復号対象フレームと前記参照フレームとの時刻情報及び視点情報の関係に等しい場合、前記参照フレーム領域設定ステップでは、前記復号対象領域を始点として、前記参照ベクトル対象領域を復号する際に用いた参照ベクトルと同じ向きと大きさとを持つベクトルによって示される参照フレーム上の領域を、前記参照領域として設定する。
別の典型例として、前記参照ベクトル対象フレームと前記参照ベクトル対象領域を復号する際に復号された参照フレーム指定情報の示すフレームとの時刻情報及び視点情報の関係が、前記復号対象フレームと前記参照フレームとの時刻情報及び視点情報の関係に等しい場合、前記参照フレーム領域設定ステップでは、前記復号対象領域を始点として、前記参照ベクトル対象領域と前記参照ベクトル対象領域を復号する際に用いた参照領域との対応関係を示すベクトルと同じ向きと大きさとを持つベクトルによって示される参照フレーム上の領域を、前記参照領域として設定する。
好適例として、
前記参照ベクトル対象フレームや前記参照フレームとは異なる既に復号済みのフレームを中間フレームとして設定する中間フレーム設定ステップを有し、
前記参照フレーム領域設定ステップでは、前記参照ベクトル対象領域の情報を用いて前記中間フレーム上の領域であるところの中間領域を設定し、その中間領域の情報、あるいは、その中間領域の情報及び前記参照ベクトル対象領域の情報を用いて前記参照領域を設定する。
この場合、
前記中間フレーム設定ステップでは、前記参照ベクトル対象フレームとの時刻及び視点情報の関係が、前記復号対象フレームと前記参照フレームとの時刻及び視点情報の関係と同じである既に復号済のフレームを中間フレームとして設定し、
前記予測画像生成ステップでは、前記参照領域の画像情報と前記中間領域の画像情報と前記参照ベクトル対象領域の画像情報とから、予測画像を生成する
ようにしても良い。
同様に、上記の場合、
前記中間フレーム設定ステップでは、前記参照ベクトル対象フレームとの時刻及び視点情報の関係が、前記復号対象フレームと前記参照フレームとの時刻及び視点情報の関係と同じである既に復号済のフレームを中間フレームとして設定し、
符号化データから、前記参照領域の画像情報から予測画像を生成するのか、前記参照領域の画像情報と前記参照ベクトル対象領域の画像情報とから予測画像を生成するのか、前記参照領域の画像情報と前記中間領域の画像情報と前記参照ベクトル対象領域の画像情報とから予測画像を生成するのかを指定する情報を復号する予測画像生成法指定情報復号ステップを有し、
前記予測画像生成ステップでは、前記復号した情報の指定する生成法を用いて予測画像を生成する
ようにしても良い。
前記予測画像生成法指定情報復号ステップを有する場合、
前記参照フレーム指定情報復号ステップでは、前記参照ベクトル対象領域の復号データを用いて、参照フレーム指定情報を復号する際の符号語テーブルを切り替え、
前記予測画像生成法指定情報復号ステップでは、前記参照ベクトル対象領域の復号データ、前記参照フレーム、及び前記参照ベクトル対象フレームの少なくとも1つに応じて、予測画像生成法指定情報を復号する際の符号語テーブルを切り替える
ようにしても良い。
本発明はまた、上記動画像符号化方法における各ステップを実現する手段を備える動画像符号化装置、当該各ステップをコンピュータに実行させるための動画像符号化プログラム、当該プログラムを記録したコンピュータ読み取り可能な記録媒体を提供する。
本発明はまた、上記動画像復号方法における各ステップを実現する手段を備える動画像復号装置、当該各ステップをコンピュータに実行させるための動画像復号プログラム、当該プログラムを記録したコンピュータ読み取り可能な記録媒体を提供する。
本発明によれば、隣接領域で予測画像を生成する際の参照フレームが異なる場合においても、同じ参照ベクトル対象フレームを用いることで、ベクトルで表現しなければならない時間や視差といった映像変化の要因が統一され、隣接領域で符号化されたベクトルから、符号化すべきベクトルに近い予測ベクトルを生成できるようになり、これにより、より少ない符号量でフレーム間予測符号化のためのベクトル情報を符号化することができるようになる。
参照ベクトル対象領域符号化時の参照フレームを用いた参照領域決定法の一例を示す図である。 参照ベクトル対象領域符号化時の参照ベクトル対象フレームを用いた参照領域決定法の一例を示す図である。 参照ベクトル対象領域符号化時の参照ベクトルを用いた参照領域決定法の一例を示す図である。 参照ベクトル対象領域符号化時のベクトルを用いた参照領域決定法の一例を示す図である。 参照ベクトル対象領域符号化時の参照ベクトルを用いた参照領域決定法の一例を示す図である。 本発明の動画像符号化装置の一実施形態例である。 本実施形態例の動画像符号化装置が実行する動画像符号化処理のフローチャートの一例である。 本実施形態例における中間フレームを用いない場合の参照領域決定処理のフローチャートの一例である。 本実施形態例における中間フレームを用いる場合の参照領域決定処理のフローチャートの一例である。 本実施形態例における対応領域探索処理のフローチャートの一例である。 本発明の動画像復号装置の一実施形態例である。 本実施形態例の動画像復号装置が実行する動画像復号処理のフローチャートの一例である。 H.264における動きベクトル予測の説明図である。 同様に、H.264における動きベクトル予測の説明図である。 同様に、H.264における動きベクトル予測の説明図である。 同様に、H.264における動きベクトル予測の説明図である。 カメラ間で生ずる視差の説明図である。
符号の説明
100 動画像符号化装置
101 画像入力部
102 予測画像作成部
103 差分画像符号化部
104 差分画像復号部
105 参照フレームメモリ
106 参照フレーム設定部
107 参照ベクトル対象フレーム設定部
108 予測画像生成法設定部
109 付加情報符号化部
110 参照ベクトル対象領域探索部
111 参照領域探索部
112 対応関係情報蓄積メモリ
113 予測参照ベクトル生成部
114 差分参照ベクトル符号化部
本発明においては、符号化対象領域の画像情報を符号化する際のフレーム間予測符号化のためのベクトル情報を設定するにあたり、予測画像を生成するための参照フレーム上の領域を示すベクトルではなくて、ベクトルを表すために用いられるフレームであるところの参照ベクトル対象フレームを設定し、その参照ベクトル対象フレーム上の領域を示す参照ベクトルを求めて符号化し、参照ベクトルによって示される参照ベクトル対象フレーム上の参照ベクトル対象領域の画像情報と参照フレームとを用いて、ブロックマッチングなどの対応点探索を行い、その結果得られる参照フレーム上の参照領域の画像情報を用いて予測画像を生成する。
これにより、隣接領域間で参照フレームが異なる場合においても、効率的にフレーム間予測符号化のためのベクトル情報を符号化することができる。
従来の方法では、符号化対象領域(符号化の単位領域)毎に符号化するフレーム間予測符号化のためのベクトル情報は、各符号化対象領域に対して設定された参照フレームから符号化対象フレームへの映像変化を表すベクトルで表されていた。
そのため、従来の方法では、隣接領域で参照フレームが異なる場合には、ベクトルが表している映像変化が発生している要因(時間であるのか、カメラであるのか、長時間であるのか、短時間であるのか)が異なり、予測ベクトルによって表される映像変化が、符号化しようとしているベクトルによって表したい映像変化と異なる場合がある。
その場合、生成された予測ベクトルは符号化したいベクトルを精度よく予測できない。それどころか、符号化したいベクトルと予測ベクトルとの差分ベクトルを符号化するのにかかる符号量が、符号化したいベクトルをそのまま符号化した場合にかかる符号量よりも多くなってしまう場合もある。
これに対して、本発明によれば、隣接領域で予測画像を生成する際の参照フレームが異なる場合においても、同じ参照ベクトル対象フレームを用いることで、ベクトルで表現される映像変化の要因が統一され、符号化すべきベクトルに近い予測ベクトルを生成できるようになり、これにより、より少ない符号量でフレーム間予測符号化のためのベクトル情報を符号化することが可能である。
ここで、参照ベクトル対象フレームを指定する参照ベクトル対象フレーム指定情報と、参照フレームを指定する参照フレーム指定情報とは別々に符号化しても構わないし、両者を指定できる情報としてまとめて符号化しても構わない。
つまり、符号化済みフレームが2枚ある場合、参照ベクトル対象フレーム指定情報と参照フレーム指定情報とを別々に符号化するとは、それぞれに対して0〜1の数字を符号化することであり、両者を指定できる情報として符号化するとは、(0,0)、(0,1)、(1,0)、(1,1)の4種類の内のいずれかを示す情報を符号化するようにできる。
また、本発明では、符号化対象領域に対して一つの参照ベクトルを符号化することによって、参照ベクトル対象フレーム上と参照フレーム上とに1つずつ、つまり合計2つの対応領域が得られるため、Bフレームのように2つの領域の画像情報を用いて予測画像を生成することも可能である。
さらに、2つの対応領域が得られた場合に、両方の対応領域の画像情報を用いて予測画像を生成するのか、参照フレーム上の対応領域(参照領域)の画像情報だけを用いて予測画像を生成するのかを選択して符号化を行うことも可能である。
ただし、その場合は、どちらの方法を用いて予測画像を生成したのかを示す情報を符号化する必要がある。
ここで、予測画像の生成法を選択する基準としては、それぞれの予測画像でその領域を符号化してみた際のレート歪コストを用いる方法や、入力画像と予測画像との差分絶対値和や、入力画像と予測画像との差で生成される予測残差画像の画素値の分散値を用いる方法などがあるが、どのような基準を用いても構わない。
予測画像の生成法を指定する情報を符号化する場合、そのまま符号化しても構わないし、別の符号化すべき情報と共に符号化しても構わない。例えば、参照ベクトル対象フレーム指定情報や参照フレーム指定情報などと一緒に符号化しても構わない。
つまり、参照フレーム指定情報として0または1を符号化し、予測画像の生成法を指定する情報として0または1を符号化しても構わないし、両者の組で(0,0)、(0,1)、(1,0)、(1,1)の4種類の内のいずれかを示す情報を符号化しても構わない。
参照フレームとして、参照ベクトル対象領域を符号化する際に用いた参照フレームを選択したり、参照ベクトル対象領域を符号化する際に用いた参照ベクトル対象フレームを選択して良い。
この場合、参照フレーム上の参照領域として、それぞれの場合に対応して、参照ベクトル対象領域を符号化する際に参照領域として用いた領域を設定したり、参照ベクトル対象領域を符号化する際に参照ベクトル対象領域として用いた領域を設定しても構わない。
図1および図2に、このような方法によって設定される参照領域の一例を示す。
図1は、参照フレームとして、参照ベクトル対象領域を符号化する際に用いた参照フレームを選択し、参照フレーム上の参照領域として、参照ベクトル対象領域を符号化する際に参照領域として用いた領域を設定する場合の処理例を示す。
また、図2は、参照フレームとして、参照ベクトル対象領域を符号化する際に用いた参照ベクトル対象フレームを選択し、参照フレーム上の参照領域として、参照ベクトル対象領域を符号化する際に参照ベクトル対象領域として用いた領域を設定する場合の処理例を示す。
参照ベクトル対象領域を符号化する際に参照ベクトル対象領域や参照領域として選ばれた領域は、参照ベクトル対象領域の画像情報を予測するために用いられた領域であるため、参照ベクトル対象領域の画像情報に類似した画像情報を有する参照ベクトル対象領域を符号化する際に利用した参照ベクトル対象フレーム上の領域であったり、参照ベクトル対象領域を符号化する際に利用した参照フレーム上の領域であると言える。
つまり、参照ベクトル対象領域に対する参照フレーム上の領域を求めたとしても、この参照フレームと上記それぞれの場合で利用したフレーム(参照ベクトル対象フレームもしくは参照フレーム)とが一致する場合は、前記の参照ベクトル対象領域を符号化する際に参照ベクトル対象領域や参照領域として選ばれた領域が選択されることになる。
このようにして、参照ベクトル対象領域の符号化情報から、参照フレーム上の参照領域を設定することで、予測画像の品質を保ったまま、符号化/復号において実施すべき対応領域探索の回数を削減することが可能となる。
参照フレームとして、符号化対象フレームとの間に、
(i)参照ベクトル対象領域を符号化する際に用いた参照ベクトル対象フレームと、符号化対象領域に対して設定した参照ベクトル対象フレームとの時刻情報及び視点情報の関係に等しい関係を持つ既に符号化済みのフレームを選択したり、
(ii)参照ベクトル対象領域を符号化する際に用いた参照フレームと符号化対象領域に対して設定した参照ベクトル対象フレームとの時刻情報及び視点情報の関係に等しい関係を持つ既に符号化済みのフレームを選択することができる。
上記それぞれの場合に対して、参照領域として、
(i)符号化対象領域を始点として、参照ベクトル対象領域を符号化する際に用いた参照ベクトルと同じ向きと大きさとを持つベクトルによって示される(選択した)参照フレーム上の領域を設定したり、
(ii)符号化対象領域を始点として、参照ベクトル対象領域と参照ベクトル対象領域を符号化する際に用いた参照領域との対応関係を示すベクトルと同じ向きと大きさとを持つベクトルによって示される(選択した)参照フレーム上の領域を設定しても構わない。
図3〜5に、この方法によって設定される参照領域の一例を示す。
図3や図4のように、与えられるいくつかの対応領域関係が、カメラ(視点)もしくは時刻のどちらか一方が同じ場合でも、また、図5のようにどちらも異なっている場合でも、この方法を用いて符号化対象領域に対して唯一の参照領域を設定することが可能である。
この方法では、図3や図4のように対応領域においてカメラもしくは時刻のどちらか一方が同じである場合には、時刻によらず、視差を生み出す各カメラから被写体までの距離に大きな差がないことを仮定して、符号化対象領域に適した参照領域を指定する。
また、図5の場合では、それに加えて各時刻間で被写体の動きが連続であることを仮定して、符号化対象領域に適した参照領域を指定する。
1つ目の仮定は、ある注目対象を撮影した多視点映像や、風景のようなものを撮影した多視点映像など、通常よく目にする映像はこのような状態にあるといえるため、ほとんどの場合で成立する。
2つ目の仮定は、一般には成り立たないが、フレーム間の時間が短い場合には、物体は一般的に等速直線運動をしていると仮定できるため、多くの場合で成立するとすることができる。
しかし、後者の仮説はフレーム間の時間が長くなると成立しなくなる可能性が高いため、この方法は、図3や図4のように対応領域においてカメラもしくは時刻のどちらか一方が同じである場合にのみ適用してもよいし、対応関係のフレーム間の時間が長くなった場合にのみ適用するのをやめても構わない。
上記のような動画像復号方法では、参照ベクトル対象領域を符号化するときの情報を用いて参照領域を設定することで、対応領域探索の回数を削減している。
しかしながら、レート歪最適化の影響や、仮定した状態が成り立たない場合には、これらの方法で設定した参照領域は、符号化対象領域の予測画像を生成するのに最適ではなくなってしまう場合がある。
そこで、最適な領域とズレが発生していたとしてもそれほど大きくはないという特性があることを考慮して、これらの方法で設定された参照領域を一時的な参照領域として、その周辺のみを探索対象として対応領域探索をすることで予測画像を生成するのにより最適な可能性を高めてもよい。
この方法では、単純に対応領域探索するよりも少ない演算コストで、ほぼ同等の品質の対応点が見つけられる。
また、参照ベクトル対象領域の画像情報や符号化情報を用いて、参照フレーム上の参照領域を直接設定するのではなく、参照ベクトル対象フレームや参照フレームとは異なる既に符号化済みのフレームを中間フレームとして設定して、まず、参照ベクトル対象領域の画像情報や符号化情報を用いて中間フレーム上の対応領域であるところの中間領域を設定し、その後で、中間領域の画像情報や符号化情報を用いて参照フレーム上の対応領域を設定し、その領域を参照領域としてもよい。
一般に、フレーム間の映像の視差変化による対応領域を見つけるためには、時間変化による対応領域を見つける場合よりも、狭い範囲の探索範囲でよい。なぜならば、映像の視差変化はカメラ配置によるものなので、一定の方向にしか生じず、その変化量もある程度限られた範囲であるからである。
特に画像を撮影したカメラパラメータが既知の場合は、エピポーラ幾何制約が成り立つため、一方のカメラで撮影された画像上のある領域は、他方のカメラで撮影された画像上に存在する直線上に存在することになり、カメラパラメータの誤差の影響も含め、その直線の周辺の領域のみを探索すれば十分である。
しかしながら、フレーム間の視差変化と時間変化の両方が含まれている場合には、この性質を使えないだけでなく、時間変化のみを見つける場合よりも多くの範囲を探索する必要が生じる。
そこで、中間フレームを設定するというこの方法によると、中間領域を設定することで、1段階目と2段階目の探索で、それぞれ時間とカメラ間のどちらか一方の要因による映像変化による対応領域を探索すればよいようにすることができる。このようにすることで、直接参照領域を求めるよりも、少ない演算回数で対応領域を求めることができる。
また、中間フレームとして、参照ベクトル対象領域を符号化する際に使用した参照ベクトル対象フレームを設定したり、あるいは、参照ベクトル対象領域を符号化する際に使用した参照フレームを設定して、それぞれの場合で、参照ベクトル対象領域を符号化する際に使用した参照ベクトル対象領域を中間領域に設定したり、参照ベクトル対象領域を符号化する際に使用した参照領域を中間領域に設定してもよい。
このとき、中間フレームが参照ベクトル対象フレームよりも参照フレームに近接する場合、中間領域から参照領域を求める探索は、参照ベクトル対象領域から参照領域を求める探索より楽になり、演算量を削減することが可能となる。
なお、中間領域から参照領域を設定する際に、中間領域の画像情報と符号化情報だけでなく、参照ベクトル対象領域の画像情報と符号化情報を合わせて用いてもよい。
中間フレームとして、参照ベクトル対象フレームとの時刻及び視点情報の関係が、符号化対象フレームと参照フレームとの時刻及び視点情報の関係と同じである既に符号化済みのフレームを設定した場合、符号化対象領域に対して与えられる3つの対応領域の画像情報、すなわち、参照ベクトル対象領域の画像情報、中間領域の画像情報、参照領域の画像情報とを用いて、予測画像を生成してもよい。
3つの対応領域の画像情報から予測画像を生成する方法としては、画素ごとに平均値をとる方法や、中間値を取る方法がある。
また、参照フレームと符号化対象フレームとの関係と、中間フレームと参照ベクトル対象フレームとの関係が等しいことから、中間領域と参照ベクトル対象領域との間の変化が、参照領域と符号化対象領域との間に起こると仮定して、次の式に従って予測画像を生成してもよい。
ここで、pix は領域内での画素位置を示し、Pred は予測画像を示し、Refは参照領域の画像情報を示し、RVecは参照ベクトル対象領域の画像情報を示し、Midは中間領域の画像情報を示す。
これらの方法では、符号化の必要な予測画像生成のための情報を増やすことなく、より多くの対応領域の情報を用いることで、符号化対象領域の画像情報に近い予測画像を生成することが可能となる。
なお、どのような方法で予測画像を生成してもよいが、符号化側と復号側とで、どの方法で予測画像を生成するかを一致させなければならない。
また、参照領域の画像情報から予測画像を生成するのか、参照領域の画像情報と参照ベクトル対象領域の画像情報とから予測画像を生成するのか、参照領域の画像情報と参照ベクトル対象領域の画像情報と中間領域の画像情報とから予測画像を生成するのかを、選択しながら符号化を行ってもよい。
ただし、この場合は、どの領域の画像情報を予測画像生成に使用したかを示す情報を符号化する必要がある。
上記に挙げた以外の領域の組合せで予測画像を作る方法に対しても情報を割り当てて使用することも可能であるし、上記に挙げた3つの領域を使う場合の予測画像の生成法それぞれに対して情報を割り当てて予測画像の生成法を選択できるようにしてもよい。
さらに、これらの予測画像生成法を示す情報を符号化する際に、その情報のみを独立して符号化してもよいし、別の符号化すべき情報と共に符号化しても構わない。例えば、参照フレーム指定情報などと一緒に符号化してもよい。
つまり、参照フレーム指定情報として0または1を符号化して、予測画像の生成法を指定する情報として0または1または2を符号化しても構わないし、両者の組で(0,0)、(0,1)、(0,2)、(1,0)、(1,1)、(1,2)の6種類の内のいずれかを示す情報を符号化してもよい。
参照ベクトル対象領域がフレーム間の映像予測を行わずに符号化されている場合、その参照ベクトル対象領域の画像情報を予測するのに適した既に符号化済みのフレーム及びそのフレーム上の領域が見つからないことを示す。
そのため、そのような参照ベクトル対象領域に対応している符号化対象領域においても、予測画像を生成するための領域として、参照ベクトル対象フレーム以外のフレーム上の領域が選ばれることは少ないと考えられる。
そこで、参照フレーム指定情報を符号化する際に、参・BR>ニベクトル対象フレームと同じフレームを指定する情報に対する符号語を短くすることで、より少ない符号量で参照フレーム指定情報を符号化することができる。
また、対応関係があるとされた参照ベクトル対象領域を符号化する際に用いられている参照フレームや参照ベクトル対象フレームに対応したフレームを指定する情報に対する符号語を短くすることで、より少ない符号量で参照フレーム指定情報を符号化することができる。
つまり、参照ベクトル対象領域における符号化情報を用いて、参照フレーム指定情報を符号化する際の符号語テーブルを切り替えることで、より少ない符号量で参照フレーム指定情報を符号化することができる。
また、同様に、予測画像生成法指定情報を符号化する際にも、参照ベクトル対象領域における符号化情報を用いて、符号語テーブルを切り替えてもよい。
以下、実施の形態に従って本発明を詳細に説明する。
図6に、本発明の動画像符号化装置100の一実施形態例を示す。
この動画像符号化装置100は、符号化対象となる画像を入力する画像入力部101と、符号化対象画像を分割した領域毎に、既に符号化済みの画像から予測画像を作成する予測画像作成部102と、入力画像と予測画像との差分画像を符号化する差分画像符号化部103と、差分画像の符号化データを復号する差分画像復号部104と、復号された差分画像と予測画像との和によって生成される符号化対象領域の復号画像を蓄積する参照フレームメモリ105と、参照フレームメモリ105の中から、予測画像を生成するための参照フレームを設定する参照フレーム設定部106と、参照フレームメモリ105の中から、符号化するベクトル情報の参照対象としてのフレームとなる参照ベクトル対象フレームを設定する参照ベクトル対象フレーム設定部107と、得られた対応領域に対して予測画像を生成する方法を設定する予測画像生成法設定部108と、参照フレーム指定情報と参照ベクトル対象フレーム指定情報と予測画像生成法指定情報とからなる付加情報を符号化する付加情報符号化部109と、入力画像と参照ベクトル対象フレームとを用いて参照ベクトルを求める参照ベクトル対象領域探索部110と、参照ベクトル対象領域の画像情報と参照フレームとを用いて参照領域を探索する参照領域探索部111と、符号化に用いた参照ベクトルと参照領域と参照ベクトル対象フレームと参照フレームとの組を、符号化対象フレーム及び符号化対象領域に関係付けて蓄積する対応関係情報蓄積メモリ112と、符号化対象領域の隣接領域を符号化する際に用いた参照ベクトルから、符号化対象領域の参照ベクトルに対する予測参照ベクトルを生成する予測参照ベクトル生成部113と、参照ベクトルと予測参照ベクトルとの差分の差分参照ベクトルを符号化する差分参照ベクトル符号化部114とを備える。
図7に、このように構成される動画像符号化装置100の実行する動画像符号化処理のフローチャートを示す。
なお、以下の各クローチャートにおいて、インデックスが付されたブロックやフレームは、そのインデックスが示すブロックやフレームを指す。
このフローチャートに従って、このように構成される動画像符号化装置100の実行する動画像符号化処理について詳細に説明する。ただし、既に複数フレームの画像を符号化済みであり、その結果が参照フレームメモリ105、対応関係情報蓄積メモリ112に蓄積されているものとする。
まず、画像入力部101より符号化対象となる画像が入力される[S101]。入力された符号化対象画像は画像全体を領域分割され領域毎に符号化を行う[S102〜S131]。
このフローチャートでは、ブロック(領域)のインデックスをblk と表し、一つの画像に対する総ブロック数をMaxBlkと表す。
つまり、インデックスblk を1に初期化した後[S102]、blk がMaxBlkになるまで[S130]、blk に1を加算しながら[S131]、以下の処理[S103〜S129]を繰り返し実行することになる。
ブロック毎に行う処理では、そのブロックを符号化するために用いる参照ベクトル対象フレームbest_ref_vec と、参照フレームbest_ref と、参照ベクトルbest_mv_ref と、参照フレーム上の参照領域を示すベクトルbest_mvと、予測画像生成法best_pmode と、予測参照ベクトルbest_pmv とを求め[S113〜S126]、これらの情報を用いて符号化対象領域の画像情報に対する予測画像を生成し[S127]、best_ref_vec とbest_ref とbest_pmode とからなる付加情報を付加情報符号化部109で符号化し、“best_mv_ref −best_pmv ”を差分参照ベクトル符号化部114で符号化し、入力画像と予測画像との差分画像を差分画像符号化部103で符号化し、これらの符号化データを出力する[S128]。
そして、以後の符号化処理のために、符号化データを復号して復号画像を参照フレームメモリ105に格納し、予測画像生成のために用いた対応領域(best_mv_ref の指す参照ベクトル対象領域と、best_mvの指す参照領域という2つの領域)に関する情報については、符号化対象フレームの番号とブロックblk の画像上の位置とに対応付けて対応関係情報蓄積メモリ112に格納する[S129]。
つまり、対応関係情報蓄積メモリ112には、符号化対象フレームを示すインデックス値をcur とし、画像上の、ブロックblk の位置をpos とすると、
{cur, pos, best_ref, best_ref_vec, best_mv_ref, best_mv}
の組を格納することになる。
なお、S127の予測画像生成処理とS128の付加情報符号化処理とに関しては、後で詳しく説明する。
符号化時に用いる予測画像を生成するための情報は、参照ベクトル対象フレームとして利用可能な全ての参照フレームメモリ105上の符号化済みフレームに対して、以下の処理[S104〜S124]を繰り返し実行することで求める。
つまり、参照ベクトル対象フレームインデックス ref_vec を1に初期化し、ブロックblk に対する最小レート歪コストbestCostを絶対に取りえない最大値MaxCost に初期化し、pos にブロックblk の画像上の位置を設定した後[S103]、 ref_vec が参照フレームメモリ105に蓄えられている参照可能なフレームの数NumOfRefになるまで[S125]、 ref_vec に1を加算しながら[S126]、ブロックblk に隣接する既に符号化済みのブロックにおける参照ベクトルから予測参照ベクトルpmv を生成し[S104]、参照ベクトル対象フレームを ref_vec が示すフレームとしたときに、レート歪コストが最小となるような、参照ベクトルと参照フレームと参照領域と予測画像生成法との組合せを求める処理[S105〜S124]を繰り返す。
当該処理においては、参照フレームとして利用可能な全ての参照フレームメモリ105上の符号化済みフレームに対して、以下の処理[S106〜S122]を繰り返し実行する。
つまり、参照フレームインデックスref を1に初期化した後[S105]、ref がNumOfRefになるまで[S123]、ref に1を加算しながら[S124]、 ref_vec とref とが一致するかどうかを判定し[S106]、一致すると判定された場合、すなわち、参照ベクトル対象フレームが実質的に存在しない状態となる場合(従来と同じ状態になる場合)には、参照フレームおよび参照ベクトル対象フレームをref が示すフレームとしたときに、レート歪コストが最小となるような参照ベクトルを求める処理[S107〜S114]を繰り返し実行する。
当該処理においては、参照ベクトル候補インデックスmv_ref_idx を1に初期化した後[S107]、mv_ref_idx が予め設定されている参照ベクトル候補数NumOfListMvRefに等しくなるまで[S113]、mv_ref_idx に1を加算しながら[S114]、mv_ref_idx に対応する参照ベクトルをmv_ref に設定し[S108]、フレームref 上の位置 pos+mv_ref の領域の画像情報を予測画像Pred[] とし[S109]、レート歪コストcostを計算して[S110]、costがbestCostよりも小さいかどうか判定する[S111]。
costのほうが小さいと判定された場合、bestCostをcostに書き換え、best_ref をref に書き換え、best_ref_vec をref に書き換え、best_ref_mid をref に書き換え、best_mvを0(ゼロベクトル)に書き換え、best_mv_ref をmv_ref に書き換え、best_pmode を1に書き換え、best_pmv をpmv に書き換える[S112]、という処理[S108〜S112]を繰り返し実行する。
ここで、S110の処理で計算されるレート歪コストについては、実際に、差分画像と差分参照ベクトル“mv_ref −pmv ”と付加情報とを符号化して符号量を計算し、それらを復号して品質劣化を計算して下記の〔数2〕式に基づいて計算してもよいし、下記の〔数3〕式に基づいて簡易レート歪コストを用いて計算してもよい。
ただし、1つのブロックblk を符号化する際の処理では、用いる式を統一しなければならない。
ここで、λ1 はラグランジュの未定乗数であり、予め設定された値が利用される。pix は画素位置を示し、Org[]は入力画像の符号化対象領域の画像情報を示し、Dec[]は復号画像の画像情報を示す。bit(vector,ref1,ref2,mode)は、差分参照ベクトルとしてvectorを符号化し、参照ベクトル対象フレーム指定情報としてref1を符号化し、参照フレーム指定情報としてref2を符号化し、予測画像生成法指定情報としてmodeを符号化した際に必要だった符号量を返す関数を表す。BITSは差分画像Res[](=Org[]−Pred[])を符号化した際に必要だった符号量を示す。
ここで、λ2 はラグランジュの未定乗数であり、予め設定された値が利用される。pbit(vector,ref1,ref2,mode) は、差分参照ベクトルとしてvectorを符号化し、参照ベクトル対象フレーム指定情報としてref1を符号化し、参照フレーム指定情報としてref2を符号化し、予測画像生成法指定情報としてmodeを符号化した際に必要だった符号量を返す関数を表す。
一方、S106の判定処理で、 ref_vec とref とが一致しないと判定された場合(参照ベクトル対象フレームと参照フレームとが一致しないと判定された場合)は、参照フレームをref が示すフレームとし、参照ベクトル対象フレームを ref_vec が示すフレームとしたときに、最小のレート歪コストmcost を与える参照ベクトル b_mv_ref と、参照領域を示すベクトル b_mvと、予測画像生成法インデックス b_pmode とを求める[S117]。
このS117における処理については後で詳細に説明する。
そして、mcost がbestCostよりも小さいかどうかを判定し[S118]、mcost の方が小さい場合には、bestCostをmcost に書き換え、best_ref をref に書き換え、best_ref_vec を ref_vec に書き換え、best_mvを b_mvに書き換え、best_mv_ref を b_mv_ref に書き換え、best_pmode を b_pmode に書き換え、best_pmv をpmv に書き換える[S119]。
一方、mcost の方が大きい場合には、このS119の処理を省略する。
続いて、ref_vec が示すフレームとの時刻関係及び視点関係が、符号化対象フレームとref が示すフレームとの時刻関係及び視点関係に一致するような既に符号化済みのフレーム(中間フレーム)を見つけて、それを示すインデックスを ref_mid とする[S115]。
なお、前述の条件を満たす符号化済みフレームが参照フレームメモリ105内に存在しない場合、 ref_mid はref に設定する。
そして、 ref_mid がref 又は ref_vec に一致するかどうかを判定する[S116]。
このS116の判定処理で、 ref_mid がref とも ref_vec とも異なると判定された場合は、参照フレームをref が示すフレームとし、参照ベクトル対象フレームを ref_vec が示すフレームとし、中間フレームを ref_mid が示すフレームとしたときに、最小のレート歪コストmcost を与える、参照ベクトル b_mv_ref と、中間領域を示すベクトル b_mv_mid と、参照領域を示すベクトル b_mvと、予測画像生成法インデックス b_pmode とを求める[S120]。
このS120における処理については後で詳細に説明する。
そして、mcost がbestCostよりも小さいかどうかを判定し[S121]、mcost の方が小さい場合には、bestCostをmcost に書き換え、best_ref をref に書き換え、best_ref_vec を ref_vec に書き換え、best_ref_mid を ref_mid に書き換え、best_mvを b_mvに書き換え、best_mv_ref を b_mv_ref に書き換え、best_mv_mid を b_mv_mid に書き換え、best_pmode を b_pmode に書き換え、best_pmv をpmv に書き換える[S122]。
一方、S121の判定処理で、mcost の方が大きい場合には、このS122の処理を省略する。
また、S116の判定処理で、 ref_mid がref に一致するか、 ref_mid が ref_vec に一致する場合にも、このS122を含むS120〜S122の処理を省略する。
ここで、S117の処理を行ってからS120の処理を行うのは、中間フレームを作成した方がレート歪コストが低くなる場合があるからである。
次に、図8に示すフローチャートに従って、S117で行われる処理について詳細に説明する。
この処理では、参照ベクトルを変化させながら、そのとき設定された参照ベクトルに対して、参照領域を求め、そのときに最適なレート歪コストを与える予測画像の生成法を求めるという処理を行う。
つまり、参照ベクトル候補インデックスmv_ref_idx を1に初期化し、最小レート歪コストmcost を絶対に取りえない最大値maxCost に初期化した後[S201]、mv_ref_idx が割り当てられた参照ベクトル候補数NumOfListMvRefになるまで[S212]、mv_ref_idx に1を加算しながら[S213]、以下の処理[S202〜S211]を繰り返し実行する。
この繰り返し実行する処理[S202〜S211]では、まず、mv_ref_idx に対応付けられた参照ベクトルを求めて、それをmv_ref とする[S202]。
ここで、入力画像上のブロックblk の画像情報と、フレーム ref_vec 上の位置 pos+mv_ref の領域の画像情報との相違度を求め、それが予め設定された閾値THよりも小さいかどうかを判定する[S203]。
2つの画像情報の相違度は、2つの領域内で対応する画素の画素値を用いて計算された差分絶対値和や差分二乗和や差分分散値など、どの計算法を用いても構わない。ただし、その計算方法に対応付けられた閾値THを用いる必要がある。
相違度が閾値以上の場合は、mv_ref で示される参照ベクトル対象領域の画像情報が符号化対象領域の画像情報と大きく異なっており、その領域は符号化対象領域と対応しないことを示しているため、そのときのmv_ref_idx に対する処理を終了する。
一方、S203の判定処理で、相違度が閾値より小さいと判定された場合は、まず、フレーム ref_vec 上の位置 pos+mv_ref の領域に対応するフレームref 上の領域を求め、その位置を pos+mv_ref +mvとしたときのmvを求める[S204]。このS204における処理については後で詳細に説明する。
そして、ここまでに得られたフレーム ref_vec 上の位置 pos+mv_ref の領域の画像情報RVec[]と、フレームref 上の位置 pos+mv_ref +mvの領域の画像情報Ref[]とを用いて、最小のレート歪コストが得られるような予測画像が生成できるかどうかを調べる[S205〜S211]。
つまり、予測画像生成法インデックスpmode を1に初期化した後[S205]、pmode が2になるまで[S210]、pmode に1を加算しながら[S211]、pmode に対応付けられた予測画像の生成法で予測画像を生成し[S206]、そのときのレート歪コストcostを計算し[S207]、costがmcost よりも小さいかどうかを判定し[S208]、costのほうが小さいと判定された場合には、mcost をcostに書き換え、 b_mv_ref をmv_ref に書き換え、 b_mvをmvに書き換え、 b_pmode をpmode に書き換える[S209]、という処理[S206〜S209]を繰り返し実行する。
このときS207で行うレート歪コストの計算は前述のS110での方法と同様の方法を用いて行う。
ここでは、2つの画像情報(参照ベクトル対象フレーム上の画像情報と、参照フレーム上の画像情報という2つの画像情報)が得られたときに利用できる予測画像の生成法として、参照フレーム上の画像情報だけを用いて予測画像を生成する方法と、対応する画素ごとに2つの画像情報の平均値を求めて予測画像を生成する方法という2つの方法のみを考えたためpmode の最大値を2と設定した。
この最大値を増やして、それ以外の2つの画像情報の重み付け和を求める方法などを用いても構わない。
すなわち、ここでは、説明のために、pmode=1と2の予測画像生成法を次の〔数4〕式のように定義したが、それ以外の予測画像生成法を用いたり追加することも可能である。
なお、参照ベクトル対象フレーム上の画像情報だけを用いて予測画像を生成する方法を予測画像生成法に入れなかったのは、参照ベクトル対象フレームと参照フレームとが等しい場合の予測画像生成法がそれに対応するからである。
次に、図9に示すフローチャートに従って、S120で行われる処理について詳細に説明する。
この処理では、参照ベクトルを変化させながら、そのとき設定された参照ベクトルに対して、中間領域と参照領域とを求め、そのときに最適なレート歪コストを与える予測画像生成法を求めるという処理を行う。
つまり、参照ベクトル候補インデックスmv_ref_idx を1に初期化し、最小レート歪コストmcost を絶対に取りえない最大値maxCost に初期化した後[S301]、mv_ref_idx が割り当てられた参照ベクトル候補数NumOfListMvRefになるまで[S313]、mv_ref_idx に1を加算しながら[S314]、以下の処理[S302〜S312]を繰り返し実行する。
この繰り返し実行する[S302〜S312]では、まず、mv_ref_idx に対応付けられた参照ベクトルを求めて、それをmv_ref とする[S302]。
ここで、入力画像上のブロックblk の画像情報と、フレーム ref_vec 上の位置 pos+mv_ref の領域の画像情報との相違度を求め、それが予め設定された閾値THよりも小さいかどうかを判定する[S303]。
ここでの処理は前述のS203で行われる処理と同じであり、相違度もS203のときと同様にして求められる。
相違度が閾値以上の場合は、mv_ref で示される参照ベクトル対象領域の画像情報が符号化対象領域の画像情報と大きく異なっており、その領域は符号化対象領域と対応しないことを示しているため、そのときのmv_ref_idx に対する処理を終了する。
一方、S303の判定処理で、相違度が閾値より小さいと判定された場合は、まず、フレーム ref_vec 上の位置 pos+mv_ref の領域に対応するフレーム ref_mid(中間フレーム)上の領域を求め、その位置を pos+mv_ref +mv_mid としたときのmv_mid を求める[S304]。
次に、フレーム ref_mid 上の位置 pos+mv_ref +mv_mid の領域に対応するフレームref 上の領域を求め、その位置を pos+mv_ref +mvとしたときのmvを求める[S305]。このS304とS305における処理については後で詳細に説明を行う。
なお、S305の処理でフレームref 上の領域を求める際に、対応元として、フレーム ref_mid 上の位置 pos+mv_ref +mv_mid の領域の代わりに、フレーム ref_vec 上の位置 pos+mv_ref の領域を用いても構わない。
この方法では、テンプレートとして用いる画像情報が変化しないため、対応領域を求める際に誤差が累積して符号化対象領域の画像情報に近くない画像情報を持つ領域が対応領域として求められてしまうのを防ぐことができる。
そして、ここまでに得られたフレーム ref_vec 上の位置 pos+mv_ref の領域の画像情報RVec[]と、フレーム ref_mid 上の位置 pos+mv_ref +mv_mid の領域の画像情報Mid[]と、フレームref 上の位置 pos+mv_ref +mvの領域の画像情報Ref[]とを用いて、最小のレート歪コストが得られるような予測画像が生成できるかどうかを調べる[S306〜S312]。
つまり、予測画像生成法インデックスpmode を1に初期化した後[S306]、pmode が予測画像生成法の数MaxPmodeになるまで[S311]、pmode に1を加算しながら[S312]、pmode に対応付けられた予測画像の生成法で予測画像を生成し[S307]、そのときのレート歪コストcostを計算し[S308]、costがmcost よりも小さいかどうかを判定し[S309]、costのほうが小さいと判定された場合には、mcost をcostに書き換え、 b_mv_ref をmv_ref に書き換え、 b_mv_mid をmv_mid に書き換え、 b_mvをmvに書き換え、 b_pmode をpmode に書き換える[S310]、という処理[S307〜S310]を繰り返し実行する。
このときS308で行うレート歪コストの計算は前述のS110での方法と同様の方法を用いて行う。
ここでは、3つの画像情報(参照ベクトル対象フレーム上の画像情報と、参照フレーム上の画像情報と、中間フレーム上の画像情報という3つの画像情報)が得られたときに利用できる予測画像の生成法として、前述の〔数4〕式で示した方法に加えて、対応する画素ごとに3つの画像情報の平均値を求めて予測画像を作る方法と、対応する画素ごとに3つの画像情報の中間値を求めて予測画像を作る方法と、中間領域と参照ベクトル対象領域との間の変化が参照領域と符号化対象領域との間に起こると仮定して予測画像を生成する方法を挙げる。
これらの予測画像生成法は、式で表すと下記の〔数5〕式のようになる。ここでは、説明のために、それぞれを pmode=3,4,5 に対応させている。なお、これ以外の方法にpmode を割り当てても構わないし、pmode の割り当てる順番を変更しても構わない。
なお、 pmode=5の予測はS305の処理を、フローチャートに記述の通りに実行した場合のほうが、仮定した情報を実現しやすくなるため予測精度が良くなる。
一方、 pmode=4の予測はS305の処理を記述通りではなく、フレームref 上の領域を求める際に、上述したように、対応元として、フレーム ref_mid 上の位置 pos+mv_ref +mv_mid の領域の代わりに、フレーム ref_vec 上の位置 pos+mv_ref の領域を用いたほうが、誤差の累積が少なくなり予測精度がよくなる。
そのため、pmode に応じて、フローチャートのS305において、フレーム ref_mid 上の位置 pos+mv_ref +mv_mid の領域を使うか、フレーム ref_vec 上の位置 pos+mv_ref の領域を使うかを切り替える方法をとることができる。
次に、図10に示すフローチャートに従って、前述のS204,S304,S305で行われる処理について詳細に説明する。
このフローチャートでは、S204,S304,S305の処理を一般化し、フレームA上の位置Xの領域に対応するフレームB上の領域Yを求める処理を示す。
ただし、S204,S304,S305で求めるmvやmv_mid は、それぞれYの位置を用いて必要なものを計算することとする。なお、以下では、フレームA上の位置Xの領域を単に領域AXと表す。
まず、領域AXを符号化する際に利用された参照ベクトル対象フレームのインデックスを対応関係情報蓄積メモリ112から取得し、 ref_vec_t とする[S401]。
このとき、領域AXが、符号化処理の単位ブロックに一致していない場合などには、領域AXが符号化する際に利用された参照ベクトル対象フレームは1つに定まらない。
その場合は、複数の参照ベクトル対象フレームのうち、領域AX内で最も広い領域に対して用いられている参照ベクトル対象フレームのインデックスを ref_vec_t とする。
また、1つも参照ベクトル対象フレームを持たない場合は、絶対に取り得ない値を ref_vec_t に設定することとする。
次に、こうして求められた ref_vec_t とBとが等しいかどうかを判定する[S402]。
等しいと判定された場合は、領域AXを符号化する際に利用された参照ベクトルmv_vec_t を求める[S403]。
このとき、領域AXが符号化処理の単位ブロックに一致していない場合などには、領域AXが符号化する際に利用された参照ベクトルは1つに定まらない。
その場合は、領域AX内で、参照ベクトル対象フレームが ref_vec_t の領域の持つ参照ベクトルのうち最も大きな領域で用いられているものをmv_vec_t とする。
なお、単純に最も大きな領域で用いられているものではなく、領域の大きさごとに重み付けした平均値や中間値、領域の大きさによって重み付けをしないで求めた平均値や中間値などを用いても構わない。
mv_vec_t が求められたら、フレームB上の位置X+mv_vec_t の周辺で、領域AXの画像情報に近い画像情報を持つ領域Yを求める[S404]。
なお、探索のための演算量を削減するために、位置X+mv_vec_t をYにしてしまっても構わない。なぜなら、X+mv_vec_t で示される領域は領域AXを符号化する際に参照された領域であるため、ある程度領域AXの画像情報に近い画像情報を持つ領域となり、対応関係の適合度を大きく低下させないからである。
一方、S402の判定処理で、 ref_vec _t とBとが等しくないと判定された場合、領域AXを符号化する際に利用された参照フレームのインデックスを対応関係情報蓄積メモリ112から取得し、 ref_t とする[S405]。
このときも、S401の処理のときと同様に、複数の参照フレームが得られる場合があるが、そのときにはS401の処理で説明した方法と同様の方法を用いて、1つの ref_t を決定する。
そして、今度は、 ref_t とBとが等しいかどうか判定する[S406]。
等しいと判定された場合は、領域AXを符号化する際に利用された位置Xから参照領域までのベクトルmv_t を対応関係情報蓄積メモリ112から取得する[S407]。
領域AXに対して複数のmv_t が得られる場合は、S403の処理で説明した方法に従い1つのmv_t を得る。
mv_t が求められたら、フレームB上の位置X+mv_t の周辺で、領域AXの画像情報に近い画像情報を持つ領域Yを求める[S408]。
このとき、S404の処理のところで説明した通り、探索のための演算量削減のために、位置X+mv_t をYにしてしまっても構わない。
一方、S406の判定処理で、 ref_t とBとが等しくないと判定された場合、領域AXの画像情報に近い画像情報を持つフレームB上の領域Yを、通常のブロックマッチング等の探索を行うことで求める[S409]。
次に、S127で行われる予測画像生成処理の詳細について説明する。
予測画像は、S127の処理に到達するまでに行われる処理によって求められた、pos, best_ref, best_ref_vec, best_ref_mid, best_mv, best_mv_ref, best_mv_mid, best_pmode に従って、以下の手順1で生成される。
手順1
1.フレームbest_ref_vec 上の位置 pos+best_mv_ref の領域の画像情報RVec[]を参照フレームメモリ105から取得する
2.best_ref とbest_ref_vec とが等しければ6へ進む
3.フレームbest_ref 上の位置 pos+best_mv_ref +best_mvの領域の画像情報Ref[] を参照フレームメモリ105から取得する
4.best_ref_mid がbest_ref とが等しければ6へ進む
5.フレームbest_ref_mid 上の位置 pos+best_mv_ref +best_mv_mid の領域の画像情報Mid[]を参照フレームメモリ105から取得する
6.pmode の値に従い、前述の〔数4〕式及び〔数5〕式を用いて予測画像Pred[] を生成する
なお、ここに挙げた以外の予測画像の生成法をpmode に対応付けて利用しても構わない。
次に、S128で行われる付加情報符号化処理の詳細について説明する。
ここで言う付加情報とは、best_ref, best_ref_vec, best_pmode のことである。なお、これらの情報を符号化するのに先立って差分参照ベクトルが符号化されているものとする。
まず、参照ベクトル対象フレームbest_ref_vec を符号化する。
best_ref_vec は、ブロックblk の隣接領域においてbest_ref_vec として符号化されているフレームや、符号化対象フレームに隣接するフレームに対応したフレームが選択される可能性が高いと考えられるため、それらのフレームに対応するフレームインデックスを符号化する場合に、それ以外のフレームに対応するフレームインデックスを符号化する場合よりも少ない符号量で符号化できるように符号語テーブルを切り替える。
そうすることで、どのフレームにも同じ符号量が必要な場合に比べて、少ない符号量で符号化を行うことができる。
次に、参照フレームbest_ref を符号化する。
先に符号化したbest_ref_vec と、別に符号化されている差分参照ベクトルから生成できる参照ベクトルとを用いて符号語テーブルを切り替える。
つまり、参照ベクトル対象フレームbest_ref_vec 上の参照ベクトルによって示される参照ベクトル対象領域の符号化情報を用いて、発生確率の高いと思われるフレームインデックスに対して短い符号語を割り当てるように符号語テーブルを切り替える。
例えば、参照ベクトル対象フレームbest_ref_vec がIフレームでないのに参照ベクトル対象領域でイントラ符号化が最も多く使われている場合、その参照ベクトル対象領域と画像情報の似た別のフレームの領域が無いということを示していることから、best_ref はbest_ref_vec と同じになる可能性が高いため、best_ref_vec と同じフレームインデックスに短い符号語を割り当てる。
また、同様に、参照ベクトル対象領域を符号化する際に参照フレームや参照ベクトル対象フレームとして用いられているフレームは、用いられている領域が大きければ大きいほどbest_ref に選ばれている可能性が高いため、その確率の順に従って符号語を割り当てる。
このようにすることで、全てのインデックスに対して同じ長さの符号語を割り当てるよりも、少ない符号量で符号化をすることができる。
最後に、best_pmode を符号化する。先に符号化したbest_ref_vec とbest_ref と参照フレームメモリ105内のフレーム情報とを用いて符号語テーブルを切り替える。
例えば、best_ref_vec とbest_ref とが等しい場合、ブロックblk に対して対応領域が1つしか得られないことになることから、pmode が1以外であっても意味がないため、pmode の符号化自体を省略する符号語テーブルを設定することで符号量を削減することができる。
また、逆に、best_ref_vec とbest_ref とが異なる場合は、pmode として1が選ばれる可能性は極めて低いと考えられるため、1以外のものの符号語が短くなるように符号語テーブルを切り替えることで、全ての予測画像生成法に同じ長さの符号語を割り当てるよりも、少ない符号量で符号化することができる。
また、参照フレーム上に2つのフレームしかない場合や、best_ref_vec とbest_ref との組合せを考えた際に、適切な中間フレームが参照フレームメモリ105上にない場合には、対応領域を3つ必要とする予測画像生成法は取り得ないため、それ以外の予測画像生成法の符号語が短くなるような符号語テーブルに切り替えることで、全ての予測画像生成法に同じ長さの符号語を割り当てるよりも、少ない符号量で符号化することができる。
なお、前述したように、付加情報はそれぞれを個別に符号化しても構わないし、組合せに対して番号を割り当てて符号化を行っても構わない。
つまり、参照フレームメモリに2枚の画像(インデックスを1と2とする)があり、予測画像生成法がこれまでに挙げた5種類の場合、{best_ref, best_ref_vec, best_pmode}の組は、{1,1,1}、{1,1,2}、{1,1,3}、{1,1,4}、{1,1,5}、{1,2,1}、{1,2,2}、{1,2,3}、{1,2,4}、{1,2,5}、{2,1,1}、{2,1,2}、{2,1,3}、{2,1,4}、{2,1,5}、{2,2,1}、{2,2,2}、{2,2,3}、{2,2,4}、{2,2,5}の20種類存在する。
この20種類の組合せに対して1〜20の番号を割り当てて、その番号を符号化しても構わない。
しかし、これらの組合せの中には、意味の無い組合せがいくつか存在する。
例えば、best_ref とbest_ref_vec とが同じものは、符号化対象領域に対して対応領域が1つしか得られないため、 pmode=2〜5はありえない。
つまり、有効な組合せは、{1,1,1}、{1,2,1}、{1,2,2}、{1,2,3}、{1,2,4}、{1,2,5}、{2,1,1}、{2,1,2}、{2,1,3}、{2,1,4}、{2,1,5}、{2,2,1}の12種類だけであり、1〜12の番号のうち1つを符号化すればよい。
また、参照フレームメモリに2枚の画像しかない場合は、中間フレームとして選択できるフレームがないため、3つの対応領域を必要とするpmode も意味がない。したがって、有効な組合せはさらに減少し、{1,1,1}、{1,2,1}、{1,2,2}、{2,1,1}、{2,1,2}、{2,2,1}の6種類のみが有効なものとなり1〜6の番号のうち1つを符号化すればよい。
参照フレームメモリに3枚以上の画像がある場合においても、本実施形態例の場合、best_ref とbest_ref_vec との組合せによっては、適切な中間フレームが存在せず、3つの対応領域を必要とする予測画像生成が出来ない状況がありえる。そのような場合においても、有効でない組合せに対しては符号を割り当てないという方法をとることができる。
さらに、3つ全ての情報を組み合わせて符号化せずに、特定の2つのみを組み合わせて符号化しても構わない。
例えば、best_ref_vec は個別に符号化し、best_ref とpmode とは組み合わせて1つの符号語で符号化しても構わない。このとき、best_ref_vec と別途符号化されている参照ベクトルとを用いることで得られる参照ベクトル対象領域における符号化データによって{best_ref, pmode}の符号語テーブルを切り替えて符号化する方法も、前述の関連例により容易に類推可能である。
図11に、本発明の動画像復号装置200の一実施形態例を示す。
この動画像復号装置200は、復号対象
となる画像の予測画像に対する差分であるところの差分画像の符号化データを復号する差分画像復号部201と、予測画像を生成する際に必要な参照ベクトルの予測参照ベクトルに対する差分であるところの差分参照ベクトルの符号化データを復号する差分参照ベクトル復号部202と、予測画像を生成する際に必要な参照ベクトル対象フレーム指定情報と参照フレーム指定情報と予測画像生成法指定情報とからなる付加情報の符号化データを復号する付加情報復号部203と、与えられた情報に従い復号対象領域の予測画像を作成する予測画像作成部204と、予測画像と復号された差分画像との和で求められる復号画像を蓄積する参照フレームメモリ205と、復号対象領域の隣接領域で使われていたベクトル情報から復号対象領域で用いる参照ベクトルの予測ベクトルとなる予測参照ベクトルを生成する予測参照ベクトル生成部206と、復号に用いた参照ベクトルと参照領域と参照ベクトル対象フレームと参照フレームとの組を、復号対象フレーム及び復号対象領域に関係付けて蓄積する対応関係情報蓄積メモリ207と、予測参照ベクトルと復号された差分参照ベクトルとの和で求められる参照ベクトルによって示される、参照ベクトル対象フレーム上の参照ベクトル対象領域を設定する参照ベクトル対象領域設定部208と、参照ベクトル対象領域の画像情報と参照フレームとを用いて参照領域を探索する参照領域探索部209とを備える。
図12に、このように構成される動画像復号装置200の実行する動画像復号処理のフローチートを示す。
このフローチャートに従って、このように構成される動画像復号装置200の実行する動画像復号処理について詳細に説明する。ただし、既に複数フレームの画像を復号済みであり、その結果が参照フレームメモリ205、対応関係情報蓄積メモリ207に蓄積されているものとする。
まず、差分画像の符号化データと、差分参照ベクトルの符号化データと、付加情報の符号化データとが、動画像復号装置200へ入力され、それぞれ、差分画像復号部201と、差分参照ベクトル復号部202と、付加情報復号部203へ送られる[S501]。
復号対象画像は画像全体を領域分割し、領域毎に復号を行う[S502〜S517]。
このフローチャートでは、ブロック(領域)のインデックスをblk と表し、一つの画像に含まれる総ブロック数をMaxBlkと表す。つまり、インデックスblk を1に初期化した後[S502]、blk がMaxBlkになるまで[S516]、blk に1を加算しながら[S517]、以下の処理[S503〜S515]を繰り返し実行することで画像を復号する。
ブロック毎に行う処理では、まず、ブロックblk の位置をpos に格納し[S503]、対応関係情報蓄積メモリ207に格納されている、ブロックblk の周辺ブロックで使用された参照ベクトル等から、予測参照ベクトルpmv を生成する[S504]。
次に、符号化データから、ブロックblk に対する参照ベクトル対象フレームインデックス dec_ref_vec と、参照フレームインデックス dec_ref と、予測画像生成法インデックス dec_pmode と、差分参照ベクトル dec_sub_mv_ref と、予測残差画像の画像情報Res[]とを復号し、参照ベクトル dec_mv_ref を pmv+ dec_sub_mv_ref を計算することで取得し、mvをゼロベクトルで初期化する[S505]。
そして、 dec_ref と dec_ref_vec とが等しいかどうか判定を行う[S506]。等しいと判定された場合は、予測画像Pred[] を生成する[S512]。
ここで行われる予測画像生成処理は、best_ref をdec_ref に、best_ref _vec を dec_ref_vec に、best_mv_ref を dec_mv_ref に、best_pmode を dec_pmode に、best_ref_mid を ref_mid に、best_mv_mid をmv_mid に、best_mvをmvに読み替えた前述の手順1に従って行われる。
一方、S506の判定処理で、 dec_ref と dec_ref_vec とが等しくないと判定された場合は、 dec_ref_vec が示すフレームとの時刻関係及び視点関係が、復号対象フレームと dec_ref が示すフレームとの時刻関係及び視点関係に一致するような既に復号済みのフレームを見つけ、それを ref_mid とする[S507]。
なお、この条件を満たす復号済みフレームが参照フレームメモリ205内に存在しない場合には、 ref_mid は dec_ref に設定する。
そして、 ref_mid が dec_ref 又は dec_ref_vec に一致するかどうかを判定する[S508]。
一致すると判定された場合は、フレーム dec_ref_vec 上の位置 pos+ dec_mv_ref の領域に対応するフレーム dec_ref 上の領域を求め、その位置を pos+ dec_mv_ref +mvとしたときのmvを求める[S509]。
この処理は一部の変数名が異なるだけで、既に説明したS204で行われる処理と等しい。
また、S508の判定処理で、 ref_mid が dec_ref と dec_ref_vec のどちらとも等しくないと判定された場合、まず、フレーム dec_ref_vec 上の位置 pos+ dec_mv_ref の領域に対応するフレーム ref_mid 上の領域を求め、その位置を pos+ dec_mv_ref +mv_mid としたときのmv_mid を求める[S510]。
次に、フレーム ref_mid 上の位置 pos+ dec_mv_ref +mv_mid の領域に対応するフレーム dec_ref 上の領域を求め、その位置を pos+ dec_mv_ref +mvとしたときのmvを求める[S511]。
この処理は一部の変数名が異なるだけで、それぞれ、既に説明したS304とS305で行われる処理と等しい。
S509,S511の処理が終了したら、求められた情報を用いて予測画像Pred[] を生成する[S512]。
ここで行われる予測画像生成処理は、前述のように、best_ref を dec_ref に、best_ref _vec を dec_ref_vec に、best_mv_ref を dec_mv_ref に、best_pmode を dec_pmode に、best_ref_mid を ref_mid に、best_mv_mid をmv_mid に、best_mvをmvに読み替えた前述の手順1に従って行われる。
予測画像Pred[] が生成されたら、Pred[] とRes[]の画素値を画素ごとに加えて、復号画像Dec[]を生成する[S513]。生成されたDec[]は出力されるとともに、参照フレームメモリ205へ格納される[S514]。
また、復号に用いた dec_ref_vec, dec_ref, dec_mv_ref, dec_pmode, mvを復号対象フレームのインデックスとpos(若しくはblk)に対応付けて、対応関係情報蓄積メモリ207に格納する[S515]。
ここで、S505の処理で行われる付加情報の符号化データを復号する際には、前述した符号化時の方法と同様に符号語テーブルを切り替えながら復号を行う。
なお、付加情報の符号化データを復号する前に、差分参照ベクトルの符号化データを復号し、ブロックblk で用いる参照ベクトルが得られているものとする。
まず、 dec_ref_vec を復号する。
dec_ref_vec の示すフレームは、ブロックblk の隣接領域において参照ベクトル対象フレームとして用いられたフレームや、符号化対象フレームに隣接するフレームに対応したフレームである可能性が高いため、それらのフレームに対応するフレームインデックスが符号化されている可能性が高いとして、それらのフレームインデックスに対してそれ以外のフレームに対応するフレームインデックスよりも短い符号語の割り当てられた符号語テーブルに切り替える。
次に、 dec_ref を復号する。ここでは、先に復号したbest_ref_vec と参照ベクトルとを用いて符号語テーブルを切り替える。
つまり、フレーム dec_ref_vec上の参照ベクトルによって示される参照ベクトル対象領域の符号化情報を用いて、発生確率の高いと思われるフレームインデックスに対して短い符号語が割り当てられているような符号語テーブルに切り替える。
例えば、フレーム dec_ref_vec がIフレームでないのに参照ベクトル対象領域でイントラ符号化が最も多く使われている場合、その参照ベクトル対象領域と画像情報の似た別のフレームの領域が無いということを示していることから、 dec_ref は dec_ref_vec と同じになる可能性が高いため、 dec_ref_vec と同じフレームインデックスに短い符号語が割り当てられた符号語テーブルを用いる。
また、同様に、参照ベクトル対象領域を復号する際に参照フレームや参照フレーム対象フレームとして用いられているフレームは、用いられている領域が大きければ大きいほど dec_ref に選ばれている可能性が高いため、その確率の順に従って符号語を割り当てた符号語テーブルを用いる。
最後に、 dec_pmode を復号する。先に復号した dec_ref_vec と dec_ref と参照フレームメモリ105内のフレーム情報とを用いて符号語テーブルを切り替える。
例えば、 dec_ref_vec と dec_ref とが等しい場合、ブロックblk に対して対応領域が1つしか得られないことになるため、 dec_pmode が1以外であっても意味がないため、 dec_pmode は符号化データに含まれていないと判断し、 dec_pmode を1と復号する。
また、逆に、 dec_ref_vec と dec_ref とが異なる場合は、 dec_pmode として1が選ばれる可能性は極めて低いと考えられるため、1以外のものの符号語が短い符号語テーブルを用いる。
また、参照フレーム上に2つのフレームしかない場合や、 dec_ref_vec と dec_ref との組合せを考えた際に、適切な中間フレームが参照フレームメモリ205上にない場合には、対応領域を3つ必要とする予測画像生成法は取り得ないため、それ以外の予測画像生成法の符号語が短い符号語テーブルに切り替える。
ただし、ここで用いる符号語テーブルとその切替基準は、符号化時のものと同様のものを用いる必要がある。
また、前述した動画像符号化装置100の実施形態例で説明した通り、付加情報を個別に符号化せずに、組合せに対して番号を割り当てて符号化されていても構わない。その場合、復号も同様に、組合せに対して番号が割り当てられているものとして復号処理を行うことで復号処理を行う。
図示実施形態例に従って本発明を説明したが、本発明は、この実施形態例に限られるものではない。
例えば、実施形態例では、中間フレームを、参照ベクトル対象フレームとの時刻関係及び視点関係が、符号化及び復号対象フレームと参照フレームとの時刻関係及び視点関係に一致するようなフレームに固定している。
しかし、符号化側と復号側とで同じルールに基づいて選ぶのであれば、別のルールで決定されるフレームを用いても構わない。
例えば、「表示時刻が参照ベクトル対象フレームの表示時刻と等しく視点情報が参照フレームの視点情報と等しいフレームか、表示時刻が参照フレームの表示時刻と等しく視点情報が参照ベクトル対象フレームの視点情報と等しいフレームのうち、表示時刻及び視点情報が、符号化及び復号対象フレームの表示時刻及び視点情報に近いほうのフレーム」という基準で中間フレームを選択することにしても構わない。
この選択の方法で選択した中間フレームを用いることで、参照ベクトル対象フレームから中間フレーム、中間フレームから参照フレーム、それぞれの間に含まれる映像変化の要因が時間若しくはカメラ間のどちらか一方になるため対応領域探索に必要な演算量を減らすことができる。
また、この選択の方法の中間フレームを用いた場合には、前述の pmode=5の予測画像生成法によって生成された画像の画像情報が符号化(復号)対象領域の画像情報に近くなる可能性が低くなる。これは、上記の予測画像生成法で仮定している状況が成り立たなくなるためである。
その場合には、この選択の方法で選ばれた中間フレームが、上記の予測画像生成法で仮定している状況、つまり、参照フレームと符号化対象フレームとの関係と、中間フレームと参照ベクトル対象フレームとの関係が等しい状況が成立する場合にのみ上記の予測画像生成法の選択を可能にするとか、そのような仮定状況が成り立つときと成り立たないときとで符号語テーブルを切り替えて、選ばれやすい予測画像生成法により短い符号語を割り当てるようにする、ということを行っても構わない。
また、実施形態例では、フレーム内符号化については述べていないが、予測画像を作る方法の1つとして、例えば、予測画像生成法として別の番号を割り当てることで容易に追加することができる。
また、予測画像生成法として扱わず、H.264のように別途符号化モードを用意して実現した動画像符号化装置や動画像復号装置も本発明から容易に類推可能である。
以上説明した動画像符号化及び復号の処理は、コンピュータとソフトウェアプログラムとによっても実現することができ、そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも、ネットワークを通して提供することも可能である。
また、以上の実施形態例では、動画像符号化装置及び動画像復号装置を中心に説明したが、これら動画像符号化装置及び動画像復号装置の各部の動作に対応したステップによって本発明の動画像符号化方法及び動画像復号方法を実現することができる。
以上、図面を参照して本発明の実施形態例を説明してきたが、以上に説明した実施形態例は本発明の例示に過ぎず、本発明が以上に説明した実施形態例に限定されるものでないことは明らかである。
したがって、本発明の精神及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行っても良い。
本発明によれば、隣接領域で予測画像を生成する際の参照フレームが異なる場合においても、同じ参照ベクトル対象フレームを用いることで、ベクトルで表現しなければならない時間や視差といった映像変化の要因が統一され、隣接領域で符号化されたベクトルから、符号化すべきベクトルに近い予測ベクトルを生成できるようになり、これにより、より少ない符号量でフレーム間予測符号化のためのベクトル情報を符号化することができるようになる。

Claims (28)

  1. 画像全体を領域分割して、領域毎に、既に符号化済みの複数のフレームの画像情報から予測画像を生成して、符号化対象フレーム内の符号化対象領域の画像と予測画像との差分情報を符号化することで動画像を符号化する動画像符号化方法であって、
    既に符号化済みの複数のフレームから、参照ベクトル対象フレームを選択する参照ベクトル対象フレーム選択ステップと、
    前記参照ベクトル対象フレームを指定する情報を符号化する参照ベクトル対象フレーム指定情報符号化ステップと、
    符号化対象領域に対して、前記参照ベクトル対象フレーム上の領域を示す参照ベクトルを設定する参照ベクトル設定ステップと、
    前記参照ベクトルを符号化する参照ベクトル符号化ステップと、
    既に符号化済みの複数のフレームから、参照フレームを選択する参照フレーム選択ステップと、
    前記参照フレームを指定する情報を符号化する参照フレーム指定情報符号化ステップと、
    前記参照ベクトルによって示される参照ベクトル対象フレーム上の参照ベクトル対象領域の画像情報と前記参照フレームとを用いて対応領域の探索を行い、その探索結果に基づいて前記参照フレーム上の参照領域を設定する参照フレーム領域設定ステップと、
    前記参照領域に対応する参照フレームの画像情報を用いて、予測画像を生成する予測画像生成ステップと、
    符号化対象領域の画像情報と前記生成した予測画像との差分情報を符号化する差分情報符号化ステップと
    を有する動画像符号化方法。
  2. 請求項1に記載の動画像符号化方法において、
    前記予測画像生成ステップでは、前記参照領域の画像情報と前記参照ベクトル対象領域の画像情報とから、予測画像を生成する動画像符号化方法。
  3. 請求項1に記載の動画像符号化方法において、
    前記予測画像生成ステップでは、前記参照領域の画像情報から予測画像を生成するのか、前記参照領域の画像情報と前記参照ベクトル対象領域の画像情報とから予測画像を生成するのかを選択して、その選択した生成法を用いて予測画像を生成し、
    さらに、前記選択した生成法を指定する情報を符号化する予測画像生成法指定情報符号化ステップを有する動画像符号化方法。
  4. 請求項1に記載の動画像符号化方法において、
    前記参照フレーム選択ステップにおいて前記参照ベクトル対象領域を符号化する際に用いた参照フレームを前記参照フレームとして選択する場合には、前記参照フレーム領域設定ステップでは、前記参照ベクトル対象領域を符号化する際に用いた参照領域を、前記参照領域として設定する動画像符号化方法。
  5. 請求項1に記載の動画像符号化方法において、
    前記参照フレーム選択ステップにおいて前記参照ベクトル対象領域を符号化する際に用いた参照ベクトル対象フレームを前記参照フレームとして選択する場合には、前記参照フレーム領域設定ステップでは、前記参照ベクトル対象領域を符号化する際に用いた参照ベクトル対象領域を、前記参照領域として設定する動画像符号化方法。
  6. 請求項1に記載の動画像符号化方法において、
    前記参照フレーム選択ステップにおいて、符号化対象フレームとの間に、前記参照ベクトル対象領域を符号化する際に用いた参照ベクトル対象フレームと符号化対象領域に対して設定した参照ベクトル対象フレームとの時刻情報及び視点情報の関係に等しい関係を持つ既に符号化済みのフレームを前記参照フレームとして選択する場合には、前記参照フレーム領域設定ステップでは、前記符号化対象領域を始点として、前記参照ベクトル対象領域を符号化する際に用いた参照ベクトルと同じ向きと大きさとを持つベクトルによって示される前記選択した参照フレーム上の領域を、前記参照領域として設定する動画像符号化方法。
  7. 請求項1に記載の動画像符号化方法において、
    前記参照フレーム選択ステップにおいて、符号化対象フレームとの間に、前記参照ベクトル対象領域を符号化する際に用いた参照フレームと符号化対象領域に対して設定した参照ベクトル対象フレームとの時刻情報及び視点情報の関係に等しい関係を持つ既に符号化済みのフレームを前記参照フレームとして選択する場合には、前記参照フレーム領域設定ステップでは、前記符号化対象領域を始点として、前記参照ベクトル対象領域と前記参照ベクトル対象領域を符号化する際に用いた参照領域との対応関係を示すベクトルと同じ向きと大きさとを持つベクトルによって示される前記選択した参照フレーム上の領域を、前記参照領域として設定する動画像符号化方法。
  8. 請求項1に記載の動画像符号化方法において、
    前記参照ベクトル対象フレームや前記参照フレームとは異なる既に符号化済みのフレームを中間フレームとして設定する中間フレーム設定ステップを有し、
    前記参照フレーム領域設定ステップでは、前記参照ベクトル対象領域の情報を用いて前記中間フレーム上の領域であるところの中間領域を設定し、その中間領域の情報、あるいは、その中間領域の情報及び前記参照ベクトル対象領域の情報を用いて前記参照領域を設定する動画像符号化方法。
  9. 請求項8に記載の動画像符号化方法において、
    前記中間フレーム設定ステップでは、前記参照ベクトル対象フレームとの時刻及び視点情報の関係が、前記符号化対象フレームと前記参照フレームとの時刻及び視点情報の関係と同じである既に符号化済みのフレームを中間フレームとして設定し、
    前記予測画像生成ステップでは、前記参照領域の画像情報と前記中間領域の画像情報と前記参照ベクトル対象領域の画像情報とから、予測画像を生成する動画像符号化方法。
  10. 請求項8に記載の動画像符号化方法において、
    前記中間フレーム設定ステップでは、前記参照ベクトル対象フレームとの時刻及び視点情報の関係が、前記符号化対象フレームと前記参照フレームとの時刻及び視点情報の関係と同じである既に符号化済みのフレームを中間フレームとして設定し、
    前記予測画像生成ステップでは、前記参照領域の画像情報から予測画像を生成するのか、前記参照領域の画像情報と前記参照ベクトル対象領域の画像情報とから予測画像を生成するのか、前記参照領域の画像情報と前記中間領域の画像情報と前記参照ベクトル対象領域の画像情報とから予測画像を生成するのかを選択して、その選択した生成法を用いて予測画像を生成し、
    さらに、前記選択した生成法を指定する情報を符号化する予測画像生成法指定情報符号化ステップを有する動画像符号化方法。
  11. 請求項3又は10に記載の動画像符号化方法において、
    前記参照フレーム指定情報符号化ステップでは、前記参照ベクトル対象領域の符号化データを用いて、参照フレーム指定情報を符号化する際の符号語テーブルを切り替え、
    前記予測画像生成法指定情報符号化ステップでは、前記参照ベクトル対象領域の符号化データ、前記参照フレーム、及び前記参照ベクトル対象フレームの少なくとも1つに応じて、予測画像生成法指定情報を符号化する際の符号語テーブルを切り替える動画像符号化方法。
  12. 画像全体を領域分割して、領域毎に、既に復号済みの複数のフレームの画像情報から予測画像を生成して、予測画像と復号対象フレーム内の復号対象領域の画像との差分情報を復号することで動画像を復号する動画像復号方法であって、
    符号化データから、既に復号済みの複数のフレームの中から選択される参照ベクトル対象フレームを指定する情報を復号する参照ベクトル対象フレーム指定情報復号ステップと、
    符号化データから、復号対象領域に対して設定される前記参照ベクトル対象フレーム上の領域を示す参照ベクトルを復号する参照ベクトル復号ステップと、
    符号化データから、既に復号済みの複数のフレームの中から選択される参照フレームを指定する情報を復号する参照フレーム指定情報復号ステップと、
    前記参照ベクトルによって示される参照ベクトル対象フレーム上の参照ベクトル対象領域の画像情報と前記参照フレームとを用いて対応領域の探索を行い、その探索結果に基づいて前記参照フレーム上の参照領域を設定する参照フレーム領域設定ステップと、
    前記参照領域に対応する参照フレームの画像情報を用いて、予測画像を生成する予測画像生成ステップと
    を有する動画像復号方法。
  13. 請求項12に記載の動画像復号方法において、
    前記予測画像生成ステップでは、前記参照領域の画像情報と前記参照ベクトル対象領域の画像情報とから、予測画像を生成する動画像復号方法。
  14. 請求項12に記載の動画像復号方法において、
    符号化データから、前記参照領域の画像情報から予測画像を生成するのか、前記参照領域の画像情報と前記参照ベクトル対象領域の画像情報とから予測画像を生成するのかを指定する情報を復号する予測画像生成法指定情報復号ステップを有し、
    前記予測画像生成ステップでは、前記復号した情報の指定する生成法を用いて予測画像を生成する動画像復号方法。
  15. 請求項12に記載の動画像復号方法において、
    前記参照ベクトル対象領域を復号する際に復号された参照フレーム指定情報の示すフレームが、前記参照フレームと等しい場合、前記参照フレーム領域設定ステップでは、前記参照ベクトル対象領域を復号する際に用いた参照領域を、前記参照領域として設定する動画像復号方法。
  16. 請求項12に記載の動画像復号方法において、
    前記参照ベクトル対象領域を復号する際に復号された参照ベクトル対象フレーム指定情報の示すフレームが前記参照フレームと等しい場合、前記参照フレーム領域設定ステップでは、前記参照ベクトル対象領域を復号する際に用いた参照ベクトル対象領域を、前記参照領域として設定する動画像復号方法。
  17. 請求項12に記載の動画像復号方法において、
    前記参照ベクトル対象フレームと前記参照ベクトル対象領域を復号する際に復号された参照ベクトル対象フレーム指定情報の示すフレームとの時刻情報及び視点情報の関係が、前記復号対象フレームと前記参照フレームとの時刻情報及び視点情報の関係に等しい場合、前記参照フレーム領域設定ステップでは、前記復号対象領域を始点として、前記参照ベクトル対象領域を復号する際に用いた参照ベクトルと同じ向きと大きさとを持つベクトルによって示される参照フレーム上の領域を、前記参照領域として設定する動画像復号方法。
  18. 請求項12に記載の動画像復号方法において、
    前記参照ベクトル対象フレームと前記参照ベクトル対象領域を復号する際に復号された参照フレーム指定情報の示すフレームとの時刻情報及び視点情報の関係が、前記復号対象フレームと前記参照フレームとの時刻情報及び視点情報の関係に等しい場合、前記参照フレーム領域設定ステップでは、前記復号対象領域を始点として、前記参照ベクトル対象領域と前記参照ベクトル対象領域を復号する際に用いた参照領域との対応関係を示すベクトルと同じ向きと大きさとを持つベクトルによって示される参照フレーム上の領域を、前記参照領域として設定する動画像復号方法。
  19. 請求項12に記載の動画像復号方法において、
    前記参照ベクトル対象フレームや前記参照フレームとは異なる既に復号済みのフレームを中間フレームとして設定する中間フレーム設定ステップを有し、
    前記参照フレーム領域設定ステップでは、前記参照ベクトル対象領域の情報を用いて前記中間フレーム上の領域であるところの中間領域を設定し、その中間領域の情報、あるいは、その中間領域の情報及び前記参照ベクトル対象領域の情報を用いて前記参照領域を設定する動画像復号方法。
  20. 請求項19に記載の動画像復号方法において、
    前記中間フレーム設定ステップでは、前記参照ベクトル対象フレームとの時刻及び視点情報の関係が、前記復号対象フレームと前記参照フレームとの時刻及び視点情報の関係と同じである既に復号済のフレームを中間フレームとして設定し、
    前記予測画像生成ステップでは、前記参照領域の画像情報と前記中間領域の画像情報と前記参照ベクトル対象領域の画像情報とから、予測画像を生成する動画像復号方法。
  21. 請求項19に記載の動画像復号方法において、
    前記中間フレーム設定ステップでは、前記参照ベクトル対象フレームとの時刻及び視点情報の関係が、前記復号対象フレームと前記参照フレームとの時刻及び視点情報の関係と同じである既に復号済のフレームを中間フレームとして設定し、
    符号化データから、前記参照領域の画像情報から予測画像を生成するのか、前記参照領域の画像情報と前記参照ベクトル対象領域の画像情報とから予測画像を生成するのか、前記参照領域の画像情報と前記中間領域の画像情報と前記参照ベクトル対象領域の画像情報とから予測画像を生成するのかを指定する情報を復号する予測画像生成法指定情報復号ステップを有し、
    前記予測画像生成ステップでは、前記復号した情報の指定する生成法を用いて予測画像を生成する動画像復号方法。
  22. 請求項14又は21に記載の動画像復号方法において、
    前記参照フレーム指定情報復号ステップでは、前記参照ベクトル対象領域の復号データを用いて、参照フレーム指定情報を復号する際の符号語テーブルを切り替え、
    前記予測画像生成法指定情報復号ステップでは、前記参照ベクトル対象領域の復号データ、前記参照フレーム、及び前記参照ベクトル対象フレームの少なくとも1つに応じて、予測画像生成法指定情報を復号する際の符号語テーブルを切り替える動画像復号方法。
  23. 請求項1に記載の動画像符号化方法における各ステップを実現する手段を備える動画像符号化装置。
  24. 請求項1に記載の動画像符号化方法における各ステップをコンピュータに実行させるための動画像符号化プログラム。
  25. 請求項1に記載の動画像符号化方法における各ステップをコンピュータに実行させるための動画像符号化プログラムを記録したコンピュータ読み取り可能な記録媒体。
  26. 請求項12に記載の動画像復号方法における各ステップを実現する手段を備える動画像復号装置。
  27. 請求項12に記載の動画像復号方法における各ステップをコンピュータに実行させるための動画像復号プログラム。
  28. 請求項12に記載の動画像復号方法における各ステップをコンピュータに実行させるための動画像復号プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2008542061A 2006-10-30 2007-10-24 動画像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体 Active JP4999860B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008542061A JP4999860B2 (ja) 2006-10-30 2007-10-24 動画像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006293901 2006-10-30
JP2006293901 2006-10-30
JP2008542061A JP4999860B2 (ja) 2006-10-30 2007-10-24 動画像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
PCT/JP2007/070711 WO2008053758A1 (fr) 2006-10-30 2007-10-24 Procédé de codage d'image dynamique, procédé de décodage, leur dispositif, leur programme et support de stockage contenant le programme

Publications (2)

Publication Number Publication Date
JPWO2008053758A1 JPWO2008053758A1 (ja) 2010-02-25
JP4999860B2 true JP4999860B2 (ja) 2012-08-15

Family

ID=39344100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008542061A Active JP4999860B2 (ja) 2006-10-30 2007-10-24 動画像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体

Country Status (11)

Country Link
US (2) US8532190B2 (ja)
EP (2) EP2083571A4 (ja)
JP (1) JP4999860B2 (ja)
KR (2) KR101447717B1 (ja)
CN (1) CN101569202B (ja)
BR (1) BRPI0718272A2 (ja)
CA (1) CA2667175A1 (ja)
ES (1) ES2439444T3 (ja)
RU (2) RU2458479C2 (ja)
TW (2) TWI400959B (ja)
WO (1) WO2008053758A1 (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101158491B1 (ko) 2008-12-08 2012-06-20 한국전자통신연구원 다시점 영상 부호화, 복호화 방법 및 그 장치.
US20120320986A1 (en) * 2010-02-23 2012-12-20 Nippon Telegraph And Telephone Corporation Motion vector estimation method, multiview video encoding method, multiview video decoding method, motion vector estimation apparatus, multiview video encoding apparatus, multiview video decoding apparatus, motion vector estimation program, multiview video encoding program, and multiview video decoding program
EP4106331A1 (en) * 2010-07-15 2022-12-21 Velos Media International Limited Image intra-prediction mode estimation device, image encoding device, image decoding device, and encoded image data
JP5281632B2 (ja) * 2010-12-06 2013-09-04 日本電信電話株式会社 多視点画像符号化方法,多視点画像復号方法,多視点画像符号化装置,多視点画像復号装置およびそれらのプログラム
US20120189060A1 (en) * 2011-01-20 2012-07-26 Industry-Academic Cooperation Foundation, Yonsei University Apparatus and method for encoding and decoding motion information and disparity information
RU2480941C2 (ru) 2011-01-20 2013-04-27 Корпорация "Самсунг Электроникс Ко., Лтд" Способ адаптивного предсказания кадра для кодирования многоракурсной видеопоследовательности
KR20120095610A (ko) * 2011-02-21 2012-08-29 삼성전자주식회사 다시점 비디오의 부호화 방법 및 장치, 그 복호화 방법 및 장치
JP5747559B2 (ja) * 2011-03-01 2015-07-15 富士通株式会社 動画像復号方法、動画像符号化方法、動画像復号装置、及び動画像復号プログラム
JP5664762B2 (ja) * 2011-03-17 2015-02-04 富士通株式会社 動画像復号方法、動画像符号化方法、動画像復号装置及び動画像復号プログラム
US20120268551A1 (en) * 2011-04-19 2012-10-25 Ben Wu Image Interaction Device, Interactive Image Operating System, and Interactive Image Operating Method thereof
US9247249B2 (en) 2011-04-20 2016-01-26 Qualcomm Incorporated Motion vector prediction in video coding
US9366448B2 (en) 2011-06-20 2016-06-14 Honeywell International Inc. Method and apparatus for configuring a filter change notification of an HVAC controller
US20140104383A1 (en) * 2011-06-22 2014-04-17 Sony Corporation Image processing device and method
WO2013001749A1 (ja) 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
WO2013001748A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
US8892223B2 (en) 2011-09-07 2014-11-18 Honeywell International Inc. HVAC controller including user interaction log
JP6039178B2 (ja) * 2011-09-15 2016-12-07 シャープ株式会社 画像符号化装置、画像復号装置、並びにそれらの方法及びプログラム
JP2013102297A (ja) * 2011-11-07 2013-05-23 Canon Inc 画像符号化方法、画像符号化装置及びプログラム、画像復号方法、画像復号装置及びプログラム
US8902071B2 (en) 2011-12-14 2014-12-02 Honeywell International Inc. HVAC controller with HVAC system fault detection
US10533761B2 (en) 2011-12-14 2020-01-14 Ademco Inc. HVAC controller with fault sensitivity
JP2013126093A (ja) * 2011-12-14 2013-06-24 Sony Corp 画像処理装置及び画像処理方法
US10747243B2 (en) 2011-12-14 2020-08-18 Ademco Inc. HVAC controller with HVAC system failure detection
US9206993B2 (en) 2011-12-14 2015-12-08 Honeywell International Inc. HVAC controller with utility saver switch diagnostic feature
US9002523B2 (en) 2011-12-14 2015-04-07 Honeywell International Inc. HVAC controller with diagnostic alerts
US20130158720A1 (en) 2011-12-15 2013-06-20 Honeywell International Inc. Hvac controller with performance log
US10139843B2 (en) 2012-02-22 2018-11-27 Honeywell International Inc. Wireless thermostatic controlled electric heating system
JP5307958B1 (ja) * 2012-02-23 2013-10-02 株式会社スクウェア・エニックス・ホールディングス 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体
US9442500B2 (en) 2012-03-08 2016-09-13 Honeywell International Inc. Systems and methods for associating wireless devices of an HVAC system
US10452084B2 (en) 2012-03-14 2019-10-22 Ademco Inc. Operation of building control via remote device
US9488994B2 (en) 2012-03-29 2016-11-08 Honeywell International Inc. Method and system for configuring wireless sensors in an HVAC system
US9349192B2 (en) * 2012-04-24 2016-05-24 Lg Electronics Inc. Method and apparatus for processing video signal
RU2506712C1 (ru) * 2012-06-07 2014-02-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ межкадрового прогнозирования для кодирования многоракурсной видеопоследовательности
US9736497B2 (en) * 2012-07-10 2017-08-15 Sharp Kabushiki Kaisha Prediction vector generation device, image encoding device, image decoding device, prediction vector generation method, and program
US9477239B2 (en) 2012-07-26 2016-10-25 Honeywell International Inc. HVAC controller with wireless network based occupancy detection and control
US9594384B2 (en) 2012-07-26 2017-03-14 Honeywell International Inc. Method of associating an HVAC controller with an external web service
JP2014027448A (ja) * 2012-07-26 2014-02-06 Sony Corp 情報処理装置、情報処理方法、及びプログラム
US9020282B2 (en) * 2012-12-28 2015-04-28 Intel Corporation Coder based partial image storage and retrieval
US10094585B2 (en) 2013-01-25 2018-10-09 Honeywell International Inc. Auto test for delta T diagnostics in an HVAC system
JP6139953B2 (ja) * 2013-04-12 2017-05-31 日本電信電話株式会社 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム、映像復号プログラム及び記録媒体
US9806705B2 (en) 2013-04-23 2017-10-31 Honeywell International Inc. Active triac triggering circuit
US9584119B2 (en) 2013-04-23 2017-02-28 Honeywell International Inc. Triac or bypass circuit and MOSFET power steal combination
US10811892B2 (en) 2013-06-28 2020-10-20 Ademco Inc. Source management for a power transformation system
US9983244B2 (en) 2013-06-28 2018-05-29 Honeywell International Inc. Power transformation system with characterization
US11054448B2 (en) 2013-06-28 2021-07-06 Ademco Inc. Power transformation self characterization mode
US9628795B2 (en) * 2013-07-17 2017-04-18 Qualcomm Incorporated Block identification using disparity vector in video coding
US9426465B2 (en) * 2013-08-20 2016-08-23 Qualcomm Incorporated Sub-PU level advanced residual prediction
JPWO2015056647A1 (ja) * 2013-10-17 2017-03-09 日本電信電話株式会社 映像符号化装置及び方法、及び、映像復号装置及び方法
CN105612749A (zh) * 2013-10-17 2016-05-25 日本电信电话株式会社 视频编码装置及方法以及视频解码装置及方法
US10911779B2 (en) 2013-10-17 2021-02-02 Nippon Telegraph And Telephone Corporation Moving image encoding and decoding method, and non-transitory computer-readable media that code moving image for each of prediction regions that are obtained by dividing coding target region while performing prediction between different views
US9857091B2 (en) 2013-11-22 2018-01-02 Honeywell International Inc. Thermostat circuitry to control power usage
US9673811B2 (en) 2013-11-22 2017-06-06 Honeywell International Inc. Low power consumption AC load switches
JP6232075B2 (ja) * 2013-12-03 2017-11-22 日本電信電話株式会社 映像符号化装置及び方法、映像復号装置及び方法、及び、それらのプログラム
US10649418B2 (en) 2013-12-11 2020-05-12 Ademco Inc. Building automation controller with configurable audio/visual cues
US20160360200A1 (en) * 2013-12-27 2016-12-08 Nippon Telegraph And Telephone Corporation Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, video encoding program, and video decoding program
CN106464899A (zh) * 2014-03-20 2017-02-22 日本电信电话株式会社 活动图像编码装置及方法和活动图像解码装置及方法
US9939253B2 (en) * 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US9628074B2 (en) 2014-06-19 2017-04-18 Honeywell International Inc. Bypass switch for in-line power steal
US9683749B2 (en) 2014-07-11 2017-06-20 Honeywell International Inc. Multiple heatsink cooling system for a line voltage thermostat
JP5858119B2 (ja) * 2014-10-15 2016-02-10 富士通株式会社 動画像復号方法、動画像符号化方法、動画像復号装置及び動画像復号プログラム
EP3171598A1 (en) * 2015-11-19 2017-05-24 Thomson Licensing Methods and devices for encoding and decoding a matrix of views obtained from light-field data, corresponding computer program and non-transitory program storage device
US10488062B2 (en) 2016-07-22 2019-11-26 Ademco Inc. Geofence plus schedule for a building controller
CN107872671B (zh) * 2016-09-26 2022-01-14 华为技术有限公司 一种图片编码方法及终端
CN110636334B (zh) * 2019-08-23 2022-12-09 西安万像电子科技有限公司 数据传输方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0262180A (ja) * 1988-08-26 1990-03-02 Fujitsu Ltd 動画像の動き補償予測符号化方式
JPH09284777A (ja) * 1996-04-15 1997-10-31 Sony Corp 動きベクトルなしで動き補償を用いるビデオ符号化方法とその装置
WO2006073116A1 (ja) * 2005-01-07 2006-07-13 Nippon Telegraph And Telephone Corporation 映像符号化方法及び装置、映像復号方法及び装置、それらのプログラムおよびそれらプログラムを記録した記録媒体

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0232486A (ja) * 1988-07-22 1990-02-02 Fuji Electric Co Ltd 経時的収集データ欠損時の自動修復方法
JPH05225152A (ja) * 1992-02-13 1993-09-03 Hitachi Ltd プロセスコントローラ
EP1069778A3 (en) 1993-04-09 2004-10-20 Sony Corporation Picture encoding method, picture encoding apparatus and picture recording medium
JP3170958B2 (ja) * 1993-06-30 2001-05-28 日産自動車株式会社 情報収集方法
JP3383092B2 (ja) * 1994-09-14 2003-03-04 東芝システムテクノロジー株式会社 プラント性能計算装置
US5731840A (en) * 1995-03-10 1998-03-24 Kabushiki Kaisha Toshiba Video coding/decoding apparatus which transmits different accuracy prediction levels
EP2129133A3 (en) * 1995-08-29 2012-02-15 Sharp Kabushiki Kaisha Video coding device and video decoding device with a motion compensated interframe prediction
JPH09261653A (ja) * 1996-03-18 1997-10-03 Sharp Corp 多視点画像符号化装置
JP3693407B2 (ja) * 1996-04-04 2005-09-07 シャープ株式会社 多視点画像符号化装置および復号装置
JP3628810B2 (ja) 1996-06-28 2005-03-16 三菱電機株式会社 画像符号化装置
JPH1049203A (ja) * 1996-07-29 1998-02-20 Fuji Electric Co Ltd 定周期収集データの等値化装置
JPH10276481A (ja) * 1997-03-31 1998-10-13 Omron Corp ワイヤレス稼動情報収集方法および装置
US6690835B1 (en) * 1998-03-03 2004-02-10 Interuniversitair Micro-Elektronica Centrum (Imec Vzw) System and method of encoding video frames
JP2000261467A (ja) * 1999-03-09 2000-09-22 Toshiba Corp 情報収集装置
JP3684565B2 (ja) * 1999-03-29 2005-08-17 横河電機株式会社 分散オブジェクトシステムにおける通信装置
JP2003015735A (ja) * 2001-07-05 2003-01-17 Mitsubishi Electric Corp プラント監視・通報装置
JP2003076405A (ja) * 2001-08-30 2003-03-14 Digital Electronics Corp 制御用表示装置、制御システム、制御プログラムおよびそれを記録した記録媒体
RU2237283C2 (ru) 2001-11-27 2004-09-27 Самсунг Электроникс Ко., Лтд. Устройство и способ представления трехмерного объекта на основе изображений с глубиной
KR100481732B1 (ko) * 2002-04-20 2005-04-11 전자부품연구원 다 시점 동영상 부호화 장치
KR100491530B1 (ko) * 2002-05-03 2005-05-27 엘지전자 주식회사 모션 벡터 결정 방법
JP2004023458A (ja) * 2002-06-17 2004-01-22 Toshiba Corp 動画像符号化/復号化方法及び装置
JP3934568B2 (ja) * 2003-03-04 2007-06-20 松下電器産業株式会社 動画符号化方法および装置
JP3997171B2 (ja) * 2003-03-27 2007-10-24 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
JP4373702B2 (ja) * 2003-05-07 2009-11-25 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
US7286689B2 (en) * 2003-06-07 2007-10-23 Hewlett-Packard Development Company, L.P. Motion estimation for compression of calibrated multi-view image sequences
JP2005038246A (ja) * 2003-07-16 2005-02-10 Matsushita Electric Works Ltd 設備監視制御装置、設備監視制御システム、設備監視制御方法及び設備監視制御用プログラム
US7778328B2 (en) * 2003-08-07 2010-08-17 Sony Corporation Semantics-based motion estimation for multi-view video coding
KR100517517B1 (ko) * 2004-02-20 2005-09-28 삼성전자주식회사 중간 시점 영상 합성 방법 및 그를 적용한 3d 디스플레이장치
KR100679740B1 (ko) * 2004-06-25 2007-02-07 학교법인연세대학교 시점 선택이 가능한 다시점 동영상 부호화/복호화 방법
WO2006016418A1 (ja) * 2004-08-11 2006-02-16 Hitachi, Ltd. 符号化ストリーム記録媒体、画像符号化装置、及び画像復号化装置
TWI268715B (en) * 2004-08-16 2006-12-11 Nippon Telegraph & Telephone Picture encoding method, picture decoding method, picture encoding apparatus, and picture decoding apparatus
JP2006285353A (ja) * 2005-03-31 2006-10-19 Daikin Ind Ltd 機器管理システム
JP2006293901A (ja) 2005-04-14 2006-10-26 Fujitsu Ten Ltd 車載システム及び車載端末

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0262180A (ja) * 1988-08-26 1990-03-02 Fujitsu Ltd 動画像の動き補償予測符号化方式
JPH09284777A (ja) * 1996-04-15 1997-10-31 Sony Corp 動きベクトルなしで動き補償を用いるビデオ符号化方法とその装置
WO2006073116A1 (ja) * 2005-01-07 2006-07-13 Nippon Telegraph And Telephone Corporation 映像符号化方法及び装置、映像復号方法及び装置、それらのプログラムおよびそれらプログラムを記録した記録媒体

Also Published As

Publication number Publication date
CN101569202A (zh) 2009-10-28
RU2012113724A (ru) 2013-10-27
EP2512139B1 (en) 2013-09-11
US20100008422A1 (en) 2010-01-14
KR101447717B1 (ko) 2014-10-07
US8654854B2 (en) 2014-02-18
TW201251472A (en) 2012-12-16
KR20140048320A (ko) 2014-04-23
TWI400959B (zh) 2013-07-01
BRPI0718272A2 (pt) 2013-11-12
US8532190B2 (en) 2013-09-10
KR101533740B1 (ko) 2015-07-03
WO2008053758A1 (fr) 2008-05-08
RU2009115654A (ru) 2010-10-27
JPWO2008053758A1 (ja) 2010-02-25
RU2458479C2 (ru) 2012-08-10
EP2512139A1 (en) 2012-10-17
CA2667175A1 (en) 2008-05-08
KR20090084829A (ko) 2009-08-05
ES2439444T3 (es) 2014-01-23
EP2083571A1 (en) 2009-07-29
TWI502969B (zh) 2015-10-01
TW200826692A (en) 2008-06-16
RU2504106C2 (ru) 2014-01-10
CN101569202B (zh) 2011-11-16
US20120170651A1 (en) 2012-07-05
EP2083571A4 (en) 2010-11-10

Similar Documents

Publication Publication Date Title
JP4999860B2 (ja) 動画像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
JP4999859B2 (ja) 予測参照情報生成方法、動画像符号化及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
JP4999853B2 (ja) 画像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
JP5268645B2 (ja) カメラパラメータを利用して視差ベクトルを予測する方法、その方法を利用して多視点映像を符号化及び復号化する装置、及びそれを行うためのプログラムが記録された記録媒体
JP4663792B2 (ja) 多視点動映像を符号化及び復号化する装置及び方法
JP5197591B2 (ja) 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体
JPWO2008035665A1 (ja) 画像符号化方法及び復号方法、それらの装置、画像復号装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
KR20160118363A (ko) 화상 부호화 장치 및 방법, 화상 복호 장치 및 방법, 및 이들의 프로그램
US20160037172A1 (en) Image encoding method, image decoding method, image encoding apparatus, image decoding apparatus, image encoding program, and image decoding program
JP4944046B2 (ja) 映像符号化方法,復号方法,符号化装置,復号装置,それらのプログラムおよびコンピュータ読み取り可能な記録媒体
JP6386466B2 (ja) 映像符号化装置及び方法、及び、映像復号装置及び方法
JP2005301781A (ja) 画像作成方法,画像符号化方法,画像復号方法,画像作成装置,画像符号化装置,画像復号装置,画像作成プログラム,画像符号化プログラム,画像復号プログラムおよびそれらのプログラム記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100127

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120515

R151 Written notification of patent or utility model registration

Ref document number: 4999860

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350