JP5894338B2 - 映像符号化装置及び方法、映像復号装置及び方法、及びそれらのプログラム - Google Patents

映像符号化装置及び方法、映像復号装置及び方法、及びそれらのプログラム Download PDF

Info

Publication number
JP5894338B2
JP5894338B2 JP2015511315A JP2015511315A JP5894338B2 JP 5894338 B2 JP5894338 B2 JP 5894338B2 JP 2015511315 A JP2015511315 A JP 2015511315A JP 2015511315 A JP2015511315 A JP 2015511315A JP 5894338 B2 JP5894338 B2 JP 5894338B2
Authority
JP
Japan
Prior art keywords
prediction
inter
predicted image
reference information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015511315A
Other languages
English (en)
Other versions
JPWO2014168238A1 (ja
Inventor
志織 杉本
志織 杉本
信哉 志水
信哉 志水
木全 英明
英明 木全
明 小島
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015511315A priority Critical patent/JP5894338B2/ja
Application granted granted Critical
Publication of JP5894338B2 publication Critical patent/JP5894338B2/ja
Publication of JPWO2014168238A1 publication Critical patent/JPWO2014168238A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、映像符号化装置、映像復号装置、映像符号化方法、映像復号方法、映像符号化プログラム、及び映像復号プログラムに関し、特に時間方向及び視差方向の画面間予測符号化及び復号に関する。
一般的な映像符号化では、被写体の空間的/時間的な連続性を利用して、映像の各フレームを複数の処理単位ブロックに分割し、ブロック毎にその映像信号を空間的/時間的に予測し、その予測方法を示す予測情報と予測残差信号とを符号化することで、映像信号そのものを符号化する場合に比べて大幅な符号化効率の向上を図っている。また、一般的な二次元映像符号化では、同じフレーム内の既に符号化済みのブロックを参照して符号化対象信号を予測するイントラ予測と、既に符号化済みの他のフレームを参照して動き補償などに基づき符号化対象信号を予測するフレーム間(画面間)予測を行う。
ここで、多視点映像符号化について説明する。多視点映像符号化とは、同一のシーンを複数のカメラで撮影した複数の映像を、その映像間の冗長性を利用して高い効率で符号化するものである。多視点映像符号化については非特許文献1に詳しい。
また、多視点映像符号化においては、一般的な映像符号化で用いられる予測方法の他に、既に符号化済みの別の視点の映像を参照して視差補償に基づき符号化対象信号を予測する視点間予測と、フレーム間予測により符号化対象信号を予測し、その残差信号を既に符号化済みの別の視点の映像の符号化時の残差信号を参照して予測する視点間残差予測などの方法が用いられる。視点間予測は、MVCなどの多視点映像符号化ではフレーム間予測とまとめてインター予測として扱われ、Bピクチャにおいては2つ以上の予測画像を補間して予測画像とすることができる。
このように、多視点映像符号化においては、フレーム間予測と視点間予測の両方を行うことができるピクチャにおいては、これら双方による予測を行うことができる。
M. Flierl and B. Girod, "Multiview video compression," Signal Processing Magazine, IEEE, no. November 2007, pp. 66-76, 2007.
しかしながら、動き補償予測と視差補償予測とでは誤差の性質が異なり、(画像信号の)シーケンスの性質によっては、フレーム間予測だけを行う場合に比べて互いに誤差を打ち消しあう効果が得られにくい。
そのような誤差には、例えば動き補償予測では被写体の変形等によるものやブレによるもの、視差補償予測ではカメラの性質の違いによるものやオクルージョンの発生によるものなどがある。そのような場合には精度の高い方の予測方法が偏って選択され、双方を用いる予測はほとんど用いられない。
このため、例えば前方向予測と視点間予測が可能な種類のBピクチャにおいて、構造上は双方を用いる予測が可能であるにもかかわらず、実際には単方向予測しか用いられないために、予測残差の低減に対して十分な効果が得られない場合があるという問題がある。
本発明は、このような事情に鑑みてなされたもので、予測残差を低減させて予測残差符号化に必要な符号量を削減することができる映像符号化装置、映像復号装置、映像符号化方法、映像復号方法、映像符号化プログラム、及び映像復号プログラムを提供することを目的とする。
本発明は、時間方向及び視差方向の画面間予測を行い、誤差を補正した予測画像を生成して符号化対象映像を予測符号化する映像符号化装置であって、
前記時間方向及び前記視差方向のそれぞれにおいて既に復号済みの画像を参照ピクチャとして符号化対象画像を予測し、それぞれの参照先を示すフレーム間参照情報と視点間参照情報を決定する予測手段と、
前記視点間参照情報から視差予測画像を生成し、前記フレーム間参照情報から動き予測画像を生成する一次予測画像生成手段と、
前記視点間参照情報と前記フレーム間参照情報から補正予測画像を生成する補正予測画像生成手段と、
前記視差予測画像と、前記動き予測画像と、前記補正予測画像とから前記予測画像を生成する予測画像生成手段と
を備えることを特徴とする映像符号化装置を提供する。
典型例として、前記予測画像生成手段は、前記動き予測画像と前記視差予測画像とを加算し、これから前記補正予測画像を減算して、前記予測画像を生成する。
好適例として、前記視点間参照情報及び前記フレーム間参照情報は前記参照ピクチャを特定する情報を含み、
前記補正予測画像生成手段は、前記視点間参照情報の示す前記参照ピクチャと同じ視点の参照ピクチャのうち、前記フレーム間参照情報の示す前記参照ピクチャと同じフレームの参照ピクチャを補正参照ピクチャとして参照して前記補正予測画像を生成する。
この場合、前記視点間参照情報及び前記フレーム間参照情報は前記参照ピクチャ上にある参照位置を特定する情報を更に含み、
前記補正予測画像生成手段は、前記フレーム間参照情報と前記視点間参照情報に基づき前記補正参照ピクチャ上の参照位置を決定し前記補正予測画像を生成するようにしても良い。
別の好適例として、前記視点間参照情報及び前記フレーム間参照情報を特定する情報を予測情報として符号化する予測情報符号化手段を更に有する。
前記予測手段は、前記視点間参照情報及び前記フレーム間参照情報のうちいずれか一方を、他方の参照情報が示す参照先の符号化時の予測情報に基づいて生成するようにしても良い。
本発明は、時間方向及び視差方向の画面間予測を行い、誤差を補正した予測画像を生成して予測符号化された符号データを復号する映像復号装置であって、
前記時間方向及び前記視差方向のそれぞれにおいて既に復号済みの画像を参照ピクチャとして復号対象画像を予測し、それぞれの参照先を示すフレーム間参照情報と視点間参照情報を決定する予測手段と、
前記視点間参照情報から視差予測画像を生成し前記フレーム間参照情報から動き予測画像を生成する一次予測画像生成手段と、
前記視点間参照情報と前記フレーム間参照情報から補正予測画像を生成する補正予測画像生成手段と、
視差予測画像と動き予測画像と補正予測画像とから予測画像を生成する予測画像生成手段と
を備えることを特徴とする映像復号装置も提供する。
典型例として、前記予測画像生成手段では、前記動き予測画像と前記視差予測画像とを加算し、これから前記補正予測画像を減算して、前記予測画像を生成する。
好適例として、前記視点間参照情報及び前記フレーム間参照情報は前記参照ピクチャを特定する情報を含み、
前記補正予測画像生成手段では、前記視点間参照情報の示す前記参照ピクチャと同じ視点の参照ピクチャのうち、前記フレーム間参照情報の示す前記参照ピクチャと同じフレームの参照ピクチャを補正参照ピクチャとして参照して前記補正予測画像を生成する。
この場合、前記視点間参照情報及び前記フレーム間参照情報は前記参照ピクチャ上にある参照位置を特定する情報を更に含み、
前記補正予測画像生成手段では、前記フレーム間参照情報と前記視点間参照情報に基づき前記補正ピクチャ上の参照位置を決定し前記補正予測画像を生成するようにしても良い。
別の好適例として、前記符号データから予測情報を復号し前記フレーム間参照情報と前記視点間参照情報とを特定する予測情報を生成する予測情報復号手段を更に有し、
前記予測手段は、生成された前記予測情報に基づき前記フレーム間参照情報と前記視点間参照情報を決定する。
前記予測手段は、前記視点間参照情報及び前記フレーム間参照情報のうちいずれか一方を前記符号データから復号し、他方の参照情報は復号された参照情報の示す参照先の復号化時の予測情報に基づいて生成するようにしても良い。
本発明はまた、時間方向及び視差方向の画面間予測を行い、誤差を補正した予測画像を生成して符号化対象映像を予測符号化する映像符号化装置が行う映像符号化方法であって、
前記時間方向及び前記視差方向のそれぞれにおいて既に復号済みの画像を参照ピクチャとして符号化対象画像を予測し、それぞれの参照先を示すフレーム間参照情報と視点間参照情報を決定する予測ステップと、
前記視点間参照情報から視差予測画像を生成し、前記フレーム間参照情報から動き予測画像を生成する予測画像生成ステップと、
前記視点間参照情報と前記フレーム間参照情報から補正予測画像を生成する補正予測画像生成ステップと、
前記視差予測画像と、前記動き予測画像と、前記補正予測画像とから前記予測画像を生成する予測画像生成ステップと
を有することを特徴とする映像符号化方法も提供する。
本発明はまた、時間方向及び視差方向の画面間予測を行い、誤差を補正した予測画像を生成して予測符号化された符号データを復号する映像復号装置が行う映像復号方法であって、
前記時間方向及び前記視差方向のそれぞれにおいて既に復号済みの画像を参照ピクチャとして復号対象画像を予測し、それぞれの参照先を示すフレーム間参照情報と視点間参照情報を決定する予測ステップと、
前記視点間参照情報から視差予測画像を生成し前記フレーム間参照情報から動き予測画像を生成する予測画像生成ステップと、
前記視点間参照情報と前記フレーム間参照情報から補正予測画像を生成する補正予測画像生成ステップと、
視差予測画像と動き予測画像と補正予測画像とから予測画像を生成する予測画像生成ステップと
を有することを特徴とする映像復号方法も提供する。
本発明はまた、上記映像符号化方法をコンピュータに実行させるための映像符号化プログラムも提供する。
本発明はまた、上記映像復号方法をコンピュータに実行させるための映像符号化プログラムも提供する。
本発明によれば、予測残差を低減させることで予測残差符号化に必要な符号量を削減することができるため、符号化効率を向上させることができるという効果が得られる。
本発明の一実施形態による映像符号化装置の構成を示すブロック図である。 図1に示す映像符号化装置100の処理動作を示すフローチャートである。 本発明の一実施形態による映像復号装置の構成を示すブロック図である。 図3に示す映像復号装置200の処理動作を示すフローチャートである。 補正予測の概念を示す図である。 図1に示す映像符号化装置100をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア図である。 図3に示す映像復号装置200をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア図である。
以下、図面を参照して、本発明の一実施形態による映像符号化装置、映像復号装置を説明する。
始めに、映像符号化装置について説明する。図1は同実施形態による映像符号化装置の構成を示すブロック図である。
映像符号化装置100は、図1に示すように、符号化対象映像入力部101、入力画像メモリ102、参照ピクチャメモリ103、予測部104、一次予測画像生成部105、補正予測画像生成部106、予測画像生成部107、減算部108、変換・量子化部109、逆量子化・逆変換部110、加算部111、およびエントロピー符号化部112を備えている。
符号化対象映像入力部101は、符号化対象となる映像を本映像符号化装置100に入力する。以下の説明では、この符号化対象となる映像のことを符号化対象映像と呼び、特に処理を行うフレームを符号化対象フレームまたは符号化対象画像と呼ぶ。
入力画像メモリ102は、入力された符号化対象映像を記憶する。
参照ピクチャメモリ103は、それまでに符号化・復号された画像を記憶する。以下では、この記憶されたフレームを参照フレームまたは参照ピクチャと呼ぶ。
予測部104は、参照ピクチャメモリ103に記憶された参照ピクチャ上で符号化対象画像に対する視差方向と時間方向の双方の予測を行い、予測情報を生成する。
一次予測画像生成部105は、予測情報に基づき、動き予測画像と視差予測画像を生成する。
補正予測画像生成部106は、予測情報に基づき補正参照ピクチャ及び当該ピクチャ内の補正参照先を決定し、補正予測画像を生成する。
予測画像生成部107は、動き予測画像と視差予測画像と補正予測画像とから予測画像を生成する。
減算部108は、符号化対象画像と予測画像の差分値を求め、予測残差を生成する。
変換・量子化部109は、生成された予測残差を変換・量子化し、量子化データを生成する。
逆量子化・逆変換部110は、生成された量子化データを逆量子化・逆変換し、復号予測残差を生成する。
加算部111は、復号予測残差と予測画像とを加算し復号画像を生成する。
エントロピー符号化部112は、量子化データをエントロピー符号化し符号データを生成する。
次に、図2を参照して、図1に示す映像符号化装置100の処理動作を説明する。図2は、図1に示す映像符号化装置100の処理動作を示すフローチャートである。
ここでは、符号化対象映像は多視点映像のうちの一つの映像であることとし、当該多視点映像はフレーム毎に1視点ずつ全視点の映像を符号化し復号する構造をとるとする。また、ここでは符号化対象映像中のある1フレームを符号化する処理について説明する。説明する処理をフレームごとに繰り返すことで、映像の符号化が実現できる。
まず、符号化対象映像入力部101は、符号化対象フレームを映像符号化装置100に入力し、入力画像メモリ102に記憶する(ステップS101)。
なお、符号化対象映像中の幾つかのフレームは既に符号化されているものとし、その復号フレームが参照ピクチャメモリ103に記憶されているとする。
また、符号化対象フレームと同じフレームまでの参照可能な別の視点の映像も既に符号化され復号されて、入力画像メモリ102に記憶されていることとする。
映像入力の後、符号化対象フレームを符号化対象ブロックに分割し、ブロック毎に符号化対象フレームの映像信号を符号化する(ステップS102〜S111)。
以下のステップS103〜S110の処理は、フレーム全てのブロックに対して繰り返し実行する。
符号化対象ブロックごとに繰り返される処理において、まず、予測部104は、符号化対象ブロックに対する異なるフレームの参照ピクチャを参照する動き予測と、異なる視点の参照ピクチャを参照する視差予測の双方の予測を行い、予測情報を生成する。そして、一次予測画像生成部105は、生成された予測情報に基づき、動き予測画像と視差予測画像を生成する(ステップS103)。
ここで、予測や予測情報生成はどのように行なっても構わないし、予測情報としてどのような情報を設定しても構わない。
一般的なものとしては、参照ピクチャを特定するインデックスと参照ピクチャ上での参照先を示すベクトルからなる視点間参照情報(視差予測の場合)やフレーム間参照情報(動き予測の場合)を予測情報とする方法がある。
それぞれの参照情報の決定方法もどのような方法でも構わないが、例えば参照ピクチャ上で符号化対象ブロックに対応する領域の探索を行うという方法も適用できるし、既に符号化して復号済みの(符号化対象ブロックの)周辺ブロックの予測情報から決定するという方法も適用できる。
視差予測と動き予測は、それぞれ独立に行なっても構わないし、どちらかを先に実行しても構わないし、交互に繰り返し行なっても構わない。あるいは、参照ピクチャの組み合わせなどを予め定めておき、それに基づきそれぞれ独立に予測を行なっても構わないし、順番に行っても構わない。
例えば、視差予測の参照ピクチャは必ず0番目の視点のピクチャであるとし、動き予測の参照ピクチャは必ず先頭フレームであるとすると予め定めておいてもよい。また、組み合わせを特定する情報を符号化して映像の符号データと多重化しても構わないし、復号側で同じ組み合わせを特定できるのであれば符号化しなくても構わない。
更に、視差予測と動き予測を同時に行う場合には、全ての組み合わせを施行し評価してもよいし、まとめて最適化しても構わないし、一方を仮決定し他方を探索することを繰り返すなどの方法を用いても構わない。
また、予測精度の評価の対象として、それぞれの予測画像の予測精度を別々に評価しても構わないし、双方の予測画像を混合した画像の精度を評価してもよい。あるいは、後述の補正予測も含めた最終的な予測画像の精度を評価しても構わない。その他にどのような評価方法を用いて予測を行なっても構わない。
更に、予測情報は符号化して映像の符号データと多重化しても構わないし、前述のように周辺の予測情報や自身の残差予測情報等から導き出せる場合には符号化しなくても構わない。また、予測情報を予測しその残差を符号化しても構わない。
また、予測情報が視点間参照情報やフレーム間参照情報からなる場合、必要であれば両方符号化しても構わないし、予め定めた規則によって決定できるのであれば符号化しなくても構わない。例えば、いずれか一方を符号化し、他方の予測情報は符号化した方の情報の示す参照先の領域を符号化した時の予測情報に基づいて生成するという方法が適用できる。
次に、補正予測画像生成部106は、予測情報に基づき補正参照ピクチャ及び当該ピクチャ内の補正参照先を決定し、補正予測画像を生成する(ステップS104)。
補正予測画像を生成したら、予測画像生成部107は、動き予測画像と視差予測画像と補正予測画像とから予測画像を生成する(ステップS105)。
補正予測は、符号化対象フレームと異なるフレームの参照ピクチャとの間の動き予測と、符号化対象フレームと異なる視点の参照ピクチャとの間の視差予測のそれぞれの予測誤差を、別の参照ピクチャを用いて補正するものである。
ここでは、動き予測で参照するピクチャを参照フレームピクチャ、視差予測で参照するピクチャを参照視点ピクチャとし、補正予測において参照するピクチャを補正参照ピクチャとする。補正予測の詳細については後述する。
次に、減算部108は、予測画像と符号化対象ブロックの差分をとり、予測残差を生成する(ステップS106)。
なお、ここでは最終的な予測画像を生成してから予測残差を生成しているが、以下のような形で予測残差を生成しても構わない:
(i)補正予測画像と動き及び視差予測の予測画像からそれぞれの予測残差の予測値(「予測予測残差」とも呼ぶ)を生成し、
(ii)動き及び視差予測の予測画像と符号化対象ブロックのそれぞれの差分をとって動き及び視差予測残差を生成し、
(iii)上記予測残差の予測値に基づき、上記動き及び視差予測残差をそれぞれ更新する形で予測残差を生成する。
次に、予測残差の生成が終了したら、変換・量子化部109は当該予測残差を変換・量子化し、量子化データを生成する(ステップS107)。この変換・量子化は、復号側で正しく逆量子化・逆変換できるものであればどのような方法を用いても構わない。
そして、変換・量子化が終了したら、逆量子化・逆変換部110は、量子化データを逆量子化・逆変換し、復号予測残差を生成する(ステップS108)。
次に、復号予測残差の生成が終了したら、加算部111は、復号予測残差と予測画像とを加算して復号画像を生成し、参照ピクチャメモリ103に記憶する(ステップS109)。
ここでも前述のように、予測残差の予測値を生成し、当該予測値に基づき一次予測残差を更新する形で、一次予測画像と符号化対象ブロックの差分である一次予測残差を生成しても構わない。
また、必要であれば復号画像にループフィルタをかけても構わない。通常の映像符号化では、デブロッキングフィルタやその他のフィルタを使用して符号化ノイズを除去する。
次に、エントロピー符号化部112は、量子化データをエントロピー符号化して符号データを生成し、必要であれば、予測情報や残差予測情報その他の付加情報も符号化して符号データと多重化し、全てのブロックについて処理が終了したら、符号データを出力する(ステップS110)。
次に、映像復号装置について説明する。図3は、本発明の一実施形態による映像復号装置の構成を示すブロック図である。
映像復号装置200は、図3に示すように、符号データ入力部201、符号データメモリ202、参照ピクチャメモリ203、エントロピー復号部204、逆量子化・逆変換部205、一次予測画像生成部206、補正予測画像生成部207、予測画像生成部208、加算部209を備えている。
符号データ入力部201は、復号対象となる映像符号データを本映像復号装置200に入力する。この復号対象となる映像符号データのことを復号対象映像符号データと呼び、特に処理を行うフレームを復号対象フレームまたは復号対象画像と呼ぶ。
符号データメモリ202は、入力された復号対象映像を記憶する。
参照ピクチャメモリ203は、すでに復号済みの画像を記憶する。
エントロピー復号部204は、復号対象フレームの符号データをエントロピー復号して量子化データを生成し、逆量子化・逆変換部205は量子化データに逆量子化/逆変換を施して復号予測残差を生成する。
一次予測画像生成部206は、動き予測画像と視差予測画像を生成する。
補正予測画像生成部207は、補正参照ピクチャ及び当該ピクチャ内の補正参照先を決定し、補正予測画像を生成する。
予測画像生成部208は、動き予測画像と視差予測画像と補正予測画像とから予測画像を生成する。
加算部209は、復号予測残差と予測画像とを加算し、復号画像を生成する。
次に、図4を参照して、図3に示す映像復号装置200の処理動作を説明する。図4は、図3に示す映像復号装置200の処理動作を示すフローチャートである。
ここでは、復号対象映像は多視点映像のうちの一つの映像であることとし、当該多視点映像はフレーム毎に1視点ずつ全視点の映像を復号する構造をとるとする。また、ここでは符号データ中のある1フレームを復号する処理について説明する。説明する処理をフレームごとに繰り返すことで、映像の復号が実現できる。
まず、符号データ入力部201は符号データを映像復号装置200に入力し、符号データメモリ202に記憶する(ステップS201)。
なお、復号対象映像中の幾つかのフレームは既に復号されているものとし、その復号フレームが参照ピクチャメモリ203に記憶されているとする。
また、復号対象フレームと同じフレームまでの参照可能な別の視点の映像も既に復号され復号されて、参照ピクチャメモリ203に記憶されていることとする。
符号データ入力の後、復号対象フレームを復号対象ブロックに分割し、ブロック毎に復号対象フレームの映像信号を復号する(ステップS202〜S209)。
以下のステップS203〜S208の処理は、フレーム全てのブロックに対して繰り返し実行する。
復号対象ブロックごとに繰り返される処理において、まず、エントロピー復号部204は、符号データをエントロピー復号する(ステップS203)。
そして、逆量子化・逆変換部205は、逆量子化・逆変換を行い、復号予測残差を生成する(ステップS204)。予測情報やその他の付加情報が符号データに含まれる場合は、それらも復号し、適宜必要な情報を生成しても構わない。
次に、一次予測画像生成部206は、動き予測画像と視差予測画像を生成する(ステップS205)。
予測情報が符号化され映像の符号データと多重化されている場合には、その情報を(復号して)利用して予測画像の生成を行っても構わないし、前述のように周辺の予測情報や自身の残差予測情報等から導き出せる場合には、係る符号化された情報はなくても構わない。また、一方の予測情報から他方の予測情報を導き出せる場合には、一方の予測情報のみを符号化した情報を使用してもよい。
また、予測情報の予測残差が符号化されている場合には、これを復号して利用して予測情報の予測を行なっても構わない。詳細な処理動作は、符号化装置と同様である。
次に、補正予測画像生成部207は、予測情報に基づき補正参照ピクチャ及び当該ピクチャ内の補正参照先を決定し、補正予測画像を生成する(ステップS206)。
補正予測画像を生成したら、予測画像生成部208は、動き予測画像と視差予測画像と補正予測画像とから予測画像を生成する(ステップS207)。
詳細な処理動作は、符号化装置と同様である。前述の説明では最終的な予測画像を生成してから予測残差を生成しているが、補正予測画像と動き及び視差予測の予測画像からそれぞれの予測残差の予測値(予測予測残差)を生成し、これに基づき復号予測残差を更新する形で予測残差を生成しても構わない。
次に、予測画像の生成が終了したら、加算部209は、復号予測残差と予測画像を加算し、復号画像を生成し、参照ピクチャメモリに記憶し、全てのブロックについて処理が終了したら、復号画像を出力する(ステップS208)。
必要であれば復号画像にループフィルタをかけても構わない。通常の映像復号では、デブロッキングフィルタやその他のフィルタを使用して符号化ノイズを除去する。
次に、図5を参照して、補正予測の詳細な処理動作について説明する。図5は、補正予測の概念を示す図である。
ここでは、動き予測で参照するピクチャを参照フレームピクチャ、視差予測で参照するピクチャを参照視点ピクチャとし、補正予測において参照するピクチャを補正参照ピクチャとする。
補正参照ピクチャとしてはどのようなピクチャを選んでも構わないが、図5においては、参照フレームピクチャと同じフレームに属し、かつ参照視点ピクチャと同じ視点のピクチャを参照ピクチャとする場合の例を示す。
まず、符号化対象ピクチャA内の符号化対象ブロックaから予測して、動き予測画像PIを生成し、当該画像を含むピクチャを参照フレームピクチャBとして記憶する。
また、符号化対象ピクチャA内の符号化対象ブロックaから予測して視差予測画像PIを生成し、当該画像を含むピクチャを参照視点ピクチャCとして記憶する。
そして、動き予測画像PIと視差予測画像PIとから補正予測画像PIを生成して、当該画像を含むピクチャを補正参照ピクチャDとして記憶する。
次に、平均化部10によって動き予測画像PIと視差予測画像PIとの平均を求め、これを一次予測画像eとする。
一方、減算器20によって動き予測画像PIと補正予測画像PIとの差分を求め、これを予測視差予測残差PPRとする。
また、減算器30によって視差予測画像PIと補正予測画像PIとの差分を求め、これを予測動き予測残差PPRとする。
次に、平均化部40によって予測視差予測残差PPRと予測動き予測残差PPRとの平均を求め、これを予測予測残差fとする。
最後に、加算器50によって一次予測画像eと予測予測残差fとを加算して、予測画像PIを生成する。
ここで、予測情報が視点間参照情報やフレーム間参照情報からなる場合、それぞれの参照情報を用いて補正参照ピクチャ上の補正予測画像として参照する領域を決定する。
例えば参照情報に参照フレーム/視点ピクチャ上の領域を示すベクトルが含まれる場合、補正参照ピクチャ上の補正予測画像として参照する領域を示す補正ベクトルVは、動きベクトルVと視差ベクトルVによって以下の式で表される。
=V+V
予測画像生成では、この補正予測画像PIと動き予測画像PIを用いて、視差予測画像PIの符号化対象ブロックに対する予測誤差を予測し、補正予測画像PIと視差予測画像PIを用いて、動き予測画像PIの符号化対象ブロックに対する予測誤差を予測し、動き予測画像と視差予測画像のそれぞれについて誤差を加味した上で最終的な予測画像を生成する。
以下では、予測された動き予測の予測誤差を予測動き予測残差(上記のPPR)と呼び、予測された視差予測の予測残差を予測視差予測残差(上記のPPR)と呼ぶ。
予測方法はどのような方法でも構わないが、図5においては、補正予測画像とそれぞれの予測画像との差分をもって予測(動き/視差)予測残差としている。この場合予測動き予測残差PPRと予測視差予測残差PPRは、以下の式で表される。
PPR=PI−PI・PPR=PI−PI
また、動き及び視差それぞれの予測画像と符号化対象ブロックとの差分が一次予測残差であり、概念的にはそれぞれの一次予測残差から対応する予測予測残差を差し引き符号化対象の予測残差とすることで、予測残差の符号量を低減することができる。この予測誤差をもって双方の予測の予測画像の補正を行う場合、最終的な予測画像PIは以下の式で表される。
Figure 0005894338
このように、予測予測残差の生成を行わずに上述のような式を使用して、直接最終的な予測画像を生成してもよい。
また、ここでは補正前の予測画像は両方向の予測画像の平均値であるとしているが、他にどのような重み付けで予測画像を生成し、重みを加味した補正を行なっても構わない。また、予測予測残差に別途重みを付けても構わない。
例えば一方の予測がもう一方の予測に比べて精度が劣る場合に、その精度に応じた重みをつけるなどしてもよい。ここでは、上述の例において動き予測画像PIに比べて視差予測画像PIの精度が低い場合の重み付けの方法を説明する。視差補償予測画像に対する重みをWとすると、最終的な予測画像PIは、以下のような式で表すことが出来る。
Figure 0005894338
上記の重みWは画像と同じ大きさの行列でも良いし、スカラーでも良い。W=1のときには上記「数1」の式と一致する。
また、Wはどのように決定してもよい。典型例としては、視差補償予測の精度が良い場合には1として、精度が良くない場合には1/2、精度が著しく悪い場合や使用可能な視差ベクトルがない場合には0とするなどの場合がある。
なお、図2、図4に示す一部の処理は、その順序が前後しても構わない。
また、以上説明した映像符号化装置及び映像復号装置の処理は、コンピュータとソフトウェアプログラムとによっても実現することができ、そのプログラムをコンピュータで読み取り可能な記録媒体に記録して提供することも、ネットワークを通して提供することも可能である。
図6は、前述の映像符号化装置100をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア図である。
本システムは:
・プログラムを実行するCPU30と
・CPU30がアクセスするプログラムやデータが記憶されるRAM等のメモリ31
・カメラ等からの符号化対象の映像信号を映像符号化装置内に入力する符号化対象映像入力部32(ディスク装置などによる映像信号を記憶する記憶部でもよい)
・図2に示す処理動作をCPU30に実行させるソフトウェアプログラムである映像符号化プログラム331が記憶されたプログラム記憶装置33
・CPU30がメモリ31にロードされた映像符号化プログラムを実行することにより生成された符号データを、例えばネットワークを介して出力する符号データ出力部34(ディスク装置などによる符号データを記憶する記憶部でもよい)
とが、バスで接続された構成になっている。
また、図示は省略するが、他に、符号データ記憶部、参照フレーム記憶部などのハードウェアが設けられ、本手法の実施に利用される。また、映像信号符号データ記憶部、予測情報符号データ記憶部などが用いられることもある。
図7は、前述の映像復号装置200をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア図である。
本システムは:
・プログラムを実行するCPU40
・CPU40がアクセスするプログラムやデータが記憶されるRAM等のメモリ41
・映像符号化装置が本手法により符号化した符号データを映像復号装置内に入力する符号データ入力部42(ディスク装置などによる符号データを記憶する記憶部でもよい)
・図4に示す処理動作をCPU40に実行させるソフトウェアプログラムである映像復号プログラム431が記憶されたプログラム記憶装置43
・CPU40がメモリ41にロードされた映像復号プログラムを実行することにより生成された復号映像を、再生装置などに出力する復号映像出力部44
とが、バスで接続された構成になっている。
また、図示は省略するが、他に、参照フレーム記憶部などのハードウェアが設けられ、本手法の実施に利用される。また、映像信号符号データ記憶部、予測情報符号データ記憶部などが用いられることもある。
以上説明したように、多視点映像符号化におけるフレーム間予測と視点間予測の双方を行うことができるピクチャにおいて、それらフレーム間予測と視点間予測を行う場合に、それぞれの参照先を示す情報から新たに両予測の予測誤差を補正するための補正予測を行うことにより予測残差を低減させ、予測残差符号化に必要な符号量を削減することができる。
前述した実施形態における図1に示す映像符号化装置及び図3に示す映像復号装置をコンピュータで実現するようにしてもよい。
その場合、該当する機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。
なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。
また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。
時間方向と視差方向とを併用する予測が不適であるため単方向予測が用いられることで予測残差の符号量が増大する場合に、双方の予測の予測誤差を補正することで符号量を低減することが好適な用途に適用できる。
101・・・符号化対象映像入力部
102・・・入力画像メモリ
103・・・参照ピクチャメモリ
104・・・予測部
105・・・一次予測画像生成部
106・・・補正予測画像生成部
107・・・予測画像生成部
108・・・減算器
109・・・変換・量子化部
110・・・逆量子化・逆変換部
111・・・加算器
112・・・エントロピー符号化部
201・・・符号データ入力部
202・・・符号データメモリ
203・・・参照ピクチャメモリ
204・・・エントロピー復号部
205・・・逆量子化・逆変換部
206・・・一次予測画像生成部
207・・・補正予測画像生成部
208・・・予測画像生成部
209・・・加算器

Claims (16)

  1. 時間方向及び視差方向の画面間予測を行い、誤差を補正した予測画像を生成して符号化対象映像を予測符号化する映像符号化装置であって、
    前記時間方向及び前記視差方向のそれぞれにおいて既に復号済みの画像を参照ピクチャとして符号化対象画像を予測し、それぞれの参照先を示すフレーム間参照情報と視点間参照情報を決定する予測手段と、
    前記視点間参照情報から視差予測画像を生成し、前記フレーム間参照情報から動き予測画像を生成する一次予測画像生成手段と、
    前記視点間参照情報と前記フレーム間参照情報から補正予測画像を生成する補正予測画像生成手段と、
    前記視差予測画像と、前記動き予測画像と、前記補正予測画像とから前記予測画像を生成する予測画像生成手段と
    を備えることを特徴とする映像符号化装置。
  2. 前記予測画像生成手段は、前記動き予測画像と前記視差予測画像とを加算し、これから前記補正予測画像を減算して、前記予測画像を生成する
    ことを特徴とする請求項1に記載の映像符号化装置。
  3. 前記視点間参照情報及び前記フレーム間参照情報は前記参照ピクチャを特定する情報を含み、
    前記補正予測画像生成手段は、前記視点間参照情報の示す前記参照ピクチャと同じ視点の参照ピクチャのうち、前記フレーム間参照情報の示す前記参照ピクチャと同じフレームの参照ピクチャを補正参照ピクチャとして参照して前記補正予測画像を生成する
    ことを特徴とする請求項1に記載の映像符号化装置。
  4. 前記視点間参照情報及び前記フレーム間参照情報は前記参照ピクチャ上にある参照位置を特定する情報を更に含み、
    前記補正予測画像生成手段は、前記フレーム間参照情報と前記視点間参照情報に基づき前記補正参照ピクチャ上の参照位置を決定し前記補正予測画像を生成する
    ことを特徴とする請求項3に記載の映像符号化装置。
  5. 前記視点間参照情報及び前記フレーム間参照情報を特定する情報を予測情報として符号化する予測情報符号化手段を
    更に有することを特徴とする請求項1に記載の映像符号化装置。
  6. 前記予測手段は、前記視点間参照情報及び前記フレーム間参照情報のうちいずれか一方を、他方の参照情報が示す参照先の符号化時の予測情報に基づいて生成する
    ことを特徴とする請求項1に記載の映像符号化装置。
  7. 時間方向及び視差方向の画面間予測を行い、誤差を補正した予測画像を生成して予測符号化された符号データを復号する映像復号装置であって、
    前記時間方向及び前記視差方向のそれぞれにおいて既に復号済みの画像を参照ピクチャとして復号対象画像を予測し、それぞれの参照先を示すフレーム間参照情報と視点間参照情報を決定する予測手段と、
    前記視点間参照情報から視差予測画像を生成し前記フレーム間参照情報から動き予測画像を生成する一次予測画像生成手段と、
    前記視点間参照情報と前記フレーム間参照情報から補正予測画像を生成する補正予測画像生成手段と、
    視差予測画像と動き予測画像と補正予測画像とから予測画像を生成する予測画像生成手段と
    を備えることを特徴とする映像復号装置。
  8. 前記予測画像生成手段では、前記動き予測画像と前記視差予測画像とを加算し、これから前記補正予測画像を減算して、前記予測画像を生成する
    ことを特徴とする請求項7に記載の映像復号装置。
  9. 前記視点間参照情報及び前記フレーム間参照情報は前記参照ピクチャを特定する情報を含み、
    前記補正予測画像生成手段では、前記視点間参照情報の示す前記参照ピクチャと同じ視点の参照ピクチャのうち、前記フレーム間参照情報の示す前記参照ピクチャと同じフレームの参照ピクチャを補正参照ピクチャとして参照して前記補正予測画像を生成する
    ことを特徴とする請求項7に記載の映像復号装置。
  10. 前記視点間参照情報及び前記フレーム間参照情報は前記参照ピクチャ上にある参照位置を特定する情報を更に含み、
    前記補正予測画像生成手段では、前記フレーム間参照情報と前記視点間参照情報に基づき前記補正ピクチャ上の参照位置を決定し前記補正予測画像を生成する
    ことを特徴とする請求項9に記載の映像復号装置。
  11. 前記符号データから予測情報を復号し前記フレーム間参照情報と前記視点間参照情報とを特定する予測情報を生成する予測情報復号手段を更に有し、
    前記予測手段は、生成された前記予測情報に基づき前記フレーム間参照情報と前記視点間参照情報を決定する
    ことを特徴とする請求項7に記載の映像復号装置。
  12. 前記予測手段は、前記視点間参照情報及び前記フレーム間参照情報のうちいずれか一方を前記符号データから復号し、他方の参照情報は復号された参照情報の示す参照先の復号化時の予測情報に基づいて生成する
    ことを特徴とする請求項7に記載の映像復号装置。
  13. 時間方向及び視差方向の画面間予測を行い、誤差を補正した予測画像を生成して符号化対象映像を予測符号化する映像符号化装置が行う映像符号化方法であって、
    前記時間方向及び前記視差方向のそれぞれにおいて既に復号済みの画像を参照ピクチャとして符号化対象画像を予測し、それぞれの参照先を示すフレーム間参照情報と視点間参照情報を決定する予測ステップと、
    前記視点間参照情報から視差予測画像を生成し、前記フレーム間参照情報から動き予測画像を生成する予測画像生成ステップと、
    前記視点間参照情報と前記フレーム間参照情報から補正予測画像を生成する補正予測画像生成ステップと、
    前記視差予測画像と、前記動き予測画像と、前記補正予測画像とから前記予測画像を生成する予測画像生成ステップと
    を有することを特徴とする映像符号化方法。
  14. 時間方向及び視差方向の画面間予測を行い、誤差を補正した予測画像を生成して予測符号化された符号データを復号する映像復号装置が行う映像復号方法であって、
    前記時間方向及び前記視差方向のそれぞれにおいて既に復号済みの画像を参照ピクチャとして復号対象画像を予測し、それぞれの参照先を示すフレーム間参照情報と視点間参照情報を決定する予測ステップと、
    前記視点間参照情報から視差予測画像を生成し前記フレーム間参照情報から動き予測画像を生成する予測画像生成ステップと、
    前記視点間参照情報と前記フレーム間参照情報から補正予測画像を生成する補正予測画像生成ステップと、
    視差予測画像と動き予測画像と補正予測画像とから予測画像を生成する予測画像生成ステップと
    を有することを特徴とする映像復号方法。
  15. 請求項13に記載の映像符号化方法をコンピュータに実行させるための映像符号化プログラム。
  16. 請求項14に記載の映像復号方法をコンピュータに実行させるための映像復号プログラム。
JP2015511315A 2013-04-12 2014-04-11 映像符号化装置及び方法、映像復号装置及び方法、及びそれらのプログラム Active JP5894338B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015511315A JP5894338B2 (ja) 2013-04-12 2014-04-11 映像符号化装置及び方法、映像復号装置及び方法、及びそれらのプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013084197 2013-04-12
JP2013084197 2013-04-12
JP2015511315A JP5894338B2 (ja) 2013-04-12 2014-04-11 映像符号化装置及び方法、映像復号装置及び方法、及びそれらのプログラム
PCT/JP2014/060489 WO2014168238A1 (ja) 2013-04-12 2014-04-11 映像符号化装置及び方法、映像復号装置及び方法、及びそれらのプログラム

Publications (2)

Publication Number Publication Date
JP5894338B2 true JP5894338B2 (ja) 2016-03-30
JPWO2014168238A1 JPWO2014168238A1 (ja) 2017-02-16

Family

ID=51689639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015511315A Active JP5894338B2 (ja) 2013-04-12 2014-04-11 映像符号化装置及び方法、映像復号装置及び方法、及びそれらのプログラム

Country Status (5)

Country Link
US (1) US20160073125A1 (ja)
JP (1) JP5894338B2 (ja)
KR (1) KR101761331B1 (ja)
CN (1) CN105052148B (ja)
WO (1) WO2014168238A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111556314A (zh) * 2020-05-18 2020-08-18 郑州工商学院 一种计算机图像处理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09261653A (ja) * 1996-03-18 1997-10-03 Sharp Corp 多視点画像符号化装置
WO2008007913A1 (en) * 2006-07-12 2008-01-17 Lg Electronics, Inc. A method and apparatus for processing a signal
WO2012007038A1 (en) * 2010-07-15 2012-01-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Hybrid video coding supporting intermediate view synthesis
JP2015524228A (ja) * 2012-06-19 2015-08-20 エルジー エレクトロニクス インコーポレイティド ビデオ信号処理方法およびビデオ信号処理装置
JP2016504846A (ja) * 2012-12-07 2016-02-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated スケーラブルなマルチビュービデオコーディングにおける高度な残差予測

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5619256A (en) * 1995-05-26 1997-04-08 Lucent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
JP4185014B2 (ja) * 2004-04-14 2008-11-19 日本電信電話株式会社 映像符号化方法、映像符号化装置、映像符号化プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体、並びに、映像復号方法、映像復号装置、映像復号プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
KR100968920B1 (ko) * 2006-01-05 2010-07-14 니폰덴신뎅와 가부시키가이샤 영상 부호화 방법 및 복호 방법, 그들의 장치, 및 그들의프로그램 및 프로그램을 기록한 기억 매체
CN101291434A (zh) * 2007-04-17 2008-10-22 华为技术有限公司 多视编解码方法及装置
US8553781B2 (en) * 2007-12-07 2013-10-08 Thomson Licensing Methods and apparatus for decoded picture buffer (DPB) management in single loop decoding for multi-view video
JP2012080151A (ja) * 2009-02-09 2012-04-19 Toshiba Corp 幾何変換動き補償予測を用いる動画像符号化及び動画像復号化の方法と装置
CN102244801A (zh) * 2011-07-13 2011-11-16 中国民航大学 一种数字立体电视***及编解码方法
CN102685532B (zh) * 2012-06-04 2014-04-16 山东大学 自由视点四维空间视频编码***的编码方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09261653A (ja) * 1996-03-18 1997-10-03 Sharp Corp 多視点画像符号化装置
WO2008007913A1 (en) * 2006-07-12 2008-01-17 Lg Electronics, Inc. A method and apparatus for processing a signal
JP2009543508A (ja) * 2006-07-12 2009-12-03 エルジー エレクトロニクス インコーポレイティド 信号処理方法及び装置
WO2012007038A1 (en) * 2010-07-15 2012-01-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Hybrid video coding supporting intermediate view synthesis
JP2015524228A (ja) * 2012-06-19 2015-08-20 エルジー エレクトロニクス インコーポレイティド ビデオ信号処理方法およびビデオ信号処理装置
JP2016504846A (ja) * 2012-12-07 2016-02-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated スケーラブルなマルチビュービデオコーディングにおける高度な残差予測

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JPN6014023687; Bartnik, C., et.al.: '"HEVC Extension for Multiview Video Coding and Multiview Video plus Depth Coding"' [online] Document:VCEG-AR13, 201202, ITU - Telecommunications Standardization Sector ST *
JPN6014023688; Sugio, T., et.al.: '"Modified derivation process on motion vector predictor and weighted prediction for HEVC multi-view' [online] Document: JCTVC-I0436_r1, 201205, Joint Collaborative Team on Video Coding (JCT-VC) *
JPN6014023689; Ying Chen, et.al.: '"Temporal motion vector prediction hook for efficient merge mode in MV-HEVC"' [online] Document: JCT3V-C0064, 201301, Joint Collaborative Team on 3D Video Coding Extens *
JPN6016006424; 志水信哉(外3名): '「復号画像間ブロックマッチングを用いた多視点映像符号化のためのInter予測拡張に関する一検討」' 情報処理学会研究報告 Vol.2007, No.22, 20070305, 第31〜36頁, 社団法人情報処理学会 *

Also Published As

Publication number Publication date
CN105052148A (zh) 2015-11-11
WO2014168238A1 (ja) 2014-10-16
KR20150119052A (ko) 2015-10-23
US20160073125A1 (en) 2016-03-10
KR101761331B1 (ko) 2017-07-25
CN105052148B (zh) 2018-07-10
JPWO2014168238A1 (ja) 2017-02-16

Similar Documents

Publication Publication Date Title
JP5934375B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
JP5894301B2 (ja) 映像符号化装置および方法、映像復号装置および方法、及びそれらのプログラム
KR20150135457A (ko) 복수의 입력 화상을 인코딩하는 방법, 프로그램을 격납하는 기억 매체 및 장치
JP2019208090A (ja) 映像符号化装置、映像復号装置及びプログラム
JP5894338B2 (ja) 映像符号化装置及び方法、映像復号装置及び方法、及びそれらのプログラム
JP6386466B2 (ja) 映像符号化装置及び方法、及び、映像復号装置及び方法
JP5706291B2 (ja) 映像符号化方法,映像復号方法,映像符号化装置,映像復号装置およびそれらのプログラム
JP2015128252A (ja) 予測画像生成方法、予測画像生成装置、予測画像生成プログラム及び記録媒体
JP5952733B2 (ja) 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム、映像復号プログラム及び記録媒体
JP2016127372A (ja) 動画像符号化装置、動画像復号装置、動画像処理システム、動画像符号化方法、動画像復号方法、およびプログラム
JP6306883B2 (ja) 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム、映像復号プログラム及び記録媒体
JP6139953B2 (ja) 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム、映像復号プログラム及び記録媒体
JP6306884B2 (ja) 予測画像生成方法、画像再構成方法、予測画像生成装置、画像再構成装置、予測画像生成プログラム、画像再構成プログラム及び記録媒体
US10972751B2 (en) Video encoding apparatus and method, and video decoding apparatus and method
JP6310340B2 (ja) 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法、映像符号化プログラム及び映像復号プログラム
WO2015141549A1 (ja) 動画像符号化装置及び方法、及び、動画像復号装置及び方法
JP6232117B2 (ja) 画像符号化方法、画像復号方法、及び記録媒体
JP2024099798A (ja) ビデオ符号化のための方法、コンピューティングデバイス、非一時的コンピュータ可読記憶媒体、コンピュータプログラム、および、ビットストリームを格納する方法
JP2016511593A (ja) 視差動きベクトルの導出、そのような導出を使用した3dビデオコーディングおよびデコーディング
JP2024099724A (ja) ビデオ復号のための方法、コンピューティングデバイス、非一時的コンピュータ可読記憶媒体、コンピュータプログラム、および、ビデオ復号方法によって復号するビットストリームを格納する方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160225

R150 Certificate of patent or registration of utility model

Ref document number: 5894338

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150