JP6150277B2 - 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム - Google Patents

立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム Download PDF

Info

Publication number
JP6150277B2
JP6150277B2 JP2013000385A JP2013000385A JP6150277B2 JP 6150277 B2 JP6150277 B2 JP 6150277B2 JP 2013000385 A JP2013000385 A JP 2013000385A JP 2013000385 A JP2013000385 A JP 2013000385A JP 6150277 B2 JP6150277 B2 JP 6150277B2
Authority
JP
Japan
Prior art keywords
video
depth map
encoded
identification information
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013000385A
Other languages
English (en)
Other versions
JP2014132721A (ja
Inventor
妹尾 孝憲
孝憲 妹尾
保之 市橋
保之 市橋
久幸 佐々木
久幸 佐々木
健詞 山本
健詞 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2013000385A priority Critical patent/JP6150277B2/ja
Priority to EP13869976.4A priority patent/EP2942953A4/en
Priority to CN201380069587.5A priority patent/CN104904205B/zh
Priority to KR1020157017906A priority patent/KR20150105321A/ko
Priority to PCT/JP2013/078095 priority patent/WO2014106915A1/ja
Priority to US14/759,630 priority patent/US20150341614A1/en
Publication of JP2014132721A publication Critical patent/JP2014132721A/ja
Application granted granted Critical
Publication of JP6150277B2 publication Critical patent/JP6150277B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、立体映像を符号化する立体映像符号化装置、立体映像符号化方法及び立体映像符号化プログラム、並びに、符号化された立体映像を復号化する立体映像復号化装置、立体映像復号化方法及び立体映像復号化プログラムに関する。
近年、2眼式立体テレビや2眼式立体映画が普及しつつあるが、一部の立体視要因を実現するのみであり、運動視差がないため不自然であったり、眼鏡をかけることに起因する眼性疲労等があったりする。このため、より自然な裸眼立体映像の実用化が望まれている。
裸眼立体映像は多視点映像で実現されるが、多数の視点映像を伝送・蓄積する必要があり、データ量が多く、実用化が困難であった。そこで、多視点映像に、その視点映像について、被写体の奥行情報として、他の視点映像との間の各画素における視差(同じ被写体点の映像内での画素位置のずれ量)のマップである奥行マップを付加することで視点数を間引いて伝送・蓄積し、得られた少数の視点映像を奥行マップで射影することにより、間引かれた視点映像を補間して、多視点映像を復元する方法が知られている。
このような、少数の視点映像と奥行マップとを用いて多視点映像を復元する方法が、例えば、特許文献1に開示されている。特許文献1には、多視点映像(画像信号)とその奥行マップ(デプス信号)とを符号化・復号化する方法が記載されている。図24を参照して、特許文献1に記載の画像符号化装置について説明する。図24に示したように、特許文献1に記載の画像符号化装置は、符号管理部101、画像信号符号化部107、デプス信号符号化部108、ユニット化部109及びパラメータ情報符号化部110を備えて構成されている。この画像符号化装置では、各視点映像(画像信号)は、画像信号符号化部107で視点映像間の予測符号化を行い、1つ以上の視点の奥行マップ(デプス信号)は、デプス信号符号化部108で同様に視点間予測符号化される。符号化されたこれらの信号は、ユニット化部109で符号化ビット列に構成され、蓄積・伝送される。
特開2010−157821号公報
特許文献1に記載された方法では、すべての符号化された視点映像は、元の映像と同じサイズを有するものである。しかしながら、現在実用化されつつある多視点立体ディスプレイは、その製造コストを抑えるために、従来普及しているディスプレイと同じ画素数のディスプレイを用い、各視点映像は、(視点数)分の1に画素数を間引いて表示しているので、符号化・伝送された画素データの大半を捨てることとなり、符号化効率が低いものである。また、特許文献1には、伝送される視点映像に付随した奥行マップを使って、間引かれた視点映像を合成する方法が記載されているが、視点数と同数の奥行マップを符号化・伝送する必要があり、符号化効率が低いという問題があった。
また、特許文献1に記載された方法では、多視点映像と奥行マップとは、それぞれ個別に視点間予測符号化される。しかしながら、従来の視点間予測符号化方法は、視点映像間で、対応する画素位置を探索して、その画素位置のずれ量を視差ベクトルとして抽出し、抽出した視差ベクトルを用いて視点間予測符号化・復号化するものである。このため、視差ベクトルの探索に時間が掛かるとともに、予測精度が悪く、符号化・復号化速度が遅いという問題があった。
そこで、複数の映像及び複数の奥行マップについて、それぞれ合成してデータ量を低減した後に符号化して伝送する方法が考えられる。しかし、一般的には、合成によってデータ量を低減できるが、合成による画質劣化が生じることとなる。このため、合成せず複数の映像及び複数の奥行マップを符号化する場合を含めて、種々の合成方法を用途に応じて選択可能とすることが考えられる。
一方、多視点映像の符号化方式については、例えば、国際標準化機構(ISO:International Organization for Standardization)傘下の動画像符号化専門家グループ(MPEG:Moving Picture Expert Group)が、MVC(Multiview Video Coding)を、携帯電話向けTV放送や高密度光ディスク等に使われているMPEG−4 Video Part10 AVC(Advanced Video Coding)符号化標準(ISO/IEC 14496-10/ITU-T H.264:以下、適宜に「MPEG−4 AVC符号化規格」と略す)のAnnex H(Multiview video coding)として標準化している。更にまた、映像の奥行情報を利用して、符号化効率の更なる改善を目指す3DV/FTV(3-Dimensional Video / Free-viewpoint TV)符号化標準の策定が進められている。
ここで、多視点映像及び奥行マップについて、複数の合成方法を選択可能とする仕様を従来の規格に組込む際には、旧システムと並存でき、かつ旧システムで誤動作を起こさないようにする必要がある。このために、符号化ビット列の信号体系を極力変更せずに、データの一部が旧システムで利用できる前方互換性を保つことが好ましい。更に、旧システムと共通のリソース(符号化ツール)を使用できることが好ましい。
本発明は、このような問題に鑑みてなされたものであり、旧システムとの互換性を保ちつつ、立体映像を効率よく符号化して伝送する立体映像符号化装置、立体映像符号化方法及び立体映像符号化プログラム、並びに、その符号化された立体映像を復号化する立体映像復号化装置、立体映像復号化方法及び立体映像復号化プログラムを提供することを課題とする。
前記した課題を解決するために、請求項1に記載の立体映像符号化装置は、複数の視点における映像の組である多視点映像を、複数種類の所定の映像合成方式の内の何れか1つの方式によって合成した合成映像と、前記多視点映像に付随し、前記多視点映像の視点間の視差である奥行値の画素毎の情報のマップである奥行マップを複数種類の所定の奥行マップ合成方式の内の何れか1つの方式によって合成した合成奥行マップと、を符号化し、所定単位毎に、当該所定単位の情報種別を識別する識別情報を付加して、一連の符号化ビット列を生成する立体映像符号化装置であって、映像合成手段と、映像符号化手段と、奥行マップ合成手段と、奥行マップ符号化手段と、パラメータ符号化手段と、多重化手段と、を備える構成とした。
かかる構成によれば、立体映像符号化装置は、映像合成手段によって、前記多視点映像を、前記複数種類の所定の映像合成方式の内の何れか1つの方式によって合成することで、符号化の対象である前記合成映像を生成する。また、立体映像符号化装置は、映像符号化手段によって、前記合成映像を符号化し、符号化された合成映像であることを識別する第1識別情報を付加した符号化合成映像を生成する。また、立体映像符号化装置は、奥行マップ合成手段によって、前記多視点映像に付随する複数の奥行マップを、前記複数種類の所定の奥行マップ合成方式の内の何れか1つの方式によって合成することで、符号化の対象である前記合成奥行マップを生成する。また、立体映像符号化装置は、奥行マップ符号化手段によって、前記合成奥行マップを符号化し、符号化された合成奥行マップであることを識別する第2識別情報を付加して符号化合成奥行マップを生成する。また、立体映像符号化装置は、パラメータ符号化手段によって、前記合成映像の合成に用いた映像合成方式及び前記合成奥行マップの合成に用いた奥行マップ合成方式を識別する第3識別情報を、映像の復号化又は映像の表示のために用いられる補助情報のパラメータとして符号化し、符号化された前記補助情報であることを識別する第4識別情報を付加して符号化パラメータを生成する。そして、立体映像符号化装置は、多重化手段によって、前記符号化合成奥行マップと、前記符号化合成映像と、前記符号化パラメータとを多重化して前記一連の符号化ビット列を生成する。
これによって、立体映像符号化装置は、複数の映像を合成した合成映像と、複数の奥行マップを合成した合成奥行マップと、映像及び奥行マップを合成した合成方式を示す第3識別情報とを、それぞれ別個の単位情報として符号化して伝送する。
請求項2に記載の立体映像符号化装置は、請求項1に記載の立体映像符号化装置において、前記映像符号化手段は、前記複数の視点の内から基準視点として定めた映像である基準視点映像と、前記基準視点以外の視点における映像である非基準視点映像とについて、それぞれ異なる前記所定単位として符号化し、前記第1識別情報として、前記基準視点映像についての所定単位と、前記非基準視点映像についての所定単位とで、互いに異なる固有値を付加するように構成した。
かかる構成によれば、立体映像符号化装置は、基準視点映像と非基準視点映像とを、互いに識別可能な単位情報として符号化する。
これによって、符号化ビット列を受信した立体映像復号化装置側では、第1識別情報を確認して、基準視点映像が含まれるか非基準視点映像が含まれるかを識別することができる。
請求項3に記載の立体映像符号化装置は、請求項1又は請求項2に記載の立体映像符号化装置において、前記パラメータ符号化手段は、前記合成奥行マップ及び前記合成映像を符号化した際に用いた符号化ツールの組を識別する第5識別情報を、前記補助情報の更なるパラメータとして符号化するように構成した。
かかる構成によれば、立体映像符号化装置は、前記パラメータ符号化手段によって、符号化ツールの組を識別する第5識別情報を補助情報として、合成映像及び合成奥行マップとは別個の単位情報として符号化する。
これによって、符号化ビット列を受信した立体映像復号化装置側では、補助情報中の第5識別情報を確認して、符号化合成映像及び符号化合成奥行マップが復号化可能かどうかを識別することができる。
請求項4に記載の立体映像符号化装置は、請求項1又は請求項2に記載の立体映像符号化装置において、前記第3識別情報は、前記所定単位に1種類の情報及びこの情報に付随する情報のみが含まれる第1型の補助情報として符号化され、前記第4識別情報として、前記第1型の補助情報であることを識別する第6識別情報と、前記第3識別情報が含まれることを識別する第7識別情報と、を付加して符号化されるように構成した。
かかる構成によれば、立体映像符号化装置は、映像及び奥行マップの合成方式を示す第3識別情報を、他のパラメータとは別個の単位情報として符号化して伝送する。
これによって、符号化ビット列を受信した立体映像復号化装置側では、第6識別情報と第7識別情報とを有する単位情報を検出して、当該単位情報から第3識別情報を抽出する。
請求項5に記載の立体映像符号化装置は、請求項3に記載の立体映像符号化装置において、前記第3識別情報は、前記所定単位に1種類の情報及びこの情報に付随する情報のみが含まれる第1型の補助情報として符号化され、前記第4識別情報として、前記第1型の補助情報であることを識別する第6識別情報と、前記第3識別情報が含まれることを識別する第7識別情報と、を付加して符号化され、前記第5識別情報は、前記所定単位に所定の複数種類の情報が含まれる第2型の補助情報として符号化され、前記第2型の補助情報であることを識別する第8識別情報を付加して符号化されるように構成した。
かかる構成によれば、立体映像符号化装置は、映像及び奥行マップの合成方式を識別する第3識別情報を、他のパラメータとは別個の単位情報として符号化するとともに、映像及び奥行マップの符号化ツールの組を示す第5識別情報を、複数のパラメータとともに単位情報として符号化して伝送する。
これによって、符号化ビット列を受信した立体映像復号化装置側では、第6識別情報と第7識別情報とを有する単位情報を検出して、当該単位情報から第3識別情報を抽出するとともに、第8識別情報を有する単位情報を検出して、当該単位情報から第5識別情報を抽出する。
請求項6に記載の立体映像復号化装置は、複数の視点における映像の組である多視点映像を、複数種類の所定の映像合成方式の内の何れか1つの方式によって合成した合成映像と、前記多視点映像に付随し、前記多視点映像の視点間の視差である奥行値の画素毎の情報のマップである奥行マップを複数種類の所定の奥行マップ合成方式の内の何れか1つの方式によって合成した合成奥行マップと、前記合成映像の合成に用いた映像合成方式及び前記合成奥行マップの合成に用いた奥行マップ合成方式を識別する情報を含む補助情報と、が符号化され、所定単位毎に、当該所定単位の情報種別を識別する識別情報を付加して多重化された符号化ビット列を復号化して得られる復号化合成映像、復号化合成奥行マップ、及び前記補助情報を用いて、多視点映像を合成する立体映像復号化装置であって、前記符号化ビット列は、前記所定単位毎に、符号化された前記合成映像に、前記符号化された合成映像であることを識別する第1識別情報が付加された符号化合成映像と、符号化された前記合成奥行マップに、前記符号化された合成奥行マップであることを識別する第2識別情報が付加された符号化合成奥行マップと、前記合成映像の合成に用いた合成方式及び前記合成奥行マップの合成に用いた合成方式を識別する第3識別情報が、映像の復号化又は映像の表示のために用いられる補助情報のパラメータとして符号化され、符号化された前記補助情報であることを識別する第4識別情報が付加された符号化パラメータと、が多重化されており、分離手段と、パラメータ復号化手段と、映像復号化手段と、奥行マップ復号化手段と、多視点映像合成手段と、を備える構成とした。
かかる構成によれば、立体映像復号化装置は、分離手段によって、前記所定単位毎に、前記第1識別情報を有する単位を前記符号化合成映像として、前記第2識別情報を有する単位を前記符号化合成奥行マップとして、前記第4識別情報を有する単位を前記符号化パラメータとして、それぞれ分離する。また、立体映像復号化装置は、パラメータ復号化手段によって、前記符号化パラメータから、前記第3識別情報を復号化する。また、立体映像復号化装置は、映像復号化手段によって、前記符号化合成映像を復号化して、前記復号化合成映像を生成する。また、立体映像復号化装置は、奥行マップ復号化手段によって、前記符号化合成奥行マップを復号化して、前記復号化合成奥行マップを生成する。そして、立体映像復号化装置は、多視点映像合成手段によって、前記パラメータ復号化手段が生成した前記第3識別情報に従って、前記復号化合成映像及び前記復号化合成奥行マップを用いて、複数の視点における映像を合成する。
これによって、立体映像復号化装置は、符号化合成映像及び符号化合成奥行マップとは別個の単位情報を復号化して、映像及び奥行マップの合成方式を示す第3識別情報を抽出することができる。
請求項7に記載の立体映像復号化装置は、請求項6に記載の立体映像復号化装置において、前記符号化映像は、前記複数の視点の内から基準視点として定めた映像である基準視点映像と、前記基準視点以外の視点における映像である非基準視点映像とについて、それぞれ異なる前記所定単位として符号化され、前記第1識別情報として、前記基準視点映像についての所定単位と、前記非基準視点映像についての所定単位とで、互いに異なる固有値が付加されているように構成した。
かかる構成によれば、立体映像復号化装置は、符号化された単位情報に、基準視点映像が含まれるか、非基準視点映像が含まれるかを、第1識別情報を確認することで識別することができる。
請求項8に記載の立体映像復号化装置は、請求項6又は請求項7に記載の立体映像復号化装置において、前記符号化パラメータは、前記合成奥行マップ及び前記合成映像を符号化した際に用いた符号化ツールの組を識別する第5識別情報が、前記補助情報の更なるパラメータとして符号化されており、前記パラメータ復号化手段は、前記符号化パラメータから、更に前記第5識別情報を復号化し、前記映像復号化手段は、前記パラメータ復号化手段が復号化した前記第5識別情報が、前記合成映像が復号化可能な符号化ツールの組によって符号化されたことを示す場合は、前記符号化合成映像を復号化し、前記第5識別情報が、前記合成映像が復号化可能な符号化ツールの組によって符号化されたことを示さない場合は、前記符号化合成映像を復号化しないように構成した。
かかる構成によれば、立体映像復号化装置は、合成映像及び合成奥行マップとは別個の単位情報として符号化された補助情報中の第5識別情報を確認して、符号化合成映像及び符号化合成奥行マップが復号化可能かどうかを識別する。
これによって、符号化合成映像及び符号化合成奥行マップの復号化に先立って、これらの情報が復号化可能かどうかを識別することができる。
請求項9に記載の立体映像復号化装置は、請求項6又は請求項7に記載の立体映像復号化装置において、前記第3識別情報は、前記所定単位に1種類の情報及びこの情報に付随する情報のみが含まれる第1型の補助情報として符号化され、前記第4識別情報として、前記第1型の補助情報であることを識別する第6識別情報と、前記第3識別情報が含まれることを識別する第7識別情報と、が付加されて符号化されており、前記分離手段は、前記所定単位が前記第6識別情報を有する場合に、当該所定単位を前記符号化パラメータとして分離し、前記パラメータ復号化手段は、前記第6識別情報を有する符号化パラメータが、前記第7識別情報を有する場合に、当該符号化パラメータから前記第3識別情報を復号化するように構成した。
かかる構成によれば、立体映像復号化装置は、第6識別情報と第7識別情報とを有する単位情報を検出して、当該単位情報から第3識別情報を抽出する。
これによって、立体映像復号化装置は、映像及び奥行マップの合成方式示す第3識別情報を、当該第3識別情報が個別に符号化された単位情報から迅速に抽出することができる。
請求項10に記載の立体映像復号化装置は、請求項8に記載の立体映像復号化装置において、前記第3識別情報は、前記所定単位に1種類の情報及びこの情報に付随する情報のみが含まれる第1型の補助情報として符号化され、前記第4識別情報として、前記第1型の補助情報であることを識別する第6識別情報と、前記第3識別情報が含まれることを識別する第7識別情報と、が付加されて符号化され、前記第5識別情報は、前記所定単位に所定の複数種類の情報が含まれる第2型の補助情報として符号化され、かつ、前記第2型の補助情報であることを識別する第8識別情報が付加されて符号化されており、前記分離手段は、前記所定単位が前記第6識別情報又は前記第8識別情報を有する場合に、当該所定単位を前記符号化パラメータとして分離し、前記パラメータ復号化手段は、前記第6識別情報を有する符号化パラメータが、前記第7識別情報を有する場合に、当該符号化パラメータから前記第3識別情報を復号化し、前記第8識別情報を有する符号化パラメータから前記第5識別情報を復号化するように構成した。
かかる構成によれば、立体映像復号化装置は、第6識別情報と第7識別情報とを有する単位情報を検出して、当該単位情報から第3識別情報を抽出するとともに、第8識別情報を有する単位情報を検出して、当該単位情報から第5識別情報を抽出する。
これによって、立体映像復号化装置は、映像及び奥行マップの合成方式を示す第3識別情報を、当該第3識別情報が個別に符号化された単位情報から迅速に抽出することができるとともに、符号化合成映像及び符号化合成奥行マップが復号化可能かどうかを識別することができる。
請求項11に記載の立体映像符号化方法は、複数の視点における映像の組である多視点映像を、複数種類の所定の映像合成方式の内の何れか1つの方式によって合成した合成映像と、前記多視点映像に付随し、前記多視点映像の視点間の視差である奥行値の画素毎の情報のマップである奥行マップを複数種類の所定の奥行マップ合成方式の内の何れか1つの方式によって合成した合成奥行マップと、を符号化し、所定単位毎に、当該所定単位の情報種別を識別する識別情報を付加して、一連の符号化ビット列を生成する立体映像符号化方法であって、映像合成処理ステップと、映像符号化処理ステップと、奥行マップ合成処理ステップと、奥行マップ符号化処理ステップと、パラメータ符号化処理ステップと、多重化処理ステップと、を含む手順とした。
かかる手順の立体映像符号化方法によれば、映像合成処理ステップにおいて、前記多視点映像を、前記複数種類の所定の映像合成方式の内の何れか1つの方式によって合成することで、符号化の対象である前記合成映像を生成する。また、映像符号化処理ステップにおいて、前記合成映像を符号化し、符号化された合成映像であることを識別する第1識別情報を付加した符号化合成映像を生成する。また、奥行マップ合成処理ステップにおいて、前記多視点映像に付随する複数の奥行マップを、前記複数種類の所定の奥行マップ合成方式の内の何れか1つの方式によって合成することで、符号化の対象である前記合成奥行マップを生成する。また、奥行マップ符号化処理ステップにおいて、前記合成奥行マップを符号化し、符号化された合成奥行マップであることを識別する第2識別情報を付加して符号化合成奥行マップを生成する。また、パラメータ符号化処理ステップにおいて、前記合成映像の合成に用いた映像合成方式及び前記合成奥行マップの合成に用いた奥行マップ合成方式を識別する第3識別情報を、映像の復号化又は映像の表示のために用いられる補助情報のパラメータとして符号化し、符号化された前記補助情報であることを識別する第4識別情報を付加して符号化パラメータを生成する。そして、多重化処理ステップにおいて、前記符号化合成奥行マップと、前記符号化合成映像と、前記符号化パラメータとを多重化して前記一連の符号化ビット列を生成する。
これによって、複数の映像を合成した合成映像と、複数の奥行マップを合成した合成奥行マップと、映像及び奥行マップを合成した合成方式を示す第3識別情報とを、それぞれ別個の単位の情報として符号化して伝送する。
請求項12に記載の立体映像復号化方法は、複数の視点における映像の組である多視点映像を、複数種類の所定の映像合成方式の内の何れか1つの方式によって合成した合成映像と、前記多視点映像に付随し、前記多視点映像の視点間の視差である奥行値の画素毎の情報のマップである奥行マップを複数種類の所定の奥行マップ合成方式の内の何れか1つの方式によって合成した合成奥行マップと、前記合成映像の合成に用いた映像合成方式及び前記合成奥行マップの合成に用いた奥行マップ合成方式を識別する情報を含む補助情報と、が符号化され、所定単位毎に、当該所定単位の情報種別を識別する識別情報を付加して多重化された符号化ビット列を復号化して得られる復号化合成映像、復号化合成奥行マップ、及び前記補助情報を用いて、多視点映像を合成する立体映像復号化方法であって、前記符号化ビット列は、前記所定単位毎に、符号化された前記合成映像に、前記符号化された合成映像であることを識別する第1識別情報が付加された符号化合成映像と、符号化された前記合成奥行マップに、前記符号化された合成奥行マップであることを識別する第2識別情報が付加された符号化合成奥行マップと、前記合成映像の合成に用いた映像合成方式及び前記合成奥行マップの合成に用いた奥行マップ合成方式を識別する第3識別情報が、映像の復号化又は映像の表示のために用いられる補助情報のパラメータとして符号化され、符号化された前記補助情報であることを識別する第4識別情報が付加された符号化パラメータと、が多重化されており、分離処理ステップと、パラメータ復号化処理ステップと、映像復号化処理ステップと、奥行マップ復号化処理ステップと、多視点映像合成処理ステップと、を含む手順とした。
かかる手順の立体映像復号化方法によれば、分離処理ステップにおいて、前記所定単位毎に、前記第1識別情報を有する単位を前記符号化合成映像として、前記第2識別情報を有する単位を前記符号化合成奥行マップとして、前記第4識別情報を有する単位を前記符号化パラメータとして、それぞれ分離する。また、パラメータ復号化処理ステップにおいて、前記符号化パラメータから、前記第3識別情報を復号化する。また、映像復号化処理ステップにおいて、前記符号化合成映像を復号化して、前記復号化合成映像を生成する。また、奥行マップ復号化処理ステップにおいて、前記符号化合成奥行マップを復号化して、前記復号化合成奥行マップを生成する。そして、多視点映像合成処理ステップにおいて、前記パラメータ復号化手段が生成した前記第3識別情報に従って、前記復号化合成映像及び前記復号化合成奥行マップを用いて、複数の視点における映像を合成する。
これによって、合成映像及び合成奥行マップとは別個に符号化された単位情報を復号化して、合成映像及び合成奥行マップの合成方式を示す第3識別情報を抽出することができる。
また、請求項1に記載の立体映像符号化装置は、一般的なコンピュータが備えるCPU(中央演算装置)、メモリなどのハードウェア資源を、映像合成手段、映像符号化手段、奥行マップ合成手段、奥行マップ符号化手段、パラメータ符号化手段、多重化手段、として機能させるための請求項13に記載の立体映像符号化プログラムによって実現することもできる。
また、請求項6に記載の立体映像復号化装置は、一般的なコンピュータが備えるCPU、メモリなどのハードウェア資源を、分離手段、パラメータ復号化手段、映像復号化手段、奥行マップ復号化手段、多視点映像合成手段、として機能させるための請求項14に記載の立体映像復号化プログラムによって実現することもできる。
請求項1、請求項11又は請求項13に記載の発明によれば、合成映像及び合成奥行マップの合成方法を示す第3識別情報を、合成映像及び合成奥行マップとは別個の単位情報として符号化するため、合成映像及び合成奥行マップを、従来と同じ符号化方式で符号化することができる。
請求項2に記載の発明によれば、かかる立体映像符号化装置から伝送された符号化ビット列を受信した立体映像復号化装置側では、第1識別情報を確認して、基準視点映像か非基準視点映像かを識別することができるため、多視点映像をサポートしない旧システムの立体映像復号化装置においては、非基準視点映像についての符号化情報を無視して、基準視点映像のみを利用することができる。
請求項3に記載の発明によれば、かかる立体映像符号化装置から伝送された符号化ビット列を受信した立体映像復号化装置側では、補助情報中の第5識別情報を確認して、符号化合成映像及び符号化合成奥行マップが復号化可能かどうかを識別することができるため、復号化できない場合は、符号化合成映像及び符号化合成奥行マップを復号化しないことで、誤動作を防止することができる。
請求項4に記載の発明によれば、かかる立体映像符号化装置から伝送された符号化ビット列を受信した立体映像復号化装置側では、第6識別情報と第7識別情報とを有する単位情報を検出して、当該単位情報から第3識別情報を迅速に抽出することができる。
請求項5に記載の発明によれば、かかる立体映像符号化装置から伝送された符号化ビット列を受信した立体映像復号化装置側では、第6識別情報と第7識別情報とを有する単位情報を検出して、当該単位情報から第3識別情報を迅速に抽出することができるとともに、第8識別情報を有する単位情報を検出して、当該単位情報から第5識別情報を抽出することで、符号化合成映像及び符号化合成奥行マップが復号化可能かどうかを識別して、復号化できない場合は、符号化合成映像及び符号化合成奥行マップを復号化しないことで、誤動作を防止することができる。
請求項6、請求項12又は請求項14に記載の発明によれば、合成映像及び合成奥行マップの合成方法を示す第3識別情報、合成映像及び合成奥行マップとは別個の単位情報として符号化されるため、合成映像及び合成奥行マップを、従来と同じ符号化方式で復号化することができる。
請求項7に記載の発明によれば、第1識別情報を確認して、基準視点映像か非基準視点映像かを識別することができるため、多視点映像をサポートしない旧システムの立体映像復号化装置においては、非基準視点映像についての符号化情報を無視して、基準視点映像のみを利用することができる。
請求項8に記載の発明によれば、立体映像復号化装置は、補助情報中の第5識別情報を確認して、符号化合成映像及び符号化合成奥行マップを復号化可能かどうかを識別することができるため、復号化できない場合は、符号化合成映像及び符号化合成奥行マップを復号化しないことで、誤動作を防止することができる。
請求項9に記載の発明によれば、立体映像復号化装置は、第6識別情報と第7識別情報とを有する単位情報を検出して、当該単位情報から第3識別情報を迅速に抽出することができる。
請求項10に記載の発明によれば、立体映像復号化装置側では、第6識別情報と第7識別情報とを有する単位情報を検出して、当該単位情報から第3識別情報を迅速に抽出することができる。また、立体映像復号化装置側では、第8識別情報を有する単位情報を検出して、当該単位情報から第5識別情報を抽出し、符号化合成映像及び符号化合成奥行マップが復号化可能かどうかを識別して、復号化できない場合は、符号化合成映像及び符号化合成奥行マップを復号化しないことで、誤動作を防止することができる。
本発明の第1実施形態に係る立体映像符号化装置及び立体映像復号化装置を含んだ立体映像伝送システムの構成を示すブロック図である。 本発明の第1実施形態に係る立体映像符号化装置の構成を示すブロック図である。 本発明の第1実施形態に係る立体映像符号化装置における奥行マップ合成手段の構成を示すブロック図であり、(a)は方式A、(b)は方式B、(c)は方式Cによるものを示す。 本発明の第1実施形態に係る立体映像符号化装置における奥行マップ合成手段の構成を示すブロック図であり、(a)は方式D、(b)は方式Eによるものを示す。 本発明の第1実施形態に係る立体映像符号化装置において選択可能な奥行マップの合成方式の概要を説明するための説明図である。 本発明の第1実施形態に係る立体映像符号化装置において、合成した奥行マップを縮小処理する様子を説明するための説明図であり、(a)は全体奥行マップ、(b)は残差奥行マップ、(c)はワープデータについて示す。 本発明の第1実施形態に係る立体映像符号化装置において、奥行マップを合成する様子を説明するための説明図である。 本発明の第1実施形態に係る立体映像符号化装置における映像合成手段の構成を示すブロック図であり、(a)は方式A及び方式B、(b)は方式C及び方式D、(c)は方式Eによるものを示す。 本発明の第1実施形態に係る立体映像符号化装置において選択可能な多視点映像の合成方式の概要を説明するための説明図である。 本発明の第1実施形態に係る立体映像符号化装置において、合成した多視点映像を縮小処理する様子を説明するための説明図であり、(a)は1つの残差映像を縮小する場合、(b)は2つの残差映像を縮小する場合を示す。 本発明の第1実施形態に係る立体映像符号化装置において、残差映像を生成する様子を説明するための説明図である。 本発明の第1実施形態に係る立体映像符号化装置において、穴マスクを生成する様子を説明するための説明図である。 本発明の第1実施形態の変形例に係る立体映像符号化装置における多視点映像及び奥行マップの合成方式を説明するための説明図であり、(a)は奥行マップ、(b)は多視点映像を示す 本発明の第1実施形態に係る立体映像符号化装置において、符号化された多視点映像及び奥行マップのデータ構造を示す図であり、(a)は符号化基準視点映像、(b)は符号化残差映像、(c)は符号化全体奥行マップ、(d)は符号化残差奥行マップ、(e)は符号化全体奥行マップ、(f)は符号化残差奥行マップを示す。 第1実施形態及び第2実施形態に係る立体映像符号化装置において、符号化されたパラメータのデータ構造を示す図であり、(a)は基準視点映像又は中央視点映像についての符号化管理情報、(b)は非基準視点映像についての符号化管理情報、(c)はカメラパラメータ、(d)は第1実施形態における奥行型、(e)は第2実施形態における奥行型を示す。 第1実施形態に係る立体映像符号化装置において、奥行型の値と合成式との対応関係を示す図である。 本発明の第1実施形態に係る立体映像復号化装置の構成を示すブロック図である。 本発明の第1実施形態に係る立体映像復号化装置において、指定視点映像を合成する様子を説明するための説明図である。 本発明の第1実施形態に係る立体映像復号化装置における多視点映像合成手段の構成を示すブロック図であり、(a)は方式A、(b)は方式Bによるものを示す。 本発明の第1実施形態に係る立体映像復号化装置における多視点映像合成手段の構成を示すブロック図であり、方式Cによるものを示す。 本発明の第1実施形態に係る立体映像復号化装置における多視点映像合成手段の構成を示すブロック図であり、(a)は方式D、(b)は方式Eによるものを示す。 本発明の第1実施形態に係る立体映像符号化装置の処理の流れを示すフローチャートである。 本発明の第1実施形態に係る立体映像符号化装置におけるパラメータ符号化手段の処理の流れを示すフローチャートである。 本発明の第1実施形態に係る立体映像復号化装置の処理の流れを示すフローチャートである。 本発明の第1実施形態に係る立体映像復号化装置におけるパラメータ復号化手段の処理の流れを示すフローチャートである。 本発明の第2実施形態に係る立体映像復号化装置におけるパラメータ復号化手段の処理の流れを示すフローチャートである。 従来の立体映像符号化装置の構成を示すブロック図である。
以下、本発明の実施形態について図面を参照して説明する。
<第1実施形態>
[立体映像伝送システム]
まず、図1を参照して、本発明の第1実施形態に係る立体映像符号化装置及び立体映像復号化装置を含んだ立体映像伝送システムSについて説明する。
立体映像伝送システムSは、カメラなどで撮影された多視点映像を奥行マップとともに符号化して伝送し、伝送先において多視点映像を生成するものである。ここでは、立体映像伝送システムSは、立体映像符号化装置1と、立体映像復号化装置2と、立体映像作成装置3と、立体映像表示装置4と、を備えている。
立体映像符号化装置1は、立体映像作成装置3で作成した多視点映像を符号化して、符号化ビット列(ビットストリーム)として伝送路に出力し、立体映像復号化装置2に送信するものである。また、立体映像復号化装置2は、立体映像符号化装置1から送信される符号化ビット列を復号化し、多視点映像を生成して、立体映像表示装置4に出力するものである。
また、立体映像作成装置3は、立体映像を撮影できるカメラやCG(コンピュータグラフィックス)作成装置などであり、立体映像(多視点映像)と、それに付随する奥行マップとを生成し、立体映像符号化装置1に出力するものである。立体映像表示装置4は、立体映像復号化装置2によって生成された多視点映像を入力し、立体映像を表示するものである。
本発明において、符号化ビット列は多重化されており、符号化された映像と、符号化された奥行マップと、立体映像復号化装置2でこれらの符号化情報を復号化したり映像を合成又は表示したりするために必要なパラメータが符号化された符号化パラメータと、が含まれる。
また、本発明において、符号化ビット列は、所定単位毎に当該所定単位の情報種別を識別する識別情報が付加されて多重化され、立体映像符号化装置1から立体映像復号化装置2に一連の符号化ビット列として伝送される。
なお、本実施形態においては、MPEG−4 AVC符号化規格に準拠した方式で符号化ビット列が伝送される場合を例として説明する。従って、前記した所定単位は、MPEG−4 AVC符号化規格におけるNALU(Network Abstraction Layer Unit:ネットワーク抽象化層ユニット)が相当し、NALUを単位として各種情報が伝送される。
また、符号化方式は、MPEG−4 MVC+Depth符号化規格や3D−AVC符号化規格に準拠するものであってもよい。
[立体映像符号化装置の構成]
次に、図2を参照(適宜図1参照)して、第1実施形態に係る立体映像符号化装置1の構成について説明する。
図2に示すように、第1実施形態に係る立体映像符号化装置1(以下、適宜に「符号化装置1」という)は、映像合成手段11と、映像符号化手段12と、奥行マップ合成手段13と、奥行マップ符号化手段14と、パラメータ符号化手段15と、多重化手段16と、を備えて構成されている。
符号化装置1は、立体映像として、基準となる視点(基準視点)からみた映像である基準視点映像C、基準視点から水平に左方向に離れた視点である左視点(非基準視点)からみた映像である左視点映像L、及び基準視点から水平に右方向に離れた視点である右視点(非基準視点)からみた映像である右視点映像Rと、これらの映像のそれぞれに対応する基準視点奥行マップCd、左視点奥行マップLd、及び右視点奥行マップRdと、符号化管理情報Hk、カメラパラメータHc、及び奥行型Hdを含むパラメータと、が外部から入力される。
ここで、外部とは、例えば、立体映像作成装置3を指すものであり、多視点映像及び奥行マップの合成方式を指定する奥行型Hd、符号化方式を指定する符号化管理情報Hkの一部については、不図示のユーザインターフェース(入力手段)を介して入力するようにしてもよい。
また、符号化装置1は、これらの入力情報を用いて符号化ビット列BSを生成し、立体映像復号化装置2(以下、適宜に「復号化装置2」という)に伝送する。
なお、符号化管理情報Hkは、符号化に関する情報であり、例えば、フレームレート、フレーム数などのシーケンスの管理情報や、符号化に使用するツールの組を示すプロファイルID(Identification:識別子)などのパラメータが含まれる。
また、カメラパラメータHcは、入力した各視点の映像を撮影したカメラについてのパラメータであり、被写体の最近距離、被写体の最遠距離、焦点距離、左視点の座標値、基準視点の座標値、右視点の座標値などが含まれる。カメラパラメータHcは、例えば、奥行マップを用いて奥行マップ又は映像を他の視点に射影する際に、奥行マップの画素値として与えられる奥行値を、画素のシフト量に換算するための係数情報として用いられる。
また、奥行型Hdは、符号化装置1が入力した映像C,L,R及び奥行マップCd,Ld,Rdを合成する方式を示すパラメータである。
なお、本実施形態では、中央視点を基準視点とし、被写体に向かって左側の視点を左視点(非基準視点)とし、右側の視点を右視点(非基準視点)とするものであるが、これに限定されるものではない。例えば、左側の視点を基準視点とし、中央視点及び右視点を非基準視点としてもよい。また、基準視点と非基準視点とは、水平方向に離れる場合に限定されず、垂直方向や斜め方向など、視点から被写体を観察する角度が変化するような、任意の方向に離れていてもよい。また、非基準視点映像は2つに限定されず、基準視点映像Cの他に、少なくとも1つの非基準視点映像があればよく、3つ以上であってもよい。また、多視点映像の視点数と奥行マップの視点数とは同数でなくともよい。
本実施形態では、多視点映像として、基準視点(中央視点)映像C、左視点映像L及び右視点映像Rからなる3視点映像が、これらに付随する奥行マップCd,Ld,Rdとともに入力されるものとして説明する。
符号化装置1は、入力したこれらの映像及び奥行マップを、奥行型Hdで指定された合成方式で合成し、更に合成した映像及び奥行マップと、符号化管理情報Hk、カメラパラメータHc及び奥行型Hdを含むパラメータとを符号化して、符号化ビット列BSに多重化して立体映像復号化装置2に伝送する。
映像合成手段11は、図2に示すように、基準視点映像C、左視点映像L、右視点映像R、カメラパラメータHc及び奥行型Hdを外部から入力し、奥行マップ符号化手段14から復号化合成奥行マップG’dを入力し、合成映像Gを生成して、映像符号化手段12に出力する。なお、奥行マップ符号化手段14については後記するが、符号化された奥行マップを復号化する機能も有するものである。
なお、映像合成手段11に入力される信号及び映像合成手段11から出力される信号は、映像及び奥行マップの合成方式を示す奥行型Hdに応じて異なるものであるが、図2では、多視点映像として符号C,L,Rで表わされる信号が入力され、復号化合成奥行マップとして符号G’dで代表される信号が入力され、合成映像として符号Gで代表される信号が出力されるものとする。
映像符号化手段12は、符号化管理情報Hkを外部から、合成映像Gを映像合成手段11から、それぞれ入力し、符号化管理情報Hkで指定された符号化方式で合成映像Gを符号化することで、符号化合成映像gを生成する。映像符号化手段12は、生成した符号化合成映像gを多重化手段16に出力する。
なお、本実施形態における映像符号化手段12は、合成映像Gを符号化する際に、基準視点についての映像情報と、非基準視点についての映像情報とを、それぞれ別個に符号化して、それぞれ異なる単位(NALU)の符号化データとして多重化手段16に出力する。また、基準視点映像Cについては、前方互換性を保つように、そのまま加工せずに符号化するものとする。
映像の符号化データの構造については後記する。
本実施形態において、映像符号化手段12は、予め定められた複数の符号化方式の中から符号化管理情報Hkで指定された符号化方式を用いて、合成映像Gを符号化することができるように構成されている。
なお、多視点映像を加工せずに複数の視点映像のまま合成映像Gとして符号化する場合は、基準視点映像Cと非基準視点映像L,Rとの間の相関が高いので、符号化管理情報Hkにおいて、基準視点映像Cと非基準視点映像L,Rとの間の視点映像間予測を許可するように設定することが好ましい。これによって、合成映像Gの符号化効率が改善される。
また、非基準視点について残差映像を合成映像Gとして符号化する場合は、基準視点映像と残差映像との間には相関がないため、符号化管理情報Hkにおいて、視点間映像予測を禁止するように設定することが好ましい。これによって、合成映像Gの符号化効率が改善される。なお、残差映像については後記する。
奥行マップ合成手段13は、奥行マップCd,Ld,Rd、カメラパラメータHc及び奥行型Hdを外部から入力し、奥行型Hdで指定された合成方式で奥行マップCd,Ld,Rdを用いて合成奥行マップGdを生成し、生成した合成奥行マップGdを、奥行マップ符号化手段14に出力する。奥行マップの合成方式については後記する。
なお、本実施形態では、各視点における奥行マップCd,Ld,Rdは、例えば、立体映像作成装置3(図1参照)によって予め作成され、各視点の映像C,L,Rに付随して入力されるものとしたが、映像C,L,Rを用いて奥行マップCd,Ld,Rdを生成して用いるようにしてもよい。
奥行マップ符号化手段14は、符号化管理情報Hkを外部から、合成奥行マップGdを奥行マップ合成手段13からそれぞれ入力し、合成奥行マップGdを、符号化管理情報Hkで指定された符号化方式で符号化することで符号化合成奥行マップgdを生成して、多重化手段16に出力する。また、奥行マップ符号化手段14は、生成した符号化合成奥行マップgdを、その符号化方式に基づいて復号化することで復号化合成奥行マップG’dを生成し、映像合成手段11に出力する。
なお、本実施形態における奥行マップ符号化手段14は、合成奥行マップGdが複数のフレームから構成される場合には、フレーム毎に符号化して、それぞれ異なる単位(NALU)の符号化データとして多重化手段16に出力する。
なお、奥行マップの符号化データの構造については後記する。
奥行マップ符号化手段14は、映像符号化手段12と同様に、予め定められた複数の符号化方式の中から符号化管理情報Hkで指定された符号化方式を用いて、合成奥行マップGdを符号化するように構成されている。更に、奥行マップ符号化手段14は、符号化合成奥行マップgdを復号化する復号化機能も備えている。
符号化方式は、映像符号化手段12と同様の方式を用いることができる。なお、一連の立体映像符号化処理において、映像符号化手段12と奥行マップ符号化手段14とで、同じ符号化方式が選択されるようにしてもよいし、異なる符号化方式が選択されるようにしてもよい。
パラメータ符号化手段15は、外部から符号化管理情報Hk、カメラパラメータHc及び奥行型Hdを入力し、所定の符号化方式でこれらのパラメータを符号化することで符号化パラメータhを生成し、多重化手段16に出力する。
なお、パラメータ符号化手段15は、符号化するパラメータの種別に応じて、パラメータをそれぞれ別個の単位(NALU)として符号化する。
なお、パラメータの符号化データの構造については後記する。
多重化手段16は、パラメータ符号化手段15から符号化パラメータhを、映像符号化手段12から符号化合成映像gを、奥行マップ符号化手段14から符号化合成奥行マップgdをそれぞれ入力し、入力したこれらの符号化情報を多重化して、一連の符号化ビット列BSとして立体映像復号化装置2に伝送する。
(奥行マップの合成方式)
次に、図3Aから図6を参照(適宜図1及び図2参照)して、奥行マップ合成手段13における奥行マップの合成方式について説明する。
本実施形態においては、図4において、2本の2点鎖線で挟まれた段の内で、最上段に示すように、外部(立体映像作成装置3(図1参照))から原データとして、中央視点、左視点及び右視点の3視点における映像C,L,Rと、これら付随する奥行マップCd,Ld,Rdとを入力する。ここで、中央視点を基準視点とし、左視点及び右視点を非基準視点とする。
なお、図4に示した映像C,L,Rは、正方形の被写体像Fと、その他の領域である被写体像Bとが撮影され、被写体像Fを前景とし、被写体像Bを背景とするものである。また、奥行マップCd,Ld,Rdは、前景の被写体像Fに対応する奥行fと、背景の被写体像Bに対応する奥行bとから構成されている。図4において、明るく示した領域ほど奥行値が大きく、従って、手前に位置する(視点に近い)ことを示している。
なお、本実施形態で用いる奥行マップは、何れの奥行マップも、基準視点映像Cなどの映像と同じ形式の画像データとして取り扱うこととする。例えば、ハイビジョン規格の形式を用いる場合は、輝度成分(Y)として奥行値を設定し、色差成分(Pb,Pr)としてそれぞれ所定値(1成分当たり8ビット信号の場合、例えば「128」)を設定する。これによって、奥行マップ符号化手段14によって、合成奥行マップGdを、映像と同様の符号化方式を用いて符号化する場合でも、奥行マップとして有効な情報を有さない色差成分(Pb,Pr)による符号化効率の低下を防止することができる。
また、本実施形態では、奥行マップを、方式Aから方式Eの5つの方式と、複数の奥行マップを加工せずにそのまま符号化する方式とを合わせた全部で6方式の中から合成方式を選択できるように構成されている。また、図3A(a)から図3A(c)、図3B(a)及び図3B(b)に、それぞれ方式Aから方式Eに対応する奥行マップ合成手段13の構成例を示す。
以下、各方式について順次に説明する。
(方式A:2視点1型)
方式Aは、図4の2段目に示すように、中央視点を基準視点とし、左視点を非基準視点とする2視点における奥行マップである基準視点奥行マップCd及び左視点奥行マップLdを、それぞれ所定の共通視点に射影し、当該共通視点に射影された2つの奥行マップを1つに合成する方式である。本実施形態は、中央視点と左視点との丁度中間の視点である左中間視点を前記した共通視点とするものである。また、中央視点と左視点を両端とする範囲内の何処を共通視点としてもよい。
なお、方式Aで合成される奥行マップは、共通視点における映像の全画素に対応する奥行値を有する「全体奥行マップ」である。
方式Aにより奥行マップを合成する奥行マップ合成手段13Aは、図3A(a)に示すように、射影手段131aと、射影手段131bと、合成手段131cと、縮小手段131dと、を備えて構成されている。
射影手段131aは、外部から入力した中央視点における奥行マップである基準視点奥行マップCdを、共通視点である左中間視点に射影し、左中間視点における奥行マップ dを生成するものである。射影手段131aは、生成した左中間視点奥行マップ dを合成手段131cに出力する。
ここで、図6を参照して、奥行マップの射影について説明する。
図6に示すように、基準視点から左視点までの距離をb、基準視点から任意の視点である左指定視点までの距離をc、左中間視点から左指定視点までの距離をa、左指定視点から左視点までの距離をdとする。また、基準視点から左中間視点までの距離及び左中間視点から左視点までの距離は、何れもb/2である。
奥行値とは、基準視点と左視点との距離である距離bだけ離れた視点に奥行マップ又は映像を射影する場合に、その画素を、視点のシフト方向と反対側である右方向にシフトさせる画素数(視差量)に対応するものであり、通常は、映像中の最大視差量を最大奥行値に対応させて用いられる。また、この画素数のシフト量は、視点のシフト量に比例する。従って、基準視点における奥行マップを、基準視点からcだけ離れた左指定視点に射影する場合は、各画素を、その奥行値の(c/b)倍に対応する画素数だけ、右側にシフトさせることとなる。なお、視点のシフト方向が右方向の場合は、画素は反対側である左側にシフトさせる。
従って、図3A(a)に示した射影手段131aにおいて、基準視点における奥行マップを左中間視点に射影する場合は、前記したように、奥行値の((b/2)/b)=1/2倍に対応する画素数だけ右方向にシフトさせることとなる。
また、次に説明する射影手段131bに示すように、左視点における奥行マップを左視点から見て右方向にある左中間視点に射影する場合は、左視点における奥行マップの各画素を、その画素の奥行値の((b/2)/b)=1/2倍に対応する画素数だけ左方向にシフトさせることとなる。
なお、本実施形態では、射影手段131aは、前記した射影により、同じ画素位置に複数の画素値(奥行値)が射影される場合は、その中で最も大きな画素値の値を射影後の奥行マップである左中間視点奥行マップZdの画素値とする。また、有効な画素値が射影されなかった画素については、当該画素の左右に位置する画素値の内で、小さい方の画素値を左中間視点奥行マップZdの画素値とする。
以上は、奥行マップを用いて、当該奥行マップを他の視点における奥行マップに射影する場合について説明したが、奥行マップを用いて、映像を他の視点に射影する場合も、同様の手順で行うことができる。
図3A(a)に戻って、説明を続ける。
射影手段131bは、外部から入力した左視点における奥行マップである左視点奥行マップLdを、共通視点である左中間視点に射影変換し、左中間視点における奥行マップZdを生成するものである。なお、射影手段131bは、射影手段131aとシフトする方向が異なるだけで同様の手順で射影変換することができる。また、射影手段131bは、生成した左中間視点奥行マップZdを合成手段131cに出力する。
合成手段131cは、射影手段131aから左中間視点奥行マップZdを、射影手段131bから左中間視点奥行マップZdを、それぞれ入力し、2つの奥行マップを合成することで、合成奥行マップZdを生成する。ここで、合成手段131cは、2つの奥行マップについて、画素毎に奥行値である画素値の平均値を算出し、算出した平均値を合成奥行マップZdの画素値とすることで、2つの奥行マップを合成する。合成手段131cは、生成した合成奥行マップZdを縮小手段131dに出力する。
縮小手段131dは、合成奥行マップZdを合成手段131cから入力し、入力した合成奥行マップZdを、図5(a)に示すように、垂直方向(縦)及び水平方向(横)についてそれぞれ1/2に間引きすることで縮小し、縮小合成奥行マップZdを生成する。奥行マップ合成手段13Aは、生成した縮小合成奥行マップZdを合成奥行マップGdとして、奥行マップ符号化手段14(図2参照)に出力する。
ここで、奥行マップは縮小しても、復号側で合成される映像の画質に与える影響が少なく、伝送するデータ量を低減して符号化効率を改善することができる。
なお、奥行マップの縮小処理は、縦横1/2に縮小することに限定されず、1/3、1/4など、他の縮小率であってもよい。また、縦横の縮小率を異なるようにしてもよい。更にまた、縮小処理を行わないようにしてもよい。この場合は、縮小手段131dは省略することができる。
また、後記する他の合成方式においても、奥行マップを縮小することとしたが、縮小しないようにしてもよい。この場合は、各合成方式において縮小手段を省略することができる。
(方式B:2視点2型)
方式Bは、図4の最上段及び3段目に示すように、中央視点を基準視点とし、左視点を非基準視点とする2視点における奥行マップである基準視点奥行マップCd及び左視点奥行マップLdを用い、基準視点における全体奥行マップZdと、左視点における左残差奥行マップXdとを合成するものである。
ここで、「残差奥行マップ」とは、基準視点における奥行マップCdを左視点に射影した場合に、オクルージョンホールとなり、射影されない画素についての奥行値を、左視点奥行マップLdから切り出して生成した奥行マップのことである。また、オクルージョンホールとは、基準視点における奥行マップCdの中では、前景被写体の後ろに隠れていたり、基準視点における奥行マップCdの外にはみ出していて、基準視点における奥行マップCdの中には存在しない画素を指すものである。すなわち、方式Bでは、全体奥行マップである左視点奥行マップLdの中から、基準視点奥行マップCdと重複しない奥行情報のみを抽出し、左残差奥行マップXdを生成することでデータ量を削減するものである。
方式Bにより奥行マップを合成する奥行マップ合成手段13Bは、図3A(b)に示すように、射影手段132aと、オクルージョンホール検出手段132bと、合成手段132cと、残差切出手段132dと、縮小手段132eと、縮小手段132fとを備えて構成されている。
射影手段132aは、外部から入力した左視点奥行マップLdを、基準視点に射影し、基準視点における奥行マップCdを生成するものである。射影手段132aは、生成した基準視点奥行マップCdを合成手段132cに出力する。
オクルージョンホール検出手段132bは、外部から基準視点奥行マップCdを入力し、基準視点奥行マップCdを左視点に射影する際に、画素値が射影されない領域であるオクルージョンホールを検出するものである。オクルージョンホール検出手段132bは、オクルージョンホールとなる領域を示す穴マスクLhを生成し、残差切出手段132dに出力する。
なお、オクルージョンホールとなる領域の検出方法については後記する。
合成手段132cは、外部から基準視点奥行マップCdを、射影手段132aから基準視点奥行マップCdを、それぞれ入力し、基準視点における2つの奥行マップを1つの全体奥行マップZdに合成し、合成した全体奥行マップZdを縮小手段132eに出力する。ここで、合成手段132cは、入力する2つの奥行マップについて、画素毎に奥行値である画素値の平均値を算出し、算出した平均値を全体奥行マップZdの画素値とすることで、2つの奥行マップを合成する。
なお、方式Bにおいて、基準視点における全体奥行マップZdとして、基準視点奥行マップCdをそのまま用いるようにしてもよい。この場合は、射影手段132a及び合成手段132cは省略することができる。
残差切出手段132dは、外部から左視点奥行マップLdを、オクルージョンホール検出手段132bから穴マスクLhを、それぞれ入力し、左視点奥行マップLdから穴マスクLhで示されたオクルージョンホールとなる領域の画素値を切り出し、オクルージョンホールとなる領域の画素値のみを有する奥行マップである左残差奥行マップXdを生成する。残差切出手段132dは、生成した左残差奥行マップXdを、縮小手段132fに出力する。
なお、残差切出手段132dは、オクルージョンホールとならない領域の画素値として、一定値を設定することが好ましい。これによって、左残差奥行マップXdの符号化効率を向上させることができる。また、この一定値としては、例えば、1画素当たり8ビットデータの場合は、中央値である128とすることができる。
縮小手段132eは、合成手段132cから全体奥行マップZdを入力し、前記した方式Aの縮小手段131dと同様にして画素を間引くことで、所定の縮小率で縮小した縮小全体奥行マップZdを生成し、生成した縮小全体奥行マップZdを合成奥行マップGdの一部として、奥行マップ符号化手段14(図2参照)に出力する。
また、縮小手段132fは、残差切出手段132dから左残差奥行マップXdを入力し、前記した方式Aの縮小手段131dと同様にして画素を間引くことで、所定の縮小率で縮小した縮小残差奥行マップXdを生成し、生成した縮小残差奥行マップXdを合成奥行マップGdの一部として、奥行マップ符号化手段14(図2参照)に出力する。
すなわち、方式Bにおける合成奥行マップGdは、縮小全体奥行マップZdと縮小残差奥行マップXdとを合わせたものである。
(方式C:3視点1型)
方式Cは、図4の最上段及び4段目に示すように、中央視点を基準視点とし、左視点及び右視点を非基準視点とする3視点における奥行マップである基準視点奥行マップCd、左視点奥行マップLd及び右視点奥行マップRdを、それぞれ所定の共通視点に射影し、当該共通視点に射影された3つの奥行マップを1つに合成するものである。本実施形態では、中央視点を共通視点とするものである。なお、左視点と右視点とを両端とする範囲内であれば、何処を共通視点としてもよい。
また、方式Cで合成される奥行マップは、共通視点における全体奥行マップZdである。
方式Cにより奥行マップを合成する奥行マップ合成手段13Cは、図3A(c)に示すように、射影手段133aと、射影手段133bと、合成手段133cと、縮小手段133dと、を備えて構成されている。
射影手段133aは、外部から入力した右視点奥行マップRdを、共通視点である中央視点、すなわち基準視点に射影し、基準視点奥行マップCdを生成するものである。射影手段133aは、生成した基準視点奥行マップCdを合成手段133cに出力する。
射影手段133bは、外部から入力した左視点奥行マップLdを、共通視点である中央視点、すなわち基準視点に射影し、基準視点奥行マップCdを生成するものである。射影手段133bは、生成した基準視点奥行マップCdを合成手段133cに出力する。
合成手段133cは、外部から基準視点奥行マップCdを、射影手段133aから基準視点奥行マップCdを、射影手段133bから基準視点奥行マップCdを、それぞれ入力し、入力した3つの奥行マップを合成することで、全体奥行マップZdを生成する。ここで、合成手段133cは、3つの奥行マップについて、画素毎に奥行値である画素値の平均値を算出し、算出した平均値を全体奥行マップZdの画素値とすることで、奥行マップを合成する。なお、平均値に代えて、3つの画素値の中央値を用いるようにしてもよい。合成手段133cは、生成した全体奥行マップZdを縮小手段133dに出力する。
また、共通視点を基準視点以外とする場合には、基準視点奥行マップCdを、その共通視点に射影し、左視点奥行マップLd及び右視点奥行マップRdをそれぞれその共通視点に射影した奥行マップと合成するようにして、全体奥行マップZdを生成することができる。
縮小手段133dは、全体奥行マップZdを、前記した方式Aの縮小手段131dと同様にして画素を間引くことで、所定の縮小率で縮小し、縮小全体奥行マップZdを生成する。奥行マップ合成手段13Cは、生成した縮小全体奥行マップZdを合成奥行マップGdとして、奥行マップ符号化手段14(図2参照)に出力する。
(方式D:3視点2型)
方式Dは、図4の最上段及び5段目に示すように、中央視点を基準視点とし、左視点及び右視点を非基準視点とする3視点における奥行マップである基準視点奥行マップCd、左視点奥行マップLd及び右視点奥行マップRdを用い、中央視点である基準視点における全体奥行マップZdと、左視点における残差奥行マップXdと、右視点における残差奥行マップYdと、を合成するものである。
ここで、右視点における残差奥行マップとは、基準視点における奥行マップCdを右視点に射影した場合に、オクルージョンホールとなり、射影されない画素についての奥行値を、右視点奥行マップRdから切り出して生成した奥行マップのことである。すなわち、方式Dでは、2つの非基準視点における奥行マップについて、それぞれ基準視点奥行マップCdと重複しない奥行情報のみを抽出し、左残差奥行マップXd及び右残差奥行マップYdを生成することでデータ量を削減するものである。
方式Dにより奥行マップを合成する奥行マップ合成手段13Dは、図3B(a)に示すように、射影手段134a,134aと、オクルージョンホール検出手段134b,134bと、合成手段134cと、残差切出手段134d,134dと、縮小手段134eと、縮小手段134fとを備えて構成されている。
射影手段134aは、外部から入力した左視点奥行マップLdを、基準視点に射影し、基準視点における奥行マップCdを生成するものである。射影手段134aは、生成した基準視点奥行マップCdを合成手段134cに出力する。
射影手段134aは、外部から入力した右視点奥行マップRdを、基準視点に射影し、基準視点における奥行マップCdを生成するものである。射影手段134aは、生成した基準視点奥行マップCdを合成手段134cに出力する。
オクルージョンホール検出手段134bは、外部から基準視点奥行マップCdを入力し、基準視点奥行マップCdを左視点に射影する際に、画素値が射影されない領域となるオクルージョンホールを検出するものである。オクルージョンホール検出手段134bは、オクルージョンホールとなる領域を示す穴マスクLhを生成し、残差切出手段134dに出力する。
オクルージョンホール検出手段134bは、外部から基準視点奥行マップCdを入力し、基準視点奥行マップCdを右視点に射影する際に、画素値が射影されない領域となるオクルージョンホールを検出するものである。オクルージョンホール検出手段134bは、オクルージョンホールとなる領域を示す穴マスクRhを生成し、残差切出手段134dに出力する。
合成手段134cは、外部から基準視点奥行マップCdを、射影手段134aから基準視点奥行マップCdを、射影手段134aから基準視点奥行マップCdを、それぞれ入力し、基準視点における3つの奥行マップを1つの全体奥行マップZdに合成し、合成した全体奥行マップZdを縮小手段134eに出力する。ここで、合成手段134cは、前記した方式Cの合成手段133cと同様にして、3つの奥行マップを合成する。
なお、方式Dにおいて、基準視点における全体奥行マップZdとして、基準視点奥行マップCdをそのまま用いるようにしてもよい。この場合は、合成手段134cは省略することができる。
残差切出手段134dは、外部から左視点奥行マップLdを、オクルージョンホール検出手段134bから穴マスクLhを、それぞれ入力し、左視点奥行マップLdから穴マスクLhで示されたオクルージョンホールとなる領域の画素値を切り出し、オクルージョンホールとなる領域の画素値のみを有する奥行マップである左残差奥行マップXdを生成する。残差切出手段134dは、生成した左残差奥行マップXdを、縮小手段134fに出力する。
残差切出手段134dは、外部から右視点奥行マップRdを、オクルージョンホール検出手段134bから穴マスクRhを、それぞれ入力し、右視点奥行マップRdから穴マスクRhで示されたオクルージョンホールとなる領域の画素値を切り出し、オクルージョンホールとなる領域の画素値のみを有する奥行マップである右残差奥行マップYdを生成する。残差切出手段134dは、生成した右残差奥行マップYdを、縮小手段134fに出力する。
なお、残差切出手段134d、134dは、前記した方式Bの残差切出手段132dと同様に、オクルージョンホールとならない領域の画素値として、一定値を設定することが好ましい。
縮小手段134eは、合成手段134cから全体奥行マップZdを入力し、前記した方式Aの縮小手段131dと同様にして、所定の縮小率で縮小した縮小全体奥行マップZdを生成し、生成した縮小全体奥行マップZdを合成奥行マップGdの一部として、奥行マップ符号化手段14(図2参照)に出力する。
また、縮小手段134fは、残差切出手段134dから左残差奥行マップXdを、残差切出手段134dから右残差奥行マップYdをそれぞれ入力し、それぞれ、所定の縮小率(例えば、縦横ともに1/2)で縮小するとともに、更に、縦又は横方向に1/2に縮小した左縮小残差奥行マップXdと右縮小残差奥行マップYdとを、図5(b)に示すように、1つのフレームに合成した縮小残差奥行マップXYdを生成する。縮小手段134fは、生成した縮小残差奥行マップXYdを合成奥行マップGdの一部として、奥行マップ符号化手段14(図2参照)に出力する。
すなわち、方式Dにおける合成奥行マップGdは、縮小全体奥行マップZdと縮小残差奥行マップXYdとを合わせたものである。
なお、図5(b)は、縦方向に1/2に縮小して、縦方向に2つの残差奥行マップを接続してフレーム化した場合の例である。また、フレーム化せずに、左右の残差奥行マップXd,Ydをそれぞれ縮小して、又は等倍のまま奥行マップ符号化手段14(図2参照)に出力するようにしてもよい。
(方式E:3型)
方式Eは、図4の最上段及び6段目に示すように、中央視点を基準視点とし、左視点を非基準視点とする2視点における奥行マップである基準視点奥行マップCd及び左視点奥行マップLdを用い、それぞれの奥行マップについて、奥行値が急激に変化する部分(エッジ部分)において、奥行値が小さい背景側の奥行値を滑らかに変化させた奥行マップ(以下、ワープデータという)を生成するものである。
このような、奥行値が急激に変化する部分を滑らかに変化させたワープデータを用いて射影した映像にはオクルージョンが生じない。このため、立体映像復号化装置2(図1参照)で、奥行マップとして中央ワープデータCw又は左ワープデータLwの何れを用いて映像を合成しても、滑らかな映像を合成することができる。
方式Eにより奥行マップを合成する奥行マップ合成手段13Eは、図3B(b)に示すように、ワープ化手段135aと、ワープ化手段135bと、縮小手段135cとを備えて構成されている。
ワープ化手段135aは、外部から基準視点奥行マップCdを入力し、奥行値が急激に変化する部分(エッジ部分)において、奥行値が小さい背景側の奥行値を滑らかに変化させる「ワープ化」した中央ワープデータCwを生成するものである。ワープ化手段135aは、生成した中央ワープデータCwを縮小手段135cに出力する。
ここで、基準視点奥行マップCdについて、奥行値を滑らかに変化させる範囲は、中央視点における奥行マップである基準視点奥行マップCdを左視点に射影した場合に画素が重なる領域、すなわち、前景の被写体像Fの奥行fの右側のエッジよりも右側の領域と、前景の被写体像Fの奥行fの左側のエッジよりも左側の所定幅の領域とが該当する。この所定幅は適宜に定めることができるが、例えば、右側のエッジよりも右側において奥行値を滑らかに変化させる領域幅と同程度とすることができる。
また、前記した範囲内で奥行値を滑らかに変化させる方法としては、当該範囲の左右両端の奥行値を用いて直線補間するようにしてもよいし、スプライン関数などを用いた曲線補間をしてもよい。
更に、基準視点奥行マップCdに対応する映像である基準視点映像Cから、映像中のテキスチャのエッジを検出し、エッジの検出された部分の奥行値に重み付けして中央ワープデータCwを生成するようにしてもよい。これによって、映像中のエッジと中央ワープデータCwの奥行値との間の位置ずれを軽減することができる。
ワープ化手段135bは、外部から左視点奥行マップLdを入力し、入力した左視点奥行マップLdをワープ化して、左ワープデータLwを生成する。ワープ化手段135bは、生成した左ワープデータLwを縮小手段135cに出力する。
左視点奥行マップLdについて、奥行値を滑らかに変化させる範囲は、前記した方式Bの左残差奥行マップXdにおいて有効な画素値を有する範囲(前景の被写体像Fに対応する奥行fの左側のエッジよりも左側の領域)と、前景の被写体像Fに対応する奥行fの右側のエッジよりも右側の所定幅の領域とが該当する。この手順により生成されるのが左ワープデータLwである。この所定幅は適宜に定めることができるが、例えば、左側のエッジよりも左側において奥行値を滑らかに変化させる領域幅と同程度とすることができる。
なお、奥行値を滑らかに変化させる方法は、前記した中央ワープデータCwの場合と同様であるから説明は省略する。
縮小手段135cは、ワープ化手段135aから中央ワープデータCwを、ワープ化手段135bから左ワープデータLwを、それぞれ入力し、所定の縮小率(例えば、1/4)で縦横に縮小し、更に、縦方向又は横方向に1/2に縮小して、図5(c)に示すように、縦又は横方向に接続することで1つのフレームに合成した縮小ワープデータCLwを生成する。縮小手段135cは、生成した縮小ワープデータCLwを合成奥行マップGdとして、奥行マップ符号化手段14(図2参照)に出力する。
なお、図5(c)は、前記した更なる縮小として、縦方向に1/2に縮小して、縦方向に接続してフレーム化した場合の例である。ワープ化した奥行マップは、奥行値の変化が滑らかであるため、例えば1/4のように、より小さく縮小しても失われる情報が少ない。このため、縮小率を小さくしてデータ量を低減することができる。
また、ワープデータを縮小する所定の縮小率は、1/2、1/3など他の縮小率であってもよく、等倍であってもよい。更にまた、中央ワープデータCwと左ワープデータLwとをフレーム化せずに、縮小して、又はそのまま個別データとして奥行マップ符号化手段14(図2参照)に出力するようにしてもよい。
(映像の合成方式)
次に、図7から図11を参照(適宜図1、図2及び図4参照)して、映像合成手段11における映像の合成方式について説明する。
本実施形態においては、前記したように、外部から原データ(図4の最上段を参照)として、中央視点、左視点及び右視点の3視点における映像C,L,Rと、これら付随する奥行マップCd,Ld,Rdとを入力する。また、中央視点を基準視点とし、左視点及び右視点を非基準視点とする。
また、前記した奥行マップの5種類の合成方式である方式A〜方式Eに対応して、図8に示すように、3種類の映像の合成方式の何れかが選択される。
(方式A:2視点1型、方式B:2視点2型)
方式A及び方式Bに対応した映像合成では、図8の最上段に示すように、中央視点映像C及び左視点映像Lを用いて、中央視点映像Cをそのまま基準視点映像として用いるとともに、左視点映像Lから残差映像を切り出した左残差映像Xを生成する。すなわち、中央視点における1つの基準視点映像と、左視点における1つの残差映像と、を合成映像Gとして生成するものである。
ここで「残差映像」とは、基準視点映像Cを左視点に射影した場合にオクルージョンホールとなる領域の画素を、左視点映像Lから切り出して生成した映像のことである。すなわち、方式A及び方式Bでは、合成映像G中の左視点映像Lの中から、基準視点映像Cと重複しない画素情報のみを抽出し、左残差映像Xを生成することでデータ量を削減するものである。
ここで、図10を参照して、残差映像の生成方法の概要について説明する。
なお、図10は、図2に示した符号化装置1の映像合成手段11において、残差映像の生成を説明するために必要な構成を抜粋したブロック図である。
また、図10に示す例において、基準視点映像C及び左視点映像Lなどは、円形の前景にある被写体と、その他の背景となる被写体とから構成されているものとする。
まず、オクルージョンホールOHについて説明する。なお、図10に示すように、基準視点映像Cを、基準視点奥行マップCdを左視点に射影した左視点奥行マップLdを用いて、左視点に射影する場合を例として説明する。
映像を撮影するカメラの設置場所などである視点位置に近い前景となる被写体の画素は、視点位置のシフトによって、大きくずれた位置に射影される。また、視点位置から遠く離れた背景となる被写体の画素は、視点位置のシフトによって、ほとんどずれない位置に射影される。このため、図10に左視点射影映像Lとして模式的に示したように、前景となる円形の被写体が右方向にずれた後には、前景に隠れていて基準視点映像Cには対応する画素がなく、三日月状に黒く示した領域が、画素が射影されない領域として残ることとなる。この画素が射影されない領域がオクルージョンホールOHである。
なお、この説明の例に限らず、映像を、その映像に関する奥行マップ(視点は映像と同じでなくてもよい)を用いて任意の視点に射影する場合に、一般的にオクルージョンホールが発生する。
一方、前景の被写体が右方向にずれて撮影されている左視点映像Lには、このオクルージョンホールOHにおける画素が撮影されている。そこで、本実施形態においては、残差切出手段111dによって、左視点映像Lから、このオクルージョンホールOHにおける画素領域の画素を抽出して左残差映像Xを生成する。
これによって、左視点映像Lの全部ではなく、基準視点映像Cから射影可能な画素領域を除いた残差映像のみを符号化するため、符号化効率がよく、伝送するデータ量を低減することができる。
なお、図10においては、簡単のために、背景の奥行値は「0」、すなわち無限遠にあるものと仮定した。その結果、左視点映像Lの画素の内で、基準視点映像Cの外にはみ出す画素は存在しない。また、背景の奥行値が「0」でなく、基準視点映像Cの外にはみ出す画素がある場合は、そのような画素も残差映像に含めることとする。
図10に示した例では、映像合成手段11は、オクルージョンホール検出手段111cによって、左視点奥行マップLdを用いて、オクルージョンホールOHとなる領域を検出し、オクルージョンホールOHとなる領域を示す穴マスクLhを生成する。図10に示した穴マスクLhにおいて、白い領域がオクルージョンホールOHとなる領域を示している。
そして、映像合成手段11は、残差切出手段111dによって、穴マスクLhで示されたオクルージョンホールOHとなる領域の画素を左視点映像Lから抽出して、左残差映像Xを生成する。
なお、図10では、左視点射影映像Lを生成する際に、オクルージョンホールOHができる様子を説明するために、便宜的に基準視点映像Cを図示したが、オクルージョンホールの検出は左視点奥行マップLdを用いて行うことができるため、検出には基準視点映像Cは不要である。
次に、図11を参照して、左視点奥行マップLdを用いて、オクルージョンホールとなる画素領域を検出(予測)する方法について説明する。
図11に示すように、左視点奥行マップLdにおいて、オクルージョンホールとなる画素かどうかの判定対象となっている着目画素(図において×印で示した画素)の右近傍画素(図において●で示した画素)が、着目画素における奥行値よりも大きな奥行値を有している場合は、その着目画素はオクルージョンホールとなる画素であると判定し、オクルージョンホールとなる画素であることを示す穴マスクLhを生成する。なお、図11に示した穴マスクLhにおいて、オクルージョンホールとなる画素は白で示し、他の画素は黒で示している。
オクルージョンホールとなる画素の検出方法について、更に詳細に説明する。着目画素における奥行値をx、着目画素から右方向に所定の画素数Pmaxだけ離れた画素における奥行値をyとする。ここで、右方向に離れた所定の画素数Pmaxとは、例えば、対応する映像内における最大の視差量に相当する画素数、すなわち、最大の奥行値に対応する視差量とする。次に、着目画素から右方向に奥行値の差g=(y−x)に対応する視差量となる画素数だけ離れた画素を右近傍画素とする。このとき、右近傍画素における奥行値をzとする。そして、
(z−x)≧k×g>(所定値) ・・・式(1)
となる場合に、着目画素をオクルージョンホールとなる画素であると判定する。
なお、式(1)において、kは所定の係数であり、例えば、「0.8」〜「0.6」程度の値とすることができる。このように「1」未満の係数kを乗ずることにより、被写体の形状や奥行値の不正確さのために、前景となる被写体の奥行値が若干変動する場合であっても、正しくオクルージョンホールを検出することができる。
なお、以上の判定でオクルージョンホールが検出されなかった場合、細い前景被写体を見逃している可能性があるので、更に、前記したPmaxを減少しながら、前記したオクルージョンホール検出を繰り返すのが好ましい。繰り返し回数は、例えば8回とすることで、見逃しをほとんどなくすことができる。
また、式(1)において、「所定値」は、例えば、「4」とすることができる。着目画素と右近傍画素との間の奥行値の差が所定値より大きいという条件を加えることにより、実質的にほとんどオクルージョンが生じない小さな奥行値の不連続部分を検出することがなく、左残差映像として抽出される画素数を抑制でき、後記する符号化残差映像のデータ量を抑制することができる。
なお、図4に示した方式B、方式C及び方式Dのように、全体奥行マップが基準視点にある場合は、全体奥行マップを左視点又は右視点に射影したときに、画素が射影されなかった領域をオクルージョンホールとするようにしてもよい。
図7を参照して説明を続ける。
方式A及び方式Bに対応して映像を合成する映像合成手段11Aは、図7(a)に示すように、サイズ復元手段111aと、射影手段111bと、オクルージョンホール検出手段111cと、残差切出手段111dと、縮小手段111eとを備えて構成されている。
サイズ復元手段111aは、奥行マップ符号化手段14(図2参照)から、復号化合成奥行マップG’dを入力し、方式Aによる奥行マップ合成手段13Aの縮小手段131d(図3A(a)参照)又は方式Bによる奥行マップ合成手段13Bの縮小手段132e(図3A(b)参照)によって縮小された復号化合成奥行マップG’d中の縮小全体奥行マップZ’dを、それぞれの方式に対応した拡大率で拡大することで、元のサイズに復元した全体奥行マップZ’dを生成する。サイズ復元手段111aは、生成した全体奥行マップZ’dを射影手段111bに出力する。
射影手段111bは、サイズ復元手段111aから全体奥行マップZ’dを入力し、入力した全体奥行マップZ’dを左視点に射影して左視点奥行マップL’dを生成する。射影手段111bは、生成した左視点奥行マップL’dをオクルージョンホール検出手段111cに出力する。
なお、方式Aの場合には、全体奥行マップZ’dは、左中間視点における奥行マップであるから、射影手段111bは、左中間視点から左視点への射影変換を行う。また、方式Bの場合は、全体奥行マップZ’dは、基準視点における奥行マップであるから、射影手段111bは、基準視点から左視点への射影変換を行う。
本実施形態では、オクルージョンホール検出のために、復号化合成奥行マップG’dを、サイズを復元して用いたが、これによって、立体映像復号化装置2(図1参照)側でオクルージョンホールとなる領域をより適切に予測することができるため好ましい。
また、オクルージョンホール検出のために、復号化合成奥行マップG’dに代えて、奥行マップ合成手段13が生成した合成奥行マップGdを、サイズを復元して用いるようにしてもよい。
なお、後記する方式C及び方式Dによる映像合成手段11Bのオクルージョンホール検出についても同様である。
オクルージョンホール検出手段111cは、射影手段111bから左視点奥行マップL’dを入力し、入力した左視点奥行マップL’dを用いて、基準視点映像Cを左視点に射した場合にオクルージョンホールとなる領域を、前記した方法により検出(予測)して、当該領域を示す穴マスクLhを生成する。オクルージョンホール検出手段111cは、生成した穴マスクLhを残差切出手段111dに出力する。
残差切出手段111dは、外部から左視点映像Lを、オクルージョンホール検出手段111cから穴マスクLhを、それぞれ入力し、穴マスクLhでオクルージョンホールとなる領域として示された画素を左視点映像Lから抽出して左残差映像Xを生成する。なお、図8の最上段に示したように、左視点映像Lの左端部近傍の画素も、奥行値に応じた範囲が、基準視点映像Cに含まれない画素情報であるから、左残差映像Xに追加する。また、残差切出手段111dは、生成した左残差映像Xを縮小手段111eに出力する。
また、左残差映像Xにおいて、画素が抽出されない領域については、画素値として所定の値か、左残差映像Xの全画素についての平均値を画素値として設定することが好ましい。これによって左残差映像Xの符号化効率を向上することができる。
更に、有効な画素値がある部分と、前記した所定の値を設定した領域との境界をローパスフィルタで平滑化することが好ましい。これによって、符号化効率が更に向上する。
縮小手段111eは、残差切出手段111dから左残差映像Xを入力し、入力した残差映像Xを、図9(a)に示すように、所定の縮小率で縮小することで左縮小残差映像Xを生成する。縮小手段111eは、生成した左縮小残差映像Xを合成映像Gの一部として、映像符号化手段12(図2参照)に出力する。
また、方式A又は方式Bに対応した映像合成手段11Aは、基準視点映像Cをそのままで、合成映像Gの一部として、映像符号化手段12(図2参照)に出力する。
なお、左残差映像Xを縮小する際の所定の縮小率としては、例えば、縦横ともに1/2とすることができる。
また、左残差映像Xを縮小し、元のサイズのフレームにはめ込むようにしてもよい。この場合、左縮小残差映像Xがない余白領域については、左残差映像Xの画素抽出領域外に設定された所定の画素値を設定するようにすればよい。
また、左残差映像Xの縮小処理は、縦横1/2に縮小することに限定されず、1/3、1/4など、他の縮小率であってもよい。また、縦横の縮小率を異なるようにしてもよい。更にまた、縮小処理を行わないようにしてもよい。この場合は、縮小手段111eは省略することができる。
(方式C:3視点1型、方式D:3視点2型)
方式C及び方式Dに対応した映像合成では、図8の2段目に示すように、中央視点映像C、左視点映像L及び右視点映像Rを用いて、中央視点映像Cをそのまま基準視点映像として用いるとともに、左視点映像Lから残差映像を切り出した左残差映像Xと、右視点映像Rから残差映像を切り出した右残差映像Yと、を生成する。すなわち、中央視点における1つの基準視点映像と、左視点及び右視点における2つの残差映像と、を合成映像Gとして生成するものである。
なお、左残差映像Xは、方式A及び方式Bに対応した合成映像の左残差映像Xと同じものである。また、右残差映像Yは、基準視点映像Cを右視点に射影した場合にオクルージョンホールとなる領域の画素を、右視点映像Rから切り出して生成した映像のことである。右残差映像Yは、基準視点に対して左右の位置関係が異なるだけで、左残差映像Xと同様にして生成することができる。
すなわち、方式C及び方式Dでは、非基準視点映像である左視点映像L及び右視点映像Rの中から、基準視点映像Cと重複しない画素情報のみを抽出し、左残差映像X及び右残差映像Yを生成することでデータ量を削減するものである。
方式C及び方式Dに対応して映像を合成する映像合成手段11Bは、図7(b)に示すように、サイズ復元手段112aと、射影手段112b,112bと、オクルージョンホール検出手段112c,112cと、残差切出手段112d,112dと、縮小手段112eとを備えて構成されている。
サイズ復元手段112aは、奥行マップ符号化手段14(図2参照)から、復号化合成奥行マップG’dを入力し、方式Cによる奥行マップ合成手段13Cの縮小手段133d(図3A(c)参照)又は方式Dによる奥行マップ合成手段13Dの縮小手段134e(図3B(a)参照)によって縮小された復号化合成奥行マップG’d中の縮小全体奥行マップZ’dを、それぞれの方式に対応した拡大率で拡大することで、元のサイズに復元した全体奥行マップZ’dを生成する。サイズ復元手段112aは、生成した全体奥行マップZ’dを射影手段112b及び射影手段112bに出力する。
ここで、射影手段112b、オクルージョンホール検出手段112c及び残差切出手段112dは、それぞれ図7(a)に示した射影手段111b、オクルージョンホール検出手段111c及び残差切出手段111dと同様であるから、詳細な説明は省略する。また、射影手段112b、オクルージョンホール検出手段112c及び残差切出手段112dは、それぞれ図7(a)に示した射影手段111b、オクルージョンホール検出手段111c及び残差切出手段111dとは、基準視点に対する左右の位置関係が異なるだけで同様であるから、詳細な説明は省略する。
なお、射影手段112bは右視点奥行マップR’dをオクルージョンホール検出手段112cへ出力し、オクルージョンホール検出手段112cは穴マスクRhを残差切出手段112dへ出力する。
また、残差切出手段112dは、生成した左残差映像Xを縮小手段112eに出力し、残差切出手段112dは、生成した右残差映像Yを縮小手段112eに出力する。
縮小手段112eは、残差切出手段112dから左残差映像Xを、残差切出手段112dから右残差映像Yをそれぞれ入力し、それぞれ、所定の縮小率(例えば、縦横ともに1/2)で縮小した左縮小残差映像Xと右縮小残差映像Yとを、図9(b)に示すように、1つのフレームに合成したフレーム化縮小残差映像XYを生成する。縮小手段112eは、生成したフレーム化縮小残差映像XYを合成映像Gの一部として、映像符号化手段12(図2参照)に出力する。
なお、図9(b)は、縦方向に接続してフレーム化した場合の例である。また、フレーム化せずに、左右の残差映像X,Yをそれぞれ縮小して、又はそのまま映像符号化手段12(図2参照)に出力するようにしてもよい。また、縦方向と横方向との縮小率を異なるようにしてもよい。
(方式E:3型)
方式Eに対応した映像合成では、図8の3段目に示すように、基準視点映像C及び左視点映像Lを、それぞれそのまま用いるものである。すなわち、図7(c)に示すように、方式Eに対応した映像合成手段11Cは、基準視点の映像と、非基準視点である左視点における映像と、を合成映像Gとするものである。従って、2つの映像は加工されることなく、映像符号化手段12(図2参照)に出力される。
(その他の方式)
以上、奥行マップ及び映像についての5種類の合成方式を説明したが、合成方式はこれらに限定されるものではなく、これらの方式の一部又は全部に代えて、若しくはこれらの方式に加えて、他の方式を選択可能に構成することもできる。
また、5種類すべての合成方式を選択可能に備えることに限定されず、これらの内の1以上を用いることができるように構成してもよい。
例えば、前記した方式A(2視点1型)を3視点の映像及び奥行マップを用いた合成方式に拡張することもできる。
ここで、図12を参照(適宜図4及び図8参照)して、方式Aを3視点に拡張した場合について説明する。
奥行マップについては、図12(a)に示すように、方式Aと同様にして、基準視点奥行マップCdと左視点奥行マップLdとを用いて、基準視点と左視点との中間視点における奥行マップである左合成奥行マップMdを生成する。また、同様にして、基準視点奥行マップCdと右視点奥行マップRdとを用いて、基準視点と右視点との中間視点における奥行マップである右合成奥行マップNdを生成する。そして、左合成奥行マップMd及び右合成奥行マップNdを、それぞれ所定の縮小率(例えば、横方向に1/2、縦方向に縮小しない)で縮小した左縮小合成奥行マップMd及び右縮小合成奥行マップNdを生成し、例えば横方向に接合して1つのフレームに合成したフレーム化縮小合成奥行マップMNdを生成する。そして、このフレーム化縮小合成奥行マップMNdを合成奥行マップGdとして符号化するようにしてもよい。
また、映像については、図12(b)に示すように、まず、方式C及び方式Dと同様にして、左残差映像X及び右残差映像Yを生成する。次に、方式Aの奥行マップと同様に、それぞれ所定の縮小率で縮小した左縮小残差映像X及び右縮小残差映像Yを生成する。そして、これらを1つのフレームに合成したフレーム化縮小残差映像XYを生成する。
すなわち、基準視点映像Cと、2つの視点における残差映像をフレーム化したフレーム化縮小残差映像XYとからなる合成映像Gを生成することができる。
なお、図12(b)は、背景の奥行値が「0」の場合の残差映像を示す。
(データ構造)
次に、図13から図15を参照して、本実施形態において、多重化手段16によって符号化ビット列に多重化されるデータの構造について説明する。
前記したように、本実施形態においては、MPEG−4 AVC符号化規格に準拠した方式で符号化ビット列が伝送される。従って、データの単位は、MPEG−4 AVC符号化規格におけるNALUを単位として各種情報が構成される。
まず、図13を参照して、映像及び奥行マップについてのデータ構造について説明する。
(符号化基準視点映像)
図13(a)に示すように、基準視点又は中央視点についての映像を符号化したデータである符号化基準視点映像のデータ構造D10は、先頭に開始コードD100を有し、次に基準視点についての映像であることを識別する識別情報として、値が「5」又は「1」のNALU型D101を有する。そして、その後に符号化基準視点映像(又は符号化中央視点映像)D102を有する。NALU型D101の値「5」は、基準視点映像の内で、フレーム内符号化された符号化映像に付加され、値「1」は、フレーム間符号化された符号化映像に付加される。
なお、開始コードD100は、3バイトの所定値として「001」が割当てられ、すべての種別のNALUが先頭に有するものである。また、すべてのNALUは、開始コードD100の後には、情報の種別を識別するための識別情報であるNALU型を有し、情報の種別に対応してそれぞれ固有の値が割当てられている。また、NALU型は1バイトの情報である。
(符号化残差映像)
図13(b)に示すように、非基準視点についての映像を符号化したデータである符号化残差映像のデータ構造D11は、先頭に開始コードD100を有し、次に非基準視点についての映像であることを識別する識別情報として、値が「20」のNALU型D111を有する。
次に、SVC(Scalable Video Coding)拡張フラグD112として、値「0」が割当てられる。
なお、SVC拡張フラグは、1ビット長の情報であり、その値が「1」の場合は、映像を基準解像度映像とその残差解像度映像との複数の解像度映像に分解して符号化したことを示すフラグである。複数の視点映像を、基準視点映像とその残差映像として符号化する場合は、SVC拡張フラグの値として「0」を設定することで、多視点映像の残差映像として符号化したことを示すものである。
次に、非基準視点の視点位置を示す情報としてビューID(D113)を有する。本実施形態では、ビューID(D113)は、値「0」が基準視点を、値「1」が左視点を、値「2」が右視点を示す。また、前記した方式C又は方式Dのように、複数の視点における残差奥行マップが1つにフレーム化されている場合は、ビューID(D113)として値「1」が設定される。
そして、その後に符号化残差映像(又は符号化非基準視点映像)D114を有する。
(符号化全体奥行マップ)
奥行マップ符号化手段14に、MPEG−4 MVC+Depth符号化規格や3D−AVC符号化規格に準拠するものを用いる場合は、図13(c)に示すように、全体奥行マップを符号化したデータである符号化全体奥行マップのデータ構造D12は、先頭に開始コードD100を有し、次に全体奥行マップであることを識別する識別情報として、値が「21」のNALU型D121を有する。なお、方式Eにおける中央ワープデータCwも、このNALU型D121として値「21」が設定される。
次に、SVC(Scalable Video Coding)拡張フラグD122として、値「0」が設定される。次に、この全体奥行マップの視点位置を示す視点情報としてビューID(D123)を有する。なお、全体奥行マップの場合は、ビューID(D123)は、値「0」が設定される。そして、その後に符号化全体奥行マップ(又は符号化中央ワープデータ)D124を有する。方式Aで奥行マップを合成する場合は、全体奥行マップの視点は、中央視点と左視点との中間視点位置にあるが、この場合もビューIDとしては値「0」を設定する。この視点位置が左中間視点位置であることは、合成方式を示す奥行型の値が「0」であることから識別することができる。
(符号化残差奥行マップ)
図13(d)に示すように、残差奥行マップを符号化したデータである符号化残差奥行マップのデータ構造D13は、先頭に開始コードD100を有し、次に残差奥行マップであることを識別する識別情報として、値が「21」のNALU型D131を有する。なお、方式Eにおける左ワープデータLwも、このNALU型D131として値「21」が割当てられる。
次に、SVC(Scalable Video Coding)拡張フラグD132として、値「0」が割当てられる。次に、この残差奥行マップの視点位置を示す視点情報としてビューID(D133)を有する。また、方式Dのように複数の視点における残差奥行マップが1つにフレーム化されている場合は、全体奥行マップと区別するために、ビューID(D133)として値「1」が設定される。そして、その後に符号化残差奥行マップ(又は符号化左ワープデータ)D134を有する。
また、方式Eにおいて、複数の視点のワープデータがフレーム化されている場合は、ビューIDとして値「0」が設定され、図13(c)に示したデータ構造D12で符号化される。
また、奥行マップ符号化手段14として、MPEG−4 MVC符号化規格に準拠するものを用いる場合(プロファイルID=118、128)は、奥行マップ符号化手段14は、符号化した合成奥行マップgdにも、符号化合成映像gと同じNALU型を与えるため、両者の区別が付かなくなる。このため、多重化手段16は、図13(e)に示すように、全体奥行マップを符号化したデータである符号化全体奥行マップのデータ構造D14において、先頭の開始コードD100の直後に、合成奥行マップであることを識別する識別情報として、値が「0」のNALU型D141を更に挿入する。この値「0」は、MPEG−4 AVC符号化規格及びMVC等のその拡張規格では未定義の値である。これによって、後記する復号化装置2の分離手段21(図16参照)は、このデータが合成奥行マップgdであることを識別することができる。そして、復号化装置2の分離手段21(図16参照)は、挿入された値「0」のNALU型D141を削除することで、図13(a)に示したデータ構造D10に変換して、奥行マップ復号化手段24(図16参照)に出力する。これによって、奥行マップ復号化手段24(図16参照)は、このデータをMVC符号化規格に準拠したNALU型D101を有するNALUとして正しく復号化することができる。
また、図13(f)に示すように、残差奥行マップを符号化したデータである符号化残差奥行マップのデータ構造D15において、先頭の開始コードD100の直後にも、合成奥行マップであることを識別する識別情報として、値が「0」のNALU型D151を挿入する。これによって、後記する復号化装置2の分離手段21(図16参照)は、このデータが合成奥行マップであることを識別することができる。そして、復号化装置2の分離手段21(図16参照)は、挿入された値「0」のNALU型D151を削除することで、図13(b)に示したデータ構造D11に変換して、奥行マップ復号化手段24(図16参照)に出力する。これによって、奥行マップ復号化手段24(図16参照)は、このデータをMVC符号化規格に準拠したNALU型D111を有するNALUとして正しく復号化することができる。
次に、図14を参照して、符号化パラメータについてのデータ構造について説明する。
(基準視点映像についての符号化管理情報)
図14(a)に示すように、基準視点映像(又は中央視点映像)についての符号化管理情報であるSPS(Sequence Parameter Set)を符号化した符号化パラメータhのデータ構造D20は、先頭に開始コードD100を有し、次に基準視点映像についての符号化管理情報(SPS)であることを識別する識別情報として、値が「7」のNALU型D201を有する。次に、基準視点映像を符号化したツールの組を示す1バイトの情報であるプロファイルID(D202)として、例えば、値「100」が設定される。そして、その後に基準視点映像(又は中央視点映像)についての符号化管理情報D203を有する。
(非基準視点映像についての符号化管理情報)
図14(b)に示すように、非基準視点映像(左視点映像、右視点映像など)についての符号化管理情報であるS_SPS(Subset_Sequence Parameter Set)を符号化した符号化パラメータhのデータ構造D21は、先頭に開始コードD100を有し、次に非基準視点映像についての管理情報(S_SPS)であることを識別する識別情報として、値が「15」のNALU型D211を有する。次に、非基準視点映像を符号化したツールの組を示す情報であるプロファイルID(D212)として、例えば、値「118」、「128」、「138」、「139」又は「140」が設定される。そして、その後に非基準視点映像についての符号化管理情報D213を有する。
ここで、プロファイルIDの値「118」は、MPEG−4 AVC符号化規格の拡張規格であるMVC符号化ツールで、合成映像や合成奥行マップを符号化した場合を示し、値「128」は、ステレオ符号化ツールで符号化した場合を示し、値「138」は、MVC+Depth符号化ツールで符号化した場合を示し、値「139」は、3D−AVC符号化ツールで符号化した場合を示すものである。これらの値は、そのままでもよいが、MPEG−4 AVC符号化規格及びその拡張規格に基づく従来の復号化装置では奥行型を解読できないため、符号化ビット列を正しく復号化することはできるが、多視点映像を正しく合成することができないという問題がある。この問題を無視するようにしてもよいが、この問題を解決するために、例えば値「140」を設定することができる。プロファイルIDとして、値「140」は、MPEG−4 AVC符号化規格及びその拡張規格では未定義の値である。このため、プロファイルIDとして値「140」を用いることにより、MPEG−4 AVC符号化規格及びその拡張規格に基づく従来の復号化装置がこの符号化ビット列を受け取った場合は、未知の符号化方式として復号化を中止する。これによって、従来の復号化装置が誤った多視点映像を合成するという誤動作を防ぐことができる。
(カメラパラメータ)
本実施形態では、カメラパラメータは、映像の復号化と表示のための情報であるSEI(Supplemental Enhancement Information:補足強化情報)メッセージとして符号化される。図14(c)に示すように、カメラパラメータを符号化した符号化パラメータhのデータ構造D22は、先頭に開始コードD100を有し、次にSEIメッセージであることを識別する識別情報として、値が「6」のNALU型D221を有する。次に、SEIメッセージとしてカメラパラメータを有することを識別する1バイトの情報として、値が「50」のペイロード型D222を有する。そして、その後にカメラパラメータD223を有する。
なお、SEIメッセージは、映像の復号化と表示のための種々の情報を伝送するために用いられるが、1つのNALUには、1種類の情報についての、予め種類毎に定められた関連データのみが含まれる。
(奥行型)
本実施形態では、奥行マップ及び映像を合成する方式を示す奥行型は、前記したSEIメッセージとして符号化される。図14(d)に示すように、奥行型を符号化した符号化パラメータhのデータ構造D23は、先頭に開始コードD100を有し、次にSEIメッセージであることを識別する識別情報として、値が「6」のNALU型D231を有する。次に、SEIメッセージとして奥行型を有することを識別する情報として、例えば、値が「53」のペイロード型D232を有する。そして、その後に奥行型値D233を有する。
なお、図14(e)に示す奥行型のデータ構造については、第2実施形態において説明する。
ここで、図15を参照して、奥行型の値と奥行マップ及び映像の合成方式との対応関係について説明する。
図15に示すように、本実施形態では、値「0」〜「4」が、それぞれ方式A〜方式Eを示す。また、値「5」及び「6」は未定義であり、値「7」は奥行型を追加するための拡張コードとして割当てられている。
なお、本実施形態では、立体映像復号化装置2(図1参照)は、符号化装置1から奥行型が伝送されなかった場合は、映像及び奥行マップの加工は行われず、元の多視点映像及び多視点奥行マップのまま符号化して伝送されるものとして取り扱うものとする。
[立体映像復号化装置の構成]
次に、図16を参照(適宜図1参照)して、第1実施形態に係る立体映像復号化装置2の構成について説明する。立体映像復号化装置2は、図2に示した立体映像符号化装置1から伝送路を介して伝送される符号化ビット列BSを復号化して、多視点映像を生成するものである。従って、符号化ビット列BSには、符号化合成映像g、符号化合成奥行マップgd、及び、多視点映像を復号、合成又は表示するために必要な符号化パラメータhが多重化されている。
図16に示すように、第1実施形態に係る立体映像復号化装置2(以下、適宜に「復号化装置2」と呼ぶ)は、分離手段21と、パラメータ復号化手段22と、映像復号化手段23と、奥行マップ復号化手段24と、多視点映像合成手段25と、を備えて構成されている。
分離手段21は、符号化装置1から伝送される符号化ビット列BSを入力し、符号化ビット列BSから、多重化されている符号化パラメータhと、符号化合成映像gと、符号化合成奥行マップgdとをそれぞれ分離する。分離手段21は、分離した符号化パラメータhをパラメータ復号化手段22に、符号化合成映像gを映像復号化手段23に、符号化合成奥行マップgdを奥行マップ復号化手段24に、それぞれ出力する。
パラメータ復号化手段22は、分離手段21から符号化パラメータhを入力し、入力した符号化パラメータhを復号化して、パラメータの種別に応じて、他の構成手段に出力する。ここで、パラメータ復号化手段22は、奥行型Hd及びカメラパラメータHcを多視点映像合成手段25に、符号化管理情報Hkを映像復号化手段23及び奥行マップ復号化手段24に、それぞれ出力する。
映像復号化手段23は、分離手段21から符号化合成映像gを、パラメータ復号化手段22から符号化管理情報Hkを、それぞれ入力し、符号化管理情報Hkに含まれる映像の符号化方式を示すプロファイルID(図14(a)、(b)に示したデータ構造D20,D21参照)を参照し、当該符号化方式に従って符号化合成映像gを復号化する。映像復号化手段23は、生成した復号化合成映像G’を多視点映像合成手段25に出力する。
奥行マップ復号化手段24は、分離手段21から符号化合成奥行マップgdを、パラメータ復号化手段22から符号化管理情報Hkを、それぞれ入力し、符号化管理情報Hkに含まれる奥行マップの符号化方式を示すプロファイルID(図14(b)に示したデータ構造D21参照)を参照し、当該符号化方式に従って符号化合成奥行マップgdを復号化する。奥行マップ復号化手段24は、生成した復号化合成奥行マップG’dを多視点映像合成手段25に出力する。
多視点映像合成手段25は、パラメータ復号化手段22から奥行型Hd及びカメラパラメータHcを、映像復号化手段23から復号化合成映像G’を、奥行マップ復号化手段24から復号化合成奥行マップG’dを、それぞれ入力し、これらの情報を用いて、例えば、ユーザインターフェースを介して外部から入力される指定視点についての映像を合成する。多視点映像合成手段25は、合成した多視点映像P,C’,Qなどを、例えば立体映像表示装置4(図1参照)に出力する。
ここで、図17を参照して、多視点映像の合成方法の概要を説明する。
なお、図17に示した例は、図16に示した復号化装置2の多視点映像合成手段25において、方式Aによる多視点映像の生成を説明するために必要な構成を抜粋したブロック図である。
また、図17に示す例において、基準視点映像C’及び左残差映像X’などは、図10に示した例と同様に、円形の前景にある被写体と、その他の背景となる被写体とから構成されているものとする。また、基準視点と左視点との間に指定された左指定視点における映像である左指定視点映像Pを、復号化した基準視点映像C’及び復号化した左残差映像X’と、復号化された左中間視点における全体奥行マップ(不図示)を、当該左指定視点に射影した左指定視点奥行マップPdと、を用いて合成する様子を示したものである。
図17に示した例では、多視点映像合成手段25は、射影手段251dによって、左指定視点奥行マップPdを用いて、基準視点映像C’を左指定視点に射影し、左指定視点映像Pを生成する。このとき、左指定視点映像PにはオクルージョンホールOH(図17において三日月状の黒い領域)が生じる。多視点映像合成手段25は、射影手段251dによって、このオクルージョンホールOHとなる領域を示す穴マスクLhを生成する。図17に示した穴マスクLhにおいて、三日月状の白い領域がオクルージョンホールOHとなる領域である。
また、多視点映像合成手段25は、射影手段251eによって、左指定視点奥行マップPdを用いて、左残差映像X’を左指定視点に射影する。
そして、多視点映像合成手段25は、合成手段251fによって、左指定視点に射影した残差映像から、穴マスクLhで示されたオクルージョンホールOHとなっている位置に対応する画素を抽出し、左指定視点映像Pに補完する。これによって、オクルージョンホールOHのない左指定視点映像Pが合成される。
なお、本例では、奥行マップとして、左中間視点における全体奥行マップを用いて多視点映像を合成するようにしたが、他の視点における奥行マップを用いることもできる。
また、図16に示した本実施形態における復号化装置2は、符号化装置1による奥行マップ及び映像の5種類の合成方式(方式A〜方式E)及び複数の映像及び奥行マップを加工せずにそのまま符号化して伝送する方式のそれぞれに対応して、多視点映像合成手段25によって、任意の指定視点における映像を合成する。また、入力した奥行マップ及び映像が、何れの合成方式によって合成されているかは、符号化パメータの1つである奥行型Hdを参照して識別する。そして、復号化装置2は、奥行型Hdで示された方式に対応する構成の多視点映像合成手段を用いて多視点映像を合成するものとする。
以下、図18Aから図18Cを参照(適宜図4、図5、図8、図9及び図16参照)して、各合成方式に対応した多視点映像合成手段25の構成について順次に説明する。
(方式A:2視点1型)
方式Aでは、図4の2段目及び図8の1段目に示したように、合成奥行マップGdとして、左中間視点における全体奥行マップZdが符号化され、合成映像Gとして、基準視点映像Cと左残差映像Xとが符号化されている。
方式Aにより多視点映像を合成する多視点映像合成手段25Aは、図18A(a)に示すように、サイズ復元手段251aと、サイズ復元手段251bと、射影手段251cと、射影手段251dと、射影手段251eと、合成手段251fと、を備えて構成されている。
サイズ復元手段251aは、奥行マップ復号化手段24から復号化合成奥行マップG’dである縮小全体奥行マップZ’dを入力し、所定の拡大率で拡大して元のサイズの全体奥行マップZ’dを復元する。サイズ復元手段251aは、復元した全体奥行マップZ’dを射影手段251cに出力する。
なお、入力した復号化合成奥行マップG’dが縮小されていない場合は、サイズ復元手段251aは省略することができる。サイズ復元手段の省略については、後記する映像のサイズ復元手段251bについても同様である。更に、後記する他の方式における各サイズ復元手段についても同様である。
サイズ復元手段251bは、映像復号化手段23から復号化合成映像G’の一部である左縮小残差映像X’を入力し、所定の倍率で拡大して元のサイズの左残差映像X’を復元する。サイズ復元手段251bは、復元した左残差映像X’を射影手段251eに出力する。
射影手段251cは、サイズ復元手段251aから左中間視点における全体奥行マップZ’dを入力し、全体奥行マップZ’dを左指定視点に射影した左指定視点奥行マップPdを生成する。射影手段251cは、生成した左指定視点奥行マップPdを、射影手段251d及び射影手段251eに出力する。
射影手段251dは、映像復号化手段23から復号化した基準視点映像C’を、射影手段251cから左指定視点奥行マップPdを、それぞれ入力し、左指定視点奥行マップPdを用いて基準視点映像C’を左指定視点に射影した左指定視点映像Pを生成する。また、射影手段251dは、左指定視点奥行マップPdを用いて、基準視点映像C’を左指定視点に射影した際に、左指定視点映像Pにおいてオクルージョンホールとなる領域を示す穴マスクLhを生成する。
射影手段251dは、生成した左指定視点映像P及び穴マスクLhを合成手段251fに出力する。
射影手段251eは、サイズ復元手段251bから左残差映像X’を、射影手段251cから左指定視点奥行マップPdを、それぞれ入力し、左指定視点奥行マップPdを用いて左残差映像X’を左指定視点に射影した左指定視点残差映像Pを生成する。射影手段251eは、生成した左指定視点残差映像Pを合成手段251fに出力する。
合成手段251fは、射影手段251dから左指定視点映像P及び穴マスクLhを、射影手段251eから左指定視点残差映像Pを、それぞれ入力し、穴マスクLhに示されるオクルージョンホールとなっている領域の画素を左指定視点残差映像Pから抽出して、左指定視点映像Pに補完する。これによって、左指定視点映像Pが生成される。また、合成手段251fは、前記した処理によって、左指定視点映像P又は左指定視点残差映像Pの何れからも有効な画素が射影されなかった画素については、周囲の有効な画素値を用いて補間する。
合成手段251fは、生成した左指定視点映像Pを、基準視点映像C’とともに、多視点映像として、例えば、立体映像表示装置4(図1参照)に出力する。
なお、多視点映像として基準視点映像C’に代えて、又はこれに加えて、他の視点における映像を合成して出力するようにしてもよい。また、合成する映像の視点位置及び視点数については、後記する他の方式においても同様である。
(方式B:2視点2型)
方式Bでは、図4の3段目及び図8の1段目に示したように、合成奥行マップGdとして、基準視点における全体奥行マップZdと、左残差奥行マップXdとが符号化され、合成映像Gとして、基準視点映像Cと左残差映像Xとが符号化されている。
方式Bにより多視点映像を合成する多視点映像合成手段25Bは、図18A(b)に示すように、サイズ復元手段252aと、サイズ復元手段252bと、サイズ復元手段252cと、射影手段252dと、射影手段252eと、射影手段252fと、射影手段252gと、合成手段252hと、を備えて構成されている。
サイズ復元手段252aは、奥行マップ復号化手段24から復号化合成奥行マップG’dの一部である縮小全体奥行マップZ’dを入力し、所定の拡大率で拡大して元のサイズの全体奥行マップZ’dを復元する。サイズ復元手段252aは、復元した全体奥行マップZ’dを射影手段252dに出力する。
サイズ復元手段252bは、奥行マップ復号化手段24から復号化合成奥行マップG’dの一部である左縮小残差奥行マップX’dを入力し、所定の拡大率で拡大して元のサイズの左残差奥行マップX’dを復元する。サイズ復元手段252bは、復元した左残差奥行マップX’dを射影手段252fに出力する。
サイズ復元手段252cは、映像復号化手段23から復号化合成映像G’である左縮小残差映像X’を入力し、所定の拡大率で拡大して元のサイズの左残差映像X’を復元する。サイズ復元手段252cは、復元した左残差映像X’を射影手段252gに出力する。
射影手段252dは、サイズ復元手段252aから基準視点である中央視点における全体奥行マップZ’dを入力し、全体奥行マップZ’dを左指定視点に射影した左指定視点奥行マップPdを生成する。射影手段252dは、生成した左指定視点奥行マップPdを、射影手段252eに出力する。
射影手段252eは、映像復号化手段23から復号化した基準視点映像C’を、射影手段252dから左指定視点奥行マップPdを、それぞれ入力し、左指定視点奥行マップPdを用いて基準視点映像C’を左指定視点に射影した左指定視点映像Pと、画素が射影されず、オクルージョンホールとなる領域を示す穴マスクLhとを生成する。射影手段252eは、生成した左指定視点映像Pと穴マスクLhとを合成手段252hに出力する。
射影手段252fは、サイズ復元手段252bから左残差奥行マップX’dを入力し、左残差奥行マップX’dを左指定視点に射影した左指定視点残差奥行マップPdを生成する。射影手段252fは、生成した左指定視点残差奥行マップPdを、射影手段252gに出力する。
射影手段252gは、サイズ復元手段252cから左残差映像X’を、射影手段252fから左指定視点残差奥行マップPdを、それぞれ入力し、左指定視点残差奥行マップPdを用いて左残差映像X’を射影した左指定視点残差映像Pを生成する。射影手段252gは、生成した左指定視点残差映像Pを合成手段252hに出力する。
合成手段252hは、射影手段252eから左指定視点映像P 及び穴マスクLhを、射影手段252gから左指定視点残差映像Pを、それぞれ入力し、左指定視点映像Pにおいてオクルージョンホールとなっている画素を左指定視点残差映像Pから抽出して補完することで左指定視点映像Pを生成する。また、合成手段252hは、前記した処理によって、左指定視点映像P又は左指定視点残差映像Pの何れからも有効な画素が射影されなかった画素については、周囲の有効な画素値を用いて補間する。
合成手段252hは、生成した左指定視点映像Pを、多視点映像の一部として、例えば、立体映像表示装置4(図1参照)に出力する。
すなわち、方式Bによる多視点映像合成手段25Bは、左指定視点映像Pと基準視点映像C’とからなる多視点映像を出力する。
(方式C:3視点1型)
方式Cでは、図4の4段目及び図8の2段目に示したように、合成奥行マップGdとして、基準視点における全体奥行マップZdが符号化され、合成映像Gとして、基準視点映像Cと左残差映像Xと右残差映像Yとが符号化されている。
方式Cにより多視点映像を合成する多視点映像合成手段25Cは、図18Bに示すように、サイズ復元手段253aと、サイズ復元手段253bと、射影手段253c,253cと、射影手段253d,253dと、射影手段253e,253eと、合成手段253f,253fと、を備えて構成されている。
サイズ復元手段253aは、奥行マップ復号化手段24から、復号化合成奥行マップG’dである基準視点における全体奥行マップが縮小された縮小全体奥行マップZ’dを入力し、所定の拡大率で拡大することで元のサイズの全体奥行マップZ’dを復元する。サイズ復元手段253aは、復元した全体奥行マップZ’dを射影手段253c及び射影手段253cに出力する。
サイズ復元手段253bは、映像復号化手段23から、復号化合成映像G’の一部である縮小残差映像XY’を入力し、左右の残差映像に分離するともに、所定の拡大率で拡大することで元のサイズの左残差映像X’及び右残差映像Y’を復元する。サイズ復元手段253bは、復元した左残差映像X’を射影手段253eに、右残差映像Y’を射影手段253eに、それぞれ出力する。
以下、まず、左視点についての構成について説明する。
射影手段253cは、サイズ復元手段253aから基準視点における全体奥行マップZ’dを入力し、全体奥行マップZ’dを左指定視点に射影した左指定視点奥行マップPdを生成する。射影手段253cは、生成した左指定視点奥行マップPdを射影手段253d及び射影手段253eに出力する。
射影手段253dは、射影手段253cから左指定視点奥行マップPdを、映像復号化手段23から復号化合成映像G’の一部である基準視点映像C’を、それぞれ入力し、左指定視点奥行マップPdを用いて基準視点映像C’を左指定視点に射影した左指定視点映像P及び左指定視点映像Pでオクルージョンホールとなっている領域を示す穴マスクLhを生成する。射影手段253dは、生成した左指定視点映像P及び穴マスクLhを合成手段253fに出力する。
射影手段253eは、射影手段253cから左指定視点奥行マップPdを、サイズ復元手段253bから左残差映像X’を、それぞれ入力し、左指定視点奥行マップPdを用いて左残差映像X’を左指定視点に射影した左指定視点残差映像Pを生成する。射影手段253eは、生成した左指定視点残差映像Pを合成手段253fに出力する。
合成手段253fは、射影手段253dから左指定視点映像P及び穴マスクLhを、射影手段253eから左指定視点残差映像Pを、それぞれ入力し、穴マスクLhに示されるオクルージョンホールとなっている領域の画素を左指定視点残差映像Pから抽出して、左指定視点映像Pに補完する。これによって、左指定視点映像Pが生成される。また、合成手段253fは、前記した処理によって、左指定視点映像P又は左指定視点残差映像Pの何れからも有効な画素が射影されなかった画素については、周囲の有効な画素値を用いて補間する。
合成手段253fは、生成した左指定視点映像Pを、基準視点映像C’及び後記する右指定視点映像Qとともに、多視点映像として、例えば、立体映像表示装置4(図1参照)に出力する。
また、射影手段253c、射影手段253d、射影手段253e及び合成手段253fは、それぞれ前記した射影手段253c、射影手段253d、射影手段253e及び合成手段253fに対応するものであり、基準視点に対する左右の位置関係が異なるだけであるから、詳細な説明は省略する。なお、これらの右指定視点映像Qを生成するための手段は、前記した左指定視点映像Pを生成する手段における左指定視点奥行マップPdに代えて右指定視点奥行マップQdを生成し、左残差映像X’に代えて右残差映像Y’を用いるものである。同様に、左指定視点映像P、左指定視点残差映像P、及び穴マスクLhに代えて、それぞれ右指定視点映像Q、右指定視点残差映像Q、及び穴マスクRhを用いる。
(方式D:3視点2型)
方式Dでは、図4の5段目及び図8の2段目に示したように、合成奥行マップGdとして、基準視点における全体奥行マップZdと左残差奥行マップXdと右残差奥行マップYdとが符号化され、合成映像Gとして、基準視点映像Cと左残差映像Xと右残差映像Yとが符号化されている。
方式Dにより多視点映像を合成する多視点映像合成手段25Dは、図18C(a)に示すように、サイズ復元手段254aと、サイズ復元手段254bと、サイズ復元手段254cと、射影手段254d,254dと、射影手段254e,254eと、射影手段254f,254fと、射影手段254g,254gと、合成手段254h,254hと、を備えて構成されている。
サイズ復元手段254aは、奥行マップ復号化手段24から復号化合成奥行マップG’dの一部である縮小全体奥行マップZ’dを入力し、所定の拡大率で拡大することで元のサイズの全体奥行マップZ’dを復元する。サイズ復元手段254aは、復元した全体奥行マップZ’dを射影手段254d及び射影手段254dに出力する。
サイズ復元手段254bは、奥行マップ復号化手段24から復号化合成奥行マップG’dの一部である縮小残差奥行マップXY’dを入力し、左右の残差奥行マップに分離するとともに、所定の拡大率で拡大することで元のサイズの左残差奥行マップX’d及び右残差奥行マップY’dを復元する。サイズ復元手段254bは、復元した左残差奥行マップX’dを射影手段254fに、右残差奥行マップY’dを射影手段254fに、それぞれ出力する。
サイズ復元手段254cは、映像復号化手段23から、復号化合成映像G’の一部である縮小残差映像XY’を入力し、左右の残差映像に分離するともに、所定の拡大率で拡大することで元のサイズの左残差映像X’及び右残差映像Y’を復元する。サイズ復元手段254cは、復元した左残差映像X’を射影手段254gに、右残差映像Y’を射影手段254gに、それぞれ出力する。
射影手段254d、射影手段254e、射影手段254f、射影手段254g及び合成手段254hは、それぞれ図18A(b)に示した方式Bによる多視点映像合成手段25Bの射影手段252d、射影手段252e、射影手段252f、射影手段252g及び合成手段252hに対応し、同様にして左指定視点映像Pを合成するものであるから、説明は省略する。
また、射影手段254d、射影手段254e、射影手段254f、射影手段254g及び合成手段254hは、それぞれ前記した射影手段254d、射影手段254e、射影手段254f、射影手段254g及び合成手段254hに対応し、左指定視点映像Pに代えて右指定視点映像Qを合成するものである。それぞれ基準視点に対する左右の位置関係が異なるだけで、同様にして右指定視点映像Qを合成することができるため、詳細な説明は省略する。
なお、これらの右指定視点映像Qを生成するための手段は、前記した左指定視点映像Pを生成する手段における左指定視点奥行マップPdに代えて右指定視点奥行マップQdを生成し、左残差奥行マップX’dに代えて右残差奥行マップY’dを用い、左残差映像X’に代えて右残差映像Y’を用いるものである。同様に、左指定視点映像P、穴マスクLh及び左指定視点残差映像Pに代えて、それぞれ右指定視点映像Q、穴マスクRh及び右指定視点残差映像Qを用いる。
(方式E:3型)
方式Eでは、図4の6段目及び図8の3段目に示したように、合成奥行マップGdとして、基準視点(中央視点)におけるワープ化された奥行マップである中央ワープデータCwと、左視点におけるワープ化された奥行マップである左ワープデータLwとが符号化され、合成映像Gとして、2つの視点映像である基準視点映像Cと左視点映像Lとが符号化されている。
方式Eにより多視点映像を合成する多視点映像合成手段25Eは、図18C(b)に示すように、サイズ復元手段255aと、射影手段255bと、射影手段255cと、合成手段255dと、を備えて構成されている。
サイズ復元手段255aは、奥行マップ復号化手段24から復号化合成奥行マップG’dである縮小ワープデータCL’wを入力し、2つの視点におけるワープデータに分離するともに、所定の拡大率で拡大することで元のサイズの中央ワープデータC’w及び左ワープデータL’wを復元する。サイズ復元手段255aは、復元した中央ワープデータC’wを射影手段255bに、左ワープデータL’wを射影手段255cに、それぞれ出力する。
射影手段255bは、サイズ復元手段255aから中央ワープデータC’wを、映像復号化手段23から復号化された合成映像G’の一部である基準視点映像C’を、それぞれ入力し、中央ワープデータC’wを用いて基準視点映像C’を左指定視点に射影した左指定視点映像Pを生成する。射影手段255bは、生成した左指定視点映像Pを合成手段255dに出力する。
なお、ワープデータを用いた映像の射影変換ではオクルージョンは生じないため、射影後の映像である左指定視点映像Pにおいて射影できなかった画素について周囲の画素値を用いて補間することで滑らかな映像を得ることができる。後記する左指定視点映像Pについても同様である。
射影手段255cは、サイズ復元手段255aから左ワープデータL’wを、映像復号化手段23から復号化された合成映像G’の一部である左視点映像L’を、それぞれ入力し、左ワープデータL’wを用いて左視点映像L’を左指定視点に射影した左指定視点映像Pを生成する。射影手段255cは、生成した左指定視点映像Pを合成手段255dに出力する。
合成手段255dは、射影手段255bから左指定視点映像Pを、射影手段255cから左指定視点映像Pを、それぞれ入力し、左指定視点映像P及び左指定視点映像Pについて画素毎に平均値を算出した映像を左指定視点映像Pとして生成する。合成手段255dは、生成した左指定視点映像Pを、例えば、立体映像表示装置4(図1参照)に出力する。
(奥行マップ及び映像を加工しない方式)
複数の視点における奥行マップ及び映像が加工されることなく符号化されている場合は、多視点映像合成手段25は、例えば、図18C(b)に示した方式Eよる多視点映像合成手段25Eにおいて、中央ワープデータC’wに代えて、全体奥行マップである基準視点奥行マップを用いて基準視点映像C’を左指定視点に射影した左指定視点映像Pを生成するとともに、左ワープデータL’wに代えて、全体奥行マップである左視点奥行マップを用いて左視点映像L’を左指定視点に射影した左指定視点映像Pを生成する。そして、左指定視点映像P及び左指定視点映像Pについて画素毎に平均することで合成し、左指定視点映像Pを生成することができる。
なお、左指定視点映像P及び左指定視点映像Pにおいて、オクルージョンホールが生じている場合には、互いに補完するようにすればよい。
以上説明した符号化装置1及び復号化装置2は、それぞれの各構成手段を専用のハードウェア回路を用いて構成することができるが、これに限定されるものではない。これらの装置は、CPU(中央演算装置)、メモリ、ハードディスクや光ディスクなどの記憶装置、通信手段などを備えた一般的なコンピュータを、前記した各構成手段として機能させるプログラム(立体映像符号化プログラム及び立体映像復号化プログラム)を実行させることにより実現することもできる。これらのプログラムは、通信回線を介して配布することも可能であるし、光ディスクなどの記録媒体に書き込んで配布することも可能である。
なお、変形例や後記する他の実施形態についても同様である。
[立体映像符号化装置の動作]
次に、図19を参照(適宜図1及び図2参照)して、第1実施形態に係る立体映像符号化装置1の動作について説明する。
(奥行マップ合成処理)
符号化装置1は、まず、奥行マップ合成手段13によって、外部から入力した奥行型Hdで指示された合成方式(方式A〜方式Eの何れか)を選択して、外部から入力した基準視点奥行マップCd、左視点奥行マップLd、右視点奥行マップRd及びカメラパラメータHcを用いて、合成奥行マップGdを生成する(ステップS11)。
このとき、奥行マップ合成手段13は、合成方式に対応した奥行マップ合成手段13A〜13E(図3A及び図3B参照)によって、合成奥行マップGdを生成する。
なお、奥行型Hdが入力されない場合は、符号化装置1は、奥行マップ合成手段13によって、奥行マップの加工は行わずに、入力した複数の全体奥行マップを、そのままで合成奥行マップGdとする。
(奥行マップ符号化処理)
次に、符号化装置1は、奥行マップ符号化手段14によって、ステップS11で生成した合成奥行マップGdを、例えばプロファイルID=140として予め定められた符号化のツールの組を用いて符号化して、符号化合成奥行マップgdを生成する(ステップS12)。
このとき、選択された合成方式に応じて、符号化合成奥行マップgdとして、図13に示した符号化全体奥行マップのデータ構造D12又は/及び符号化残差奥行マップのデータ構造D13の、1又は2以上のNALUが生成される。
(映像合成処理)
次に、符号化装置1は、奥行マップ符号化手段14によって、ステップS12で生成した符号化合成奥行マップgdを復号化して、復号化合成奥行マップG’dを生成する。また、符号化装置1は、映像合成手段11によって、前記した奥行型Hdで指定された合成方式(方式A〜方式Eの何れか)を選択し、復号化合成奥行マップG’d及び外部から入力したカメラパラメータHcを用いて、基準視点映像Cと左視点映像Lと、又は基準視点映像Cと左視点映像Lと右視点映像Rと、を合成して、合成映像Gを生成する(ステップS13)。
このとき、映像合成手段11は、合成方式に対応した映像合成手段11A〜11C(図7参照)によって、合成映像Gを生成する。
(映像符号化処理)
次に、符号化装置1は、映像符号化手段12によって、ステップS13で生成した合成映像Gを、例えば、基準視点映像Cについては、例えばプロファイルID=100として予め定められた符号化ツールの組を用いて符号化するとともに、残差映像又は左視点映像(非基準視点映像)については、例えばプロファイルID=140として予め定められた符号化ツールの組を用いて符号化することで、符号化合成映像gを生成する(ステップS14)。
このとき、選択された合成方式に応じて、符号化合成映像gとして、図13に示した符号化基準視点映像のデータ構造D10及び符号化残差映像のデータ構造D11の、2以上のNALUが生成される。
(パラメータ符号化処理)
次に、符号化装置1は、パラメータ符号化手段15によって、各種の符号化管理情報Hk、カメラパラメータHc及び奥行型Hdを含むパラメータを、所定の方式で符号化して、符号化パラメータhを生成する(ステップS15)。
このとき、各パラメータは情報種別に応じて、図14に示したデータ構造のNALUが生成される。
ここで、図20を参照して、パラメータ符号化処理(図19のステップS15)について詳細に説明する。
図20に示すように、パラメータ符号化手段15は、基準視点映像についての符号化管理情報Hkの符号化パラメータhとして、図14(a)に示したデータ構造D20のNALUを生成する(ステップS101)。
次に、パラメータ符号化手段15は、残差映像や左視点映像などの非基準視点映像についての符号化管理情報Hkの符号化パラメータhとして、図14(b)に示したデータ構造D21のNALUを生成する(ステップS102)。
次に、パラメータ符号化手段15は、カメラパラメータHcの符号化パラメータhとして、図14(c)に示したデータ構造D22のNALUを生成する(ステップS103)。
次に、パラメータ符号化手段15は、奥行型Hdの符号化パラメータhとして、図14(d)に示したデータ構造D23のNALUを生成する(ステップS104)。
更に他のパラメータがある場合は、所定の方式に従って、パラメータを符号化する。
なお、各パラメータを符号化する順は本例に限定されるものではなく、適宜に順序を入れ替えてもよい。
また、奥行型Hdは、一連のシーケンスにおいて、最初に1回だけ伝送すればよいが、動画映像をランダムアクセス可能にするために、映像及び奥行マップの伝送中に挿入して、例えば24フレーム毎のように定期的に伝送してもよい。また、フレーム毎に変わる可能性のあるカメラパラメータHcは、フレーム毎に符号化ビット列BSに挿入して伝送するようにしてもよい。
図19に戻って、符号化装置1の動作についての説明を続ける。
(多重化処理)
次に、符号化装置1は、多重化手段16によって、ステップS12で生成した符号化合成奥行マップgdと、ステップS14で生成した符号化合成映像gと、ステップS15で生成した符号化パラメータhとを、符号化ビット列BSに多重化して、復号化装置2に伝送する(ステップS16)。
以上のようにして、符号化装置1から復号化装置2に符号化ビット列BSが伝送される。
[立体映像復号化装置の動作]
次に、図21を参照(適宜図1及び図16参照)して、第1実施形態に係る立体映像復号化装置2の動作について説明する。
(分離処理)
図21に示すように、まず、復号化装置2は、分離手段21によって、符号化装置1から符号化ビット列BSを入力し、入力した符号化ビット列BSを情報の単位であるNALU毎に分離して、各NALUに含まれる情報種別に応じて各構成手段に出力する(ステップS21)。
より詳細には、分離手段21は、各NALUの開始コードの後に有するNALU型の値を検出し、検出したNALU型の値に応じて当該NALUの出力先を決定する。
具体的には、NALU型の値が「5」又は「1」である符号化基準視点映像についてのNALU及びNALU型の値が「20」である符号化残差映像についてのNALUは、符号化合成映像gとして、映像復号化手段23に出力される。
また、NALU型の値が「21」である符号化全体奥行マップ又は符号化残差奥行マップについてのNALUは、符号化合成奥行マップgdとして、奥行マップ復号化手段24に出力される。
また、NALU型の値が「6」、「7」又は「15」であるNALUは、符号化パラメータhとして、パラメータ復号化手段22に出力される。
また、図13に示したNALU型の値が「0」であるデータ構造D14及びデータ構造D15のNALUについては、分離手段21は、値が「0」のNALU型D141及びNALU型D151を削除し、それぞれデータ構造D10及びデータ構造D11のNALUに変換して、奥行マップ復号化手段24に出力する。すなわち、分離手段21は、NALU型の値が「0」のNALUを、NALU型の値が「5」、「1」又は「20」のNALUに変換して奥行マップ復号化手段24に出力する。
(パラメータ復号化処理)
次に、復号化装置2は、パラメータ復号化手段22によって、ステップS21で分離された符号化パラメータhを復号化し、復号化したパラメータを情報種別に応じて各構成手段に出力する(ステップS22)。
ここで、図22を参照して、パラメータ復号化処理(図21のステップS22)について詳細に説明する。
なお、図22に示した例では、説明を簡略化するために、本発明において直接に必要となるパラメータのみを抽出するように説明するが、所定の規格に準拠し、他のパラメータについてもNALU型やペイロード型などに基づいて適切に抽出するものとする。
図22に示すように、パラメータ復号化手段22は、符号化パラメータhとして入力されたNALUが有するNALU型を検出し、NALU型の値が「7」かどうかを確認する(ステップS201)。ここで、NALU型の値が「7」の場合は(ステップS201でYes)、パラメータ復号化手段22は、NALU型の後に有するプロファイルIDを検出し、プロファイルIDの値が「100」かどうかを確認する(ステップS202)。
プロファイルIDの値が「100」の場合は(ステップS202でYes)、一連の符号化ビット列BSに含まれる符号化基準視点映像が、復号化可能な所定の符号化ツールの組で符号化されていることが確認できたので、パラメータ復号化手段22は、当該NALUに含まれる符号化基準視点映像についてのその他の符号化管理情報Hkを抽出する(ステップS203)。パラメータ復号化手段22は、プロファイルIDを含めて、抽出した符号化管理情報Hkを映像復号化手段23及び奥行マップ復号化手段24に出力する。
一方、プロファイルIDの値が「100」でなかった場合は(ステップS202でNo)、復号化装置2は、符号化基準視点映像を復号化できないため、復号化処理を中止する。これによって、復号化装置2の誤動作を防止することができる。
また、NALU型の値が「7」でない場合は(ステップS201でNo)、パラメータ復号化手段22は、NALU型の値が「15」かどうかを確認する(ステップS204)。ここで、NALU型の値が「15」の場合は(ステップS204でYes)、パラメータ復号化手段22は、NALU型の後に有するプロファイルIDを検出し、プロファイルIDの値が「118」、「128」、「138」、「139」又は「140」かどうかを確認する(ステップS205)。
プロファイルIDの値が「118」、「128」、「138」、「139」又は「140」の場合は(ステップS205でYes)、一連の符号化ビット列BSに含まれる基準視点映像以外の映像(非基準視点映像)に係る情報である符号化残差映像、符号化全体奥行マップ及び符号化残差奥行マップが、復号化可能な所定の符号化ツールの組で符号化されていることが確認できたので、パラメータ復号化手段22は、当該NALUに含まれる非基準視点映像についてのその他の符号化管理情報Hkを抽出する(ステップS206)。パラメータ復号化手段22は、プロファイルIDを含めて、抽出した符号化管理情報Hkを映像復号化手段23及び奥行マップ復号化手段24に出力する。
なお、プロファイルIDの値が「118」、「128」、「138」又は「139」の場合は、非基準視点映像についての符号化に使用された符号化ツールの組が、前記した奥行マップ及び映像の合成方式がサポートされない旧規格に基づいて定められたものであって、奥行マップ及び非基準視点における映像が、加工されることなく多視点の奥行マップ及び映像として符号化されていることを示すものである。
また、プロファイルIDの値が「140」の場合は、前記した合成方式(方式A〜方式Eの何れか)によって奥行マップ及び映像が符号化されていることを示すものである。なお、プロファイルIDの値が「140」の場合は、合成方式を示す奥行型Hdが、更に別のNALUとして伝送される。
一方、プロファイルIDの値が「118」、「128」、「138」、「139」又は「140」でなかった場合は(ステップS205でNo)、復号化装置2は、奥行マップ及び非基準視点映像についての符号化情報を復号化できないため、復号化処理を中止する。これによって、復号化装置2の誤動作を防止することができる。
また、NALU型の値が「15」でない場合は(ステップS204でNo)、パラメータ復号化手段22は、NALU型の値が「6」かどうかを確認する(ステップS207)。ここで、NALU型の値が「6」の場合は(ステップS207でYes)、パラメータ復号化手段22は、NALU型の後に有するペイロード型を検出し、ペイロード型の値が「50」かどうかを確認する(ステップS208)。
ペイロード型の値が「50」の場合は(ステップS208でYes)、パラメータ復号化手段22は、当該NALUに含まれるカメラパラメータHcを抽出する(ステップS209)。パラメータ復号化手段22は、抽出したカメラパラメータHcを多視点映像合成手段25に出力する。
一方、ペイロード型の値が「50」でなかった場合は(ステップS208でNo)、パラメータ復号化手段22は、ペイロード型の値が「53」かどうかを確認する(ステップS210)。
ペイロード型の値が「53」の場合は(ステップS210でYes)、パラメータ復号化手段22は、当該NALUに含まれる奥行型Hdを抽出する(ステップS211)。パラメータ復号化手段22は、抽出した奥行型Hdを多視点映像合成手段25に出力する。
一方、ペイロード型の値が「53」でなかった場合は(ステップS210でNo)、復号化装置2は、自己にとって未知のペイロード型であるかどうかを確認し、未知の場合は、このNALUを無視する。
また、NALU型の値が「6」でない場合(ステップS207でNo)、復号化装置2は、自己にとって未知のNALU型でない限り、復号化処理を継続する。
なお、前記した奥行マップ及び映像の合成方式がサポートされない旧規格に準拠する復号化装置においては、プロファイルIDの値が「118」、「128」、「138」又は「139」の場合は、奥行マップ及び非基準視点映像の復号化処理を続行することができる。一方、プロファイルIDの値が「140」の場合は、旧規格に準拠する復号化装置にとって未知の符号化ツールの組を使用しているため、奥行マップ及び非基準視点映像についての復号化処理を行わないようにする。これによって、旧規格に準拠する復号化装置の誤動作を防止するとともに、前方互換性を保つことができる。
また、プロファイルIDの値が「140」の場合であっても、基準視点映像についてのプロファイルIDの値が「100」である場合は、旧規格に準拠する復号化装置は、基準視点映像についての復号化処理を続行して1視点映像として利用することができ、前方互換性を保つことができる。
更にまた、複数の視点映像の符号化をサポートしない、更に古い規格に準拠した復号化装置においては、プロファイルIDが「118」、「128」、「138」、「139」又は「140」の場合には、奥行マップ及び非基準視点映像についての情報を未知の情報として復号化処理せずに、基準視点映像についての復号化処理のみを続行する。これによって、復号化した基準視点映像を1視点映像として利用することができ、前方互換性を保つことができる。
図21に戻って、復号化装置2の動作について説明を続ける。
(映像復号化処理)
次に、復号化装置2は、映像復号化手段23によって、ステップS22で検出したプロファイルIDの値で示された符号化ツールの組(符号化方式)により、ステップS21で分離された符号化合成映像gを復号化することで、復号化合成映像G’を生成する(ステップS23)。
このとき、映像復号化手段23は、符号化合成映像gをNALU毎に復号化する。ここで、NALU型の値が「5」又は「1」のNALUについて、映像復号化手段23は、ステップS203(図22参照)で抽出されたプロファイルID(値が「100」)を含む符号化管理情報Hkで示される符号化方式により、符号化されている基準視点映像を復号化することで、基準視点映像C’を生成する。
また、NALU型の値が「20」のNALUについて、映像復号化手段23は、ステップS206(図22参照)で抽出されたプロファイルID(値が「118」、「128」、「138」、「139」又は「140」)を含む符号化管理情報Hkで示される符号化方式により、符号化されている非基準視点についての映像を復号化することで、左視点映像L’や左縮小残差映像X’等を生成する。
(奥行マップ復号化処理)
次に、復号化装置2は、奥行マップ復号化手段24によって、ステップS22で検出したプロファイルIDの値で示された符号化ツールの組(符号化方式)により、ステップS21で分離された符号化合成奥行マップgdを復号化することで、復号化合成奥行マップG’dを生成する(ステップS24)。
このとき、奥行マップ復号化手段24は、符号化合成奥行マップgdをNALU毎に復号化する。ここで、NALU型の値が「21」のNALUについて、奥行マップ復号化手段24は、ステップS206(図22参照)で抽出されたプロファイルID(値が「138」、「139」又は「140」)を含む符号化管理情報Hkで示される符号化方式により、符号化合成奥行マップgdを復号化することで、復号化合成奥行マップG’dを生成する。
また、奥行マップ復号化手段24は、NALU型の値が「5」、「1」又は「20」のNALUについては、ステップS206(図22参照)で抽出されたプロファイルID(値が「118」又は「128」)を含む符号化管理情報Hkで示される符号化方式により、符号化合成奥行マップgdを復号化することで、復号化合成奥行マップG’dを生成する。
(多視点映像合成処理)
次に、復号化装置2は、多視点映像合成手段25によって、ステップS211で抽出した奥行型Hdで示される合成方式に従って、ステップS209(図22参照)で抽出したカメラパラメータHcと、ステップS23で復号化した合成映像G’と、ステップS24で復号化した合成奥行マップG’dと、を用いて、多視点映像を合成する(ステップS25)。
このとき、多視点映像合成手段25は、奥行型Hdで指示された合成方式(方式A〜方式E)に対応した多視点映像合成手段25A〜25E(図18A〜図18C参照)によって、多視点映像P,Qなどを合成する。
以上説明したように、第1実施形態に係る立体映像伝送システムSは、映像及び奥行マップの合成方式を示す奥行型を、合成映像及び合成奥行マップとは別の単位情報(NALU)であって、復号化と表示のための補助情報であるSEIメッセージとして、符号化ビット列に多重化して伝送する。このため、復号化装置2側では、データ量の少ない補助情報であるSEIメッセージを先に復号化して奥行型を識別してから、データ量の多い合成映像及び合成奥行マップを適切に復号化することができる。
多視点映像をサポートしていない旧規格に準拠した復号化装置がこのような符号化ビット列を受信した場合は、その復号化装置が認識できない符号化奥行マップなどを非対応の情報として無視することで、誤動作を防止することができる。
また、基準視点映像、又は基準視点映像及び他の視点の映像など、準拠する旧規格に応じて、その復号化装置が対応可能な範囲で適切に復号化することができ、2次元映像、又は自由視点への射影を伴わない多視点映像として利用することができる。すなわち、前方互換性を保つことができる。
また、非基準視点映像及び奥行マップについては、基準視点映像であることを示す識別情報(NALU型=5)に代えて、基準視点映像とは異なる種別であることを示す識別情報(NALU型=20,21)を付加し、合成方式を示す情報である奥行型については、映像情報とは別の補助情報として符号化して伝送する。すなわち、映像、奥行マップについてのNALUのデータ構造が従来の基準視点映像と同じであるため、同じ符号化ツールを用いて符号化及び復号化することができる。
<第2実施形態>
次に、本発明の第2実施形態に係る立体映像符号化装置及び立体映像復号化装置を含んだ立体映像伝送システムの構成について説明する。
第2実施形態に係る立体映像符号化装置及び立体映像復号化装置を含んだ立体映像伝送システムは、合成方式を示す奥行型を、復号化された映像の表示のための補助情報のパラメータとして符号化するものである。
この補助情報は、MPEG−4 AVC符号化規格においては、MVC_VUI(Multiview Video Coding_Video Usability Information:映像利便情報)に相当するものである。当該符号化規格において、MVC_VUIは、非基準視点映像についての符号化管理情報であるS_SPSとして符号化されるパラメータ群の1つである。また、MVC_VUIは、複数のパラメータ群を含むことができる。
図14(e)を参照して、奥行型情報を含む符号化パラメータであるMVC_VUIのデータ構造について説明する。
図14(e)に示すように、この符号化パラメータのデータ構造D24は、先頭に開始コードD100を有し、S_SPSであることを識別する識別情報として、値が「15」のNALU型D241を有する。その次に、非基準視点映像についての符号化に使用した符号化ツールの組を示すプロファイルID(D242)として、値「118」、「128」、「138」、「139」又は「140」が設定される。そして、その次にMVC_VUIについてのパラメータを有するかどうかを示す識別情報として、MVC_VUIフラグD243を有する。このMVC_VUIフラグD243は「0」又は「1」の値をとり、「0」の場合は、MVC_VUIについてのパラメータを有さない。すなわち、MVC_VUIフラグD243の次には、次のパラメータ群について、その有無を示す同様のフラグが配列される。
MVC_VUIフラグD243が「1」の場合は、当該フラグの後にMVC_VUIのパラメータ群が配列される。図14(e)に示した例では、最初のパラメータ群として、奥行型を有するかどうかを示す識別情報として、奥行型フラグD244を有している。この奥行型フラグD244は「0」又は「1」の値をとり、「0」の場合は、奥行型についてのパラメータを有さない。すなわち、奥行型フラグの次には、次のパラメータ群についての同様のフラグが配列される。このように構成することにより、伝送する必要のないパラメータについては、パラメータを有さないこと示すフラグとして、1ビットのデータ「0」を配列するだけで済む。
この例のように、奥行型フラグD244が「1」の場合は、当該フラグの後に奥行型のパラメータとして、奥行型の値D245が配列される。本実施形態では、奥行型の値D245として「0」,「1」,「2」,「3」,「4」の何れかが設定され、図15に示したように、それぞれの値に対応して、合成方式が方式A〜方式Eの何れであるかを示している。
なお、図14(e)に示した例では、MVC_VUIのパラメータ群として、奥行型情報D244,D245のみを示したが、複数のパラメータ群が所定の順序で配列される。従って、MVC_VUIから奥行型の情報D244,D245を抽出するためには、奥行型情報D244,D245よりも前に配列されるすべてのパラメータ群を先に復号化することとなる。
また、S_SPSのNALUは、MVC_VUIのパラメータ群の後に、更にその他の非基準視点映像についての符号化管理情報D246を有しており、MVC_VUIのパラメータ群に続いて順次に復号化される。
本実施形態のようにパラメータ群の配列順序を予め定めておくことにより、例えば、第1実施形態においてSEIメッセージとして奥行型を個別のNALUとして伝送する場合に対して、個々のパラメータ群を識別するための識別情報(例えば、ペイロード型)に固有の値を割当てる必要がない。このため、新規にパラメータを追加しやすいという利点がある。
なお、第2実施形態は、第1実施形態とは、前記したように、奥行型の符号化方法が異なるだけである。すなわち、図2に示したパラメータ符号化手段15における奥行型の符号化方法と、図16に示したパラメータ復号化手段22における奥行型の抽出方法とが異なり、他の構成については第1実施形態と同様であるから、詳細な構成についての説明は省略する。
[立体映像符号化装置の動作]
次に、図2、図19及び図20を参照して、第2実施形態に係る符号化装置1の動作について説明する。
第2実施形態に係る符号化装置1は、図19に示したように、第1実施形態に係る符号化装置1と同様にして、ステップS11からステップS14までの処理を行う。
(パラメータ符号化処理)
次に、符号化装置1は、パラメータ符号化手段15によって、各種の符号化管理情報Hk、カメラパラメータHc及び奥行型Hdを含むパラメータを、所定の方式で符号化して、符号化パラメータhを生成する(ステップS15)。
このとき、符号化装置1は、図20に示したステップS104において、パラメータ符号化手段15によって、奥行型Hdを含むパラメータを符号化し、図14(e)に示したデータ構造D24のNALUを生成する。また、このNALUにおいて、奥行型Hdは、他のパラメータ群とともに、予め定められた順序で配列される。
なお、奥行型Hdを含むNALUは、非基準視点映像についての符号化管理情報Hkを伝送するためのNALUと同じNALU型である。当該NALU型においては、予め定められた複数のパラメータ群を1つのNALUに含めることができる。このため、ステップS102で生成するNALUに奥行型Hdを含めるようにしてもよい。
他のパラメータについては、第1実施形態と同様であるから説明は省略する。
(多重化処理)
次に、符号化装置1は、多重化手段16によって、第1実施形態と同様にして、ステップS12で生成した符号化合成奥行マップgdと、ステップS14で生成した符号化合成映像gと、ステップS15で生成した符号化パラメータhとを、符号化ビット列BSに多重化して、復号化装置2に伝送する(ステップS16)。
[立体映像復号化装置の動作]
次に、図21及び図23を参照(適宜図1及び図16参照)して、第2実施形態に係る立体映像復号化装置2の動作について説明する。なお、第1実施形態と同様の動作をする処理については、説明を適宜に省略する。
(分離処理)
図21に示したように、まず、復号化装置2は、分離手段21によって、第1実施形態と同様にして、符号化装置1から符号化ビット列BSを入力し、入力した符号化ビット列BSを情報の単位であるNALU毎に分離して、各NALUに含まれる情報種別に応じて各構成手段に出力する(ステップS21)。
(パラメータ復号化処理)
次に、復号化装置2は、パラメータ復号化手段22によって、ステップ21で分離された符号化パラメータhを復号化し、復号化したパラメータを情報種別に応じて各構成手段に出力する(ステップS22)。
なお、ステップS23からステップS25は、第1実施形態と同様であるから、説明を省略する。
ここで、図23を参照して、パラメータ復号化処理(図21のステップS22)について詳細に説明する。
図23に示すように、パラメータ復号化手段22は、符号化パラメータhとして入力されたNALUが有するNALU型を検出し、NALU型の値が「7」かどうかを確認する(ステップS301)。ここで、NALU型の値が「7」の場合は(ステップS301でYes)、パラメータ復号化手段22は、NALU型の後に有するプロファイルIDを検出し、プロファイルIDの値が「100」かどうかを確認する(ステップS302)。
プロファイルIDの値が「100」の場合は(ステップS302でYes)、一連の符号化ビット列BSに含まれる符号化基準視点映像が、復号化可能な所定の符号化ツールの組で符号化されていることが確認できたので、パラメータ復号化手段22は、当該NALUに含まれる符号化基準視点映像についてのその他の符号化管理情報Hkを抽出する(ステップS303)。パラメータ復号化手段22は、プロファイルIDを含めて、抽出した符号化管理情報Hkを映像復号化手段23及び奥行マップ復号化手段24に出力する。
一方、プロファイルIDの値が「100」でなく、自己が復号化できない方式を示す値であった場合は(ステップS302でNo)、復号化装置2は、符号化基準視点映像を復号化できないため、復号化処理を中止する。これによって、復号化装置2の誤動作を防止することができる。
また、NALU型の値が「7」でない場合は(ステップS301でNo)、パラメータ復号化手段22は、NALU型の値が「15」かどうかを確認する(ステップS304)。ここで、NALU型の値が「15」の場合は(ステップS304でYes)、パラメータ復号化手段22は、NALU型の後に有するプロファイルIDを検出し、プロファイルIDの値が「118」、「128」、「138」、「139」又は「140」かどうかを確認する(ステップS305)。
プロファイルIDの値が「118」、「128」、「138」、「139」又は「140」の場合は(ステップS305でYes)、一連の符号化ビット列BSに含まれる基準視点映像以外の映像(非基準視点映像)に係る情報である符号化残差映像、符号化全体奥行マップ及び符号化残差奥行マップが、復号化可能な所定の符号化ツールの組で符号化されていることが確認できたので、パラメータ復号化手段22は、当該NALUに含まれる非基準視点映像についてのその他の符号化管理情報Hkを抽出する(ステップS306)。パラメータ復号化手段22は、プロファイルIDを含めて、抽出した符号化管理情報Hkを映像復号化手段23及び奥行マップ復号化手段24に出力する。
本実施形態においては、奥行型HdはNALU型の値が「15」のNALUに含めて伝送される。従って、奥行型Hdの抽出処理は、非基準視点映像についての符号化管理情報Hkについての一連の抽出処理の一部として行われる。ここでは、便宜的に、奥行型Hdが含まれるMVC_VUIより前に配列されているパラメータ群が抽出され、続いてMVC_VUIから奥行型Hdを抽出するものとして説明する。
なお、図14(e)に示したデータ構造D24のように、MVC_VUIの後に、非基準視点映像についてのその他の符号化管理情報が配列される場合には、奥行型Hdを含めたMVC_VUIのパラメータ群を抽出した後に、その他の符号化管理情報を抽出するようにすればよい。
MVC_VUIよりも前に配列されているパラメータ群の抽出処理(前記ステップS306)に続いて、パラメータ復号化手段22は、MVC_VUIフラグの値が「1」かどうかを確認する(ステップS307)。MVC_VUIフラグの値が「1」の場合は(ステップS307でYes)、パラメータ復号化手段22は、MVC_VUIに予め定められた順序で配列されているパラメータ群の抽出を行い、奥行型情報が配列されパラメータ群についてのフラグである奥行型フラグの値が「1」かどうかを確認する(ステップS308)。奥行型フラグの値が「1」の場合は(ステップS308でYes)、パラメータ復号化手段22は、奥行型フラグの次に配列されている奥行型Hdの値を抽出する(ステップS309)。パラメータ復号化手段22は、抽出した奥行型Hdを多視点映像合成手段25に出力する。
一方、奥行型フラグの値が「0」の場合は(ステップS308でNo)、奥行型Hdが含まれないため、パラメータ復号化手段22は、このNALUについての処理を終了する。
なお、多視点映像合成手段25は、パラメータ復号化手段22から奥行型Hdが入力されなかった場合は、奥行マップ及び映像の合成方式として、「加工なし」が選択されているものとして合成奥行マップ及び合成映像を取り扱うものとする。
また、奥行型フラグの値が「0」の場合に、パラメータ復号化手段22は、奥行型フラグの値が「0」であること示す情報を多視点映像合成手段25に出力し、奥行マップ及び映像の合成方式として、「加工なし」が選択されていることを明示的に示すようにしてもよい。
また、MVC_VUIフラグの値が「0」の場合は(ステップS307でNo)、このNALUにはMVC_VUIのパラメータ群がないため、パラメータ復号化手段22は、このNALUについての処理を終了する。
一方、プロファイルIDの値が「118」、「128」、「138」、「139」又は「140」でなかった場合は(ステップS305でNo)、復号化装置2は、奥行マップ及び非基準視点映像についての符号化情報を復号化できないため、復号化処理を中止する。これによって、復号化装置2の誤動作を防止することができる。
また、NALU型の値が「15」でない場合は(ステップS304でNo)、パラメータ復号化手段22は、NALU型の値が「6」かどうかを確認する(ステップS310)。ここで、NALU型の値が「6」の場合は(ステップS310でYes)、パラメータ復号化手段22は、NALU型の後に有するペイロード型を検出し、ペイロード型の値が「50」かどうかを確認する(ステップS311)。
ペイロード型の値が「50」の場合は(ステップS311でYes)、パラメータ復号化手段22は、当該NALUに含まれるカメラパラメータHcを抽出する(ステップS312)。パラメータ復号化手段22は、抽出したカメラパラメータHcを多視点映像合成手段25に出力する。
一方、ペイロード型の値が「50」でなく、未知の値であった場合は(ステップS311でNo)、復号化装置2は、自己にとって未知のペイロード型であるため、これを無視する。
また、NALU型の値が「6」でない場合(ステップS310でNo)、復号化装置2は、自己にとって未知のNALU型でない限り、復号化を継続する。
なお、図23に示した例では、説明を簡単にするために、本発明において直接に必要となるパラメータのみを抽出するように説明したが、所定の規格に準拠し、他のパラメータについてもNALU型やペイロード型などに基づいて適切に抽出するものとする。
また、本発明によれば、多数の視点映像を必要とする裸眼立体映像を、少数の視点映像と、その奥行マップとして、効率良く圧縮符号化して伝送でき、高能率かつ高品質な立体映像を低コストで提供することが可能となる。従って、本発明を用いた立体映像蓄積・伝送装置やサービスは、多数の視点映像を必要とする裸眼立体映像であっても、容易にデータを蓄積・伝送可能であるとともに、高品質な立体映像を提供することができる。
また、本発明は、立体テレビ放送や立体映像レコーダ、立体映画、立体映像を用いた教育機器や展示機器、インターネットサービスなどに広く用いて、その効果を発揮することができる。更に、本発明は、視聴者が自由に視点位置を変えられる自由視点テレビや自由視点映画に用いても、その効果を発揮することができる。
また、本発明の立体映像符号化装置で生成された多視点映像は、多視点映像を復号化できない既存の復号化装置であっても、1視点映像として利用することができる。
1 立体映像符号化装置
11 映像合成手段
11A 映像合成手段
11B 映像合成手段
11C 映像合成手段
12 映像符号化手段
13 奥行マップ合成手段
13A 奥行マップ合成手段
13B 奥行マップ合成手段
13C 奥行マップ合成手段
13D 奥行マップ合成手段
13E 奥行マップ合成手段
14 奥行マップ符号化手段
15 パラメータ符号化手段
16 多重化手段
2 立体映像復号化装置
21 分離手段
22 パラメータ復号化手段
23 映像復号化手段
24 奥行マップ復号化手段
25 多視点映像合成手段
25A 多視点映像合成手段
25B 多視点映像合成手段
25C 多視点映像合成手段
25D 多視点映像合成手段
25E 多視点映像合成手段
D100 開始コード
D101 NALU型(第1識別情報)
D111 NALU型(第1識別情報)
D121 NALU型(第2識別情報)
D131 NALU型(第2識別情報)
D211 NALU型(第8識別情報)
D212 プロファイルID(第5識別情報)
D231 NALU型(第4識別情報、第6識別情報)
D232 ペイロード型(第4識別情報、第7識別情報)
D233 奥行型(第3識別情報)
D241 NALU型(第4識別情報、第8識別情報)
D242 プロファイルID(第5識別情報)
D243 MVC_VUIフラグ(第4識別情報)
D244 奥行型フラグ(第4識別情報)
D245 奥行型(第3識別情報)

Claims (14)

  1. 複数の視点における映像の組である多視点映像を、複数種類の所定の映像合成方式の内の何れか1つの方式によって合成した合成映像と、前記多視点映像に付随し、前記多視点映像の視点間の視差である奥行値の画素毎の情報のマップである奥行マップを複数種類の所定の奥行マップ合成方式の内の何れか1つの方式によって合成した合成奥行マップと、を符号化し、所定単位毎に、当該所定単位の情報種別を識別する識別情報を付加して、一連の符号化ビット列を生成する立体映像符号化装置であって、
    前記多視点映像を、前記複数種類の所定の映像合成方式の内の何れか1つの方式によって合成することで、符号化の対象である前記合成映像を生成する映像合成手段と、
    前記合成映像を符号化し、符号化された合成映像であることを識別する第1識別情報を付加した符号化合成映像を生成する映像符号化手段と、
    前記多視点映像に付随する複数の奥行マップを、前記複数種類の所定の奥行マップ合成方式の内の何れか1つの方式によって合成することで、符号化の対象である前記合成奥行マップを生成する奥行マップ合成手段と、
    前記合成奥行マップを符号化し、符号化された合成奥行マップであることを識別する第2識別情報を付加して符号化合成奥行マップを生成する奥行マップ符号化手段と、
    前記合成映像の合成に用いた映像合成方式及び前記合成奥行マップの合成に用いた奥行マップ合成方式を識別する第3識別情報を、映像の復号化又は映像の表示のために用いられる補助情報のパラメータとして符号化し、符号化された前記補助情報であることを識別する第4識別情報を付加して符号化パラメータを生成するパラメータ符号化手段と、
    前記符号化合成奥行マップと、前記符号化合成映像と、前記符号化パラメータとを多重化して前記一連の符号化ビット列を生成する多重化手段と、
    を備えることを特徴とする立体映像符号化装置。
  2. 前記映像符号化手段は、前記複数の視点の内から基準視点として定めた映像である基準視点映像と、前記基準視点以外の視点における映像である非基準視点映像とについて、それぞれ異なる前記所定単位として符号化し、前記第1識別情報として、前記基準視点映像についての所定単位と、前記非基準視点映像についての所定単位とで、互いに異なる固有値を付加することを特徴とする請求項1に記載の立体映像符号化装置。
  3. 前記パラメータ符号化手段は、前記合成奥行マップ及び前記合成映像を符号化した際に用いた符号化ツールの組を識別する第5識別情報を、前記補助情報の更なるパラメータとして符号化することを特徴とする請求項1又は請求項2に記載の立体映像符号化装置。
  4. 前記第3識別情報は、
    前記所定単位に1種類の情報及びこの情報に付随する情報のみが含まれる第1型の補助情報として符号化され、
    前記第4識別情報として、
    前記第1型の補助情報であることを識別する第6識別情報と、
    前記第3識別情報が含まれることを識別する第7識別情報と、を付加して符号化されることを特徴とする請求項1又は請求項2に記載の立体映像符号化装置。
  5. 前記第3識別情報は、
    前記所定単位に1種類の情報及びこの情報に付随する情報のみが含まれる第1型の補助情報として符号化され、
    前記第4識別情報として、
    前記第1型の補助情報であることを識別する第6識別情報と、
    前記第3識別情報が含まれることを識別する第7識別情報と、を付加して符号化され、
    前記第5識別情報は、前記所定単位に所定の複数種類の情報が含まれる第2型の補助情報として符号化され、
    前記第2型の補助情報であることを識別する第8識別情報を付加して符号化されることを特徴とする請求項3に記載の立体映像符号化装置。
  6. 複数の視点における映像の組である多視点映像を、複数種類の所定の映像合成方式の内の何れか1つの方式によって合成した合成映像と、前記多視点映像に付随し、前記多視点映像の視点間の視差である奥行値の画素毎の情報のマップである奥行マップを複数種類の所定の奥行マップ合成方式の内の何れか1つの方式によって合成した合成奥行マップと、前記合成映像の合成に用いた映像合成方式及び前記合成奥行マップの合成に用いた奥行マップ合成方式を識別する情報を含む補助情報と、が符号化され、所定単位毎に、当該所定単位の情報種別を識別する識別情報を付加して多重化された符号化ビット列を復号化して得られる復号化合成映像、復号化合成奥行マップ、及び前記補助情報を用いて、多視点映像を合成する立体映像復号化装置であって、
    前記符号化ビット列は、前記所定単位毎に、符号化された前記合成映像に、前記符号化された合成映像であることを識別する第1識別情報が付加された符号化合成映像と、符号化された前記合成奥行マップに、前記符号化された合成奥行マップであることを識別する第2識別情報が付加された符号化合成奥行マップと、前記合成映像の合成に用いた映像合成方式及び前記合成奥行マップの合成に用いた奥行マップ合成方式を識別する第3識別情報が、映像の復号化又は映像の表示のために用いられる補助情報のパラメータとして符号化され、符号化された前記補助情報であることを識別する第4識別情報が付加された符号化パラメータと、が多重化されており、
    前記所定単位毎に、前記第1識別情報を有する単位を前記符号化合成映像として、前記第2識別情報を有する単位を前記符号化合成奥行マップとして、前記第4識別情報を有する単位を前記符号化パラメータとして、それぞれ分離する分離手段と、
    前記符号化パラメータから、前記第3識別情報を復号化するパラメータ復号化手段と、
    前記符号化合成映像を復号化して、前記復号化合成映像を生成する映像復号化手段と、
    前記符号化合成奥行マップを復号化して、前記復号化合成奥行マップを生成する奥行マップ復号化手段と、
    前記パラメータ復号化手段が生成した前記第3識別情報に従って、前記復号化合成映像及び前記復号化合成奥行マップを用いて、複数の視点における映像を合成する多視点映像合成手段と、
    を備えることを特徴とする立体映像復号化装置。
  7. 前記符号化合成映像は、前記複数の視点の内から基準視点として定めた映像である基準視点映像と、前記基準視点以外の視点における映像である非基準視点映像とについて、それぞれ異なる前記所定単位として符号化され、前記第1識別情報として、前記基準視点映像についての所定単位と、前記非基準視点映像についての所定単位とで、互いに異なる固有値が付加されていることを特徴とする請求項6に記載の立体映像復号化装置。
  8. 前記符号化パラメータは、前記合成奥行マップ及び前記合成映像を符号化した際に用いた符号化ツールの組を識別する第5識別情報が、前記補助情報の更なるパラメータとして符号化されており、
    前記パラメータ復号化手段は、前記符号化パラメータから、更に前記第5識別情報を復号化し、
    前記映像復号化手段は、前記パラメータ復号化手段が復号化した前記第5識別情報が、前記合成映像が復号化可能な符号化ツールの組によって符号化されたことを示す場合は、前記符号化合成映像を復号化し、前記第5識別情報が、前記合成映像が復号化可能な符号化ツールの組によって符号化されたことを示さない場合は、前記符号化合成映像を復号化しないことを特徴とする請求項6又は請求項7に記載の立体映像復号化装置。
  9. 前記第3識別情報は、前記所定単位に1種類の情報及びこの情報に付随する情報のみが含まれる第1型の補助情報として符号化され、
    前記第4識別情報として、前記第1型の補助情報であることを識別する第6識別情報と、前記第3識別情報が含まれることを識別する第7識別情報と、が付加されて符号化されており、
    前記分離手段は、前記所定単位が前記第6識別情報を有する場合に、当該所定単位を前記符号化パラメータとして分離し、
    前記パラメータ復号化手段は、前記第6識別情報を有する符号化パラメータが、前記第7識別情報を有する場合に、当該符号化パラメータから前記第3識別情報を復号化することを特徴とする請求項6又は請求項7に記載の立体映像復号化装置。
  10. 前記第3識別情報は、前記所定単位に1種類の情報及びこの情報に付随する情報のみが含まれる第1型の補助情報として符号化され、
    前記第4識別情報として、前記第1型の補助情報であることを識別する第6識別情報と、前記第3識別情報が含まれることを識別する第7識別情報と、が付加されて符号化され、
    前記第5識別情報は、前記所定単位に所定の複数種類の情報が含まれる第2型の補助情報として符号化され、かつ、前記第2型の補助情報であることを識別する第8識別情報が付加されて符号化されており、
    前記分離手段は、前記所定単位が前記第6識別情報又は前記第8識別情報を有する場合に、当該所定単位を前記符号化パラメータとして分離し、
    前記パラメータ復号化手段は、前記第6識別情報を有する符号化パラメータが、前記第7識別情報を有する場合に、当該符号化パラメータから前記第3識別情報を復号化するとともに、前記第8識別情報を有する符号化パラメータから前記第5識別情報を復号化することを特徴とする請求項8に記載の立体映像復号化装置。
  11. 複数の視点における映像の組である多視点映像を、複数種類の所定の映像合成方式の内の何れか1つの方式によって合成した合成映像と、前記多視点映像に付随し、前記多視点映像の視点間の視差である奥行値の画素毎の情報のマップである奥行マップを複数種類の所定の奥行マップ合成方式の内の何れか1つの方式によって合成した合成奥行マップと、を符号化し、所定単位毎に、当該所定単位の情報種別を識別する識別情報を付加して、一連の符号化ビット列を生成する立体映像符号化方法であって、
    前記多視点映像を、前記複数種類の所定の映像合成方式の内の何れか1つの方式によって合成することで、符号化の対象である前記合成映像を生成する映像合成処理ステップと、
    前記合成映像を符号化し、符号化された合成映像であることを識別する第1識別情報を付加した符号化合成映像を生成する映像符号化処理ステップと、
    前記多視点映像に付随する複数の奥行マップを、前記複数種類の所定の奥行マップ合成方式の内の何れか1つの方式によって合成することで、符号化の対象である前記合成奥行マップを生成する奥行マップ合成処理ステップと、
    前記合成奥行マップを符号化し、符号化された合成奥行マップであることを識別する第2識別情報を付加して符号化合成奥行マップを生成する奥行マップ符号化処理ステップと、
    前記合成映像の合成に用いた映像合成方式及び前記合成奥行マップの合成に用いた奥行マップ合成方式を識別する第3識別情報を、映像の復号化又は映像の表示のために用いられる補助情報のパラメータとして符号化し、符号化された前記補助情報であることを識別する第4識別情報を付加して符号化パラメータを生成するパラメータ符号化処理ステップと、
    前記符号化合成奥行マップと、前記符号化合成映像と、前記符号化パラメータとを多重化して前記一連の符号化ビット列を生成する多重化処理ステップと、
    を含むことを特徴とする立体映像符号化方法。
  12. 複数の視点における映像の組である多視点映像を、複数種類の所定の映像合成方式の内の何れか1つの方式によって合成した合成映像と、前記多視点映像に付随し、前記多視点映像の視点間の視差である奥行値の画素毎の情報のマップである奥行マップを複数種類の所定の奥行マップ合成方式の内の何れか1つの方式によって合成した合成奥行マップと、前記合成映像の合成に用いた映像合成方式及び前記合成奥行マップの合成に用いた奥行マップ合成方式を識別する情報を含む補助情報と、が符号化され、所定単位毎に、当該所定単位の情報種別を識別する識別情報を付加して多重化された符号化ビット列を復号化して得られる復号化合成映像、復号化合成奥行マップ、及び前記補助情報を用いて、多視点映像を合成する立体映像復号化方法であって、
    前記符号化ビット列は、前記所定単位毎に、符号化された前記合成映像に、前記符号化された合成映像であることを識別する第1識別情報が付加された符号化合成映像と、符号化された前記合成奥行マップに、前記符号化された合成奥行マップであることを識別する第2識別情報が付加された符号化合成奥行マップと、前記合成映像の合成に用いた合成方式及び前記合成奥行マップの合成に用いた合成方式を識別する第3識別情報が、映像の復号化又は映像の表示のために用いられる補助情報のパラメータとして符号化され、符号化された前記補助情報であることを識別する第4識別情報が付加された符号化パラメータと、が多重化されており、
    前記所定単位毎に、前記第1識別情報を有する単位を前記符号化合成映像として、前記第2識別情報を有する単位を前記符号化合成奥行マップとして、前記第4識別情報を有する単位を前記符号化パラメータとして、それぞれ分離する分離処理ステップと、
    前記符号化パラメータから、前記第3識別情報を復号化するパラメータ復号化処理ステップと、
    前記符号化合成映像を復号化して、前記復号化合成映像を生成する映像復号化処理ステップと、
    前記符号化合成奥行マップを復号化して、前記復号化合成奥行マップを生成する奥行マップ復号化処理ステップと、
    前記パラメータ復号化処理ステップにおいて生成した前記第3識別情報に従って、前記復号化合成映像及び前記復号化合成奥行マップを用いて、複数の視点における映像を合成する多視点映像合成処理ステップと、
    を含むことを特徴とする立体映像復号化方法。
  13. 複数の視点における映像の組である多視点映像を、複数種類の所定の映像合成方式の内の何れか1つの方式によって合成した合成映像と、前記多視点映像に付随し、前記多視点映像の視点間の視差である奥行値の画素毎の情報のマップである奥行マップを複数種類の所定の奥行マップ合成方式の内の何れか1つの方式によって合成した合成奥行マップと、を符号化し、所定単位毎に、当該所定単位の情報種別を識別する識別情報を付加して、一連の符号化ビット列を生成するために、コンピュータを、
    前記多視点映像を、前記複数種類の所定の映像合成方式の内の何れか1つの方式によって合成することで、符号化の対象である前記合成映像を生成する映像合成手段、
    前記合成映像を符号化し、符号化された合成映像であることを識別する第1識別情報を付加した符号化合成映像を生成する映像符号化手段、
    前記多視点映像に付随する複数の奥行マップを、前記複数種類の所定の奥行マップ合成方式の内の何れか1つの方式によって合成することで、符号化の対象である前記合成奥行マップを生成する奥行マップ合成手段、
    前記合成奥行マップを符号化し、符号化された合成奥行マップであることを識別する第2識別情報を付加して符号化合成奥行マップを生成する奥行マップ符号化手段、
    前記合成映像の合成に用いた映像合成方式及び前記合成奥行マップの合成に用いた奥行マップ合成方式を識別する第3識別情報を、映像の復号化又は映像の表示のために用いられる補助情報のパラメータとして符号化し、符号化された前記補助情報であることを識別する第4識別情報を付加して符号化パラメータを生成するパラメータ符号化手段、
    前記符号化合成奥行マップと、前記符号化合成映像と、前記符号化パラメータとを多重化して前記一連の符号化ビット列を生成する多重化手段、
    として機能させるための立体映像符号化プログラム。
  14. 複数の視点における映像の組である多視点映像を、複数種類の所定の映像合成方式の内の何れか1つの方式によって合成した合成映像と、前記多視点映像に付随し、前記多視点映像の視点間の視差である奥行値の画素毎の情報のマップである奥行マップを複数種類の所定の奥行マップ合成方式の内の何れか1つの方式によって合成した合成奥行マップと、前記合成映像の合成に用いた映像合成方式及び前記合成奥行マップの合成に用いた奥行マップ合成方式を識別する情報を含む補助情報と、が符号化され、所定単位毎に、当該所定単位の情報種別を識別する識別情報を付加して多重化された符号化ビット列であって、
    前記符号化ビット列は、前記所定単位毎に、符号化された前記合成映像に、前記符号化された合成映像であることを識別する第1識別情報が付加された符号化合成映像と、符号化された前記合成奥行マップに、前記符号化された合成奥行マップであることを識別する第2識別情報が付加された符号化合成奥行マップと、前記合成映像の合成に用いた映像合成方式及び前記合成奥行マップの合成に用いた奥行マップ合成方式を識別する第3識別情報が、映像の復号化又は映像の表示のために用いられる補助情報のパラメータとして符号化され、符号化された前記補助情報であることを識別する第4識別情報が付加された符号化パラメータと、が多重化されており、
    前記符号化ビット列を復号化して得られる復号化合成映像、復号化合成奥行マップ、及び前記補助情報を用いて、多視点映像を合成するために、コンピュータを、
    前記所定単位毎に、前記第1識別情報を有する単位を前記符号化合成映像として、前記第2識別情報を有する単位を前記符号化合成奥行マップとして、前記第4識別情報を有する単位を前記符号化パラメータとして、それぞれ分離する分離手段、
    前記符号化パラメータから、前記第3識別情報を復号化するパラメータ復号化手段、
    前記符号化合成映像を復号化して、前記復号化合成映像を生成する映像復号化手段、
    前記符号化合成奥行マップを復号化して、前記復号化合成奥行マップを生成する奥行マップ復号化手段、
    前記パラメータ復号化手段が生成した前記第3識別情報に従って、前記復号化合成映像及び前記復号化合成奥行マップを用いて、複数の視点における映像を合成する多視点映像合成手段、
    として機能させるための立体映像復号化プログラム。
JP2013000385A 2013-01-07 2013-01-07 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム Active JP6150277B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2013000385A JP6150277B2 (ja) 2013-01-07 2013-01-07 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
EP13869976.4A EP2942953A4 (en) 2013-01-07 2013-10-16 STEREOSCOPIC VIDEO ENCODING DEVICE, STEREOSCOPIC VIDEO DECODING DEVICE, STEREOSCOPIC VIDEO ENCODING METHOD, STEREOSCOPIC VIDEO DECODING METHOD, STEREOSCOPIC VIDEO ENCODING PROGRAM, AND STEREOSCOPIC VIDEO DECODING PROGRAM
CN201380069587.5A CN104904205B (zh) 2013-01-07 2013-10-16 立体影像编解码装置、立体影像编解码方法、记录有立体影像编解码程序的记录介质
KR1020157017906A KR20150105321A (ko) 2013-01-07 2013-10-16 입체 영상 부호화 장치, 입체 영상 복호화 장치, 입체 영상 부호화 방법, 입체 영상 복호화 방법, 입체 영상 부호화 프로그램 및 입체 영상 복호화 프로그램
PCT/JP2013/078095 WO2014106915A1 (ja) 2013-01-07 2013-10-16 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
US14/759,630 US20150341614A1 (en) 2013-01-07 2013-10-16 Stereoscopic video encoding device, stereoscopic video decoding device, stereoscopic video encoding method, stereoscopic video decoding method, stereoscopic video encoding program, and stereoscopic video decoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013000385A JP6150277B2 (ja) 2013-01-07 2013-01-07 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム

Publications (2)

Publication Number Publication Date
JP2014132721A JP2014132721A (ja) 2014-07-17
JP6150277B2 true JP6150277B2 (ja) 2017-06-21

Family

ID=51062237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013000385A Active JP6150277B2 (ja) 2013-01-07 2013-01-07 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム

Country Status (6)

Country Link
US (1) US20150341614A1 (ja)
EP (1) EP2942953A4 (ja)
JP (1) JP6150277B2 (ja)
KR (1) KR20150105321A (ja)
CN (1) CN104904205B (ja)
WO (1) WO2014106915A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2860975A1 (en) * 2013-10-09 2015-04-15 Thomson Licensing Method for processing at least one disparity map, corresponding electronic device and computer program product
TW201528775A (zh) * 2014-01-02 2015-07-16 Ind Tech Res Inst 景深圖校正方法及系統
JP6365153B2 (ja) * 2014-09-10 2018-08-01 株式会社ソシオネクスト 画像符号化方法および画像符号化装置
US10630992B2 (en) 2016-01-08 2020-04-21 Samsung Electronics Co., Ltd. Method, application processor, and mobile terminal for processing reference image
JP6687039B2 (ja) * 2016-02-05 2020-04-22 株式会社リコー 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム
EP3273686A1 (en) * 2016-07-21 2018-01-24 Thomson Licensing A method for generating layered depth data of a scene
WO2018116253A1 (en) * 2016-12-21 2018-06-28 Interaptix Inc. Telepresence system and method
WO2019001710A1 (en) * 2017-06-29 2019-01-03 Huawei Technologies Co., Ltd. APPARATUSES AND METHODS FOR ENCODING AND DECODING A VIDEO CODING BLOCK OF A MULTIVATE VIDEO SIGNAL
EP3432581A1 (en) * 2017-07-21 2019-01-23 Thomson Licensing Methods, devices and stream for encoding and decoding volumetric video
US20200228777A1 (en) * 2017-09-15 2020-07-16 InterDigita! VC Holdings, Inc. Methods, devices and stream for encoding and decoding three degrees of freedom and volumetric compatible video stream
FR3080968A1 (fr) * 2018-05-03 2019-11-08 Orange Procede et dispositif de decodage d'une video multi-vue, et procede et dispositif de traitement d'images.
WO2020013977A1 (en) * 2018-07-13 2020-01-16 Interdigital Vc Holdings, Inc. Methods and devices for encoding and decoding three degrees of freedom and volumetric compatible video stream
FR3086831A1 (fr) * 2018-10-01 2020-04-03 Orange Codage et decodage d'une video omnidirectionnelle
KR20200095408A (ko) * 2019-01-31 2020-08-10 한국전자통신연구원 이머시브 비디오 포맷팅 방법 및 장치
WO2020240827A1 (ja) * 2019-05-31 2020-12-03 日本電信電話株式会社 画像生成装置、画像生成方法、プログラム
US11503266B2 (en) * 2020-03-06 2022-11-15 Samsung Electronics Co., Ltd. Super-resolution depth map generation for multi-camera or other environments
CN112532988B (zh) * 2020-06-02 2022-05-06 腾讯科技(深圳)有限公司 视频编码方法、视频解码方法及相关设备
CN114071116A (zh) * 2020-07-31 2022-02-18 阿里巴巴集团控股有限公司 视频处理方法、装置、电子设备及存储介质
CN112243096B (zh) * 2020-09-30 2024-01-02 格科微电子(上海)有限公司 像素合成模式下的像素读取方法及装置、存储介质、图像采集设备
WO2023201504A1 (zh) * 2022-04-18 2023-10-26 浙江大学 编解码方法、装置、设备及存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007077942A1 (ja) * 2006-01-05 2007-07-12 Nippon Telegraph And Telephone Corporation 映像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
KR100918862B1 (ko) * 2007-10-19 2009-09-28 광주과학기술원 참조영상을 이용한 깊이영상 생성방법 및 그 장치, 생성된깊이영상을 부호화/복호화하는 방법 및 이를 위한인코더/디코더, 그리고 상기 방법에 따라 생성되는 영상을기록하는 기록매체
WO2009131287A1 (en) * 2008-04-23 2009-10-29 Lg Electronics Inc. Method for encoding and decoding image of ftv
JP2010157821A (ja) 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法およびそのプログラム
EP2491723A4 (en) * 2009-10-20 2014-08-06 Ericsson Telefon Ab L M METHOD AND ARRANGEMENT FOR MULTILOOK VIDEO COMPRESSION
US8537200B2 (en) * 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
CN105939469A (zh) * 2010-09-03 2016-09-14 索尼公司 编码装置和编码方法以及解码装置和解码方法
JP2012182731A (ja) * 2011-03-02 2012-09-20 Nikon Corp 撮像装置
EP2752011B1 (en) * 2011-08-31 2020-05-20 Nokia Technologies Oy Multiview video coding and decoding
WO2013073316A1 (ja) * 2011-11-14 2013-05-23 独立行政法人情報通信研究機構 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
US9288506B2 (en) * 2012-01-05 2016-03-15 Qualcomm Incorporated Signaling view synthesis prediction support in 3D video coding
CN102572482A (zh) * 2012-01-06 2012-07-11 浙江大学 基于fpga的立体视频到多视点视频的3d重构方法
WO2014044908A1 (en) * 2012-09-21 2014-03-27 Nokia Corporation Method and apparatus for video coding

Also Published As

Publication number Publication date
CN104904205B (zh) 2018-06-05
CN104904205A (zh) 2015-09-09
EP2942953A4 (en) 2016-07-27
JP2014132721A (ja) 2014-07-17
WO2014106915A1 (ja) 2014-07-10
KR20150105321A (ko) 2015-09-16
US20150341614A1 (en) 2015-11-26
EP2942953A1 (en) 2015-11-11

Similar Documents

Publication Publication Date Title
JP6150277B2 (ja) 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
JP6095067B2 (ja) 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
US8422801B2 (en) Image encoding method for stereoscopic rendering
EP2327059B1 (en) Intermediate view synthesis and multi-view data signal extraction
US8488869B2 (en) Image processing method and apparatus
US9661320B2 (en) Encoding device, decoding device, playback device, encoding method, and decoding method
JP6231125B2 (ja) マルチビュー立体視ディスプレイデバイスと共に使用するビデオデータ信号を符号化する方法
JP2010049607A (ja) コンテンツ再生装置および方法
JP2012186781A (ja) 画像処理装置および画像処理方法
US8941718B2 (en) 3D video processing apparatus and 3D video processing method
JP2015534745A (ja) 立体画像の生成、送信、及び受信方法、及び関連する装置
JP2007312407A (ja) 立体画像表示装置およびその方法
JP2014132722A (ja) 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
US20120050465A1 (en) Image processing apparatus and method using 3D image format

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151210

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170517

R150 Certificate of patent or registration of utility model

Ref document number: 6150277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250