JPWO2012111757A1 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JPWO2012111757A1
JPWO2012111757A1 JP2012558013A JP2012558013A JPWO2012111757A1 JP WO2012111757 A1 JPWO2012111757 A1 JP WO2012111757A1 JP 2012558013 A JP2012558013 A JP 2012558013A JP 2012558013 A JP2012558013 A JP 2012558013A JP WO2012111757 A1 JPWO2012111757 A1 JP WO2012111757A1
Authority
JP
Japan
Prior art keywords
resolution
image
unit
information
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012558013A
Other languages
English (en)
Inventor
しのぶ 服部
しのぶ 服部
良知 高橋
良知 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2012111757A1 publication Critical patent/JPWO2012111757A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本技術は、低解像度化されたデプス画像が送信される場合において、受信側で、デプス画像のワーピング処理を正確に行うことができるようにする画像処理装置および画像処理方法に関する。解像度部分変換部は、補助画像の視差画像を低解像度化する。部分変換情報生成部は、部分変換情報を生成する。解像度部分変換部により低解像度化された視差画像と、部分変換情報生成部により生成された部分変換情報は、復号装置に伝送される。本技術は、例えば、メガネ無し方式の3D画像を符号化する符号化装置に適用することができる。

Description

本技術は、画像処理装置および画像処理方法に関し、特に、低解像度化されたデプス画像が送信される場合において、受信側で、デプス画像のワーピング処理を正確に行うことができるようにした画像処理装置および画像処理方法に関する。
現在、3D画像の視聴方式としては、2視点の画像のうちの一方の画像の表示時に左目用のシャッタが開き、他方の画像の表示時に右目用のシャッタが開くメガネを装着して、交互に表示される2視点の画像を見る方式(以下、メガネ有り方式という)が一般的である。
しかしながら、このようなメガネ有り方式では、視聴者は、3D画像の表示装置とは別にメガネを購入する必要があり、視聴者の購買意欲は低下する。また、視聴者は、視聴時にメガネを装着する必要があるため、煩わしい。従って、メガネを装着せずに3D画像を視聴可能な視聴方式(以下、メガネ無し方式という)の需要が高まっている。
メガネ無し方式では、3視点以上の視点の画像が、視点ごとに視認可能な角度が異なるように表示され、視聴者が、任意の2視点の各画像を左右の各目で見ることにより、メガネを装着せずに3D画像を見ることができる。
メガネ無し方式の視聴を提供する復号装置は、例えば、2視点の画像から3視点以上の視点(以下では、3視点以上の視点を多視点という)の画像を生成し、表示する。具体的には、符号化装置が、2視点の画像の視差(depth)値を求め、その視差値を輝度値等で表す視差画像(デプス画像)を復号装置に伝送する。そして、復号装置は、受信された2視点の画像の視差画像のワーピング処理を行うことにより多視点の視差画像を生成し、その多視点の視差画像を用いて2視点の画像のワーピング処理を行うことにより多視点の画像を生成し、合成して表示する。
なお、ワーピング処理とは、所定の視点の視差画像(または画像)の各画素の視差値(または画素値)を、その画素に対応する、仮想視点の視差画像(または画像)上の画素の視差値(または画素値)とする処理である。
また、既存の画像の符号化方式としては、AVC(Advanced Video Coding)やMVC(Multiview Video Coding)方式がある。さらに、多視点の画像を符号化する方式も考案されている(例えば、特許文献1参照)。
特開2008−182669号公報
ところで、メガネ無し方式の視聴を提供する復号装置に対応する符号化装置が、視差画像を低解像度化することにより、視差画像のデータ量を削減する場合、復号装置は、受信された視差画像を高解像度化し、低解像度化前の視差画像を生成する必要がある。
しかしながら、低解像度化された視差画像を高解像度化し、低解像度化前の視差画像を生成することは困難である。特に、視差値が大きく変化する境界位置では、低解像度化前の視差値と高解像度化後の視差値の誤差が大きくなる。その結果、復号装置において、視差画像のワーピング処理を正確に行うことができなかった。
本技術は、このような状況に鑑みてなされたものであり、低解像度化されたデプス画像が送信される場合において、受信側で、デプス画像のワーピング処理を正確に行うことができるようにするものである。
本技術の第1の側面の画像処理装置は、デプス画像を低解像度化する低解像度化部と、前記低解像度化部により低解像度化された前記デプス画像から低解像度化前の前記デプス画像を復元する際に用いる復元情報を生成する生成部と、前記低解像度化部により低解像度化された前記デプス画像と、前記生成部により生成された前記復元情報とを伝送する伝送部とを備える画像処理装置である。
本技術の第1の側面の画像処理方法は、本技術の第1の側面の画像処理装置に対応する。
本技術の第1の側面においては、デプス画像が低解像度化され、低解像度化された前記デプス画像から低解像度化前の前記デプス画像を復元する際に用いる復元情報が生成され、低解像度化された前記デプス画像と前記復元情報とが伝送される。
本技術の第2の側面の画像処理装置は、低解像度化されたデプス画像である低解像度デプス画像と、前記低解像度デプス画像から低解像度化前の前記デプス画像を復元する際に用いる復元情報とを受け取る受け取り部と、前記受け取り部により受け取られた前記復元情報に基づいて、前記低解像度デプス画像を高解像度化する高解像度化部とを備える画像処理装置である。
本技術の第2の側面の画像処理方法は、本技術の第2の側面の画像処理装置に対応する。
本技術の第2の側面においては、低解像度化されたデプス画像である低解像度デプス画像と、前記低解像度デプス画像から低解像度化前の前記デプス画像を復元する際に用いる復元情報とが受け取られ、前記復元情報に基づいて、前記低解像度デプス画像が高解像度化される。
なお、第1の側面の画像処理装置および第2の側面の画像処理装置は、コンピュータにプログラムを実行させることにより実現することができる。
また、第1の側面の画像処理装置および第2の側面の画像処理装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
本技術の第1の側面によれば、受信側で、デプス画像のワーピング処理を正確に行うことができるように、低解像度化されたデプス画像を送信することができる。
また、本技術の第2の側面によれば、低解像度化されたデプス画像が送信されてくる場合において、デプス画像のワーピング処理を正確に行うことができる。
本技術を適用した符号化装置の第1実施の形態の構成例を示すブロック図である。 図1の部分低解像度化部の詳細構成例を示すブロック図である。 境界情報の例を示す図である。 補助画像の視差画像の例を示す図である。 部分低解像度化処理後の補助画像の視差画像の例を示す図である。 図1の符号化装置による符号化処理を説明するフローチャートである。 図1の符号化装置による符号化処理を説明するフローチャートである。 図7の部分低解像度化処理の詳細を説明するフローチャートである。 図1の符号化装置に対応する復号装置の構成例を示す図である。 図9の3D画像生成部の詳細構成例を示すブロック図である。 視差画像高解像度化部による高解像度化後の視差画像の例を示す図である。 全領域が低解像度化された視差画像の例を示す図である。 図12の視差画像の高解像度化後の視差画像の例を示す図である。 仮想視点の画像の生成を説明する図である。 視差画像のワーピング処理を説明する図である。 低解像度化される前の視差画像と、その視差画像のワーピング処理結果を示す図である。 図13の視差画像と、その視差画像のワーピング処理結果を示す図である。 図9の復号装置による復号処理を説明するフローチャートである。 図18の多視点画像生成処理の詳細を説明するフローチャートである。 本技術を適用した符号化装置の第2実施の形態の構成例を示すブロック図である。 図20の部分可変低解像度化部の詳細構成例を示すブロック図である。 部分可変低解像度化処理を説明する図である。 部分可変低解像度化処理を説明する図である。 図20の符号化装置の部分可変低解像度化処理を説明するフローチャートである。 図20の符号化装置に対応する復号装置の構成例を示す図である。 図25の3D画像生成部の詳細構成例を示すブロック図である。 図25の復号装置の多視点画像生成処理を説明するフローチャートである。 本技術を適用した符号化装置の第3実施の形態の構成例を示すブロック図である。 図28の低解像度化部の詳細構成例を示すブロック図である。 図29の符号化装置の低解像度化処理を説明するフローチャートである。 図28の符号化装置に対応する復号装置の構成例を示す図である。 図31の3D画像生成部の詳細構成例を示すブロック図である。 図28の符号化装置の多視点画像生成処理の詳細を説明するフローチャートである。 視差と奥行きについて説明する図である。 コンピュータの一実施の形態の構成例を示す図である。 本技術を適用したテレビジョン装置の概略構成を示す図である。 本技術を適用した携帯電話機の概略構成を示す図である。 本技術を適用した記録再生装置の概略構成を示す図である。 本技術を適用した撮像装置の概略構成を示す図である。
<本明細書におけるデプス画像(視差画像)の説明>
図34は、視差と奥行きについて説明する図である。
図34に示すように、被写体Mのカラー画像が、位置C1に配置されたカメラc1と位置C2に配置されたカメラc2により撮影される場合、被写体Mの、カメラc1(カメラc2)からの奥行方向の距離である奥行きZは、以下の式(a)で定義される。
Figure 2012111757
・・・(a)
なお、Lは、位置C1と位置C2の水平方向の距離(以下、カメラ間距離という)である。また、dは、カメラc1で撮影された撮影画像上の被写体Mの位置の、撮影画像の中心からの水平方向の距離u1から、カメラc2で撮影された撮影画像上の被写体Mの位置の、撮影画像の中心からの水平方向の距離u2を減算した値、即ち視差である。さらに、fは、カメラc1の焦点距離であり、式(a)では、カメラc1とカメラc2の焦点距離は同一であるものとしている。
式(a)に示すように、視差dと奥行きZは、一意に変換可能である。従って、本明細書では、カメラc1とカメラc2により撮影された2視点のカラー画像の視差dを表す画像と奥行きZを表す画像とを総称して、デプス画像(視差画像)とする。
なお、デプス画像(視差画像)は、視差dまたは奥行きZを表す画像であればよく、デプス画像(視差画像)の画素値としては、視差dまたは奥行きZそのものではなく、視差dを正規化した値、奥行きZの逆数1/Zを正規化した値等を採用することができる。
視差dを8bit(0〜255)で正規化した値Iは、以下の式(b)により求めることができる。なお、視差dの正規化ビット数は8bitに限定されず、10bit,12bitなど他のビット数にすることも可能である。
Figure 2012111757
なお、式(b)において、Dmaxは、視差dの最大値であり、Dminは、視差dの最小値である。最大値Dmaxと最小値Dminは、1画面単位で設定されてもよいし、複数画面単位で設定されてもよい。
また、奥行きZの逆数1/Zを8bit(0〜255)で正規化した値yは、以下の式(c)により求めることができる。なお、奥行きZの逆数1/Zの正規化ビット数は8bitに限定されず、10bit,12bitなど他のビット数にすることも可能である。
Figure 2012111757
なお、式(c)において、Zfarは、奥行きZの最大値であり、Znearは、奥行きZの最小値である。最大値Zfarと最小値Znearは、1画面単位で設定されてもよいし、複数画面単位で設定されてもよい。
このように、本明細書では、視差dと奥行きZとは一意に変換可能であることを考慮して、視差dを正規化した値Iを画素値とする画像と、奥行きZの逆数1/Zを正規化した値yを画素値とする画像とを総称して、デプス画像(視差画像)とする。ここでは、デプス画像(視差画像)のカラーフォーマットは、YUV420又はYUV400であるものとするが、他のカラーフォーマットにすることも可能である。
なお、デプス画像(視差画像)の画素値としてではなく、値I又は値yの情報自体に着目する場合には、値I又は値yを、デプス情報(視差情報)とする。更に、値I又は値yをマッピングしたものをデプスマップ(視差マップ)とする。
<第1実施の形態>
[符号化装置の第1実施の形態の構成例]
図1は、本技術を適用した画像処理装置としての符号化装置の第1実施の形態の構成例を示すブロック図である。
図1の符号化装置50は、撮影部51A乃至51C、画像変換部52、視差画像生成部53、部分低解像度化部54、画像情報生成部55、互換情報生成部56、撮影情報生成部57、視差画像情報生成部58、エンコーダ59、および多重化部60により構成される。
符号化装置50は、視差画像の視差値が大きく変化する位置である境界位置に隣接する領域以外の領域を低解像度化し、低解像度化されない画素を示す情報である部分変換情報(is_original)を付加して伝送する。
具体的には、符号化装置50において、撮影部51Aは、所定の視点のHD(High Definition)画像を視点画像A1として撮影し、画像変換部52、視差画像生成部53、および撮影情報生成部57に供給する。撮影部51Bは、撮影部51Aから距離Δd1ABだけ水平方向に離れた位置で、視点画像A1とは異なる視点のHD画像を視点画像B1として撮影し、画像変換部52、視差画像生成部53、および撮影情報生成部57に供給する。撮影部51Cは、撮影部51Aから距離Δd1ACだけ撮影部51Aとは反対の水平方向に離れた位置で、視点画像A1および視点画像B1とは異なる視点のHD画像を視点画像C1として撮影し、画像変換部52、視差画像生成部53、および撮影情報生成部57に供給する。
なお、視点画像B1と視点画像C1に対応する視点は、3D画像として知覚可能な画像の視点のうち、より外側の視点である。これにより、符号化装置50に対応する復号装置は、視点画像A1乃至視点画像C1を用いて、視点画像B1および視点画像C1の視点より内側の視点の画像を補間することで、多視点の画像を生成することができる。その結果、内側の視点の画像を用いて外側の視点の画像を補間する場合に比べて、多視点の画像を高精度に生成することができる。距離Δd1ABと距離Δd1ACは、固定であってもよいし、時間ごとに変化するようにしてもよい。
画像変換部52は、撮影部51A乃至撮影部51Cのうちの水平方向の位置が内側にある撮影部51Aから供給される視点画像A1を互換画像に決定する。なお、互換画像とは、多視点の画像のうちの、既存の符号化装置との互換性を確保するために既存の符号化方式で符号化される画像である。画像変換部52は、互換画像として視点画像A1を指定する情報を互換情報生成部56に供給し、互換画像である視点画像A1をそのままエンコーダ59に供給する。
また、画像変換部52は、視点画像A1以外の視点画像B1および視点画像C1を補助画像とする。なお、補助画像とは、互換画像を用いて互換画像の視点数より多い視点の画像を生成するための画像である。画像変換部52は、所定の多重化方式に基づいて、補助画像である視点画像B1および視点画像C1を低解像度化して多重化する。具体的には、例えば多重化方式がサイドバイサイド方式である場合、画像変換部52は、視点画像B1および視点画像C1の解像度を半分にする。そして、画像変換部52は、解像度が半分にされた視点画像B1(以下、1/2解像度視点画像B1という)が画面の左半分の画像となり、解像度が半分にされた視点画像C1(以下、1/2解像度視点画像C1という)が画面の右半分の画像となるように、1/2解像度視点画像B1および1/2解像度視点画像C1を多重化する。画像変換部52は、多重化の結果得られる多重化画像をエンコーダ59に供給し、補助画像の多重化方式を示す情報を画像情報生成部55に供給する。
視差画像生成部53は、撮影部51A乃至撮影部51Cから供給される視点画像A1乃至視点画像C1を用いて、視点画像A1乃至視点画像C1の各画素の視差値を検出する。視差画像生成部53は、互換画像である視点画像A1の各画素の視差値を表す視差画像A1’を生成し、エンコーダ59に供給する。
また、視差画像生成部53は、補助画像である視点画像B1の各画素の視差値を表す視差画像B1’と、補助画像である視点画像C1の各画素の視差値を表す視差画像C1’を生成し、部分低解像度化部54に供給する。
部分低解像度化部54は、視差画像生成部53から供給される視差画像B1’および視差画像C1’から、それぞれ、画素単位またはマクロブロック単位で、境界位置を検出する。そして、部分低解像度化部54は、検出された境界位置に基づいて、画素単位またはマクロブロック単位で、境界位置に隣接する画素であるかどうかを示す情報である境界情報(is_depth_edge)を生成する。なお、マクロブロックとは、符号化の単位である。
また、部分低解像度化部54は、境界情報に基づいて、視差画像B1’および視差画像C1’に対して、境界位置に隣接する領域以外の領域を水平方向に低解像度化する部分低解像度化処理を行う。部分低解像度化部54は、部分低解像度化処理後の視差画像B1’および視差画像C1’をエンコーダ59に供給する。また、部分低解像度化部54は、視差画像B1’および視差画像C1’の部分変換情報を生成し、視差画像情報生成部58に供給する。
画像情報生成部55は、画像変換部52から供給される情報に基づいて、補助画像の多重化方式を示す情報などを、互換画像および補助画像に関する情報である画像情報として生成し、エンコーダ59に供給する。
互換情報生成部56は、画像変換部52から供給される情報に基づいて、互換画像を指定する情報、互換モードなどを、互換に関する情報である互換情報として生成し、エンコーダ59に供給する。
なお、互換モードとは、互換画像の符号化方法を表すモードである。互換モードとしては、例えば、1視点の互換画像をAVC方式で符号化する符号化方法を表すモノモード(mono)、2視点の互換画像を多重化し、AVC方式で符号化する符号化方法を表すフレームパッキングモード(frame packing)、2視点の互換画像をMVC方式で符号化する符号化方法を表すステレオモード(stereo)などがある。
撮影情報生成部57は、撮影部51A乃至撮影部51Cから供給される視点画像A1乃至視点画像C1を用いて、視点画像A1乃至視点画像C1のうちの2枚の視点画像の視点間の距離(以下、視点間距離という)を検出する。具体的には、撮影情報生成部57は、撮影部51Aと撮影部51Bの間の水平方向の距離Δd1AB、および、撮影部51Aと撮影部51Cの間の水平方向の距離Δd1ACを視点間距離として検出する。
また、撮影情報生成部57は、撮影部51A乃至撮影部51Cから、撮影部51A乃至撮影部51Cの内部パラメータとワーピング処理用の回転行列を取得する。なお、内部パラメータとしては、焦点距離、画像中心である主点(レンズの光学的な中心)の位置、半径方向の歪み係数などがある。撮影情報生成部57は、視点間距離、内部パラメータ、ワーピング処理用の回転行列などの撮影に関する情報を撮影情報として生成し、エンコーダ59に供給する。
視差画像情報生成部58は、部分低解像度化部54から供給される部分変換情報などの視差画像に関する情報を、視差画像情報として生成し、エンコーダ59に供給する。
エンコーダ59は、互換用エンコーダ61と補助用エンコーダ62により構成される。互換用エンコーダ61は、画像変換部52から供給される互換画像の多重化画像を既存のAVC方式で符号化して各種の情報を付加し、その結果得られる符号化ストリームを互換ストリームとして多重化部60に供給する。
補助用エンコーダ62は、符号化部として機能し、画像変換部52からの補助画像の多重化画像、視差画像生成部53からの互換画像の視差画像A1’、および部分低解像度化部54からの部分低解像度化処理後の補助画像の視差画像を所定の方式で符号化する。なお、補助用エンコーダ62における符号化方式としては、AVC方式、MVC方式、MPEG2(Moving Picture Experts Group phase 2)方式などを用いることができる。
また、補助用エンコーダ62は、符号化の結果得られる符号化画像に、画像情報生成部55からの画像情報、互換情報生成部56からの互換情報、撮影情報生成部57からの撮影情報、および視差画像情報生成部58からの視差画像情報などを付加する。補助用エンコーダ62は、その結果得られる符号化ストリームを補助ストリームとして多重化部60に供給する。
多重化部60は、互換用エンコーダ61から供給される互換ストリームと補助用エンコーダ62から供給される補助ストリームから、それぞれTS(Transport Stream)を生成し、多重化する。多重化部60は、伝送部として機能し、多重化の結果得られる多重化ストリームを伝送する。
[部分低解像度化部の構成例]
図2は、図1の部分低解像度化部54の詳細構成例を示すブロック図である。
図2の部分低解像度化部54は、境界位置検出部81、境界情報生成部82、解像度部分変換部83、および部分変換情報生成部84により構成される。
部分低解像度化部54の境界位置検出部81は、図1の視差画像生成部53から供給される視差画像B1’および視差画像C1’から、それぞれ、境界位置を検出し、検出結果を境界情報生成部82に供給する。
境界情報生成部82は、境界位置検出部81から供給される検出結果に基づいて、画素単位またはマクロブロック単位で境界情報を生成し、解像度部分変換部83と部分変換情報生成部84に供給する。
解像度部分変換部83は、低解像度化部として機能し、境界情報生成部82から供給される境界情報に基づいて、図1の視差画像生成部53から供給される視差画像B1’および視差画像C1’に対して、水平方向の低解像度化を行う。解像度部分変換部83は、低解像度化後の視差画像B1’および視差画像C1’を図1のエンコーダ59に供給する。
部分変換情報生成部84は、生成部として機能し、境界情報生成部82から供給される境界情報に基づいて部分変換情報を生成して、図1の視差画像情報生成部58に供給する。
[境界情報の例]
図3は、境界情報の例を示す図である。
なお、図3において、小さい丸は画素を表し、丸の柄は視差値を表す。このことは、後述する図4および図5においても同様である。
図3の例の視差画像では、図3の左側に示すように、画面中央に位置する円形の領域の視差値と、その領域以外の領域の視差値が大きく異なっている。従って、画面中央に存在する円形の領域と、その領域以外の領域の境界に、境界位置が存在する。
画素単位で境界情報が生成される場合、例えば、図3の右上に示すように、境界位置に隣接する2つの画素の境界情報は、境界位置に隣接する画素であることを示す1となる。また、それ以外の画素の境界情報は、境界位置に隣接する画素ではないことを示す0となる。
一方、マクロブロック単位で境界情報が生成される場合、例えば、図3の右下に示すように、境界位置に隣接する2つの画素を含むマクロブロック(MB)の境界情報が、境界位置に隣接する画素であることを示す1となる。また、それ以外のマクロブロックの境界情報は、境界位置に隣接する画素ではないことを示す0となる。
[部分低解像度化処理の説明]
図4および図5は、図2の部分低解像度化部54による部分低解像度化処理を説明する図である。
図4は、視差画像生成部53により生成される補助画像の視差画像を示しており、図5は、部分低解像度化処理後の補助画像の視差画像を示している。
図4に示すように、補助画像の視差画像が、画面中央に位置する円形の領域の視差値と、その領域以外の領域の視差値が大きく異なる画像である場合、画面中央に存在する円形の領域と、その領域以外の領域の境界に、境界位置が存在する。
このような視差画像に対して部分低解像度化処理が行われると、部分低解像度化処理後の視差画像は、図5に示すように、境界位置に隣接する領域以外の領域についてのみ低解像度化が行われた画像となる。
具体的には、図5の例では、バイリニア法により低解像度化が行われている。バイリニア法とは、低解像度化前の視差画像のうちの、水平方向に隣接する2つの画素どうしの一方の視差値を、その2つの画素の視差値の平均値とし、他方の視差値を削除する方法である。従って、全画素に対して低解像度化が行われる場合、例えば、境界位置の左側に隣接する画素と、右側に隣接する画素の視差値の平均値が、その画素の視差値とされ、境界位置の左側に隣接する画素が削除される。しかしながら、部分低解像度化処理では、境界位置に隣接する領域に対して低解像度化が行われないので、図5に示すように、境界位置の右側に隣接する画素の視差値は残される。
なお、図5では、説明の便宜上、低解像度化前の画素を丸で表しており、低解像度化により削除される画素は、柄が付されない丸で表している。
また、図5の例では、境界情報が画素単位で生成されており、部分低解像度化処理において低解像度化を行わない領域が画素単位で設定されている。従って、部分変換情報は、部分低解像度化処理前の視差画像の各画素に対して、画素単位で生成される。具体的には、境界情報が1である境界位置に隣接する画素の部分変換情報として、低解像度化されない画素を示す1が設定され、その他の画素の部分境界情報として、低解像度化されていない画素を示す0が設定される。
[符号化装置の処理の説明]
図6および図7は、図1の符号化装置50による符号化処理を説明するフローチャートである。この符号化処理は、例えば、撮影部51A乃至撮影部51Cから視点画像A1乃至視点画像C1が出力されたとき開始される。
図6のステップS10において、撮影情報生成部57は、撮影部51A乃至撮影部51Cから、撮影部51A乃至撮影部51Cの内部パラメータとワーピング処理用の回転行列を取得する。
ステップS11において、撮影情報生成部57は、撮影部51A乃至撮影部51Cから供給される視点画像A1乃至視点画像C1を用いて、視点画像A1乃至視点画像C1のうちの2枚の視点画像の視点間距離を検出する。
ステップS12において、撮影情報生成部57は、視点間距離、内部パラメータ、ワーピング処理用の回転行列などの撮影に関する情報を撮影情報として生成し、エンコーダ59に入力する。
ステップS13において、画像変換部52は、撮影部51A乃至撮影部51Cのうちの水平方向の位置が内側にある撮影部51Aから供給される視点画像A1を互換画像に決定し、補助画像の多重化方式を決定する。画像変換部52は、互換画像として視点画像A1を指定する情報を互換情報生成部56に供給し、補助画像の多重化方式を画像情報生成部55に供給する。
ステップS14において、互換情報生成部56は、画像変換部52から供給される情報に基づいて、互換画像として視点画像A1を指定する情報、互換モードとしてのモノモードなどを互換情報として生成し、エンコーダ59に入力する。
ステップS15において、画像情報生成部55は、画像変換部52から供給される情報に基づいて、補助画像の多重化方式を示す情報などを画像情報として生成し、エンコーダ59に入力する。
ステップS16において、画像変換部52は、視点画像A1以外の視点画像B1および視点画像C1を補助画像とし、ステップS13で決定された補助画像の多重化方式に基づいて補助画像を低解像度化して多重化し、補助画像の多重化画像を得る。
ステップS17において、画像変換部52は、互換画像である視点画像A1と補助画像の多重化画像をエンコーダ59に入力する。
図7のステップS18において、視差画像生成部53は、撮影部51A乃至撮影部51Cから供給される視点画像A1乃至視点画像C1を用いて視点画像A1乃至視点画像C1の各画素の視差値を検出し、視差画像A1’乃至視差画像C1’を生成する。そして、視差画像生成部53は、視差画像B1’および視差画像C1’を部分低解像度化部54に供給する。
ステップS19において、部分低解像度化部54は、視差画像生成部53から供給される視差画像B1’および視差画像C1’に対して部分低解像度化処理を行う。この部分低解像度化処理の詳細は、後述する図8を参照して説明する。
ステップS20において、視差画像情報生成部58は、部分低解像度化部54から供給される部分変換情報などを視差画像情報として生成し、エンコーダ59に入力する。
ステップS21において、視差画像生成部53は、互換画像の視差画像A1'をエンコーダ59に入力する。
ステップS22において、エンコーダ59の互換用エンコーダ61は、画像変換部52から供給される互換画像である視点画像A1を既存のAVC方式で符号化し、その結果得られる符号化ストリームを互換ストリームとして多重化部60に供給する。
ステップS23において、補助用エンコーダ62は、画像変換部52からの補助画像の多重化画像、視差画像生成部53からの互換画像の視差画像A1’、および部分低解像度化部54からの部分低解像度化処理後の補助画像の視差画像を所定の方式で符号化する。
ステップS24において、補助用エンコーダ62は、ステップS23の処理による符号化の結果得られる符号化画像に、画像情報、互換情報、撮影情報、および視差画像情報などを付加して、符号化ストリームを生成する。補助用エンコーダ62は、その符号化ストリームを補助ストリームとして多重化部60に供給する。
ステップS25において、多重化部60は、互換用エンコーダ61から供給される互換ストリームと、補助用エンコーダ62から供給される補助ストリームから、それぞれTSを生成し、多重化して送信する。そして、処理は終了する。
図8は、図7のステップS19の部分低解像度化処理の詳細を説明するフローチャートである。なお、図8では、画素単位で境界情報が生成される場合の部分低解像度化処理について説明する。また、図8の部分低解像度化処理は、視差画像ごとに行われる。
図8のステップS41において、部分低解像度化部54の境界位置検出部81と解像度部分変換部83(図2)は、図1の視差画像生成部53から供給される視差画像を取得する。
ステップS42において、境界位置検出部81は、視差画像の水平方向に隣接する画素どうしのうちの、まだステップS42の処理の対象となっていないものの視差値の差分を求める。
ステップS43において、境界位置検出部81は、ステップS42で求められた視差値の差分が所定の閾値より大きいかどうかを判定する。
ステップS43で視差値の差分が所定の閾値より大きいと判定された場合、境界位置検出部81は、ステップS42の処理の対象である隣接する2つの画素の間を境界位置として検出したことを表す検出結果を境界情報生成部82に供給する。そして、ステップS44において、境界情報生成部82は、ステップS42の処理の対象である隣接する2つの画素の境界情報を1に設定する。
一方、ステップS43で視差値の差分が所定の閾値より大きくはないと判定された場合、境界位置検出部81は、ステップS42の処理の対象である隣接する2つの画素の間を境界位置として検出していないことを表す検出結果を境界情報生成部82に供給する。そして、ステップS45において、境界情報生成部82は、ステップS42の処理の対象である隣接する2つの画素の境界情報のうちの、1が設定されていない境界情報を0に設定する。
ステップS44またはステップS45の処理後、ステップS46において、境界情報生成部82は、視差画像の全ての水平方向に隣接する2つの画素どうしの視差値の差分を求めたかどうかを判定する。
ステップS46で視差画像の全ての水平方向に隣接する2つの画素どうしの視差値の差分をまだ求めていないと判定された場合、処理はステップS42に戻り、視差画像の全ての水平方向に隣接する画素どうしの視差値の差分が求められるまで、ステップS42乃至S46の処理が繰り返される。
一方、ステップS46で視差画像の全ての水平方向に隣接する2つの画素どうしの視差値の差分を求めたと判定された場合、境界情報生成部82は、境界情報を解像度部分変換部83と部分変換情報生成部84に供給する。
そして、ステップS47において、解像度部分変換部83は、境界情報生成部82から供給される境界情報に基づいて、ステップS41で取得された視差画像に対して低解像度化を行う。具体的には、解像度部分変換部83は、視差画像のうちの、境界情報が1である画素以外の画素からなる領域を低解像度化する。そして、解像度部分変換部83は、低解像度化された視差画像をエンコーダ59に供給する。
ステップS48において、部分変換情報生成部84は、境界情報生成部82から供給される境界情報に基づいて部分変換情報を生成する。具体的には、部分変換情報生成部84は、境界情報が1である画素の部分変換情報として1を生成し、その他の画素の部分変換情報として0を生成する。そして、部分変換情報生成部84は、生成された部分変換情報を図1の視差画像情報生成部58に供給する。そして、処理は図7のステップS19に戻り、処理はステップS20に進む。
なお、部分低解像度化部54は、境界情報をマクロブロック単位で生成する場合、図8の部分低解像度化処理において、ステップS42乃至S48の処理をマクロブロック単位で行う。
具体的には、境界位置検出部81は、ステップS42で視差画像の所定のマクロブロック内の水平方向に隣接する画素どうしの視差値の差分を求め、ステップS43で少なくとも1つの視差値の差分が所定の閾値より大きいかどうかを判定する。そして、少なくとも1つの視差値の差分が所定の閾値より大きいと判定された場合、ステップS44で、境界情報生成部82は、その差分に対応するマクロブロックの境界情報を1に設定する。一方、全ての視差値の差分が所定の閾値以下である判定された場合、ステップS45で、境界情報生成部82は、その差分に対応するマクロブロックの境界情報のうちの1が設定されていない境界情報を0に設定する。
また、解像度部分変換部83は、ステップS47で、視差画像のうちの境界情報が1であるマクロブロック以外の領域の低解像度化を行い、ステップS48で、部分変換情報生成部84は、境界情報が1であるマクロブロックの部分変換情報を1に設定する。
以上のように、符号化装置50は、補助画像の視差画像に対して部分低解像度化処理を行い、その結果得られる視差画像と部分変換情報を送信する。従って、後述する復号装置は、部分変換情報に基づいて、部分低解像度化処理された視差画像を高解像度化することにより、部分低解像度化処理前の視差画像により近い視差画像を得ることができる。よって、復号装置は、部分低解像度化処理前の視差画像により近い視差画像のワーピング処理を行うことができる。その結果、復号装置において、視差画像のワーピング処理を正確に行うことができる。
また、符号化装置50は、補助画像および補助画像の視差画像の解像度を低解像度化して符号化するので、低解像度化せずに符号化する場合に比べて、符号化対象の情報量を削減し、符号化処理および復号処理の処理コストを軽減することができる。その結果、復号装置における復号処理の性能が多視点の画像の画質に大きな影響を及ぼすことを防止することができる。
さらに、符号化装置50は、多視点の画像のうちの1視点の画像を互換画像とし、既存の符号化方式で符号化するので、既存の2D画像を符号化する符号化装置との互換性を確保することができる。
また、符号化装置50は、視差画像を生成し、符号化ストリームに含めて送信するので、符号化装置50に対応する復号装置は、多視点の画像を生成するために視差画像を生成する必要がなく、復号装置の処理の負荷を軽減することができる。その結果、復号装置のコストを低減することができる。また、復号装置の視差検出の性能が多視点の画像の画質に大きな影響を及ぼすことを防止することができる。
[復号装置の構成例]
図9は、図1の符号化装置50から送信される多重化ストリームを復号する、本技術を適用した画像処理装置としての復号装置の構成例を示す図である。
図9の復号装置120は、分離部121、デコーダ122、画像情報取得部123、撮影情報取得部124、視差画像情報取得部125、互換情報取得部126、および画像生成部127により構成される。復号装置120は、符号化装置50から送信される多重化ストリームを復号し、部分変換情報に基づいて補助画像の視差画像を高解像度化し、ワーピング処理を行って多視点の画像を生成する。
具体的には、復号装置120の分離部121は、受け取り部として機能し、符号化装置50から送信されてくる多重化ストリームを受け取り、TSごとに分離する。分離部121は、分離されたTSから互換ストリームと補助ストリームを抽出し、デコーダ122に供給する。
デコーダ122は、互換用デコーダ131と補助用デコーダ132により構成される。デコーダ122の互換用デコーダ131は、補助用デコーダ132から供給される互換情報に基づいて、分離部121から供給される互換ストリームと補助ストリームのうち、互換ストリームを識別する。互換用デコーダ131は、互換情報に基づいて、互換ストリームに含まれる符号化された互換画像をAVC方式に対応する方式で復号する。互換用デコーダ131は、復号の結果得られる視点画像A1を画像生成部127に供給する。
補助用デコーダ132は、分離部121から供給される補助ストリームに含まれる互換情報を互換用デコーダ131に供給する。補助用デコーダ132は、互換情報に基づいて、分離部121から供給される互換ストリームと補助ストリームのうち、補助ストリームを識別する。補助用デコーダ132は、復号部として機能し、補助ストリームに含まれる符号化された補助画像の多重化画像、互換画像の視差画像、および部分低解像度化処理後の補助画像の視差画像を、図1の補助用エンコーダ62に対応する方式で復号する。
補助用デコーダ132は、復号の結果得られる補助画像の多重化画像、互換画像の視差画像、および部分低解像度化処理後の補助画像の視差画像を、画像生成部127に供給する。また、補助用デコーダ132は、補助ストリームに含まれる画像情報を画像情報取得部123に供給し、撮影情報を撮影情報取得部124に供給する。さらに、補助用デコーダ132は、補助ストリームに含まれる視差画像情報を視差画像情報取得部125に供給し、互換情報を互換情報取得部126に供給する。
画像情報取得部123は、補助用デコーダ132から供給される画像情報を取得し、画像生成部127に供給する。撮影情報取得部124は、補助用デコーダ132から供給される撮影情報を取得し、画像生成部127に供給する。
視差画像情報取得部125は、補助用デコーダ132から供給される視差画像情報を取得し、画像生成部127に供給する。互換情報取得部126は、補助用デコーダ132から供給される互換情報を取得し、画像生成部127に供給する。
画像生成部127は、2D画像生成部141と3D画像生成部142により構成される。画像生成部127の2D画像生成部141は、視聴者からの2D画像表示指令に応じて、互換用デコーダ131から供給される互換画像である視点画像A1を出力して、図示せぬ表示装置に表示させる。これにより、視聴者は、2D画像を見ることができる。
また、3D画像生成部142は、デコーダ122から供給される視点画像A1、補助画像の多重化画像、互換画像の視差画像A1’、および部分低解像度化処理後の補助画像の視差画像を用いて、画像情報、撮影情報、視差画像情報、互換情報等に基づいて、図示せぬ表示装置に対応する3以上の視点数の、互換画像と同一の解像度の画像を生成する。そして、3D画像生成部142は、生成された多視点の画像の解像度を、互換画像や補助画像の解像度の1/視点数の解像度に変換して合成し、図示せぬ表示装置に表示させる。
このとき、合成後の多視点の画像は、視点ごとに視認可能な角度が異なるように表示される。視聴者は、任意の2視点の各画像を左右の各目で見ることにより、メガネを装着せずに3D画像を見ることができる。
[3D画像生成部の詳細構成例]
図10は、図9の3D画像生成部142の詳細構成例を示すブロック図である。
図10に示すように、3D画像生成部142は、仮想視点位置決定部161、視差画像高解像度化部162、視差画像ワーピング処理部163、視差画像ワーピング処理部164、視点画像ワーピング処理部165、視点画像ワーピング処理部166、視点画像分離部167、視点画像高解像度化部168、多視点画像生成部169、および多視点画像合成処理部170により構成される。
3D画像生成部142の仮想視点位置決定部161は、撮影情報取得部124から供給される撮影情報に含まれる視点間距離と、図示せぬ表示装置に対応する視点数に基づいて、生成する多視点の画像の視点の位置を仮想視点の位置として決定する。そして、仮想視点位置決定部161は、各仮想視点の位置に基づいて、視差画像ワーピング処理部163と視差画像ワーピング処理部164のそれぞれに対して、その仮想視点の画像の生成に用いる、その仮想視点より外側の視点の視差画像を特定する情報である視差画像特定情報を生成する。なお、各仮想視点に対して、視差画像ワーピング処理部163に供給される視差画像特定情報と、視差画像ワーピング処理部164に供給される視差画像特定情報は異なるように生成される。
また、仮想視点位置決定部161は、各仮想視点の位置と、対応する視差画像特定情報を視差画像ワーピング処理部163と視差画像ワーピング処理部164に供給する。
視差画像高解像度化部162は、互換情報取得部126から供給される互換情報に基づいて、デコーダ122から供給される互換画像の視差画像A1’をそのまま視差画像ワーピング処理部163と視差画像ワーピング処理部164に供給する。
また、視差画像高解像度化部162は、高解像度化部として機能し、視差画像情報取得部125から供給される視差画像情報に含まれる部分変換情報に基づいて、デコーダ122から供給される部分低解像度化処理後の補助画像の視差画像をそれぞれ高解像度化する。これにより、視差画像高解像度化部162は、互換画像と同一の解像度の視点画像B1と視点画像C1の視差画像を得る。そして、視差画像高解像度化部162は、得られた視点画像B1と視点画像C1の視差画像を、視差画像ワーピング処理部163および視差画像ワーピング処理部164に供給する。
視差画像ワーピング処理部163は、視差画像ワーピング処理部として機能する。具体的には、視差画像ワーピング処理部163は、仮想視点ごとに、仮想視点位置決定部161から供給される視差画像特定情報に基づいて、視差画像高解像度化部162から供給される視点画像B1および視点画像C1の視差画像並びに視差画像A1’のうちの1つを選択する。視差画像ワーピング処理部163は、仮想視点ごとに、撮影情報取得部124からの撮影情報と、仮想視点位置決定部161からの仮想視点の位置に基づいて、選択された視差画像のワーピング処理を行う。視差画像ワーピング処理部163は、ワーピング処理により生成される各仮想視点の視差画像を視点画像ワーピング処理部165に供給する。
視差画像ワーピング処理部164は、視差画像ワーピング処理部として機能し、視差画像ワーピング処理部163と同様の処理を行い、その結果生成された各仮想視点の視差画像を、視点画像ワーピング処理部166に供給する。
視点画像ワーピング処理部165は、視点画像ワーピング処理部として機能する。具体的には、視点画像ワーピング処理部165は、視差画像ワーピング処理部163から供給される各仮想視点の視差画像に基づいて、仮想視点ごとに、その視差画像に対応する、視点画像高解像度化部168から供給される視点画像のワーピング処理を行う。これにより、オクルージョン領域(詳細は後述する)を有する各仮想視点の画像が生成される。視点画像ワーピング処理部165は、オクルージョン領域を有する各仮想視点の画像を多視点画像生成部169に供給する。
なお、オクルージョン領域とは、仮想視点と、実際に撮影された視点画像の視点が異なることによって生じる、仮想視点の画像には存在するが、その仮想視点の視差画像の生成に用いられた視差画像に対応する視点画像には存在しない領域である。
視点画像ワーピング処理部166は、視点画像ワーピング処理部として機能し、視差画像ワーピング処理部164から供給される各仮想視点の視差画像に基づいて、視点画像ワーピング処理部165と同様の処理を行う。
視点画像分離部167は、互換情報取得部126から供給される互換情報に基づいて、デコーダ122から供給される互換画像である視点画像A1を、そのまま視点画像高解像度化部168に供給する。また、視点画像分離部167は、画像情報取得部123から供給される画像情報に基づいて、デコーダ122から供給される補助画像の多重化画像を分離する。視点画像分離部167は、その結果得られる互換画像の解像度の1/2の解像度の視点画像B1および視点画像C1を視点画像高解像度化部168に供給する。
視点画像高解像度化部168は、視点画像分離部167から供給される互換画像の解像度の1/2の解像度の視点画像B1および視点画像C1それぞれに対して補間処理を行うことにより、高解像度化を行う。これにより、視点画像高解像度化部168は、互換画像と同一の解像度の視点画像B1および視点画像C1を得る。そして、視点画像高解像度化部168は、得られた視点画像B1および視点画像C1の視差画像、並びに、視点画像分離部167から供給される視点画像A1を、視点画像ワーピング処理部165および視点画像ワーピング処理部166に供給する。
多視点画像生成部169は、仮想視点ごとに、視点画像ワーピング処理部165および視点画像ワーピング処理部166のいずれか一方から供給される仮想視点の画像のオクルージョン領域を、他方から供給される仮想視点の画像で補間する。多視点画像生成部169は、その結果得られる各仮想視点の画像を多視点の画像として多視点画像合成処理部170に供給する。
多視点画像合成処理部170は、多視点画像生成部169から供給される多視点の画像の解像度を、互換画像や補助画像の解像度の、仮想視点数分の1の解像度に変換して合成し、図示せぬ表示装置に表示させる。
[高解像度化の説明]
図11は、図10の視差画像高解像度化部162による高解像度化を説明する図である。
図5に示した部分低解像度化処理後の視差画像が供給される場合、視差画像高解像度化部162は、図11に示すように、部分変換情報が1である画素を残す。また、視差画像高解像度化部162は、例えば、高解像度化後の視差画像の部分変換情報が0である画素の視差値を、その画素に対応する部分低解像度化処理後の視差画像の水平方向に隣接する2つの画素の視差値を用いて線形補間することにより高解像度化する。その結果、高解像度化後の視差画像の視差値は、図4に示した低解像度化前の視差画像の視差値に近い値となる。
これに対して、図4に示した視差画像の全領域がバイリニア法により低解像度化されると、低解像度化された視差画像は、図12に示すようになる。なお、図12において、縦線が付された丸で表される画素の視差値は、チェック柄が付された丸で表される画素の視差値と、灰色が付された丸で表される画素の視差値の平均値である。また、図12では、説明の便宜上、低解像度化前の画素を丸で表しており、低解像度化により間引かれる画素は、柄が付されない丸で表している。
そして、図12の低解像度化された視差画像の全画素に対して、図11の場合と同様の線形補間による高解像度化が行われると、高解像度化された視差画像は図13に示すようになり、境界位置に隣接する画素の視差値が、図4の視差画像と異なってしまう。なお、図12において、横線が付された丸で表される画素の視差値は、チェック柄が付された丸で表される画素の視差値と縦線が付された丸で表される画素の視差値の範囲内の値である。
以上のように、部分低解像度化処理では、低解像度化によって高解像度化後の視差値が低解像度化前の視差値と異なる、境界位置に隣接する領域の視差値が低解像度化されない。従って、部分変換情報に基づいて、部分低解像度化処理後の視差画像を高解像度化することにより、高解像度化後の視差画像を部分低解像度化処理前の視差画像に近づけることができる。よって、部分変換情報は、部分低解像度化処理後の視差画像から部分低解像度化処理前の視差画像を復元するための情報であるといえる。
[仮想視点の画像の生成の説明]
図14は、図10の3D画像生成部142による仮想視点の画像の生成を説明する図である。
図14に示すように、視差画像ワーピング処理部163および視差画像ワーピング処理部164は、視差画像特定情報に基づいて、それぞれ、異なる視差画像を選択する。図14の例では、視差画像ワーピング処理部163は、画面上の左側に位置する視差値が0以外の所定値である円形の領域と、その領域以外の視差値が0である領域からなる視差画像(以下、視差画像#1という)を選択している。また、視差画像ワーピング処理部164は、画面上の右側に位置する視差値が0以外の所定値である円形の領域と、その領域以外の視差値が0である領域からなる視差画像(以下、視差画像#2という)を選択している。
視差画像ワーピング処理部163と視差画像ワーピング処理部164は、それぞれ、仮想視点の位置と撮影情報に基づいて、選択された視差画像のワーピング処理を行う。これにより、図14に示すように、例えば、視差画像#1内の円形の領域が右側に移動し、その円形の領域の左側に、図中黒く塗りつぶされているオクルージョン領域が発生した仮想視点の視差画像#1が生成される。また、視差画像#2内の円形の領域が左側に移動し、その円形の領域の右側に、図中黒く塗りつぶされているオクルージョン領域が発生した仮想視点の視差画像#2が生成される。なお、仮想視点の視差画像#1内の円形の領域の位置と仮想視点の視差画像#2内の円形の領域の位置は、同一である。また、オクルージョン領域は、例えば、黒画で表される。
視点画像ワーピング処理部165は、仮想視点の視差画像#1に基づいて、視差画像#1に対応する視点画像#1のワーピング処理を行う。図14の例では、視点画像#1は、視差値が0以外の所定値である円形の領域が、その領域以外の視差値が0である領域とは異なる色の画像となっている。従って、ワーピング処理後の視点画像#1は、周囲の領域と色が異なる円形の領域がワーピング処理前の視点画像#1に比べて右側に移動し、その領域の左側にオクルージョン領域が存在する画像となる。
一方、視点画像ワーピング処理部166は、仮想視点の視差画像#2に基づいて、視差画像#2に対応する視点画像#2のワーピング処理を行う。図14の例では、視点画像#2は、視差値が0以外の所定値である円形の領域が、その領域以外の視差値が0である領域とは異なる色の画像となっている。従って、ワーピング処理後の視点画像#2は、周囲の領域と色が異なる円形の領域がワーピング処理前の視点画像#2に比べて左側に移動し、その領域の右側にオクルージョン領域が存在する画像となる。
多視点画像生成部169は、ワーピング処理後の視点画像#1および視点画像#2のいずれか一方の視点画像のオクルージョン領域を、他方の視点画像で補間する。具体的には、視差画像特定情報は、仮想視点より外側の視点の視差画像を特定する情報であるので、ワーピング処理後の視点画像#1および視点画像#2のいずれか一方に存在するオクルージョン領域の画像は、他方の視点画像内に存在する。従って、多視点画像生成部169は、ワーピング処理後の視点画像#1および視点画像#2のいずれか一方に存在するオクルージョン領域の画像を、他方の視点画像内に存在する、そのオクルージョン領域の画像で補間する。これにより、図14に示すように、オクルージョン領域が存在しない仮想視点の画像が生成される。
[視差画像のワーピング処理の説明]
図15は、視差画像のワーピング処理を説明する図である。
視差画像のワーピング処理では、まず、図15に示すように、選択された位置t(t,t,t)の視点の視差画像の各画素の位置m(x,y,z)と、位置t'(t',t',t')の仮想視点の視差画像の位置m'(x',y',z')を、3次元空間を介して対応付ける。
具体的には、以下の式(1)により、位置t(t,t,t)の視点の視差画像の視差値Zの画素の位置m(x,y,z)に対応する3次元空間の位置M(X,Y,Z)が求められ、その位置M(X,Y,Z)に対応する、位置t'(t',t',t')の仮想視点の視差画像の位置m'(x',y',z')が求められる。
(X,Y,Z)=RA−1(x,y,1)Z+(t,t,t
s(x',y',1)=A’R'−1[(X,Y,Z)-(t',t',t']
・・・(1)
なお、式(1)において、Rは、視差画像を撮影する撮影部51A乃至撮影部51Cのワーピング処理用の回転行列であり、以下の式(2)で表される。
Figure 2012111757
なお、式(2)において、r_11乃至r_13,r_21乃至r_23、およびr_31乃至r_33は、所定値である。
また、式(1)において、Aは、視差画像を撮影する撮影部51A乃至撮影部51Cの内部パラメータを含む行列であり、以下の式(3)で表される。
Figure 2012111757
なお、式(3)において、focal_length_x,focal_length_yは、それぞれ、内部パラメータに含まれるx方向、y方向の焦点距離を表す。principal_point_x,principal_point_yは、それぞれ、内部パラメータに含まれる主点のx方向、y方向の位置を表す。radial_distortionは、内部パラメータに含まれる半径方向の歪み係数を表す。
さらに、式(1)において、R’は、Rと同様に表される仮想視点の視差画像を撮影する仮想の撮影部のワーピング処理用の回転行列であり、A’は、Aと同様に表される仮想視点の視差画像を撮影する仮想の撮影部の内部パラメータを含む行列である。また、式(1)においてsは、スケーリングファクタ(scaling factor)である。
以上のようにして対応付けが行われた後、各画素の位置m(x,y,z)に対応する位置m'(x',y',z')に基づいて、選択された視差画像の各画素に対応する仮想視点の視差画像の各画素が決定される。なお、仮想視点の視差画像の所定の画素に、複数の画素が対応付けられる場合、その複数の画素のうちの視差値が最も大きい画素、即ち手前側の被写体に対応する画素が、仮想視点の視差画像の所定の画素に対応する画素とされる。そして、選択された視差画像の各画素の視差値が、その画素に対応する仮想視点の視差画像の画素の視差値とされ、その結果、仮想視点の視差画像が生成される。
図16および図17は、図10の視差画像ワーピング処理部163および視差画像ワーピング処理部164による視差画像のワーピング処理を説明する図である。なお、図16および図17において、小さい丸は画素を表し、丸の柄は視差値を表す。
図16は、符号化装置50の視差画像生成部53により低解像度化される前の視差画像と、その視差画像のワーピング処理結果を示す図である。
図16の例では、低解像度化される前の視差画像が、図4の視差画像である。この場合、低解像度化される前の視差画像のワーピング処理が行われると、ワーピング処理の結果得られる仮想視点の視差画像では、例えば、図16に示すように、円形の領域が10画素だけ左側に移動する。
また、図11に示したように、視差画像高解像度化部162により高解像度化された視差画像の視差値は、図4の視差画像の視差値に近い値である。従って、図11の高解像度化された視差画像のワーピング処理の結果得られる仮想視点の視差画像は、図16の視差画像に近似する。よって、正確に視差画像のワーピング処理が行われたといえる。
これに対して、図17に示すように、図13に示した高解像度化された視差画像のワーピング処理が行われる場合、ワーピング処理の結果得られる仮想視点の視差画像では、図17に示すように、オクルージョン領域に視差値が対応付けられてしまう。
具体的には、例えば、横線が付された丸で表される画素は、本来、図16に示したように、10画素だけ左側に移動する必要があるが、図17に示すように、5画素だけしか左側に移動しない。即ち、正確にワーピング処理が行われない。その結果、本来、視差値が対応付けられないオクルージョン領域に視差値が対応付けられ、仮想視点の画像が破綻する。
[復号装置の処理の説明]
図18は、図9の復号装置120による復号処理を説明するフローチャートである。この復号処理は、例えば、図1の符号化装置50から送信される多重化ストリームが復号装置120に入力されたとき、開始される。
図18のステップS61において、復号装置120の分離部121は、符号化装置50から送信されてくる多重化ストリームを受信し、TSごとに分離する。分離部121は、分離されたTSから互換ストリームと補助ストリームを抽出し、デコーダ122に供給する。デコーダ122の補助用デコーダ132は、分離部121から供給される補助ストリームに含まれる互換情報を互換用デコーダ131に供給する。
ステップS62において、互換用デコーダ131は、補助用デコーダ132から供給される互換情報に基づいて、分離部121から供給される互換ストリームと補助ストリームのうち、互換ストリームを識別する。
ステップS63において、互換用デコーダ131は、互換情報に基づいて、互換ストリームに含まれる互換画像をAVC方式に対応する方式で復号し、その結果得られる視点画像A1を画像生成部127に供給する。
ステップS64において、画像生成部127は、視聴者から2D画像の表示が指令されたかどうかを判定する。ステップS64で視聴者から2D画像の表示が指令されていないと判定された場合、即ち視聴者からメガネ無し方式の3D画像の表示が指令された場合、補助用デコーダ132は、互換情報に基づいて、分離部121から供給される互換ストリームと補助ストリームのうちの補助ストリームを識別する。
そして、ステップS65において、補助用デコーダ132は、補助ストリームに含まれる符号化された補助画像の多重化画像、互換画像の視差画像A1’、および部分低解像度化処理後の補助画像の視差画像を、図1の補助用エンコーダ62に対応する方式で復号する。補助用デコーダ132は、復号の結果得られる補助画像の多重化画像、互換画像の視差画像A1’、および部分低解像度化処理後の補助画像の視差画像を画像生成部127に供給する。また、補助用デコーダ132は、補助ストリームに含まれる画像情報を画像情報取得部123に供給し、撮影情報を撮影情報取得部124に供給する。さらに、補助用デコーダ132は、補助ストリームに含まれる視差画像情報を視差画像情報取得部125に供給し、互換情報を互換情報取得部126に供給する。
ステップS66において、画像情報取得部123は、補助用デコーダ132から供給される画像情報を取得し、画像生成部127に入力する。ステップS67において、撮影情報取得部124は、補助用デコーダ132から供給される撮影情報を取得し、画像生成部127に入力する。
ステップS68において、視差画像情報取得部125は、補助用デコーダ132から供給される視差画像情報を取得し、画像生成部127に入力する。ステップS69において、互換情報取得部126は、補助用デコーダ132から供給される互換情報を取得し、画像生成部127に入力する。
ステップS70において、画像生成部127の3D画像生成部142は、多視点の画像の合成画像を生成する多視点画像生成処理を行う。この多視点画像生成処理の詳細は、後述する図19を参照して説明する。
ステップS71において、3D画像生成部142の多視点画像合成処理部170は、ステップS70の処理により生成される多視点の画像の合成画像を図示せぬ表示装置に出力し、視点ごとに視認可能な角度が異なるように表示させる。そして、処理は終了する。
一方、ステップS64で視聴者から2D画像の表示が指令されたと判定された場合、ステップS72において、画像生成部127の2D画像生成部141は、互換用デコーダ131から供給される互換画像である視点画像A1を図示せぬ表示装置に出力し、表示させる。そして、処理は終了する。
図19は、図18のステップS70の多視点画像生成処理の詳細を説明するフローチャートである。
図19のステップS90において、3D画像生成部142の仮想視点位置決定部161(図10)は、撮影情報取得部124から供給される撮影情報に含まれる視点間距離と、図示せぬ表示装置に対応する視点数に基づいて、各仮想視点の位置を決定する。そして、仮想視点位置決定部161は、各仮想視点の位置に基づいて、視差画像ワーピング処理部163と視差画像ワーピング処理部164のそれぞれに対して、視差画像特定情報を生成する。また、仮想視点位置決定部161は、各仮想視点の位置と、対応する視差画像特定情報を視差画像ワーピング処理部163と視差画像ワーピング処理部164に供給する。
ステップS91において、視差画像高解像度化部162は、補助用デコーダ132から供給される互換画像の視差画像A1’と部分低解像度化処理後の補助画像の視差画像を取得する。
ステップS92において、視差画像高解像度化部162は、視差画像情報取得部125から供給される視差画像に含まれる部分変換情報に基づいて、ステップS91で取得された部分低解像度化処理後の補助画像の視差画像を高解像度化する。これにより、視差画像高解像度化部162は、互換画像と同一の解像度の視点画像B1および視点画像C1の視差画像を得る。そして、視差画像高解像度化部162は、得られた視点画像B1および視点画像C1の視差画像、並びに、補助用デコーダ132から供給される視差画像A1’を、視差画像ワーピング処理部163および視差画像ワーピング処理部164に供給する。
ステップS93において、視差画像ワーピング処理部163は、仮想視点ごとに、仮想視点位置決定部161からの視差画像特定情報に基づいて、視差画像高解像度化部162から供給される視点画像B1および視点画像C1の視差画像並びに視差画像A1’のうちの1つを選択する。また、視差画像ワーピング処理部164は、視差画像ワーピング処理部163と同様の処理を行う。
そして、ステップS94およびS95において、視差画像ワーピング処理部163および視差画像ワーピング処理部164は、選択された視差画像のワーピング処理を行う。
具体的には、ステップS94において、視差画像ワーピング処理部163(164)は、仮想視点ごとに、その仮想視点の位置、撮影情報、および選択された視差画像に基づいて、上述した式(1)により、その視差画像の各画素に対応する仮想視点の視差画像上の画素を決定する。
そして、ステップS95において、視差画像ワーピング処理部163(164)は、仮想視点ごとに、ステップS94で決定された画素に基づいて、選択された視差画像から仮想視点の視差画像を生成する。具体的には、視差画像ワーピング処理部163(164)は、仮想視点ごとに、選択された視差画像の各画素の視差値を、仮想視点の視差画像のステップS94で決定された画素の視差値とする。視差画像ワーピング処理部163(164)は、その結果生成された各仮想視点の視差画像を視点画像ワーピング処理部165(166)に供給する。
ステップS96において、視点画像分離部167は、画像情報取得部123から供給される画像情報に基づいて、補助用デコーダ132から供給される補助画像の多重化画像を分離する。そして、視点画像分離部167は、その結果得られる互換画像の解像度の1/2の解像度の視点画像B1および視点画像C1を視差画像高解像度化部162に供給する。また、視点画像分離部167は、互換情報取得部126から供給される互換情報に基づいて、互換用デコーダ131から供給される互換画像である視点画像A1を、そのまま視点画像高解像度化部168に供給する。
ステップS97において、視点画像高解像度化部168は、視点画像分離部167から供給される互換画像の解像度の1/2の解像度の、補助画像である視点画像B1および視点画像C1をそれぞれ高解像度化する。これにより、視点画像高解像度化部168は、互換画像と同一の解像度の視点画像B1および視点画像C1を得る。そして、視点画像高解像度化部168は、得られた視点画像B1および視点画像C1、並びに、視点画像分離部167から供給される視点画像A1を、視点画像ワーピング処理部165および視点画像ワーピング処理部166に供給する。
ステップS98において、視点画像ワーピング処理部165は、視差画像ワーピング処理部163から供給される各仮想視点の視差画像に基づいて、仮想視点ごとに、その視差画像に対応する、視点画像高解像度化部168から供給される視点画像のワーピング処理を行う。これにより、オクルージョン領域を有する各仮想視点の画像が生成される。視点画像ワーピング処理部165は、オクルージョン領域を有する各仮想視点の画像を多視点画像生成部169に供給する。また、視点画像ワーピング処理部166は、視差画像ワーピング処理部164から供給される各仮想視点の視差画像に基づいて、視点画像ワーピング処理部165と同様の処理を行う。
ステップS99において、多視点画像生成部169は、仮想視点ごとに、視点画像ワーピング処理部165および視点画像ワーピング処理部166のいずれか一方から供給される仮想視点の画像のオクルージョン領域を、他方から供給される仮想視点の画像で補間する。多視点画像生成部169は、その結果得られる各仮想視点の画像を多視点の画像として多視点画像合成処理部170に供給する。
ステップS100において、多視点画像合成処理部170は、多視点画像生成部169から供給される多視点の画像の解像度を、互換画像や補助画像の解像度の、仮想視点数分の1の解像度に変換して合成し、多視点の画像の合成画像を生成する。そして、処理は、図18のステップS70に戻り、処理はステップS71に進む。
以上のように、復号装置120は、符号化装置50から送信されてくる部分低解像度化処理後の視差画像を、部分変換情報に基づいて高解像度化し、ワーピング処理の対象とする。従って、復号装置120は、ワーピング処理の対象の視差画像を、部分低解像度化処理前の視差画像に近づけることができる。その結果、視差画像のワーピング処理を正確に行うことができる。
<第2実施の形態>
[符号化装置の第2実施の形態の構成例]
図20は、本技術を適用した画像処理装置としての符号化装置の第2実施の形態の構成例を示すブロック図である。
図20に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図20の符号化装置200の構成は、主に、部分低解像度化部54、視差画像情報生成部58、エンコーダ59の代わりに、部分可変低解像度化部201、視差画像情報生成部202、エンコーダ203が設けられている点が図1の構成と異なる。
符号化装置200は、視差画像の境界位置に隣接する領域を低解像度化せず、その領域以外の領域(以下、境界外領域という)の水平方向の解像度を可変の解像度に低解像度化する部分可変低解像度化処理を行う。また、符号化装置200は、部分可変低解像度化処理後の視差画像に、部分可変低解像度化処理後の水平方向の解像度を表す情報である解像度情報を付加して伝送する。
具体的には、符号化装置200の部分可変低解像度化部201は、視差画像生成部53から供給される視差画像B1’および視差画像C1’から、それぞれ、マクロブロック単位で境界位置を検出する。そして、部分可変低解像度化部201は、マクロブロック単位で検出された境界位置に基づいて、マクロブロック単位で境界情報を生成する。
また、部分可変低解像度化部201は、視差画像B1’に対して、基本となる解像度の、部分可変低解像度化処理前の視差画像の水平方向の解像度に対する割合を表す基本解像度情報としての基本サンプリング係数(base_sampling_factor)を生成する。また、部分可変低解像度化部201は、視差画像B1’と、対応する境界情報とに基づいて、部分可変低解像度化処理後の視差画像の水平方向の解像度の、基本となる解像度に対する割合を表す割合情報としてのサブサンプリング係数(sub_sampling_factor)を、マクロブロック単位で生成する。さらに、部分可変低解像度化部201は、部分可変低解像度化処理後の水平方向の解像度が基本となる解像度であるかどうかを表す解像度識別情報としてのサブサンプリングフラグ(is_sub_sample)を、マクロブロック単位で生成する。同様に、部分可変低解像度化部201は、視差画像C1’の基本サンプリング係数、サブサンプリング係数、およびサブサンプリングフラグを生成する。
そして、部分可変低解像度化部201は、視差画像B1’および視差画像C1’のそれぞれに対して、対応する基本サンプリング係数およびサブサンプリング係数に基づいて、部分可変低解像度化処理を行う。部分可変低解像度化部201は、部分可変低解像度化処理後の視差画像B1’および視差画像C1’をエンコーダ203に供給する。
また、部分可変低解像度化部201は、視差画像B1’および視差画像C1’のサブサンプリング係数のうち、部分可変低解像度化処理後の水平方向の解像度が基本となる解像度ではない場合のサブサンプリング係数、即ち1以外の値のサブサンプリング係数を選択する。そして、部分可変低解像度化部201は、視差画像B1’および視差画像C1’の基本サンプリング係数、選択されたサブサンプリング係数、およびサブサンプリングフラグを解像度情報として、視差画像情報生成部202に供給する。
このように、部分可変低解像度化部201は、部分可変低解像度化処理後の解像度そのものを解像度情報とするのではなく、基本サンプリング係数、1以外のサブサンプリング係数、およびサブサンプリングフラグを解像度情報とする。これにより、部分可変低解像度化処理後の水平方向の解像度が基本となる解像度である場合、解像度情報としてマクロブロック単位で生成される情報が、1ビットのサブサンプリングフラグのみとなるので、解像度情報の情報量を抑制することができる。
視差画像情報生成部202は、部分可変低解像度化部201から供給される解像度情報などの視差画像に関する情報を、視差画像情報として生成し、エンコーダ203に供給する。
エンコーダ203は、互換用エンコーダ61と補助用エンコーダ210により構成される。補助用エンコーダ210は、符号化部として機能し、画像変換部52からの補助画像の多重化画像、視差画像生成部53からの視差画像A1’、および部分可変低解像度化部201からの部分可変低解像度化処理後の補助画像の視差画像を所定の方式で符号化する。なお、補助用エンコーダ210における符号化方式としては、AVC方式、MVC方式、MPEG2方式などを用いることができる。
また、補助用エンコーダ210は、符号化の結果得られる符号化画像に、画像情報生成部55からの画像情報、互換情報生成部56からの互換情報、撮影情報生成部57からの撮影情報、および視差画像情報生成部58からの視差画像情報などを付加する。なお、このとき、補助用エンコーダ210は、解像度情報を分解して付加する。
具体的には、補助用エンコーダ210は、符号化画像のスライスレイヤに基本サンプリング係数を記述する。また、補助用エンコーダ210は、符号化画像のスライスレイヤ以上にサブサンプリング係数を記述する。さらに、補助用エンコーダ210は、マクロブロックレイヤにサブサンプリングフラグを記述する。
補助用エンコーダ210は、画像情報、互換情報、撮影情報、および視差画像情報などが付加された符号化画像からなる符号化ストリームを、補助ストリームとして多重化部60に供給する。
[部分可変低解像度化部の詳細構成例]
図21は、図20の部分可変低解像度化部201の詳細構成例を示すブロック図である。
図21の部分可変低解像度化部201は、境界位置検出部211、境界情報生成部212、解像度決定部213、解像度部分変換部214、および解像度情報生成部215により構成される。
部分可変低解像度化部201の境界位置検出部211は、図20の視差画像生成部53から供給される視差画像B1’および視差画像C1’から、それぞれ、マクロブロック単位で境界位置を検出し、検出結果を境界情報生成部212に供給する。
境界情報生成部212は、境界位置検出部211から供給される検出結果に基づいて、マクロブロック単位で境界情報を生成し、解像度決定部213と解像度情報生成部215に供給する。
解像度決定部213は、視差画像B1’および視差画像C1’の基本サンプリング係数を生成する。また、解像度決定部213は、視差画像B1’、並びに、対応する境界情報および基本サンプリング係数に基づいて、サブサンプリング係数とサブサンプリングフラグをマクロブロック単位で生成する。同様に、解像度決定部213は、視差画像C1’、並びに、対応する境界情報および基本サンプリング係数に基づいて、サブサンプリング係数とサブサンプリングフラグをマクロブロック単位で生成する。
そして、解像度決定部213は、生成された視差画像B1’および視差画像C1’の基本サンプリング係数およびサブサンプリング係数を、解像度部分変換部214に供給する。また、解像度決定部213は、生成された視差画像B1’および視差画像C1’の基本サンプリング係数、サブサンプリング係数、およびサブサンプリングフラグを、解像度情報生成部215に供給する。
解像度部分変換部214は、低解像度化部として機能し、解像度決定部213からの基本サンプリング係数およびサブサンプリング係数に基づいて、視差画像B1’および視差画像C1’に対して、それぞれ、水平方向の低解像度化を行う。具体的には、解像度部分変換部214は、視差画像B1’および視差画像C1’の境界位置に隣接する領域を低解像度化せず、境界外領域の水平方向の解像度を基本サンプリング係数とサブサンプリング係数の乗算値倍に低解像度化する。解像度部分変換部214は、低解像度化後の視差画像B1’および視差画像C1’を図20のエンコーダ203に供給する。
解像度情報生成部215は、生成部として機能する。具体的には、解像度情報生成部215は、解像度決定部213から供給される視差画像B1’および視差画像C1’のサブサンプリング係数のうち、1以外の値であるサブサンプリング係数を選択する。そして、解像度情報生成部215は、視差画像B1’および視差画像C1’の基本サンプリング係数、1以外の値であるサブサンプリング係数、およびサブサンプリングフラグを、解像度情報として生成し、図20の視差画像情報生成部202に供給する。
[部分可変低解像度化処理の説明]
図22および図23は、図21の部分可変低解像度化部201による部分可変低解像度化処理を説明する図である。
なお、図22および図23において、番号iが付された正方形はi番目のマクロブロックを表している。
図22の例では、部分可変低解像度化処理の対象の視差画像の水平方向に並ぶ1乃至10番目の全てのマクロブロックが、境界外領域にある。この場合、境界外領域の部分可変低解像度化処理後の水平方向の解像度が、全て部分可変低解像度化処理前の解像度の1/2であるとすると、1乃至10番目のマクロブロックのうちの隣接する2つのマクロブロックから1つのマクロブロックが生成される。その結果、部分可変低解像度化処理後の視差画像のマクロブロックの数は5となる。そして、後述する復号装置において、部分可変低解像度化処理後の視差画像の高解像度化が行われ、高解像度化後のマクロブロックの数は、部分可変低解像度化処理前と同一の10となる。
また、この場合、例えば、基本サンプリング係数が1/2であると、部分可変低解像度化処理後の視差画像の全てのマクロブロックのサブサンプリング係数は1となり、サブサンプリングフラグは、部分可変低解像度化処理後の水平方向の解像度が基本となる解像度であることを表す0となる。従って、解像度情報には、サブサンプリング係数は含まれない。
一方、図23の例では、部分可変低解像度化処理の対象の視差画像の水平方向に並ぶ1乃至10番目のマクロブロックのうち、3、4,7、および8番目のマクロブロックが、境界位置に隣接する領域を含み、その他のマクロブロックが境界外領域にある。この場合、境界外領域の部分可変低解像度化処理後の水平方向の解像度が、全て部分可変低解像度化処理前の解像度の1/2であるとすると、3、4,7、および8番目のマクロブロック以外のマクロブロックのうちの隣接する2つのマクロブロックから、1つのマクロブロックが生成される。また、境界位置に隣接する領域を含む3、4,7、および8番目のマクロブロックは、そのまま保持される。その結果、部分可変低解像度化処理後の視差画像のマクロブロックの数は7となる。そして、後述する復号装置において、部分可変低解像度化処理後の視差画像のうちの、境界外領域に対応する1,4、および7番目のマクロブロックの高解像度化が行われる。その結果、高解像度化後のマクロブロックの数は、部分可変低解像度化処理前と同一の10となる。
また、この場合、例えば、基本サンプリング係数が1/2であると、部分可変低解像度化処理後の視差画像の2,3,5、および6番目のマクロブロックのサブサンプリング係数は2となる。また、このマクロブロックのサブサンプリングフラグは、部分可変低解像度化処理後の解像度が基本となる解像度ではないことを表す1となる。一方、部分可変低解像度化処理後の視差画像の1,4、および7番目のマクロブロックのサブサンプリング係数は1となり、サブサンプリングフラグは0となる。従って、解像度情報には、1,4、および7番目のマクロブロックのサブサンプリング係数は含まれない。
[符号化装置の処理の説明]
図20の符号化装置200の符号化処理は、図7のステップS19の部分低解像度化処理の代わりに部分可変低解像度化処理を行う点、および、ステップS20で生成される視差画像情報が解像度情報からなる点を除いて、図6および図7に示した符号化処理と同様である。従って、部分可変低解像度化処理についてのみ説明する。
図24は、図20の符号化装置200の部分可変低解像度化処理を説明するフローチャートである。なお、図24の部分可変低解像度化処理は、視差画像ごとに行われる。
図24のステップS120において、部分可変低解像度化部201の境界位置検出部211、解像度決定部213、および解像度部分変換部214(図21)は、図20の視差画像生成部53から供給される視差画像を取得する。
ステップS121において、解像度決定部213は、基本サンプリング係数を生成し、解像度部分変換部214と解像度情報生成部215に供給する。以降のステップS122乃至S128の処理は、マクロブロック単位で行われる。
ステップS122において、境界位置検出部211は、ステップS121で取得された視差画像の現在の処理対象のマクロブロック内の水平方向に隣接する画素どうしの視差値の差分を求める。
ステップS123において、境界位置検出部211は、ステップS122で求められた視差値の差分のうち、少なくとも1つの視差値の差分が所定の閾値より大きいかどうかを判定する。ステップS123で少なくとも1つの視差値の差分が閾値より大きいと判定された場合、境界位置検出部211は、境界位置を検出したことを表す検出結果を境界情報生成部212に供給する。
そして、ステップS124において、境界情報生成部212は、境界位置検出部211から供給される検出結果に基づいて境界情報を1に設定し、解像度決定部213に供給する。
ステップS125において、解像度決定部213は、現在の処理対象のマクロブロックのサブサンプリング係数として1/基本サンプリング係数を生成し、サブサンプリングフラグとして1を生成する。即ち、解像度決定部213は、現在の処理対象のマクロブロックの部分可変低解像度化処理後の水平方向の解像度を、部分可変低解像度化処理前の水平方向の解像度と同一にする。そして、解像度決定部213は、生成されたサブサンプリング係数を解像度部分変換部214に供給し、サブサンプリング係数とサブサンプリングフラグを解像度情報生成部215に供給して、処理をステップS128に進める。
一方、ステップS123で全ての視差値の差分が所定の閾値より大きくはないと判定された場合、境界位置検出部211は、境界位置を検出していないことを表す検出結果を境界情報生成部212に供給する。
そして、ステップS126において、境界情報生成部212は、境界位置検出部211から供給される検出結果に基づいて境界情報を0に設定し、解像度決定部213に供給する。
ステップS127において、解像度決定部213は、視差画像の現在の処理対象のマクロブロック内の画素のうちの、同一の視差値に対応する画素の連続数に基づいて、そのマクロブロックのサブサンプリング係数とサブサンプリングフラグを生成する。
具体的には、解像度決定部213は、視差画像の現在の処理対象のマクロブロック内の画素のうちの、同一の視差値に対応する画素の連続数が多いほど、そのマクロブロックの部分可変低解像度化処理後の水平方向の解像度として小さい値を決定する。そして、解像度決定部213は、決定された解像度の、基本となる解像度に対する割合をサブサンプリング係数として求める。また、解像度決定部213は、そのサブサンプリング係数が1である場合、サブサンプリングフラグとして0を生成し、1以外である場合、サブサンプリングフラグとして1を生成する。
そして、解像度決定部213は、生成されたサブサンプリング係数を解像度部分変換部214に供給し、サブサンプリング係数とサブサンプリングフラグを解像度情報生成部215に供給して、処理をステップS128に進める。
ステップS128において、解像度部分変換部214は、解像度決定部213から供給される基本サンプリング係数およびサブサンプリング係数に基づいて、視差画像の現在の処理対象のマクロブロックの低解像度化を行う。そして、解像度部分変換部214は、低解像度化後の視差画像をエンコーダ203(図20)に供給する。
ステップS129において、解像度情報生成部215は、解像度決定部213から供給される基本サンプリング係数、サブサンプリング係数、およびサンプリングフラグに基づいて、解像度情報を生成する。解像度情報生成部215は、生成された解像度情報を視差画像情報生成部202(図20)に供給し、部分可変低解像度化処理を終了する。
以上のように、符号化装置200は、補助画像の視差画像に対して部分可変低解像度化処理を行う。従って、符号化装置200は、例えば、部分可変低解像度化処理後の視差画像の境界外領域の水平方向の解像度を、境界外領域内の同一の視差値に対応する画素の連続数が多いほど小さくすることにより、境界外領域に同一の視差値が多い視差画像の情報量を削減することができる。なお、同一の視差値が連続する領域では、解像度が比較的小さくされても高解像度化時の誤差が少ないため、後述する復号装置における高解像度化後の視差画像の画質への影響は少ない。
また、符号化装置200は、部分可変低解像度化処理後の視差画像とともに解像度情報を送信する。従って、後述する復号装置は、解像度情報に基づいて、部分可変低解像度化処理後の視差画像を高解像度化することにより、部分可変低解像度化処理前の視差画像により近い視差画像を得ることができる。よって、復号装置は、部分可変低解像度化処理前の視差画像により近い視差画像のワーピング処理を行うことができる。その結果、復号装置において、視差画像のワーピング処理を正確に行うことができる。
[復号装置の構成例]
図25は、図20の符号化装置200から送信される多重化ストリームを復号する、本技術を適用した画像処理装置としての復号装置の構成例を示す図である。
図25に示す構成のうち、図9の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図25の復号装置220の構成は、主に、画像生成部127の代わりに画像生成部221が設けられている点が図9の構成と異なる。復号装置220は、符号化装置200から送信される多重化ストリームを復号し、解像度情報に基づいて補助画像の視差画像を高解像度化し、ワーピング処理を行って多視点の画像を生成する。
具体的には、復号装置220の画像生成部221は、2D画像生成部141と3D画像生成部241により構成される。画像生成部221の3D画像生成部241は、デコーダ122から供給される視点画像A1、補助画像の多重化画像、互換画像の視差画像A1’、および部分可変低解像度化処理後の補助画像の視差画像を用いて、画像情報、撮影情報、視差画像情報、互換情報等に基づいて、図示せぬ表示装置に対応する3以上の視点数の、互換画像と同一の解像度の画像を生成する。そして、3D画像生成部241は、図9の3D画像生成部142と同様に、生成された多視点の画像の解像度を、互換画像や補助画像の解像度の1/視点数の解像度に変換して合成し、図示せぬ表示装置に表示させる。
このとき、合成後の多視点の画像は、視点ごとに視認可能な角度が異なるように表示される。視聴者は、任意の2視点の各画像を左右の各目で見ることにより、メガネを装着せずに3D画像を見ることができる。
[3D画像生成部の詳細構成例]
図26は、図25の3D画像生成部241の詳細構成例を示すブロック図である。
図26に示す構成のうち、図10の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図26の3D画像生成部241の構成は、視差画像高解像度化部162の代わりに、視差画像高解像度化部251が設けられている点が図10の構成と異なる。
視差画像高解像度化部251は、図10の視差画像高解像度化部162と同様に、互換情報取得部126からの互換情報に基づいて、デコーダ122からの視差画像A1’をそのまま視差画像ワーピング処理部163と視差画像ワーピング処理部164に供給する。
また、視差画像高解像度化部251は、高解像度化部として機能し、視差画像情報取得部125から供給される視差画像情報に含まれる解像度情報に基づいて、デコーダ122から供給される部分可変低解像度化処理後の補助画像の視差画像をそれぞれ高解像度化する。
具体的には、視差画像高解像度化部251は、解像度情報のうちのスライス単位で供給される基本サンプリング係数と、スライス以上の単位で供給されるサブサンプリング係数を保持する。また、視差画像高解像度化部251は、解像度情報のうちのマクロブロック単位で供給されるサブサンプリングフラグが0である場合、保持している基本サンプリング係数を読み出す。そして、視差画像高解像度化部251は、そのサブサンプリングフラグに対応するマクロブロックの解像度を、1/基本サンプリング係数倍に高解像度化する。一方、サブサンプリングフラグが1である場合、保持している基本サンプリング係数とサブサンプリング係数を読み出し、そのサブサンプリングフラグに対応するマクロブロックの解像度を、1/(基本サンプリング係数×サブサンプリング係数)倍に高解像度化する。
なお、部分可変低解像度化処理では、部分低解像度化処理と同様に、低解像度化によって高解像度化後の視差値が低解像度化前の視差値と大きく異なる境界位置に隣接する領域の視差値が低解像度化されない。従って、解像度情報に基づいて部分可変低解像度化処理後の視差画像を高解像度化することにより、高解像度化後の視差画像を部分可変低解像度化処理前の視差画像に近づけることができる。よって、解像度情報は、部分可変低解像度化処理後の視差画像から部分可変低解像度化処理前の視差画像を復元するための情報であるといえる。
視差画像高解像度化部251は、高解像度化の結果得られる互換画像と同一の解像度の視点画像B1と視点画像C1の視差画像を、視差画像ワーピング処理部163および視差画像ワーピング処理部164に供給する。
[復号装置の処理の説明]
図25の復号装置220の復号処理は、図18のステップS70の多視点画像生成処理を除いて、図18に示した復号処理と同様であるので、多視点画像生成処理についてのみ説明する。
図27は、図25の復号装置220の多視点画像生成処理を説明するフローチャートである。
図27のステップS140において、3D画像生成部241の仮想視点位置決定部161(図26)は、図19のステップS90の処理と同様に、視点間距離と、図示せぬ表示装置に対応する視点数に基づいて、各仮想視点の位置を決定する。そして、仮想視点位置決定部161は、各仮想視点の位置に基づいて、視差画像ワーピング処理部163と視差画像ワーピング処理部164のそれぞれに対して、視差画像特定情報を生成する。また、仮想視点位置決定部161は、各仮想視点の位置と、対応する視差画像特定情報を視差画像ワーピング処理部163と視差画像ワーピング処理部164に供給する。
ステップS141において、視差画像高解像度化部251は、補助用デコーダ132から供給される互換画像の視差画像A1’と部分可変低解像度化処理後の補助画像の視差画像を取得する。
ステップS142において、視差画像高解像度化部251は、視差画像情報取得部125から供給される視差画像に含まれる解像度情報に基づいて、ステップS141で取得された部分可変低解像度化処理後の補助画像の視差画像を高解像度化する。これにより、視差画像高解像度化部251は、互換画像と同一の解像度の視点画像B1および視点画像C1の視差画像を得る。そして、視差画像高解像度化部251は、得られた視点画像B1および視点画像C1の視差画像、並びに、補助用デコーダ132から供給される視差画像A1’を、視差画像ワーピング処理部163および視差画像ワーピング処理部164に供給する。
ステップS143乃至S150の処理は、図19のステップS93乃至S100の処理と同様であるので、説明は省略する。
以上のように、復号装置220は、符号化装置200から送信されてくる部分可変低解像度化処理後の視差画像を、解像度情報に基づいて高解像度化し、ワーピング処理の対象とする。従って、復号装置220は、ワーピング処理の対象の視差画像を、部分可変低解像度化処理前の視差画像に近づけることができる。その結果、視差画像のワーピング処理をより正確に行うことができる。
なお、第2実施の形態では、マクロブロック単位で部分可変低解像度化処理後の解像度が決定されたが、サブマクロブロック単位で決定されるようにしてもよい。
また、第1および第2実施の形態では、補助画像の視差画像B1’および視差画像C1’は個々に符号化されたが、視差画像B1’および視差画像C1’は多重化されて符号化されるようにしてもよい。
<第3実施の形態>
[符号化装置の第3実施の形態の構成例]
図28は、本技術を適用した画像処理装置としての符号化装置の第3実施の形態の構成例を示すブロック図である。
図28に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図28の符号化装置300の構成は、部分低解像度化部54、視差画像情報生成部58、エンコーダ59の代わりに、低解像度化部301、視差画像情報生成部302、エンコーダ303が設けられている点が図1の構成と異なる。符号化装置300は、補助画像の視差画像を低解像度化し、低解像度化後の視差画像から低解像度化前の視差画像の境界位置に隣接する領域の視差値を復元するための補間情報を伝送する。
具体的には、符号化装置300の低解像度化部301は、視差画像生成部53から供給される視差画像B1’および視差画像C1’の水平方向の解像度をそれぞれ1/2倍に低解像度化する。低解像度化部301は、図1の部分低解像度化部54と同様に、視差画像生成部53から供給される視差画像B1’および視差画像C1’から、それぞれ、画素単位またはマクロブロック単位で、境界位置を検出する。そして、低解像度化部301は、部分低解像度化部54と同様に、検出された境界位置に基づいて、画素単位またはマクロブロック単位で境界情報を生成する。
また、低解像度化部301は、境界情報、視差画像B1’、および低解像度化された視差画像B1’に基づいて、視差画像B1’の補間情報を生成する。同様に、低解像度化部301は、境界情報、視差画像C1’、および低解像度化された視差画像C1’に基づいて、視差画像C1’の補間情報を生成する。補間情報としては、例えば、低解像度化後の視差画像の高解像度化結果と低解像度化前の視差画像の、境界位置に隣接する領域どうしの視差値の差分、低解像度化後の視差画像の高解像度化結果から低解像度化前の視差画像の境界位置に隣接する領域の視差値を求めるための式に用いられる係数等がある。低解像度化部301は、低解像度化された視差画像B1’および視差画像C1’を所定の多重化方式で多重化し、その結果得られる多重化画像をエンコーダ303に供給する。
また、低解像度化部301は、視差画像B1’および視差画像C1’の補間情報と多重化方式を示す情報を視差画像情報生成部302に供給する。
視差画像情報生成部302は、低解像度化部301から供給される視差画像B1’および視差画像C1’の補間情報と多重化方式を示す情報などの視差画像に関する情報を、視差画像情報として生成し、エンコーダ303に供給する。
エンコーダ303は、互換用エンコーダ61と補助用エンコーダ311により構成される。補助用エンコーダ311は、符号化部として機能し、画像変換部52からの補助画像の多重化画像、視差画像生成部53からの互換画像の視差画像A1’、および低解像度化部301からの補助画像の視差画像の多重化画像を所定の方式で符号化する。なお、補助用エンコーダ311における符号化方式としては、AVC方式、MVC方式、MPEG2方式などを用いることができる。
また、補助用エンコーダ311は、符号化の結果得られる符号化画像に、画像情報生成部55からの画像情報、互換情報生成部56からの互換情報、撮影情報生成部57からの撮影情報、および視差画像情報生成部302からの視差画像情報などを付加する。補助用エンコーダ311は、その結果得られる符号化ストリームを補助ストリームとして多重化部60に供給する。
[低解像度化部の構成例]
図29は、図28の低解像度化部301の詳細構成例を示すブロック図である。
図29に示す構成のうち、図2の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図29の低解像度化部301の構成は、解像度部分変換部83、部分変換情報生成部84の代わりに、解像度変換部321、補間情報生成部322が設けられている点、および、多重化部323と多重化情報生成部324が新たに設けられている点が図2の構成と異なる。
低解像度化部301の解像度変換部321は、低解像度化部として機能し、図28の視差画像生成部53から供給される視差画像B1’および視差画像C1’の全領域の水平方向の解像度を、それぞれ1/2倍に低解像度化する。解像度変換部321は、低解像度化された視差画像B1’および視差画像C1’を、補間情報生成部322と多重化部323に供給する。
補間情報生成部322は、生成部として機能する。具体的には、補間情報生成部322は、境界情報生成部82により生成された境界情報、解像度変換部321からの低解像度化された視差画像B1’、および視差画像生成部53からの視差画像B1’に基づいて、視差画像B1’の補間情報を生成する。同様に、補間情報生成部322は、境界情報生成部82により生成された境界情報、解像度変換部321からの低解像度化された視差画像C1’、および視差画像生成部53からの視差画像C1’に基づいて、視差画像C1’の補間情報を生成する。補間情報生成部322は、生成された視差画像B1’および視差画像C1’の補間情報を図28の視差画像情報生成部302に供給する。
多重化部323は、解像度変換部321から供給される低解像度化された視差画像B1’および視差画像C1’を、多重化情報生成部324から供給される所定の多重化方式で多重化し、その結果得られる多重化画像を図28のエンコーダ303に供給する。
多重化情報生成部324は、ユーザからの入力等に基づいて、多重化部323による多重化の多重化方式を決定する。多重化情報生成部324は、決定された多重化方式を多重化部323に供給し、その多重化方式を示す情報を視差画像情報生成部302に供給する。
[符号化装置の処理の説明]
図28の符号化装置300の符号化処理は、図7のステップS19の部分低解像度化処理の代わりに低解像度化処理を行う点、および、ステップS20で生成される視差画像情報が補間情報および多重化方式を示す情報からなる点を除いて、図6および図7に示した符号化処理と同様である。従って、低解像度化処理についてのみ説明する。
図30は、図28の符号化装置300の低解像度化処理を説明するフローチャートである。なお、図28では、画素単位で境界情報が生成される場合の低解像度化処理について説明する。また、図28のステップS201乃至S209の処理は、視差画像ごとに行われる。
図30のステップS201において、低解像度化部301の境界位置検出部81と解像度変換部321(図29)は、図28の視差画像生成部53から供給される視差画像を取得する。
ステップS202乃至S206の処理は、図8のステップS42乃至S46の処理と同様であるので、説明は省略する。
ステップS207において、解像度変換部321は、ステップS201で取得された視差画像を低解像度化し、補間情報生成部322と多重化部323に供給する。
ステップS208において、補間情報生成部322は、境界情報生成部82から供給される境界情報、解像度変換部321から供給される低解像度化された視差画像、およびステップS201で取得された視差画像に基づいて、補間情報を生成する。
ステップS209において、多重化情報生成部324は、視差画像B1’および視差画像C1’の多重化方式を決定する。多重化情報生成部324は、その多重化方式を多重化部323に供給するとともに、その多重化方式を示す情報を図28の視差画像情報生成部302に供給する。
ステップS210において、多重化部323は、解像度変換部321から供給される低解像度化された視差画像B1’および視差画像C1’を、多重化情報生成部324から供給される多重化方式で多重化する。多重化部323は、その結果得られる多重化画像を図28のエンコーダ303に供給し、低解像度化処理は終了する。
以上のように、符号化装置300は、補助画像の視差画像を低解像度化し、低解像度化された視差画像と補間情報を送信する。従って、後述する復号装置は、補間情報に基づいて、低解像度化された視差画像を高解像度化することにより、低解像度化前の視差画像により近い視差画像を得ることができる。よって、復号装置は、境界情報に基づいて、低解像度化前の視差画像により近い視差画像のワーピング処理を行うことができる。その結果、復号装置において、視差画像のワーピング処理をより正確に行うことができる。
[復号装置の構成例]
図31は、図28の符号化装置300から送信される多重化ストリームを復号する、本技術を適用した画像処理装置としての復号装置の構成例を示す図である。
図31に示す構成のうち、図9の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図31の復号装置350の構成は、デコーダ122、画像生成部127の代わりに、デコーダ351、画像生成部352が設けられている点が図9の構成と異なる。復号装置350は、符号化装置300から送信される多重化ストリームを復号し、補間情報に基づいて補助画像の視差画像を高解像度化し、ワーピング処理を行って多視点の画像を生成する。
具体的には、復号装置350のデコーダ351は、互換用デコーダ131と補助用デコーダ361により構成される。補助用デコーダ361は、図6の補助用デコーダ132と同様に、分離部121から供給される補助ストリームに含まれる互換情報を互換用デコーダ131に供給する。補助用デコーダ361は、補助用デコーダ132と同様に、互換情報に基づいて、分離部121から供給される互換ストリームと補助ストリームのうち、補助ストリームを識別する。補助用デコーダ361は、復号部として機能し、補助ストリームに含まれる符号化された補助画像の多重化画像、互換画像の視差画像、および補助画像の視差画像の多重化画像を、図28の補助用エンコーダ311に対応する方式で復号する。
補助用デコーダ361は、復号の結果得られる補助画像の多重化画像、互換画像の視差画像、および補助画像の視差画像の多重化画像を画像生成部352に供給する。また、補助用デコーダ361は、補助用デコーダ132と同様に、補助ストリームに含まれる画像情報を画像情報取得部123に供給し、撮影情報を撮影情報取得部124に供給する。さらに、補助用デコーダ361は、補助用デコーダ132と同様に、補助ストリームに含まれる視差画像情報を視差画像情報取得部125に供給し、互換情報を互換情報取得部126に供給する。
画像生成部352は、2D画像生成部141と3D画像生成部371により構成される。3D画像生成部371は、デコーダ351から供給される視点画像A1、補助画像の多重化画像、互換画像の視差画像A1’、および補助画像の視差画像の多重化画像を用いて、画像情報、撮影情報、視差画像情報、互換情報等に基づいて、図示せぬ表示装置に対応する3以上の視点数の、互換画像と同一の解像度の画像を生成する。そして、3D画像生成部371は、図9の3D画像生成部142と同様に、生成された多視点の画像の解像度を、互換画像や補助画像の解像度の1/視点数の解像度に変換して合成し、図示せぬ表示装置に表示させる。
このとき、合成後の多視点の画像は、視点ごとに視認可能な角度が異なるように表示される。視聴者は、任意の2視点の各画像を左右の各目で見ることにより、メガネを装着せずに3D画像を見ることができる。
[3D画像生成部の詳細構成例]
図32は、図31の3D画像生成部371の詳細構成例を示すブロック図である。
図32に示す構成のうち、図10の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図32の3D画像生成部371の構成は、視差画像高解像度化部162の代わりに視差画像高解像度化部392が設けられている点、および視差画像分離部391が新たに設けられている点が図10の構成と異なる。
3D画像生成部371の視差画像分離部391は、互換情報取得部126から供給される互換情報に基づいて、デコーダ351から供給される互換画像の視差画像A1’をそのまま視差画像高解像度化部392に供給する。また、視差画像分離部391は、デコーダ351から供給される補助画像の視差画像の多重化画像を、視差画像情報取得部125から供給される視差画像情報に含まれる多重化方式を示す情報に基づいて分離する。そして、視差画像分離部391は、その結果得られる互換画像の解像度の1/2の解像度の視点画像B1および視点画像C1の視差画像を視差画像高解像度化部392に供給する。
視差画像高解像度化部392は、視差画像分離部391から供給される互換画像の視差画像A1’をそのまま視差画像ワーピング処理部163と視差画像ワーピング処理部164に供給する。
また、視差画像高解像度化部392は、高解像度化部として機能し、視差画像情報取得部125から供給される視差画像情報に含まれる補間情報に基づいて、視差画像分離部391から供給される視点画像B1および視点画像C1の視差画像をそれぞれ高解像度化する。
具体的には、視差画像高解像度化部392は、視差画像分離部391から供給される視差画像の水平方向の解像度を1/2倍に高解像度化する。そして、視差画像高解像度化部392は、補間情報に基づいて、高解像度化された視差画像の、境界位置に隣接する領域の視差値を補正する。これにより、補正後の視差画像の、境界位置に隣接する領域の視差値は、低解像度化前の視差値と同一になる。
視差画像高解像度化部392は、高解像度化された視点画像B1と視点画像C1の視差画像を、視差画像ワーピング処理部163および視差画像ワーピング処理部164に供給する。
[復号装置の処理の説明]
図31の復号装置350の復号処理は、図18のステップS70の多視点画像生成処理を除いて、図18に示した復号処理と同様であるので、多視点画像生成処理についてのみ説明する。
図33は、図31の復号装置350の多視点画像生成処理の詳細を説明するフローチャートである。
図33のステップS230において、3D画像生成部371の仮想視点位置決定部161(図32)は、図19のステップS90の処理と同様に、視点間距離と、図示せぬ表示装置に対応する視点数に基づいて、各仮想視点の位置を決定する。そして、仮想視点位置決定部161は、各仮想視点の位置に基づいて、視差画像ワーピング処理部163と視差画像ワーピング処理部164のそれぞれに対して、視差画像特定情報を生成する。また、仮想視点位置決定部161は、各仮想視点の位置と、対応する視差画像特定情報を視差画像ワーピング処理部163と視差画像ワーピング処理部164に供給する。
ステップS231において、視差画像分離部391は、補助用デコーダ361から供給される互換画像の視差画像A1’と補助画像の視差画像の多重化画像を取得する。また、視差画像分離部391は、互換情報取得部126から供給される互換情報に基づいて、互換画像の視差画像A1’をそのまま視差画像高解像度化部392に供給する。
ステップS232において、視差画像分離部391は、視差画像情報取得部125から供給される視差画像情報に含まれる多重化方式を示す情報に基づいて、ステップS231で取得された補助画像の視差画像の多重化画像を分離する。視差画像分離部391は、その結果得られる互換画像の解像度の1/2の解像度の、補助画像である視点画像B1および視点画像C1の視差画像を、視差画像高解像度化部392に供給する。
ステップS233において、視差画像高解像度化部392は、視差画像情報取得部125から供給される視差画像情報に含まれる補間情報に基づいて、視差画像分離部391から供給される補助画像の視差画像を、それぞれ高解像度化する。また、視差画像高解像度化部392は、視差画像分離部391から供給される互換画像の視差画像A1’をそのまま視差画像ワーピング処理部163と視差画像ワーピング処理部164に供給する。
図33のステップS234乃至S241の処理は、図19のステップS93乃至S100の処理と同様であるので、説明は省略する。
以上のように、復号装置350は、符号化装置300から送信されてくる低解像度化された視差画像を、補間情報に基づいて高解像度化し、ワーピング処理の対象とする。従って、復号装置350は、ワーピング処理の対象の視差画像を、低解像度化前の視差画像に近づけることができる。その結果、視差画像のワーピング処理をより正確に行うことができる。
なお、補間情報は、低解像度化後の視差画像から、低解像度化前の視差画像の境界位置に隣接する領域の視差値を復元するための情報であってもよい。この場合、視差画像高解像度化部392は、境界外領域のみを高解像度化し、境界位置に隣接する領域の高解像度化後の視差値を、低解像度化後の視差値と補間情報に基づいて生成する。
また、第1乃至第3実施の形態では、撮影される視点画像の視点数が3であったが、視点数はこれに限定されない。また、視点間距離は、撮影情報生成部57により検出されるものとしたが、撮影部51A乃至51Cから取得されるようにしてもよい。
さらに、本技術の画像処理装置は、例えば、テレビジョン受像機などの表示装置や再生装置に適用することができる。また、本技術において、境界位置に隣接する画素の数は、2つに限定されず、境界位置に隣接する画素は、境界位置の左に隣接する複数の画素および右に隣接する複数の画素であってもよい。
また、画像情報、撮影情報、視差画像情報、および互換情報は、符号化されずに、符号化ストリームとは別系統で伝送されるようにしてもよい。また、画像情報、撮影情報、視差画像情報、および互換情報は、符号化されて、符号化ストリームとは別系統で伝送されるようにしてもよい。
また、画像情報、撮影情報、視差画像情報、および互換情報は、符号化されずに、符号化ストリームの所定の領域に記述されることもできるし、符号化されて符号化ストリームの所定の領域に記述されることもできる。
<第4実施の形態>
[本技術を適用したコンピュータの説明]
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
そこで、図35は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
プログラムは、コンピュータに内蔵されている記録媒体としての記憶部808やROM(Read Only Memory)802に予め記録しておくことができる。
あるいはまた、プログラムは、リムーバブルメディア811に格納(記録)しておくことができる。このようなリムーバブルメディア811は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブルメディア811としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブルメディア811からドライブ810を介してコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵する記憶部808にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)801を内蔵しており、CPU801には、バス804を介して、入出力インタフェース805が接続されている。
CPU801は、入出力インタフェース805を介して、ユーザによって、入力部806が操作等されることにより指令が入力されると、それに従って、ROM802に格納されているプログラムを実行する。あるいは、CPU801は、記憶部808に格納されたプログラムを、RAM(Random Access Memory)803にロードして実行する。
これにより、CPU801は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU801は、その処理結果を、必要に応じて、例えば、入出力インタフェース805を介して、出力部807から出力、あるいは、通信部809から送信、さらには、記憶部808に記録等させる。
なお、入力部806は、キーボードや、マウス、マイク等で構成される。また、出力部807は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
本技術は、衛星放送、ケーブルTV(テレビジョン)、インターネット、および携帯電話機などのネットワークメディアを介して受信する際に、あるいは、光、磁気ディスク、およびフラッシュメモリのような記憶メディア上で処理する際に用いられる符号化装置および復号装置に適用することができる。
また、上述した符号化装置および復号装置は、任意の電子機器に適用することができる。以下にその例について説明する。
<第5実施の形態>
[テレビジョン装置の構成例]
図36は、本技術を適用したテレビジョン装置の概略構成を例示している。テレビジョン装置900は、アンテナ901、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、表示部906、音声信号処理部907、スピーカ908、外部インタフェース部909を有している。さらに、テレビジョン装置900は、制御部910、ユーザインタフェース部911等を有している。
チューナ902は、アンテナ901で受信された放送波信号から所望のチャンネルを選局して復調を行い、得られた符号化ビットストリームをデマルチプレクサ903に出力する。
デマルチプレクサ903は、符号化ビットストリームから視聴対象である番組の映像や音声のパケットを抽出して、抽出したパケットのデータをデコーダ904に出力する。また、デマルチプレクサ903は、EPG(Electronic Program Guide)等のデータのパケットを制御部910に供給する。なお、スクランブルが行われている場合、デマルチプレクサ等でスクランブルの解除を行う。
デコーダ904は、パケットの復号化処理を行い、復号処理化によって生成された映像データを映像信号処理部905、音声データを音声信号処理部907に出力する。
映像信号処理部905は、映像データに対して、ノイズ除去やユーザ設定に応じた映像処理等を行う。映像信号処理部905は、表示部906に表示させる番組の映像データや、ネットワークを介して供給されるアプリケーションに基づく処理による画像データなどを生成する。また、映像信号処理部905は、項目の選択などのメニュー画面等を表示するための映像データを生成し、それを番組の映像データに重畳する。映像信号処理部905は、このようにして生成した映像データに基づいて駆動信号を生成して表示部906を駆動する。
表示部906は、映像信号処理部905からの駆動信号に基づき表示デバイス(例えば液晶表示素子等)を駆動して、番組の映像などを表示させる。
音声信号処理部907は、音声データに対してノイズ除去などの所定の処理を施し、処理後の音声データのD/A変換処理や増幅処理を行いスピーカ908に供給することで音声出力を行う。
外部インタフェース部909は、外部機器やネットワークと接続するためのインタフェースであり、映像データや音声データ等のデータ送受信を行う。
制御部910にはユーザインタフェース部911が接続されている。ユーザインタフェース部911は、操作スイッチやリモートコントロール信号受信部等で構成されており、ユーザ操作に応じた操作信号を制御部910に供給する。
制御部910は、CPU(Central Processing Unit)やメモリ等を用いて構成されている。メモリは、CPUにより実行されるプログラムやCPUが処理を行う上で必要な各種のデータ、EPGデータ、ネットワークを介して取得されたデータ等を記憶する。メモリに記憶されているプログラムは、テレビジョン装置900の起動時などの所定タイミングでCPUにより読み出されて実行される。CPUは、プログラムを実行することで、テレビジョン装置900がユーザ操作に応じた動作となるように各部を制御する。
なお、テレビジョン装置900では、チューナ902、デマルチプレクサ903、映像信号処理部905、音声信号処理部907、外部インタフェース部909等と制御部910を接続するためバス912が設けられている。
このように構成されたテレビジョン装置では、デコーダ904に本願の画像処理装置(画像処理方法)の機能が設けられる。このため、低解像度化された視差画像を含む符号化ビットストリームを復号して多視点の画像を生成するとき、視差画像のワーピング処理を正確に行うことができる。
<第6実施の形態>
[携帯電話機の構成例]
図37は、本技術を適用した携帯電話機の概略構成を例示している。携帯電話機920は、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931を有している。これらは、バス933を介して互いに接続されている。
また、通信部922にはアンテナ921が接続されており、音声コーデック923には、スピーカ924とマイクロホン925が接続されている。さらに制御部931には、操作部932が接続されている。
携帯電話機920は、音声通話モードやデータ通信モード等の各種モードで、音声信号の送受信、電子メールや画像データの送受信、画像撮影、またはデータ記録等の各種動作を行う。
音声通話モードにおいて、マイクロホン925で生成された音声信号は、音声コーデック923で音声データへの変換やデータ圧縮が行われて通信部922に供給される。通信部922は、音声データの変調処理や周波数変換処理等を行い、送信信号を生成する。また、通信部922は、送信信号をアンテナ921に供給して図示しない基地局へ送信する。また、通信部922は、アンテナ921で受信した受信信号の増幅や周波数変換処理および復調処理等を行い、得られた音声データを音声コーデック923に供給する。音声コーデック923は、音声データのデータ伸張やアナログ音声信号への変換を行いスピーカ924に出力する。
また、データ通信モードにおいて、メール送信を行う場合、制御部931は、操作部932の操作によって入力された文字データを受け付けて、入力された文字を表示部930に表示する。また、制御部931は、操作部932におけるユーザ指示等に基づいてメールデータを生成して通信部922に供給する。通信部922は、メールデータの変調処理や周波数変換処理等を行い、得られた送信信号をアンテナ921から送信する。また、通信部922は、アンテナ921で受信した受信信号の増幅や周波数変換処理および復調処理等を行い、メールデータを復元する。このメールデータを、表示部930に供給して、メール内容の表示を行う。
なお、携帯電話機920は、受信したメールデータを、記録再生部929で記憶媒体に記憶させることも可能である。記憶媒体は、書き換え可能な任意の記憶媒体である。例えば、記憶媒体は、RAMや内蔵型フラッシュメモリ等の半導体メモリ、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USBメモリ、またはメモリカード等のリムーバブルメディアである。
データ通信モードにおいて画像データを送信する場合、カメラ部926で生成された画像データを、画像処理部927に供給する。画像処理部927は、画像データの符号化処理を行い、符号化データを生成する。
多重分離部928は、画像処理部927で生成された符号化データと、音声コーデック923から供給された音声データを所定の方式で多重化して通信部922に供給する。通信部922は、多重化データの変調処理や周波数変換処理等を行い、得られた送信信号をアンテナ921から送信する。また、通信部922は、アンテナ921で受信した受信信号の増幅や周波数変換処理および復調処理等を行い、多重化データを復元する。この多重化データを多重分離部928に供給する。多重分離部928は、多重化データの分離を行い、符号化データを画像処理部927、音声データを音声コーデック923に供給する。画像処理部927は、符号化データの復号化処理を行い、画像データを生成する。この画像データを表示部930に供給して、受信した画像の表示を行う。音声コーデック923は、音声データをアナログ音声信号に変換してスピーカ924に供給して、受信した音声を出力する。
このように構成された携帯電話装置では、画像処理部927に本願の画像処理装置(画像処理方法)の機能が設けられる。このため、画像データの通信において、低解像度化された視差画像を含む符号化データを復号して多視点の画像を生成するとき、視差画像のワーピング処理を正確に行うことができる。
<第7実施の形態>
[記録再生装置の構成例]
図38は、本技術を適用した記録再生装置の概略構成を例示している。記録再生装置940は、例えば受信した放送番組のオーディオデータとビデオデータを、記録媒体に記録して、その記録されたデータをユーザの指示に応じたタイミングでユーザに提供する。また、記録再生装置940は、例えば他の装置からオーディオデータやビデオデータを取得し、それらを記録媒体に記録させることもできる。さらに、記録再生装置940は、記録媒体に記録されているオーディオデータやビデオデータを復号して出力することで、モニタ装置等において画像表示や音声出力を行うことができるようにする。
記録再生装置940は、チューナ941、外部インタフェース部942、エンコーダ943、HDD(Hard Disk Drive)部944、ディスクドライブ945、セレクタ946、デコーダ947、OSD(On-Screen Display)部948、制御部949、ユーザインタフェース部950を有している。
チューナ941は、図示しないアンテナで受信された放送信号から所望のチャンネルを選局する。チューナ941は、所望のチャンネルの受信信号を復調して得られた符号化ビットストリームをセレクタ946に出力する。
外部インタフェース部942は、IEEE1394インタフェース、ネットワークインタフェース部、USBインタフェース、フラッシュメモリインタフェース等の少なくともいずれかで構成されている。外部インタフェース部942は、外部機器やネットワーク、メモリカード等と接続するためのインタフェースであり、記録する映像データや音声データ等のデータ受信を行う。
エンコーダ943は、外部インタフェース部942から供給された映像データや音声データが符号化されていないとき所定の方式で符号化を行い、符号化ビットストリームをセレクタ946に出力する。
HDD部944は、映像や音声等のコンテンツデータ、各種プログラムやその他のデータ等を内蔵のハードディスクに記録し、また再生時等にそれらを当該ハードディスクから読み出す。
ディスクドライブ945は、装着されている光ディスクに対する信号の記録および再生を行う。光ディスク、例えばDVDディスク(DVD−Video、DVD−RAM、DVD−R、DVD−RW、DVD+R、DVD+RW等)やBlu−rayディスク等である。
セレクタ946は、映像や音声の記録時には、チューナ941またはエンコーダ943からのいずれかの符号化ビットストリームを選択して、HDD部944やディスクドライブ945のいずれかに供給する。また、セレクタ946は、映像や音声の再生時に、HDD部944またはディスクドライブ945から出力された符号化ビットストリームをデコーダ947に供給する。
デコーダ947は、符号化ビットストリームの復号化処理を行う。デコーダ947は、復号処理化を行うことにより生成された映像データをOSD部948に供給する。また、デコーダ947は、復号処理化を行うことにより生成された音声データを出力する。
OSD部948は、項目の選択などのメニュー画面等を表示するための映像データを生成し、それをデコーダ947から出力された映像データに重畳して出力する。
制御部949には、ユーザインタフェース部950が接続されている。ユーザインタフェース部950は、操作スイッチやリモートコントロール信号受信部等で構成されており、ユーザ操作に応じた操作信号を制御部949に供給する。
制御部949は、CPUやメモリ等を用いて構成されている。メモリは、CPUにより実行されるプログラムやCPUが処理を行う上で必要な各種のデータを記憶する。メモリに記憶されているプログラムは、記録再生装置940の起動時などの所定タイミングでCPUにより読み出されて実行される。CPUは、プログラムを実行することで、記録再生装置940がユーザ操作に応じた動作となるように各部を制御する。
このように構成された記録再生装置では、エンコーダ943に本願の画像処理装置(画像処理方法)の機能が設けられる。このため、復号側で視差画像のワーピング処理を正確に行うことができるように、低解像度化された視差画像を含む符号化ビットストリームを出力することができる。
<第8実施の形態>
[撮像装置の構成例]
図39は、本技術を適用した撮像装置の概略構成を例示している。撮像装置960は、被写体を撮像し、被写体の画像を表示部に表示させたり、それを画像データとして、記録媒体に記録する。
撮像装置960は、光学ブロック961、撮像部962、カメラ信号処理部963、画像データ処理部964、表示部965、外部インタフェース部966、メモリ部967、メディアドライブ968、OSD部969、制御部970を有している。また、制御部970には、ユーザインタフェース部971が接続されている。さらに、画像データ処理部964や外部インタフェース部966、メモリ部967、メディアドライブ968、OSD部969、制御部970等は、バス972を介して接続されている。
光学ブロック961は、フォーカスレンズや絞り機構等を用いて構成されている。光学ブロック961は、被写体の光学像を撮像部962の撮像面に結像させる。撮像部962は、CCDまたはCMOSイメージセンサを用いて構成されており、光電変換によって光学像に応じた電気信号を生成してカメラ信号処理部963に供給する。
カメラ信号処理部963は、撮像部962から供給された電気信号に対してニー補正やガンマ補正、色補正等の種々のカメラ信号処理を行う。カメラ信号処理部963は、カメラ信号処理後の画像データを画像データ処理部964に供給する。
画像データ処理部964は、カメラ信号処理部963から供給された画像データの符号化処理を行う。画像データ処理部964は、符号化処理を行うことにより生成された符号化データを外部インタフェース部966やメディアドライブ968に供給する。また、画像データ処理部964は、外部インタフェース部966やメディアドライブ968から供給された符号化データの復号化処理を行う。画像データ処理部964は、復号化処理を行うことにより生成された画像データを表示部965に供給する。また、画像データ処理部964は、カメラ信号処理部963から供給された画像データを表示部965に供給する処理や、OSD部969から取得した表示用データを、画像データに重畳させて表示部965に供給する。
OSD部969は、記号、文字、または図形からなるメニュー画面やアイコンなどの表示用データを生成して画像データ処理部964に出力する。
外部インタフェース部966は、例えば、USB入出力端子などで構成され、画像の印刷を行う場合に、プリンタと接続される。また、外部インタフェース部966には、必要に応じてドライブが接続され、磁気ディスク、光ディスク等のリムーバブルメディアが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて、インストールされる。さらに、外部インタフェース部966は、LANやインターネット等の所定のネットワークに接続されるネットワークインタフェースを有する。制御部970は、例えば、ユーザインタフェース部971からの指示にしたがって、メモリ部967から符号化データを読み出し、それを外部インタフェース部966から、ネットワークを介して接続される他の装置に供給させることができる。また、制御部970は、ネットワークを介して他の装置から供給される符号化データや画像データを、外部インタフェース部966を介して取得し、それを画像データ処理部964に供給したりすることができる。
メディアドライブ968で駆動される記録メディアとしては、例えば、磁気ディスク、光磁気ディスク、光ディスク、または半導体メモリ等の、読み書き可能な任意のリムーバブルメディアが用いられる。また、記録メディアは、リムーバブルメディアとしての種類も任意であり、テープデバイスであってもよいし、ディスクであってもよいし、メモリカードであってもよい。もちろん、非接触ICカード等であってもよい。
また、メディアドライブ968と記録メディアを一体化し、例えば、内蔵型ハードディスクドライブやSSD(Solid State Drive)等のように、非可搬性の記憶媒体により構成されるようにしてもよい。
制御部970は、CPUやメモリ等を用いて構成されている。メモリは、CPUにより実行されるプログラムやCPUが処理を行う上で必要な各種のデータ等を記憶する。メモリに記憶されているプログラムは、撮像装置960の起動時などの所定タイミングでCPUにより読み出されて実行される。CPUは、プログラムを実行することで、撮像装置960がユーザ操作に応じた動作となるように各部を制御する。
このように構成された撮像装置では、画像データ処理部964に本願の画像処理装置(画像処理方法)の機能が設けられる。このため、メモリ部967や記録メディア等に記録された低解像度化された視差画像を含む符号化データを復号して多視点の画像を生成するとき、視差画像のワーピング処理を正確に行うことができる。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
50 符号化装置, 60 多重化部, 62 補助用エンコーダ, 83 解像度部分変換部, 84 部分変換情報生成部, 120 復号装置, 121 分離部, 122 デコーダ, 162 視差画像高解像度化部, 163,164 視差画像ワーピング処理部, 165,166 視点画像ワーピング処理部, 200 符号化装置, 210 補助用エンコーダ, 214 解像度部分変換部, 215 解像度情報生成部, 220 復号装置, 251 視差画像高解像度化部, 300 符号化装置, 311 補助用エンコーダ, 321 解像度変換部, 322 補間情報生成部, 350 復号装置, 351 デコーダ, 392 視差画像高解像度化部

Claims (20)

  1. デプス画像を低解像度化する低解像度化部と、
    前記低解像度化部により低解像度化された前記デプス画像から低解像度化前の前記デプス画像を復元する際に用いる復元情報を生成する生成部と、
    前記低解像度化部により低解像度化された前記デプス画像と、前記生成部により生成された前記復元情報とを伝送する伝送部と
    を備える画像処理装置。
  2. 前記低解像度化部は、前記デプス画像の画素値が変化する位置である境界位置に隣接する領域以外の領域である境界外領域を低解像度化し、
    前記生成部は、前記低解像度化部により低解像度化されていない画素を表す情報を、前記復元情報として生成する
    請求項1に記載の画像処理装置。
  3. 前記低解像度化部は、前記デプス画像の画素値が変化する位置である境界位置に隣接する領域以外の領域である境界外領域を、可変の解像度に低解像度化し、
    前記生成部は、前記低解像度化部により低解像度化された前記デプス画像の解像度を表す解像度情報を、前記復元情報として生成する
    請求項1に記載の画像処理装置。
  4. 前記低解像度化部は、前記境界外領域の前記解像度がその境界外領域の同一の画素値の連続数に応じて変化するように、前記境界外領域を低解像度化する
    請求項3に記載の画像処理装置。
  5. 前記解像度情報は、基本となる解像度を表す基本解像度情報と、低解像度化された前記デプス画像の解像度の、前記基本となる解像度に対する割合を表す割合情報と、低解像度化された前記デプス画像の解像度が前記基本となる解像度であるかを表す解像度識別情報とからなる
    請求項3に記載の画像処理装置。
  6. 前記低解像度化部により低解像度化された前記デプス画像をブロック単位で符号化する符号化部
    をさらに備え、
    前記生成部は、前記割合情報および前記解像度識別情報を前記ブロック単位で生成し、
    前記伝送部は、前記符号化部により符号化された前記デプス画像と、前記基本解像度情報と、前記割合情報と、前記解像度識別情報とを伝送する
    請求項5に記載の画像処理装置。
  7. 前記伝送部は、前記デプス画像の前記ブロックごとに、前記解像度識別情報を伝送する
    請求項6に記載の画像処理装置。
  8. 前記低解像度化部は、前記デプス画像の全領域または一部の領域を低解像度化する
    請求項1に記載の画像処理装置。
  9. 前記伝送部は、視点画像と、前記低解像度化部により低解像度化された前記デプス画像と、前記生成部により生成された前記復元情報とを伝送する
    請求項1に記載の画像処理装置。
  10. 画像処理装置が、
    デプス画像を低解像度化する低解像度化ステップと、
    前記低解像度化ステップの処理により低解像度化された前記デプス画像から低解像度化前の前記デプス画像を復元する際に用いる復元情報を生成する生成ステップと、
    前記低解像度化ステップの処理により低解像度化された前記デプス画像と、前記生成ステップの処理により生成された前記復元情報とを伝送する伝送ステップと
    を含む画像処理方法。
  11. 低解像度化されたデプス画像である低解像度デプス画像と、前記低解像度デプス画像から低解像度化前の前記デプス画像を復元する際に用いる復元情報とを受け取る受け取り部と、
    前記受け取り部により受け取られた前記復元情報に基づいて、前記低解像度デプス画像を高解像度化する高解像度化部と
    を備える画像処理装置。
  12. 前記低解像度デプス画像は、前記デプス画像の画素値が変化する位置である境界位置に隣接する領域以外の領域である境界外領域が低解像度化された画像であり、
    前記復元情報は、前記低解像度デプス画像のうちの低解像度化されていない画素を表す情報であり、
    前記高解像度化部は、前記復元情報に基づいて、前記低解像度デプス画像のうちの前記境界外領域を高解像度化する
    請求項11に記載の画像処理装置。
  13. 前記低解像度デプス画像は、前記デプス画像の画素値が変化する位置である境界位置に隣接する領域以外の領域である境界外領域が、可変の解像度に低解像度化された画像であり、
    前記復元情報は、前記低解像度デプス画像の解像度を表す解像度情報である
    請求項11に記載の画像処理装置。
  14. 前記低解像度デプス画像は、前記境界外領域の解像度がその境界外領域の同一の画素値の連続数に応じて変化するように、前記境界外領域が低解像度化された画像である
    請求項13に記載の画像処理装置。
  15. 前記解像度情報は、基本となる解像度を表す基本解像度情報と、前記低解像度デプス画像の解像度の、前記基本となる解像度に対する割合を表す割合情報と、前記低解像度デプス画像の解像度が前記基本となる解像度であるかを表す解像度識別情報とからなる
    請求項13に記載の画像処理装置。
  16. 前記受け取り部により受け取られた前記デプス画像を復号する復号部
    をさらに備え、
    前記受け取り部は、ブロック単位で符号化された前記低解像度デプス画像と、前記基本解像度情報と、前記ブロック単位の前記割合情報と、前記ブロック単位の前記解像度識別情報とを受け取り、
    前記復号部は、前記受け取り部により受け取られた前記低解像度デプス画像を前記ブロック単位で復号し、
    前記高解像度化部は、前記解像度識別情報が、前記低解像度デプス画像の解像度が前記基本となる解像度であることを表す場合、前記基本解像度情報に基づいて、前記復号部により復号された前記低解像度デプス画像を高解像度化し、前記解像度識別情報が、前記低解像度デプス画像の解像度が前記基本となる解像度ではないことを表す場合、前記基本解像度情報と前記割合情報に基づいて、前記復号部により復号された前記低解像度デプス画像を高解像度化する
    請求項15に記載の画像処理装置。
  17. 前記受け取り部は、前記ブロック単位の前記解像度識別情報を受け取る
    請求項16に記載の画像処理装置。
  18. 前記低解像度デプス画像は、前記デプス画像の全領域または一部の領域が低解像度化された画像である
    請求項11に記載の画像処理装置。
  19. 仮想視点の位置に基づいて、前記高解像度化部により高解像度化された前記低解像度デプス画像に対してワーピング処理を行うことにより、前記仮想視点のデプス画像を生成するデプス画像ワーピング処理部と
    前記デプス画像ワーピング処理部により生成された前記仮想視点のデプス画像に基づいて、視点画像に対してワーピング処理を行うことにより、前記仮想視点の視点画像を生成する視点画像ワーピング処理部と
    をさらに備える
    請求項11に記載の画像処理装置。
  20. 画像処理装置が、
    低解像度化されたデプス画像である低解像度デプス画像と、前記低解像度デプス画像から低解像度化前の前記デプス画像を復元する際に用いる復元情報とを受け取る受け取りステップと、
    前記受け取りステップの処理により受け取られた前記復元情報に基づいて、前記低解像度デプス画像を高解像度化する高解像度化ステップと
    を含む画像処理方法。
JP2012558013A 2011-02-18 2012-02-16 画像処理装置および画像処理方法 Pending JPWO2012111757A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011033849 2011-02-18
JP2011033849 2011-02-18
PCT/JP2012/053677 WO2012111757A1 (ja) 2011-02-18 2012-02-16 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
JPWO2012111757A1 true JPWO2012111757A1 (ja) 2014-07-07

Family

ID=46672669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012558013A Pending JPWO2012111757A1 (ja) 2011-02-18 2012-02-16 画像処理装置および画像処理方法

Country Status (4)

Country Link
US (2) US9661301B2 (ja)
JP (1) JPWO2012111757A1 (ja)
CN (1) CN103354997A (ja)
WO (1) WO2012111757A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2013108077A (ru) * 2010-09-03 2014-08-27 Сони Корпорейшн Устройство кодирования, способ кодирования, устройство декодирования и способ декодирования
JP2012186781A (ja) 2011-02-18 2012-09-27 Sony Corp 画像処理装置および画像処理方法
JPWO2012111757A1 (ja) 2011-02-18 2014-07-07 ソニー株式会社 画像処理装置および画像処理方法
US20150253974A1 (en) 2014-03-07 2015-09-10 Sony Corporation Control of large screen display using wireless portable computer interfacing with display controller
US9743034B2 (en) * 2014-07-16 2017-08-22 Hitachi Maxell, Ltd. Video transmitting/receiving device and video display device
TWI511530B (zh) * 2014-12-09 2015-12-01 Univ Nat Kaohsiung 1St Univ Sc Distributed video coding system and decoder for distributed video coding system
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
JP2018169517A (ja) * 2017-03-30 2018-11-01 ソニーセミコンダクタソリューションズ株式会社 撮像装置、撮像モジュールおよび撮像装置の制御方法
CN107203270A (zh) * 2017-06-06 2017-09-26 歌尔科技有限公司 Vr图像处理方法及装置
CN107835362B (zh) * 2017-10-30 2019-12-31 Oppo广东移动通信有限公司 图像存储方法、图像显示方法及电子设备
US10827165B2 (en) * 2018-05-30 2020-11-03 Intel Corporation Enhanced imaging for thin form factor head mounted displays and near light field displays
JP2020027957A (ja) * 2018-08-09 2020-02-20 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
CN111754387B (zh) * 2019-03-28 2023-08-04 杭州海康威视数字技术股份有限公司 一种图像处理方法及设备
JP2020178307A (ja) * 2019-04-22 2020-10-29 株式会社ジャパンディスプレイ 表示装置
CN114519967B (zh) * 2022-02-21 2024-04-16 北京京东方显示技术有限公司 源驱动装置及其控制方法、显示***

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5420637A (en) * 1989-01-16 1995-05-30 I Sight, Inc. Dynamic image representation system
EP0709809B1 (en) * 1994-10-28 2002-01-23 Oki Electric Industry Company, Limited Image encoding and decoding method and apparatus using edge synthesis and inverse wavelet transform
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
JP3466032B2 (ja) * 1996-10-24 2003-11-10 富士通株式会社 動画像符号化装置および復号化装置
US6173013B1 (en) * 1996-11-08 2001-01-09 Sony Corporation Method and apparatus for encoding enhancement and base layer image signals using a predicted image signal
JP2000308089A (ja) * 1999-04-16 2000-11-02 Nippon Hoso Kyokai <Nhk> 立体画像符号化装置および復号化装置
JP2005142654A (ja) * 2003-11-04 2005-06-02 Matsushita Electric Ind Co Ltd 映像送信装置および映像受信装置
JP5213701B2 (ja) * 2005-05-13 2013-06-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ レンダリング方法、信号処理システム、ディスプレイ装置及びコンピュータ可読媒体
US7956930B2 (en) * 2006-01-06 2011-06-07 Microsoft Corporation Resampling and picture resizing operations for multi-resolution video coding and decoding
KR100653200B1 (ko) * 2006-01-09 2006-12-05 삼성전자주식회사 기하 정보를 교정하여 파노라마 영상을 제공하는 방법 및장치
JP4793366B2 (ja) 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
CN100583963C (zh) * 2006-10-27 2010-01-20 联发科技股份有限公司 调整数字影像的方法与装置
KR101362941B1 (ko) * 2006-11-01 2014-02-17 한국전자통신연구원 스테레오스코픽 콘텐츠 재생에 이용되는 메타 데이터의복호화 방법 및 장치
CN100562919C (zh) * 2007-03-14 2009-11-25 华为技术有限公司 对视频信号进行垂直分辨率调整的装置和方法
CN101060607A (zh) * 2007-05-31 2007-10-24 友达光电股份有限公司 图像缩放装置及其方法
EP2051527A1 (en) * 2007-10-15 2009-04-22 Thomson Licensing Enhancement layer residual prediction for bit depth scalability using hierarchical LUTs
KR100918862B1 (ko) * 2007-10-19 2009-09-28 광주과학기술원 참조영상을 이용한 깊이영상 생성방법 및 그 장치, 생성된깊이영상을 부호화/복호화하는 방법 및 이를 위한인코더/디코더, 그리고 상기 방법에 따라 생성되는 영상을기록하는 기록매체
JP5472584B2 (ja) * 2008-11-21 2014-04-16 ソニー株式会社 撮像装置
JP2010157823A (ja) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法およびそのプログラム
US8189943B2 (en) * 2009-03-17 2012-05-29 Mitsubishi Electric Research Laboratories, Inc. Method for up-sampling depth images
US8270752B2 (en) * 2009-03-17 2012-09-18 Mitsubishi Electric Research Laboratories, Inc. Depth reconstruction filter for depth coding videos
US8395642B2 (en) * 2009-03-17 2013-03-12 Mitsubishi Electric Research Laboratories, Inc. Method for virtual image synthesis
JP2011023886A (ja) * 2009-07-14 2011-02-03 Panasonic Corp テレビ会議装置及び映像表示処理方法
US8643701B2 (en) * 2009-11-18 2014-02-04 University Of Illinois At Urbana-Champaign System for executing 3D propagation for depth image-based rendering
EP2400768A3 (en) * 2010-06-25 2014-12-31 Samsung Electronics Co., Ltd. Method, apparatus and computer-readable medium for coding and decoding depth image using color image
US8774267B2 (en) * 2010-07-07 2014-07-08 Spinella Ip Holdings, Inc. System and method for transmission, processing, and rendering of stereoscopic and multi-view images
JP2012186781A (ja) 2011-02-18 2012-09-27 Sony Corp 画像処理装置および画像処理方法
JPWO2012111757A1 (ja) 2011-02-18 2014-07-07 ソニー株式会社 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US9661301B2 (en) 2017-05-23
US20130307929A1 (en) 2013-11-21
US10055814B2 (en) 2018-08-21
WO2012111757A1 (ja) 2012-08-23
US20170154407A1 (en) 2017-06-01
CN103354997A (zh) 2013-10-16

Similar Documents

Publication Publication Date Title
WO2012111757A1 (ja) 画像処理装置および画像処理方法
US9716873B2 (en) Image processing device and image processing method
US9235749B2 (en) Image processing device and image processing method
WO2012147621A1 (ja) 符号化装置および符号化方法、並びに、復号装置および復号方法
US10122986B2 (en) Image processing device and image processing method
US9338430B2 (en) Encoding device, encoding method, decoding device, and decoding method
US9979961B2 (en) Image processing device and image processing method
US9667941B2 (en) Encoding device, encoding method, decoding device, and decoding method
JP6206559B2 (ja) 復号装置、復号方法、プログラム、および記録媒体
JP2011087195A (ja) 画像処理装置および画像処理方法
US9762884B2 (en) Encoding device, encoding method, decoding device, and decoding method for encoding multiple viewpoints for compatibility with existing mode allowing fewer viewpoints
US9900595B2 (en) Encoding device, encoding method, decoding device, and decoding method
WO2015098559A1 (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法