JP6115676B2 - ライトフィールドの合成方法 - Google Patents
ライトフィールドの合成方法 Download PDFInfo
- Publication number
- JP6115676B2 JP6115676B2 JP2016089208A JP2016089208A JP6115676B2 JP 6115676 B2 JP6115676 B2 JP 6115676B2 JP 2016089208 A JP2016089208 A JP 2016089208A JP 2016089208 A JP2016089208 A JP 2016089208A JP 6115676 B2 JP6115676 B2 JP 6115676B2
- Authority
- JP
- Japan
- Prior art keywords
- light field
- image
- image information
- dimensional
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
本発明は、ライトフィールドの合成方法に関し、特に、被写体の立体画像を提示するために利用される多視点画像情報を合成する技術に関する。
立体画像を提示するために、古くから様々な方法が提案されてきており、その一部については既に実用化が図られている。たとえば、下記の特許文献1には、同一の被写体を異なる方向に平行投影して得られる複数枚の平行投影画像を、多数の短冊領域に分割して所定の順序で並び替えて媒体上に印刷し、その上にレンチキュラーレンズを配置することにより、特定の視点位置から特定の平行投影画像が観察されるようにして立体画像を提示する方法が開示されている。
また、下記の特許文献2には、同一の被写体を複数方向から実写撮影することによって多視点画像を取得し、この実写多視点画像に基づいてディスプレイ画面上に立体画像を表示する技術が開示されている。このような実写撮影は、通常、被写体の近傍に直線状もしくは円弧状のレールを敷設し、このレールに沿ってカメラを移動させながら行われる。
これらの方法は、いずれも、同一の被写体を異なる方向に投影もしくは異なる方向から撮影して得られる複数枚の二次元画像群によって多視点画像情報を構成し、この多視点画像情報に基づいて被写体の立体画像を提示する、という手法を採用するものである。すなわち、特許文献1に係る方法は、印刷媒体とレンチキュラーレンズとの組み合わせにより多視点画像情報の具体的な提示を行っているのに対して、特許文献2に係る方法は、コンピュータによる画像処理を経てディスプレイ画面上に表示される画像として多視点画像情報の具体的な提示を行っていることになる。
最近では、被写体の異なる方向への平行投影像の集合体から構成される多視点画像情報を、様々な方向を向いた光線ベクトルを平面上に定義した「ライトフィールド(Light Field)」という概念で取り扱う手法が提案されている。たとえば、下記の非特許文献1には、空間内の光線のふるまいを完全に記述するために、「空間内の座標値(x,y,z)で示される点を、方位角φおよび仰角θで示される方向に向かって、波長λをもつ光線が時刻tにおいて通過した」という現象を、Plenopticという7次元の関数Pを用いて、P(x,y,z,φ,θ,λ,t)という形式で記述する理論が開示されており、そのような記述形式を立体画像の提示技術に利用する一形態として、下記の非特許文献2には、「ライトフィールド(Light Field)」という概念の導入が提唱されている。更に、下記の特許文献3および4には、このようなライトフィールドを利用した三次元画像の具体的な取り扱い方法が開示されている。
Edward H. Adelson and James R. Bergen "The Plenoptic Function and the Elements of Early Vision" Computational Models of Visual Processing (pp. 3-20). Cambridge, MA: MIT Press (1991).
Marc Levoy and Pat Hanrahan "Light Field Rendering" Proceedings of ACM SIGGRAPH '96, ACM, 1996, pp.43-54.
上述したとおり、特定の被写体について多視点画像情報を用意することができれば、この多視点画像情報を利用して、当該被写体の立体表示が可能な印刷媒体を作成することもできるし、ディスプレイ画面上に当該被写体の立体表示を行うことも可能になる。
しかしながら、このような多視点画像情報を実写撮影によって用意するには、実物の被写体を様々な方向から撮影する作業が必要になり、上述したように、カメラを移動させるためのレールが敷設された大掛かりな設備が必要になる。また、実写撮影時にカメラの位置を正確に制御するための駆動制御装置なども必要になる。被写体が小さな物品である場合には、小規模なスタジオでの実写撮影が可能であるが、被写体が複数のメンバーからなる人物の集合体のような場合、体育館などの大型施設にレールや資材を搬入し、これらを組み立てて撮影設備を構築する必要がある。また、被写体の背景画像として、屋外の景色などを利用したい場合、屋外にレールを敷設して撮影する必要があるが、現実的には、そのような撮影は非常に困難である。
もちろん、多視点画像情報をCG画像として用意する手法を採れば、実写撮影が不要になるため、上述した大掛かりな設備は不要になる。しかしながら、実写画像と同等品質の被写体画像をCGで作成するには、それなりの費用と制作時間が必要になる。このため、CG画像のみによって構成される多視点画像情報は、実用上、限定的な用途での利用にしか適していない。
そこで本発明は、それぞれ別個の被写体についての情報を含んだ複数組の多視点画像情報を相互に合成し、違和感のない合成立体画像を提示する方法を提供することを目的とする。
本発明は、ライトフィールドの合成方法に関するものであるが、当該発明の基本的な着想は、多視点画像情報を合成する新たな手法に端を発するものである。そこで、ここでは説明の便宜上、本発明に関連する多視点画像情報の合成方法および合成装置を参考態様として述べることにする。
本発明の第1の参考態様は、被写体をそれぞれ異なる方向に平行投影した複数n枚の二次元画像によって構成される多視点画像情報を合成する多視点画像情報の合成方法において、
コンピュータが、第1の被写体αが記録された第1の多視点画像情報E(α)と、第2の被写体βが記録された第2の多視点画像情報E(β)と、を入力する画像情報入力段階と、
コンピュータが、第1の多視点画像情報E(α)と第2の多視点画像情報E(β)とを合成するための合成条件を設定する合成条件設定段階と、
コンピュータが、第1の多視点画像情報E(α)を構成する第i番目(1≦i≦n)の二次元画像Pαiと、第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiと、を合成して、所定の合成面W上に第i番目の合成二次元画像Pγiを作成する処理を、i=1〜nについて繰り返し実行する画像合成段階と、
コンピュータが、画像合成段階で得られたn枚の合成二次元画像Pγ1〜Pγnによって構成される多視点画像情報を、合成された多視点画像情報E(γ)として出力する画像情報出力段階と、
を行うようにし、
第1の多視点画像情報E(α)を構成する第i番目の二次元画像Pαiは、第1の被写体αを所定の投影面上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなし、第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiは、第2の被写体βを所定の投影面上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなし、
合成条件は、第1の多視点画像情報E(α)を構成する二次元画像の合成面Wに対する位置および第2の多視点画像情報E(β)を構成する二次元画像の合成面Wに対する位置を示す条件であり、第1の多視点画像情報E(α)を構成する二次元画像についての奥行値Zαと、第2の多視点画像情報E(β)を構成する二次元画像についての奥行値Zβと、を含んでおり、
画像合成段階では、第1の多視点画像情報E(α)を構成する第i番目の二次元画像Pαiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zαとなるような所定位置に配置し、第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zβとなるような所定位置に配置し、合成面W上に、二次元画像Pαiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、二次元画像Pβiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、を形成し、これら平行投影像を奥行値Zα,Zβに基づく位置関係を考慮して合成することにより第i番目の合成二次元画像Pγiを作成するようにしたものである。
コンピュータが、第1の被写体αが記録された第1の多視点画像情報E(α)と、第2の被写体βが記録された第2の多視点画像情報E(β)と、を入力する画像情報入力段階と、
コンピュータが、第1の多視点画像情報E(α)と第2の多視点画像情報E(β)とを合成するための合成条件を設定する合成条件設定段階と、
コンピュータが、第1の多視点画像情報E(α)を構成する第i番目(1≦i≦n)の二次元画像Pαiと、第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiと、を合成して、所定の合成面W上に第i番目の合成二次元画像Pγiを作成する処理を、i=1〜nについて繰り返し実行する画像合成段階と、
コンピュータが、画像合成段階で得られたn枚の合成二次元画像Pγ1〜Pγnによって構成される多視点画像情報を、合成された多視点画像情報E(γ)として出力する画像情報出力段階と、
を行うようにし、
第1の多視点画像情報E(α)を構成する第i番目の二次元画像Pαiは、第1の被写体αを所定の投影面上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなし、第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiは、第2の被写体βを所定の投影面上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなし、
合成条件は、第1の多視点画像情報E(α)を構成する二次元画像の合成面Wに対する位置および第2の多視点画像情報E(β)を構成する二次元画像の合成面Wに対する位置を示す条件であり、第1の多視点画像情報E(α)を構成する二次元画像についての奥行値Zαと、第2の多視点画像情報E(β)を構成する二次元画像についての奥行値Zβと、を含んでおり、
画像合成段階では、第1の多視点画像情報E(α)を構成する第i番目の二次元画像Pαiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zαとなるような所定位置に配置し、第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zβとなるような所定位置に配置し、合成面W上に、二次元画像Pαiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、二次元画像Pβiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、を形成し、これら平行投影像を奥行値Zα,Zβに基づく位置関係を考慮して合成することにより第i番目の合成二次元画像Pγiを作成するようにしたものである。
本発明の第2の参考態様は、上述した第1の参考態様に係る多視点画像情報の合成方法において、
所定の基準点Qを含む平面上に基準点Qを通る複数n組の方向ベクトルを定義し、第1の多視点画像情報E(α)および第2の多視点画像情報E(β)として、n組の方向ベクトルの方向を個々の観察方向とする多視点画像情報を用いるようにしたものである。
所定の基準点Qを含む平面上に基準点Qを通る複数n組の方向ベクトルを定義し、第1の多視点画像情報E(α)および第2の多視点画像情報E(β)として、n組の方向ベクトルの方向を個々の観察方向とする多視点画像情報を用いるようにしたものである。
本発明の第3の参考態様は、上述した第1の参考態様に係る多視点画像情報の合成方法において、
XYZ三次元座標系の原点Oを通るベクトルであって、XY平面上への正射影投影像とY軸とのなす方位角φと、XY平面に対する仰角θと、によって特定される方向ベクトルD(φ,θ)を、θをa通り、φをb通りに変化させることにより、a×b通り定義し、第1の多視点画像情報E(α)および第2の多視点画像情報E(β)として、合計n通り(但し、n=a×b)の方向ベクトルの方向を個々の観察方向とする多視点画像情報を用いるようにしたものである。
XYZ三次元座標系の原点Oを通るベクトルであって、XY平面上への正射影投影像とY軸とのなす方位角φと、XY平面に対する仰角θと、によって特定される方向ベクトルD(φ,θ)を、θをa通り、φをb通りに変化させることにより、a×b通り定義し、第1の多視点画像情報E(α)および第2の多視点画像情報E(β)として、合計n通り(但し、n=a×b)の方向ベクトルの方向を個々の観察方向とする多視点画像情報を用いるようにしたものである。
本発明の第4の参考態様は、上述した第1〜第3の参考態様に係る多視点画像情報の合成方法において、
合成条件設定段階で、奥行値ZαおよびZβの値として、一方については正の値もしくは負の値または零を設定し、他方については正の値もしくは負の値を設定し、
画像合成段階では、奥行値の小さい画像についての平行投影像が手前に観察されるような合成を行うようにしたものである。
合成条件設定段階で、奥行値ZαおよびZβの値として、一方については正の値もしくは負の値または零を設定し、他方については正の値もしくは負の値を設定し、
画像合成段階では、奥行値の小さい画像についての平行投影像が手前に観察されるような合成を行うようにしたものである。
本発明の第5の参考態様は、上述した第4の参考態様に係る多視点画像情報の合成方法において、
画像合成段階で、合成面W上において、形成される平行投影像が重複しない領域については、形成される平行投影像をそのまま記録し、形成される平行投影像が重複する領域については、手前に観察される平行投影像のみを記録することにより合成を行うようにしたものである。
画像合成段階で、合成面W上において、形成される平行投影像が重複しない領域については、形成される平行投影像をそのまま記録し、形成される平行投影像が重複する領域については、手前に観察される平行投影像のみを記録することにより合成を行うようにしたものである。
本発明の第6の参考態様は、上述した第5の参考態様に係る多視点画像情報の合成方法において、
第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnおよび第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnの少なくとも一方が、背景属性を示す画素値をもった画素を含む画像であり、
画像合成段階では、背景属性を示す画素値をもった画素からなる領域については平行投影像を形成しないようにし、合成面W上に平行投影像が形成されていない領域が存在する場合には、当該領域内の画素については背景属性を示す画素値を与えることにより合成二次元画像を作成するようにしたものである。
第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnおよび第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnの少なくとも一方が、背景属性を示す画素値をもった画素を含む画像であり、
画像合成段階では、背景属性を示す画素値をもった画素からなる領域については平行投影像を形成しないようにし、合成面W上に平行投影像が形成されていない領域が存在する場合には、当該領域内の画素については背景属性を示す画素値を与えることにより合成二次元画像を作成するようにしたものである。
本発明の第7の参考態様は、上述した第1〜第6の参考態様に係る多視点画像情報の合成方法において、
第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnおよび第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnの少なくとも一方が、同一の共通画像によって構成されているようにしたものである。
第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnおよび第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnの少なくとも一方が、同一の共通画像によって構成されているようにしたものである。
本発明の第8の参考態様は、上述した第1〜第7の参考態様に係る多視点画像情報の合成方法を利用した立体画像提示方法において、
第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnおよび第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnを用意する多視点画像情報準備段階と、
多視点画像情報の合成方法を実行することにより、合成された多視点画像情報E(γ)を作成する多視点画像情報合成段階と、
多視点画像情報E(γ)を構成するn枚の合成二次元画像Pγ1〜Pγnを、第i番目(1≦i≦n)の合成二次元画像Pγiが主として第i番目の観察方向Diに提示されるような態様で提示する画像提示段階と、
を行うようにしたものである。
第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnおよび第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnを用意する多視点画像情報準備段階と、
多視点画像情報の合成方法を実行することにより、合成された多視点画像情報E(γ)を作成する多視点画像情報合成段階と、
多視点画像情報E(γ)を構成するn枚の合成二次元画像Pγ1〜Pγnを、第i番目(1≦i≦n)の合成二次元画像Pγiが主として第i番目の観察方向Diに提示されるような態様で提示する画像提示段階と、
を行うようにしたものである。
本発明の第9の参考態様は、上述した第8の参考態様に係る多視点画像情報の合成方法を利用した立体画像提示方法において、
多視点画像情報準備段階として、
第1の被写体αを複数ζ通りの方向から実写撮影することにより、合計ζ枚の第1の実写撮影像群を得る第1の撮影段階と、
第2の被写体βを複数η通りの方向から実写撮影することにより、合計η枚の第2の実写撮影像群を得る第2の撮影段階と、
合計ζ枚の第1の実写撮影像群に基づいて、第1の被写体αを所定の投影面上に、第1番目の観察方向D1〜第n番目の観察方向Dnのn通りの観察方向に平行な方向に投影して得られる平行投影像をそれぞれ求め、第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnを作成する第1の多視点画像情報作成段階と、
合計η枚の第2の実写撮影像群に基づいて、第2の被写体βを所定の投影面上に、第1番目の観察方向D1〜第n番目の観察方向Dnのn通りの観察方向に平行な方向に投影して得られる平行投影像をそれぞれ求め、第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnを作成する第2の多視点画像情報作成段階と、
を行うようにしたものである。
多視点画像情報準備段階として、
第1の被写体αを複数ζ通りの方向から実写撮影することにより、合計ζ枚の第1の実写撮影像群を得る第1の撮影段階と、
第2の被写体βを複数η通りの方向から実写撮影することにより、合計η枚の第2の実写撮影像群を得る第2の撮影段階と、
合計ζ枚の第1の実写撮影像群に基づいて、第1の被写体αを所定の投影面上に、第1番目の観察方向D1〜第n番目の観察方向Dnのn通りの観察方向に平行な方向に投影して得られる平行投影像をそれぞれ求め、第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnを作成する第1の多視点画像情報作成段階と、
合計η枚の第2の実写撮影像群に基づいて、第2の被写体βを所定の投影面上に、第1番目の観察方向D1〜第n番目の観察方向Dnのn通りの観察方向に平行な方向に投影して得られる平行投影像をそれぞれ求め、第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnを作成する第2の多視点画像情報作成段階と、
を行うようにしたものである。
本発明の第10の参考態様は、上述した第1〜7の参考態様に係る多視点画像情報の合成方法を利用した立体画像記録媒体の作成方法において、
第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnおよび第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnを用意する多視点画像情報準備段階と、
多視点画像情報の合成方法を実行することにより多視点画像情報E(γ)を作成する多視点画像情報合成段階と、
多視点画像情報E(γ)を構成するn枚の合成二次元画像Pγ1〜Pγnを、それぞれ複数m個の部分画像に分割し、記録媒体上の記録面を複数m個の区画K1〜Kmに分割し、記録媒体上の第i番目の区画Kiにn枚の合成二次元画像Pγ1〜Pγnの第i番目の部分画像をそれぞれ記録する媒体記録段階と、
記録媒体上の個々の区画上に、第i番目の合成二次元画像Pγiの部分画像が主として第i番目の観察方向Diに提示されるような光学素子を配置する光学素子配置段階と、
を行うようにしたものである。
第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnおよび第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnを用意する多視点画像情報準備段階と、
多視点画像情報の合成方法を実行することにより多視点画像情報E(γ)を作成する多視点画像情報合成段階と、
多視点画像情報E(γ)を構成するn枚の合成二次元画像Pγ1〜Pγnを、それぞれ複数m個の部分画像に分割し、記録媒体上の記録面を複数m個の区画K1〜Kmに分割し、記録媒体上の第i番目の区画Kiにn枚の合成二次元画像Pγ1〜Pγnの第i番目の部分画像をそれぞれ記録する媒体記録段階と、
記録媒体上の個々の区画上に、第i番目の合成二次元画像Pγiの部分画像が主として第i番目の観察方向Diに提示されるような光学素子を配置する光学素子配置段階と、
を行うようにしたものである。
本発明の第11の参考態様は、上述した第1〜第7の参考態様に係る多視点画像情報の合成方法を、コンピュータにプログラムを組み込んで実行させるようにしたものである。
本発明の第12の参考態様は、被写体をそれぞれ異なる方向に平行投影した複数n枚の二次元画像によって構成される多視点画像情報を合成する多視点画像情報の合成装置において、
第1の被写体αが記録された第1の多視点画像情報E(α)と、第2の被写体βが記録された第2の多視点画像情報E(β)と、を格納する画像情報格納部と、
オペレータの設定指示に基づいて、第1の多視点画像情報E(α)と第2の多視点画像情報E(β)とを合成するための合成条件を格納する合成条件格納部と、
第1の多視点画像情報E(α)を構成する第i番目(1≦i≦n)の二次元画像Pαiと、第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiと、を合成して、所定の合成面W上に第i番目の合成二次元画像Pγiを作成する処理を、i=1〜nについて繰り返し実行する画像合成部と、
画像合成部で作成されたn枚の合成二次元画像Pγ1〜Pγnによって構成される多視点画像情報を、合成された多視点画像情報E(γ)として格納する合成画像格納部と、
を設け、
画像情報格納部に格納されている第1の多視点画像情報E(α)は、n枚の二次元画像の集合体によって構成され、そのうちの第i番目の二次元画像Pαiは、第1の被写体αを所定の投影面上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなし、
画像情報格納部に格納されている第2の多視点画像情報E(β)は、n枚の二次元画像の集合体によって構成され、そのうちの第i番目の二次元画像Pβiは、第2の被写体βを所定の投影面上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなし、
合成条件設定部は、少なくとも、第1の多視点画像情報E(α)を構成する二次元画像の合成面Wに対する位置を示す奥行値Zαと、第2の多視点画像情報E(β)を構成する二次元画像の合成面Wに対する位置を示す奥行値Zβと、を格納し、
画像合成部は、画像情報格納部に格納されている第1の多視点画像情報E(α)を構成する第i番目の二次元画像Pαiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zαとなるような所定位置に配置し、画像情報格納部に格納されている第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zβとなるような所定位置に配置し、合成面W上に、二次元画像Pαiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、二次元画像Pβiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、を形成し、これら平行投影像を奥行値Zα,Zβに基づく位置関係を考慮して合成することにより第i番目の合成二次元画像Pγiを作成して合成画像格納部に格納するようにしたものである。
第1の被写体αが記録された第1の多視点画像情報E(α)と、第2の被写体βが記録された第2の多視点画像情報E(β)と、を格納する画像情報格納部と、
オペレータの設定指示に基づいて、第1の多視点画像情報E(α)と第2の多視点画像情報E(β)とを合成するための合成条件を格納する合成条件格納部と、
第1の多視点画像情報E(α)を構成する第i番目(1≦i≦n)の二次元画像Pαiと、第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiと、を合成して、所定の合成面W上に第i番目の合成二次元画像Pγiを作成する処理を、i=1〜nについて繰り返し実行する画像合成部と、
画像合成部で作成されたn枚の合成二次元画像Pγ1〜Pγnによって構成される多視点画像情報を、合成された多視点画像情報E(γ)として格納する合成画像格納部と、
を設け、
画像情報格納部に格納されている第1の多視点画像情報E(α)は、n枚の二次元画像の集合体によって構成され、そのうちの第i番目の二次元画像Pαiは、第1の被写体αを所定の投影面上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなし、
画像情報格納部に格納されている第2の多視点画像情報E(β)は、n枚の二次元画像の集合体によって構成され、そのうちの第i番目の二次元画像Pβiは、第2の被写体βを所定の投影面上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなし、
合成条件設定部は、少なくとも、第1の多視点画像情報E(α)を構成する二次元画像の合成面Wに対する位置を示す奥行値Zαと、第2の多視点画像情報E(β)を構成する二次元画像の合成面Wに対する位置を示す奥行値Zβと、を格納し、
画像合成部は、画像情報格納部に格納されている第1の多視点画像情報E(α)を構成する第i番目の二次元画像Pαiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zαとなるような所定位置に配置し、画像情報格納部に格納されている第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zβとなるような所定位置に配置し、合成面W上に、二次元画像Pαiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、二次元画像Pβiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、を形成し、これら平行投影像を奥行値Zα,Zβに基づく位置関係を考慮して合成することにより第i番目の合成二次元画像Pγiを作成して合成画像格納部に格納するようにしたものである。
以上、本発明に関連する多視点画像情報の合成方法および合成装置を参考態様として述べた。本発明は、これらの参考態様として述べた技術思想を利用して、新たなライトフィールドの合成方法を提供するものである。以下、本発明に係るライトフィールドの合成方法の態様を説明する。
(1) 本発明の第1の態様は、複数の点Pが配置された平面であって、個々の点Pのそれぞれには、当該点Pを通り互いに異なる方向を向いた複数本の光線ベクトルLが定義され、個々の光線ベクトルLについてそれぞれ特定の特徴値が付与されている平面として定義されるライトフィールドを合成するライトフィールドの合成方法において、
コンピュータが、XY二次元座標平面上の点Pの座標値(x,y)および当該点Pを通る光線ベクトルLの向きDを変数とする関数によって個々の特徴値を示す第1のライトフィールドFα(x,y,D)および第2のライトフィールドFβ(x,y,D)を入力するライトフィールド入力段階と、
コンピュータが、第1のライトフィールドと第2のライトフィールドとを合成するための合成条件を設定する合成条件設定段階と、
コンピュータが、第1のライトフィールドFα(x,y,D)と第2のライトフィールドFβ(x,y,D)とを合成して、XY二次元座標平面上の点Pの座標値(x,y)および当該点Pを通る光線ベクトルLの向きDを変数とする関数によって個々の特徴値を示す第3のライトフィールドFγ(x,y,D)を作成するライトフィールド合成段階と、
コンピュータが、ライトフィールド合成段階で得られた第3のライトフィールドFγ(x,y,D)を出力するライトフィールド出力段階と、
を行い、
合成条件には、所定の合成面Wに対して平行になるように、第1のライトフィールドおよび第2のライトフィールドを所定位置に配置するための配置条件が含まれており、
ライトフィールド合成段階では、配置条件に基づいて、第1のライトフィールドおよび第2のライトフィールドを配置し、合成面W上の特定点Pを通り特定方向Dを向いた特定光線ベクトルの特徴値を、当該特定光線ベクトルを含む参照直線と第1のライトフィールドとの交点を通り特定方向Dを向いた光線ベクトルの特徴値および参照直線と第2のライトフィールドとの交点を通り特定方向Dを向いた光線ベクトルの特徴値の少なくとも一方に基づいて決定し、個々の点を通る個々の光線ベクトルに対して所定の特徴値が付与された合成面Wを第3のライトフィールドFγ(x,y,D)とするようにしたものである。
コンピュータが、XY二次元座標平面上の点Pの座標値(x,y)および当該点Pを通る光線ベクトルLの向きDを変数とする関数によって個々の特徴値を示す第1のライトフィールドFα(x,y,D)および第2のライトフィールドFβ(x,y,D)を入力するライトフィールド入力段階と、
コンピュータが、第1のライトフィールドと第2のライトフィールドとを合成するための合成条件を設定する合成条件設定段階と、
コンピュータが、第1のライトフィールドFα(x,y,D)と第2のライトフィールドFβ(x,y,D)とを合成して、XY二次元座標平面上の点Pの座標値(x,y)および当該点Pを通る光線ベクトルLの向きDを変数とする関数によって個々の特徴値を示す第3のライトフィールドFγ(x,y,D)を作成するライトフィールド合成段階と、
コンピュータが、ライトフィールド合成段階で得られた第3のライトフィールドFγ(x,y,D)を出力するライトフィールド出力段階と、
を行い、
合成条件には、所定の合成面Wに対して平行になるように、第1のライトフィールドおよび第2のライトフィールドを所定位置に配置するための配置条件が含まれており、
ライトフィールド合成段階では、配置条件に基づいて、第1のライトフィールドおよび第2のライトフィールドを配置し、合成面W上の特定点Pを通り特定方向Dを向いた特定光線ベクトルの特徴値を、当該特定光線ベクトルを含む参照直線と第1のライトフィールドとの交点を通り特定方向Dを向いた光線ベクトルの特徴値および参照直線と第2のライトフィールドとの交点を通り特定方向Dを向いた光線ベクトルの特徴値の少なくとも一方に基づいて決定し、個々の点を通る個々の光線ベクトルに対して所定の特徴値が付与された合成面Wを第3のライトフィールドFγ(x,y,D)とするようにしたものである。
(2) 本発明の第2の態様は、上述した第1の態様に係るライトフィールドの合成方法において、
ライトフィールド合成段階で、
参照直線と第1のライトフィールドとの交点および参照直線と第2のライトフィールドとの交点のいずれか一方のみが存在する場合には、当該存在する交点を通り特定方向Dを向いた光線ベクトルの特徴値に基づいて第3のライトフィールドの特徴値を決定し、
参照直線と第1のライトフィールドとの交点および参照直線と第2のライトフィールドとの交点の双方が存在する場合には、配置条件に基づいて選択されたいずれか一方の交点を通り特定方向Dを向いた光線ベクトルの特徴値に基づいて第3のライトフィールドの特徴値を決定するようにしたものである。
ライトフィールド合成段階で、
参照直線と第1のライトフィールドとの交点および参照直線と第2のライトフィールドとの交点のいずれか一方のみが存在する場合には、当該存在する交点を通り特定方向Dを向いた光線ベクトルの特徴値に基づいて第3のライトフィールドの特徴値を決定し、
参照直線と第1のライトフィールドとの交点および参照直線と第2のライトフィールドとの交点の双方が存在する場合には、配置条件に基づいて選択されたいずれか一方の交点を通り特定方向Dを向いた光線ベクトルの特徴値に基づいて第3のライトフィールドの特徴値を決定するようにしたものである。
(3) 本発明の第3の態様は、上述した第1または第2の態様に係るライトフィールドの合成方法において、
第1〜第3のライトフィールドが、XY二次元座標平面上に配列された所定面積をもつ多数の画素のそれぞれについて、当該画素の代表点Pを通る複数本の光線ベクトルの各特徴値を画素値としてもつ画像データを構成しており、
ライトフィールド合成段階では、第3のライトフィールドを構成する個々の画素の画素値を、参照直線と第1のライトフィールドとの交点を含む第1のライトフィールド上の画素の画素値および参照直線と第2のライトフィールドとの交点を含む第2のライトフィールド上の画素の画素値の少なくとも一方に基づいて決定するようにしたものである。
第1〜第3のライトフィールドが、XY二次元座標平面上に配列された所定面積をもつ多数の画素のそれぞれについて、当該画素の代表点Pを通る複数本の光線ベクトルの各特徴値を画素値としてもつ画像データを構成しており、
ライトフィールド合成段階では、第3のライトフィールドを構成する個々の画素の画素値を、参照直線と第1のライトフィールドとの交点を含む第1のライトフィールド上の画素の画素値および参照直線と第2のライトフィールドとの交点を含む第2のライトフィールド上の画素の画素値の少なくとも一方に基づいて決定するようにしたものである。
(4) 本発明の第4の態様は、上述した第1〜第3の態様に係るライトフィールドの合成方法において、
個々の光線ベクトルに付与する特徴値として、三原色R,G,Bの画素値の組み合わせを用い、
第1のライトフィールドを、原色R成分Fαr(x,y,D)と原色G成分Fαg(x,y,D)と原色B成分Fαb(x,y,D)との組み合わせによって構成し、
第2のライトフィールドを、原色R成分Fβr(x,y,D)と原色G成分Fβg(x,y,D)と原色B成分Fβb(x,y,D)との組み合わせによって構成し、
第3のライトフィールドを、原色R成分Fγr(x,y,D)と原色G成分Fγg(x,y,D)と原色B成分Fγb(x,y,D)との組み合わせによって構成し、
ライトフィールド合成段階では、個々の原色成分ごとに独立して特徴値の決定を行うようにしたものである。
個々の光線ベクトルに付与する特徴値として、三原色R,G,Bの画素値の組み合わせを用い、
第1のライトフィールドを、原色R成分Fαr(x,y,D)と原色G成分Fαg(x,y,D)と原色B成分Fαb(x,y,D)との組み合わせによって構成し、
第2のライトフィールドを、原色R成分Fβr(x,y,D)と原色G成分Fβg(x,y,D)と原色B成分Fβb(x,y,D)との組み合わせによって構成し、
第3のライトフィールドを、原色R成分Fγr(x,y,D)と原色G成分Fγg(x,y,D)と原色B成分Fγb(x,y,D)との組み合わせによって構成し、
ライトフィールド合成段階では、個々の原色成分ごとに独立して特徴値の決定を行うようにしたものである。
(5) 本発明の第5の態様は、上述した第1〜第4の態様に係るライトフィールドの合成方法において、
第1のライトフィールドおよび第2のライトフィールドの少なくとも一方が、同一の点Pを通る光線ベクトルについては、向きDにかかわらず同一の特徴値が付与されているライトフィールドであるようにしたものである。
第1のライトフィールドおよび第2のライトフィールドの少なくとも一方が、同一の点Pを通る光線ベクトルについては、向きDにかかわらず同一の特徴値が付与されているライトフィールドであるようにしたものである。
(6) 本発明の第6の態様は、上述した第1〜第5の態様に係るライトフィールドの合成方法を、コンピュータにプログラムを組み込んで実行させるようにしたものである。
本発明に係るライトフィールドの合成方法によれば、所定の合成面Wに対して平行になるように、第1のライトフィールドおよび第2のライトフィールドを所定位置に配置し、合成面W上の特定点Pを通り特定方向Dを向いた特定光線ベクトルの特徴値を決定し、個々の点を通る個々の光線ベクトルに対して所定の特徴値が付与された合成面Wを第3のライトフィールドFγ(x,y,D)とするようにしたため、任意のライトフィールドの合成を行うことが可能になる。このため、それぞれ別個の被写体についての情報を含んだ違和感のない合成立体画像を提示することができる。
以下、本発明を図示する実施形態に基づいて説明する。なお、上述したとおり、本発明は、ライトフィールドの合成方法に関するものであるが、当該発明の基本的な着想は、多視点画像情報を合成する新たな手法に端を発するものである。そこで、ここでは説明の便宜上、まず、本発明に関連する多視点画像情報の合成方法についての説明を行うことにする。
<<< §1.多視点画像情報を利用した立体画像の提示方法 >>>
本発明は、多視点画像情報を用いて被写体の立体画像を提示するために利用可能な技術である。ここで、多視点画像情報とは、提示対象となる被写体をそれぞれ異なる方向に平行投影した二次元画像の集合体である。このような多視点画像情報を用いて立体画像を提示する技術自体は、前掲の特許文献1,2等に開示されているように公知であるが、ここでは、本発明の説明の便宜上、その基本原理を簡単に説明しておく。
本発明は、多視点画像情報を用いて被写体の立体画像を提示するために利用可能な技術である。ここで、多視点画像情報とは、提示対象となる被写体をそれぞれ異なる方向に平行投影した二次元画像の集合体である。このような多視点画像情報を用いて立体画像を提示する技術自体は、前掲の特許文献1,2等に開示されているように公知であるが、ここでは、本発明の説明の便宜上、その基本原理を簡単に説明しておく。
図1は、被写体α(この例ではコーヒーカップ)をそれぞれ異なる方向に平行投影した二次元平行投影画像P1〜P5によって構成される多視点画像情報Eの一例を示す正面図である。この例の場合、被写体αの手前に有限の面積をもった投影面Sが配置されており、被写体αは、この投影面S上に投影される。基準点Qに端を発する矢印D1〜D5は、投影面S上への投影方向を示すものであり、その先端方向には、それぞれ視点V1〜V5が設定されている。結局、矢印D1〜D5は、基準点Qから各視点V1〜V5へ向かう方向を示していることになり、ここでは各矢印の示す方向を観察方向D1〜D5と呼ぶことにする。なお、図1では、基準点Qを被写体αの若干手前の位置に設定しているが、基準点Qを被写体αの中心点に設定すると、より効果的な立体感をもった被写体αを提示することが可能になる。
図1の下段に示す二次元画像P1〜P5は、被写体αをそれぞれ観察方向D1〜D5に平行投影したときに、投影面S上に得られる二次元画像であり、一般に「スライス」と呼ばれている。投影面Sを窓と考えれば、これらの二次元画像P1〜P5は、それぞれ視点V1〜V5の位置から当該窓を通して被写体αを観察することにより得られる画像ということができる。多視点画像情報Eは、これら二次元画像P1〜P5の集合体によって構成される情報であり、具体的には、これら5枚の二次元画像P1〜P5を示す画像データの集合体ということになる。
ここで留意すべき点は、各二次元画像P1〜P5は、各視点V1〜V5の位置から被写体αを撮影した二次元撮影画像ではなく、被写体αをそれぞれ異なる観察方向D1〜D5に平行投影した投影像になっている点である。図2は、被写体αを投影面Sに対して平行投影している状態を示す上面図である。図2(a) は、観察方向D3(図1において正面位置にある視点V3に向かう方向)に平行投影した状態を示しており、投影面S上の太線で示す部分に被写体αの平行投影像P3が得られることになる。同様に、図2(b) は、観察方向D2(図1において斜め左位置にある視点V2に向かう方向)に平行投影した状態を示しており、投影面S上の太線で示す部分に被写体αの平行投影像P2が得られることになる。
一般に、レンズなどの光学系を用いた撮影によって得られる撮影画像は、遠近法(Perspective :透視図法)を用いて被写体を二次元平面上に表現した画像になるが、多視点画像情報Eを構成する個々の二次元画像P1〜P5は、このような遠近法を用いた表現にはならず、あくまでも被写体上の各点を所定の観察方向に向かって平行投影することにより、投影面S上に得られる画像ということになる。
たとえば、図3に示す例のように、全く同じサイズの2つの被写体α1,α2(図示の例では、同一のコーヒーカップを2組)を、被写体α1を手前、被写体α2を奥に配置して、観察方向D3に向けて投影面S上に平行投影すると、太線で示す部分に被写体α1,α2の平行投影像P3(被写体α1,α2の一部は相互に重なっている)が得られる。図4(a) は、このようにして投影面S上に得られた平行投影像を示している。これに対して、図4(b) は、2つの被写体α1,α2を正面から写真撮影して得られた撮影像を示している。この図4(b) に示す撮影像では、手前の被写体α1に比べて奥の被写体α2の方が小さく写っているが、これはレンズなどの光学系を用いた撮影を行ったため、遠近法が適用された二次元画像(いわゆる、パースがかかった画像)が形成されたためである。
さて、図1の下段に示すような5枚の二次元画像P1〜P5(平行投影像)によって構成される多視点画像情報Eが用意できたら、投影面Sの位置に個々の二次元画像P1〜P5を提示すれば、被写体αを立体画像として提示することができる。但し、このとき、何らかの手段を用いて、個々の二次元画像P1〜P5を、それぞれ対応する観察方向D1〜D5に対してのみ提示するようにする。たとえば、二次元画像P1は、対応する観察方向D1に対してのみ提示されるようにし、他の観察方向D2〜D5には提示されないようにする。そうすれば、図示の視点V1から観察した場合、投影面S上には二次元画像P1が表示されているように見え、図示の視点V2から観察した場合、投影面S上には二次元画像P2が表示されているように見え、... といった具合に、個々の視点から観察した場合に得られる二次元画像がそれぞれ異なることになり、立体視の効果が得られる。
なお、ここでは、説明の便宜上、5通りの観察方向D1〜D5を定義して、5枚の二次元画像P1〜P5を作成した例を示したが、実用上は、よりきめの細かな観察方向のバリエーションを定義し(たとえば、70通りの観察方向D1〜D70)、個々の観察方向に対応する平行投影像(たとえば、70通りの二次元画像P1〜P70)を作成することにより、視点を動かした場合にも違和感のない立体画像を提示することが可能になる。
要するに、被写体αをそれぞれ異なる観察方向D1〜Dnに平行投影して、同一の投影面S上に二次元画像P1〜Pnを形成し、これらn枚の二次元画像によって多視点画像情報Eを構成するようにすれば、この多視点画像情報Eを用いた立体画像の提示が可能になる。
具体的には、何らかの手段を用いて、投影面S上に形成された第i番目の二次元画像Piが、第i番目の観察方向Diに対してのみ提示されるようにすればよい。もっとも、現実的には、第i番目の二次元画像Piを、厳密に第i番目の観察方向Diだけに提示することは困難であり、また、その必要もない。したがって、実用上は、第i番目の二次元画像Piは、第i番目の観察方向Diだけでなく、その近傍方向にも提示されてかまわない。要するに、第i番目の二次元画像Piが、主として第i番目の観察方向Diに提示されるような手法を採れば、実用上、支障のない立体画像の提示が可能である。
続いて、第i番目の二次元画像Piが、主として第i番目の観察方向Diに提示されるような手法の一例として、レンチキュラーレンズを用いた具体例を説明しよう。ここでは、図1の下段に示すような5枚の二次元画像P1〜P5によって構成される多視点画像情報Eに基づいて立体画像記録媒体を作成する具体的なプロセスを、図5を参照しながら説明する。
図5の上段の図は、図1の下段に示す二次元画像P1〜P5をそれぞれ横方向に6等分して、6つの短冊型の部分画像を形成した例を示す平面図である。たとえば、二次元画像P1は、6つの部分画像P1a〜P1fに分割されており、二次元画像P2は、6つの部分画像P2a〜P2fに分割されており、以下同様である。なお、この図5では、説明の便宜上、二次元画像P1〜P5の構成領域に、それぞれ異なるハッチングを施して相互に区別できるようにしてある。
こうして、5枚の二次元画像P1〜P5をそれぞれ6等分することにより、合計30組の短冊型の部分画像が用意できたら、これら30組の部分画像を、図5の中段の図に示すように並び替えた状態で記録媒体M上に印刷する。ここで、5組の部分画像が隣接配置された領域を1区画として、図示のように、6つの区画Ka〜Kfを定義すると、最も左に位置する第1の区画Kaには、各二次元画像P1〜P5の最も左に位置する部分画像P1a,P2a,P3a,P4a,P5aがこの順に配置されていることになる。同様に、第2の区画Kbには、各二次元画像P1〜P5の左から2番目に位置する部分画像P1b,P2b,P3b,P4b,P5bがこの順に配置され、... 、第6の区画Kfには、各二次元画像P1〜P5の最も右に位置する部分画像P1f,P2f,P3f,P4f,P5fがこの順に配置される。
結局、多視点画像情報Eが複数n枚の二次元画像P1〜Pnによって構成されており、個々の二次元画像をそれぞれ複数m個の部分画像に分割したとすれば、記録媒体M上の記録面も複数m個の区画K1〜Kmに分割し、第i番目の区画Ki内にn枚の二次元画像P1〜Pnの第i番目の部分画像をそれぞれ記録するようにすればよい(図5に示す例は、n=5、m=6に設定した例ということになる)。
続いて、このような印刷を施した記録媒体M上に、レンチキュラーレンズLを配置すれば、被写体αが記録された立体画像記録媒体が得られる。図5の下段の図は、こうして作成された立体画像記録媒体の上面図である。レンチキュラーレンズLは、個々の区画K1〜Kmごとに配置された断面が蒲鉾状のレンズの集合体であり、1つの区画上に配置されているレンズは、当該区画に印刷されている第i番目の二次元画像Piの部分画像が第i番目の観察方向Diに提示されるように光を屈折させる機能を果たす。
たとえば、図5の下段に示す例の場合、左端の区画Kaには、5組の部分画像P1a,P2a,P3a,P4a,P5aが印刷されているが、その上に配置されたレンチキュラーレンズLの機能により、部分画像P1aからの光は観察方向D1に屈折し、部分画像P2aからの光は観察方向D2に屈折し、... 、部分画像P5aからの光は観察方向D5に屈折することになる。このような屈折現象は、図示のすべての区画Ka〜Kfにおいて生じ、結局、第i番目の二次元画像Piは、第i番目の観察方向Diに提示されることになる。
なお、図5では、説明の便宜上、個々の二次元画像P1〜P5から取り出した短冊型の部分画像P1a〜P5fを、そのままの縮尺で記録媒体M上に印刷した例を示したが、実用上は、印刷時に任意の倍率で拡大縮小することができる。特に、横方向に関しては、そのままの縮尺で記録媒体M上に印刷すると、観察される被写体αの立体画像は横方向に5倍に引き伸ばされた画像になってしまう。したがって、実用上は、記録媒体M上に印刷する際には、短冊型の個々の部分画像P1a〜P5fを横方向に1/5に縮小する処理を行うのが好ましい。
このようにして作成された立体画像記録媒体では、図の横方向に視点を移動させることによって視差が生じる立体画像が提示されるが、図の縦方向に視点を移動させた場合には、視差が生じることはない。これは、図1に示すように、5通りの観察方向D1〜D5として、横に向きを変えた観察方向を設定し、図5の上段に示すように、各二次元画像P1〜P5を横方向に6分割して縦長の短冊型部分画像を形成し、図5の中段に示すように、各部分画像P1a〜P5fを横方向に並べて配置したためである。
もちろん、必要があれば、縦横いずれの方向に視点を移動させても視差が生じる立体画像を提示可能な立体画像記録媒体を作成することも可能である。そのためには、観察方向を横だけでなく、縦にも変えるバリエーションを設定すればよい。すなわち、図1に示す例の場合、観察方向D1〜D5をそれぞれ所定方向を示す方向ベクトルと考えると、すべての方向ベクトルが基準点Qを含む同一平面上に配置されていることになるが、三次元空間上の任意の方向を向いた方向ベクトルを観察方向として設定するようにすれば、縦横いずれの方向に視点を移動させても視差が生じる立体画像を提示可能な多視点画像情報Eを作成することができる。
一般に、XYZ三次元座標空間上で、原点Oを通り任意の方向を指す方向ベクトルは、図6に示すように、方位角φおよび仰角θという2つの角度パラメータφ,θを用いて、ベクトルD(φ,θ)という形で表すことができる(電子出願の制約上、明細書等ではベクトルを示す矢印記号は省略する)。ここで方位角φは、方向ベクトルDのXY平面上への正射影投影像D′とY軸とのなす角度(もちろん、X軸とのなす角として定義してもかまわない)として与えられ、仰角θは、方向ベクトルDとXY平面とのなす角度として与えられる。
図1に示す例は、原点Oの位置に基準点Qを定義し、XY平面上に含まれる方向ベクトルのみを用いて観察方向D1〜D5を定義した例ということができ、観察方向を示す方向ベクトルは、方位角φのみを用いてベクトルD(φ)で表される。これに仰角θを加えて定義した方向ベクトルD(φ,θ)は、三次元座標空間上の任意の方向を指すことできる。このような方向ベクトルD(φ,θ)を用いて観察方向のバリエーションを定義すれば、縦横いずれの方向に視点を移動させても視差が生じる立体画像を提示することが可能になる。
ここでは、横方向のバリエーションとして、図1に示す例と同様に、方位角φを5通りに変化させ、縦方向のバリエーションとして、仰角θを3通りに変化させた例を示しておく。この例では、結局、15通りの観察方向D11〜D15,D21〜D25,D31〜D35が定義されることになる。すなわち、観察方向D11〜D15は、仰角θを第1の値θ1に固定した状態で、方位角φをφ1〜φ5に変化させることにより得られ、観察方向D21〜D25は、仰角θを第2の値θ2に固定した状態で、方位角φをφ1〜φ5に変化させることにより得られ、観察方向D31〜D35は、仰角θを第3の値θ3に固定した状態で、方位角φをφ1〜φ5に変化させることにより得られる。
図7は、このような15通りの観察方向を設定することにより得られた15通りの二次元画像P11〜P35によって構成される多視点画像情報Eを示す平面図である。各二次元画像P11〜P35は、図1に示す例と同様に、被写体αの手前に有限の面積をもった投影面Sを設置し、被写体αをそれぞれ観察方向D11〜D35によって示される方向に平行投影することによって投影面S上に形成された平行投影像である。このような多視点画像情報Eには、横方向(方位角φを変化させた方向)の視差情報だけでなく、縦方向(仰角θを変化させた方向)の視差情報も含まれているため、縦横いずれの方向に視点を移動させても視差が生じる立体画像を提示することが可能になる。
図8は、図7に示す多視点画像情報Eに基づいて、立体画像記録媒体を作成するプロセスを示す平面図である。図8の上半分の図は、図7に示す二次元画像P11〜P35をそれぞれ横方向に6等分、縦方向に4等分して、24個の矩形状部分画像を形成した例を示す平面図である。こうして、15枚の二次元画像P11〜P35をそれぞれ24等分することにより、合計360組の矩形状部分画像が用意できたら、これら360組の部分画像を、図8の下半分の図に示すように並び替えた状態で記録媒体M上に印刷する。
ここで、記録媒体Mを構成する全領域は、横方向に6等分、縦方向に4等分され、合計24個の区画Ka〜Kxが定義される。また、個々の区画は、更に、横方向に5等分、縦方向に3等分され、合計15個の微小領域に分けられる。そして、1つ1つの微小領域に、二次元画像P11〜P35を構成する個々の矩形状部分画像が割り付けられる。たとえば、記録媒体Mの左上の区画Kaを構成する1行目の微小領域には、部分画像P11a,P12a,P13a,P14a,P15aが割り付けられ、2行目の微小領域には、部分画像P21a,P22a,P23a,P24a,P25aが割り付けられ、3行目の微小領域には、部分画像P31a,P32a,P33a,P34a,P35aが割り付けられる。
別言すれば、記録媒体M上の第1行第1列目の区画Kaには、各二次元画像P11〜P35の第1行第1列目の部分画像P11a〜P35aが割り付けられることになる。同様に、記録媒体M上の第1行第2列目の区画Kbには、各二次元画像P11〜P35の第1行第2列目の部分画像P11b〜P35bが割り付けられることになる。要するに、記録媒体M上の第j行第k列目の区画には、各二次元画像P11〜P35の第j行第k列目の部分画像が割り付けられる。
続いて、このような印刷を施した記録媒体M上に、マイクロレンズアレイを配置すれば、被写体αが記録された立体画像記録媒体が得られる。このマイクロレンズアレイは、個々の区画Ka〜Kxごとに独立したマイクロレンズの集合体であり、1つの区画上に配置されているマイクロレンズは、当該区画に印刷されている第i番目の二次元画像Piの部分画像が第i番目の観察方向Diに提示されるように光を屈折させる機能を果たす。たとえば、図示の区画Kaには、15組の部分画像P11a〜P35aが印刷されているが、その上に配置されたマイクロレンズの機能により、部分画像P11aからの光は観察方向D11に屈折し、部分画像P12aからの光は観察方向D12に屈折し、... 、部分画像P35aからの光は観察方向D35に屈折することになる。このような屈折現象は、図示のすべての区画Ka〜Kxにおいて生じ、結局、第i番目の二次元画像Piは、第i番目の観察方向Diに提示されることになる。
このようにして作成された立体画像記録媒体では、図の横方向に視点を移動させても、図の縦方向に視点を移動させても、視差が生じる立体画像が提示されることになる。
<<< §2.一般的な多視点画像情報の作成方法 >>>
§1で述べたとおり、多視点画像情報Eを構成する個々の二次元画像(たとえば、図1の下段に示す二次元画像P1〜P5)は、被写体αをカメラなどで撮影した通常の撮影画像ではなく、図2に例示するように、被写体αを特定の観察方向に平行投影することによって得られる平行投影像である。
§1で述べたとおり、多視点画像情報Eを構成する個々の二次元画像(たとえば、図1の下段に示す二次元画像P1〜P5)は、被写体αをカメラなどで撮影した通常の撮影画像ではなく、図2に例示するように、被写体αを特定の観察方向に平行投影することによって得られる平行投影像である。
このような平行投影像の集合体からなる多視点画像情報Eを作成するひとつの方法は、CGの手法を用いる方法である。たとえば、図2に示すような被写体αを、コンピュータにより仮想のCG画像として用意しておけば、仮想空間上に定義した投影面S上に、この被写体αを任意の方向に平行投影した投影像を演算によって求めることができる。したがって、図1の下段に示すような二次元画像P1〜P5を、コンピュータによる演算で生成することができる。
しかしながら、高品質の被写体画像をCGで作成するには、それなりの費用と制作時間が必要になるため、商業的な利用を考えると、その用途は限定的にならざるを得ない。そこで、実用上は、被写体αに対して様々な方向から実写撮影を行い、得られた多数の撮影画像データに基づく幾何学的な演算処理を行うことにより、実写画像と同等の品質をもった平行投影像の集合体からなる多視点画像情報Eを作成する方法が利用されている。
図9は、被写体αに対して、このような実写撮影を行う設備の一例を示す上面図である。この例では、被写体αの近傍に、撮影始点Aから撮影終点Bに至るまで直線状の撮影経路Tが設けられている。実際には、この撮影経路Tに沿ってレールが敷設されており、このレール上をカメラが移動できるようになっている。撮影経路Tは、必ずしも直線状の経路にする必要はなく、任意曲線に沿った経路にしてもかまわないが、後述する変換演算処理をできるだけ単純化する上では、図示のような直線経路にするか、あるいは円弧状の経路にするのが好ましい。
このような撮影経路Tに沿って、カメラを撮影始点Aから撮影終点Bへと移動させながら被写体αの撮影を行ってゆけば、撮影経路T上の任意の撮影ポイントから撮影した撮影画像を得ることができる。図には、第i番目の撮影ポイントT(i)から被写体αを撮影している状態が示されている。もちろん、このような撮影は、通常のレンズなどを用いたカメラで行われるため、得られた撮影画像は、遠近法を用いて表現した画像になる。
撮影経路T上の1000箇所に撮影ポイントを設定すれば、撮影始点Aを第1番目の撮影ポイントT(1)、撮影終点Bを第1000番目の撮影ポイントT(1000)として、合計1000枚の撮影画像が得られることになる。ここでは、こうして得られた1000枚の撮影画像を実写撮影画像U1〜U1000と呼ぶことにする。撮影時にカメラの移動制御を正確に行うようにすれば、個々の実写撮影画像が得られた幾何学的な撮影条件を正確に把握することができるので、これら撮影条件を勘案して、実写撮影画像U1〜U1000に対する幾何学的な演算処理を行うことにより、多視点画像情報Eを構成する複数枚の平行投影像を得ることができる。
図10は、図9に示す実写撮影によって得られた実写撮影画像U1〜U1000に基づく所定の変換演算処理により、多視点画像情報Eを構成する二次元画像P1〜P70を作成するプロセスを示すブロック図である。この例の場合、1000枚の実写撮影画像U1〜U1000に基づいて、70枚の二次元画像P1〜P70が生成されている。この70枚の二次元画像P1〜P70は、被写体αを、それぞれ所定の観察方向D1〜D70に向かって平行投影したときに、所定の投影面S上に得られる投影像になっている。
なお、実写撮影画像U1〜U1000を二次元画像P1〜P70に変換する処理は、たとえば、吉川博志,高木康博「指向性画像の高密度表示に用いる三次元カメラの開発」(3次元画像コンファレンス実行委員会発行:三次元画像コンファレンス予稿集 巻2003 頁229-232)などの論文に発表されている公知技術であり、また、本発明の重要な特徴部分に直接関係した処理ではないため、ここでは詳しい説明は省略する。
結局、図9に示すような撮影設備を用いて任意の被写体αに対する実写撮影を行い、得られた多数の撮影画像に対して図10に示すような変換演算処理を施せば、当該被写体αについての多視点画像情報E(平行投影像が記録された二次元画像群)を得ることができる。しかしながら、被写体αが大きくなればなるほど、必要な撮影設備は大掛かりなものにならざるを得ない。たとえば、被写体αとして人物の全身像を用いる場合、実写撮影に必要な設備を設置するために、ある程度の広さをもったスタジオが必要になる。したがって、被写体が複数のメンバーからなる人物の集合体のような場合、体育館ほどの大型施設を用意せざるを得ない。また、被写体の背景画像として、屋外の景色などを利用したい場合は、撮影設備を屋外に設ける必要があり、現実的には非常に困難である。
本発明は、このような課題を解決するための具体的な方法を提案するものであり、その目的は、それぞれ別個の被写体についての情報を含んだ複数組の多視点画像情報Eを相互に合成し、違和感のない合成立体画像を提示できるようにすることにある。
<<< §3.本発明に係る多視点画像情報の合成原理 >>>
図1には、コーヒーカップからなる被写体αを立体表示するための多視点画像情報を示した。そして、§2で述べたとおり、このような多視点画像情報は、図9に示すような撮影設備を用いて当該被写体αを撮影することによって作成することができる。もちろん、コーヒーカップからなる被写体αの代わりに、たとえば、リンゴからなる被写体βを用いて同様の撮影を行えば、当該被写体βを立体表示するための多視点画像情報が得られることになる。本発明の基本概念は、このような別個の被写体についての情報を含んだ複数組の多視点画像情報を相互に合成することにより、複数の被写体を立体表示するための多視点画像情報を得ることにある。
図1には、コーヒーカップからなる被写体αを立体表示するための多視点画像情報を示した。そして、§2で述べたとおり、このような多視点画像情報は、図9に示すような撮影設備を用いて当該被写体αを撮影することによって作成することができる。もちろん、コーヒーカップからなる被写体αの代わりに、たとえば、リンゴからなる被写体βを用いて同様の撮影を行えば、当該被写体βを立体表示するための多視点画像情報が得られることになる。本発明の基本概念は、このような別個の被写体についての情報を含んだ複数組の多視点画像情報を相互に合成することにより、複数の被写体を立体表示するための多視点画像情報を得ることにある。
たとえば、コーヒーカップとリンゴとを併置した状態の立体画像を提示するための多視点画像情報を、実写撮影に基づいて作成することにすると、それだけ広い撮影スペースをもった撮影設備が必要になる。ところが、本発明を利用すれば、コーヒーカップのみについての多視点画像情報と、リンゴのみについての多視点画像情報とをそれぞれ別個に作成しておき、これらを合成すればよいので、実写撮影を行う場合でも、比較的小規模の撮影設備を準備すれば足りる。
したがって、たとえば、1クラス40名からなる学級の生徒全員の集合体についての立体画像を提示する場合でも、比較的小規模の撮影設備を用いて1人1人の生徒を被写体とする実写撮影を行い、合計40組の多視点画像情報を作成しておき、本発明を利用して、これら40組の多視点画像情報を合成すれば、生徒全員の集合体についての立体画像を提示可能な合成多視点画像情報を得ることができるようになる。
以下、本発明に係る多視点画像情報の合成方法の一実施形態を、コーヒーカップからなる被写体αについての多視点画像情報E(α)と、リンゴからなる被写体βについての多視点画像情報E(β)とを合成する具体例について、図11を参照しながら説明する。
図11の上段に示す第1の多視点画像情報E(α)は、図1の下段に示す多視点画像情報Eと同じものであり、コーヒーカップからなる被写体αを5通りの観察方向D1〜D5に平行投影して得られる二次元画像Pα1〜Pα5によって構成される。ここで、二次元画像Pα1〜Pα5は、図1に示す二次元画像P1〜P5と同じ画像であるが、被写体αについての画像であることを示すため、Pα1〜Pα5なる符号を付している。なお、ここでは2組の画像についての合成処理を説明する便宜上、コーヒーカップからなる被写体αの投影像の周囲にある背景部分を、ハッチング領域として示している。
一方、図11の中段に示す第2の多視点画像情報E(β)は、リンゴからなる被写体βを5通りの観察方向D1〜D5に平行投影して得られる二次元画像Pβ1〜Pβ5によって構成される。ここでも、リンゴからなる被写体βの投影像の周囲にある背景部分にハッチングを施している。
ここで、第1の多視点画像情報E(α)を得るための被写体αと投影面Sαとの位置関係と、第2の多視点画像情報E(β)を得るための被写体βと投影面Sβとの位置関係は、必ずしも同一である必要はない。もちろん、投影面Sαと被写体αとの距離や、投影面Sβと被写体βとの距離も、同一である必要はない。また、投影面SαとSβのサイズも同一である必要はない。ただ、投影面SαやSβに対する観察方向D1〜D5は、両者で共通するようにしておく。すなわち、図1において、投影面Sと観察方向D1〜D5の位置関係さえ固定しておけば、被写体αや被写体βを配置する位置は任意でかまわないことになる。
図11の下段には、第1の多視点画像情報E(α)と第2の多視点画像情報E(β)とを合成することにより得られる第3の多視点画像情報E(γ)が示されている。この第3の多視点画像情報E(γ)は、コーヒーカップからなる被写体αとリンゴからなる被写体βとを並べた状態を、上記5通りの観察方向D1〜D5から観察した態様を示す二次元画像Pγ1〜Pγ5によって構成されている。この第3の多視点画像情報E(γ)は、合成処理によって得られた情報であるが、被写体α,βを併置した状態を違和感のない立体画像として提示ために利用することができる。
具体的には、たとえば、図5で説明した方法と同様の方法を用いて、二次元画像Pγ1〜Pγ5を記録媒体M上に印刷し、その上にレンチキュラーレンズLを配置することにより、被写体α,βを併置した状態の立体画像を提示することができる立体画像記録媒体を作成することができる。すなわち、レンチキュラーレンズLの機能により、観察方向D1には二次元画像Pγ1が提示され、観察方向D2には二次元画像Pγ2が提示され、... 、観察方向D5には二次元画像Pγ5が提示されることになり、コーヒーカップとリンゴとが併置された状態(図示の例では、コーヒーカップの奥にリンゴが配置されている状態)が立体画像として提示されることになる。
さて、第1の多視点画像情報E(α)と第2の多視点画像情報E(β)とを合成することにより第3の多視点画像情報E(γ)を生成するには、共通の観察方向に関する二次元画像同士を合成すればよいことは、直感的に理解できよう。たとえば、観察方向D1については、二次元画像Pα1とPβ1とを合成して、新たな二次元画像Pγ1を生成し、観察方向D2については、二次元画像Pα2とPβ2とを合成して、新たな二次元画像Pγ2を生成し、... 、観察方向D5については、二次元画像Pα5とPβ5とを合成して、新たな二次元画像Pγ5を生成すればよい。図11における白抜きの「+」印と白抜きの矢印は、このような合成手順を示すものである。
一般に、二次元画像同士の合成は、2枚の画像を同じ位置に重ね合わせることによって行われ、画像が重複する領域については、両者の奥行きを考慮して、手前に配置された画像を優先する方法によって行われる。図12は、図11に示す二次元画像Pα3,Pβ3を合成して、合成画像Pγ3を得る一般的な方法を示す平面図である。ここでは、画像Pα3が画像Pβ3の手前に配置されているものとして合成を行っている。なお、上述したように、図11においてハッチングを施した領域は、各二次元画像の背景領域であり、被写体の投影像とは無関係な領域である。したがって、二次元画像を合成する際にも、この背景領域は合成対象としては考慮されない。
背景領域を区別して画像合成を行う処理は、一般にクロマキー合成処理として知られている。被写体を実写撮影する場合、ブルーやグリーンなど、特定の背景色をもったスクリーンを背景に用いた撮影を行うことにより、撮影画像中の当該背景色の領域(背景属性をもった画素からなる領域)を背景領域として認識することができる。図11にハッチングを施した領域は、このような方法で背景領域として認識された領域を示している。図12に例示する例のように、二次元画像Pα3,Pβ3を合成する場合、画像Pα3の背景領域以外の部分(被写体αの部分)と画像Pβ3の背景領域以外の部分(被写体βの部分)とを合成し、この合成被写体以外の部分を背景領域として合成画像Pγ3を生成すればよい。
図12に示す例は、合成対象となる2枚の二次元画像Pα3,Pβ3が、同じサイズの画像(同じ画素配列をもった画像)である場合の例であり、2枚の画素はぴったりと重なり合い、同じ位置の画素が1対1に対応する。ここで、画素G1は背景領域の画素、画素G2は被写体αの一部を構成する画素、画素G3は被写体α,βの重複領域(図ではドットによるハッチングを施している)内の画素、画素G4は被写体βの一部を構成する画素である。この場合、合成画像Pγ3において、画素G2の画素値としては被写体αの画素値を採用し、画素G4の画素値としては被写体βの画素値を採用すればよい。一方、ドットによるハッチングを施した領域内の画素G3の画素値としては、手前に位置する被写体(この例の場合は、被写体α)の画素値を採用し、画素G1の画素値としては、背景属性を示す画素値を採用すればよい。
もちろん、この図12に示すような方法で、2枚の二次元画像を合成する方法は、ごく普通に行われている方法であり、様々な分野で広く利用されている。本願発明者も、当初は、この一般的な合成方法を用いて、共通の観察方向に関する二次元画像同士を合成して第3の多視点画像情報E(γ)を生成する処理を行ってみた。しかしながら、そのような合成方法で得られた第3の多視点画像情報E(γ)に基づいて、図5に示すような方法でレンチキュラーレンズを利用した立体画像記録媒体を作成したところ、観察される立体画像には不自然さが感じられた。具体的には、被写体α,βの奥行関係、特に、輪郭部分の奥行関係について違和感が生じる結果となった。
本願発明者は、このように違和感が生じる原因は、被写体の平行投影像である二次元画像Pα3,Pβ3を、通常の平面画像と同様の従来方法で合成してしまったためであると考えている。そこで本願発明者が、次のような新規な方法で合成を行ってみたところ、違和感のない良好な合成立体画像を提示することが可能な第3の多視点画像情報E(γ)を生成することができた。本発明の根幹となる技術思想は、この新規な合成方法にある。
以下、図13を参照しながら、本発明に係る二次元画像の合成方法を説明する。図13(a) は、二次元画像Pα1と二次元画像Pβ1とを合成面W上で合成して、合成二次元画像Pγ1を作成する原理を示す上面図である。ここで、画像Pα1,Pβ1,Pγ1は、図11の左側に列に示す3枚の画像に対応するものであり、図13の上面図では、いずれも図の紙面に対して垂直な平面画像になる。すなわち、二次元画像Pα1は、被写体αを観察方向D1へ平行投影することにより得られた投影画像であり、二次元画像Pβ1は、被写体βを観察方向D1へ平行投影することにより得られた投影画像である。なお、合成二次元画像Pγ1は、合成面W上に形成される画像であるが、便宜上、図では太線で示してある。画像Pα1,Pβ1は、いずれも合成面Wに対して平行となる位置に配置されているため、結局、画像Pα1,Pβ1,Pγ1は、いずれも互いに平行な平面上に形成された画像ということになる。
ここでは、図示のとおり、奥行値Zを定義し、画像Pα1,Pβ1,Pγ1に対して相互の奥行関係を定めることにする。具体的には、視点が、奥行値Zのマイナス側最大値に位置するものとし、奥行値Zが小さいほど手前に配置されていることを示し、奥行値Zが大きいほど奥に配置されていることを示すことにする。図示の例の場合、合成面Wの位置(合成二次元画像Pγ1の位置)を奥行値Z=0とし、画像Pα1の位置を奥行値Z=Zαとし、画像Pβ1の位置を奥行値Z=Zβとしている。ここで、奥行値Zαは負の値をとり、奥行値Zβは正の値をとる。したがって、画像Pα1が手前、画像Pβ1が奥に配置されていることになる。
奥行値Zα,Zβは、必ずしも一方を正、他方を負に設定する必要はなく、両者ともに正の値に設定してもよいし、両者ともに負の値に設定してもよい。あるいは、一方を零に設定してもかまわない。要するに、画像Pα1,Pβ1について、互いに異なる奥行値Zが設定されているようにすればよい。もちろん、奥行値Zα,Zβの絶対値も任意の値に設定することができる。これら奥行値Zα,Zβは、二次元画像Pα1,Pβ1を構成する平行投影像を作成したときの被写体α,βと投影面Sα,Sβとの距離とは全く無関係に設定することができる。別言すれば、奥行値Zα,Zβは、被写体α,βの配置を直接示すものではなく、あくまでも二次元画像Pα1,Pβ1の配置を示すパラメータとして機能する。
このように、二次元画像Pα1,Pβ1の図における上下方向の位置(合成面Wに対する距離)は、任意の値として設定した奥行値Zα,Zβによって決まることになる。同様に、二次元画像Pα1,Pβ1の図における左右方向の位置および図の紙面に対して垂直方向の位置(奥行軸Zに直交する方向に関する位置)も、任意に設定することができる。
なお、図11では、二次元画像群Pα1〜Pα5と二次元画像群Pβ1〜Pβ5とについて、全く同じサイズの画像(同じ画素配列をもった画像)を用いた例を示したが、前者の画像群と後者の画像群とは異なるサイズの画像群であってもかまわない。すなわち、5枚の二次元画像Pα1〜Pα5は、同一の被写体αを同一の投影面Sαに平行投影した平行投影像であり、そのサイズは投影面Sαのサイズによって定まることになる。同様に、5枚の二次元画像Pβ1〜Pβ5は、同一の被写体βを同一の投影面Sβに平行投影した平行投影像であり、そのサイズは投影面Sβのサイズによって定まることになる。したがって、5枚の二次元画像Pα1〜Pα5は、相互に同一サイズの画像になり、5枚の二次元画像Pβ1〜Pβ5も、相互に同一サイズの画像になる。
しかしながら、投影面Sαのサイズと投影面Sβのサイズとが異なるような設定を行えば、二次元画像群Pα1〜Pα5のサイズと二次元画像群Pβ1〜Pβ5のサイズとは異なることになる。ここで述べる合成方法による合成対象は、このように互いに異なるサイズの二次元画像であってもかまわない。そこで、図13(a) では、二次元画像Pα1と二次元画像Pβ1とが異なるサイズの画像である場合を例示してある。
また、必要があれば、合成前に、二次元画像Pα1,Pβ1を拡大したり、縮小したりする処理を行ってもよい。画像を拡大するには、画素を補間する処理が必要になり、画像を縮小するには、画素を間引く処理が必要になるため、当然、画像サイズが変更される。したがって、二次元画像Pα1,Pβ1に対して、それぞれ異なる変倍処理を施すと、もともとは同じサイズであったとしても、変倍処理後は異なるサイズの画像になるが、ここで述べる合成方法を実施する上では何ら支障は生じない。もちろん、必要があれば、二次元画像Pα1,Pβ1に対してトリミング処理を行ってもよい。
要するに、ここで述べる合成方法を実施するための必須要件は、二次元画像Pα1,Pβ1が、それぞれの被写体を同じ観察方向D1に平行投影して得られた平行投影像である点と、二次元画像Pα1,Pβ1を合成面Wに対して平行となるような所定位置に配置する点だけである。これらの必須要件が満たされれば、両画像の位置は任意に設定することができ、両画像のサイズは異なっていてもかまわない。
さて、図13(a) に示すような配置を行えば、合成面W上に合成二次元画像Pγ1を生成する処理は非常に単純である。すなわち、合成面W上に、二次元画像Pα1を観察方向D1に平行な方向に投影して得られる平行投影像と、二次元画像Pβ1を観察方向D1に平行な方向に投影して得られる平行投影像と、を形成し、これら平行投影像を奥行値Zα,Zβに基づく位置関係を考慮して合成することにより合成二次元画像Pγ1を作成すればよい。図に示す破線の矢印は、各二次元画像の投影方向を示している。
このような投影を行うと、合成面W上には、画像Pα1の平行投影像と画像Pβ1の平行投影像とが形成されることになるので、合成面W上では、これら2つの平行投影像を、奥行値Zα,Zβに基づく位置関係を考慮して合成すればよい。ここでは、前述したように、奥行値Zが小さい画像を手前とする設定を行っているため、画像Pα1の方が手前に位置する画像ということになるので、手前に位置する画像Pα1を奥に位置する画像Pβ1よりも優先する合成が行われる。
具体的には、合成面W上において、画像Pα1の平行投影像と画像Pβ1の平行投影像とが重複する領域については、画像Pα1の平行投影像の画素値を採用し、画像Pα1の平行投影像のみが形成される領域については、画像Pα1の平行投影像の画素値を採用し、画像Pβ1の平行投影像のみが形成される領域については、画像Pβ1の平行投影像の画素値を採用すればよい。このような合成処理は、図12を参照して説明したとおりである。
図13(a) に示す例の場合、合成面W上に形成される画像Pβ1の平行投影像が画像Pα1の平行投影像の中に包含された形になっている。このような場合は、手前に位置する画像Pα1が優先されることになるので、合成面W上に形成される合成二次元画像Pγ1としては、画像Pα1の平行投影像の画素値が採用されることになる。したがって、図13(a) において、黒い太線で示されている合成二次元画像Pγ1は、画像Pα1の平行投影像によって構成されることになる。
一方、図13(b) に示す例は、被写体αを観察方向D3へ平行投影することにより得られた二次元画像Pα3と被写体βを観察方向D3へ平行投影することにより得られた二次元画像Pβ3とを合成面W上で合成して、合成二次元画像Pγ3を作成する原理を示す上面図である。この例の場合、合成面Wへの投影は、観察方向D3に平行な方向に行われるため、合成面W上に形成される画像Pα3の平行投影像と画像Pβ3の平行投影像とは一部分だけ重複する形になる。
そこで、この重複する領域に関しては、手前に位置する画像Pα3を優先して、画像Pα3の平行投影像の画素値を採用し、画像Pα3の平行投影像のみが形成される領域については、画像Pα3の平行投影像の画素値を採用し、画像Pβ3の平行投影像のみが形成される領域については、画像Pβ3の平行投影像の画素値を採用することになる。図13(b) では、合成面W上に得られた合成二次元画像Pγ3のうち、画像Pα3の平行投影像の画素値を採用した部分については黒い太線で示し、画像Pβ3の平行投影像の画素値を採用した部分については白い太線で示してある。
また、図13(c) に示す例は、被写体αを観察方向D5へ平行投影することにより得られた二次元画像Pα5と被写体βを観察方向D5へ平行投影することにより得られた二次元画像Pβ5とを合成面W上で合成して、合成二次元画像Pγ5を作成する原理を示す上面図である。この例の場合、合成面Wへの投影は、観察方向D5に平行な方向に行われるため、合成面W上に形成される画像Pα5の平行投影像と画像Pβ5の平行投影像とは重なりを生じない形になる。
そこで、合成面W上に得られる合成二次元画像Pγ5としては、画像Pα5の平行投影像が形成される領域については、画像Pα5の平行投影像の画素値を採用し、画像Pβ5の平行投影像のみが形成される領域については、画像Pβ5の平行投影像の画素値を採用した画像になる。図13(c) では、合成面W上に得られた合成二次元画像Pγ5のうち、画像Pα5の平行投影像の画素値を採用した部分については黒い太線で示し、画像Pβ5の平行投影像の画素値を採用した部分については白い太線で示してある。
なお、合成面W上において、いずれの平行投影像も形成されていない領域(たとえば、図13(c) において、黒い太線の領域と白い太線の領域とによって挟まれた領域)は、記録すべき画像が存在しない領域であるので、有効な画像が存在しないことを示す画素値や、背景属性を示す画素値を与えるようにすればよい。
また、図13(a) ,(b) ,(c) に示す例は、合成対象となる二次元画像の全領域を合成面W上に平行投影した例であるが、クロマキー合成を行う場合は、合成対象となる二次元画像のうち、背景属性を示す画素値をもった画素からなる領域については平行投影像を形成しないようにし、合成面W上に平行投影像が形成されていない領域が存在する場合には、当該領域内の画素については背景属性を示す画素値を与えることにより合成二次元画像を作成すればよい。
以上、図13を参照して、観察方向D1についての二次元画像Pα1,Pβ1を合成して合成二次元画像Pγ1を作成する例(図13(a) )、観察方向D3についての二次元画像Pα3,Pβ3を合成して合成二次元画像Pγ3を作成する例(図13(b) )、観察方向D5についての二次元画像Pα5,Pβ5を合成して合成二次元画像Pγ5を作成する例(図13(c) )を説明したが、観察方向D2についての二次元画像Pα2,Pβ2を合成して合成二次元画像Pγ2を作成する例や、観察方向D4についての二次元画像Pα4,Pβ4を合成して合成二次元画像Pγ4を作成する例も全く同様である。
要するに、一般論で説明すれば、第1の多視点画像情報E(α)を構成する第i番目の二次元画像Pαiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zαとなるような所定位置に配置し、第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zβとなるような所定位置に配置し、合成面W上に、二次元画像Pαiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、二次元画像Pβiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、を形成し、これら平行投影像を奥行値Zα,Zβに基づく位置関係を考慮して合成することにより第i番目の合成二次元画像Pγiを作成すればよい。
ここで、第i番目の二次元画像Pαiの合成面Wに対する位置は、i=1〜nについて共通の同位置になるようにし、第i番目の二次元画像Pβiの合成面Wに対する位置も、i=1〜nについて共通の同位置になるようにする。図13に示す例においても、画像Pα1,Pα3,Pα5の合成面Wに対する位置は共通しており、画像Pβ1,Pβ3,Pβ5の合成面Wに対する位置は共通している。また、ここでは、説明の便宜上、n=5に設定して、5通りの観察方向D1〜D5について、それぞれ二次元画像の合成を行う例を示したが、実用上は、nをより大きな値に設定することにより、よりきめの細かい立体画像を提示できるようにするのが好ましい。たとえば、n=70に設定した場合、70通りの観察方向D1〜D70について、それぞれ図13に示す方法と同様の方法で二次元画像の合成を行い、合計70枚の合成二次元画像Pγ1〜Pγ70からなる第3の多視点画像情報E(γ)が作成されることになる。
<<< §4.本発明に係る多視点画像情報の合成手順 >>>
ここでは、§3で説明した原理に基づいて、2組の多視点画像情報を合成する基本手順を、図14の流れ図を参照しながら説明する。この流れ図に示す基本手順は、被写体をそれぞれ異なる方向に平行投影した複数n枚の二次元画像によって構成される多視点画像情報を合成する方法の手順であり、コンピュータによって実行される手順である。したがって、実際には、このような手順を実行する専用のプログラムをコンピュータに組み込み、当該プログラムを実行することにより、図示する各処理が行われることになる。
ここでは、§3で説明した原理に基づいて、2組の多視点画像情報を合成する基本手順を、図14の流れ図を参照しながら説明する。この流れ図に示す基本手順は、被写体をそれぞれ異なる方向に平行投影した複数n枚の二次元画像によって構成される多視点画像情報を合成する方法の手順であり、コンピュータによって実行される手順である。したがって、実際には、このような手順を実行する専用のプログラムをコンピュータに組み込み、当該プログラムを実行することにより、図示する各処理が行われることになる。
まず、ステップS1では、コンピュータが、第1の被写体αが記録された第1の多視点画像情報E(α)と、第2の被写体βが記録された第2の多視点画像情報E(β)と、を入力する画像情報入力段階が実行される。ここで、第1の多視点画像情報E(α)は、たとえば、図11の上段に示すように、第1の被写体αについての複数n枚の二次元画像Pα1〜Pαnの集合体によって構成され、第2の多視点画像情報E(β)は、たとえば、図11の中段に示すように、第2の被写体βについての複数n枚の二次元画像Pβ1〜Pβnの集合体によって構成される。
ここで、第1の多視点画像情報E(α)を構成する第i番目(1≦i≦n)の二次元画像Pαiは、第1の被写体αを所定の投影面Sα上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなし、第2の多視点画像情報E(β)を構成する第i番目(1≦i≦n)の二次元画像Pβiは、第2の被写体βを所定の投影面Sβ上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなす。
次のステップS2では、コンピュータが、第1の多視点画像情報E(α)と第2の多視点画像情報E(β)とを合成するための合成条件(図13に示すような配置を定めるための条件)を設定する合成条件設定段階が実行される。実際には、オペレータがコンピュータに与える設定指示に基づいて、所定の合成条件の設定が行われることになる。この合成条件は、第1の多視点画像情報E(α)を構成する二次元画像の合成面Wに対する位置および第2の多視点画像情報E(β)を構成する二次元画像の合成面Wに対する位置を示す条件であり、少なくとも、第1の多視点画像情報E(α)を構成する二次元画像についての奥行値Zαと、第2の多視点画像情報E(β)を構成する二次元画像についての奥行値Zβと、を含んでいる。
必要に応じて、上記奥行値Zα,Zβに加えて、二次元画像の奥行軸Zに直交する方向に関する位置を定める条件を合成条件として設定するようにしてもよい。たとえば、図13に示す例において、画像Pα1〜Pα5および画像Pβ1〜Pβ5についての図の左右方向に関する位置を定める条件を設定するようにすれば、被写体α,βを合成する際に、奥行きに直交する方向に関する位置関係を任意に調整することができる。もちろん、そのような位置関係の調整が不要な場合は、画像の左上隅点の位置を合わせるとか、画像の中心点の位置を合わせる、といった配置を常に行うような取り決めをしておくことにより、奥行軸Zに直交する方向に関する位置を定める条件は不要になる。もちろん、合成時に各二次元画像に対して拡大縮小などの変倍処理を行う場合には、当該変倍処理に関する倍率を合成条件として設定すればよい。
続くステップS3〜S6では、コンピュータが、第1の多視点画像情報E(α)を構成する第i番目(1≦i≦n)の二次元画像Pαiと、第2の多視点画像情報E(β)を構成する第i番目(1≦i≦n)の二次元画像Pβiと、を合成して、合成面W上に第i番目の合成二次元画像Pγiを作成する処理を、i=1〜nについて繰り返し実行する画像合成段階が実行される。すなわち、まず、ステップS3で、パラメータiの値が初期値1に設定され、ステップS4において、第i番目の二次元画像Pαiと第i番目の二次元画像Pβiとを合成して、合成面W上に第i番目の合成二次元画像Pγiを作成する処理が実行される。そして、ステップS5において、パラメータiがnに達したか否かが判断され、nに達するまでは、ステップS6においてパラメータiの値を+1とする更新が行われ、ステップS4の処理が繰り返し実行されることになる。
ステップS4で行われる画像合成段階の具体的な内容は、図13を参照して§3で説明したとおりである。すなわち、第1の多視点画像情報E(α)を構成する第i番目の二次元画像Pαiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zαとなるような所定位置に配置し、第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zβとなるような所定位置に配置し、合成面W上に、二次元画像Pαiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、二次元画像Pβiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、を形成し、これら平行投影像を奥行値Zα,Zβに基づく位置関係を考慮して合成することにより第i番目の合成二次元画像Pγiを作成する処理が行われる。
§3で説明した実施例の場合、ステップS2の合成条件設定段階では、奥行値ZαおよびZβの値として、一方については正の値もしくは負の値または零を設定し、他方については正の値もしくは負の値を設定するようにしており、ステップS4の画像合成段階では、奥行値の小さい画像についての平行投影像が手前に観察されるような合成を行うようにしている。より具体的には、ステップS4の画像合成段階では、合成面W上において、形成される平行投影像が重複しない領域については、形成される平行投影像をそのまま記録し、形成される平行投影像が重複する領域については、手前に観察される平行投影像のみを記録することにより合成を行えばよい。
また、クロマキー合成を行う場合は、第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnおよび第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnの少なくとも一方を、背景属性を示す画素値をもった画素を含む画像になるようにしておく。そして、ステップS4の画像合成段階では、背景属性を示す画素値をもった画素からなる領域については平行投影像を形成しないようにし、合成面W上に平行投影像が形成されていない領域が存在する場合には、当該領域内の画素については背景属性を示す画素値を与えることにより合成二次元画像を作成すればよい。
最後のステップS7では、コンピュータ上で、ステップS3〜S6としてn回にわたって繰り返されたの画像合成段階を経て得られたn枚の合成二次元画像Pγ1〜Pγnによって構成される多視点画像情報を、合成された多視点画像情報E(γ)として出力する画像情報出力段階が実行される。なお、実用上は、各合成二次元画像Pγ1〜Pγnには、それぞれ対応する観察方向D1〜Dnを示す情報を付加して出力するようにするのが好ましい。各合成二次元画像Pγ1〜Pγnそれ自身は、単なる平面画像であるが、多視点画像情報E(γ)は、これらの画像Pγ1〜Pγnを、共通の被写体を観察方向D1〜Dnに平行な方向に平行投影することにより、共通の投影面上に形成された投影像の集合体として束ねた情報であり、各画像Pγ1〜Pγnがそれぞれ所定の観察方向D1〜Dnに対応づけられていることが重要である。
このように、本発明における多視点画像情報E(α),E(β),E(γ)は、それぞれ所定の観察方向D1〜Dnが対応づけられたn枚の二次元画像の集合体という点に重要な意味をもっている。このように観察方向D1〜Dnが対応づけられているからこそ、図5もしくは図8に例示した方法によって、個々の二次元画像を、それぞれ対応する観察方向に提示するような工夫を施すことにより、媒体上に記録されている被写体を立体画像として提示することが可能になるのである。
n通りの観察方向は、n組の方向ベクトルによって定義することができる。たとえば、図1〜図5に示す実施例は、所定の基準点Qを含む平面上に基準点Qを通る複数n組の方向ベクトルを定義し(図示の例は、n=5に設定した例)、第1の多視点画像情報E(α)および第2の多視点画像情報E(β)として、このn組の方向ベクトルの方向を個々の観察方向とする多視点画像情報を用いた例である。この場合、方位角φのみをパラメータとしてもつ方向ベクトルD(φ)によって各観察方向を示すことができる。
これに対して、図6〜図8に示す実施例は、XYZ三次元座標系の原点Oを通るベクトルであって、XY平面上への正射影投影像とY軸とのなす方位角φと、XY平面に対する仰角θと、によって特定される方向ベクトルD(φ,θ)を、θをa通り、φをb通りに変化させることにより、a×b通り定義し(図示の例は、a=3、b=5に設定した例)、第1の多視点画像情報E(α)および第2の多視点画像情報E(β)として、合計n通り(但し、n=a×b)の方向ベクトルの方向を個々の観察方向とする多視点画像情報を用いた例である。
<<< §5.本発明に係る合成立体画像の提示方法 >>>
既に§1で述べたとおり、本願で取り扱う多視点画像情報は、被写体の立体画像を提示する用途に利用されるものである。そこで、ここでは、図15に示す流れ図を参照しながら、本発明に係る合成立体画像の提示方法の手順を説明する。この方法は、図14に示す多視点画像情報の合成方法を利用して立体画像を提示する方法ということになる。
既に§1で述べたとおり、本願で取り扱う多視点画像情報は、被写体の立体画像を提示する用途に利用されるものである。そこで、ここでは、図15に示す流れ図を参照しながら、本発明に係る合成立体画像の提示方法の手順を説明する。この方法は、図14に示す多視点画像情報の合成方法を利用して立体画像を提示する方法ということになる。
この図15に示す立体画像提示方法の手順は、ステップS11〜S14から構成される多視点画像情報準備段階と、ステップS15から構成される多視点画像情報合成段階と、ステップS16から構成される画像提示段階と、によって構成される。ここで、多視点画像情報準備段階(ステップS11〜S14)は、第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnおよび第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnを用意する段階であり、多視点画像情報合成段階(ステップS15)は、用意された第1の多視点画像情報E(α)および第2の多視点画像情報E(β)に対して、図14の各ステップS1〜S7によって構成される多視点画像情報の合成方法を実行することにより、合成された多視点画像情報E(γ)を作成する段階であり、画像提示段階(ステップS16)は、この多視点画像情報E(γ)を構成するn枚の合成二次元画像Pγ1〜Pγnを、第i番目(1≦i≦n)の合成二次元画像Pγiが主として第i番目の観察方向Diに提示されるような態様で提示する段階である。
図15に示すステップS11〜S14は、多視点画像情報準備段階として被写体に対する実写撮影を行う場合の手順を示している。まず、ステップS11の第1の撮影段階では、第1の被写体α(前述の実施例の場合は、コーヒーカップ)を複数ζ通りの方向から実写撮影することにより、合計ζ枚の第1の実写撮影像群を得る処理が行われ、続くステップS12の第2の撮影段階では、第2の被写体β(前述の実施例の場合は、リンゴ)を複数η通りの方向から実写撮影することにより、合計η枚の第2の実写撮影像群を得る処理が行われる。
いずれの撮影段階も、図9に示すような撮影設備を利用して実施することができる。もちろん、第1の撮影段階では、第1の被写体αのみを撮影し、第2の撮影段階では、第2の被写体βのみを撮影すれば足りる。なお、クロマキー合成を行う場合は、被写体の背景に、ブルーやグリーンなどの特定色(できるだけ被写体に含まれない色)のスクリーンを配置した状態で撮影を行うようにする。
続いて、ステップS13の第1の多視点画像情報作成段階では、ステップS11で得られた合計ζ枚の第1の実写撮影像群に基づいて、第1の被写体αを所定の投影面上に、第1番目の観察方向D1〜第n番目の観察方向Dnのn通りの観察方向に平行な方向に投影して得られる平行投影像をそれぞれ求め、第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnを作成する処理が行われる。また、ステップS14の第2の多視点画像情報作成段階では、ステップSS12で得られた合計η枚の第2の実写撮影像群に基づいて、第2の被写体βを所定の投影面上に、第1番目の観察方向D1〜第n番目の観察方向Dnのn通りの観察方向に平行な方向に投影して得られる平行投影像をそれぞれ求め、第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnを作成する処理が行われる。このような処理は、図10を参照して§2で述べたとおり、多数の実写撮影画像を変換する公知の方法によって実施できる。
ステップS15の多視点画像情報合成段階は、こうして用意された第1の多視点画像情報E(α)および第2の多視点画像情報E(β)に対して、図14の各ステップS1〜S7を適用して、多視点画像情報E(γ)を作成する段階であり、その詳細は、既に§4で説明したとおりである。
最後のステップS16の画像提示段階では、こうして得られた多視点画像情報E(γ)を構成するn枚の合成二次元画像Pγ1〜Pγnを、何らかの方法で、第i番目(1≦i≦n)の合成二次元画像Pγiが主として第i番目の観察方向Diに提示されるような態様で提示すればよい。具体的な提示方法としては、図5や図8の実施例として説明したように、立体画像記録媒体を作成し、この立体画像記録媒体を用いて立体画像の提示を行うようにすればよい。
したがって、この図15に示す立体画像提示方法において、ステップS16の画像提示段階の代わりに、記録媒体M上に印刷などの方法で合成二次元画像を記録する媒体記録段階と、この記録媒体M上に光学素子を配置する光学素子配置段階と、を行うようにすれば、この図15に示す手順は、多視点画像情報の合成方法を利用した立体画像記録媒体の作成方法を示す手順になる。
この場合、媒体記録段階では、多視点画像情報E(γ)を構成するn枚の合成二次元画像Pγ1〜Pγnを、それぞれ複数m個の部分画像に分割し、記録媒体M上の記録面を複数m個の区画K1〜Kmに分割し、この記録媒体M上の第i番目の区画Kiにn枚の合成二次元画像Pγ1〜Pγnの第i番目の部分画像をそれぞれ記録する処理(たとえば、図5の記録媒体Mや図8の記録媒体M上に部分画像を印刷する処理)を行えばよい。そして、光学素子配置段階では、記録媒体M上の個々の区画上に、第i番目の合成二次元画像Pγiの部分画像が主として第i番目の観察方向Diに提示されるような光学素子を配置する処理(たとえば、図5の記録媒体M上にレンチキュラーレンズを配置する処理や図8の記録媒体M上にマイクロレンズアレイを配置する処理)を行えばよい。
<<< §6.本発明に係る多視点画像情報の合成装置 >>>
続いて、本発明に係る多視点画像情報の合成装置の構成を、図16のブロック図を参照しながら説明する。この合成装置は、被写体をそれぞれ異なる方向に平行投影した複数n枚の二次元画像によって構成される多視点画像情報を合成するための装置であり、図示のとおり、画像情報格納部10、合成条件格納部20、画像合成部30、合成画像格納部40によって構成される。これらの各構成要素は、実際には、コンピュータに専用プログラムを組み込むことにより構築される。
続いて、本発明に係る多視点画像情報の合成装置の構成を、図16のブロック図を参照しながら説明する。この合成装置は、被写体をそれぞれ異なる方向に平行投影した複数n枚の二次元画像によって構成される多視点画像情報を合成するための装置であり、図示のとおり、画像情報格納部10、合成条件格納部20、画像合成部30、合成画像格納部40によって構成される。これらの各構成要素は、実際には、コンピュータに専用プログラムを組み込むことにより構築される。
ここで、画像情報格納部10は、第1の被写体αが記録された第1の多視点画像情報E(α)と、第2の被写体βが記録された第2の多視点画像情報E(β)と、を格納する機能を果たす。既に述べたとおり、第1の多視点画像情報E(α)は、n枚の二次元画像の集合体によって構成される。ここで、第i番目(1≦i≦n)の二次元画像Pαiは、第1の被写体αを所定の投影面上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなす。同様に、第2の多視点画像情報E(β)も、n枚の二次元画像の集合体によって構成される。ここで、第i番目(1≦i≦n)の二次元画像Pβiは、第2の被写体βを所定の投影面上に第i番目の観察方向Diに平行な方向に投影して得られる平行投影像をなす。
結局、画像情報格納部10には、第1の多視点画像情報E(α)を構成するn枚の二次元画像の画像データと、第2の多視点画像情報E(β)を構成するn枚の二次元画像の画像データと、が格納されることになる。これら画像データは、どのような形式のものであってもかまわないが、たとえば、一般的なカラー画像の場合、縦横に配列された多数の画素についての三原色R,G,Bの色成分を示す画素値の集合体データによって構成することができる。
一方、合成条件格納部20は、オペレータの設定指示に基づいて、第1の多視点画像情報E(α)と第2の多視点画像情報E(β)とを合成するための合成条件を格納する機能を果たし、少なくとも、第1の多視点画像情報E(α)を構成する二次元画像の合成面Wに対する位置を示す奥行値Zαと、第2の多視点画像情報E(β)を構成する二次元画像の合成面Wに対する位置を示す奥行値Zβと、を格納する。
画像合成部30は、画像情報格納部10内に格納されている第1の多視点画像情報E(α)を構成する第i番目(1≦i≦n)の二次元画像Pαiと、画像情報格納部10内に格納されている第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiと、を合成して、合成面W上に第i番目の合成二次元画像Pγiを作成する処理を、i=1〜nについて繰り返し実行する機能を果たす。
より具体的には、§4で詳述したように、画像情報格納部10に格納されている第1の多視点画像情報E(α)を構成する第i番目の二次元画像Pαiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zαとなるような所定位置に配置し、画像情報格納部10に格納されている第2の多視点画像情報E(β)を構成する第i番目の二次元画像Pβiを、合成面Wに平行かつ合成面Wに対する距離が奥行値Zβとなるような所定位置に配置し、合成面W上に、二次元画像Pαiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、二次元画像Pβiを第i番目の観察方向Diに平行な方向に投影して得られる平行投影像と、を形成し、これら平行投影像を奥行値Zα,Zβに基づく位置関係を考慮して合成することにより第i番目の合成二次元画像Pγiを作成して合成画像格納部40に格納する処理を行う。
合成画像格納部40は、こうして画像合成部30で作成されたn枚の合成二次元画像Pγ1〜Pγnによって構成される多視点画像情報を、合成された多視点画像情報E(γ)として格納し、必要に応じて、この多視点画像情報E(γ)を外部に出力する機能を果たす。
<<< §7.本発明の変形例 >>>
ここでは、これまで述べてきた実施形態について、いくつかの変形例を述べておく。
ここでは、これまで述べてきた実施形態について、いくつかの変形例を述べておく。
(1) 被写体のバリエーション
これまで述べた実施形態では、第1の被写体αとしてコーヒーカップ、第2の被写体βとしてリンゴというように、三次元の形状をもった実在の物体を被写体として利用する例を説明したが、本発明で取り扱う被写体は、必ずしも三次元の形状をもったいわゆる立体である必要はない。たとえば、切手や絵葉書という物体は、厳密に言えば、三次元の形状をもった物体であるが、一般の観察者にとって、厚みの部分は実質的な意味をもたず、二次元の形状しかもたない物体として把握される。このような実質的に二次元の形状しかもたない物体であっても、本発明における被写体として利用することが可能である。この場合、もちろん、切手や絵葉書の絵柄については立体感を生じさせることはできないが、三次元空間上に配置された二次元物体という意味で、立体画像としての提示が可能になる。
これまで述べた実施形態では、第1の被写体αとしてコーヒーカップ、第2の被写体βとしてリンゴというように、三次元の形状をもった実在の物体を被写体として利用する例を説明したが、本発明で取り扱う被写体は、必ずしも三次元の形状をもったいわゆる立体である必要はない。たとえば、切手や絵葉書という物体は、厳密に言えば、三次元の形状をもった物体であるが、一般の観察者にとって、厚みの部分は実質的な意味をもたず、二次元の形状しかもたない物体として把握される。このような実質的に二次元の形状しかもたない物体であっても、本発明における被写体として利用することが可能である。この場合、もちろん、切手や絵葉書の絵柄については立体感を生じさせることはできないが、三次元空間上に配置された二次元物体という意味で、立体画像としての提示が可能になる。
また、§2でも述べたとおり、本発明で取り扱う被写体は、必ずしも実在の物体である必要はなく、コンピュータを用いて作成された仮想のCG画像を被写体(原画像)として利用することも可能である。このようなCG画像を被写体として用いる場合は、図1に示す被写体α,投影面Sをコンピュータ上の仮想空間に定義し、コンピュータによる演算処理により、図1の下段に示すような二次元画像P1〜P5を得ることができる。したがって、図9に示すような方法による実写撮影や、図10に示すような方法による実写撮影像の変換処理を行う必要はなくなる。
もちろん、CG画像からなる被写体(原画像)は、必ずしも三次元の立体画像である必要はなく、二次元の平面画像であってもかまわない。また、合成対象となる2つの被写体は、双方とも実在の物体であってもよいし、双方ともにCG画像であってもよいし、両者の混合であってもかまわない。
(2) 同一共通画像からなる多視点画像情報
本発明では、既に述べたとおり、第1の多視点画像情報E(α)を複数n枚の二次元画像Pα1〜Pαnによって構成し、第2の多視点画像情報E(β)を同じく複数n枚の二次元画像Pβ1〜Pβnによって構成し、第i番目(1≦i≦n)の二次元画像PαiおよびPβiを合成して合成二次元画像Pγiを作成する作業を、i=1〜nについて繰り返し実行することになる。
本発明では、既に述べたとおり、第1の多視点画像情報E(α)を複数n枚の二次元画像Pα1〜Pαnによって構成し、第2の多視点画像情報E(β)を同じく複数n枚の二次元画像Pβ1〜Pβnによって構成し、第i番目(1≦i≦n)の二次元画像PαiおよびPβiを合成して合成二次元画像Pγiを作成する作業を、i=1〜nについて繰り返し実行することになる。
ここで、n枚の二次元画像Pα1〜Pαnは、一般的には、互いに異なる二次元画像になる。同様に、n枚の二次元画像Pβ1〜Pβnも、一般的には、互いに異なる二次元画像になる。たとえば、図11に示す例の場合、5枚の二次元画像Pα1〜Pα5は互いに異なる画像であり、5枚の二次元画像Pβ1〜Pβ5も互いに異なる画像である。これは、これらの二次元画像が、被写体αやβを、投影面S上に5通りの方向へ平行投影した平行投影像によって構成されているためである。
しかしながら、本発明によって取り扱われる多視点画像情報を構成するn枚の二次元画像は、必ずしも互いに異なる画像である必要はなく、同一の共通画像であってもかまわない。一般に、ある被写体をそれぞれ異なる方向へ投影すると、多くの場合、得られる投影像は互いに異なった画像になる。したがって、多視点画像情報を構成するn枚の二次元画像は、通常、それぞれ異なった画像になるのが普通である。ただ、特殊な条件下では、多視点画像情報がn枚の同一共通画像によって構成されるケースもあり得る。
たとえば、被写体として二次元画像(絵葉書のような実在物体でもよいし、CG画像でもよい)を用意し、この被写体を投影面S上に配置したとすると、当該被写体の投影面Sに対する投影像は、投影方向を問わず、当該被写体と同一の共通画像になる。したがって、この場合、多視点画像情報を構成するn枚の二次元画像は、当該被写体上の共通画像ということになり、どのような観察方向から観察しても、同一の共通画像が観察されることになる。これは、図1において、投影面S上に絵はがきを配置した状態を考えれば、容易に理解できよう。
したがって、本発明に係る多視点画像情報の合成方法を実施するにあたり、第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnもしくは第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnは、同一共通画像によって構成することができる。図17は、第1の多視点画像情報E(α)を構成するn枚の二次元画像Pα1〜Pαnを、これまでの実施形態と同様にそれぞれ異なる画像によって構成し、第2の多視点画像情報E(β)を構成するn枚の二次元画像Pβ1〜Pβnを、同一共通画像によって構成した例である。
すなわち、この図17に示す例では、第1の多視点画像情報E(α)は、コーヒーカップからなる被写体をn通りの方向に投影して得られるn枚の異なる二次元画像によって構成されているが、第2の多視点画像情報E(β)は、実質的には、景色が描かれた1枚の共通画像によって構成されている。もちろん、本発明に係る多視点画像情報の合成方法(図14の流れ図に示す手順)を実行する上では、第1の多視点画像情報E(α)をn枚の二次元画像によって構成した場合、第2の多視点画像情報E(β)もn枚の二次元画像によって構成し、第i番目の画像同士を合成する処理を行う必要がある。したがって、図17に示す例の場合も、便宜上、第2の多視点画像情報E(β)を、n枚の二次元画像によって構成されているものとする取り扱いを行うことになるが、これらn枚の二次元画像の実体は、景色が描かれた1枚の共通画像ということになる。
図17に示す例において、第1の多視点画像情報E(α)を構成する二次元画像を、第2の多視点画像情報E(β)を構成する二次元画像の手前に配置するような合成条件を設定しておけば(たとえば、前者の奥行値Zαを負の値に設定し、後者の奥行値Zβを正の値もしくは零に設定すれば)、景色となる背景画像の手前にコーヒーカップが置かれた合成立体画像を提示することが可能になる。この場合、コーヒーカップについては立体画像としての提示が行われるが、背景となる景色については単なる平面画像としての提示が行われるだけである。それでも、手前のコーヒーカップと、奥の景色との間には、奥行感が醸し出され、違和感のない合成立体画像の提示が可能になる。
この図17に示す変形例では、景色となる背景画像として、ごく一般的な二次元画像(たとえば、絵葉書の写真)を利用することができるので、主たる被写体であるコーヒーカップの背景に任意の景色を配置した合成立体画像を容易に作成することができる。
また、この図17に示す変形例を更に単純化し、第1の多視点画像情報E(α)についても、コーヒーカップを被写体とした1枚の一般的な二次元画像(たとえば、コーヒーカップの写真)を共通画像として利用するようにしてもかまわない。この場合、第1の多視点画像情報E(α)は、実質的に1枚のコーヒーカップの二次元画像によって構成され、第2の多視点画像情報E(β)は、実質的に1枚の景色の二次元画像によって構成されることになる。もちろん、この場合、本発明に係る多視点画像情報の合成方法を実行する上では、便宜上、第1の多視点画像情報E(α)を構成するn枚の二次元画像が、コーヒーカップの写真からなる1枚の同一共通画像によって構成され、第2の多視点画像情報E(β)を構成するn枚の二次元画像が、景色の写真からなる1枚の同一共通画像によって構成されている、とする取り扱いを行うことになる。
このような合成処理を実行することにより得られた第3の多視点画像情報E(γ)に基づいて提示される立体画像では、コーヒーカップも景色も、いずれも単なる平面画像としての提示が行われるだけであるが、手前のコーヒーカップと、奥の景色との間には、奥行感(たとえば、遠景をバックとして、1枚のコーヒーカップの看板が配置されている状態)が醸し出されることになり、そのような意味で、立体画像としての提示が可能になる。
(3) 合成立体画像提示方法のバリエーション
本発明に係る合成処理を実行することにより得られた第3の多視点画像情報E(γ)に基づいて、観察者に対して実際に合成立体画像を提示する具体的な方法として、これまで、記録媒体上にレンチキュラーレンズやマイクロレンズアレイなどの光学素子を配置してなる立体画像記録媒体を作成する例を述べた。しかしながら、多視点画像情報E(γ)に基づいて、合成立体画像を提示する方法は、このような立体画像記録媒体を利用する方法に限定されるものではない。
本発明に係る合成処理を実行することにより得られた第3の多視点画像情報E(γ)に基づいて、観察者に対して実際に合成立体画像を提示する具体的な方法として、これまで、記録媒体上にレンチキュラーレンズやマイクロレンズアレイなどの光学素子を配置してなる立体画像記録媒体を作成する例を述べた。しかしながら、多視点画像情報E(γ)に基づいて、合成立体画像を提示する方法は、このような立体画像記録媒体を利用する方法に限定されるものではない。
既に述べたとおり、図15の流れ図におけるステップS16の画像提示段階では、何らかの手段を用いて、第i番目の二次元画像Pγiが、主として第i番目の観察方向Diに提示されるようにすればよい。たとえば、立体画像提示方法として一般的に利用されているパララックスバリア方式やグラスレス3Dなどの技術を利用して、多視点画像情報E(γ)に基づく合成立体画像の提示を行うことも可能である。もちろん、提示に用いる媒体は、印刷物のような固定媒体だけでなく、ディスプレイ画面などを用いることも可能である。たとえば、ディスプレイ画面上に時分割でn枚の二次元画像を順次表示させてゆき、表示画像からの光が観察者の目に向かう方向を何らかの光学手段で順次切り替えるような方法を採ることも可能である。
また、本発明に係る立体画像提示方法は、単に1枚の立体画像を一方的に観察者に提示するだけでなく、観察者の操作に反応してインターラクティブに提示内容を変えてゆくような技術にも応用することができる。
(4) 合成方法のバリエーション
これまで述べてきた実施形態では、合成面W上において被写体αの平行投影像と被写体βの平行投影像とを合成する方法として、両者が重なった領域については、合成条件として設定された奥行値Zα,Zβに基づく位置関係を考慮して、手前にある被写体を優先する例を述べたが、被写体に透明度を設定することにより、手前の被写体を透して奥の被写体が透けて見えるような合成を行うようにすることも可能である。
これまで述べてきた実施形態では、合成面W上において被写体αの平行投影像と被写体βの平行投影像とを合成する方法として、両者が重なった領域については、合成条件として設定された奥行値Zα,Zβに基づく位置関係を考慮して、手前にある被写体を優先する例を述べたが、被写体に透明度を設定することにより、手前の被写体を透して奥の被写体が透けて見えるような合成を行うようにすることも可能である。
たとえば、図12に示す例において、図にドットによるハッチングを施した重複領域内の画素については、これまでの実施形態の場合、手前にあるコーヒーカップの画像の画素値を採用することになるが、コーヒーカップについて、たとえば、透明度20%なる設定を行っておけば、当該重複領域内の画素については、手前にあるコーヒーカップの画像の画素値と奥にあるリンゴの画像の画素値とを80:20の割合でブレンドすることにより得られる画素値を採用することができる。これにより、半透明なコーヒーカップの奥にリンゴが配置されている状態の立体画像を提示することが可能になる。
また、これまでの実施形態では、被写体αについての多視点画像情報E(α)と被写体βについての多視点画像情報E(β)という2組の多視点画像情報を合成する例を述べてきたが、本発明を利用すれば、もちろん、3組以上の多視点画像情報を合成することも可能である。その基本概念は、これまで述べてきた2組の多視点画像情報を合成する方法と全く同じである。すなわち、3組以上の多視点画像情報を構成する第i番目の二次元画像を、それぞれ合成条件として設定された奥行値に基づいて、合成面Wに平行となるように所定位置に配置し、合成面W上に、各二次元画像を第i番目の観察方向Diに平行な方向に投影して得られる平行投影像を形成し、これら平行投影像を各奥行値に基づく位置関係を考慮して合成することにより第i番目の合成二次元画像を作成する処理を、i=1〜nについて繰り返せばよい。
<<< §8.本発明に係るライトフィールドの合成方法 >>>
背景技術として述べたとおり、前掲の非特許文献1には、Plenopticという7次元の関数Pを用いて、P(x,y,z,φ,θ,λ,t)という形式で、「空間内の座標値(x,y,z)で示される点を、方位角φおよび仰角θで示される方向に向かって、波長λをもつ光線が時刻tにおいて通過した」という現象を記述する理論が開示されており、前掲の非特許文献2には、そのような記述形式を立体画像の提示技術に利用する一形態として「ライトフィールド(Light Field)」という概念の導入が提唱されている。そして、前掲の特許文献3および4には、このような「ライトフィールド」を利用した三次元画像の具体的な取り扱い方法が開示されている。
背景技術として述べたとおり、前掲の非特許文献1には、Plenopticという7次元の関数Pを用いて、P(x,y,z,φ,θ,λ,t)という形式で、「空間内の座標値(x,y,z)で示される点を、方位角φおよび仰角θで示される方向に向かって、波長λをもつ光線が時刻tにおいて通過した」という現象を記述する理論が開示されており、前掲の非特許文献2には、そのような記述形式を立体画像の提示技術に利用する一形態として「ライトフィールド(Light Field)」という概念の導入が提唱されている。そして、前掲の特許文献3および4には、このような「ライトフィールド」を利用した三次元画像の具体的な取り扱い方法が開示されている。
このような観点から本発明を捉えると、本発明に係る多視点画像情報は「ライトフィールド」という概念で表現できる情報であり、本発明は、「ライトフィールドの合成方法」として捉えることも可能である。そこで、ここでは、本発明を「ライトフィールドの合成方法」として捉えた説明を行うことにする。
図18は、一般的なライトフィールドの概念を示す斜視図および数式図である。いま、上段の斜視図に示すように、XY二次元座標平面上の任意の点P(x,y)を、光線ベクトルLが通っているものとしよう。ここで、光線ベクトルLの向きをDとすれば、この光線ベクトルLは、XY二次元座標で示される座標値(x,y)と向きDをパラメータとして、(x,y,D)で特定されることになる。向きDは、たとえば、図6に示す例のように、方位角φおよび仰角θによって表すことができるが、この他にも様々な方法で表すことが可能である。そこで、ここでは、単に「向きD」というパラメータを用いることにする。
さて、こうして特定される光線ベクトルに対して、何らかの特徴値を付与し、当該特徴値を3つのパラメータx,y,Dを変数とする関数F(x,y,D)で表すことにする。すなわち、関数F(x,y,D)は、座標値(x,y)で示される所定の点Pを通り、向きDの方向を向いた特定の光線ベクトルLに対して付与された特徴値を示す関数ということになる。
ここで、XY平面上の閉領域内に複数の点Pを定義し、個々の点Pについて、当該点Pを通り互いに異なる方向を向いた複数本の光線ベクトルLを定義し、個々の光線ベクトルLについてそれぞれ特定の特徴値を付与すれば、そのような定義が行われた閉領域は、正に前掲の文献で言及されている「ライトフィールド」という概念の範疇に入るフィールドということになる。
そこで、ここでは、「ライトフィールド」を、複数の点Pが配置された平面であって、個々の点Pのそれぞれには、当該点Pを通り互いに異なる方向を向いた複数本の光線ベクトルLが定義され、個々の光線ベクトルLについてそれぞれ特定の特徴値が付与されている平面、と定義することにしよう。そうすると、本発明は、2組のライトフィールドを合成するライトフィールドの合成方法として捉えることができる。
ライトフィールドの特徴値としては、光線ベクトルの波長や輝度値などを用いることもできるが、光線ベクトルが観察者の目に届いたときに、画像を構成する1つの画素を認識させる機能をもっていることに着目すると、本発明との関連では、特徴値として画素値を用いるのが最も適当である。
こうして、これまで述べてきた多視点画像情報の合成方法を、ライトフィールドの合成方法として捉えると、当該方法は、ライトフィールド入力段階、合成条件設定段階、ライトフィールド合成段階、ライトフィールド出力段階の4段階から構成されることになる。実際には、これらの各段階は、コンピュータに組み込まれた専用プログラムの機能によって実行される。
まず、ライトフィールド入力段階は、コンピュータが、XY二次元座標平面上の点Pの座標値(x,y)および当該点Pを通る光線ベクトルLの向きDを変数とする関数によって個々の特徴値を示す第1のライトフィールドFα(x,y,D)および第2のライトフィールドFβ(x,y,D)を入力する段階になる。たとえば、図11に示す第1の多視点画像情報E(α)を構成する二次元画像Pα1は、投影面S上の点Pを第1の観察方向D1に向けて通る光線ベクトルL1に付与された特徴量(すなわち、当該点Pの位置にある画素の画素値)を示す情報を有しており、二次元画像Pα2は、投影面S上の点Pを第2の観察方向D2に向けて通る光線ベクトルL2に付与された特徴量(すなわち、当該点Pの位置にある画素の画素値)を示す情報を有している。したがって、図11に示されている第1の多視点画像情報E(α)を構成する5枚の二次元画像Pα1〜Pα5は、第1のライトフィールドFα(x,y,D)を示す情報ということになる。同様に、第2の多視点画像情報E(β)を構成する5枚の二次元画像Pβ1〜Pβ5は、第2のライトフィールドFβ(x,y,D)を示す情報ということになる。
次の合成条件設定段階は、コンピュータが、第1のライトフィールドFα(x,y,D)と第2のライトフィールドFβ(x,y,D)とを合成するための合成条件を設定する段階である。この合成条件には、所定の合成面Wに対して平行になるように、第1のライトフィールドFα(x,y,D)および第2のライトフィールドFβ(x,y,D)を所定位置に配置するための配置条件が含まれている(具体的には、奥行値Zα,Zβが合成条件として設定される)。
続くライトフィールド合成段階は、コンピュータが、第1のライトフィールドFα(x,y,D)と第2のライトフィールドFβ(x,y,D)とを合成して、XY二次元座標平面上の点Pの座標値(x,y)および当該点Pを通る光線ベクトルLの向きDを変数とする関数によって個々の特徴値を示す第3のライトフィールドFγ(x,y,D)を作成する段階である。もちろん、この第3のライトフィールドFγ(x,y,D)は、図11に示されている第3の多視点画像情報E(γ)を構成する5枚の二次元画像Pγ1〜Pγ5に対応するものである。
ここで、個々の光線ベクトルに付与する特徴値として、三原色R,G,Bの画素値の組み合わせを用いることにすると、図18に示すとおり、第1のライトフィールドFα(x,y,D)は、原色R成分Fαr(x,y,D)と原色G成分Fαg(x,y,D)と原色B成分Fαb(x,y,D)との組み合わせによって構成することができ、第2のライトフィールドFβ(x,y,D)は、原色R成分Fβr(x,y,D)と原色G成分Fβg(x,y,D)と原色B成分Fβb(x,y,D)との組み合わせによって構成することができ、第3のライトフィールドFγ(x,y,D)は、原色R成分Fγr(x,y,D)と原色G成分Fγg(x,y,D)と原色B成分Fγb(x,y,D)との組み合わせによって構成することができる。この場合、ライトフィールド合成段階では、個々の原色成分ごとに独立して特徴値の決定を行うようにすればよい。
図19は、本発明に係るライトフィールドの合成方法の基本原理を示す斜視図である。この図19では、便宜上、原色R成分の合成方法のみが示されているが、原色G成分や原色B成分の合成方法も全く同様である。図19に示す閉領域Fγrは、合成処理により新たに作成される第3のライトフィールドFγ(x,y,D)の原色R成分のプレーンであり、合成面W上に配置されている。もちろん、この時点では、まだライトフィールドFγrの各光線ベクトルには、何ら特徴値(すなわち、原色Rの画素値)は付与されていない。
一方、閉領域Fαrは、合成対象となる第1のライトフィールドFα(x,y,D)の原色R成分のプレーンであり、合成面Wに対して平行となる所定位置(たとえば、奥行値Zαで示される位置)に配置される。同様に、閉領域Fβrは、合成対象となる第2のライトフィールドFβ(x,y,D)の原色R成分のプレーンであり、合成面Wに対して平行となる所定位置(たとえば、奥行値Zβで示される位置)に配置される。
さて、このような配置が行われた状態において、第3のライトフィールドFγ(x,y,D)の原色R成分のプレーンFγrを作成する具体的な手順を説明しよう。ここでは、合成面W上の特定点P(xγ,yγ)を通り特定方向Dを向いた特定光線ベクトルLγの特徴値(原色Rの画素値)を決定することを考える。そのために、当該特定光線ベクトルLγを含む参照直線R(図に破線で示す直線)を定義し、この参照直線Rと第1のライトフィールドFαrとの交点P(xα,yα)を通り特定方向Dを向いた光線ベクトルLαと、この参照直線Rと第2のライトフィールドFβrとの交点P(xβ,yβ)を通り特定方向Dを向いた光線ベクトルLβとを特定する。そして、光線ベクトルLαに付与されている特徴値(原色Rの画素値)と光線ベクトルLβに付与されている特徴値(原色Rの画素値)との2組の特徴値の少なくとも一方に基づいて、特定光線ベクトルLγの特徴値(原色Rの画素値)を決定する。
具体的には、図19に示す例のように、参照直線Rと第1のライトフィールドFαrとの交点P(xα,yα)および参照直線Rと第2のライトフィールドFβrとの交点P(xβ,yβ)の双方が存在する場合には、配置条件に基づいて選択されたいずれか一方の交点を通り特定方向Dを向いた光線ベクトルの特徴値に基づいて第3のライトフィールドFγrの特徴値を決定すればよい。
すなわち、図19に示す例の場合、上方に配置されている第1のライトフィールドFαrを優先する取り扱いを行う場合は、光線ベクトルLαに付与されている特徴値(原色Rの画素値)を特定光線ベクトルLγの特徴値(原色Rの画素値)とすればよいし、下方に配置されている第2のライトフィールドFβrを優先する取り扱いを行う場合は、光線ベクトルLβに付与されている特徴値(原色Rの画素値)を特定光線ベクトルLγの特徴値(原色Rの画素値)とすればよい。
また、特定光線ベクトルLγの向きDによっては、参照直線Rと第1のライトフィールドFαrとの交点および参照直線Rと第2のライトフィールドFβrとの交点のいずれか一方のみしか存在しない場合もある。そのような場合には、当該存在する交点を通り特定方向Dを向いた光線ベクトルの特徴値に基づいて第3のライトフィールドFγrの特徴値を決定すればよい。なお、参照直線Rと第1のライトフィールドFαrとの交点および参照直線Rと第2のライトフィールドFβrとの交点のいずれも存在しない場合には、そのような特定方向Dに関する特徴値は決定することができない。
なお、前述したような透明度を考慮した合成を行う場合には、光線ベクトルLαに付与されている特徴値と光線ベクトルLβに付与されている特徴値とを所定の割合でブレンドして得られる特徴値を、特定光線ベクトルLγの特徴値とすればよい。
以上、合成面W上の特定点P(xγ,yγ)を通り特定方向Dを向いた特定光線ベクトルLγの特徴値を決定する例を述べたが、特定方向Dを様々に変えて、同じような処理を行えば、特定点P(xγ,yγ)を通るすべての光線ベクトルについての特徴値を決定することができる。また、そのような処理を、合成面W上の閉領域Fγr内の多数の点について行えば、閉領域Fγr内の個々の点を通る個々の光線ベクトルに対して所定の特徴値が付与された第3のライトフィールドの原色R成分のプレーンFγr(x,y,D)を得ることができる。同様の方法により、第3のライトフィールドの原色G成分のプレーンFγg(x,y,D)と原色B成分のプレーンFγb(x,y,D)とを得ることができるので、最終的に、各原色成分のプレーンの集合体である第3のライトフィールドFγ(x,y,D)が得られることになる。これをコンピュータから出力すれば、合成されたライトフィールドとして、様々な用途に利用することができる。
以上、図19を参照しながら、原色R成分に関して、第1のライトフィールドFαrと第2のライトフィールドFβrとを合成して、第3のライトフィールドFγrを作成する基本原理を述べたが、実際には、各ライトフィールドは、有限の面積をもった閉領域内に配置された有限個の点について、それぞれ有限通りの向きの光線ベクトルを定義し、各光線ベクトルに所定の特徴値(画素値)を付与した情報として与えられる。別言すれば、個々のライトフィールド上の各点Pは、実際には、微小面積をもって配列された画素の代表点として定義されることになり、画素配列のピッチに応じた位置に離散的に配置された点になる。このため、各ライトフィールドは、実際には、微小面積をもった画素の配列として取り扱う必要がある。
図20は、このような画素の概念を取り入れたライトフィールドの合成方法の具体的な手法を示す斜視図である。図示のとおり、原色R成分に関する第1〜第3のライトフィールドFαr,Fβr,Fγrは、それぞれがXY二次元座標平面上に配列された所定面積をもつ多数の画素のそれぞれについて、当該画素の代表点P(たとえば、画素を構成する微小領域の中心点)を通る複数本の光線ベクトルの各特徴値を画素値としてもつ画像データを構成している。
したがって、ライトフィールド合成段階では、第3のライトフィールドFγrを構成する個々の画素Gγr(代表点はP(xγ,yγ))の画素値を、参照直線Rと第1のライトフィールドFαrとの交点P(xα,yα)を含む第1のライトフィールドFαr上の画素Gαrの画素値および参照直線Rと第2のライトフィールドFβrとの交点P(xβ,yβ)を含む第2のライトフィールドFβr上の画素Gβrの画素値の少なくとも一方に基づいて決定するようにすればよい。
ここで、参照直線Rは、画素Gγrの代表点P(xγ,yγ)を通り、特定方向Dを向いた特定光線ベクトルLγを含む直線として定義され、参照直線Rと第1のライトフィールドFαrとの交点として点P(xα,yα)が定義され、参照直線Rと第2のライトフィールドFβrとの交点として点P(xβ,yβ)が定義されることになる。もちろん、交点P(xα,yα)は必ずしも画素Gαrの代表点とは限らず、交点P(xα,yα)の位置に光線ベクトルLαが定義されているとは限らない。同様に、交点P(xβ,yβ)は必ずしも画素Gβrの代表点とは限らず、交点P(xβ,yβ)の位置に光線ベクトルLβが定義されているとは限らない。ただ、画素Gαrは、交点P(xα,yα)を微小領域内のいずれかの位置に含む画素として抽出され、画素Gβrは、交点P(xβ,yβ)を微小領域内のいずれかの位置に含む画素として抽出されるので、図示されている光線ベクトルLαやLβが、参照直線Rから若干ずれた位置(画素を構成する微小領域の範囲内でのずれを生じた位置)に定義されているベクトルであっても、これらのベクトルに付与された特徴量(画素値)が支障なく抽出されるので、何ら問題は生じない。
なお、図17に多視点画像情報E(β)として例示したとおり、本発明において用いる多視点画像情報を構成するn枚の二次元画像は、同一の共通画像であってもかまわない。したがって、ここで述べたライトフィールドの合成方法においても、第1のライトフィールドFαおよび第2のライトフィールドFβの一方もしくは双方が、同一の点Pを通る光線ベクトルについては、向きDにかかわらず同一の特徴値(画素値)が付与されているライトフィールドであってもかまわない。
10:画像情報格納部
20:合成条件格納部
30:画像合成部
40:合成画像格納部
A:撮影始点
B:撮影終点
D:方向ベクトル/光線ベクトルの向き
D′:方向ベクトルの投影像
D1〜D5:観察方向
E:多視点画像情報
E(α):被写体αについての多視点画像情報
E(β):被写体βについての多視点画像情報
E(γ):被写体α,βについて合成された多視点画像情報
F:ライトフィールド
Fα(x,y,D):第1のライトフィールド
Fαr(x,y,D):第1のライトフィールドの原色Rプレーン
Fαg(x,y,D):第1のライトフィールドの原色Gプレーン
Fαb(x,y,D):第1のライトフィールドの原色Bプレーン
Fβ(x,y,D):第2のライトフィールド
Fβr(x,y,D):第2のライトフィールドの原色Rプレーン
Fβg(x,y,D):第2のライトフィールドの原色Gプレーン
Fβb(x,y,D):第2のライトフィールドの原色Bプレーン
Fγ(x,y,D):第3のライトフィールド
Fγr(x,y,D):第3のライトフィールドの原色Rプレーン
Fγg(x,y,D):第3のライトフィールドの原色Gプレーン
Fγb(x,y,D):第3のライトフィールドの原色Bプレーン
G1〜G4:画素
Gαr,Gβr,Gγr:画素
Ka〜Kx:区画
L:レンチキュラーレンズ
L,Lα,Lβ,Lγ:光線ベクトル
M:記録媒体
O:座標系の原点
P1〜P70:二次元画像(平行投影画像)
P1a〜P5f:部分画像
P11a〜P35a:部分画像
P(x,y):ライトフィールド上の1点
P(xα,yα),P(xβ,yβ),P(xγ,yγ):ライトフィールド上の1点
Pα1〜Pα5:被写体αについての二次元画像(平行投影画像)
Pβ1〜Pβ5:被写体βについての二次元画像(平行投影画像)
Pγ1〜Pγ5:被写体α,βについて合成された二次元画像(平行投影画像)
Q:基準点
R:参照直線
S:投影面
S1〜S16:流れ図の各ステップ
T:撮影経路
T(i):第i番目の撮影ポイント
U1〜U1000:実写撮影画像
V1〜V5:視点
W:合成面
X,Y,Z:座標軸
x,y:座標値
Zα,Zβ:奥行値
α,α1,α2:被写体
β:被写体
θ:仰角
φ:方位角
20:合成条件格納部
30:画像合成部
40:合成画像格納部
A:撮影始点
B:撮影終点
D:方向ベクトル/光線ベクトルの向き
D′:方向ベクトルの投影像
D1〜D5:観察方向
E:多視点画像情報
E(α):被写体αについての多視点画像情報
E(β):被写体βについての多視点画像情報
E(γ):被写体α,βについて合成された多視点画像情報
F:ライトフィールド
Fα(x,y,D):第1のライトフィールド
Fαr(x,y,D):第1のライトフィールドの原色Rプレーン
Fαg(x,y,D):第1のライトフィールドの原色Gプレーン
Fαb(x,y,D):第1のライトフィールドの原色Bプレーン
Fβ(x,y,D):第2のライトフィールド
Fβr(x,y,D):第2のライトフィールドの原色Rプレーン
Fβg(x,y,D):第2のライトフィールドの原色Gプレーン
Fβb(x,y,D):第2のライトフィールドの原色Bプレーン
Fγ(x,y,D):第3のライトフィールド
Fγr(x,y,D):第3のライトフィールドの原色Rプレーン
Fγg(x,y,D):第3のライトフィールドの原色Gプレーン
Fγb(x,y,D):第3のライトフィールドの原色Bプレーン
G1〜G4:画素
Gαr,Gβr,Gγr:画素
Ka〜Kx:区画
L:レンチキュラーレンズ
L,Lα,Lβ,Lγ:光線ベクトル
M:記録媒体
O:座標系の原点
P1〜P70:二次元画像(平行投影画像)
P1a〜P5f:部分画像
P11a〜P35a:部分画像
P(x,y):ライトフィールド上の1点
P(xα,yα),P(xβ,yβ),P(xγ,yγ):ライトフィールド上の1点
Pα1〜Pα5:被写体αについての二次元画像(平行投影画像)
Pβ1〜Pβ5:被写体βについての二次元画像(平行投影画像)
Pγ1〜Pγ5:被写体α,βについて合成された二次元画像(平行投影画像)
Q:基準点
R:参照直線
S:投影面
S1〜S16:流れ図の各ステップ
T:撮影経路
T(i):第i番目の撮影ポイント
U1〜U1000:実写撮影画像
V1〜V5:視点
W:合成面
X,Y,Z:座標軸
x,y:座標値
Zα,Zβ:奥行値
α,α1,α2:被写体
β:被写体
θ:仰角
φ:方位角
Claims (6)
- 複数の点Pが配置された平面であって、個々の点Pのそれぞれには、当該点Pを通り互いに異なる方向を向いた複数本の光線ベクトルLが定義され、個々の光線ベクトルLについてそれぞれ特定の特徴値が付与されている平面として定義されるライトフィールドを合成する方法であって、
コンピュータが、XY二次元座標平面上の点Pの座標値(x,y)および当該点Pを通る光線ベクトルLの向きDを変数とする関数によって個々の特徴値を示す第1のライトフィールドFα(x,y,D)および第2のライトフィールドFβ(x,y,D)を入力するライトフィールド入力段階と、
コンピュータが、前記第1のライトフィールドと前記第2のライトフィールドとを合成するための合成条件を設定する合成条件設定段階と、
コンピュータが、前記第1のライトフィールドFα(x,y,D)と前記第2のライトフィールドFβ(x,y,D)とを合成して、XY二次元座標平面上の点Pの座標値(x,y)および当該点Pを通る光線ベクトルLの向きDを変数とする関数によって個々の特徴値を示す第3のライトフィールドFγ(x,y,D)を作成するライトフィールド合成段階と、
コンピュータが、前記ライトフィールド合成段階で得られた前記第3のライトフィールドFγ(x,y,D)を出力するライトフィールド出力段階と、
を有し、
前記合成条件には、所定の合成面Wに対して平行になるように、前記第1のライトフィールドおよび前記第2のライトフィールドを所定位置に配置するための配置条件が含まれており、
前記ライトフィールド合成段階では、前記配置条件に基づいて、前記第1のライトフィールドおよび前記第2のライトフィールドを配置し、前記合成面W上の特定点Pを通り特定方向Dを向いた特定光線ベクトルの特徴値を、当該特定光線ベクトルを含む参照直線と前記第1のライトフィールドとの交点を通り前記特定方向Dを向いた光線ベクトルの特徴値および前記参照直線と前記第2のライトフィールドとの交点を通り前記特定方向Dを向いた光線ベクトルの特徴値の少なくとも一方に基づいて決定し、個々の点を通る個々の光線ベクトルに対して所定の特徴値が付与された前記合成面Wを第3のライトフィールドFγ(x,y,D)とすることを特徴とするライトフィールドの合成方法。 - 請求項1に記載のライトフィールドの合成方法において、
ライトフィールド合成段階で、
参照直線と第1のライトフィールドとの交点および参照直線と第2のライトフィールドとの交点のいずれか一方のみが存在する場合には、当該存在する交点を通り特定方向Dを向いた光線ベクトルの特徴値に基づいて第3のライトフィールドの特徴値を決定し、
参照直線と第1のライトフィールドとの交点および参照直線と第2のライトフィールドとの交点の双方が存在する場合には、配置条件に基づいて選択されたいずれか一方の交点を通り特定方向Dを向いた光線ベクトルの特徴値に基づいて第3のライトフィールドの特徴値を決定することを特徴とするライトフィールドの合成方法。 - 請求項1または2に記載のライトフィールドの合成方法において、
第1〜第3のライトフィールドが、XY二次元座標平面上に配列された所定面積をもつ多数の画素のそれぞれについて、当該画素の代表点Pを通る複数本の光線ベクトルの各特徴値を画素値としてもつ画像データを構成しており、
ライトフィールド合成段階では、第3のライトフィールドを構成する個々の画素の画素値を、参照直線と第1のライトフィールドとの交点を含む第1のライトフィールド上の画素の画素値および参照直線と第2のライトフィールドとの交点を含む第2のライトフィールド上の画素の画素値の少なくとも一方に基づいて決定することを特徴とするライトフィールドの合成方法。 - 請求項1〜3のいずれかに記載のライトフィールドの合成方法において、
個々の光線ベクトルに付与する特徴値として、三原色R,G,Bの画素値の組み合わせを用い、
第1のライトフィールドを、原色R成分Fαr(x,y,D)と原色G成分Fαg(x,y,D)と原色B成分Fαb(x,y,D)との組み合わせによって構成し、
第2のライトフィールドを、原色R成分Fβr(x,y,D)と原色G成分Fβg(x,y,D)と原色B成分Fβb(x,y,D)との組み合わせによって構成し、
第3のライトフィールドを、原色R成分Fγr(x,y,D)と原色G成分Fγg(x,y,D)と原色B成分Fγb(x,y,D)との組み合わせによって構成し、
ライトフィールド合成段階では、個々の原色成分ごとに独立して特徴値の決定を行うことを特徴とするライトフィールドの合成方法。 - 請求項1〜4のいずれかに記載のライトフィールドの合成方法において、
第1のライトフィールドおよび第2のライトフィールドの少なくとも一方が、同一の点Pを通る光線ベクトルについては、向きDにかかわらず同一の特徴値が付与されているライトフィールドであることを特徴とするライトフィールドの合成方法。 - 請求項1〜5のいずれかに記載のライトフィールドの合成方法をコンピュータに実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016089208A JP6115676B2 (ja) | 2016-04-27 | 2016-04-27 | ライトフィールドの合成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016089208A JP6115676B2 (ja) | 2016-04-27 | 2016-04-27 | ライトフィールドの合成方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012111461A Division JP2013238716A (ja) | 2012-05-15 | 2012-05-15 | 多視点画像情報の合成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016178658A JP2016178658A (ja) | 2016-10-06 |
JP6115676B2 true JP6115676B2 (ja) | 2017-04-19 |
Family
ID=57071441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016089208A Active JP6115676B2 (ja) | 2016-04-27 | 2016-04-27 | ライトフィールドの合成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6115676B2 (ja) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3268484B2 (ja) * | 1995-02-28 | 2002-03-25 | 株式会社日立製作所 | シェーディング方法およびシェーディング装置 |
JP2006126965A (ja) * | 2004-10-26 | 2006-05-18 | Sharp Corp | 合成映像生成システム,方法,プログラム,及び、記録媒体 |
JP2006229725A (ja) * | 2005-02-18 | 2006-08-31 | Konica Minolta Photo Imaging Inc | 画像生成システム及び画像生成方法 |
EP1994768A2 (en) * | 2006-03-15 | 2008-11-26 | Zebra Imaging, Inc. | Dynamic autostereoscopic displays |
JP5106378B2 (ja) * | 2008-12-26 | 2012-12-26 | Kddi株式会社 | 画像処理装置、方法及びプログラム |
JP5565126B2 (ja) * | 2010-06-17 | 2014-08-06 | 大日本印刷株式会社 | 立体印刷物制作支援装置、プラグインプログラム、立体印刷物制作方法および立体印刷物 |
-
2016
- 2016-04-27 JP JP2016089208A patent/JP6115676B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016178658A (ja) | 2016-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1143747B1 (en) | Processing of images for autostereoscopic display | |
JP3944188B2 (ja) | 立体画像表示方法、立体画像撮像方法及び立体画像表示装置 | |
US20160005228A1 (en) | Method of converting 2d video to 3d video using 3d object models | |
JP4714116B2 (ja) | 立体映像表示装置および立体映像表示方法 | |
JP2003209858A (ja) | 立体画像生成方法及び記録媒体 | |
CN103562963A (zh) | 用于角切片真3d显示器的对准、校准和渲染的***和方法 | |
US5949420A (en) | Process for producing spatially effective images | |
JP2006115198A (ja) | 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法 | |
JP2013238716A (ja) | 多視点画像情報の合成方法 | |
JP2006162945A (ja) | 立体視表示装置 | |
JP2006515128A (ja) | 立体パノラマ画像取り込み装置 | |
WO2012140397A2 (en) | Three-dimensional display system | |
CN102404598A (zh) | 用于体视三维显示图像生成***及方法 | |
JP6717576B2 (ja) | 映像レンダリング装置及び方法 | |
KR20080034419A (ko) | 3d 영상 생성 및 디스플레이 시스템 | |
JP2006285482A (ja) | 映像ジオメトリ補正装置 | |
JP2006163547A (ja) | 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。 | |
JP5624383B2 (ja) | 映像信号処理装置、仮想現実感生成システム | |
JP5249733B2 (ja) | 映像信号処理装置 | |
JP6115676B2 (ja) | ライトフィールドの合成方法 | |
JP2013003396A (ja) | 3次元画像の提示方法 | |
KR101831978B1 (ko) | 회전된 렌티큘러시트를 부착한 디스플레이에 표시되는 요소영상콘텐츠 생성 방법 | |
JP4267364B2 (ja) | 立体画像処理方法 | |
JP6595878B2 (ja) | 要素画像群生成装置及びそのプログラム | |
JP4119409B2 (ja) | 三次元映像表示装置及び三次元映像表示方法並びに三次元表示用映像データ生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170306 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6115676 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |