JP4856534B2 - 画像生成装置、プログラム及び情報記憶媒体 - Google Patents

画像生成装置、プログラム及び情報記憶媒体 Download PDF

Info

Publication number
JP4856534B2
JP4856534B2 JP2006352344A JP2006352344A JP4856534B2 JP 4856534 B2 JP4856534 B2 JP 4856534B2 JP 2006352344 A JP2006352344 A JP 2006352344A JP 2006352344 A JP2006352344 A JP 2006352344A JP 4856534 B2 JP4856534 B2 JP 4856534B2
Authority
JP
Japan
Prior art keywords
pixel
image
dot
depth
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006352344A
Other languages
English (en)
Other versions
JP2007200307A (ja
Inventor
龍一 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2006352344A priority Critical patent/JP4856534B2/ja
Publication of JP2007200307A publication Critical patent/JP2007200307A/ja
Application granted granted Critical
Publication of JP4856534B2 publication Critical patent/JP4856534B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を生成する画像生成装置等に関する。
従来から知られているとおり、LCD等のフラットパネルディスプレイとレンズアレイ(例えば、レンチキュラレンズアレイや蝿の目レンズアレイ)やバリアアレイ(例えば、パララックスバリアアレイやピンホールアレイ)等の光学素子群を組み合わせることで立体視映像表示装置を作成することができる。その方式には、多眼方式(2眼を含む)や超多眼方式、IP(Integral Photography)方式、光線再生法等が知られており、例えば非特許文献1や非特許文献2に開示されている。
高木康博,「64眼式三次元カラーディスプレイとコンピュータ合成した三次元物体の表示」,3次元画像コンファレンス2002講演論文集,3次元画像コンファレンス2002実行委員会,2002年7月4日,p.85−88 尾西明洋、武田勉、谷口英之、小林哲郎,「光線再生法による三次元動画ディスプレイ」,3次元画像コンファレンス2001講演論文集,3次元画像コンファレンス2001実行委員会,2001年7月4日,p.173−176
多眼方式では、図51に示すように、立体視画像が表示された表示面の各画素から射出され、光学素子群(同図では、レンチキュラレンズアレイ)により指向性が与えられた光線が、設定された複数(同図では、4つ)の視点位置に集まるように設計されている。そして、解像度は光学素子のピッチに依存し、視点(ビュー)の数は画素ピッチと光学素子のピッチとの比に依存している。そのため、視点数が少ない多眼方式においては、各視点での解像度は比較的高いが、視点数が少ないため自然な立体感が得られないという欠点があった。
そこで、多眼方式を改良し、左右両目の視差の内側にも非常に多くの視点を設定することで自然な立体感を得られるようにしたものが、図52に示す超多眼方式である。しかし、超多眼方式では、視点数を非常に多くした結果、解像度の低下が著しいという欠点があり、満足な解像度を得るためには非常に高解像度の画素パネルを用いる必要があった。即ち、解像度と視点数とがトレードオフの関係にあった。
また、多眼方式及び超多眼方式では、想定した複数の視点位置それぞれから描画を行う(画像を生成する)こととしていた。このため、光学素子のピッチと画素ピッチとが正確に合うように設計を行う必要があった。
IP(Integral Photography)方式及び光線再生法では、図53、54に示すように、各画素から射出され、光学素子群により指向性を与えられた光線が、物体のサンプリングされた点群に集まるように設計されており、これを、更に遠くの視点から観察することによって立体視を実現している。図53はIP方式の場合を示しており、図54は光線再生法の場合を示している。
そして、解像度は、物体のサンプリング点の数に依存し、各サンプリング点の視線数は、そのサンプリング点に集まる光線の数に依存している。つまり、サンプリング点の数が少ない程、各サンプリング点に多くの光線を集めることができる。即ち自然な立体感の再現が可能となるが、サンプリング点が少ないために解像度が低くなる。また、解像度を高くするためサンプリング点の数を増加させると、各サンプリング点には少数の光線しか集めることができず、自然な立体視が不可能となる。
特に、IP方式では、図53に示すように、自然な距離感を観察できる位置が描画面(立体視画像の表示面)に平行な結像面に限られ、それ以外の位置での物体の距離感は不自然に観察される。一方、光線再生法は、IP方式に比較して自由な距離で結像を行うことができるものである。
また、IP方式には、レンズアレイを用いるものとピンホールアレイを用いるものとがあるが、図53に示したように、レンズアレイを用いた場合には、描画面と結像面との間の距離がレンズの焦点距離に依存する。即ち、図55に示すように、レンズの焦点面と表示面との間の距離をA、レンズの焦点面と結像面との間の距離をB、レンズの焦点距離をFとすると、良く知られているように、次式の関係があるため、結像位置(描画面からの距離)を同時に2つ以上設定することができない。
(1/A)+(1/B)=(1/F)
一方、光線再生法は、図54に示すように、レンズアレイでなくピンホールアレイを用いていることで、結像距離を同時に2つ以上設定することができる(同図では、2つ)が、ピンホールアレイを用いているために画面が暗く、点列が並んだような映像となってしまう欠点がある。
また、IP方式及び光線再生法では、原理上、非常に多くの光線を集める必要があるため、サンプリング点が疎ら、即ち解像度の低いものが一般的である。つまり、満足な解像度を得るためには、超多眼方式の場合と同様に、非常に高解像度な画素パネルを用いる必要があった。即ち、多眼方式や超多眼方式とは尺度が異なるが、解像度と視点数とがトレードオフの関係にあったといえる。
また、IP方式及び光線再生法では、各結像位置と各光学素子の位置関係、或いは、各結像位置と各画素との位置関係によって視線(視点)の位置及び方向を決定していた。具体的には、光学素子群を先に用意し、視線を結像位置と各光学素子の位置関係で決定する場合には、光学素子群に合わせて画素の配置を決定せねばならず、また、画素パネルを先に用意し、視線を各結像位置と各画素との位置関係で決定する場合には、画素パネルに合わせて光学素子群の配置を決定せねばならない。何れにしても、光学素子のピッチと画素のピッチを合わせる設計を行う必要があった。
何れの方式にせよ、従来の立体視映像表示装置では、光学素子群の光学素子ピッチと画素パネルの画素ピッチとを合わせる必要があり、光学素子群と画素パネルのどちらのピッチを他方に合わせて決定するかは、主に、両者のコスト関係によって決定される。
例えば、古くから知られている、立体視画像を印刷した印刷物(紙やプラスチックカード等)とレンチキュラレンズアレイ等の光学素子を組み合わせた立体視用の印刷加工物においては、立体視画像が印刷された印刷物の印刷面に光学素子群(レンズアレイやバリアアレイ等)を貼付等して装着されており、印刷物に印刷された立体視画像の各ドットの反射光線が光学素子群によって指向性が与えられることで立体視が実現される。このような印刷加工物の場合には、印刷する立体視画像のドットの配置変更が容易であるため、光学素子群に合わせて印刷する立体視画像のドットのピッチが決定される。また、コンピュータのディスプレイ等を画素パネルとして用いる場合には、その画素ピッチに合わせた専用の光学素子群(例えば、レンチキュラレンズアレイ)を設計・製作して用いていた。
本発明は上述した課題に鑑みて為されたものであり、その第1の目的は、従来の立体視の方式のような視点の数と映像解像度とのトレードオフの関係を打破し、自然な立体感と高い解像度を両立させることのできる新しい立体視の方式を提供するとともに、画素パネルと光学素子群のどちらか一方を他方に合わせて専用に設計しなくてはならないといった制約を排除することである。また、第2の目的は、新しい立体視の方式による立体視画像生成の処理速度の低下を最小限に抑えると共に、奥行画像を利用することで、一般的な平面視用のCGツールや写真等から、簡易的な立体視画像の生成を可能にすることである。
以上の課題を解決するための手段を以下説明するが、本発明の立体視の方式は、従来の多眼式及び超多眼式の発展形と考えられるので、主に、多眼式及び超多眼式と比較対照してそれらからの優位性について述べる。
立体視映像表示装置の画素パネルに表示することのできる情報量は一定であるため、従来では、解像度と視点数がトレードオフの関係にあるのは当然の前提と考えられていた。つまり、自然な立体感と高い解像度とを両立させるためには、解像度と視点数以外の要素を導入する必要がある。そこで、本発明では、像の正確さという要素を導入した。
従来の立体視の方式は、各視点で視認される映像(像)を念頭において立体視画像を生成している。即ち、先ず各視点の映像となる画像(以下、「個別視点画像」という)を生成し、生成した個別視点画像をインターリーブ処理等することで立体視画像を生成するという過程を経る。各視点で視認される映像となる画像を基にして立体視画像が生成されるため、各視点の映像は当然に正確な像となる。
本発明によって生成される立体視画像を立体視した場合、各視点で視認される映像は、従来の映像に比べて若干正確さに劣る。しかし、以下の実施形態において詳述する原理の通りに、本発明によって生成される立体視画像は十分に像として視認できる明確性を有している。
本発明によって従来方式では実現できなかった、視点の数及び当該各視点での映像解像度の両者の向上を図ることができたとする点、視点の数の増加に伴う処理負担の増加から立体視画像の生成速度が低下することを防止できたとする点を、以下、各発明に沿って説明する。
上記課題を解決するための第1の発明は、
画素を配置した画素パネル(例えば、図2の画素パネル20)と、該画素パネルの各画素の射出光線に指向性を与える光学素子群(例えば、図2のレンズ板30)とを備えた立体視映像表示装置(例えば、図2の立体視映像表示装置200A、図23の立体視映像表示装置200)に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像(例えば、図26の平面視画像データ462)と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報(例えば、図27の奥行画像データ472)とに基づいて生成する画像生成装置(例えば、図23の立体視画像生成装置1)であって、
前記画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線(例えば、代表光線PR)の方向と、前記三次元仮想空間における前記視点位置(例えば、画素別視点CM)とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出ステップ(例えば、図31のステップS39)と、2)前記方向算出ステップで求められた方向と、前記奥行値情報とに基づく所定の収束計算処理により、前記三次元仮想空間中の当該方向における最も視
点寄りの物体の色情報を表すドットを前記基準画像の中から判定するドット判定ステップ(例えば、図31のステップS39〜S49)とを実行し、前記ドット判定ステップにより判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成装置である。
また、第8の発明は、
画素を配置した画素パネル(例えば、図2の画素パネル20)と、該画素パネルの各画素の射出光線に指向性を与える光学素子群(例えば、図2のレンズ板30)とを備えた立体視映像表示装置(例えば、図2の立体視映像表示装置200A、図23の立体視映像表示装置200)に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像(例えば、図26の平面視画像データ462)と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報(例えば、図27の奥行画像データ472)とに基づいてコンピュータに生成させるためのプログラム(例えば、図23の立体視画像生成プログラム410)であって、
前記画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線(例えば、代表光線PR)の方向と、前記三次元仮想空間における前記視点位置(例えば、画素別視点CM)とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出ステップ(例えば、図31のステップS39)と、2)前記方向算出ステップで求められた方向と、前記奥行値情報とに基づく所定の収束計算処理により、前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するドット判定ステップ(例えば、図31のステップS39〜S49)とを前記コンピュータに実行させ、前記ドット判定ステップにより判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成するように前記コンピュータに実行させるためのプログラムである。
この第1又は第8の発明によれば、画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向と、三次元仮想空間における視点位置とに基づいて、三次元仮想空間における光線の方向に対応する方向が求められ、求められた方向と、奥行値情報とに基づく所定の収束計算処理により、三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットが基準画像の中から判定される。そして、判定された基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像が生成される。
従って、生成された立体視画像が上記立体視映像表示装置に表示された場合、画素パネルの各画素には、当該画素の上記光線の方向に基づいた三次元仮想空間の色情報が表されるため、該光線の数ほどに視点がある、即ち画素の数ほどに視点があるといえる。故に、従来の多眼方式のように、想定する視点位置に観察者の目が位置しなくてはならないといったことがなく、超多眼方式のように、一定の領域内に観察者が位置すればどの位置に目があっても良好に立体視することができる。
一方、画素パネルの各画素の上記光線は画素毎に別個な方向ではある。しかし、その光線の方向を辿った場合、観察者の左目及びその左目の位置近傍を通過する光線はほぼ均一な方向となる。従って、観察者が視認する像は、その目の位置から見た正確な色情報ではないものの、一定の明確性を有して視認される。そして、画素面の位置における像の解像度は光学素子1つの幅程度となるため、超多眼式のような著しい解像度の劣化には至らない。
また、三次元仮想空間を所与の視点から見た平面視画像である基準画像と、視点位置を基準とする基準画像の各ドットの奥行値情報とに基づいて、上記立体視画像を生成することができる。従って、例えば、専用のレンダラを使わなくとも、既存の高品位なCGツールで作成した画像を容易に立体化することができ、汎用性の高い画像生成装置を提供することができる。また、実写画像から立体視画像を作成する場合に、一箇所の視点位置からの撮影で済ませることができるため、容易に立体視画像を生成することができる。
また、各画素の色情報を設定する基準画像のドットを所定の収束計算処理によって判定するため、三次元仮想空間に複数の物体が存在するような場合に、上記光線と各物体との交差判定を逐次行う必要がなく、立体視画像を高速に生成することが可能となる。
尚、以上のように1視点からの平面視画像とそれに対応する奥行値情報とから立体視画像を生成した場合、左右に回り込んだ視点からの情報がないため、大きく左右に回り込んで観察した場合の画像が、不自然なものとなることがある。しかしながら、想定される観察範囲がそれほど広くない場合、即ち、左右両眼視差の内部ないし外部近傍のみである場合には、その影響は少なく、実用上問題のない立体視画像を得ることができる。
第2の発明は、第1の発明の画像生成装置であって、
前記ドット判定ステップは、前記基準画像を構成するドットの奥行値の微分値である奥行微分情報を算出する奥行微分情報算出ステップ(例えば、図32のステップS51、S57)を含み、前記方向算出ステップで求められた方向と、前記奥行値情報と、前記奥行微分情報算出ステップで算出された奥行微分情報とに基づき、ニュートン法による所定の収束計算処理により前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するステップであることを特徴とする画像生成装置である。
また、第9の発明は、第8の発明のプログラムであって、
前記ドット判定ステップは、前記基準画像を構成するドットの奥行値の微分値である奥行微分情報を算出する奥行微分情報算出ステップ(例えば、図32のステップS51、S57)を含み、前記方向算出ステップで求められた方向と、前記奥行値情報と、前記奥行微分情報算出ステップで算出された奥行微分情報とに基づき、ニュートン法による所定の収束計算処理により前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するステップであることを特徴とするプログラムである。
この第2又は第9の発明によれば、ドット判定ステップにおいて、基準画像を構成するドットの奥行微分情報が算出される。そして、方向算出ステップで求められた方向と、奥行値情報と、算出された奥行微分情報とに基づいて、ニュートン法による所定の収束計算処理が行われ、三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットが基準画像の中から判定される。
ニュートン法は、解への収束が初期値に依存するアルゴリズムではあるが、二次収束性を有することを特徴としているため、高速に解を求めることが可能となる。従って、最も視点寄りの物体の色情報を表すドットを基準画像の中から短時間で判定することができるため、立体視画像生成の高速化が実現できる。
第3の発明は、第1の発明の画像生成装置であって、
前記ドット判定ステップによる判定処理の前に、前記基準画像の各ドットの奥行値の微分値である奥行微分情報を算出する奥行微分情報算出ステップ(例えば、図31のステップS27)を実行し、
前記ドット判定ステップでは、前記方向算出ステップで求められた方向と、前記奥行値情報とに加えて前記奥行微分情報算出ステップで算出された奥行微分情報とを用いて、ニュートン法による所定の収束計算処理により前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定する、
ことを特徴とする画像生成装置である。
また、第10の発明は、第8の発明のプログラムであって、
前記ドット判定ステップによる判定処理の前に、前記基準画像の各ドットの奥行値の微分値である奥行微分情報を算出する奥行微分情報算出ステップ(例えば、図31のステップS27)を前記コンピュータに実行させ、
前記ドット判定ステップでは、前記方向算出ステップで求められた方向と、前記奥行値情報とに加えて前記奥行微分情報算出ステップで算出された奥行微分情報とを用いて、ニュートン法による所定の収束計算処理により前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定する、
ように前記コンピュータを実行させるためのプログラムである。
この第3又は第10の発明によれば、ドット判定ステップによる判定処理の前に、基準画像の各ドットの奥行微分情報が算出される。そして、ドット判定ステップでは、方向算出ステップで求められた方向と、奥行値情報とに加えて、前もって算出された奥行微分情報を用いたニュートン法による所定の収束計算処理が行われ、三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットが基準画像の中から判定される。
ドットの判定処理を行う前に、予め全ての画素についての奥行微分情報を算出しておくことで、ニュートン法による収束計算処理において奥行微分情報を逐次算出する必要がなくなる。
第4の発明は、第2又は第3の発明の画像生成装置であって、
前記奥行微分情報算出ステップは、前記基準画像の各ドットについて、当該ドットの奥行値と、当該ドットに隣接する隣接ドットの奥行値との差分を算出して微分値を求めることで前記奥行微分情報を算出するステップであることを特徴とする画像生成装置である。
また、第11の発明は、第9又は第10の発明のプログラムであって、
前記奥行微分情報算出ステップは、前記基準画像の各ドットについて、当該ドットの奥行値と、当該ドットに隣接する隣接ドットの奥行値との差分を算出して微分値を求めることで前記奥行微分情報を算出するステップであることを特徴とするプログラムである。
この第4又は第11の発明によれば、基準画像の各ドットについて、当該ドットの奥行値と、当該ドットに隣接する隣接ドットの奥行値との差分が微分値として求められることで、奥行微分情報が算出される。
なお、以上各発明の集束計算処理であるが、集束計算を行うに当たっての初期値を次のようにしてもよい。すなわち、第5の発明として、第1〜第4の何れか一の発明の画像生成装置の前記ドット判定ステップを、前記方向算出ステップで求められた方向における最も前記視点寄りのドット位置を初期位置として前記所定の集束計算処理を行うステップとして構成してもよい。また、第12の発明として、第8〜第11の何れか一の発明のプログラムにおいて、前記ドット判定ステップを、前記方向算出ステップで求められた方向における最も前記視点寄りのドット位置を初期位置として前記所定の集束計算処理を行うステップとして構成してもよい。
ここで、「最も前記視点寄りのドット位置」とは、画素面に平行で、奥行モデルの最高点を通る平面と、方向算出ステップで求められた方向との交点の位置である。
第6の発明は、第1〜第5の何れか一の発明の画像生成装置であって、
前記立体視映像表示装置は、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しないことを特徴とする画像生成装置である。
また、第7の発明は、第1〜第6の何れか一の発明の画像生成装置であって、
前記立体視映像表示装置は、一の光学素子の水平方向幅をL、前記一の光学素子により指向性が与えられる一の画素の水平方向幅をS、前記画素パネル中の立体視画像描画領域の水平方向幅をRとしたとき、L:S=o:p(但し、oは自然数、pはR/L未満の自然数)が成立しないことを特徴とする画像生成装置である。
この第6又は第7の発明によれば、レンズのレンズピッチと表示装置の画素ピッチとが合わない(いわゆる「ピッチが合わない」)場合における立体視画像生成が実現される。従って、画素パネルと光学素子群のどちらか一方を他方に合わせて専用に設計しなくてはならないといった制約を排除することができるようになる。
第13の発明は、第8〜第12の何れか一の発明のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体(例えば、図23の記憶部400)である。
この第13の発明によれば、第8〜第12の何れか一の発明と同様の作用効果を奏する情報記憶媒体が実現される。
本発明によれば、像の正確さを立体視に支障のない程度に劣化させることで、画素パネルの全画素数に相当する視点がありながらも、映像の解像度を光学素子1つ分の幅程度に保つことができる新たな立体視の方式を実現できるとともに、画素パネルと光学素子群のどちらか一方を他方に合わせて専用に設計しなくてはならないといった制約を排除することができる。また、新しい立体視の方式による立体視画像生成の処理速度を高速化することができる。
以下、図面を参照して本発明の好適な実施形態を説明する。尚、各図面では、光線の方向を明確に示すために敢えてハッチングを描いていない。また、以下では、光学素子群としてレンチキュラレンズアレイを用いた立体視映像表示装置に表示させる立体視画像を生成する場合について説明するが、本発明の適用がこれに限定されるものではない。
1.立体視画像の生成原理
立体視画像の生成方法には、(I)正確な3次元モデルをレンダリングすると同時に作成する方法、(II)1視点からの平面視画像と奥行画像とから立体視画像を作成する方法、(III)2眼又は多眼分の画像を作成し、それらから中間視点のものを補間して作成する方法などがある。本実施形態では、方法(I),(II)に基づき立体視画像を生成する場合を例に挙げて以下説明する。
先ず、方法(I)に基づき立体視画像を生成する場合について説明する。
図1は、本実施形態における立体視画像生成の概要を示す図であり、表示面22に対する垂直断面図を示している。同図に示すように、本実施形態では、表示面22の画素PE毎に、(1)該画素PEの代表点(例えば、画素PEの中心)と該画素PEに対応するレンズ(光学素子)の主点とを通過した後の光線の逆方向を視線方向とする視線Vを決定し、(2)決定した視線Vの視線方向にある物体の色情報を該画素PEの色情報とする(レンダリング)、ことで立体視画像を生成する。
(1)視線Vの決定
視線Vは、立体視画像を表示させることとなる立体視映像表示装置の構成パラメータ(後述するように、画素パネルとレンズ板との相対的な配置関係や画素パネルの画素ピッチ、レンズ板のレンズピッチや焦点距離等)と、想定した観察者の位置(以下、「想定観察位置」という)とに基づいて決定する。具体的には、画素PE毎に、立体視映像表示装置の構成パラメータ及び想定観察位置に基づいて該画素PEに対応するレンズ(光学素子)を決定し、該画素PEの代表点と決定した該画素PEに対応するレンズの主点とを通過した後の光線(代表光線)を算出する。そして、その代表光線PRと位置は同じで方向を逆にした視線を該画素の視線Vとして決定する。尚、想定観察位置は、立体視映像表示装置の表示面に対する相対的な観察者の視点の位置とする。
ここで、本実施形態で扱う立体視映像表示装置について説明する。本実施形態では、レンチキュラ方式の立体視映像表示装置に表示させる立体視画像を生成する。レンチキュラ方式の立体視映像表示装置とは、光学素子群としてレンチキュラレンズアレイを用いた立体視映像表示装置であり、平面液晶ディスプレイ等のフラットパネルディスプレイの表示面から一定の距離にレンチキュラレンズアレイが装着され、観察者がレンチキュラレンズアレイを介して表示面に表示された画像を見る(観察する)ことで、観察者に立体視を認識せしめる表示装置である。
図2は、垂直レンチキュラ方式の立体視映像表示装置200Aの概略構造を示す図である。同図(a)は、立体視映像表示装置200Aの表示面に対する横方向(水平走査方向)断面図を示し、同図(b)は、観察者側から見た平面図を示している。
同図によれば、立体視映像表示装置200Aは、主に、バックライト10と、画素パネル20と、レンズ板30とを備えて構成される。バックライト10、画素パネル20及びレンズ板30は、それぞれ板状体であって互いに平行に配置されている。
バックライト10は光を出射し、その光は画素パネル20とレンズ板30とを通過して立体視映像表示装置200Aの外に進行する。即ち、観察者は、レンズ板30を介して画素パネル20に表示される画像を見ることになる。
画素パネル20は、画素(ピクセル)が一定の配列で配置されたカラー表示可能なディスプレイであり、レンズ板30と組み合わせることで立体視が可能となるものであれば種類は問わない。例えば、カラーフィルタ方式の液晶ディスプレイ、プラズマディスプレイ、無機ELディスプレイ或いは有機ELディスプレイ等がある。また、カラーフィルタを用いないものでも、単色発光素子を配列した有機ELディスプレイやLEDディスプレイのように、赤(R)、緑(G)及び青(B)等の単色に自発光する素子を配置したディスプレイであっても適用可能である。また、いわゆる同色に発光する画素が配置されたモノクロディスプレイであっても構わず、更には、R(赤),G(緑),B(青)以外の色の画素を持ったディスプレイであっても構わない。また、画素の配置については、格子状は勿論、画素の代表点の座標を求めることが可能なものであれば、デルタ配列やその他の配列であっても構わない。
レンズ板30は、一方の面が、断面半円筒状(蒲鉾型)若しくはこれと光学的に等価な光学素子であるマイクロレンズ(以下、単に「レンズ」という)32が連接して成る凹凸面であり、他方の面が略平面状のレンチキュラレンズアレイである。レンズ板30の各レンズ32は、表示面22の各画素PEから射出される光線(射出光線)に指向性を与える働きをする。
また、レンズ板30は、平面が画素パネル20の表示面22に対向し、且つ、レンズ板30の主点面と表示面22との間の距離Gが各レンズ32の焦点距離Fにほぼ一致するように配置されている。尚、この距離Gは、焦点距離Fに完全に一致せず、ある程度の誤差があっても良い。例えば図49(a)は、G=F、とした状態であり、特定の方向から見ると、1つの画素PEがレンズ32いっぱいに広がって観察される。また、距離Gが焦点距離Fから少し離れた位置、即ち同図(b)、(c)に示す状態でも、特定の方向から見ると、1つの画素PEがレンズ32いっぱいに広がって観察される。しかし、距離Gが焦点距離Fからこれ以上離れた位置になると、レンズ32がその隣の画素PEをも映してしまうため、立体視の画質が損なわれる。即ち、画素パネル20のサブピクセル単位での画素ピッチの長さをS、レンズ板30のレンズピッチの長さをLとすると、距離Gが次式(1)を満たすように配置されていれば、そうでない場合よりも画質の良い立体視を実現することができる。
(L−S)・F/L≦G≦(L+S)・F/L ・・・(1)
尚、IP方式では、像を一定距離Cに結像させるため、距離Gが焦点距離Fよりも長くなっている。つまり、次式が成立する。この点において、本実施形態における方式は、IP方式とは原理的に異なる。
1/G+1/C=1/F、即ち、G=(C・F)/(C−F)>F
また、光線再生法では、複数の距離で結像させるため、光学素子にレンズを用いることができず、ピンホールを用いている。この点において、本方式は光線再生法とも原理的に異なる。
表示パネル20及びレンズ板30をこのように配置させることで、各レンズ32の焦点が画素パネル20の表示面22の一点に位置し、該焦点が位置する画素PEがレンズ32によって拡大されて見えることになる。尚、光学的にほぼ等価であるとみなせる場合には、レンズ板30の凹凸面を画素パネル20の表示面22に対向するように配置しても良い。
また、レンズ板30は、図2(b)に示すように、各レンズ32の主点線36(主点の集合。レンチキュラレンズ板のマイクロレンズは断面円筒形状(蒲鉾型)であるため、主点の集合は直線となる)の方向が画素パネル20の縦方向の画素配列方向(鉛直走査方向)に一致するように配置される。同図(b)において、線32aはレンズ板30の各レンズ32の端部を示している。
ところで、従来のレンチキュラ方式の立体視映像表示装置では、レンズ板のレンズピッチと画素パネルの画素ピッチとが合う(以下、単に「ピッチが合う」という)ように設計される。即ち、n眼式の場合には次式(2)が成立する。
L=n・S ・・・(2)
しかし、本実施形態では、レンズ板30は、レンズピッチが画素パネル20の画素ピッチと合わない(以下、単に「ピッチが合わない」という)ように設計されている。即ち、次式(3)が成立しない。
L=n・S ・・・(3)
但し、nは自然数である。
ところで、実際に観察者が立体視映像表示装置に表示された立体視画像を見る場合には、その観察者の視点は表示面22から有限距離に位置する。即ち、図3に示すように、表示面22の場所によって観察者の視点の視線方向が異なり、このため、レンズ32と画素PEとの対応関係がずれることになる。つまり、実質的なレンズピッチLEは次式(4)で与えられる。尚、同図は、本実施形態の立体視映像表示装置の表示面に対する横方向断面図を示している。
E=L×(D+F)/D ・・・(4)
但し、Dは、観察者の視点と表示面との間の距離である。
従って、厳密には、次式(5)が成立することが「ピッチが合う」状態であり、成立しないことが「ピッチが合わない」状態であるといえる。
E=n・S ・・・(5)
また、「ピッチが合う/合わない」ことは、実際(或いは、想定した)の観察者の視点から見た1つの画素PEに対する視角(対画素視角)σと、この画素PEの射出光線に指向性を与える1つのレンズ32に対する視角(対レンズ視角)λとによっても表現される。対画素視角σは式(6a)で与えられ、対レンズ視角λは次式(6b)で与えられる。
tanσ=S/(D+F) ・・・(6a)
tanλ=L/D ・・・(6b)
そして、次式(7)が成立することが「ピッチが合う」状態であり、成立しないことが「ピッチが合わない」状態である。
λ=n・σ ・・・(7)
但し、nは自然数である。
つまり、式(7)が成立するのは、対レンズ視角λのm倍が対画素視角σのn倍に一致する、即ちレンズピッチLEのm倍が画素ピッチSのn倍に一致する場合であり、その場合が「ピッチが合う」状態であるといえる。
尚、式(7)の条件は、従来の多眼式或いは超多眼式の立体視において、各視点間の距離を人間の両眼距離と一致させる必要を考慮しない場合の条件である。各視点間の距離を人間の両眼距離と一致させるためには、図50に示すように、観察距離Dと、両眼距離Eと、画素ピッチSと、レンズの焦点距離Fとの間に次式(8)が成立する必要がある。
E/D=S/F ・・・(8)
即ち、従来の各視点間の距離を人間の両眼距離と一致させた多眼式の場合には、式(7)及び式(8)を同時に満たす必要がある。そのため、従来の多眼式では、正確なレンズ設計が必要であった。
このように、従来の多眼式では、水平方向で一定の長さ毎に同じ視点の繰り返しが発生している。また、これらの多眼式では、予め設定されたn個の視点(個別視点)に基づく画像(個別視点画像)を生成し、それらの画像を視点の繰り返しパターンに合わせて再配置(インターリーブ)することで立体視画像を生成している。
しかしながら、本実施形態の画像生成方法では、以上のような同じ視点の繰り返しが発生しない場合にこそ、良い立体視画像が得られることを特徴としている。ここで、水平方向に同じ視点の繰り返しが発生する条件とは、前述の対画素視角σと対レンズ視角λとの間に、次式(9)の関係が成立することであるといえる。
λ:σ=n:m ・・・(9)
但し、n、mは自然数である。
つまり、式(9)が成立しないときが、「同じ視点の繰り返しが発生しない」、即ち「ピッチが合わない状態となる。但し、この同じ視点の繰り返しは、少なくとも立体視画像の画像表示領域内で発生しなければ良いので、それを考慮した「同じ視点の繰り返しが発生しない」、即ち「ピッチが合わない」条件は、式(9)において、「mがΦ/λ未満の自然数」であることである。但し、Φは、実際の(或いは想定した)観察者の視点から見た表示面22中の立体視画像が表示される領域(立体視画像表示領域)に対する視角(対表示領域視角)である。
しかし、本実施形態は、ピッチが合っていない(即ち、式(7)及び式(8)が成立しない)立体視映像表示装置とし、この立体視映像表示装置に表示させる立体視画像を生成するものとする。つまり、従来のレンチキュラ方式の立体視映像表示装置では、立体視可能とするためにはレンズピッチと画素ピッチが合うように設計する必要があるが、本実施形態は、ピッチが合っていない立体視映像表示装置において立体視を可能ならしめる。従って、個々のディスプレイの画素ピッチに合ったレンチキュラレンズ板を製造する必要が無くなり、既製のレンチキュラレンズ板を種々のディスプレイに適用できることとなって、レンズ板のコストを大幅に下げるという効果が得られる。また、選択可能な複数のレンズ板から最も目的に合ったものを選ぶこともできる。更には、斜めレンチキュラ方式を採用する場合に、斜めの角度θも自由に設定できる。具体的には、新たなレンズを製造することなく、画素パネルに対するレンズ板の斜めの配置角度θを調節するだけで、モアレや色縞を軽減することができる。
続いて、表示面22の各画素PEの視線Vの決定方法を説明するが、その前に、表示面22の座標系を図6に示すように定義する。即ち、表示面22の水平走査方向(横方向)に沿った方向をx軸方向とし、鉛直走査方向(縦方向)に沿った方向をy軸方向とし、表示面22から観察者側へ垂直に向かう方向をz軸正方向とする。
先ず、本方式おける視線Vの決定方法の内、最も基本となる方法について説明する。この方法は、観察者の視線が表示面22の「正面」(表示面22の中心Oを通過する観察視線方向が表示面22に対して垂直となる位置)で、且つ「無限遠」にあると想定した方法であり、非立体視画像の描画方法でいえば「平行投影」に相当する。また、ここでは、立体視映像表示装置が上述した垂直/斜めレンチキュラ方式のそれぞれである場合の視線Vの決定方法について説明する。尚、以下では、1つの画素PEについての視線Vの決定方法を説明するが、他の画素PEについても勿論同様に決定できる。
立体視映像表示装置が垂直レンチキュラ方式である場合の視線Vの決定方法を、図5を参照して説明する。図5は、垂直レンチキュラ方式の立体視映像表示装置200Aの概略三面図であり、同図(a)は、x−z平面に平行な断面図(水平走査方向断面図)を示し、同図(b)は、y−z平面に平行な断面図(鉛直走査方向断面図)を示し、同図(c)は、x−y平面図を示している。
先ず、視線Vを決定する画素(以下、「対象画素」という)PEに対応するレンズ32を決定する。図5(a)において、レンズ板30の各レンズ32を画素パネル20の表示面22に平行投影して(即ち、各レンズ32の端部32aを通過する表示面22に垂直な直線によって)、表示面22を各レンズ32の投影領域に分割する。そして、対象画素PEの代表点(ここでは、画素の中心とする)が属する投影領域のレンズ32を対象画素PEに対応するレンズ32とする。但し、同図(a)は、対象画素PEの代表点を通過する断面図である。
同図(a)では、表示面22は、レンズ32−1の投影領域26−1と、レンズ32−2の投影領域26−2と、・・・、に分割される。そして、対象画素PEの代表点は投影領域26−1に属しているので、対象画素PEに対応するレンズ32はレンズ32−1となる。
次いで、対象画素PEの代表点と、対象画素PEに対応するレンズ32の主点とを通過した後の光線(以下、「代表光線」という)PRを算出し、その代表光線PRと位置は同じで方向を逆にした視線を対象画素PEの視線Vとする。具体的には、対象画素PEに対応するレンズ32−1の主点線36の内、y座標が対象画素PEの代表点のy座標に等しい点を算出し、これを代表主点36aとする。そして、対象画素PEの代表点と、この代表主点36aとを通過した後の代表光線PRを算出し、この代表光線PRと位置は同じで方向を逆にした視線を対象画素PEに対応する視線Vとする。ここでは、簡明のため、対象画素PEの代表点から対象画素PEに対応するレンズ32の代表主点に向かう方向を代表光線PRの方向とする。
以上説明した方法は、観察者の視点が無限遠にあることを想定したものだが、実際の立体視画像の観察時には、観察者の視点は無限遠ではないため、後述する方法に対して、特に近距離から観察した場合、遠近法(パース)の掛かり具合に違和感を感じることがある。しかし、各視線Vの決定方法が簡単であるため、計算負荷を軽減することができる等といった利点がある。
次に、上述した方法に比較してより自然な立体視が可能となる視線Vの決定方法を説明する。この方法は、観察者の視点を一定の位置に想定した描画方法であり、非立体画像の描画方法でいえば「透視投影」に相当する。
ここでは、想定観察位置40を、図6に示すように、立体視映像表示装置の表示面22に対して「正面」に設定する。「正面」の想定観察位置40とは、表示面22の中心Oを通過する観察視線方向が、表示面22に対して垂直となる位置である。以下、この想定観察位置40と表示面22との間の距離Dを「想定観察距離D」という。そして、想定観察位置40を「正面且つ有限距離の定位置」とした場合の視線Vの決定方法を、垂直レンチキュラ方式の立体視映像表示装置に適用した場合について説明する。
図7は、垂直レンチキュラ方式の立体視映像表示装置200Aの部分概略斜視図である。また、図8は、立体視映像表示装置200Aの概略三面図であり、同図(a)は、図7のx−z平面に平行なA−A位置での断面図(水平走査方向断面図)を示し、図8(b)は、図7のy−z平面に平行なB−B位置での断面図(鉛直方向断面図)を示し、図8(c)は、x−y平面図を示している。尚、レンズ板30及び画素パネル20は、レンズ板30の各レンズ32の焦点距離Fを隔てて平行配置されている。
先ず、対象画素PEに対応するレンズ32を決定する。具体的には、図8(a)において、想定観察位置40からレンズ板30の各レンズ32を画素パネル20の表示面22に投影して(即ち、想定観察位置40から各レンズ32の端部へと向かう直線によって)、表示面22を各レンズ32の投影領域に分割する。そして、対象画素PEの代表点がどの投影領域に属するかによって対応するレンズ32を決定する。但し、同図(a)は、対象画素PEの代表点を通過する断面図である。
同図(a)では、表示面22は、レンズ32−7の投影領域26−7と、レンズ32−8の投影領域26−8と、レンズ32−9の投影領域26−9と、・・・、に分割される。そして、対象画素PEの代表点は投影領域26−7に属しているので、この対象画素PEに対応するレンズ32はレンズ32−7となる。
次に、対象画素PEの代表点と、対象画素PEに対応するレンズ32の主点とを通過した後の代表光線を算出し、算出した代表光線と位置は同じで方向を逆にした視線を対象画素の視線Vとする。具体的には、図8(b)において、対象画素PEの代表点と想定観察位置40とを結ぶ直線LN1と、レンズ板30の主点面(各レンズ32の主点を含む面。表示面22に平行な平面である)35との交点のy座標を算出する。算出したy座標を「y1」とする。但し、同図(b)は、対象画素PEの代表点を通過する断面図である。次いで、対象画素PEに対応するレンズ32−1の主点線36の内、y座標が「y1」である点を算出し、これを代表主点36cとする。そして、対象画素PEの代表点と、この代表主点36cとを通過した後の代表光線PRを算出し、この代表光線PRと位置は同じで方向を逆にした視線を対象画素PEに対応する視線Vとする。
以上、想定観察位置が「正面且つ無限遠」及び「正面且つ有限距離の定位置」のそれぞれである場合の、表示面22の各画素PEの視線Vの決定方法を説明した。尚、以上では、各レンズ32に入射する光線は屈折を起こさない(即ち、対象画素PEの代表点から対象画素PEに対応するレンズ32の代表主点に向かう方向が代表光線PRの方向に一致する)ものとして説明したが、厳密には、図9に示すように、屈折作用によって、代表光線PRは、対象画素PEの代表点と対象画素PEに対応するレンズ32の代表主点とを結ぶ直線に対してy座標位置が僅かにずれて一致しない。そこで、このずれを算出して補正することにより、各画素PEの視線Vを正確に求めることとすればより好適である。
また、各画素PEに対するレンズ32の決定を、図7、8を参照して説明したように、想定観察位置40を「有限距離の定位置」として行うことで、遠近法(パース)の掛かり具合が自然になること以外にも、想定観察位置40周辺での観察範囲が広くなるという効果を得ることができる。
このように、各画素に対応する視線Vを決定した後、図10に示すように、決定した視線Vを基に、仮想カメラに相当する画素別視点CMを画素PE毎に設定する。尚、ここでは、画素PEに該画素PEに対応する画素別視点CMを設定するが、画素別視点CMを特に設定せず、全画素PEについての視線Vに共通なz方向の描画範囲を設定し、各視線Vについて描画を行うこととしても良い。
図10は、画素別視点CMの設定を説明するための図であり、表示面22の一部横方向断面図を示している。同図に示すように、各画素PE(PE1,PE2,・・・)の画素別視点CM(CM1,CM2,・・・)は、その視線方向が対応する視線V(V1,V2,・・・)となるように設定する。また、各画素別視点CMと表示面22との間の距離は、例えば同図に示すように、表示面22に平行な同一平面上に位置するように設定する。
同図では、画素PE1,PE2,・・・、のそれぞれの視線Vは視線V1,V2,・・・、である。従って、画素PE1の画素別視点CMは、視線V1がその視線方向の画素別視点CM1となる。また、画素PE2の画素別視点CMは、視線V2がその視線方向の画素別視点CM2となる。更に、画素PE3,PE4,・・・、についても同様に、それぞれの画素別視点CMは、視線V3,V4,・・・、がその視線方向の画素別視点CM3,CM4,・・・、となる。
(2)レンダリング
各画素PEの画素別視点CMを設定した後、設定した各画素別視点CMを基に三次元仮想空間をレンダリングすることで立体視画像を生成する。具体的には、画素PE毎に、該画素PEに対応する画素別視点CMの視線方向のオブジェクト空間の色情報(RGB値やα値等)を算出し、算出した色情報を該画素PEの色情報とすることで立体視画像を生成する。
図11は、色情報の算出を説明する図であり、表示面22の一部横方向断面図を示している。同図に示すように、表示面22の各画素PEについて、対応する画素別視点CMの視線方向のオブジェクト空間の色情報を算出し、算出した色情報を該画素PEの色情報とする。色情報の算出方法としては、例えば画素別視点CMからその視線方向に沿った光線を基に決定する、いわゆるレイトレーシング法等によって実現される。
同図では、画素PE1,PE2,・・・、のそれぞれの画素別視点は画素別視点CM1,CM2,・・・、である。従って、画素PE1の色情報は、画素別視点CM1の視線方向のオブジェクト空間の色情報となり、また、画素PE2の色情報は、画素別視点CM2の視線方向のオブジェクト空間の色情報となる。更に、画素PE3,PE4,・・・、のそれぞれについても同様に、対応する画素別視点CM3,CM4,・・・、の視線方向のオブジェクト空間の色情報が該画素PE3,PE4,・・・、の色情報となる。
このように、本実施形態では、表示面の画素PE毎に、(1)視線Vを決定し、(2)決定した視線Vの視線方向の色情報を該画素PEの色情報とする(レンダリングする)、ことで立体視画像を生成する。
尚、このように生成した画像を立体視画像として本実施形態の立体視映像表示装置に表示させた場合、観察者によって視認される映像は、従来の立体視映像と比べて若干正確さに欠く像となる。
図12は、本実施形態の立体視映像が若干正確さに欠けることを説明するための図であり、表示面22の横方向一部断面図を示している。同図において、観察者の右目EY1から立体視映像表示装置を見ると、レンズ32−1を介して画素PE1が見え、レンズ32−2を介して画素PE2が見え、レンズ32−3を介して画素PE3が見える。
ところで、画素PE1の色情報は、画素別視点CM1の視線方向のオブジェクト空間の色情報であり、画素PE2の色情報は、画素別視点CM2の視線方向のオブジェクト空間の色情報であり、また、画素PE3の色情報は、画素別視点CM3の視線方向のオブジェクト空間の色情報である。即ち、右目EY1と画素別視点CM1,CM2,CM3とは一致しないため、観察者によって認識される各画素PEの色情報は、その位置から見た正確な色情報とはならない。
しかしながら、画素別視点CM1,CM2,CM3の位置は右目EY1の近傍であり、また、それらの視線方向は、右目EY1がレンズ32−1,32−2,32−3を介して画素PE1,PE2,PE3を見る視線方向とは僅かにずれる程度である。このため、観察者の右目EY1で視認される像(色情報)は、その位置から見た正確な像(色情報)ではないものの、一定の明確性を有して視認される。
また、本実施形態によれば、視点(ビュー)の数が極めて多く、自然な立体視が可能となる。このことを、従来の多眼方式の立体視と比較した図13、14を参照して説明する。
図13は、従来の多眼方式の立体視の概略(イメージ)を示す図であり、3眼式の場合を示している。同図上側に示すように、従来の3眼式の立体視では、オブジェクト空間において、適当な距離を隔てて3つの個別視点1,2,3を設定し、個別視点1,2,3のそれぞれから見たオブジェクト空間の個別視点画像1,2,3を生成する。そして、これら3つの個別視点画像1,2,3をインターリーブ処理することで立体視画像を生成する。尚、同図において、立体視画像の各画素の数字は対応する個別視点画像(個別視点)の番号を表している。また、各画素別視点CMの位置及び視線方向は、概略図(イメージ図)であるために大凡であり、正確なものではない。
そして、同図下側に示すように、生成した立体視画像を従来の3眼式の立体視映像表示装置に表示させて適視位置1,2,3のそれぞれから見ると、適視位置1では個別視点画像1が見え、適視位置2では個別視点画像2が見え、適視位置3では個別視点画像3が見える。より詳細には、適視位置1をほぼ中心とする適視範囲1では個別視点画像1が見え、適視位置2をほぼ中心とする適視範囲2では個別視点画像2が見え、適視位置3をほぼ中心とする個別視点適視範囲3では画像3が見える。但し、同図において、適視範囲は概略図(イメージ図)であるために大凡のものであり、正確なものではない。
即ち、観察者OBが、右目EY1が適視位置2にほぼ一致し、左目EY2が適視位置1にほぼ一致する位置で立体視画像を見ると、右目EY1では個別視点画像2が見え、左目EY2では個別視点画像1が見えることで立体視映像を認識する。つまり、右目EY1を個別視点2とし、左目EY2を個別視点1としてオブジェクト空間を見た状態に相当する。
また、観察者OBの位置が、立体視画像に対して右方向へ移動すると、右目EY1或いは左目EY2が適視範囲の境界部分を通過する際に、該右目EY1或いは左目EY2で見える画像が急に切り換わる。具体的には、例えば右目EY1が適視範囲2と適視範囲3との境界部分を通過する際に、右目EY1に見える画像が個別視点画像2から個別視点画像3に切り換わる。また、左目EY2が適視範囲1と適視範囲2との境界部分を通過する際に、左目EY2に見える画像が個別視点画像1から個別画像2に切り換わる。
これは、従来の多眼方式の立体視では、n個の個別視点から見た各個別視点画像をインターリーブ処理して立体視画像を生成し、これを、ピッチが合うように設計されたn眼式の立体視映像表示装置に表示させることで立体視を実現しているためである。即ち、従来の立体視映像表示装置では、立体視画像を、レンチキュラレンズ板によって各個別視点画像に分離しているためである。
図14は、本実施形態の立体視の概要(イメージ)を示す図である。本実施形態では、上述のように、画素PE毎に画素別視点CMを設定し、各画素別視点CMの視線方向のオブジェクト空間の色情報を対応する画素PEの色情報とすることで立体視画像を生成している。即ち、同図上側に示すように、画素数に等しい画素別視点CM1,CM2,・・・を設定し、設定した画素別視点CM1,CM2,・・・、のそれぞれの視線方向の色情報を画素PE1,PE2,・・・、の色情報として立体視画像を生成している。尚、同図において、立体視画像の各画素PEの数字は、対応する画素別視点CMの番号を表している。
このように生成された立体視画像を、例えば図2に示した本実施形態の立体視映像表示装置200Aに表示させ、観察者OBが、同図下側に示す位置で立体視画像を見る。すると、左目EY2には、画素PE1,PE2,PE3,・・・、から構成される画像Aが見え、右目EY1には、画素PE11,PE12,PE13,・・・、から構成される画像Bが見える。つまり、左目EY2を、画素別視点CM1,CM2,・・・,CM10、から成る視点群とし、右目EY1を、画素別視点CM11,CM12,・・・,CM20、から成る視点群としてオブジェクト空間を見ている状態に相当する。
そして、観察者OBの位置が、立体視画像に対して少し右方向に移動すると、観察者の左目EY2に見える画像が、画像Aの一部の画素PEが隣の画素PEに入れ替わった画像A2に変化し、右目EY1に見える画像が、画素Bの一部の画素PEが隣の画素PEに入れ替わった画像B2に変化する。
このように、本実施形態では、立体視画像を見る観察者の位置(観察位置)が変化すると、この変化に伴って右目EY1及び左目EY2のそれぞれに見える画像が少しずつ変化する。詳細には、幾つかの画素がその近隣の画素に入れ替わった画像に変化する。従って、観察者OBの右目EY1及び左目EY2のそれぞれに見える画像が少しずつ変化することで、認識される映像が少しずつ変化する。
このため、例えば図13に示した従来の多眼方式の立体視映像のように、適視範囲の境界部分で見える画像が急に切り変わる(即ち、認識される立体視映像が急に変化する)といった現象が生じず、観察位置の変化に伴って少しずつ変化する自然な立体視映像を実現できるとともに、観察者により視認される像の明確性が一定以上に保たれる。
尚、上述のように、観察者OBの右目EY1及び左目FY2の各目に見える画像は、実際の画像とは若干正確さに欠く映像となる。しかし、各目が各画素を見る視線方向は、図14下側に示すように、該画素の画素別視点CMの視線方向にほぼ沿った方向となっている。即ち、左目EY2が画像Aの各画素PE1,PE2,・・・、を見る視線方向は、これら各画素PE1,PE2,・・・、に対応する画素別視点CM1,CM2,・・・、の視線方向にほぼ沿った方向となっている。また、右目EY1についても同様に、画像Bの各画素PE11,PE12,・・・、を見る視線方向は、これら各画素PE11,PE12,・・・、に対応する画素別視点CM11,CM12,・・・、の視線方向にほぼ沿った方向となっている。このため、観察者に視認される映像は、若干正確さに欠くものの、像として視認できる明確性を有したものとなる。また、前述のように、観察者の位置が変化しても、視認される像の明確性が一定以上に保たれる。
また、本実施形態において観察者に認識される立体視映像は、従来の多眼方式の立体視映像と同程度の解像度が得られる。例えば図2に示す立体視映像表示装置200Aでは、レンズピッチLはサブピクセル単位での画素ピッチSの3〜4倍である。従って、かかる立体視映像表示装置200では、画素パネル20の解像度の1/3〜1/4程度の解像度、即ち、従来の3〜4眼式の立体視映像と同程度の解像度が得られることになる。
このように、本実施形態による立体視では、認識される立体視映像の正確さが僅かに欠けるけれども、従来の多眼方式の立体視映像と同程度の解像度を有しつつ、且つ、視点(ビュー)の数が膨大になったような自然な立体視映像を実現できる。
以上、方法(I)に基づき本実施形態の立体視画像を生成する方法について説明した。次に、方法(II)に基づき1視点からの平面視画像とその奥行画像とから本実施形態の立体視画像を生成する方法について説明する。ここで、方法(II)は、a)専用のレンダラを使わなくとも、既存の高品位なCGツールで作成した画像を容易に立体化できる、b)実写画像から立体視画像を作成する場合に、一箇所の視点位置からの撮影で済ませることができる、c)奥行画像の作成は、CGツールで描画する場合には容易に作成できる、d)実写画像に対応する奥行画像を取得する場合、距離画像カメラ等が必要となり、その精度や解像度は現状では不十分だが、今後向上が期待できる、などの理由からその研究が盛んに進められている。
例えば、特開2000−78611号公報に記載されるように、平面視画像と奥行画像とから2眼式の立体視画像を生成する場合、奥行画像の奥行値に基づいて、平面視画像をそれぞれ左右方向にずらすことにより、左目用の視差画像と、右目用の視差画像とを生成し、生成した視差画像をインターリーブして立体視画像を生成する。ここでいう奥行画像とは、平面視画像の対応する位置の奥行値を、白黒の階調で表す画像データである。画素毎の奥行値が既知であれば、平面視画像の各画素が視差画像のどの位置に変換されるかはスクリーンの大きさ、観察者の観察距離及び両眼間の距離から一義的に求まる。
例えば、図15に示すように、先ず、平面視画像のドットの位置P0から観察者の視線方向に垂直に伸ばした線と、奥行値とが交差する位置P1を該画素を表示させたい位置として決定する。次いで、左目用の視差画像を生成する場合は、想定観察位置40に相当する左目用視点カメラと位置P1とを結ぶ延長線と表示面とが交差する点を左目用の画素移動位置P2とする。一方、右目用の視差画像を生成する場合は、想定観察位置40に相当する右目用視点カメラと位置P1とを結ぶ線の延長線と表示面とが交差する点を右目用の画素移動位置P3とする。このように、平面視画像の各画素に対して、奥行値に基づき表示させたい位置を決定し、当該位置と、各左右視点カメラの位置とに基づいて、当該画素の移動位置を決定することにより、左目用の視差画像と、右目用の視差画像とを生成する。そして、生成した2つの視差画像をインターリーブすることにより、2眼式の立体視画像を生成することができる。
一方、本実施形態では、表示面の各画素毎に、(1)該画素の代表点(例えば、画素の中心)及び該画素の射出光線に指向性を与える光学素子(例えば、レンズ)の代表点を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を決定し、(2)決定した方向と奥行画像とに基づき、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを平面視画像の中から判定し、判定した基準画像のドットの色情報を該画素の色情報とすることで立体視画像を生成する。尚、(1)の光線の方向に対応する方向の決定方法は、上述した方法(I)と略重複した説明となるため、以下では、主に(2)決定した方向と奥行画像とに基づき色情報を決定する方法について詳細に説明する。
まず、原理の概要について説明する。
例えば、図16に示すように、表示面の位置P12の画素に着目した場合、該画素に対する視線Vと画素別視点CM11とを方法(I)の場合と同様に決定する。次いで、決定した視線Vに対応する方向の軌跡(図中、位置P12と画素別視点CMとを通過する線、以下、「画素別視線方向軌跡」と呼ぶ)と、奥行値とが交差する位置P11を該画素を表示したい位置として決定する。そして、位置P11から表示面に対して垂直に伸ばした線と、表示面との交点P10の位置を取得し、取得した位置に対応する平面視画像のドットの色情報を、位置P12の画素の色情報として求める。
次に、画素別視線方向軌跡と、奥行値との交点が複数ある場合について説明する。例えば、表示面の位置P24の画素に着目した場合、画素別視線方向軌跡と奥行値とは、交点P21,交点P22及び交点P23で交差する。この場合、観察者の最も手前の交点、即ち、個別視点CM22に最も近い交点P21を、該画素を表示させたい位置として決定する。そして、交点P21から表示面に対して垂直に伸ばした線と、表示面との交点P20の位置を取得し、取得した位置に対応する平面視画像のドットの色情報を、位置P24の画素の色情報として求める。
このように、表示面の各画素に対する視線Vと画素別視点CMとを決定し、視線Vの方向と該画素及び画素別視点CMとから画素別視線方向軌跡を求め、画素別視線方向軌跡と奥行値とが交差する点のうち、画素別視点CMに最も近い交点の位置を該画素を表示させたい位置として決定する。そして、決定した位置から表示面に対して垂直に伸ばした線と、表示面との交点の位置を取得し、取得した位置に対応する平面視画像のドットの色情報を該画素の色情報とすることにより、立体視画像を生成することができる。
次に、具体的な平面視画像とその奥行画像とに基づいて、立体視画像を生成する方法について説明する。尚、以下では説明の簡便のため平面視画像がグレースケール画像(モノクロ画像)である場合を例として説明する。図17(a)は、平面視画像の対応する位置の奥行値を、白黒の階調で表す奥行画像であり、同図(d)は、基準となる平面視画像である。同図(b)は、奥行画像の奥行値に基づき生成される奥行情報モデルであり、あるスキャンライン(例えば、Y=y0)におけるZ値をxz座標に変換したものである。この奥行情報モデルは、Z値が大きいほど観察者に近い距離にあることを示し、1ドットは1ピクセルに対応している。尚、奥行画像は、観察者の視点が無限遠であることを想定した平行投影法により作成された画像である。
同図(c)は、表示面22に対する垂直断面を簡略的に示した図であり、画素PE1,PE2の代表点から射出される代表光線PR1,PR2と、奥行情報モデルとの交点X1,X2と、同図(d)に示す平面視画像との対応関係を示す図である。同図(c)に示すように、画素PE1から射出された代表光線PR1(即ち、視線Vと逆方向の光線であり、画素別視線方向軌跡と等価の光線)と、奥行情報モデルとから交点X1(z1,x1)が決定する。この交点X1の位置に対応する平面視画像のドットの色情報を取得する。即ち、交点X1(z1,x1)から、対応する平面視画像の位置座標(x1,y0)が決定され、この位置座標におけるドットから取得される色情報を画素PE1の色情報として求める。同様に、画素PE2から射出された代表光線PR2と、奥行情報モデルとの交点X2(z2,x2)から、対応する平面視画像の位置座標(x2,y0)が決定する。そして、平面視画像の位置座標(x2,y0)のドットから取得される色情報を画素PE2の色情報として求める。
更に、画素別視線方向軌跡と、奥行情報モデルの奥行値との交点が複数ある場合の色情報の求め方について詳細に説明する。図18は、表示面22に対する垂直断面を簡略的に示した図であり、当該垂直断面に応じたスキャンラインにおける奥行情報モデルを示している。また、表示面22の黒丸(●)は各画素の代表点を示し、各代表点のx座標と、奥行値のx座標はそれぞれ一致しているものとする。つまり、1画素は、1ピクセルに対応している。本方式では、各画素の代表点から射出される代表光線の方向を、レンズ及び画素の位置関係から算出し、これを視線Vの方向とする。尚、図中レンズの記載は省略している。
図19は、図18に示した各画素のうち画素PE1,PE2,PE3に着目し、該画素PE1〜PE3に対応する代表光線PR1〜PR3を示した図である。代表光線PR1〜PR3は、3つの典型的パターンを示している。つまり、代表光線PR1は、画素PE1から左斜め上方向に射出するパターンであり、代表光線PR2は、画素PE2から右斜め上方向に射出するパターンであり、代表光線PR3は、画素PE3から垂直上方向に射出するパターンを示している。先ず、代表光線が左斜め上方向に射出するパターン、即ち、画素別視線方向軌跡の傾きが負となる場合における画素PE1の色情報の求め方について説明する。
図20は、画素別視線方向軌跡をV1とし、V1と奥行情報モデルとの交点を示す図である。尚、レンズ及び画素は省略している。先ず、画素別視線方向軌跡V1と、奥行情報モデルの全ての線分との交差判定を行い、各交点(図中では、3つの交点)を求める。そして、全交点の中から奥行値(Z値)が最も大きい交点(即ち、画素別視点CMから最も手前の交点、以下、「対象交点」と呼ぶ)を色情報を求めるための交点として取得する。そして、図17(c)、(d)を用いて説明した方法と同様に平面視画像のドットのうち対象交点の位置に応じたドットの色情報を取得し、これを画素PE1の色情報とする。同図においては、交点X1が対象交点となる。
同様に、画素PE2の色情報を求める場合も、画素PE2に対する画素別視線方向軌跡V2と、奥行情報モデルの全ての線分と交差判定を行い、求められた全交点のうちZ値が最も大きい対象交点を取得する。そして、平面視画像のドットのうち対象交点の位置に対応するドットの色情報を取得して、これを画素PE2の色情報とする。また、画素PE3の色情報を求める場合は、視線Vは画素PE3に対して垂直方向であるため、平面視画像のドットのうち画素PE3の位置に対応するドットの色情報を取得し、これを画素PE3の色情報とする。
以上のように、各画素の色情報を求める場合、各画素に対する画素別視線方向軌跡と、奥行情報モデルの全ての線分との交差判定を行う必要があり、三次元仮想空間の色情報を求めるのに時間を要することが懸念された。つまり、本実施形態では、画素パネルの各画素には、当該画素毎の光線の方向に基づいた三次元仮想空間の色情報が表されるため、当該光線の数ほどに視点がある、即ち画素の数ほどに視点があるといえる。従って、視点の数の増加に伴い、画素毎の計算処理に多大な時間を要するという問題がある。
リアルタイムに動画像を生成して立体視映像装置に表示させる場合、毎フレーム単位で立体視画像を生成する必要がある。従って、時間的な制約が極めて大きく、毎フレーム単位で立体視画像を生成できない場合、立体視映像表示装置に動画像を表示できない事態(いわゆる処理落ち)が起こり得た。そこで、本発明者は、各画素に対する画素別視線方向軌跡と、奥行値情報とに基づいた収束計算処理により、対象交点を短時間で求める方法を発明した。
以下、対象交点を求める方法について説明する。
今、あるスキャンラインにおける奥行情報モデルの奥行値(Z値)が、関数z=fz(x)で表され、一の画素における画素別視線方向軌跡が、関数z=ax+b(a、bは定数)で表されるものとする。但し、「x」は、画素パネル20の画素のx座標(画素位置)を示している。
また、簡単のため、関数z=fz(x)と関数z=ax+bとは、1点でのみ交差するものとする。この場合における関数z=fz(x)及び関数z=ax+bのグラフの一例を、図21に示す。
ここで、f(x)=fz(x)−(ax+b)とおくと、関数z=fz(x)と関数z=ax+bとの交点に対応する画素位置xmは、方程式f(x)=0の解として求めることができるため、数値計算によりf(x)=0の解を求める問題に帰着する。
ここで、f(x)=0の解を求めることは、一般的に容易ではない。しかし、公知の手法に基づいて近似解を求めることは可能である。そこで、本実施形態では、ニュートン法と呼ばれる手法を用いて、f(x)=0の近似解を算出する。
図22は、ニュートン法による近似解算出の原理を示す図である。
先ず、任意の画素位置x=x0を初期値に設定し、関数f(x)上の点(x0,f(x0))における接線がx軸と交差する点をx1として算出する。
次いで、関数f(x)上の点(x1,f(x1))における接線がx軸と交差する点をx2として算出する。以下、同様の手順を繰り返してx3,x4,x5,・・・を算出していくと、初期値が適切である限り、xnは最終的に解であるxmに収束する。ここで、xnの更新式は、次式(10)のように定式化される。
n+1=xn−f(xn)/f´(xn) ・・・(10)
尚、ニュートン法では、次式(11)の条件が満たされた時点で計算を終了するのが一般的である。
|(xn+1−xn)/xn|<ε ・・・(11)
但し、εは、計算精度を決める定数である。
式(10)から明らかなように、xnを更新する際には、f´(xn)を求める必要がある。ここで、f´(xn)=fz´(xn)−aであり、画素別視線方向軌跡の傾きである「a」の値は定まっているため、fz´(xn)を求めれば良いことになる。
この場合、fz´(xn)を逐次算出しても良いが、予め平面視画像の全てのドットについて、奥行値の微分値(以下、「奥行微分値」と呼ぶ。)を算出しておくことにすれば至便である。
奥行値を与える関数z=fz(x)が数式として与えられていれば、当該関数を微分することで得られる微分関数z´=fz´(x)から奥行微分値を算出することができる。しかし、一般の画像では、奥行値を与える関数z=fz(x)を数式化できないため、奥行微分値を与える関数を求めることは困難である。そこで、各ドットについて、当該ドットの奥行値と当該ドットに隣接する隣接ドットの奥行値との差分を算出して奥行差分値とし、これを奥行微分値の代わりにする。
以上のように、本実施形態では、ニュートン法を用いて各画素の画素別視線方向軌跡と奥行値との対象交点を求める。ニュートン法は、解の収束性が初期値に依存するアルゴリズムではあるが、二次収束性を有することを特徴としているため、初期値が適切であれば、解を高速に求めることが可能となる。従って、対象交点を短時間で求めることができるため、立体視画像生成の高速化を実現できる。
2.立体視画像生成装置
次に、上述した原理に基づく立体視画像生成装置について説明する。かかる立体視画像生成装置は、動画の立体視を実現する立体視画像を生成するものである。
2−1.構成
図23は、本実施形態における立体視画像生成装置1の構成を示すブロック図である。
立体視画像生成装置1は、入力部100と、立体視映像表示装置200と、処理部300と、記憶部400とを備えて構成される。
入力部100は、ユーザによる操作指示を受け付け、操作に応じた操作信号を処理部300に出力する。この機能は、例えばボタンスイッチやレバー、ジョイスティック、ダイヤル、マウス、トラックボール、キーボード、タブレット、タッチパネル、各種センサ等の入力装置によって実現される。
立体視映像表示装置200は、立体視画像生成部320により生成された立体視画像を表示して観察者に立体視映像を認識せしめる表示装置である。本実施形態では、例えば図2に示した垂直レンチキュラ方式の立体視映像表示装置により実現される。
処理部300は、立体視画像生成装置1全体の制御や画像生成等の各種演算処理を行う。この機能は、例えばCPU(CISC型、RISC型)、ASIC(ゲートアレイ等)等の演算装置やその制御プログラムにより実現される。特に、本実施形態では、処理部300は、三次元仮想空間であるオブジェクト空間を設定するオブジェクト空間設定部310と、オブジェクト空間設定部310により設定されたオブジェクト空間の立体視画像を生成する立体視画像生成部320とを含む。
立体視画像生成部320は、画素別視点設定部322と、レンダリング部324と、モデル生成部325と、色情報設定部326とを含み、記憶部400に記憶されている立体視画像生成プログラム410に従った処理を実行することで、オブジェクト空間設定部310により設定されたオブジェクト空間の立体視画像を生成し、生成した立体視画像を立体視映像表示装置200に表示させる。
画素別視点設定部322は、表示装置データ430及び想定観察位置データ440を参照してオブジェクト空間に画素別視点CMを設定する。具体的には、立体視映像表示装置200の表示面22の画素PE毎に、表示装置データ430及び想定観察位置データ440を参照して対応するレンズ32を決定する。そして、該画素PEの代表点と、該画素PEに対応するレンズ32の主点(詳細には、代表主点)とを通過した後の代表光線PRを算出し、この代表光線PRと位置は同じで方向を逆にした視線を該画素PEの視線Vとする。このとき、画素PEに対応するレンズ32及び視線Vの決定は、立体視映像表示装置200に応じた方法で行う。即ち、図7、8を参照して説明したように行う。
そして、画素別視点設定部322は、各画素PEについて、算出した視線Vを視線方向とする画素別視点CMを設定する。また、画素別視点CMの位置は、立体視画像生成部320によって決定された設定基準位置を基に設定する。具体的には、例えば図11に示したように、表示面22に平行な同一面上に各画素別視点CMを設定する。
ここで、表示装置データ430とは、立体視映像表示装置200の構成パラメータのデータである。図24に、表示装置データ430のデータ構成の一例を示す。表示装置データ430は、立体視映像表示装置200を構成する画素パネル20の画素ピッチ431と、レンズ板30のレンズピッチ432及び焦点距離433と、画素パネル20に対するレンズ板30の配置角度434及び配置基準位置435とを格納する。
配置角度434は、画素パネル20の画素ピッチ方向とレンズ板30のレンズピッチ方向とが成す角度θの値を格納する。即ち、配置角度434は、立体視映像表示装置200が垂直/斜めレンチキュラ方式の何れであるかを示すデータであり、垂直レンチキュラ方式の場合には、θ=0゜となり、斜めレンチキュラ方式の場合には、θ=0゜以外となる。配置基準位置435は、レンズ板30の配置位置であり、画素パネル20の基準位置からのレンズ板30の水平方向に対するずれの大きさdxを格納する。尚、この表示装置データ430は、固定的なデータとして予め記憶されていることとするが、入力部100からのユーザ入力に従って設定されることとしても良い。
また、想定観察位置データ440とは、想定観察位置40のデータであり、具体的には、立体視映像表示装置200の画素パネル20の表示面と、想定した観察者の視点(想定観察位置)40との間の想定観察距離Dの値を格納する。或いは、想定した観察者の視点(想定観察位置)40の位置座標を格納することとしても良い。尚、この想定観察位置データ440は、固定的なデータとして予め記憶されていることとするが、入力部100からのユーザ入力によって設定されることとしても良い。想定観察位置データ440をユーザ入力により設定できるようにすることで、想定視点位置を変更したい場合にも容易に対応できる。また、入力装置としてヘッドトラッキング装置を用いて、観察位置が自動的にフィードバック(入力)されるようにしても良い。
また、画素別視点設定部322によって設定された各画素PEの画素別視点CMのデータは画素別視点データ450に格納される。図25に、画素別視点データ450のデータ構成の一例を示す。画素別視点データ450は、立体視映像表示装置200の画素パネル20の画素451と、画素別視点ベクトル452とを対応付けて格納している。画素別視点ベクトル452には、対応する画素別視点CMを表すデータとして視線Vのデータが、正規化されたベクトルとして格納される。また、実際の計算時には、視線Vのデータは、画素別視線方向軌跡の関数z=ax+bに変換して用いられる。そのため、予めa、bの値を計算して求めておき、これらを画素別視点データ450に格納しておいても良い。
レンダリング部324は、オブジェクト空間設定部310により設定されたオブジェクト空間に1つの仮想カメラを設定し、該仮想カメラの視点に基づきZバッファ法等によりレンダリングを行って、レンダリングデータ460を生成する。
モデル生成部325は、レンダリング部324により生成されたレンダリングデータ460に基づいて、平面視画像の各ドットの奥行値の情報である奥行情報モデル470と、奥行微分値の情報である奥行微分情報モデル480とを生成する。尚、レンダリングをZバッファ法によって行った場合には、隠面消去のために各ドットの奥行値がZバッファに残る。そのため、このZバッファの値を利用して奥行情報モデル470を求めることとしても良い。
色情報設定部326は、色情報設定プログラム420に従って色情報設定処理を実行して、三次元仮想空間の立体視画像の色情報を設定する。具体的には、各画素PEについて、画素別視点データ450から画素PEと、画素PEに対する画素別視点(視線Vのデータ)とを取得して画素別視線方向軌跡を算出し、この画素別視線方向軌跡と、画素PEの位置に応じたスキャンラインにおける奥行情報モデル470との交点のうち、Z値が最大となる対象交点を収束計算処理により算出する。そして、算出された対象交点の位置に応じた画素位置を取得し、当該画素位置に対応する平面視画像のドットの色情報を画素PEの色情報として求める。求められた各画素PEの色情報は、色情報設定部326により立体視画像データ500の該当位置に書き込まれる。
記憶部400は、処理部300に立体視画像生成装置1を統合的に制御させるためのシステムプログラムやデータ等を記憶するとともに、処理部300の作業領域として用いられ、処理部300が各種プログラムに従って実行した演算結果や入力部100から入力される入力データ等を一時的に記憶する。この機能は、例えば各種ICメモリやハードディスク、フロッピー(登録商標)ディスク、CD−ROM、DVD、MO、RAM、VRAM等によって実現される。
特に、本実施形態では、記憶部400は、処理部300を立体視画像生成部320として機能させるための立体視画像生成プログラム410と、表示装置データ430と、想定観察位置データ440と、画素別視点データ450と、レンダリングデータ460と、奥行情報モデル470と、奥行微分情報モデル480と、画素別対応ドットデータ490と、立体視画像データ500とを記憶している。また、立体視画像生成プログラム410は、立体視画像生成部320を色情報設定部326として機能させるための色情報設定プログラム420をサブルーチンとして含んでいる。
レンダリングデータ460は、レンダリング部324により生成されるデータであり、平面視画像データ462を含んでいる。図26に、平面視画像データ462の一例を示す。平面視画像データ462は、色情報(例えば、RGB値、α値)を記憶した画像データであり、基準画像の一種である。
奥行情報モデル470は、モデル生成部325により生成されるデータであり、平面視画像の各ドットの奥行値をスキャンライン毎に格納した奥行画像データ472を含んでいる。図27に、図26の平面視画像データ462に対する奥行画像データ472を示す。図27(b)は、同図(a)に示す奥行画像のスキャンラインA−Aにおける奥行値をxz座標に変換したモデル図である。同図(a)において、Z値が大きい(明るい)ほど観察者に近い位置であることを示している。
奥行微分情報モデル480は、モデル生成部325により生成されるデータであり、平面視画像の各ドットの奥行微分値をスキャンライン毎に格納した奥行微分画像データ482を含んでいる。図28に、図26の平面視画像データ462に対する奥行微分画像データ482を示す。図28(b)は、同図(a)に示す奥行微分画像のスキャンラインB−Bにおける奥行微分値をxz座標に変換したモデル図である。
画素別対応ドットデータ490は、各画素PEについて、色情報を設定する平面視画像のドットを記憶したデータであり、そのデータ構成の一例を、図29に示す。画素別対応ドットデータ490は、立体視映像表示装置200の画素パネル20の画素491と、当該画素に対応する平面視画像のドットである対応ドット492とを格納する。
立体視画像データ500は、立体視画像生成部320により生成される1フレーム分の画像データ(詳細には、各画素の色情報)を格納する。
2−2.処理の流れ
次に、処理の流れを説明する。
図30は、本実施形態における立体視画像生成処理の流れを示すフローチャートである。この処理は、1フレーム毎に立体視画像を生成して表示させる、即ちリアルタイムな動画の立体視を実現させる処理であり、立体視画像生成部320が記憶部400の立体視画像生成プログラム410を実行することで実現される。
先ず、立体視画像生成部320は、画素別視点CMの設定位置の基準となる基準位置(設定基準位置)を決定する(ステップS11)。次いで、立体視画像生成部320は、表示面22の各画素PEを対象としてループAの処理を実行することで、各画素PEの画素別視点CMをオブジェクト空間に設定する。
ループAでは、画素別視点設定部322は、表示装置データ430及び想定観察位置データ440を参照して、処理対象となっている画素PE(以下、「該画素」という)に対応するレンズ32を決定する(ステップS13)。
次いで、画素別視点設定部322は、該画素PEの代表点と、該画素PE及び観察位置に対応するレンズ32の主点(代表主点)とを通過した後の光線(代表光線)PRを算出し、その代表光線PRと位置は同じで方向を逆にしたベクトルを視線Vとする(ステップS15)。そして、画素別視点設定部322は、その視線Vの方向を視線方向とする画素別視点CMを設定し(ステップS17)、画素別視点データ450として記憶させる。ループAはこのように実行される。
表示面22の全画素PEを処理対象としてループAの処理を行うと、立体視画像生成部320は、続いて、1フレーム毎にループBの処理を実行する。
ループBでは、先ず、オブジェクト空間設定部310は、オブジェクト空間を設定し(ステップS19)、設定したオブジェクト空間に仮想カメラを設定する(ステップS21)。そして、レンダリング部324は、設定された仮想カメラに基づきZバッファ法によるレンダリングを行って、レンダリングデータ460を生成する(ステップS23)。
次いで、モデル生成部325は、生成されたレンダリングデータ460に基づいて、平面視画像の各ドットの奥行値の情報である奥行情報モデル470を生成する(ステップS25)。
また、モデル生成部325は、ステップS25で生成した奥行情報モデル470に基づいて、平面視画像の各ドットの奥行微分値の情報である奥行微分情報モデル480を生成する(ステップS27)。具体的には、モデル生成部325は、各ドットについて、当該ドットの奥行値と、当該ドットに隣接する隣接ドットの奥行値との差分を算出して奥行差分値を求め、それを奥行微分値とみなすことで、奥行微分情報モデル480を生成する。尚、奥行値を与える関数z=fz(x)が予め数式として与えられている場合は、モデル生成部325は、当該関数を微分した微分関数z´=fz´(x)から各ドットの奥行微分値を算出することで、奥行微分情報モデル480を生成する。
続いて、色情報設定部326は、処理対象となっている画素PE(該画素)の色情報を設定する色情報設定処理(図31参照)を実行する(ステップS29)。そして、表示面22の全画素PEを対象とした色情報設定処理が終了すると、立体視画像生成部320は、立体視画像データ500に格納されている1フレーム分の画像データを、立体視画像として立体視映像表示装置200に表示させる(ステップS31)。
このように、1フレーム毎にループBの処理を繰り返し実行することで、動画の立体視が実現される。そして、例えば入力部100から立体視画像の生成終了指示が入力される等して立体視画像の生成終了が指示されると、立体視画像生成部320はループBを終了し、本実施形態における立体視画像生成処理は終了となる。なお、画像の生成に時間がかかる場合や、生成した動画像を後で再利用したい場合などには、その出力先を、立体視映像表示装置200に代えて、ハードディスク等の記憶媒体としても良い。また、処理時間に余裕がある場合には、立体視映像表示装置200と記憶媒体の両方に出力を行っても良い。
次に、図31を参照して、色情報設定処理の流れについて説明する。
先ず、色情報設定部326は、表示面22の各画素PEに対してループCの処理を実行する。
ループCでは、色情報設定部326は、該画素に対する画素別視線方向軌跡の傾きが垂直であるか否かを判定する(ステップS33)。画素別視線方向軌跡の傾きが垂直である場合(ステップS33;Yes)、即ち、図19のPE3と同様である場合、色情報設定部326は、当該画素位置のxy座標に対応する平面視画像のドットを該画素の対応ドット492として画素別対応ドットデータ490に記憶させ、当該ドットの色情報を該画素の色情報として設定する(ステップS35)。
一方、該画素に対する画素別視線方向軌跡の傾きが垂直でない場合(ステップS33;No)、色情報設定部326は、該画素のx座標を画素位置x0として取得する(ステップS37)。そして、色情報設定部326は、該画素の視線方向と画素別視点CMとに基づいて画素別視線方向軌跡z=ax+bを算出し、奥行情報モデル470から取得される画素位置x0に対応する平面視画像のドットの奥行値「fz(x0)」と、画素別視線方向軌跡から取得される画素位置x0に対応する平面視画像のドットの奥行値「ax0+b」との差「f(x0)=fz(x0)−(ax0+b)」をZaとする(ステップS39)。但し、この場合は、初期値x0を該画素のx座標としているので、z=ax+bが該画素を通過する直線であることにより、「ax0+b=0」となる。即ち、「f(x0)=fz(x0)」をZaとすれば良い。
また、色情報設定部326は、奥行微分情報モデル480から取得される画素位置x0に対応する平面視画像のドットの奥行微分値「fz´(x0)」と、画素別視線方向軌跡の傾き「a」との差「f´(x0)=fz´(x0)−a」をZdとする(ステップS41)。そして、色情報設定部326は、「xd=x0−Za/Zd」によりxdを算出した後(ステップS43)、ループDの処理を所定回数実行する。
尚、ここでは、ニュートン法による収束計算処理を行う際の初期値として、該画素の画素位置x0を与えるものとして説明するが、この値は適宜変更可能である。例えば、画素面に平行で、奥行モデルの最高点を通る平面と、該画素の画素別視線方向軌跡の交点とを求め、このx座標を探索の初期位置としても良い。このようにすることで、奥行情報モデルと画素別視線方向軌跡の交点が複数あった場合に、最も手前の交点を取得できる可能性が高くなり、より精確な立体視画像を得ることが出来る。
また、ループDの処理を所定回数実行するのではなく、式(11)の条件が満たされるまで実行することにしても良い。
ループDでは、色情報設定部326は、奥行情報モデル470から取得される画素位置xdに対応する平面視画像のドットの奥行値「fz(xd)」と、画素別視線方向軌跡から取得される画素位置xdに対応する平面視画像のドットの奥行値「axd+b」との差「f(xd)=fz(xd)−(axd+b)」をZaとする。また、色情報設定部326は、奥行微分情報モデル480から取得される画素位置xdに対応する平面視画像のドットの奥行微分値「fz´(xd)」と、画素別視線方向軌跡の傾き「a」との差「f´(xd)=fz´(xd)−a」をZdとする(ステップS45)。
そして、色情報設定部326は、「xd←xd−Za/Zd」に従ってxdを更新する(ステップS47)。ループDは、このように実行される。
ループDの処理を終了すると、色情報設定部326は、画素位置xdのxy座標に対応する平面視画像のドットを該画素の対応ドット492として画素別対応ドットデータ490に記憶させ、当該ドットの色情報を該画素の色情報として設定して(ステップS49)、次の画素へと処理を移行する。
このように、各画素毎にループ処理を繰り返して実行することで、1フレーム分の立体視画像の色情報を設定することができる。尚、これらの処理は、1画素毎或いは数画素毎に、並列化して行っても良い。
2−3.作用効果
以上のように、本実施形態によれば、表示面22の画素PE毎に画素別視点CMを設定し、設定した画素別視点CMの視線方向のオブジェクト空間の色情報を該画素PEの色情報とすることで立体視画像を生成している。
従って、画素PEの数程度の画素別視点CMが設定される、即ち画素PEの数程度の視点(ビュー)が存在するため、従来の多眼方式の立体視のように、想定する観察位置(個別視点)に目が位置しなくてはならないといった必要が無く、従来の超多眼方式のように、一定の領域内であればどの位置に目があっても立体視可能となる。
また、各画素PEの画素別視点CMは、想定観察位置40を基に該画素PEに対応するレンズ32を決定し、該画素PEの代表点と該画素PEに対応するレンズ32の主点とを通過した後の光線(代表光線)PRの逆方向が視線方向となるように決定している。従って、観察者がレンズ32を介して視認する各画素PEに対応する画素別視点CMの視線方向は、観察者の視線方向にほぼ沿った方向となり、このため、観察者によって視認される像(色情報)は、その位置から見た正確な像(色情報)ではないものの、十分に視認できる程度の明確性を持つ。
また、像の解像度は、レンズ板30で分離される程度の解像度となるため、従来の多眼方式の立体視と同程度の解像度となり、従来の超多眼方式のような著しい解像度の劣化は生じない。
更に、本実施形態は、ピッチが合っていない立体視映像表示装置に表示させる立体視画像を生成するものである。言い換えれば、ピッチが合っていない立体視映像表示装置でも立体視を可能ならしめる。従って、ディスプレイ毎にピッチが合ったレンチキュラレンズ板を製造する必要が無く、1つのレンチキュラレンズ板を画素ピッチが異なる他のディスプレイに適用して立体視映像表示装置を製作できるため、立体視映像表示装置の製造にかかるコストを大幅に削減できる。
また、本実施形態では、各画素の画素別視線方向軌跡と奥行値との対象交点を求める際にニュートン法による収束計算処理を行うが、ニュートン法は二次収束性を有するアルゴリズムであるため、対象交点を短時間で求めることが可能となる。従って、立体視画像生成の高速化を実現することができる。
更に、予め平面視画像の全てのドットについて奥行微分値を算出・記憶しておくため、ニュートン法の計算において奥行微分値を逐次算出する必要がない。
また、最近のGPU(Graphics Processing Unit)には、数画素単位で並列処理のできる機能が搭載されているものも多い。本実施形態の方法においても、それらのGPUを用いれば、図31の色情報設定処理を並列化することができ、高速に描画を行うことができる。
この場合、各画素についての処理は、同程度の時間で完了することが望ましい。というのは、処理が早く完了した画素が、処理時間が最もかかる画素を待たなければならないためである。
しかしながら、本実施形態では、ニュートン法の繰り返し回数を、全ての画素について同じ回数かほぼ同じ回数とすることで、各画素についての処理時間を同程度に揃えることができる。即ち、画素毎に並列処理を行う場合に適していると言える。
3.変形例
尚、本発明の適用は上述した実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。例えば、次の変形例が挙げられる。
3−1.奥行微分値の算出
本実施形態では、色情報設定処理を行う前に、予め平面視画像の全てのドットの奥行微分値を算出し、奥行微分情報モデルを生成しておくものとして説明した。しかし、奥行微分情報モデルを予め生成しておくのではなく、色情報設定処理においてニュートン法による収束計算処理を行う際に、奥行微分値を逐次算出するようにしても良い。
図32は、この場合における色情報設定処理の流れを示すフローチャートである。但し、図31の色情報設定処理と同一のステップには、同一の符号を付している。
図32の色情報設定処理では、ステップS39においてZaを取得した後に、奥行情報モデル470に基づいて、画素位置x0に対応する平面視画像のドットの奥行値と、当該ドットに隣接する隣接ドットの奥行値との差分Zsを算出する(ステップS51)。
そして、「xd=x0−Za/(Zs−a)」によりxdを算出した後(ステップS53)、ループEの処理を所定回数実行する。
ループEでは、先ず、奥行情報モデル470から取得される画素位置xdに対応する平面視画像のドットの奥行値「fz(xd)」と、画素別視線方向軌跡から取得される画素位置xdに対応する平面視画像のドットの奥行値「axd+b」との差「f(xd)=fz(xd)−(axd+b)」をZaとする(ステップS55)。
次いで、奥行情報モデル470に基づいて、画素位置xdに対応する平面視画像のドットの奥行値と、当該ドットに隣接する隣接ドットの奥行値との差分Zsを算出する(ステップS57)。そして、「xd←xd−Za/(Zs−a)」に従ってxdを更新する(ステップS59)。ループEは、このように実行される。
3−2.収束計算処理
本実施形態では、ニュートン法による収束計算処理により対象交点を求めるものとして説明したが、はさみうち法、二分法、割線法等による収束計算処理により対象交点を求めるようにしても良い。この場合は、収束計算処理において奥行微分値は不要であるため、奥行微分情報モデルを生成する必要はない。
3−3.カラー画像
上述した実施形態では、平面視画像とその奥行画像とから立体視画像を生成する場合の例として、平面視画像がグレースケール画像である場合について説明を行ったが、本発明の適用可能なものがこれに限定されるものではない。例えば、平面視画像がRGB値(赤緑青の3原色の輝度値)を有するカラー画像であっても良く、この場合、各サブピクセル毎に、視線Vを決定して画素別視点を設定し、各サブピクセルに対する画素別視線方向軌跡と、奥行情報モデルとの交差判定を行う。そして、各サブピクセル毎の対象交点を取得して、平面視画像から対象交点に応じたサブピクセルの色情報を該サブピクセルの色情報とする。従って、この場合は、奥行画像データはサブピクセル毎に奥行値を有していることが好適である。もちろん、各サブピクセルが、所属しているピクセル毎に、奥行データを共有している形式であっても、(画質は若干低下するが、)立体視画像を生成することができる。
3−4.斜めレンチキュラ方式の立体視映像表示装置
上述した実施形態では、光学素子群として垂直レンチキュラ方式を用いた立体視映像表示装置の場合を説明したが、これを斜めレンチキュラ方式の立体視映像表示装置に適用しても良い。
図33は、斜めレンチキュラ方式の立体視映像表示装置200Bの概略構造を示す図である。同図(a)は、立体視映像表示装置200Bの表示面に対する横方向(水平走査方向)断面図を示し、同図(b)は、観察者側から見た平面図を示している。
斜めレンチキュラ方式の立体視映像表示装置では、画素パネル20の画素配列方向に対してレンズ板30の主点線36の方向(レンズ32の端部32a)が斜めに配置されるため、レンズ板30を介して画素パネル20を見たときに視認される映像に生じるモアレを分散させて目立たなくさせることが知られている。
同図によれば、立体視映像表示装置200Bは、上述した垂直レンチキュラ方式の立体視映像表示装置200Aと同様に、主に、板状体であって互いに平行配置されたバックライト10と、画素パネル20と、レンズ板30とを備えて構成される。
そして、斜めレンチキュラ方式の立体視映像表示装置200Bでは、レンズ板30は、同図(b)に示すように、主点線36の方向が画素パネル20の縦方向の画素配列方向(鉛直走査方向)に対して角度θを成すように配置されている。従って、同図(a)に示す断面図におけるレンズピッチ(画素パネル20の画素ピッチ方向に沿ったレンズの幅)Mは、次式(12)で与えられる。
M=L/cosθ ・・(12)
また、レンズ板30は、同図(a)に示す断面図におけるレンズピッチMと画素パネル20の画素ピッチSとが合わないように配置されている。即ち、次式(13)が成立しない。
M=n・S ・・・(13)
但し、nは自然数である。
次に、斜めレンチキュラ方式における表示面22の各画素PEの視線Vの決定方法を、図34、35を参照して説明する。図34は、斜めレンチキュラ方式の立体視映像表示装置200Bの部分概略斜視図である。また、図35は、立体視映像表示装置200Bの概略三面図であり、同図(a)は、図34のx−z平面に平行なC−C位置での断面図(横方向断面図)を示し、図35(b)は、図34のy−z平面に平行なD−D位置での断面図(縦方向断面図)を示し、図35(c)は、x−y平面図を示している。尚、画素パネル20及びレンズ板30は、レンズ板30の各レンズ32の焦点距離Fを隔てて平行配置されている。
先ず、図35(b)において、対象画素PEの代表点と想定観察位置40とを結ぶ直線LN2と、レンズ板30の主点面35との交点のy座標を算出する。算出したy座標を「y2」とする。但し、同図(b)は、対象画素PEの代表点を通過する断面図である。
次いで、図35(a)において、想定観察位置40から各レンズ32を表示面22に投影して、表示面22を各レンズ32の投影領域に分割する。そして、対象画素PEの代表点がどの投影領域に属するかによって対応するレンズ32を決定する。但し、同図(a)は、y座標が先に算出した「y2」である断面図である。
同図(a)では、表示面22は、レンズ32−10の投影領域26−10と、レンズ32−11の投影領域26−11と、レンズ32−12の投影レンズ32−12と、・・・、に分割される。そして、対象画素PEの代表点は投影領域26−10に属しているので、この対象画素PEに対応するレンズ32はレンズ32−10となる。
続いて、対象画素PEに対応するレンズ32の主点線36の内、y座標が「y2」である点を算出し、これを代表主点36dとする。そして、対象画素PEの代表点と、この代表主点36dとを通過した後の代表光線PRを算出し、この代表光線PRと位置は同じで方向を逆にした視線を対象画素PEの視線Vとする。そして、決定した視線Vに基づき奥行情報モデルとの交差判定を行うことにより、各画素に対する色情報を設定して、立体視画像データを生成する。
3−5.レンズ板
また、上述した実施形態では、光学素子群としてレンチキュラレンズアレイを用いた立体視映像表示装置の場合を説明したが、これを、(3−5−1)蝿の目レンズアレイを用いた立体視映像表示装置としても良いし、(3−5−2)パララックスバリアアレイを用いた立体視映像表示装置としても良いし、(3−5−3)ピンホールアレイを用いた立体視映像表示装置としても良い。この場合、表示面22の各画素PEの視線Vは次のように決定する。
3−5−1.蝿の目レンズアレイ
蝿の目レンズアレイとは、図36に示すように、格子状の単位レンズが縦横に連続して配置された(連接された)レンズアレイ(レンズ板)のことである。蝿の目レンズアレイを用いた立体視映像表示装置では、蝿の目レンズアレイは、単位レンズの横方向の連接方向が画素パネル20の画素ピッチ方向(水平走査方向)と平行になるように配置される。またこのとき、蝿の目レンズアレイは、単位レンズのレンズピッチと画素パネル20の画素ピッチとが合わないように設計されている。即ち、単位レンズのレンズピッチをLとすると、式(9)が成立しない。
図37は、蝿の目レンズアレイを用いた立体視映像表示装置200Cでの視線Vの決定方法を説明するための図であり、立体視映像表示装置200Cの概略三面図を示している。同図(a)は、対象画素PEの代表点を通るx−z平面に平行な水平走査方向断面図を示し、同図(b)は、対象画素PEの代表点を通るy−z平面に平行な鉛直走査方向断面図を示し、同図(c)は、x−y平面図を示している。尚、想定観察位置40は「正面」である。
先ず、同図(a)、(b)に示すように、想定観察位置40から、蝿の目レンズアレイで実現されるレンズ板60の各単位レンズ62を画素パネル20の表示面22に投影して(即ち、想定観察位置40から各単位レンズ62の端部へ向かう直線によって)、表示面22を各単位レンズ62の投影領域に分割する。そして、対象画素PEの代表点が属する投影領域の単位レンズ62−1を、該対象画素PEに対応する単位レンズとする。そして、対象画素PEの代表点と、対象画素PEに対応する単位レンズ62−1の主点(単位レンズの中心)とを通過した後の光線(代表光線)PRと位置は同じで方向を逆にした視線を対象画素PEの視線Vとする。
尚、同図では、レンズ板60を、単位レンズ62の横方向の連接方向が画素パネル20の画素ピッチ方向と平行になるように配置することとしたが、これを、図38に示すように、蝿の目レンズアレイの横方向の連接方向と画素パネル20の画素ピッチ方向とが角度θを成すよう、斜めに配置することとしても良い。
また、蝿の目レンズを構成する単位レンズを、格子形状(四角形)ではなく、例えば三角形や、図39に示す六角形等の多角形としても良い。何れの場合も、表示面22の各画素PEの視線Vの決定方法は、図37に示した場合と同様である。
3−5−2.パララックスバリアアレイ
パララックスバリアアレイとは、図40に示すように、光を遮蔽する遮光板(バリア)に光を透過させるためのスリット状のバリア開口部(光学素子)が等間隔で多数設けられたものである。即ち、スリット状のバリア開口部を有する単位パララックスバリアを連接させたバリアアレイであり、バリア開口部によって画素パネル20の各画素PEから射出される光線(射出光線)に指向性を与える。これによって、レンチキュラレンズアレイを用いた立体視映像表示装置と同様に立体視映像を認識させることが可能となる。尚、同図中、黒い或いは灰色の部分がバリア部分(遮光部分)である。このとき、パララックスバリアアレイは、バリア開口部が画素パネル20の鉛直走査方向と平行になるように配置される。また、パララックスバリアアレイは、単位パララックスバリアのピッチをLとしたとき、上述した式(9)が成立しない(即ち、ピッチが合わない)ように設計されている。
従って、この場合、各画素PEの視線Vの決定は、上述した実施形態におけるレンチキュラレンズアレイの場合と同様に実現できる。具体的には、パララックスバリアアレイを、バリア開口部が画素パネル20の鉛直走査方向と平行になるように配置した場合には、上述した実施形態における垂直レンチキュラ方式の立体視映像表示装置200に相当する。また、パララックスバリアアレイを、バリア開口部が画素パネル20の鉛直走査方向に対して角度θを成すように斜めに配置した場合には、斜めレンチキュラ方式の立体視映像表示装置200Bに相当する。
また、パララックスバリアアレイを、図41に示すように、バリア開口部が斜めに形成された斜めパララックスバリアとしても良い。このような斜めパララックスバリアを用いた場合は、上述したパララックスバリアアレイ(図40参照)を画素パネル20に対して斜めに配置した場合に相当する。
また、パララックスバリアアレイを、図42に示すように、横方向に連接された複数の単位パララックスバリアが、縦方向に所定量ずつずらして階段状に配置された階段パララックスバリアアレイとしても良い。このような階段パララックスバリアを用いた立体視映像表示装置では、階段パララックスバリアは、バリア開口部が画素パネル20の鉛直走査方向と平行になるように配置される。
3−5−3.ピンホールアレイ
ピンホールアレイとは、図43に示すように、光を遮断する遮断板(バリア)に光を透過させる孔状のピンホール(光学素子)が等間隔で多数設けられたものである。即ち、ピンホールを有する格子状の単位ピンホールバリアを縦横に連続して配置させた(連接させた)バリアアレイであり、ピンホールによって画素パネル20の各画素PEの射出光線に指向性を与える。尚、同図中、灰色の部分が遮光部分(バリア部分)である。このとき、ピンホールアレイは、単位ピンホールバリアの横方向が画素パネル20の画素ピッチ方向(水平走査方向)と平行になるように配置される。また、ピンホールアレイは、単位ピンホールバリアのピッチをLとすると、式(9)が成立しないように設計されている。
そして、ピンホールアレイを用いた立体視映像表示装置では、次のように画素パネル20の各画素PEの視線Vが決定される。即ち、想定観察位置40からピンホールアレイの各単位ピンホールバリアを画素パネル20の表示面22に投影して、表示面22を各単位ピンホールバリアの投影領域に分割する。そして、各画素PEの代表点が属する投影領域の単位ピンホールバリアを該画素PEに対応する単位ピンホールバリアとする。そして、各画素PEについて、該画素PEの代表点と、該画素PEに対応する単位ピンホールバリアのピンホールを通過した後の光線(代表光線)と位置は同じで方向を逆にした視線を該画素PEの視線Vとする。
また、ピンホールアレイを構成する単位ピンホールバリアを、格子形状(四角形)ではなく、三角形や、例えば図44に示す六角形等の多角形としても良い。何れの場合も、各画素PEの視線Vの決定方法は、上述した格子形状の場合と同様である。
尚、パララックスバリアアレイやピンホールアレイは、通常、単位バリアを示す境界線が明示されていないが、バリアアレイ上の任意の点から最も距離の近いスリット或いはピンホールを求め、そのスリット或いはピンホールによってバリア板を領域分割することで、単位バリア毎の境界線を設定することができる。
3−6.立体視映像表示装置を別装置とする
また、上述した実施形態では、立体視映像表示装置200は、立体視画像生成装置1の一部として説明したが、立体視映像表示装置200を別装置として構成し、生成した立体視画像を、接続されている立体視映像表示装置200に出力して表示させることとしても良い。
図45は、立体視映像表示装置を別装置とした立体視画像生成装置3の構成を示すブロック図である。立体視画像生成装置3は、入力部100と、処理部300と、記憶部400とを備えて構成される。かかる立体視画像生成装置3では、接続される立体視映像表示装置200に合わせて表示装置データ430を設定する必要がある。
従って、立体視画像生成部320は、画像生成の際には、先ず、例えばユーザにより入力部100から入力された立体視映像表示装置200の型番(詳細には、画素パネル20やその上面に配置されているレンズ板30の型番)に基づいて、記憶部400に記憶されている画素パネルデータ510及びレンズ板データ520のそれぞれから適切なデータを選択し、表示装置データ430として設定する。
画素パネルデータ510とは、立体視映像表示装置200に用いられ得る画素パネル20の物理パラメータを格納したデータテーブルである。図46に、画素パネルデータ510のデータ構成の一例を示す。画素パネルデータ510は、立体視映像表示装置200に用いられ得る画素パネル20の種類(種別)毎に、その型番511と、画素ピッチ512とを対応付けて格納している。
また、レンズ板データ520とは、立体視映像表示装置200に用いられ得るレンズ板30の物理パラメータを格納したデータテーブルである。図47に、レンズ板データ520のデータ構成の一例を示す。レンズ板データ520は、立体視映像表示装置200に用いられ得るレンズ板30の種類(種別)毎に、その型番521と、レンズピッチ522と、焦点距離523と、配置角度524と、配置基準位置525とを対応付けて格納している。
また、入力部100を、立体視画像生成装置と別装置としても良い。例えば、図48に示すように、入力部100及び立体視映像表示装置200を立体視映像生成装置と別装置とする。即ち、立体視画像生成装置5は、処理部300と、記憶部400とを備えて構成される。このような構成には、例えば携帯電話機等の通信端末装置のディスプレイに立体視画像を表示させたい場合等が考えられる。即ち、入力部100及び立体視映像表示装置200を備えた通信端末装置等の外部装置7から、レンズピッチLやディスプレイ(画素パネル20)に対する光学素子群(レンズ板30)の配置角度θ、焦点距離F等のレンズに関する情報と、画素ピッチS等のディスプレイに関する情報と、想定観察位置40等の観察者に関する情報とを立体視画像生成装置5に送信する。そして、立体視画像生成装置5では、受信したそれらの情報に基づいて立体視画像を生成し、生成した立体視画像を外部装置7に送信する、或いは、生成した画像を蓄積記憶した後、動画として外部装置7に送信する。
3−7.画像データの保存
画像データを、予め記憶媒体等に保存しておいても良い。具体的には、平面視画像データ462及び奥行画像データ472を、予め作成して記憶媒体等に保存しておく。そして、それらのデータを記憶媒体等からフレーム毎に読み出して奥行微分画像データ482を求め、立体視画像を生成するようにする。また、奥行微分画像データ482についても、予め作成して記憶媒体等に保存しておくこととしても良い。
また、平面視画像データ462及び奥行画像データ472を保存する際に、動画像データとして圧縮をかけた状態で保存しておいても良い。この場合は、動画像データをフレーム毎に読み出して展開することで、平面視画像データ462及び奥行画像データ472を再現する。そして、奥行微分画像データ482を求めて、立体視画像を生成するようにする。また、奥行微分画像データ482についても、予め作成した上で、動画像データとして圧縮をかけた状態で記憶媒体等に保存しておくこととしても良い。
このような構成とすることで、画素パネルやレンズ板の構成が異なる様々なディスプレイに対しても、予め作成・保存された平面視画像データ462及び奥行画像データ472を流用して、高速に立体視画像を生成することができるようになる。
3−8.印刷加工物
また、上述した実施形態では、フラットパネルディスプレイ等の画素パネル20を備えた立体視映像表示装置に表示させる立体視画像を生成する場合を説明したが、画素パネル20の代わりに立体視画像が印刷された紙やプラスチックカード等の印刷物を用いた印刷加工物についても同様に適用可能である。かかる印刷加工物では、立体視画像が印刷された印刷物の印刷面に、光学素子群(レンズアレイやピンホールアレイ等)が貼付等によって装着されており、印刷されている画像の各ドットの反射光線が光学素子群によって指向性が与えられることで、立体視が実現される。
このような立体視用の印刷加工物に印刷する画像を生成する場合、従来の方法では、従来の多眼式の立体視映像表示装置の場合と同様に、一定数の視点を設定してその視点毎に画像(画素別視点)を生成し、それらの画像を一定のパターンに応じて再配置(インターリーブ)することで印刷する画像を生成している。
印刷加工物では、既製の光学素子に合わせて、生成・印刷する立体視画像の解像度(即ち、画像の各ドットの位置や大きさ)を自由に設定・変更できる。また、生成・印刷する立体視画像の解像度を大きくすることで、視点が比較的多い場合であっても、視認される立体視映像の解像度を充分な大きさにすることができる。但しその場合、立体視画像のデータサイズが、解像度に比例して大きなものとなってしまうという問題はある。
このような印刷加工物に本実施形態を適用する場合には、印刷の対象である立体視画像の各ドットを画素パネル20の各画素PEとして扱うことで、上述した実施形態と同様に立体視画像を生成できる。具体的には、印刷加工物における立体視画像の印刷領域の大きさ、及び、印刷する立体視画像の解像度が決まっていれば、印刷対象の立体視画像の各ドットの位置及び大きさは一意に決まる。このため、立体視画像の各ドットを、上述した実施形態における表示パネル20の各画素PEと同様に扱うことができる。
つまり、例えば光学素子群としてレンチキュラレンズアレイを用いる場合には、先ず、立体視画像のドット毎に対応するレンズ(光学素子)を決定する。次いで、各ドットについて、該ドットの代表点(例えば、中心)と、該ドットに対応するレンズの主点とを通過した後の光線(代表光線PR)を算出し、その光線と位置が同じで方向が逆の視線を該ドットの視線Vとして決定する。その後、各ドットについて、画素別視線方向軌跡と、奥行情報モデルとに基づいた収束計算処理により対象交点を取得し、平面視画像から対象交点に対応する画ドットの色情報を該ドットの色情報とすることで、立体視画像を生成する。
また、印刷加工物は、光学素子群としてレンズアレイを用いている場合には、印刷されている立体視画像の各ドットのピッチをSとすると、印刷面とレンズアレイの主点面との間の距離Gが上式(1)を満たすように構成されることで、より画質の良い立体視を実現できる。
本実施形態の描画方法によれば、従来の方法よりも低い解像度で、即ち従来の方法よりも小さい画像データサイズで、上述した作用効果を奏する立体視印刷加工物に印刷する立体視画像を生成することができる。
3−9.投影法
本実施形態では、平行投影法により生成された平面視画像及び奥行画像に基づいて立体視画像を生成する例について説明したが、これに限らず、透視投影法により生成された平面視画像及び奥行画像に基づいて立体視画像を生成する構成であっても良い。この場合、平面視画像及び奥行画像を生成する場合に用いるのと同じ射影変換行列によって、画素別視線ベクトルを射影変換しておくことで、上述した平行投影法による場合と同様に、立体視画像を生成することができる。
3−10.多眼式への適用
本実施形態では、レンズと画素のピッチが合わない方式による立体視画像生成について説明したが、レンズと画素のピッチを合わせた方式、即ち多眼式や超多眼式における立体視画像生成に適用しても良いことは勿論である。最近では、多眼式や超多眼式のような視点ベースの立体視方式においても、設定される視点の数が多くなってきている傾向にあるため、かかる場合に上述した立体視画像生成方法を用いることで、高速な描画が期待できる。また、IP方式においても、上述した立体視画像生成方法を適用することで、高速な描画を期待できる。
実施形態における立体視画像生成の概要図。 垂直レンチキュラ方式の立体視映像表示装置の概略構成図。 「ピッチが合う/合わない」ことの説明図。 表示面に対する座標系設定の説明図。 垂直レンチキュラ方式の立体視映像表示装置における想定観察位置が「正面且つ無限遠」での視線決定の説明図。 想定観察位置が「正面」の状態を示す図。 垂直レンチキュラ方式の立体視映像表示装置における想定観察位置が「有限距離の定位置」での視線決定の説明図。 垂直レンチキュラ方式の立体視映像表示装置における想定観察位置が「有限距離の定位置」での視線決定の説明図。 レンズ板による屈折作用の説明図。 画素別視点設定の説明図。 画素の色情報算出の説明図。 視認される画素の色情報が若干正確さに欠けることの説明図。 従来の多眼方式(n眼式)の立体視の概要図。 本実施形態での立体視の概要図。 平面視画像と奥行画像とから2眼式の立体視画像を生成する説明図。 画素の色情報算出の説明図。 平面視画像と奥行画像とに基づく画素の色情報算出の説明図。 表示面と奥行情報モデルとの関係の説明図。 表示面と各画素と奥行情報モデルとの関係の説明図。 奥行情報モデルと画素別視線方向軌跡との交点の説明図。 奥行情報モデルと画素別視線方向軌跡との交点の説明図。 ニュートン法による対象交点算出の説明図。 立体視画像生成装置の構成図。 表示装置データのデータ構成例。 画素別視点データのデータ構成例。 平面視画像データの一例を示す図。 奥行画像データの一例を示す図。 奥行微分画像データの一例を示す図。 画素別対応ドットデータの一例を示す図。 立体視画像生成処理の流れを示すフローチャート。 色情報設定処理の流れを示すフローチャート。 変形例における色情報設定処理の流れを示すフローチャート。 斜めレンチキュラ方式の立体視映像表示装置の概略構成図。 斜めレンチキュラ方式の立体視映像表示装置における想定観察位置が「有限距離の定位置」での視線決定の説明図。 斜めレンチキュラ方式の立体視映像表示装置における想定観察位置が「有限距離の定位置」での視線決定の説明図。 蝿の眼レンズアレイの平面図。 蝿の目レンズアレイを用いた立体視映像表示装置における視線決定の説明図。 蝿の眼レンズアレイを斜め配置した場合の平面図。 単位レンズを六角形とした蝿の眼レンズアレイの平面図。 パララックスバリアの平面図。 斜めパララックスバリアの平面図。 階段パララックスバリアの平面図。 ピンホールバリアの平面図。 単位ピンホールバリアを六角形としたピンホールバリアの平面図。 立体視映像表示装置を別装置とした立体視画像生成装置の構成図。 画素パネルデータの一例を示す図。 レンズ板データの一例を示す図。 入力部及び立体視映像表示装置を別装置(外部装置)とした立体視画像生成装置の構成図。 適切な画素パネルとレンズ板との間の距離の説明図。 両眼距離を考慮した場合の説明図。 多眼式の立体視の概念図。 超多眼式の立体視の概念図。 IP方式の立体視の概念図。 光線再生法の立体視の概念図。 表示面と結像面との間の距離がレンズの焦点距離に依存することの説明図。
符号の説明
1、3、5 立体視画像生成装置
100 入力部
300 処理部
310 オブジェクト空間設定部
320 立体視画像生成部
322 画素別視点設定部
324 レンダリング部
325 モデル生成部
326 色情報設定部
400 記憶部
410 立体視画像生成プログラム
420 色情報設定プログラム
430 表示装置データ
440 想定観察位置データ
450 画素別視点データ
460 レンダリングデータ
462 平面視画像データ
470 奥行情報モデル
472 奥行画像データ
480 奥行微分情報モデル
482 奥行微分画像データ
490 画素別対応ドットデータ
500 立体視画像データ
200 立体視映像表示装置
10 バックライト
20 画素パネル
22 表示面
30 レンズ板(レンチキュラレンズ板)
32 レンズ(マイクロレンズ)
40 想定観察位置
PE 画素
V 視線
CM 画素別視点

Claims (11)

  1. 画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づいて生成する画像生成装置であって、
    前記画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出ステップと、2)前記方向算出ステップで求められた方向と、前記奥行値情報とに基づく所定の収束計算処理により、前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するドット判定ステップとを実行し、前記ドット判定ステップにより判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成するとともに、
    前記ドット判定ステップは、前記基準画像を構成するドットの奥行値の微分値である奥行微分情報を算出する奥行微分情報算出ステップを含み、前記方向算出ステップで求められた方向と、前記奥行値情報と、前記奥行微分情報算出ステップで算出された奥行微分情報とに基づき、ニュートン法による所定の収束計算処理により前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するステップであることを特徴とする画像生成装置。
  2. 画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づいて生成する画像生成装置であって、
    前記画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出ステップと、2)前記方向算出ステップで求められた方向と、前記奥行値情報とに基づく所定の収束計算処理により、前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するドット判定ステップとを実行し、前記ドット判定ステップにより判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成するとともに、
    前記ドット判定ステップによる判定処理の前に、前記基準画像の各ドットの奥行値の微分値である奥行微分情報を算出する奥行微分情報算出ステップを実行し、
    前記ドット判定ステップでは、前記方向算出ステップで求められた方向と、前記奥行値情報とに加えて前記奥行微分情報算出ステップで算出された奥行微分情報とを用いて、ニュートン法による所定の収束計算処理により前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定する、
    ことを特徴とする画像生成装置。
  3. 前記奥行微分情報算出ステップは、前記基準画像の各ドットについて、当該ドットの奥行値と、当該ドットに隣接する隣接ドットの奥行値との差分を算出して微分値を求めることで前記奥行微分情報を算出するステップであることを特徴とする請求項又はに記載の画像生成装置。
  4. 前記ドット判定ステップは、前記方向算出ステップで求められた方向における最も前記視点寄りのドット位置を初期位置として前記所定の収束計算処理を行う請求項1〜の何れか一項に記載の画像生成装置。
  5. 前記立体視映像表示装置は、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しないことを特徴とする請求項1〜の何れか一項に記載の画像生成装置。
  6. 前記立体視映像表示装置は、一の光学素子の水平方向幅をL、前記一の光学素子により指向性が与えられる一の画素の水平方向幅をS、前記画素パネル中の立体視画像描画領域の水平方向幅をRとしたとき、L:S=o:p(但し、oは自然数、pはR/L未満の自然数)が成立しないことを特徴とする請求項1〜の何れか一項に記載の画像生成装置。
  7. 画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づいて生成する画像生成装置であって、
    前記立体視映像表示装置は、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しない表示装置であり、
    前記画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出ステップと、2)前記方向算出ステップで求められた方向と、前記奥行値情報とに基づく所定の収束計算処理により、前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するドット判定ステップとを実行し、前記ドット判定ステップにより判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成装置。
  8. 画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づいて生成する画像生成装置であって、
    前記立体視映像表示装置は、一の光学素子の水平方向幅をL、前記一の光学素子により指向性が与えられる一の画素の水平方向幅をS、前記画素パネル中の立体視画像描画領域の水平方向幅をRとしたとき、L:S=o:p(但し、oは自然数、pはR/L未満の自然数)が成立しない表示装置であり、
    前記画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出ステップと、2)前記方向算出ステップで求められた方向と、前記奥行値情報とに基づく所定の収束計算処理により、前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するドット判定ステップとを実行し、前記ドット判定ステップにより判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成装置。
  9. 画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づいてコンピュータに生成させるためのプログラムであって、
    前記画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出ステップと、2)前記方向算出ステップで求められた方向と、前記奥行値情報とに基づく所定の収束計算処理により、前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するドット判定ステップとを前記コンピュータに実行させ、前記ドット判定ステップにより判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成するように前記コンピュータに実行させるとともに、
    前記ドット判定ステップは、前記基準画像を構成するドットの奥行値の微分値である奥行微分情報を算出する奥行微分情報算出ステップを含み、前記方向算出ステップで求められた方向と、前記奥行値情報と、前記奥行微分情報算出ステップで算出された奥行微分情報とに基づき、ニュートン法による所定の収束計算処理により前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するステップであることを特徴とするプログラム。
  10. 画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づいてコンピュータに生成させるためのプログラムであって、
    前記画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出ステップと、2)前記方向算出ステップで求められた方向と、前記奥行値情報とに基づく所定の収束計算処理により、前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するドット判定ステップとを前記コンピュータに実行させ、前記ドット判定ステップにより判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成するように前記コンピュータに実行させるとともに、
    前記ドット判定ステップによる判定処理の前に、前記基準画像の各ドットの奥行値の微分値である奥行微分情報を算出する奥行微分情報算出ステップを前記コンピュータに実行させ、
    前記ドット判定ステップでは、前記方向算出ステップで求められた方向と、前記奥行値情報とに加えて前記奥行微分情報算出ステップで算出された奥行微分情報とを用いて、ニュートン法による所定の収束計算処理により前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定する、
    ように前記コンピュータを実行させるためのプログラム。
  11. 請求項9又は10に記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。
JP2006352344A 2005-12-27 2006-12-27 画像生成装置、プログラム及び情報記憶媒体 Expired - Fee Related JP4856534B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006352344A JP4856534B2 (ja) 2005-12-27 2006-12-27 画像生成装置、プログラム及び情報記憶媒体

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005376074 2005-12-27
JP2005376074 2005-12-27
JP2006352344A JP4856534B2 (ja) 2005-12-27 2006-12-27 画像生成装置、プログラム及び情報記憶媒体

Publications (2)

Publication Number Publication Date
JP2007200307A JP2007200307A (ja) 2007-08-09
JP4856534B2 true JP4856534B2 (ja) 2012-01-18

Family

ID=38454803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006352344A Expired - Fee Related JP4856534B2 (ja) 2005-12-27 2006-12-27 画像生成装置、プログラム及び情報記憶媒体

Country Status (1)

Country Link
JP (1) JP4856534B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5215615B2 (ja) * 2007-08-28 2013-06-19 三菱プレシジョン株式会社 3次元位置情報復元装置およびその方法
JP4995672B2 (ja) * 2007-09-03 2012-08-08 富士フイルム株式会社 立体画像表示装置及び立体画像表示体の作成方法
US20090282429A1 (en) * 2008-05-07 2009-11-12 Sony Ericsson Mobile Communications Ab Viewer tracking for displaying three dimensional views
JP5222033B2 (ja) * 2008-06-13 2013-06-26 スリーエム イノベイティブ プロパティズ カンパニー 立体画像再生装置
JP5398015B2 (ja) * 2010-06-29 2014-01-29 独立行政法人情報通信研究機構 立体ディスプレイおよび立体画像提示方法
WO2012053033A1 (ja) * 2010-10-20 2012-04-26 三菱電機株式会社 3次元立体表示装置
JP5752638B2 (ja) * 2012-04-26 2015-07-22 株式会社東芝 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
JP7424786B2 (ja) * 2019-02-27 2024-01-30 三星電子株式会社 立体像表示装置、立体像表示方法及び立体像生成表示システム
CN111275803B (zh) * 2020-02-25 2023-06-02 北京百度网讯科技有限公司 3d模型渲染方法、装置、设备和存储介质

Also Published As

Publication number Publication date
JP2007200307A (ja) 2007-08-09

Similar Documents

Publication Publication Date Title
JP4856534B2 (ja) 画像生成装置、プログラム及び情報記憶媒体
JP2006287592A (ja) 画像生成装置、電子機器、画像生成方法及びプログラム
JP4832833B2 (ja) 配置レンズ諸元導出方法、プログラム、情報記憶媒体及び配置レンズ諸元導出装置
CN101529310B (zh) 自动立体视觉***
JP6050373B2 (ja) サブピクセルをレンダリングする映像処理装置及び方法
JP5208767B2 (ja) オンザフライハードウェア画像纏め
JP5306275B2 (ja) 表示装置及び立体画像の表示方法
JP4672461B2 (ja) 画像生成装置、電子機器、印刷加工物、画像生成方法及びプログラム
JP2009080578A (ja) 多視点データ生成装置、方法及びプログラム
WO2013074753A1 (en) Display apparatuses and methods for simulating an autostereoscopic display device
JP2005340957A (ja) 立体画像を表示する表示装置及び立体画像を表示する表示方法
JP7358448B2 (ja) 画像生成装置、ヘッドマウントディスプレイ、および画像生成方法
US20220366530A1 (en) Dynamic uniformity correction
JP5182505B2 (ja) 画像表示装置
CN105744253A (zh) 自动立体三维显示设备
CN114096985A (zh) 用于隐藏坏像素的***和方法
JP2008244835A (ja) 立体表示装置および立体画像表示方法
JP5058689B2 (ja) 質感映像表示装置
KR20140115854A (ko) 입체 영상 표시 장치 및 입체 영상 표시 방법
JP2007271751A (ja) 印刷加工物、容器、筒状物体、画像生成装置及び画像生成方法
JP4703635B2 (ja) 立体視画像生成方法、その装置、及び立体視画像表示装置
KR102271171B1 (ko) 무안경 다시점 3d 디스플레이 장치 및 그의 영상 처리 방법
JP4695470B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP2020134679A (ja) 表示装置
CN114174979B (zh) 用于隐藏死像素的***和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110802

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111028

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4856534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees