JP4950293B2 - 自動立体システム - Google Patents

自動立体システム Download PDF

Info

Publication number
JP4950293B2
JP4950293B2 JP2009521109A JP2009521109A JP4950293B2 JP 4950293 B2 JP4950293 B2 JP 4950293B2 JP 2009521109 A JP2009521109 A JP 2009521109A JP 2009521109 A JP2009521109 A JP 2009521109A JP 4950293 B2 JP4950293 B2 JP 4950293B2
Authority
JP
Japan
Prior art keywords
pixel
screen
lens array
channel
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009521109A
Other languages
English (en)
Other versions
JP2009544992A (ja
Inventor
クリストフ グロスマン,
Original Assignee
シーフロント ゲゼルシャフト ミット ベシュレンクテル ハフツング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シーフロント ゲゼルシャフト ミット ベシュレンクテル ハフツング filed Critical シーフロント ゲゼルシャフト ミット ベシュレンクテル ハフツング
Publication of JP2009544992A publication Critical patent/JP2009544992A/ja
Application granted granted Critical
Publication of JP4950293B2 publication Critical patent/JP4950293B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • G02B30/29Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays characterised by the geometry of the lenticular array, e.g. slanted arrays, irregular arrays or arrays of varying shape or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Description

本発明は、スクリーン上に画像を自動立体表示するための方法であって、使用者の右眼および左眼のための分離したチャネルの画像情報が、介在し合うセグメントでスクリーン上に表示され、かつ、各チャネルの画像情報が、使用者の片方の眼のみに見えることができるように、レンズアレイが、スクリーンから放射される光を屈折させるために配置されている方法に関する。
立体視の一般的な原理によると、空間の奥行き感は、わずかに異なる視点であって、その左右と使用者の眼の視差差に反映する視点から、同一の場面を示す2つの異なる画像を、使用者の両眼に表示することから生じる。
使用者の左眼および右眼に、異なる画像を表示するための従来のシステムは、ヘッドセットまたはシャッター眼鏡を用いるが、使用者にとって非常に邪魔になる。
米国特許第6302541号は、「何も装着していない眼で」自動立体画像を見ることを許容して、立体画像を、例えばコンピュータ用モニタなどのスクリーン上に生じることができる上述の種類の方法を記載している。そのためには、左右のチャネルの画像情報、すなわち使用者の左眼および右眼のそれぞれを対象とする情報を、セグメントの形状(すなわち、左チャネルおよび右チャネルに交互に属する縦縞)でスクリーン上に配置する。そして、例えばシリンドリカルレンズによって形成されるレンズアレイを、スクリーンの前に配置し、かつ、スクリーンのピクセルラスタに相対して慎重に位置付ける。その結果、観察者が特定の位置にいる場合は、各チャネルの情報が片方の眼のみに見えることができるように、種々のスクリーンピクセルから放射される光が屈折される。ヘッドトラッキング(追従)システムまたはアイトラッキングシステムを用いて、スクリーン上の画像表示を、観察者の位置の変化に適合させてもよい。
この方法は、各セグメントが、そのセグメントに割り当てられた画像情報に加えて、同一のチャネルにおける隣接するセグメントの少なくとも一つに割り当てられた画像情報も有するという、さらに顕著な特徴を有する。従って、ヘッドトラッキングシステムまたはアイトラッキングシステムを用いなくても、使用者の位置の軽微な変更に対して非常に頑強であり、また、ヘッドトラッキングシステムの遅延に対しても頑強である。この頑強性は、各セグメントに表示される情報の重複性(冗長性)によって達成されるので、観察位置が変化し、結果的に他のピクセルが使用者のそれぞれの眼に見えるようになる場合に、見えるようになったピクセルに表示される情報は、それでもなお、関連チャネルの画像に適合する。
本発明の目的は、自動立体方法、およびその方法を異なるハードウェア装置で実施するときに一層の融通性をもたらすシステムを提供することである。
この目的を達成するために、上述の種類の方法は、レンズアレイによって決定されるチャネルマスクを、レンズアレイと固定された関係を有するディスプレイ座標系で定義するステップと、チャネルマスクを、投影中心としての使用者の位置を用いた、レンズアレイの主平面からスクリーンの物体面へのチャネルマスクの投影に対応する座標変換にかけ、それによって、スクリーンの各ピクセルに、チャネルの少なくとも1つとの相関を割り当てるステップと、チャネルごとに、そのチャネルの画像情報を含むテクスチャマップを格納するステップと、スクリーンの各ピクセルを、テクスチャマップの少なくとも1つの領域に関連付ける座標変換を行うステップであって、前記変換は、レンズアレイによるピクセルからの光の屈折を表すステップと、テクスチャマップとの各ピクセルの相関およびこれらのテクスチャマップの関連領域の内容に基づいて、各ピクセルの内容を決定するステップとを特徴とする。
この方法の主な利点は、レンズアレイとスクリーン上のピクセルラスタとの位置関係に、それほど厳密でない要件を課すことである。そのためには、レンズアレイの構成を、システムのソフトウェアで、チャネルマスクによってモデリングして、次いでこのマスクを、投影中心としての観察者の位置を用いた中心投影を用いて、スクリーン上の物体面に投影する。それから、スクリーン上のピクセルを、チャネルマスクの投影画像に関連付けることによって、ピクセルごとに、それが属するチャネルを決定することができる。このように、もはや、レンズアレイのシリンドリカルレンズと、これらの各レンズを通して見られるピクセルとの固定関係を有する必要はない。従って、レンズアレイとスクリーンのピクセルラスタは分離され、そのことは、レンズアレイの設計をスクリーン上のピクセルラスタに適合させる必要がなく、所与のレンズアレイを、種々の解像度およびピクセルラスタを有する多種多様のスクリーンで用いることができるという、大きな利点を有する。その結果、モニタスクリーンがあるコンピュータを有する誰もが、レンズアレイをそのスクリーンに取り付け、ほんの少し調整をするだけで、具体的にはチャネルマスクをシステムのソフトウェアで定義することについて、本発明を利用することができる。さらに、ミスマッチエラーの恐れを増大させることなく、スクリーンのピクセルの解像度を向上させること、および/または、レンズアレイのレンズ寸法を縮小することができる。
本発明に記載の方法では、ピクセルがどちらのチャネルに属するのかが決定すると、そのピクセルに表示される内容が、関連チャネルと関連しているテクスチャマップからフェッチされる。テクスチャマップは、使用者の片方の眼に表示される完全な画像を含むピットマップであると考えられ得る。しかし、テクスチャマップの解像度およびアスペクト比は、スクリーンの解像度およびアスペクト比と一致する必要はなく、そのことは、ソフトウェアの移植性に貢献する。ピクセルの内容を定めるテクスチャマップ部分は、レンズアレイの光学特性に従って決定されるので、従って、ピクセルの内容は、使用者がこのピクセルをレンズアレイを通して見る位置の画像情報に対応する。この位置、つまりテクスチャマップの関連位置は、座標変換を用いて計算され、そのパラメータは、用いられているレンズアレイに依存する。従って、これらのパラメータを適切に調整することによって、ソフトウェアを種々のレンズに容易に適合させることができる。
従って、本発明に記載の方法が、入手可能なハードウェアに柔軟に適合できることが理解されるであろう。さらに、スクリーンの特性とレンズアレイの特性との間に厳密な連関がないので、多くの影響(三次元画像の質を劣化させる影響およびレンズアレイとスクリーンとの間のミスマッチから生じる影響)を排除することができる。
本発明に記載の方法を実行するように適合されるシステムおよびソフトウェア製品は、製品についての独立請求項で定義される。
本発明の好ましい実施形態の、より特定された特徴は、従属請求項で示される。
本発明に記載の方法は、レンズアレイのシリンドリカルレンズが、スクリーン上のピクセルコラムに相対して傾斜されているシステムに適合するための、十分な柔軟性がある。このようなシステムは、当業界でよく知られているように、レンズアレイの傾きが、モアレ効果及び他のエラー(隣接するレンズ間の遷移に関係する色層(カラーシーム)など)を緩和するのに役立つので、本発明の好ましい実施形態を構成する。レンズアレイの画像形成特性を反映する座標変換は、いわゆる、シリンドリカルレンズの中心軸に対応する不変の軸を有する軸方向アフィン変換であろう。
スクリーン上の個々のピクセルは、必ずしも2つのチャネルのうちの1つだけに割り当てられるのではなく、両方のチャネルと相関し得る。これは、ピクセルが2つのチャネル間の境界線上に位置するときの状況であろう。この状況では、遷移エラーを緩和するために、ピクセルの2つのチャネルとの相関に従って、2つのテクスチャマップの内容を融合するフィルタリング手順を適用するのが好ましい。
カラーディスプレイでは、各ピクセルは3つのサブピクセルから構成され、2つのチャネルとの相関は、同一のピクセルの種々のサブピクセルによって異なっていてよい。チャネル境界線上のピクセルが、2つのチャネルのうちの少なくとも1つで見えるならば、これらのサブピクセルの異なる相関は、色誤差を生じさせ得る。しかし、レンズアレイが傾いている場合は、その誤差は大きく緩和されるであろう。このような誤差をさらに抑えるために、ピクセルを、サブピクセルの異なるトリプレットと再定義することが可能であり、そのとき全てのサブピクセルは、関連チャネルとの、ほぼ同じ相関を有するであろう。他の可能性は、隣接するピクセル上に色誤差を「拡散」させるための、アルゴリズムである。
チャネルマスクの投影とピクセルの内容の識別の両方に関係している座標変換は、容易に行列で表すことができる。そして、次々に行われる2つの変換は、2つの行列の積によって表わされるであろう。同様に、逆変換は逆行列によって表わされるであろう。座標変換を幾何学的物体に適用することは、物体を定義する1つまたはそれより多くのベクトルを有する、対応する行列の乗算に対応する。この座標変換は変位も含み得るが、それでもなお行列で、すなわち、いわゆる斉次(同次)行列で表し得る。この行列は、三次元空間の変換では、特定の4×4行列であり、第4行の行列要素が平行移動を特定する。座標変換をマトリックス乗算として表現する利点は、最新のグラフィックカードまたはグラフィックアクセラレータが、このようなマトリックス乗算を非常に効率よく行うことに特に優れていることである。
使用者の位置が変化することが許されるならば、例えば、ヘッドトラッキングシステムまたはアイトラッキングシステムを用いる場合、使用者の位置に依存する座標変換の行列は、時間依存行列によって表わされるであろう。そして、使用者の位置に依存する全ての変換を集約する時間依存行列と定数行列の積によって、座標変換を表すことが可能になる。また、そうすることが好ましい。それから、時間依存行列のみを動的に適合しなければならず、完全な変換は、一度だけ計算される必要がある定数行列とこの行列を乗じることによって、簡単に得られる。
テクスチャマップからピクセルの内容をフェッチすることに関係する手順も、最新のグラフィック処理ハードウェアの特有の強度及び性能に依存しており、「テクスチャのジオメトリへのマッピング」または「レンダリングパイプライン」として知られる技術を含んでもよく、例えばOpenGLまたはDirectXなどのグラフィックインターフェイスに基づいていてもよい。
本発明の好ましい実施形態を、図面を併用して説明する。
図1は、本発明に記載のシステムのブロック図である。 図2は、レンズアレイの光の屈折特性を説明する、レンズアレイの断面図である。 図3は、図2の断面図と同等の方法で、レンズアレイの光の屈折特性を説明する図である。 図4は、スクリーンおよびレンズアレイの正面図である。 図5は、レンズアレイおよびスクリーンに関連する種々の座標系、並びに、レンズアレイからスクリーン上へのチャネルマスクの投影を説明する図である。 図6は、ピクセルの、投影チャネルマスクによって定められた異なるチャネルとの、異なる相関を説明する図である。 図7は、ピクセルの、投影チャネルマスクによって定められた異なるチャネルとの、異なる相関を説明する図である。 図8は、レンズアレイの拡大効果をモデリングするための、ピクセルに適用された座標変換を説明する図である。 図9は、レンズアレイの屈折効果を説明する図である。 図10は、屈折と拡大効果の複合を説明する図である。 図11は、カラーピクセルのチャネル相関を説明する図である。 図12は、具体例に関する、本発明に従う方法の効果を説明する図である。 図13は、具体例に関する、本発明に従う方法の効果を説明する図である。 図14は、具体例に関する、本発明に従う方法の効果を説明する図である。 図15は、具体例に関する、本発明に従う方法の効果を説明する図である。 図16は、具体例に関する、本発明に従う方法の効果を説明する図である。 図17は、具体例に関する、本発明に従う方法の効果を説明する図である。 図18は、具体例に関する、本発明に従う方法の効果を説明する図である。 図19は、具体例に関する、本発明に従う方法の効果を説明する図である。 図20は、具体例に関する、本発明に従う方法の効果を説明する図である。
図1に示すシステムは、モニタ14を駆動してモニタのスクリーン16上に画像を表示するグラフィックカード12を含む、コンピュータシステム10(例えばパソコン)を備える。レンズアレイ18はスクリーン16の前に配置される。アイトラッキングシステムまたはヘッドトラッキングシステム20の一部分を形成するビデオカメラは、モニタ14に取り付けられ、コンピュータシステム10と通信する。
グラフィックカード12は、コンピュータシステム10のメモリに格納される、2つのテクスチャマップLおよびRにアクセスできる。テクスチャマップLは、左チャネルの画像情報、すなわち、レンズアレイ18を通してスクリーン16を見る使用者(図示せず)の左眼に表示される画像情報を格納する。同様に、テクスチャマップRは、使用者の右眼のための右チャネルの画像情報を格納する。ヘッドトラッキングシステム20は、使用者の頭のいずれの移動を追跡し、かつ、これらの移動をコンピュータシステムに信号で伝える。次いでコンピュータシステムは、スクリーン16上に表示される情報を、使用者の変化後の位置に適合するであろう。
図2は、スクリーン16およびレンズアレイ18の概略断面図である。スクリーン16は、例えば、厚さd1の可撓性カバー24によって保護されているTFT(薄膜トランジスタ)層22を備えるTFTスクリーンであってよい。レンズアレイ18は、厚さd2の空隙26によってカバー24から分離され、平行なシリンドリカルレンズ28のアレイを画定する波形の前面および平坦な裏面を有する透明板によって形成されている。レンズアレイ18を形成するプレートは、シリンドリカルレンズ28の頂部で測定される全厚d3を有する。
いくつかの放射線30は、TFT層22における種々の薄膜トランジスタ(TFTs)から放射される光線を表しており、それらは、スクリーンを見る使用者すなわち観察者の理想的な位置を象徴する点Uに最終的に集まる前に、透明カバー24およびレンズアレイ18で屈折する。放射線30のそれぞれは、レンズ28の一つの頂部を通過する。従って、光線30がTFT層22の面(物体面ο)で発生している点は、点Uに置かれる源から照明されるときの、シリンドリカルレンズ28の頂線の投影であると考えられ得る。
図3は簡易化してあるが同等の図を示している。図3では、カバー24、空隙26およびレンズアレイ18の異なる屈折率n1、n2およびn3のそれぞれは無視されているが、その代わりとして、物体面οがレンズアレイ18に近づけられ、その結果ここでは一直線の放射線30は、図2の位置と全く同じ位置で、物体面οに達する。図3に示す同等の図は、シリンドリカルレンズの像面湾曲の影響を無視するのであれば、実際の状況にかなり近似している。実際には、点U(すなわち使用者の位置)とスクリーンの間の距離は、図2または図3よりも非常に大きいであろうから、像面湾曲の影響が、図2および図3から予期されるであろうほど著しくないであろうという状況で観察されるはずである。
各シリンドリカルレンズの頂線を通過する面pは、レンズアレイの主平面と呼ばれるであろう。物体面οと主平面pの間の(仮想の)対物距離は、カバー24、空隙26およびレンズアレイ28の屈折率および厚さに、次の式で関係している。
Figure 0004950293
図3は、使用者の左眼および右眼32、34も示しており、使用者の理想的な位置を表す点Uが、眼32および34を結ぶ線の中央の点として定義されることを示している。さらに図3は、物体面ο(薄膜トランジスタの面に対応する)で放射されるいくつかの光線36、38、40、42が、レンズアレイ18のレンズによって屈折されて、次いで使用者の眼32、34に向かって伝播するかまたは、使用者の眼32、34を通り過ぎて伝播することを示している。放射線30はレンズの中央を通過するので、レンズで屈折されていないが、光線36〜42はシリンドリカルレンズの湾曲した表面で屈折されている(かつ集光もされる)。光線36は非常に屈折されているので、使用者の左眼32に達する。同様に、光線38は非常に屈折されているので、使用者の右眼34に達する。対照的に、光線40は、その関連するレンズの中央を通過するので、屈折されずに集光だけされて、使用者の眼のちょうど間である点Uに達する。従って、この光線およびスクリーン上の関連するピクセルは使用者には見えない。同様に、光線42は非常に強く屈折されているので、使用者の左眼の近傍を通り過ぎ、その結果、この光線および関連するピクセルのどちらも使用者には見えない。従って、物体面οに表示される画像は、使用者の左眼32のみに見える縦縞すなわちセグメントに、使用者の右眼34のみに見えるセグメントと交互に細分されて、これらのセグメントは、通常は、完全に見ることができない「不可視ゾーン」によって分離されることが理解されるであろう。具体的には、光線40に対応するゾーンは、左眼32に関連するセグメント、つまり左チャネルの画像情報を、右眼34および右チャネルに関連するセグメントから分離する。
レンズアレイ18のこの特性は、主平面pを、左チャネルゾーン46(図4において白で示されている)と右チャネルゾーン48(黒で示されている)とに分割するチャネルマスク44によって表わされる。シリンドリカルレンズの頂線は、左チャネルゾーン46から右チャネルゾーン48への第1の種類の遷移を形成する。
レンズアレイは周期的であるので、第2の種類の遷移は、レンズアレイ18の隣接するシリンドリカルレンズ間の境界に一致して、第1の種類の遷移の中間に形成される。光線42などの光線が左チャネルゾーン46を通過するという事実は、この光線が実際に見えることを必ずしも意味するのではなく、この光線が、使用者の右眼よりも左眼に近づくことを意味するに過ぎない。右眼34に関する右チャネルゾーンにも、同じことがいえる。
図3にさらに示すように、投影中心としての位置Uを用いて、チャネルマスク44を物体面οに投影することができる。これは、投影右チャネルゾーンすなわち右チャネルセグメント54と、投影左チャネルゾーンすなわち左チャネルセグメント52を含む、投影チャネルマスク50をもたらす。物体面ο(つまりスクリーンのTFT層22)のピクセルが、左チャネルセグメント52の範囲内にあるときは、左チャネルと関連している、すなわち相関している。また、ピクセルが、右チャネルセグメント54の範囲内にあるときは、右チャネルと関連している、すなわち相関している。従って、スクリーン上の各ピクセルについて、ピクセルがどのチャネルに属するのか、すなわち、ピクセルを少しでも見ることができるならば、どちらの眼でピクセルを見るのかまたは見るであろうかを決定できる。
使用者からスクリーンまでの距離は、第1の種類の遷移における不可視ゾーンと第2の種類の遷移における不可視ゾーンとが等しい幅を有するときに最適であると考えられる。使用者がスクリーンからさらに後退する場合、発散光線40が使用者の両眼32、34に達するちょうどその時に、第1の種類の不可視ゾーンは縮小し、最終的には消滅するであろう。反対に、使用者がスクリーンに近づく場合、第2の種類の不可視ゾーン(光線42に象徴されるように)は縮小し、最終的に消滅するであろう。一方の種類の不可視ゾーンが消滅する場合、左チャネルと右チャネルはもはや完全に分離されていない。すなわち、いくつかのピクセルまたはその一部分が両眼で見える。
使用者が、図3において左または右に移動する場合、投影チャネルマスク50は反対方向に移動するであろう。しかし、これは、スクリーン上に表示される画像を同じ量だけ移動させることによって補正することができる。ヘッドトラッキングシステムまたはアイトラッキングシステムが存在しないならば、画像は、もちろん好ましくは、スクリーン中央の真正面に位置する使用者が最適に観察することができるような位置に表示されるであろう。
さらに図3に示すように、投影チャネルマスク50は、チャネルマスク44と比較して拡大されている。しかしこの拡大は、投影が原因に過ぎず(すなわち放射線30の発散)、個々のシリンドリカルレンズの拡大特性に関係していない。
図4に示すように、レンズアレイ18のシリンドリカルレンズ28は、厳密には鉛直に配置されていないが、スクリーンの鉛直なピクセルコラムと、所定の角αを成す。本発明に記載の方法は、任意の所望の角αを扱うことができる。角αの好ましい選択は、
Figure 0004950293
である。
図4はさらに、3つの異なる座標系を示している。3つの異なる座標系は、その起点をスクリーン16の左上角に有する軸SCSxおよび軸SCSyを含む、スクリーン座標系(SCS)と、その起点がスクリーンの中央である軸DCSxおよび軸DCSyを含む、ディスプレイ座標系(DCS)と、その起点が同様にスクリーンの中央である軸UCSxおよび軸UCSyを含む、使用者座標系(UCS)である。ディスプレイ座標系DCSおよび使用者座標系UCSは、図4の図面の面に垂直であるz軸を有する三次元座標系である。それらの起点は、主平面pに位置する。
図5は、主平面pおよび物体面οの斜視図であり、ディスプレイ座標系のz軸DCSzも示している。さらに、この図は、UCSの起点から使用者の位置(すなわち図3の点U)までを示す位置ベクトルVを示している。ここでチャネルマスクは、正方形Cで表わされており、投影チャネルマスクは、物体面οにおける正方形Kで表わされている。正方形Cおよび正方形Kの側面が、シリンドリカルレンズ28の長手方向、つまり軸DCSyに平行であることが理解されるであろう。図5におけるベクトルWは、物体面οへのベクトルVの投影である。
スクリーン座標系SCSの固有の長さ単位はピクセルであろう。そして、使用者座標系UCSの長さ単位は、mm(ミリメートル)などのメートル単位であろう。しかし、ディスプレイ座標系DCSにおいては、長さ単位は、レンズアレイ18の個々のレンズ28の幅と定義される単位bである。
チャネルマスクが、投影中心としての点Uを用いて、物体面οに投影されると、スクリーン上の各ピクセルについて、それがどのチャネルに属するのかを決めることが可能である。まず、簡潔にするために、スクリーンが、黒(0)と白(255)の間の任意のグレースケールと想定され得る正方画素を有する、白黒スクリーンであるものとする。もしピクセルが完全に存在するのであれば(すなわち、左チャネルセグメント52の1つに4つの角全てを有する)、ピクセルは左チャネルと関連するであろう(すなわち、ピクセルは左チャネルとの相関1を有する)。反対に、ピクセルが完全に右チャネルセグメント54の1つの範囲内にあるときは、ピクセルは右チャネルとの相関1を有するであろう(結果的に左チャネルとの相関0を有するであろう)。
図6および図7は、ピクセル56またはピクセル58が、左チャネルセグメント52と右チャネルセグメント54の間の境界線60と重なる場合を図示している。これは直接的なやり方で調べることができ、例えば、境界線60に相対するピクセルの4つの角のそれぞれの位置を確認することによって、または、境界線からピクセルの中央までの距離を求めることによって調べることができる。例えば、図5の正方形Cを正方形Kに伝える投影を、ディスプレイ座標系DCSに適用するときに新しい座標系が得られる。新しい座標系は、物体面οにx軸およびy軸を有し、且つ、長さ単位として、拡大率(V+a)/V(V=図5のベクトルVのz成分)を乗じるレンズ幅bを有する。そのとき、この座標系では、第1の種類のチャネル遷移における境界線60は、x座標が整数であるという条件を満たし、第2の種類のチャネル遷移に属する境界線は、x座標が1/2を加えた整数であるという条件を満たすであろう。従って、ピクセルの座標をその座標系に示す場合に、その2種類のいずれかの境界線からピクセルの中央までの距離を、容易に求めることができる。もちろんこの手順は、ピクセルを主平面pに投影し、次いでその位置をディスプレイ座標系に示すことによって反転されてもよい。
好ましい実施形態において、ピクセルは、横線幅62を検査することでチャネルと相関する。横線幅62は、ピクセル幅を有し、ピクセルの中央を通過する。図6に示す実施例では、ピクセル56は、ほとんど完全にセグメント54の範囲内に位置しており、セグメント52をわずかに擦っている。その結果、線幅62はやはり完全にセグメント54に含まれる。従って、ピクセル56は右チャネルと相関1を有すると判断されるであろう。
図7に示すより一般的な場合では、境界線60が、線幅を2つの部分62aと62bに分割する。そして、ピクセル58の各チャネルとの相関は、線幅62の全長で割られた、対応する部分62aまたは62bの長さによって与えられる。代替としては、例えば、ピクセル58の右チャネルとの相関は、ピクセルの全領域で割られた右チャネルセグメント54と重なる、ピクセルの部分領域によって与えられるであろう。
ピクセルの2つのチャネルとの相関が求められると、タスクは、関連する画像情報を、図1に示すテクスチャマップLおよび/またはテクスチャマップRからフェッチすることである。しかしこの目的を達成するためには、レンズアレイ18の光学効果を考慮しなければならないため、テクスチャマップまたはその好適な部分を、主平面pにマッピングし、次いで物体面οに投影するには十分ではない。
レンズアレイ18の効果の1つは、各ピクセルが、使用者によって見られるときに、軸DCSxの方向に拡大しているように見えることである。拡大率は、レンズの円筒状の曲率によって求められる。一例として、ここでは、拡大率は3であるものとする。さらに、代表例として、考慮中のピクセルが、完全に右チャネルに属するものとする。そのとき、使用者が、考慮中のピクセルから知覚する画像情報は、同率(すなわち3で)で拡大されたテクスチャマップRの領域に対応しなければならない。さらに、ピクセルは、ピクセルの側面と平行でない軸DCSxの方向に拡大または伸長するであろう。従って、図8に示すように、ピクセル64の領域に対応するテクスチャマップRの領域は、偏菱形66の形状を有する。偏菱形66は、ピクセル64を角αだけ回転させ、それを3倍の倍率でx方向に伸長させ、次いでそれを角−αだけ逆回転させることによって得られる。この変換は、スクリーン16上の任意のピクセルについても同じであろう。従って、対応する計算は、一度だけ行う必要がある。
図3の光線36〜42で図示するように、レンズアレイ18は(ピクセルの中点が光線30の1つに位置しない限り)、物体面οのピクセルの位置を移動するというさらなる効果を有する。この効果を図9に図示する。ピクセル64から放射した光線68は、レンズアレイ18によって(主平面pで)集光かつ屈折され、このことが、拡大し変位したピクセルの仮想画像64’を生じさせる。距離Δは、ピクセルの変位が生じないであろう境界線60からピクセル64(の中心)までのオフセットである。このオフセットは、ピクセル64が属するチャネルを決めるのに関連して、すでに計算されている。レンズの拡大特性は、β(=3)の倍率でこのオフセットを拡大する。その結果、ピクセルが変位されるようである距離Nが、N=Δ(β−1)で与えられる。
従って、ピクセル64に関連する画像情報を、テクスチャマップRからフェッチするための手順は、ピクセル64の中央位置に対応する、テクスチャマップRにおける位置(適切なテクスチャ座標系に示される)を識別するステップと、偏菱形66の中心が、識別された位置と一致するようにテクスチャマップに配置するステップと、偏菱形66を軸DCSxに平行な方向に、距離Nだけ移動させる(この変位の跡は、ピクセル64が位置する境界線60の辺に依存する)ステップとを含む。
このことは図10に図示されており、そこでは、ピクセル64および境界線60がテクスチャ座標系にマッピングされている。この図によると、ピクセルの関連領域が、β=1のテクスチャマップにおいて、正方形64で示される領域を対象にする一方で、偏菱形66は、ピクセルに関連する領域の位置を、例えばβ=3で反射するであろう。
テクスチャマップの境界線の画像は、「ベータ」の値に影響されない。
次いで、理想的には、スクリーン16のピクセル64に表示される画像情報(階調レベル)は、図10の偏菱形66に含まれる画像情報を平均化することによって得られるであろう。しかし実際には、テクスチャマップRも解像度に限界があるので、この平均化処理は正確でないであろう。従って、バイリニアフィルタリングまたはトライリニアフィルタリングなどの、好適なサンプリングまたはフィルタリング技術を適用して、より正確にピクセルの内容を求めてもよい。
ピクセルがテクスチャマップLおよびRの両方と相関する場合は、それぞれの相関に比例して、テクスチャマップLおよびR両方の対応領域の内容を融合することによって、そのピクセルに表示される内容を決定する。このことは、1つの特定のチャネルにおける画像を考慮する場合、ピクセルの内容が「誤った」チャネルの内容によっても影響されているので、ピクセルの内容は完全に正確ではないかもしれないことを意味する。このことは、第1の種類の境界線60の1つまたは第2の種類の境界線の1つに位置するピクセルに限り(すなわち、通常は見えないピクセル)当てはまることに注意されたい。これらのピクセルは、使用者が比較的大きい横方向への動きを行うか、スクリーンの非常に近くに移動するか、スクリーンから非常に遠くに移動する場合に限り、見えるようになるであろう。そのような場合には、遷移は滑らかにされ、かつ、これらのピクセルの内容を融合することによって生じる可視異常は、ピクセルが2つのチャネルの1つに完全に割り当てられていたら見られたであろう影響ほど、妨げにならないであろう。このことは、特に、レンズアレイ18が比較的精巧である(すなわちレンズ幅bが比較的小さい)場合において、システムの性能および頑強性を向上させるであろう。最適な観察距離が与えられる場合では対物距離aもまた小さくなるので、その結果、スクリーンおよびレンズアレイの配置をよりコンパクトにすることができるという利点を、小さいレンズ幅bは有する。
もちろん、境界線上の各ピクセルでも、2つの相関のどちらがより大きいかに依存して、左チャネルまたは右チャネルのいずれかに完全に割り当てるという改変した実施形態を実施することは可能である。
スクリーン16が標準のカラースクリーンである場合は、各ピクセルは、図11に示すように、3つの長方形のサブピクセル70、72、74に細分されるであろう。そして、これらの各サブピクセルは、基本色の赤色、緑色および青色(rgb)のうちの1つで、薄膜トランジスタ(TFT)によって形成されるであろう。このようなカラーピクセルを左チャネルおよび右チャネルに相関させる手順は、図6および図7と共に説明された手順に類似しているが、ここではこの手順は、サブピクセル70、72および74のそれぞれ個別に行われる。図11に示す実施例において、赤色サブピクセル70は、このように、完全に左チャネルと相関し、ピクセル72は主に左チャネルと相関し、一方青色ピクセル74は、主に右チャネルと相関するであろう。ピクセル全体が白色であるべき場合に、例えば、左チャネルで見られる場合には、青色サブピクセル74は、ほとんど貢献しないかまたは見えないままでさえあるかもしれないため、ピクセルは実際には黄色に見えるであろう。よって、これはある種の色欠陥を意味する。しかし、境界線60は傾斜しているので、その色欠陥は種々のピクセルラインによって異なるであろう。その欠陥は実質的に平均化されるので、その結果、境界線のピクセルが見えるようになるときでさえ、著しい色層(カラーシーム)は生じないであろう。追加の対策としては、青色ピクセル74が「抜けている」ことによって生じる誤差(エラー)を、近傍のピクセルに拡散させてもよい。例えば、青色ピクセル74が完全に右チャネルに属する場合に割り当てられるべき強度を、隣接する青色ピクセル76の強度に加えることができるので、その結果、ピクセル76、70および72によって形成されるトリプレットの全体の色印象は、この場合においても、白である。
サブピクセルは、それらがチャネルと相関しているときは個別に扱われるが、3つのサブピクセルからなるカラーピクセル全体は、画像情報をテクスチャマップLまたはRからフェッチするときにユニットとして扱われるので、その結果、ピクセルは正しい色印象を与えるであろう。
上述した種々の座標系間の変換、並びに、チャネルマスクおよびテクスチャマップの物体面οへの投影を含む変換は、マトリックス乗算を用いて達成できることが理解されるであろう。例えば、単純な回転行列(角αについて)を、座標系UCSとDCSの間の変換に用いてもよい。一部の変換は、例えばスクリーン座標系からの変換及びスクリーン座標への変換では、座標系の起点が一致しないので、平行移動も要する。従って、斉次4×4行列を用いるのが都合がいい。
このような4×4行列はまた、図3および図5と共に説明されているような、チャネルマスクの特徴点を物体面οに投影することに用いられるであろう。チャネルマスクの特徴点は、例えば、図5における正方形Cの頂点または境界線60のそれぞれの対の点であってよい。投影に関係する拡大は、図3と共に説明されるように、行列によって与えられるであろう。
Figure 0004950293
式中、aは図3で定義される対物距離であり、VはベクトルVのz座標である(図5)。
チャネルマスク44に相対する投影マスク50の移動は、行列によって与えられる。
Figure 0004950293
ここで、W=(a*V/V)、W=(a*V/V)およびW=aは、ベクトルWのx成分、y成分およびz成分である(VおよびVは、Vのx成分およびz成分である)。
行列Sと任意の同次(斉次)ベクトルA=(A,A,A,1)の乗算は、長さによる変位の効果およびベクトルW方向への変位の効果を有し、ベクトル(A+W,A+W,A+W,1)をもたらす。
チャネルマスクの任意の特徴点の全体の投影は、行列Mと行列Sの積と、その点の座標ベクトルとを乗じることによって得られる。
スクリーン空間をテクスチャリングするプロセス、すなわち、ピクセルごとに関連する画像情報を、テクスチャマップLまたはRからフェッチするプロセスは、以下の方法でなされる。
我々は、スクリーン空間のピクセルごとに、このピクセル上にマッピングされるであろうテクスチャマップの関連領域が位置する場所を知る必要がある。一般に、「画像を含む長方形のビットマップ」として理解されるテクスチャは、その独自の2次元テクスチャ座標系(TCS)を有し、そこでは、左上角はT1=(0,0)と特定され、他の角は、時計回りの順に、T2=(1,0)、T3=(1,1)およびT4=(0,1)である。このTCSの空間は、テクスチャ空間とも呼ばれている。
我々はここで、2つのテクスチャLおよびRの角T1、T2、T3およびT4を、スクリーン16の4つの頂点D1、D2、D3およびD4を用いて特定する。これは、テクスチャLおよびRが、テクスチャのマッピングされた画像が使用者によって見られることになる正にその場所に、スクリーン16上で位置することになることを、我々が想定することを意味する。
ピクセルラインの数およびスクリーンのピクセル列に従って、テクスチャマップを細分することは、テクスチャ座標のテクスチャマップに、各ピクセルの中央位置を直接与える。
次いで行うことは、図9および図10に示すように、角を含む偏菱形66を、所望のピクセルの角に配置して、偏菱形の変位を、テクスチャ空間でベクトルNだけ行うだけである。テクスチャフェッチに関して、我々は簡単に、テクスチャ空間の偏菱形の角を、スクリーン空間のピクセルの角を用いて特定でき、我々の好ましいサンプリング方法に従って、テクスチャの関連位置(「サンプルのフットポイント」)をピクセルにマッピングする。
結果として、各チャネルについて、使用者がスクリーン上で見るものは、スクリーンの前の主平面pに画像を形成されるテクスチャマップの内容であって、それが全てのピクセルの内容である。不可視ゾーンのピクセルでさえ正しい内容を有しているので、その結果、使用者がわずかに左または右に移動する場合に、スクリーン上の表示は変更されず、画像は妨害されないであろう。
図12から図22を参照して、本発明に記載の方法の効果を、右チャネルの画像の簡単な例と共に説明する。図12に示すように、この画像は、語「right」で構成されており、5つの隣接するシリンドリカルレンズに跨っている。それらの対応するセグメントは、n−2、n−1、n、n+1およびn+2である。中央のレンズnの中心軸は、鎖線で示されている。矩形Pは、レンズnの影響を受ける画像領域を示している。その矩形に含まれる情報は、使用者がスクリーンを直角に見る場合だけでなく、使用者が側方にずれた位置からスクリーンを見る場合においても、レンズnを通して使用者に見えるであろう。そのためには、矩形Pに含まれる情報を、縮小した矩形P’に変換しなければならない。
このことは図13に示しており、そこでは、矩形Pの元の画像を陰影で示し、矩形P’の変換画像を黒で示している。この変換は、図8および図10に示すように変換されたテクスチャマップRの領域から、各ピクセルの画像情報をフェッチした結果である。必要なパラメータが特定されると、これらのテクスチャ操作は、グラフィックカード12によって自動的に実行される。
図14は、セグメントn−1およびn+1に関連する画像の対応する変換を示している。
図15において、実際に使用者に見えるゾーン(最適な観察位置で)を白色の背景で示し、一方、不可視ゾーンを陰影付きの背景で示す。
図16は、スクリーン16のピクセル、もっと正確にいえば、サブピクセル構造を付加的に示している。各ピクセルの赤色サブピクセルは、点で印を付けられている。
図17は、右チャネルで見えるゾーン(白色の背景)と共に、ピクセル構造を示している。図17における陰影付きのピクセルは、不可視ゾーン、ならびに、左チャネルに確保されるセグメントであって、やはり右眼に見えないセグメントを含んでいる。図18において、左チャネルと相関するピクセルを濃い陰影で示し、一方、右チャネルに属するが不可視ゾーンに位置するピクセルを、薄い陰影で示す。これらの見えないピクセルは、それでもなお、右チャネルの画像情報を有し、その結果、その情報が幾分重複していることが分かるであろう。例えば、文字「h」の右足は、セグメントn+1の中心ゾーンで見えて、セグメントn+2の不可視ゾーンに再び示されている。
図19は、使用者が頭を移動させ、その結果、可視ゾーンがそれぞれのセグメントの中心からずれている状況を図示している。ヘッドトラッキングシステムは、使用者のこの移動を検知して、それに従って、ピクセルの左チャネルおよび右チャネルとの相関を調節する。結果として、セグメントの境界線が移動して、その結果、これらの境界線近傍の不可視ゾーンにおけるピクセルの内容が変化する。このようにして、米国特許第6302541号に記載されているように、システムは、セグメントに跨る画像情報を「スクロール」することによって、使用者の移動に対応する。
最後に、図20は、図13から図18に示す変換を反転させるレンズアレイ18の光学効果を示しており、使用者の右眼で見える全体画像を、その元の形状で構成している。一方、スクリーンのサブピクセル構造は、ここでは拡大し歪んでいる。

Claims (10)

  1. スクリーン(16)上に画像を自動立体表示するための方法であって、使用者の右眼(34)および左眼(32)のための分離したチャネルの画像情報が、介在し合うセグメント(52、54)で前記スクリーン(16)上に表示され、かつ、前記各チャネルの画像情報が、前記使用者の片方の眼のみに見えることができるように、レンズアレイ(18)が、前記スクリーンから放射される光を屈折させるために配置される上記方法であって、
    前記レンズアレイ(18)の光の屈折特性によって決定されるチャネルマスク(44)を、前記レンズアレイ(18)と固定された関係を有するディスプレイ座標系(DCS)で定義するステップであって、前記チャンネルマスク(44)は、前記レンズアレイ(18)の主平面(P)を左チャンネルゾーン(46)と右チャンネルゾーン(48)とに分割するステップと、
    前記チャネルマスクを、投影中心としての前記使用者の位置(U)を用いた、前記レンズアレイ(18)の前記主平面(p)から前記スクリーンの物体面(ο)への前記チャネルマスク(44)の投影に対応する座標変換にかけ、それによって、前記スクリーンの各ピクセルに、前記チャネルの少なくとも1つとの相関を割り当てるステップと、
    前記チャネルごとに、そのチャネルの前記画像情報を含むテクスチャマップ(L、R)を格納するステップと、
    前記スクリーンの各ピクセル(64)を、前記テクスチャマップ(L、R)の少なくとも1つの関連領域(66)に関連付ける座標変換を行うステップであって、前記変換は、前記レンズアレイ(18)による前記ピクセルからの光の屈折を表すステップと、
    前記テクスチャマップ(L、R)との前記各ピクセル(64)の前記相関およびこれらのテクスチャマップの少なくとも一つの前記関連領域(66)の内容に基づいて、前記各ピクセル(64)の内容を決定するステップであって、前記関連領域(66)は、前記座標変換によってピクセル(64)に関連付けられるステップとを含む方法。
  2. 前記レンズアレイ(18)が、前記レンズアレイのシリンドリカルレンズ(28)の長手方向が、前記スクリーン(16)の垂直軸(SCSy)に相対して角(α)で傾斜している位置で、前記スクリーン(16)上に配置され、かつ、前記各ピクセルを前記テクスチャマップの1つの関連領域(66)と関連付ける前記座標変換が、前記レンズアレイの前記傾斜角(α)だけ回転すること、および、これらのレンズの前記長手方向に垂直な方向への前記シリンドリカルレンズ(28)の拡大効果に対応する、アフィン変換による一次変換を含む請求項1に記載の方法。
  3. 前記使用者の前記位置(U)の変化を検知および追跡して、前記チャネルマスクの前記投影に対応する前記座標変換を、前記使用者の変化した位置に従って動的に変化させる、請求項1または請求項2に記載の方法。
  4. 前記座標変換は、斉次(同次)行列の乗算で行われる請求項1〜3のいずれか一項に記載の方法。
  5. 前記使用者の前記位置(U)の変化を検知および追跡して、前記チャネルマスクの前記投影に対応する前記座標変換を、前記使用者の変化した位置に従って動的に変化させ、前記チャネルマスクの投影に対応する前記座標変換が、定数行列と、前記使用者の前記位置(U)の前記変化の影響を反映する変数行列の積である行列によって定義される、請求項4に記載の方法。
  6. 前記各ピクセルの内容を決定する前記ステップは、前記テクスチャマップ(L、R)の領域を、前記スクリーン上の前記セグメント(52、54)上にマッピングするテクスチャ手順を含む、請求項1〜5のいずれか一項に記載の方法。
  7. 前記各ピクセルに、前記チャネルの少なくとも1つとの相関を割り当てる前記ステップは、2つのセグメント(52、54)間の境界線(60)上のピクセル(56、58)を識別し、かつ、これらのピクセルに前記2つのチャネルそれぞれとの相関を割り当てるステップを含み、
    前記内容を決定する前記ステップは、これらのピクセルに適用される場合は、前記ピクセルに割り当てられた前記相関に従って、前記テクスチャマップ(L、R)両方の前記関連領域からの内容を融合するステップを含む、請求項1〜6のいずれか一項に記載の方法。
  8. スクリーン(16)上にカラー画像を表示する場合であって、そのピクセル(78、80)が種々のカラーのサブピクセル(70、72、74)から構成される場合は、前記チャネルの少なくとも1つとの相関を割り当てる前記ステップは、サブピクセルそれぞれ個別に行われる、請求項1〜7のいずれか一項に記載の方法。
  9. 画像を自動立体表示するためのシステムであって
    クリーン(16)を有するモニタ(14)と、
    前記スクリーン(16)の前に配置されるレンズアレイ(18)と、
    コンピュータシステム(10)と、
    前記コンピュータシステム(10)で動くときに、前記コンピュータシステム(10)に方法を行わせるプログラムコードを含み、
    前記方法は、
    前記スクリーン(16)上に画像を自動立体表示するための方法であって、使用者の右眼(34)および左眼(32)のための分離したチャネルの画像情報が、介在し合うセグメント(52、54)で前記スクリーン(16)上に表示され、かつ、前記レンズアレイ(18)が、前記スクリーン(16)から放射される光を屈折させ、前記各チャネルの画像情報が、前記使用者の片方の眼のみに見えることができる前記方法であって、
    前記レンズアレイ(18)の光の屈折特性によって決定されるチャネルマスク(44)を、前記レンズアレイ(18)と固定された関係を有するディスプレイ座標系(DCS)で定義するステップであって、前記チャンネルマスク(44)は、前記レンズアレイ(18)の主平面Pを左チャンネルゾーン(46)と右チャンネルゾーン(48)とに分割するステップと、
    前記チャネルマスクを、投影中心としての前記使用者の位置(U)を用いた、前記レンズアレイ(18)の前記主平面(p)から前記スクリーンの物体面(ο)への前記チャネルマスク(44)の投影に対応する第1の座標変換にかけ、それによって、前記スクリーンの各ピクセルに、前記チャネルの少なくとも1つとの相関を割り当てるステップと、
    前記チャネルごとに、そのチャネルの前記画像情報を含む、前記コンピュータのメモリに格納されたテクスチャマップ(L、R)を格納するステップと、
    前記スクリーンの各ピクセル(64)を、前記テクスチャマップ(L、R)の少なくとも1つの関連領域(66)に関連付ける第2の座標変換を行うステップであって、前記第2の座標変換は、前記レンズアレイ(18)による前記ピクセルからの光の屈折を表すステップと、
    前記テクスチャマップ(L、R)との前記各ピクセル(64)の前記相関およびこれらのテクスチャマップの少なくとも一つの前記関連領域(66)の内容に基づいて、前記各ピクセル(64)の内容を決定するステップであって、前記関連領域(66)は、前記座標変換によってピクセル(64)に関連付けられるステップとを含む、システム。
  10. 画像の自動立体表示のためのソフトウェア製品であって、
    コンピュータ可読媒体に格納され、
    スクリーン(16)を有し、且つ該スクリーン(16)の前にレンズアレイ(18)を備えたモニタ(14)に接続されるコンピュータで動くときに、前記コンピュータに、方法を行わせるプログラムコードを備え
    前記方法は、
    前記スクリーン(16)上に画像を自動立体表示するための方法であって、使用者の右眼(34)および左眼(32)のための分離したチャネルの画像情報が、介在し合うセグメント(52、54)で前記スクリーン(16)上に表示され、かつ、前記レンズアレイ(18)が、前記スクリーン(16)から放射される光を屈折させ、前記各チャネルの画像情報が、前記使用者の片方の眼のみに見えることができる前記方法であって、
    前記レンズアレイ(18)の光の屈折特性によって決定されるチャネルマスク(44)を、前記レンズアレイ(18)と固定された関係を有するディスプレイ座標系(DCS)で定義するステップであって、前記チャンネルマスク(44)は、前記レンズアレイ(18)の主平面Pを左チャンネルゾーン(46)と右チャンネルゾーン(48)とに分割するステップと、
    前記チャネルマスクを、投影中心としての前記使用者の位置(U)を用いた、前記レンズアレイ(18)の前記主平面(p)から前記スクリーンの物体面(ο)への前記チャネルマスク(44)の投影に対応する第1の座標変換にかけ、それによって、前記スクリーンの各ピクセルに、前記チャネルの少なくとも1つとの相関を割り当てるステップと、
    前記チャネルごとに、そのチャネルの前記画像情報を含む、前記コンピュータのメモリに格納されたテクスチャマップ(L、R)を格納するステップと、
    前記スクリーンの各ピクセル(64)を、前記テクスチャマップ(L、R)の少なくとも1つの関連領域(66)に関連付ける第2の座標変換を行うステップであって、前記第2の座標変換は、前記レンズアレイ(18)による前記ピクセルからの光の屈折を表すステップと、
    前記テクスチャマップ(L、R)との前記各ピクセル(64)の前記相関およびこれらのテクスチャマップの少なくとも一つの前記関連領域(66)の内容に基づいて、前記各ピクセル(64)の内容を決定するステップであって、前記関連領域(66)は、前記座標変換によってピクセル(64)に関連付けられるステップとを含む、ソフトウェア製品。
JP2009521109A 2006-07-24 2006-07-24 自動立体システム Active JP4950293B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2006/007267 WO2008011888A1 (en) 2006-07-24 2006-07-24 Autostereoscopic system

Publications (2)

Publication Number Publication Date
JP2009544992A JP2009544992A (ja) 2009-12-17
JP4950293B2 true JP4950293B2 (ja) 2012-06-13

Family

ID=37697619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009521109A Active JP4950293B2 (ja) 2006-07-24 2006-07-24 自動立体システム

Country Status (5)

Country Link
US (1) US8077195B2 (ja)
EP (1) EP2044480B1 (ja)
JP (1) JP4950293B2 (ja)
CN (1) CN101529310B (ja)
WO (1) WO2008011888A1 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010501901A (ja) * 2006-09-01 2010-01-21 シーリアル テクノロジーズ ソシエテ アノニム 自動立体ディスプレイのための指向制御照射ユニット
US8253780B2 (en) * 2008-03-04 2012-08-28 Genie Lens Technology, LLC 3D display system using a lenticular lens array variably spaced apart from a display screen
KR101629479B1 (ko) * 2009-11-04 2016-06-10 삼성전자주식회사 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법
CN101909219B (zh) * 2010-07-09 2011-10-05 深圳超多维光电子有限公司 一种立体显示方法及跟踪式立体显示器
CN102375242B (zh) * 2010-08-08 2016-05-25 漳州市爵晟电子科技有限公司 一种3d成像装置
US9168454B2 (en) 2010-11-12 2015-10-27 Wms Gaming, Inc. Integrating three-dimensional elements into gaming environments
US8721427B2 (en) 2010-12-14 2014-05-13 Bally Gaming, Inc. Gaming system, method and device for generating images having a parallax effect using face tracking
CN102075776B (zh) * 2011-01-18 2014-03-26 青岛海信电器股份有限公司 一种立体显示的控制方法及装置
JP6048819B2 (ja) * 2011-05-10 2016-12-21 パナソニックIpマネジメント株式会社 表示装置、表示方法、集積回路、プログラム
US9646453B2 (en) 2011-12-23 2017-05-09 Bally Gaming, Inc. Integrating three-dimensional and two-dimensional gaming elements
EP2615838B1 (en) 2012-01-12 2019-08-21 SeeFront GmbH Calibration of an autostereoscopic display system
TWI495343B (zh) * 2012-04-13 2015-08-01 Dadny Inc 行車記錄系統及其位置判斷方法
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9013564B2 (en) * 2013-05-07 2015-04-21 Elwha Llc Controllable lenticular lenslets
TWI477817B (zh) * 2013-07-18 2015-03-21 Au Optronics Corp 顯示器以及顯示具有不同視差的三維影像的方法
US9792757B2 (en) * 2014-09-16 2017-10-17 Igt Canada Solutions Ulc 3D enhanced gaming machine with selectable 3D intensity level
PL3237965T3 (pl) * 2014-12-24 2019-08-30 Koninklijke Philips N.V. Autostereoskopowe urządzenie wyświetlające
EP3041231A1 (en) * 2014-12-30 2016-07-06 SeeFront GmbH Autostereoscopic multi-view system
DE102015206001A1 (de) 2015-04-02 2016-10-06 Robert Bosch Gmbh Autostereoskopisches Head-up-Display für ein Fahrzeug und Verfahren zum Erzeugen eines autostereoskopischen Bilds mittels eines Head-up-Displays für ein Fahrzeug
US9952426B2 (en) 2015-05-28 2018-04-24 Seefront Gmbh Autostereoscopic system
JP6684118B2 (ja) * 2016-03-16 2020-04-22 日本放送協会 2眼立体画像生成装置及びそのプログラム
US10657698B2 (en) * 2017-06-22 2020-05-19 Microsoft Technology Licensing, Llc Texture value patch used in GPU-executed program sequence cross-compilation
FR3071625B1 (fr) * 2017-09-26 2019-09-27 Alioscopy Systeme et procede d'affichage d'une image autostereoscopique a 2 points de vue sur un ecran d'affichage autostereoscopique a n points de vue et procede de controle d'affichage sur un tel ecran d'affichage
US10580251B2 (en) 2018-05-23 2020-03-03 Igt Electronic gaming machine and method providing 3D audio synced with 3D gestures
US10764660B2 (en) 2018-08-02 2020-09-01 Igt Electronic gaming machine and method with selectable sound beams
US11354973B2 (en) 2018-08-02 2022-06-07 Igt Gaming system and method providing player feedback loop for automatically controlled audio adjustments
US10735862B2 (en) 2018-08-02 2020-08-04 Igt Electronic gaming machine and method with a stereo ultrasound speaker configuration providing binaurally encoded stereo audio
US11158154B2 (en) 2018-10-24 2021-10-26 Igt Gaming system and method providing optimized audio output
US11011015B2 (en) 2019-01-28 2021-05-18 Igt Gaming system and method providing personal audio preference profiles
CN114175627B (zh) 2019-06-07 2024-04-12 交互数字Vc控股公司 用于基于分布式光孔的光场显示器的光学方法和***
WO2020263958A1 (en) 2019-06-28 2020-12-30 Pcms Holdings, Inc. Optical method and system for light field (lf) displays based on tunable liquid crystal (lc) diffusers
FR3120137A1 (fr) * 2021-02-22 2022-08-26 Alioscopy Écran d’affichage autostéréoscopique à p points-de-vue destiné à afficher une image autostéréoscopique à i points-de-vue et dispositif d’affichage comprenant un tel ecran
US11736678B2 (en) 2021-02-22 2023-08-22 Alioscopy Autostereoscopic p-point-of-view display screen for displaying an autostereoscopic i-point-of-view image and display device including such a screen

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997047142A2 (en) * 1996-06-07 1997-12-11 Philips Electronics N.V. Stereoscopic image display driver apparatus
US5966167A (en) * 1994-05-20 1999-10-12 Canon Kabushiki Kaisha Stereoscopic display apparatus
JP2000020757A (ja) * 1998-06-30 2000-01-21 Mr System Kenkyusho:Kk 立体画像処理装置、ユーザ・インタフェース装置、立体表示用バッファ制御方法及びその制御装置、立体画像表示装置、そしてプログラム記憶媒体
JP2000152285A (ja) * 1998-11-12 2000-05-30 Mr System Kenkyusho:Kk 立体画像表示装置
JP2000278716A (ja) * 1999-03-25 2000-10-06 Mr System Kenkyusho:Kk 視点位置検出装置、方法及び立体画像表示システム
WO2001062014A2 (en) * 2000-02-15 2001-08-23 Koninklijke Philips Electronics N.V. Autostereoscopic display driver
WO2001084852A1 (en) * 2000-05-03 2001-11-08 Koninklijke Philips Electronics N.V. Autostereoscopic display driver
US20030012425A1 (en) * 1998-11-12 2003-01-16 Canon Kabushiki Kaisha Viewpoint position detection apparatus and method, and stereoscopic image display system

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4829365A (en) * 1986-03-07 1989-05-09 Dimension Technologies, Inc. Autostereoscopic display with illuminating lines, light valve and mask
US5537144A (en) * 1990-06-11 1996-07-16 Revfo, Inc. Electro-optical display system for visually displaying polarized spatially multiplexed images of 3-D objects for use in stereoscopically viewing the same with high image quality and resolution
US5917562A (en) * 1994-12-16 1999-06-29 Sharp Kabushiki Kaisha Autostereoscopic display and spatial light modulator
GB2296617A (en) * 1994-12-29 1996-07-03 Sharp Kk Observer tracking autosteroscopic display
GB2302978A (en) * 1995-07-04 1997-02-05 Sharp Kk LIquid crystal device
US6157402A (en) * 1997-02-13 2000-12-05 Torgeson; W. Lee Autostereoscopic image presentation system using a screen assembly
WO1998053616A1 (de) 1997-05-16 1998-11-26 Christoph Grossmann Autostereoskopische displayvorrichtung
US7239293B2 (en) * 1998-01-21 2007-07-03 New York University Autostereoscopic display
US6157424A (en) * 1998-03-30 2000-12-05 Dimension Technologies, Inc. 2D/3D imaging display
GB2351866A (en) * 1999-07-07 2001-01-10 Sharp Kk Stereoscopic display
DE10016074B4 (de) * 2000-04-01 2004-09-30 Tdv Technologies Corp. Verfahren und Vorrichtung zur Erzeugung von 3D-Bildern
GB0017008D0 (en) * 2000-07-12 2000-08-30 Street Graham S B Structured light source
US7466336B2 (en) * 2002-09-05 2008-12-16 Eastman Kodak Company Camera and method for composing multi-perspective images
US7616227B2 (en) * 2003-10-02 2009-11-10 Real D Hardware based interdigitation
DE10359403B4 (de) * 2003-12-18 2005-12-15 Seereal Technologies Gmbh Autostereoskopisches Multi-User-Display
DE102005021155B3 (de) * 2005-04-29 2006-11-23 Seereal Technologies Gmbh Steuerbare Beleuchtungseinrichtung

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5966167A (en) * 1994-05-20 1999-10-12 Canon Kabushiki Kaisha Stereoscopic display apparatus
WO1997047142A2 (en) * 1996-06-07 1997-12-11 Philips Electronics N.V. Stereoscopic image display driver apparatus
JP2000020757A (ja) * 1998-06-30 2000-01-21 Mr System Kenkyusho:Kk 立体画像処理装置、ユーザ・インタフェース装置、立体表示用バッファ制御方法及びその制御装置、立体画像表示装置、そしてプログラム記憶媒体
JP2000152285A (ja) * 1998-11-12 2000-05-30 Mr System Kenkyusho:Kk 立体画像表示装置
US20030012425A1 (en) * 1998-11-12 2003-01-16 Canon Kabushiki Kaisha Viewpoint position detection apparatus and method, and stereoscopic image display system
JP2000278716A (ja) * 1999-03-25 2000-10-06 Mr System Kenkyusho:Kk 視点位置検出装置、方法及び立体画像表示システム
WO2001062014A2 (en) * 2000-02-15 2001-08-23 Koninklijke Philips Electronics N.V. Autostereoscopic display driver
JP2003523532A (ja) * 2000-02-15 2003-08-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動立体ディスプレイ駆動器
WO2001084852A1 (en) * 2000-05-03 2001-11-08 Koninklijke Philips Electronics N.V. Autostereoscopic display driver
JP2003533104A (ja) * 2000-05-03 2003-11-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自己立体視ディスプレイドライバ

Also Published As

Publication number Publication date
US8077195B2 (en) 2011-12-13
JP2009544992A (ja) 2009-12-17
EP2044480A1 (en) 2009-04-08
CN101529310A (zh) 2009-09-09
US20090201363A1 (en) 2009-08-13
EP2044480B1 (en) 2013-05-22
CN101529310B (zh) 2012-10-17
WO2008011888A1 (en) 2008-01-31

Similar Documents

Publication Publication Date Title
JP4950293B2 (ja) 自動立体システム
US7652674B2 (en) On the fly hardware based interdigitation
US7570260B2 (en) Tiled view-maps for autostereoscopic interdigitation
JP4764305B2 (ja) 立体画像生成装置、方法およびプログラム
JP6517245B2 (ja) 三次元画像を生成するための方法及び機器
US8208011B2 (en) Stereoscopic display apparatus
US20060132916A1 (en) Autostereoscopic display
JP6142985B2 (ja) 自動立体ディスプレイおよびその製造方法
US20100079578A1 (en) Apparatus, method and computer program product for three-dimensional image processing
CN103562963A (zh) 用于角切片真3d显示器的对准、校准和渲染的***和方法
TW201322733A (zh) 影像處理裝置、立體影像顯示裝置、影像處理方法及影像處理程式
KR20170044953A (ko) 무안경 3d 디스플레이 장치 및 그 제어 방법
CN113534490A (zh) 基于用户眼球追踪的立体显示装置及立体显示方法
JP4535954B2 (ja) 2眼式立体表示装置およびプログラム
CN108769656B (zh) 基于虚拟子像素的三合一led裸眼3d显示装置及方法
JP6846165B2 (ja) 画像生成装置、画像表示システム及びプログラム
WO2014119555A1 (ja) 画像処理装置、表示装置及びプログラム
US20140313199A1 (en) Image processing device, 3d image display apparatus, method of image processing and computer-readable medium
US10869023B1 (en) Method and apparatus for correcting lenticular distortion
de la Barré et al. A new design and algorithm for lenticular lenses display
Wu et al. P‐231: Late‐News Poster: Real‐Time Analysis and Synthesis of Imagery for Light‐Field Displays
CN118071836A (zh) 基于图像清晰度的光栅可视区定标方法、***、电子设备及存储介质

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110816

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120308

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4950293

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250