JP4616543B2 - 多人数共有型表示装置 - Google Patents

多人数共有型表示装置 Download PDF

Info

Publication number
JP4616543B2
JP4616543B2 JP2002508131A JP2002508131A JP4616543B2 JP 4616543 B2 JP4616543 B2 JP 4616543B2 JP 2002508131 A JP2002508131 A JP 2002508131A JP 2002508131 A JP2002508131 A JP 2002508131A JP 4616543 B2 JP4616543 B2 JP 4616543B2
Authority
JP
Japan
Prior art keywords
display device
display
user
glasses
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002508131A
Other languages
English (en)
Inventor
喜文 北村
文郎 岸野
敏博 正城
孝重 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, National Institute of Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Application granted granted Critical
Publication of JP4616543B2 publication Critical patent/JP4616543B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/32Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using arrays of controllable light sources; using moving apertures or moving light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/339Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、表示装置に関し、特に複数のユーザがディスプレイ装置を共有することができる表示装置に関する。
コンピュータおよびコンピュータを取り巻く環境は近年急速に発展してきている。そして、そのような発展にともない、コンピュータを用いた技術は一般に広く用いられるようになり、今日、日常生活のあらゆるところにみることができる。
このコンピュータを取り巻く環境の発展の中、仮想現実感(VirtualReality)に関する技術も急速に発展してきている。コンピュータの高速化は、より高度で複雑な仮想環境をリアルタイムに構築することを可能にした。
現在、この仮想現実感の技術は、さまざまな分野で利用されるようになってきており、仮想世界の中に実現される対象も、宇宙環境、都市、自然環境、工業製品、臓器、小動物、細胞、原子など大規模なものから小規模かつ高精細なものまで多岐にわたっている。さらには、現実に存在し実際目に見えるものだけではなく、温度分布や、気流、電磁場の様子などの、実際には見ることができないものを可視化することにも用いられている。
この仮想現実感を表現するための、3次元画像表示技術も目覚ましい発展を遂げ、博覧会等での施設やアミューズメントにおける利用から、教育・医療分野での応用や各種設計、CAD/CAM、計測分野の応用に注目されている。
3次元の画像を表示する方式は、立体像を何らかの方法で形成して、それを観察者がそのまま観測する方式と、立体像でなく、右眼用、左眼用の平面像を、画像表示時に右眼用は右眼に、左眼用は左眼でみえるように工夫した両眼視差方式とに大別できる。前者の代表例はホログラフィとインテグラル・ホトグラフィであり、後者の代表例は偏光眼鏡や液晶シャッタを用いた立体映画やレンチキュラを用いた立体テレビなどがある。
立体像を形成する方式は、ホログラフィに代表される様に、フルカラー・高精細・リアルタイムで表示するためには、未だに技術的に未解決の部分が存在する。
左右両眼の視差を利用した方式は、本質的に人間工学に基づいているため、現実感(リアリティ)を高め、没入感、臨場感の優れた立体像が得られる。しかしながら、この方式のみでは、利用者の動作に合わせて、表示される立体の観察する視点を自由に変更することが不可能である。
観察者の視点、位置に応じて、立体像を変化させる方法の一つとして、両眼視差方式において、観察者は頭部(視点)位置を計測する装置(磁気センサ等)を身につけることによって、視点位置に応じた立体映像を観察することができる。しかし、この方式では、実空間内での視点移動を仮想世界に反映できる利用者は、1ディスプレイに対して1人に限られる。複数人でのディスプレイ共有の場合、複数の視点に対して適切な表示方法がない。
この課題に対して、人数分の時分割表示を行う方法(例えば、宮里勉他、電子情報通信学会総合大会、A−16−21、1997や、特開平10−260377号公報参照)と人数分の表示装置を視点位置に対応させて駆動させる方法(例えば、大村克之他、3次元画像コンファレンス、5−7、1994参照)がある。しかし、前者は人数が増えると立体視成立の周波数限界を満たさず(フレーム数が減り)、表示周波数が人数に反比例し、フリッカーが生じるという問題がある。後者は、人数分の表示装置が必要であり、大がかりな装置が必要で経済的に問題がある。
このように、従来の画像や映像を立体表示する装置としては、右目のための映像と左目のための映像を時分割で画面に表示し、この切り替えのタイミングに合わせて左目と右目用の窓が開閉する特殊な眼鏡をかけて観察する方法が主に利用されてきた。この場合、観察者は、頭部(視点)位置を計測する装置を身につけることにより、自由な視点位置から画面を介して、その視点位置に応じた歪のない映像を観察することができる。
しかし、複数人で同一の立体映像を歪なく観察しようとすると、複数の視点位置の右目と左目映像を切り替えて表示するため、時分割数が増加してある一人のために画面表示する時間間隔が疎となり、フリッカーを感じる原因となっていた。
本発明の目的は、複数人に対して、実空間での視点移動に適切に対応した表示を行うことを可能にする、多人数共有型表示装置を提供することである。この多人数共有型表示装置を用いて、立体映像を表示することを可能とすることも本発明の目的である。
上記目的を達成するために、本発明は、ディスプレイ装置を複数のユーザで共有する多人数共有型表示装置において、複数ユーザのための複数の映像を画面に表示するディスプレイ装置と、一定距離離れて前記ディスプレイ装置を覆うように設置され、十分大きな穴を有するディスプレイ・マスクと、前記表示装置に対するユーザの実空間の位置を検出する位置センサと、前記1台のディスプレイ装置、前記位置センサとに可動的に結合され、前記位置センサによるユーザの位置に応じて、各ユーザに対応した画像を前記ディスプレイ装置上の、各ユーザが見える領域に表示する処理装置とを備え、前記穴は、各ユーザが、そのユーザに対応する画像を表示している領域を全て見ることができる大きさであることを特徴とする。
提案する多人数共有型表示装置は、穴が空いており、その部分以外はディスプレイ装置を覆い隠すディスプレイ・マスクを用い、実空間内での各ユーザの視点位置に応じてディスプレイ装置上の異なる表示領域を設定することができる。それにより、複数のユーザの視点移動に適切に対応した表示を行うことができる。
ディスプレイ装置上に表示する映像に、立体視のための映像を含むことができる。
このとき、各ユーザは、表示された前記立体視用映像を右目用および左目用に分離するための複数組の眼鏡をかけており、前記ディスプレイ装置に表示する複数の立体視映像は、前記複数の眼鏡により、右目用および左目用に分離可能な画像とすることができる。
そして、前記眼鏡として、右目および左目のシャッタが開閉する眼鏡であり、前記処理装置は、前記眼鏡にも可動的結合されているものを用いることができる。
前記眼鏡と位置センサとを一体として作成することにより、誤差の少ない、ユーザの視点位置を求めることができる。
図1は、本発明の実施形態の構成を示す図である。
図2は、本発明の実施形態による表示例を示す図である。
図3は、実施形態の生成画像例を示す図である。
図4は、視点の計算を行う場合の座標例を示す図である。
図5は、表示面と仮想物体と投影面との関係を示す図である。
図6は、座標軸の取り方を示す図である。
図7は、ユーザの視点位置に対する表示領域を示す図である。
図8は、劇場型表示装置の実施形態を示す図である。
図9は、エンターテイメントに応用した構成を示す図である。
図10は、情報を表示する例を示す図である。
本発明の実施形態を、図面を参照して詳細に説明する。
まず、本発明の多人数共有型表示装置で3次元画像を表示する例を説明する。
図1(a)は、本発明の実施形態である多人数共有型立体表示装置の構成を示す図である。図1(a)において、多人数共有型立体表示装置の二人のユーザ140,150は、それぞれ、液晶シャッタの眼鏡142および152をかけており、また、位置センサ144、154を付けている。ユーザは、液晶シャッタを介して、ディスプレイ装置110上に表示された画像を見ることになる。液晶シャッタの眼鏡142,152、位置センサ144,154、ディスプレイ装置110は、処理装置130に接続されている。位置センサからの入力により、処理装置130は、ディスプレイ上にそれぞれのユーザに対する領域に画像を表示している。
ディスプレイ装置110は、図1(b)に示すように、ディスプレイ112とその一部分を覆って隠すディスプレイ・マスク114で構成されている。ディスプレイ・マスク114は、ディスプレイ面116から適当な距離だけ離れた位置に設置している。ディスプレイ・マスク114には穴118が空いており、その部分を通してのみディスプレイ112の表示面116が見えるようになっている。
このようなディスプレイ・マスク114を導入することにより、図2に示すように、利用者の視点位置によって、ディスプレイ面上の見える領域が異なることになる。その結果、利用者ごとに異なった内容を提示することが可能となる。また、この構成では、利用者のインタラクティブな視点移動にも対応することが可能である。利用者の視点位置が移動した場合、その移動に応じて利用者が見える領域も移動する。そこで、その視点位置を位置センサで検出し、その視点位置に適した領域に表示することで、利用者の視点移動にも対応することができる。
さらに、この手法を用いたシステムにおいて、視点位置ごとの表示領域ごとに左右それぞれの視点に対する視差のある画像を提示することで、全ての利用者に対して立体視表示を行うことが可能となる。その結果、同一の仮想空間を全ての利用者に対して立体視表示することによる多人数共有立体仮想空間の実現が可能となる。
視点位置検出のセンサとして、例えば6自由度磁気センサを用いることができる。磁気センサは、x、y、z各方向ごとに発生させている磁束を切ることを検出することで、位置を検出することができる。視線方向は、マスク上の穴の中心を向き、両眼を結ぶ直線は水平面に対して平行であるものとして、視点位置から計算によりリアルタイムに導出することができる。
位置検出センサとして、上述の磁界を用いる磁気センサ以外にも、公知である電界、電磁界、超音波等を用いるセンサを使用することができる。また、位置検出センサは、液晶シャッタの眼鏡と一体のものとして、作成することができる。
処理装置130は、導出された左右それぞれの視点に対する画像を投影し、ディスプレイ112上に、液晶シャッタに同期して時分割で交互に表示することで実現する。実際には、図3(a)(b)に示すように、左右それぞれの視点に対する画像を全画面のうちの上下半分ずつに出力し、システムによりその上下半分ずつを切り替えて拡大表示している。これにより、例えば表示周波数120Hzを60Hzに時分割して左右の画像を表示することができる。液晶シャッタは、画像のリフレッシュ・レートと同期して左右両眼の可視、不可視を切り替えている。液晶シャッタ眼鏡を通してディスプレイ112を見ることで、左右それぞれの視点に適切に対応した画像を得ることができ、立体的に見えることになる。
上述では、上下半分ずつ出力しているが、どのように分割して表示するか、また、分割せずに表示するか、インターレースして表示するか等は、自由に設定することができる。また、ディスプレイ装置として、通常の発光面を直接見るもの以外に、投影型のものを使用してもよい。
<視点位置>
次に、立体視表示を行うために、位置センサにより得られた視点位置を両眼の中心とし、計算により導出された視線方向、姿勢角をもとに左右両眼の位置を導出することを、図4を用いて説明する。図4に示すように、ユーザの両眼の中心位置、両眼の中心から左右それぞれの目までの距離、視線の正面方向からの回転角度、ならびに左右それぞれの目の位置を次のように定義する。
Figure 0004616543
上記(1)のように定義すると、左右の視点位置は以下の式(2)のように導出される。
Figure 0004616543
この場合、位置センサが液晶シャッタを組み込んだ眼鏡と一体のものとして作成されていると、特に誤差が少なく、位置センサからの位置情報から上述のように視点位置を計算することができる。
<投影面の設定>
視点位置の移動を考えた場合、視点とディスプレイ面の位置関係に対応した適切な投影面の設定が必要となる。その投影面を適切に設定する最も基本的な方法として、投影面(projection surface)をディスプレイ面(display surface)と一致させるという方法がある。この方法では、表示面の実世界内での絶対位置が不変の場合、投影面の仮想世界内での絶対位置も不変となり、投影面の絶対位置の補正を考慮する必要がなく、視点との相対位置のみを考慮すればよいことになる。
また、仮想物体が存在すると想定される位置が、実空間内でディスプレイ面に対して視点の反対側にある場合、つまり、ディスプレイ面を窓として、その窓から仮想世界を覗いているような場合は、先に述べたように単純にディスプレイ面と一致するように投影面を設定すればよい。
しかし、一般に、仮想世界を描画するシステムにおいては、視点にとって投影面の手前の仮想世界は描画されないため、利用者にとってディスプレイ面の手前側に仮想物体が存在するような場合は、ディスプレイ面と一致するように投影面を設定することは適切ではない。
そこで、実施形態のシステムでは、図5(a)に示すように、ディスプレイ面116の4頂点それぞれと視点を結ぶ4直線と、ディスプレイ面116に平行な仮想物体520を奥にとらえる平面との交点を4頂点とする長方形を投影面510とし、投影された画像をディスプレイ面116に拡大表示することで、適切な画像の提示を実現している。なお、このような方法を用いた場合、投影面510の絶対位置自体が変化するため、視点位置の変化に対応してそのつど投影面510の絶対位置を導出する必要がある。
図5(b)は、図5(a)のように投影面、ディスプレイ面および仮想物体の関係を想定した場合の表示画面例を示す。図5(a)のような関係を想定すると、現実世界のディスプレイ面116に表示されるのは拡大された画像である。
このように、実施形態のシステムでは、ディスプレイ面と投影面との関係は、自由に設定することが可能である。これにより、現実にあるディスプレイ面に限定されることなく、投影面を設定して、仮想物体を表示することが可能となる。
<表示領域の導出と表示>
利用者の視点位置に対応した表示領域を導出し、その領域内に描画を行う。この際、ディスプレイ・マスク114上の穴118が円形の場合、利用者視点の位置に対応した表示領域も円形となり、その中心の位置は次の2つのパラメータにより決定される。
・ディスプレイ座標系での視点の位置
・マスクとディスプレイ面との距離
なお、本実施形態のシステムでは、マスク114とディスプレイ面116との距離は一定である。
ディスプレイ面116の中心を原点として、図6に示すようにディスプレイ面116の中心に原点を有する座標系を設定し、その座標系での視点位置、マスクとディスプレイ面との距離および表示領域の中心の位置を以下のように定義する。
Figure 0004616543
上記の定義に基づき、図7(a)に示すように、表示領域242の中心位置は以下の関係式から導出される。
Figure 0004616543
また、円形である表示領域242の大きさを決定する半径は、図7(b)に示すように、以下の3つのパラメータから導出される。
・視点のディスプレイ面からの距離
・マスクとディスプレイ面との距離
・マスク上の穴の半径
ここで、マスク114上の穴118の半径、表示領域242の半径をそれぞれ次のように定義する。
Figure 0004616543
この場合、表示領域半径rdraw は以下の式であらわされる。
Figure 0004616543
以上のように表示領域の処理を行うことにより、ユーザの位置に応じて動的に導出された表示領域242に対して、ユーザごとの画像の表示を行うことができる。
<表示領域の重なり検出>
利用者が複数人であるので、上で述べた処理により導出した表示領域同士の重なりを検出することが必要となる。この際、表示領域が円形の場合、中心間距離と半径の和の関係から領域の重なりを検出することができる。実施形態のシステムでは、重なりを検出した場合、例えば、表示領域の境界線を描画することで、利用者に表示額域の重なりを知らせている。
実施形態のシステムでは、例えば、ディスプレイは幅1360mm、高さ1020mmの長方形であり、ディスプレイ面の床面からの高さは1000mmである。ディスプレイ・マスクとディスプレイ面との距離は150mmであり、マスクホールの半径は200mmである。
<他の実施形態>
上述の実施形態のシステムでは、ディスプレイ面を水平に置いた例で説明しているが、ディスプレイ面を垂直、又は傾斜をもつようにおいてもよいことは当然である。ディスプレイを投影型とすると、大きい画面のディスプレイを実現することが可能である。また、大きなディスプレイを構成するために、複数のディスプレイを組み合わせて用いてもよい。
図8は、多人数で用いることができる劇場型の多人数共有型立体表示装置を示す。図8に示した劇場型の多人数共有型立体表示装置において、例えば、幅25m,高さ18m、ディスプレイ・マスクとディスプレイ面との距離は6mディスプレイ・マスクのマスクホールの半径は0.5mとすると、最大48人が同時に、それぞれの映像を見ることができる。
ディスプレイ・マスク上の穴も円形とする必要はなく、例えば正方形等でもよい。
ディスプレイ・マスクを液晶で構成すると、液晶を透過、不透過とすることにより、ディスプレイ・マスクの穴の半径,形状、場所を制御することができる。
また、ディスプレイ・マスクの穴の半径等を制御するために、例えば、絞り機構等のメカニカル機構を用いることもできる。
上述の多人数共有型立体表示装置では、シャッタ付き眼鏡を用いており、シャッタの開閉に同期して、左右の視線に対応した画像を表示して立体視を得ているが、立体視を得るための方式として、本発明はこれに限るものではない。眼鏡をかけるものとしては、例えば、偏光や色によるフィルタを用いて、左右の視線に対応する画像を分離してもよい。
また、眼鏡を用いずに、立体表示できる例として、例えば、特開2001−13457号公報に記載の表示装置がある。
これらの多人数共有型立体表示装置は、例えば、エンターテイメントに用いることができる。このエンターテイメントに応用した構成例として、図9に示す。
図9(a)では、カート421,422,423に乗って動く観客が、ディスプレイ・マスク414の穴418を介してディスプレイ416を見ている。図9(b)は、多数の観客が、中央ステージの周りを移動しながら、ディスプレイ516に表示された立体画像をディスプレイ・マスク514の穴518から見ることができる構成を示している。
ディスプレイ・ホールで、各人ごとの画像を区別してディスプレイ面に表示できることを用いると、立体視のための映像だけではなく、各人個別の情報を表示することもできる。この構成例を図10に示す。この構成は、図10に示すように、基本的には、図1に示されている多人数共有型表示装置と同様の構成である。この構成において、観察者には位置検出センサ162,164,166が取り付けられており、処理装置130により、各観察者の位置が検出されている。処理装置130は、検出した位置により、各観察者の表示領域224,226,228に、各人に対応した表示を行うことができる。
本発明の多人数共有型表示装置では、多人数に対して視点移動に対応した表示を適切に行うことができる。
この多人数共有型表示装置では、実世界での視点−表示面の相対位置の変化に対応して、仮想世界での視点−投影面の相対位置を適切に補正している。さらに、本発明では、例えば、単一の固定ディスプレイで、複数の移動する利用者に対して、フリッカーがなくしかも空間的な歪がない立体視画像を提示できる。また、利用者が適切な画像を得ることができるような視点の移動領域についても詳しく説明した。
本発明は、スタンド・アローンのコンピュータ・システムばかりではなく、複数のシステムから構成される例えばクライアント・サーバ・システム等に適用してもよい。
本発明に関するプログラムを格納した記憶媒体から、プログラムをシステムで読み出して実行することにより、本発明の構成を実現することができる。この記録媒体には、フロッピー(登録商標)・ディスク、CD−ROM、磁気テープ、ROMカセット等がある。
本発明の表示装置では、個々の観察者位置に応じて画面上に描画された映像を、画面上の適当な距離に適当な大きさで開かれた穴を介して観察している。このため、複数人個々の視点位置に応じた映像を観察することができる。
このような多人数共有型表示装置に関する技術は、例えば、立体映像を表示する装置として、幅広く産業応用が可能である。

Claims (5)

  1. ディスプレイ装置を複数のユーザで共有する多人数共有型表示装置において、
    複数ユーザのための複数の映像を画面に表示するディスプレイ装置と、
    一定距離離れて前記ディスプレイ装置を覆うように設置され、十分大きな穴を有するディスプレイ・マスクと、
    前記表示装置に対するユーザの実空間の位置を検出する位置センサと、
    前記1台のディスプレイ装置、前記位置センサとに可動的に結合され、前記位置センサによるユーザの位置に応じて、各ユーザに対応した画像を前記ディスプレイ装置上の、各ユーザが見える領域に表示する処理装置とを備え
    前記穴は、各ユーザが、そのユーザに対応する画像を表示している領域を見ることができる大きさであることを特徴とする多人数共有型表示装置。
  2. 請求項1記載の多人数共有型表示装置において、ディスプレイ装置上に表示する映像に、立体視のための映像を含むことを特徴とする多人数共有型表示装置。
  3. 請求項2記載の多人数共有型表示装置において、
    各ユーザは、表示された前記立体視用映像を右目用および左目用に分離するための複数組の眼鏡をかけており、
    前記ディスプレイ装置に表示する複数の立体視映像は、前記複数の眼鏡により、右目用および左目用に分離可能な画像である
    ことを特徴とする多人数共有型表示装置。
  4. 請求項3記載の多人数共有型表示装置において、
    前記眼鏡は、右目および左目のシャッタが開閉する眼鏡であり、
    前記処理装置は、前記眼鏡にも可動的結合されていることを特徴とする多人数共有型表示装置。
  5. 請求項3又は4記載の多人数共有型表示装置において、
    前記眼鏡と位置センサとが一体として作成されていることを特徴とする多人数共有型表示装置。
JP2002508131A 2000-06-30 2001-06-29 多人数共有型表示装置 Expired - Fee Related JP4616543B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000199240 2000-06-30
PCT/JP2001/005656 WO2002003124A1 (fr) 2000-06-30 2001-06-29 Dispositif d'affichage du type a partage multiple

Publications (1)

Publication Number Publication Date
JP4616543B2 true JP4616543B2 (ja) 2011-01-19

Family

ID=18697290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002508131A Expired - Fee Related JP4616543B2 (ja) 2000-06-30 2001-06-29 多人数共有型表示装置

Country Status (4)

Country Link
US (1) US6965381B2 (ja)
EP (1) EP1296173B1 (ja)
JP (1) JP4616543B2 (ja)
WO (1) WO2002003124A1 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7070921B2 (en) 2000-04-28 2006-07-04 Molecular Devices Corporation Molecular modification assays
JP2004364197A (ja) * 2003-06-06 2004-12-24 Asahi Kasei Electronics Co Ltd センサ装置
US7538746B2 (en) * 2004-07-23 2009-05-26 Lockheed Martin Corporation Direct ocular virtual 3D workspace
JP4664108B2 (ja) * 2005-03-31 2011-04-06 富士通株式会社 表示装置、表示方法、表示プログラム及び表示システム
US8466954B2 (en) * 2006-04-03 2013-06-18 Sony Computer Entertainment Inc. Screen sharing method and apparatus
WO2008152183A1 (en) * 2007-06-15 2008-12-18 Fogscreen Inc. Display screen based on particles carried in a fluid stream
GB0920754D0 (en) * 2009-11-27 2010-01-13 Compurants Ltd Inamo big book 1
US20110141246A1 (en) * 2009-12-15 2011-06-16 Justin Michael Schwartz System and Method for Producing Stereoscopic Images
KR101313797B1 (ko) 2009-12-18 2013-10-01 한국전자통신연구원 머리 위치 추적을 이용한 입체 영상 표시 장치 및 이의 동작 방법
DE102010009737A1 (de) * 2010-03-01 2011-09-01 Institut für Rundfunktechnik GmbH Verfahren und Anordnung zur Wiedergabe von 3D-Bildinhalten
US9030536B2 (en) 2010-06-04 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for presenting media content
US8640182B2 (en) 2010-06-30 2014-01-28 At&T Intellectual Property I, L.P. Method for detecting a viewing apparatus
US9787974B2 (en) 2010-06-30 2017-10-10 At&T Intellectual Property I, L.P. Method and apparatus for delivering media content
US8593574B2 (en) 2010-06-30 2013-11-26 At&T Intellectual Property I, L.P. Apparatus and method for providing dimensional media content based on detected display capability
US8918831B2 (en) 2010-07-06 2014-12-23 At&T Intellectual Property I, Lp Method and apparatus for managing a presentation of media content
US9049426B2 (en) 2010-07-07 2015-06-02 At&T Intellectual Property I, Lp Apparatus and method for distributing three dimensional media content
US9032470B2 (en) 2010-07-20 2015-05-12 At&T Intellectual Property I, Lp Apparatus for adapting a presentation of media content according to a position of a viewing apparatus
US9232274B2 (en) 2010-07-20 2016-01-05 At&T Intellectual Property I, L.P. Apparatus for adapting a presentation of media content to a requesting device
US9560406B2 (en) 2010-07-20 2017-01-31 At&T Intellectual Property I, L.P. Method and apparatus for adapting a presentation of media content
US8994716B2 (en) 2010-08-02 2015-03-31 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US8438502B2 (en) 2010-08-25 2013-05-07 At&T Intellectual Property I, L.P. Apparatus for controlling three-dimensional images
US8947511B2 (en) 2010-10-01 2015-02-03 At&T Intellectual Property I, L.P. Apparatus and method for presenting three-dimensional media content
US8619124B2 (en) * 2010-10-14 2013-12-31 Industrial Technology Research Institute Video data processing systems and methods
US8947497B2 (en) 2011-06-24 2015-02-03 At&T Intellectual Property I, Lp Apparatus and method for managing telepresence sessions
US9445046B2 (en) 2011-06-24 2016-09-13 At&T Intellectual Property I, L.P. Apparatus and method for presenting media content with telepresence
US9602766B2 (en) 2011-06-24 2017-03-21 At&T Intellectual Property I, L.P. Apparatus and method for presenting three dimensional objects with telepresence
US9030522B2 (en) 2011-06-24 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US8587635B2 (en) 2011-07-15 2013-11-19 At&T Intellectual Property I, L.P. Apparatus and method for providing media services with telepresence
KR20130075253A (ko) * 2011-12-27 2013-07-05 한국전자통신연구원 픽셀 매핑을 이용한 입체영상 디스플레이 방법 및 그 장치
KR102153743B1 (ko) 2013-11-01 2020-09-10 삼성디스플레이 주식회사 표시장치
US9712810B2 (en) * 2015-06-03 2017-07-18 Disney Enterprises, Inc. Tracked automultiscopic 3D tabletop display
DE102017208936A1 (de) * 2017-05-29 2018-11-29 Audi Ag Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
US10922892B1 (en) 2019-04-30 2021-02-16 Splunk Inc. Manipulation of virtual object position within a plane of an extended reality environment
CN117939106B (zh) * 2024-03-19 2024-05-24 成都工业学院 一种用于立体显示的视点规划组件

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5521724A (en) * 1993-11-15 1996-05-28 Shires; Mark R. Real-time automultiscopic 3D video display using holographic optical elements (HOEs)
JPH10260377A (ja) * 1997-03-19 1998-09-29 Atr Chinou Eizo Tsushin Kenkyusho:Kk 立体映像表示装置
US5855425A (en) * 1996-07-19 1999-01-05 Sanyo Electric Co., Ltd. Stereoscopic display
EP0899969A2 (en) * 1997-08-29 1999-03-03 Mixed Reality Systems Laboratory Inc. 3D image reconstructing apparatus and 3D image capturing apparatus

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3516774B2 (ja) 1995-06-14 2004-04-05 三菱電機株式会社 立体映像表示装置
US5993003A (en) * 1997-03-27 1999-11-30 Litton Systems, Inc. Autostereo projection system
DE69825572T2 (de) * 1997-03-27 2005-08-04 Litton Systems, Inc., Woodland Hills Autostereoskopisches projektionssystem
JP3403048B2 (ja) 1997-12-10 2003-05-06 キヤノン株式会社 3次元像再生装置及び3次元被写体情報入力装置
DE19746764B4 (de) * 1997-10-23 2006-09-14 Siemens Ag Anzeigeeinheit
US6710920B1 (en) * 1998-03-27 2004-03-23 Sanyo Electric Co., Ltd Stereoscopic display
US5926318A (en) * 1998-04-06 1999-07-20 Optimize Incorporated Biocular viewing system with intermediate image planes for an electronic display device
AU1792101A (en) * 1999-11-22 2001-06-04 Sl3D, Inc. Stereoscopic telescope with camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5521724A (en) * 1993-11-15 1996-05-28 Shires; Mark R. Real-time automultiscopic 3D video display using holographic optical elements (HOEs)
US5855425A (en) * 1996-07-19 1999-01-05 Sanyo Electric Co., Ltd. Stereoscopic display
JPH10260377A (ja) * 1997-03-19 1998-09-29 Atr Chinou Eizo Tsushin Kenkyusho:Kk 立体映像表示装置
EP0899969A2 (en) * 1997-08-29 1999-03-03 Mixed Reality Systems Laboratory Inc. 3D image reconstructing apparatus and 3D image capturing apparatus

Also Published As

Publication number Publication date
EP1296173A1 (en) 2003-03-26
US20030043146A1 (en) 2003-03-06
WO2002003124A1 (fr) 2002-01-10
EP1296173A4 (en) 2008-04-09
US6965381B2 (en) 2005-11-15
EP1296173B1 (en) 2012-06-13

Similar Documents

Publication Publication Date Title
JP4616543B2 (ja) 多人数共有型表示装置
Kulik et al. C1x6: a stereoscopic six-user display for co-located collaboration in shared virtual environments
Banks et al. Stereoscopy and the human visual system
US7796134B2 (en) Multi-plane horizontal perspective display
US20060250392A1 (en) Three dimensional horizontal perspective workstation
CN102293001A (zh) 图像处理装置、程序、图像处理方法、记录方法及记录介质
JP2007531951A (ja) 水平遠近法ディスプレイ
KR20130097014A (ko) 확장형 3차원 입체영상 디스플레이 시스템
CN106489171A (zh) 立体图像显示器
US20120113104A1 (en) Table type interactive 3d system
US20100253679A1 (en) System for pseudo 3d-information display on a two-dimensional display
US6239830B1 (en) Displayer and method for displaying
Peterson Virtual Reality, Augmented Reality, and Mixed Reality Definitions
JP4052357B2 (ja) 仮想環境体験表示装置
JP2010181912A (ja) 空間映像投映装置及びその方法
JPH09238369A (ja) 3次元像表示装置
JP2000310826A (ja) 仮想環境体験表示装置
CN204496117U (zh) 3d眼镜
US6061084A (en) Displayer and a method for displaying
JP2007323093A (ja) 仮想環境体験表示装置
JP2013062731A (ja) プログラム、情報記憶媒体及び画像生成システム
Lacoche et al. Dealing with frame cancellation for stereoscopic displays in 3d user interfaces
JP3088326B2 (ja) 立体映像表示装置
Pan et al. 3D displays: their evolution, inherent challenges and future perspectives
Tsuboi et al. Design conditions for attractive reality in mobile‐type 3‐D display

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20031031

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101019

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101022

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131029

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees