JP2000020757A - 立体画像処理装置、ユーザ・インタフェース装置、立体表示用バッファ制御方法及びその制御装置、立体画像表示装置、そしてプログラム記憶媒体 - Google Patents

立体画像処理装置、ユーザ・インタフェース装置、立体表示用バッファ制御方法及びその制御装置、立体画像表示装置、そしてプログラム記憶媒体

Info

Publication number
JP2000020757A
JP2000020757A JP10185135A JP18513598A JP2000020757A JP 2000020757 A JP2000020757 A JP 2000020757A JP 10185135 A JP10185135 A JP 10185135A JP 18513598 A JP18513598 A JP 18513598A JP 2000020757 A JP2000020757 A JP 2000020757A
Authority
JP
Japan
Prior art keywords
stereoscopic
image
buffer
frame buffer
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10185135A
Other languages
English (en)
Other versions
JP3420504B2 (ja
Inventor
Shinji Uchiyama
晋二 内山
Hiroyuki Yamamoto
裕之 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MR SYSTEM KENKYUSHO KK
MR System Kenkyusho KK
Original Assignee
MR SYSTEM KENKYUSHO KK
MR System Kenkyusho KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MR SYSTEM KENKYUSHO KK, MR System Kenkyusho KK filed Critical MR SYSTEM KENKYUSHO KK
Priority to JP18513598A priority Critical patent/JP3420504B2/ja
Priority to EP99301826A priority patent/EP0969418A3/en
Priority to US09/266,858 priority patent/US6760020B1/en
Publication of JP2000020757A publication Critical patent/JP2000020757A/ja
Application granted granted Critical
Publication of JP3420504B2 publication Critical patent/JP3420504B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/307Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • H04N13/289Switching between monoscopic and stereoscopic modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

(57)【要約】 【課題】 立体視パラメータが定義されていないVRM
Lデータに対して立体視パラメータを自動的に付与する
ことのできる立体画像処理装置を提案するものであ
る。。 【解決手段】 VRMLデータを入力して記憶し、入力
されたVRMLデータに基づいて立体視に必要な立体視
パラメータ(基線長、輻輳角の初期値)を決定する立体
画像処理装置。基線長の初期値はVRMLデータの空間
の範囲の最大の大きさに、輻輳角の初期値は0に設定さ
れる。これらの初期値はユーザ・インタフェース103
により任意に変更される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、例えばVRML(Virt
ual Reality Modeling Language)等の三次元の仮想空
間を扱う言語により記述された空間データを立体視可能
な画像データに変換する画像処理装置に関する。本発明
は、更に、立体視パラメータを変更するためのユーザ・
インタフェース装置、さらには、立体視を得るための立
体表示用バッファ制御方法、並びに制御装置、さらに
は、これらのプログラムを記憶するプログラム記憶媒体
に関する。
【0002】
【従来の技術】近年の計算機の能力向上と共に、3次元
コンビュータグラフィクス(CG)が急速に一般化しつつ
ある。それと相まって、インターネット上のWWWの急速
な普及と共に、3次元空間をWWW上で取り扱う言語として
VRML(Virtual Reality Modeling Language)が標準化
され、広く使われてきている。
【0003】現時点で公表されている最新版のVRML2.0
は、エレクトリック・コマース用の仮想モール構築、ま
た、イントラネットでのCAD等の3次元データの管理等で
用いられている。一方、本発明の出願人は、観察者が直
接奥行きを知覚できる立体表示装置(以下、「立体表示
装置」と略す)として、リアクロスレンチ方式の3Dデイ
スプレイを開発しているが、出願人以外にも多くの立体
表示装置が提案されている。
【0004】
【発明が解決しようとする課題】このVRML2.0で記述さ
れた3次元空間を表示するためには、VRMLビューワ装置
が必要となる。一般に普及しているVRMLビューワ装置
は、記述している空間は3次元であるものの、最終的な
表示は通常のモニタを用いた2次元表示(以下、「二次
元表示装置」と略す)に留まっている。
【0005】この理由は、従来のVRMLビューワ装置が、
立体視用画像を効率よく生成することができず、そのた
めに、リアルタイムの立体画像の再現に向かないこと、
立体視を実現するための一部パラメータがVRML2.0でサ
ポートされていないために、事実上、立体視を実現する
ことができなかったからである。また、立体視をディス
プレイに実現するためには、上記本出願人の提案による
リアクロスレンチ方式の3Dデイスプレイでは、1つのフ
レームバッファに左目用画像と右目用画像とを1ストラ
イプずつ交互に書き込む必要があった。
【0006】従来は、第18図の制御手順に示すよう
に、ステップS50で右目から3次元空間を眺めたとき
の画像を生成し、右目の視点位置と視点方向とを基にし
て、 3次元空間データの描画処理を行う。これにより、
フレームバッファAに描画結果の右目用画像が蓄えられ
る。ステップS52では、左目から3次元空間を眺めた
ときの画像を生成し、左目の視点位置と視点方向を基に
して、3次元空間データの描画処理を行う。フレームバ
ッファBに描画結果の左目用画像が蓄えられる。
【0007】ステップS54では、フレームバッファC
を用意し、フレームバッファAの必要部分のデータを読
み出してフレームバッファCに書き込む。同様にフレー
ムバッファBの必要部分を読み出して、フレームバッフ
ァCに書き込む、ステップS56では、フレームバッフ
ァBの必要部分を読み出して、フレームバッファAに書
き込む。
【0008】第19図の制御手順は、他の従来例に係る
バッファの書込制御手順順を示す。このように、第18
図の手法も第19図の手法も、2つ以上のフレームバッ
ファを必要とし、コスト的に有利でない。また、一旦書
き込んだフレームバッファから、データを読み出し、ま
た書き込みといったデータ転送は、一般に処理時間のか
かる処理であり、処理速度を低下させる要因である。
【0009】本発明は従来技術のこのような欠点に鑑み
てなされたもので、その目的は、立体視パラメータが定
義されていない三次元空間データに対してパラメータを
付与することのできる立体画像処理装置、ユーザ・イン
タフェース装置、立体画像表示装置を提案するものであ
る。本発明の他の目的は、自由に立体視パラメータを変
更できるユーザ・インタフェース装置を提案する。
【0010】本発明の他の目的は、1つのフレームバッ
ファで済み、且つそのフレームバッファからのデータの
読み出しを必要としないバッファ制御装置及び制御方法
を提案する。
【0011】
【課題を解決するための手段】上記課題を達成するため
の、本発明の請求項1にかかる、立体画像処理装置は、
三次元空間データを入力して記憶する手段と、入力され
た三次元空間データに基づいて立体視に必要なパラメー
タを生成する手段とを具備することを特徴とする。
【0012】本発明の好適な一態様である請求項2に拠
れば、前記パラメータはユーザの基線長を定義する。ま
た、本発明の好適な一態様である請求項3に拠れば、前
記パラメータは輻輳角を定義する。基線長や輻輳角は立
体を実現するためには不可欠なパラメータである。ユー
ザは入力された画像データがパラメータの設定を必要と
することを知らない場合が多いので、パラメータの設定
は自動化することが好ましい。そこで、本発明の好適な
一態様である請求項4に拠れば、入力された三次元空間
データのファイル拡張子に基づいて、パラメータの生成
の必要性を判断する手段を具備する。
【0013】請求項5に係る本発明の、立体画像を表示
する際のユーザ・インタフェース装置は、立体視パラメ
ータの値をユーザに設定させる手段と、設定された値に
応じて立体視パラメータの値を変更する手段とを具備す
る。このユーザ・インタフェース装置により、パラメー
タの変更を自由に行ってユーザのアプリケーションの目
的に合致させることができる。
【0014】ユーザ・インタフェースは表示画面上にお
いて表示されることが好ましい。そこで、本発明の好適
な一態様である請求項6に拠れば、更に表示手段を有
し、前記ユーザ設定手段は前記表示手段上にGUIを表
示することを特徴とする。本発明の好適な一態様である
請求項7に拠れば、前記GUIはスライドバーである。
【0015】バッファを有効利用するための本発明の請
求項11に係るバッファ制御方法は、1つのフレームバ
ッファに書き込まれた右目用画像と左目用画像を表示し
て立体視を得る際のバッファ制御方法であって、予めマ
スク機能が定められたマスク情報を用意し、右目用画像
と左目用画像のいずれか一方をフレームバッファに書き
込み、他方の画像を前記マスク情報を参照しながら、前
記フレームバッファ上に上書きすることを特徴とする。
上書きされた際に、マスク情報のマスク機能に従って、
一方の画像の一部が残り、他方の画像の一部がフレーム
バッファにおいて上書きされる。
【0016】上記目的は、請求項12の、1つのフレー
ムバッファを有し、このフレームバッファに書き込まれ
た右目用画像と左目用画像を表示して立体視を得るため
のバッファ制御装置であって、予めマスク機能が定めら
れたマスク情報を書き込まれたマスクメモリと、右目用
画像と左目用画像のいずれか一方を前記フレームバッフ
ァに書き込み、その後に、他方の画像を前記マスクメモ
リの情報を参照しながら、前記フレームバッファ上に上
書きする制御手段とを具備することを特徴とするバッフ
ァ制御装置によっても達成される。
【0017】この場合、本発明の好適な一態様である請
求項13に拠れば、前記マスクメモリはステンシルバッ
ファである。本発明の好適な一態様である請求項14の
制御方法に拠れば、マスク機能は、表示装置のストライ
プの順序と、前記フレームバッファへの画像の書込順序
によって決定される。
【0018】本発明の好適な一態様である請求項15の
制御方法に拠れば、前記マスク情報は、ステンシルバッ
ファに書き込まれ、少なくとも、前記他方の画像が書き
込まれる前に前記ステンシルバッファに書き込まれる。
【0019】
【発明の実施の形態】以下、本発明を、VRML2.0によっ
て記述された三次元空間データをWWWブラウザによって
取り込み立体表示させる立体表示装置(以下、「VRMLビ
ューワ装置」と呼ぶ)に適用した実施形態を説明する。
この立体表示装置は、ユーザに立体感を与えるために、
ディスプレイとして、本出願人が開発したリアクロスレ
ンチ方式の3Dデイスプレイを用いている。しかしなが
ら、本発明は、VRML2.0の仮想空間データのみに、或い
は、WWWブラウザによって取り込んだ仮想空間データの
みに、或いは、リアクロスレンチ方式の3Dデイスプレイ
のみに適用可能なものではないことは後述の説明から明
らかになるであろう。
【0020】〈システム構成〉第1図は、本方式を採用
した複数のVRMLビューワ装置がWWWネットワークに
接続されている様子を説明する。本実施形態のVRML
ビューワ装置の特徴は、 i: 遠隔地のWWWサイトにあるサーバ(1-1,1-2,1
-3,1-4,1-5)から端末システム2にVRMLデータをダ
ウンロード或いは転送した際に、基線長及び輻輳角を付
与する機能を有する。 ii: 基線長及び輻輳角を付与されたVRMLデータを、基
線長及び輻輳角について、本ビューワ装置のユーザに変
更可能ならしめる。 iii: ステンシルバッファを有効に用いて高速に立体
画像を描画することができる。
【0021】第2図は、本ビューワ装置1000のハー
ドウエア構成を示す。このビューワ装置1000は、通
常のワークステーションのように、ディスプレイ10
と、ディスプレイ10に表示するデータを一時的に格納
するフレームバッファ11と、マスク情報を格納するス
テンシルバッファ12と、CPU13と、キーボード1
4と、マウス15と、記憶装置16とを有する。
【0022】ディスプレイ10は、立体視が可能となる
ように、本出願人により提案されているリアクロスレン
チ方式眼鏡無し3Dディスプレイを用いている。リアクロ
スレンチ方式の裸眼立体デイスプレイ10は、第3図に
示すようにTFTの波晶(LC)パネル20とバックライト
・パネル24との間に2枚のレンチキュラーレンズ(H
レンチキュラー21、Vレンチキュラー22)と市松状
マスクパネル23を配置した構成を特徴としている。V
レンチキュラー22は、バックライト24からの照明光
の指向性を走査線毎に変えて左眼右眼に分離する役割を
もつ。Hレンチキュラー21は、市松状マスク23の1
つの水平ラインの開口からの光を、LCパネル20の一走
査線上に集光させ、クロストークの発生を防ぐと同時
に、開口部からの光を観察者の方へ発散する光束とする
ことで垂直方向の立体視域を拡大している。
【0023】第4図は、第3図のLCパネル20の一部領
域Aを拡大表示したものである。このデイスプレイ10
では、第4図に示すように、立体視用の左右ステレオ画
像対を横ストライプ状に交互に並べて合成した画像をLC
パネル20に表示する。そのため、縦ストライプ画像を
入力とする通常のレンチキュフ方式と比較して、波晶の
縦ストライプに対応した色分離が発生しない、波晶シャ
ッター眼鏡などで標準に使われる時分割フイールド順次
方式の水平ストライプ合成画像と互換性がある等の特長
を持つ。
【0024】〈立体視のための描画〉VRMLなどの、3次
元幾何データを用いて構成される仮想空間を左右の目の
位置に相当する二つの視点から見た画像を描画すること
は、第5図に示すように、2つの視点を仮想カメラに見
立てて一般のCGの技法を用いることで容易に実現でき
る。この場合、ユーザの左目と右目の視点位置(L,
R)、視点方向(ベクトルe)、基線長b、輻輳角θに
関するデータが必要となる。
【0025】視点位置(L,R)、視点方向(視線ベク
トルe)、基線長b、輻輳角θが与えられているとす
る。ユーザの利き目を基線位置とする表記法を採用し、
そのユーザの利き目が右目である場合における、視点位
置(L,R)、視点方向(ベクトルe)、基線長b、輻
輳角θの関係を図示すると、第6図のようになる。即
ち、カメラ座標系を(x,y,z)で表わし、座標軸x
を左目から右目方向に、z軸を奥行き方向に、座標軸y
を視点方向eに一致させれば、 右目の視点位置R(xR,yR,zR)=(0,0,0) 左目の視点位置L(xL,yL,zL)=(xR−b,
R,zR) となる。また、右目の視点方向ベクトルeRを(l,
m,n)で表せば、左目の視点方向ベクトルeLも同じ
く(l,m,n)となる。第6図の表記に従えば、輻輳
角を表すベクトルは、左目の視線ベクトルeLから角度
θだけ回転したベクトルとして表すことができる。
【0026】第7図は、左右の目の中心に基線の中心を
定めた場合の、基線長bと輻輳角θの表記法を説明す
る。この場合は、座標原点は左右の目の中央に、x軸は
左目から右目の方向に、y軸が垂直方向に、奥行き方向
にz軸が取られる。すると、右目は原点からb/2だけ
右に、左目は原点からb/2だけ左によった位置にあ
る。すると、輻輳角をθとすると、右視線は、視線ベク
トルeRから反時計廻りにθ/2だけ回転した方向に、
左視線は視線ベクトルeLから時計廻りにθ/2だけ回
転した方向に一致する。
【0027】視点位置(L,R)、視点方向(視線ベク
トルe)、基線長b、輻輳角θが与えられている場合
に、第5図に示したような2つの仮想カメラによる左目
用画像と右目用画像とを生成するためには、第8図に示
すように、目(右目あるいは左目)の位置に置かれた仮
想カメラの二次元撮像面(x,y)への射影Mを求め
る。仮想カメラの位置を(XC,YC,ZC)とすると、
射影Mは、視点位置(XC,YC,ZC)、視線方向e、
視野角によって決まるマトリクスで表され周知であり、
一般的には透視変換の手法が用いられる。
【0028】VRMLデータ等の三次元空間データは、形状
を記述するデータ(点群に関する三次元位置データと各
点間のパッチリンク)を含む。三次元空間でのある点P
の位置がP(X,Y,Z)で表させられている場合に
は、その点P(X,Y,Z)の、仮想カメラの撮像面へ
の射影は、一般に、次の同次座標変換、
【0029】
【数1】
【0030】で表される。Mは4×4の行列である。こ
こで、(xM,yM)は撮像面での二次元座標であり、Z
Mは、透視変換後の奥行きに相当するもので、奥行きの
前後判定に利用できる。(1)式による演算を全ての点
群に施せば、右目用或いは左目用の画像が得られ、一方
の画像(例えば右目用画像)が得られれば、他方の画像
(左目用の画像)についても、マトリクスをその他方の
目用のマトリクスに変更して、例えば、(XC,YC,Z
C)=(XR,YR,ZR)、視線方向eRとして、(1)
式と同じように演算を行う。
【0031】以上が、立体視のための右目用画像と左目
用画像の生成の手法である。この手法自体は公知であ
る。また、マトリクス演算を利用しない方法も考えられ
るが、本発明の立体画像表示装置では、描画方法自体に
は限定がない。 〈VRMLデータ〉VRMLデータのうち、空間を記述している
部分は、他の三次元空間データと同じように、 ・形状を記述するデータ(点群に関する三次元位置デー
タと各点間のパッチリンク)と、 ・表面の特性(色及びテクスチャ)を記述するデータ
と、 ・光源位置を記述するデータと、からなる。VRMLデータ
は、この他にも、初期値や、数個のセットの視点位置・
方向、動的に動いている物体の動作方法、音の生成方法
の記述(ある物体にさわると音がするなど)、手続きの
実行できるスクリプト言語の記述などが可能である。こ
れらのうち、視点位置、方向以外は、今回の発明とは直
接関係しないので、ここでは詳細な説明は省略する。
【0032】しかし、VRMLデータでは、ユーザの「視点
位置」、「視線方向」を記述することが可能であって
も、「基線長」と「輻輳角」についてのデータは与えら
れていない。ただし、ユーザは仮想空間内を自由に視点
移動できるため、ある時点での「視点位置」と「視点方
向」は、実際に仮想空間を描画する時の問題であるか
ら、任意性が高過ぎ、VRMLデータの生成時点から与えら
れている必要はない。この任意性は、VRMLデータを二次
元表示する場合でも立体表示する場合でも異なるところ
はなく、従って、ユーザの「視点位置」と「視点方向」
はVRMLデータに必須のものではない。
【0033】VRMLデータの描画において、ユーザの「基
線長」と「輻輳角」についても任意性はある。VRMLデー
タは、空間の大きさを人の大きさを基準として表現する
必要がなく、作成者の意図によって自由に作成されたも
のであるから、仮想空間の体験者の実際の「基線長」と
「輻輳角」について規定することに意味がない。例え
ば、仮想空間で分子構造モデルを描画する場合におい
て、分子の大きさと基線長とはあまりにも異なりすぎ、
それ故、「基線長」を前もって定義することは実質的に
無意味であるからである。
【0034】発明者は、ユーザの「基線長」と「輻輳
角」の任意性が、「視点位置」と「視点方向」ほど高く
はないことを見いだした。即ち、ユーザの「視点位置」
と「視点方向」は、二次元画像への表示を行う場合や、
立体視用の画像を描画する場合に必須であるが、「基線
長」と「輻輳角」は、二次元画像を一枚だけ生成する場
合には不要である。しかしながら、ユーザに立体視を提
供するためには、「基線長」と「輻輳角」が必要とな
る。例えば、マクロの世界からミクロの世界にズーミン
グする場合に、例えば、広い部屋の中から小さな穴を見
ながら、その小さな穴の中に入っていくような描画を行
う場合に、二次元画像を描画する場合には「基線長」と
「輻輳角」は問題とならず、単に移動速度だけが問題と
なる。
【0035】一方、第9図に示すように、三次元の立体
表示をしながら、小さな穴40が設けられた部屋50の
中で、その「穴」から離れたところから、その穴に近づ
いて入っていく場合を想定すると、視点位置が穴40か
らかなり離間している場合には、右目用画像と左目用画
像との間で相違は少なく、問題はない。しかし、穴40
に近づいた場合には、第10図に示すように、基線長
(人間の左右の目の間の距離は6.5cmである)がその穴
の直径(第10図の例では5cm)よりも大きいとし、ユ
ーザが穴の中を覗くことを意図しているような場合に
は、立体視描画は意味が無くなる。なぜなら、第10図
の例では、左目は穴40の中を見ることはできないから
である。二次元画像の描画にはそのような問題は発生し
ない。第10図の例のような場合には、ユーザに基線長
を短くすることを可能ならしめ、恰も穴内部に入り込ん
で(即ち、ユーザ自身がミクロ化したように)穴内部を
見渡すような立体画像を描画することに意味がある。
【0036】〈基線長と輻輳角の自動付与〉本実施形態
のビューワ装置は、VRMLデータが、基線長と輻輳角が与
えられていないことに鑑みて、外部から取り込んだVRML
データに、ユーザの手を介さずに、自動的に基線長と輻
輳角を与えるものである。第11図は、第2図のビュー
ワ装置が、WWWサイトからWWWブラウザを介してVRML
データを取得し、そのVRMLデータに、基線長と輻輳
角を付与し、任意の視点位置における左目用画像104
と右目用画像105とを生成し、生成した両画像を立体
ディスプレイ10に表示する際のデータの流れを説明す
る。
【0037】即ち、第11図に於いて、ビューワアプリ
ケーションプログラム100は、オペレーティングシス
テム(OS)102の下に稼働するWWWブラウザ101
のヘルパープログラムである。本実施形態のビューワ装
置1000は、第2図に示すように、ビューワアプリケ
ーションプログラム100の処理手順(第12図)と仮
想空間データ(三次元空間データ)と処理内容(空間操
作データと立体視パラメータ)を記憶する記憶装置16
を有する。ここで、第2図の仮想空間データ(即ち三次
元空間データ)は、第11図のVRMLデータ112で
ある。また、第2図の空間操作データとは、立体視表示
を実際に行う際に必要となる、例えば、前進(或いは後
退)距離、視野角等を表すために、所定のユーザインタ
フェースにより入力されたデータであり、第11図では
110として示される。また、第2図の立体視パラメー
タは、ビューワアプリケーションプログラム100が生
成した基線長と輻輳角等の立体視パラメータであり、第
11図では111として表される。
【0038】第11図で、ユーザがWWWブラウザ101
を起動して、WWWブラウザ101がWWWサイト200から
VRMLデータを得る。このような画像データには、所
定のファイル拡張子が付加されている。一方、ビューワ
アプリケーションプログラム100は、WWWブラウザプ
ログラム101のヘルパープログラムとして前もって登
録されている。即ち、ビューワ・アプリケーションプロ
グラム100は、WWWブラウザ101から渡された所定
のファイル拡張子を付加されたデータに対して、基線長
の初期値b0と、輻輳角の初期値θ0とを付与し、更に、
基線長b、輻輳角θ等を含む空間操作データを変更する
ユーザインタフェース環境を提供する。
【0039】以下では、第11図と第12図とを参照し
ながら説明する。第12図は、ビューワ・アプリケーシ
ョンプログラム10の制御手順である。WWWブラウザ1
01が、WWWサイト200から受信したデータに上記フ
ァイル拡張子を認識すると、WWWブラウザ101は、立
体視パラメータの付与が必要と判断して、そのVRML
データをビューワ・アプリケーションプログラム100
に渡す。ビューワ・アプリケーションプログラム100
は、ステップS2で、そのVRMLデータを受け取る。
【0040】ステップS4では、受け取ったVRMLデ
ータから立体視パラメータ(基線長bと輻輳角θ)の初
期値(b0とθ0)を決定する。この決定の手法は後述す
る。決定された初期値は立体視パラメータ記憶領域11
1に記憶される。ステップS6では、決定された基線長
と輻輳角の初期値(b0,θ0)に従って上記(1)式を
用いて、右目用画像105と左目用画像104とを生成
して、WWWブラウザ101に渡す。WWWブラウザ101或
いはオペレーティングシステム102は、これらの画像
を合成してディスプレイ10に表示する(ステップS
8)。この合成の手法はステンシルバッファ12を用い
たもので、本ビューワ装置1000の1つの特徴点でも
あり、後に詳細に説明することとする。
【0041】ユーザは表示画面を見て、自身の希望に合
わせて、基線長を変更し、或いは、視野角を変更し、或
いは輻輳角を変更し、或いは前進もしくは後退さらには
回転等のウオークスルー操作を行うかも知れない。基線
長を変更し、或いは、視野角を変更し、或いは輻輳角を
変更する操作は、本実施形態では、立体視パラメータの
変更操作と呼ぶ。一方、前進もしくは後退さらには回転
等のウオークスルー操作は空間操作或いはインタラクシ
ョン操作と呼ぶ。
【0042】ステップS10で入力されたデータが終了
操作であると判断(ステップS12)されれば、本ビュ
ーワ・アプリケーションプログラム100は終了する。
一方、ウオークスルー、仮想空間中の物体の移動などの
インタラクション操作であると判断されれば、ステップ
S22に進み、そのインタラクション操作に対応した処
理が行われる。
【0043】また、入力された操作が、立体視パラメー
タの操作であるならば、ステップS20で、操作に係る
立体視パラメータを変更する、即ち、記憶部111内の
内容を変更する。 〈基線長の初期値〉ステップS4において行われる処理
のうち、基線長の初期値b0は以下のようにして決定さ
れる。
【0044】即ち、ビューワ・アプリケーションプログ
ラム100は、基線長の初期値b0を対象となる空間の
データのみから推定する。尚、立体視パラメータの与え
られていない空間データのみから、立体視パラメータを
求めるという処理自体は従来では行われていなかったも
のである。まず、空間全体の大きさを推定し、この大き
さと適当な定数kとの積をとることによって、基線長初
期値b0とする。このような決定の意味は、「空間全体
の大きさに対して、0より大きいある一定倍の大きさが
人間の大きさであるとする」ということである(標準的
な人の基線長は65mmである)。
【0045】具体的には、VRMLデータの点群を(X
i,Yi,Zi)とする。この(Xi,Yi,Zi)の中で、
i,Yi,Ziの各々について最大値(Xmax,Ymax
max)と最小値(Xmin,Ymin,Zmin)とを求める。
これらの最大値(Xmax,Yma x,Zmax)と最小値(X
min,Ymin,Zmin)は、第13図のような1つの立体
を与える。この立体は、VRMLデータが表す対象空間
の範囲を規定する。この立体のX方向、Y方向、Z方向
の夫々の大きさSは、 で与えられ、従って、基線長初期値b0は上記SX
Y,SZの最大値、即ち、 b0=k・max(SX,SY,SZ) …(3) で与えられる。ここで、kは所定の定数である。
【0046】この方法を用いると、対象空間がどのよう
な大きさのものを表現しているかに関らず、VRMLデ
ータが表す対象空間は常にある一定の大きさのものとし
てユーザに知覚されるようになる。空間の全体の大きさ
は人間の大きさの基準となるわけではないので、上述の
ようにして得られた基線長により本来望ましい立体感が
得られるとは限らない。例えば、本来的には第14図の
ような人間に対する大きさを有する対象物(例えば、ピ
ラミッド)をユーザに表示するのに、上述の方法は、人
をある値で固定した場合、第15図の大きさの物体とし
てユーザに提示することとなり、必ずしもユーザの希望
と合致していないかも知れない。しかしながら、上述の
方法により得られた基線長は、対象空間を全体的に把握
できる視野を与える。反対に、基線長の初期値b0を人
間の目の大きさに設定することも本発明では可能である
が、好ましくない場合が多く発生する。
【0047】上記式(3)で、定数値kは任意に設定で
きるので、式(3)に基づく実施形態の手法は、基線長
の初期値b0を人間の目の大きさに設定することも許容
する。 〈輻輳角の初期値の決定〉ステップS4において行われ
る処理のうち、輻輳角の初期値θ0は以下のようにして
決定される。
【0048】輻輳角θは、本来近くのものを観察する場
合に、両眼が両方とも内側に向くことによって生じる。
空間の奥行きが限定されていて、奥行き方向の範囲が狭
い空間の場合には輻輳角を設けることができる。しか
し、無限遠まで観察できることを前提とすると、輻輳角
を0として、平行視を初期状態とすることが妥当であ
る。従って、本実施形態では、輻輳角の初期値を、 θ0=0 とする。輻輳角の初期値を0とすることによって、常
に、本来望ましい立体感が得られているとは限らない。
しかし、少なくとも立体感を把握できる立体視パラメー
タとすることが可能となる。
【0049】〈ユーザ・インタフェース〉立体視パラメ
ータの初期値は前述したように、あらゆる場合にも最適
値を与えるとは限らない。また、初期値が最適であった
としても、例えば、ウオークスルーすることによって、
そのパラメータを変更する方が好ましい場合が発生す
る。例えば、街の仮想空間の中で、あるビルに向かって
進み、さらにそのビルのあるドアのドアノブの鍵穴へと
近寄っていく(さらに鍵穴に入っていく)操作をしたす
ると、ある時点から左右画像を融像することができなく
なる(左右画像のずれ量が大きくなる)ため、立体感が
失われる。そのため、観察者の操作に応じて、動的に立
体視パラメータが変更できる必要がある。上述の例の場
合でいうと、基線長を小さく(鍵穴に入れるように人間
の大きさを小さく)する必要があるのである。
【0050】更に、立体視パラメータに限らず、仮想空
間内をユーザが移動することによるインタラクション処
理も必要となる。本ビューワ・アプリケーションプログ
ラム100は、パラメータの変更及びインタラクション
の入力のためのユーザ・インタフェースも提供する。第
16図は、ディスプレイ10の画面に表示されたユーザ
・インタフェース(GUI)を表す。
【0051】同図において、200と201は基線長b
を変更するためのユーザ・インタフェース(VIEW OFFSE
T)であり、どちらもスライドバーのコントロールであ
る。スライドバー200は基線長を大きく変更すると
き、スライドバー201は小さく変更するときに使用す
る。基線長初期値b0が第14図のような仮想空間が得
られるようにしていた場合に、スライドバー200によ
り基線長を大きくすることによって第15図のような表
示が得られる。
【0052】第16図に於いて、スライドバー202は
前進方向の移動速度(FWD SPEED)を変更するときに用い
る。スライドバー203は後退方向の移動速度(BWD SPE
ED)を変更するときに用いる。また、スライドバー20
4は輻輳角(View Cingestion)を変更するときに用い
る。更にスライドバー205は視野角(Field of View)
を変更するときに用いる。
【0053】第16図に示されたユーザ・インタフェー
スはユーザがマウス15を用いて操作する。マウスの移
動量が操作量となる。尚、ユーザ・インタフェースの具
体的なツールはスライドバーに限定されない。連続的に
変更できるツール、例えば、ジョグダイヤルであっても
よい。 〈画像の合成〉第12図のステップS6において行われ
る左右画像の合成について説明する。
【0054】立体視を得るために、ディスプレイ10に
表示される右目用画像と左目用画像とをフレームバッフ
ァに格納する必要がある。このフレームバッファには、
本実施形態に用いられている立体ディスプレイ10がリ
アクロスレンチ方式眼鏡無し3Dディスプレイであるの
で、第4図に示すように、立体視用の左右ステレオ画像
対が横ストライプ状に交互に並べて表示される。このた
めに、1つのフレームバッファに、第17図に示すよう
に、左目用画像の1ストライプと右目用画像の1ストラ
イプとを交互に格納する必要がある。
【0055】従来では、第18図,第19図に関連して
説明したように、複数枚のフレームバッファを必要とし
コスト的に不利であったことと、フレームバッファから
のデータ読出が処理効率を低下させていた。本実施形態
のバッファ制御は、一枚のフレームバッファで済み、ま
たフレームバッファからのデータ読出が不要な制御を提
案するものである。このために、本実施形態のビューワ
装置1000は、フレームバッファ11とステンシルバ
ッファ12とを具備する。
【0056】ステンシルバッファ12は、通常の画像処
理装置にはオプションとして装着されているバッファメ
モリである。本実施形態では、ステンシルバッファ12
は、第20図に示すように、深さ方向で1ビット、縦横
で、ディスプレイ10の画素数と同じビット数を有する
メモリで、交互に、 0000000000… 1111111111… のデータが前もって記憶されている本実施形態では、ス
テンシルバッファ12はマスクとして用いる。即ち、
“1”はマスクとして機能させ、“0”はマスクとして
機能させないものとする。
【0057】第21図はフレームバッファへのデータ書
込手順を示すフローチャートである。ステップS70で
は、右目から3次元空間を眺めたときの画像を生成す
る。そして、右目の視点位置と方向を基にして、3次元
空間データの描画処理を行う。これにより、フレームバ
ッファ11に描画結果の右目用画像が蓄えられる。即
ち、この時点では、フレームバッファ11の全アドレス
には右目用画像のデータが書き込まれていることにな
る。
【0058】ステップS72では、第20図のようなマ
スクパターンを用意し、ステンシルバッファ12にその
マスクパターンを書き込む。ステップS74では、左目
用画像を生成し、その画像を、ステンシルバッファ12
のマスク(値は“1”)を考慮して、フレームバッファ
11に書き込む。ステップS74の処理により、フレー
ムバッファ11においては、ステンシルバッファ12の
“0”が書き込まれていた位置の右目用画像はそのまま
保存され、ステンシルバッファ12の“1”が書き込ま
れていた位置に対応するフレームバッファ11の画素位
置には左目用画像が書き込まれることになる。この操作
により、第17図のようなストライプが得られる。
【0059】フレームバッファからのデータの読み出
し、フレームバッファへの書き込みといったデータ転送
は、一般に処理時間のかかる処理であり、処理速度を低
下させる要因であるが、第21図の提案手法は、フレー
ムバッファの読み出しを行わず、描画更新をマスクする
ことで同じフレームバッファに上書きすることのみによ
って左右画像の合成を行っており、処理速度の低下が押
さえられる。また、フレームパッファは、通常の3次元
空間からの画像の生成処理と同じ1枚しか必要としない
ので、コスト的に有利である。
【0060】〈実施形態の効果〉以上説明した立体画像
表示装置によれば、 i) 例えば、基線長、輻輳角等は、立体視に不可欠であ
るにもかかわらず、三次元空間データには通常用意され
ていないが、本実施形態のビューワ・アプリケーション
プログラムによれば、外部(特にインターネット等を介
して)からその三次元空間データを取得したときに、ユ
ーザの手間をかけずに生成付加してくれる。この立体視
パラメータの自動付加は、WWWブラウザのヘルパーアプ
リケーションプログラムとして付加したときに特に有効
である。この場合、ビューワ・アプリケーションプログ
ラムは、データのファイル拡張子により、パラメータの
付加が必要な画像データであるか否かの判断を行うこと
ができるので、付加の自動化が実現し、併せて、その判
断の確実性が増す。 ii) また、一旦設定された立体視パラメータはユーザの
目的に合わせて、自由に変更できるようなユーザインタ
フェース(GUI)が用意されているので、アプリケーショ
ンの目的に即した違和感のない立体視が実現される。
【0061】ユーザ・インタフェースは、グラフィック
ユーザ・インタフェース(GUI)であるので、操作性は高
い。 iii) 実施形態のバッファ制御によれば、立体画像の描
画のために、ステンシルバッファという低コストのバッ
ファを用いるだけで、フレームバッファを1つに減らす
ことができる。また、フレームバッファからのデータ読
出を除去できるので、効率的なバッファへの展開が可能
になった。
【0062】〈変形例〉本発明のビューワ・アプリケー
ションプログラムはブラウザのヘルパーアプリケーショ
ンとしてのみ機能するものではない。立体表示を目的と
するものであれば、スタンドアロンのプログラムとして
も機能し得る。立体視パラメータの初期値は上述の手法
以外によっても決定可能である。このパラメータの初期
値が、ユーザに違和感を与えるか否かは、アプリケーシ
ョンによる。従って、ビューワ・アプリケーションプロ
グラムにアプリケーション毎に、初期値決定のための定
数kの値を前もっていろいろ用意しておき、アプリケー
ションプログラム毎に、異なる定数値を用いるようにす
る。
【0063】本発明のユーザインタフェースは、ディス
プレイに表示することに限られない。ユーザが、パラメ
ータなどを連続的に或いは離散的に変更できるユーザ・
インタフェースであれば種類を問わない。フレームバッ
ファの内容をマスクするときに用いるマスク情報は、ス
テンシルバッファに限られない。第20図のようなデー
タが格納されているのであれば、例えば、ROMを用い
てもよい。
【0064】マスク情報の“0”と“1”のマスク機能
は逆であってもよい。立体ディスプレイ10のLCD2
0における画像フォーマットの配置順に対応させる。第
21図の制御手順で、左目用画像を先に書き込んでもよ
い。マスク情報の“0”と“1”のマスク機能を逆転さ
せるか否かは、立体ディスプレイ10のLCD20の配
置に対応させればよいこととなる。
【0065】
【発明の効果】以上説明したように、本発明によれば、
立体視パラメータが定義されていない三次元空間データ
に対してパラメータを付与することができる。また、自
由に立体視パラメータを変更できるユーザ・インタフェ
ース装置が提供できた。
【0066】また、1つのフレームバッファだけで、効
率的な立体視表示のためのバッファ制御を達成できた。
【図面の簡単な説明】
【図1】 実施形態に係るビューワ装置がWWWネットワ
ークに接続された形態を説明する図。
【図2】 実施形態に係るビューワ装置1000の構成
を示す図。
【図3】 ビューワ装置100に用いられているリアク
ロスレンチ方式眼鏡なし3Dディスプレイ10の構成を説
明する図。
【図4】 ディスプレイ10のLCD部分を拡大した
図。
【図5】 立体視を得るための左目用画像と右目用画像
の生成原理を説明する図。
【図6】 輻輳角と基線長の関係を説明する図。
【図7】 輻輳角と基線長の関係を他の記法によって説
明する図。
【図8】 任意の三次元位置を仮想カメラの撮像面に投
影する原理を説明する図。
【図9】 基線長を適切に設定することの必要性を説明
する図。
【図10】 基線長を適切に設定することの必要性を説
明する図。
【図11】 ビューワ装置1000における機能構成を
説明するブロック図。
【図12】 ビューワ・アプリケーションプログラムの
制御手順を示すフローチャート。
【図13】 基線長の初期値を決定する原理を説明する
図。
【図14】 基線長の値が小さく設定されたときの仮想
空間の表示例を示す図。
【図15】 基線長の値が大きく設定されたときの仮想
空間の表示例を示す図。
【図16】 実施形態の表示装置に表示されるグラフィ
ックユーザ・インタフェースを説明する図。
【図17】 実施形態のビューワ装置のフレームバッフ
ァにおいて格納されるデータ順序を説明する図。
【図18】 従来のフレームバッファの1手法に係る制
御手順を説明するフローチャート。
【図19】 従来のフレームバッファの他の手法に係る
制御手順を説明するフローチャート。
【図20】 ステンシルバッファ12に記憶されるマス
ク情報の例を説明する図。
【図21】 実施形態に係るフレームバッファ制御の制
御手順を説明するフローチャート。
【図22】 実施形態に係るフレームバッファ制御の制
御手順を説明する図。
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 BA09 BA10 CA07 DA10 EA07 EA12 EA19 EA27 FA06 5C025 BA27 CA02

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 三次元空間データを入力して記憶する手
    段と、 入力された三次元空間データに基づいて立体視に必要な
    パラメータを生成する手段とを具備することを特徴とす
    る立体画像処理装置。
  2. 【請求項2】 前記パラメータはユーザの基線長を定義
    することを特徴とする請求項1に記載の立体画像処理装
    置。
  3. 【請求項3】 前記パラメータは輻輳角を定義すること
    を特徴とする請求項1または2に記載の立体画像処理装
    置。
  4. 【請求項4】 更に、入力された三次元空間データのフ
    ァイル拡張子に基づいて、パラメータの生成の必要性を
    判断する手段を具備することを特徴とする請求項1に記
    載の立体画像処理装置。
  5. 【請求項5】 立体画像を表示する際のユーザ・インタ
    フェース装置であって、 立体視パラメータの値をユーザに設定させる手段と、 設定された値に応じて立体視パラメータの値を変更する
    手段とを具備するユーザ・インタフェース装置。
  6. 【請求項6】 更に表示手段を有し、前記ユーザ設定手
    段は前記表示手段上にGUIを表示することを特徴とす
    る請求項1に記載のユーザ・インタフェース装置。
  7. 【請求項7】 前記GUIはスライドバーであることを
    特徴とする請求項1に記載のユーザ・インタフェース装
    置。
  8. 【請求項8】 前記立体視パラメータはユーザの基線長
    を定義することを特徴とする請求項5乃至7のいずれか
    に記載のユーザ・インタフェース装置。
  9. 【請求項9】 前記立体視パラメータは輻輳角を定義す
    ることを特徴とする請求項5乃至8のいずれかに記載の
    ユーザ・インタフェース装置。
  10. 【請求項10】 請求項5乃至9のいずれかに記載のユ
    ーザ・インタフェース装置を組み込んだ立体画像表示装
    置。
  11. 【請求項11】 1つのフレームバッファに書き込まれ
    た右目用画像と左目用画像を表示して立体視を得る際の
    バッファ制御方法であって、 予めマスク機能が定められたマスク情報を用意し、 右目用画像と左目用画像のいずれか一方をフレームバッ
    ファに書き込み、 他方の画像を前記マスク情報を参照しながら、前記フレ
    ームバッファ上に上書きすることを特徴とする立体表示
    用バッファ制御方法。
  12. 【請求項12】 1つのフレームバッファを有し、この
    フレームバッファに書き込まれた右目用画像と左目用画
    像を表示して立体視を得るためのバッファ制御装置であ
    って、 予めマスク機能が定められたマスク情報を書き込まれた
    マスクメモリと、 右目用画像と左目用画像のいずれか一方を前記フレーム
    バッファに書き込み、その後に、他方の画像を前記マス
    クメモリの情報を参照しながら、前記フレームバッファ
    上に上書きする制御手段とを具備することを特徴とする
    立体表示用バッファ制御装置。
  13. 【請求項13】 前記マスクメモリはステンシルバッフ
    ァであることを特徴とする請求項12に記載の立体表示
    用バッファ制御装置。
  14. 【請求項14】 マスク機能は、表示装置のストライプ
    の順序と、前記フレームバッファへの画像の書込順序に
    よって決定されることを特徴とする請求項11に記載の
    立体表示用バッファ制御方法。
  15. 【請求項15】 前記マスク情報は、ステンシルバッフ
    ァに書き込まれ、少なくとも、前記他方の画像が書き込
    まれる前に前記ステンシルバッファに書き込まれること
    を特徴とする請求項11または14に記載の立体表示用
    バッファ制御方法。
  16. 【請求項16】 三次元空間データを入力して記憶する
    工程プログラムと、 入力された三次元空間データに基づいて立体視に必要な
    パラメータを生成する工程プログラムとを記憶するコン
    ピュータプログラムのプログラム記憶媒体。
  17. 【請求項17】 コンピュータプログラムの記憶媒体で
    あって、 三次元空間データを入力して記憶する工程プログラム
    と、 入力された三次元空間データのファイル拡張子に基づい
    て、パラメータの生成の必要性を判断する工程プログラ
    ムと、 必要と判断された場合に、入力された三次元空間データ
    に基づいて立体視に必要なパラメータを生成する工程プ
    ログラムとを記憶するプログラム記憶媒体。
  18. 【請求項18】 1つのフレームバッファに書き込まれ
    た右目用画像と左目用画像を表示して立体視を得るバッ
    ファ制御プログラムを記憶する記憶媒体であって、 予めマスク機能が定められたマスク情報を用意する工程
    プログラムと、 右目用画像と左目用画像のいずれか一方をフレームバッ
    ファに書き込む工程プログラムと、 他方の画像を前記マスク情報を参照しながら、前記フレ
    ームバッファ上に上書きする工程プログラムとを記憶す
    るプログラム記憶媒体。
JP18513598A 1998-06-30 1998-06-30 情報処理方法 Expired - Fee Related JP3420504B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP18513598A JP3420504B2 (ja) 1998-06-30 1998-06-30 情報処理方法
EP99301826A EP0969418A3 (en) 1998-06-30 1999-03-11 Image processing apparatus for displaying three-dimensional image
US09/266,858 US6760020B1 (en) 1998-06-30 1999-03-12 Image processing apparatus for displaying three-dimensional image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18513598A JP3420504B2 (ja) 1998-06-30 1998-06-30 情報処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2002222026A Division JP2003067784A (ja) 2002-07-30 2002-07-30 情報処理装置

Publications (2)

Publication Number Publication Date
JP2000020757A true JP2000020757A (ja) 2000-01-21
JP3420504B2 JP3420504B2 (ja) 2003-06-23

Family

ID=16165494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18513598A Expired - Fee Related JP3420504B2 (ja) 1998-06-30 1998-06-30 情報処理方法

Country Status (3)

Country Link
US (1) US6760020B1 (ja)
EP (1) EP0969418A3 (ja)
JP (1) JP3420504B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010104493A (ko) * 2000-05-02 2001-11-26 성필문 데이터통신망을 이용한 입체영상제공방법 및 그 처리장치
US6867750B2 (en) * 2000-09-12 2005-03-15 Canon Kabushiki Kaisha Three dimensional display control apparatus and method, and storage medium
JP2007528518A (ja) * 2003-12-19 2007-10-11 ティディヴィジョン コーポレイション エス.エー. デ シー.ヴィ. 3dビデオゲーム・システム
KR100878130B1 (ko) * 2001-03-09 2009-01-14 코닌클리케 필립스 일렉트로닉스 엔.브이. 이용자 제어를 가진 자동입체 이미지 디스플레이 장치 및 방법
JP2009544992A (ja) * 2006-07-24 2009-12-17 シーフロント ゲゼルシャフト ミット ベシュレンクテル ハフツング 自動立体システム
US7724250B2 (en) 2002-12-19 2010-05-25 Sony Corporation Apparatus, method, and program for processing information
JP4482657B1 (ja) * 2009-09-25 2010-06-16 学校法人 文教大学学園 3次元コンテンツを立体コンテンツに自動変換するステレオビューア
JP2011253554A (ja) * 2011-08-02 2011-12-15 Td Vision Corporation S.A. De C.V. 3dビデオゲーム・システム
JP2012217591A (ja) * 2011-04-07 2012-11-12 Toshiba Corp 画像処理システム、装置、方法及びプログラム
US9019261B2 (en) 2009-10-20 2015-04-28 Nintendo Co., Ltd. Storage medium storing display control program, storage medium storing library program, information processing system, and display control method
US9128293B2 (en) 2010-01-14 2015-09-08 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US9503742B2 (en) 2004-02-27 2016-11-22 Td Vision Corporation S.A. De C.V. System and method for decoding 3D stereoscopic digital video
US9693039B2 (en) 2010-05-27 2017-06-27 Nintendo Co., Ltd. Hand-held electronic device
US10990996B1 (en) * 2017-08-03 2021-04-27 Intuit, Inc. Predicting application conversion using eye tracking
US11089290B2 (en) 2009-11-04 2021-08-10 Nintendo Co., Ltd. Storage medium storing display control program, information processing system, and storage medium storing program utilized for controlling stereoscopic display

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
GB0010685D0 (en) * 2000-05-03 2000-06-28 Koninkl Philips Electronics Nv Autostereoscopic display driver
CA2328795A1 (en) 2000-12-19 2002-06-19 Advanced Numerical Methods Ltd. Applications and performance enhancements for detail-in-context viewing technology
US8416266B2 (en) 2001-05-03 2013-04-09 Noregin Assetts N.V., L.L.C. Interacting with detail-in-context presentations
CA2345803A1 (en) 2001-05-03 2002-11-03 Idelix Software Inc. User interface elements for pliable display technology implementations
US7213214B2 (en) 2001-06-12 2007-05-01 Idelix Software Inc. Graphical user interface with zoom for detail-in-context presentations
US9760235B2 (en) 2001-06-12 2017-09-12 Callahan Cellular L.L.C. Lens-defined adjustment of displays
US7084886B2 (en) 2002-07-16 2006-08-01 Idelix Software Inc. Using detail-in-context lenses for accurate digital image cropping and measurement
JP3594915B2 (ja) * 2001-08-03 2004-12-02 株式会社ナムコ プログラム、情報記憶媒体及びゲーム装置
CA2361341A1 (en) 2001-11-07 2003-05-07 Idelix Software Inc. Use of detail-in-context presentation on stereoscopically paired images
CA2370752A1 (en) 2002-02-05 2003-08-05 Idelix Software Inc. Fast rendering of pyramid lens distorted raster images
EP2262273A3 (en) * 2002-04-25 2013-12-04 Sharp Kabushiki Kaisha Image data creation device, image data reproduction device, and image data recording medium
US8120624B2 (en) 2002-07-16 2012-02-21 Noregin Assets N.V. L.L.C. Detail-in-context lenses for digital image cropping, measurement and online maps
CA2393887A1 (en) 2002-07-17 2004-01-17 Idelix Software Inc. Enhancements to user interface for detail-in-context data presentation
CA2406047A1 (en) 2002-09-30 2004-03-30 Ali Solehdin A graphical user interface for digital media and network portals using detail-in-context lenses
CA2449888A1 (en) 2003-11-17 2005-05-17 Idelix Software Inc. Navigating large images using detail-in-context fisheye rendering techniques
CA2411898A1 (en) 2002-11-15 2004-05-15 Idelix Software Inc. A method and system for controlling access to detail-in-context presentations
AU2003298681A1 (en) * 2002-11-21 2004-06-18 Vision Iii Imaging, Inc. Critical alignment of parallax images for autostereoscopic display
US7486302B2 (en) 2004-04-14 2009-02-03 Noregin Assets N.V., L.L.C. Fisheye lens graphical user interfaces
US8106927B2 (en) 2004-05-28 2012-01-31 Noregin Assets N.V., L.L.C. Graphical user interfaces and occlusion prevention for fisheye lenses with line segment foci
US9317945B2 (en) 2004-06-23 2016-04-19 Callahan Cellular L.L.C. Detail-in-context lenses for navigation
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7714859B2 (en) 2004-09-03 2010-05-11 Shoemaker Garth B D Occlusion reduction and magnification for multidimensional data presentations
US7542034B2 (en) 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
US7995078B2 (en) 2004-09-29 2011-08-09 Noregin Assets, N.V., L.L.C. Compound lenses for multi-source data presentation
US7580036B2 (en) 2005-04-13 2009-08-25 Catherine Montagnese Detail-in-context terrain displacement algorithm with optimizations
US8031206B2 (en) 2005-10-12 2011-10-04 Noregin Assets N.V., L.L.C. Method and system for generating pyramid fisheye lens detail-in-context presentations
US7983473B2 (en) 2006-04-11 2011-07-19 Noregin Assets, N.V., L.L.C. Transparency adjustment of a presentation
JP4662071B2 (ja) * 2006-12-27 2011-03-30 富士フイルム株式会社 画像再生方法
US8655052B2 (en) * 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
US20080225042A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for allowing a user to dynamically manipulate stereoscopic parameters
US8274530B2 (en) 2007-03-12 2012-09-25 Conversion Works, Inc. Systems and methods for filling occluded information for 2-D to 3-D conversion
US9026938B2 (en) 2007-07-26 2015-05-05 Noregin Assets N.V., L.L.C. Dynamic detail-in-context user interface for application access and content access on electronic displays
DE102008025103A1 (de) * 2008-05-26 2009-12-10 Technische Universität Berlin Verfahren zum Herstellen einer autostereoskopischen Darstellung und Anordnung für eine autostereoskopische Darstellung
JP5596914B2 (ja) * 2008-09-16 2014-09-24 富士通株式会社 端末装置、表示制御方法、及び表示機能を備えたプログラム
JP5409107B2 (ja) * 2009-05-13 2014-02-05 任天堂株式会社 表示制御プログラム、情報処理装置、表示制御方法、および情報処理システム
US20100328428A1 (en) * 2009-06-26 2010-12-30 Booth Jr Lawrence A Optimized stereoscopic visualization
US9307224B2 (en) * 2009-11-23 2016-04-05 Samsung Electronics Co., Ltd. GUI providing method, and display apparatus and 3D image providing system using the same
KR101824501B1 (ko) * 2011-05-19 2018-02-01 삼성전자 주식회사 헤드 마운트 디스플레이 장치의 이미지 표시 제어 장치 및 방법
TW201326902A (zh) * 2011-12-29 2013-07-01 Ind Tech Res Inst 立體顯示系統及其影像顯示方法
KR20130120189A (ko) * 2012-04-25 2013-11-04 삼성전자주식회사 전자 장치에서 입체 영상을 디스플레이하기 위한 장치 및 방법
KR20140063272A (ko) * 2012-11-16 2014-05-27 엘지전자 주식회사 영상표시장치, 및 그 동작방법
CN105373375A (zh) * 2014-08-30 2016-03-02 上海爱护网贸易有限公司 一种基于异步加载的web3d显示方法及***
CN105373374A (zh) * 2014-08-30 2016-03-02 上海爱护网贸易有限公司 一种在web上显示3d场所的方法及***

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8513776D0 (en) * 1985-05-31 1985-07-03 Electrocraft Consultants Ltd Separation overlay
US5020878A (en) 1989-03-20 1991-06-04 Tektronix, Inc. Method and apparatus for generating a binocular viewing model automatically adapted to a selected image
US5675746A (en) * 1992-09-30 1997-10-07 Marshall; Paul S. Virtual reality generator for use with financial information
US6011581A (en) * 1992-11-16 2000-01-04 Reveo, Inc. Intelligent method and system for producing and displaying stereoscopically-multiplexed images of three-dimensional objects for use in realistic stereoscopic viewing thereof in interactive virtual reality display environments
US5590062A (en) * 1993-07-02 1996-12-31 Matsushita Electric Industrial Co., Ltd. Simulator for producing various living environments mainly for visual perception
US5581271A (en) * 1994-12-05 1996-12-03 Hughes Aircraft Company Head mounted visual display
US5805868A (en) * 1995-03-24 1998-09-08 3Dlabs Inc. Ltd. Graphics subsystem with fast clear capability
US5841409A (en) * 1995-04-18 1998-11-24 Minolta Co., Ltd. Image display apparatus
KR100201739B1 (ko) * 1995-05-18 1999-06-15 타테이시 요시오 물체 관측 방법 및 그 방법을 이용한 물체 관측장치와,이 장치를 이용한 교통흐름 계측장치 및 주차장 관측장치
US5923627A (en) * 1995-08-21 1999-07-13 Matsushita Electric Industrial Co., Ltd. Optical disc for coordinating the use of special reproduction functions and a reproduction device for the optical disk
JP3575902B2 (ja) 1996-01-24 2004-10-13 株式会社タイトー 二眼式立体映像を表示するゲーム機の両眼映像入射位置および輻輳点の調整装置
US6072443A (en) * 1996-03-29 2000-06-06 Texas Instruments Incorporated Adaptive ocular projection display
US5808588A (en) * 1996-04-25 1998-09-15 Artificial Parallax Electronics Corp. Shutter synchronization circuit for stereoscopic systems
DE69730565T2 (de) * 1996-06-26 2005-02-03 Matsushita Electric Industrial Co., Ltd., Kadoma Gerät zur Erzeugung eines stereoskopischen bewegenden Bildes mittels Computergraphik
US6198484B1 (en) * 1996-06-27 2001-03-06 Kabushiki Kaisha Toshiba Stereoscopic display system
US6154600A (en) * 1996-08-06 2000-11-28 Applied Magic, Inc. Media editor for non-linear editing system
CA2214238C (en) * 1996-08-30 2012-01-03 Arlen Anderson System and method for carrying out and managing animal feedlot operations
JP3703225B2 (ja) * 1996-09-02 2005-10-05 キヤノン株式会社 立体画像表示方法及びそれを用いた立体画像表示装置
JPH10154059A (ja) 1996-09-30 1998-06-09 Sony Corp 画像表示処理装置、画像表示処理方法、および情報提供媒体
US5796373A (en) * 1996-10-10 1998-08-18 Artificial Parallax Electronics Corp. Computerized stereoscopic image system and method of using two-dimensional image for providing a view having visual depth
US6343987B2 (en) * 1996-11-07 2002-02-05 Kabushiki Kaisha Sega Enterprises Image processing device, image processing method and recording medium
US5914719A (en) * 1996-12-03 1999-06-22 S3 Incorporated Index and storage system for data provided in the vertical blanking interval
JP4251673B2 (ja) * 1997-06-24 2009-04-08 富士通株式会社 画像呈示装置
US6057840A (en) * 1998-03-27 2000-05-02 Sony Corporation Of Japan Computer-implemented user interface having semi-transparent scroll bar tool for increased display screen usage
US6160909A (en) * 1998-04-01 2000-12-12 Canon Kabushiki Kaisha Depth control for stereoscopic images
US6215485B1 (en) * 1998-04-03 2001-04-10 Avid Technology, Inc. Storing effects descriptions from a nonlinear editor using field chart and/or pixel coordinate data for use by a compositor
US6188406B1 (en) * 1998-08-12 2001-02-13 Sony Corporation Single-item text window for scrolling lists

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010104493A (ko) * 2000-05-02 2001-11-26 성필문 데이터통신망을 이용한 입체영상제공방법 및 그 처리장치
US6867750B2 (en) * 2000-09-12 2005-03-15 Canon Kabushiki Kaisha Three dimensional display control apparatus and method, and storage medium
KR100878130B1 (ko) * 2001-03-09 2009-01-14 코닌클리케 필립스 일렉트로닉스 엔.브이. 이용자 제어를 가진 자동입체 이미지 디스플레이 장치 및 방법
US7724250B2 (en) 2002-12-19 2010-05-25 Sony Corporation Apparatus, method, and program for processing information
JP4841250B2 (ja) * 2003-12-19 2011-12-21 ティディヴィジョン コーポレイション エス.エー. デ シー.ヴィ. 3dビデオゲーム・システム
JP2007528518A (ja) * 2003-12-19 2007-10-11 ティディヴィジョン コーポレイション エス.エー. デ シー.ヴィ. 3dビデオゲーム・システム
US8206218B2 (en) 2003-12-19 2012-06-26 Tdvision Corporation S.A. De C.V. 3D videogame system
US9503742B2 (en) 2004-02-27 2016-11-22 Td Vision Corporation S.A. De C.V. System and method for decoding 3D stereoscopic digital video
JP2009544992A (ja) * 2006-07-24 2009-12-17 シーフロント ゲゼルシャフト ミット ベシュレンクテル ハフツング 自動立体システム
JP4950293B2 (ja) * 2006-07-24 2012-06-13 シーフロント ゲゼルシャフト ミット ベシュレンクテル ハフツング 自動立体システム
JP2011070432A (ja) * 2009-09-25 2011-04-07 Bunkyo Daigaku Gakuen 3次元コンテンツを立体コンテンツに自動変換するステレオビューア
JP4482657B1 (ja) * 2009-09-25 2010-06-16 学校法人 文教大学学園 3次元コンテンツを立体コンテンツに自動変換するステレオビューア
US9019261B2 (en) 2009-10-20 2015-04-28 Nintendo Co., Ltd. Storage medium storing display control program, storage medium storing library program, information processing system, and display control method
US11089290B2 (en) 2009-11-04 2021-08-10 Nintendo Co., Ltd. Storage medium storing display control program, information processing system, and storage medium storing program utilized for controlling stereoscopic display
US9128293B2 (en) 2010-01-14 2015-09-08 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US9693039B2 (en) 2010-05-27 2017-06-27 Nintendo Co., Ltd. Hand-held electronic device
JP2012217591A (ja) * 2011-04-07 2012-11-12 Toshiba Corp 画像処理システム、装置、方法及びプログラム
US9445082B2 (en) 2011-04-07 2016-09-13 Toshiba Medical Systems Corporation System, apparatus, and method for image processing
JP2011253554A (ja) * 2011-08-02 2011-12-15 Td Vision Corporation S.A. De C.V. 3dビデオゲーム・システム
US10990996B1 (en) * 2017-08-03 2021-04-27 Intuit, Inc. Predicting application conversion using eye tracking
US11222351B2 (en) * 2017-08-03 2022-01-11 Intuit, Inc. Predicting application conversion using eye tracking
US20220084058A1 (en) * 2017-08-03 2022-03-17 Intuit Inc. Predicting application conversion using eye tracking
US11514467B2 (en) * 2017-08-03 2022-11-29 Intuit, Inc. Predicting application conversion using eye tracking
US12026738B2 (en) 2017-08-03 2024-07-02 Intuit Inc. Predicting application conversion using eye tracking

Also Published As

Publication number Publication date
EP0969418A2 (en) 2000-01-05
US6760020B1 (en) 2004-07-06
EP0969418A3 (en) 2001-05-02
JP3420504B2 (ja) 2003-06-23

Similar Documents

Publication Publication Date Title
JP3420504B2 (ja) 情報処理方法
JP3619063B2 (ja) 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体
JP4228646B2 (ja) 立体視画像生成方法および立体視画像生成装置
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
JP4214976B2 (ja) 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
JP3992629B2 (ja) 画像生成システム、画像生成装置、画像生成方法
CA2550512A1 (en) 3d videogame system
CN107193372A (zh) 从多个任意位置矩形平面到可变投影中心的投影方法
JP2005353047A (ja) 立体画像処理方法および立体画像処理装置
JP2009116532A (ja) 仮想視点画像生成方法および仮想視点画像生成装置
WO2009140908A1 (zh) 光标处理方法、装置及***
JP2003067784A (ja) 情報処理装置
WO2010085549A1 (en) System and method for three-dimensional visualization of geographical data
US20190143211A1 (en) Image display device and image display system
JP4406824B2 (ja) 画像表示装置、画素データ取得方法、およびその方法を実行させるためのプログラム
JP2004234455A (ja) 情報処理方法および画像再生装置
JP2003209769A (ja) 画像生成装置および方法
JP3459401B2 (ja) Zバッファを用いた立体映像生成方法
US6559844B1 (en) Method and apparatus for generating multiple views using a graphics engine
JP2006163547A (ja) 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。
US20210118216A1 (en) Method of displaying a wide-format augmented reality object
US20040119723A1 (en) Apparatus manipulating two-dimensional image in a three-dimensional space
JP2006254240A (ja) 立体画像表示装置、その方法及びプログラム
JP3114862B2 (ja) 相互利用型景観ラベリングシステム
JPH03296176A (ja) 高速画像生成表示方法

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030324

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090418

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090418

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100418

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110418

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130418

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130418

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140418

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees