JP2002232917A - 視点位置検出装置、視点位置検出方法及び立体画像表示システム - Google Patents

視点位置検出装置、視点位置検出方法及び立体画像表示システム

Info

Publication number
JP2002232917A
JP2002232917A JP2001024366A JP2001024366A JP2002232917A JP 2002232917 A JP2002232917 A JP 2002232917A JP 2001024366 A JP2001024366 A JP 2001024366A JP 2001024366 A JP2001024366 A JP 2001024366A JP 2002232917 A JP2002232917 A JP 2002232917A
Authority
JP
Japan
Prior art keywords
viewpoint position
viewpoint
image
detecting
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001024366A
Other languages
English (en)
Other versions
JP3647376B2 (ja
Inventor
Masahiro Suzuki
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mixed Reality Systems Laboratory Inc
Original Assignee
Mixed Reality Systems Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mixed Reality Systems Laboratory Inc filed Critical Mixed Reality Systems Laboratory Inc
Priority to JP2001024366A priority Critical patent/JP3647376B2/ja
Priority to US09/812,677 priority patent/US6856341B2/en
Publication of JP2002232917A publication Critical patent/JP2002232917A/ja
Application granted granted Critical
Publication of JP3647376B2 publication Critical patent/JP3647376B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/32Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using arrays of controllable light sources; using moving apertures or moving light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/04Diagnosis, testing or measuring for television systems or their details for receivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 披測定者の視点位置検出を高速で行うことの
可能な視点位置検出装置を提供すること。 【解決手段】 被測定者の視点位置を検出し、出力する
視点位置検出装置であって、視点位置が第1の方向に関
する位置を表す第1の位置情報と、第1の方向と異なる
第2の方向に関する位置を表す第2の位置情報との組み
合わせで表現され、第1の方法により第1の位置情報を
検出する第1の位置検出手段と、第1の方法と異なる方
法により第2の位置情報を検出する第2の位置検出手段
と、第1の位置情報及び第2の位置情報とを視点位置と
して出力する出力手段とを有し、第2の位置情報の精度
が、第1の位置情報の精度よりも低いか、第2の位置情
報の検出頻度が第1の位置情報の検出頻度よりも低くす
る。

Description

【発明の詳細な説明】
【0001】
【発明が属する技術分野】本発明は被測定者の視点位置
を検出する視点位置検出装置及び視点検出方法に関し、
特に高速処理を行う視点位置検出装置及び視点位置検出
方法に関するものである。本発明はまた、立体画像を表
示する画像表示装置並びに画像表示方法に関する。
【0002】
【従来の技術】従来、裸眼による立体視が可能ないわゆ
る立体画像表示装置がある。立体画像表示装置には種々
の方式があるが、例えば特開平9−311294号公報
には、リアクロスレンチキュラ方式のものが開示されて
いる。図5はリアクロスレンチキュラ方式の立体画像表
示装置の例を示す要部斜視図である。図中、6は画像表
示用のディスプレイデバイスであり、例えば液晶ディス
プレイ(LCD)である。図において、通常液晶ディス
プレイに用いられる偏光板、カラーフィルター、電極、
ブラックマトリクス、反射防止膜などは省略してある。
【0003】10は照明光源となるバックライト(面光
源)である。ディスプレイデバイス6とバックライト1
0の間には、市松状の開口8を備えたマスクパターンを
形成したマスク基板(マスク)7を配置している。マス
クパターンはガラスまたは樹脂からなるマスク基板7上
にクロムなどの金属蒸着膜または光吸収材等をパターニ
ングして製作している。バックライト10、マスク基板
7は立体画像表示装置の光源を構成している。
【0004】マスク基板7とディスプレイデバイス6の
間には、透明樹脂、ガラス等からなる第1のレンチキュ
ラレンズ3及び第2のレンチキュラレンズ4を配置して
いる。第1のレンチキュラレンズ3は垂直方向に長い縦
シリンドリカルレンズをディスプレイの左右方向に並べ
て構成した縦シリンドリカルレンズアレイであり、第2
のレンチキュラレンズ4は水平方向に長い横シリンドリ
カルレンズをディスプレイの上下方向に並べて構成した
横シリンドリカルレンズアレイである。
【0005】ディスプレイデバイス6に表示する画像は
左右の視差画像L及びRの全体(図示せず)を夫々上下
方向に分割した多数の横ストライプ状の画像L1...n、
R1...n(nは所定の自然数)である。そして、これら
ストライプ状の画像をディスプレイデバイス6の表示画
面において、例えば上からL1R1L2R2L3R3・・・・
LnRnと交互に並べて同一画面で表示する。
【0006】バックライト10からの光はマスク基板7
上に形成されたマスクパターンの開口8を透過してディ
スプレイデバイス6を照明し、観察者の両眼に左右のス
トライプ画素L、Rが分離して観察される。
【0007】すなわち、マスク基板7はバックライト1
0により照明され、マスクパターンの開口8から光が出
射する。マスク基板7の観察者側に配置された第1のレ
ンチキュラレンズ3を構成する各シリンドリカルレンズ
は、マスク基板7がそのほぼ焦点位置となるようなレン
ズ曲率を有する。第1のレンチキュラレンズ断面におい
ては第2のレンチキュラレンズ4は光学的に何の作用も
しないので、開口8上の1点から射出する光束は第1の
レンチキュラレンズ内では略平行光束に変換される。
【0008】また、マスクパターン7の開口部8と遮光
部の一対が第1のレンチキュラレンズ3の1ピッチ(隣
接するシリンドリカルレンズの中心距離)に対応するよ
うに開口部と遮光部の幅を設定している。
【0009】また、観察者の位置から第1のレンチキュ
ラレンズ3までの光学的距離と、第1のレンチキュラレ
ンズ3からマスクパターン7までの光学的距離の関係を
元に、第1のレンチキュラレンズ3のピッチとマスクパ
ターンの一対の開口部と遮光部のピッチを定めることに
よって、画面の全幅にわたって、開口部8からの光が一
様に左眼又は右眼に集まるようにすることができる。こ
のようにしてディスプレイデバイス6上の左右のストラ
イプ画像L1..n、R1..nが水平方向に左眼、右眼の領域
に分離して観察される。
【0010】第2のレンチキュラレンズ4は、マスクパ
ターン7の開口部8上の各点から発する光束を、すべて
ディスプレイデバイス6の右目又は左目用ストライプ画
像上に集光して、これを照明、透過して上下方向にのみ
集光時のNA(開口数)に応じて発散し、観察者の所定
の眼の高さから画面の上下方向の全幅にわたって左右の
ストライプ画素を一様に分離して見える観察領域を与え
ている。
【0011】しかしながら、このような立体画像表示装
置の立体視野角は狭く、観察者の視点が立体視野角から
はずれると立体表示が認識されなくなる。そのため、観
察者(被測定者)の視点位置を検出して、視点位置の移
動に応答して立体画像表示装置を制御することにより、
立体視野角を見かけ上拡大する技術が提案されている。
例えば、特開平10−232367号公報には、マスク
パターン又はレンチキュラレンズを表示面に平行移動さ
せて、立体視野角を拡大する技術が開示されている。
【0012】図6は、特開平10−232367号公報
に開示される立体画像表示装置の図である。図6におい
て、図5と同じ構成要素には同じ参照数字を付し、説明
は省略する。図6の立体画像表示装置は図5における第
1のレンチキュラレンズに相当するレンチキュラレンズ
のみを有し、図5における第2のレンチキュラレンズ4
を有していない。
【0013】このような構成の立体画像表示装置におい
て、観察者54の(左右方向の)移動に応じた視野角制
御は以下のように行われる。まず、位置センサー51
が、予め設定された基準の位置からの観察者54の左右
方向のずれを検出し、その情報を制御ユニット52へ送
る。このずれ情報に応じて制御ユニット52がディスプ
レイ駆動回路50へ画像制御信号を出力すると、ディス
プレイ駆動回路50が第1又は第2の横ストライプ画像
をディスプレイ6に表示する。制御ユニット52はま
た、ずれ情報に基づくアクチュエータ駆動信号を発生
し、マスクパターン7を左右方向に移動させるアクチュ
エータ53を駆動することにより、マスクパターン7を
観察者54が左右のストライプ画像をもっともよく分離
できる位置に移動させる。この結果、立体視可能な範囲
が拡大する。
【0014】さらに、特開平10−78563号公報で
は、マスクパターン7を例えば液晶ディスプレイ(LC
D)で構成し、開口部、遮光部をディスプレイ表示で形
成して、開口部と遮光部のピッチを動的に変更可能とす
ることで、観察者の前後左右方向の移動に追従した視野
角制御を行う方法も開示されている。
【0015】この場合、観察者の左右方向及び前後方向
の視点位置検出を行う必要があるが、このような位置測
定方法としては、例えばステレオビジョンを用いた方法
を用いることができる。ステレオビジョンとは、ステレ
オカメラで撮影された複数の画像間でセグメントマッチ
ング(セグメント(領域)の特徴をもとに領域間の対応
関係を把握する処理)を行い、画像間における対応領域
の変移をもとに三角測量の原理で三次元位置を特定する
既知の物***置測定技術である。
【0016】
【発明が解決しようとする課題】しかしながら、観察者
の視点位置を検出し、視点位置に追従して立体視可能な
領域を移動させることによって立体視が可能な領域(立
体視観察領域)を拡大するとはいえ、立体視観察領域自
体の大きさは固定であり、さらに視点位置の検出処理に
伴う遅延があるため、観察者が素早く動くと立体視観察
領域を外れてしまう。観察者が立体視観察領域を外れる
と正しい立体画像を観察できなくなるため、立体画像表
示装置を観察する観察者の視点位置の検出を行う際の検
出処理の高速化が望まれていた。
【0017】本発明はこのような従来技術の問題点に鑑
みなされたものであり、その目的は、披測定者の視点位
置を高速に検出可能な視点位置検出装置、視点位置検出
方法、立体画像表示システム及び画像表示装置を提供す
ることにある。
【0018】
【課題を解決するための手段】すなわち、本発明の要旨
は、被測定者の視点位置を検出し、出力する視点位置検
出装置であって、視点位置が第1の方向に関する位置を
表す第1の位置情報と、第1の方向と異なる第2の方向
に関する位置を表す第2の位置情報との組み合わせで表
現され、第1の方法により第1の位置情報を検出する第
1の位置検出手段と、第1の方法と異なる方法により第
2の位置情報を検出する第2の位置検出手段と、第1の
位置情報及び第2の位置情報とを視点位置として出力す
る出力手段とを有し、第2の位置情報の精度が、第1の
位置情報の精度よりも低いか、第2の位置情報の検出頻
度が第1の位置情報の検出頻度よりも低いことを特徴と
する視点位置検出装置に存する。
【0019】また、本発明の別の要旨は、本発明の視点
位置検出装置と、左右方向もしくは上下方向よりも前後
方向に長い立体視観察領域の形状を有する立体画像表示
手段とを有する立体画像表示システムであって、立体画
像表示手段が、光源から出射する光束の方向を制御する
ことによって披観察者の右目に入射する光束と左目に入
射する光束とを生成する光束制御手段と、視点位置検出
手段が出力する披測定者の視点位置に基づいて、光束制
御手段の位置を変化させることにより、立体視観察領域
の位置を移動させる位置制御手段とを有することを特徴
とする立体画像表示システムに存する。
【0020】また、本発明の別の要旨は、被測定者の視
点位置を検出し、出力する視点位置検出方法であって、
視点位置が第1の方向に関する位置を表す第1の位置情
報と、第1の方向と異なる第2の方向に関する位置を表
す第2の位置情報との組み合わせで表現され、第1の方
法により第1の位置情報を検出する第1の位置検出ステ
ップと、第1の方法と異なる方法により第2の位置情報
を検出する第2の位置検出ステップと、第1の位置情報
及び第2の位置情報とを視点位置として出力する出力ス
テップとを有し、第2の位置情報の精度が、第1の位置
情報の精度よりも低いか、第2の位置情報の検出頻度が
第1の位置情報の検出頻度よりも低いことを特徴とする
視点位置検出方法に存する。
【0021】また、本発明の別の要旨は、コンピュータ
を、本発明の視点位置検出装置として機能させるための
プログラムを記録したコンピュータ読み取り可能な記憶
媒体に存する。
【0022】また、本発明の別の要旨は、コンピュータ
を、本発明の視点位置検出装置として機能させるための
プログラムに存する。
【0023】また、本発明の別の要旨は、立体視を可能
とする第1の画像と、第2の画像を表示する表示手段
と、観察者の左右もしくは上下方向における視点位置
と、前後方向における視点位置を検出可能な視点位置検
出手段と、視点位置検出手段によって検出された観察者
の視点位置に基づいて、表示手段による第1の画像と第
2の画像の表示状態を制御する制御手段からなり、視点
位置検出手段は、観察者の前後方向における視点位置の
検出周期を、左右もしくは上下方向における視点位置の
検出周期よりも長く設定されていることを特徴とする画
像表示装置に存する。
【0024】また、本発明の別の要旨は、立体視を可能
とする第1の画像と、第2の画像を表示する表示手段を
有する画像表示装置の制御方法であって、観察者の左右
もしくは上下方向における視点位置と、前後方向におけ
る視点位置を検出可能な視点位置検出ステップと、視点
位置検出ステップによって検出された観察者の視点位置
に基づいて、表示手段による第1の画像と第2の画像の
表示状態を制御する制御ステップを有し、視点位置検出
ステップにおける観察者の前後方向における視点位置の
検出周期が、左右もしくは上下方向における視点位置の
検出周期よりも長く設定されていることを特徴とする画
像表示装置の制御方法に存する。
【0025】
【発明の実施の形態】(第1の実施形態)以下、図面を
参照して本発明の実施形態を詳細に説明する。以下の説
明においては、本発明の実施形態に係る視点位置検出装
置を立体画像表示装置に接続した立体画像表示システム
について説明するが、本発明の視点位置検出装置は単独
でも、他のいかなる装置と接続しても利用可能である。
【0026】また、本発明において、視点位置とは観察
者の目の位置を示すある一点の座標を意味するが、本発
明の視点位置検出装置の出力する視点位置情報(後述)
は必ずしも一点の座標値でなくともよく、ある領域を示
す情報であっても良い。すなわち、用途によっては目全
体の位置がおおよそわかればよい場合もあるため、本発
明の視点位置検出装置の用途によって適宜選択すればよ
い。
【0027】具体的な視点位置検出装置の構成、動作を
説明する前に、まず本発明の原理について説明する。本
発明は、レンチキュラレンズを用いた立体画像表示装置
のような、立体観察領域の形状が前後方向に長い立体画
像表示装置において、左右方向における視点位置検出精
度に比べ、前後方向における位置検出精度、もしくは左
右方向における視点位置検出頻度に比べ、前後方向にお
ける位置検出頻度を低くすることによって視点位置検出
に係る処理時間を短縮することを特徴とする。
【0028】ここで言う立体観察領域とは、例えば、山
田「レンチキュラー板立体ディスプレイにおける立体視
領域」、3D映像、Vol.7、No.2、pp.4-7、199
3年3月(以下、文献1とする)に記載されている
(正)立体視領域のことである。図7は文献1に示され
ている立体視領域を説明する図であり、3Aは正しく立
体視が可能な領域を示し、3Bは正しい立体視が不可能
な領域(ストライプ画像が左右逆の目に観察される逆立
体視の領域)を示している。また、最適距離では観察者
の所定の眼の高さから画面の上下方向の全幅にわたって
左右のストライプ画素を一様に分離して観察することが
可能な立体観察領域となっている。
【0029】文献1によれば、立体視領域は立体画像表
示部405の表示画面横幅、眼間距離、画像数、立体視
できる最適距離によって決めることができる。ここで例
えば、眼間距離を65[mm]、立体視に用いる画像数
は一般的な2とすると、通常想定できる立体画像表示装
置の幅、観察距離では、立体観察領域の形状が、ディス
プレイ面に対して前後方向の(最大)距離が左右方向の
(最大)距離よりも長い六角柱の形になる。また、画像
数が増えれば増えるほど、前後方向の立体視観察領域距
離が長くなる。
【0030】換言すれば、レンチキュラレンズを用いた
立体画像表示装置においては、一般に観察者の左右方向
の移動に比べ、前後方向の移動に強く、観察者の位置を
検出するに当たっても左右方向に比べて前後方向での位
置検出精度もしくは検出頻度は低くても良いことを意味
する。
【0031】本実施形態における視点位置検出装置はこ
の特性を利用し、観察者の位置を検出する際、左右方向
については常に検出を行い、前後方向については左右方
向より低い頻度で検出を行うことで検出精度を低くし、
全体として検出処理の高速化を実現したことを特徴とす
る。
【0032】本実施形態において、左右方向に比べて低
い頻度で前後方向の検出を行う具体的な方法としては、
左右方向と前後方向の検出を一定比回数(ただし、左右
方向検出回数>前後方向検出回数)で行う方法が考えら
れる。例えば左右方向の検出2回に対して前後及び左右
方向の検出を1回行う。もちろん、一定回数比を適当に
設定せずに立体視観察領域の前後方向距離と左右方向距
離の比によって設定しても良いことは言うまでもない。
【0033】(立体画像表示システムの構成)図1は、
本発明の第1の実施形態に係る視点位置検出装置を用い
た立体画像表示システムの構成例を示すブロック図であ
る。図1のシステムにおいて、本実施形態における視点
位置検出装置は、撮影部401及び視点位置検出部40
2から構成される。また、立体画像表示部405は図6
を用いて説明した立体画像表示装置(マスクパターン7
をLCD等で構成した、開口部8と遮光部を動的に変更
可能な構成のもの)と同等の構成を有する。
【0034】マスクパターン制御部403は立体画像表
示部405のマスクパターン7を制御し、画像制御部4
04は立体画像表示部405に表示する前述した横スト
ライプ画像を制御する。
【0035】撮影部401は、第1の可視画像撮影部4
11、第2の可視画像撮影部412、赤外画像撮影部4
13、赤外光発光部414から構成され、観察者の可視
画像及び赤外画像を撮影する。第1の可視画像撮影部4
11、第2の可視画像撮影部412及び赤外画像撮影部
413はいずれもCCDセンサ、CMOSセンサ等の撮
像素子を用いた撮像手段(ビデオカメラ等)によって構
成可能であり、赤外画像撮影部413は光学フィルター
等を用いて赤外光のみを内部の撮像素子に入射させてい
ること以外は可視画像撮影部411、412と同等の構
成でよい。また、第1及び第2の可視画像撮影部411
及び412が、互いに異なる位置から観察者を撮影する
ことにより、各撮影部による撮影画像から上述のステレ
オビジョン法を利用した観察者の前後方向位置測定が可
能である。
【0036】また、赤外光発光部414は例えばLED等
の赤外光発光素子から構成することができ、観察者(披
測定者)と撮影部411との通常取りうる範囲の距離に
おいて、赤外画像撮影部413によって網膜反射像を得
るために必要な光量が得られるように構成する。
【0037】視点位置検出部402は、第1の可視画像
記憶部421、第2の可視画像記憶部422、赤外画像
記憶部423、第1のパターンマッチング部424、第
2のパターンマッチング部425、テンプレート作成部
426、瞳孔位置検出部427、視点位置出力判定部4
28、赤外光発光制御部429及び制御部430から構
成されている。視点位置検出部402は、例えば撮影部
401が出力する各画像信号を記憶可能な汎用のコンピ
ュータ装置から構成することができる。
【0038】この場合、第1の可視画像撮影部411、
第2の可視画像撮影部412、赤外画像記憶部413が
撮影した画像データを記憶する手段として用いられる第
1の可視画像記憶部421、第2の可視画像記憶部42
2及び赤外画像記憶部423はいずれも磁気ディスクド
ライブ、光ディスクドライブなどの外部記憶装置によっ
て実現可能である。もちろん、半導体メモリを用いても
良いし、他の記憶装置を用いても良い。
【0039】各画像記憶部421〜423における画像
取り込みのタイミングは任意に設定可能であるが、後述
するように、第2の可視画像撮影部412が撮影した画
像は第1の可視画像撮影部411が撮影した画像よりも
使用頻度が少ないため、第2の可視画像記憶部422へ
の取り込み頻度も同様に第1の可視画像記憶部421へ
の取り込み頻度より少なく設定することができる。ま
た、赤外画像記憶部423への画像取り込みは、赤外光
発光部414が発光しているときのみ行えばよい。各画
像撮影部411〜413からの画像取り込みは、制御部
430の制御に従って行われる。
【0040】第1のパターンマッチング部424は、テ
ンプレート作成部426から供給されるテンプレートを
用いて、第1の可視画像記憶部421に記憶された画像
とパターンマッチングを行い、テンプレートとの相関が
最も高い領域の位置情報、すなわち観察者の(左右方向
における)視点位置情報を視点位置出力判定部428へ
出力する。また、パターンマッチング失敗時などに、赤
外光発光制御部429に赤外光発光部414を発光させ
るよう指示する。
【0041】第2のパターンマッチング部425は、視
点位置出力判定部428から信号を受け取ると、テンプ
レート作成部426から供給されるテンプレートを用い
て、第2の可視画像記憶部422に記憶された画像とパ
ターンマッチングを行い、第1のパターンマッチング部
424と同様に、観察者の(左右方向における)視点位
置情報として、テンプレートとの相関が最も高い領域の
位置情報を視点位置出力判定部428へ出力する。
【0042】テンプレート作成部426は、瞳孔位置検
出部427から供給される観察者の瞳孔位置情報を用い
て、第1の可視画像記憶部411に記憶された画像デー
タから、第1のパターンマッチング部424及び第2の
パターンマッチング425で用いるパターンマッチング
用にテンプレートを作成する。
【0043】瞳孔位置検出部427は、赤外光発光制御
部429から通知される、赤外光発光部414の発光を
知らせる信号に応答して、赤外画像記憶部423に記憶
された赤外画像から瞳孔位置を検出し、その位置情報を
テンプレート作成部426に供給する。すなわち、人間
の網膜による赤外光の反射を利用し、赤外光を照射して
撮影した披測定者の赤外画像から、瞳孔位置を検出す
る。
【0044】視点位置出力判定部428は、第1のパタ
ーンマッチング部424においてパターンマッチングが
一定回数行われる(パターンマッチングの結果である領
域位置情報が一定回数出力される)毎に、第2のパター
ンマッチング部425に対してパターンマッチング処理
を指示する信号を出力する。
【0045】また、第2のパターンマッチング425か
ら観察者の左右方向の視点位置情報が送られてきたとき
(すなわち、第1及び第2のパターンマッチング部42
4及び425の両方から視点位置情報を受信したとき)
には、それらの左右方向の視点位置情報から上述のステ
レオビジョン法により観察者の前後方向の視点位置を求
め、左右方向及び前後方向の視点位置情報を出力する。
【0046】本実施形態においては上述の通り第2のパ
ターンマッチング部425がパターンマッチングを行う
のは第1のパターンマッチング部424が所定回数パタ
ーンマッチングを行う毎である。したがって、パターン
マッチングが所定回数行われていない場合には、第1の
パターンマッチング部424からのみ左右方向の視点位
置情報が送られてくるが、その際は第1のパターンマッ
チング部424から送られてきた左右方向の視点位置情
報と共に、直前に求めた前後方向の視点位置情報を出力
する。
【0047】赤外光発光制御部429は、制御部43
0、瞳孔位置検出部427、第1のパターンマッチング
部424等の制御に従い、赤外光発光部414の点灯制
御を行う。
【0048】視点位置検出部402の各構成要素は、制
御部430の制御によって動作する。視点位置検出部を
コンピュータ装置で実現する場合、制御部430はCP
Uであり、第1及び第2のパターンマッチング部424
及び425、テンプレート作成部426、瞳孔位置検出
部427、視点位置出力判定部428及び赤外光発光制
御部429はいずれもCPUがハードディスクドライブ
やROMに記憶されたプログラムを実行することによっ
て実現しても、ハードウェアで構成し、このハードウェ
アをCPUによって制御することによって実現してもよ
い。もちろん、ソフトウェアで構成するものとハードウ
ェアで構成するものとを組み合わせてもよい。
【0049】(視点位置検出装置の動作)以下、図1に
示した立体画像表示システムの具体的な動作について説
明するが、全体の動作を説明する前に、図2に示すフロ
ーチャートを用いて、本実施形態における視点位置検出
装置の動作を説明する。
【0050】まず、撮影部401及び視点位置検出部4
02の電源投入に伴う、初期化などの起動処理を行う
(ステップS10)。次に、制御部430は、赤外光発
光制御部429に赤外光発光を指示する。それを受けて
赤外光発光制御部429は赤外光発光部414を点灯さ
せる(ステップS11)とともに、瞳孔位置検出部42
7及び制御部430に赤外光を発光した旨を通知する。
【0051】制御部430は、赤外光発光制御部429
からの通知に応答して、第1の可視画像撮影部411に
よって撮影された第1の可視画像と、第2の可視画像撮
影部412によって撮影された第2の可視画像と、赤外
画像撮影部413によって撮影された赤外画像をそれぞ
れ第1の可視画像記憶部421、第2の可視画像記憶部
422、赤外画像記憶部423に取り込む。
【0052】この際、精度良いテンプレートの作成及び
パターンマッチングを行うために、各画像記憶部に取り
込む画像は実質的に同じタイミング(フレームもしくは
フィールド)のものとすることが好ましい。
【0053】また、赤外光の発光開始は、例えば観察者
の有無を検知するセンサーを設けて、観察者の存在が確
認されてから自動的に行ったり、観察者に開始ボタンを
押し下げさせるなど任意の方法を用いることができる。
【0054】次に、瞳孔位置検出部427は赤外画像記
憶部423に記憶した赤外画像から、瞳孔位置を検出す
る(ステップS12)。人間の網膜は赤外光を再帰反射
する特性を持っているので、赤外光発光部414が発光
した赤外光が観察者の網膜で再帰反射される。そのた
め、赤外画像には網膜反射像が他の部分に比べて非常に
明るく写り、網膜反射像位置を求めることができる。ま
た、網膜反射像の位置は瞳孔の位置と等しいので結果的
に瞳孔位置が分かる。
【0055】瞳孔位置の検出は基本的に赤外画像の2値
化処理によって行うが、網膜反射による反射像は、赤外
画像内の一部の領域になるため、反射像の位置から赤外
画像内の1点を指す画像内座標値を求める処理も併せて
行う。
【0056】ステップS13において、瞳孔位置の検出
に成功した場合はステップS14へ、観察者が瞬きをし
ていた等の理由により正常に検出できなかった場合に
は、ステップS11に戻って再度画像取得を行う。
【0057】ステップS13で正常に瞳孔位置を検出で
きた場合には、テンプレートの作成処理を開始する(ス
テップS14)。図8はテンプレートの作成の説明を行
う図である。図8(a)に示すように、テンプレートの
作成処理は、瞳孔位置検出部427が、赤外画像から検
出した右眼、左眼の瞳孔位置(画像上の座標値)を用い
て、第1の可視画像記憶部411に記憶された第1の可
視画像から、右眼瞳孔位置を基点とした右眼テンプレー
ト及び左眼瞳孔位置を基点とした左眼テンプレートを作
成する。
【0058】図8(a)に示す眼のテンプレートの大き
さは、例えば右眼左眼瞳孔位置間の距離によって次式か
ら決定する。 平均的な人間の右眼左眼瞳孔位置間の距離:測定された
右眼左眼瞳孔位置間の距離=平均的な人間の眼と眉が入
る程度の大きき:眼のテンプレートの大きさ
【0059】また図8(b)に示すように、パターンマ
ッチングを階層的に行うために、右眼瞳孔位置と左眼瞳
孔位置の中点を基点として顔全体が入る大きさの顔テン
プレートを作成してもよい。顔テンプレートの大きき
は、例えば右眼左眼瞳孔位置間の距離によって次式から
決定する。 平均的な人間の右眼左眼瞳孔位置間の距離:測定された
右眼左眼瞳孔位置間の距離=平均的な人間の顔が入る程
度の大きさ:顔テンプレートの大きさ ここで、眼と眉が入る大きさの平均値及び顔全体が入る
大きさの平均値は、例えば統計的に求めた値を用いるこ
とができる。
【0060】テンプレート作成部426が作成したテン
プレートは、第1のパターンマッチング部424及び第
2のパターンマッチング部425へ供給される。
【0061】テンプレートの作成が終わると、視点位置
出力判定部428がパターンマッチングを一定回数行っ
たかどうかの判別を行う(ステップS15)。視点位置
出力判定部428がパターンマッチングを一定回数行っ
ていないと判別した場合はステップS16へ進み、パタ
ーンマッチングを一定回数行ったと判別した場合はステ
ップS18へ進む。ただし、ステップS14でテンプレ
ートを作成した直後のステップS15では無条件にステ
ップS18へ進む。また、ステップS18に進んだ場合
は、それまで数えていたパターンマッチングの回数を0
として、再度一定回数になるまでステップS16に進ま
せる。
【0062】パターンマッチングを一定回数行っていな
いと判別された場合、第1の可視画像記憶部421に記
憶された第1の可視画像と、上述した眼のテンプレート
を用いてパターンマッチングを行う(ステップS1
6)。第1のパターンマッチング部424はパターンマ
ッチングを行うが、パターンマッチングはたとえば正規
化相関関数を用いて行うことができる。正規化相関関数
を用いたパターンマッチングについては例えば、「マト
ロックスイメージングライブラリ バージョン5.1
ユーザガイド(Matrox Imaging Library Version 5.
1 User Guide)」第154〜155ページに記載され
ている。正規化相関関数によって得られる値は0〜10
0(%)として表され、100%が完全一致を意味す
る。
【0063】本実施形態においては、例えば85%を超
える相関度が得られれば、パターンマッチングが成功し
たと見なす。テンプレート作成直後のパターンマッチン
グは、テンプレートの元になった画像とパターンマッチ
ングを行う画像データが同一であるため、基本的にほぼ
100%の相関度が得られるはずである。また、パター
ンマッチングはテンプレートマッチングと呼ばれること
もある。
【0064】テンプレートと第1の可視画像のパターン
マッチング結果が所定の相関度を満たした場合には、ス
テップS17においてパターンマッチング成功と判断さ
れ、ステップS21へ移行する。一方、相関度が所定値
に満たなければ、テンプレートを作成し直す必要がある
と考えられるため、ステップS11へ戻り、再度処理を
行う。
【0065】また、パターンマッチングを階層的に行う
ために、上述した顔全体が入る大きさの顔テンプレート
を利用しても良い。パターンマッチングを階層的に行う
には、まず顔テンプレートを用いて第1の可視画像とパ
ターンマッチングを行い、おおよその観察者の位置を検
出する。次に顔テンプレートを利用したパターンマッチ
ングの結果を元に、眼のテンプレートを用いて第1の可
視画像とパターンマッチングを行い、観察者の視点位置
を検出する。このように、階層的にパターンマッチング
を行い、段階的に探索範囲を絞っていくことで、誤った
視点位置の検出(失敗ではない)を防ぎ、精度良い追従
ができる。
【0066】また、パターンマッチングを一定回数行っ
たと判別された場合、第1の可視画像記憶部421に記
憶された第1の可視画像と上述したテンプレートを用い
たパターンマッチング、及び第2の可視画像記憶部42
2に記憶された第2の可視画像と上述したテンプレート
を用いたパターンマッチングを行う(ステップS1
8)。第1の可視画像、第2の可視画像それぞれについ
て、パターンマッチングの方法はステップS16と同様
の方法を用いる。
【0067】ここで、テンプレートの作成元は第1の可
視画像撮影部411で撮影した第1の可視画像であり、
第2の可視画像撮影部412で撮影した第2の可視画像
とは異なるが、本実施形態において第1の可視画像撮影
部411と第2の可視画像撮影部412の距離は大きく
離れていないため問題はない。
【0068】次にテンプレートと第1の可視画像のパタ
ーンマッチング結果及び第2の可視画像のパターンマッ
チング結果が所定の相関度(85%)を満たした場合に
は、ステップS19においてパターンマッチング成功と
判断され、ステップS20へ移行する。一方、相関度が
所定値に満たなければ、テンプレートを作成し直す必要
があると考えられるため、ステップS11へ戻り、再度
処理を行う。
【0069】パターンマッチングが成功である場合は、
第1の可視画像のパターンマッチング結果及び第2の可
視画像のパターンマッチング結果を利用して、ステレオ
ビジョンによる前後方向の視点位置検出を行う(ステッ
プS20)。通常、ステレオビジョンでは複数の画像間
での対応点の探索が問題点になるが、第1の画像及び第
2の画像とパターンマッチングを行うとき、上述した共
通のテンプレートを用いるため特に問題はない。
【0070】ステップS17、またはステップS20が
終了したら視点位置出力判定部428が、観察者の視点
位置情報の出力を行う(ステップS21)。ただし、ス
テップS20で観察者の前後方向と左右方向の視点位置
検出が成功した後には、観察者の前後方向と左右方向の
視点位置情報を出力する。また、ステップS17で観察
者の左右方向の視点位置検出が成功した後には、前後方
向の視点位置については以前に求めた前後方向の視点位
置検出結果を利用して、観察者の前後方向と左右方向の
視点位置情報を出力する。視点位置出力判定部428か
ら出力する視点位置情報は、即ち視点位置検出部402
が出力する視点位置情報である。また、視点位置検出部
402から視点位置情報が出力されると、マスクパター
ン制御部403が視点位置情報を受け取り、立体画像表
示部405のマスクパターン制御を行う。
【0071】視点位置検出部402から視点位置情報が
出力されると、ステップS22においてシステム終了を
行うか否かを判定し、システムの動作終了を指示されて
いなければ第1の可視画像撮影部411及び第2の可視
画像撮影部412から、それぞれ第1の可視画像及び第
2の可視画像を取り込み、それぞれ第1の可視画像記憶
部421及び第2の可視画像記憶部422へ記憶してか
らステップS15へ戻る。以降、パターンマッチング処
理を継続し、パターンマッチングが失敗すると自動的に
赤外光を発光してテンプレートの再作成処理を行う。
【0072】ステップS22において終了処理が指示さ
れた場合には、所定の終了処理を行って(ステップS2
3)一連の処理を終了する。以上の処理により、視点位
置の検出を左右方向を一定回数(S15)行うごとに前
後方向を1回行うようにしたので、全体として演算回数
を削減でき、処理の高速化を図ることができる。
【0073】(第2の実施形態)第1の実施形態におい
ては、左右方向の視点位置検出回数に比べて、前後方向
の視点位置検出回数を低い頻度で行うために、左右方向
と前後方向の検出を一定比回数(ただし、左右方向検出
回数>前後方向検出回数)で行うことで、全体の視点位
置検出処理の高速化を行う構成を説明した。しかし、観
察者が椅子などに座って頻繁に前後方向に動かない環境
においては、観察者が押し下げることができるスイッチ
などをあらかじめ用意して、通常は左右方向の検出のみ
行い、観察者が立体画像を観察できなくなったときにス
イッチを押し下げると前後方向検出を行うようにしても
同様の効果が得られる。本実施形態においては、この構
成について説明する。
【0074】図3は本発明の第2の実施形態の構成を示
すブロック図である。本図においても図1と同様に、撮
影部401、視点位置検出部402、マスクパターン制
御部403、画像制御部404、立体画像表示部405
を併せて立体画像表示システムを構成した場合を示して
いる。図3において、第1の実施形態を示す図1と同一
の構成要素には同じ参照番号を付し、その説明は省略す
る。
【0075】本実施形態において、第1の実施形態と異
なるのは、視点位置検出部402が観察者指示部431
を有している点である。観察者指示部431は、いわゆ
るスイッチ手段であり、観察者が押し下げると観察者か
ら指示があったことを検出する。観察者からの指示があ
った場合、この観察者指示手段431からの指示信号は
視点位置出力判定部428に入力され、それに応答して
視点位置出力判定部428は第2のパターンマッチング
部へパターンマッチングを行うように信号を送る。これ
により、観察者からの指示があると前後方向の視点位置
検出が行われる。
【0076】具体的な動作を図4を用いて説明する。図
4は、本実施形態の動作を示すフローチャートである。
図4において、図2と同じ動作を行うステップについて
は同じ参照番号を付し、重複する説明は省略する。
【0077】図4から明らかなように、本実施形態は、
図2に示す処理ステップから、一定回数パターンマッチ
ングを行ったかどうか判定するステップ(ステップS1
5)を除去し、観察者からの指示があったかどうかを判
定する観察者指示部431からの信号の有無を判別する
ステップS24を付加したものである。
【0078】このステップS24の付加により、通常は
観察者の左右方向の視点位置のみを検出し、観察者が観
察者指示手段431を介して指示を行ったときのみ前後
方向及び左右方向の視点位置検出を行うようにすること
ができる。その結果、視点位置検出処理の高速化を行う
ことができる。
【0079】
【その他の実施形態】上述の実施形態では、パターンマ
ッチングに失敗したときにはテンプレートを作成しなお
す場合を説明したが、あらかじめ定めた規定回数失敗す
るまで、あるいは終了処理が行われるまでは同じテンプ
レートでパターンマッチング処理を繰り返すようにして
も良い。こうすることで、テンプレートを作成するステ
ップを減らすことができ、さらに視点位置検出の高速化
を行うことができる。
【0080】また、上述の実施形態では、赤外光を発光
する際に、立体画像表示部405の輝度や観察者までの
距離に応じてその発光量を変化させたり、赤外画像から
の瞳孔位置検出が失敗してやり直す際には前回と発光量
を変化させる(強くする、あるいは弱くする)こともで
きる。このような発光量の制御は、赤外画像からの瞳孔
位置検出を成功させる確率を高め、結果として視点位置
検出の高速化を行うことができる。
【0081】また、上述の実施形態では、逆に、赤外光
を発光する際に、立体画像表示部405の輝度を変化さ
せても良い。例えば輝度を下げると、観察者の瞳孔が開
くため赤外画像からの瞳孔位置検出を成功させる確率を
高め、結果として視点位置検出の高速化を行うことがで
きる。
【0082】また、上述の実施形態では本発明による視
点位置検出装置の検出結果を立体画像表示装置に供給す
る場合を例にして説明したが、本発明による視点位置検
出装置は、任意の用途に用いることができる。
【0083】また、上述の実施形態において説明した具
体的な手法、例えばパターンマッチングの方法、テンプ
レート作成の方法等は、実施形態において説明した者に
限定されるものではなく、同等に適用可能な方法を用い
ても良いことはいうまでもない。
【0084】また、上述の実施形態においては、ピンポ
イントの座標である視点位置を出力するように構成され
ていたが、例えば上述の実施形態のように最終的に得ら
れる視点位置を立体画像表示装置の制御に用いる場合で
あれば、右眼と左眼の視点位置の中心位置がわかれば最
低限の制御は可能であるため、テンプレートの中心位置
を画像表示部3へ出力するようにしても良い。
【0085】また、上述の実施形態においては、視点位
置を検出するためにパターンマッチング、もしくはステ
レオビジョンによる方法を用いているが、パターンマッ
チング、もしくはステレオビジョンによる方法に限定さ
れたものではないことは言うまでもない。
【0086】上述の実施形態においては、本発明による
視点位置検出装置を好適に用いることが可能な立体画像
表示装置(立体画像表示部)として、レンチキュラレン
ズを用いた立体画像表示装置のみを開示したが、左右方
向よりも前後方向に長い立体視観察領域を有する立体画
像表示装置であれば、その方式は問わない。
【0087】また、上述の実施形態においては、本発明
による視点位置検出装置を好適に用いることが可能な立
体画像表示装置(立体画像表示部)として、レンチキュ
ラレンズを用いた立体画像表示装置のみを開示したが、
例えばインテグラルフォトグラフィー方式(レンチキュ
ラ方式を左右方向だけでなく上下方向にも拡張した、い
わゆる蝿の目レンズ方式)に適用してもよい。その場
合、(左右方向だけでなく)上下方向よりも前後方向に
長い立体視観察領域を有するようであれば、上下方向に
おける位置検出よりも前後方向における位置検出に要す
る処理を減じることによって視点位置検出処理の高速化
を実現できることはいうまでもない。
【0088】また、本発明の本質は視点位置検出装置に
おいて、左右方向もしくは上下方向における位置検出よ
りも前後方向における位置検出に要する処理を減じるこ
とによって視点位置検出処理の高速化を実現することに
ある。従って、実施形態で説明したような、検出頻度を
変化させる方法に限定されるものではなく、左右方向も
しくは上下方向の位置検出よりも処理の容易な方法によ
って前後方向の位置を検出する等、他の方法を用いても
良い。
【0089】なお、本発明は、複数の機器(例えばホス
トコンピュータ、インタフェイス機器、リーダ、プリン
タなど)から構成されるシステムに適用しても、一つの
機器からなる装置(例えば、複写機、ファクシミリ装置
など)に適用してもよい。
【0090】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納されたプログ
ラムコードを読み出し実行することによっても、達成さ
れることは言うまでもない。
【0091】この場合、記憶媒体から読み出されたプロ
グラムコード自体が前述した実施形態の機能を実現する
ことになり、そのプログラムコードを記憶した記憶媒体
は本発明を構成することになる。また、コンピュータが
読み出したプログラムコードを実行することにより、前
述した実施形態の機能が実現されるだけでなく、そのプ
ログラムコードの指示に基づき、コンピュータ上で稼働
しているオペレーティングシステム(OS)などが実際の処
理の一部または全部を行い、その処理によって前述した
実施形態の機能が実現される場合も含まれることは言う
までもない。
【0092】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
【0093】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明した(図2、図4のいずれか
に示す)フローチャートに対応するプログラムコードが
格納されることになる。
【0094】
【発明の効果】以上説明したように、本発明によれば、
観察者の前後方向の視点位置検出精度を左右方向もしく
は上下方向の視点位置検出精度よりも、もしくは観察者
の前後方向の視点位置検出頻度を左右方向もしくは上下
方向の視点位置検出頻度よりも低くして処理負荷を軽減
することにより、高速な視点位置検出を実現することが
できる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る視点位置検出装
置を用いた立体画像表示システムの構成例を示すブロッ
ク図である。
【図2】本発明の第1の実施形態に係る視点位置検出装
置の動作を説明するフローチャートである。
【図3】本発明の第2の実施形態に係る視点位置検出装
置を用いた立体画像表示システムの構成例を示すブロッ
ク図である。
【図4】本発明の第2の実施形態に係る視点位置検出装
置の動作を説明するフローチャートである。
【図5】従来のリアクロスレンチキュラ方式の立体画像
表示装置の構成例を示す斜視図である。
【図6】視点位置により表示制御を行う従来の立体画像
表示装置の例を示す斜視図である。
【図7】立体画像観察領域を説明する図である。
【図8】テンプレートの作成を説明する図である。
─────────────────────────────────────────────────────
【手続補正書】
【提出日】平成13年2月27日(2001.2.2
7)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】請求項8
【補正方法】変更
【補正内容】
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】請求項9
【補正方法】変更
【補正内容】
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】請求項19
【補正方法】変更
【補正内容】
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】請求項20
【補正方法】変更
【補正内容】
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 BA02 BA13 CA13 CA16 CB13 CB16 DA07 5C061 AA07 AB12 AB14 AB17 5C082 AA21 BA12 BA46 BB15 BB26 CB01 DA42 DA53 DA86 DA89 EA17 MM02 5L096 AA09 CA05 DA02 FA34 FA69 JA03 JA09

Claims (33)

    【特許請求の範囲】
  1. 【請求項1】 被測定者の視点位置を検出し、出力する
    視点位置検出装置であって、 前記視点位置が第1の方向に関する位置を表す第1の位
    置情報と、前記第1の方向と異なる第2の方向に関する
    位置を表す第2の位置情報との組み合わせで表現され、 第1の方法により前記第1の位置情報を検出する第1の
    位置検出手段と、前記第1の方法と異なる方法により前
    記第2の位置情報を検出する第2の位置検出手段と、 前記第1の位置情報及び前記第2の位置情報とを前記視
    点位置として出力する出力手段とを有し、 前記第2の位置情報の精度が、前記第1の位置情報の精
    度よりも低いか、前記第2の位置情報の検出頻度が前記
    第1の位置情報の検出頻度よりも低いことを特徴とする
    視点位置検出装置。
  2. 【請求項2】 前記第1の方向が左右方向もしくは上下
    方向、前記第2の方向が前後方向であることを特徴とす
    る請求項1記載の視点位置検出装置。
  3. 【請求項3】 前記第1の位置検出手段が、前記披測定
    者を第1の位置で撮影した可視画像に基づいて前記第1
    の位置情報検出することを特徴とする請求項1又は請求
    項2記載の視点位置検出装置。
  4. 【請求項4】 前記第2の位置検出手段が、前記披測定
    者を前記第1の位置で撮影した可視画像と、前記第1の
    位置と異なる第2の位置で前記披測定者を撮影した可視
    画像に基づいて前記第2の位置情報を検出することを特
    徴とする請求項1乃至請求項3のいずれか1項に記載の
    視点位置検出装置。
  5. 【請求項5】 前記第2の位置情報をステレオビジョン
    法によって検出することを特徴とする請求項4記載の視
    点位置検出装置。
  6. 【請求項6】 前記第1の位置情報の検出処理が定期的
    に行われ、前記第2の位置情報の検出は所定の条件を満
    たした場合にのみ行われることを特徴とする請求項1乃
    至請求項5のいずれか1項に記載の視点位置検出装置。
  7. 【請求項7】 前記所定の条件が、前記第1の位置情報
    の検出処理が所定回数行われたことであることを特徴と
    する請求項6記載の視点位置検出装置。
  8. 【請求項8】 前記所定の条件が、前記第1の位置情報
    の検出処理失敗であることを特徴とする請求項6記載の
    視点検出装置。
  9. 【請求項9】 指示入力手段をさらに有し、前記所定の
    条件が前記指示入力手段による指示であることを特徴と
    する請求項6記載の視点検出装置。
  10. 【請求項10】 前記披測定者の赤外画像を取得する赤
    外画像取得手段と、 前記赤外画像から前記被測定者の瞳孔位置を検出すると
    ともに、当該瞳孔位置を用いて視点位置検出用テンプレ
    ートを生成するテンプレート生成手段とをさらに有し、 前記第1の位置検出手段が、前記テンプレートと前記第
    1の位置から撮影した可視画像とのパターンマッチング
    により前記第1の位置情報を検出し、 前記第2の位置検出手段が、前記テンプレートと前記第
    2の位置から撮影した可視画像とのパターンマッチング
    結果及び前記第1の位置情報から前記第2の位置情報を
    検出することを特徴とする請求項1乃至請求項9のいず
    れか1項に記載の視点位置検出装置。
  11. 【請求項11】 請求項1乃至請求項10のいずれか1
    項に記載の視点位置検出装置と、左右方向もしくは上下
    方向よりも前後方向に長い立体視観察領域の形状を有す
    る立体画像表示手段とを有する立体画像表示システムで
    あって、 前記立体画像表示手段が、 光源から出射する光束の方向を制御することによって披
    観察者の右目に入射する光束と左目に入射する光束とを
    生成する光束制御手段と、 前記視点位置検出手段が出力する前記披測定者の視点位
    置に基づいて、前記光束制御手段の位置を変化させるこ
    とにより、前記立体視観察領域の位置を移動させる位置
    制御手段とを有することを特徴とする立体画像表示シス
    テム。
  12. 【請求項12】 被測定者の視点位置を検出し、出力す
    る視点位置検出方法であって、 前記視点位置が第1の方向に関する位置を表す第1の位
    置情報と、前記第1の方向と異なる第2の方向に関する
    位置を表す第2の位置情報との組み合わせで表現され、 第1の方法により前記第1の位置情報を検出する第1の
    位置検出ステップと、 前記第1の方法と異なる方法により前記第2の位置情報
    を検出する第2の位置検出ステップと、 前記第1の位置情報及び前記第2の位置情報とを前記視
    点位置として出力する出力ステップとを有し、 前記第2の位置情報の精度が、前記第1の位置情報の精
    度よりも低いか、前記第2の位置情報の検出頻度が前記
    第1の位置情報の検出頻度よりも低いことを特徴とする
    視点位置検出方法。
  13. 【請求項13】 前記第1の方向が左右方向もしくは上
    下方向、前記第2の方向が前後方向であることを特徴と
    する請求項12記載の視点位置検出方法。
  14. 【請求項14】 前記第1の位置検出ステップが、前記
    披測定者を第1の位置で撮影した可視画像に基づいて前
    記第1の位置情報検出することを特徴とする請求項12
    又は請求項13記載の視点位置検出方法。
  15. 【請求項15】 前記第2の位置検出ステップが、前記
    披測定者を前記第1の位置で撮影した可視画像と、前記
    第1の位置と異なる第2の位置で前記披測定者を撮影し
    た可視画像に基づいて前記第2の位置情報を検出するこ
    とを特徴とする請求項12乃至請求項14のいずれか1
    項に記載の視点位置検出方法。
  16. 【請求項16】 前記第2の位置情報をステレオビジョ
    ン法によって検出することを特徴とする請求項15記載
    の視点位置検出方法。
  17. 【請求項17】 前記第1の位置検出ステップが定期的
    に行われ、前記第2の位置検出ステップは所定の条件を
    満たした場合にのみ行われることを特徴とする請求項1
    2乃至請求項16のいずれか1項に記載の視点位置検出
    方法。
  18. 【請求項18】 前記所定の条件が、前記第1の位置情
    報の検出処理が所定回数行われたことであることを特徴
    とする請求項17記載の視点位置検出方法。
  19. 【請求項19】 前記所定の条件が、前記第1の位置情
    報の検出処理失敗であることを特徴とする請求項17記
    載の視点検出装置。
  20. 【請求項20】 前記披測定者の指示を検出する指示検
    出ステップをさらに有し、前記所定の条件が前記指示入
    力ステップによる前記披測定者の指示検出であることを
    特徴とする請求項17記載の視点検出装置。
  21. 【請求項21】 前記披測定者の赤外画像を取得する赤
    外画像取得ステップと、 前記赤外画像から前記被測定者の瞳孔位置を検出すると
    ともに、当該瞳孔位置を用いて視点位置検出用テンプレ
    ートを生成するテンプレート生成ステップとをさらに有
    し、 前記第1の位置検出ステップが、前記テンプレートと前
    記第1の位置から撮影した可視画像とのパターンマッチ
    ングにより前記第1の位置情報を検出し、前記第2の位
    置検出ステップが、前記テンプレートと前記第2の位置
    から撮影した可視画像とのパターンマッチング結果及び
    前記第1の位置情報から前記第2の位置情報を検出する
    ことを特徴とする請求項12乃至請求項20のいずれか
    1項に記載の視点位置検出方法。
  22. 【請求項22】 コンピュータを、請求項1乃至請求項
    10のいずれか1項に記載の視点位置検出装置として機
    能させるためのプログラムを記録したコンピュータ読み
    取り可能な記憶媒体。
  23. 【請求項23】 コンピュータを、請求項1乃至請求項
    10のいずれか1項に記載の視点位置検出装置として機
    能させるためのプログラム。
  24. 【請求項24】 立体視を可能とする第1の画像と、第
    2の画像を表示する表示手段と、 観察者の左右もしくは上下方向における視点位置と、前
    後方向における視点位置を検出可能な視点位置検出手段
    と、 前記視点位置検出手段によって検出された観察者の視点
    位置に基づいて、前記表示手段による前記第1の画像と
    前記第2の画像の表示状態を制御する制御手段からな
    り、 前記視点位置検出手段は、前記観察者の前後方向におけ
    る視点位置の検出周期を、前記左右もしくは上下方向に
    おける視点位置の検出周期よりも長く設定されているこ
    とを特徴とする画像表示装置。
  25. 【請求項25】 請求項24において、 前記表示手段は、立体視に対する最適視点位置を可変す
    る視点位置可変手段とを備え、前記制御手段は、前記視
    点位置検出手段の出力に基づいて前記視点位置可変手段
    を制御し、前記最適視点位置を制御することを特徴とす
    る画像表示装置。
  26. 【請求項26】 請求項25において、 前記表示手段は前記第1の画像を表示する第1の表示領
    域と、前記第2の画像を表示する第2の表示領域を有す
    るレンチキュラディスプレイであり、前記視点位置可変
    手段は、前記第1の表示領域に前記第1の画像を、前記
    第2の表示領域に前記第2の画像をそれぞれ表示させる
    マスク基板の位置を変化させる手段であることを特徴と
    する画像表示装置。
  27. 【請求項27】 請求項24において、 前記視点位置検出手段は、前記観察者の瞳孔像を検出し
    てテンプレートを作成し、該テンプレートと前記瞳孔像
    とをパターンマッチング演算することにより、視点位置
    の変化を検出するように構成されていることを特徴とす
    る画像表示装置。
  28. 【請求項28】 請求項24において、 前記視点位置検出手段は、前記左右もしくは上下方向の
    視点位置検出を、前記第1及び第2の画像それぞれにつ
    いて行い、前記前後方向における視点位置検出は、前記
    第1及び第2の画像に対する視点位置検出結果に基づい
    て行うように構成されていることを特徴とする画像表示
    装置。
  29. 【請求項29】 立体視を可能とする第1の画像と、第
    2の画像を表示する表示手段を有する画像表示装置の制
    御方法であって、 観察者の左右もしくは上下方向における視点位置と、前
    後方向における視点位置を検出可能な視点位置検出ステ
    ップと、 前記視点位置検出ステップによって検出された観察者の
    視点位置に基づいて、前記表示手段による前記第1の画
    像と前記第2の画像の表示状態を制御する制御ステップ
    を有し、 前記視点位置検出ステップにおける前記観察者の前後方
    向における視点位置の検出周期が、前記左右もしくは上
    下方向における視点位置の検出周期よりも長く設定され
    ていることを特徴とする画像表示装置の制御方法。
  30. 【請求項30】 請求項29において、 前記表示手段は、立体視に対する最適視点位置を可変す
    る視点位置可変手段とを備え、 前記制御ステップは、前記視点位置検出ステップの出力
    に基づいて前記視点位置可変手段を制御し、前記最適視
    点位置を制御することを特徴とする画像表示装置の制御
    方法。
  31. 【請求項31】 請求項30において、 前記表示手段は前記第1の画像を表示する第1の表示領
    域と、前記第2の画像を表示する第2の表示領域とを有
    するレンチキュラディスプレイであり、 前記視点位置可変手段は、前記第1の表示領域に前記第
    1の画像を、前記第2の表示領域に前記第2の画像をそ
    れぞれ表示させるマスク基板の位置を変化させる手段で
    あることを特徴とする画像表示装置の制御方法。
  32. 【請求項32】 請求項29において、 前記視点位置検出ステップは、前記観察者の瞳孔像を検
    出してテンプレートを作成し、該テンプレートと前記瞳
    孔像とをパターンマッチング演算することにより、視点
    位置の変化を検出することを特徴とする画像表示装置の
    制御方法。
  33. 【請求項33】 請求項29において、 前記視点位置検出ステップは、前記左右もしくは上下方
    向の視点位置検出を、前記第1及び第2の画像それぞれ
    について行い、前記前後方向における視点位置検出は、
    前記第1及び第2の画像に対する視点位置検出結果に基
    づいて行うことを特徴とする画像表示装置の制御方法。
JP2001024366A 2001-01-31 2001-01-31 視点位置検出装置、視点位置検出方法及び立体画像表示システム Expired - Fee Related JP3647376B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001024366A JP3647376B2 (ja) 2001-01-31 2001-01-31 視点位置検出装置、視点位置検出方法及び立体画像表示システム
US09/812,677 US6856341B2 (en) 2001-01-31 2001-03-21 Viewpoint detecting apparatus, viewpoint detecting method, and three-dimensional image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001024366A JP3647376B2 (ja) 2001-01-31 2001-01-31 視点位置検出装置、視点位置検出方法及び立体画像表示システム

Publications (2)

Publication Number Publication Date
JP2002232917A true JP2002232917A (ja) 2002-08-16
JP3647376B2 JP3647376B2 (ja) 2005-05-11

Family

ID=18889514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001024366A Expired - Fee Related JP3647376B2 (ja) 2001-01-31 2001-01-31 視点位置検出装置、視点位置検出方法及び立体画像表示システム

Country Status (2)

Country Link
US (1) US6856341B2 (ja)
JP (1) JP3647376B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010210737A (ja) * 2009-03-09 2010-09-24 Nikon Corp 表示装置
US20120113097A1 (en) * 2010-11-05 2012-05-10 Samsung Electronics Co., Ltd. Display apparatus and method
WO2012131937A1 (ja) * 2011-03-30 2012-10-04 富士通株式会社 測定装置、立体画像表示装置及び測定方法

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7233699B2 (en) * 2002-03-18 2007-06-19 National Instruments Corporation Pattern matching using multiple techniques
JP3966830B2 (ja) * 2003-03-28 2007-08-29 株式会社東芝 立体表示装置
KR100970721B1 (ko) * 2003-07-29 2010-07-16 삼성전자주식회사 고해상도 3차원 영상 디스플레이
JP3944188B2 (ja) * 2004-05-21 2007-07-11 株式会社東芝 立体画像表示方法、立体画像撮像方法及び立体画像表示装置
JP4739002B2 (ja) * 2005-06-30 2011-08-03 キヤノン株式会社 画像処理方法、画像処理装置
US20100315414A1 (en) * 2008-05-09 2010-12-16 Mbda Uk Limited Display of 3-dimensional objects
JP5395615B2 (ja) 2009-10-27 2014-01-22 キヤノン株式会社 無線通信装置、無線通信装置の制御方法及びプログラム
JP5491217B2 (ja) * 2010-01-27 2014-05-14 株式会社バンダイナムコゲームス プログラム、情報記憶媒体、ゲームシステム
JP5499778B2 (ja) * 2010-03-03 2014-05-21 株式会社ニコン 撮像装置
KR101652401B1 (ko) * 2010-09-07 2016-08-31 삼성전자주식회사 입체 영상 디스플레이 장치 및 입체 영상 표시 방법
JP5263355B2 (ja) * 2010-09-22 2013-08-14 株式会社ニコン 画像表示装置及び撮像装置
JP5602708B2 (ja) * 2011-11-09 2014-10-08 楽天株式会社 注視位置推定システム、注視位置推定システムの制御方法、注視位置推定装置、注視位置推定装置の制御方法、プログラム、及び情報記憶媒体
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP5977544B2 (ja) 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP5975685B2 (ja) 2012-03-09 2016-08-23 キヤノン株式会社 情報処理装置、情報処理方法
JP6027764B2 (ja) 2012-04-25 2016-11-16 キヤノン株式会社 ミラーシステム、および、その制御方法
US9215448B2 (en) * 2013-01-31 2015-12-15 Here Global B.V. Stereo panoramic images
US9699436B2 (en) * 2014-09-16 2017-07-04 Microsoft Technology Licensing, Llc Display with eye-discomfort reduction
US9757863B2 (en) 2015-01-30 2017-09-12 Canon Kabushiki Kaisha Robot apparatus, exchanger apparatus and robot system
JP2017191501A (ja) * 2016-04-14 2017-10-19 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN106056601B (zh) * 2016-05-27 2018-10-09 北京理工大学 一种基于视频的人眼位置探测方法
EP3333617B1 (en) * 2016-12-09 2021-12-15 Nokia Technologies Oy Device for communication, method of operating such device
JP7103354B2 (ja) * 2017-05-24 2022-07-20 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
CN113920144B (zh) * 2021-09-30 2022-09-13 广东省国土资源测绘院 一种实景照片地面视域分析方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08314034A (ja) * 1995-05-18 1996-11-29 Canon Inc 立体画像表示方法及び装置
JPH10232367A (ja) * 1997-02-18 1998-09-02 Canon Inc 立体画像表示方法及びそれを用いた立体画像表示装置
JP2000278716A (ja) * 1999-03-25 2000-10-06 Mr System Kenkyusho:Kk 視点位置検出装置、方法及び立体画像表示システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08322004A (ja) * 1995-05-24 1996-12-03 Olympus Optical Co Ltd 立体視ディスプレイ装置
EP0788008B1 (en) * 1996-01-31 2006-04-26 Canon Kabushiki Kaisha Stereoscopic image display apparatus whose observation area is widened
JP3728013B2 (ja) 1996-05-20 2005-12-21 キヤノン株式会社 立体画像表示装置
JP3703225B2 (ja) 1996-09-02 2005-10-05 キヤノン株式会社 立体画像表示方法及びそれを用いた立体画像表示装置
JP3397602B2 (ja) * 1996-11-11 2003-04-21 富士通株式会社 画像表示装置及び方法
US6157402A (en) * 1997-02-13 2000-12-05 Torgeson; W. Lee Autostereoscopic image presentation system using a screen assembly
JPH10334275A (ja) * 1997-05-29 1998-12-18 Canon Inc 仮想現実方法及び装置並びに記憶媒体
US6757422B1 (en) 1998-11-12 2004-06-29 Canon Kabushiki Kaisha Viewpoint position detection apparatus and method, and stereoscopic image display system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08314034A (ja) * 1995-05-18 1996-11-29 Canon Inc 立体画像表示方法及び装置
JPH10232367A (ja) * 1997-02-18 1998-09-02 Canon Inc 立体画像表示方法及びそれを用いた立体画像表示装置
JP2000278716A (ja) * 1999-03-25 2000-10-06 Mr System Kenkyusho:Kk 視点位置検出装置、方法及び立体画像表示システム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010210737A (ja) * 2009-03-09 2010-09-24 Nikon Corp 表示装置
US20120113097A1 (en) * 2010-11-05 2012-05-10 Samsung Electronics Co., Ltd. Display apparatus and method
US8451535B2 (en) 2010-11-05 2013-05-28 Samsung Electronics Co., Ltd. Display apparatus and method
US9172949B2 (en) 2010-11-05 2015-10-27 Samsung Electronics Co., Ltd. Display apparatus and method
WO2012131937A1 (ja) * 2011-03-30 2012-10-04 富士通株式会社 測定装置、立体画像表示装置及び測定方法
JP5725159B2 (ja) * 2011-03-30 2015-05-27 富士通株式会社 測定装置、立体画像表示装置及び測定方法

Also Published As

Publication number Publication date
US20020101506A1 (en) 2002-08-01
JP3647376B2 (ja) 2005-05-11
US6856341B2 (en) 2005-02-15

Similar Documents

Publication Publication Date Title
JP3647376B2 (ja) 視点位置検出装置、視点位置検出方法及び立体画像表示システム
US6757422B1 (en) Viewpoint position detection apparatus and method, and stereoscopic image display system
JP2001195582A (ja) 画像検出装置、画像検出方法、立体表示装置、表示コントローラ、立体表示システムおよびプログラム記憶媒体
JP2001008235A (ja) 3次元データの再構成のための画像入力方法及び多眼式データ入力装置
JP3450801B2 (ja) 瞳孔位置検出装置及び方法、視点位置検出装置及び方法、並びに立体画像表示システム
CN103168272A (zh) 进深推定摄像装置以及摄像元件
JP3799019B2 (ja) ステレオ撮影装置及びステレオ撮影装置の撮影方法
JP2000152285A (ja) 立体画像表示装置
US11650660B2 (en) Electronic device, control method, and non-transitory computer readable medium
JP3428920B2 (ja) 視点位置検出装置、方法及び立体画像表示システム
JP3192483B2 (ja) 光学機器
JP2022096819A (ja) 視線検出装置
JP3416706B2 (ja) 瞳孔位置検出装置及び方法、視点位置検出装置及び方法、並びに立体画像表示システム
JP3109870B2 (ja) ビデオカメラ
JPH0541822A (ja) ビデオカメラ
JP4226010B2 (ja) ステレオ撮影装置及びステレオ撮影装置の撮影方法
JP2013054256A (ja) 撮像装置
JP3578808B2 (ja) 立体表示装置
JP2023063760A (ja) 識別装置
JP3171698B2 (ja) カメラの焦点距離制御装置
JP3389633B2 (ja) 視線ムーブメント入力カメラ
JP3344757B2 (ja) フォーカスエリア設定装置
JP2024003432A (ja) 電子機器
JP5558951B2 (ja) 3次元撮像装置および電子情報機器
JP2024008006A (ja) 画像処理装置、表示装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041104

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20041109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050208

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090218

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100218

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100218

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110218

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120218

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130218

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees