JP3565707B2 - 観察者トラッキング自動立体表示装置、画像トラッキングシステム、および画像トラッキング方法 - Google Patents

観察者トラッキング自動立体表示装置、画像トラッキングシステム、および画像トラッキング方法 Download PDF

Info

Publication number
JP3565707B2
JP3565707B2 JP10622298A JP10622298A JP3565707B2 JP 3565707 B2 JP3565707 B2 JP 3565707B2 JP 10622298 A JP10622298 A JP 10622298A JP 10622298 A JP10622298 A JP 10622298A JP 3565707 B2 JP3565707 B2 JP 3565707B2
Authority
JP
Japan
Prior art keywords
image
tracking system
target
target position
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP10622298A
Other languages
English (en)
Other versions
JPH113429A (ja
Inventor
スティーヴン ホリマン ニコラス
ヒ ホング キ
エズラ ディビッド
ジョン ウッドゲート グラハム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JPH113429A publication Critical patent/JPH113429A/ja
Application granted granted Critical
Publication of JP3565707B2 publication Critical patent/JP3565707B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/378Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/32Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using arrays of controllable light sources; using moving apertures or moving light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/346Image reproducers using prisms or semi-transparent mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像トラッキングのシステムおよび方法に関する。本発明は、このようなシステムおよび方法を使用できる観察者トラッキング自動立体表示装置にも関する。本発明のシステムおよび方法は、セキュリティ監視、映像および画像圧縮、テレビ会議、コンピュータゲーム、ドライバーモニタリング、グラフィカルユーザインターフェース、カメラオートフォーカスシステムおよびマルチメディアなどの他の用途にも使用できる。
【0002】
【従来の技術】
自動立体表示装置は周知であり、その一例は、EP0602934、EP0656555、EP0708351、EP0726482、およびGB9619097.0に開示されている。添付の図1は、典型的な自動立体表示装置の基本的な構成要素を模式的に示す。この表示装置は、表示装置システム1およびトラッキングシステム2を有する。トラッキングシステム2は、センサ信号をトラッキングプロセッサ4に与えるトラッキングセンサ3を有する。トラッキングプロセッサは、センサ信号から観察者位置データ信号を求める。観察者位置データ信号は、表示装置システム1の表示装置制御プロセッサ5に与えられる。プロセッサ5は、位置データ信号をウィンドウステアリング信号に変換し、これを、表示装置7と協働するステアリングメカニズム6に与える。これにより、観察者8は、広範囲にわたる観察者位置において自動立体的に表示装置を観察することができる。
【0003】
添付の図2は、純粋に例示として、表示装置7およびステアリングメカニズム6を含む表示装置システム1の一部を示す。ステアリングメカニズム6は光源10を有し、光源10は、個々に制御可能な発光素子の直線状アレイを有する。部分的に銀メッキされたミラー等のビームスプリッタ11は、光源10からの光をミラー12に向けて透過するとともに、光源10からの光をもう1つのミラー13に向けて反射する。ミラー12によって反射された光は、レンズ14を通過し、そして、立体対(stereoscopic pair)の内の右目用画像を有する液晶装置(LCD)の形態である空間光変調器(SLM)によって変調される。同様に、ミラー13によって反射された光は、レンズ16を通過し、立体対の内の左目用画像を有するLCD17によって空間的に変調される。例えば部分的に銀メッキされたミラーの形態であるビーム結合器18によって、LCD15からの光は、観察者8の右目用観察ウィンドウ19に向けて反射される。LCD17からの光は、ビーム結合器18を透過し、観察者8の左目用観察ウィンドウ20を形成する。各観察ウィンドウ19および20の幅は、あらゆる可能性のある眼の間の間隔をカバーするように十分に大きい。典型的な眼の間の間隔の値は、約55〜約70ミリメートルである。図3に示すように、表示装置7および観察者8を含む3次元(3D)空間は、デカルト座標によって表すことができる。但し、Xは横方向、Yは縦方向、Zは長手方向を表す。
【0004】
添付の図4aに示すように、菱形の照射(illumination)領域21および22が形成されており、観察者の右目が領域21内にあり且つ観察者の左目が領域22内にあれば、表示装置7全体にわたって3D画像が知覚されるようになっている。これらの菱形領域は観察ゾーンと呼ばれ、その幅は、両観察ウィンドウ19および20を含む「最良観察」ウィンドウ平面23において最大である。観察ゾーン21および22は、表示装置7の長手方向における理論上の観察自由度を示している。
【0005】
観察者の観察自由度を拡張するために、上記のように、観察者トラッキングおよび表示装置の制御部(control)を設けることが可能である。観察者の頭の動きを追従して、観察者の目が適切な観察ゾーン内に維持されるように、観察ウィンドウ19および20の位置が「ステアリング」される。このような表示装置において不可欠な部分は、観察者の頭および/または目の位置を特定するトラッキングシステム2である。実際には、観察者の両目の間の中心点をトラッキングすればよい場合が一般的である。なぜなら、図4bの左側に示すように、この中心点が左右の観察ウィンドウの境界位置だからである。図4bの右側に示すように比較的大きく頭が回転した場合でも、このようなシステムは、観察ウィンドウ19および20を正確に位置決めし、自動立体観察を維持する。
【0006】
各観察ウィンドウは、添付の図5に示すように照度(illumination)プロファイルによって特徴づけられる有効観察領域(useful viewing region)を有する。横軸は平面23内の位置を表し、縦軸は照度を表す。理想的な照度プロファイルは、隣接ウィンドウ同士がすき間なく隣接した矩形のプロファイルであるが、これは、実際には得られない。
【0007】
図5に示すように、最大平均強度の半値における照度プロファイル幅をウィンドウ幅とする。隣接観察ウィンドウのプロファイルは、常にすき間なく隣接するわけではなく、(図のように)アンダーラップ、またはオーバーラップを有する。プロファイルの「最上部」には均一性にばらつきがあるが、これが、有効幅を表している。強度は、有効幅の外で突然0になるのではなく、急峻に低下してエッジ幅を規定する。プロファイルは、すぐに0にはならず、隣接プロファイルとオーバーラップし、これにより、クロストークを生じる。理想的な矩形の照度プロファイルと実際のプロファイルとの差は、光学系における収差、散乱、デフォーカス、回折、および表示装置の光学素子における幾何学的な誤差を含む複数の劣化メカニズムの組合せによって生じる。トラッキングシステム2の目的の1つは、観察者の目を常に最良観察領域内に維持することである。
【0008】
観察ウィンドウ19および20が連続的に動き得ることが理想的であるが、実際には、観察ウィンドウは、固定位置間において不連続な「ステップ」単位で動き得る。ステアリングメカニズム6は、光源10の移動または切替えを制御することにより、観察ウィンドウ位置を制御する。これらの位置を切り替えるのに必要な位置の数および時間は、表示装置およびステアリングメカニズムによって異なる。添付の図6は、光源10が14個のすき間なく隣接したイルミネータを有し、各観察ウィンドウの幅がイルミネータ4個分である、図2に示すタイプの表示装置の場合に実現可能な観察ウィンドウ位置の範囲(range)の一例を示す。この例の場合、観察ウィンドウが取り得る位置は11個であるが、その代表的な位置を参照符号25で示す。1つのイルミネータが結像すると、参照符号26で示すように、ウィンドウ平面23において幅約16ミリメートルの「ストリップ」または「ステップ」となり、4つの隣接するストリップによってウィンドウ幅は約64ミリメートルになる。トラッキングシステム2は、観察者の目の瞳孔を、参照符号27で示すような2つのストリップの中間に維持しようとする。観察者が、領域27の中心から離れて横方向に1ステップ分動く前に、トラッキングシステム2は、移動方向の次のストリップ26を照射するとともに、反対側即ち最後尾のストリップを消灯する。
【0009】
トラッキングシステム2によって得られた位置データを、表示装置ウィンドウ位置に合わせるためには、例えばEP0769881に開示される較正処理が必要となる。典型的な表示装置7は、添付の図7の28のように、表示装置の光心29と呼ばれる共通の原点から拡がる、複数の円錐またはくさび形の観察ゾーンを与える。観察者の両目の中心が、あるウィンドウから別のウィンドウに移動する度に切替えが行われなければならない位置がこれらの観察ゾーンによって決まる。この場合、観察ゾーンは、表示装置に対する観察者の横方向(X)と長手方向(Z)によって特定される水平方向平面内において、角度的に隔てられている。
【0010】
理想的なトラッキングおよび表示装置システムは、あらゆる頭の動きに即座に応答する。実際には、あらゆる実用的なトラッキングおよび表示装置システムが頭の動きを検出しこれに応答するには、常に、ある有限時間が必要となる。観察ウィンドウが移動するステップが有限個しかない場合には、即時的な応答は必ずしも必要ではない。この場合、トラッキングシステムの性能要件は、観察ウィンドウの位置の更新を必要とせずに観察者が目を動かし得る距離に関係する。
【0011】
図6に示すウィンドウステップを形成する図2に示す自動立体表示装置の場合、システムが応答してウィンドウ位置を更新することを必要とせずに、観察者が動くことができるのは、1ステップに等しい距離dである。観察者の頭の移動距離dおよび最大速度vによって、要求されるトラッキングシステムのシステム応答時間tは、
t=d/v
として求められる。
【0012】
平均的な観察者の通常の頭の移動速度は、約300ミリメートル/秒未満であるが、観察者がこれよりも速い速度で動くことも珍しくはない。これは、表示された立体画像内のオブジェクトの急な動きに観察者が反応するときに最もよく起こる。典型的な最大頭移動速度は、約500ミリメートル/秒である。この速度において、dの値が典型的な約16ミリメートルである場合、トラッキングおよび表示装置システムが、観察者の頭の動きを検出してこれに応答するのに有する時間は約32ミリ秒である。この応答時間が達成されなかった場合、観察者が、フリッカ等の不快な視覚的アーチファクト(visual artifacts)を見る場合がある。添付の図8において、参照符号30は、ミリメートル/秒単位の最大頭移動速度の関数としての要求されるシステム応答時間をミリ秒単位で示す。
【0013】
実際には、トラッキングおよび表示装置システムの実際の応答時間は、観察者の位置を求めるのに必要な時間だけでなく、この情報をステアリングメカニズムに送るのに必要な通信時間、ならびに現ウィンドウ位置と次のウィンドウ位置との切換えに必要な時間をも含む。
【0014】
要求されるシステム応答時間は、トラッキングシステムの精度によっては、上記より短くなる。測定誤差の影響は、観察ウィンドウが移動されるまでに観察者が移動し得るステップ距離dの減少に等価であるので、要求されるシステム応答時間は、
T=(d−e)/v
となる。但し、eは測定誤差である。図8の破線31は、eが約5ミリメートルである場合の応答時間を示す。従って、要求される応答時間は、約500ミリメートル/秒の最大頭移動速度の場合、約22ミリ秒にまで低減される。
【0015】
測定誤差eを低減することが望ましいが、実際には、これを0にまで低減することは不可能であり、トラッキングに用いられる画像解像度およびアルゴリズムを含む複数の要因により、この誤差をどこまで小さくできるかには限界がある。一般に、位置データを測定するアルゴリズムが実行されるまでは、測定誤差を求めるのは困難である。この理由から、上記式は、
v=(d−e)/T
と書き換えられる。
【0016】
これにより、観察者が連続的な3D画像を見ることができる最大頭移動速度が、所与の測定誤差および所与の応答時間について与えられる。測定誤差が小さく応答時間が短い程、観察者が頭を動かし得る速度が大きくなる。従って、ステップの大きさ、測定誤差、およびシステム応答時間は、例えば約500ミリメートル/秒の所望の基準を満たすvの値が得られるようにするべきである。
【0017】
観察者が目と目の間に装着する逆反射スポットによって反射される赤外線放射(infrared radiation)を検出して行われる公知のタイプの赤外線トラッキングシステムの1つは、DynaSightセンサと呼ばれ、Origin Instrumentsから入手可能である。赤外線センサに対する逆反射スポットの3D座標は、最大約64Hzのレートで得られる。これにより、逆反射スポットに対する観察者の頭の位置に関する必要な情報が与えられ、頭が動いても左画像および右画像を正しい方の目に向けることができる。
【0018】
【発明が解決しようとする課題】
赤外線ビデオカメラを使用した観察者の頭の位置の検出は、WO96/18925およびUS5016282に開示されている。その他のこのようなシステムは、IScanおよびHHIから入手可能である。しかし、赤外線を利用した全てのシステムは、赤外線ビデオカメラシステムが必要になること、制御された赤外線光源の使用、およびそれに伴う部品のコスト、赤外線源とそのセンサの間の複雑な構成、マーカーを観察者に装着する不便さ、赤外線源のために付加的な電源が必要になること、近距離から観察者の目に赤外線光が入ることによる不快さ、の問題のいくつかまたは全てを有する。
【0019】
可視光ビデオカメラを使用するトラッキングシステムもいくつかある。例えば、US4975960は、小鼻をトラッキングすることによって口の位置を特定し、視覚強化型音声認識(vision−augmented speech recognition)を行うシステムを開示している。しかし、この技術の精度は多くの用途、特に、観察者トラッキング自動立体表示装置の制御には不十分である。
【0020】
別の技術が以下の文献に開示されている。
1996年11月にCVPRに提出されたT.S. Jebara and A. Pentlandの”Parametrized Structure from Motion for 3D Adaptive Feedback Tracking of Faces”, MIT Media Laboratories, Perceptual Computing Technical Report 401、 A. Azarbayejaniらの”Real−Time 3D tracking of the Human Body”, MIT Laboratories, Perceptual Computing Section Technical Report No. 374, Proc IMAGE’COM 1996, Bordeaux, France, 1996年5月、Computer Vision and Pattern Recognition Conference、CVPR’96に提出されたN. Oliver and A. Pentlandの”LAFTER:Lips and Face Real Time Tracker”, MIT Media Laboratories, Perceptual Computing Section Technical Report No. 396、および、A. Pentlandの”Smart Rooms”, Scientific American, Volume 274, No. 4, pp.68−76,1996年4月。しかし、これらの技術においては、商品化には非現実的である高度なアルゴリズムを複数使用しなければならない。さらに、信頼性を確保するには、ある程度の照明管理が必要である。
【0021】
A. Suwaらの”A video quality improvement technique for videophone and Videoconference terminal”, JEEE Workshop on Visual Signal Processing and Communications, 21−22、1993年9月, Melbourne, Australiaは、ビデオカメラを用いた別の技術を開示する。この技術は、スキンカラーアルゴリズム(skin colour algorithm)を用いた映像圧縮向上システム(video compression enhancement system)を提供し、頭の位置の近似トラッキングを行うことにより、テレビ電話用途における圧縮比を向上する。しかし、そのトラッキング精度は多くの用途において不十分である。
【0022】
従来のビデオカメラのほとんどの出力はアナログであり、コンピュータ処理を行うためには、これをデジタルデータに変換する必要がある。商業上魅力的な市販のビデオカメラは、各フレーム32をインターレースされた2つのフィールド33および34で構成する添付の図9に示すようなインターレースラスタスキャン技術を利用している。各フィールドについて、そのフィールドを処理する前に、そのフィールドをデジタル化するのにある固定時間がかかる。これを、添付の図10に示す。第1のフィールドは期間35の間にデジタル化され、計算を開始できるのは時間36であるので、第1のフィールドは、第2のフィールドをデジタル化し得る期間37において処理できる。画像のデジタル化の開始から位置データが得られるまでの時間間隔を待ち時間(time latency)と呼ぶ。図中、この待ち時間を参照符号38で示す。更新頻度は、位置データの更新頻度に関連する。図10に示す場合のように、計算時間が1フィールドをデジタル化する時間を上回らない場合、更新頻度は、フィールドデジタル化レートと同じである。
【0023】
上記のように、要求されるシステム応答時間は、待ち時間38だけでなく、位置情報をウィンドウステアリングメカニズムに送るのに必要な通信時間、ならびに現ウィンドウ位置と次のウィンドウ位置との切換えに必要な時間をも含む。
【0024】
フィールドのデジタル化は、「リングバッファ(ring buffer)」を用いて、計算処理と並行して行われる。図11に模式的に示すように、リングバッファ39は、2つのメモリブロック40および41を含むメモリバッファである。メモリブロック40および41は、それぞれが、フィールドバッファであり、1フィールド分のデジタル画像を格納するのに十分な大きさである。従って、バッファ40および41の一方を現フィールドのデジタル化に使用している間、他方のバッファによって前フィールドを処理することができる。
【0025】
1フィールド分の画像を捕捉するのに必要な時間は、約50フィールド/秒で動作するPALカメラを使用した場合には約20ミリ秒であり、約60フィールド/秒で動作するNTSCカメラを使用した場合には約16.7ミリ秒である。上記および図8に示したように、典型的な自動立体表示装置において、最大頭移動速度が約500ミリメートル/秒であり、測定誤差が約5ミリメートルである場合、図1に示したトラッキングシステム2、表示装置制御プロセッサ5およびステアリングメカニズム6が、頭の動きを検出してこれに応答するのに有する時間は、わずかに約22ミリ秒である。PALカメラを使用する場合、画像を処理し、通信およびウィンドウステアリングに起因する他の待ち時間をカバーするのに残された時間は、約2ミリ秒である。NTSCカメラを使用した場合、この時間を約5.3ミリ秒まで延長することができる。このように、利用可能な時間によって、商業上魅力的な標準ハードウェアを用いる場合に使用可能な処理技術が制限される。実際にかかる時間が上記の制限時間を越える場合には、観察者がフリッカの無い立体画像を見るために、頭の動きを制限する必要が生じ得る。
【0026】
非標準の高速カメラを用いれば、映像フィールドをデジタル化するのに必要な時間は低減されるが、これは、コストが実質的に増大するので望ましくない。高速カメラを使用しても、それを動作させる速度には限界があり得る。コストを削減し、使い易さを高めるためには、可視光または赤外線の特別な光源を必要としないことが非常に望ましい。従って、トラッキングシステム2は、通常の電源を使用したときに光源の強度が約100Hzまたは約120Hzで振動する通常の光源で使用可能であるべきである。これは、例えばイギリスの電源周波数50Hz、あるいはアメリカの電源周波数60Hzの2倍である。カメラがこの周波数に近いあるいはそれを上回る速度で動作する場合、異なる時間における画像の強度は大幅に異なり得る。この影響を解消するには、さらに複雑な計算が必要になり、高速カメラを使用する利点が相殺されてしまう。
【0027】
将来的な商品化の際のコストの観点から、利用可能な計算パワーには実用上限界がある。従って、画像データ量をできるだけ少なくするために、低解像度カメラが好ましい。しかし、観察者の頭が画像の中の小さい部分しか占めないように、ビデオカメラは、少なくとも自動立体表示装置の観察領域と同程度の大きさの視野をカバーしなければならない。従って、目等の対象画像領域の解像度は非常に低くなる。フィールドレートの使用によって、垂直方向の解像度は半分になる。
【0028】
ある画像中において対象画像即ち「ターゲット画像」の位置を特定する公知技術が多数存在する。これらの技術の多くは複雑であり、有用な特徴を抽出するために過度の計算パワーおよび/または高い解像度の画像を必要とする。従って、このような技術は、多くの商業的用途において非実用的である。
【0029】
公知の画像トラッキング技術の1つは、R. BrunelliおよびT. Poggioの”Face Recognition: Features Versus Templates”, IEEE Trans on Pattern Analysis and Machine Intelligence, Volume 15, No. 10, 1993年10月に開示されている。この技術を添付の図12に示す。第1の工程45において、位置特定の対象であるターゲット画像を1つ含む「テンプレート」を捕捉する。図13は、サーチ対象画像46と、ターゲット画像を含むテンプレート47とを示す。テンプレートを捕捉した後、それを用いて、各画像フィールドのサブセクションの全てを順番に調べる(interrogate)。工程48において、最後にデジタル化された画像を取得し、工程49において、テンプレートと「その下にある(underlying)」画像エリアの最良の相関関係が存在する位置を検索することによってテンプレートマッチングを行う。具体的には、テンプレートと同じ大きさおよび同じ形状である画像46のサブセクションを画像の左上コーナーから選択し、これをテンプレート47と相関させる。この相関関係を格納し、画素1列分右のサブセクションを選択することにより上記処理を繰り返す。これを、画像の最上行について繰り返し、その後、画素1行分下に移動してこの処理を繰り返す。従って、添付の図14に示すように、M×N画素の画像およびm×n画素のテンプレートの場合、位置の数は(M−m+1)×(N−n+1)となる。これらの位置についての交差相関(cross−correlation)関係は、これらの位置の2次関数を形成し、添付の図15に示す面のようにプロットされ得る。この面のピークは、最良マッチング位置を示す。
【0030】
工程50において、ピーク相関関係即ち最良相関関係が所定の閾値よりも大きいかどうかを判定する。そうである場合、最後にデジタル化された画像内にターゲット画像が検索されたと仮定でき、この情報を、例えば図12の参照符号51のように使用することにより、観察者トラッキング自動立体表示装置を制御することができる。次のデジタル化画像が捕捉されると、工程48〜工程51が繰り返され、その後も同様の処理が繰り返される。
【0031】
別のテンプレートマッチング技術が、US3828122に開示されている。US3828122は、航空機搭載ミサイル用の、一連の画像を提供するビデオカメラを有するターゲットトラッキング装置を開示する。ユーザは、表示装置の画像上で(小さい矩形を含んだ)大きい矩形を動かすことによって、第1の画像上にターゲットを特定する。小さい矩形がターゲットに重なったとき、小さい矩形の中の画像がターゲットメモリに格納される。次の画像を受け取ると、大きい矩形の中の画像の位置を現フレームメモリに格納し、装置はターゲットが大きい矩形の中心にあるかどうかを判定する。具体的には、ターゲットメモリの内容を、大きい矩形の中における小さい矩形の全ての位置について、現フレームメモリの内容に相関させ、最大相関値を示す位置を選択する。
【0032】
テンプレートマッチングは、コンピュータで実施するには比較的容易な処理であるが、計算集約型の処理である。直接テンプレートマッチングを行うには、非常に高性能なコンピュータハードウェアが必要であり、これは、商品化のためには非実用的である。
【0033】
EP0579319は、テレビ電話からの一連の画像において顔の動きをトラッキングする方法を開示する。第1のフレームにおいて、顔の画像についての重心(centroid)および動きベクトルを求め、これを用いて、次のフレームの重心を推定する。第1のフレームと次のフレームとにおける重心の周りのエリアを比較することにより、推定した重心の周りに画像を形成する。第1のフレームと前フレームの顔の位置を比較することにより、動きベクトルを推定する。
【0034】
この技術には、いくつかの欠点がある。例えば、重心を中心として形成される画像の形状およびサイズが、フレーム毎に異なり得る。従って、重心が、例えば観察者の目と目の中間点である顔の画像中の同じ位置を指さない。この結果、トラッキングにおける実質的な誤差を生じる。さらに、第1のフレームにおいて重心の初期位置を求めた後、それ以降の重心位置推定は、動きベクトルを求めることによって行われる。従って、動きベクトルを求める際に誤差が累積し得る。このように、この技術は、テレビ電話の用途には適しているかもしれないが、観察者トラッキング自動立体表示装置における使用には精度が不十分である。
【0035】
本発明はかかる問題点を解決するためのものであって、その目的は、望ましくないまたは非実用的な大きい計算パワーを必要とせずに、ターゲット画像の位置を高速に示す、画像トラッキングシステム、観察者トラッキング自動立体表示装置および画像トラッキング方法を提供することである。
【0036】
【課題を解決するための手段】
本発明による画像トラッキングシステムは、画像シーケンスを取得する画像シーケンス取得手段と、該画像シーケンス取得手段によって取得された前記画像シーケンスが与えられる制御部とを備えた画像トラッキングシステムであって、該制御部が、前記画像シーケンス取得手段によって取得された画像シーケンスの1つの画像である第1の画像の全体に対してターゲット画像のテンプレートによるテンプレートマッチングを適用し最良の相関値が得られる位置を検出して、その検出された位置をターゲット位置とする第1の手段と、前記第1の画像と、該第1の画像の次に利用可能な前記画像シーケンスの1つの画像である第2の画像とに対して微分法を適用して両画像間の前記ターゲット位置の移動量を算出する第2の手段と、前記第1の手段によって検出されたターゲット位置と前記第2の手段によって算出された移動量とに基づいて前記ターゲット位置を更新する第3の手段と、該第3の手段によって更新されたターゲット位置を中心とした所定の大きさの領域に対してターゲット画像のテンプレートによるテンプレートマッチングを適用して最良の相関値が得られた位置を検出し、該位置をターゲット位置として更新する第4の手段とを有し、前記第2の手段は、前記第2の画像を前記画像シーケンスの新たな画像に置き換えるとともに前記第1の画像を前記第2の画像に置き換えた後に、該第4の手段によってターゲット位置が更新されると、該ターゲット位置と前記第2の手段によって算出された移動量とに基づいて前記ターゲット位置の移動量を算出するものであり、これにより、上記目的が達成される
前記第2の画像が、前記第1の画像と連続している。
前記第1の画像が、前記画像シーケンスのそれぞれの画像である。
前記画像シーケンス取得手段は、前記画像シーケンスの画像をリアルタイムで前記制御部に与える。
前記第2の画像が、前記画像シーケンス取得手段からリアルタイムで取得された画像である。
前記画像シーケンス取得手段が、ビデオカメラを含む。
前記画像シーケンス取得手段が、前記第1の画像および前記第2の画像を格納するメモリを含む。
前記画像シーケンスが、インターレースされた連続するフィールドを含む。
前記制御部が、プログラムドプロセッサである。
前記第2の手段は、前記第2の画像が前記画像シーケンス取得手段によって与えられるとすぐに前記移動量を算出する。
前記第4の手段は、前記第2の画像上における前記ターゲット位置を更新すると、すぐに、前記テンプレートマッチングを適用する。
前記第4の手段の前記テンプレートマッチングが適用される所定の大きさの領域は、前記画像シーケンスの画像よりも小さく且つ前記第3の手段によって更新されたターゲット位置を含む。
前記所定の大きさの領域の中心が、前記第3の手段によって更新されたターゲット位置である。
前記第1の手段は、前記最良の相関値を所定の閾値と比較し、該最良の相関値が閾値を越えない場合には、前記画像シーケンスの新たな画像を第1の画像として前記テンプレートマッチングを実施する。
前記第4の手段は、前記最良の相関値を所定の閾値と比較し、該最良の相関値が閾値を越えない場合には前記ターゲット位置を更新せず、前記第1の手段は、その後に、前記画像シーケンスの新たな画像を第1の画像として、前記テンプレートマッチングによるターゲット位置を検出する。
前記第1の手段は、前記所定の大きさの画像部分内の複数の第1の領域において前記ターゲット画像のテンプレートマッチングを行い、その後に、該第1の領域よりも小さい領域であって、該テンプレートマッチングによるターゲット位置の近傍に配された複数の第 2の領域において前記テンプレートマッチングを行う。
前記画像シーケンス取得手段によって取得された前記画像シーケンスの1つの画像の一部を前記ターゲット画像として捕捉して格納する第5の手段を備えている。
前記第5の手段が、前記捕捉して格納された画像シーケンスの画像を表示する表示装置と、該表示装置上に境界画像を生成する画像生成装置とを備え、該境界画像内の画像領域の捕捉がユーザによって指示される。
前記表示装置上の前記境界画像の位置がユーザによって指示される。
前記第2の手段は、1組の方程式
【数2】
Figure 0003565707
を解くことによって、前記移動量を算出するようになっており、ここで、x およびy はi番目の画像要素のデカルト座標であり、iは1≦i≦jである整数であり、jは1よりも大きい整数であり、f 1 およびf 2 は前記第1の画像および前記第2の画像を表す関数であり、ΔxおよびΔyは前記動きのデカルト成分である。
また、本発明の観察者トラッキング自動立体表示装置は、前記画像シーケンス取得手段が、ビデオカメラを含む前記画像トラッキングシステムと、右目用ウィンドウおよび左目用ウィンドウを有し、該右目用ウィンドウおよび左目用ウィンドウのそれぞれに右目用画像および左目用画像を表示することによって立体画像を表示する表示装置とを備え、前記ビデオカメラは、前記表示装置の正面の観察者の画像を捕捉し、前記トラッキングシステムにおける前記ターゲット画像が、該観察者の目の画像であり、前記トラッキングシステムによって得られるターゲット位置に基づいて、前記表示装置の右目用ウィンドウおよび左目用ウィンドウの位置をステアリングするステアリング手段をさらに有する。
前記ビデオカメラが、前記表示装置の光心に配置されている。
また、本発明の画像トラッキング方法は、(1)取得された画像シーケンスの1つの画像である第1の画像全体に対してターゲット画像のテンプレートによるテンプレートマッチングを適用し最良の相関値が得られるテンプレートの位置をターゲット位置として検出する工程と、(2)前記第1の画像の次に利用可能な画像シーケンスの1つの画像である第2の画像を取得する工程と、(3)前記第1の画像と前記第2の画像とに対して微分法を適用して両画像間の前記ターゲット位置の移動量を算出する工程と、(4)前記ターゲット位置と前記移動量とに基づいて該ターゲット位置を更新する工程と、(5)更新された前記ターゲット位置を中心とした所定の大きさの領域に対してターゲット画像のテンプレートによるテンプレートマッチングを適用して最良の相関値が得られた位置を検出し、該位置をターゲット位置として更新する工程と、(6)その後に、前記第2の画像を前記画像シーケンスの新たな画像に置き換えるとともに前記第1の画像を前記第2の画像に置き換えた後に、前記工程(3)〜(5)を繰り返す工程と、を包含する。
【0068】
以下、本発明の作用を説明する。
【0069】
画像トラッキングシステムは、画像シーケンスをプロセッサに与えるためのビデオカメラまたは他の装置を備えている。画像は、映像フィールドシーケンスの形態でリアルタイムに与えられる。プロセッサは、例えば画像フィールドの中のターゲット画像の位置が特定され得る領域に限定してテンプレートマッチング技術を用いることによって、前画像フレーム内におけるターゲット画像の位置を求める。その後、プロセッサは、例えば微分技術を用いることによって、前フィールドと次のフィールドの間の動きを求める。その後、前フィールド内におけるターゲット画像の位置と、前フィールドとそれに連続する次のフィールドの間の動きとの和として、更新されたターゲット画像位置を形成する。この位置データを、例えば自動立体3D表示装置のウィンドウステアリングメカニズムに供給する。これにより、観察者の目をトラッキングし、観察者の動きの自由度が拡大された表示装置の自動立体観察を確実にする。
【0070】
【発明の実施の形態】
以下、添付の図面を参照しながら、実施例によって本発明をさらに説明する。全ての図面において、同一の参照符号は同一の部材を示す。
【0071】
図16は、本発明の実施形態の構成する観察者トラッキング自動立体表示装置を示す。観察者トラッキング自動立体表示装置は、これも本発明の実施形態を構成するビデオ画像トラッキングシステムを含む。図16に示すトラッキングシステム2は、図1のものとは異なり、トラッキングセンサ3が、約60Hzのフィールドレートで動作するSONY XC999 NTSCカメラを含み、トラッキングプロセッサ4にはマウス60が設けられている。トラッキングプロセッサ4は、約150MHzで動作するR4400プロセッサを備えたIndyシリーズのSilicon Graphicsエントリーレベルマシン(entry level machine)と、カメラ3によって捕捉される各フィールド毎に640×240画素(ピクセル)の解像度を持つ映像デジタイザおよびフレーム記憶装置とを有する。カメラ3は、3D表示装置7の上に配置され、表示装置の正面に座っている観察者8に向けられる。観察者8とカメラ3の間の通常の距離は、約0.85メートルであり、この距離において、観察者は、横方向即ちX方向において約500ミリメートルの移動自由度を有する。カメラ3によって形成される画像における2つの画素間の距離は、X方向およびY方向において、それぞれ、約0.7および約1.4ミリメートルに相当する。それぞれインターレースされたフィールドが個々に用いられるので、Y方向の解像度は半分になる。後述のテンプレートは、150×50画素の大きさに選択される。これは、約105×70ミリメートルの領域に相当する。マウス60は、後述のテンプレート捕捉の際に用いられる。カメラ3は、周囲照明下におけるユーザの画像の連続的なシーケンスを捕捉し、これをプロセッサ4に与える。
【0072】
図17は、プロセッサ4が行うトラッキング方法を概括的に記載する。初期化ステージの工程61において、ターゲット画像を有するテンプレートをインタラクティブに捕捉する。初期化ステージに続いて、工程62のグローバルテンプレートサーチからトラッキングステージが始まり、引き続き、動き検出工程63およびローカルターゲットサーチが行われる。工程65では、トラッキングが失なわれたかどうかをチェックする。トラッキングが失われていた場合、制御部は、工程62に戻り、もう1度グローバルテンプレートサーチを行う。トラッキングが失われていなかった場合、制御部は、動き検出工程63に戻る。このように、工程63〜工程65はトラッキングループを形成し、これは、トラッキングが維持されている限り行われる。動き検出工程63は、微分動き測定法(differential movement method)によって、位置データ66を供給する。微分動き測定法は、連続するフィールド間におけるターゲット画像の動きを求め、これを、先行フィールドについて先行の工程64のグローバルテンプレートマッチングによって検索された位置に加算する。
【0073】
図18は、図17のトラッキング方法をより詳細に示す。インタラクティブテンプレート捕捉工程61では、ユーザに、表示装置7およびマウス60を用いてテンプレートを形成するターゲット画像を選択させる。この動作モードの間、図19に示すように、表示装置7は、ビデオカメラ3によって捕捉される観察者8の画像を表示している。プロセッサ4は、この画像に、必要なテンプレートサイズのグラフィカルガイド67と、観察者の目を表示装置7上の矩形67内に入れて中心線68に合わせるように観察者に指示するテキストとをオーバーレイする。観察者は、観察者自身がグラフィカルガイド67に対して正しい位置になったところで、マウス60のボタンを操作する。これにより、グラフィカルガイド67内の観察者の画像の一部をプロセッサ4が捕捉および格納し、これをテンプレートまたはターゲット画像として使用する。
【0074】
あるいは、マウス60を用いて、グラフィカルガイド67を、観察者の目に対して正しい位置になるようにドラッグして、その後、マウスボタンを押してターゲット画像を格納するようにしてもよい。
【0075】
インタラクティブテンプレート捕捉61の利点の1つは、観察者が、許容可能な位置精度で、テンプレートの選択に関する決定を行うことができることである。これは、人間の顔の認識、および、目の領域のような対象画像領域の選択を含む。人間の視覚によればこの処理は簡単であるが、コンピュータにとっては、年齢、性別、目の形状および様々な照明条件の下での肌の色が異なる可能性のある全ての種類の人間について、テンプレート捕捉を行うことは困難である。テンプレート捕捉は、あらゆる形状および色の眼鏡をかけた観察者に対して行うことができるが、他の公知のタイプのトラッキングシステムは、眼鏡をかけた観察者には対応できない。
【0076】
図18に示すように、工程61は、最新のデジタル画像をプロセッサ4のフレーム記憶装置から取り出す工程69を含む。工程70において、テンプレート位置を示すグラフィックスオーバーレイを描画する。工程71では、マウスボタン等の入力装置が操作されたかどうかを検出することによって、テンプレート位置が正しいかどうかをテストする。正しくない場合には、制御部は工程69に戻る。ターゲット画像が捕捉されると、制御部は、グローバルテンプレートサーチ工程62に進む。
【0077】
工程72において、フレーム記憶装置から次の利用可能なデジタル画像を取得し、工程73において、この画像全体にテンプレートマッチングを適用して、テンプレートを形成するターゲット画像の開始位置(座標:X、Y)を検索する。後述するように、開始位置は、テンプレートとその下にある画像エリアとの最良相関値が得られる位置である。工程74において、工程73で求めた最良相関値が所定の閾値よりも大きいかどうかを判定する。最良相関値が閾値を越えない場合には、制御部は、工程72に戻り、次の利用可能なデジタル画像についてこの処理を繰り返す。最良相関値が閾値を越える場合、制御部は、ターゲット確認を伴った動き検出を行う工程63、64および65に進む。
【0078】
工程75において、最後に処理された画像fを格納し、次の利用可能な画像fを取り出して処理する。工程76において、画像fおよびfについて、後述の微分法を適用して、両画像間におけるテンプレートの移動即ち動きを計算する。この動きは、デカルト成分ΔXおよびΔYを持つ。工程77では、工程76において計算された動きを、前のテンプレートマッチングの際に求めた位置に加算して位置データを更新する。これにより、工程78で、表示装置制御プロセッサ5を介してウィンドウステアリングメカニズム6に出力される位置データX、Yは、X+ΔX、Y+ΔYとして生成される。
【0079】
工程78の後、工程79において、後述のように、画像fにテンプレートマッチングを適用する。具体的には、位置X、Yを中心とした画像中の小さい領域に対して階層サーチを適用する。このテンプレートマッチングは、交差相関技術を含み、工程80において、工程79で求めた最良相関値を所定の閾値と比較することによって、トラッキングが失なわれたかどうかを検出する。最良相関値が所定の閾値未満である場合、制御部は、グローバルテンプレートサーチ62の中の工程72に戻り、次の利用可能なデジタル画像内におけるターゲット画像の位置を再び特定する。最良相関値が所定の閾値よりも大きい場合、工程81において、最良相関値位置をパラメータXおよびYとして入力することにより位置データを更新する。その後、制御部は工程75に戻り、観察者トラッキングが必要である間、工程75〜工程81を繰り返す。
【0080】
テンプレートマッチング工程73は、図12〜図14を参照しながら上記したタイプのものである。初期工程の際、および、工程80においてトラッキングが失われたと判定される度に、全画像エリア中におけるターゲット画像の位置を特定する必要がある。具体的には、画像全体中におけるターゲット画像の位置が分かるまでの間は、微分動き測定法76を開始することはできない。
【0081】
好適な実施形態においては、図14を参照しながら説明したように、テンプレート中のターゲット画像を、テンプレートによってオーバーレイされた各サブセクションに交差相関させることによってテンプレートマッチングが行われる。テンプレートと画像中の現サブセクションとの相似性(similarity)は、あらゆる適切な測定基準(metric)によって測定され得るが、好適な実施形態においては正規化された交差相関を用いる。テンプレートマッチングされる画像エリアの左上コーナーの座標x、yに対する正規化された交差相関C(x、y)は、
【0082】
【数3】
Figure 0003565707
【0083】
但し、f(x、y)は、入力画像を表す関数、
Tp(x、y)は、テンプレートのターゲット画像を表す関数、
(x、y)は、テンプレート内の各画素の座標、
Mは、テンプレート内の合計画素数
は、f(x、y)の自己相関値
Tpは、テンプレートTp(x、y)の自己相関値
として計算される。
【0084】
上記自己相関値は、
【0085】
【数4】
Figure 0003565707
【0086】
【数5】
Figure 0003565707
【0087】
によって与えられる。
【0088】
交差相関C(x、y)の値は、[0.0,1.0]の範囲内にある。但し、最大値1.0は、テンプレートがその下にある画像と同一であるときに得られる。
【0089】
これと同じテンプレートマッチング技術を工程79においても用いているが、工程79では、図20に示すように、現在利用可能な画像の中の比較的小さい領域に対してテンプレートマッチングを適用する。参照符号85は、前画像フィールド内において特定されたターゲット画像位置を示す。連続するビデオ画像フィールド間の時間間隔において、生じ得る最大動きは、観察者の最大移動速度によって制限される。上記した特定のハードウェア例の場合、これは、約8.33ミリメートルの最大垂直または水平移動86に相当する。従って、観察者の目の領域は、テンプレートと同じ(矩形の)形状を有するとともにテンプレートと同心であり、縦横のサイズがそれぞれ約16.67ミリメートルだけ大きい境界87内になければならない。このように、テンプレートマッチング工程79は境界87内に限定されており、計算時間が最少限に抑えられる。
【0090】
工程73および工程79のテンプレートマッチングをさらに最適化するには、図21に示すように、最適化階層テンプレートマッチング技術を採用する。このテンプレートマッチングは、第1および第2のサブ工程で行われる。第1のサブ工程において、工程73では画像全体(工程79では境界87)中の疎らな位置においてテンプレートマッチングを行う。下にある画像セクションとの交差相関を行うのに、テンプレート47の全画素を用いるのではなく、比較的粗いグリッドの交点にある88および89のような画像要素を用いる。これにより、テンプレートおよび下にある画像領域がサブサンプリングされ、交差相関計算において処理しなければならないデータの量が低減される。各画像要素を表すデータを切り捨て(truncate)ることによって計算時間をさらに削減し得る。
【0091】
参照符号90は、最後に検出されたターゲット画像の位置を示す。テンプレートマッチングの第1のサブ工程が完了した時点で、例えば、位置91を中心としたターゲット画像について相関値が最大となることが分かる。
【0092】
その後、第2のサブ工程を行って、ターゲット画像の位置を高精度化(refine)する。上記と同じ交差相関計算を行うが、ここでは、より小さい領域92に限定してサーチを行う。領域92の寸法は、縦横それぞれ、第1のサブ工程における疎らな段階(ステップ)の2倍である。このサブ工程は、より細かい段階(ステップ)およびより高い画像要素解像度を用いて行われ、この結果、現処理中画像フィールド内のターゲット画像について高精度化された位置93が検索される。
【0093】
テンプレートマッチング工程を2工程より多数のサブ工程に分割してもよいが、実際には、効率および精度の観点から2サブ工程の構成が適当であることが分かっている。これは、第1のサブ工程において2つの隣接する位置間のステップサイズを大きくし過ぎると、正しい「粗」位置を簡単に見過ごしてしまうからである。
【0094】
上記のように、工程74および80においては、それぞれ工程73および79において得られた最良交差相関値を所定の閾値と比較することにより、ターゲット画像が、現画像内(工程74)あるいは画像の境界87内(工程80)に存在するかどうかを判定する。もし、
頭の動きが並進的であり、
強度変化が全くなく、
カメラが線形(linear)であり、光学系の故障が全くなく、
電子回路からのランダムノイズが全くなく、
デジタル化誤差が全くない
場合、最良一致(best−matched)位置における交差相関値は、理論上1となる。
【0095】
実際には、これらの条件を満たすことは不可能であり、テンプレートによって画像内に完全な一致が検索されることはない。従って、最良交差相関値を所定の閾値と比較し、これにより、許容可能な一致が検索されたかどうかを確立するとともに、交差相関値の比較的低い、不適切な画像部分にシステムがロックすることを防ぐ。予め設定される閾値は、様々な照明条件の下で多数の異なる種類の人間を対象として実験を行うことによって発見的に求める。最大値1.0の正規化された交差相関値を用いる場合、典型的な閾値の値は約0.5である。
【0096】
テンプレート47はどのような形状であってもよいが、コンピュータ処理が容易な矩形が好ましい。テンプレートのサイズは、ターゲット画像の位置を求める効率および精度に影響し得るので重要である。テンプレートが大きい程、より鋭いピーク相関が得られ、ピーク位置がより正確に求められる。この主な理由は、画像領域が大きい程、顔の特徴をより多く含み、このため、ピーク位置からの微少な移動でも交差相関値をより実質的に変化させるからである。しかし、テンプレートが大きい程、より多くの計算時間を必要とする。また、テンプレートマッチングが画像の背景内容に影響されることを防ぐために、テンプレートは、画像内の観察者の顔の境界を越えるべきではない。これらのファクタのバランスがとれる典型的なサイズは、画像内の観察者の両目の領域を丁度カバーする程度のサイズである。上記のパラメータの場合、150×50画素のテンプレートサイズが適切である。
【0097】
観察者の両目の中間点を用いて観察ウィンドウのステアリングを制御しているが、上記の較正を人間の観察者が行う場合には、コーナー等のテンプレートの他の位置を用いることも可能である。較正の結果には、暗示的且つ自動的にオフセットが含まれる。
【0098】
微分法76においては、2つの連続する画像フィールド間の相対移動を測定し、この移動が純粋に並進的であると仮定する。この移動は、周知のテイラー近似を用いて2つの連続する画像フィールドの強度の差から求められる。テイラー近似は、例えば、T.S.Huang(編), Image Sequence Analysis, ISBN 3−540−10919−6, 1983年、に開示されている。f(x、y)が、連続するフィールドの内の第1のフィールドの点(x、y)における画像特徴の強度であり、この画像特徴が(Δx、Δy)だけ移動して第2のフィールドにおいて位置(x+Δx、y+Δy)にあるとすると、第2のフレームのグレーレベルf(x+Δx、y+Δy)は同じグレーレベルを有する、即ち、
(x、y)=f(x+Δx、y+Δy)
となる。
【0099】
動きの量が微少である場合、上記式の右辺は、1次の微分項(first order differential terms)を切り捨てたテイラー展開を用いて、
【0100】
【数6】
Figure 0003565707
【0101】
と近似することができる。
【0102】
上記式において、ΔxおよびΔyは、動きを表す未知数である。このように、2つの連続する画像における1対の画素から1つの式が得られるので、2対の画素からは2つの式の線形システムが得られる。この線形システムは、上記2つの未知数について解くことができ、これにより、動きが与えられる。実際には、ランダムな誤差を低減するために、周知の最少2乗法を利用して、多数の画素を用いる。例えば、約50〜約60個の画素を用いることが可能である。
【0103】
画素対は、観察者の目の領域等のターゲット画像から選択するべきである。しかし、連続するフィールド間の動きが求められるまでの間、ターゲットの実際の位置は未知である。実際には、図20を参照しながら上記したように、2つの連続するフィールド間の実際の動きには限界があるので、図20に示す領域94から画素対を選択することが可能である。観察者の移動速度が設定最大速度未満であれば、領域94は、移動の方向に関わらず、連続する画像フィールド内に頭の一部を常に含んでいる。
【0104】
微分法をより明瞭に説明するために、1次元の例を図22に示す。この場合、テイラー近似は、
【0105】
【数7】
Figure 0003565707
【0106】
にまで低減する。これは、
【0107】
【数8】
Figure 0003565707
【0108】
のように書き直すことができる。但し、
Δf=f(x)−f(x)
である。
【0109】
図22に示す曲線95および96は、ある画像の連続するフィールドに対応する、時間tおよびtにおける1次元動きターゲットの画像をそれぞれ表している。この移動が行われた時点で、時間tにおいて位置xにある点Pは、時間tにおいては位置x+Δxにある点P’である。同様に、時間tにおける点Pは、時間tにおいて点P’になる。図22において簡単な三角形の幾何学形状で示すように、動きΔxは、位置xにおける強度差Δfおよびこの位置におけるターゲット強度の勾配から計算できる。
【0110】
実際には、偏導関数(partial derivatives)で表される2次元テイラー近似における勾配は、数値の差、即ち、
【0111】
【数9】
Figure 0003565707
【0112】
【数10】
Figure 0003565707
【0113】
によって近似され得る。
【0114】
これらの近似は、画像フィールドに存在する不可避のノイズの影響を受ける。この影響を低減する方法の1つは、小さいウィンドウに対して多項式面(polynominal surface)をフィッティングさせることである。例えば、3×3画素のウィンドウに対して、
f(x、y)=ax+by+cxy+dx+ey+g
の面をフィッティングさせることが可能である。
【0115】
パラメータ{a、b、c、d、e、g}は、費用関数(cost function)
【0116】
【数11】
Figure 0003565707
【0117】
を最小化することによって求められる。但し、合算(summation)は、現画素を中心とした3×3のウィンドウに対して行われる。最小化は、各パラメータに関する偏導関数が0の場合に達成される。これにより、容易に解くことができる方程式系が得られる。すると、f(x、y)の偏導関数は、
【0118】
【数12】
Figure 0003565707
【0119】
【数13】
Figure 0003565707
【0120】
のように計算される。3×3のウィンドウについて、最終的な式は、
【0121】
【数14】
Figure 0003565707
【0122】
【数15】
Figure 0003565707
【0123】
によって表すことができる。
【0124】
微分法76は計算上効率的であり、ここに記載される特定の実施形態において、約2ミリ秒しか必要とせず、適切な精度を提供するので、工程78において供給される位置データの出力を用いて自動立体表示装置のステアリングメカニズム6を制御することができる。しかし、動き検出法だけを用いて安定なトラッキングを行うことはできない。なぜなら、検出される動きには常に測定誤差があるからである。合間に訂正を行わずに動き検出法を繰り返すだけでは、誤差が累積し、正確なトラッキングがすぐに失われる。連続するフィールドのそれぞれについて正確な位置測定を行うためにはテンプレートマッチング工程79が必要である。微分法76で1回の反復処理に生じる誤差は小さすぎて正確な観察者トラッキングに影響しない。工程79で行われるターゲット確認において、検出された位置において、ターゲット画像が本当にそこにあることを確認するとともに、次の動き検出工程76の前に、位置データを高精度化する。上記のように、動き検出工程にかかる時間は約2ミリ秒であり、フィールド反復レートが約60Hzの場合、次のデジタル化画像が用意されるまでに約14.7ミリ秒が残る。この「待ち時間」は、テンプレートマッチング工程79がターゲット確認を行うのに十分である。
【0125】
工程77において、工程76で検出された動きを、前画像フィールドについて工程79において求められた位置に加算する。このように、工程78においてターゲット画像位置を示すのに1回の微分法工程76の結果(含まれる誤差は1組のみ)だけを用いるので、微分法工程76における累積誤差が回避される。テンプレートマッチング工程79において、誤差を含むターゲット画像位置が計算されるが、現ターゲット画像に対して1回毎にテンプレートマッチングを行うので、この誤差は累積しない。従って、得られる位置データは、常に、正しいターゲット位置+単一の測定誤差となる。
【0126】
動き検出とテンプレートマッチングとは効率的に協働する。動き検出は、高速に位置データを生成し、これにより、待ち時間が最小限になる。動き検出の結果によって、テンプレートマッチングのサーチエリアが限定される。テンプレートマッチングを利用することによって、ターゲット位置を確認するとともに、動き検出による測定誤差の累積を防ぐ。この効率的な組合せによって、短い待ち時間、高い更新頻度および十分な測定精度の要件が満たされるので、観察者トラッキング自動立体3D表示装置に適した信頼性の高いトラッキングシステムを提供することが可能になる。
【0127】
図23は、画像フィールドシーケンスのデジタル化のタイミングに関連した、工程76および79のタイミングを示す。デジタル化は、時間97から開始され、図16に示すようなフィールドレート60HzのNTSCビデオカメラを用いて、各フィールドが、約16.67ミリ秒の期間内にデジタル化される。プロセッサ4は、図11に示すタイプのリングバッファを含んでおり、次のフィールドを捕捉している間に、各フィールドが各バッファメモリから利用可能である。
【0128】
時間98から計算が開始され、グローバルテンプレートサーチ62が既に行われてターゲット画像の初期位置が与えられているとすると、約2ミリ秒以内に工程76が行われ、位置データPmdが利用可能となり、これを前工程79においてテンプレートマッチングによって求めた位置Ptmに加算することができる。従って、新しいフィールドが捕捉およびデジタル化された後すぐに、工程76が開始される。工程79は、工程76が完了した後すぐに終了し、これにかかる時間は約10ミリ秒である。従って、各画像フィールドについての画像全体のトラッキングは、1つの画像フィールドをデジタル化するのに必要な時間以内に完了するので、観察者位置測定の反復レートは、約60Hzのフィールド反復レートに等しい。位置測定の待ち時間は、約18.7ミリ秒であり、約5ミリメートルよりも優れたX方向精度を得ることが可能である。これは、例えば図2に示す自動立体表示装置において使用される画像トラッキングシステムには十分である。
【0129】
グローバルテンプレートサーチ62には、約60ミリ秒の固定時間がかかる。例えば観察者がビデオカメラ3の視野外に出ることにより、工程63、64および65においてターゲット画像が失われた場合、トラッキングシステムはターゲット画像が失われたことを検出し、観察者が視野の中に戻ってトラッキングシステムが再びその位置を特定するまでの間、グローバルテンプレートサーチ62に切り換える。
【0130】
微分法76は、2つの連続するフィールド間の動きが画素3〜4個分を越えない場合に良好に機能する。これは、大凡、図2に示す自動立体サイズの典型的な実施形態における観察者の平均速度であるが、実際には、観察者がこの2倍の速度で動く場合も時々ある。このような状況下では、微分法は、動きを過小評価する傾向がある。この問題を解決する技術の1つは、反復微分法(iterative differential method)を用いることである。例えば、連続するフィールド間においてターゲット画像が7画素分動いたにも関わらず第1の反復処理において動きを4画素と推定した場合、次の反復処理までの間、第2の画像フィールドは4画素分だけシフトし得る。このとき、シフトしたフィールドと前フィールドとの間の相対的動きは約3画素であるが、これは、正確に測定され得る。2回よりも多い反復処理を用いることも可能であるが、実際には、2回の反復処理が適当であることが分かっている。
【0131】
上記のように、観察者位置データは、図3に示すようにデカルト座標で表すことができる。上記のトラッキングシステムは、XY方向頭トラッキングを実現するが、観察者がZ方向には移動せずに表示装置のウィンドウ平面23内に留まっている場合には、X位置データのみでも十分な場合がある。通常、観察者がZ方向に動く場合には、Z方向トラッキングが必要となる。しかし、カメラ3のレンズ99の光心が表示装置の光心29と位置的に整合している特別な場合には、Z方向トラッキングは明示的には必要でない。
【0132】
図7に示すように、観察ゾーン28は、水平方向XZ平面において角度的に隔てられている。図24に示すように、カメラレンズ99の光心が表示装置の光心29と位置的に整合している場合、参照符号100等の同一の切替線上の全ての点が、参照符号101等のカメラ3の結像面102上の同一の点に結像する。従って、カメラのある画素のX位置は、観察者の角度的な位置を示し、これを図7の光学系に直接供給することにより、観察者のZ位置を全く知る必要なく、正しくステアリングされた観察ウィンドウを得ることができる。従って、この特定の構成により、単一のカメラを使用して、精度を高めて応答時間を短縮することが可能となり、トラッキングシステムが、このタイプの自動立体表示装置に特に適したものとなる。
【0133】
図4に示すように、自動立体表示装置は、典型的には、ある程度の長手方向の観察自由度を観察者に与える。具体的には、観察者の目が適切な菱形観察ゾーン21および22内に維持されている限り、観察者は表示装置全体にわたって3D画像を知覚する。しかし、長手方向即ちZ方向に移動した場合、観察者がビデオカメラ3に対して近づいたり離れたりするため、ターゲット画像のサイズが変化する。微分法76においては、ターゲットが短い距離しか動かないように、最新の2つの連続する画像フィールドを用いている。従って、このスケーリングの影響(scaling effect)は最小限であり、重大な問題を引き起こすことはない。
【0134】
スケーリングの影響は、テンプレートマッチング工程73および79にとってより重要である。なぜなら、各画像フィールドが、常に、テンプレート捕捉工程61で得た固定テンプレートを用いてサーチされるからである。このスケーリングの影響の結果、最大相関値は、最適値1未満になる。上記した特定の実施形態の場合、測定誤差が約5ミリメートルを上回らなければ、トラッキングシステムは、約0.85メートルの最良観察位置から前後に約150ミリメートルの長手方向の移動を許容できる。
【0135】
上記のように、工程74および80において、所定の閾値を用いて、ターゲット画像の位置が特定されたかどうかをテストする。予め設定される閾値は、様々な照明条件下において、異なる位置および方向の様々な人間に対処できるように、十分に小さくなければならない。しかし、この閾値は、ターゲット画像を誤ったターゲット画像から区別できる程度には大きくなければならない。ターゲット確認は、図25および図26に示す色調(H)、彩度(S)、明度(V)測定等の追加の方法を用いてさらなるチェックを行うことによって向上し得る。
【0136】
図25に示す画像トラッキングは、図17および図18に示すものとは異なり、工程103および104が挿入されている。人間の皮膚の彩度が均一になることは周知である。この均一性は、グレーレベル等の他の画像特徴と比べて、異なる照明条件による影響を受けにくい。照明が均一であれば、顔の大部分にわたって顔の色調および彩度は共に滑らかに変化する。照明が不均一であっても、画像の彩度は観察者の顔の両側で非常にバランスがとれた状態を維持するが、強度画像(intensity picture)は、目に見えて片側では暗く反対側では明るくなり得る。また、観察者の顔の平均彩度値は、より顕著に、背景の平均彩度値と異なる。観察者の顔の彩度の平均値は、頭を移動する際にもほとんど変化しない。これにより、ターゲット確認をさらにチェックすることができる。
【0137】
図26は、可能性のある全ての光の色を含んだ二重円錐としてHSVを示す。二重円錐の軸は、黒から白へのグレースケールの進行を表す。軸からの距離は、彩度を表す。軸を中心とした角度方向は色調を表す。
【0138】
赤、緑および青(RGB)の出力を提供するビデオカメラ3の場合、HSVフォーマットへの変換は、RGB信号の最大値および最小値を検索することによって行われる。この場合、V成分は最大信号の値によって得られる。彩度Sは、V成分が0である場合には0になり、そうでない場合には、最大および最小RGB値の差を最大値で割ったものになる。色調は、
V=0の場合、 H=0
c max=Rの場合、 H=(G−B)/d
c max=Gの場合、 H=2+(B−R)/d
c max=Bの場合、 H=4+(R−G)/d
となる。但し、dは、RGB値の最大値と最少値の差であり、c maxは、RGB値の最大値である。
【0139】
ピーク相関値が閾値を上回る場合、工程103において、テンプレートの下にある画像フィールドの中の最適位置にある領域を、上記のようにRGBフォーマットからHSVフォーマットに変換する。ターゲット画像の平均値s1を計算し、これを、テンプレートの平均彩度と比較する(平均彩度は、固定であり、テンプレート捕捉工程61の間に計算することができる)。平均彩度の差Sは、|s1−s2|/s2として計算し、これを、工程104において、典型的に約0.7〜0.8である別の所定の閾値と比較する。平均彩度が閾値よりも大きい場合、制御部は動き検出工程63に戻り、ターゲット確認が成功したことを示す。Sが閾値未満であった場合には、制御部はグローバルテンプレートサーチ工程62に戻る。このように、この追加的なチェックによって、正しくないターゲット画像に誤ってロックする可能性が低くなる。
【0140】
上記のシステムは、あらゆる頭の移動の際に顔がほぼ真っ直ぐな位置にある単一のユーザに対して単一のテンプレートを用いている。実際には、ユーザは、少しであれば、頭を傾斜および/または回転させてよい。顔の大きさ、顔の特徴および画像の信号対ノイズ比等の複数のファクタに応じて、厳密な範囲はユーザによって異なる。複数のテンプレートを用いて、より大きい回転および傾斜を許容するように、システムを改変することが可能である。図27の初めの行は、ユーザが、角度−A度から+A度まで傾斜し得る場合の単一のテンプレートを示す。第2のテンプレートを角度2Aで作成した場合、このテンプレートを用いて、A度〜3A度の範囲で傾斜した目の領域に対してテンプレートマッチングを行うことができる。同様に、第3のテンプレートを角度−2Aで作成することにより、傾斜範囲を−A〜−3Aに拡張することができる。
【0141】
この例の場合、初めに、第1のテンプレートを用いて最良一致領域を検索し得る。最良相関値が所定の閾値を上回る場合には、その目の領域を検索する。そうでない場合には、第2のテンプレートを用いて、テンプレートマッチング処理を適用する。最良相関値が所定の閾値を上回る場合には、その目の領域を検索する。そうでない場合には、第3のテンプレートを用いて、テンプレートマッチング処理を適用する。
【0142】
例えば、第2のテンプレートを用いて目の領域が検索された場合、次のフレームに対するテンプレートマッチングは、第1のテンプレートではなく、第2のテンプレートを用いて開始され得る。最良相関値が所定の閾値を上回る場合には、その目の領域を検索する。そうでない場合には、その目の領域が検索されるまで、他の2つのテンプレートを順番に用いることができる。
【0143】
より多くのテンプレートを用いれば、許容される傾斜範囲がさらに拡張され得る。
【0144】
ユーザが頭を所望の角度に傾斜させて、上記のインタラクティブな方法を適用して、第2および第3のテンプレートを作成することが可能である。しかし、これは不便であり、またその必要でもない。なぜなら、第2および第3のテンプレートは、第1のテンプレートを所望の角度だけ回転させて計算によって作成することが可能だからである。
【0145】
この方法を適用して、図28に示すようにユーザが垂直方向軸を中心として頭を回転させる際の許容される回転の範囲を拡張することが可能である。但し、この付加的なテンプレートは、個々に手動で捕捉しなければならない。
【0146】
複数のテンプレートを使用すると、使用するテンプレートの数に等しいファクタ分だけ、必要な計算パワーが増大する。同じ性能を維持するためには、より高性能な逐次処理コンピュータ、または並列コンピュータを用いる必要がある。上記のテンプレートマッチング処理自体、および複数のテンプレートの使用は、並列処理に非常に適している。将来、並列計算がもっと容易に利用できるようになれば、このような多重テンプレート技術が、実施および計算効率の点で有利になるであろう。
【0147】
本発明の範囲内で様々な改変を行うことが可能である。例えば、記載した実施形態におけるトラッキングシステムの大部分は、プログラムドデータプロセッサとして実施されているが、他の実施態様としては、カメラ、デジタル信号処理チップおよび適切な記憶装置等の個別の部品の使用が挙げられる。システムを、少なくとも部分的にカメラシステムに内蔵された専用のシリコンチップまたはチップセットとして実現することも可能である。そのようなカメラは、標準映像信号用の第1の出力と、位置データ用の第2の出力とを有し得る。CMOSを利用したカメラシステム等のカメラセンサに直接集積されたシステムは、アナログビデオデータの生成および処理のためのデジタル/アナログコンバータおよびアナログ/デジタルコンバータを必要とせず、これにより、コストを低減し、性能を向上させる機会を提供する。また、可視光カメラの使用を記載したが、赤外線光システム等の他のセンサを用いてもよい。
【0148】
【発明の効果】
本発明によると、望ましくないまたは非実用的な大きい計算パワーを必要とせずに、ターゲット画像の位置を高速に示す画像トラッキングシステムを提供することができる。
【0149】
本発明によると、観察者が、マーカーまたは他の装置を装着する必要がなく邪魔にならない、自動立体表示装置における観察者トラッキング技術が提供される。また、比較的安価な「受動的」ビデオカメラによって観察者を観察することができ、背景または照明を特別に制御する必要もない。観察者トラッキングに必要な全てのデータは、ビデオ画像のみからリアルタイムで抽出することができる。
【0150】
本発明の技術は、リアルタイム、例えば最大約60Hzで、約20ミリ秒未満の待ち時間で動作することができる。これにより、観察者は、頭移動速度を事実上全く制限されることなく、表示装置の視野内で自由に動くことができる。計算パワーに対する過度の要求がなく、低コストで商品化することができる。
【0151】
本発明の技術は、特別な光源の配置なしで周囲光の下で動作できる。これにより、より広い使用環境において使い易さが増す。能動的な可視または赤外線光源からの光が目に入ることが全くないので、視覚的不快感がない。能動的な光源のための部品および電源が不要なので、コストが削減される。
【0152】
観察者が一旦表示装置を離れた後に戻って来た際にも、トラッキングシステムは、非常に短い時間でターゲットの位置を再特定できるので、ユーザは、立体映像を再び見ることができるようになるまでに、実質的な遅延を全く感じない。トラッキング処理を行っている間に、機能が失われることもなく、周囲の照明が大幅に変化しない限りはシステムを再起動する必要もない。
【図面の簡単な説明】
【図1】公知タイプの観察者トラッキング自動立体表示装置の模式図である。
【図2】特定の公知タイプの自動立体表示装置の平面図である。
【図3】自動立体表示装置における観察ウィンドウの生成を示す図である。
【図4a】自動立体表示装置における観察ゾーンの生成を示す平面図である。
【図4b】目の位置が水平な場合、および水平方向に対して傾斜している場合における、観察ウィンドウと、観察者の目との所望の相対位置を示す図である。
【図5】自動立体表示装置の観察ウィンドウの典型的な照度プロファイルを示すグラフである。
【図6】自動立体表示装置の観察ウィンドウの不連続な位置を示す図である。
【図7】自動立体表示装置における観察ゾーンの生成を示す平面図である。
【図8】最大観察者頭移動速度の関数としての観察者トラッキング応答時間を示すグラフである。
【図9】インターレースされた奇数フィールドおよび偶数フィールドで構成される1つの画像フレームを示す図である。
【図10】フィールドのデジタル化および処理のタイミングを示す図である。
【図11】リングバッファを使用してデジタル化および処理を同時に行う方法を示す図である。
【図12】公知のテンプレートマッチング技術のフローチャートである。
【図13】画像と適切なテンプレートとのテンプレートマッチングを示す図である。
【図14】画像全体のテンプレートマッチングに必要な反復処理の回数を示す図である。
【図15】異なる画像位置についての交差相関値を表す2次元の面を示す図である。
【図16】本発明の実施形態を構成する観察者トラッキング表示装置およびトラッキングシステムを示す模式図である。
【図17】本発明の実施形態を構成する画像トラッキング方法を示す概略フローチャートである。
【図18】図17の方法のより詳細なフローチャートである。
【図19】テンプレートを捕捉する際の表示装置の様子を示す図である。
【図20】テンプレートマッチングの対象である画像の中の限定された領域を示す図である。
【図21】階層テンプレートマッチングを示す図である。
【図22】微分動き測定法を示す図である。
【図23】図17および図18の方法のタイミングを示す図である。
【図24】3D表示装置に対する好適なビデオカメラ位置を示す平面図である。
【図25】テンプレートマッチングの別の技術を示す図である。
【図26】色調(H)、彩度(S)、明度(V)空間を示す図である。
【図27】頭の傾斜に対処するための多重テンプレート技術を示す図である。
【図28】垂直軸を中心とした頭の回転の影響を示す図である。
【符号の説明】
1 表示装置システム
2 トラッキングシステム
3 トラッキングセンサ
4 トラッキングプロセッサ
5 表示装置制御プロセッサ
6 ステアリングメカニズム
7 3D表示装置
8 観察者

Claims (23)

  1. 画像シーケンスを取得する画像シーケンス取得手段と、
    該画像シーケンス取得手段によって取得された前記画像シーケンスが与えられる制御部とを備えた画像トラッキングシステムであって、
    該制御部が、
    前記画像シーケンス取得手段によって取得された画像シーケンスの1つの画像である第1の画像の全体に対してターゲット画像のテンプレートによるテンプレートマッチングを適用し最良の相関値が得られる位置を検出して、その検出された位置をターゲット位置とする第1の手段と、
    前記第1の画像と、該第1の画像の次に利用可能な前記画像シーケンスの1つの画像である第2の画像とに対して微分法を適用して両画像間の前記ターゲット位置の移動量を算出する第2の手段と、
    前記第1の手段によって検出されたターゲット位置と前記第2の手段によって算出された移動量とに基づいて前記ターゲット位置を更新する第3の手段と、
    該第3の手段によって更新されたターゲット位置を中心とした所定の大きさの領域に対してターゲット画像のテンプレートによるテンプレートマッチングを適用して最良の相関値が得られた位置を検出し、該位置をターゲット位置として更新する第4の手段とを有し、
    前記第2の手段は、前記第2の画像を前記画像シーケンスの新たな画像に置き換えるとともに前記第1の画像を前記第2の画像に置き換えた後に、
    該第4の手段によってターゲット位置が更新されると、該ターゲット位置と前記第2の手段によって算出された移動量とに基づいて前記ターゲット位置の移動量を算出する、画像トラッキングシステム。
  2. 前記第2の画像が、前記第1の画像と連続している、請求項1に記載の画像トラッキングシステム。
  3. 前記第1の画像が、前記画像シーケンスのそれぞれの画像である、請求項1または2に記載の画像トラッキングシステム。
  4. 前記画像シーケンス取得手段は、前記画像シーケンスの画像をリアルタイムで前記制御部に与える、請求項1から3のいずれかに記載の画像トラッキングシステム。
  5. 前記第2の画像が、前記画像シーケンス取得手段からリアルタイムで取得された画像である、請求項4に記載の画像トラッキングシステム。
  6. 前記画像シーケンス取得手段が、ビデオカメラを含む、請求項4または5に記載の画像トラッキングシステム。
  7. 前記画像シーケンス取得手段が、前記第1の画像および前記第2の画像を格納するメモリを含む、請求項1から6のいずれかに記載の画像トラッキングシステム。
  8. 前記画像シーケンスが、インターレースされた連続するフィールドを含む、請求項1から7のいずれかに記載の画像トラッキングシステム。
  9. 前記制御部が、プログラムドプロセッサである、請求項1から8のいずれかに記載の画像トラッキングシステム。
  10. 前記第2の手段は、前記第2の画像が前記画像シーケンス取得手段によって与えられるとすぐに前記移動量を算出する、請求項1からのいずれかに記載の画像トラッキングシステム。
  11. 前記第4の手段は、前記第2の画像上における前記ターゲット位置を更新すると、すぐに、前記テンプレートマッチングを適用する、請求項10に記載の画像トラッキングシステム。
  12. 前記第4の手段の前記テンプレートマッチングが適用される所定の大きさの領域は、前記画像シーケンスの画像よりも小さく且つ前記第3の手段によって更新されたターゲット位置を含む、請求項1から11のいずれかに記載の画像トラッキングシステム。
  13. 前記所定の大きさの領域の中心が、前記第3の手段によって更新されたターゲット位置である、請求項12に記載の画像トラッキングシステム。
  14. 前記第1の手段は、前記最良の相関値を所定の閾値と比較し、該最良の相関値が閾値を越えない場合には、前記画像シーケンスの新たな画像を第1の画像として前記テンプレートマッチングを実施する請求項1に記載の画像トラッキングシステム。
  15. 前記第4の手段は、前記最良の相関値を所定の閾値と比較し、該最良の相関値が閾値を越えない場合には前記ターゲット位置を更新せず、前記第1の手段は、その後に、前記画像シーケンスの新たな画像を第1の画像として、前記テンプレートマッチングによるターゲット位置を検出する、請求項1に記載の画像トラッキングシステム。
  16. 前記第1の手段は、前記所定の大きさの画像部分内の複数の第1の領域において前記ターゲット画像のテンプレートマッチングを行い、その後に、該第1の領域よりも小さい領域であって、該テンプレートマッチングによるターゲット位置の近傍に配された複数の第2の領域において前記テンプレートマッチングを行う、請求項1から14のいずれかに記載の画像トラッキングシステム。
  17. 前記画像シーケンス取得手段によって取得された前記画像シーケンスの1つの画像の一部を前記ターゲット画像として捕捉して格納する第5の手段を備えている、請求項1から16のいずれかに記載の画像トラッキングシステム。
  18. 前記第5の手段が、前記捕捉して格納された画像シーケンスの画像を表示する表示装置と、該表示装置上に境界画像を生成する画像生成装置とを備え、該境界画像内の画像領域の捕捉がユーザによって指示される、請求項17に記載の画像トラッキングシステム。
  19. 前記表示装置上の前記境界画像の位置がユーザによって指示される、請求項18に記載の画像トラッキングシステム。
  20. 前記第2の手段は、1組の方程式
    Figure 0003565707
    解くことによって、前記移動量を算出するようになっており、ここで、およびyはi番目の画像要素のデカルト座標であり、iは1≦i≦jである整数であり、jは1よりも大きい整数であり、f1およびf2は前記第1の画像および前記第2の画像を表す関数であり、ΔxおよびΔyは前記動きのデカルト成分である、
    請求項1に記載の画像トラッキングシステム。
  21. 請求項6に記載の画像トラッキングシステムと、
    右目用ウィンドウおよび左目用ウィンドウを有し、該右目用ウィンドウおよび左目用ウィンドウのそれぞれに右目用画像および左目用画像を表示することによって立体画像を表示する表示装置とを備え、
    前記ビデオカメラは、前記表示装置の正面の観察者の画像を捕捉し、
    前記トラッキングシステムにおける前記ターゲット画像が、該観察者の目の画像であり、
    前記トラッキングシステムによって得られるターゲット位置に基づいて、前記表示装置の右目用ウィンドウおよび左目用ウィンドウの位置をステアリングするステアリング手段をさらに有する、観察者トラッキング自動立体表示装置。
  22. 前記ビデオカメラが、前記表示装置の光心に配置されている、請求項21に記載の観察者トラッキング自動立体表示装置。
  23. 1)取得された画像シーケンスの1つの画像である第1の画像全 体に対してターゲット画像のテンプレートによるテンプレートマッチングを適用し最良の相関値が得られるテンプレートの位置をターゲット位置として検出する工程と、
    (2)前記第1の画像の次に利用可能な画像シーケンスの1つの画像である第2の画像を取得する工程と、
    (3)前記第1の画像と前記第2の画像とに対して微分法を適用して両画像間の前記ターゲット位置の移動量を算出する工程と、
    (4)前記ターゲット位置と前記移動量とに基づいて該ターゲット位置を更新する工程と、
    (5)更新された前記ターゲット位置を中心とした所定の大きさの領域に対してターゲット画像のテンプレートによるテンプレートマッチングを適用して最良の相関値が得られた位置を検出し、該位置をターゲット位置として更新する工程と、
    (6)その後に、前記第2の画像を前記画像シーケンスの新たな画像に置き換えるとともに前記第1の画像を前記第2の画像に置き換えた後に、前記工程(3)〜(5)を繰り返す工程と、
    を包含する画像トラッキング方法。
JP10622298A 1997-04-17 1998-04-16 観察者トラッキング自動立体表示装置、画像トラッキングシステム、および画像トラッキング方法 Expired - Fee Related JP3565707B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB9707782A GB2324428A (en) 1997-04-17 1997-04-17 Image tracking; observer tracking stereoscopic display
GB9707782.0 1997-04-17

Publications (2)

Publication Number Publication Date
JPH113429A JPH113429A (ja) 1999-01-06
JP3565707B2 true JP3565707B2 (ja) 2004-09-15

Family

ID=10810934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10622298A Expired - Fee Related JP3565707B2 (ja) 1997-04-17 1998-04-16 観察者トラッキング自動立体表示装置、画像トラッキングシステム、および画像トラッキング方法

Country Status (4)

Country Link
US (1) US6075557A (ja)
EP (1) EP0877274A3 (ja)
JP (1) JP3565707B2 (ja)
GB (1) GB2324428A (ja)

Families Citing this family (150)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3802653B2 (ja) * 1997-05-21 2006-07-26 オリンパス株式会社 立体画像表示装置
AUPP048097A0 (en) * 1997-11-21 1997-12-18 Xenotech Research Pty Ltd Eye tracking apparatus
US6239830B1 (en) * 1998-01-21 2001-05-29 New York University Displayer and method for displaying
CN1178467C (zh) * 1998-04-16 2004-12-01 三星电子株式会社 自动跟踪运动目标的方法和装置
US7121946B2 (en) * 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US20010008561A1 (en) * 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6937696B1 (en) 1998-10-23 2005-08-30 Varian Medical Systems Technologies, Inc. Method and system for predictive physiological gating
US7158610B2 (en) 2003-09-05 2007-01-02 Varian Medical Systems Technologies, Inc. Systems and methods for processing x-ray images
US8788020B2 (en) 1998-10-23 2014-07-22 Varian Medical Systems, Inc. Method and system for radiation application
US6757422B1 (en) * 1998-11-12 2004-06-29 Canon Kabushiki Kaisha Viewpoint position detection apparatus and method, and stereoscopic image display system
US6243494B1 (en) * 1998-12-18 2001-06-05 University Of Washington Template matching in 3 dimensions using correlative auto-predictive search
US6301387B1 (en) * 1998-12-18 2001-10-09 University Of Washington Template matching using correlative auto-predictive search
US6687386B1 (en) * 1999-06-15 2004-02-03 Hitachi Denshi Kabushiki Kaisha Object tracking method and object tracking apparatus
US7050606B2 (en) * 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
SG91841A1 (en) * 1999-11-03 2002-10-15 Kent Ridge Digital Labs Face direction estimation using a single gray-level image
JP2001209802A (ja) * 1999-11-15 2001-08-03 Fuji Photo Film Co Ltd 顔抽出方法および装置並びに記録媒体
US20040189804A1 (en) * 2000-02-16 2004-09-30 Borden George R. Method of selecting targets and generating feedback in object tracking systems
JP3825222B2 (ja) * 2000-03-24 2006-09-27 松下電器産業株式会社 本人認証装置および本人認証システムならびに電子決済システム
KR100710347B1 (ko) * 2000-05-12 2007-04-23 엘지전자 주식회사 3차원 영상 디스플레이 장치 및 방법
US7221780B1 (en) * 2000-06-02 2007-05-22 Sony Corporation System and method for human face detection in color graphics images
US20080024598A1 (en) * 2000-07-21 2008-01-31 New York University Autostereoscopic display
JP3561463B2 (ja) * 2000-08-11 2004-09-02 コナミ株式会社 3dビデオゲームにおける擬似カメラ視点移動制御方法及び3dビデオゲーム装置
US6751345B2 (en) * 2001-02-12 2004-06-15 Koninklijke Philips Electronics N.V. Method and apparatus for improving object boundaries extracted from stereoscopic images
JP2002259991A (ja) * 2001-02-28 2002-09-13 Sony Corp 画像処理装置およびその方法
US6760465B2 (en) 2001-03-30 2004-07-06 Intel Corporation Mechanism for tracking colored objects in a video sequence
US6985179B2 (en) * 2001-03-30 2006-01-10 Intel Corporaiton Determining image quality for improving object trackability
US6752498B2 (en) 2001-05-14 2004-06-22 Eastman Kodak Company Adaptive autostereoscopic display system
CN1249446C (zh) * 2001-05-15 2006-04-05 皇家菲利浦电子有限公司 包括多个发光二极管的显示装置和测定方法
US7769430B2 (en) * 2001-06-26 2010-08-03 Varian Medical Systems, Inc. Patient visual instruction techniques for synchronizing breathing with a medical procedure
AUPR676201A0 (en) * 2001-08-01 2001-08-23 Canon Kabushiki Kaisha Video feature tracking with loss-of-track detection
KR100516638B1 (ko) * 2001-09-26 2005-09-22 엘지전자 주식회사 화상 통신 시스템
US20030128175A1 (en) * 2002-01-09 2003-07-10 International Business Machines Corporation Stereoscopic display system and method
US20030210378A1 (en) * 2002-01-17 2003-11-13 Riza Nabeel Agha Optoelectronic eye examination system
WO2003098922A1 (en) * 2002-05-15 2003-11-27 The Board Of Governors For Higher Education, State Of Rhode Island And Providence Plantations An imaging system and method for tracking the motion of an object
US7400344B2 (en) * 2002-12-19 2008-07-15 Hitachi Kokusai Electric Inc. Object tracking method and object tracking apparatus
US20050134685A1 (en) * 2003-12-22 2005-06-23 Objectvideo, Inc. Master-slave automated video-based surveillance system
AU2003901528A0 (en) 2003-03-31 2003-05-01 Seeing Machines Pty Ltd Eye tracking system and method
US7203277B2 (en) 2003-04-25 2007-04-10 Brainlab Ag Visualization device and method for combined patient and object image data
US7956889B2 (en) 2003-06-04 2011-06-07 Model Software Corporation Video surveillance system
US7463823B2 (en) 2003-07-24 2008-12-09 Brainlab Ag Stereoscopic visualization device for patient image data and video images
US20050053267A1 (en) * 2003-09-05 2005-03-10 Varian Medical Systems Technologies, Inc. Systems and methods for tracking moving targets and monitoring object positions
US8571639B2 (en) * 2003-09-05 2013-10-29 Varian Medical Systems, Inc. Systems and methods for gating medical procedures
JP4543644B2 (ja) * 2003-09-16 2010-09-15 富士ゼロックス株式会社 データ認識装置
TWI225622B (en) * 2003-10-24 2004-12-21 Sunplus Technology Co Ltd Method for detecting the sub-pixel motion for optic navigation device
US20050104958A1 (en) * 2003-11-13 2005-05-19 Geoffrey Egnal Active camera video-based surveillance systems and methods
GB2409030A (en) 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
US20060007191A1 (en) * 2004-06-03 2006-01-12 International Business Machines Corporation System and method for adjusting a screen
US8300043B2 (en) * 2004-06-24 2012-10-30 Sony Ericsson Mobile Communications AG Proximity assisted 3D rendering
DE502004004650D1 (de) * 2004-07-28 2007-09-27 Brainlab Ag Stereoskopische Visualisierungsvorrichtung für Patientenbilddaten und Videobilder
DE102004059729B3 (de) * 2004-12-11 2006-04-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur autostereoskopischen Erzeugung von dreidimensionalen Bildinformationen aus gerasterten Subpixelauszügen und Anordnung zur Verfahrensdurchführung
US7672540B2 (en) * 2005-07-13 2010-03-02 Siemens Medical Solutions USA, Inc, Nonrigid registration of cardiac perfusion MR images using adaptive local template matching
US9363487B2 (en) 2005-09-08 2016-06-07 Avigilon Fortress Corporation Scanning camera-based video surveillance system
US20070058717A1 (en) * 2005-09-09 2007-03-15 Objectvideo, Inc. Enhanced processing for scanning video
US8098885B2 (en) * 2005-11-02 2012-01-17 Microsoft Corporation Robust online face tracking
KR100704634B1 (ko) * 2005-12-19 2007-04-09 삼성전자주식회사 사용자의 위치에 따른 입체 영상을 디스플레이하는 장치 및방법
US7359105B2 (en) 2006-02-07 2008-04-15 Sharp Kabushiki Kaisha Spatial light modulator and a display device
US20070196005A1 (en) * 2006-02-23 2007-08-23 White Christopher A Feature Tracing Process for M-mode Images
US20070208904A1 (en) * 2006-03-03 2007-09-06 Wu-Han Hsieh Wear leveling method and apparatus for nonvolatile memory
US7844070B2 (en) 2006-05-30 2010-11-30 Sonitus Medical, Inc. Methods and apparatus for processing audio signals
CA2661136A1 (en) 2006-08-11 2008-02-14 Thomson Licensing Accurate motion portrayal for display and digital projectors
US8291912B2 (en) * 2006-08-22 2012-10-23 Sonitus Medical, Inc. Systems for manufacturing oral-based hearing aid appliances
US20080064993A1 (en) * 2006-09-08 2008-03-13 Sonitus Medical Inc. Methods and apparatus for treating tinnitus
US8270638B2 (en) 2007-05-29 2012-09-18 Sonitus Medical, Inc. Systems and methods to provide communication, positioning and monitoring of user status
US20080304677A1 (en) * 2007-06-08 2008-12-11 Sonitus Medical Inc. System and method for noise cancellation with motion tracking capability
US20090028352A1 (en) * 2007-07-24 2009-01-29 Petroff Michael L Signal process for the derivation of improved dtm dynamic tinnitus mitigation sound
US20120235632A9 (en) * 2007-08-20 2012-09-20 Sonitus Medical, Inc. Intra-oral charging systems and methods
US8433080B2 (en) * 2007-08-22 2013-04-30 Sonitus Medical, Inc. Bone conduction hearing device with open-ear microphone
US8224013B2 (en) * 2007-08-27 2012-07-17 Sonitus Medical, Inc. Headset systems and methods
US7682303B2 (en) 2007-10-02 2010-03-23 Sonitus Medical, Inc. Methods and apparatus for transmitting vibrations
US20090105523A1 (en) * 2007-10-18 2009-04-23 Sonitus Medical, Inc. Systems and methods for compliance monitoring
JP4882956B2 (ja) * 2007-10-22 2012-02-22 ソニー株式会社 画像処理装置および画像処理方法
US8795172B2 (en) * 2007-12-07 2014-08-05 Sonitus Medical, Inc. Systems and methods to provide two-way communications
US8270637B2 (en) 2008-02-15 2012-09-18 Sonitus Medical, Inc. Headset systems and methods
US7974845B2 (en) 2008-02-15 2011-07-05 Sonitus Medical, Inc. Stuttering treatment methods and apparatus
US8023676B2 (en) 2008-03-03 2011-09-20 Sonitus Medical, Inc. Systems and methods to provide communication and monitoring of user status
US8150075B2 (en) 2008-03-04 2012-04-03 Sonitus Medical, Inc. Dental bone conduction hearing appliance
US20090226020A1 (en) 2008-03-04 2009-09-10 Sonitus Medical, Inc. Dental bone conduction hearing appliance
US20090270673A1 (en) * 2008-04-25 2009-10-29 Sonitus Medical, Inc. Methods and systems for tinnitus treatment
US20100061596A1 (en) * 2008-09-05 2010-03-11 Varian Medical Systems Technologies, Inc. Video-Based Breathing Monitoring Without Fiducial Tracking
US10667727B2 (en) * 2008-09-05 2020-06-02 Varian Medical Systems, Inc. Systems and methods for determining a state of a patient
US8328360B2 (en) * 2009-04-03 2012-12-11 Seiko Epson Corporation Retro-reflective light diffusing autostereoscopic 3D display systems
US8287127B2 (en) * 2009-04-03 2012-10-16 Seiko Epson Corporation Aerial three-dimensional image display systems
US7993016B2 (en) * 2009-04-03 2011-08-09 Seiko Epson Corporation Retro-reflective light diffusing display systems
CA2776368C (en) 2009-10-02 2014-04-22 Sonitus Medical, Inc. Intraoral appliance for sound transmission via bone conduction
US20110181587A1 (en) * 2010-01-22 2011-07-28 Sony Corporation Image display device having imaging device
JP5398612B2 (ja) * 2010-03-23 2014-01-29 富士フイルム株式会社 動体検出装置および方法
US20110310003A1 (en) * 2010-05-21 2011-12-22 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Image display device and method of displaying images
US9250448B2 (en) 2010-11-19 2016-02-02 Reald Inc. Segmented directional backlight and related methods of backlight illumination
JP6166180B2 (ja) 2010-11-19 2017-07-19 リアルディー スパーク エルエルシー 方向性を有する表示装置
US8651726B2 (en) 2010-11-19 2014-02-18 Reald Inc. Efficient polarized directional backlight
US20140041205A1 (en) 2010-11-19 2014-02-13 Reald Inc. Method of manufacturing directional backlight apparatus and directional structured optical film
WO2013028944A1 (en) 2011-08-24 2013-02-28 Reald Inc. Autostereoscopic display with a passive cycloidal diffractive waveplate
KR101887058B1 (ko) * 2011-11-11 2018-08-09 엘지전자 주식회사 입체영상 처리 장치 및 입체영상 처리 장치의 전력 제어 방법
US9436015B2 (en) 2012-12-21 2016-09-06 Reald Inc. Superlens component for directional display
US10054732B2 (en) 2013-02-22 2018-08-21 Reald Spark, Llc Directional backlight having a rear reflector
KR101874494B1 (ko) * 2011-11-25 2018-07-06 삼성전자주식회사 특징점의 삼차원 위치 계산 장치 및 방법
US8704904B2 (en) 2011-12-23 2014-04-22 H4 Engineering, Inc. Portable system for high quality video recording
GB2499426A (en) * 2012-02-16 2013-08-21 Dimenco B V Autostereoscopic display device with viewer tracking system
EP2820837A4 (en) 2012-03-01 2016-03-09 H4 Eng Inc APPARATUS AND METHOD FOR AUTOMATIC VIDEO RECORDING
EP2820840A4 (en) 2012-03-02 2015-12-30 H4 Eng Inc AUTOMATIC MULTIFUNCTIONAL VIDEO RECORDING DEVICE
US9723192B1 (en) 2012-03-02 2017-08-01 H4 Engineering, Inc. Application dependent video recording device architecture
JP6458950B2 (ja) * 2012-05-18 2019-01-30 リアルディー スパーク エルエルシー 指向性ディスプレイ装置
US9350980B2 (en) 2012-05-18 2016-05-24 Reald Inc. Crosstalk suppression in a directional backlight
US9188731B2 (en) 2012-05-18 2015-11-17 Reald Inc. Directional backlight
US9678267B2 (en) 2012-05-18 2017-06-13 Reald Spark, Llc Wide angle imaging directional backlights
US9235057B2 (en) 2012-05-18 2016-01-12 Reald Inc. Polarization recovery in a directional display device
WO2013173786A1 (en) 2012-05-18 2013-11-21 Reald Inc. Directional backlight
TWI636283B (zh) 2012-05-18 2018-09-21 美商瑞爾D斯帕克有限責任公司 定向背光源、定向顯示裝置及其光源陣列的控制方法
JP6308630B2 (ja) 2012-05-18 2018-04-11 リアルディー スパーク エルエルシー 指向性照明導波路配置
KR20140011574A (ko) 2012-07-17 2014-01-29 삼성디스플레이 주식회사 표시 장치 및 그 구동 방법
EP2875638A4 (en) 2012-07-23 2016-03-30 Reald Inc AUTOSTEREOSCOPIC DISPLAY FOR OBSERVATORY TRACKING
US20140028812A1 (en) * 2012-07-27 2014-01-30 Kabushiki Kaisha Toshiba Three-dimensional video display apparatus
EP2904446A4 (en) * 2012-10-02 2016-06-15 Reald Inc SCALING WAVEGATE SELF-STEREOSCOPIC DISPLAY APPARATUS HAVING REFLECTIVE DIRECTIONAL ELEMENT
KR101996655B1 (ko) * 2012-12-26 2019-07-05 엘지디스플레이 주식회사 홀로그램 표시 장치
JP2014241473A (ja) * 2013-06-11 2014-12-25 株式会社東芝 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
JP2016529764A (ja) 2013-06-17 2016-09-23 リアルディー インコーポレイテッド 指向性バックライトの光源の制御
TWI510101B (zh) * 2013-09-12 2015-11-21 Au Optronics Corp 飽和度調整方法與色彩調整系統
CN106068533B (zh) 2013-10-14 2019-01-11 瑞尔D斯帕克有限责任公司 定向显示器的控制
KR102366346B1 (ko) 2013-10-14 2022-02-23 리얼디 스파크, 엘엘씨 지향성 백라이트를 위한 광 입력
WO2015073438A1 (en) 2013-11-15 2015-05-21 Reald Inc. Directional backlights with light emitting element packages
WO2015200814A1 (en) 2014-06-26 2015-12-30 Reald Inc. Directional privacy display
WO2016057690A1 (en) 2014-10-08 2016-04-14 Reald Inc. Directional backlight
WO2016105541A1 (en) 2014-12-24 2016-06-30 Reald Inc. Adjustment of perceived roundness in stereoscopic image of a head
RU2596062C1 (ru) 2015-03-20 2016-08-27 Автономная Некоммерческая Образовательная Организация Высшего Профессионального Образования "Сколковский Институт Науки И Технологий" Способ коррекции изображения глаз с использованием машинного обучения и способ машинного обучения
WO2016168305A1 (en) 2015-04-13 2016-10-20 Reald Inc. Wide angle imaging directional backlights
CN107850804B (zh) 2015-05-27 2021-06-11 瑞尔D斯帕克有限责任公司 广角成像定向背光源
KR102463169B1 (ko) 2015-09-07 2022-11-04 삼성전자주식회사 시점 추적 방법 및 장치
EP3369034B1 (en) 2015-10-26 2023-07-05 RealD Spark, LLC Intelligent privacy system, apparatus, and method thereof
US10459321B2 (en) 2015-11-10 2019-10-29 Reald Inc. Distortion matching polarization conversion systems and methods thereof
EP4293417A3 (en) 2015-11-13 2024-01-24 RealD Spark, LLC Surface features for imaging directional backlights
WO2017083041A1 (en) 2015-11-13 2017-05-18 Reald Inc. Wide angle imaging directional backlights
CN108463787B (zh) 2016-01-05 2021-11-30 瑞尔D斯帕克有限责任公司 多视角图像的注视校正
EP3458897A4 (en) 2016-05-19 2019-11-06 RealD Spark, LLC DIRECTIONALLY WIDE IMAGING IMAGING BACKLIGHTS
EP4124795B1 (en) 2016-05-23 2024-04-10 RealD Spark, LLC Wide angle imaging directional backlights
JP6390671B2 (ja) * 2016-07-29 2018-09-19 オムロン株式会社 画像処理装置および画像処理方法
EP3566094B1 (en) 2017-01-04 2023-12-06 RealD Spark, LLC Optical stack for imaging directional backlights
WO2018187154A1 (en) 2017-04-03 2018-10-11 Reald Spark, Llc Segmented imaging directional backlights
CN116841075A (zh) 2017-05-08 2023-10-03 瑞尔D斯帕克有限责任公司 用于定向显示器的光学叠堆
US10303030B2 (en) 2017-05-08 2019-05-28 Reald Spark, Llc Reflective optical stack for privacy display
US10126575B1 (en) 2017-05-08 2018-11-13 Reald Spark, Llc Optical stack for privacy display
RU2698919C2 (ru) * 2017-07-18 2019-09-02 Святослав Иванович АРСЕНИЧ Стереодисплей (варианты), видеокамера для стереосъёмки и способ компьютерного формирования стереоизображений для этого стереодисплея
CN111183405A (zh) 2017-08-08 2020-05-19 瑞尔D斯帕克有限责任公司 调整头部区域的数字表示
TW201921060A (zh) 2017-09-15 2019-06-01 美商瑞爾D斯帕克有限責任公司 用於可切換定向顯示器的光學堆疊結構
WO2019090246A1 (en) 2017-11-06 2019-05-09 Reald Spark, Llc Privacy display apparatus
CN111868585B (zh) 2018-01-25 2022-11-15 瑞尔D斯帕克有限责任公司 用于防窥显示装置的反射式光学堆叠物
JP7353007B2 (ja) 2018-01-25 2023-09-29 リアルディー スパーク エルエルシー プライバシー表示用タッチスクリーン
US11821602B2 (en) 2020-09-16 2023-11-21 Reald Spark, Llc Vehicle external illumination device
CN113524197B (zh) * 2021-08-10 2022-10-21 深圳市金凯博自动化测试有限公司 一种高效快速自动精准定位装置
US11966049B2 (en) 2022-08-02 2024-04-23 Reald Spark, Llc Pupil tracking near-eye display

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3828122A (en) * 1970-09-29 1974-08-06 Bendix Corp Tv area correlation tracker
GB1605201A (en) * 1978-03-02 1983-05-25 Elliott Brothers London Ltd Target tracking arrangements
US4975960A (en) * 1985-06-03 1990-12-04 Petajan Eric D Electronic facial tracking and detection system and method and apparatus for automated speech recognition
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
US5323470A (en) * 1992-05-08 1994-06-21 Atsushi Kara Method and apparatus for automatically tracking an object
GB9215102D0 (en) * 1992-07-16 1992-08-26 Philips Electronics Uk Ltd Tracking moving objects
US5349379A (en) * 1992-09-09 1994-09-20 Dimension Technologies Inc. Autostereoscopic display illumination system allowing viewing zones to follow the observer's head
DE69323846T2 (de) * 1992-12-17 1999-08-26 Sharp K.K. Autostereoskopisches Wiedergabegerät
US5712732A (en) * 1993-03-03 1998-01-27 Street; Graham Stewart Brandon Autostereoscopic image display adjustable for observer location and distance
DE69434108T2 (de) * 1993-12-01 2006-02-02 Sharp K.K. Display für dreidimensionale Bilder
AUPN003894A0 (en) * 1994-12-13 1995-01-12 Xenotech Research Pty Ltd Head tracking system for stereoscopic display apparatus
DE19500315C1 (de) * 1995-01-07 1995-10-26 Siegbert Prof Dr Ing Hentschke Personenadaptiver autostereoskoper Shutter-Bildschirm (PAAS)
GB2297876A (en) * 1995-02-09 1996-08-14 Sharp Kk Observer tracking autostereoscopic display
GB2306826A (en) * 1995-10-18 1997-05-07 Sharp Kk Display, method of calibrating an observer tracking display and observer tracking autostereoscopic 3D display
GB2317291A (en) * 1996-09-12 1998-03-18 Sharp Kk Observer tracking directional display

Also Published As

Publication number Publication date
GB9707782D0 (en) 1997-06-04
JPH113429A (ja) 1999-01-06
GB2324428A (en) 1998-10-21
US6075557A (en) 2000-06-13
EP0877274A3 (en) 1999-12-29
EP0877274A2 (en) 1998-11-11

Similar Documents

Publication Publication Date Title
JP3565707B2 (ja) 観察者トラッキング自動立体表示装置、画像トラッキングシステム、および画像トラッキング方法
JP3761059B2 (ja) ヒトの顔を検出する方法および装置、ならびに観察者トラッキングディスプレイ
US10657903B2 (en) Display system and driving method for display panel
US6504942B1 (en) Method of and apparatus for detecting a face-like region and observer tracking display
US6757422B1 (en) Viewpoint position detection apparatus and method, and stereoscopic image display system
US20050084179A1 (en) Method and apparatus for performing iris recognition from an image
US20120133754A1 (en) Gaze tracking system and method for controlling internet protocol tv at a distance
JP3728160B2 (ja) 奥行き画像計測装置及び方法、並びに複合現実感提示システム
US5987154A (en) Method and means for detecting people in image sequences
US7574021B2 (en) Iris recognition for a secure facility
US6959102B2 (en) Method for increasing the signal-to-noise in IR-based eye gaze trackers
US6785402B2 (en) Head tracking and color video acquisition via near infrared luminance keying
US20030035001A1 (en) 3D video conferencing
JP2001195582A (ja) 画像検出装置、画像検出方法、立体表示装置、表示コントローラ、立体表示システムおよびプログラム記憶媒体
TWI610059B (zh) 三維量測方法及應用其之三維量測裝置
JPH1124603A (ja) 情報表示装置及び情報収集装置
WO2020157746A1 (en) Eye tracking device and a method thereof
CN109951698A (zh) 用于检测反射的设备和方法
Borsato et al. A fast and accurate eye tracker using stroboscopic differential lighting
Kim et al. AR timewarping: A temporal synchronization framework for real-Time sensor fusion in head-mounted displays
JP3376207B2 (ja) 視線検出装置及びその方法
JPH10154220A (ja) 画面上の注視点検出システム
JP3351386B2 (ja) 観察者の観察位置検出方法およびその装置
JPH06174463A (ja) 実時間3次元運動測定装置およびその方法
JP2022140505A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040608

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110618

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120618

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120618

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 9

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04

LAPS Cancellation because of no payment of annual fees