JP2011508289A - 両眼の検出および追跡する方法、及び装置 - Google Patents

両眼の検出および追跡する方法、及び装置 Download PDF

Info

Publication number
JP2011508289A
JP2011508289A JP2010533561A JP2010533561A JP2011508289A JP 2011508289 A JP2011508289 A JP 2011508289A JP 2010533561 A JP2010533561 A JP 2010533561A JP 2010533561 A JP2010533561 A JP 2010533561A JP 2011508289 A JP2011508289 A JP 2011508289A
Authority
JP
Japan
Prior art keywords
eye
face
eyes
search area
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010533561A
Other languages
English (en)
Other versions
JP5470262B2 (ja
Inventor
エンリコ チャウ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SeeReal Technologies SA
Original Assignee
SeeReal Technologies SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SeeReal Technologies SA filed Critical SeeReal Technologies SA
Publication of JP2011508289A publication Critical patent/JP2011508289A/ja
Application granted granted Critical
Publication of JP5470262B2 publication Critical patent/JP5470262B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/745Details of notification to user or communication with user or patient ; user input means using visual displays using a holographic display

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

少なくとも1つの顔の中の両眼の3D座標を検出し、その後追跡する方法において、少なくとも1つの画像センサの少なくとも1つのデジタルビデオ信号のシーケンスを含む画像データを受信するステップと、画像データにおいて眼を検出するか又はすでに検出されている眼を追跡するステップと、検出された眼又は追跡される眼の3D座標を確認するステップと、検出された眼又は追跡される眼を両眼と関連付けるステップと、両眼の3D座標を提供するステップとが提案される。前記画像データにおいて眼を検出することは、画像データにおいて1つ以上の顔を認識するステップと、少なくとも1つの認識された顔の3D座標を確認するステップと、認識された顔上に第1の探索域を確立するステップと、第1の探索域内で少なくとも一方の眼を検出するステップとを含む。前記画像データにおいて前に検出された眼を追跡することは、認識された顔上に第2の探索域を確立するステップと、第2の探索域内で両眼の眼を追跡するステップとを含む。

Description

本発明は、少なくとも1つの顔における両眼の3D座標をリアルタイムで検出し、且つその後追跡する非接触式方法に関する。
例えば接触式方法とは異なり、顔を検出し、且つ追跡する非接触式方法は、頭部装着型カメラ又はスポット等の追加の手段を必要としない。これら非接触式方法の利点は、追跡される被写体の動きの自由が物理手段により全く制限されないこと及び被写体がそのような手段の使用により煩わされないことである。
非接触式検出及び追跡方法は、従来技術において周知である。例えば特許文献1及び特許文献2では、記録画像から抽出されるある特定の顔及び眼の特徴を使用して観察者の閲覧方向を検出する方法が開示されている。特許文献1では、観察者により閲覧される物体を見つける方法が説明されているが、特許文献2は、ある特定の期間に渡って眼の動きを追跡することを更に目的とする。
特許文献3では、頭及び眼の動きが高速及び広範囲で行われる場合であっても、ヘッドギアを使用せずに眼の閲覧方向を測定する非接触の方法及び装置が開示されている。眼は赤外光で照らされ、光学系により結像され、少なくとも1つの画像センサにより記録される。その後、そのように生成された画像は、眼の瞳孔の中心の位置を検出し且つ角膜反射を判定することにより閲覧方向を判定するように、メインプロセッサによって構成可能な閲覧方向プロセッサにより処理され、モニタに表示される。
また、特許文献4では、種々の照明条件においてリアルタイムで眼を非接触検出及び追跡する方法が開示される。眼は、一方の画像が眼の「明瞳孔効果」を表し且つ他方の画像が眼の「暗瞳孔効果」を表す能動的に照らされた2つの画像を記録するステップと、これら2つの画像のコントラストが異なる位置でのコントラストだけを示す2つの画像の差分画像を作成するステップと、眼である可能性が高い部分として差分画像内のコントラスト点に印を付けるステップと、差分画像において眼と眼以外とを高確率で区別できるようにするために、参照画像として使用される眼及び眼以外の事前記録画像と眼である可能性が高い部分とを比較するステップとを実行することにより検出される。その後、眼は、カルマンフィルタを適用および予想される眼の位置と差分画像内で実際に検出される眼の位置との比較により検出された後、画像内で追跡される。比較により結果が得られない場合、眼の位置は、画像中の強度に基づいて眼である可能性の高い位置をクラスタ化し且つこれらクラスタと予想位置とを比較するクラスタリングアルゴリズムを使用する、更なるステップにおいて判定される。
米国特許第6,539,100B1号明細書 欧州特許第0,350,957B1号明細書 独国特許出願公開第197,31,303A1号明細書 国際公開第WO03/079902A1号 国際公開第WO2007/019842号
この従来技術の方法は、多くの欠点を示す。一方では、眼を検出及び追跡する処理は、「明瞳孔効果」を有する1つの画像及び「暗瞳孔効果」を有する1つの画像に基づいてインターレース走査法を使用して作成される画像を利用する。この場合、2つの画像は1つの画像センサにより同時にではなく順次記録される。インターレース走査法により画像の重ね合わせが同時に行われない画像記録は、送信する画像データ量を減少するのに役立つが、リアルタイムでの眼の確実な検出及び追跡ができない。他方では、眼から照明源までの距離が長くなるにつれて、能動照明による効果が減少し、その結果、検出対象である眼が差分画像内の他の物体又はノイズと区別されなくなる。そのため、この方法では、画像センサに対して空間的に非常に近接する眼の検出及び追跡のみが可能である。
特許文献5において、これらの欠点の解消が試みられる。この文献において、眼の位置は階層的に編成されたルーチンを使用して検出される。この場合、処理されるデータ量は、全ビデオフレーム(VF)のデータ量から開始して対象顔領域(GZ)へ進み、最後に対象眼領域(AZ)に進むことで徐々に減少される。更に、各インスタンス又はインスタンスのグループは常に専用の計算ユニットにおいて実行されるため、それらは並行して実行される。しかし、特許文献5では、眼を検出し、且つ追跡する方法は説明されない。
しかし、眼のリアルタイム検出及び追跡は、ヒューマン・マシン対話において重要な要素である。従って、リアルタイムで正確に眼を検出し、且つ追跡することを可能にする眼の検出及び追跡方法を提供することが特に望まれる。
特に、全空間方向における顔の大きく、素早い動きが起こる可能性のある動的アプリケーションにおいて、Z方向においても位置を正確且つ効率的に判定することが必要である。そのような動的アプリケーションは、例えば、観察者の眼の位置が、空間及び時間の双方において正確に判定される場合にのみ、自動立体画像情報又はホログラム画像情報が実際の眼の位置に導かれ、所望の画像の印象が得られる裸眼立体ディスプレイ又はホログラフィックディスプレイを含む。それに対し、運転者及び操縦士を監視する装置等の従来技術において周知である静的アプリケーションにおいては、通常は被写体の動きの範囲が全空間方向において最小限に制限されるため、検出及び追跡範囲はかなり小さい。
更に、従来技術において周知である方法は、特に2つ以上の顔が識別および追跡される場合、眼の位置情報がリアルタイムで出力されないという問題を示す。
従って、本発明の目的は、充分に大きい検出及び追跡範囲において、1つ又は複数の顔の眼の位置を3つの空間方向の全てにおいて確実、正確、効率的にリアルタイムで検出および追跡することを可能にする一方で、発生する計算負荷が小さい方法を提供することである。特に、本発明の目的は、少なくとも一方の眼を効率的且つ正確に検出することである。
この目的は、少なくとも1つの画像センサの1つ又は複数のビデオ信号のシーケンスとして供給される画像データを受信するステップと、画像データにおいて眼を検出するか又は既に検出されている眼を追跡するステップと、検出された眼又は追跡される眼の3D座標を判定するステップと、両眼を形成するために、検出された眼又は追跡される眼を割り当てるステップと、両眼の3D座標を提供するステップとから成る方法が提案される本発明に従って解決される。
好適な実施形態において、画像データは、少なくとも1つの画像センサにより記録されるビデオシーケンスの形態で受信される。あるいは、画像データの受信は、他の送信方法を使用して、例えば単一画像の形態でも可能である。
眼を検出する処理ステップは、画像データにおいて1つ又は複数の顔を識別するステップと、少なくとも1つの識別された顔の3D座標を判定するステップと、識別された顔上に第1の探索域を定義するステップと、その第1の探索域内で少なくとも一方の眼を検出するステップとを含む。画像内の顔を識別する種々の方法及び装置が従来技術において周知であり、それらは本明細書中に参考として完全に含まれる。この場合、通常、識別された顔の位置情報は2D座標の形態で出力される。顔の位置の3D座標を完成するためのZ座標は、従来技術から周知であるように2つの画像センサから受信される画像データの立体解析により検出されるか、又は他の任意の周知の方法、例えば距離測定により検出されるのが好ましい。顔の3D情報を判定すると、顔上の眼の位置の周知のモデルを適用することにより、非常に高い確率で顔の少なくとも一方の眼を含む領域を定義できる。識別された顔に適用可能なモデルがない場合、眼の探索が実行される領域は顔全体を含んでもよい。この領域は、眼に対する第1の探索域として理解され且つ以下でそのように呼ばれる。眼を検出する後続のステップは全て、この第1の探索域に限定される。次のステップにおいて、少なくとも一方の眼が第1の探索域内で検出される。眼が検出されない場合、例えば瞼が閉じられたため、この画像の顔の中で検出可能な眼がないと仮定され、眼は存在しないと考えられる。他の全ての場合において、各顔で検出された眼は、後続の処理ステップにおいて更に処理される。通常、小さな探索域内で眼を探索することにより、顔全体又は画像全体を含む探索域内で探索するよりはるかに速く結果が得られる。
更なる処理ステップにおいて、検出された眼の3D座標が判定される。好適な実施形態において、この判定を達成するために別の立体解析が適用されるが、物体の3D座標を判定する他の任意の周知の方法が適用されてもよい。その後、検出された眼は両眼を形成するために割り当てられる。この場合、眼の3D座標に基づいて計算可能な両眼の間の距離が両眼のモデルの周知の眼の間隔と比較されるか、又は他の任意の適切な割り当て方法、例えば本明細書において好適である分類が適用される。両眼として検出された眼を更に処理する場合、両眼の3D座標を判定することが好ましい。これは、これらのデータに基づいて周知の顔・眼モデルを使用して眼の位置及び顔の位置が検出されるため、一度識別された顔の後続の追跡に必要なデータ量を減少できるからである。
一般に、既に検出されている両眼の追跡は、識別された顔上に少なくとも1つの第2の探索域を定義するステップと、この探索域内で両眼を追跡するステップとを含む。1つの態様によると、第2の探索域は各眼に対して定義される。この場合、眼を検出するステップにおいて判定される両眼は、更なる追跡の開始点として使用される。調査された両眼が追跡される領域は眼の3D座標に基づいて定義される。そのように定義された領域は、第1の探索域より小さいのが好ましく、視線追跡に対する第2の探索域として理解され且つそのように呼ばれる。そのように定義された両眼の追跡により、眼又は顔が高速又は広範囲で運動する場合であっても、充分に小さい第2の探索域を定義できるため、両眼をリアルタイムで追跡できる。
少なくとも一方の眼を検出することは、画像データを提供する画像センサから識別された顔までの距離に依存して、眼の一部の予想サイズを計算するステップと、画像データを提供する画像センサから識別された顔までの距離に依存して、第1の探索域における分割に対する閾値として階調値を計算するステップと、コントラストを向上するために第1の探索域を前処理するステップと、その前処理後に第1の探索域を分割するステップと、分割された第1の探索域において少なくともほぼ同一の階調値を有する隣接画素の集合である1つ又は複数の結合領域を計算するステップと、計算された各結合領域のサイズを判定するステップと、眼の一部の予想サイズと結合領域の判定サイズとを比較するステップとを更に含む。ここで、結合領域の判定サイズが眼の一部の予想サイズと少なくともほぼ一致する場合、結合領域は検出された眼を表す。この場合、画像データ中の他の物体から眼の関連部分をより明確に区別できるように、画像データにおけるコントラストは変更される。これにより、本方法を適用する場合に、特に、画像データを提供する画像センサから更に遠く離れた眼であっても検出することが可能になる。
本発明の1つの態様によると、前処理ステップは、第1の探索域における階調値ヒストグラムの平坦化を含む。
本発明の別の態様によると、既に検出されている眼の追跡は、画像データを提供する画像センサから識別された顔までの距離に依存して眼の一部の予想サイズを計算するステップと、第2の探索域における最小階調値を判定するステップと、第2の探索域における閾値である階調値にわたり反復するステップとを更に含む。この場合、少なくとも両眼が検出されると反復は終了する。反復は、画像データを提供する画像センサ、現在の反復ステップ及び最小階調値による識別された顔までの距離に依存して、第2の探索域における分割に対する閾値として階調値を計算するステップと、第2の探索域を分割するステップと、分割された第2の探索域において、少なくともほぼ同一の階調値を有する隣接画素の集合である1つ又は複数の結合領域を計算するステップと、計算された各結合領域のサイズを判定するステップと、眼の一部の予想サイズと結合領域の判定サイズとを比較するステップとを含む。ここで、結合領域の判定サイズが眼の一部の予想サイズと少なくともほぼ一致する場合、結合領域は追跡される眼を表す。これらの処理ステップにより、特に、より遠隔に位置する眼をリアルタイムで追跡でき且つ眼の3D座標に関して従来の方法で可能なものより正確な結果を得られる。
本発明の別の態様によると、探索域の分割は、例えば2値化である効率的な方法を使用して達成される。更に、好適な一実施形態によると、両眼を形成するための眼の割り当ては、所定の眼と検出された眼に対する眼以外の部位との類似性に基づいて両眼に属する眼を判定するサポートベクトルマシンを用いる分類により実行される。しかし、両眼を形成するための眼の割り当ては、分類にもサポートベクトルマシンの使用にも限定されない。
更に本発明は、コンピュータ上で実行する場合に、本発明に係る方法を実行するようにコンピュータを制御するコンピュータプログラムに関する。
更に本発明は、少なくとも1つの顔の中の両眼の3D座標を検出し、その後追跡する装置であって、少なくとも1つの画像センサから少なくとも1つのデジタルビデオ信号のシーケンスを含む画像データを受信する手段と、画像データにおいて眼を検出する手段と、画像データにおいて既に検出されている眼を追跡する手段と、検出された眼又は追跡される眼の3D座標を判定する手段と、両眼を形成するために検出された眼又は追跡される眼を割り当てる手段と、両眼の3D座標を提供する手段とを具備する装置に関する。画像データにおいて既に検出されている眼を追跡する手段は、画像データにおいて1つ又は複数の顔を識別する手段と、少なくとも1つの識別された顔の3D座標を判定する手段と、識別された顔上に第1の探索域を定義する手段と、第1の探索域内で少なくとも一方の眼を見つける手段とを更に含む。特に、画像データにおいて既に検出されている眼を追跡する手段は、識別された顔上に第2の探索域を定義する手段と、第2の探索域内で両眼の眼を追跡する手段とを含む。
本発明の更なる好適な態様は、従属請求項において定義される。
例示する目的で、添付の図面に関連して本発明の好適な実施形態を以下に説明するが、実施形態はそれらに限定されない。
図1は、本発明に係る方法を示すフローチャートである。 図2は、本発明の一実施形態に従って、眼の検出処理を示すフローチャートである。 図3は、本発明の一実施形態に従って、顔上に定義された第1の探索域を有する画像データを示す図である。 図4は、本発明の一実施形態に従って、既に検出されている眼を追跡する処理を示すフローチャートである。 図5は、本発明の一実施形態に従って、顔上に定義された第2の探索域を有する画像データを示す図である。 図6は、本発明の一実施形態に従って、両眼を形成するために眼を割り当てる処理を示すフローチャートである。 図7は、本発明の一実施形態に係る装置を示す図である。 図8は、本発明の一実施形態に従って、オブジェクト指向設計のコンピュータプログラムの処理を示すフローチャートである。
図1は、本発明に係る方法の第1の実施形態を示す。前記方法は、少なくとも25Hzの再生速度で最大4人の観察者の眼をリアルタイムで検出し且つ追跡できる。従って、方法により、最大4人の観察者を、少なくとも毎秒25画像の検出及び追跡頻度で処理でき、もしくは1人の観察者を例えば毎秒60画像の検出及び追跡頻度で処理できる。ステップ110において、1つ又は複数の画像センサにより記録され、且つシリアルインタフェースなどの送信手段を介してビデオシーケンスの形式で送信される画像データが受信される。本明細書の好適な実施形態において、画像センサにより記録される画像データは能動照明により照らされる。画像センサが画像を記録できるようにするために、画像センサの検出範囲は光を用いて照らされる。本発明の一実施形態によると、ここでは赤外光を用いる照明が好ましく、これは約700〜950nmの範囲、好ましくは850nmの波長を有する。能動照明は、画像データにおいて被写体の眼を強調表示するのに役立つ。
瞳孔がその周囲に比べて特に暗く見える、いわゆる「暗瞳孔効果」は、能動照明が画像センサの光軸から相対的に遠くに配置される場合に生じる。「明瞳孔効果」の場合、能動照明は画像センサの光軸に近接して配置されるため、写真術における「赤目現象」と同様に、放射光は眼の背景から反射され、画像センサにより記録される。
一実施形態によると、「暗瞳孔効果」が好適な効果である。他の効果、例えば瞳孔がその周囲より明るく見えることを意味する「明瞳孔効果」も、眼又は眼の関連部分を周囲から区別できるようにするために、利用可能である。
画像センサは、能動照明と関連して、眼が画像センサから遠くに位置する場合であっても以下のステップにおいて眼の検出及び追跡が可能な限り少ない誤差で達成されるように設計される。検出範囲は、本発明に係る方法により制限されないが、使用される画像センサにより制限される。ここで好適な実施形態において、この検出範囲は、実際に使用される画像センサに応じて、画像センサから約0.5m〜3.5mの距離の範囲にわたる。しかし、適切な画像センサが使用される場合、本発明に係る方法を用いてより大きい検出範囲も達成可能である。画像データは、ビデオデータ圧縮のための周知の方法により圧縮可能であり、又は生データの形式で更なる処理のために利用可能である。
受信された画像データは顔識別ステップ115に提供される。顔は従来技術の顔検出方法を利用して識別される。ステップ115において、通常、顔はパターン認識ルーチンを使用して画像データにおいて識別される。顔が識別されると、好ましくは3D座標の形式で、画像センサに関する顔の空間位置を特定する座標が判定される。3D座標の座標系の原点は、方法が実行される前に定義される。1つの画像センサを用いる好適な実施形態において、原点は、画像センサの光軸及び画像センサ自体により定義される。2つの画像センサを用いる一実施形態において、原点は画像センサの光軸を結ぶ線分の中心及び画像センサ自体により定義される。3D座標は、少なくとも2つの画像センサにより記録される2D画像の立体解析を適用することにより判定されるのが好ましい。立体解析において、識別された顔の視差が画像データにおいて検出される。視差は、空間中の点が少なくとも2つの画像センサの双方により検出される場合に、異なる座標を有する記録画像データにおいて、それら2つの画像センサが異なる方向からその点を検出することにより画像データにおいて表現される立体画像の画像データ中の画素の座標の距離である。画像センサは、画像データを提供する画像センサに関する空間中の点の距離で立体画像中の画素の視差を撮像する関数を検出するために測定され、またその逆も成立つ。その後、画像センサからの距離はこの関数を適用することにより判定され、従って、3D座標のZ座標はその距離に基づいて判定可能である。あるいは、Z座標は、従来技術において周知である他の任意の方法を使用して判定可能である。
一実施形態において、画像データを提供する画像センサから顔までの距離は、3D座標に基づいて判定されるのが更に好ましい。画像センサから顔までの距離は、他の方法を使用して、例えばレーザを用いる距離測定によっても判定可能である。
ステップ115における画像データ中の顔の識別は、まだ検出されていないか又は追跡中に見失われた顔を見つけるために画像データが探索されるよう、画像データの受信と同期して実行されるのが好ましい。従って、好適な実施形態において、既に識別されている顔及びそれらの位置は格納されるものとする。好適な方法は、新しい顔の識別がステップ130における眼追跡と関係なく実行されるように更に設計される。画像データにおいて顔が識別された場合、ステップ120において、それらの顔が既に追跡されているか否かがチェックされる。これは、眼の間隔又は顔の比率等の格納された顔の特徴、又は好ましくは3D座標に基づいてチェックされる。このようにチェックの結果、識別された顔がまだ追跡されていない場合、その顔の眼、もしくは両眼はまだ検出されていない。本実施形態では、ステップ125において、識別された顔上に少なくとも1つの第1の探索域を定義し、且つ定義された探索域内で少なくとも一方の眼を検出することにより、眼は顔の中から検出される。顔が既に追跡されている場合、顔の両眼の少なくとも一方の眼が追跡される第2の探索域を定義することにより、更なる追跡が実行される。一実施形態において、第1の探索域は第2の探索域より大きいのが好ましい。好適な実施形態において、ステップ125及びステップ130にて、少なくとも一方の眼が第1の探索域の各々において検出され、その後第2の探索域において追跡されるのが好ましい。ステップ135における、両眼を形成するための検出もしくは追跡される眼の割り当ては、3D座標であるのが好ましい座標を判定した後に実行されるのが好ましい。検出もしくは追跡される両眼は、方法の反復実行、又は本明細書中で説明する実施形態の一部ではない他の用途の更なる処理に対して提供される。ステップ140において、両眼の3D座標は、図7を参照して以下に説明するようにコンピュータ725により更に処理されるために、例えば適切なインタフェース720を介して提供される。
図2及び図3を参照して、方法の他の好適な実施形態を説明する。図2に示す処理は、図1のステップ125において眼を検出する動作を詳細に説明する。処理は、顔がまだ追跡されておらず、その上、その顔の中に眼が検出されていないと判明した場合に開始される。眼は、識別された顔の現在の画像データ及び3D座標に基づいて検出される。処理ステップ210において、少なくとも1つの第1の探索域310が識別された顔上に定義される。この場合、第1の探索域のサイズは、選択された顔検出方法の特徴及び精度に依存する。好適な一実施形態において、第1の探索域は約50mm×50mmのサイズを有する。第1の探索域310は、顔の判定された3D座標及び顔の形状を使用して定義される。この情報に基づいて、この顔の眼が位置する可能性が最も高い領域が計算され、それにより、第1の探索域はその計算された領域に基づいて画像データにおいて定義される。図3は画像320中の定義された第1の探索域310を示す。第1の探索域310は顔の中の各眼に1つずつ対応し、前記眼は「暗瞳孔効果」を使用して指定される。更なる処理ステップは、第1の探索域の各々においてのみ実行される。これは、顔上の調査領域がはるかに小さくなるという効果を有し、そのため、計算負荷及び方法の効率に好影響を及ぼす。ステップ215において、画像データを提供する画像センサから顔までの距離に基づいて、識別された顔の眼の一部のサイズが計算される。一実施形態において、眼のこの部分は眼の瞳孔である。これは、「暗瞳孔効果」が採用される場合、瞳孔が眼の他の部分に対して特に異なって強調表示されるためである。別の実施形態において、眼の瞳孔に加えて虹彩が眼の関連部分として使用される。距離は、識別された顔の3D座標に基づいて計算されるか、又は従来技術において周知である他の任意の方法により計算される。更に、距離値は、更なる使用のために処理ステップ125に渡されるのが好ましい。眼の瞳孔の予想サイズは、適切なアルゴリズムを適用することにより計算されるが、本明細書においてこれを更に詳細に説明しない。眼を検出する更なるステップは、ステップ220における第1の探索域の分割に対する閾値の計算を含む。
ここでの分割は、ある特定の等質基準に従って隣接画素を組み合わせることにより、内容に関する限り関連する領域が作成される画像処理方法である。好適な実施形態において、階調値が等質基準として使用される。画像処理において、階調値は個々の画素の輝度値又は強度値である。尚、階調値は画像データの色に依存しない。
好適な一実施形態において、画像データは、白色から黒色まで256個の中間レベルの階調値を含む。階調値は、画像データを提供する画像センサから識別された顔までの距離に依存して、後続の処理ステップにおいて使用される閾値として計算される。画像センサからの距離が変化するに従って、輝度値及び強度値が画像データにおいてシフトされるため、閾値はその距離を考慮して計算されるのが好ましい。更なるステップ225において、第1の探索域は、眼の瞳孔又は眼の瞳孔及び虹彩等の画像の関連部分を、画像の他の部分から更に区別するために前処理される。
ここで好適な実施形態において、この前処理ステップは、第1の探索域における階調値ヒストグラムの平坦化を含む。ヒストグラムの平坦化において、画像データにおける階調値又は色値の統計分布は、階調値又は色のより適切な分布を達成するために平坦化関数を使用して変換され、それにより、コントラストを向上し且つ探索域内の画像データの内容を正規化する。これは、画像データを提供する画像センサから顔までの距離に起因し、能動照明の効果の減少又は追加の照明効果(例えば赤外光を多く有する入射太陽光)により引き起こされる、画像データにおける異なる輝度の影響を減少させ、そのため、更なる処理のために同様のコントラスト値を作成するのに役立つ。
第1の探索域内の画像データがこのように処理されると、ステップ230において分割が実行される。画素の階調値に基づく画素の割り当てを可能にする任意の適切な方法がこの分割に使用可能である。一実施形態によると、好適な分割方法は画素の2値化である。ステップ220において計算された閾値がこの2値化に使用される。第1の探索域内の画素は、それらの階調値が閾値より小さい場合に値1を与えられ、それらの階調値が閾値より大きい場合に値0を与えられる。画素の階調値が閾値より小さい場合に値0が画素に与えられ、且つ階調値が閾値より大きい場合に値1が画素に与えられる画素の逆2値化も使用可能である。このようにして、第1の探索域において、閾値より大きい関連画素のみが値1を与えられることにより黒色として出現し、他の全ての画素が値0を与えられることにより白色として出現することが達成される。後続の処理ステップ235において、分割された探索域で結合領域が計算される。結合領域は、隣接画素が同一の特性に基づいて、例えばそれらの階調値に関して同類に属すると判明した領域である。
好適な一実施形態において、8画素の結合領域が計算される。これは、個々の例において、例えば4画素の結合領域より適切に画素の結びつきを表現する。1つの画素に隣接する8個の画素の全てが考慮され、これらの隣接画素が同一の階調値を有するかが計算される。4画素の結合領域の場合、水平方向又は垂直方向に隣接する画素のみが考慮される。同一の階調値を有する全ての画素は、同一の結合領域に割り当てられる。一実施形態によると、階調値のある特定の範囲に存在する画素は、共通の結合領域に割り当てられる。
後続のステップ240において、計算された結合領域のサイズが判定される。その後、計算された各結合領域の判定サイズは、眼の瞳孔又は眼の一部の予想サイズと比較される。サイズ比較ステップ245において、結合領域のサイズが眼の瞳孔の予想サイズとほぼ同一であることが判明した場合、結合領域は眼であると決定される。他の全ての場合、結合領域は眼ではない。当然、このようにして第1の探索域内に複数の眼が検出されることがあり、それらは、両眼を形成するために割り当てる処理ステップ135において更に処理される。本実施形態によると、眼を見つける処理ステップはステップ250で終了し、検出した眼を提供する。第1の探索域内で眼が検出されなかった場合、処理は、より大きな第1の探索域を用いて繰り返されるか、又は識別された顔の中に検出可能な眼がないものとして終了される。
別の好適な実施形態において、多くのテストパターン及びテストパターンシーケンスにて検出性能を測定することにより、閾値、閾値を計算するアルゴリズム、又は閾値を計算するアルゴリズムのパラメータが検出され、且つ最適化される。この場合、画像データを提供する画像センサまでの距離が増加するにつれて、例えば能動照明の能力及び効果が減少するため、画像データを提供する画像センサから顔又は眼までの距離が考慮される。閾値を計算する実際のアルゴリズムを以下に示す:
閾値=最小輝度値+初期値+(最大距離−距離)/100
式中、最小輝度値は分割される領域内の画素の最低輝度であり、初期値は上述の最適化測定中に判定された値に基づいて定義される値であり、最大距離は画像データを提供する画像センサから観察者までのmm単位の最大可能距離であり、距離は画像データを提供する画像センサから顔又は眼までのmm単位の実際の距離である。
図4及び図5を参照して、方法の他の好適な実施形態を以下に説明する。図4に示す方法は、図1のステップ130において眼を追跡する個々の動作を詳細に説明する。眼の検出ステップとは異なり、既に検出されている眼を追跡する場合、ステップ410において、眼を追跡するための第2の探索域が眼の既知の位置に基づいて定義される。第2の探索域は、対応する第1の探索域より小さく定義されるのが好ましい。通常、第2の探索域のサイズは眼のサイズとほぼ一致し、この場合、第2の探索域のサイズは、画像センサにより記録される画像データの再生速度、並びに眼の動きの自由度及び運動速度に依存して動的に拡大可能である。更なる好適な一実施形態において、第2の探索域は約20mm×15mmのサイズを有し、この場合、眼は第2の探索域に完全に含まれると仮定される。第2の探索域510は、以下のようにして顔320上に定義される。図1の処理ステップ130において、追跡される眼の3D座標は、前に実行された処理ステップ、特に先行の画像データのステップ140から既知である。例えば、眼の複数の前の3D座標に基づいて、検出され且つ追跡される眼がある特定の方向において、ある特定の速度で相対運動を実行するかが判定される。そのように相対運動が行われると確認される場合、現在の画像における眼の位置の予測は計算可能である。これに対して、多くの方法が従来技術において周知であり、それらは本明細書に参考として完全に含まれる。その後、第2の探索域は眼の予測位置を考慮して対応して定義される。相対運動が検出されなかったか又は眼が先行のステップにおいて初めて検出された他の例において、第2の探索域は、先行のステップ140において検出された眼の位置に基づいて定義される。
既に識別されている顔320上での第2の探索域510の例示的な定義を図5に示す。これらと図3の探索域310とを比較すると、第2の探索域510がはるかに小さいことは明らかである。そのため、第2の探索域内の画素数は少なく、計算負荷は最小限にされる。
第2の探索域を定義した後、ステップ415において、画像データを提供する画像センサから眼までの距離に依存して、眼の一部のサイズが計算される。計算は、例えば上記のステップ215において説明したように実行される。その後、ステップ420において、第2の探索域内で最小階調値が判定される。この場合も、最小階調値は従来技術において周知の画像処理方法を使用して判定される。ステップ420の判定された最小階調値は、以下の反復において引き続き使用される。反復は、分割に対する現在の閾値として階調値を計算するステップ(ステップ425)と、探索域を分割するステップ(ステップ430)と、結合領域を計算するステップ(ステップ435)と、結合領域のサイズを判定するステップ(ステップ440)と、判定サイズと予想サイズとを比較するステップ(ステップ445)とから成る。ステップ445の完了後、少なくとも2つの眼が検出された場合、反復はステップ450において終了する。他の全ての場合、別の反復ステップが実行される。好適な一実施形態において、比較ステップで検出された眼の数に関係なく、反復ステップの数が4つに制限されるため、反復は4番目の反復ステップ後に終了され、それまでに検出された眼のみを提供する。各反復ステップにおいて、最初に階調値が判定され、これは後続の分割に対する閾値として使用される。現在の閾値は、画像データを提供する画像センサから眼までの距離、ステップ425からの最小階調値、及び現在の反復ステップを考慮して、周知の方法を使用して判定される。後続の分割において、画像データ中のより多くの領域が閾値を使用して潜在的に眼を含む領域として分類されるように、閾値は各反復ステップにおいて更に調整される。
上述の実施形態に係る視線追跡の処理はステップ455で終了し、追跡可能な眼を提供する。
上述のように、多くの周知の分割方法が採用可能である。好適な一実施形態において、2値化法が画像処理関数として使用される。上述のように、画素の階調値が閾値より小さい場合にその画素は値0を与えられ、且つ階調値が閾値より大きい場合に値1を与えられるか、又は画素の階調値が閾値より小さい場合にその画素は値1を与えられ、且つ階調値が閾値より大きい場合にその画素は値0を与えられる。
2値化の後、結合領域が上述のように計算される。上述の8画素の結合領域は結合領域の好適な種類である。その後、各結合領域のサイズが判定される。この判定サイズは眼の一部、例えば本実施形態において好適である眼の瞳孔の予想サイズと比較される。予想サイズが判定サイズとほぼ同一の場合、眼が検出されたと仮定される。この比較は、計算された結合領域毎に実行される。全ての結合領域のサイズが眼の一部の予想サイズと比較される場合、その反復ステップにおいて検出された眼の数が判定される。少なくとも2つの眼が検出された場合、現在の画像データにおける眼の追跡は終了される。その後、図1に従う処理は、検出された眼を用いてステップ135にて続行される。
例えば4つの反復ステップが実行された場合にも、反復が終了されるのが有利である。少なくとも2つの眼が依然として検出されていない場合、利用可能な計算資源に応じて、反復は、より少ない反復ステップの後に終了されてもよく、又はかなり多い反復ステップの後に終了されてもよい。
反復ステップにおける分割に対する閾値は、ステップ125で使用された計算アルゴリズム及びそこで導入されたパラメータに従って計算される。計算は、以下のように実行されるのが有利である:
閾値=最小輝度+初期値+反復値+(最大距離−距離)/100
式中、反復値は、ステップ幅を1とする0〜Xの範囲であって、既に実行された反復ステップの数を表す値である。反復ステップの最大数Xは、上述の測定において検出された値の最適化により判定可能である。本明細書中で説明する実施形態において、反復の最大数は4である。
従って、第2の探索域内で眼を追跡する場合、反復ステップの既定の最大数の完了後であっても眼が検出できない可能性がある。そのような場合、眼を追跡するステップは、例えばより大きな第2の探索域において繰り返されるか、又は眼を検出するステップが再度実行される。
一実施形態によると、第2の探索域を定義する時、両眼の3D座標が1つの画像内で検出されてから後続画像内で追跡されるまで変化していないか又は僅かにしか変化していない場合、その両眼の3D座標はその後続画像に続く画像においても(ほぼ)同一であると仮定される。その反対に、多くの画像にわたって眼を検出する際に、追跡された両眼の3D座標が初期の3D座標から遠くに移動した場合、一般に、次の画像の3D座標及び第2の探索域は、例えばカルマンフィルタリングなどのの周知の方法を使用して、上述の動き及び運動速度により定義される動きベクトルを使用して予測可能である。
図6を参照して、方法の更に好適な実施形態を説明する。図6に示す処理は、図1のステップ135において両眼を形成するために眼を割り当てる動作を詳細に説明する。眼を検出するステップ及び眼を追跡するステップにおいて検出された眼は、両眼を形成するために割り当てられる。最初に、ステップ610において、それら検出された眼の3D座標が上述のように判定される。好適な一実施形態において、両眼を形成するための眼の割り当ては、分類により実行される。分類法はオブジェクトをクラスにグループ化するための方法及び基準である。画像データ中のオブジェクトを割り当てるのに、従来技術において周知である適切な分類器が使用される。好適な一実施形態において、分類器はサポートベクトルマシンである。サポートベクトルマシンは、オブジェクトを含まない可能な限り広い範囲により、クラスの境界が包囲されるように1組のオブジェクトをクラスに分割する。この分割に対する必要条件として、サポートベクトルマシンは区別される組のトレーニングオブジェクトを学習させられる。好適な一実施形態において、種々の眼を示す第1の画像の組及び種々の眼以外を示す第2の画像の組が、ステップ615において形成される。通常、これらの組は処理が実行される前に形成されるが、両眼を形成するために眼を割り当てるステップが実行される直前に形成されてもよい。ステップ620において、サポートベクトルマシンは、画像データにおける眼の分類が可能になるように、これら2つの組を学習させられる。その後、検出された眼又は追跡される眼は、ステップ625において、サポートベクトルマシンのパターン比較により比較され、それらが眼のクラス又は眼以外のクラスに対してある特定の一致度を示す場合、いずれかのクラスに追加される。分類の結果は、トレーニングオブジェクトとしてサポートベクトルマシンに提供される。その後、サポートベクトルマシンは、両眼を形成するために眼を割り当て、両眼は眼のクラスに追加される。上述の実施形態に従う両眼を形成するための眼の割り当てはステップ635で終了し、割り当てられた両眼を提供する。
図7を参照して、両眼の3D座標をリアルタイムで見つけ且つその後追跡する装置の好適な一実施形態を説明する。図は、例えば共通の担持体構成に装着されている並列配置の2つの画像センサ710、各画像センサに対する能動照明手段715、及び本発明に係る方法を実行する中央制御コンピュータ725へ各画像センサの画像データを送信する手段720を示す。好適な一実施形態において、画像センサ710は、「暗瞳孔効果」を表す画像データを記録するように、照明手段715に関連して設計される。画像センサは、使用される画像センサが充分に鮮明な画像データを提供することが保証されるように、特定の検出範囲に対する非自動焦点光学系を取り付けられる。例えば0.5m〜3.5m以上の検出範囲を含む画像センサ、あるいは0.5m〜1.5m及び/又は1.8m〜3.0mのより小さい範囲を含む画像センサが使用されるのが有利である。一実施形態によると1つの光源のみを含むことができる能動照明手段715は、約850nmの波長を有するパルス赤外光を放射するように設計されるのが好ましい。画像センサに関する能動照明の構成は、画像センサに関する検出され且つ追跡される被写体の空間位置により判定される。制御コンピュータ725は、各画像センサの画像データを送信する手段720を介して画像センサによる画像データの記録を制御し、その場合、能動照明もこれら送信手段を介してオン及びオフされる。一実施形態によると、各画像センサの画像データを送信する手段720は単一のシリアルインタフェースの形態で実現される。
別の好適な実施形態において、画像センサ及び能動照明の同期制御は、例えばクロックパルス発振器の形態で実現される。画像センサにより記録された画像は送信手段720を介して中央制御コンピュータ725へ送信される。制御コンピュータ725の現在市販されているハードウェア構成要素により、本発明に係る方法は、最大4人の観察者を検出し且つ追跡するのに、毎秒25画像以上の検出及び追跡頻度で実行される。使用されるハードウェア構成要素は非常に小型であるため、例えばモニタのケースに一体化可能である。制御コンピュータ725により検出され且つ追跡される眼は、更なる使用のために別のインタフェース(不図示)を介して送信可能である。好適な一実施形態において、画像データを送信する手段720及び更なるインタフェースは、シリアルインタフェースの形態で実現される。好適な一実施形態において、装置は、方法をリアルタイムで実行するように、すなわち現在受信した画像データと一致する各画像内で眼を検出し且つ追跡するように設計される。
本発明に係る方法は、例えば制御コンピュータ725のようなコンピュータを制御する実行可能なコンピュータプログラムの形態で実現されるのが更に好ましい。図8を参照して、コンピュータプログラムの形態である好適な一実施形態を説明する。図8に示す実施形態は、オブジェクト指向パラダイムに従ってコンピュータプログラムのドラフトルーチンを説明する。この場合、当業者はドラフトにより、適切な開発環境においてオブジェクト指向のコンピュータプログラムを実現できる。
以下に説明するオブジェクト及びインスタンスは、上述の処理ステップの2つ以上を部分的に実現するか、又はオブジェクト及びインスタンスにおいてそれらを組み合わせる。従って、これらのオブジェクト及びインスタンス、並びにそれらで実行される処理ステップは、上述の処理ステップとは異なる名称を与えられる。しかし、これは、処理が異なることを意味するわけではない。以下に説明する実施形態は、本発明に係る方法の1つの可能なオブジェクト指向物理形態として解釈されるにすぎない。
制御メインインスタンス810はメインループであり、従って、以下に詳細に説明する処理ステップ又は処理グループを制御するための制御インスタンスである。以下の処理ステップは、メインインスタンス810において表され且つ実現される:
−画像データの取得;
−追跡器インスタンス820の呼び出し;
−有効な眼の位置として検出される全ての眼の位置に対して、追跡器インスタンス820により眼の3D座標を計算;
−3D座標を許容範囲内に制限することによるフィルタリング。更なる実施形態によると、フィルタリングステップは、ノイズフィルタリングと、システムの遅延を補償するための顔の3Dの運動速度に基づく3D位置の事前計算又は予測とを含む。3D位置は、典型的なシステム遅延である、60ms毎の予測であるのが有利である。ここで、システム遅延は、画像データの受信から両眼の3D座標の出力までに経過する時間であると理解される。
−対応して更に結果を処理できるようにするために、出力インタフェース870を介して結果として得られた3D座標を送信。
入力情報は、1つ又は複数の画像センサによりデジタルビデオ信号のシーケンスの形態で取得される画像データを含む。出力情報は、全ての両眼の3D座標を含む。
複数のコンテキストインスタンス840−1、...、840−nは、顔検出115、眼検出125、及び瞳追跡130の相互作用の調整及び管理に対する管理構成を表すために実現される。各コンテキストインスタンス840には、顔検出115のための顔検出器インスタンス850、及び顔検出器インスタンス850により判定される対応する眼の探索域における眼検出125のための眼検出器インスタンス860が割り当てられる。従って、眼検出器インスタンス860により検出された眼は、顔検出器インスタンス850により検出された顔に属する。コンテキスト840が被写体に割り当てられない場合、それはフリーであると定義され、従って、新しい被写体を追跡するために利用可能である。
コンテキストインスタンス840の主要な処理ステップは以下を含む:
−被写体毎に1つの顔検出器インスタンス850及び1つの眼検出器インスタンス860を管理;
−1つの被写体が検出及び追跡の許容範囲内に留まっている間、その被写体に対するこれら2つのインスタンス850、860を参照;
−コンテキスト840の制御割り当て及び管理。利用可能なコンテキスト840より少ない被写体が検出及び追跡範囲内に位置する場合、コンテキスト840はフリーのままであり、全てのコンテキスト840が占有されると、更なる被写体は検出されず且つ追跡されない。
更に、コンテキスト840内での個々の顔検出器インスタンス850及び眼検出器インスタンス860の相互作用は、追跡器インスタンス820により調整及び管理される。
追跡器インスタンス820の主要な処理ステップは以下を含む:
−顔検出器インスタンス850及び眼検出器インスタンス860の2つの検出器オブジェクトを初期化;
−コンテキストインスタンス840−1、...、840−nを管理;
−顔検出器インスタンス850から顔の座標を受信し且つ顔管理インスタンス830へ送信;
−フリーのコンテキスト840に新たに検出された顔を割り当て;
−各占有されたコンテキスト840の顔検出器インスタンス850及び眼検出器インスタンス860に対するアルゴリズムを呼び出し;
−全ての両眼の3D座標を計算。
入力情報は画像データを含み、出力情報は全ての両眼の3D座標を含む。
追跡器インスタンス820の特定のステップは以下を含む:
−新しい顔の座標が未決定であるか否かを入力インタフェース880で確認し、それらデータを読出して現在の顔の位置のリストに追加;
−少なくとも1つのコンテキスト840が利用可能である場合、顔管理インスタンス830を呼び出し;
−顔がコンテキスト840において既に追跡されているか否かを顔管理インスタンス830の顔候補で確認し、重複していると判明した顔候補を削除;
−フリーのコンテキスト840の顔検出器インスタンス850に新しい顔として認識される残りの顔を割り当て;
−全てのコンテキスト840−1、...、840−nに対して、以下のステップを反復:
○顔検出器インスタンス850を呼び出す;
○顔検出器インスタンス850が顔を追跡している場合は眼検出器インスタンス860を呼び出し、それ以外の場合は現在のコンテキスト840がフリーである旨の印を付ける;
○眼検出器インスタンス860が探索モードであり、且つ眼候補が判定された場合に、
・顔検出器インスタンス850により最適な眼候補を選択;
・眼検出器インスタンス860を追跡モードに切り替え;
○全てのコンテキスト840が処理されるまで、次の占有コンテキスト840を処理。
顔検出器インスタンス850により受信された顔の座標は、顔管理インスタンス830により解析され、顔管理インスタンス830は、これら座標に基づいて追跡に対して有効な顔として認識される顔候補のリストを編集する。
この顔管理インスタンス830のステップは以下を含む:
−顔検出器インスタンス850の検出された顔を管理;
−顔検出器インスタンス850により検出された顔に基づいて有効な顔として認識される顔候補のリストを編集;
−立体画像における視差に基づいて画像データを提供する画像センサから顔までの距離を計算。
入力情報は画像データ及び顔探索に対する探索域を含み、出力情報は検出された顔及びそれらの座標のリストを含む。
特別な機能として、顔管理インスタンス830は以下のステップを含む:
−現在の顔の位置のリストが変更された場合に:
○そのリストを解析;
○立体解析により画像データを提供する画像センサから有効な顔までの距離を計算し、検出及び追跡範囲内に位置する顔を顔候補のリストに追加。
追跡される顔は、対応する顔検出器インスタンス850により管理される。顔検出器インスタンス850は、顔管理インスタンス830の顔のリストから1つの顔を割り当てられる。顔は検出及び追跡範囲の外側に移動するまで追跡される。顔検出器インスタンス850のステップは以下を含む:
−検出された顔の位置を管理;
−眼検出器インスタンス860に対する探索域を計算;
−立体画像における視差に基づいて画像データを提供する画像センサから顔までの距離を計算;
−対応する眼検出器インスタンス860の可能な両眼の候補のリストから最適な両眼を決定。
入力情報は以下を含む:
−画像データ;
−検出された顔に関する情報;
−顔追跡インスタンス850に対する探索域;
−両眼の候補のリスト。
出力情報は以下を含む:
−検出された顔及びそれらの座標のリスト;
−眼検出器インスタンス860に対する探索域;
−選択された両眼。
特別な機能として、この顔検出器インスタンス850は以下のステップを含む:
−現在の顔の位置のリストが変更された場合に:
○顔の位置を更新;
○既に検出されている顔がそれ以上検出されないための後続画像の数に対する尺度である検出/喪失参照カウンタを再設定;
−リストが変更されていない場合に:
○眼検出器が眼を追跡する場合:
・眼の位置に基づいて顔の位置を計算;
・顔の距離/眼の距離を計算;
○眼検出器が眼を追跡しない場合:
・顔は見失われ、検出/喪失参照カウンタは増分される。しかし、顔は依然として検出された顔としてカウントされる;
・検出/喪失参照カウンタがある特定の既定値を上回らない限り、前の顔の位置が格納されたままである。カウンタが既定値を上回ると、顔は存在しないとみなされる。
眼の検出及び追跡は、探索モードにおいて既定の探索域内で眼を検出するか、又は追跡モードにおいて既に検出されている眼を追跡する、眼検出器インスタンス860により実行される。このようにして、可能な両眼は判定され、候補のリストは評価基準に基づいて編集される。
眼検出器インスタンス860のステップは以下を含む:
−検出された両眼の位置を管理;
−眼の初期探索;
−追跡に対する探索域を計算;
−眼の位置を追跡;
−検出された眼候補の信頼度を判定し、且つ潜在候補を編集。
入力情報は以下を含む:
−画像データ;
−眼の探索及び追跡に対する探索域;
−検出された眼に関する情報;
出力情報は以下を含む:
−両眼及びその座標。
この眼検出器インスタンス860の特別な機能は、以下のステップを含む:
−眼検出器インスタンス860が探索モードである場合に:
○顔検出器インスタンス850により眼探索域を判定;
○眼探索域内で眼を検出するアルゴリズムを適用;
−眼検出器インスタンス860が追跡モードである場合に:
○以前の眼の位置及び画像データを提供する画像センサから観察者までの距離を使用して判定された眼の速度に基づいて、探索域の新しい位置及びそのサイズを計算し、予測もしくは推定;
○探索域内で眼を追跡するアルゴリズムを適用;
−候補が見つかった場合に:
○両眼の潜在候補を判定する目的で、種々のテストを実行。テスト及び条件は以下を含む:
・互いに関連する眼の位置及び顔の位置に対する眼の位置;
・眼の間隔及び傾斜;
・検出された位置及び周辺位置の領域における輝度パターンの分類に基づく信頼度。この場合、信頼度がより高い周辺位置は、位置の精度を向上するために後で使用される。
○結果として得られた評価基準に基づく候補のリストを編集;
−眼検出器インスタンス860が追跡モードである場合に:
○候補が判定された場合:
・予測された眼の位置に最も近い眼の候補対を選択;
・新しい結果として、現在の眼の位置を更新;
○候補が全く検出されなかったか又は適切な候補が検出されなかった場合:
・眼検出器インスタンス860を探索モードに切り替えて、探索を繰り返す。
上記の本発明の実施形態は、上述のように、デジタル信号処理装置(DSP)及び/又はプログラマブルデジタル集積回路(FPGA)及び適切な周辺装置及び適切なパーソナルコンピュータ等の制御コンピュータ上で有利に実行される制御プログラム等の適切なハードウェア及びソフトウェアを使用して実現される。
一実施形態によると、特許請求されるコンピュータプログラムは、例えばROMに格納されたソースコードの形態であるソフトウェア構成要素として、あるいはハードウェア構成要素として、例えばASIC又はFPGA内の論理回路として格納又は実現される。例えば、コンピュータプログラムが制御コンピュータのメモリ内のソフトウェア構成要素として格納される場合、これは、一実施形態によると例えばソフトウェア構成要素を実行するための高速デジタル信号プロセッサ(DSP)を含む制御コンピュータにより動作中に実行される。
一実施形態によると、データ記憶媒体は、コンピュータプログラムが格納されるCD−ROM又はROM等の機械可読データ記憶媒体である。

Claims (21)

  1. 少なくとも1つの顔の中の両眼の3D座標を検出し、その後追跡する方法であって:
    a)少なくとも1つの画像センサから少なくとも1つのデジタルビデオ信号のシーケンスを含む画像データを受信するステップと;
    b)前記画像データにおいて、眼を検出、又は既に検出されている眼を追跡するステップと;
    c)前記検出された眼又は前記追跡される眼の3D座標を判定するステップと;
    d)両眼を形成するために、前記検出された眼又は前記追跡される眼を割り当てるステップと;
    e)前記両眼の前記3D座標を出力するステップとを有し、
    前記画像データにおいて眼を検出する処理は:
    f)前記画像データにおいて1つ又は複数の顔を識別するステップと;
    g)少なくとも1つの識別された顔の3D座標を判定するステップと;
    h)前記識別された顔上に第1の探索域を定義するステップと;
    i)前記第1の探索域内で少なくとも一方の眼を検出するステップとを含み、
    前記画像データにおいて既に検出されている眼を追跡する処理が:
    j)前記識別された顔上に第2の探索域を定義するステップと;
    k)前記第2の探索域内で前記両眼の眼を追跡するステップとを含み、
    前記第1の探索域内で少なくとも一方の眼を検出する処理は:
    l)前記画像データを提供する画像センサから前記識別された顔までの距離に依存して、前記眼の一部の予想サイズを計算するステップと;
    m)前記画像データを提供する画像センサから前記識別された顔までの前記距離に依存して、前記第1の探索域における分割に対する閾値として階調値を計算するステップと;
    n)コントラストを向上するために、前記第1の探索域を前処理するステップと;
    o)前記前処理後に前記第1の探索域を分割するステップと;
    p)前記分割された第1の探索域において、少なくともほぼ同一の階調値を有する隣接画素の集合である1つ又は複数の結合領域を計算するステップと;
    q)計算された各結合領域のサイズを判定するステップと;
    r)前記眼の前記一部の前記予想サイズと前記結合領域の判定サイズとを比較し、前記結合領域の前記判定サイズが前記眼の前記一部の前記予想サイズと少なくともほぼ一致する場合に前記結合領域は検出された眼を表すものとするステップと
    を含むことを特徴とする方法。
  2. 前記第2の探索域内で前記両眼の眼を追跡する処理は:
    s)前記画像データを提供する画像センサから前記識別された顔までの距離に依存して、前記眼の一部の予想サイズを計算するステップと;
    t)第2の探索域における最小階調値を判定するステップと;
    u)前記第2の探索域における閾値である階調値にわたり反復し、少なくとも両眼が検出されると終了される反復ステップとを含み、反復ステップは、
    v)前記画像データを提供する画像センサ、現在の反復ステップ及び前記最小階調値から前記識別された顔までの距離に依存して、前記第2の探索域における分割に対する閾値として前記階調値を計算するステップと;
    w)前記第2の探索域を分割するステップと;
    x)前記分割された第2の探索域において、少なくともほぼ同一の階調値を有する隣接画素の集合である1つ又は複数の結合領域を計算するステップと;
    y)計算された各結合領域のサイズを判定するステップと;
    z)前記眼の前記一部の前記予想サイズと前記結合領域の前記判定サイズとを比較し、前記結合領域の前記判定サイズが前記眼の前記一部の前記予想サイズと少なくともほぼ一致する場合に前記結合領域は追跡された眼を表すものとするステップと
    を含むことを特徴とする請求項1に記載の方法。
  3. 前記分割は各画素の2値化であり、前記画素は、前記閾値より小さい場合に値1を与えられ且つ前記閾値より大きい場合に値0を与えられるか、あるいは前記画素は、前記閾値より小さい場合に値0を与えられ且つ前記閾値より大きい場合に値1を与えられることを特徴とする請求項1又は2に記載の方法。
  4. ステップn)における前記前処理は、階調値ヒストグラムの平坦化であることを特徴とする請求項1乃至3のいずれか1項に記載の方法。
  5. 前記結合領域は8画素の結合領域であることを特徴とする請求項1乃至4のいずれか1項に記載の方法。
  6. 前記眼の前記一部は、瞳孔又は瞳孔及び虹彩を含むことを特徴とする請求項1乃至5のいずれか1項に記載の方法。
  7. 両眼を形成するための前記検出された眼又は前記追跡される眼の前記割り当ては分類を含むことを特徴とする請求項1乃至6のいずれか1項に記載の方法。
  8. 前記分類はサポートベクトルマシンにより実行されることを特徴とする請求項7に記載の方法。
  9. 前記サポートベクトルマシンは、眼及び/又は眼以外の1つ又は複数の画像を学習させられることを特徴とする請求項8に記載の方法。
  10. 前記画像データにおける1つ又は複数の顔の前記識別は、識別された顔の3D座標と先行ステップにおいて識別された顔の3D座標との比較を含むことを特徴とする請求項1乃至9のいずれか1項に記載の方法。
  11. 顔の3D座標の前記判定は、前記画像データの立体解析を含むことを特徴とする請求項1乃至10のいずれか1項に記載の方法。
  12. 前記画像データを提供する画像センサから前記識別された顔までの前記距離は、前記顔の前記3D座標に基づく前記顔の前記距離の計算を含むことを特徴とする請求項1乃至11のいずれか1項に記載の方法。
  13. 前記顔は、前記画像データの記録中に赤外光を用いて能動的に照らされることを特徴とする請求項1乃至12のいずれか1項に記載の方法。
  14. 前記方法は、前記画像センサから約0.5m〜3.5mの距離に存在する両眼を検出し、且つ追跡することを特徴とする請求項1乃至13のいずれか1項に記載の方法。
  15. 前記第1の探索域のサイズは、前記第2の探索域のサイズより大きいことを特徴とする請求項1乃至14のいずれか1項に記載の方法。
  16. 前記第1の探索域は、約50mm×50mmのサイズを有することを特徴とする請求項1乃至15のいずれか1項に記載の方法。
  17. 前記第2の探索域は、約20mm×15mmのサイズを有することを特徴とする請求項1乃至16のいずれか1項に記載の方法。
  18. 前記方法は、リアルタイムで実行されることを特徴とする請求項1乃至17のいずれか1項に記載の方法。
  19. コンピュータ上で実行する場合に、請求項1乃至18のいずれか1項に記載の方法を実行するように前記コンピュータを制御するコンピュータプログラム。
  20. 請求項19に記載のコンピュータプログラムが格納されたデータ記憶媒体。
  21. 少なくとも1つの顔の中の両眼の3D座標を検出し、その後追跡する装置であって、請求項1乃至18のいずれか1項に記載の方法を実行できるように設計される装置。
JP2010533561A 2007-11-16 2008-11-12 両眼の検出および追跡する方法、及び装置 Active JP5470262B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102007056528.5 2007-11-16
DE102007056528A DE102007056528B3 (de) 2007-11-16 2007-11-16 Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren
PCT/EP2008/065352 WO2009062945A1 (de) 2007-11-16 2008-11-12 Verfahren und vorrichtung zum auffinden und verfolgen von augenpaaren

Publications (2)

Publication Number Publication Date
JP2011508289A true JP2011508289A (ja) 2011-03-10
JP5470262B2 JP5470262B2 (ja) 2014-04-16

Family

ID=40344911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010533561A Active JP5470262B2 (ja) 2007-11-16 2008-11-12 両眼の検出および追跡する方法、及び装置

Country Status (7)

Country Link
US (1) US8477996B2 (ja)
JP (1) JP5470262B2 (ja)
KR (1) KR101550474B1 (ja)
CN (1) CN101861118B (ja)
DE (1) DE102007056528B3 (ja)
TW (1) TW200938162A (ja)
WO (1) WO2009062945A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014522495A (ja) * 2011-06-09 2014-09-04 ジェ.エム.エール.フィ 誘導用線路に沿って移動する車両の速度及び位置を測定する装置、並びに対応する方法及びコンピュータプログラム製品

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110255761A1 (en) * 2007-06-26 2011-10-20 University Of Rochester Method and system for detecting lung tumors and nodules
JP5512682B2 (ja) * 2008-09-30 2014-06-04 カール ツアイス メディテック アクチエンゲゼルシャフト 眼球運動、特に眼底の運動の測定装置および測定方法
CN102006402B (zh) * 2009-08-28 2014-02-19 鸿富锦精密工业(深圳)有限公司 摄像装置及其身份识别方法
KR101082691B1 (ko) 2009-12-22 2011-11-15 한양대학교 산학협력단 3차원 디스플레이장치에서 홍채 시선 검출을 통한 안구 운동 장치 및 방법
WO2012122194A1 (en) * 2011-03-09 2012-09-13 Bae Systems Information And Electronic Systems Integration Inc. System and method for situational awareness and target cueing
WO2013111140A2 (en) * 2012-01-26 2013-08-01 Umoove Services Ltd. Eye tracking
DE102012004817A1 (de) * 2012-03-08 2013-09-12 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Scheinwerfersystem für ein Kraftfahrzeug
JP2013215549A (ja) * 2012-03-16 2013-10-24 Fujitsu Ltd 画像処理装置、画像処理プログラムおよび画像処理方法
US9952663B2 (en) 2012-05-10 2018-04-24 Umoove Services Ltd. Method for gesture-based operation control
KR20130134103A (ko) * 2012-05-30 2013-12-10 삼성전자주식회사 단말기의 이미지 제공 장치 및 방법
CN103565399B (zh) * 2012-07-27 2015-09-30 原相科技股份有限公司 瞳孔检测装置
EP2712541B1 (en) * 2012-09-27 2015-12-30 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Tiled image based scanning for head and/or eye position for eye tracking
US9911036B2 (en) * 2012-11-14 2018-03-06 Tascent, Inc. Focusing method for optically capturing an iris image
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9041642B2 (en) * 2012-12-17 2015-05-26 Disney Enterprises, Inc. Large audience 3D display system without glasses
CN103902958A (zh) * 2012-12-28 2014-07-02 重庆凯泽科技有限公司 人脸识别的方法
KR102175853B1 (ko) * 2013-02-22 2020-11-06 삼성전자주식회사 동작 제어 방법 및 그 전자 장치
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9772679B1 (en) * 2013-08-14 2017-09-26 Amazon Technologies, Inc. Object tracking for device input
CN103996215A (zh) * 2013-11-05 2014-08-20 深圳市云立方信息科技有限公司 一种实现虚拟视图转立体视图的方法及装置
KR101524516B1 (ko) * 2013-11-29 2015-06-02 전남대학교산학협력단 빈도수 기반의 영상 내 얼굴객체 추적방법
CN105828700B (zh) * 2013-12-09 2018-07-06 Smi创新传感技术有限公司 操作眼睛跟踪装置的方法和提供主动照明控制用于改进的眼睛跟踪稳定性的眼睛跟踪装置
WO2015130849A1 (en) * 2014-02-25 2015-09-03 Eyeverify Eye gaze tracking
US9729865B1 (en) 2014-06-18 2017-08-08 Amazon Technologies, Inc. Object detection and tracking
US10027883B1 (en) * 2014-06-18 2018-07-17 Amazon Technologies, Inc. Primary user selection for head tracking
KR101610525B1 (ko) 2014-10-20 2016-04-07 현대자동차주식회사 조도를 고려한 동공 검출 장치 및 그 방법
KR101619651B1 (ko) * 2014-11-26 2016-05-10 현대자동차주식회사 운전자 감시장치 및 그의 조명제어방법
US9953247B2 (en) 2015-01-29 2018-04-24 Samsung Electronics Co., Ltd. Method and apparatus for determining eye position information
CN104636736A (zh) * 2015-03-03 2015-05-20 上海博超联石智能科技有限公司 一种基于libjpeg库的高清人脸检测方法
WO2017003719A2 (en) 2015-06-30 2017-01-05 3M Innovative Properties Company Illuminator
KR102000888B1 (ko) 2015-08-07 2019-10-01 애플 인크. 이미지들의 스트림을 디스플레이하기 위한 시스템 및 방법
KR102463169B1 (ko) * 2015-09-07 2022-11-04 삼성전자주식회사 시점 추적 방법 및 장치
US9928602B2 (en) * 2015-12-11 2018-03-27 Novartis Ag Fast and automated segmentation of layered image with heuristic graph search
EP3214602B1 (de) * 2016-03-03 2019-05-08 Sick Ag Verfahren zur dreidimensionalen erfassung von objekten
US9704216B1 (en) * 2016-08-04 2017-07-11 Le Technology Dynamic size adjustment of rendered information on a display screen
US10395099B2 (en) * 2016-09-19 2019-08-27 L'oreal Systems, devices, and methods for three-dimensional analysis of eyebags
KR102349543B1 (ko) * 2016-11-22 2022-01-11 삼성전자주식회사 사용자의 눈을 추적하는 방법 및 장치와 역변환된 저조도 영상을 생성하는 방법
WO2018106220A1 (en) * 2016-12-06 2018-06-14 Vuelosophy Inc. Systems and methods for tracking motion and gesture of heads and eyes
CN108289151A (zh) * 2018-01-29 2018-07-17 维沃移动通信有限公司 一种应用程序的操作方法及移动终端
CN108446642A (zh) * 2018-03-23 2018-08-24 四川意高汇智科技有限公司 一种快速人脸识别***
US11010646B2 (en) * 2018-04-10 2021-05-18 Facebook Technologies, Llc Object tracking assisted with hand or eye tracking
US10951875B2 (en) 2018-07-03 2021-03-16 Raxium, Inc. Display processing circuitry
KR20200067465A (ko) * 2018-12-04 2020-06-12 삼성전자주식회사 영상 처리 방법 및 장치
CN109910567B (zh) * 2019-02-01 2022-09-30 信利光电股份有限公司 一种用于汽车的智能遮阳装置及其控制方法
WO2021056177A1 (en) * 2019-09-24 2021-04-01 Citrix Systems, Inc. Systems and methods for screen brightness control and auto-lock based on eye detection
US11474597B2 (en) 2019-11-01 2022-10-18 Google Llc Light field displays incorporating eye trackers and methods for generating views for a light field display using eye tracking information
CN111192241B (zh) * 2019-12-23 2024-02-13 深圳市优必选科技股份有限公司 一种人脸图像的质量评估方法、装置及计算机存储介质
US11475714B2 (en) * 2020-02-19 2022-10-18 Motorola Solutions, Inc. Systems and methods for detecting liveness in captured image data
US20230156178A1 (en) * 2020-04-02 2023-05-18 Kyocera Corporation Detection device and image display module
KR102254045B1 (ko) 2020-11-26 2021-05-20 배이산업 주식회사 선박의 프로펠러용 안전 가드
CN118215858A (zh) * 2021-11-04 2024-06-18 特里纳米克斯股份有限公司 投影仪的眼睛安全性

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11266450A (ja) * 1998-03-17 1999-09-28 Toshiba Corp 物体領域追跡装置および物体領域追跡方法
WO2007019842A2 (de) * 2005-08-17 2007-02-22 Seereal Technologies Gmbh Verfahren und schaltungsanordnung zum erkennen und verfolgen von augen mehrerer betrachter in echtzeit

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
DE19731303B4 (de) * 1997-07-13 2009-02-26 Smi Senso Motoric Instruments Gmbh Verfahren und Vorrichtung zum kontaktlosen, helmfreien Messen der Blickrichtung von Augen bei Kopf- und Augenbewegungen
US6539100B1 (en) * 1999-01-27 2003-03-25 International Business Machines Corporation Method and apparatus for associating pupils with subjects
US7039909B2 (en) * 2001-09-29 2006-05-02 Intel Corporation Method and apparatus for performing compiler transformation of software code using fastforward regions and value specialization
US6997556B2 (en) 2001-10-01 2006-02-14 Ernst Pfleger Method for detecting, evaluating, and analyzing look sequences
US6873714B2 (en) * 2002-02-19 2005-03-29 Delphi Technologies, Inc. Auto calibration and personalization of eye tracking system using larger field of view imager with higher resolution
US7206435B2 (en) * 2002-03-26 2007-04-17 Honda Giken Kogyo Kabushiki Kaisha Real-time eye detection and tracking under various light conditions
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
KR100682889B1 (ko) * 2003-08-29 2007-02-15 삼성전자주식회사 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치
KR100552709B1 (ko) * 2004-05-21 2006-02-20 삼성전자주식회사 눈검출 장치 및 방법
US20070147671A1 (en) * 2005-12-22 2007-06-28 Eastman Kodak Company Analyzing radiological image using 3D stereo pairs
DE102006002001B4 (de) * 2006-01-16 2009-07-23 Sensomotoric Instruments Gmbh Verfahren zur Bestimmung der räumlichen Relation eines Auges einer Person bezüglich einer Kameravorrichtung

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11266450A (ja) * 1998-03-17 1999-09-28 Toshiba Corp 物体領域追跡装置および物体領域追跡方法
WO2007019842A2 (de) * 2005-08-17 2007-02-22 Seereal Technologies Gmbh Verfahren und schaltungsanordnung zum erkennen und verfolgen von augen mehrerer betrachter in echtzeit

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200100818003; 川戸 慎二郎、鉄谷 信二: '"目のリアルタイム検出と追跡"' 電子情報通信学会技術研究報告 Vol.100, No.311, 20000914, p.15-22, 社団法人電子情報通信学会 *
CSNG200401451003; 包 躍、小田 裕弘: '"三次元視点トラッキングシステム"' 画像電子学会誌 Vol.31, No.6, 20021125, p.1192-1198, 画像電子学会 *
JPN6013020102; 川戸 慎二郎、鉄谷 信二: '"目のリアルタイム検出と追跡"' 電子情報通信学会技術研究報告 Vol.100, No.311, 20000914, p.15-22, 社団法人電子情報通信学会 *
JPN6013020103; 包 躍、小田 裕弘: '"三次元視点トラッキングシステム"' 画像電子学会誌 Vol.31, No.6, 20021125, p.1192-1198, 画像電子学会 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014522495A (ja) * 2011-06-09 2014-09-04 ジェ.エム.エール.フィ 誘導用線路に沿って移動する車両の速度及び位置を測定する装置、並びに対応する方法及びコンピュータプログラム製品

Also Published As

Publication number Publication date
KR20100105591A (ko) 2010-09-29
CN101861118B (zh) 2012-05-16
JP5470262B2 (ja) 2014-04-16
CN101861118A (zh) 2010-10-13
KR101550474B1 (ko) 2015-09-04
US20100303294A1 (en) 2010-12-02
US8477996B2 (en) 2013-07-02
TWI366454B (ja) 2012-06-21
DE102007056528B3 (de) 2009-04-02
TW200938162A (en) 2009-09-16
WO2009062945A1 (de) 2009-05-22

Similar Documents

Publication Publication Date Title
JP5470262B2 (ja) 両眼の検出および追跡する方法、及び装置
CN105933589B (zh) 一种图像处理方法及终端
CN107466411B (zh) 二维红外深度感测
CN109583285B (zh) 对象识别方法
US9892316B2 (en) Method and apparatus for pattern tracking
CN107408205B (zh) 用红外成像区分前景和背景
CN106462236B (zh) 在眼睛追踪中处理眩光
JP2020107349A (ja) 物体追跡システム、物体追跡方法、プログラム
CN105431078B (zh) 用于同轴眼睛凝视跟踪的***和方法
Camplani et al. Depth-color fusion strategy for 3-D scene modeling with Kinect
CN102834837B (zh) 使用多个虹膜模板的虹膜识别装置及方法
US8879847B2 (en) Image processing device, method of controlling image processing device, and program for enabling computer to execute same method
KR101303877B1 (ko) 얼굴 검출과 피부 영역 검출을 적용하여 피부의 선호색변환을 수행하는 방법 및 장치
US20070269080A1 (en) Object Pose Estimation and Comparison System, Object Pose Estimation and Comparison Method, and Program Therefor
KR102502310B1 (ko) 적외선 이미징을 사용한 색상 식별
CN105659200A (zh) 用于显示图形用户界面的方法、设备和***
US11163994B2 (en) Method and device for determining iris recognition image, terminal apparatus, and storage medium
CN112257617B (zh) 多模态目标识别方法和***
CN102708586A (zh) 从3d范围图像进行基于绘制的界标定位
CN110532877A (zh) 一种单摄像头人脸识别方案防欺骗方法、***、设备及存储装置
JP2022019339A (ja) 情報処理装置、情報処理方法及びプログラム
RU2803287C1 (ru) Способ получения набора объектов трехмерной сцены
CN108073897A (zh) 一种基于视线的活体认证方法
Bazanov et al. Gaze estimation for near-eye display based on fusion of starburst algorithm and fern natural features
WO2024095362A1 (ja) 情報処理システム、情報処理装置、情報処理方法、および記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140203

R150 Certificate of patent or registration of utility model

Ref document number: 5470262

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250