JP4546956B2 - 奥行き検出を用いた対象の向きの推定 - Google Patents

奥行き検出を用いた対象の向きの推定 Download PDF

Info

Publication number
JP4546956B2
JP4546956B2 JP2006516618A JP2006516618A JP4546956B2 JP 4546956 B2 JP4546956 B2 JP 4546956B2 JP 2006516618 A JP2006516618 A JP 2006516618A JP 2006516618 A JP2006516618 A JP 2006516618A JP 4546956 B2 JP4546956 B2 JP 4546956B2
Authority
JP
Japan
Prior art keywords
depth
computer
orientation
current
video frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006516618A
Other languages
English (en)
Other versions
JP2006527443A (ja
Inventor
キクオ フジムラ
ヨウディン ズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2006527443A publication Critical patent/JP2006527443A/ja
Application granted granted Critical
Publication of JP4546956B2 publication Critical patent/JP4546956B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/76Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

発明の分野
[0001] 本発明は、一般に、リアルタイムコンピュータビジョンに関し、より詳しくは、対象の向きまたは姿勢に関するコンピュータに基づく推定に関する。
発明の背景
[0002] 姿勢の推定は、人間とコンピュータとのインタラクションなどリアルタイムコンピュータビジョンの多くの領域における重要な要素である。例えば、運転者をモニタリングすることにより顔面に表れる多様な手がかりを用いて頭部姿勢を判定し、関連する注意力情報を導出する研究がなされている。運転者補助システムにおいて、運転者の疲労または注意力をモニタリングすることは、安全上の懸念が生じた際に運転者に注意を喚起するために有用である。他のより一般的な人間とコンピュータとのインタラクションの応用では、表示制御、オンライン命令などのような、利用者の注意力に関する情報を必要とする作業のために、頭部姿勢の推定が重要となる。さらに、対象の向きの推定は、例えば、物体同定用や、顔面認識用などの他のマシンビジョンの応用において有用である。
[0003] (静止画像または画像シーケンスから)向きを推定することに対する従来のアプローチは、一般に2つのカテゴリに大別できる。第1のカテゴリに含まれるのは外観に基づく方法であり、この方法は、対象画像から抽出された特徴ベクトルに基づくパターン分類手法を利用する。第2のカテゴリに含まれるのは動きの推定に基づくアプローチであり、この方法は、連続画像間の動き解析手法を用いる。
[0004] 外観に基づく技術は、一般に、例えば、ナイーブベイジアン分類装置(Naive Bayesian Classifier)、サポートベクトルマシン(Support Vector Machines:「SVM」)、ニューラルネットワーク、隠れマルコフモデル(Hidden Markov Model:「HMM」)などのようなパターン分類装置の技術を用いた画像比較に基づいている。これらの分類装置は、多くの応用分野において首尾よく用いられているが、短所がないわけではない。これらの分類装置は多数の訓練事例を必要とするものである。通常これらの事例は人手によって収集され、各事例は、対象と訓練サンプル中のモデルとの間の比較に使用可能な特徴ベクトルを抽出するために、厳密に整列させる必要がある。主として外観変化に関連して、分類が失敗する場合が常にいくつか存在する。
[0005] 外観に基づく分類においては、モデルと対象の間の外観の物理的相違が、問題となる。特に、人間の顔面分類装置において、フレーム間で、すべての姿勢に対して追跡することができるとともに、さまざまな対象となる人間の顔に対して追跡することができる1セットの人間の顔の特徴を選択することは、難しい課題を提示する。顔正面と比較すると、一般的に、横顔の外観は一般集団の間で共有される目立った特徴を欠いているので、側部姿勢を判定するとき、特に難問となる。すべての人に適合する「共通の外観」を定義することは困難である。外観変化は、同一の対象について作用するときでさえ問題となりうる。例えば、サングラスをかけたり、帽子をかぶったり、ヒゲをそり落としたりするかもしれない。さらに、照明条件が、分類性能に悪影響を与える。
[0006] したがって、汎用モデルデータベースに基づいて動作する外観に基づく向きの推定システムは、通常、限られた認識性能しか達成できない。モデルと対象の間、または、異なる時間における同一の対象の間ですら、その大きな外観上の変化は、不安定な結果を導く。
[0007] もう一方の一般化された手法は、動き推定技術に基づくものである。一般に、姿勢推定のための動き推定技術は、対象の視覚的に認識可能な特徴に基づいている。例えば、一般に、人間の顔面姿勢推定は、目、鼻、口などの顔面特徴の判別に基づいている。画像におけるこの特定の特徴の判別は、それ自体困難な問題である。例えば、従来システムは、皮膚の色、動きなどの多様な知覚的手がかりに基づく全数探索を通して、シーン中の顔正面を検知する。顔面が検知されると、顔面領域は、顔面の特徴、輪郭、色、奥行き、および動きなどの関連情報を用いて追跡される。例えば、実況中継ビデオのようなリアルタイムのアプリケーションでは、特に、背景にクラッターが混入するような環境である場合には、これらの方法は、期待される性能を発揮できない。
[0008] これらの技術は、いくつかの重大な問題を有する。例えば、自動的にモデル姿勢を初期化する処理は、依然として難問である。動き推定技法の他の欠点は、角度推定値が、比較的短い画像シーケンスに対してしか正確性が担保されないことであり、長いシーケンスに対しては、角度計算過程の漸増特性によるエラー蓄積が大きくなり過ぎる。最終的に、推定角度は完全に位相がずれてしまうのである。
[0009] したがって、(1)リアルタイム画像データに基づき、(2)外観変化に対してロバストであり、かつ(3)長いシーケンスに対して、ずれることなく動作しうる向きの推定方法およびシステムが必要とされている。
発明の要約
[0010] 運転者などの対象の向きを推定するコンピュータに基づく方法の一実施形態は、タイムオブフライトカメラからの奥行き画像データを用いる。本実施形態によれば、対象を捕捉している奥行き画像のフィードを受ける。奥行き画像は、画像のピクセルに対するピクセル奥行き情報を含む。画像の最初の1セットに基づいて、各画像と対応する向きの尺度との間の相関関係が決定される。前記画像のセットは、特定用途に関する前記対象の1セットの向きを表している。この相関関係は、画像と、その画像の中に捕捉された対象の向きを表す対応する向きの尺度との間の対応を提供する。その後、前記対象の画像のセットと前記相関関係は保存される。前記対象の現在の奥行き画像と保存された画像のセットとの間の外観に基づく比較がなされ、現在の奥行き画像の中に捕捉された対象の現在の向きを表す対応する向きの尺度が、前記相関関係に基づいて決定される。
[0011] 一実施形態では、相関関係は、1セットの既知の向きと前記画像のセットとの間の写像を含む。他の実施形態では、前記相関関係を決定することが、前記画像のセットを分析することによって主たる向きを決定し、前記主たる向きを有する対象を捕捉する画像に対して基準となる向きの尺度を割り当て、前記主たる向き以外の向きを有する対象を捕捉する前記画像のセットの中の他の画像に対して向きの尺度を決定することを含む。この向きの尺度は、前記基準となる向きの尺度に関する前記対象の画像中の特徴点のオプティカルフローに基づいて計算される。一実施形態では、前記特徴点のオプティカルフローは、部分的に、前記画像中の特徴点に対応するピクセル奥行き情報に基づいている。
[0012] 他の実施形態では、対象の外観の変化を、変化値を用いて決定する。最大変化を超過している場合に、前記相関関係は、再度、第2の画像のセットに対して決定され、新たな相関関係が保存される。その後、保存されていた画像のセットを、画像の第2のセットに置換する。このように、対象の外観が著しく変化するとき、新たな訓練セットが再記録される。
[0013] リアルタイムの向きの尺度を推定するコンピュータに基づく方法の他の実施形態は、入力として奥行きビデオフレームのフィードを用いる。奥行きビデオフレームは、リアルタイムで対象を捕捉するものであり、奥行きピクセルデータを含む。奥行きビデオフレームの対象固有の訓練セットは、初期訓練期間中に保存される。これらの対象固有のフレームのセットの中から、奥行きビデオフレームのデータを解析することによって、主要な向きを有する対象を捕捉するフレームが同定される。その後、現在の奥行きビデオフレームと保存された対象固有の訓練セットとの間の外観に基づく比較を用いて、現在のフレームが、主要な向きを有する対象を捕捉する画像のフレームであるか否かを判定する。そうであるときには、現在の向きの尺度を基準となる向きの尺度に設定し、そうでないときには、現在の向きの尺度を、現在のフレームに対応する奥行きデータに基づいて決定する。現在の向きの尺度は、現在の奥行きビデオフレームで捕捉された対象の現在の向きに対応している。
[0014] 一実施形態では、システムは、タイムオブフライトカメラおよびタイムオブフライトカメラと接続されたコンピュータ処理システムを具備する。タイムオブフライトカメラは、対象のリアルタイムビデオを捕捉して、かつ奥行きウィンドウ内で動作するように構成されて、リアルタイムビデオは、各ピクセルに対する色および奥行き情報を含むハイブリッド画像データをそれぞれ有するフレームのストリームを具備する。コンピュータ処理システムは、リアルタイムビデオを受信するためにカメラと接続されて、対象の推定向きを出力するように構成されている。対象の推定向きは、対象固有の訓練画像セットを用いた現在のフレームの外観分類に基づき、かつ、またビデオストリームのフレーム間の対象の特徴点の位置変化、および対応する奥行き情報によって与えられる拘束条件を用いた、動き推定計算に基づいている。
[0015] 一実施形態では、コンピュータ処理システムはいくつかのモジュールを具備する。入出力モジュールは、タイムオブフライトカメラからリアルタイムビデオストリームを受信して、かつ対象の推定向きを提供する。セグメント化および追跡モジュールは、各フレームに対するハイブリッド画像データを受信するために前記入出力モジュールと接続されて、かつ対象の画像を含むピクセルのセットに対応する画像データのセグメントを提供するように構成されている。また、このモジュールは、前記ハイブリッド画像データに含まれる奥行き情報に基づいて、画像データのセグメントを決定するように構成されている。適応学習モジュールは、ハイブリッド画像データおよび対応するセグメントを受信するために前記セグメント化および追跡モジュールに接続されている。適応学習モジュールは、訓練期間の間にタイムオブフライトカメラで捕捉された対象のビデオフレームの最初の1セットから、対象固有の訓練画像セットを作るように構成されている。この対象固有の訓練画像セットは、対応する向きの尺度を有する対象のフレームを含む。最後に、外観分類装置モジュールは、対象に対応する現在のビデオフレームの画像データのセグメントを受信するために、前記セグメント化および追跡モジュールに接続されている。また、このモジュールは、現在のビデオフレームの対象の推定向きを提供するために前記入出力モジュールにも接続されている。外観分類装置モジュールは、現在のビデオフレームを対象固有の訓練画像セットと比較して、現在のフレームと最も類似するフレームに対応する向きに基づいて、現在の向きを推定するように構成されている。
[0016] 他の実施形態では、前記システムは、その中に対象画像を有する現在のビデオフレームのセグメントを受信するために、前記セグメント化および追跡モジュールに接続された動き推定モジュールをさらに具備する。また、動き推定モジュールは、現在のビデオフレーム中の対象の推定向きを提供するために、前記入出力モジュールにも接続されている。さらに、このモジュールは、現在のビデオフレームが主要な向きに対応しているという判定に関する指示を受信するために、前記外観分類装置モジュールに接続されている。動き推定モジュールは、ビデオストリームのフレーム間の対象の特徴点の位置変化、および対応する奥行き情報によって与えられる拘束条件に基づいて、現在の向きの尺度を計算するように構成されている。また、このモジュールは、現在のビデオフレームが主要な向きに対応しているという指示を受信するとき、現在の向きの尺度を基準値に再設定するように構成されている。
[0017] システムの一実施形態では、タイムオブフライトカメラは、対象運転者のリアルタイムビデオを捕捉するために、車両の室内に取り付けられる。コンピュータ処理システムは、運転者の推定向きに基づいて動作するように構成された安全機能を具備する車両安全システムの一部である。
[0018] 本明細書において記述された特徴と利点は、すべて包括的であるというわけではなく、特に、多くの付加的な特徴と利点は、図面、明細書、および請求の範囲を考慮すれば、当業者にとって明らかであろう。さらに、本明細書で用いられた言語は、主に読みやすさと教示的目的に照らして選択されたものであり、発明の主題を限定し、または制限するために選択されたものではない。
発明の詳細な説明
[0035] 図面および以下の記述は、本発明の好適な実施形態に関するものであるが、あくまで例示に過ぎない。以下の議論を考慮すれば、本明細書に開示された構造および方法の他の実施形態は、請求の範囲に記載されている本発明の原理を逸脱することなく使用しうる実行可能な代案として容易に認識されるであろう。
[0036] ここで図("Fig.")1Aを参照すると、向きの推定システムの構成の一実施形態が示されている。本実施形態の向きの推定システム100は、奥行き検出技術を用いる。奥行き検出技術は、飛行時間(time-of-flight)原理に基づいている。この技術を用いるカメラは、タイムオブフライトカメラとして知られている。本実施形態では、カメラ102の画像捕捉方法は、タイムオブフライトカメラを用いたアクティブ検出に基づいている。アクティブ奥行き検出は、赤外線照射のパルスを用いて実行される。パルスは対象104の向きに投射され、検出器が対象104から反射されるエコー信号を読み取る。さらに、カメラ102は、その信号が検出器に入射できる対象の検出範囲を制御する高速シャッタを有する。遠くの物体106に対しては、そのエコー信号は、シャッタが閉じられた後にのみ、カメラ102の検出器に達することができる。したがって、その対応する物体106の信号は全く記録されない(その結果、背景にある物体のほとんどは、記録されるシーンから消失する)。奥行き検出カメラ102のこの特徴は、奥行きウィンドウ108で示される動作範囲[Dmin,Dmax]を供するという点で役立つ。奥行き情報は、この動作範囲または奥行きウィンドウ108内の物体(例えば対象104)に対してのみ記録される。奥行きウィンドウ108を超えた他の物体106は、シャッタが閉じた後に、そのエコー信号がカメラに達するため、奥行きデータを生成することはない。この独特の特徴は、撮像される対象104のすぐ後ろにDmaxを設定することによって、背景のクラッターを除去する(すなわち、奥行きDmaxを超えた所に存在する物体108は何であれそれを無視する)。
[0037] 奥行きカメラ102は、一般に奥行きビデオデータと呼ばれる、ハイブリッド画像データを生成する。ハイブリッド画像データまたは奥行きビデオは、奥行きおよび色情報を、リアルタイムで同一の光軸を用いて同時に捕捉することによって生成される。画像レートは変化しうるが、システム100の一実施形態は、毎秒14フレームのビデオストリームで作動する。図2A、図2B、および図2Cは、奥行きカメラ102からの出力フレーム200の具体例を示す。この説明の文脈において、色情報は、「白黒」(グレースケール)データ、および一般に色データと呼ばれるもの(例えば、RGB/カラー)を含むものとする。例えば、ここで図2Bを参照すると、ハイブリッド画像200cの色情報部分210は、従来のデジタル画像と同様であり、すなわち、「色」および関連情報はピクセル毎に供される。ハイブリッド画像200cの奥行き情報部分212は、ピクセル毎の奥行き値を含み、各ピクセルは、さらに後述するように、さまざまに異なるレベルの輝度により視覚的に表現されている。
[0038] 立体視システムと比較して、奥行きカメラシステム100は、いくつかの改良された特性を有する。例えば、画像は、屋内環境において、その環境が検出器のパルスと同一の波長の光線を含まない限り、照明不変である。すなわち、奥行き誤差は、0.5〜3mの奥行きウィンドウ108に対して約5〜15mmであり、奥行き情報は、(1ピクセルあたり8ビットの)別個の奥行き画像部分212に記録される。この特性は、ジェスチャー認識に利用される手と身体の間の充分な分離を可能とする。すなわち、ハイブリッド検出では、奥行き画像および色画像の両方が、リアルタイムスピード(例えば、30フレーム/秒)で捕捉され、質感のない物体(壁など)の奥行きでさえも取得できる。これらのすべての改良された特徴および他の特徴は、マルチカメラ立体視システムとは対照的に、単一のカメラシステム100で供される。また、単一のカメラシステム100は、従来の立体視マルチカメラシステムの2つ以上のカメラの間で必要なキャリブレーションが不要であるという追加的な利点を提供するものでもある。
[0039] 上述のように、図1Aで示された姿勢推定システム100は、例えば、イスラエルのヨクネアムにある3DVシステムズ(3DV Systems)、またはカリフォルニア州サンノゼにあるカネスタ社(Canesta, Inc.)によって製造されたカメラなどのような1つのタイムオブフライトカメラ102を具備する。タイムオブフライトカメラ102は、追跡される対象104が移動する領域を含む奥行きウィンドウ108の向きに設定される。背景物体のような非対象物体106は、奥行き画像情報の一部をなさない。奥行き検出カメラ102は、コンピュータ110に接続されている。一実施形態では、コンピュータ110は、例えば、カリフォルニア州サンタクララのインテル社(Intel Corporation)から市販されているインテルの画像処理ライブラリのような画像処理ライブラリを含んでおり、インテル社の1.2ギガヘルツPentium IIIプロセッサ上で14フレーム/秒(320×240ピクセル)で稼動する。他の実施形態では、奥行き検出カメラ102は、ロボット視覚装置の一部をなし、コンピュータ110は、ロボットの制御論理回路内のモジュールである。さらに他の実施形態では、例えば、運転者支援機能等の車両安全機能を制御する車両内のデータ処理制御装置のコンピュータ110に接続された車両室内に奥行き検出カメラ102を備える。このように、一般に、コンピュータ110は、マイクロチップコントローラ、埋め込みプロセッサなどのようなものから、ワークステーション、またはパーソナルコンピュータ型のシステムにいたる任意のデータ処理可能なシステムを含む。
[0040] コンピュータ110は、ハードウェア回路、メモリまたは他の何らかのコンピュータ読み込み可能媒体に保存されて、コンピュータプロセッサ(汎用プロセッサ、埋め込みプロセッサ、デジタル信号処理装置など)で実行処理されるソフトウェアコード、または、ハードウェア回路とソフトウェアコードの組み合わせを用いて実現することができる、いくつかのモジュールを具備する。図1Bは、向きの推定用コンピュータの一実施形態のブロック図を示す。本実施形態によれば、セグメント化および追跡モジュール112は、入出力ポート111を介して奥行き検出カメラから画像データを受信する。カメラの特定のタイプまたは型式に固有の、カメラとの接続用ドライバを具備するものとすることができる。セグメント化および追跡モジュール112は、画像データ内のどのピクセルが対象104に対応しているかを判定するためのアルゴリズムを具備している。特に、モジュールの追跡セクションは、対象104に対応する領域、およびその領域がフレーム毎にどのように移動するかを、画像内で視覚的に表示することができる出力を生成する(例えば、対象を囲む長円またはウィンドウ)。一実施形態では、また、セグメント化および追跡モジュール112は、サイズ推定モジュール114を具備する。サイズ推定モジュール114は、対象104の形状に固有のサイズデータを提供して、画像中の対象104のセグメント化および追跡を容易にする。セグメント化および追跡モジュール112は、適応学習モジュール116に接続されている。適応学習モジュール116は、対応する向きの値を有する訓練画像セットを捕捉するためのアルゴリズムを具備している。一実施形態では、向きの値は入力として与えられるが、他の実施形態では、向きの値は画像データから導出される。適応学習モジュール116は、訓練画像セットを保存するために、メモリ118(例えば、ビデオデータベース)に接続されている。一実施形態では、適応学習モジュール116は、最も出現頻度の高い姿勢に対応する画像データのフレームを決定するために、主要姿勢推定器119を具備する。また、適応学習モジュール116は、外観分類装置モジュール120、および動き推定モジュール130に接続されている。
[0041] 外観分類装置モジュール120は、セグメント化および追跡モジュール112から入力を受信して、かつメモリ118にアクセスを有する。通常動作中、外観分類装置モジュール120は、入力画像を保存された訓練セット中の画像と比較して、保存された訓練セットの既知の姿勢に基づいて向きを判定する。一実施形態では、外観分類装置120は、動き推定モジュール130に接続されている。動き推定モジュール130は、セグメント化および追跡モジュール112から入力を受信して、画像間で追跡された特徴に基づいて対象104の向きを判定する。動き推定モジュール130は、適応学習モジュール116に接続されており、訓練画像セットに対する向きの値を堤供する。通常動作中、本実施形態では、動き推定モジュール130は、外観分類装置120から入力を受信して、さらに後述するような再設定条件を表示する。外観分類装置120および動き推定モジュール130は、入出力ポート111に接続されて、向きの推定システム100内の他の構成要素に、または向きの推定システム100と接続している他の構成要素に向きの値を提供することができる。
[0042] 図3Aは、向きの推定システムの一実施形態の動作方法のフローチャートを示す。本実施形態では、向きの推定方法300は、奥行き検出ビデオ入力などの奥行きデータを含む1セットのハイブリッド画像またはハイブリッド画像ストリームに対して動作する。システムに奥行き画像データの入力301がなされる。その向きを推定する対象に対応する画像のピクセルの位置を判定するために、画像セグメント化および追跡303が実行される。方法300は2つのモードで動作する。進み方を選択するために、モード決定305がなされる。例えば、方法300は、最初に、一定の訓練期間の間、訓練モードで動作する。この訓練期間は、時間、フレーム数、選択可能な指標などに基づいて決定することができる。
[0043] 訓練モード310で動作中、現在のフレームが記録または保存される312。前記モード決定に基づいて、方法は、現在のフレームが記録されるべき最後の訓練フレームであるか否かの判定314を行う。例えば、最大数のフレームの最後のフレーム、または訓練期間内の最後のフレーム、または特定数の姿勢に対して必要とされる最後のフレームなどである。その後、方法は、訓練フレームが姿勢/向き情報を含むか否かのチェック316を行う。向きがわかる場合、例えば、対象が各フレームに対して所定の姿勢に配置されているとき、姿勢曲線を導出するために、保存されたフレームの分析が実行される318。向きがわからない場合、主要姿勢が決定されて320、各訓練フレームに対する向きの値を決定する322ためにフレームが最初から最後まで繰り返される。向きが判明すると、推定プロセスの間使用される姿勢曲線を導出するため、前記同様の分析が実行される318。
[0044] 訓練モードが完了して、例えば、姿勢曲線が計算された後に、モード変更フラグが設定されると、後続のフレームに対するモードのチェック305のときに、方法は推定モード340に進む。推定モード340では、分類装置に基づく姿勢を決定するために、現在のフレームが、保存された訓練セットと比較される342。現在のフレームに対する姿勢が出力される344。
[0045] ここで図3Bを参照すると、動きに基づくアプローチを用いた他の実施形態が示されている。分類342は、現在のフレームが主要姿勢に対応しているか否かを判定する351ために十分な情報を提供する。現在のフレームが主要姿勢に対応していないとき、現在の姿勢の累積に基づく向きが決定される355。現在の姿勢が主要姿勢に対応しているとき、向きの値は、基準となる向きの値に再設定される353。現在のフレームに対する向きの値が出力されて344、次のフレームが処理される。
セグメント化および追跡
[0046] 対象の静止画または動画(すなわち、画像または画像ストリーム)に基づき、対象の向きまたは姿勢を推定するために、準備作業として画像内の対象の位置を判定する。運転者の頭部姿勢、例えば、運転者が前方を見ているのか横を向いているのか、を判定するために、車両室内の運転者領域について撮影された画像に基づいて、画像内の運転者の頭部を見つけるために、画像を分析する必要がある。どのピクセルが対象104に対応するかを判定する画像処理は、画像のセグメント化と呼ばれる。セグメント化プロセスは、対象104を表す画像内の「セグメント」を見つける。さらに、向きの推定が、フレームまたは画像のストリームについて実行されるとき、対象の位置はフレーム間で変化しうる。したがって、対象104に対応する画像内の「セグメント」は、向き変化を決定するために、フレームを跨いで追跡する必要がある。このプロセスを追跡(tracking)と呼ぶ。リアルタイムの姿勢または向きの推定システムのために、これら両プロセスが(例えば、セグメント化および追跡モジュール112において)迅速に実行されるため、シンプルで高速な計算が好ましい。
[0047] 再び図2Aを参照すると、異なった位置での運転者の奥行き画像が示されている。奥行き画像200aでは、対象201(例えば、運転者)は、画像200aの中心で頭部203をまっすぐにした(例えば、運転中)標準位置で示されている。奥行き画像200bでは、対象201は、側方に傾いた、例えば、小物入れに手を伸ばした状態で示されており、頭部203が画像200bの左側に位置している。一般に、奥行き画像200は、上述したように動作する奥行き検出カメラによって捕捉された画像である。従来のデジタル画像情報に加えて、奥行き画像200は、各ピクセルに対する奥行き情報を含む。奥行き情報は、奥行き値にしたがってピクセル強度または輝度を変化させることで視覚的に表現される。図2A、図2B、および図2Cの奥行き画像200に示すように、カメラにより近い物体に対するピクセルほど明るく見え、奥行き値が大きくなるとともに次第に暗くなり、カメラの最大作動奥行き(または距離)にある、またはそれを超えた所に位置する物体に対するピクセルは黒色で示される。
[0048] 画像のセグメント化および追跡処理に関して奥行き情報を用いる利点は、カメラからの距離に基づく画像データのフィルタリングが可能となる点である。したがって、カメラから対象までのおおよその距離がわかっていれば、背景/クラッター情報を除去できるのでセグメント化および追跡処理を簡略化できる。実際に、図1Aに関して上述したように、いくつかの奥行きカメラは、奥行き動作範囲を設定するための「奥行きウィンドウ」機能を有する。一般に、奥行きウィンドウは、カメラが奥行き情報を捕捉、または検出する特定の奥行き範囲である。例えば、図2Aに示すように、運転者姿勢推定システム用の奥行きカメラは、例えば、バックミラーの下方、前部ダッシュボードなど、車室前部(front cabin)に取り付けることができる。ハンドル部位204から運転席205までの範囲の奥行きウィンドウにカメラを設定できる。このように設定することで、所望の対象の画像を乱すだけである無関係な情報を捕捉することを回避できる。この具体例では、後部座席の乗客に関連する画像クラッター情報は捕捉されず、その結果、画像のセグメント化および追跡処理が簡単になる。図2Aでは、背景206は、黒色で表示されており、それらのピクセルは、いかなる物体の奥行き画像情報も含んでいない、すなわち、奥行きウィンドウ内に、それらのピクセルによって捕捉される物体が全く存在しなかったことを示す。
[0049] ここで図2Bを参照すると、対応する色および奥行きデータのビジュアル表現を有する奥行き画像が示されている。奥行き画像200cは、色情報部分210および奥行き情報部分212を含む。さらに、奥行き画像200cの中央の垂直な断面に沿ったピクセル−奥行き分布のプロットを表現するピクセル−奥行きグラフ214が示されている。一実施形態によるシンプルなセグメンテーション法は、この奥行き−ピクセルデータを用いて、画像フレーム内の対象201の概略的な位置を決定する。その方法は、水平走査線214に沿って、一定の奥行き閾値を超えるピクセル数を計数することによって、画像を分割する。対象の概略形状およびサイズがわかっている場合には、シンプルな代替方法は、対象201の形状を画定する1セットのピクセルを見つけるために、水平および垂直走査線の両方において計数することを含む。
[0050] 他の実施形態に、フレーム中の対象201を位置付けし、フレーム間の対象201の位置変化を追跡するために、輪郭フィッティング追跡手法(contour fitting tracking technique)を用いて行うものがある。図2Aでは、そのような追跡手法の出力を示す。運転者の頭部203は、運転者の頭部203に対応すると推定される奥行き画像200のセクションを覆う楕円207に適合する楕円フィッティング関数を用いて追跡される。対象となる頭部が他人の頭部と混同されやすいような場合に、人間の頭部を追跡するために楕円フィッティングは特に適する。
[0051] 図2Cは、奥行き画像200を用いた追跡機構の他の実施形態を示す。図2Cでは、平均シフトアルゴリズムに基づくシステムの出力が示されている。平均シフトアルゴリズムは、奥行き画像200d内の対象201の位置を判定するために用いられる。本実施形態では、対象201は人間の頭部である。開始ウィンドウ220は、対象201の近傍に無作為に設定される。その後、アルゴリズムは、第1の反復ウィンドウ222を対象のより近くに位置決めして、最後のウィンドウ224が、対象201を実質的に含むまでアルゴリズムを繰返す。
[0052] 追跡システムのこの平均シフトに基づく実施形態では、背景206から検出されたノイズピクセルは、対象201に対応するピクセルより低いピクセル奥行き値を有する。平均シフトアルゴリズムの特性は、ウィンドウ224の最終位置が、重心および幾何学的中心が互いに一致する画像領域に決まるということである。平均シフトアルゴリズムの動作の詳細ついては、ComaniciuおよびMeer著「平均シフト:特徴空間解析に関するロバストアプローチ(Mean shift: a Robust Approach Toward Feature Space Analysis)」(IEEE Transactions of PAMI 24, No. 5, pp. 1-18, May 2002)に記載されている。平均シフトアルゴリズムは、出力ウィンドウ224の位置を移動させる奥行き画像200に適応的に適用できる。2つの中心が一致しないとき、平均シフトアルゴリズムは、重心上にウィンドウの中心を置いて(ウィンドウ222)、次の反復を開始する。平均シフトアルゴリズムのオペレーションに基づく追跡システムは、顔面が前後に移動する場合の画像ストリームの顔面位置の追跡に特に適する。
[0053] 他の実施形態に対して、カルマンフィルタまたはガウス混合モデル(Gaussian Mixture Model:「GMM」)が、画像内の対象の概略的な位置に対する一般的な推定および予測ツールとして機能する他の代替方法である。
対象サイズ推定
[0054] 一実施形態では、セグメント化および追跡モジュールは、特定の対象の形状に関連するサイズ情報を提供するために、サイズ推定モジュールを具備する。例えば、顔面姿勢推定システムでは、例えば、対象顔面上にウィンドウの位置を決めるために平均シフトアルゴリズムを用いて、顔面の概略的な位置が画像内に見出されると、空間統計を用いて適応的に顔面サイズを計算できる。例えば、システムの実験的な実施形態に基づく観測結果は、顔面のサイズが共分散行列の固有ベクトルの2つの直交方向の標準偏差の約4倍であることを示す。したがって、本実施形態を実現する1つのアプローチは、以下の計算からなる。
1. 顔面位置の分布:
ここでf(i,j)はピクセル値である。
2. 顔面平均位置:
3. 顔面位置の共分散:
4. 共分散行列の固有分解:
5. 顔面サイズ推定:
長さa=4σ1、およびb=4σ2
係数値の4は、実験結果に基づいて選択されるが、合理的な選択肢である任意の係数(一般に4〜6)を用いることができる。システムの一実施形態のガウス分布に関する係数間の一般的な関係は、人間の頭部の一般的な形状による楕円関数に基づいている。他の対象形状への応用に対して、同様の関係を用いることができる。実験結果は、特定形状に適用可能な係数間の合理的な関係の範囲を提供することができる。
適応型対象学習
[0055] 向き決定用システムの他の態様は、対象の姿勢または向き変化の適応学習を含む。本実施形態のシステムは、初期設定期間の間のリアルタイムで捕捉された実際の対象の訓練画像を用いる。その後、何らかの対象に依存しない一般化されたデータベースを用いる代わりに、被写体および環境固有ライブラリに基づいて動作するような分類装置が用いられる。例えば、隠れマルコフモデル(Hidden Markov Model:HMM)に基づく顔面姿勢分類装置は、適応学習される対象固有の訓練セットを用いて、構成要素的な人間の顔面構成をモデル化するために用いられる。このアプローチの1つの利点は、データベースに保存された一般化された対象に関して、対象の外観変化または環境の相違が、性能に影響を及ぼさないことである。例えば、複数の人間についてシステムが作動するとき、同じ量の訓練データを用いた場合、人間依存型の実施形態は、一般化された対象モデルより性能が優れていることが一般的に観察される。
[0056] 一実施形態では、対象の適応学習は、ビデオデータ捕捉、初期設定または訓練期間の早期に実行される。この最初のビデオは、特定の環境における特定の対象の訓練フレームのセットを収集するために用いられて、他方、ビデオの残存部分に対して、学習された対象固有の特徴が、対象の向きまたは姿勢推定のために繰り返し用いられる。このように、対象固有の状況および現場の状況(照明など)が、訓練セットに組み入れられて、外観に基づく比較における「ノイズ」の発生源として除去されうる。最小の所要時間を超えている応用に対する他の実施形態では、セッション(訓練期間)の初期の間の欠落した分類結果は、性能に不利益な影響を及ぼさない。代わりに、付加的な訓練事例が、必要に応じて動作中に、主成分還元分析(principal component reduction analysis:「PCA」)を介して適応的に抽出される。
[0057] 訓練セットを構成するために用いられる適応型対象学習システムの一実施形態は、PCA分析に基づいている。一実施形態では、PCAに基づく対象学習システムは、人間の顔面姿勢推定システムに用いられる。片側の横顔からもう片側の横顔にいたる顔面画像は、姿勢抽出に使用できる姿勢固有空間を形成することが知られている。図4Aおよび図4Bは、この顔面姿勢固有空間関係を図示する。図4Aは、正面姿勢405から、左の横顔401を経て、右の横顔403までの完全な1周期の対象頭部回転を捕捉する、200フレームのセットに対するPCA射影曲線400を示す。図4Bは、頭部姿勢曲線410におけるPCA射影の異なった表現を示す。頭部姿勢曲線410は、姿勢角度によってパラメータ化されており、かつ最初の2つの固有ベクトルへの射影から形成されている。円412は訓練観測結果の射影であり、クロス414は多様な頭部姿勢を有する画像シーケンスの中の他の観測結果の射影である。円のサイズは横向きの度合を表し、より大きい円は、より大きい横回転、または、より高い度合を意味している。
[0058] 以下のPCA処理手順は、本発明の一実施形態による姿勢固有空間の計算の具体例である。
・m次元の列ベクトルxを定義する。ここで、m=p×q、およびp、qは顔面画像サイズである。
・顔面画像の列から観測ベクトル{x1,x2,…,xn}を形成する。
・以下の式に基づいて、平均uおよび共分散行列Σを計算する。
・最初の最大K個の固有値λj、および共分散行列Σの対応する固有ベクトルφj(j=1,2,…,K)を計算する。
・任意の画像ベクトルxに対して、そのK次元射影係数ベクトルは以下の式によって計算される。
[0059] 別言すれば、一実施形態において、このPCA処理手順は、訓練セットを抽出するため、射影行列および図4Bに示すような頭部姿勢曲線410を導出するために用いられる。この訓練アルゴリズムは、既知の姿勢角度(一定範囲の角度内に分布する)を有するM個の訓練観測値{x1,x2,…,xM}に基づき、ここで、各観測画像xiは、長さN=K×Lを有する列ベクトルで表現される。訓練アルゴリズムは以下のステップを含む。
a.ステップ1:平均ベクトルおよび共分散行列を構成する。
・ステップ2:PCA分析を実行する。
ここで、Cの最大P個の固有値に対応する最初のP個の固有ベクトルが、固有空間の最適線形近似値として選択される。
・ステップ3:姿勢曲線を推定する。
各観測値xiに対して、その各々をP次元の固有空間に射影することができ、すなわち、
となる。したがって、頭部姿勢曲線410は、これらのwi(i=1,…,n)を結ぶことによって形成され、ここで、nは後続の推定段階において用いられるべき顔面姿勢の個数である。
[0060] 上述のプロセスは、例えば、頭部姿勢曲線410に関連して、後続の姿勢推定で使用するために、データベースに記録されうる1セットの対象固有画像を与える。しかしながら、このプロセスは、既知の姿勢または向きを有する対象固有の画像の取得を必要とする。例えば、訓練期間中、対象は、向きの一方の端から他方の端までの完全な1周期の回転をする。一実施形態では、システムの初期設定の間にカメラ正面で、頭部を左から右まで回転するよう人に指示することによって、これを実行できるであろう。
[0061] この向きまたは姿勢の初期設定要件を回避するために、大部分の時間に対して対象が一定の姿勢を保持することを要求する応用例では、他の適応学習の実施形態が用いられている。この一定の姿勢は、主要姿勢または基準となる向きと呼ばれる。本実施形態によれば、主要姿勢は最初に判定される。主要姿勢の検出は、対象が大半の時間を特定の姿勢で過ごすという観測結果に基づいている。例えば、運転者は、通常の運転状況の間、大半の時間を、横向きよりも、前方を見る、すなわち正面姿勢で過ごす。したがって、運転者頭部姿勢判定システムでは、正面姿勢が最初に判定される。他の応用例では、主要姿勢が異なるかもしれない。
[0062] 主要姿勢を判定するために、比較的長い(例えば、900フレーム)訓練セッションが用いられる。この訓練セッションの間に記録される最も出現頻度の高い姿勢が、主要姿勢であると仮定される。運転者の頭部姿勢追跡の実施形態では、最も出現頻度の高い姿勢は、正面姿勢であると仮定される。すべての人々が前方をまっすぐ見ながら運転するというわけではなく、わずかに片側または反対側を向いた姿勢が、主要姿勢でありうる。システムは、主要な、または最も出現頻度の高い姿勢を基準とした姿勢の変化を、例えば、注意力の信号として測定するため、このわずかな変化は、システムの性能に影響を及ぼさない。記録された訓練画像セットにおいて、最も出現頻度の高い姿勢を判定する一方法は、頭部姿勢確率密度関数(probability density function:「PDF」)に基づいている。PDFは、図4Cに示すようなParzenウィンドウアプローチに基づいて推定される。図4Cでは、関連するフレームに基づく姿勢の分布が示されている。平均420aは、フレームによって形成された三次元空間の最大値である。また、対応する主要姿勢420bが示されている。Parzenウィンドウアプローチの詳細については、Duda他著「パターン分類(Pattern Classification)」(John Wiley & Sons, Inc., 2001)に記載されている。
[0063] 正面頭部姿勢420bは、以下のように、訓練期間に無作為に撮影されたビデオ画像フレームから、顔面画像分布のPDFの最頻値として検出される。
・画像フレームのPCA分析を実行する。
・Parzenウィンドウアプローチを用いて、PDFを推定する。
・PDFの最頻値として主要な頭部姿勢を求める。
・その姿勢が、一定のフレーム数に対して主要姿勢としてあり続けるとき、正面頭部姿勢が検出される。
[0064] この処理手順は、上述したように構成された頭部姿勢曲線410の下端に対応する画像の選択と同様である。曲線410の下端に対応する画像は、運転者頭部姿勢推定システムにおける対象の正面姿勢の画像である。
3次元動きの復元
[0065] 向き検出システムの他の態様には、奥行き画像データに基づく三次元の回転推定がある。二次元(「2D」)オプティカルフローから三次元(「3D」)の動きを復元することは、本質的に曖昧な作業である。図5を参照すると、一般化されたオプティカルフロー図が、この問題を説明するために示されている。説明のために、対象501を人間の頭部と仮定するが、それは任意の剛性物体でありうる。人間が動き回るとき、対象501の各点503は、第1の位置Aから第2の位置Bまで移動する。画像シーケンスの第1のフレームは、位置Aの点503に対応しており、後続のフレームは、位置Bの点503に対応している。画像データから得られる2Dオプティカルフロー505からのこのような画像シーケンスから、3D頭部動き推定を確定することは、曖昧性という問題を提示する。遠い距離における位置Aから位置Bまでの対象501の回転は、位置Aから位置B’までの像平面に平行な並進運動によって生じるものと同様の2次元フロー場を生じる。したがって、3D動き推定は、回転および並進の選択肢を判別することができない。この曖昧性の問題に対処するために、奥行きに基づくオプティカルフロー分析法の一実施形態は、シーケンス中の2つの奥行き画像の間の奥行き変化に基づいて、並進または回転の2つの選択肢の内の1つを除去するための奥行き情報の拘束条件を有する。
[0066] したがって、本実施形態の相対動き推定は、画像シーケンスItから回転角Et={αt,βt,γt}での対象の向きを導出する。システムは、t=0において主要姿勢または基準となる向きで初期化される。主要姿勢は上述したように決定される。この初期時間では、初期の回転角は0(フレームI0における基準となる向き)に設定される。例えば、運転者頭部姿勢推定システムでは、正面姿勢は、t=0において初期の0度の向きに対応している。収集されたM個のフレームの各々に対応するEtによって与えられる既知の向きを有する対象のM個の基準画像{x1,x2,…,xM}のセットを収集するために、次のプロセスが使用される。
[0067] 最初に、2Dオプティカルフロー505(ui,vi)が、画像データから推定される。2つの連続したフレーム(It-1およびIt)の間のターゲット領域(「テクスチャーウィンドウ(textured window)」)の疎らな動き場は、Tomasi−Kanadeアルゴリズムを用いて推定される。このアルゴリズムの詳細については、TomasiおよびKanade著「点特徴の検出および追跡(Detection and Tracking of Point Features)」(Carnegie Mellon University Tech. Report CMU-CS-91-132, April 1991)を参照すること。
[0068] 次に、2つの連続したフレームの間の回転(Rt={Δα,Δβ,Δγ})および並進パラメータが、2D動き場および奥行き画像データから導出された奥行き拘束条件を用いて推定される。この3D動き推定方法は、以下に記述する。
[0069] (Tx,Ty,Tz,α,β,γ)で定義された(x,y,z)における3D微小動きは、像平面上に2D動きオプティカルフロー(Δx,Δy)を生じさせる。これらは以下のように関係づけられる(Fは、奥行きカメラ202の焦点長である)。
既知の変数は以下の通りである。
(x,y):オプティカルフロー点の位置
(u,v):オプティカルフロー
F:カメラ焦点長
Z:奥行き画像から得られる奥行き
未知の変数は以下の通りである。
(TX,TY,Z):3D動きの並進
(α,β,γ):3D動きの回転角
[0070] 上の等式を以下のようにしてHx=bと表記できる。
ここで、bは、ある特定の特徴点に対する2D動きベクトルである。
[0071] この等式を用いて、以下のように3D頭部動きを復元するための最適基準を構成できる。
ここで、Nは追跡される特徴点の個数である。H(i)およびb(i)は、i番目の特徴点によって形成される。f(x)はコスト関数である。実験的に、f(x)=|x|を用いた最小絶対値法は、f(x)=xを用いた最小二乗法より安定した解を与える。
[0072] 最小絶対値法の非線形最適化問題に対して、NelderおよびMeadのシンプレックスサーチが用いられる。Nelder−Meadのシンプレックスサーチの詳細については、NelderおよびMead著「関数最小化のためのシンプレックス法(A Simplex Method for Function Minimization)」(Computer Journal, vol. 7, pp. 308-313, 1965)を参照すること。この文献では、6次元パラメータ空間において7個の点を選択することによって、初期シンプレックスを定義する。そして鏡像、収縮、および拡張と呼ばれる3つの操作が、構成シンプレックスに基づいて初期シンプレックスに適用される。変化が十分小さいとき、反復は終了する。本実施形態は、頭部追跡システムに関して記述してきたが、同一の原理は、物体の追跡全般に適合する。
[0073] ここで図6Aを参照すると、運転者頭部姿勢推定システムに対するサンプル画像が示されている。対象頭部は、正面姿勢で示されている。画像200では、10個の特徴点601a−601j(総じて601)が、オプティカルフロー分析の基礎として機能しうる顔面の顕著な特徴から選択される。図6Bは、対象に対するハイブリッドデータ(色および奥行き)を有する奥行きカメラフィードからのフレームを示す。ハイブリッド奥行きフレーム200dの両方の部分(210および212)では、N個の点601のセットが、オプティカルフロー分析のために表示されている。図6Aと比較すると、図6Bで示された特徴点601の個数が多いほど、推定器の精度は高くなる。しかしながら、より高い精度は、処理時間の犠牲の上に成り立つ。したがって、時間応答と個々の用途に要求される精度の間のバランスが、特徴点601の最適個数を決定する。
[0074] 最初の訓練期間の間に、M個のフレームが収集されるとき、対応する向きが、x1に対する最初の基準となる向きI0≡E0=(0,0,0)から始まる各フレームを有する回転角における単純な増分値としての回転量の増分を用いて以下のように計算される。
t=Et-1+Rt
t=t+1
[0075] 対応する向き{E1,E2,…,EM}を有する、M個の訓練サンプルフレーム{x1,x2,…,xM}のセットSが収集されると、上述した適応型被写体学習処理手順が、対応する向きを有する姿勢画像の被写体固有のデータベースのセットを導出するために実行されうる。−75度から75度までの範囲で15度毎の角度変化を有する姿勢画像が収集されたサンプル訓練セットが、図7で示されている。図8は、対象がY軸を中心に頭部を−75度から+75度まで回転させるときの300フレームのビデオストリームのプロットを、3つの空間次元(x,y,z)の対応する回転角または向きと共に示す。
向きの推定
[0076] 対応する向きの値を有する被写体固有の画像データベースが決定されると、いくつかのリアルタイムの向きの推定の実施形態を用いることができる。
[0077] 一実施形態では、姿勢推定システムは、追跡されるn個の異なった姿勢を有するn個の訓練フレームwi(i=1,…,n)のセットに基づいている。システムの分解能はnであり、すなわち、入力はn個の異なった姿勢の内の1つに分類される。3姿勢システムに対する1つのサンプル訓練データベースが、図9に示されている。このデータベースは、3つの姿勢902a〜902cの各々に対して、5つのサンプルフレーム901a〜901oを有する。フレーム901における、いくらかの変化を考慮に入れるために、すなわち、システム所定の姿勢902(すなわち、左、中央、右)各々に、観測されたさまざまな対象姿勢を提供するために、同一姿勢902について数個のフレーム901が具備される。新たなフレーム(観測結果)を受け取ると、そのフレームは訓練画像と比較されて、その結果として得られる姿勢は、候補である保存された3つの所定の姿勢(902a、902b、または902c)の中で、現在の画像フレーム(観測結果y)の姿勢に最も近いものになる。
[0078] 運転者顔面姿勢推定システムの一実施形態では、隠れマルコフモデル(Hidden Markov Model:「HMM」)に基づく分類装置が使用される。すでに、顔認識に対してHMMが用いられている。このアプローチは、人間の顔面が特有の上下構造形状を示す事実に基づいている。埋め込みHMMが、人間の顔面の水平構造をモデル化するために提案されている。HMMに基づく方法は、像平面の内外における小さい回転に対する、それらの部分的不変性のために、比較的ロバストである。したがって、穏やかな顔面姿勢分類装置を有するために、HMM分類装置に基づく以下の処理手順が、一実施形態において用いられる。
[0079] 最初に、先に決定されたPCA射影係数曲線における最小点を特定する。その後、この点の周囲5つの顔面フレーム901k〜901oが、右向き姿勢902c訓練事例(図9の最下列)として選択される。同様に、PCA射影係数曲線における最大点を求めて、その周囲の5つの顔面フレーム901a〜901eが、左向き姿勢902a訓練事例(図9の最上列)として選択される。PCA射影係数曲線における値がゼロの点近傍で選択された5つの顔面フレーム901f〜901jが、正面向き姿勢902b訓練事例として用いられる。
[0080] 訓練事例が決定されると、左向き、正面向き、および右向きの顔に対する3つのHMMモデルが、独立に訓練される。新たに入力された顔面姿勢の分類は、Viterbiアルゴリズムを用いた顔面の尤度に基づいている。最も高い尤度を有するモデルが、新たな顔面の姿勢である。また、観測ベクトルシーケンス抽出法を用いることもできる。
[0082] さらに、向きの推定システムの他の実施形態は、上述の適応学習プロセスに基づいている。本実施形態は、上述した3D動き推定に基づいて回転角のセットEt={αt,βt,γt}を提供する。このプロセスが有する1つの問題は、計算過程の増加特性によるエラー蓄積であり、すなわち、フレームの最終的角度推定が、前のフレームからの角度推定に関する小さい角度量の加算に基づいていることである。短いシーケンスまたはビデオストリームの間では、エラー蓄積は問題とならない。しかしながら、より長いシーケンス(例えば、900フレーム)の間では、向きの推定値は、著しいずれを生じうる。このずれの問題を克服するために、主要姿勢が検出される毎に、角度が再設定される。
[0083] 本実施形態によれば、現在のフレームの姿勢が、主要姿勢(すなわち、基準となる向き)に対応するか否かを決定するために、任意の上述の外観に基づく手法が、各フレームItに適用される。現在のフレームの姿勢が、主要姿勢であると決定されるとき、向きの推定値が、基準値、例えば、Et={0,0,0}に設定される。そうでなければ、相対的な回転Rt={Δα,Δβ,Δγ}は、上述したように推定される。その後、向きの推定値は、Et=Et-1+Rtのように更新される。
[0084] 一般に、本実施形態は、セッションの間、(適応学習段階後に)対象の外観は、著しく変化することはないと仮定する。上述したように、対象固有のデータベースは、奥行き画像で構成されており、照明条件変化の潜在的影響を減じる。同様に、照明条件変化に対してある程度のロバスト性を供するために、赤外線イメージングを用いてもよい。
[0085] 姿勢追跡システムのさらなる実施形態は、上述した3D動きおよび外観に基づくハイブリッドの実施形態への変形を有する。本実施形態によれば、対象の外観が変化すると(例えば、運転者がメガネ、帽子などを外す)、システムの性能は低下する。この課題に対処するために、所定の最大性能低下値に達するとき、新たな対象固有の画像データベースを構成するために、適応学習段階(訓練段階)が再実行処理される。性能低下は、PCA値の当初の学習値からの逸脱に基づいて計算されうる。あるいは、正しい顔正面が使用されていることを確認するために、適応学習訓練手順を定期的に実行することができる。
[0086] 本発明の特定の実施形態および応用例を本明細書に例示し、記述してきたが、当然のことながら本発明は、本明細書に開示された厳密な構造および構成要素に制限されず、添付のクレームにおいて定義される本発明の趣旨および範囲を逸脱することなく、本発明の方法および装置の構成、動作、および細目において、多様な修正、変更、および変形を行うことができる。
[0019] 図1Aは、向きの推定システム構成の一実施形態を示す。 [0020] 図1Bは、向きの推定コンピュータの一実施形態のブロック図を示す。 [0021] 図2Aは、異なった位置での運転者の奥行き画像を示す。 [0022] 図2Bは、対応する色および奥行きデータのビジュアル表現を有する奥行き画像を示す。 [0023] 図2Cは、奥行き画像を用いた追跡機構の他の実施形態を示す。 [0024] 図3Aは、向きの推定システムの一実施形態の動作方法のフローチャートを示す。 [0025] 図3Bは、動きに基づくアプローチを用いた他の実施形態を示す。 [0026] 図4Aは、PCA射影曲線を示す。 [0027] 図4Bは、頭部姿勢曲線におけるPCA射影の異なった表現を示す。 [0028] 図4Cは、一実施形態による主要姿勢決定に対するParzenウィンドウアプローチを示す。 [0029] 図5は、一般化されたオプティカルフロー図を示す。 [0030] 図6Aは、運転者頭部姿勢推定システムに対するサンプル画像を示す。 [0031] 図6Bは、対象に対するハイブリッドデータ(色および奥行き)を有する奥行きカメラフィードからのフレームを示す。 [0032] 図7は、向きの推定システムの一実施形態によるサンプルの訓練セットを示す。 [0033] 図8は、対象がY軸を中心に頭部を−75度から+75度まで回転させるときの300フレームのビデオストリームのプロットを、3つの空間次元(x,y,z)の対応する回転角または向きと共に示す。 [0034] 図9は、分類装置に基づく3姿勢システムに対するサンプル訓練データベースの一実施形態を示す。

Claims (21)

  1. 奥行き画像データを用いて対象の向きをコンピュータによって推定する方法であって、
    前記コンピュータは、
    ピクセル奥行き情報を含む連続する複数の奥行き画像であって、対象を捕捉する連続する複数の奥行き画像を、前記コンピュータのプロセッサによって受けるステップと、
    一つの画像とその画像の中に捕捉された対象の向きを表す対応する向きの尺度とを対応付ける相関関係であって、前記連続する複数の奥行き画像中の、対象の向きのセットを表す画像のセットに対して、各画像と対応する向きの尺度との間の相関関係を、前記コンピュータのプロセッサによって決定するステップと、
    前記対象の奥行き画像のセットと前記相関関係とを、前記コンピュータのプロセッサによって保存するステップと、
    前記対象の現在の奥行き画像を、前記奥行き画像のセットの中の前記奥行き画像と、外観に基づいて比較し、前記現在の奥行き画像の中に捕捉された前記対象の現在の向きを示す対応する向きの尺度を、前記相関関係に基づいて、前記コンピュータのプロセッサによって決定するステップと
    を実行し、
    前記相関関係を決定するステップは、
    前記画像のセット中の複数の特徴点の間のオプティカルフローを推定することによって次元モーションフィールドを決定するステップと、
    前記二次元モーションフィールドと、前記画像のセット中の複数の特徴点のピクセル奥行き情報の変化とに基づいて、前記画像のセット中の前記対象の三次元回転及び並進に関連付けられた少なくとも1つのパラメータを最適化することによって、前記画像のセットの前記対象の前記向きの尺度を推定するステップと、
    を含むこと、
    を特徴とする方法。
  2. 前記相関関係は、既知の向きのセットと前記画像のセットとの間の写像を含むことを特徴とする請求項1の方法。
  3. 前記コンピュータは、
    前記対象の外観の変化を前記コンピュータのプロセッサによって決定するステップと、
    前記外観の変化の値が最大変化を超過している場合に、前記対象の第2の画像のセットに対する相関関係を前記コンピュータのプロセッサによって決定するステップと、
    前記相関関係を前記コンピュータのプロセッサによって保存するステップと、
    前記保存された画像のセットを前記画像の第2のセットに、前記コンピュータのプロセッサによって置換するステップと
    をさらに実行する請求項1の方法。
  4. 前記対象は人間の頭部であり、前記向きは頭部姿勢であることを特徴とする請求項1の方法。
  5. 奥行き画像データを用いて対象の向きを推定するためのコンピュータを機能させるコンピュータ命令を格納したコンピュータ可読媒体であって、
    前記コンピュータ命令は、
    前記コンピュータに対して、
    ピクセル奥行き情報を含む連続する複数の奥行き画像であって、対象を捕捉する連続する複数の奥行き画像を、前記コンピュータのプロセッサによって受けるステップと、
    一つの画像とその画像の中に捕捉された対象の向きを表す対応する向きの尺度とを対応付ける相関関係であって、前記連続する複数の奥行き画像中の、対象の向きのセットを表す画像のセットに対して、各画像と対応する向きの尺度との間の相関関係を、前記コンピュータのプロセッサによって決定するステップと、
    前記対象の奥行き画像のセットと前記相関関係とを、前記コンピュータのプロセッサによって保存するステップと、
    前記対象の現在の奥行き画像を、前記奥行き画像のセットの中の前記奥行き画像と、外観に基づいて比較し、前記現在の奥行き画像の中に捕捉された前記対象の現在の向きを示す対応する向きの尺度を、前記相関関係に基づいて、前記コンピュータのプロセッサによって決定するステップと、
    を実行させ、
    前記相関関係を決定するステップは、
    前記画像のセット中の複数の特徴点の間のオプティカルフローを推定することによって次元モーションフィールドを決定するステップと、
    前記二次元モーションフィールドと、前記画像のセット中の複数の特徴点のピクセル奥行き情報の変化とに基づいて、前記画像のセット中の前記対象の三次元回転及び並進に関連付けられた少なくとも1つのパラメータを最適化することによって、前記画像のセットの前記対象の前記向きの尺度を推定するステップと、
    を含むこと、
    を特徴とするコンピュータ命令を格納したコンピュータ可読媒体。
  6. 奥行き画像データを用いて対象の向きを推定するシステムであって、
    前記システムは、
    ピクセル奥行き情報を含む連続する複数の奥行き画像であって、対象を捕捉する連続する複数の奥行き画像を、コンピュータのプロセッサによって受ける手段と、
    一つの画像とその画像の中に捕捉された対象の向きを表す対応する向きの尺度とを対応付ける相関関係であって、前記連続する複数の奥行き画像中の、対象の向きのセットを表す画像のセットに対して、各画像と対応する向きの尺度との間の相関関係を、前記コンピュータのプロセッサによって決定する手段と、
    前記対象の奥行き画像のセットと前記相関関係とを、前記コンピュータのプロセッサによって保存する手段と、
    前記対象の現在の奥行き画像を、前記奥行き画像のセットの中の前記奥行き画像と、外観に基づいて比較し、前記現在の奥行き画像の中に捕捉された前記対象の現在の向きを示す対応する向きの尺度を、前記相関関係に基づいて、前記コンピュータのプロセッサによって決定する手段と
    を有し、
    前記相関関係を決定する手段は、
    前記画像のセット中の複数の特徴点の間のオプティカルフローを推定することによって次元モーションフィールドを決定し、
    前記二次元モーションフィールドと、前記画像のセット中の複数の特徴点のピクセル奥行き情報の変化とに基づいて、前記画像のセット中の前記対象の三次元回転及び並進に関連付けられた少なくとも1つのパラメータを最適化することによって、前記画像のセットの前記対象の前記向きの尺度を推定することによって、
    前記相関関係を決定すること、
    を特徴とするシステム。
  7. 奥行きビデオ画像データを用いて対象のリアルタイムの向きの尺度をコンピュータによって推定する方法であって、
    前記コンピュータは、
    リアルタイムに対象を捕捉するとともに奥行きピクセルデータを含む連続する複数の奥行きビデオフレームを入力として、前記コンピュータのプロセッサによって受けるステップと、
    初期訓練期間中に奥行きビデオフレームの対象固有の訓練セットを前記コンピュータのプロセッサによって保存するステップと、
    前記奥行きビデオフレームの対象固有の訓練セットを前記コンピュータのプロセッサ内で分析することによって、主要な向きを向いた対象を捕捉する前記奥行きビデオフレームの対象固有の訓練セットのフレームを特定するステップと、
    現在の奥行きビデオフレームを、前記奥行きビデオフレームの対象固有の訓練セットと、外観に基づいて、前記コンピュータのプロセッサによって比較し、前記現在の奥行きビデオフレームが前記主要な向きを向いた対象を含むか否かを判定するステップと、
    部分的に、前記現在の奥行きビデオフレームに対応する奥行きデータに基づく現在の向きの尺度であって、前記奥行きビデオフレームの中に捕捉された前記対象の現在の向きに対応する現在の向きの尺度を、前記コンピュータのプロセッサによって動き推定を実行することによって、決定するステップと、
    前記現在の奥行きビデオフレームが前記主要な向きを向いた対象を含むと判定する毎に、前記現在の向きの尺度を、基準となる向きの尺度に、前記コンピュータのプロセッサによって初期化するステップと
    を実行する方法。
  8. 前記コンピュータは、
    前記奥行きビデオフレームの対象固有の訓練セットを分析する際に、Parzenウィンドウに基づくPDFを実行して、そのPDFのモードを判定することを特徴とする請求項7の方法。
  9. 前記コンピュータは、
    前記奥行きビデオフレームの対象固有の訓練セットを分析する際に、各奥行きビデオフレームを分割して、前記対象に対応する画像データを含むフレームのセグメントを決定することを特徴とする請求項7の方法。
  10. 前記コンピュータは、
    前記奥行きビデオフレームの対象固有の訓練セットを分析する際に、さらに、楕円フィッティング法に基づきフレーム毎にセグメント位置を追跡することを特徴とする請求項9の方法。
  11. 前記コンピュータは、
    前記奥行きビデオフレームの対象固有の訓練セットを分析する際に、さらに、平均シフトアルゴリズムに基づきフレーム毎にセグメント位置を追跡することを特徴とする請求項9の方法。
  12. 外観に基づいて比較するステップは、さらに、
    前記奥行きビデオフレームの対象固有の訓練セットのPCA分析によって、射影行列および姿勢曲線を決定し、
    前記射影行列に基づいて、多次元固有空間のセット上に、前記現在の奥行きビデオフレームを射影し、
    前記射影された現在の奥行きビデオフレームに基づき向きを推定する
    ことを特徴とする請求項7の方法。
  13. 前記向きを推定する際に、前記現在の奥行きビデオフレームの射影と前記姿勢曲線を構成する点に基づいて、最近傍を求めることを特徴とする請求項12の方法。
  14. 前記向きを推定する際に、前記射影された現在の奥行きビデオフレームに対応する前記姿勢曲線中の点の間で線形補間を行うことを特徴とする請求項12の方法。
  15. 前記現在の向きの尺度を決定するステップは、さらに、
    先行する奥行きビデオフレームおよび前記現在の奥行きビデオフレーム中の特徴点の間のオプティカルフローを推定して、二次元モーションフィールドを決定し、
    前記二次元モーションフィールドと、前記特徴点に対応する奥行きピクセルデータに基づく奥行き拘束条件とを用いて、前記先行する奥行きビデオフレームおよび前記現在の奥行きビデオフレームの間の三次元回転パラメータおよび並進パラメータを回収し、
    前記先行する奥行きビデオフレームおよび前記三次元回転パラメータおよび並進パラメータに対する向きの尺度に基づいて、前記現在の向きの尺度を累積された向きの値に設定する
    ことを特徴とする請求項7の方法。
  16. 前記対象は運転者の頭部であり、前記向きは頭部姿勢であることを特徴とする請求項7の方法。
  17. 奥行きビデオ画像データを用いて対象のリアルタイムの向きの尺度を推定するためのコンピュータを機能させる命令を格納したコンピュータ可読媒体であって、
    前記命令は、
    前記コンピュータに対して、
    リアルタイムに対象を捕捉するとともに奥行きピクセルデータを含む連続する複数の奥行きビデオフレームを入力として、前記コンピュータのプロセッサによって受けるステップと、
    初期訓練期間中に奥行きビデオフレームの対象固有の訓練セットを前記コンピュータのプロセッサによって保存するステップと、
    前記奥行きビデオフレームの対象固有の訓練セットを分析することによって、主要な向きを向いた対象を捕捉する前記奥行きビデオフレームの対象固有の訓練セットのフレームを特定するステップと、
    現在の奥行きビデオフレームを、前記奥行きビデオフレームの対象固有の訓練セットと、外観に基づいて、前記コンピュータのプロセッサによって比較し、前記現在の奥行きビデオフレームが前記主要な向きを向いた対象を含むか否かを判定するステップと、
    部分的に、前記現在の奥行きビデオフレームに対応する奥行きデータに基づく現在の向きの尺度であって、前記奥行きビデオフレームの中に捕捉された前記対象の現在の向きに対応する現在の向きの尺度を、前記コンピュータのプロセッサによって動き推定を実行することによって、決定するステップと、
    前記現在の奥行きビデオフレームが前記主要な向きを向いた対象を含むと判定した場合に、前記現在の向きの尺度を、基準となる向きの尺度に、前記コンピュータのプロセッサによって初期化するステップと、
    を実行させること、
    を特徴とする命令を格納したコンピュータ可読媒体。
  18. 奥行きビデオ画像データを用いて対象のリアルタイムの向きの尺度を推定するシステムであって、
    前記システムは、
    リアルタイムに対象を捕捉するとともに奥行きピクセルデータを含む連続する複数の奥行きビデオフレームを入力として、前記コンピュータのプロセッサによって受ける手段と、
    初期訓練期間中に奥行きビデオフレームの対象固有の訓練セットを前記コンピュータのプロセッサによって保存するステップと、
    前記奥行きビデオフレームの対象固有の訓練セットを分析することによって、主要な向きを向いた対象を捕捉する前記奥行きビデオフレームの対象固有の訓練セットのフレームを特定する手段と、
    現在の奥行きビデオフレームを、前記奥行きビデオフレームの対象固有の訓練セットと、外観に基づいて、前記コンピュータのプロセッサによって比較し、前記現在の奥行きビデオフレームが前記主要な向きを向いた対象を含むか否かを判定する手段と、
    部分的に、前記現在の奥行きビデオフレームに対応する奥行きデータに基づく現在の向きの尺度であって、前記奥行きビデオフレームの中に捕捉された前記対象の現在の向きに対応する現在の向きの尺度を、前記コンピュータのプロセッサによって動き推定を実行することによって、決定する手段と、
    前記現在の奥行きビデオフレームが前記主要な向きを向いた対象を含むと判定した場合に、前記現在の向きの尺度を、基準となる向きの尺度、前記コンピュータのプロセッサによって初期化する手段と
    を有するシステム。
  19. 対象のリアルタイムビデオを捕捉するとともに奥行きウィンドウ内で動作するよう構成されたタイムオブフライトカメラであって、そのリアルタイムビデオはフレームのストリームを含み、各フレームはピクセル毎に色と奥行きの情報を含むハイブリッド画像データを含む、タイムオブフライトカメラと、
    前記タイムオブフライトカメラから、前記リアルタイムビデオストリームを受ける入出力モジュール、
    前記ハイブリッド画像データ内に含まれる前記奥行きの情報に基づいて決定され、前記対象に対応する前記画像データのセグメントを提供するセグメント化及び追跡モジュール、
    訓練期間中に前記タイムオブフライトカメラによって捕捉された前記対象のビデオフレームの最初の1セットから、対応する向きの尺度を有する少なくとも1つのフレームを含む対象固有の訓練画像セットを構成する適応学習モジュール、
    現在のビデオフレームを前記対象固有の訓練画像セットと比較し、前記現在のフレームに最も類似したフレームに対応する向きに基づき現在の向きを推定する外観分類装置モジュール、及び、
    前記現在のビデオフレームに先行するビデオフレームと比較された前記現在のビデオフレームの奥行き情報の変化に基づいて、前記対象の三次元回転及び並進に関連付けられた少なくとも1つのパラメータを最適化することによって、前記対象の向きを推定するモーション推定モジュール
    を有するコンピュータ処理システムと
    を含むシステム。
  20. 前記コンピュータ処理システムは、
    前記適応学習モジュールと前記外観分類装置とに接続されて、前記対象固有の訓練画像セットを保存するよう構成されたメモリモジュール
    をさらに含むことを特徴とする請求項19のシステム。
  21. 前記タイムオブフライトカメラは、車両室内に搭載されて、対象となる運転者のリアルタイムビデオを捕捉するとともに、前記コンピュータ処理システムは、前記運転者の推定向きに基づいて動作するよう構成された安全機能を有する車両安全システムの一部であることを特徴とする請求項19のシステム。
JP2006516618A 2003-06-12 2004-06-14 奥行き検出を用いた対象の向きの推定 Expired - Fee Related JP4546956B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US47821103P 2003-06-12 2003-06-12
PCT/IB2004/003149 WO2004111687A2 (en) 2003-06-12 2004-06-14 Target orientation estimation using depth sensing

Publications (2)

Publication Number Publication Date
JP2006527443A JP2006527443A (ja) 2006-11-30
JP4546956B2 true JP4546956B2 (ja) 2010-09-22

Family

ID=33551812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006516618A Expired - Fee Related JP4546956B2 (ja) 2003-06-12 2004-06-14 奥行き検出を用いた対象の向きの推定

Country Status (4)

Country Link
US (2) US7620202B2 (ja)
EP (3) EP1631937B1 (ja)
JP (1) JP4546956B2 (ja)
WO (1) WO2004111687A2 (ja)

Families Citing this family (361)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7197186B2 (en) * 2003-06-17 2007-03-27 Mitsubishi Electric Research Laboratories, Inc. Detecting arbitrarily oriented objects in images
US7526123B2 (en) * 2004-02-12 2009-04-28 Nec Laboratories America, Inc. Estimating facial pose from a sparse representation
WO2005086080A1 (en) * 2004-03-02 2005-09-15 Sarnoff Corporation Method and apparatus for detecting a presence
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
JP2006048322A (ja) * 2004-08-04 2006-02-16 Seiko Epson Corp オブジェクト画像検出装置、顔画像検出プログラムおよび顔画像検出方法
CN100399247C (zh) * 2004-12-22 2008-07-02 联想(北京)有限公司 一种显示设备的光标的控制***及方法
US7492921B2 (en) * 2005-01-10 2009-02-17 Fuji Xerox Co., Ltd. System and method for detecting and ranking images in order of usefulness based on vignette score
US8948461B1 (en) * 2005-04-29 2015-02-03 Hewlett-Packard Development Company, L.P. Method and system for estimating the three dimensional position of an object in a three dimensional physical space
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
JP4682820B2 (ja) * 2005-11-25 2011-05-11 ソニー株式会社 オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム
KR100682987B1 (ko) * 2005-12-08 2007-02-15 한국전자통신연구원 선형판별 분석기법을 이용한 3차원 동작인식 장치 및 그방법
JP5041458B2 (ja) * 2006-02-09 2012-10-03 本田技研工業株式会社 三次元物体を検出する装置
US8467570B2 (en) * 2006-06-14 2013-06-18 Honeywell International Inc. Tracking system with fused motion and object detection
US8009900B2 (en) * 2006-09-28 2011-08-30 Siemens Medical Solutions Usa, Inc. System and method for detecting an object in a high dimensional space
KR100776805B1 (ko) * 2006-09-29 2007-11-19 한국전자통신연구원 스테레오 비전 처리를 통해 지능형 서비스 로봇 시스템에서효율적인 영상 정보의 전송을 위한 장치 및 그 방법
JP4677046B2 (ja) * 2006-12-06 2011-04-27 本田技研工業株式会社 多次元ブースト回帰を経た外観及び動作を使用する高速人間姿勢推定
KR100834577B1 (ko) * 2006-12-07 2008-06-02 한국전자통신연구원 스테레오 비전 처리를 통해 목표물 검색 및 추종 방법, 및이를 적용한 가정용 지능형 서비스 로봇 장치
US8005238B2 (en) 2007-03-22 2011-08-23 Microsoft Corporation Robust adaptive beamforming with enhanced noise suppression
US20080288255A1 (en) * 2007-05-16 2008-11-20 Lawrence Carin System and method for quantifying, representing, and identifying similarities in data streams
US8005237B2 (en) 2007-05-17 2011-08-23 Microsoft Corp. Sensor array beamformer post-processor
US8629976B2 (en) 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
JP4985293B2 (ja) * 2007-10-04 2012-07-25 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
JP5186874B2 (ja) * 2007-10-10 2013-04-24 セイコーエプソン株式会社 測位方法、プログラム、測位装置及び電子機器
JP5251090B2 (ja) * 2007-11-30 2013-07-31 セイコーエプソン株式会社 測位方法、プログラム及び測位装置
JP5176572B2 (ja) * 2008-02-05 2013-04-03 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP5181704B2 (ja) * 2008-02-07 2013-04-10 日本電気株式会社 データ処理装置、姿勢推定システム、姿勢推定方法およびプログラム
US8385557B2 (en) 2008-06-19 2013-02-26 Microsoft Corporation Multichannel acoustic echo reduction
US8325909B2 (en) 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
US8203699B2 (en) 2008-06-30 2012-06-19 Microsoft Corporation System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed
US20100014711A1 (en) * 2008-07-16 2010-01-21 Volkswagen Group Of America, Inc. Method for controlling an illumination in a vehicle interior in dependence on a head pose detected with a 3D sensor
US8325978B2 (en) 2008-10-30 2012-12-04 Nokia Corporation Method, apparatus and computer program product for providing adaptive gesture analysis
US8442351B2 (en) * 2008-11-06 2013-05-14 Nec Corporation Image orientation determination device, image orientation determination method, and image orientation determination program
US7995909B2 (en) * 2008-12-12 2011-08-09 Samsung Electro-Mechanics Co., Ltd. Auto-focusing method
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
EP2208831A1 (de) * 2009-01-20 2010-07-21 Geberit International AG Verfahren und elektronische Steuervorrichtung zur berührungslosen Steuerung einer sanitären Anlage
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8448094B2 (en) 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US8487938B2 (en) 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US20100199231A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US8773355B2 (en) 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9313376B1 (en) 2009-04-01 2016-04-12 Microsoft Technology Licensing, Llc Dynamic depth power equalization
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US9015638B2 (en) 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US8638985B2 (en) * 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8660303B2 (en) 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
JP5214533B2 (ja) * 2009-05-21 2013-06-19 富士フイルム株式会社 人物追跡方法、人物追跡装置および人物追跡プログラム
JP5227888B2 (ja) * 2009-05-21 2013-07-03 富士フイルム株式会社 人物追跡方法、人物追跡装置および人物追跡プログラム
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8856691B2 (en) * 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US9182814B2 (en) 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8487871B2 (en) 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US8849616B2 (en) * 2009-08-04 2014-09-30 Microsoft Corporation Method and system for noise simulation analysis useable with systems including time-of-flight depth systems
US8264536B2 (en) 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US9141193B2 (en) 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US8508919B2 (en) 2009-09-14 2013-08-13 Microsoft Corporation Separation of electrical and optical components
US8330134B2 (en) 2009-09-14 2012-12-11 Microsoft Corporation Optical fault monitoring
US8760571B2 (en) 2009-09-21 2014-06-24 Microsoft Corporation Alignment of lens and image sensor
US8976986B2 (en) * 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US8428340B2 (en) 2009-09-21 2013-04-23 Microsoft Corporation Screen space plane identification
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US8452087B2 (en) 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8723118B2 (en) 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US8116527B2 (en) * 2009-10-07 2012-02-14 The United States Of America As Represented By The Secretary Of The Army Using video-based imagery for automated detection, tracking, and counting of moving objects, in particular those objects having image characteristics similar to background
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US9400548B2 (en) 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US8988432B2 (en) 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
US8600166B2 (en) * 2009-11-06 2013-12-03 Sony Corporation Real time hand tracking, pose classification and interface control
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US8891818B2 (en) * 2009-12-08 2014-11-18 Texas Instruments Incorporated Method and apparatus for tracking objects across images
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
EP2339537B1 (en) * 2009-12-23 2016-02-24 Metaio GmbH Method of determining reference features for use in an optical object initialization tracking process and object initialization tracking method
EP2339507B1 (en) 2009-12-28 2013-07-17 Softkinetic Software Head detection and localisation method
US8631355B2 (en) 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US9268404B2 (en) 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US9019201B2 (en) 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8933884B2 (en) 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8676581B2 (en) 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8265341B2 (en) 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
US8760631B2 (en) * 2010-01-27 2014-06-24 Intersil Americas Inc. Distance sensing by IQ domain differentiation of time of flight (TOF) measurements
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8891067B2 (en) 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
US8619122B2 (en) 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8687044B2 (en) 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8717469B2 (en) 2010-02-03 2014-05-06 Microsoft Corporation Fast gating photosurface
US8499257B2 (en) 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8633890B2 (en) 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US8928579B2 (en) 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
JP4852159B2 (ja) * 2010-02-24 2012-01-11 株式会社東芝 画像処理装置、画像処理方法および空調制御装置
US8411948B2 (en) 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US8422769B2 (en) 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US8655069B2 (en) 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US8279418B2 (en) 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8213680B2 (en) 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US8514269B2 (en) 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US8523667B2 (en) 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
US8605763B2 (en) 2010-03-31 2013-12-10 Microsoft Corporation Temperature measurement and control for laser and light-emitting diodes
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
EP2378310B1 (en) 2010-04-15 2016-08-10 Rockwell Automation Safety AG Time of flight camera unit and optical surveillance system
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
US8284847B2 (en) 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US8498481B2 (en) 2010-05-07 2013-07-30 Microsoft Corporation Image segmentation using star-convexity constraints
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US8803888B2 (en) 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US9008355B2 (en) 2010-06-04 2015-04-14 Microsoft Technology Licensing, Llc Automatic depth camera aiming
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9557574B2 (en) 2010-06-08 2017-01-31 Microsoft Technology Licensing, Llc Depth illumination and detection optics
US8330822B2 (en) 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US9384329B2 (en) 2010-06-11 2016-07-05 Microsoft Technology Licensing, Llc Caloric burn determination from body movement
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US8982151B2 (en) 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
US8558873B2 (en) 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
US8896684B2 (en) * 2010-06-24 2014-11-25 Tk Holdings Inc. Vehicle display enhancements
CN102959941B (zh) * 2010-07-02 2015-11-25 索尼电脑娱乐公司 信息处理***、信息处理装置及信息处理方法
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8613666B2 (en) 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US20120058824A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US8988508B2 (en) 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
US8599027B2 (en) 2010-10-19 2013-12-03 Deere & Company Apparatus and method for alerting machine operator responsive to the gaze zone
US8592739B2 (en) 2010-11-02 2013-11-26 Microsoft Corporation Detection of configuration changes of an optical element in an illumination system
WO2012061549A2 (en) * 2010-11-03 2012-05-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
US10726861B2 (en) 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
US9349040B2 (en) 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
US10234545B2 (en) 2010-12-01 2019-03-19 Microsoft Technology Licensing, Llc Light source module
US8553934B2 (en) 2010-12-08 2013-10-08 Microsoft Corporation Orienting the position of a sensor
US8618405B2 (en) 2010-12-09 2013-12-31 Microsoft Corp. Free-space gesture musical instrument digital interface (MIDI) controller
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US8884968B2 (en) 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US8920241B2 (en) 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US9821224B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
US9848106B2 (en) 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US8994718B2 (en) 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
US8385596B2 (en) 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US9123316B2 (en) 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
KR101758058B1 (ko) 2011-01-20 2017-07-17 삼성전자주식회사 깊이 정보를 이용한 카메라 모션 추정 방법 및 장치, 증강 현실 시스템
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8724887B2 (en) 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8497838B2 (en) 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
US9551914B2 (en) * 2011-03-07 2017-01-24 Microsoft Technology Licensing, Llc Illuminator with refractive optical element
US9067136B2 (en) 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
KR101792501B1 (ko) * 2011-03-16 2017-11-21 한국전자통신연구원 특징기반의 스테레오 매칭 방법 및 장치
US8571263B2 (en) 2011-03-17 2013-10-29 Microsoft Corporation Predicting joint positions
US9470778B2 (en) 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US8503494B2 (en) 2011-04-05 2013-08-06 Microsoft Corporation Thermal management system
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US9259643B2 (en) 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US8888331B2 (en) 2011-05-09 2014-11-18 Microsoft Corporation Low inductance light source module
US8934026B2 (en) 2011-05-12 2015-01-13 Cisco Technology, Inc. System and method for video coding in a dynamic environment
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9137463B2 (en) 2011-05-12 2015-09-15 Microsoft Technology Licensing, Llc Adaptive high dynamic range camera
US9582707B2 (en) * 2011-05-17 2017-02-28 Qualcomm Incorporated Head pose estimation using RGBD camera
US8788973B2 (en) 2011-05-23 2014-07-22 Microsoft Corporation Three-dimensional gesture controlled avatar configuration interface
KR101227569B1 (ko) 2011-05-26 2013-01-29 한국과학기술연구원 골프 스윙 분석을 위한 신체 부위별 위치 추적 장치 및 방법
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US8526734B2 (en) 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
US9594430B2 (en) 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US8597142B2 (en) 2011-06-06 2013-12-03 Microsoft Corporation Dynamic camera based practice mode
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US9724600B2 (en) 2011-06-06 2017-08-08 Microsoft Technology Licensing, Llc Controlling objects in a virtual environment
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US9098110B2 (en) 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US8786730B2 (en) 2011-08-18 2014-07-22 Microsoft Corporation Image exposure using exclusion regions
US20130201344A1 (en) * 2011-08-18 2013-08-08 Qualcomm Incorporated Smart camera for taking pictures automatically
US10089327B2 (en) 2011-08-18 2018-10-02 Qualcomm Incorporated Smart camera for sharing pictures automatically
US9823082B2 (en) * 2011-08-24 2017-11-21 Modular Mining Systems, Inc. Driver guidance for guided maneuvering
US8583361B2 (en) 2011-08-24 2013-11-12 Modular Mining Systems, Inc. Guided maneuvering of a mining vehicle to a target destination
JP5367037B2 (ja) * 2011-09-26 2013-12-11 本田技研工業株式会社 顔向き検出装置
US8861893B2 (en) * 2011-09-27 2014-10-14 The Boeing Company Enhancing video using super-resolution
TWI455839B (zh) * 2011-10-31 2014-10-11 Hon Hai Prec Ind Co Ltd 交通意外防止系統及方法
US9557836B2 (en) 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
KR101901591B1 (ko) * 2011-11-01 2018-09-28 삼성전자주식회사 얼굴 인식 장치 및 그 제어방법
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
JP5607012B2 (ja) * 2011-11-04 2014-10-15 本田技研工業株式会社 手話動作生成装置及びコミュニケーションロボット
US8854426B2 (en) 2011-11-07 2014-10-07 Microsoft Corporation Time-of-flight camera with guided light
US8724906B2 (en) 2011-11-18 2014-05-13 Microsoft Corporation Computing pose and/or shape of modifiable entities
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
JP5806606B2 (ja) * 2011-12-01 2015-11-10 キヤノン株式会社 情報処理装置、情報処理方法
US8803800B2 (en) 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9964643B2 (en) 2011-12-08 2018-05-08 Conduent Business Services, Llc Vehicle occupancy detection using time-of-flight sensor
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
US8879831B2 (en) 2011-12-15 2014-11-04 Microsoft Corporation Using high-level attributes to guide image processing
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US8682087B2 (en) * 2011-12-19 2014-03-25 Cisco Technology, Inc. System and method for depth-guided image filtering in a video conference environment
US9342139B2 (en) 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
CN103177269B (zh) * 2011-12-23 2017-12-15 北京三星通信技术研究有限公司 用于估计对象姿态的设备和方法
KR101896307B1 (ko) * 2012-01-10 2018-09-10 삼성전자주식회사 깊이 영상을 처리하는 방법 및 장치
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
SE536976C2 (sv) * 2012-04-16 2014-11-18 Scania Cv Ab Förfarande och system för att bestämma information om huvudet hos en fordonsförare
EP2654028B1 (en) * 2012-04-20 2018-09-26 Honda Research Institute Europe GmbH Orientation sensitive traffic collision warning system
US9707892B2 (en) 2012-04-25 2017-07-18 Gentex Corporation Multi-focus optical system
US9550455B2 (en) 2012-04-25 2017-01-24 Gentex Corporation Multi-focus optical system
US9210401B2 (en) 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
JP5900161B2 (ja) * 2012-05-29 2016-04-06 ソニー株式会社 情報処理システム、方法およびコンピュータ読み取り可能な記録媒体
US10002297B2 (en) * 2012-06-20 2018-06-19 Imprivata, Inc. Active presence detection with depth sensing
KR101911133B1 (ko) 2012-06-21 2018-10-23 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 깊이 카메라를 이용한 아바타 구성
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
US9696427B2 (en) 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
US9690334B2 (en) 2012-08-22 2017-06-27 Intel Corporation Adaptive visual output based on change in distance of a mobile device to a user
TWI496090B (zh) 2012-09-05 2015-08-11 Ind Tech Res Inst 使用深度影像的物件定位方法與裝置
CN102999760A (zh) * 2012-09-28 2013-03-27 常州工学院 投票权值在线自适应调整的目标图像区域跟踪方法
US9681154B2 (en) 2012-12-06 2017-06-13 Patent Capital Group System and method for depth-guided filtering in a video conference environment
US8882310B2 (en) 2012-12-10 2014-11-11 Microsoft Corporation Laser die light source module with low inductance
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9251590B2 (en) 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
US10133754B2 (en) * 2013-02-10 2018-11-20 Qualcomm Incorporated Peer-to-peer picture sharing using custom based rules for minimal power consumption and better user experience
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9158381B2 (en) 2013-02-25 2015-10-13 Honda Motor Co., Ltd. Multi-resolution gesture recognition
US9393695B2 (en) 2013-02-27 2016-07-19 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
US9804576B2 (en) 2013-02-27 2017-10-31 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with position and derivative decision reference
US9498885B2 (en) 2013-02-27 2016-11-22 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with confidence-based decision support
US9798302B2 (en) 2013-02-27 2017-10-24 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with redundant system input support
US9292923B2 (en) * 2013-03-06 2016-03-22 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to monitor environments
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US10712529B2 (en) 2013-03-13 2020-07-14 Cognex Corporation Lens assembly with integrated feedback loop for focus adjustment
US11002854B2 (en) 2013-03-13 2021-05-11 Cognex Corporation Lens assembly with integrated feedback loop and time-of-flight sensor
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
JP5834253B2 (ja) * 2013-03-27 2015-12-16 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US9953213B2 (en) 2013-03-27 2018-04-24 Microsoft Technology Licensing, Llc Self discovery of autonomous NUI devices
CN103237228B (zh) * 2013-04-28 2015-08-12 清华大学 双目立体视频的时空一致性分割方法
US9442186B2 (en) 2013-05-13 2016-09-13 Microsoft Technology Licensing, Llc Interference reduction for TOF systems
KR102137264B1 (ko) 2013-07-09 2020-07-24 삼성전자주식회사 카메라 포즈 추정 장치 및 방법
US9286717B2 (en) 2013-07-30 2016-03-15 Hewlett-Packard Development Company, L.P. 3D modeling motion parameters
US9462253B2 (en) 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
US9558563B1 (en) * 2013-09-25 2017-01-31 Amazon Technologies, Inc. Determining time-of-fight measurement parameters
US9443310B2 (en) 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
TW201517615A (zh) * 2013-10-16 2015-05-01 Novatek Microelectronics Corp 對焦方法
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US9769459B2 (en) 2013-11-12 2017-09-19 Microsoft Technology Licensing, Llc Power efficient laser diode driver circuit and method
US9508385B2 (en) 2013-11-21 2016-11-29 Microsoft Technology Licensing, Llc Audio-visual project generator
US9747680B2 (en) 2013-11-27 2017-08-29 Industrial Technology Research Institute Inspection apparatus, method, and computer program product for machine vision inspection
TWI530909B (zh) 2013-12-31 2016-04-21 財團法人工業技術研究院 影像合成系統及方法
US9971491B2 (en) 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
US9430701B2 (en) 2014-02-07 2016-08-30 Tata Consultancy Services Limited Object detection system and method
EP3111419A1 (en) 2014-02-27 2017-01-04 Thomson Licensing Method and apparatus for determining an orientation of a video
GB2525655B (en) * 2014-05-01 2018-04-25 Jaguar Land Rover Ltd Dynamic lighting apparatus and method
CN105096304B (zh) * 2014-05-22 2018-01-02 华为技术有限公司 一种图像特征的估计方法和设备
KR101566910B1 (ko) * 2014-07-09 2015-11-13 현대모비스 주식회사 차량 운전 보조 장치 및 그 동작 방법
US10339389B2 (en) * 2014-09-03 2019-07-02 Sharp Laboratories Of America, Inc. Methods and systems for vision-based motion estimation
US20160073087A1 (en) * 2014-09-10 2016-03-10 Lenovo (Singapore) Pte. Ltd. Augmenting a digital image with distance data derived based on acoustic range information
US9773155B2 (en) * 2014-10-14 2017-09-26 Microsoft Technology Licensing, Llc Depth from time of flight camera
US10110881B2 (en) 2014-10-30 2018-10-23 Microsoft Technology Licensing, Llc Model fitting from raw time-of-flight images
JP6299651B2 (ja) * 2015-04-02 2018-03-28 株式会社デンソー 画像処理装置
US10121259B2 (en) * 2015-06-04 2018-11-06 New York University Langone Medical System and method for determining motion and structure from optical flow
US9396400B1 (en) * 2015-07-30 2016-07-19 Snitch, Inc. Computer-vision based security system using a depth camera
US10360718B2 (en) * 2015-08-14 2019-07-23 Samsung Electronics Co., Ltd. Method and apparatus for constructing three dimensional model of object
US10113877B1 (en) * 2015-09-11 2018-10-30 Philip Raymond Schaefer System and method for providing directional information
US10104302B2 (en) * 2015-10-27 2018-10-16 Pixart Imaging Inc. Image determining method and image sensing apparatus applying the image determining method
US10229502B2 (en) 2016-02-03 2019-03-12 Microsoft Technology Licensing, Llc Temporal time-of-flight
CN105760826B (zh) * 2016-02-03 2020-11-13 歌尔股份有限公司 一种人脸跟踪方法、装置和智能终端
US10412280B2 (en) 2016-02-10 2019-09-10 Microsoft Technology Licensing, Llc Camera with light valve over sensor array
US10257932B2 (en) 2016-02-16 2019-04-09 Microsoft Technology Licensing, Llc. Laser diode chip on printed circuit board
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
CN109074497B (zh) * 2016-06-02 2024-01-19 英特尔公司 使用深度信息识别视频图像序列中的活动
US20180012196A1 (en) * 2016-07-07 2018-01-11 NextEv USA, Inc. Vehicle maintenance manager
US10318831B2 (en) 2016-07-21 2019-06-11 Gestigon Gmbh Method and system for monitoring the status of the driver of a vehicle
US10165168B2 (en) 2016-07-29 2018-12-25 Microsoft Technology Licensing, Llc Model-based classification of ambiguous depth image data
US10198621B2 (en) 2016-11-28 2019-02-05 Sony Corporation Image-Processing device and method for foreground mask correction for object segmentation
GB201621879D0 (en) * 2016-12-21 2017-02-01 Branston Ltd A crop monitoring system and method
US10241520B2 (en) * 2016-12-22 2019-03-26 TCL Research America Inc. System and method for vision-based flight self-stabilization by deep gated recurrent Q-networks
US11127158B2 (en) 2017-02-23 2021-09-21 Siemens Mobility GmbH Image indexing and retrieval using local image patches for object three-dimensional pose estimation
US10646999B2 (en) * 2017-07-20 2020-05-12 Tata Consultancy Services Limited Systems and methods for detecting grasp poses for handling target objects
LU100684B1 (en) * 2018-01-26 2019-08-21 Technische Univ Kaiserslautern Method and system for head pose estimation
JP7109207B2 (ja) * 2018-02-23 2022-07-29 パナソニックホールディングス株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
US11050933B2 (en) * 2018-04-27 2021-06-29 Continenal Automotive Systems, Inc. Device and method for determining a center of a trailer tow coupler
JP7209954B2 (ja) * 2018-08-02 2023-01-23 株式会社Yoods 眼振解析システム
US11094079B2 (en) 2018-08-28 2021-08-17 Facebook Technologies, Llc Determining a pose of an object from RGB-D images
RU2698402C1 (ru) 2018-08-30 2019-08-26 Самсунг Электроникс Ко., Лтд. Способ обучения сверточной нейронной сети для восстановления изображения и система для формирования карты глубины изображения (варианты)
TWI715903B (zh) * 2018-12-24 2021-01-11 財團法人工業技術研究院 動作追蹤系統及方法
CN109816700B (zh) * 2019-01-11 2023-02-24 佰路得信息技术(上海)有限公司 一种基于目标识别的信息统计方法
JP7196645B2 (ja) * 2019-01-31 2022-12-27 コニカミノルタ株式会社 姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法
US11398047B2 (en) 2019-05-30 2022-07-26 Nvidia Corporation Virtual reality simulations using surface tracking
US11181978B2 (en) * 2019-06-17 2021-11-23 Hemy8 Sa System and method for gaze estimation
US11416998B2 (en) * 2019-07-30 2022-08-16 Microsoft Technology Licensing, Llc Pixel classification to reduce depth-estimation error
CN110705432B (zh) * 2019-09-26 2022-10-25 长安大学 一种基于彩色和深度摄像头的行人检测装置及方法
US11200458B1 (en) 2020-06-15 2021-12-14 Bank Of America Corporation System for integration of a hexagonal image processing framework within a technical environment
CN112037254A (zh) * 2020-08-11 2020-12-04 浙江大华技术股份有限公司 目标跟踪方法及相关装置
CN113926725A (zh) * 2021-10-26 2022-01-14 东北大学秦皇岛分校 基于密度估计的煤与矸石快速分选装置及方法
CN117496387A (zh) * 2022-07-22 2024-02-02 顺丰科技有限公司 车辆进出港检测方法、装置、设备和存储介质

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03262290A (ja) * 1990-03-12 1991-11-21 Mitsubishi Electric Corp 準動画テレビ電話方式
JP3244798B2 (ja) * 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US6278798B1 (en) * 1993-08-09 2001-08-21 Texas Instruments Incorporated Image object recognition system and method
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
DE69635891T2 (de) * 1995-06-22 2006-12-14 3Dv Systems Ltd. Verbesserte optische kamera zur entfernungsmessung
US6002808A (en) * 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US5944530A (en) * 1996-08-13 1999-08-31 Ho; Chi Fai Learning method and system that consider a student's concentration level
EP0849697B1 (en) * 1996-12-20 2003-02-12 Hitachi Europe Limited A hand gesture recognition system and method
JPH1147196A (ja) * 1997-08-06 1999-02-23 Fuji Heavy Ind Ltd 電動車椅子の走行制御装置
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
JP3880702B2 (ja) * 1997-09-11 2007-02-14 富士重工業株式会社 画像のオプティカルフロー検出装置及び移動体の自己位置認識システム
EP0905644A3 (en) * 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
WO2000030023A1 (en) 1998-11-17 2000-05-25 Holoplex, Inc. Stereo-vision for gesture recognition
JP3637226B2 (ja) * 1999-02-01 2005-04-13 株式会社東芝 動き検出方法、動き検出装置及び記録媒体
US7003134B1 (en) * 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
JP4332649B2 (ja) * 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
JP4406978B2 (ja) 1999-11-10 2010-02-03 株式会社安川電機 テンプレートマッチング方法
US6674904B1 (en) * 1999-12-14 2004-01-06 Intel Corporation Contour tracing and boundary detection for object identification in a digital image
JP4092059B2 (ja) * 2000-03-03 2008-05-28 日本放送協会 画像認識装置
WO2001067749A2 (en) * 2000-03-07 2001-09-13 Sarnoff Corporation Camera pose estimation
JP4387552B2 (ja) 2000-04-27 2009-12-16 富士通株式会社 画像照合処理システム
US6671391B1 (en) * 2000-05-26 2003-12-30 Microsoft Corp. Pose-adaptive face detection system and process
US6788809B1 (en) * 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US6804391B1 (en) * 2000-11-22 2004-10-12 Microsoft Corporation Pattern detection methods and systems, and face detection methods and systems
JP4597391B2 (ja) * 2001-01-22 2010-12-15 本田技研工業株式会社 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
US6804416B1 (en) * 2001-03-16 2004-10-12 Cognex Corporation Method and system for aligning geometric object models with images
US6804396B2 (en) * 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
JP4348028B2 (ja) * 2001-06-12 2009-10-21 株式会社リコー 画像処理方法、画像処理装置、撮像装置及びコンピュータプログラム
US7274800B2 (en) * 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
JP4573085B2 (ja) * 2001-08-10 2010-11-04 日本電気株式会社 位置姿勢認識装置とその位置姿勢認識方法、及び位置姿勢認識プログラム
JP2003058884A (ja) * 2001-08-13 2003-02-28 Nippon Signal Co Ltd:The 物体存在密度測定装置
JP3822482B2 (ja) * 2001-10-31 2006-09-20 株式会社東芝 顔向き計算方法及びその装置
WO2003071410A2 (en) * 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
WO2003073359A2 (en) * 2002-02-26 2003-09-04 Canesta, Inc. Method and apparatus for recognizing objects
US7203356B2 (en) * 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
US6959109B2 (en) * 2002-06-20 2005-10-25 Identix Incorporated System and method for pose-angle estimation
WO2004004320A1 (en) * 2002-07-01 2004-01-08 The Regents Of The University Of California Digital processing of video images
US7224830B2 (en) * 2003-02-04 2007-05-29 Intel Corporation Gesture detection from digital video images
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
WO2004097612A2 (en) 2003-05-01 2004-11-11 Delta Dansk Elektronik, Lys & Akustik A man-machine interface based on 3-d positions of the human body

Also Published As

Publication number Publication date
US7620202B2 (en) 2009-11-17
EP3196805A3 (en) 2017-11-01
EP1631937A4 (en) 2010-09-08
US20100034427A1 (en) 2010-02-11
JP2006527443A (ja) 2006-11-30
EP3196805A2 (en) 2017-07-26
US8031906B2 (en) 2011-10-04
WO2004111687A2 (en) 2004-12-23
EP1631937A2 (en) 2006-03-08
EP1631937B1 (en) 2018-03-28
WO2004111687A3 (en) 2005-03-31
EP3190546A3 (en) 2017-10-04
US20050058337A1 (en) 2005-03-17
EP3190546A2 (en) 2017-07-12

Similar Documents

Publication Publication Date Title
JP4546956B2 (ja) 奥行き検出を用いた対象の向きの推定
US7853085B2 (en) Viewpoint-invariant detection and identification of a three-dimensional object from two-dimensional imagery
Ahmad et al. HMM-based human action recognition using multiview image sequences
US7274800B2 (en) Dynamic gesture recognition from stereo sequences
JP4912388B2 (ja) 2次元見え方およびマルチキュー奥行き推定を使用する実世界の物体の視覚的追跡方法
US7308112B2 (en) Sign based human-machine interaction
US6757571B1 (en) System and process for bootstrap initialization of vision-based tracking systems
Hermes et al. Vehicle tracking and motion prediction in complex urban scenarios
KR101035055B1 (ko) 이종 카메라를 이용한 객체 추적 시스템 및 방법
Salih et al. Comparison of stochastic filtering methods for 3D tracking
JP2003015816A (ja) ステレオカメラを使用した顔・視線認識装置
JP2007523429A (ja) ロバストな情報融合を利用するオブジェクトのマルチモーダルコンポーネントベースドトラッキングのための方法及びシステム
Nguyen et al. Tracking aspects of the foreground against the background
Rekik et al. 3d face pose tracking using low quality depth cameras
WO2003009218A1 (en) Dynamic gesture recognition from stereo sequences
Georgescu et al. Multi-model component-based tracking using robust information fusion
Park et al. Head segmentation and head orientation in 3d space for pose estimation of multiple people
Canton-Ferrer et al. Fusion of multiple viewpoint information towards 3D face robust orientation detection
Xu et al. Saliency model based head pose estimation by sparse optical flow
Htwe et al. Vision-Based Autonomous Human Tracking Mobile Robot
Panin et al. Real-time 3d face tracking with mutual information and active contours
Van den Bergh et al. Real-Time 3D Body Pose Estimation.
Wildermann et al. 3D person tracking with a color-based particle filter
Chen et al. Multi-cue facial feature detection and tracking
Abdellaoui et al. Body tracking and motion analysis using hybrid model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070205

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20090903

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20090915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100702

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4546956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees