JPH1153083A - アクティブな公共インターフェイスのための人間の視覚的感知方法及び装置 - Google Patents

アクティブな公共インターフェイスのための人間の視覚的感知方法及び装置

Info

Publication number
JPH1153083A
JPH1153083A JP9893598A JP9893598A JPH1153083A JP H1153083 A JPH1153083 A JP H1153083A JP 9893598 A JP9893598 A JP 9893598A JP 9893598 A JP9893598 A JP 9893598A JP H1153083 A JPH1153083 A JP H1153083A
Authority
JP
Japan
Prior art keywords
human
moving object
scene
user
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9893598A
Other languages
English (en)
Inventor
Keith Waters
ウォーターズ キース
Maria Loughlin
ロークリン マリア
James M Rehg
エム レーグ ジェームズ
Sing Bing Kang
ビン カン シン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Digital Equipment Corp
Original Assignee
Digital Equipment Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Digital Equipment Corp filed Critical Digital Equipment Corp
Publication of JPH1153083A publication Critical patent/JPH1153083A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

(57)【要約】 【課題】 カメラで観察できるシーンの移動する対象物
と対話するためのコンピュータ化された方法及び装置を
提供する。 【解決手段】 コンピュータ化されたキオスクのアクテ
ィブな公共ユーザインターフェイスは、動き及びカラー
を用いて人間を視覚的に感知し、人間の存在を示す環境
の変化を検出する。対話空間が定義され、そしてシステ
ムは、非生命体の追加又は差し引きを反映すると共に照
明の変化を補償するように時間にわたって更新された環
境の初期モデルを記録する。システムは、移動する対象
物のモデルを開発し、従って、人間が対話空間に対して
移動するときに人間を追跡することができる。更に、ス
テレオカメラシステムは、位置及び動きを感知するシス
テムの能力を向上させる。キオスクは、それが「見た」
ものに対する応答において、音声及び視覚フィードバッ
クを与える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、一般に、コンピュ
ータシステムに係り、より詳細には、コンピュータ化さ
れた人間とコンピュータとのインターフェイスに係る。
【0002】
【従来の技術】コンピュータの視覚に基づくユーザの感
知は、新しいクラスの公共マルチユーザコンピュータイ
ンターフェイスを可能にする。自動情報供給キオスクの
ようなインターフェイスは、従来のデスクトップ環境と
は異なるコンピュータ規範を表し、従って、慣例的なウ
インドウ、アイコン、マウス及びポインタ(WIMP)
インターフェイスとは異なるユーザインターフェイスを
必要とする。その結果、ユーザインターフェイスが進化
し、デスクトップから移り変わるにつれて、視覚に基づ
く人間の感知は、人間とコンピュータとの対話において
益々重要な役割を演じるようになる。
【0003】コンピュータの視覚を使用する人間感知技
術は、キオスク型のコンピュータ化された機器のための
公共ユーザインターフェイスにおいて重要な役割を果た
すことができる。控え目のビデオカメラを用いたコンピ
ュータ視覚は、ユーザの三次元的な位置からユーザの顔
の表情並びに身体の姿勢及び動きに至るまでのユーザに
関する豊富な情報を供給することができる。視覚に基づ
く人間の感知は、益々注目を集めているが、この技術を
機能するユーザインターフェイスへと統合することにつ
いては、あまり研究がなされていない。
【0004】ショッピングモールのような公共空間の動
的な無制約の性質は、コンピュータ化されたキオスクの
ための挑戦的なユーザインターフェイス問題を提起す
る。このユーザインターフェイス問題は、公共ユーザイ
ンターフェイス問題と称され、組織された単一ユーザデ
スクトップ環境において行われる対話と区別することが
できる。完全に自動化された公共キオスクインターフェ
イスは、ユーザとの対話をアクティブに開始及び終了し
なければならない。又、キオスクは、そのリソースを多
数のユーザ間で公平に分割できねばならない。
【0005】アライブ(Alive) システムに適用されるユ
ーザを感知するための公知技術は、「ピーファインダ:
人体のリアルタイム追跡(Pfinder: Real Time Tracking
ofthe Human Bidy) 」、クリストファー・ウェレン、
アリ・アザベイヤニ、トレバー・ダレル、及びアレック
ス・ペントランド、IEEE1996年に説明されてい
る。別の公知システムは、「ブロブ特徴からの3−D形
状推定を用いたリアルタイム自己校正ステレオ個人追跡
(Real-time Self-calibration Stereo PersonTracking
Using 3-D Shape Estimation from Blob Features」、
アリ・アザベイヤニ及びアレックス・ペントランド、I
CPR、1996年1月号に説明されている。
【0006】
【発明が解決しようとする課題】アライブシステムは、
単一のユーザを感知するだけであり、制約のある仮想ワ
ールド環境のみに向けられたものである。ユーザは、仮
想ワールドに沈められ、対話のためのコンテクストは単
純であり、そして簡単な視覚及びグラフィック技術を使
用することができる。制約のない現実ワールド環境にお
いて多数のユーザを感知し、そしてその環境のコンテク
ストにおいて振る舞いで駆動される出力を与える場合に
は、公知システムにおいて対処されていない現実ワール
ドの対話が必要となるために更に複雑な視覚及びグラフ
ィックの問題が提起される。
【0007】アライブシステムは、ガウスの楕円のよう
な特定の幾何学形状のモデルを、人間のユーザを表す記
述に適合する。人間の形状モデルを「ブロブ(blob)」と
称する。形状を説明するこの方法は、一般に、融通性が
ない。アライブシステムは、ユーザの記述を1つの優勢
なカラーに制限するガウスのカラーモデルを使用してい
る。このような制限されたカラーモデルは、多数のユー
ザ間を区別するようにシステムの能力を制限する。
【0008】上記アザベイヤニの公知システムは、ガウ
スのカラーブロブモデルをベースとする自己校正ブロブ
ステレオ解決策を使用している。このシステムは、融通
性がないガウスモデルの全ての欠点を有する。このシス
テムの自己校正特徴は、単一ユーザが自己校正に関連し
た遅延を許容できるようなデスクトップ設定に適用でき
る。キオスク設定においては、システムが新たな各ユー
ザごとに直ちに機能するようにシステムを前もって校正
するのが好ましい。
【0009】公知システムは、地上平面におけるユーザ
の脚の配置を使用して、対話空間内におけるユーザの位
置を決定する。これは、制約のある仮想−現実空間では
適当な解決策であるが、この簡単な方法は、環境内の至
近物体によって遮られるためにユーザの脚が見えないよ
うな現実ワールドのキオスク設定では受け入れられな
い。更に、地上平面を検出する必要性は、環境に対して
強い制約を課する傾向となるので、実際には不便であ
る。コンピュータ視覚技術を用いて、ユーザを感知する
だけでなく、ユーザと対話もするようなコンピュータさ
れたキオスクのためのインターフェイス規範をもつこと
が要望される。
【0010】
【課題を解決するための手段】コンピュータのための公
共ユーザインターフェイスの問題は、人間を視覚感知
し、応答の振る舞いをモデリングし、そしてコンピュー
タ化されたキオスクのコンテクストにおいてユーザにオ
ーディオビジュアルフィードバックを与えるための本発
明のコンピュータ視覚技術により解決される。
【0011】本発明は、その広い形態において、カメラ
で観察できるシーンにおいて移動する対象物と対話する
ための請求項1及び請求項10に各々記載のコンピュー
タ化された方法及び装置に係る。以下に述べる好ましい
実施形態において、キオスクは、3つの基本的な機能要
素、即ち視覚感知要素、振る舞いモジュール、及びグラ
フィック/音声モジュールを有している。又、環境又は
観察されたシーンの三次元情報を含む任意の要素を有す
る。これら要素は、互いに対話して、ユーザの振る舞い
に対するセミインテリジェントな反応の効果を形成す
る。本発明は、リアルタイム視覚感知(運動検出、カラ
ー追跡及びステレオ距離測定)、及び振る舞いをベース
とするモジュールを使用して実施され、視覚入力データ
に基づいて出力を発生する。
【0012】
【発明の実施の形態】本発明は、添付図面を参照した好
ましい実施形態の以下の詳細な説明より良く理解されよ
う。図1は、公共のコンピュータユーザインターフェイ
ス10を示す。ユーザインターフェイス10は、ユーザ
の存在及び動きを含む現実ワールド環境20から情報を
取り入れる感知モジュール15を有する。この情報は、
振る舞いモジュール25において処理され、このモジュ
ールは、三次元モジュール30を使用して、フィードバ
ックモジュール35に通す適切な出力を決定する。シー
ンとも称する現実ワールド環境20の三次元モジュール
30は、そのワールドの見掛けを反映するメトリック情
報及びテクスチャの両方を含む。
【0013】図2に示すキオスク50は、キオスクのユ
ーザのためのディスプレイスクリーン55と、キオスク
50がユーザの存在を検出できるようにする複数のカメ
ラ60、65、70とを有する。3つのカメラが示され
ているが、単一のカメラ又は多数のカメラが使用されて
もよい。第1カメラ60は、床の領域に向けられる。第
1カメラ60の「円錐視野」は、第1の対話空間75と
定められる。第2及び第3のカメラ65、70は、キオ
スク環境に対してある距離をカバーするように向けられ
る。本発明のここに示す実施形態では、第2及び第3の
カメラ65、70は、キオスクから50フィートに向け
られる。第2及び第3のカメラ65、70によりカバー
される空間は、第2の対話空間80である。
【0014】キオスク50は、視覚感知モジュール15
を含み、このモジュールは、多数のコンピュータ視覚技
術、即ちアクティビティ検出、カラー認識及びステレオ
処理を使用して、対話空間75、80におけるユーザの
有無及びポーズを検出する。ポーズは、動きのような属
性と、対話空間75、80におけるユーザの三次元空間
位置とを含む。キオスクは、カメラからのカラーフレー
ムをデジタル化し、これは、キオスクの視覚感知モジュ
ール15により使用される。
【0015】図3は、キオスク50のブロック図であ
る。キオスク50は、デジタイザ105に接続された複
数のカメラ100を含む入力装置と、例えば音声出力の
ためのスピーカ110及び視覚出力のためのディスプレ
イスクリーン115を含む出力装置とを備えている。キ
オスク50は、メモリ/プロセッサ120と、視覚感知
モジュール15と、振る舞いモジュール25と、フィー
ドバックモジュール35とを備えている。又、キオスク
は、シーン20を表す三次元モジュール30も含む。視
覚感知モジュール15は、検出モジュール125と、追
跡モジュール130と、ステレオモジュール135の要
素とを備え、これらについては以下に詳細に述べる。
【0016】アクティビティ検出モジュール125は、
コンピュータ視覚技術を使用して、図2の対話空間にお
けるユーザの存在及び動きを検出する。キオスク50
は、1つ以上のカメラから対話空間の映像入力を受け入
れる。本発明の第1の実施形態では、アクティビティ検
出モジュール125は、図2に示すように床を向くよう
に取り付けられた単一のカメラ60からの映像入力を受
け入れる。動作中に、アクティビティ検出モジュール1
25は、映像信号の各フレームをリアルタイムで検査し
て、第1の対話空間75にユーザが存在するかどうか決
定し、もし存在すれば、その人間が動く速度及び方向を
決定する。アクティビティ検出モジュールは、動く対象
物が第1の対話空間75に入ったり出たりするたびにメ
ッセージ又は通知を振る舞いモジュールに送信する。
【0017】第1の対話空間75は、「ブロブ」が独立
して追跡される1つ以上のゾーンに仕切られる。通常の
カメラレンズを使用する場合には、1つのゾーンが適当
である。広角又は魚眼レンズを使用する場合には、図4
に示すように4つのゾーンが使用される。4つのゾーン
は、中央ゾーン250、左ゾーン255、右ゾーン26
0及び後方ゾーン265として定義される。4ゾーンモ
ードにおいては、アクティビティ検出のための計算が各
ゾーンにおいて独立して行われる。余計な計算は、アク
ティビティ検出プログラムを複雑にするが、ユーザが動
く速度を正確に推定できるようにする。
【0018】第1の対話空間75に4つのゾーンがある
場合には、キオスクは、中央ゾーン250のブロブ、即
ち潜在的なキオスクユーザに主として関連したものとな
る。ブロブが最初に中央ゾーン250に現れたときは、
その中央のブロブをおそらく発生したところの周囲ゾー
ンのブロブが選択される。このソースブロブの速度が中
央のブロブに指定される。アクティビティ検出プログラ
ムは、標準的なルールを適用し、どの周囲ゾーン(右、
左又は後方)が中央ゾーン250におけるブロブのソー
スであるか決定する。
【0019】アクティビティ検出モジュールは、基準フ
レームにおける各ピクセルと、新たなデジタル化された
フレームにおける対応ピクセルとの強度の差を見出すこ
とによりフレームを比較する。対応するピクセルは、そ
れらのグレーレベルが第1の所定のレベル以上の異なる
場合に「相違」とみなされる。アクティビティ検出プロ
グラムは、次々の像間の対象ブロブの動きを探索するこ
とにより、第1の対話空間75における人間と非生命物
体、例えば、がらくた片とを区別する。次々のフレーム
間で対象物ブロブが充分に移動する場合には、その対象
物が生きていると仮定される。次々の像において相違す
るピクセルの数が第2のスレッシュホールドより大きい
ときに「充分な動き」がある。
【0020】図5は、アクティビティ検出プログラムの
動作のフローチャートである。アクティビティ検出プロ
グラムの初期化(ブロック400)においては、第1の
対話空間75が空であり、キオスク50は、第1の対話
空間75における床のフレームを記録する。この最初の
フレームは、アクティビティ検出プログラムの基準フレ
ーム455となる。約30ミリ秒ごとに、新たなフレー
ムがデジタル化される(ブロック400)。次いで、こ
の新たなフレームと基準フレーム455との間で比較が
行われる(ブロック405)。新たなフレームが、第1
の所定のピクセルスレッシュホールド値に基づき基準フ
レーム455から充分に相違する場合には、アクティビ
ティ検出モジュールは、第1の対話空間75にユーザが
存在すると仮定する(ブロック410)。新たなフレー
ムが充分に相違しない場合には、アクティビティ検出プ
ログラムは、第1の対話空間75に誰もいないと仮定す
る(ブロック410)。アクティビティ検出プログラム
は、第1の対話空間75にユーザが存在すると仮定する
と決定した場合には、振る舞いモジュール25にメッセ
ージを送信する(ブロック420)。アクティビティ検
出プログラムが第1の対話空間75に誰もいないと決定
した場合には、振る舞いモジュールに通知がなされ(ブ
ロック415)、新たなフレームがデジタル化される
(ブロック400)。
【0021】ブロック410において、相違が第1の所
定のスレッシュホールドより大きい場合にも、振る舞い
モジュールに通知が与えられる(ブロック420)。こ
のメッセージは、何らかの生命体が対話空間75に存在
することを指示する。それと同時に、フレーム経歴ログ
425が、初期フレーム(ブロック400の)である5
つの新たな同一のフレームで初期化される(ブロック4
30)。大きなインターバルの間に(好ましい実施形態
では約10秒ごとに)捕獲される新たなフレーム(ブロ
ック435)は、次いで、ログの各フレームと比較さ
れ、第2のスレッシュホールドより高い差があるかどう
か決定される(ブロック440)。第2のスレッシュホ
ールドは、第1のスレッシュホールドより高感度の読み
を与える。第2のスレッシュホールドより高い差がある
場合には、フレーム経歴、即ち5フレーム回転バッファ
にフレームが追加される(ブロック430)。次いで、
ブロック430、440及び445のステップが繰り返
され、生命体が到着したことを指示する。第2のスレッ
シュホールドより低い差がある場合には(ブロック44
5)、フレームが基準フレームと混合され(ブロック4
50)、新たな基準フレーム455が形成される。アク
ティビティ検出プログラムの最終的な結果として、環境
へと漂遊することのある非生命体を捕獲するようにバッ
クグランドをゆっくりと進展できると共に、照明の変化
のようなゆっくりと変化する特性を受けることができ
る。
【0022】第1の対話空間75に移動物体が存在する
場合には、アクティビティ検出プログラムは、各映像フ
レームにおいて、その物体のブロブの代表的な点又は形
状の位置を追跡することにより、その物体の速度を計算
する。次々のフレームにおけるブロブの位置を平滑化
し、カルマンフィルタ動作のような既知の技術を使用し
てノイズの影響を減衰する。アクティビティ検出プログ
ラムは、検出されたブロブに基づきキオスクの対話空間
75における潜在的なユーザの存在の記録を維持する。
【0023】速度の計算 アクティビティ検出プログラムは、次々のフレームにお
けるブロブの位置を追跡することにより、第1の対話空
間75において移動するユーザの速度を計算する。この
速度を使用して、第1の対話空間75におけるブロブの
「意志」を指示する。即ち、速度を使用して、ブロブが
キオスクの潜在的なユーザを表すかどうか決定する。
【0024】速度は、時間に伴うブロブの位置の変化と
して計算される。速度を計算するために、ブロブの位置
は、移動するブロブの先縁の代表的な点の座標として定
義される。対話空間に1つのゾーンしかないときには、
代表的な点がブロブの先縁の中心となる。対話空間に4
つのゾーンがあるときには、各ゾーンにおいて代表的な
点が定義される。中央及び後方ゾーンにおいては、この
点は、ブロブ252、267の先縁の中心である。左ゾ
ーンにおいては、この点は、ブロブ262の右縁の前部
である。右ゾーンにおいては、この点は、ブロブ257
の左縁の前部である。ブロブの速度は、各ゾーンにおい
て独立して分析される。
【0025】振る舞いモジュール 図6に示す振る舞いモジュール25は、視覚モジュール
15の出力と、環境30の三次元モデルのような重要な
情報とを使用して、アクションを公式化する。振る舞い
モジュール25は、インテリジェントで且つ魅力的なも
のとして認知できる仕方でユーザの振る舞いに反応する
手段として1組のルール(例から学習するための潜在性
を伴う)を使用する。外部の視覚刺激に反応するメカニ
ズムは、既知の(又は学習した)移行ルールに基づく有
限の状態マシンの異なる状態と、入力状態との間の移行
に等しい。簡単な例として、振る舞いモジュール25
は、検出モジュール125の出力を用いて、ユーザの存
在を確認することができる。これは、ディスプレイスク
リーン55において「ハロー」と言うリアルタイムで話
をする頭部の形態を取ることができる。このような話を
する頭部は、「合成顔面のための自動唇同期アルゴリズ
ム(An Automatic Lip-Synchronization Algorithm for
Systhetics Faces) 」、ケイス・ウオータ及びトム・レ
バーグッド著、プロシーディングズ・オブ・ザ・マルチ
メディアACMコンファレンス、1994年9月の第1
49−156ページに掲載されている。更に複雑な例で
は、ステレオモジュール135(ユーザの現在三次元位
置を生じる)の出力を使用して、振る舞いモジュール2
5は、ユーザに対して固定するように話をする頭部を回
転することにより、特定のユーザに注意を集中するよう
に話をする頭部に指令することができる。多数のユーザ
の場合には、振る舞いモジュール25は、その注意をこ
れらユーザ間に分割するように話をする頭部に指令する
ことができる。発見的試行を適用して、キオスクが、1
人のユーザに他のユーザよりも多くの注意を払うように
することもできる(例えば、接近性又は視覚アクティビ
ティのレベルに基づいて)。別の例では、ステレオモジ
ュール135及び三次元ワールド情報30の両方を使用
することにより、振る舞いモジュール25は、ユーザの
現在の三次元位置に基づき、ユーザに視覚的に又は口述
で指令情報を発生することができる。
【0026】カラーブロブ カバーブロブは、キオスクのユーザが対話空間に対して
移動するときにユーザを追跡するのに使用される。ユー
ザの衣類のカラーの分布がYUVカラー空間においてヒ
ストグラムとしてモデリングされる。本発明により使用
されるカラーヒストグラム検出アルゴリズムは、「カラ
ーインデクシング(Color Indexing)」、ミッシェルJ.
スワイン及びダナH.バラード著、インターナショナル
・ジャーナル・オブ・コンピュータ・ビジョン、7:
1、1991年、第11−32ページに掲載された物体
検出の章に説明されている。本発明においては、カラー
ヒストグラム方法がユーザ追跡のために使用され、そし
てステレオ式の位置決めまで拡張される。
【0027】ヒストグラムモデルが与えられると、ヒス
トグラムインターセクションアルゴリズムを使用して、
そのモデルが入力フレームに整合される。このアルゴリ
ズムの後方投影段階は、ヒストグラムモデルに一致する
各ピクセルを表示する。表示されたピクセルのグループ
がカラーブロブを形成する。各ブロブごとに境界ボック
ス及び中心点が計算される。境界ボックス及び中心点
は、像におけるユーザの位置に対応する。境界ボックス
は、ブロブのx及びyの最小及び最大の境界である。カ
ラーブロブモデルは、キオスク環境においてユーザを追
跡するという利点を有する。主たる利益は、ユーザが視
覚的に異なる衣類を着用している限り多数のユーザを同
時に追跡できることである。ヒストグラムモデルは、2
つ以上の優勢なカラーで衣類を記述し、単一カラーモデ
ルよりも良好に選択できるようにする。ヒストグラム整
合は、NTSC解像度の像(640x480ピクセル)
に対しても非常に迅速に行うことができ、単一のユーザ
を30フレーム/秒で追跡することができる。又、カラ
ーブロブは、環境上の影響に不感である。カラーブロブ
は、ユーザとカメラとの間の距離が変化するときに広範
囲なスケールのもとで検出することができる。又、カラ
ーブロブは、回転及び部分的な遮断にも不感である。カ
ラー空間における強度を正規化することにより照明の変
化に対する健全さを達成することができる。しかしなが
ら、検出されるカラーブロブの中心位置は、照明の変化
により著しい影響を受ける。追跡にカラーを使用する場
合、ヒストグラムモデルを構築できるところの基準像が
必要となる。本発明のここに示す実施形態の構造では、
フレーム内の移動物体を検出するアクティビティ検出モ
ジュールにより最初のブロブ検出が行われる。アクティ
ビティ検出モジュールは、検出されたブロブが直立して
移動する人間に対応すると仮定し、そして検出されたブ
ロブの中央領域からピクセルをサンプリングして、カラ
ーヒストグラムモデルを構築する。
【0028】ステレオ ステレオ技術により、ユーザの位置に関する真の三次元
情報を、シーンに対し任意の位置にあるカメラから計算
することができる。ステレオ技術は、図7に示すよう
に、2つ以上のカメラからフレームを同時に収集するこ
とを必要とする。これは、シーンの形状の詳細な記述を
計算するための既知の方法である。古典的な解決策で
は、2つのカメラから得たフレームが処理され、そして
一対のカメラにおけるピクセル間の対応性が決定され
る。この対応性と、カメラの相対的な位置が与えられる
と、三角法を使用して、シーンにおける点までの距離が
計算される。古典的な解決策では、高レベルの細部が過
剰な計算リソースを必要とする。本発明の実施形態の方
法は、古典的なステレオ技術の簡単な物体ベースの形態
に基づくものである。移動物体は、同期したカメラから
得た像におけるカラー又は運動ブロブを使用して独立し
て追跡される。個別の視野における移動物体の位置に対
して三角法を使用して、シーンにおける物体が位置決め
される。三角法の前に追跡が行われるので、高密度のス
テレオ連合の通信及び計算コストが回避される。
【0029】三角法が図7に示されている。第1のカメ
ラ像702におけるブロブ700の位置が与えられる
と、ユーザ705の位置は、第1のカメラ715からブ
ロブ700の中心を経てシーンへと延びる線710に沿
って存在すると制約される。第2のカメラ像720にお
ける第2のブロブ712の位置が与えられると、ユーザ
705の位置は、第2の線725に沿って存在すると制
約される。ユーザ705は、シーンにおける第1の線7
10及び第2の線725の交点に位置する。実際の動作
においては、ブロブ700、712の位置のノイズによ
り、2本の線710、725が正確に交差することは仲
々ない。それ故、2本の線710、725が最も接近す
るシーンの点を、ユーザ705の三次元位置として選択
する。
【0030】キオスクシステムの好ましい実施形態で
は、6フィートの基線、即ちカメラ間の分離をもつ一対
の縁取りされたカメラが使用される。ステレオ解決策
は、内部カメラパラメータ及びカメラ座標系間の関係の
両方が既知である校正されたカメラを有することに依存
する。これらパラメータを決定するための校正パターン
を伴う標準的な非直線性最小2乗アルゴリズムが使用さ
れる。カメラの同期は、カメラの外部同期入力を一緒に
連結することにより達成される。カメラの像を処理する
ブロブ追跡モジュールが同時に動作を開始するよう確保
するためにバリア同期が使用される。同期エラーは、従
来のステレオシステムに著しい影響を及ぼすが、大きさ
サイズ及び範囲をもつブロブは、これらのエラーに対し
てステレオシステムを非常に健全なものにする。
【0031】上記の実施形態は、本発明の原理を単に例
示するものに過ぎないことを理解されたい。本発明は、
キオスクに関して説明したが、別の実施形態として、自
動銀行窓口装置(ATM)、高級なマルチメディアT
V、又はオフィス用デスクコンピュータを挙げることが
できる。又、当業者であれば、本発明の範囲内で本発明
を用いて種々の他の変更や修正がなされ得ることが明ら
かであろう。
【図面の簡単な説明】
【図1】公共のコンピュータ化されたユーザインターフ
ェイスのブロック図である。
【図2】キオスク及び対話空間を示す図である。
【図3】キオスクのブロック図である。
【図4】4ゾーンインターフェイス空間を示す図であ
る。
【図5】アクティビティ検出プログラムのフローチャー
トである。
【図6】振る舞いモジュールプロセスのブロック図であ
る。
【図7】ユーザのステレオ検出の構成を示す図である。
【符号の説明】
10 コンピュータユーザインターフェイス 15 感知モジュール 20 現実ワールド環境 25 振る舞いモジュール 30 三次元モデル 35 フィードバックモジュール 50 キオスク 55 ディスプレイスクリーン 60、65、70 カメラ 75、80 対話空間 105 デジタイザ 110 スピーカ 120 メモリ/プロセッサ 125 検出モジュール 130 追跡モジュール 135 ステレオモジュール
フロントページの続き (51)Int.Cl.6 識別記号 FI G06T 7/20 G06F 15/70 410 (72)発明者 マリア ロークリン アメリカ合衆国 マサチューセッツ州 02178ベルモント ワトソン ロード 80 (72)発明者 ジェームズ エム レーグ アメリカ合衆国 マサチューセッツ州 02174アーリントン ウィンター ストリ ート 73 (72)発明者 シン ビン カン アメリカ合衆国 マサチューセッツ州 02138ケンブリッジ マサチューセッツ アベニュー 1600−702

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 カメラで観察できるシーンの移動対象物
    又は人間と対話するためのコンピュータ化された方法に
    おいて、 シーンの次々のフレームを比較することにより移動対象
    物の姿勢を決定し、 次々のフレームの比較により決定された移動対象物の姿
    勢に基づき移動対象物により感知できる情報を出力す
    る、という段階を含むことを特徴とする方法。
  2. 【請求項2】 移動対象物の姿勢は、移動対象物の位置
    を含み、更に、この位置は、三次元空間において決定さ
    れ、そしてシーンを観察するために多数のカメラが使用
    される請求項1に記載の方法。
  3. 【請求項3】 上記シーンは、複数の移動対象物を含
    み、上記方法は、複数の移動対象物の優勢なカラーを観
    察して、いずれの移動対象物とも独立して対話すること
    を含む請求項1に記載の方法。
  4. 【請求項4】 手前のフレームと次のフレームとの間の
    相違が所定値よりも大きい場合にはシーンの手前のフレ
    ームをバッファに繰り返し記憶し、 バッファに記憶されたフレームを分析することにより移
    動物体の姿勢を決定することを更に含む請求項1に記載
    の方法。
  5. 【請求項5】 カメラで観察できるシーンの移動対象物
    又は人間と対話するためのコンピュータ化された装置に
    おいて、 シーンの次々のフレームを比較することにより移動対象
    物の姿勢を決定するための手段と、 次々のフレームの比較により決定された移動対象物の姿
    勢に基づき移動対象物により感知できる情報を出力する
    ための手段と、を備えたことを特徴とする装置。
  6. 【請求項6】 人々と対話するためのコンピュータ化さ
    れたインターフェイスにおいて、 任意の物理的環境の領域を一連の像として測定するカメ
    ラと、 上記一連の像から上記領域の人間を検出し、その人間を
    対話のターゲットとして識別する手段と、を備えたこと
    を特徴とするインターフェイス。
  7. 【請求項7】 上記検出された人間に向けられる音声及
    び視覚情報をレンダリングするための手段と、 上記領域における人間の速度を決定するための手段とを
    更に備え、 上記レンダリングされる音声及び映像情報の内容は、人
    間の速度に依存し、 上記レンダリングする手段は、目と口及び唇を含む頭部
    の像を表示するディスプレイシステムを含み、このディ
    スプレイシステムは、検出された人間の頭部の向き及び
    目の凝視点を指令しながら、唇の動きに同期した音声情
    報をレンダリングして、その頭部が人間を見て話すよう
    に見えるようにする請求項6に記載のインターフェイ
    ス。
  8. 【請求項8】 上記一連の像は、基準像及びターゲット
    像を含み、各像は、ピクセルにより定義され、基準像の
    ピクセルは、ターゲット像のピクセルと1対1で対応
    し、そして更に、 基準像をターゲット像と比較して、ターゲット像の対応
    ピクセルとは相違する基準像の隣接ピクセルのグループ
    を識別するための手段を備え、識別されたピクセルグル
    ープは、人間を表し、上記比較手段は、基準像の各ピク
    セルの強度を、ターゲット像の各対応ピクセルの強度と
    比較し、そして上記検出手段は、基準像の少なくとも所
    定数のピクセルの強度が、ターゲット像の対応ピクセル
    の強度と異なるときに、領域における人間の存在を検出
    する請求項6に記載のインターフェイス。
  9. 【請求項9】 基準像の所定数より少ないピクセルがタ
    ーゲット像の対応ピクセルと異なるときには、ターゲッ
    ト像を基準像と混合して新たな基準像を形成するための
    手段を更に備えた請求項8に記載のインターフェイス。
  10. 【請求項10】 人々と対話するためのコンピュータ化
    されたインターフェイスにおいて、 任意の物理的環境の領域を一連の像として測定するカメ
    ラと、 上記一連の像から領域において検出された人間に向けら
    れる音声及び映像情報をレンダリングして人間と対話す
    るための手段と、を備えたことを特徴とするインターフ
    ェイス。
JP9893598A 1997-04-18 1998-04-10 アクティブな公共インターフェイスのための人間の視覚的感知方法及び装置 Pending JPH1153083A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/844444 1997-04-18
US08/844,444 US6256046B1 (en) 1997-04-18 1997-04-18 Method and apparatus for visual sensing of humans for active public interfaces

Publications (1)

Publication Number Publication Date
JPH1153083A true JPH1153083A (ja) 1999-02-26

Family

ID=25292729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9893598A Pending JPH1153083A (ja) 1997-04-18 1998-04-10 アクティブな公共インターフェイスのための人間の視覚的感知方法及び装置

Country Status (4)

Country Link
US (1) US6256046B1 (ja)
EP (1) EP0872808B1 (ja)
JP (1) JPH1153083A (ja)
DE (1) DE69832119T2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010282463A (ja) * 2009-06-05 2010-12-16 Newcom Inc タッチパネル装置
JP2013513154A (ja) * 2009-12-04 2013-04-18 ティーピー ビジョン ホールディング ビー ヴィ 装置のステータスを制御するための方法及び装置
JP2015504204A (ja) * 2011-12-13 2015-02-05 アルカテル−ルーセント コンピュータアプリケーションの対話型制御の方法
JP2015514519A (ja) * 2012-11-02 2015-05-21 アイロボット コーポレイション 自律式カバレッジロボット

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6610917B2 (en) 1998-05-15 2003-08-26 Lester F. Ludwig Activity indication, external source, and processing loop provisions for driven vibrating-element environments
KR100361497B1 (ko) * 1999-01-08 2002-11-18 엘지전자 주식회사 얼굴영역 추출방법
EP1083769B1 (en) * 1999-02-16 2010-06-09 Yugen Kaisha GM & M Speech converting device and method
GB2352859A (en) * 1999-07-31 2001-02-07 Ibm Automatic zone monitoring using two or more cameras
US6315197B1 (en) * 1999-08-19 2001-11-13 Mitsubishi Electric Research Laboratories Vision-enabled vending machine
GB9924787D0 (en) * 1999-10-21 1999-12-22 Ncr Int Inc Self-service terminals
US6771818B1 (en) * 2000-04-04 2004-08-03 Microsoft Corporation System and process for identifying and locating people or objects in a scene by selectively clustering three-dimensional regions
US6937744B1 (en) * 2000-06-13 2005-08-30 Microsoft Corporation System and process for bootstrap initialization of nonparametric color models
US7242421B2 (en) * 2000-11-10 2007-07-10 Perceptive Network Technologies, Inc. Methods of establishing a communications link using perceptual sensing of a user's presence
ES2169004B1 (es) * 2000-11-27 2003-11-16 Hergos Sist S Digitales Y Ergo Punto de informacion turistico-tematico ergonomico.
US7675503B2 (en) * 2000-11-29 2010-03-09 Ncr Corporation Method of displaying information by a network kiosk
US7076429B2 (en) * 2001-04-27 2006-07-11 International Business Machines Corporation Method and apparatus for presenting images representative of an utterance with corresponding decoded speech
GB0121506D0 (en) * 2001-09-06 2001-10-24 Koninkl Philips Electronics Nv Consensual service registration and delivery
US7286112B2 (en) * 2001-09-27 2007-10-23 Fujifilm Corporation Image display method
US20030126013A1 (en) * 2001-12-28 2003-07-03 Shand Mark Alexander Viewer-targeted display system and method
US6619545B2 (en) * 2002-01-15 2003-09-16 International Business Machines Corporation Kiosk having a people presence detector to determine if a kiosk item is to be presented to a customer
ES2233127B1 (es) * 2002-06-07 2006-05-16 Universidad De Las Palmas De Gran Canaria Sistema de informacion interactivo inteligente (kiosko inteligente).
CA2516187A1 (en) * 2002-11-26 2004-06-10 The Advertizing Firm, Inc. Method and system of advertising
US7590941B2 (en) * 2003-10-09 2009-09-15 Hewlett-Packard Development Company, L.P. Communication and collaboration system using rich media environments
JP3847753B2 (ja) * 2004-01-30 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US7079173B2 (en) * 2004-02-04 2006-07-18 Hewlett-Packard Development Company, L.P. Displaying a wide field of view video image
US7787009B2 (en) * 2004-05-10 2010-08-31 University Of Southern California Three dimensional interaction with autostereoscopic displays
US20070092110A1 (en) * 2004-11-08 2007-04-26 Li-Qun Xu Object tracking within video images
US20060204036A1 (en) * 2005-03-09 2006-09-14 Dean Huang Method for intelligent video processing
DE102006016267A1 (de) * 2006-04-06 2007-10-11 Vis-à-pix GmbH System und Verfahren zu einem automatischen Auslösen eines virtuellen Wahrnehmungsereignisses
US20080004953A1 (en) * 2006-06-30 2008-01-03 Microsoft Corporation Public Display Network For Online Advertising
US8588464B2 (en) * 2007-01-12 2013-11-19 International Business Machines Corporation Assisting a vision-impaired user with navigation based on a 3D captured image stream
US8269834B2 (en) * 2007-01-12 2012-09-18 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US8295542B2 (en) 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US8081158B2 (en) * 2007-08-06 2011-12-20 Harris Technology, Llc Intelligent display screen which interactively selects content to be displayed based on surroundings
CN101971128B (zh) * 2007-12-05 2013-07-17 阿尔梅瓦股份公司 屏幕与指针对象之间交互用的交互装置
US7489334B1 (en) * 2007-12-12 2009-02-10 International Business Machines Corporation Method and system for reducing the cost of sampling a moving image
US9241094B2 (en) * 2008-03-18 2016-01-19 Intel Corporation Capturing event information using a digital video camera
US9256789B2 (en) 2008-03-21 2016-02-09 Intel Corporation Estimating motion of an event captured using a digital video camera
US9251423B2 (en) 2008-03-21 2016-02-02 Intel Corporation Estimating motion of an event captured using a digital video camera
US8345014B2 (en) 2008-07-12 2013-01-01 Lester F. Ludwig Control of the operating system on a computing device via finger angle using a high dimensional touchpad (HDTP) touch user interface
US8520979B2 (en) * 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
US8730183B2 (en) * 2009-09-03 2014-05-20 Obscura Digital Large scale multi-user, multi-touch system
US9274699B2 (en) * 2009-09-03 2016-03-01 Obscura Digital User interface for a large scale multi-user, multi-touch system
US20110055703A1 (en) * 2009-09-03 2011-03-03 Niklas Lundback Spatial Apportioning of Audio in a Large Scale Multi-User, Multi-Touch System
US20110050640A1 (en) * 2009-09-03 2011-03-03 Niklas Lundback Calibration for a Large Scale Multi-User, Multi-Touch System
WO2011029055A1 (en) * 2009-09-03 2011-03-10 Obscura Digital, Inc. Apparatuses, methods and systems for a visual query builder
WO2011067188A1 (en) * 2009-12-02 2011-06-09 Nestec S.A. Beverage preparation machine with ambience emulation functionality
US8594838B2 (en) * 2009-12-14 2013-11-26 Massachusetts Institute Of Technology Vending machine
US9244533B2 (en) * 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US8933884B2 (en) * 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8334842B2 (en) * 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
AU2012245285A1 (en) 2011-04-22 2013-11-21 Pepsico, Inc. Beverage dispensing system with social media capabilities
RU2013158143A (ru) * 2011-05-30 2015-07-10 Конинклейке Филипс Н.В. Способ и устройство определения положения тела во время сна
US9218704B2 (en) 2011-11-01 2015-12-22 Pepsico, Inc. Dispensing system and user interface
US9836590B2 (en) * 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
US9081413B2 (en) * 2012-11-20 2015-07-14 3M Innovative Properties Company Human interaction system based upon real-time intention detection
CN109597939A (zh) * 2013-04-26 2019-04-09 瑞典爱立信有限公司 检测注视用户以在显示器上提供个性化内容
PL403724A1 (pl) 2013-05-01 2014-11-10 Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie System rozpoznawania mowy i sposób wykorzystania dynamicznych modeli i sieci Bayesa
US10958877B2 (en) * 2014-11-12 2021-03-23 Helmerich & Payne Technologies, Llc System and method for inhibiting or causing automated actions based on person locations estimated from multiple video sources
CA2967774C (en) 2014-11-12 2023-03-28 Covar Applied Technologies, Inc. System and method for measuring characteristics of cuttings and fluid front location during drilling operations with computer vision
US11172005B2 (en) * 2016-09-09 2021-11-09 Nokia Technologies Oy Method and apparatus for controlled observation point and orientation selection audiovisual content
US10867398B2 (en) * 2017-11-21 2020-12-15 Reliance Core Consulting LLC Methods, systems, apparatuses and devices for facilitating motion analysis in an environment
CN108616763B (zh) * 2018-04-09 2020-11-17 西安万像电子科技有限公司 多媒体数据的推送方法、装置和***
US10769909B1 (en) * 2018-07-02 2020-09-08 Amazon Technologies, Inc. Using sensor data to detect events

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2845926B2 (ja) * 1989-03-20 1999-01-13 株式会社日立製作所 マンマシンシステム
US5099322A (en) 1990-02-27 1992-03-24 Texas Instruments Incorporated Scene change detection system and method
US5164992A (en) 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
ATE203844T1 (de) * 1992-03-20 2001-08-15 Commw Scient Ind Res Org Gegenstands-überwachungsystem
IT1257073B (it) * 1992-08-11 1996-01-05 Ist Trentino Di Cultura Sistema di riconoscimento, particolarmente per il riconoscimento di persone.
US5511153A (en) 1994-01-18 1996-04-23 Massachusetts Institute Of Technology Method and apparatus for three-dimensional, textured models from plural video images
CA2151073A1 (en) * 1994-07-28 1996-01-29 Bishnu Saroop Atal Intelligent human interface system
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
JP3497929B2 (ja) * 1995-09-29 2004-02-16 富士重工業株式会社 侵入物監視装置
DE59709213D1 (de) * 1996-07-12 2003-03-06 Siemens Ag Anordnung und Verfahren zur Aktivierung und Deaktivierung einer rechnergestützten Anwendung
JP3749369B2 (ja) * 1997-03-21 2006-02-22 株式会社竹中工務店 ハンドポインティング装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010282463A (ja) * 2009-06-05 2010-12-16 Newcom Inc タッチパネル装置
JP2013513154A (ja) * 2009-12-04 2013-04-18 ティーピー ビジョン ホールディング ビー ヴィ 装置のステータスを制御するための方法及び装置
JP2015504204A (ja) * 2011-12-13 2015-02-05 アルカテル−ルーセント コンピュータアプリケーションの対話型制御の方法
JP2015514519A (ja) * 2012-11-02 2015-05-21 アイロボット コーポレイション 自律式カバレッジロボット
JP2016028773A (ja) * 2012-11-02 2016-03-03 アイロボット コーポレイション 自律式カバレッジロボット

Also Published As

Publication number Publication date
US6256046B1 (en) 2001-07-03
EP0872808B1 (en) 2005-11-02
DE69832119T2 (de) 2006-08-03
EP0872808A1 (en) 1998-10-21
DE69832119D1 (de) 2005-12-08

Similar Documents

Publication Publication Date Title
JPH1153083A (ja) アクティブな公共インターフェイスのための人間の視覚的感知方法及び装置
US11126257B2 (en) System and method for detecting human gaze and gesture in unconstrained environments
US6594616B2 (en) System and method for providing a mobile input device
KR100845390B1 (ko) 영상 처리기, 영상 처리 방법, 기록 매체, 및 반도체 장치
Wren et al. Pfinder: Real-time tracking of the human body
Rehg et al. Vision for a smart kiosk
JP4899729B2 (ja) 3次元マルチカメラビデオ監視支援システム、3次元マルチカメラビデオ監視支援方法、3次元マルチカメラビデオ監視支援プログラム
US8081822B1 (en) System and method for sensing a feature of an object in an interactive video display
CN104011628B (zh) 用于识别姿势的方法和姿势检测器
US20020041327A1 (en) Video-based image control system
CN102253711A (zh) 使用深度传感相机来增强演示
JP2007080262A (ja) 3次元マルチカメラビデオナビゲーション支援システム、3次元マルチカメラビデオナビゲーション支援方法、3次元マルチカメラビデオナビゲーション支援プログラム
JP2011095797A (ja) 画像処理装置、画像処理方法及びプログラム
CN102622774A (zh) 起居室电影创建
JP2016510144A (ja) ナチュラルユーザインプットの関与の検出
JP2004246578A (ja) 自己画像表示を用いたインタフェース方法、装置、およびプログラム
JP7162079B2 (ja) 頭部のジェスチャーを介してディスプレイ装置を遠隔制御する方法、システムおよびコンピュータプログラムを記録する記録媒体
Waters et al. Visual sensing of humans for active public interfaces
WO2019067642A1 (en) APPLICATION PRESENTATION BASED ON AN ENVIRONMENT
Polat et al. Robust tracking of human body parts for collaborative human computer interaction
Kim et al. Eye mouse: mouse implementation using eye tracking
US11893207B2 (en) Generating a semantic construction of a physical setting
Munoz-Salinas et al. People detection and tracking through stereo vision for human-robot interaction
Sparacino et al. Browsing 3-D spaces with 3-D vision: body-driven navigation through the Internet city
Bentley et al. Perceptive presence

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080331

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080916