JP2002259989A - ポインティングジェスチャ検出方法及びその装置 - Google Patents

ポインティングジェスチャ検出方法及びその装置

Info

Publication number
JP2002259989A
JP2002259989A JP2001058570A JP2001058570A JP2002259989A JP 2002259989 A JP2002259989 A JP 2002259989A JP 2001058570 A JP2001058570 A JP 2001058570A JP 2001058570 A JP2001058570 A JP 2001058570A JP 2002259989 A JP2002259989 A JP 2002259989A
Authority
JP
Japan
Prior art keywords
face
camera
center
gravity
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001058570A
Other languages
English (en)
Inventor
Hiromi Watanabe
博己 渡辺
Hitoshi Hongo
仁志 本郷
Mamoru Yasumoto
護 安本
Kazuhiko Yamamoto
山本  和彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Gifu Prefecture
Original Assignee
Gifu Prefecture
Japan Science and Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gifu Prefecture, Japan Science and Technology Corp filed Critical Gifu Prefecture
Priority to JP2001058570A priority Critical patent/JP2002259989A/ja
Publication of JP2002259989A publication Critical patent/JP2002259989A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】空間のどの方向をポインティングしてもポイン
ティングジェスチャを検出できるポインティングジェス
チャ検出方法及びその装置を提供する。 【解決手段】検出装置10は被験者Hの周囲の所定ポイ
ントに配置したビデオカメラ11から画像データを入力
し、各ポイントにおける被験者Hの顔領域検出を行い、
検出した顔領域に基づいて各ポイントにおける顔向き推
定を行うカメラ用パソコン14とを備える。メインパソ
コン16はカメラ用パソコン14が推定した顔向きに基
づいて、正面顔の絶対顔方向を検出する。メインパソコ
ン16は検出した正面顔の絶対顔方向側に位置する2つ
のポイントからビデオカメラ11が撮像した画像データ
中の、顔領域及び手領域の重心のそれぞれの3次元空間
位置を算出し、算出した顔領域の重心と手領域の重心の
3次元空間位置に基づいてポインティング方向を推定す
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、手の指示方向がど
の方向であっても、その指示方向を検出できるポインテ
ィングジェスチャ検出方法及びその装置に関するもので
ある。
【0002】
【従来の技術】従来より、人物の視線や動作など、人間
をセンシングして得られる情報と、物体センシングによ
り構築された周辺環境とから、その人の要望を察知し、
その人の意図に適したサービスを提供することが提案さ
れている。これらを実現するためには、人間とその周辺
環境をセンシングし、その人が何を見て、どのような動
作を行っているかを知ることが重要なこととなる。特に
動作は、相手に意図を伝えるためには欠かせない情報の
1つである。
【0003】動作には、頭や手、或いは体全体などを使
った動作があるが、特に手の動作は、動作している人の
意図を伝達することができる有効な手段である。手の動
きによる日常的な動作の1つにポインティングジェスチ
ャがあるが、これは人の関心領域を相手に伝えるために
は欠かせない動作である。
【0004】すでにポインティングジェスチャを対象と
した検出方法や装置は、例えば、「実空間強化とヒュー
マン・ロボットインタフェース−実空間にマークを投影
する指さしポインタの拡張−」(第17回日本ロボット
学会学術講演会、pp.417−418,1999)等
により提案されている。
【0005】
【発明が解決しようとする課題】しかしながら、これら
はポインティング方向が限定されているため、その限定
された領域内のオブジェクトしか扱うことができない問
題がある。
【0006】本発明は上記問題点を解決するためになさ
れたものであって、その目的は、空間をどの方向をポイ
ンティング(指さし)してもポインティングジェスチャ
を検出できるポインティングジェスチャ検出方法及びそ
の装置を提供することにある。
【0007】
【課題を解決するための手段】上記問題点を解決するた
め、請求項1記載の発明は、被験者の周囲の所定ポイン
トから、被験者を撮像する撮像手段と、撮像手段が撮像
した画像データから、各ポイントにおける被験者の顔領
域検出を行い、検出した顔領域に基づいて各ポイントに
おける顔向き推定を行う顔向き推定手段と、顔向き推定
手段が推定した顔向きに基づいて、正面顔の絶対顔方向
を検出する正面顔検出手段と、正面顔検出手段が検出し
た正面顔の絶対顔方向側に位置する少なくとも2つのポ
イントから撮像手段が撮像した画像データ中の、顔領域
に属する第1の所定部位及び手領域に属する第2の所定
部位のそれぞれの3次元空間位置を算出し、算出した第
1の所定部位と第2の所定部位の3次元空間位置に基づ
いてポインティング方向を推定するポインティング方向
推定手段を備えたポインティングジェスチャ検出装置を
要旨とするものである。
【0008】請求項2の発明は、請求項1において、第
1の所定部位は、顔領域の重心であることを特徴とす
る。請求項3の発明は、請求項1において、第1の所定
部位は、顔領域内に位置する眼部の重心であることを特
徴とする。
【0009】請求項4の発明は、請求項1乃至請求項3
のいずれか1項において、第2の所定部位は、手領域の
重心であること。請求項5の発明は、請求項1乃至請求
項3のうちいずれか1項において、第2の所定部位は、
手領域の端点であることを特徴とする。
【0010】請求項6の発明は、被験者の周囲の所定ポ
イントから、被験者を撮像する行程と、撮像した画像デ
ータから、各ポイントにおける被験者の顔領域検出を行
い、検出した顔領域に基づいて各ポイントにおける顔向
き推定を行う顔向き推定行程と、顔向き推定した顔向き
に基づいて、正面顔の絶対顔方向を検出する正面顔検出
行程と、正面顔検出行程において検出した正面顔の絶対
顔方向側に位置する少なくとも2つのポイントから撮像
した画像データ中の、顔領域に属する第1の所定部位及
び手領域に属する第2の所定部位のそれぞれの3次元空
間位置を算出する行程と、算出した第1の所定部位と第
2の所定部位の3次元空間位置に基づいてポインティン
グ方向を推定する行程を備えたポインティングジェスチ
ャ検出方法を要旨とするものである。
【0011】請求項7の発明は、請求項6において、第
1の所定部位は、顔領域の重心であることを特徴とす
る。請求項8の発明は、請求項6において、第1の所定
部位は、顔領域内に位置する眼部領域の重心であること
を特徴とする。
【0012】なお、本明細書では、眼部領域の重心と
は、人の顔にある一対の眼部のうちいずれか一方の眼部
領域の重心や、両眼部領域を総合した場合の重心も含む
趣旨である。
【0013】請求項9の発明は、請求項6乃至請求項8
のうちいずれか1項において、第2の所定部位は、手領
域の重心であることを特徴とする。請求項10の発明
は、請求項6乃至請求項8のうちいずれか1項におい
て、第2の所定部位は、手領域の端点であることを特徴
とする。
【0014】
【発明の実施の形態】以下、本発明のポインティングジ
ェスチャ検出装置(以下、検出装置という)を具体化し
た一実施の形態を図1〜図10を参照して説明する。
【0015】検出装置10は、複数台のビデオカメラ
(3CCDカメラ)11、タイムコード発生器12、タ
イムコードインポーザ13、カメラ用パソコン14、画
面合成スイッチャ15、メインパソコン16、同期信号
発生器17等を備えている。カメラ用パソコン14、メ
インパソコン16はそれぞれ図示しないキーボード等の
入力手段を備えており、作業者が種々の操作信号を入力
可能にされている。従って、各パソコン14,16は入
力したその操作信号に応じて、各パソコンが備えている
記憶装置(図示しない)に予め格納したポインティング
ジェスチャ検出のためのプログラムを実行する。又、こ
のプログラムは、その時々において、作業者に必要な操
作信号の入力を図示しないディスプレイ上において促
し、その操作信号の入力があると、フローチャートにお
ける各ステップを実行するようにされている。
【0016】本実施形態では、室内空間において、ビデ
オカメラ11は8台用意されている。ビデオカメラ11
は互いに同一高さに位置するように、かつ、光軸が床面
と水平になるように設置されている。そして、各ビデオ
カメラ11は予め定めた室内中心Oに対してその光軸を
向けるように等角度間隔(本実施形態では45度間隔)
で放射状に配置されている。なお、図1では、被験者H
が室内中心Oに位置しているが、被験者Hは、必ずし
も、室内中心Oに位置する必要はない。本実施形態で
は、室内中心Oの高さは、ビデオカメラ11の取付高さ
の位置と同一としている。又、本実施形態では、被験者
Hである人物の腰から上、すなわち、顔及び任意に延ば
した手が位置する空間域を撮像可能に各ビデオカメラ1
1を配置している。
【0017】なお、室内空間の照明は適度な画像データ
が得られる図示しない蛍光灯を使用している。各ビデオ
カメラ11には、同期信号発生器17から共通の外部同
期信号(ゲンロック(GEN LOCK)信号)が供給
されている。このことにより、ディジタル化されたフレ
ームにおいて、完全に同期した画像データが得られる。
各ビデオカメラ11毎に複数のタイムコードインポーザ
13がそれぞれ接続されている。
【0018】タイムコード発生器(LTC(logtitudin
al time code)ジェネレータ)12は、タイムコード
を生成して各タイムコードインポーザ13に出力し、各
タイムコードインポーザ13はそのタイムコードをVI
TC(vertical intervaltime c ode)に変換した
後、各ビデオカメラ11が撮像したビデオ信号の垂直ブ
ランク領域に書き込む。このように各ビデオカメラ11
のビデオ信号にタイムコードを書き込むことで、全ての
ビデオカメラ11で撮影された個々のフレーム(画像デ
ータ)の撮影時刻の特定が可能になっている。
【0019】各タイムコードインポーザ13毎に複数の
カメラ用パソコン14がそれぞれ接続されている。カメ
ラ用パソコン14は、ビデオレートのカラー画像(64
0×480)を入力するようになっている。
【0020】カメラ用パソコン14に入力された画像
は、画面合成スイッチャ15を介してメインパソコン1
6に入力される。メインパソコン16は、画面合成スイ
ッチャ15を制御することにより、カメラ用パソコン1
4からの入力画像を切り替えることが可能である。
【0021】なお、メインパソコン16は、各カメラ用
パソコン14との通信をイーサネット(登録商標)を介
したソケット通信で行うようにし、画面合成スイッチャ
15に対しては図示しないSIO(シリアル入出力装
置)で制御するようにしている。
【0022】(作用)以下、本実施形態の検出装置10
の作用について説明する。まず、検出装置10が行うポ
インティングジェスチャ検出の概要を説明する。
【0023】各ビデオカメラ11は、被験者Hがポイン
ティングジェスチャをしている状態を撮像し、タイムコ
ードインポーザ13を介して各カメラ用パソコン14に
入力する。メインパソコン16からの要求信号に基づい
て、各カメラ用パソコン14はビデオカメラ11からの
画像のキャプチャを行い、続いて肌色領域抽出を行い、
顔向き推定を行い、顔向き推定結果をメインパソコン1
6に送信する。メインパソコン16は、カメラ用パソコ
ン14から入力した顔向き推定結果に基づいて顔向きを
統合判定し、画面合成スイッチャ15を制御して、2台
のビデオカメラ11を選択し、得られたカメラ画像から
それぞれの手・顔領域を検出する。そして、検出された
それぞれの手・顔領域の重心位置から、空間内における
手・顔領域の三次元位置を算出し、2点間を結んだ直線
方向をポインティング方向とする。
【0024】以下、図2のフローチャートを参照して詳
細に説明する。 (顔領域抽出)各カメラ用パソコン14は、ビデオカメ
ラ11からのフレーム(画像データ、例えば図8
(a)、(b)参照)をキャプチャした後(ステップ1
参照、以下ステップをSという。)、顔領域抽出を行
う。顔領域検出は、色情報を用いた公知の肌色基準値に
よる手法を用いている。本実施形態では、均等知覚色空
間の1つであるLUV表色系を用いている。
【0025】まず、入力された画像データから、画像の
全領域に亘り、U,V座標値による2次元色ヒストグラ
ムを求め、予め定めた肌色有効範囲内のピーク値(度数
が最大の値)を肌色基準値とする。その基準値からの色
差に対して公知の判別分析法を適用して閾値を決定し、
その閾値に基づいて肌色領域とその他の領域に2値化す
る。本実施形態では、被験者Hが一人の場合を想定して
いるため、複数の肌色領域が検出された場合には、各カ
メラ用パソコン14は最大領域を顔領域と判定する(S
2)。すなわち、抽出された複数の肌色領域にて、画素
数(面積)を求め、最大面積Smaxの領域を顔領域とす
る。
【0026】(顔向き推定)次に、S3において、各カ
メラ用パソコン14は対応するビデオカメラ11から得
た画像データに基づいて顔向き推定を行う。
【0027】本実施形態では、顔向き推定は、4方向面
特徴抽出した結果を線形判別分析により、顔向きの判別
空間を作成する方法で行っている。4方向面特徴抽出で
は、画像データの濃淡値の勾配により各画素での4方向
(縦、横、右斜め45度、左斜め45度)のベクトル場
を求め、方向別に分割したエッジ画像を得る。得られた
エッジ画像は方向性を持った濃淡画像となる。
【0028】具体的には、S2において入力した画像デ
ータからPrewittオペレータを用いて、微分フィルタと
してのプレヴィットフィルタ処理を行い、水平(横)、
垂直(縦)、右上がり45度(右斜め45度)、右下が
り45度(左斜め45度)の4方向のそれぞれのエッジ
画像を生成する。これらのエッジ画像を、以下、方向面
という。次に、これらの4方向面のそれぞれの画像を顔
領域で正規化し、8×8に低解像度化して、各方向面の
画素の濃淡値を特徴量(以下、特徴ベクトルという。)
として抽出する。
【0029】この特徴量は4つの方向面に分けてから解
像度を低くしているため、入力画像の解像度を直接低く
する場合よりも、高解像度でエッジ情報が保持される。
その結果、位置ずれや、形状変化の影響を受けにくく、
かつ計算コストを削減して処理の高速化が可能となる。
【0030】次に、各カメラ用パソコン14は線形判別
分析を行う。なお、線形判別分析は、抽出された特徴量
(特徴ベクトル:xi)が、どのクラスに属するかを判
別するためのものであり、クラス内の分散が小さく、各
クラスの平均特徴ベクトルが互いに離れるような判別空
間を構成すると高い判別力が得られる。図3は判別分析
に係るクラスを示した概念図である。
【0031】本実施形態では、予め、学習データに基づ
いた係数行列Aが各カメラ用パソコン14の記憶装置
(図示しない)に記憶されている。なお、学習データ
は、台数以外は同じ撮影条件の元で、ビデオカメラによ
り、複数の被験者Hである人物を撮像して得た画像デー
タに基づいたデータである。すなわち、光軸を室内中心
Oに向けるように等角度間隔(本実施形態では22.5
度間隔)で放射状に配置された16台のビデオカメラに
より、16方向から得た画像データを得て、上記と同様
に顔領域抽出と、同顔領域における4方向面特徴抽出を
行い、特徴ベクトルxを求める。
【0032】x={x1,x2,……x256} なお、16台のビデオカメラの配置は、図1に示す各ビ
デオカメラ11の間に1台ずつ等角度となるようにさら
に8台配置したものである。
【0033】なお、16台のビデオカメラを使用する代
わりに、例えば、基準軸α上に位置する1台のビデオカ
メラを使用して、被験者Hが室内中心Oを中心に等角度
毎に回転するたびに撮像し、そのときの画像データを学
習用データに使用しても良い。
【0034】この特徴ベクトルxから判別空間の特徴ベ
クトルy(=Ax)へ線形写像する係数行列Aが求めら
れており、かつ各クラス(本実施形態では学習データを
取り込むときに使用した22.5度間隔に配置したビデ
オカメラに応じた16のクラス)が生成され、クラスの
平均特徴ベクトルyjが算出されている。そして、前記
係数行列Aと、各クラスの平均特徴ベクトルyjのデー
タが、予め各カメラ用パソコン14の記憶装置に格納さ
れている。
【0035】なお、本実施形態では、クラス番号jは、
0、22.5、45、67.5、90、112.5、1
35、157.5、180、−157.5、−135、
−112.5、−90、−67.5、−45、−22.
5の等差となる16の値である。各クラス番号(数値)
はカメラ用パソコン14に係るビデオカメラ11の光軸
(カメラ方向)に対する相対顔方向とのなす角度Fthと
一致する。図5は被験者Hを中心に22.5度間隔で1
6方向に配置したビデオカメラの配置を示し、各カメラ
から被験者Hを撮像した場合の、各カメラから得られる
画像データに対するクラス付与の内容を示している。同
図において、例えば−22.5が付与されたカメラから
被験者Hを撮像した画像データには、クラス−22.5
が付与される。本実施形態では、相対顔方向に係るクラ
ス番号0度が、正面顔を撮像した場合としている。な
お、「−」は、図1において、当該ビデオカメラ11の
光軸から反時計回り方向の角度を示す。
【0036】そして、未知データの識別を行う線形判別
分析では、前記係数行列Aに基づいて、未知データから
抽出した4方向面特徴に掛かる特徴ベクトルxiを写像
変換し、特徴ベクトルyi(=Axi)を生成する。次
に、生成された特徴ベクトルyiと、各クラスの平均特
徴ベクトルyjとのユークリッド距離の2乗である距離
(以下、2乗距離という)Dijを演算し、2乗距離Dij
が最小値となるクラスを決定することにより、パターン
認識を行う(図4参照)。なお、図4中のDjは、iが
省略されており、本明細書中では、Dijに相当する。
【0037】Dij=|yi−yj|2 …(1) この2乗距離Dijが最小となるクラスを決定することに
より、各カメラ用パソコン14において、どの方向に顔
が向いているか(どのクラスに所属するか)が判別(推
定)される。この結果、各カメラ用パソコン14におい
て、顔向き推定で得られた、カメラ方向(ビデオカメラ
11の光軸γが向く方向、図1参照)と相対顔方向との
なす角度Fthが求まる。すなわち、各クラスには、各ビ
デオカメラ11毎にカメラ方向に対する相対顔方向との
なす角度が予め付与されて前記記憶装置に格納されてお
り、どのクラスに所属するかが推定されると、カメラ方
向に対する相対顔方向とのなす角度Fthが決定される。
【0038】前記算出された各クラスの2乗距離Dijは
メインパソコン16に出力される。なお、ここまで説明
したクラスは、相対顔方向を示すクラスのことである。 (正面顔検出)次のS4〜S6の概要を説明すると、メ
インパソコン16が被験者Hが手の指で指し示したポイ
ンティング方向を検出するため、被験者Hの顔向きを検
出する。すなわち、複数のビデオカメラ11から得られ
た画像データを基にして、それぞれの顔向き推定結果を
統合することにより、正面顔を検出する。
【0039】まず、S4では、クラス番号の統一を行
う。この処理を行う理由は下記の通りである。すなわ
ち、各カメラ用パソコン14におけるクラスは、当該カ
メラ用パソコン14が入力するビデオカメラ11の設置
角度(室内中心Oを基準とした場合の絶対座標を基準と
した角度)を考慮して割り振られたものではない。この
ため、各カメラ用パソコン14から入力された各クラス
の2乗距離において、相対顔方向のクラスは絶対顔方向
のクラスに変換する必要がある。
【0040】従って、この処理は、各カメラ用パソコン
14が持っているクラスjは、予めビデオカメラ11の
取り付けられている角度(基準軸αに対する当該ビデオ
カメラ11の光軸とのなす角度)を考慮して割り振りし
ていないための処理である。
【0041】図6は、各ビデオカメラ11(すなわち、
各カメラ用パソコン14)に係るクラスjの相対角度を
一覧表化した図であり、縦欄はビデオカメラの番号を示
し、横欄は各カメラに係るクラスjを示している。な
お、横欄の1〜16は、便宜上の欄番号である。図中、
カメラ1は基準軸αに位置するビデオカメラ11(図1
参照)を意味しており、以下時計回り方向順に2以降の
番号を付与している。そして、カメラ1に対して被験者
Hが正面向きの場合、カメラ1では第1欄のクラスは0
度のものを意味しているが、カメラ2(カメラ1から時
計回り方向に45度位置したカメラ)では第1欄のクラ
スでは−45度のものを意味している。以下、同様に各
欄の数値を示している。
【0042】従って、本処理は各カメラ用パソコン14
が持っているクラスjを室内座標系θの角度に対応付け
するための処理である。すなわち、S4では、メインパ
ソコン16は、各カメラ用パソコン14において前述の
顔向き推定で得られたカメラ方向に対する相対顔方向の
角度Fth(=相対顔方向のクラス番号)を下記(3)式
により室内座標系θ(すなわち、絶対座標系)に変換
し、絶対顔方向(被験者Hの顔が向いている方向と基準
軸αとのなす角度)とする。
【0043】θ=Fth+Pth+Cth …(3) なお、Cthは基準軸α(絶対角度を0度とする。)とカ
メラ方向とがなす角度、Pthはビデオカメラ11から見
た室内中心Oと被験者H位置がなす角度である。なお、
本実施形態では、被験者Hは常に室内中心Oに存在する
ものとしており、多少の誤差があってもPthの値は無視
できるため、Pthは0としている。
【0044】上記のように各ビデオカメラ11における
相対顔方向のクラスを絶対顔方向のクラスに変換する。
次に、S5においては、絶対顔方向別(すなわちクラス
j別、なお、ここでのクラスjはS4において、室内座
標系θの角度に対応付け後のもの(絶対顔方向に係るク
ラス)である。以下、同じ)に下記の評価式(2)にて
評価のための演算を行う。
【0045】なお、評価式は(2)に限定するものでは
なく、2乗距離が小さいほど評価値が大きくなるような
式であれば良い。
【0046】
【数1】 (2)式中、mは前記配置したビデオカメラ11の番号
であり、1〜8の値である。(m)を付したDは、その
番号が付与されたビデオカメラ11が撮像した画像デー
タに関する2乗距離を示す。 なお、肌色領域が検出さ
れたなかった方向は、2乗距離を無限大とし、評価値が
0となるようにしている。なお、手等によるオクルージ
ョン(遮蔽)が発生した場合であっても、統合結果を用
いているため、顔方向の推定は可能である。
【0047】続く、S6では、前記評価式(2)で演算
した結果(顔向き評価値)の中から、最大値となるクラ
スj(絶対顔方向に係るクラスj)に係るものを統合結
果として、正面顔を決定する。すなわち、最大値となる
クラスjが属する絶対顔方向が被験者Hが正面を向いて
いる方向であるとするのである。
【0048】(ポインティング方向推定)続く、S7〜
S9は、ポインティング方向推定の処理である。ポイン
ティング方向推定は、顔と手の空間位置を求め、その2
点間を結んだ延長線上をポインティング方向と推定する
ものである。
【0049】(カメラ選択)まずS7では、S6で正面
顔を決定した結果を利用して、被験者Hの正面顔を撮像
したビデオカメラ11を特定する。すなわち、絶対顔方
向において、S6で決定されたクラスj(絶対顔方向に
係るクラスj)に対応した位置に位置するビデオカメラ
11を決定する。図7には、正面顔を捉えたビデオカメ
ラ11の光軸を中心に±22.5度の範囲を斜線領域で
示している。
【0050】次に、この正面顔を捉えたビデオカメラ1
1を挟んで隣接する2台のビデオカメラ(図7では、カ
メラ1,3)を選択し、画面合成スイッチャ15を介し
て、選択したビデオカメラ11のカメラ用パソコンから
画像データをメインパソコン16に入力する。本実施形
態では、320×240の解像度の画像データである。
なお、画像データは、YIQのカラー画像表色系で入力
されている。
【0051】なお、本実施形態では、正面顔を捉えたビ
デオカメラ11を挟んで隣接する2台のビデオカメラを
選択する理由は、ステレオカメラを構成するためであ
る。なお、正面顔を捉えたビデオカメラ11をステレオ
カメラとして使用しない理由は、手によるオクルージョ
ンが発生する場合があり得るため、これを回避するため
である。
【0052】(手・顔領域抽出)次に、S8では、得ら
れた各画像データについて、肌色基準値を再算出し、肌
色領域を抽出する。抽出された肌色領域のうち、最大領
域を顔領域とし、次に大きい領域を手領域と判定する。
なお、この判定は、ビデオカメラ11の撮像位置の関係
で、顔領域が、手領域よりも必ず大きくなる場合の判定
の仕方である。
【0053】なお、撮像位置の関係で、得られた顔領域
が手領域より小さくなる場合は、位置情報を用いて決定
しても良い。この位置情報の利用の仕方について説明す
る。
【0054】図7に示すように、選択された2台のビデ
オカメラ11(図中では、カメラ1,3)は、その光軸
が直交するようにして配置されている。このため、正面
顔を捉えたビデオカメラ11から室内中心Oを見て、右
に位置するビデオカメラ(図では、カメラ1)の撮像し
た画像データ(図8(b)及び図9(b)参照)では、
手領域は顔領域の左側に位置する。又、左に位置するビ
デオカメラ11(図では、カメラ3)の撮像した画像デ
ータ(図8(a)及び図9(a)参照)では、手領域は
顔領域の右側に位置する。この左右位置の判定で、顔領
域と手領域の判定ができる。なお、説明の便宜上、右に
位置するビデオカメラ11を右カメラ、左に位置するビ
デオカメラ11を左カメラ、正面顔を捉えているビデオ
カメラ11を中央カメラということがある。
【0055】(ステレオマッチング)次のS9では、2
台のビデオカメラ11から得られた手領域、及び顔領域
の画素数からそれぞれの重心位置(Xh,Yh),
(Xf,Yf)を求め、それぞれの重心位置を公知のステ
レオマッチング法を使用することにより、顔領域及び手
領域の3次元空間位置(xh,yh,zh)、(xf
f.zf)を算出する。顔領域及び手領域に係る重心の
3次元空間(実空間ということがある。)位置をそれぞ
れ顔位置及び手位置という。
【0056】なお、高さ方向の位置の算出に関しては、
顔領域が大きい画像の位置情報を基に算出する。顔領域
の重心に係る空間位置の求め方、すなわち、顔位置の求
め方については、同様であるので説明を省略する。
【0057】(ポインティング方向の決定)S10で
は、前記のように算出された3次元空間位置である顔位
置を始点として手位置を通る直線Lを得る。この直線L
上に延びる方向がポインティング方向として得られる。
【0058】上記実施の形態によれば、以下(1)〜
(4)に示す効果を有する。 (1) 本実施形態の検出装置10では、被験者Hの周
囲の等角度間隔に配置した位置(所定ポイント)から、
被験者Hを撮像するビデオカメラ11(撮像手段)と、
ビデオカメラ11が撮像した画像データから、各ポイン
トにおける被験者Hの顔領域検出を行い、検出した顔領
域に基づいて各ポイントにおける顔向き推定を行うカメ
ラ用パソコン14(顔向き推定手段)とを備えた。又、
検出装置10は正面顔検出手段としてのメインパソコン
16が、カメラ用パソコン14が推定した顔向きに基づ
いて、正面顔の絶対顔方向を検出するようにした。又、
メインパソコン16はポインティング方向推定手段とし
て、検出した正面顔の絶対顔方向側に位置する少なくと
も2つのポイントからビデオカメラ11が撮像した画像
データ中の、顔領域の重心(第1の所定部位)及び手領
域の重心(第2の所定部位)のそれぞれの3次元空間位
置を算出し、算出した顔領域の重心と手領域の重心の3
次元空間位置に基づいてポインティング方向を推定する
ようにした。
【0059】この結果、いずれの方向を被験者Hが手で
指し示した場合においても、的確にその指し示した方向
を検出することができる。 (2) 本実施形態では、第1の所定部位は、顔領域の
重心とした。この結果、顔領域の重心の座標を算出する
ことにより、請求項1の作用を実現することができる。
【0060】(3) 本実施形態では、第2の所定部位
は、手領域の重心とした。この結果、手領域の重心の座
標を算出することにより、請求項1の作用を実現するこ
とができる。
【0061】(4) 本実施形態のポインティングジェ
スチャ検出方法では、被験者Hの周囲において、等角度
間隔に配置した位置(所定ポイント)から、ビデオカメ
ラ11を使用して被験者Hを撮像し、撮像した画像デー
タから、各撮像した位置における被験者Hの顔領域検出
を行い、検出した顔領域に基づいて前記各位置における
顔向き推定を行う顔向き推定を行うようにした。そし
て、顔向き推定した顔向きに基づいて、正面顔の絶対顔
方向を検出し、検出した正面顔の絶対顔方向側に位置す
る2つのポイントから撮像した画像データ中の、顔領域
の重心(第1の所定部位)及び手領域の重心(第2の所
定部位)のそれぞれの3次元空間位置を算出するように
した。さらに、算出した顔領域の重心と手領域の重心の
3次元空間位置に基づいてポインティング方向を推定す
るようにした。
【0062】この結果、上記(1)と同様の効果を奏す
ることができる。 (5) 本実施形態における検出方法では、第1の所定
部位は、顔領域の重心とした。この結果、上記(2)と
同様の効果を奏する。
【0063】(6) 本実施形態における検出方法で
は、第2の所定部位は、手領域の重心とした。この結
果、上記(3)と同様の効果を奏する。 (第2実施形態)次に第2実施形態を特に図10〜図1
4を参照して説明する。
【0064】なお、本実施形態において、第1実施形態
と異なるところを中心にして説明し、第1実施形態と同
一構成については同一符号を付して説明する。又、同じ
構成、作用の説明については、第1実施形態の説明及び
図面を参照されたい。
【0065】本実施形態では、ハード構成は、同じであ
り、作用において異なっている。なお、図10のフロー
チャートにおいて、S1〜S6までは第1実施形態と同
様であるため、説明を省略する。又、本実施形態では、
被験者Hは室内空間にある対象物Tをポインティングし
ているものとする。
【0066】(ポインティング方向推定)S11〜S1
4は、ポインティング方向推定の処理である。ポインテ
ィング方向推定は、顔と手の空間位置を求め、その2点
間を結んだ延長線上をポインティング方向と推定するも
のである。
【0067】このポインティング方向推定において第1
実施形態では、2台のビデオカメラ11の画像データを
使用したが、本実施形態においては、3台のビデオカメ
ラ11の画像データを使用するところが異なっている。
又、第1実施形態では、顔領域と手領域の重心位置を求
め、ステレオマッチングにより、顔位置と手位置の3次
元空間位置に変換して、両位置間を結ぶ直線を求めた。
それに対して、本実施形態では顔領域における眼部領域
の重心と、手領域の指先位置の3次元空間位置をそれぞ
れステレオマッチングにて求めて、ポインティング方向
推定を行うところが異なっている。
【0068】(カメラ選択)以下、詳細に説明する。ま
ず、S11では、第1実施形態と同様にS6で正面顔を
決定した結果を利用して、被験者Hの正面顔を撮像した
ビデオカメラ11を特定する。次に、この正面顔を捉え
たビデオカメラ11を挟んで隣接する2台のビデオカメ
ラ(図7では、カメラ1,3)と正面顔を捉えたビデオ
カメラ(図7では、カメラ2)を選択し、画面合成スイ
ッチャ15を介して、選択したビデオカメラ11のカメ
ラ用パソコンから画像データをメインパソコン16に入
力する。本実施形態では、320×240の解像度の画
像データである。なお、画像データは、YIQのカラー
画像表色系で入力されている。
【0069】本実施形態においても、正面顔を捉えたビ
デオカメラ11を挟んで隣接する2台のビデオカメラも
選択する理由は、正面顔を捉えたビデオカメラ11の場
合、手によるオクルージョンが発生する場合もあり得る
ため、これを回避するためである。
【0070】(眼部、指先の抽出)S12において、眼
部領域の抽出には、画像データ中のYIQ基底のY成分
(輝度成分)を用いる。本実施形態では、被験者Hが右
利きの者を想定しており、右カメラ(図7においては、
カメラ1)で撮像した画像データより顔領域を抽出す
る。なお、右利きの場合には、右カメラの画像データを
使用するのは、被験者Hが右利きであると、ポインティ
ングジェスチャにより手による顔領域に対するオクルー
ジョンが発生しないからである。従って、被験者Hが左
利きの場合には、左カメラの画像データを使用する。
【0071】次に、メインパソコン16は、抽出した顔
領域の中でY成分(輝度成分)の値が低い領域を抽出す
る。抽出された領域中には、眼部領域、眉領域、鼻孔領
域等があるが、それぞれの位置関係(上下関係)は既知
であるため、この関係から、眼部領域を特定する。な
お、眼部には、右目及び左目があるが、被験者Hの利き
目条件が予め記憶装置に格納されており、その条件に基
づいて利き目の眼部領域を特定する。
【0072】なお、メインパソコン16の入力装置を介
して、いずれかの眼部領域を特定するようにしても良
い。そして、眼部領域の重心計算を行い、この重心位置
を目位置とする。
【0073】次に、指先位置の抽出は、左カメラ(図7
においては、カメラ3)で撮像した画像データに基づい
て行う。すなわち、中央カメラ(図7においては、カメ
ラ2)に対して−22.5度以上、22.5度未満で
は、指先は手領域の端点となることから、左カメラの画
像データに基づいて手領域を抽出し、手領域の重心位置
を求める。そして、手領域の重心位置から、最も離間し
た点を端点として、すなわち指先位置として抽出する。
【0074】(ステレオマッチング及び眼部・指先の対
応点の探索)次に、S13では、公知のステレオマッチ
ング法を用いて、眼部位置、及び指先位置の3次元空間
位置を算出する。
【0075】次に、目位置、指先位置がそれぞれ1つの
画像上で既知であるため、他の画像上での対応点を公知
のエピポーラ線上に沿って探索する。目位置の対応点は
中央カメラ画像(図7においては、カメラ2から得た画
像データ)、左カメラ画像(図7においては、カメラ3
から得た画像データ)より求める。右カメラ画像(図7
においては、カメラ1から画像データ)より求められた
特徴点に対して(2m+1)×(2n+1)のウィンド
ウを設定し、中央カメラ画像、左カメラ画像のそれぞれ
のエピポーラ線上の各点を中心とするウィンドウとの類
似度をはかる。ここでは、類似度を評価するために、Y
IQ基底のY成分を用いて相関の強さを求めた。
【0076】2つのカメラ画像より得られたそれぞれの
点のカメラ座標をm1(u1,v1),m2(u2,v2)と
すると、相関値Sは次のようになる。
【0077】
【数2】 ここで、
【0078】
【数3】
【0079】
【数4】 である。
【0080】ただし、
【0081】
【数5】 は点(u,v)を中心とするウィンドウのYk(k=
1,2)の平均値であり、σ(Yk)はその標準偏差で
ある。対応点は、中央カメラ画像に対する相関値と左カ
メラ画像に対する相関値をそれぞれ求め、2つの値のう
ち大きい値を取るカメラ画像上の点として決定する。
【0082】図11(a)には右カメラ画像で求められ
た目位置I1を、図11(b)には中央カメラ画像にお
いて、その点I1に対するエピポーラ線Eと最も相関の
高かった点、すなわち、目位置の対応点I2を示す。
【0083】次に指先の対応点は、右カメラ画像より求
める。指先位置の場合は、肌色領域の端点としているた
め、右カメラ画像におけるエピポーラ線上を左側から探
索し、最初に現れた肌色領域の点を対応点とする。図1
2(a)に左カメラ画像で求められた指先位置U1を、
図12(b)には右カメラ画像上において、その点に対
応するエピポーラ線Eと肌色領域の端点U2を示す。そ
して、3次元空間位置は、得られたそれぞれのカメラ画
像における座標位置を前記(4)式に適用することによ
り算出して求める。
【0084】(ポインティング方向の決定)次のS14
では、ポインティング方向の決定(推定)処理を行う。
図13及び図14はポインティング方向推定に用いるx
yz座標系(室内座標系、すなわち、絶対座標系として
いる。)を示している。なお、x軸、y軸、z軸は、室
内中心Oを0点(各軸の交点)とし、互いに直交した方
向に延びている。そして、x軸、y軸を含む平面上に前
記ビデオカメラ11の光軸が位置しているものとする。
本実施形態では、室内中心Oは、ビデオカメラ11の取
付高さの位置としている。又、図13、図14におい
て、ビデオカメラ11は室内中心Oに対するその取付け
位置の方向性を明確にするために図示したものであり、
絶対的な位置を示しているものではない。
【0085】S13で求めた眼部、及び指先の3次元空
間位置をそれぞれM1,M2とすると、ポインティング方
向はy軸と線分M12がなす角度φ1(図13参照)、
及びx軸,y軸を含む平面と線分M12がなす角度φ2
(図14参照)を求める。図13中、y1はy軸と平行
な線である。
【0086】なお、被験者Hは空間内を自由に動けるた
め、φ1,φ2の値は同じ対象物Tをポインティングし
ても一意には定まらず、方向推定精度を求めるような場
合には有効ではない。そのため、本実施形態では、既知
の周辺環境条件から、室内中心Oと、対象物Tの空間位
置座標を予めメインパソコン16の図示しない記憶装置
に格納している。そして、この室内中心Oと対象物Tの
空間位置座標とに基づいて、室内中心Oを中心とし距離
OTである円弧と、線分M12を延長した直線の交点
T’を求める。そして、y軸と線分OT’のなす角度θ
1及び図14に示すようにx軸,y軸を含む平面と線分
OT’のなす角度θ2がポインティング方向であるとし
て決定する。
【0087】上記実施の形態によれば、以下(1)〜
(6)に示す効果を有する。 (1) 本実施形態の検出装置10では、第1実施形態
と同様に、撮像手段としてビデオカメラ11と、顔向き
推定手段として各ポイントにおける顔向き推定を行うカ
メラ用パソコン14と、正面顔検出手段としてメインパ
ソコン16を備えるようにした。
【0088】さらに、検出装置10のメインパソコン1
6はポインティング方向推定手段として、検出した正面
顔の絶対顔方向側に位置する3つのポイントからビデオ
カメラ11が撮像した画像データ中の顔領域に属する眼
部領域の重心(第1の所定部位)及び手領域の端点(第
2の所定部位)のそれぞれの3次元空間位置を算出し、
算出した3次元空間位置に基づいてポインティング方向
を推定するようにした。
【0089】その結果、いずれの方向を被験者Hが手で
指し示した場合においても、的確にその指し示した方向
を検出することができる。 (2) 本実施形態での検出装置10では、第1の所定
部位は、顔領域内に位置する眼部領域の重心とした。こ
の結果、上記(1)の作用効果を実現することができ
る。
【0090】(3) 本実施形態での検出装置10で
は、第2の所定部位は、手領域の端点とした。この上記
(1)の作用効果を実現することができる。 (4) 本実施形態の検出方法は、被験者Hの周囲にお
いて、等角度間隔に配置した位置(所定ポイント)か
ら、ビデオカメラ11を使用して被験者Hを撮像し、撮
像した画像データから、各撮像した位置における被験者
Hの顔領域検出を行い、検出した顔領域に基づいて前記
各位置における顔向き推定を行う顔向き推定を行うよう
にした。そして、顔向き推定した顔向きに基づいて、正
面顔の絶対顔方向を検出し、検出した正面顔の絶対顔方
向側に位置する3つのポイントからビデオカメラ11が
撮像した画像データ中の顔領域に属する眼部領域の重心
(第1の所定部位)及び手領域の端点(第2の所定部
位)のそれぞれの3次元空間位置を算出し、算出した3
次元空間位置に基づいてポインティング方向を推定する
ようにした。
【0091】この結果、上記(1)と同様の効果を奏す
ることができる。 (5) 本実施形態の検出方法では、第1の所定部位
は、顔領域内に位置する眼部領域の重心とした。この結
果、上記(4)の作用効果を実現できる。
【0092】(6) 本実施形態の検出方法では、第2
の所定部位は、手領域の端点とした。この結果、上記
(4)の作用効果を実現できる。なお、本発明の実施形
態は上記実施の形態に限定されるものではなく、発明の
趣旨を逸脱しない範囲で、適宜に変更して次のように実
施することもできる。
【0093】(1) 前記実施形態では、撮像手段とし
て8台のビデオカメラ11を使用したが、台数は限定す
るものではなく、16台で行っても良い。又、それ以外
の台数で行っても良い。
【0094】(2) 前記第2実施形態では、被験者H
は空間内を自由に動けるため、φ1,φ2の値は同じ対
象物Tをポインティングしても一意には定まらず、方向
推定精度を求めるような場合には有効ではないとした。
しかし、方向推定精度を求めない場合には、S13で求
めた眼部、及び指先の3次元空間位置をそれぞれM1
2とすると、ポインティング方向はy軸と線分M12
がなす角度φ1(図13参照)、及びx軸,y軸を含む
平面と線分M12がなす角度φ2(図14参照)を求め
た結果を利用しても良い。
【0095】(3) 第1実施形態において、顔領域の
重心を求める代わりに、第2実施形態で説明した顔領域
に属する眼部領域の重心を求めて実施しても良い。 (4) 第1実施形態において、手領域の重心位置を求
める代わりに、第2実施形態で説明した手領域の端点位
置を求めて実施しても良い。
【0096】(5) 第2実施形態では、眼部領域の重
心を利き目の眼部領域の重心としたが、利き目ではない
方の目の眼部領域の重心を採用してもよい。 (6) 上記第2実施形態や上記(5)に限らず、両眼
部領域を含んだ重心を算出して、これを採用しても良
い。例えば各眼部領域について、それぞれの重心を求
め、求めた2つの重心に基づいて、両眼部領域を含ん
だ、すなわち、総合した領域の重心を算出することによ
り得られる。
【0097】(7) 第2実施形態では、手領域の重心
位置から最も離間した点という所定の条件を付与して、
これを指先位置として手領域の端点として抽出したが、
これに限定するものではなく、他の部分を端点としても
良い。例えば、手領域のうち、顔領域(例えば、顔領域
の重心)から最も離間した点という所定の条件を付与し
て、これを手領域の端点としても良い。
【0098】
【発明の効果】以上詳述したように請求項1乃至請求項
10に記載の発明によれば、空間のどの方向をポインテ
ィング(指さし)してもポインティングジェスチャを検
出できる効果を奏する。
【図面の簡単な説明】
【図1】 本発明の第1実施形態の全包囲ポインティン
グジェスチャ検出装置の構成を示すブロック図。
【図2】 同じくフローチャート。
【図3】 判別分析に係るクラスを示した概念図。
【図4】 パターン認識の概念図。
【図5】 ビデオカメラの光軸(カメラ方向)に対する
相対顔方向とのなす角度Fthとの関係を示す説明図。
【図6】各ビデオカメラ11に係るクラスjの相対角度
を表した一覧表化した説明図。
【図7】カメラ選択の説明図。
【図8】ビデオカメラが撮像した画像データを示し、
(a)はカメラ3の画像データ、(b)はカメラ1の画
像データの説明図。
【図9】肌色基準で抽出した画像データを示し、(a)
はカメラ3の画像データ、(b)はカメラ1の画像デー
タの説明図。
【図10】第2実施形態の同じくフローチャート。
【図11】(a)は右カメラ画像で求められた目位置を
示す説明図、(b)は中央カメラ画像上のエピポーラ線
と目位置の対応点を示す説明図。
【図12】(a)は左カメラ画像で求められた指先位置
を示す説明図、(b)はエピポーラ線と肌色領域の端点
を示す説明図。
【図13】ポインティング方向の座標系を示す説明図。
【図14】同じくポインティング方向の座標系を示す説
明図。
【符号の説明】
11…ビデオカメラ(撮像手段)、 14…カメラ用パソコン((顔向き推定手段) 16…メインパソコン(正面顔検出手段、ポインティン
グ方向推定手段)
───────────────────────────────────────────────────── フロントページの続き (71)出願人 501087766 安本 護 岐阜県大垣市加賀野4丁目1番地の7 財 団法人 ソフトピアジャパン内 (71)出願人 501086286 山本 和彦 岐阜県岐阜市柳戸1番1 岐阜大学内 (72)発明者 渡辺 博己 岐阜県大垣市加賀野4丁目1番地の7 財 団法人 ソフトピアジャパン内 (72)発明者 本郷 仁志 岐阜県大垣市加賀野4丁目1番地の7 財 団法人 ソフトピアジャパン内 (72)発明者 安本 護 岐阜県大垣市加賀野4丁目1番地の7 財 団法人 ソフトピアジャパン内 (72)発明者 山本 和彦 岐阜県岐阜市柳戸1番1 岐阜大学 内 Fターム(参考) 5B068 BB18 BE08 CC17 EE01 5B087 AA07 BC05 BC12 BC13 BC26 BC32 DD03 5L096 CA05 EA35 FA67 HA13

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 被験者の周囲の所定ポイントから、被験
    者を撮像する撮像手段と、 撮像手段が撮像した画像データから、各ポイントにおけ
    る被験者の顔領域検出を行い、検出した顔領域に基づい
    て各ポイントにおける顔向き推定を行う顔向き推定手段
    と、 顔向き推定手段が推定した顔向きに基づいて、正面顔の
    絶対顔方向を検出する正面顔検出手段と、 正面顔検出手段が検出した正面顔の絶対顔方向側に位置
    する少なくとも2つのポイントから撮像手段が撮像した
    画像データ中の、顔領域に属する第1の所定部位及び手
    領域に属する第2の所定部位のそれぞれの3次元空間位
    置を算出し、算出した第1の所定部位と第2の所定部位
    の3次元空間位置に基づいてポインティング方向を推定
    するポインティング方向推定手段を備えたポインティン
    グジェスチャ検出装置。
  2. 【請求項2】 第1の所定部位は、顔領域の重心である
    請求項1に記載のポインティングジェスチャ検出装置。
  3. 【請求項3】 第1の所定部位は、顔領域内に位置する
    眼部領域の重心である請求項1に記載のポインティング
    ジェスチャ検出装置。
  4. 【請求項4】 第2の所定部位は、手領域の重心である
    請求項1乃至請求項3のうちいずれか1項に記載のポイ
    ンティングジェスチャ検出装置。
  5. 【請求項5】 第2の所定部位は、手領域の端点である
    請求項1乃至請求項3のうちいずれか1項に記載のポイ
    ンティングジェスチャ検出装置。
  6. 【請求項6】 被験者の周囲の所定ポイントから、被験
    者を撮像する行程と、 撮像した画像データから、各ポイントにおける被験者の
    顔領域検出を行い、検出した顔領域に基づいて各ポイン
    トにおける顔向き推定を行う顔向き推定行程と、 顔向き推定した顔向きに基づいて、正面顔の絶対顔方向
    を検出する正面顔検出行程と、 正面顔検出行程において検出した正面顔の絶対顔方向側
    に位置する少なくとも2つのポイントから撮像した画像
    データ中の、顔領域に属する第1の所定部位及び手領域
    に属する第2の所定部位のそれぞれの3次元空間位置を
    算出する行程と、 算出した第1の所定部位と第2の所定部位の3次元空間
    位置に基づいてポインティング方向を推定する行程を備
    えたポインティングジェスチャ検出方法。
  7. 【請求項7】 第1の所定部位は、顔領域の重心である
    請求項6に記載のポインティングジェスチャ検出方法。
  8. 【請求項8】 第1の所定部位は、顔領域内に位置する
    眼部の重心である請求項6に記載のポインティングジェ
    スチャ検出方法。
  9. 【請求項9】 第2の所定部位は、手領域の重心である
    請求項6乃至請求項8のうちいずれか1項に記載のポイ
    ンティングジェスチャ検出装置。
  10. 【請求項10】 第2の所定部位は、手領域の端点であ
    る請求項6乃至請求項8のうちいずれか1項に記載のポ
    インティングジェスチャ検出方法。
JP2001058570A 2001-03-02 2001-03-02 ポインティングジェスチャ検出方法及びその装置 Pending JP2002259989A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001058570A JP2002259989A (ja) 2001-03-02 2001-03-02 ポインティングジェスチャ検出方法及びその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001058570A JP2002259989A (ja) 2001-03-02 2001-03-02 ポインティングジェスチャ検出方法及びその装置

Publications (1)

Publication Number Publication Date
JP2002259989A true JP2002259989A (ja) 2002-09-13

Family

ID=18918271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001058570A Pending JP2002259989A (ja) 2001-03-02 2001-03-02 ポインティングジェスチャ検出方法及びその装置

Country Status (1)

Country Link
JP (1) JP2002259989A (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004055726A1 (ja) * 2002-12-18 2004-07-01 National Institute Of Advanced Industrial Science And Technology インタフェース装置
KR100687737B1 (ko) 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
KR100818171B1 (ko) 2006-06-09 2008-04-03 한국과학기술원 손 지시의 3차원 위치 인식 시스템 및 방법
JP2008226279A (ja) * 2008-06-23 2008-09-25 Matsushita Electric Works Ltd 仮想空間内位置指示装置
JP2009037434A (ja) * 2007-08-02 2009-02-19 Tokyo Metropolitan Univ 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム
JP2009240370A (ja) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International 動作検出装置
US7893920B2 (en) 2004-05-06 2011-02-22 Alpine Electronics, Inc. Operation input device and method of operation input
CN102012780A (zh) * 2009-09-04 2011-04-13 索尼公司 信息处理设备、控制显示的方法以及控制显示的程序
JP4771951B2 (ja) * 2003-05-15 2011-09-14 エフ・ポスザツト・ヒユー・エル・エル・シー 非接触ヒューマンコンピュータインターフェイス
JP2011210239A (ja) * 2010-03-30 2011-10-20 Harman Becker Automotive Systems Gmbh 乗り物の電子デバイスのための乗り物のユーザーインターフェースユニット
JP2012198608A (ja) * 2011-03-18 2012-10-18 Nec Personal Computers Ltd 入力装置および入力方法
WO2012147961A1 (ja) 2011-04-28 2012-11-01 Necシステムテクノロジー株式会社 情報処理装置、情報処理方法及び記録媒体
JP2013047978A (ja) * 2005-02-08 2013-03-07 Oblong Industries Inc ジェスチャベースの制御システムのためのシステムおよび方法
US9298346B2 (en) 2010-06-04 2016-03-29 Thomson Licensing Method for selection of an object in a virtual environment
JP2017539035A (ja) * 2015-04-16 2017-12-28 楽天株式会社 ジェスチャインタフェース
CN108845668A (zh) * 2012-11-07 2018-11-20 北京三星通信技术研究有限公司 人机交互***和方法
US10198082B2 (en) 2015-07-31 2019-02-05 Kabushiki Kaisha Toshiba Position input device and position input method
JP2019087279A (ja) * 2013-06-27 2019-06-06 アイサイト モバイル テクノロジーズ リミテッド デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
WO2019130729A1 (ja) * 2017-12-27 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法および情報処理システム
CN114663982A (zh) * 2022-04-21 2022-06-24 湖南大学 一种基于多特征融合的人手轨迹预测与意图识别方法

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246856A (ja) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology インタフェース装置
US7821531B2 (en) 2002-12-18 2010-10-26 National Institute Of Advanced Industrial Science And Technology Interface system
WO2004055726A1 (ja) * 2002-12-18 2004-07-01 National Institute Of Advanced Industrial Science And Technology インタフェース装置
JP4771951B2 (ja) * 2003-05-15 2011-09-14 エフ・ポスザツト・ヒユー・エル・エル・シー 非接触ヒューマンコンピュータインターフェイス
US7893920B2 (en) 2004-05-06 2011-02-22 Alpine Electronics, Inc. Operation input device and method of operation input
JP2013047978A (ja) * 2005-02-08 2013-03-07 Oblong Industries Inc ジェスチャベースの制御システムのためのシステムおよび方法
KR100687737B1 (ko) 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
KR100818171B1 (ko) 2006-06-09 2008-04-03 한국과학기술원 손 지시의 3차원 위치 인식 시스템 및 방법
JP2009037434A (ja) * 2007-08-02 2009-02-19 Tokyo Metropolitan Univ 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム
JP2009240370A (ja) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International 動作検出装置
JP2008226279A (ja) * 2008-06-23 2008-09-25 Matsushita Electric Works Ltd 仮想空間内位置指示装置
JP4678428B2 (ja) * 2008-06-23 2011-04-27 パナソニック電工株式会社 仮想空間内位置指示装置
CN102012780A (zh) * 2009-09-04 2011-04-13 索尼公司 信息处理设备、控制显示的方法以及控制显示的程序
JP2011210239A (ja) * 2010-03-30 2011-10-20 Harman Becker Automotive Systems Gmbh 乗り物の電子デバイスのための乗り物のユーザーインターフェースユニット
US9298346B2 (en) 2010-06-04 2016-03-29 Thomson Licensing Method for selection of an object in a virtual environment
JP2012198608A (ja) * 2011-03-18 2012-10-18 Nec Personal Computers Ltd 入力装置および入力方法
WO2012147961A1 (ja) 2011-04-28 2012-11-01 Necシステムテクノロジー株式会社 情報処理装置、情報処理方法及び記録媒体
US9367732B2 (en) 2011-04-28 2016-06-14 Nec Solution Innovators, Ltd. Information processing device, information processing method, and recording medium
CN108845668A (zh) * 2012-11-07 2018-11-20 北京三星通信技术研究有限公司 人机交互***和方法
CN108845668B (zh) * 2012-11-07 2022-06-03 北京三星通信技术研究有限公司 人机交互***和方法
US11314335B2 (en) 2013-06-27 2022-04-26 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device
JP2019087279A (ja) * 2013-06-27 2019-06-06 アイサイト モバイル テクノロジーズ リミテッド デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
JP7191714B2 (ja) 2013-06-27 2022-12-19 アイサイト モバイル テクノロジーズ リミテッド デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
JP2017539035A (ja) * 2015-04-16 2017-12-28 楽天株式会社 ジェスチャインタフェース
US10969872B2 (en) 2015-04-16 2021-04-06 Rakuten, Inc. Gesture interface
US10198082B2 (en) 2015-07-31 2019-02-05 Kabushiki Kaisha Toshiba Position input device and position input method
CN111373732A (zh) * 2017-12-27 2020-07-03 索尼公司 信息处理装置、信息处理方法和信息处理***
US11501459B2 (en) 2017-12-27 2022-11-15 Sony Corporation Information processing apparatus, method of information processing, and information processing system
WO2019130729A1 (ja) * 2017-12-27 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法および情報処理システム
CN114663982A (zh) * 2022-04-21 2022-06-24 湖南大学 一种基于多特征融合的人手轨迹预测与意图识别方法

Similar Documents

Publication Publication Date Title
JP2002259989A (ja) ポインティングジェスチャ検出方法及びその装置
JP5728009B2 (ja) 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
US11308347B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
US8571258B2 (en) Method of tracking the position of the head in real time in a video image stream
WO2018133130A1 (en) 3d marker model construction and real-time tracking using monocular camera
US20150186716A1 (en) Learning-based estimation of hand and finger pose
JP2011198349A (ja) 情報処理方法及びその装置
WO2017147748A1 (zh) 一种可穿戴式***的手势控制方法以及可穿戴式***
US20220189113A1 (en) Method for generating 3d skeleton using joint-based calibration acquired from multi-view camera
CN109977827B (zh) 一种使用多视图匹配方法的多人三维姿态估计方法
WO2019230205A1 (ja) 骨格検出装置、及び骨格検出方法
JP2016014954A (ja) 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。
TW202242716A (zh) 用於目標匹配的方法、裝置、設備及儲存媒體
KR20200113743A (ko) 인체 자세 추정 및 보정을 하는 방법 및 장치
JP2008309595A (ja) オブジェクト認識装置及びそれに用いられるプログラム
WO2015199470A1 (ko) 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템
JP3144400B2 (ja) ジェスチャ認識装置及び方法
JP2002282210A (ja) 視線検出方法及びその装置
JP2020042575A (ja) 情報処理装置、位置合わせ方法、及びプログラム
JP2005092451A (ja) 頭部検出装置及び頭部検出方法、並びに頭部検出プログラム
JP3221384B2 (ja) 三次元座標計測装置
Medien Implementation of a low cost marker based infrared optical tracking system
JP6810442B2 (ja) カメラアセンブリ、そのカメラアセンブリを用いる手指形状検出システム、そのカメラアセンブリを用いる手指形状検出方法、その検出方法を実施するプログラム、及び、そのプログラムの記憶媒体
JP2016170031A (ja) 三次元モデル処理装置およびカメラ校正システム
CN112767415A (zh) 胸部扫查区域自动确定方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20031031

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040129

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20050315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050708

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050907