JP2003076488A - 指示位置判断装置及び方法 - Google Patents

指示位置判断装置及び方法

Info

Publication number
JP2003076488A
JP2003076488A JP2001266022A JP2001266022A JP2003076488A JP 2003076488 A JP2003076488 A JP 2003076488A JP 2001266022 A JP2001266022 A JP 2001266022A JP 2001266022 A JP2001266022 A JP 2001266022A JP 2003076488 A JP2003076488 A JP 2003076488A
Authority
JP
Japan
Prior art keywords
pointing
image
information input
reference point
recognition target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001266022A
Other languages
English (en)
Inventor
Kenichi Harakawa
健一 原川
Hitoshi Tsurumaki
均 鶴巻
Hisashi Hanzawa
久 半沢
Masayuki Uritani
真幸 瓜谷
Tetsufumi Kawashima
哲文 川島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Komuten Co Ltd
Original Assignee
Takenaka Komuten Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Komuten Co Ltd filed Critical Takenaka Komuten Co Ltd
Priority to JP2001266022A priority Critical patent/JP2003076488A/ja
Publication of JP2003076488A publication Critical patent/JP2003076488A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 【課題】 指示動作における指示位置又は指示方向の判
断精度の向上を実現する。 【解決手段】 情報入力者10がディスプレイ12の表示面
上の任意の箇所の指示している状況を複数の方向から撮
像し、撮像によって得られた複数の画像に基づいて、利
用者が指示動作に用いている腕の左右を判別し、左腕を
用いていると判断した場合は左肩付近、右腕を用いてい
ると判断した場合は右肩付近に基準点P0を設定し、基
準点P0の3次元座標を求めると共に、指示動作を行っ
ている指の先端に相当する特徴点PXの3次元座標を求
める。そして、情報入力者10による指示方向として、基
準点P0と特徴点PXとを結ぶ仮想線54の延びる方向を求
め、情報入力者10による指示位置として、ディスプレイ
12の表示面を含む平面と仮想線54の交点Sの座標(平面
座標)を演算する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は指示位置判断装置及
び方法に係り、特に、認識対象者を撮像し、認識対象者
が行った指示動作による指示位置又は方向を判断する指
示位置判断方法、及び該指示位置判断方法を適用可能な
指示位置判断装置に関する。
【0002】
【従来の技術】従来より、所定の情報を表示するディス
プレイ、ディスプレイの近傍に到来した認識対象者(利
用者)を互いに異なる方向から撮像する撮像手段を備
え、到来した認識対象者がディスプレイ上の任意の位置
を指等によって指し示す指示動作を行っている状況を撮
像手段によって複数の方向から撮像し、撮像によって得
られた複数の画像に基づいて認識対象者を認識し、指示
動作によって指し示されたディスプレイ上の位置を判断
し、ディスプレイ上の指示位置にカーソル等を表示する
と共に、認識対象者が親指を上げるクリック動作を行っ
たことを検出すると、ディスプレイ上の指示位置がクリ
ックされたと認識して所定の処理を行うハンドポインテ
ィング入力装置が知られている(例えば特開平4−27
1423号公報、特開平5−19957号公報、特開平
5−324181号公報等参照)。
【0003】上記のハンドポインティング入力装置によ
れば、認識対象者がキーボードやマウス等の入力機器に
触れることなく、情報処理装置に対して各種の指示を与
えたり、各種の情報を入力することが可能となるので、
情報処理装置を利用するための操作の簡素化を実現でき
る。
【0004】
【発明が解決しようとする課題】ところで、認識対象者
による指示動作における指示位置(又は指示方向)の判
断方法としては、認識対象者に対し、指示位置等の変化
に拘らず位置の変化しない箇所を基準点として設定する
と共に、指示位置等の変化に応じて位置が変化する箇所
を特徴点として設定し、基準点と特徴点の位置関係に基
づいて指示位置等を判断する方法が採用されている。こ
の判断方法において、基準点としては、例えば認識対象
者の背中のうち左右方向に沿った中心に相当する箇所
が、特徴点としては、例えば指示動作を行っている指先
に相当する箇所が用いられる。
【0005】しかしながら、認識対象者の指示動作は通
常、左右どちらかの腕を使って行われるので、認識対象
者の胴体に対して特徴点の位置は左右方向にオフセット
している。従って、認識対象者が想定した指示位置又は
指示方向に対し、ハンドポインティング装置が判断した
指示位置又は指示方向が大きく相違することも多く、指
示位置又は指示方向の判断精度の向上が求められてい
た。
【0006】本発明は上記事実を考慮して成されたもの
で、指示動作における指示位置又は指示方向の判断精度
の向上を実現できる指示位置判断装置及び指示位置判断
方法を得ることが目的である。
【0007】
【課題を解決するための手段】上記目的を達成するため
に請求項1記載の発明に係る指示位置判断装置は、互い
に異なる複数の方向から認識対象者を撮像する撮像手段
と、認識対象者が特定の位置又は特定の方向を指し示す
指示動作を行っている状況を前記撮像手段が撮像するこ
とで得られた画像に基づいて、認識対象者が前記指示動
作に用いている腕の左右を判別し、前記指示動作におけ
る指示位置又は指示方向の変化に拘らず位置が変化せ
ず、かつ前記腕の左右の判別結果に応じて認識対象者の
左右方向の中心に対してオフセットさせた位置に基準点
を設定する基準点設定手段と、前記撮像手段が撮像する
ことで得られた画像から抽出した前記認識対象者に相当
する画像部に基づいて、前記指示動作における指示位置
又は指示方向の変化に応じて位置が変化する特徴点の位
置を求める特徴点認識手段と、前記基準点設定手段によ
って設定された基準点の位置及び前記特徴点認識手段に
よって求められた前記特徴点の位置に基づいて、前記指
示動作による指示位置又は方向を判断する判断手段と、
を含んで構成されている。
【0008】請求項1記載の発明では、認識対象者が撮
像手段によって互いに異なる複数の方向から撮像され、
認識対象者が特定の位置又は特定の方向を指し示す指示
動作を行っている状況が撮像されることで得られた画像
に基づいて、基準点設定手段により、認識対象者が指示
動作に用いている腕の左右を判別する。
【0009】なお、撮像手段が認識対象者を上方側から
撮像する構成である場合、基準点設定手段による腕の左
右の判別は、例えば請求項2に記載したように、撮像手
段が撮像することで得られた画像から抽出した認識対象
者に相当する画像部の輪郭の形状に基づいて行うことが
できる。また、基準点設定手段による腕の左右の判別
は、より詳しくは、例えば請求項3に記載したように、
認識対象者に相当する画像部の輪郭のうち認識対象者の
腕に相当する凸部分の位置の、前記画像部の輪郭全体に
対するオフセットの方向に基づいて行うことができる。
【0010】認識対象者による指示動作は左右何れかの
腕を用いて行われるので、指示動作における指示位置又
は指示方向の変化に応じて位置が変化する特徴点(この
特徴点としては、例えば認識対象者が指示動作に用いて
いる腕の手の指先や、前記腕の手が把持している指示器
の先端等を適用することができる)の位置は、認識対象
者の胴体に対して左右何れかの方向にオフセットしてい
る。そして、特徴点の位置が認識対象者の左右何れの方
向にオフセットしているかについては、腕の左右の判別
結果から判断することができる。
【0011】このため、基準点設定手段は、認識対象者
による指示動作における指示位置又は指示方向の変化に
拘らず位置が変化せず、かつ腕の左右の判別結果に応じ
て認識対象者の左右方向の中心に対してオフセットさせ
た位置に基準点を設定する。具体的には、例えば請求項
4に記載したように、認識対象者が指示動作に用いてい
る腕の付け根又はその付近に基準点を設定するようにし
てもよいし、認識対象者の身長等に応じたオフセット量
を設定し、認識対象者の胴体の左右方向に沿った中心か
ら設定したオフセット量だけオフセットさせた位置に基
準点を設定するようにしてもよい。これにより、認識対
象者の胴体に対する特徴点のオフセットに応じて、基準
点の位置もオフセットされることになる。
【0012】そして、請求項1記載の発明では、撮像手
段が撮像することで得られた画像から抽出した認識対象
者に相当する画像部に基づいて、特徴点認識手段が、指
示動作における指示位置又は指示方向の変化に応じて位
置が変化する特徴点の位置を求め、判断手段は、基準点
設定手段によって設定された基準点の位置及び特徴点認
識手段によって求められた特徴点の位置に基づいて、指
示動作による指示位置又は方向を判断するので、特徴点
の位置が左右方向にオフセットしていることによる影響
を排除することができ、指示動作における指示位置又は
指示方向の判断精度の向上を実現することができる。
【0013】なお、請求項1記載の発明において、判断
手段による指示位置又は指示方向の判断は、例えば請求
項5に記載したように、基準点と特徴点を結ぶ直線と被
指示物体との交点を指示動作による指示位置と判断する
か、又は、基準点と特徴点を結ぶ直線が延びる方向を指
示動作による指示方向と判断することができる。
【0014】請求項6記載の発明に係る指示位置判断方
法は、互いに異なる複数の方向から認識対象者を撮像
し、認識対象者が特定の位置又は特定の方向を指し示す
指示動作を行っている状況を撮像することで得られた画
像に基づいて、認識対象者が前記指示動作に用いている
腕の左右を判別し、前記指示動作における指示位置又は
指示方向の変化に拘らず位置が変化せず、かつ前記腕の
左右の判別結果に応じて認識対象者の左右方向の中心に
対してオフセットさせた位置に基準点を設定すると共
に、前記撮像によって得られた画像から抽出された前記
認識対象者に相当する画像部に基づいて、前記指示動作
における指示位置又は指示方向の変化に応じて位置が変
化する特徴点の位置を求め、前記設定した基準点の位置
及び前記求めた特徴点の位置に基づいて、前記指示動作
による指示位置又は方向を判断するので、請求項1記載
の発明と同様に、指示動作における指示位置又は指示方
向の判断精度の向上を実現することができる。
【0015】
【発明の実施の形態】以下、図面を参照して本発明の実
施形態の一例を詳細に説明する。図1に示すように、本
発明に係る認識対象者としての情報入力者10が到来す
る箇所の壁面には大画面ディスプレイ12が埋め込まれ
ている。なお、ディスプレイ12としては液晶ディスプ
レイ(LCD)やプラズマディスプレイ、ブラウン管、
光ファイバディスプレイ等の周知の表示手段を適用でき
る。
【0016】ディスプレイ12はパーソナルコンピュー
タ等から成る情報処理装置14に接続されており(図2
参照)、情報処理装置14により、各種の情報が表示面
上に図形、表、文字、画像等の種々の表示形態で表示さ
れる。本実施形態において、情報入力者10は、ディス
プレイ12の前方の図1に示した箇所(情報入力空間)
に到来し、ディスプレイ12の表示面上の各種情報が表
示されている位置を指し示すと共に、クリック動作(詳
細は後述)を行うことにより、情報処理装置14に対し
て各種の指示を与えたり各種の処理を実行させる。
【0017】図2に示すように、情報処理装置14に
は、本実施形態に係るハンドポインティング入力装置2
0のコントローラ22が接続されている。なお、上述し
たディスプレイ12、情報処理装置14及びハンドポイ
ンティング入力装置20は、本発明に係る指示位置判断
方法が適用された本発明に係る指示位置判断装置として
の機能を備えている。
【0018】コントローラ22は、CPU22A、RO
M22B、RAM22C、入出力インタフェース22D
を備えており、これらがバスを介して互いに接続されて
構成されている。入出力インタフェース22Dには情報
処理装置14が接続されていると共に、記憶内容を書換
え可能な不揮発性の記憶媒体を内蔵した記憶装置(例え
ばハードディスクドライブ(HDD))24、各種の情報
を表示するためのディスプレイ26、オペレータが各種
の指示やデータを入力するためのキーボード28、照明
制御装置30、撮像制御装置34、マーク板駆動装置3
8、及びCD−ROMドライバ40が各々接続されてい
る。
【0019】コントローラ22を本発明に係るハンドポ
インティング装置として機能させるためのプログラム
(以下、単に「プログラム」という)は、例えばCD−
ROMドライバ40に装填されるCD−ROM42に記
憶することができる。プログラムの実行が指示される
と、CD−ROM42からプログラムが読み出され、読
み出されたプログラムがコントローラ22によって実行
される。これにより、コントローラ22を含む各装置は
ハンドポインティング装置として機能する。
【0020】照明制御装置30には、近赤外域の波長の
光をビーム状に射出する複数の近赤外光照明装置32
A、32Bが接続されている。図1に示すように、近赤
外光照明装置32A、32Bは、情報入力空間の上方の
互いに異なる箇所に配設されており、情報入力空間に到
来した情報入力者10を、互いに異なる方向から照明す
るように照射範囲が調整されている。照明制御装置30
は照明装置32A、32Bの点灯・消灯を制御する。
【0021】撮像制御装置34には、情報入力空間の上
方の互いに異なる箇所に配設された(図1参照)複数の
ビデオカメラ36A、36Bが接続されている。ビデオ
カメラ36A、36Bは、図示は省略するが、近赤外光
に感度を有するCCD等から成るエリアセンサを備えて
いると共に、入射光をエリアセンサの受光面に結像させ
る結像レンズの光入射側に、近赤外域の波長の光のみを
透過するフィルタが設けられている。なお、撮像手段
(カメラ)として遠赤外線カメラを用い、人間(情報入
力者)の体温による遠赤外線と、人間の体温と所定値以
上離れた温度(体温よりも高い温度であっても低い温度
であってもよい)に設定又は温度調整された床から放射
される遠赤外光と、によって人間と背景とを弁別する方
法を用いても良い。この場合は照明装置32A、32B
及び照明制御装置30を省略することも可能となる。
【0022】図3に示すように、ビデオカメラ36A、
36Bは情報入力空間に到来した情報入力者10を互い
に異なる方向から撮像するように向きが調整されてい
る。また、ビデオカメラ36Aは、情報入力空間に到来
した情報入力者10が撮像範囲内に入り、かつ照明装置
32Aから射出された光が結像レンズに直接入射せず、
かつ撮像範囲の中心が、情報入力空間内において照明装
置32Aによる照明範囲の中心と床面から所定高さで交
差するように(照明装置32Aによる床面上の照明範囲
が撮像範囲から外れるように)、向き(撮像範囲)が調
整されている。同様にビデオカメラ36Bは、情報入力
空間に到来した情報入力者10が撮像範囲内に入り、か
つ照明装置32Bから射出された光が結像レンズに直接
入射せず、かつ撮像範囲の中心が、情報入力空間内にお
いて照明装置32Bによる照明範囲の中心と床面から所
定高さで交差するように(照明装置32Aによる床面上
の照明範囲が撮像範囲から外れるように)、向き(撮像
範囲)が調整されている。
【0023】なお、ビデオカメラ36A、36B、撮像
制御装置34、照明制御装置30、及び近赤外光照明装
置32A、32Bは本発明の撮像手段(詳しくは請求項
2に記載の撮像手段)に対応している。
【0024】また図4に示すように、ハンドポインティ
ング入力装置20は、情報入力空間の近傍に配設された
マーク板40を備えている。マーク板40は、透明な平
板に多数のマーク40Aがマトリクス状に等間隔で記録
されて構成されており、マーク40Aの配列方向に直交
する方向(図4の矢印A方向)に沿って情報入力空間を
横切るように移動可能とされている。なおマーク40A
は、画像上での認識が容易な色(例えば赤色)に着色さ
れている。入出力インタフェース22Dに接続されたマ
ーク板駆動装置38は、コントローラ22からの指示に
応じてマーク板40を図4の矢印A方向に沿って移動さ
せる。
【0025】次に本実施形態の作用として、まず、ハン
ドポインティング入力装置20が設置された際にコント
ローラ22によって実行される格子点位置情報初期設定
処理について、図5のフローチャートを参照して説明す
る。
【0026】ステップ100では、マーク板駆動装置3
8により、マーク板40を所定位置(マーク板40の移
動範囲の端部に相当する位置)に移動させる。次のステ
ップ102では、現在のマーク板40の位置において、
マーク板40に記録されている多数のマーク40Aの情
報入力空間内での3次元座標(x,y,z)を各々演算
する。ステップ104では撮像制御装置34を介し、ビ
デオカメラ36A、36Bによって情報入力空間を撮像
させ、次のステップ106では、ビデオカメラ36Aが
情報入力空間を撮像することによって得られた画像(以
下画像Aと称する)を撮像制御装置34を介して取り込
む。
【0027】ステップ108では、ステップ106で取
り込んだ画像A中に存在するマーク40Aの認識(抽
出)を行い、次のステップ110では認識した全てのマ
ーク40Aについて、画像A上での位置(XA,YA)を
演算する。そしてステップ112では、画像A中に存在
する全てのマーク40Aについて、情報入力空間内での
3次元座標(x,y,z)と、画像A上での位置
(XA,YA)とを対応させ、ビデオカメラ36Aの格子
点位置情報として記憶装置24に記憶させる。
【0028】次のステップ114〜120では、上記の
ステップ106〜112と同様にしてビデオカメラ36
Bに対する処理を行う。すなわち、ステップ114では
ビデオカメラ36Bが情報入力空間を撮像することによ
って得られた画像(以下画像Bと称する)を撮像制御装
置34を介して取り込み、ステップ116ではステップ
114で取り込んだ画像B中に存在するマーク40Aの
認識(抽出)を行い、次のステップ118では認識した
全てのマーク40Aについて、画像B上での位置
(XB,YB)を演算する。そしてステップ120では、
画像B中に存在する全てのマーク40Aについて、情報
入力空間内での3次元座標(x,y,z)と、画像B上
での位置(XB,YB)とを対応させ、ビデオカメラ36
Bの格子点位置情報として記憶装置24に記憶させる。
【0029】次のステップ122では、マーク板40が
最終位置(マーク板40の移動範囲のうちステップ10
0における所定位置と反対側の端部に相当する位置)迄
移動したか否か判定する。ステップ122の判定が否定
された場合にはステップ124へ移行し、マーク板駆動
装置38により、マーク板40を所定方向に一定距離
(詳しくは、マーク板40上におけるマーク40Aの間
隔に一致する距離)だけ移動させた後にステップ102
に戻る。
【0030】上記のように、マーク板40が最終位置に
移動する迄、ステップ102〜124が繰り返されるこ
とにより、マーク板40に記録されている多数のマーク
40Aは、情報入力空間内に一定間隔で格子状に並ぶ多
数の格子点に対応する位置へ移動され、ビデオカメラ3
6Aの格子点位置情報として、各格子点の情報入力空間
内での3次元座標と画像A上での位置とが対応されて記
憶装置24に記憶されると共に、ビデオカメラ36Bの
格子点位置情報として、各格子点の情報入力空間内での
3次元座標と画像B上での位置とが対応されて記憶装置
24に記憶されることになる。
【0031】なお、マーク板40及びマーク板駆動装置
38は、上記の格子点位置情報初期設定処理においての
み用いられ、後述する処理では用いないので、上記の処
理を実行した後に、マーク板40及びマーク板駆動装置
38を撤去するようにしてもよい。
【0032】またマーク40Aが記録されたマーク板4
0に代えて、透明な平板にLED等の多数の発光素子が
マトリクス状に配設されたマーク板を用い、マーク板を
一定距離ずつステップ移動させると共に、ステップ移動
における各位置で多数の発光素子を順に点灯させること
を繰り返すことによって上記の処理を行うようにしても
よい。また発光素子が取付けられたハンドを備え、該ハ
ンドを情報入力空間内の任意の位置に移動可能とされた
ロボットアーム装置を用い、ロボットアーム装置によっ
て各格子点に対応する各位置に発光素子を移動させて点
灯させることを繰り返すことによって上記処理を行うこ
とも可能である。
【0033】次に図6のフローチャートを参照し、上記
の格子点位置情報初期設定処理が行われた後にコントロ
ーラ22で定常的に実行される指示判断処理について説
明する。なお、この指示判断処理は情報入力空間に到来
した情報入力者10からの指示の判断等を行うものであ
る。
【0034】ステップ150では、ビデオカメラ36A
から出力される画像Aを表す画像データ、及びビデオカ
メラ36Bから出力される画像Bを表す画像データを各
々取り込み、取り込んだ画像A及び画像Bの画像データ
に基づいて、情報入力空間内に情報入力者10が到来し
たか(存在しているか)否か判定し、判定が肯定される
迄待機する。
【0035】コントローラ22が指示判断処理を実行し
ているときには、図8に示すように、照明制御装置30
は照明装置32A、32Bを交互に点灯させ、撮像制御
装置34は、ビデオカメラ36Aによる情報入力空間の
撮像が照明装置32Aが点灯しているときに行われ、ビ
デオカメラ36Bによる情報入力空間の撮像が照明装置
32Bが点灯しているときに行われるように制御する。
【0036】ビデオカメラ36Aの撮像範囲は照明装置
32Aによる床面上の照明範囲が撮像範囲から外れるよ
うに調整されているので、照明装置32Aによる床面上
の照明範囲内に情報入力者10の荷物やゴミ等の非認識
対象物50A(図3参照)が存在していたとしても、こ
の非認識対象物50Aがビデオカメラ36Aの撮像範囲
に入ることはない。また、床面上のビデオカメラ36A
によって撮像される範囲内に非認識対象物50B(図3
参照)が存在していたとしても、非認識対象物50Bは
照明装置32Aによる照明範囲から外れているので、画
像A中に存在する非認識対象物50Bに相当する画像部
の輝度は非常に低くなる。
【0037】同様に、ビデオカメラ36Bの撮像範囲は
照明装置32Bによる床面上の照明範囲が撮像範囲から
外れるように調整されているので、照明装置32Bによ
って照明される床面上に非認識対象物50Bが存在して
いたとしても、この非認識対象物50Bがビデオカメラ
36Bの撮像範囲に入ることはない。また、床面上のビ
デオカメラ36Bによって撮像される範囲内に非認識対
象物50Aが存在していたとしても、画像B中に存在す
る非認識対象物50Bに相当する画像部の輝度は非常に
低くなる。
【0038】従って、先のステップ150の判定は、例
えば画像A及び画像B中に、高輝度でかつ所定値以上の
面積の画像部が存在しているか否か等の極めて簡単な判
断処理で済む。ステップ150の判定が否定された場合
には、判定が肯定される迄待機する。
【0039】情報入力空間に情報入力者10が到来する
と、ステップ150の判定が肯定されてステップ152
へ移行し、各種のフラグや処理モード等の初期設定を行
う。次のステップ154では、情報入力空間から情報入
力者10が退去したか否か判定する。情報入力空間から
情報入力者10が退去した場合には、前記判定が肯定さ
れてステップ150に戻り、情報入力空間に再度情報入
力者10が到来する迄待機するが、前記判定が否定され
た場合には、ステップ156で基準点・特徴点座標演算
処理を行う。以下、この基準点・特徴点座標演算処理に
ついて、図7のフローチャートを参照して説明する。
【0040】ステップ210ではビデオカメラ36A、
36Bから画像A及び画像Bのデータを各々取り込み、
次のステップ212では取り込んだ画像A及び画像Bか
ら、情報入力者10の全体像に相当する画像部を各々抽
出する。この情報入力者10の全体像に相当する画像部
についても、高輝度の画素から成る所定値以上の面積の
連続した領域を判断することで容易に抽出することがで
きる。
【0041】ステップ214では、情報入力者10の全
体像に相当する画像部に基づき、情報入力者10の身長
を求める。図9に示すように、点Oに位置しているビデ
オカメラ36の結像レンズの焦点距離をf、点Oを通る
鉛直線と情報入力空間の床面との交点Qと点Oとの距離
をH、点Qと情報入力者10が立っている床面上の点P
との距離をR、情報入力者10の頭頂部に相当する点
P’と点Pとの距離hを情報入力者10の身長とする。
また、点POQの成す角度をθ、点P’OQの成す角度
をθ’、ビデオカメラ36のエリアセンサの受光面に結
像される情報入力者10の像の長さをh’、点Pに対応
する受光面上の結像点を点p、点P’に対応する受光面
上の結像点を点p’、受光面の中心oと点pとの距離を
r、受光面の中心oと点p’との距離をr’とすると、
角度θ、θ’、距離r、r’は次の(1)〜(4)式か
ら求めることができる。
【0042】 θ =tan-1(R/H) …(1) θ’=tan-1{R/(H−h)} …(2) r =fθ …(3) r’=fθ’ …(4) 従って、情報入力者10の身長h及び距離Rは次の
(5)式及び(6)式によって求めることができる。
【0043】 h=H{1−tan(r/f)/tan(r’/f)} …(5) R=Htan(r/f) …(6) 距離H及び焦点距離fは既知であるので、ステップ21
4ではビデオカメラ36A、36Bの撮像によって得ら
れた画像A及び画像Bの何れかから距離r、r’を求
め、これを(5)式に代入することにより情報入力者1
0の身長hを求めることができる。また、ステップ21
4では、画像A及び画像Bの各々から距離rを求め、こ
れを(6)式に各々代入して距離Rを各々求めることに
より、情報入力者10の床面上の位置(2次元座標)を
求める。
【0044】次のステップ216では、ステップ214
で求めた情報入力者10の身長hに基づいて、床面を高
さ0としたときの情報入力者10の肩辺りに相当する高
さを推定演算し、推定演算した高さを、情報入力者10
の基準点P0(図13(A)参照)の床面からの高さz0
として決定する。なお、情報入力者10の肩辺りに相当
する高さに代えて、情報入力者10の胸に相当する高さ
や、情報入力者10が指示動作を行っている状態での情
報入力者10の肘に相当する高さを推定演算するように
してもよい。
【0045】ステップ218では、画像A及び画像B上
での情報入力者10の全体像に相当する画像部の形状に
基づいて、情報入力者10が指等によりディスプレイ1
2側を指し示す動作(指示動作)を行っているか否か判
定する。情報入力者10から見たディスプレイ12の方
向は既知であるので、ステップ218の判定は、例えば
情報入力者10の全体像に相当する画像部において、情
報入力者10の手に相当すると判断できる高さ位置に、
情報入力者10から見たディスプレイ12の方向に向か
って突出している部分が有るか否かを判断することで実
現できる。
【0046】これにより、情報入力者10が、図10
(A)に示す直立状態から、図10(B)又は(C)に
示すように腕を上げて手をディスプレイ12側に向けれ
ば、情報入力者10が指示動作を行っていると判定され
ることになる。ステップ218の判定が否定された場合
には、基準点及び特徴点の3次元座標の演算(詳細は後
述)を行うことなく基準点・特徴点座標演算処理を終了
する。
【0047】情報入力者10が指示動作を行っている場
合には、ステップ218の判定が肯定されてステップ2
20へ移行する。ステップ220では、画像A及び画像
B上での情報入力者10の全体像に相当する画像部の形
状に基づいて、情報入力者10による指示動作が、情報
入力者10の左腕を用いて行われているか、情報入力者
10の右腕を用いて行われているかを判別する。
【0048】情報入力者10による指示動作が左腕を用
いて行われている場合、例として図11(A)に示すよ
うに、情報入力者10を上方側から撮像したときの情報
入力者10の全体像に相当する画像部は、情報入力者1
0の胴体に相当する部分の左側(情報入力者10の左腕
側)から、情報入力者10の腕(左腕)に相当する部分
が突出している形状になる。また、情報入力者10によ
る指示動作が右腕を用いて行われている場合には、例と
して図11(A)に示すように、情報入力者10を上方
側から撮像したときの情報入力者10の全体像に相当す
る画像部は、情報入力者10の胴体に相当する部分の右
側(情報入力者10の右腕側)から、情報入力者10の
腕(右腕)に相当する部分が突出している形状になる。
【0049】従って、ステップ220における左右の判
別は、情報入力者10の全体像に相当する画像部の形状
が、図11(A)に示すような形状か図11(B)に示
すような形状かを判定することで行うことができる。こ
の判定は、より詳しくは、例えば情報入力者10の全体
像に相当する画像部に含まれる、情報入力者10の腕に
相当する部分を判断し、該部分が前記画像部に対して左
右何れの方向に偏倚しているかを判断することで行うこ
とができる。また、例えば情報入力者10の全体像に相
当する画像部を左右方向に沿った中央部で分割し、左右
方向に直交する方向に沿った両画像部の厚みを比較する
ことで行ってもよいし、情報入力者10の全体像に相当
する画像部の重心が左右何れの方向に偏倚しているかを
判断することで行うことも可能である。
【0050】次のステップ222では、ステップ220
における腕の左右の判別結果に基づいて、情報入力者1
0が指示動作に用いている腕側の肩(左腕であれば左
肩、右腕であれば右肩)付近に基準点P0が位置するよ
うに、基準点P0の水平面内座標(例えばx0、y0
値)を設定する。
【0051】これにより、情報入力者10が指示動作に
用いている腕が左腕であれば、基準点P0の水平面内の
位置は図11(C)及び図13(B)に示す位置とさ
れ、情報入力者10が指示動作に用いている腕が右腕で
あれば、基準点P0の水平面内の位置は図11(D)及
び図13(C)に示す位置とされることで、先のステッ
プ216で決定した基準点P0の高さz0と併せて、基準
点P0の3次元座標(x0,y0,z0)が決定されること
になる。
【0052】上述したステップ214〜ステップ222
は本発明の基準点設定手段(詳しくは請求項2〜4に記
載の基準点設定手段)に対応しており、次のステップ2
24以降の処理は本発明の特徴点認識手段に対応してい
る。なお、基準点P0の水平面内位置を、指示動作に用
いている腕側の肩付近とすることに代えて、指示動作に
用いている腕側の胸部付近、或いは指示動作に用いてい
る腕側の肘付近としてもよい。
【0053】ステップ224では、ビデオカメラ36A
から取り込んだ画像Aを表す画像データに基づいて、画
像A中に存在する情報入力者10の特徴点PXを抽出
し、画像A上での特徴点PXの位置(XA,YA)を演算
する。情報入力者10の特徴点PXとしては、ディスプ
レイ12側を指し示す動作を行っている指の先端に相当
する点等を用いることができる。この場合、情報入力者
10の全体像を表す画像部のうち、情報入力者10の手
に相当すると判断できる高さ位置に、ディスプレイ12
の方向に向かって突出している部分の先端の位置を、特
徴点PXの位置として演算することができる。
【0054】これにより、ビデオカメラ36Aによって
情報入力者10の手が図12(A)に示すように撮像さ
れた場合、特徴点PXの位置として、図12(B)に示
す特徴点PXの座標(XA,YA)が演算されることにな
る。
【0055】ステップ226では、記憶装置24に記憶
されているビデオカメラ36Aの格子点位置情報に基づ
き、画像A上での位置が(XA±dX,YA±dY)の範
囲(図12(B)にハッチングで囲んだ範囲を参照)に
入る格子点を全て検索する。なお、このdX及びdYの
大きさは、格子点の間隔(マーク40Aの間隔)に基づ
き、少なくとも1個以上の格子点が抽出されるように定
められている。
【0056】また、本実施形態ではビデオカメラの結像
レンズとして広角レンズを用いており、仮にdX及びd
Yを一定とすると、ビデオカメラと格子点との距離が大
きくなるに従って多くの格子点が(XA±dX,YA±d
Y)の範囲に入り、後述する特徴点PXの3次元座標の
演算の精度の低下に繋がる。このため、dX及びdY
は、3次元座標上でのビデオカメラからの距離が離れる
に従って値が小さくなるように設定される。従って、3
次元座標上での(XA±dX,YA±dY)に相当する範
囲は、底面がビデオカメラ側に位置している四角錐状と
なる。
【0057】ステップ228では、先のステップ224
と同様に、ビデオカメラ36Bから取り込んだ画像Bを
表す画像データに基づいて、画像B中に存在する情報入
力者10の特徴点PXを抽出し、画像B上での特徴点PX
の位置(XB,YB)を演算する。ステップ230では、
先のステップ226と同様に、記憶装置24に記憶され
ているビデオカメラ36Bの格子点位置情報に基づき、
画像B上での位置が(XB±dX,YB±dY)の範囲に
入る格子点を全て検索する。
【0058】次のステップ232では、画像A及び画像
Bから共通に抽出した格子点を判定する。これにより、
情報入力空間内で特徴点PXに近接した位置に存在して
いる格子点のみが複数抽出されることになる。ステップ
234では、画像A及び画像Bから共通に抽出した格子
点の3次元座標を、格子点位置情報から取り込む。
【0059】本実施形態では、後述するように特徴点P
Xの3次元座標を情報入力空間内で特徴点PXに近接した
位置に存在している複数の格子点の3次元座標から内挿
によって演算する(具体的には、前記複数の格子点の3
次元座標の座標値の重み付き平均により特徴点PXの3
次元座標の座標値を求める)。このため、特徴点PX
3次元座標の演算に先立ち、次のステップ236では、
画像A及び画像Bから共通に抽出した各格子点の画像A
及び画像B上での位置、画像A上での特徴点P Xの位置
(XA,YA)、画像B上での特徴点PXの位置(XB,Y
B)に基づいて、画像A及び画像Bから共通に抽出した
各格子点の3次元座標からの内挿の割合(各格子点の3
次元座標の座標値に対する重み)を決定する。この内挿
の割合は、例えば画像A及び画像B上で特徴点PXと近
接した位置に存在している格子点の3次元座標の座標値
の重みが大きくなるように決定することができる。
【0060】そしてステップ238では、画像A及び画
像Bから共通に抽出した格子点の3次元座標、及びステ
ップ236で決定した内挿の割合に基づいて、特徴点P
Xの3次元座標(XX,YX,ZX)を演算する。上記のよ
うにして特徴点PXの3次元座標を演算すると基準点・
特徴点座標演算処理を終了し、指示判断処理(図6)の
ステップ158へ移行する。なお、上記の基準点・特徴
点座標演算処理は繰り返し実行されるので、該処理によ
って演算される基準点P0及び特徴点PXの3次元座標の
値は、情報入力者10の姿勢や動作の変化に応じて逐次
更新されることになる。
【0061】ステップ158では、先に説明した基準点
・特徴点座標演算処理(図7)のステップ218の判定
結果に基づき、情報入力者10が指示動作を行っている
か否かを判定する。なお、基準点・特徴点座標演算処理
では、情報入力者10が指示動作を行っている場合(ス
テップ218の判定が肯定された場合)にのみ特徴点P
Xの3次元座標を演算するので、ステップ158の判定
は、例えば特徴点PXの3次元座標が演算されたか否か
を判断することで行うことができる。この判定が否定さ
れた場合にはステップ154に戻り、情報入力空間内に
情報入力者10が存在している間はステップ154〜ス
テップ158を繰り返す。
【0062】一方、ステップ158の判定が肯定された
場合にはステップ160へ移行し、先の基準点・特徴点
座標演算処理で演算された基準点P0及び特徴点PXの3
次元座標に基づき、情報入力者10が指し示している方
向として、上記の基準点P0と特徴点PXとを結ぶ仮想線
(図13の仮想線54参照)の延びる方向を求め、情報
入力者10が指し示している位置(指示位置)として、
ディスプレイ12の表示面を含む平面と前記仮想線の交
点(図13の点S参照)の座標(平面座標)を演算す
る。
【0063】ここで、情報入力者10が左腕で指示動作
を行っている場合には、情報入力者10の位置に対して
特徴点PXが左側にオフセットすることになるが、基準
点・特徴点座標演算処理のステップ222において、図
13(B)に示すように情報入力者10の左肩付近に基
準点P0が設定されることで、基準点P0の位置も左側に
オフセットされるので、ステップ160において、指示
位置の座標として、情報入力者10の想定した指示位置
に精度良く一致する位置(図13(B)に示す点S)の
座標を求めることができる。
【0064】また、情報入力者10が右腕で指示動作を
行っている場合には、情報入力者10の位置に対して特
徴点PXが右側にオフセットすることになるが、基準点
・特徴点座標演算処理のステップ222において、図1
3(C)に示すように情報入力者10の右肩付近に基準
点P0が設定されることで、基準点P0の位置も右側にオ
フセットされるので、ステップ160において、指示位
置の座標として、情報入力者10の想定した指示位置に
精度良く一致する位置(図13(C)に示す点S)の座
標を求めることができる。このように、ステップ160
は先に説明した基準点・特徴点座標演算処理と共に、本
発明の判断手段に対応している。
【0065】次のステップ162では、ステップ160
で演算した指示位置の座標に基づいて、情報入力者10
がディスプレイ12の表示面内を指し示しているか否か
判定する。ステップ162の判定が否定された場合には
ステップ154に戻る。一方、ステップ162の判定が
肯定された場合にはステップ164へ移行し、先のステ
ップ160で演算した情報入力者10による指示位置の
座標を、カーソルを表示すべき位置の座標として情報処
理装置14へ出力し、カーソルの表示を指示する。これ
により、情報処理装置14は、ディスプレイ12の表示
面上の指示された位置にカーソルを表示させる。
【0066】なお、上記のように情報入力者10による
指示位置にカーソルを表示させることに代えて、特開2
000−222098号公報や特開2000−2221
17号公報等に記載の技術を適用することで、情報入力
者10による指示位置のふらつきに拘らず、カーソルの
表示位置のふらつきを抑制するようにしてもよいことは
言うまでもない。
【0067】次のステップ166では情報入力者10に
よりクリック動作が行われたか否か判定する。クリック
動作としては種々の動作を採用することができ、例えば
情報入力者10が手を前方に素早く移動させる動作(図
14(A)参照、以下「前進クリック」という)、及び
情報入力者10が手を後方に素早く移動させる動作(図
14(B)参照、以下「後進クリック」という)をクリ
ック動作とすることができる。このクリック動作は、デ
ィスプレイ12の表示面上の特定の箇所を指し示して選
択する動作として極めて自然な動作であるので、認識対
象者は違和感を感ずることなくクリック動作を行うこと
ができる。
【0068】前進クリック動作や後進クリック動作が行
われたか否かの判定は、例えば情報入力者10が指示動
作を行っている間、基準点P0と特徴点PXとの距離k
(図13参照)を繰り返し演算し、ステップ166にお
いて、今回演算した距離kと前回演算した距離kとの差
が所定値以上か否かを判断することで行うことができ
る。ステップ166の判定が否定された場合には、何ら
処理を行うことなくステップ154へ戻るが、ステップ
166の判定が肯定された場合にはステップ168へ移
行し、情報入力者10によって行われたクリック動作に
関する情報(例えばクリック動作時の指示位置(クリッ
ク位置)を表す情報や、情報入力者10によって行われ
たクリック動作が前進クリックか後進クリックかを表す
情報等)を情報処理装置14へ通知する。
【0069】これにより、情報処理装置14は、通知さ
れたクリック動作に関する情報に基づいて所定の処理を
実行する。この所定の処理としては任意の処理を採用す
ることができるが、例えばディスプレイ12の表示面上
の特定のアプリケーションを表すアイコンを表示してい
る箇所が前進クリックされた場合には、前記特定のアプ
リケーションを起動し、例えば前記アイコンを表示して
いる箇所が後進クリックされた場合には、前記特定のア
プリケーションに関連する特殊処理(例えばアプリケー
ションに関する各種パラメータの設定、アプリケーショ
ンのバージョン表示、アイコンの表示に関するパラメー
タの設定等)を一覧表示し、更に特定の特殊処理が前進
クリックされた場合には、クリックされた特殊処理を実
行する、等の処理を行うことができる。
【0070】また、例えば通常処理モード、ファイル転
送モード、ファイル検索モード等のように予め複数種の
処理モードを用意しておくと共に、情報入力者10が複
数種の処理モードの何れかへの切り替えを指示するため
のモード切替指示手段(フットスイッチであってもよい
し、情報入力者10が手の形を変える等の処理モード切
替指示動作を行ったか否かを検知する機構(アルゴリズ
ム)であってもよい)を設け、クリック動作が行われた
場合に、処理モード毎に異なる処理を行うようにしても
よい。
【0071】なお、情報入力者10が腕を下ろしている
ときには肘を伸ばしている状態が自然であるが、ディス
プレイ12の表示面内の所望の位置を指し示すために腕
を上げたときには自然に肘が若干曲がる(後でクリック
動作を行うことを考えても、肘を伸ばしたまま腕を上げ
る動作より、肘を若干曲げながら腕を上げる動作の方
が、所望の位置を指し示している状態となったときに自
然に肘が若干曲がっていることになり合理的である)の
で、情報入力者10が腕を上げる動作の最中に基準点P
0と特徴点PXとの距離kが変化する。これを考慮する
と、情報入力者10がディスプレイ12の表示面内に相
当する位置を指し示している状態が、比較的短い時間以
上継続した後に、クリック動作が行われたか否かの判定
を開始するか、或いは情報処理装置14に対するクリッ
ク動作が行われた旨の通知を禁止することが好ましい。
これにより、情報入力者10による指示位置がディスプ
レイ12の表示面外から表示面内へ変化したときに、ク
リック動作が行われたと誤判断することを防止できる。
【0072】また、情報入力者10によるクリック動作
の最中に指示位置がずれる可能性があることを考慮する
と、クリック位置として、情報入力者10がクリック動
作を開始した際の指示位置を用いることが好ましい。こ
れにより、クリック動作の最中に指示位置がずれたとし
ても、情報入力者10が当初指し示していた位置に対応
する処理を確実に実行することができる。
【0073】なお、上記では2台のビデオカメラ36
A、36Bを設けた例を説明したが、これに限定される
ものではなく、より多数のビデオカメラによって情報入
力空間を各々撮像し、情報入力者10からの指示を判断
するようにしてもよい。
【0074】また、上記では本発明に係る特徴点PX
して、指先に相当する点を例に説明したが、特徴点は認
識対象者が腕を動かすことで位置が変化する点であれば
よく、例えば認識対象者の手首に相当する点や、認識対
象者の手の甲に相当する点を特徴点として用いるように
してもよい。
【0075】また、情報入力者10の姿勢が、腕を上げ
ている状態(図12(B)又は(C)参照)から、腕を
下ろした状態(図12(A)参照)に変化した場合に、
腕を下ろす直前の指示位置にカーソルを継続して表示す
るようにしてもよい。これにより、情報入力者10が一
定箇所にカーソルを継続して表示させたい等の場合にも
(例えば会議のプレゼンテーション等)、情報入力者1
0が継続的に腕を上げ続ける必要がなくなるので、情報
入力者10の負担を軽減することができる。
【0076】更に、上記ではクリック動作として、情報
入力者10が手を前方に素早く移動させる前進クリック
動作、及び情報入力者10が手を後方に素早く移動させ
る後進クリック動作のみを判断するようにしていたが、
これに限定されるものではなく、例えば基準点P0と特
徴点PXとの距離kの推移を所定時間に亘って監視する
ことにより、マウスの操作では一般的なダブルクリック
動作(ハンドポインティング装置では、例えば前進クリ
ック動作又は後進クリック動作を2回続けて行う動作等
で代用できる)やドラッグ&ドロップ動作(ハンドポイ
ンティング装置では、例えば前進クリック動作→指示位
置移動動作→後進クリック動作等の一連の動作により代
用できる)も判断するようにしてもよい。
【0077】また、ディスプレイ12としては、プラズ
マディスプレイ、CRT、光ファイバディスプレイ等の
周知の表示装置を適用してもよいし、液晶ゴーグル等を
適用することも可能である。また、擬似的に3次元空間
を表す3次元的画像をディスプレイに表示するようにし
てもよい。具体的には、上記のような平面ディスプレイ
い一点透視法や二点透視法に則った画像を表示したり、
液晶シャッタやレンチキュラーレンズを利用した3次元
ディスプレイに画像を表示したり、ホログラフィー技術
を適用して立体画像を表示するようにしてもよい。
【0078】また、ディスプレイ12には任意の情報を
表示可能であることは言うまでもなく、例えば情報処理
装置14をインターネット等のネットワークに接続し、
利用者が指定したURLのウェブページ等を表示領域に
表示させるように構成してもよい。また、本発明を適用
したハンドポインティング入力装置を種々の商品が収納
された自動倉庫の前面に配置し、利用者が所望の商品を
指定すると共に決済(支払い)を完了させると、指定さ
れた商品を倉庫から取り出して利用者へ引き渡す等のよ
うに、本発明を適用したハンドポインティング入力装置
を大規模な自動販売機の操作部として用いることも可能
である。
【0079】
【発明の効果】以上説明したように本発明は、認識対象
者が特定の位置又は特定の方向を指し示す指示動作を行
っている状況を複数の方向から撮像することで得られた
画像に基づいて、指示動作に用いている腕の左右を判別
し、指示動作における指示位置又は指示方向の変化に拘
らず位置が変化せず、かつ腕の左右の判別結果に応じて
認識対象者の左右方向の中心に対してオフセットさせた
位置に基準点を設定すると共に、指示動作における指示
位置又は指示方向の変化に応じて位置が変化する特徴点
の位置を求め、基準点の位置及び特徴点の位置に基づい
て、指示動作による指示位置又は方向を判断するので、
指示動作における指示位置又は指示方向の判断精度の向
上を実現できる、という優れた効果を有する。
【図面の簡単な説明】
【図1】 情報入力空間の周辺を示す斜視図である。
【図2】 本実施形態に係るハンドポインティング入力
装置の概略構成を示すブロック図である。
【図3】 照明装置の照明範囲とビデオカメラの撮像範
囲との関係の一例を示す概略図である。
【図4】 マーク板の一例を示す情報入力空間の斜視図
である。
【図5】 格子点位置情報初期設定処理を示すフローチ
ャートである。
【図6】 指示判断処理の内容を示すフローチャートで
ある。
【図7】 基準点・特徴点座標演算処理の内容を示すフ
ローチャートである。
【図8】 照明装置A、Bの点灯・消灯、ビデオカメラ
の撮像によって得られる画像の出力(取り込み)のタイ
ミングを示すタイミングチャートである。
【図9】 情報入力者の身長及び床面上の位置の演算を
説明するための、情報入力空間の側面図である。
【図10】 (A)乃至(C)は情報入力者の動作の一
例を示すイメージ図である。
【図11】 情報入力者が指示動作に用いている腕の左
右の判別及び判別結果に基づく基準点及び特徴点の設定
を説明するためのイメージ図である。
【図12】 (A)はビデオカメラにより撮像された情
報入力者の手を示すイメージ図、(B)は特徴点の座標
及び特徴点の3次元座標を求めるための格子点の検索範
囲を示す概念図である。
【図13】 情報入力者が指し示しているディスプレイ
上の位置の判定を説明するための、(A)は情報入力空
間の平面図、(B)及び(C)は情報入力空間の側面図
である。
【図14】 (A)は前進クリック動作、(B)は後進
クリック動作を説明するためのイメージ図である。
【符号の説明】
10 情報入力者 12 大画面ディスプレイ 14 情報処理装置 20 ハンドポインティング入力装置 22 コントローラ 36A ビデオカメラ 36B ビデオカメラ 54 仮想線
───────────────────────────────────────────────────── フロントページの続き (72)発明者 半沢 久 千葉県印西市大塚一丁目5番地1 株式会 社竹中工務店技術研究所内 (72)発明者 瓜谷 真幸 東京都中央区銀座八丁目21番1号 株式会 社竹中工務店東京本店内 (72)発明者 川島 哲文 東京都中央区銀座八丁目21番1号 株式会 社竹中工務店東京本店内 Fターム(参考) 5B057 AA20 BA13 BA15 CA13 CA16 DA07 DA08 DC05 DC08 DC16 5B087 AA02 BC06 BC12 BC13 BC26 BC32

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 互いに異なる複数の方向から認識対象者
    を撮像する撮像手段と、 認識対象者が特定の位置又は特定の方向を指し示す指示
    動作を行っている状況を前記撮像手段が撮像することで
    得られた画像に基づいて、認識対象者が前記指示動作に
    用いている腕の左右を判別し、前記指示動作における指
    示位置又は指示方向の変化に拘らず位置が変化せず、か
    つ前記腕の左右の判別結果に応じて認識対象者の左右方
    向の中心に対してオフセットさせた位置に基準点を設定
    する基準点設定手段と、 前記撮像手段が撮像することで得られた画像から抽出し
    た前記認識対象者に相当する画像部に基づいて、前記指
    示動作における指示位置又は指示方向の変化に応じて位
    置が変化する特徴点の位置を求める特徴点認識手段と、 前記基準点設定手段によって設定された基準点の位置及
    び前記特徴点認識手段によって求められた前記特徴点の
    位置に基づいて、前記指示動作による指示位置又は方向
    を判断する判断手段と、 を含む指示位置判断装置。
  2. 【請求項2】 前記撮像手段は、認識対象者を上方側か
    ら撮像し、前記基準点設定手段は、前記撮像手段が撮像
    することで得られた画像から抽出した前記認識対象者に
    相当する画像部の輪郭の形状に基づいて、前記認識対象
    者が前記指示動作に用いている腕の左右を判別すること
    を特徴とする請求項1記載の指示位置判断装置。
  3. 【請求項3】 前記基準点設定手段は、前記画像部の輪
    郭のうち前記認識対象者の腕に相当する凸部分の位置
    の、前記画像部の輪郭全体に対するオフセットの方向に
    基づいて、前記腕の左右を判別することを特徴とする請
    求項2記載の指示位置判断装置。
  4. 【請求項4】 前記基準点設定手段は、前記腕の左右の
    判別結果に基づき、認識対象者が前記指示動作に用いて
    いる腕の付け根又はその付近に基準点を設定することを
    特徴とする請求項1記載の指示位置判断装置。
  5. 【請求項5】 前記判断手段は、前記基準点と前記特徴
    点を結ぶ直線と被指示物体との交点を前記指示動作によ
    る指示位置と判断するか、又は、前記基準点と前記特徴
    点を結ぶ直線が延びる方向を前記指示動作による指示方
    向と判断することを特徴とする請求項1記載の指示位置
    判断装置。
  6. 【請求項6】 互いに異なる複数の方向から認識対象者
    を撮像し、 認識対象者が特定の位置又は特定の方向を指し示す指示
    動作を行っている状況を撮像することで得られた画像に
    基づいて、認識対象者が前記指示動作に用いている腕の
    左右を判別し、前記指示動作における指示位置又は指示
    方向の変化に拘らず位置が変化せず、かつ前記腕の左右
    の判別結果に応じて認識対象者の左右方向の中心に対し
    てオフセットさせた位置に基準点を設定すると共に、 前記撮像によって得られた画像から抽出した前記認識対
    象者に相当する画像部に基づいて、前記指示動作におけ
    る指示位置又は指示方向の変化に応じて位置が変化する
    特徴点の位置を求め、 前記設定した基準点の位置及び前記求めた特徴点の位置
    に基づいて、前記指示動作による指示位置又は方向を判
    断する指示位置判断方法。
JP2001266022A 2001-09-03 2001-09-03 指示位置判断装置及び方法 Pending JP2003076488A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001266022A JP2003076488A (ja) 2001-09-03 2001-09-03 指示位置判断装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001266022A JP2003076488A (ja) 2001-09-03 2001-09-03 指示位置判断装置及び方法

Publications (1)

Publication Number Publication Date
JP2003076488A true JP2003076488A (ja) 2003-03-14

Family

ID=19092401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001266022A Pending JP2003076488A (ja) 2001-09-03 2001-09-03 指示位置判断装置及び方法

Country Status (1)

Country Link
JP (1) JP2003076488A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006163747A (ja) * 2004-12-07 2006-06-22 Brother Ind Ltd 入力支援装置
JP2011257820A (ja) * 2010-06-07 2011-12-22 Sony Corp 情報表示装置および表示画像制御方法
WO2011158511A1 (ja) * 2010-06-17 2011-12-22 パナソニック株式会社 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
JP2013195213A (ja) * 2012-03-19 2013-09-30 Chugoku Electric Power Co Inc:The 位置標定システム、及び位置標定システムの制御方法
JP2016045670A (ja) * 2014-08-22 2016-04-04 株式会社国際電気通信基礎技術研究所 ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置
US10198082B2 (en) 2015-07-31 2019-02-05 Kabushiki Kaisha Toshiba Position input device and position input method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006163747A (ja) * 2004-12-07 2006-06-22 Brother Ind Ltd 入力支援装置
JP4609054B2 (ja) * 2004-12-07 2011-01-12 ブラザー工業株式会社 入力支援装置
JP2011257820A (ja) * 2010-06-07 2011-12-22 Sony Corp 情報表示装置および表示画像制御方法
WO2011158511A1 (ja) * 2010-06-17 2011-12-22 パナソニック株式会社 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
CN102812416A (zh) * 2010-06-17 2012-12-05 松下电器产业株式会社 指示输入装置、指示输入方法、程序、记录介质以及集成电路
US8933886B2 (en) 2010-06-17 2015-01-13 Panasonic Intellectual Property Corporation Of America Instruction input device, instruction input method, program, recording medium, and integrated circuit
JP5728009B2 (ja) * 2010-06-17 2015-06-03 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
JP2013195213A (ja) * 2012-03-19 2013-09-30 Chugoku Electric Power Co Inc:The 位置標定システム、及び位置標定システムの制御方法
JP2016045670A (ja) * 2014-08-22 2016-04-04 株式会社国際電気通信基礎技術研究所 ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置
US10198082B2 (en) 2015-07-31 2019-02-05 Kabushiki Kaisha Toshiba Position input device and position input method

Similar Documents

Publication Publication Date Title
US6385331B2 (en) Hand pointing device
JP6348211B2 (ja) コンピュータ装置の遠隔制御
US9600078B2 (en) Method and system enabling natural user interface gestures with an electronic system
KR100869447B1 (ko) 3차원 모델링 없이 이미지 처리에 의해 타겟을 지시하는 장치 및 방법
US9207773B1 (en) Two-dimensional method and system enabling three-dimensional user interaction with a device
JP4278979B2 (ja) ジェスチャーに基づいた入力及びターゲット指示のための単一カメラシステム
US8971565B2 (en) Human interface electronic device
ES2835598T3 (es) Interfaz de gesto
JP6733731B2 (ja) 制御装置、プログラムおよび制御方法
JP2004094653A (ja) 情報入力システム
KR101256046B1 (ko) 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템
JP3792907B2 (ja) ハンドポインティング装置
CN108572730B (zh) 用于使用深度感知相机与计算机实现的交互式应用程序进行交互的***和方法
KR101396488B1 (ko) 신호 입력 장치 및 신호 입력 방법
JPH08328735A (ja) ハンドポインティング入力装置
JP7279975B2 (ja) 2次元カメラを利用して客体制御を支援する方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体
JP2003076488A (ja) 指示位置判断装置及び方法
EP2889748A1 (en) Touch-sensitive display device with palm input rejection
JP6746419B2 (ja) 情報処理装置、及びその制御方法ならびにコンピュータプログラム
JP2000222098A (ja) ハンドポインティング装置、指示位置表示方法及び記録媒体
KR101536753B1 (ko) 사용자 동작 인식에 기반한 영상 처리 방법 및 시스템
JP2005322071A (ja) 指示動作認識装置、指示動作認識方法及び指示動作認識プログラム
JP6643825B2 (ja) 装置及び方法
JP2003228458A (ja) 指示動作認識装置及び方法
JP2000222117A (ja) ハンドポインティング装置、指示位置表示方法及び記録媒体