JP4575829B2 - 表示画面上位置解析装置及び表示画面上位置解析プログラム - Google Patents

表示画面上位置解析装置及び表示画面上位置解析プログラム Download PDF

Info

Publication number
JP4575829B2
JP4575829B2 JP2005099897A JP2005099897A JP4575829B2 JP 4575829 B2 JP4575829 B2 JP 4575829B2 JP 2005099897 A JP2005099897 A JP 2005099897A JP 2005099897 A JP2005099897 A JP 2005099897A JP 4575829 B2 JP4575829 B2 JP 4575829B2
Authority
JP
Japan
Prior art keywords
image
fingertip
distance
operator
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005099897A
Other languages
English (en)
Other versions
JP2006277666A (ja
Inventor
保明 金次
則好 浦谷
一晃 小峯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
NHK Engineering System Inc
Original Assignee
NHK Engineering Services Inc
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NHK Engineering Services Inc, Japan Broadcasting Corp filed Critical NHK Engineering Services Inc
Priority to JP2005099897A priority Critical patent/JP4575829B2/ja
Publication of JP2006277666A publication Critical patent/JP2006277666A/ja
Application granted granted Critical
Publication of JP4575829B2 publication Critical patent/JP4575829B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、操作者によって選択された表示画面上の位置を解析する技術に係り、特に、操作者が指さした表示画面上の位置を解析する表示画面上位置解析装置及び表示画面上位置解析プログラムに関する。
従来、操作者が表示画面上を選択するためには、マウス、トラックボール、ジョイスティック、タブレット等のポインティングデバイスがある。そして、表示画面上を選択するためには、操作者はこれらのポインティングデバイスを手に持ち、操作しなければならない。これらのポインティングデバイスでは、操作者が意図する表示画面上の位置を直接的に選択することはできず、ポインティングデバイスを操作して、表示画面上のカーソルを意図する位置まで移動させなければならないため、操作には訓練や慣れが必要となる。また、例えばマウスでは、移動させるための平面の机などを必要とし、操作者が操作する環境にも制限があった。
また、操作者が表示画面上の意図する場所を直接選択できるポインティングデバイスとしてタッチパネルがある。しかし、タッチパネルでは、操作者が表示画面に直接触れる必要があるため、コンピュータのように視距離が短い場合は便利であるが、テレビを視聴する場合のように、視距離が大きいときには操作者はそのまま表示画面に触れることができず、身体を移動させなければならない。
そこで、指や操作者の体の動きや位置を検出して、表示画面上の位置を設定する技術が研究されている。例えば、操作者の体の動きを検出する技術として、レーザ光を操作者に照射して動作を検出する技術が開発されている。また、カメラによって操作者を撮影し、撮影された映像から操作者の指先の位置を検出して、その位置から表示画面上のカーソルの位置を設定する技術が開示されている(非特許文献1及び非特許文献2参照)。この技術では、操作者の指先の位置によってカーソルの位置が決まるので、操作者は選択したい位置を指さすことで、その位置の近傍にカーソルを移動させて選択することができる。
更に、操作者の位置を仮定し、この位置と、検出された指先の位置とに基づいて、カーソルの位置を設定する手法がある。この手法では、操作者の位置に基づいてカーソルの位置を設定するため、操作者から見た自分の指先の延長線に近い位置の表示画面上に、カーソルを移動させることができる。
Lee Y、外2名、「シルエット画像を用いた手先動作のリアルタイム認識とその応用」、ヒューマン・インターフェース・シンポジウム論文集、1997年、Vol.13、p.665−672 原川健一、「コンピュータを指の動きで操作するシステム」、画像ラボ、2000年4月1日、Vol.11、No.4、p.29−33
しかしながら、レーザ光を操作者に照射する技術では、レーザ光により操作者の体や目に害を与える可能性があり、また、表示画面の視聴を妨害することがあるという問題があった。また、非特許文献及び非特許文献2の技術では、指先の位置のみに基づいてカーソルの位置を設定するため、操作者の位置によっては、操作者が指さした位置からずれたところにカーソルが移動してしまい、実用的ではなかった。更に、操作者の体の一部の位置を検出する方法では、検出できなかったり、誤検出を生じたりすることがあり、カーソルの位置が不安定になるという問題があった。
更に、操作者の位置を仮定する手法では、操作者の位置を仮定するためにキャリブレーションが必要となる。そのため、表示画面を視聴中に操作者が移動するたびにキャリブレーションを取らなくてはならず、実用的ではなかった。
本発明は、前記従来技術の問題を解決するために成されたもので、操作者の位置に依存せず、また、キャリブレーションを不要とし、かつ、安定して操作者から見た指先の延長線上の表示画面上の位置を解析することができる表示画面上位置解析装置及び表示画面上位置解析プログラムを提供することを目的とする。
前記課題を解決するため、請求項1に記載の表示画面上位置解析装置は、少なくとも2台のカメラによって操作者を含む被写体を撮影した映像を入力し、前記映像を構成するフレーム画像に基づいて、前記操作者の指先によって示される表示装置の表示画面上の位置を解析する表示画面上位置解析装置であって、画像入力手段と、背景画像記憶手段と、距離画像生成手段と、背景差分処理手段と、指先検出手段と、視点検出手段と、画面上位置解析手段とを備える構成とした。
かかる構成によれば、表示画面上位置解析装置は、背景画像記憶手段によって、前記カメラによって撮影された前記操作者の背景の画像である背景画像を記憶する。また、表示画面上位置解析装置は、画像入力手段によって、少なくとも2台のカメラによって操作者を撮影した映像を構成するフレーム画像を時系列に入力し、距離画像生成手段によって、このフレーム画像の視差に基づいて、撮影された被写体の、表示画面からの距離を示す画像である距離画像を生成する。
また、表示画面上位置解析装置は、背景差分処理手段が、前記背景画像記憶手段が記憶する背景画像と前記画像入力手段から入力されたフレーム画像との差分画像を生成する差分処理部と、当該差分画像によって示される差分が閾値より小さい画素をマスクして、前記フレーム画像において前記操作者の撮影されていないマスク領域を示すマスク画像を生成するマスク画像生成部と、前記差分画像によって示される差分の変化量が所定量以下である場合に、前記フレーム画像を前記背景画像であると判断し、前記背景画像記憶手段に記憶させる背景画像選択部とを有する。また、表示画面上位置解析装置は、指先検出手段によって、距離画像生成手段で生成された距離画像に基づいて、所定の大きさの予測領域内で表示画面から被写体までの距離が最短となる部分のフレーム画像内における位置である指先位置を検出する。また、表示画面上位置解析装置は、指先検出手段の予測領域設定手段によって、当該フレーム画像より前に入力されたフレーム画像について検出された指先位置に基づいて、当該距離画像における指先位置を予測した予測位置を算出し、距離画像における予測位置を含む予測領域を設定する。これによって、表示画面上位置解析装置は、指先位置を追跡して、予測領域を設定するため、安定して指先位置を検出することができる。また、表示画面上位置解析装置は、指先検出手段の指先判定手段によって、前記マスク画像生成部が生成したマスク画像によって示されるマスク領域を除いた領域である非マスク領域から前記指先位置を検出し、当該指先位置における前記距離と、前記非マスク領域における前記距離の平均値とに基づいて、前記指先位置が前記指先の位置を示すか否かを判定する。
更に、表示画面上位置解析装置は、視点検出手段によって、画像入力手段から入力されたフレーム画像から、当該フレーム画像内における操作者の目の間の位置である視点位置を検出し、画面上位置解析手段によって、指先検出手段で検出された指先位置と、視点検出手段によって検出された視点位置と、指先位置及び視点位置における、距離画像によって示される距離とに基づいて、指先によって示される表示画面上の位置を解析する。
これによって、表示画面上位置解析装置は、操作者を撮影した映像に基づいて、指先位置と視点位置とを検出して、この指先位置と、視点位置と、視差を利用して生成した被写体の表示画面からの距離を示す距離画像とに基づいて、操作者の指先と目の間の位置の三次元位置を解析することができる。更に、表示画面上位置解析装置は、この三次元位置に基づいて、操作者の目の間から指先を通る延長線が表示画面と交差する位置を解析して、この位置の表示画面上における位置を解析することができ、操作者の指先によって示される表示装置の表示画面上の位置を解析することができる。
これによって、表示画面上位置解析装置は、背景画像とフレーム画像との差分画像に基づいて、背景画像と変化の生じた部分、つまり、操作者の撮影されている領域から指先位置を検出するため、安定して指先位置を検出することができる。また、非マスク領域における被写体から表示画面までの距離の平均値と、指先位置の距離は、それぞれ操作者の表示画面からの距離の平均値と、検出された指先位置に対応する被写体の表示画面からの距離とを示すため、表示画面上位置解析装置は、操作者に比べて、検出された指先位置に対応する被写体がどれだけ表示画面に近いかに基づいて、指先位置が操作者の指先に対応する位置であるかを判定することができる。
これによって、表示画面上位置解析装置は、背景が変化した場合においても、変化後の背景画像を背景画像記憶手段に記憶させるため、操作者が撮影されている領域のみを非マスク領域として設定でき、安定して指先を検出することができる。
また、請求項に記載の表示画面上位置解析プログラムは、少なくとも2台のカメラによって操作者を含む被写体を撮影した映像を入力し、前記映像を構成するフレーム画像に基づいて、前記操作者の指先によって示される表示装置の表示画面上の位置を解析するために、前記カメラによって撮影された前記操作者の背景の画像である背景画像を記憶する背景画像記憶手段を備えるコンピュータを、画像入力手段、距離画像生成手段、背景差分処理手段、指先検出手段、視点検出手段、画面上位置解析手段として機能させることとした。
かかる構成によれば、表示画面上位置解析プログラムは、画像入力手段によって、少なくとも2台のカメラによって操作者を撮影した映像を構成するフレーム画像を時系列に入力し、距離画像生成手段によって、このフレーム画像の視差に基づいて、撮影された被写体の、表示画面からの距離を示す画像である距離画像を生成する。
また、表示画面上位置解析プログラムは、背景差分処理手段が、前記背景画像記憶手段が記憶する背景画像と前記画像入力手段から入力されたフレーム画像との差分画像を生成する差分処理部と、当該差分画像によって示される差分が閾値より小さい画素をマスクして、前記フレーム画像において前記操作者の撮影されていないマスク領域を示すマスク画像を生成するマスク画像生成部と、前記差分画像によって示される差分の変化量が所定量以下である場合に、前記フレーム画像を前記背景画像であると判断し、前記背景画像記憶手段に記憶させる背景画像選択部とを有する。また、表示画面上位置解析プログラムは、指先検出手段によって、距離画像生成手段で生成された距離画像に基づいて、所定の大きさの予測領域内で表示画面から被写体までの距離が最短となる部分のフレーム画像内における位置である指先位置を検出する。また、表示画面上位置解析プログラムは、指先検出手段の予測領域設定手段によって、当該フレーム画像より前に入力されたフレーム画像について検出された指先位置に基づいて、当該距離画像における指先位置を予測した予測位置を算出し、距離画像における予測位置を含む予測領域を設定する。また、表示画面上位置解析プログラムは、指先検出手段の指先判定手段によって、前記マスク画像生成部が生成したマスク画像によって示されるマスク領域を除いた領域である非マスク領域から前記指先位置を検出し、当該指先位置における前記距離と、前記非マスク領域における前記距離の平均値とに基づいて、前記指先位置が前記指先の位置を示すか否かを判定する。
更に、表示画面上位置解析プログラムは、視点検出手段によって、画像入力手段から入力されたフレーム画像から、当該フレーム画像内における操作者の目の間の位置である視点位置を検出し、画面上位置解析手段によって、指先検出手段で検出された指先位置と、視点検出手段によって検出された視点位置と、指先位置及び視点位置における、距離画像によって示される距離とに基づいて、指先によって示される表示画面上の位置を解析する。
これによって、表示画面上位置解析プログラムは、操作者を撮影した映像に基づいて、指先位置と視点位置とを検出して、この指先位置と、視点位置と、視差を利用して生成した被写体の表示画面からの距離を示す距離画像とに基づいて、操作者の指先と目の間の位置の三次元位置を解析することができる。更に、表示画面上位置解析プログラムは、この三次元位置に基づいて、操作者の目の間から指先を通る延長線が表示画面と交差する位置を解析して、この位置の表示画面上における位置を解析することができ、操作者の指先によって示される表示装置の表示画面上の位置を解析することができる。また、表示画面上位置解析プログラムは、指先位置を追跡して、予測領域を設定するため、安定して指先位置を検出することができる。
本発明に係る表示画面上位置解析装置及び表示画面上位置解析プログラムでは、以下のような優れた効果を奏する。
請求項1又は請求項に記載の発明によれば、操作者を撮影した映像に基づいて、操作者の指先によって示される表示画面上の位置を解析するため、操作者はリモコン等のデバイスを操作することなく、指さすだけで表示画面上の位置を指定することができる。また、操作者の指先の位置と目の間の位置を検出するため、操作者の位置に依存せず、操作者の目の間から指先への延長線上の表示画面上の位置を解析することができるとともに、操作者の位置が変化した際にもキャリブレーションを行う必要がなくなる。
更に、レーザ光を操作者に照射したり、あるいは、操作者の体に、位置を検出するための検出器等を装着させる必要がないため、操作者に害を与えたり、操作者が表示画面を視聴する際に不快感を与えることない。また、指先位置を追跡することで安定して指先位置を検出することができるため、操作者が指さした表示画面上の位置を安定して解析することができる。
請求項1又は請求項2に記載の発明によれば、操作者の撮影されている領域のみから指先位置を検出するため、表示画面の近くにある操作者以外のものが指先として検出されることがなくなり、安定して操作者が指さした表示画面上の位置を解析することができる。また、操作者に比べて、検出された指先位置に対応する被写体がどれだけ表示画面に近いかに基づいて、指先位置が操作者の指先に対応する位置であるかを判定するため、操作者が表示画面上の位置を指さしておらず腕を下ろしている場合には位置を検出せず、指さしている場合のみ表示画面上の位置を解析することができる。
請求項1又は請求項2に記載の発明によれば、背景画像を自動で背景画像記憶手段に記憶させることができるため、予めあるいは背景が変化した際に、操作者が背景画像を登録する必要がなくなる。
以下、本発明の実施の形態について図面を参照して説明する。
[カーソル位置解析装置の構成]
図1及び図2を参照して、本発明の実施の形態であるカーソル位置解析装置(表示画面上位置解析装置)1の構成について説明する。図1は、本発明における実施の形態であるカーソル位置解析装置の概要を説明するための説明図である。図2は、本発明における実施の形態であるカーソル位置解析装置の構成を示したブロック図である。
図1に示すように、カーソル位置解析装置1は、例えば、テレビ受像機のような表示装置Dの表示画面近傍に設置された複数のカメラを有する立体カメラCによって操作者Uを撮影した映像を外部から入力し、当該映像に示される操作者Uの指先と目の間である眉間(視点)の位置を算出して、当該眉間から指先への延長線上に示される表示装置Dの表示画面上の位置を解析し、この位置にカーソルSを表示させるものである。そして、図2に示すように、ここでは、カーソル位置解析装置1は、画像入力手段10と、距離画像生成手段11と、背景差分処理手段12と、背景画像蓄積手段13と、指先検出手段14と、顔検出手段15と、眉間検出手段16と、眉間位置設定手段17と、カーソル位置解析手段18と、カーソル表示手段19と、映像入力手段20とを備える。
画像入力手段10は、立体カメラCによって撮影された操作者Uの映像を構成するフレーム画像を時系列に入力するものである。この画像入力手段10によって入力されるフレーム画像は、複数のカメラによって撮影されたものであり、異なる位置から同時刻に撮影された複数のフレーム画像が同時に入力される。ここで入力されたフレーム画像は、距離画像生成手段11と、背景差分処理手段12と、顔検出手段15とへ出力される。
距離画像生成手段11は、画像入力手段10から入力されたフレーム画像に基づいて、当該フレーム画像内に撮影された被写体の、表示画面からの距離を示す距離画像を生成するものである。ここで生成された距離画像は、指先検出手段14と、カーソル位置解析手段18とに出力される。
ここで、画像入力手段10には、異なる位置の複数のカメラによって撮影されたフレーム画像が入力され、距離画像生成手段11は、これらのフレーム画像の視差を計算し、この視差に基づいて距離を計算することで、表示画面の近くに設置されたカメラからの距離を示す画像を、距離画像として生成することとした。なお、ここでは、立体カメラCを表示画面の近傍に設置したため、距離画像生成手段11は、カメラからの距離を示す画像を生成することで、表示画面からの距離を示す距離画像を生成することができる。この視差の計算は、例えば、ブロックマッチング法によって行うことができる。以下、ブロックマッチング法によって、距離画像を生成する方法について説明する。
まず、距離画像生成手段11は、それぞれのフレーム画像について、画素ごとに、その画素を中心としたブロックを設定する。このブロックは、例えば、8×8画素のような、所定数の画素の集まりである。そして、距離画像生成手段11は、注目するフレーム画像のブロックと、他のフレーム画像のブロックとのマッチングを取る。そして、マッチングの結果、最もマッチングのとれた2つのブロックの中心の画素のずれが、フレーム画像間の視差値となる。このとき、サブピクセル処理により、ずれを1画素の間隔よりも小さくすることもできる。そして、距離画像生成手段11は、視差値をその画素の値とする。更に、距離画像生成手段11は、注目するフレーム画像の次の画素について、視差値を同様に計算する。このようにして、距離画像生成手段11は、注目するフレーム画像の全画素について視差値を求め、これを画素の値とする視差画像を生成する。
更に、距離画像生成手段11は、視差画像の視差値を距離に対応する画素値に変換して距離画像を生成する。この際、予めキャリブレーションを行い、カメラの内部パラメータ(カメラパラメータ)を求めておき、距離画像生成手段11は、このカメラパラメータを用いて、視差値から距離に変換する。以上のようにして、距離画像生成手段11は、注目するフレーム画像の各々の画素について、当該画素に対応する被写体の表示画面からの距離を示す距離画像を生成することができる。
なお、立体カメラCが、表示画面から離れた位置に設置され、距離画像生成手段11は、視差に基づいて1つのカメラからの距離を算出し、更に、各々の画素に対応する実空間における三次元位置を算出することで、表示画面からの距離を示す距離画像を算出することとしてもよい。また、立体カメラCは、少なくとも2台のカメラを備えていればよく、2台以上であれば、距離画像生成手段11は、フレーム画像から、視差に基づいて距離画像を生成することができる。
背景差分処理手段12は、後記する背景画像蓄積手段13に蓄積された、操作者Uのいない背景を撮影した画像である背景画像と、画像入力手段10から入力されたフレーム画像との差分画像を生成し、背景の領域を示すマスク画像を生成するものである。ここでは、背景差分処理手段12は、差分処理部12aと、マスク画像生成部12bと、背景画像選択部12cとを備える。
差分処理部12aは、背景画像蓄積手段13に蓄積された背景画像と、画像入力手段10から入力されたフレーム画像との差分画像を生成するものである。ここで、差分処理部12aは、フレーム画像と背景画像との差分を画素ごとに計算して差分画像とする。ここで生成された差分画像はマスク画像生成部12bと、背景画像選択部12cとに出力される。なお、差分処理部12aが差分を計算する際に用いる信号としては、輝度信号、色差信号、色信号、I信号や、これらの信号を組み合わせたものを用いることができる。
マスク画像生成部12bは、差分処理部12aによって生成された差分画像に基づいて、画像入力手段10から入力されたフレーム画像において、操作者Uの撮影されていない領域を示すマスク画像を生成するものである。このマスク画像生成部12bは、差分画像によって示される差分が閾値より小さい画素をマスクとし、マスク画像を生成することができる。この閾値には、例えば、背景画像を撮影した際の各画素値の分散、最大値などを用いることができる。ここで生成されたマスク画像は、指先検出手段14の最近接ブロック判定部14bに出力される。
背景画像選択部12cは、差分処理部12aによって生成された差分画像に基づいて、画像入力手段10から入力されたフレーム画像が、背景を撮影した画像であるかを判別するものである。ここで背景画像と判別されたフレーム画像は、背景画像蓄積手段13に蓄積される。これによって、予め背景画像を背景画像蓄積手段13に蓄積させなくても、背景画像選択部12cによってフレーム画像の中から自動的に背景画像となる画像を選択することができる。
ここで、背景画像選択部12cは、差分処理部12aによって生成された差分画像によって示される差分の合計(変化量)が所定値より小さいときに、背景を撮影した画像であると判別することができる。なお、ここでは、背景画像選択部12cは、背景の画像と判別した画像を背景画像蓄積手段13に蓄積させるとともに、カメラノイズの影響を低減するために、背景画像蓄積手段13に蓄積された背景を撮影した複数のフレーム画像の各々の画素値の平均値を画素値とする画像である背景画像を生成して背景画像蓄積手段13に蓄積させることとした。
背景画像蓄積手段(背景画像記憶手段)13は、背景を撮影した画像である背景画像を蓄積するもので、半導体メモリ、ハードディスク等の一般的な記憶手段である。ここでは、背景画像蓄積手段13は、背景画像選択部12cによって背景の画像と判別された画像と、背景画像選択部12cによって生成された背景画像とを蓄積することとした。また、背景画像蓄積手段13には、予め背景画像が蓄積されていることとしてもよいし、背景画像選択部12cによって背景の画像と判別された最新の画像を背景画像として蓄積することとしてもよい。ここで蓄積されている背景画像は、差分処理部12aによって、差分画像を生成する際に読み出され、背景画像選択部12cによって、背景画像を生成する際に読み出される。
指先検出手段14は、距離画像生成手段11によって生成された距離画像と、背景差分処理手段12によって生成されたマスク画像とに基づいて、画像入力手段10から入力されたフレーム画像内において撮影された操作者Uの指先の位置を検出するものである。ここで指先検出手段14は、候補ブロック探索部14aと、最近接ブロック判定部14bと、指先判定部14cと、予測領域設定部14dとを備える。
候補ブロック探索部14aは、距離画像生成手段11によって生成された距離画像のうち、背景差分処理手段12によって生成されたマスク画像によって示されるマスク領域を除いた領域である非マスク領域及び後記する予測領域設定部14dによって設定された予測領域をブロック化し、距離画像によって示される距離の短いブロックを所定数だけ抽出するものである。ここで抽出されたブロックは、最近接ブロック判定部14bに出力される。
なお、ブロックは、例えば、8×8画素の領域のような、複数の画素によって構成される。また、非マスク領域は、フレーム画像において操作者Uの画像の存在する領域である。そのため、距離画像のこの領域について、距離の短いブロックを抽出することで、候補ブロック探索部14aは、背景の影響を除去して、操作者Uの指先に対応する領域を含むブロックを抽出することができる。また、予測領域は、指先の動きに基づいて、指先に対応するブロックが高い確率で存在すると予測された領域である。この予測領域からも距離の短いブロックを抽出することで、指先の位置を追跡し、安定して指先に対応する領域を含むブロックを抽出することができる。ここでは、候補ブロック探索部14aは、距離が短い順に所定数のブロックを抽出することとした。
最近接ブロック判定部14bは、候補ブロック探索部14aによって抽出されたブロックのうち、1つのブロックを、指先位置を示すブロックとして選定するものである。ここで、最近接ブロック判定部14bには、後記する予測領域設定部14dによって前のフレーム画像の指先の位置に基づいて、この距離画像内において指先に対応するブロックが存在すると予測された予測領域の情報が入力され、最近接ブロック判定部14bは、この予測領域内に、候補ブロック探索部14aによって抽出されたブロックが含まれる場合には、この予測領域内のブロックから距離の最も短いブロックを選定し、予測領域内に含まれない場合には、予測領域外において距離が最も短いブロックを選定する。ここで選定されたブロックは、指先判定部14cに出力される。
指先判定部(指先判定手段)14cは、最近接ブロック判定部14bによって選定されたブロックの距離と、操作者Uの画像に対応するブロックの距離の平均値とを比較し、選定されたブロックが指先に対応するブロックか否かを判定するものである。ここで、指先判定部14cは、背景差分処理手段12によって生成されたマスク画像によって示されるマスク領域以外の領域の距離の平均値を算出し、この平均値と、最近接ブロック判定部14bによって選定されたブロックの距離との差が所定値より大きいか否かを判断する。そして、所定値より大きければ、最近接ブロック判定部14bは、このブロックが指先に対応するブロックであると判定し、距離画像上におけるこのブロックの位置の情報(指先位置)を予測領域設定部14dとカーソル位置解析手段18とに、指先に対応するブロックが検出されたことを示す検出開始信号を眉間位置設定手段17に出力する。また、所定値より大きくなければ、指先判定部14cは、このブロックは指先に対応するブロックではないと判定し、不検出信号をカーソル表示手段19に出力する。
つまり、非マスク領域は、操作者Uの画像に対応する領域であり、この領域の距離の平均値は、フレーム画像を撮影したカメラから操作者Uまでの距離を示しているとみなすことができる。そして、所定値を、例えば、腕の長さ程度に設定しておき、予測領域内で最もカメラに近い部分が、マスク領域以外の領域内の距離の平均値より所定値以上近ければ、操作者Uは腕を上げて指先を表示画面に向けていることが分かる。一方、所定値以上近くなければ、操作者Uは指先を表示画面に向けておらず、表示画面上にカーソルを表示する必要がないことが分かる。なお、マスク領域以外の領域内の距離の平均値の代わりに、後記する眉間検出手段16によって検出された眉間の位置における距離を用いることとしてもよい。
予測領域設定部(予測領域設定手段)14dは、指先判定部14cから入力された指先位置に基づいて、次のフレームの距離画像内において指先に対応するブロックが存在すると予測される領域である予測領域を設定するものである。ここでは、予測領域設定部14dは、現在のフレームと1フレーム前の距離画像に基づいて検出された指先に対応するブロックの位置(指先位置)に基づいて、距離画像上において指先が移動する速度を推定し、その速度から次のフレームの距離画像における指先位置を推定する。なお、指先位置の推定には、例えば、一般的なカルマンフィルタを用いることができる。そして、予測領域設定部14dは、その指先位置を中心とした所定の大きさの領域を予測領域とする。ここで設定された予測領域は、候補ブロック探索部14aと、最近接ブロック判定部14bとに出力される。
顔検出手段15は、画像入力手段10から入力されたフレーム画像から操作者Uの顔を検出するものである。この顔の検出は、後記する眉間検出手段16によって、フレーム画像から操作者Uの両目の間である眉間の検出を高速に行うための前処理であり、眉間の検出が実時間で処理できる場合は、カーソル位置解析装置1は顔検出手段15を備えず、眉間検出手段16によって、画像入力手段10から入力されたフレーム画像から直接眉間を検出することとしてもよい。ここで検出された顔の領域は、眉間検出手段16に出力される。また、顔が検出されなかった場合には、顔検出手段15は、顔が検出されなかった旨を眉間位置設定手段17に通知する。このように、顔検出手段15が検出範囲を限定して、後記する眉間検出手段16による眉間の位置を検出するため、処理速度を向上させることができる。
なお、この顔検出手段15は、一般的な顔検出手法を用いることができる。例えば、顔検出手段15は、色情報に基づく手法を用いることができる。この手法は、フレーム画像内において、予め設定した顔色に近い色が存在する領域を、顔の領域と判断する。この手法には、色の差分を求めるためにRGB空間を用いる方法や、色差のみを用いる方法や、I軸を用いる方法などがある。
また、顔検出手段15は、顔検出手法として、OpenCVライブラリに含まれる顔画像認識アルゴリズムを用いることとしてもよい。このOpenCVは、インテル(登録商標)社によって開発者向けにオープンソースで公開されている、Computer Vision関連のソフトウェア・ライブラリーである。このOpenCVに含まれる顔認識のアルゴリズムは、Paul Violaらによって提案され、Rainer Lienharらにより改良されたものである。この顔認識アルゴリズムでは、数百のサンプルにより学習を行った検出器を用いて、顔の検出を行う。検出器は階層化された構造を持ち、高速にオブジェクトの検出を行うことができる。
ここで、この顔検出手段15は、例えば、後記する眉間検出手段16の眉間候補点選択部16bによって選択された前フレームの眉間の位置に基づいて、顔を検出する範囲を特定することとしてもよい。
眉間検出手段(視点検出手段)16は、顔検出手段15によって検出された顔の画像の領域から、眉間の位置を検出するものである。ここでは、眉間検出手段16は、リングフィルタを用いて眉間の位置を検出することとした。眉間検出手段16は、リングフィルタ部16aと、眉間候補点選択部16bとを備える。なお、ここでは、眉間検出手段16が、リングフィルタを用いる場合について説明するが、眉間検出手段16は、この手法に限定されず、眉間の位置を検出する様々な手法によって実現することができる。
リングフィルタ部16aは、顔検出手段15から入力された顔の画像の領域から、1次元のリングフィルタによって、眉間の画像の候補を抽出するものである。ここで、リングフィルタ部16aは、1次元の情報に基づいて候補を抽出するため、眉間以外の領域も含む複数の候補が抽出される。ここで抽出された眉間の候補は、眉間候補点選択部16bに出力される。
眉間候補点選択部16bは、リングフィルタ部16aによって抽出された複数の眉間の候補から、1つの眉間の候補を操作者Uの眉間の画像として選択し、この候補の位置を検出するものである。ここでは、眉間候補点選択部16bは、眉間の候補に対して、図示しない蓄積手段に予め蓄積された眉間の2次元テンプレートのマッチングを行い、最も一致する候補の位置を検出することとした。ここで検出された眉間の位置の情報は、眉間位置設定手段17に出力される。
眉間位置設定手段17は、フレーム画像内における操作者Uの眉間の位置である眉間位置を設定するものである。ここで、眉間位置設定手段17は、顔検出手段15からの顔が検出されなかった通知と、眉間候補点選択部16bからの眉間の位置の情報のいずれかを入力し、眉間位置を設定する。また、眉間位置設定手段17は、指先検出手段14の指先判定部14cから入力される検出開始信号に基づいて、指先検出手段14によって指先が検出され続けている間は、眉間位置をロック(固定)する。ここで設定された眉間位置は、カーソル位置解析手段18に出力される。以下、眉間位置設定手段17が眉間位置を設定する方法について説明する。
眉間位置設定手段17は、指先検出手段14の指先判定部14cから1つ前のフレーム及び現在のフレームにおいて検出開始信号が入力されると、1つ前のフレームにおいて設定された眉間位置を現在のフレームの眉間位置とする。また、眉間位置設定手段17は、眉間候補点選択部16bから眉間の位置を示す情報が入力され、かつ、指先検出手段14の指先判定部14cから1つ前のフレーム及び現在のフレームにおいて検出開始信号が入力されていない場合には、眉間候補点選択部16bから入力された眉間の位置を眉間位置とする。
また、眉間位置設定手段17は、眉間候補点選択部16bから入力される眉間の位置の変動量が所定時間以上、所定値以下の場合にも、1つ前のフレームにおいて設定された眉間位置を現在のフレームの眉間位置とする。このように設定することで、眉間位置設定手段17は、操作者UがカーソルSを表示画面上に表示させる位置を指定する一連の動作を行う間は、操作者Uの眉間の位置をロックすることができ、カーソルSの動きを安定させることができる。また、眉間位置設定手段17は、操作者Uの眉間の位置にわずかな変動がある場合にも、操作者Uの眉間の位置をロックすることができ、カーソルSの動きを安定させることができる。
更に、眉間位置設定手段17は、顔検出手段15からの顔が検出されなかった通知が入力された場合には、フレーム画像の中央の位置を眉間位置として設定することとした。また、眉間位置設定手段17は、眉間候補点選択部16bからの眉間の位置の情報が入力されていない場合には、過去に眉間検出手段16によって眉間が検出されていれば、最後の眉間の位置を、検出されていなければ顔検出手段15によって検出された顔の領域の中央の位置を眉間位置として設定する。
カーソル位置解析手段(画面上位置解析手段)18は、距離画像生成手段11によって生成された距離画像と、指先判定部14cによって検出された指先位置と、眉間位置設定手段17によって設定された眉間位置とに基づいて、操作者Uの眉間から指先への延長線上に示される表示装置Dの表示画面上の位置を解析し、カーソルSの位置として設定するものである。カーソル位置解析手段18は、三次元位置算出部18aと、カーソル位置算出部18bとを備える。
三次元位置算出部18aは、距離画像生成手段11によって生成された距離画像と、指先判定部14cによって検出された指先位置と、眉間位置設定手段17によって設定された眉間位置とに基づいて、操作者Uの指先及び眉間の三次元位置を算出するものである。この際、予めキャリブレーションを行い、カメラパラメータを求めておく。そして、三次元位置算出部18aは、このカメラパラメータと、指先位置及び眉間位置と、この指先位置及び眉間位置における距離画像によって示される表示画面から指先及び眉間までの距離とに基づいて、指先及び眉間の三次元位置を算出することができる。ここで算出された指先及び眉間の三次元位置は、カーソル位置算出部18bに出力される。
カーソル位置算出部18bは、三次元位置算出部18aによって算出された指先及び眉間の三次元位置に基づいて、カーソルSを表示する位置である、操作者Uの指先によって示される表示装置Dの表示画面上の位置を解析するものである。ここで、カーソル位置解析装置1には、カメラと表示画面との位置関係が予め登録されていることとする。そして、カーソル位置算出部18bは、指先及び眉間の三次元位置に基づいて、この2点を通る直線の方程式を求め、この直線と表示画面との交点を算出して、この交点の表示画面上における位置をカーソルSの位置とする。これによって、カーソル位置算出部18bは、操作者Uから見て、指先の延長線上にある表示画面上の位置を解析することができる。ここで解析されたカーソルSの位置は、カーソル表示手段19に出力される。なお、カメラと表示画面との位置関係を示すデータは、表示画面とカメラの位置関係が変化しない限り、固定の値である。
カーソル表示手段19は、後記する映像入力手段20から表示画面に表示する映像を入力して、この映像を構成するフレーム画像の各々に対して、カーソル位置算出部18bによって算出された位置にカーソルSの画像を付加して、表示可能な出力形式に変換して表示装置Dへ出力するものである。
映像入力手段20は、表示装置Dの表示画面に表示するための映像を入力するものである。ここで入力された映像は、カーソル表示手段19に出力される。
以上によって、カーソル位置解析装置1は、操作者Uを撮影した映像に基づいて、操作者Uから見て指先の延長線上の表示画面上の位置に、カーソルSを表示させることができる。そのため、操作者Uは、リモコン等のデバイスを持たずに、容易にカーソルSの位置を設定することができる。また、カーソル位置解析装置1は、操作者Uの眉間(視点)の位置も検出するため、操作者Uがどの位置にいても、操作者Uから見て指先の延長線上にカーソルSを表示させることができる。
また、カーソル位置解析装置1によれば、操作者Uの位置が変化したときに、補正するためのキャリブレーションを行う必要がなくなる。更に、カーソル位置解析装置1によれば、レーザ光を発したり、あるいは、操作者Uに対して、位置を検出するための検出器等を装着する必要がないため、操作者Uに害を与えたり、操作者Uに対して、検出器を取り付けることによる不快感を与えるようなことはない。
また、カーソル位置解析装置1は、眉間位置設定手段17によって、継続して指先を検出している間に、誤検出を起こしやすかった眉間検出にロックをかけることにより、安定してカーソルSを移動させることができる。更に、カーソル位置解析装置1は、指先検出手段14の予測領域設定部14dによって、指先位置を追跡して予測領域を設定し、この予測領域内から次の指先位置を検出するため、誤検出を防ぎ安定して指先位置を検出することができる。
なお、ここでは、カーソル位置解析装置1は、距離画像生成手段11によって、視差値を表示画面からの距離に変換して、各々の画素にこの距離を対応させた距離画像を生成することとしたが、本発明のカーソル位置解析装置1は、距離画像生成手段11によって、表示画面からフレーム画像の各画素に対応する被写体までの距離を示す距離画像を生成すればよく、例えば、この距離を示す視差値を各画素に対応させた視差画像を生成して距離画像とし、カーソル位置解析手段18の三次元位置算出部18aによって視差値を距離に変換することとしてもよい。
更に、ここでは、カーソル位置解析装置1は、指先検出手段14によって、予測領域を設定して、この予測領域とマスク領域とに基づいて、距離画像から指先位置を検出することとしたが、本発明のカーソル位置解析装置1は、予測領域を設定しないこととしてもよい。このとき、カーソル位置解析装置1は、予測領域設定部14dを備えず、指先検出手段14の候補ブロック探索部14aによって、距離画像の非マスク領域をブロック化して距離の短いブロックを所定数抽出し、最近接ブロック判定部14bによって、抽出されたブロックから距離の最も短いブロックを選定して、指先判定部14cによって、選定されたブロックが指先に対応するブロックか否かを判定する。
また、カーソル位置解析装置1は、コンピュータにおいて各手段を各機能プログラムとして実現することも可能であり、各機能プログラムを結合して、カーソル位置解析プログラムとして動作させることも可能である。
[カーソル位置解析装置の動作]
次に、図3から図6(適宜図2参照)を参照して、本発明におけるカーソル位置解析装置1の動作について説明する。まず、図3を参照して、カーソル位置解析装置1が、操作者Uを撮影した映像を外部から入力し、当該映像に示される操作者Uの指先によって示される表示装置Dの表示画面の位置にカーソルSを表示させる動作について説明する。図3は、本発明におけるカーソル位置解析装置の動作を示したフローチャートである。
カーソル位置解析装置1は、画像入力手段10によって、立体カメラCで操作者Uを撮影した映像のフレーム画像と、映像入力手段20によって、表示画面に表示するための映像のフレーム画像とを外部から入力する(ステップS10)。ここで、立体カメラCは複数のカメラを有し、カーソル位置解析装置1は、画像入力手段10によって、異なる位置から撮影した複数の映像を入力する。
続いて、カーソル位置解析装置1は、距離画像生成手段11による後記する距離画像生成動作によって、ステップS10において画像入力手段10から入力されたフレーム画像から、当該フレーム画像内に撮影された被写体の、表示画面からの距離を示す距離画像を生成し(ステップS11)、ステップS19に進む。
また、ステップS10においてフレーム画像を入力した後、カーソル位置解析装置1は、背景差分処理手段12の差分処理部12aによって、背景画像蓄積手段13に蓄積された背景画像と、ステップS10において画像入力手段10から入力されたフレーム画像との差分画像を生成する(ステップS12)。続いて、カーソル位置解析装置1は、背景差分処理手段12のマスク画像生成部12bによって、ステップS12において生成された差分画像に基づいて、操作者Uの撮影されていない領域を示すマスク画像を生成する(ステップS13)。
また、カーソル位置解析装置1は、背景差分処理手段12の背景画像選択部12cによって、ステップS13において生成された差分画像に基づいて、ステップS10において画像入力手段10から入力されたフレーム画像が、背景を撮影した画像であるかを判断する(ステップS14)。そして、背景の画像である場合(ステップS14でYes)には、カーソル位置解析装置1は、背景画像選択部12cによって、ステップS10において画像入力手段10から入力されたフレーム画像及びすでに背景画像蓄積手段13に蓄積された背景の画像に基づいて背景画像を生成し、このフレーム画像と背景画像とを背景画像蓄積手段13に蓄積させ(ステップS15)ステップS16に進む。また、背景の画像でない場合(ステップS14でNo)には、そのままステップS19に進む。
また、ステップS10においてフレーム画像を入力した後、カーソル位置解析装置1は、顔検出手段15によって、ステップS10において画像入力手段10から入力されたフレーム画像から操作者Uの顔の画像を検出する(ステップS16)。そして、カーソル位置解析装置1は、眉間検出手段16のリングフィルタ部16aによって、リングフィルタを用いて眉間の候補を抽出する(ステップS17)。更に、カーソル位置解析装置1は、眉間検出手段16の眉間候補点選択部16bによって、ステップS17において抽出された眉間の候補から、1つの眉間の候補を選択し、この眉間の位置を検出し(ステップS18)、ステップS19に進む。
そして、カーソル位置解析装置1は、指先検出手段14による後記する指先検出動作によって、ステップS11において生成された距離画像と、ステップS13において生成されたマスク画像とに基づいて指先位置を検出し(ステップS19)、ステップS20に進む。そして、カーソル位置解析装置1は、指先検出手段14の指先判定部14cによって、指先の位置が検出されたかを判断する(ステップS20)。つまり、カーソル位置解析装置1は、指先判定部14cによって、ステップS13において生成されたマスク画像によって示されるマスク領域以外の領域内における距離画像によって示される距離の平均値を算出し、この平均値と、ステップS19において検出された指先位置の距離画像によって示される距離との差が所定値より大きいかを判断する。
そして、指先の位置が検出されなかった場合(ステップS20でNo)には、カーソル位置解析装置1は、カーソル表示手段19によって、ステップS10において映像入力手段20から入力されたフレーム画像にカーソルSの画像を付加せずにそのまま出力し(ステップS21)、ステップS10に戻って、操作者Uを撮影した映像と表示画面に表示するための映像とのフレーム画像を入力する動作以降の動作を行う。
また、指先の位置が検出された場合(ステップS20でYes)には、カーソル位置解析装置1は、予測領域設定部14dによって、ステップS19において検出された指先位置と、前のフレームについて検出された指先位置とに基づいて、次のフレームの距離画像の予測領域を設定する(ステップS22)。そして、カーソル位置解析装置1は、眉間位置設定手段17による後記する眉間位置設定動作によって、眉間位置を設定する(ステップS23)。
そして、カーソル位置解析装置1は、カーソル位置解析手段18の三次元位置算出部18aによって、ステップS11において生成された距離画像と、ステップS19において検出された指先位置とステップS23において検出された眉間位置とに基づいて、操作者Uの指先と眉間の三次元位置を算出する(ステップS24)。そして、カーソル位置解析装置1は、カーソル位置算出部18bによって、ステップS24において算出された指先と眉間の三次元位置とに基づいて、この2点を通る直線と表示画面との交点を算出し、この交点の表示画面上における位置をカーソルの位置として算出する(ステップS25)。
そして、カーソル位置解析装置1は、カーソル表示手段19によって、ステップS10において映像入力手段20から入力されたフレーム画像における、ステップS25において算出されたカーソルの位置に、カーソルSの画像を付加して出力し(ステップS26)、ステップS10に戻って、操作者Uを撮影した映像のフレーム画像と表示画面に表示するための映像のフレーム画像を入力する動作以降の動作を行う。
以上の動作によって、カーソル位置解析装置1は、操作者Uを撮影した映像に基づいて、操作者Uから見て指先の延長線上の表示画面上の位置に、カーソルを表示させることができる。
(距離画像生成動作)
次に図4を参照(適宜図1及び図3参照)して、カーソル位置解析装置1が距離画像生成手段11によって、画像入力手段10から入力されたフレーム画像に基づいて距離画像を生成する距離画像生成動作(図3のステップS11)について説明する。図4は、本発明におけるカーソル位置解析装置の距離画像生成動作を示したフローチャートである。
まず、カーソル位置解析装置1は、図3のステップS10において画像入力手段10から入力されたフレーム画像について、各々の画素を中心としたブロックを設定する(ステップS30)。そして、カーソル位置解析装置1は、距離画像生成手段11によって、注目するフレーム画像のブロックと、他のフレーム画像のブロックとのマッチングを取り、最もマッチングのとれたブロックの中心の画素のずれを、この画素の視差値とする(ステップS31)。
そして、カーソル位置解析装置1は、距離画像生成手段11によって、注目するフレーム画像のすべての画素についてマッチングが終了したかを判断する(ステップS32)。そして、すべての画素について終了していない場合(ステップS32でNo)には、カーソル位置解析装置1は、距離画像生成手段11によって、次の画素を設定し(ステップS33)、ステップS31に戻って、注目するフレーム画像のこの画素のブロックと、他のフレーム画像のブロックとのマッチングを取る動作以降の動作を行う。
また、すべての画素について終了した場合(ステップS32でYes)には、カーソル位置解析装置1は、距離画像生成手段11によって、ステップS31においてマッチングによって算出された視差値を距離に変換して距離画像を生成し(ステップS34)、動作を終了する。
(指先検出動作)
次に図5を参照(適宜図1及び図3参照)して、カーソル位置解析装置1が指先検出手段14の候補ブロック探索部14aと最近接ブロック判定部14bとによって、距離画像生成手段11によって生成された距離画像から指先位置を検出する指先検出動作(図3のステップS19)について説明する。図5は、本発明におけるカーソル位置解析装置の指先検出動作を示したフローチャートである。
まず、カーソル位置解析装置1は、指先検出手段14の候補ブロック探索部14aによって、図3のステップS11において生成された距離画像のうち、図3のステップS13において生成されたマスク画像によって示される非マスク領域及び図3のステップS22において設定された予測領域をブロック化し(ステップS40)、距離画像によって示される距離の短いブロックを所定数抽出する(ステップS41)。
そして、カーソル位置解析装置1は、最近接ブロック判定部14bによって、ステップS41において抽出されたブロックが予測領域に含まれているかを判断する(ステップS42)。そして、予測領域に含まれている場合(ステップS42でYes)には、カーソル位置解析装置1は、最近接ブロック判定部14bによって、予測領域内のブロックのうち距離の最も短いブロックを選定して、当該ブロックの位置を指先位置とし(ステップS43)、動作を終了する。
また、予測領域に含まれていない場合(ステップS42でNo)には、カーソル位置解析装置1は、最近接ブロック判定部14bによって、予測領域外のブロックのうち距離の最も短いブロックを選定して、当該ブロックの位置を指先位置とし(ステップS44)、動作を終了する。
(眉間位置設定動作)
次に図6を参照(適宜図1及び図3参照)して、カーソル位置解析装置1が眉間位置設定手段17によって、眉間位置を設定する眉間位置設定動作(図3のステップS23)について説明する。図6は、本発明におけるカーソル位置解析装置の眉間位置設定動作を示したフローチャートである。
まず、カーソル位置解析装置1は、眉間位置設定手段17によって、図3のステップS20において指先が検出されたと判断された際に生成される検出開始信号が現在のフレームと1つ前のフレームについて入力されているかを判断する(ステップS50)。そして、入力されている場合(ステップS50でYes)には、カーソル位置解析装置1は、眉間位置設定手段17によって、1つ前のフレームにおいて設定された眉間位置を現在のフレームの眉間位置とし(ステップS52)、動作を終了する。
また、入力されていない場合(ステップS50でNo)には、カーソル位置解析装置1は、眉間位置設定手段17によって、図3のステップS18において眉間の位置が検出され、眉間検出手段16の眉間候補点選択部16bから眉間の位置の情報が入力されているかを判断する(ステップS51)。そして、入力されていない場合(ステップS51でNo)には、そのままステップS55に進む。また、入力されている場合(ステップS51でYes)には、カーソル位置解析装置1は、眉間位置設定手段17によって、以前に入力された眉間の位置の情報と位置の変動量を解析し、変動量が所定時間以上、所定値以下であるかを判断する(ステップS53)。
そして、変動量が所定時間以上、所定値以下である場合(ステップS53でYes)には、カーソル位置解析装置1は、眉間位置設定手段17によって、1つ前のフレームにおいて設定された眉間位置を現在のフレームの眉間位置とし(ステップS52)、動作を終了する。また、変動量が所定時間以上、所定値以下でない場合(ステップS53でNo)には、カーソル位置解析装置1は、眉間位置設定手段17によって、図3のステップS18において検出された眉間の位置を眉間位置として設定し(ステップS54)、動作を終了する。
また、眉間の位置の情報が入力されていない場合(ステップS51でNo)には、カーソル位置解析装置1は、眉間位置設定手段17によって、以前に眉間の位置が検出されているかを判断する(ステップS55)。そして、検出されている場合(ステップS55でYes)には、カーソル位置解析装置1は、眉間位置設定手段17によって、最後に検出された眉間の位置を眉間位置として設定する(ステップS56)。
また、検出されていない場合(ステップS55でNo)には、カーソル位置解析装置1は、眉間位置設定手段17によって、図3のステップS16において顔が検出されなかったことが通知されているかを判断する(ステップS57)。
そして、通知されている場合(ステップS57でYes)には、カーソル位置解析装置1は、眉間位置設定手段17によって、図3のステップS16において検出された顔の領域の中央の位置を眉間位置として設定し(ステップS58)、動作を終了する。また、通知されていない場合(ステップS57でNo)には、カーソル位置解析装置1は、眉間位置設定手段17によって、フレーム画像の中央の位置を眉間位置として設定し(ステップS59)、動作を終了する。
本発明における実施の形態であるカーソル位置解析装置の概要を説明するための説明図である。 本発明における実施の形態であるカーソル位置解析装置の構成を示したブロック図である。 本発明におけるカーソル位置解析装置の動作を示したフローチャートである。 本発明におけるカーソル位置解析装置の距離画像生成動作を示したフローチャートである。 本発明におけるカーソル位置解析装置の指先検出動作を示したフローチャートである。 本発明におけるカーソル位置解析装置の眉間位置設定動作を示したフローチャートである。
符号の説明
1 カーソル位置解析装置(表示画面上位置解析装置)
10 画像入力手段
11 距離画像生成手段
12 背景差分処理手段
13 背景画像蓄積手段(背景画像記憶手段)
14 指先検出手段
14c 指先判定部(指先判定手段)
14d 予測領域設定部(予測領域設定手段)
16 眉間検出手段(視点検出手段)
18 カーソル位置解析手段(画面上位置解析手段)

Claims (2)

  1. 少なくとも2台のカメラによって操作者を含む被写体を撮影した映像を入力し、前記映像を構成するフレーム画像に基づいて、前記操作者の指先によって示される表示装置の表示画面上の位置を解析する表示画面上位置解析装置であって、
    時系列に前記フレーム画像を入力する画像入力手段と、
    前記カメラによって撮影された前記操作者の背景の画像である背景画像を記憶する背景画像記憶手段と、
    前記画像入力手段から入力されたフレーム画像の視差に基づいて、撮影された前記被写体の、前記表示画面からの距離を示す画像である距離画像を生成する距離画像生成手段と、
    前記背景画像記憶手段が記憶する背景画像と前記画像入力手段から入力されたフレーム画像との差分画像を生成する差分処理部と、当該差分画像によって示される差分が閾値より小さい画素をマスクして、前記フレーム画像において前記操作者の撮影されていないマスク領域を示すマスク画像を生成するマスク画像生成部と、前記差分画像によって示される差分の変化量が所定量以下である場合に、前記フレーム画像を前記背景画像であると判断し、前記背景画像記憶手段に記憶させる背景画像選択部とを有する背景差分処理手段と、
    前記距離画像生成手段によって生成された距離画像に基づいて、所定の大きさの予測領域内で前記距離が最短となる部分の前記フレーム画像内における位置である指先位置を検出する指先検出手段と、
    前記画像入力手段から入力されたフレーム画像から、当該フレーム画像内における前記操作者の目の間の位置である視点位置を検出する視点検出手段と、
    前記指先検出手段によって検出された指先位置と、前記視点検出手段によって検出された視点位置と、前記指先位置及び前記視点位置における、前記距離画像によって示される前記距離とに基づいて、前記指先によって示される前記表示画面上の位置を解析する画面上位置解析手段と、
    を備え、
    前記指先検出手段は、
    該フレーム画像より前に入力されたフレーム画像について検出された前記指先位置に基づいて、当該距離画像における前記指先位置を予測した予測位置を算出し、前記距離画像における、前記予測位置を含む前記予測領域を設定する予測領域設定手段と、
    前記マスク画像生成部が生成したマスク画像によって示されるマスク領域を除いた領域である非マスク領域から前記指先位置を検出し、当該指先位置における前記距離と、前記非マスク領域における前記距離の平均値とに基づいて、前記指先位置が前記指先の位置を示すか否かを判定する指先判定手段と、を有し、
    前記画面上位置解析手段は、前記指先検出手段によって前記指先位置を前記指先に対応する位置と判定した場合に、当該指先によって示される前記表示画面上の位置を解析することを特徴とする表示画面上位置解析装置。
  2. 少なくとも2台のカメラによって操作者を含む被写体を撮影した映像を入力し、前記映像を構成するフレーム画像に基づいて、前記操作者の指先によって示される表示装置の表示画面上の位置を解析するために、前記カメラによって撮影された前記操作者の背景の画像である背景画像を記憶する背景画像記憶手段を備えるコンピュータを、
    時系列に前記フレーム画像を入力する画像入力手段、
    この画像入力手段から入力されたフレーム画像の視差に基づいて、撮影された前記被写体の、前記表示画面からの距離を示す画像である距離画像を生成する距離画像生成手段、
    前記背景画像記憶手段が記憶する背景画像と前記画像入力手段から入力されたフレーム画像との差分画像を生成する差分処理部と、当該差分画像によって示される差分が閾値より小さい画素をマスクして、前記フレーム画像において前記操作者の撮影されていないマスク領域を示すマスク画像を生成するマスク画像生成部と、前記差分画像によって示される差分の変化量が所定量以下である場合に、前記フレーム画像を前記背景画像であると判断し、前記背景画像記憶手段に記憶させる背景画像選択部とを有する背景差分処理手段、
    前記距離画像生成手段によって生成された距離画像に基づいて、所定の大きさの予測領域内で前記距離が最短となる部分の前記フレーム画像内における位置である指先位置を検出する指先検出手段、
    前記画像入力手段から入力されたフレーム画像から、当該フレーム画像内における前記操作者の目の間の位置である視点位置を検出する視点検出手段、
    前記指先検出手段によって検出された指先位置と、前記視点検出手段によって検出された視点位置と、前記指先位置及び前記視点位置における、前記距離画像によって示される前記距離とに基づいて、前記指先によって示される前記表示画面上の位置を解析する画面上位置解析手段として機能させ、
    前記指先検出手段を、
    該フレーム画像より前に入力されたフレーム画像について検出された前記指先位置に基づいて、当該距離画像における前記指先位置を予測した予測位置を算出し、前記距離画像における、前記予測位置を含む前記予測領域を設定する予測領域設定手段
    前記マスク画像生成部が生成したマスク画像によって示されるマスク領域を除いた領域である非マスク領域から前記指先位置を検出し、当該指先位置における前記距離と、前記非マスク領域における前記距離の平均値とに基づいて、前記指先位置が前記指先の位置を示すか否かを判定する指先判定手段、して機能させ、
    前記画面上位置解析手段は、前記指先検出手段によって前記指先位置を前記指先に対応する位置と判定した場合に、当該指先によって示される前記表示画面上の位置を解析することを特徴とする表示画面上位置解析プログラム。
JP2005099897A 2005-03-30 2005-03-30 表示画面上位置解析装置及び表示画面上位置解析プログラム Expired - Fee Related JP4575829B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005099897A JP4575829B2 (ja) 2005-03-30 2005-03-30 表示画面上位置解析装置及び表示画面上位置解析プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005099897A JP4575829B2 (ja) 2005-03-30 2005-03-30 表示画面上位置解析装置及び表示画面上位置解析プログラム

Publications (2)

Publication Number Publication Date
JP2006277666A JP2006277666A (ja) 2006-10-12
JP4575829B2 true JP4575829B2 (ja) 2010-11-04

Family

ID=37212320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005099897A Expired - Fee Related JP4575829B2 (ja) 2005-03-30 2005-03-30 表示画面上位置解析装置及び表示画面上位置解析プログラム

Country Status (1)

Country Link
JP (1) JP4575829B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100851977B1 (ko) 2006-11-20 2008-08-12 삼성전자주식회사 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치.
JP4918872B2 (ja) * 2007-03-12 2012-04-18 株式会社エクォス・リサーチ 車載装置
JP4938617B2 (ja) 2007-10-18 2012-05-23 幸輝郎 村井 オブジェクト操作装置、及び、デジタル画像フレームデータからマーカを特定する方法
JP5525165B2 (ja) * 2009-02-03 2014-06-18 パナソニック株式会社 操作表示装置
KR101585466B1 (ko) * 2009-06-01 2016-01-15 엘지전자 주식회사 움직임 검출에 의한 전자장치 동작 제어방법 및 이를 채용하는 전자장치
JP5648443B2 (ja) * 2010-11-26 2015-01-07 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN102959491B (zh) * 2011-04-22 2016-03-23 松下电器(美国)知识产权公司 定位控制装置和定位控制装置的集成电路、以及定位控制方法
KR101299695B1 (ko) 2011-12-14 2013-08-26 전자부품연구원 시차 맵을 사용한 포인팅 장치 및 제스쳐 인식 방법
JP5994328B2 (ja) * 2012-03-29 2016-09-21 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
JP5735453B2 (ja) * 2012-05-16 2015-06-17 ヤフー株式会社 表示制御装置、表示制御方法、情報表示システム、およびプログラム。
JP6062416B2 (ja) * 2012-08-30 2017-01-18 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報入力装置及び情報表示方法
KR20150110032A (ko) 2014-03-24 2015-10-02 삼성전자주식회사 영상데이터 처리 전자장치 및 방법
WO2016051521A1 (ja) * 2014-09-30 2016-04-07 三菱電機エンジニアリング株式会社 画面操作装置及び画面操作方法
WO2016051520A1 (ja) * 2014-09-30 2016-04-07 三菱電機エンジニアリング株式会社 カーソル制御装置及びカーソル制御方法
JP2016091457A (ja) 2014-11-10 2016-05-23 富士通株式会社 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
JP6430340B2 (ja) 2015-07-31 2018-11-28 株式会社東芝 位置入力装置および位置入力方法
JP6662388B2 (ja) * 2015-11-27 2020-03-11 株式会社リコー 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム
JP6233471B2 (ja) * 2016-08-22 2017-11-22 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
US11604517B2 (en) * 2016-09-02 2023-03-14 Rakuten Group, Inc. Information processing device, information processing method for a gesture control user interface
JP2017146987A (ja) * 2017-04-20 2017-08-24 株式会社Jvcケンウッド 視点検出装置および視点検出方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334299A (ja) * 1994-04-13 1995-12-22 Toshiba Corp 情報入力装置
JP2003228458A (ja) * 2002-02-05 2003-08-15 Takenaka Komuten Co Ltd 指示動作認識装置及び方法
JP2003324751A (ja) * 2002-05-07 2003-11-14 Toshiba Corp 情報入力装置
JP2004094288A (ja) * 2002-07-12 2004-03-25 Honda Motor Co Ltd 指示位置検出装置及び自律ロボット

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334299A (ja) * 1994-04-13 1995-12-22 Toshiba Corp 情報入力装置
JP2003228458A (ja) * 2002-02-05 2003-08-15 Takenaka Komuten Co Ltd 指示動作認識装置及び方法
JP2003324751A (ja) * 2002-05-07 2003-11-14 Toshiba Corp 情報入力装置
JP2004094288A (ja) * 2002-07-12 2004-03-25 Honda Motor Co Ltd 指示位置検出装置及び自律ロボット

Also Published As

Publication number Publication date
JP2006277666A (ja) 2006-10-12

Similar Documents

Publication Publication Date Title
JP4575829B2 (ja) 表示画面上位置解析装置及び表示画面上位置解析プログラム
KR101533686B1 (ko) 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체
JP4915655B2 (ja) 自動追尾装置
US9870684B2 (en) Information processing apparatus, information processing method, program, and information processing system for achieving a surveillance camera system
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
US20180121739A1 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP6806188B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP5438601B2 (ja) 人物動作判定装置およびそのプログラム
JP6314251B2 (ja) 操作入力装置、操作入力方法及びプログラム
US20170345184A1 (en) Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method
JP2012238293A (ja) 入力装置
EP1356423B1 (en) System and method for extracting a point of interest of an object in front of a computer controllable display captured by an imaging device
JP4578864B2 (ja) 自動追尾装置及び自動追尾方法
KR101503017B1 (ko) 모션 검출 방법 및 장치
KR101016095B1 (ko) 이진영상들 및 하프변환을 이용한 영상 배경 변화량 검출 장치 및 방법
JP2006244272A (ja) 手位置追跡方法、装置、およびプログラム
CN111986229A (zh) 视频目标检测方法、装置及计算机***
WO2011096571A1 (ja) 入力装置
JP5034253B2 (ja) オブジェクト高さ算出装置およびそれを用いたオブジェクト検索装置ならびにオブジェクト高さ算出方法
JP4559375B2 (ja) 対象物位置追跡方法、装置、およびプログラム
US20130265420A1 (en) Video processing apparatus, video processing method, and recording medium
JP2008211534A (ja) 顔検知装置
KR101272631B1 (ko) 이동물체 감지장치 및 방법
US11785342B2 (en) Method of activating an object-specific action
JP7324066B2 (ja) 画像処理装置およびその制御方法、ならびに撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100727

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100820

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees