JP2014048936A - ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム - Google Patents

ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム Download PDF

Info

Publication number
JP2014048936A
JP2014048936A JP2012192036A JP2012192036A JP2014048936A JP 2014048936 A JP2014048936 A JP 2014048936A JP 2012192036 A JP2012192036 A JP 2012192036A JP 2012192036 A JP2012192036 A JP 2012192036A JP 2014048936 A JP2014048936 A JP 2014048936A
Authority
JP
Japan
Prior art keywords
gesture
user
gesture recognition
face
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012192036A
Other languages
English (en)
Inventor
Takayoshi Yamashita
隆義 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2012192036A priority Critical patent/JP2014048936A/ja
Priority to KR1020130100110A priority patent/KR20140029223A/ko
Priority to CN201310375853.9A priority patent/CN103677252A/zh
Priority to EP13181873.4A priority patent/EP2706434A3/en
Priority to US14/011,959 priority patent/US20140062862A1/en
Publication of JP2014048936A publication Critical patent/JP2014048936A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ユーザが自然な動作によりジェスチャ認識を開始させることができ、かつ、ユーザによるジェスチャ開始の意図を正確に判断することができるジェスチャ認識装置を提供する。
【解決手段】視線方向推定手段122が推定した操作者の視線方向が、所定の方向でほぼ静止している場合に、意図判定手段123は、ユーザがジェスチャを開始しようとしていると判定する。フィードバック部13は、意図判定手段123が、上記ユーザがジェスチャを開始しようとしていると判定した場合に、該判定が行われた旨を上記ユーザに通知する。
【選択図】図1

Description

本発明は、認識対象物の動作からジェスチャを認識するジェスチャ認識装置、その制御方法、表示機器、および制御プログラムに関する。
近年、テレビジョン受像機、パーソナルコンピュータ、またはタブレット端末などの表示装置に、操作者が動作させる認識対象物のジェスチャを認識するジェスチャ認識装置を組み合わせた表示機器が登場してきている。このような表示機器において、操作者がデータグローブ等の特殊な装具を装着する必要がなく、また操作者が自然かつスムーズに自身の操作を当該表示機器に対して行えるように、操作者の手や指などを用いて行うジェスチャを認識するジェスチャ認識装置が望まれている。なお、現在のジェスチャ認識装置では、HMM(Hidden Markov Model;隠れマルコフモデル)あるいは連続DP(Continuous Dynamic Programming)などを用いたジェスチャ認識が行われている。
ここで、図8を用いて、従来のジェスチャ認識装置におけるジェスチャ認識の流れを説明しておく。同図に示すとおり、従来のジェスチャ認識では、まず操作者の特定/決定が行われる。すなわち、ジェスチャ認識装置は、認識した複数の人物のうちいずれの人物を操作者とするか否か判断したり、または、認識した人物が予め登録された操作者リストに含まれているか判断したりする。次に、操作者が、ジェスチャを開始することをジェスチャ認識装置に伝達する。具体的には、操作者が、例えば手を挙げるなどの開始動作を行うと、ジェスチャ認識装置が、上記開始動作を認識して、認識対象物(例えば操作者の手、ポインタなど)のジェスチャ認識を行うことができる状態になる。その後、ジェスチャ認識装置は、上記開始動作の後に操作者が認識対象物を用いて行うジェスチャを認識する。
上記のようなジェスチャ認識装置の例として、特許文献1には、特定被写体の移動速度が一定以上速いと判断し、かつ、移動パターンが一定範囲内に収束していると判断した場合に、ジェスチャ認識処理の開始または終了の指示として識別するジェスチャ認識装置が開示されている。上記ジェスチャ認識装置は、具体的には、ユーザの手を上記特定被写体として、高速の手振りなど、すばやく小刻みに動く動作を上記特定被写体から検出した場合に、ジェスチャ認識を開始・終了することが示されている。
また、特許文献2には、撮影した画像を解析することによって、予め定められた設定値に近似する特徴を有する基準物を検出し、また上記基準物との相対的な関係が予め定められた特定条件を満たす物を認識対象物として特定するインタフェース装置が開示されている。なお、上記基準物とは、例えば人の顔であり、また上記認識対象物は、例えばその人の顔の一部を覆った手の形状および色であることが示されている。
特開2011−192090号公報(2011年 9月29日公開) 特開2011−232894号公報(2011年11月17日公開)
しかしながら、特許文献1に開示された技術では、当該装置にジェスチャ認識を開始または終了させる毎に、ユーザが手振りを行う必要がある。
また、特許文献2に開示された技術では、上記基準物との相対的な関係が予め定められた特定条件を満たす物が、上記インタフェース装置によって自動的に上記認識対象物として特定されるため、ユーザの意図しない物が上記認識対象物として特定される可能性があるという問題がある。
本発明は、上記の課題に鑑みてなされたものであり、その目的は、ユーザが自然な動作によりジェスチャ認識を開始させることができ、かつ、ユーザによるジェスチャ開始の意図を正確に判断することができるジェスチャ認識装置などを提供することにある。
本発明に係るジェスチャ認識装置は、上記の課題を解決するために、ユーザが撮影された動画から、該ユーザによるジェスチャを認識するジェスチャ認識装置において、上記ユーザの視線方向を推定する視線方向推定手段と、所定期間において、所定の方向と上記視線方向との為す角度が所定値よりも小さい場合に、上記ユーザがジェスチャを開始しようとしていると判定する判定手段と、上記判定手段が、上記ユーザがジェスチャを開始しようとしていると判定した場合に、該判定が行われた旨を上記ユーザに通知する通知手段とを備えたことを特徴としている。
また、本発明に係るジェスチャ認識装置の制御方法は、上記の課題を解決するために、ユーザが撮影された動画から、該ユーザによるジェスチャを認識するジェスチャ認識装置の制御方法であって、上記ユーザの視線方向を推定し、所定期間において、所定の方向と上記視線方向との為す角度が所定値よりも小さい場合に、上記ユーザがジェスチャを開始しようとしていると判定し、上記ユーザがジェスチャを開始しようとしていると判定した場合に、該判定が行われた旨を上記ユーザに通知することを特徴としている。
上記構成または方法によれば、まず、ユーザの視線方向が推定される。そして、推定された視線方向が所定の方向でほぼ静止している場合に、ユーザが当該ジェスチャ認識装置に認識させたいジェスチャを開始する意図を有していると判定する。従って、ユーザは、ジェスチャを開始したい場合に、視線の方向を所定の方向に向けるだけでよく、手振りなどの煩雑な動作を行う必要がない。ゆえに、視線を向けるという自然な方法により、当該ジェスチャ認識装置にジェスチャ開始の意図を伝達して、ジェスチャを実行することができる。なお、上記所定の方向とは、例えば、当該ジェスチャ認識装置が備えた動画撮影用のカメラの方向である。
また、上記構成または上記方法によれば、所定の方向とユーザの視線方向との為す角度が所定値よりも小さい場合に、視線方向がほぼ静止しているとみなされる。従って、ユーザは、ジェスチャを開始する意図を当該ジェスチャ認識装置に通知したい場合、上記所定の方向、例えばカメラの方向に対して、例えば10°以下の範囲内に含まれる方向に視線を向ければよい。このように、視線方向が静止しているとみなす方向にある程度の範囲を持たせることによって、視線方向の揺らぎや、視線方向推定手段による視線方向の推定誤差などがある場合であっても、ユーザは当該ジェスチャ認識装置にジェスチャ開始の意図を伝達することができる。
さらに、上記構成または上記方法によれば、ユーザはジェスチャを開始する意図を有していると判定された場合に、その判定結果がユーザに通知される。
そのため、ユーザは、ジェスチャを開始する意図が当該ジェスチャ認識装置に伝達されたのか否かを迷うことがない。従って、ユーザは、次に行うべき動作が、ジェスチャ開始の意図を当該ジェスチャ認識装置に再度伝達することなのか、あるいはジェスチャを開始することなのかを適切に判断することができる。
また、本発明に係るジェスチャ認識装置において、上記通知手段は、当該ジェスチャの認識開始または終了の少なくともいずれか一方を判定した場合にも、該判定が行われた旨を上記ユーザに通知する構成であってもよい。
上記構成によれば、ジェスチャの認識開始および/または終了を判定した場合にも、その判定結果がユーザに通知される。そのため、ユーザは、各々の判定結果を確認することによって、ジェスチャを開始したり終了したりすることができる。
また、本発明に係るジェスチャ認識装置は、動画において上記ユーザの顔の位置を検出する顔検出手段をさらに備え、上記判定手段は、所定期間において、所定の方向と上記視線方向との為す角度が所定値よりも小さいとともに、上記顔検出手段によって検出された顔の位置の変化量が所定値よりも小さい場合に、上記ユーザがジェスチャを開始しようとしていると判定する構成であってもよい。
また、本発明に係るジェスチャ認識装置は、動画において上記ユーザの顔の向きを推定する顔方向推定手段をさらに備え、上記判定手段は、所定期間において、所定の方向と上記視線方向との為す角度が所定値よりも小さいとともに、上記顔方向推定手段によって推定された顔の向きと所定の方向との為す角度が所定値よりも小さい場合に、上記ユーザがジェスチャを開始しようとしていると判定する構成であってもよい。
上記構成によれば、視線方向が所定の方向で静止しており、かつ、顔の位置/顔の方向が静止している場合に、判定手段は、ユーザがジェスチャ開始の意図を有していると判定する。ここで、ジェスチャ開始の意図を当該ジェスチャ認識装置に伝達するために上記所定の方向を向いているとき、ユーザの顔の位置および顔の向きは静止していると考えられる。ゆえに、単に視線方向が所定の方向で静止していることのみをジェスチャ開始の意図の判定条件とする構成に比べて、顔の位置/顔の方向が静止していることも上記判定条件に加わることによって、ユーザがジェスチャを開始しようとしているか否かをより正確に判定することができる。
また、本発明に係るジェスチャ認識装置は、上記ジェスチャを認識する領域である認識領域を設定する認識領域設定手段をさらに備えた構成であってもよい。
上記構成によれば、当該ジェスチャ認識装置は、動画像の全体においてジェスチャ認識を行うのではなく、動画像の一部領域を上記認識領域として設定し、該認識領域内でジェスチャ認識を行う。そのため、認識対象物のジェスチャ認識を実行する際、当該ジェスチャ認識装置の処理負荷を低減することができる。
また、本発明に係るジェスチャ認識装置は、外部の機器に対して、ジェスチャの認識結果に対応する処理を実行するように指示する機器制御手段をさらに備えた構成であってもよい。
上記構成によれば、上述したようなジェスチャの認識結果に対応する処理が、外部の機器において実行される。上記外部の機器とは、例えば表示装置を備えた表示機器である。これにより、ユーザは、上記表示機器などの外部の機器を、ジェスチャで操作することができる。
なお、上記ジェスチャ認識装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記ジェスチャ認識装置をコンピュータにて実現させるジェスチャ認識装置の制御プログラムも、本発明の範疇に入る。
また、上記ジェスチャ認識装置と、上記ジェスチャ認識装置が保持する各種情報をユーザに表示するための表示装置とを備え、上記ジェスチャ認識装置によって動作制御が行われる表示機器も本発明の範囲に含まれる。
以上のように、本発明に係るジェスチャ認識装置は、ユーザが動作させる認識対象物が撮影された動画から、該認識対象物によるジェスチャを認識するジェスチャ認識装置において、上記ユーザの視線方向を推定する視線方向推定手段と、所定期間において、所定の方向と上記視線方向との為す角度が所定値よりも小さい場合に、上記ユーザがジェスチャを開始しようとしていると判定する判定手段と、上記判定手段が、上記ユーザがジェスチャを開始しようとしていると判定した場合に、該判定が行われた旨を上記ユーザに通知する通知手段とを備えている。
また、本発明に係るジェスチャ認識装置の制御方法は、ユーザが動作させる認識対象物が撮影された動画から、該認識対象物によるジェスチャを認識するジェスチャ認識装置において、上記ユーザの視線方向を推定し、所定期間において、所定の方向と上記視線方向との為す角度が所定値よりも小さい場合に、上記ユーザがジェスチャを開始しようとしていると判定し、上記ユーザがジェスチャを開始しようとしていると判定した場合に、該判定が行われた旨を上記ユーザに通知する。
これにより、本発明に係るジェスチャ認識装置およびその制御方法は、ユーザが自然な動作によりジェスチャ認識を開始させることができ、かつ、ユーザによるジェスチャ開始の意図を正確に判断することができるという効果を奏する。
本発明の一実施形態に係るジェスチャ認識装置の構成を示すブロック図である。 図1に示すジェスチャ認識装置の動作を示すフローチャートである。 図1に示すジェスチャ認識装置が備えた制御手段によって設定される認識領域および顔位置を示す模式図である。 (a)および(b)は、図1に示すジェスチャ認識装置が備えた制御手段によって推定される顔方向および視線方向を示す模式図であり、(a)は操作者の視線方向および顔方向が正面を向いている場合を示し、(b)は操作者の視線方向および顔方向が横を向いている場合を示している。 本発明の他の実施形態に係るジェスチャ認識装置の構成を示すブロック図である。 図5に示すジェスチャ認識装置の動作を示すフローチャートである。 本発明に係るジェスチャ認識装置が適用された表示機器を示す外観図である。 一般的なジェスチャ認識の流れを説明する説明図である。
以下、本発明の実施の形態について、実施形態1および2において詳細に説明する。
〔実施形態1〕
本発明のジェスチャ認識装置1に関する実施の一形態について図1〜図4に基づいて説明すれば以下のとおりである。
(ジェスチャ認識装置1の構成)
まず、ジェスチャ認識装置1の構成について、図1を用いて説明する。同図は、ジェスチャ認識装置1の構成を示すブロック図である。
図1に示すように、ジェスチャ認識装置1は、動画撮影部11、制御手段12、フィードバック部(通知手段)13、および記憶部14を備えている。以下に、上記の各部材の詳細をそれぞれ説明する。
(1.動画撮影部11)
動画撮影部11は、操作者(すなわちユーザ)を含む空間の画像を撮影するものである。動画撮影部11は、より詳細には、ジェスチャを行う主体となる操作者、および、ジェスチャ認識の対象となる認識対象物を撮像し、動画データを生成する。また、動画撮影部11は、所定の時間(例えば1/15秒)ごとに撮影したフレーム画像を、後述する顔検出手段121およびジェスチャ認識手段125に送出する。
(2.制御手段12)
制御手段12は、ジェスチャ認識装置1が備える各部を統括制御するものであり、顔検出手段121、視線方向推定手段122、意図判定手段(判定手段)123、認識領域設定手段124、ジェスチャ認識手段125、および表示機器制御手段126を含む構成である。なお、制御手段12に含まれる各手段については、その詳細を後述する。
(3.フィードバック部13)
フィードバック部13は、ジェスチャ認識装置1の認識段階を操作者にフィードバックするものである。詳細には、フィードバック部13は、制御手段12に含まれる意図判定手段123、認識領域設定手段124、およびジェスチャ認識手段125から入力された制御信号に基づき、上記認識段階毎に、ユーザに対するフィードバックを行う。これにより、操作者は、自身の操作や動作が、ジェスチャ認識装置1に認識されているか否かを理解することができる。
このようなフィードバックの一つの手法として、本実施形態に係るジェスチャ認識装置1では、フィードバック部13がLEDを備えており、ジェスチャ認識装置1の認識段階毎に異なる色で、上記LEDを発光させる。
上記構成によれば、意図判定手段123による後述の判定結果が、LEDの色によりユーザに通知される。従って、ユーザは、上記LEDの色を確認することによって、ジェスチャ認識装置1において、上記の各判定が行われた旨を理解することができる。これにより、ユーザは、当該ジェスチャ認識装置1に対して行うべき適切な操作を判断することができる。
なお、フィードバック部13は、ジェスチャ認識装置1のその他の構成物、すなわち動画撮影部11などと一体となった構成でもよいし、または動画撮影部11から分離した位置に配置することのできる構成であってもよい。また、上記LEDについて、上記LEDにおける点灯・消灯・点滅などの各発光状態を、上記認識段階毎に異なるものとする構成としてもよいし、あるいは、上記認識段階を、表示装置(図示せず)の画面に表示する構成としてもよい。なお、表示装置の画面に上記認識段階を表示する場合、その表示の仕方としては、例えば色、テキスト、アイコンなどによるものであってよい。また、これら以外にも、外部の音声出力装置(図示せず)から出力する音声により、認識段階が変化する毎に、その時点の認識段階をユーザに通知する構成であってもよい。さらに、フィードバック部13は、認識段階毎にフィードバックを行うだけでなく、例えば、認識対象物が、後述する認識領域OEから外れている場合、または、ジェスチャ認識装置1がジェスチャ認識に失敗した場合などに、それぞれフィードバックを行う構成としてもよい。
なお、上記認識段階は、例えば以下のような段階毎に、互いに区別される。
段階1:操作者を発見していない段階(すなわち、ジェスチャ認識装置1が操作者の特定/決定をしていない状態)、または操作者がジェスチャ開始を意図していないと判定している段階
段階2:操作者がジェスチャ開始の意図を有すると判定した段階(すなわち、ジェスチャ認識装置1が、操作者の顔の位置および視線方向から、操作者がジェスチャ開始を意図していると判定した段階)
段階3:認識対象物の認識を完了した段階(すなわち、ジェスチャ認識装置1が、認識領域OE内で認識対象物を検出した段階)
段階4:ジェスチャ認識が完了した段階(すなわち、ジェスチャ認識装置1が認識対象物によるジェスチャ認識処理を終了した段階)
(4.記憶部14)
記憶部14は、ジェスチャ認識装置1が扱う各種データを記憶するものであり、データを揮発的に記憶する一時記憶部と、データを不揮発的に記憶する記憶装置とを含む。上記一時記憶部は、ジェスチャ認識装置1が実行する各種処理の過程で、演算に使用するデータおよび演算結果等を一時的に記憶するいわゆるワーキングメモリであり、RAMなどで構成される。また、上記記憶装置は、制御手段12が実行する制御プログラムおよびOSプログラム、ならびに、ジェスチャ認識装置1が有する各種機能を実行するときに読み出す各種データを記憶するものであり、ROMなどで構成される。
(制御手段12の詳細な構成)
ここでは、制御手段12の詳細な構成について、図1を用いて説明する。
(1.顔検出手段121)
顔検出手段121は、動画撮影部11が撮影した画像を取得し、その画像中から人間の顔および顔位置FE(すなわち画像中において顔が占有する領域;図3参照)を検出するものである。そして、顔検出手段121は、各フレーム画像において推定した顔位置FEを、記憶部14に記憶する。画像中から人間の顔を抽出するには、周知の顔検出技術を利用すればよい。例えば、まずテンプレートマッチングを併用して肌色領域を抽出し、次に上記肌色領域における色の変化に基づいて眉および口の位置を推定し、推定した眉・口を含みかつ画像の縦横方向と平行な辺を有する最小の正方形の領域を、顔位置FEとして設定してもよい。
(テンプレートマッチングについて)
上記テンプレートマッチングとは、入力画像などのサンプルについて、予め準備したモデルとの一致(マッチング)の程度を計算する方法のことである。
以下に、テンプレートマッチング処理の流れを簡単に説明する。なお、テンプレートマッチングのため、顔形状のテンプレートを予め記憶部14に記憶しておく。
まず、画像から抽出した肌色領域の部分と、記憶部14に準備した顔形状のテンプレートとを比較する。そして、上記肌色領域のうち、上記テンプレートとの類似度が所定値よりも小さい部分は、人間の顔には相当しないと判定して除外する。その後、残った肌色領域、すなわち上記テンプレートとの類似度が所定値以上の領域について、後述するジェスチャ認識処理が行われることになる。なお、テンプレートとして、互いに異なる複数のテンプレートが存在することが望ましい。この場合、テンプレートマッチング処理では、各テンプレートについてサンプルとのマッチングが計算されて、サンプルとの類似度が所定値以上であるテンプレートが存在すれば、このサンプルは人間の顔に相当すると判定されることになる。
(2.視線方向推定手段122)
視線方向推定手段122は、操作者の視線方向LV(図4の(a)および(b)参照)を推定するものである。また、視線方向推定手段122は、動画撮影部11が撮影した全てのフレーム画像毎、あるいは所定の枚数のフレーム画像毎に推定した視線方向を記憶部14に記憶する。
(視線方向推定について)
視線方向の推定は、以下のようにして実現してもよい。
視線方向推定手段122は、まず、顔位置FEに対応する画像領域において、目の位置を抽出する。顔位置FEから目を抽出するためには、顔位置FEの中から、最も輝度が高い領域を抽出すればよい。これにより、一般的には白目の領域が抽出される。抽出された白目の輪郭によって囲われる領域が、目の領域となる。続いて、視線方向推定手段122は、虹彩を抽出する。なお、虹彩は、輝度が高い領域である白目を周辺領域とする領域であって、かつ輝度が低い領域を抽出することによって発見することができる。このように、目および虹彩を抽出した後、視線方向推定手段122は、目の領域における虹彩の左右方向の偏りから、視線方向を推定する。例えば、図4の(a)では、操作者の視線は前方すなわち動画撮影部11の方向を向いている。一方、図4の(b)では、操作者の視線は動画撮影部11の左方(すなわち操作者から見て右方)を向いている。
(3.意図判定手段123)
意図判定手段123は、顔位置FEおよび視線方向LVを記憶部14から取得する。意図判定手段123は、詳細には、連続する複数のフレーム画像(例えば30フレーム画像)における顔位置FEおよび視線方向LVを取得する。そして、意図判定手段123は、取得したフレーム画像間における顔位置FEの変化量に基づいて、操作者の顔の位置が静止しているかを判定し、また、フレーム画像間における視線方向LVの変化量に基づいて、操作者の視線方向が静止しているか否かを判定する。ここで、操作者は、ジェスチャ認識装置1にジェスチャを認識させたい場合、動画撮影部11すなわちカメラを凝視する。そのため、操作者がジェスチャ開始を意図している場合、操作者の顔の位置は静止し、かつ、操作者の視線方向は動画撮影部11を向いて静止する。そこで、意図判定手段123は、所定数の連続するフレーム画像において、所定の方向と視線方向LVとの為す角度が所定値よりも小さく(条件A)、かつ、顔位置FEの変化量が所定値よりも小さい(条件B)場合に、操作者がジェスチャの開始を意図していると判定する。
詳細には、意図判定手段123は、以下の2つの意図判定条件がどちらも満たされる場合に、操作者がジェスチャの意図を有すると判定する。
条件A.視線方向が、連続する30フレーム画像において、動画撮影部11と正対する方向に対して10°の角度範囲内に存在する。すなわち、視線方向が、連続する30フレーム画像において、虹彩の中心を頂点とし、虹彩の中心と動画撮影部11とを結ぶ基準直線の周りに10°の角度で拡がる円錐に含まれる。
条件B.顔位置FEの中心(または重心など所定の一点)が、連続する30フレーム画像において、顔位置FEの幅(左右長さ)の10%の長さを径とする1つの円に含まれる。
ただし、意図判定手段123が、操作者によるジェスチャ開始の意図を判定する条件はこれに限られない。例えば、上記条件Aにおいて、操作者の視線が、動画撮影部11の代わりにフィードバック部13(図7参照)に向いて静止しているか否かを判定してもよい。あるいは、その他の所定方向または複数の所定方向のうちいずれかの方向に、操作者の視線が静止していることを判定してもよい。また、上記条件AおよびBにおいて、円錐の角度/円の径の大きさは、操作者の視線方向/顔位置が静止しているとみなせる範囲内で変更してもかまわない。なお、円錐の角度/円の径を大きくするほど、操作者の視線方向/顔位置が大きく動いており、操作者がジェスチャ開始の意図を有するとは考え難い場合であっても、ジェスチャ認識装置1によるジェスチャ認識が開始されることになる。逆に、上記円錐の角度または上記円の径を狭めるほど、操作者の視線方向または顔位置がほとんど動いていない場合にのみ、ジェスチャ認識装置1によるジェスチャ認識処理が開始されることになる。
(4.認識領域設定手段124)
認識領域設定手段124は、顔位置FEの周辺、詳細には顔位置FEの左右の位置に、認識領域OE1、OE2を設定するものである(図3参照)。なお、認識領域OE1、OE2の大きさは、その各辺の長さが、顔位置FEの対応する各辺の長さの1.5倍となるように設定される。そして、認識領域設定手段124は、認識領域OE1およびOE2内において、認識対象物(例えば操作者の手)を抽出する。なお、操作者が、おおよそ顔の横に相当する位置で認識対象物を操作する場合、認識領域OE1、OE2は、その高さ方向の範囲が、顔位置FEの高さ方向の範囲を含んでいることが望ましい。例えば、認識領域OE1およびOE2の高さ方向についての中心線が、顔位置FEの高さ方向についての中心線と一致するように、認識領域OE1、OE2を設定する。こうすることにより、認識領域OE1、OE2の高さ方向の中心と顔位置FEの高さ方向の中心とが一致する。さらに、前述のように、認識領域OE1、OE2の辺の長さは顔位置FEの辺の長さの1.5倍である。従って、認識領域OE1、OE2の高さ方向の範囲が、顔位置FEの高さ方向の範囲を含むことになる。
上記構成によれば、ユーザの顔の左右となる位置に認識領域OE1、OE2が設定される。従って、ユーザは、自分の手を認識対象物としてジェスチャを行う場合、自分の顔の左右いずれかの位置に手を挙げればよいことになる。すなわち、ユーザは、自分の顔の左右どちらかに手を挙げるという自然な振る舞いで、ジェスチャを行うことができる。
あるいは、認識領域設定手段124は、認識対象物が操作者の手である場合、以下のように、操作者の手(指)を発見した後に認識領域OE´を設定してもよい。
認識領域OE´の設定において、まず、認識領域設定手段124は、顔位置FEの周辺の領域を、探索領域として設定する。上記探索領域は、例えば、顔位置FEの左右の側辺の一方から、画像の側端のうち該側辺に近い側端までの領域であってもよいし、または、顔位置FEを除く画像領域の全体であってもよい。
次に、認識領域設定手段124は、上記探索領域内において、連続するフレーム画像の背景差分を行うことによって、顔位置FEを除く画像領域から前景を抽出する。次に、認識領域設定手段124は、抽出した前景における先端部(より正確には上端部)を抽出する。ここで、先端部(上端部)を抽出するには、例えば、縦方向には所定以上の長さで同色(例えば肌色)が連続する一方、横方向に上記同色が連続する長さは所定未満である長細い形状の領域を抽出すればよい。例えば、図3に示すように、顔位置FEの横側で、操作者が人差し指を立てた状態である場合、認識領域設定手段124は、顔位置FEを除く画像領域から前景を抽出することによって操作者の手を抽出する。次に、認識領域設定手段124は前景の先端部を抽出することによって、操作者の人差し指の先端を抽出することになる。その後、認識領域設定手段124は、抽出した人差し指の先端を中心として認識領域OE´を設定する。なお、認識領域OE´の大きさは、認識領域OE1、OE2と同様、顔位置FEの各辺に対しする各辺がそれぞれ1.5倍の長さを有する正方形とする。
上記構成によれば、認識領域設定手段124は、まず、画像から前景となる領域を抽出し、次に、抽出した前景領域において特定形状を有する特定部位(人差し指の先端)を検出して、上記特定部位の特定位置を中心とする認識領域OE´を設定する。ここで、ユーザがジェスチャを実行する際、ジェスチャ認識装置1の直前にユーザがおり、ジェスチャ認識装置1とユーザとの間に他の物体が存在しない状態となると考えられ、画像においては、ユーザの顔および認識対象物が前景になると考えられる。そのため、認識領域設定手段124が画像からユーザの顔を除く前景領域を抽出することにより、認識対象物(ユーザの手)が抽出されることになる。
次に、上記前景領域すなわち認識対象物の特定形状が検出される。なお、上記特定形状は、ユーザがジェスチャを行う手の形状、例えば、本実施形態のように、人差し指のみを延ばした手の形状としてもよい。また、上記特定部位の特定位置は、例えば、本実施形態のように、人差し指の先端としてよい。この場合には、ユーザの手の人差し指を中心として、操作領域OE´が設定されることになる。
従って、ユーザは、自分にとってジェスチャを行いやすい所望の位置まで、上記特定部位を持ってくることにより、認識領域設定手段124に、所望の位置を中心として操作領域OE´を設定させることができる。
ここで、認識領域OE´の設定を行うとき、抽出された前景におけるフレーム画像間の差分が所定値よりも小さくなるまで、前景の先端部を決定しないことが望ましい。その理由は、前景におけるフレーム画像間の差分が大きいとき、操作者は、ジェスチャを行おうとする所望の位置、例えば顔の横の位置まで、認識対象物を移動させている途中であることが考えられる。その場合、認識対象物が移動中に認識領域が設定されるので、その設定位置が操作者の所望の位置とは異なる位置となる可能性があるためである。
(5.ジェスチャ認識手段125)
ジェスチャ認識手段125は、認識領域OE1およびOE2内において、認識対象物の位置、形状、および変位を認識する。認識対象物の認識の方法としては、例えば、フレーム画像毎に手の位置の変位を抽出する方法、あるいはHMMなどのモデルを利用した方法などを挙げることができる。
(ジェスチャ認識について)
ジェスチャ認識を行うため、上述のように、フレーム画像間において認識対象物の位置の変位を測定する方法、および/またはHMMを用いた方法を使用することができる。詳細には、認識対象物の位置の変位を測定する方法によれば、操作者が認識対象物を移動させると、ジェスチャ認識装置1と接続されている表示装置に表示されたポインタPを、認識対象物が移動した方向・距離に動かすといった処理が可能になる。また、HMMを用いた方法では、まず、ジェスチャ認識装置1が認識するジェスチャの種類毎のモデルを、データベースにして記憶部14に記憶しておく。その後、ジェスチャ認識装置1に入力された画像に対して、ジェスチャ認識手段125は、上記データベースに含まれる各モデルの尤度を計算する。その結果、入力画像に対する尤度値が所定値以上である1つまたは複数のモデルが発見された場合、ジェスチャ認識手段125は、それらのモデルのうち尤度が最も高いモデルに対応するジェスチャを、入力画像から認識したジェスチャとする。
(6.表示機器制御手段126)
表示機器制御手段126は、ジェスチャ認識装置1外部の表示機器において、ジェスチャ認識手段125によるジェスチャ認識の結果に対応する処理を実行するものである。詳細には、表示機器制御手段126は、まず、記憶部14に記憶された、ジェスチャの種類毎にそれぞれ対応する処理内容を示すジェスチャ−処理内容対応テーブルを参照する。これにより、表示機器制御手段126は、上記表示機器において、ジェスチャ認識手段125によるジェスチャの認識結果に対応する処理を実行する。
図7を参照しつつ、表示機器制御手段126による表示機器1000の制御を説明すると、表示機器制御手段126は、まず、ジェスチャ認識結果に基づいて決定した処理内容を指示する制御信号を、表示機器1000が備えた制御機能部(図示せず)に送信する。すると、上記制御機能部は、表示機器制御手段126の送信した制御信号を受信して、上記処理内容を実行する。上記処理内容とは、例えば、認識対象物の変位の認識結果に基づき、表示装置2に表示されたポインタPを移動させる処理である。あるいは、操作者が手で所定の形状を作るジェスチャを行ったことを認識した場合に、上記ポインタPと重なる位置に表示されているアイコンが選択される処理であってもよい。このように、操作者は、表示装置2の画面に接触することなく、認識対象物を用いた簡単な操作によって、表示機器1000の操作を行うことができる。
(7.その他の手段について)
なお、制御手段12は、以上に説明した各手段の他に、顔検出手段121が検出した人物を操作者として認定するか否かを決定し、また、複数の操作者候補が存在する場合に、いずれの人物を操作者として認定するか否かを決定する顔認証手段(図示せず)をさらに含んでいてもよい。例えば、顔検出手段121によって複数の顔が検出された場合、上記顔認証手段は、検出された各々の顔の特徴を抽出して、記憶部14に予め記憶した操作者リスト(操作者として認定する人物)に含まれる人物の顔の特徴と一致するか否か、それぞれ判定する。このとき、操作者リストに含まれる人物には優先順位が設定されており、上記顔認証手段は、顔検出手段121が検出した全ての人物の中から、優先順位の最も高い人物を操作者として認定する。あるいは、複数の顔が検出された場合、上記顔認証手段は、画像において顔が最も大きな領域を占める人物(すなわち、動画撮影部11に最も近い位置にいる人物)を操作者として認定してもよい。また、上記顔認証手段は、顔検出手段121が検出した人物が上記操作者リストに含まれないと判定した場合には、その人物を操作者として認定しなくてもよい。
(ジェスチャ認識処理の流れ)
ここでは、制御手段12によって実行されるジェスチャ認識処理の流れについて、図2を用いて説明する。ジェスチャ認識処理では、操作者の顔の位置と視線の方向とに基づいて、操作者がジェスチャ開始の意図を持つか否かを判定し、操作者がジェスチャ開始の意図を持つと判定した場合に、ジェスチャ認識を開始する。以下に、図2に示すフローチャートに従って、ジェスチャ認識処理の詳細を説明する。なお、ここでは、操作者が扱う認識対象物は操作者自身の手であるとする。
ここで、初期状態において、フィードバック部13が備えたLEDは消灯されている状態である。なお、その他の構成例として、初期状態において、フィードバック部13は、ジェスチャ認識装置1が待機状態であることを示す色で、上記LEDを発光させていてもよい。
さて、ジェスチャ認識処理においては、まず、顔検出手段121が顔検出を実行する(S101)。なお、顔検出の方法は前述のとおりである。そして、顔検出手段121は、検出した顔が占有する画像領域を、顔位置FEとして設定する。顔検出手段121は、フレーム画像毎に検出した顔位置FEのデータを記憶部14に記憶する。
次に、視線方向推定手段122が、操作者の視線方向を推定する(S102)。詳細には、視線方向推定手段122は、上記顔位置FEにおいて、前述のように、目および虹彩を抽出した後、それらに基づいて視線方向を推定する。視線方向推定手段122は、フレーム画像毎に推定した視線方向のデータを記憶部14に記憶する。
その後、意図判定手段123は、視線方向が静止しているか否かを判定する(S103)。詳細には、意図判定手段123は、連続する複数のフレーム画像(例えば30フレーム画像)における視線方向を記憶部14から取得し、それらの視線方向に基づいて、操作者の視線方向が静止しているか否か判定する。意図判定手段123が、視線方向は静止していないと判定した場合(ステップS103でno)、視線方向推定のステップS102に戻る。
続いて、意図判定手段123は、顔検出手段121によって検出された顔位置が静止しているか否か判定する(S104)。詳細には、意図判定手段123は、連続する複数のフレーム画像(例えば30フレーム画像)における顔位置を記憶部14から取得し、それらの顔位置に基づいて、操作者の顔が静止しているか否か判定する。意図判定手段123が、顔位置は静止していないと判定した場合(ステップS104でno)、顔検出を行うステップS101に戻る。
一方、意図判定手段123が、顔位置は静止していると判定した場合(ステップS104でyes)、認識領域設定手段124は、顔位置FEの周辺領域に認識領域OE1、OE2(図3参照)を設定する(S105)。すなわち、視線方向が静止しているという条件(条件A)と共に、顔位置が静止しているという条件(条件B)が満たされた場合にのみ、意図判定手段123は、操作者がジェスチャ開始を意図していると判定して、認識領域設定手段124による認識領域OE1、OE2の設定が行われることになる。なお、操作者がジェスチャ開始を意図していると判定されたとき(すなわちステップS104の後、ステップS105の前)、意図判定手段123は、フィードバック部13に対し、LEDを赤色で発光させるよう指示する制御信号を送出する。こうして、LEDが赤色で発光するので、操作者は、ジェスチャ開始の意図がジェスチャ認識装置1に認識されたことを理解することができる。
なお、上記ステップS101〜S104の順番を以下のように変更してもよい。すなわち、この場合、まず顔検出を行い(上記ステップS101)、次に顔位置の静止を判定する(上記ステップS104)。その後、顔位置が静止していた場合、視線方向推定を行い(上記ステップS102)、次に視線方向の静止を判定する(上記ステップS103)。
続いて、ジェスチャ認識手段125は、認識領域OE1およびOE2において、認識対象物の検出を行う(S106)。認識対象物を検出した後、ジェスチャ認識手段125は、LEDの色を青色に変化させるよう、フィードバック部13に指示する制御信号を送出する。こうして、LEDの発光色が赤色から青色に変化することにより、操作者は、ジェスチャ認識装置1がジェスチャ認識を受け付ける状態となったことを、理解することができる。
その後、ジェスチャ認識手段125は、認識対象物のジェスチャ認識を開始する。ジェスチャ認識手段125は、詳細には、認識対象物の位置、変位、および形状を認識する(S107)。ジェスチャ認識が完了した後、ジェスチャ認識手段125は、LEDの色を緑色に変化させるよう、フィードバック部13に指示する。こうして、LEDが青色から緑色に変化することによって、操作者は、ジェスチャ認識装置1がジェスチャ認識を完了したことを理解することができる。
このように、操作者は、ジェスチャ認識処理の各段階において、ジェスチャ認識装置1から認識段階をフィードバックされる。これにより、操作者は、フィードバックを確認することにより、ジェスチャを開始すべきタイミングを計ったり、あるいはジェスチャの修正を行ったりすることができる。
ジェスチャ認識手段125によるジェスチャ認識が完了した後、表示機器制御手段126が、表示機器が備えた制御機能部と協働することにより、該表示機器において、ジェスチャ認識の結果に対応する処理を実行する。
〔変形例〕
実施形態1に係るジェスチャ認識装置1の変形例について、図5および図6に基づいて説明すれば、以下のとおりである。ここで、図5は、本変形例に係るジェスチャ認識装置1aの構成を示すブロック図であり、図6は、ジェスチャ認識装置1aが備えた制御手段22によって実行されるジェスチャ認識処理αの流れを示すフローチャートである。以下では、説明の便宜上、実施形態1で説明した図面と同じ機能を有する部材については、同じ符号を付記して、その説明を省略することとする。
なお、本変形例は、以下の考察に基づいている。操作者が、ジェスチャ認識装置1にジェスチャを認識させるため、動画撮影部11を凝視するとき、操作者の視線方向が動画撮影部11を向いて静止するとともに、操作者の顔の向きは、動画撮影部11に正対して静止する。そこで、顔検出手段121によって検出された顔の位置の変化量が所定値よりも小さく、かつ、顔方向推定手段127によって推定された顔の向きと所定の方向との為す角度が所定値よりも小さい場合、操作者はジェスチャの開始を意図していると考えられる。すなわち、本変形例では、前記実施形態1のように顔位置が静止していることを上記意図判定条件の1つとする代わりに、顔方向が所定の方向で静止していることを上記意図判定条件の1つとしている。ここで、顔方向の上記所定の方向とは、具体的には動画撮影部11に正対する方向であってもよい。前記実施形態1では、操作者の顔が所定の方向、例えば動画撮影部11の方向を向いていない状態で、その顔の位置が静止している場合であっても、ジェスチャ開始を意図していると判定される可能性があった。一方、本変形例では、顔の方向が所定の方向で静止していることに基づいて、操作者がジェスチャ開始を意図していることを判定するので、より正確に操作者のジェスチャ開始の意図を判定することができる。
本変形例に係るジェスチャ認識装置1aでは、図5に示すように、制御手段22が、制御手段12の構成に加えて、操作者の顔方向を推定する顔方向推定手段127をさらに含んでいる。この顔方向推定手段127は、顔検出手段121から取得した顔位置FE(図3参照)内において、操作者の顔方向を推定するものである。なお、顔方向を推定する方法については、下記の通りである。そして、本変形例のジェスチャ認識処理αでは、図6に示すように、上で説明したジェスチャ認識処理において、操作者の顔位置が静止しているか否かが判定される(図2のステップS104参照)代わりに、顔方向が静止しているか否かが判定される(図6のステップS104aおよびS104b参照)。
(顔方向の推定について)
人の顔の向き(言い換えれば頭の向き)を推定するためには、前述した視線方向の推定を応用することができる。詳細には、動画像から前述のように抽出した両目が、顔位置FEの横方向の中心線CLに対して対称な位置にある場合(図4の(a)参照)、顔方向推定手段127は、顔の向きはジェスチャ認識装置1(正確にいえば動画撮影部11)に対して正対していると判断する。一方、抽出した目の位置が、上記中心線CLに対して非対称な位置にある場合(図4の(b)参照)、顔方向推定手段127は、顔の向きはジェスチャ認識装置1に対して正対していない、すなわち操作者は横を向いていると判断する。
以下に、本実施形態のジェスチャ認識装置1aにおけるジェスチャ認識処理αについて、図6に示すフローチャートを用いて説明する。なお、ジェスチャ認識処理αにおいて、ステップS101〜S103、S105〜S107については、前記実施形態1におけるジェスチャ認識処理の流れと同様であるから、その説明を省略する。
(ジェスチャ認識処理αの流れ)
ステップS103において、意図判定手段123が、視線方向は静止していると判定した場合(ステップS103でyes)、顔方向推定手段127は、顔方向の推定を行う(S104a)。その後、意図判定手段123は、連続する複数のフレーム画像(例えば30フレーム画像)において、顔方向が所定の方向で静止しているか否か判定する(S104b)。顔方向が所定の方向で静止していないと判定された場合(ステップS104bでno)、ステップS102に戻り、再び視線方向の推定が行われる。
一方、顔方向が静止していると判定された場合(ステップS104bでyes)、ステップS105に進み、前述のジェスチャ認識処理と同様、認識領域設定手段124によって、認識領域OE1、OE2(図3参照)の設定が行われる。
すなわち、本実施形態においては、視線方向が所定の方向で静止しているという条件(条件A)と共に、顔方向が所定の方向で静止しているという条件(条件B´)が満たされた場合(ステップS103およびS104bで共にyes)にのみ、意図判定手段123は、操作者がジェスチャ開始を意図していると判定し、認識領域設定手段124による認識領域OE1、OE2の設定が行われることになる。なお、操作者の顔が所定の方向で静止する条件B´は、詳細には、例えば以下のようである。
条件B´.連続する30フレーム画像において、操作者の右目から中心線CLまでの距離と、操作者の左目から中心線CLまでの距離との差が、顔位置FEの幅の10%以下である。
なお、本変形例では、視線方向が静止しているという条件(条件A)と、顔方向が静止しているという条件(条件B´)とがどちらも満たされた場合に、操作者がジェスチャ開始を意図しているかと判定するとしたが、本発明はこれに限られず、上記条件B´の代わりに、例えば、操作者の口が特定の形状変化(例えば「おーい」と叫ぶような口の形状変化)を示したことを条件(条件B´1)としてもよいし、あるいは操作者から特定の音声(声や手を叩く音など)が発せられたことを条件(条件B´2)としてもよい。さらに、ここで述べた条件B´1、B´2の両方またはいずれか一方を、条件AおよびB´に追加して、その全ての条件が満たされる場合に、意図判定手段123は、操作者がジェスチャ開始を意図していると判定としてもよい。特に、条件B´2のように、操作者から所定の音声が発せられたことを意図判定条件の1つとする場合、ジェスチャ認識装置1は、2つのマイクをさらに備える。この2つのマイクは互いに異なる位置に設置されており、音声が発せられたときに、各々のマイクが設置された位置でその音声を録音する。これにより、意図判定手段123は、上記2つのマイクで録音された音声から、その音声が発せられた位置を特定することができる。そして、意図判定手段123は、音声が発せられた位置に存在する人物が、顔検出手段121により顔を検出された操作者であれば、条件B´2は満たされたと判定する。これにより、操作者以外の人物が上記特定の音声を発した場合、その人物は操作者とは異なる位置にいるので、条件B´2が満たされないと判定されることになる。
〔実施形態2〕
本発明に係る表示機器1000について、図7に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、実施形態1および変形例で説明した図面と同じ機能を有する部材については、同じ符号を付記して、その説明を省略することとする。
(表示機器1000の構成)
図7に外観を示す表示機器1000は、ジェスチャ認識装置1および表示装置2を備えたものである。表示機器1000において、ジェスチャ認識装置1の代わりに、前記変形例のジェスチャ認識装置1aを適用することもできる。なお、表示機器1000は、具体的にはパーソナルコンピュータである。しかしながら、本発明はこれに限られず、表示機器1000は、テレビジョン受像機、インターネットテレビ、またはタブレット端末など、制御機能および表示機能を備えた各種表示機器であってもよい。
また、ジェスチャ認識装置1は、表示装置2の上側に、当該表示装置2の上辺と接するように設置されている。また、ジェスチャ認識装置1は、表示装置2の画面に正対する方向に位置する操作者(ユーザ)から、動画撮影部11およびフィードバック部13が見えるように設置されている。これにより、操作者は、フィードバック部13によるフィードバックを確認しつつ表示装置2の画面を見ることができ、また、動画撮影部11は、画面の前に位置する操作者の動画を撮影することができる構成になっている。
なお、図7では、ジェスチャ認識装置1が表示装置2の上側に設置されているが、ジェスチャ認識装置1が設置される位置について特に制限はなく、表示装置2の下側・左側・右側に設置されてもよいし、または表示装置2と一体となった構成であってもよい。ジェスチャ認識装置1と表示装置2とが一体となった構成としては、例えば、表示装置2の画面の周りを囲うフレームに、動画撮影部11が埋め込まれた構成としてもよい。さらに、表示装置2がウェブカメラを備えている場合には、このウェブカメラを動画撮影部11の代用とすることができ、この場合、ジェスチャ認識装置1の全体がソフトウェア的に実現されることになる。
(表示機器1000の制御について)
本実施形態における表示機器制御手段126は、ジェスチャ認識手段125から取得したジェスチャ認識結果に基づいて、表示装置2における表示を制御する。表示機器制御手段126は、例えば、上記表示機器1000がさらに備えた制御機能部(図示せず)と協働することによって、表示装置2に表示されたポインタPを制御する。このポインタPは、ジェスチャ認識装置1が認識対象物のジェスチャを認識した結果に基づき、認識対象物のジェスチャと連動する。すなわち、操作者が認識領域OE1、OE2内において認識対象物の操作を行うと、表示装置2の画面内において、ポインタPが認識対象物の操作に連動する。このように、操作者は、表示装置2の画面に接触したり、あるいはリモコンなどの道具を使用したりすることなく、画面に表示されたポインタPの操作を行うことができる。
次に、表示機器1000の使用例を説明する。まず、操作者が、(フィードバック部13が備えたLEDの色が青色であること、すなわちジェスチャ認識装置1がジェスチャを受け付ける状態であることを確認した上で)認識領域OE1、OE2内で、認識対象物(手)を用いたジェスチャを行う。認識対象物のジェスチャは動画撮影部11によって撮影されて、ジェスチャ認識手段125によって認識された後、表示機器制御手段126に入力される。すると、表示機器制御手段126は、ジェスチャの認識結果に基づいて決定したポインタPの制御内容を、表示装置2が備えた上記制御機能部に送信する。こうして、表示機器制御手段126は、上記制御機能部と協働することにより、表示装置2に表示されたポインタPを制御する。なお、表示機器制御手段126は、単にポインタPの動作を制御するのみでなく、認識対象物の形状に対応する処理内容を実行することができる構成であってもよい。これにより、例えば、操作者が手を握る動作を行った場合、表示機器制御手段126は、ポインタPと重なる位置に表示されているアイコンが選択されるよう制御するといったことが可能となる。
なお、本実施形態に係る表示機器1000において、フィードバック部13は、表示装置2とは別体として設けられている構成であり、また前記実施形態1と同様、LEDの発光によって操作者にフィードバックを行う構成である。しかしながら、本発明はこれに限られず、表示装置2の表示により、操作者に対するフィードバックを行う構成としてもよい。例えば、画面の一部に表示したアイコン、テキスト、色によって、操作者に対するフィードバックを行ってもよい。その他、表示装置2が備えた音声出力装置(図示せず)から出力する音声によってフィードバックを行ってもよい。なお、これらの構成の場合、フィードバック部13はソフトウェア的に実現され、制御手段12に含まれることになる。
(まとめ)
以上のように、本発明によれば、操作者が、例えば手を振るなどの特別な開始動作を行うことなく、ジェスチャ認識装置1、1aにジェスチャを認識させることができる。さらに、操作者は、ジェスチャ認識装置1、1aから認識段階をフィードバックされるので、このフィードバックを確認することによって、適切な操作を行うことができる。さらに、操作者は、リモコン、マウス、またはグローブなどの特別な道具を使用することなく、かつ、表示装置2の画面に接触することなく、操作者自身の手などを認識対象物として用いて、表示機器1000の操作を行うことができる。すなわち、本発明に係るジェスチャ認識装置1、1aは、操作者が、自然でスムーズ、かつインタラクティブな操作を、表示機器1000に対して行うためのインタフェースを提供する。
なお、本発明は上述した各実施形態1、2および変形例に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、実施形態1、2および変形例にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても、本発明の技術的範囲に含まれる。
〔ソフトウェアによる実現例〕
最後に、ジェスチャ認識装置1、2の各ブロック、特に制御手段12、22に含まれる各手段は、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
後者の場合、ジェスチャ認識装置1、1aは、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるジェスチャ認識装置1、1aの制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記ジェスチャ認識装置1、2に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
上記記録媒体としては、一時的でない有形の媒体(non-transitory tangible medium)、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM/EEPROM(登録商標)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。
また、ジェスチャ認識装置1、1aを通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
本発明は、表示装置を備えた各種表示機器、特にテレビジョン受像機、パーソナルコンピュータ、およびタブレット端末などに利用することができる。
1、1a ジェスチャ認識装置
2 表示装置
1000 表示機器
13 フィードバック部(通知手段)
121 顔検出手段
122 視線方向推定手段
123 意図判定手段(判定手段)
124 認識領域設定手段
127 顔方向推定手段

Claims (9)

  1. ユーザが撮影された動画から、該ユーザによるジェスチャを認識するジェスチャ認識装置において、
    上記ユーザの視線方向を推定する視線方向推定手段と、
    所定期間において、所定の方向と上記視線方向との為す角度が所定値よりも小さい場合に、上記ユーザがジェスチャを開始しようとしていると判定する判定手段と、
    上記判定手段が、上記ユーザがジェスチャを開始しようとしていると判定した場合に、該判定が行われた旨を上記ユーザに通知する通知手段とを備えたことを特徴とするジェスチャ認識装置。
  2. 上記通知手段は、当該ジェスチャの認識開始または終了の少なくともいずれか一方を判定した場合にも、該判定が行われた旨を上記ユーザに通知することを特徴とする請求項1記載のジェスチャ認識装置。
  3. 動画において上記ユーザの顔の位置を検出する顔検出手段をさらに備え、
    上記判定手段は、所定期間において、所定の方向と上記視線方向との為す角度が所定値よりも小さいとともに、上記顔検出手段によって検出された顔の位置の変化量が所定値よりも小さい場合に、上記ユーザがジェスチャを開始しようとしていると判定することを特徴とする請求項1または2に記載のジェスチャ認識装置。
  4. 動画において上記ユーザの顔の向きを推定する顔方向推定手段をさらに備え、
    上記判定手段は、所定期間において、所定の方向と上記視線方向との為す角度が所定値よりも小さいとともに、上記顔方向推定手段によって推定された顔の向きと所定の方向との為す角度が所定値よりも小さい場合に、上記ユーザがジェスチャを開始しようとしていると判定することを特徴とする請求項1または2に記載のジェスチャ認識装置。
  5. 上記ジェスチャを認識する領域である認識領域を設定する認識領域設定手段をさらに備えたことを特徴とする請求項1または2に記載のジェスチャ認識装置。
  6. 外部の機器に対して、ジェスチャの認識結果に対応する処理を実行するように指示する機器制御手段をさらに備えたことを特徴とする請求項1〜5のいずれか一項に記載のジェスチャ認識装置。
  7. 請求項6記載のジェスチャ認識装置と、上記ジェスチャ認識装置によって動作制御が行われる表示装置とを備えた表示機器。
  8. ユーザが撮影された動画から、該ユーザによるジェスチャを認識するジェスチャ認識装置の制御方法であって、
    上記ユーザの視線方向を推定し、
    所定期間において、所定の方向と上記視線方向との為す角度が所定値よりも小さい場合に、上記ユーザがジェスチャを開始しようとしていると判定し、
    上記ユーザがジェスチャを開始しようとしていると判定した場合に、該判定が行われた旨を上記ユーザに通知することを特徴とするジェスチャ認識装置の制御方法。
  9. 請求項8に記載のジェスチャ認識装置の制御方法の各処理をコンピュータに実行させるための制御プログラム。
JP2012192036A 2012-08-31 2012-08-31 ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム Pending JP2014048936A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012192036A JP2014048936A (ja) 2012-08-31 2012-08-31 ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
KR1020130100110A KR20140029223A (ko) 2012-08-31 2013-08-23 제스처 인식 장치, 그 제어 방법, 표시 기기, 및 제어 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체
CN201310375853.9A CN103677252A (zh) 2012-08-31 2013-08-26 姿势识别装置、其控制方法、显示器
EP13181873.4A EP2706434A3 (en) 2012-08-31 2013-08-27 Gesture recognition apparatus, control method thereof, display instrument, and computer readable medium
US14/011,959 US20140062862A1 (en) 2012-08-31 2013-08-28 Gesture recognition apparatus, control method thereof, display instrument, and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012192036A JP2014048936A (ja) 2012-08-31 2012-08-31 ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム

Publications (1)

Publication Number Publication Date
JP2014048936A true JP2014048936A (ja) 2014-03-17

Family

ID=49080698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012192036A Pending JP2014048936A (ja) 2012-08-31 2012-08-31 ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム

Country Status (5)

Country Link
US (1) US20140062862A1 (ja)
EP (1) EP2706434A3 (ja)
JP (1) JP2014048936A (ja)
KR (1) KR20140029223A (ja)
CN (1) CN103677252A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016076061A (ja) * 2014-10-06 2016-05-12 三菱電機株式会社 操作入力装置
JP2017167727A (ja) * 2016-03-15 2017-09-21 Kddi株式会社 動画の処理装置、処理方法及びプログラム
JP2018005660A (ja) * 2016-07-05 2018-01-11 株式会社リコー 情報処理装置、プログラム、位置情報作成方法、情報処理システム
JP2020533662A (ja) * 2017-09-11 2020-11-19 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH 自律運転している車両とコミュニケーションするための単純な2dカメラを採用したジェスチャー制御
US10936077B2 (en) 2016-07-05 2021-03-02 Ricoh Company, Ltd. User-interactive gesture and motion detection apparatus, method and system, for tracking one or more users in a presentation
CN112639718A (zh) * 2018-05-04 2021-04-09 谷歌有限责任公司 自动化助手功能的免热词调配
US11493992B2 (en) 2018-05-04 2022-11-08 Google Llc Invoking automated assistant function(s) based on detected gesture and gaze
US11614794B2 (en) 2018-05-04 2023-03-28 Google Llc Adapting automated assistant based on detected mouth movement and/or gaze
US12020704B2 (en) 2022-01-19 2024-06-25 Google Llc Dynamic adaptation of parameter set used in hot word free adaptation of automated assistant

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013164834A (ja) * 2012-01-13 2013-08-22 Sony Corp 画像処理装置および方法、並びにプログラム
US9740923B2 (en) * 2014-01-15 2017-08-22 Lenovo (Singapore) Pte. Ltd. Image gestures for edge input
CN104523403B (zh) * 2014-11-05 2019-06-18 陶宇虹 一种判断外骨骼助行机器人穿戴者下肢行动意图的方法
US20170024086A1 (en) * 2015-06-23 2017-01-26 Jamdeo Canada Ltd. System and methods for detection and handling of focus elements
KR102541829B1 (ko) * 2016-01-27 2023-06-09 삼성전자주식회사 전자 장치 및 그 제어 방법
US10275646B2 (en) * 2017-08-03 2019-04-30 Gyrfalcon Technology Inc. Motion recognition via a two-dimensional symbol having multiple ideograms contained therein
KR102582863B1 (ko) * 2018-09-07 2023-09-27 삼성전자주식회사 사용자 의도 기반 제스처 인식 방법 및 장치
US11196881B2 (en) * 2019-01-21 2021-12-07 Canon Kabushiki Kaisha Image forming apparatus employs a line-of-sight detection technique to execute user operations in plural modes
CN111815662A (zh) * 2019-04-11 2020-10-23 上海集森电器有限公司 一种基于人脸检测的行为识别实现方法
US20230036233A1 (en) * 2020-01-29 2023-02-02 Nec Corporation Information processing device, information processing method, and storage medium
CN115210781A (zh) * 2021-01-26 2022-10-18 京东方科技集团股份有限公司 控制方法、电子设备及存储介质
KR20230015785A (ko) * 2021-07-23 2023-01-31 삼성전자주식회사 전자 장치 및 그 제어 방법
US20230085330A1 (en) * 2021-09-15 2023-03-16 Neural Lab, Inc. Touchless image-based input interface

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10301675A (ja) * 1997-02-28 1998-11-13 Toshiba Corp マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法
JP2004187125A (ja) * 2002-12-05 2004-07-02 Sumitomo Osaka Cement Co Ltd 監視装置および監視方法
WO2011148607A1 (ja) * 2010-05-28 2011-12-01 パナソニック株式会社 ジェスチャ認識装置及びジェスチャ認識方法
JP2012515968A (ja) * 2009-01-21 2012-07-12 トムソン ライセンシング 顔検出及びホットスポットの動きによりメディアを制御する方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1293446C (zh) * 2005-06-02 2007-01-03 北京中星微电子有限公司 一种非接触式目控操作***和方法
US7438414B2 (en) * 2005-07-28 2008-10-21 Outland Research, Llc Gaze discriminating electronic control apparatus, system, method and computer program product
JP2007094935A (ja) * 2005-09-30 2007-04-12 Omron Corp 情報処理装置および情報処理方法、情報処理システム、プログラム、並びに、記録媒体
JP4633043B2 (ja) * 2005-12-27 2011-02-16 パナソニック株式会社 画像処理装置
JP5230748B2 (ja) * 2008-09-26 2013-07-10 パナソニック株式会社 視線方向判定装置及び視線方向判定方法
US7810926B2 (en) * 2009-02-15 2010-10-12 International Business Machines Corporation Lateral gaze angle estimation using relative eye separation
KR20110003146A (ko) * 2009-07-03 2011-01-11 한국전자통신연구원 제스쳐 인식 장치, 이를 구비한 로봇 시스템 및 이를 이용한 제스쳐 인식 방법
JP5569062B2 (ja) 2010-03-15 2014-08-13 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム
KR101334107B1 (ko) * 2010-04-22 2013-12-16 주식회사 굿소프트웨어랩 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법
JP2011232894A (ja) 2010-04-26 2011-11-17 Renesas Electronics Corp インタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラム
KR20120029228A (ko) * 2010-09-16 2012-03-26 엘지전자 주식회사 투명 디스플레이 장치 및 객체 정보 제공 방법
CN102508551B (zh) * 2011-11-18 2014-06-18 北京恒信彩虹科技有限公司 一种目光捕捉方法和采用目光捕捉的人机交互方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10301675A (ja) * 1997-02-28 1998-11-13 Toshiba Corp マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法
JP2004187125A (ja) * 2002-12-05 2004-07-02 Sumitomo Osaka Cement Co Ltd 監視装置および監視方法
JP2012515968A (ja) * 2009-01-21 2012-07-12 トムソン ライセンシング 顔検出及びホットスポットの動きによりメディアを制御する方法
WO2011148607A1 (ja) * 2010-05-28 2011-12-01 パナソニック株式会社 ジェスチャ認識装置及びジェスチャ認識方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016076061A (ja) * 2014-10-06 2016-05-12 三菱電機株式会社 操作入力装置
JP2017167727A (ja) * 2016-03-15 2017-09-21 Kddi株式会社 動画の処理装置、処理方法及びプログラム
JP2018005660A (ja) * 2016-07-05 2018-01-11 株式会社リコー 情報処理装置、プログラム、位置情報作成方法、情報処理システム
US10936077B2 (en) 2016-07-05 2021-03-02 Ricoh Company, Ltd. User-interactive gesture and motion detection apparatus, method and system, for tracking one or more users in a presentation
US11557150B2 (en) 2017-09-11 2023-01-17 Conti Temic Microelectronic Gmbh Gesture control for communication with an autonomous vehicle on the basis of a simple 2D camera
JP2020533662A (ja) * 2017-09-11 2020-11-19 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH 自律運転している車両とコミュニケーションするための単純な2dカメラを採用したジェスチャー制御
JP7280865B2 (ja) 2017-09-11 2023-05-24 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング 自律運転している車両とコミュニケーションするための単純な2dカメラを採用したジェスチャー制御
JP2021520590A (ja) * 2018-05-04 2021-08-19 グーグル エルエルシーGoogle LLC ホットワードを用いない自動アシスタント機能の適応
US11493992B2 (en) 2018-05-04 2022-11-08 Google Llc Invoking automated assistant function(s) based on detected gesture and gaze
US11614794B2 (en) 2018-05-04 2023-03-28 Google Llc Adapting automated assistant based on detected mouth movement and/or gaze
JP7263505B2 (ja) 2018-05-04 2023-04-24 グーグル エルエルシー ホットワードを用いない自動アシスタント機能の適応
CN112639718A (zh) * 2018-05-04 2021-04-09 谷歌有限责任公司 自动化助手功能的免热词调配
US11688417B2 (en) 2018-05-04 2023-06-27 Google Llc Hot-word free adaptation of automated assistant function(s)
US12020704B2 (en) 2022-01-19 2024-06-25 Google Llc Dynamic adaptation of parameter set used in hot word free adaptation of automated assistant

Also Published As

Publication number Publication date
US20140062862A1 (en) 2014-03-06
EP2706434A2 (en) 2014-03-12
CN103677252A (zh) 2014-03-26
EP2706434A3 (en) 2016-09-21
KR20140029223A (ko) 2014-03-10

Similar Documents

Publication Publication Date Title
JP2014048936A (ja) ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
JP6011165B2 (ja) ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
US10628670B2 (en) User terminal apparatus and iris recognition method thereof
US20190041985A1 (en) Information processing apparatus and information processing method
JP6143975B1 (ja) 画像の取り込みを支援するためにハプティックフィードバックを提供するためのシステムおよび方法
JP6221535B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6019947B2 (ja) ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
US9952667B2 (en) Apparatus and method for calibration of gaze detection
JP6572600B2 (ja) 情報処理装置、情報処理装置の制御方法、および、コンピュータープログラム
US11693475B2 (en) User recognition and gaze tracking in a video system
US20150279369A1 (en) Display apparatus and user interaction method thereof
JP6252409B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR20160135242A (ko) 시선 검출을 통한 원격 디바이스 제어
US11163995B2 (en) User recognition and gaze tracking in a video system
TW201344597A (zh) 顯示裝置控制方法、控制器及多媒體系統
KR20170001430A (ko) 디스플레이 장치 및 이의 영상 보정 방법
US11477433B2 (en) Information processor, information processing method, and program
US20180352168A1 (en) Omnidirectional camera display image changing system, omnidirectional camera display image changing method, and program
US20150009314A1 (en) Electronic device and eye region detection method in electronic device
KR101987806B1 (ko) 단말 장치 및 그 제어 방법
KR20230158283A (ko) 전자 장치 및 이의 제어 방법
JP2023167624A (ja) 情報処理装置、情報処理方法、プログラム、および記憶媒体
JP2014219812A (ja) 入力装置および入力プログラム
JP2018055708A (ja) 情報処理装置、情報処理方法およびプログラム
JP2016122957A (ja) 音声装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150807

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151023

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20151028

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160809

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170221