JP2014048936A - ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム - Google Patents
ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム Download PDFInfo
- Publication number
- JP2014048936A JP2014048936A JP2012192036A JP2012192036A JP2014048936A JP 2014048936 A JP2014048936 A JP 2014048936A JP 2012192036 A JP2012192036 A JP 2012192036A JP 2012192036 A JP2012192036 A JP 2012192036A JP 2014048936 A JP2014048936 A JP 2014048936A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- user
- gesture recognition
- face
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Position Input By Displaying (AREA)
Abstract
【解決手段】視線方向推定手段122が推定した操作者の視線方向が、所定の方向でほぼ静止している場合に、意図判定手段123は、ユーザがジェスチャを開始しようとしていると判定する。フィードバック部13は、意図判定手段123が、上記ユーザがジェスチャを開始しようとしていると判定した場合に、該判定が行われた旨を上記ユーザに通知する。
【選択図】図1
Description
本発明のジェスチャ認識装置1に関する実施の一形態について図1〜図4に基づいて説明すれば以下のとおりである。
まず、ジェスチャ認識装置1の構成について、図1を用いて説明する。同図は、ジェスチャ認識装置1の構成を示すブロック図である。
動画撮影部11は、操作者(すなわちユーザ)を含む空間の画像を撮影するものである。動画撮影部11は、より詳細には、ジェスチャを行う主体となる操作者、および、ジェスチャ認識の対象となる認識対象物を撮像し、動画データを生成する。また、動画撮影部11は、所定の時間(例えば1/15秒)ごとに撮影したフレーム画像を、後述する顔検出手段121およびジェスチャ認識手段125に送出する。
制御手段12は、ジェスチャ認識装置1が備える各部を統括制御するものであり、顔検出手段121、視線方向推定手段122、意図判定手段(判定手段)123、認識領域設定手段124、ジェスチャ認識手段125、および表示機器制御手段126を含む構成である。なお、制御手段12に含まれる各手段については、その詳細を後述する。
フィードバック部13は、ジェスチャ認識装置1の認識段階を操作者にフィードバックするものである。詳細には、フィードバック部13は、制御手段12に含まれる意図判定手段123、認識領域設定手段124、およびジェスチャ認識手段125から入力された制御信号に基づき、上記認識段階毎に、ユーザに対するフィードバックを行う。これにより、操作者は、自身の操作や動作が、ジェスチャ認識装置1に認識されているか否かを理解することができる。
段階1:操作者を発見していない段階(すなわち、ジェスチャ認識装置1が操作者の特定/決定をしていない状態)、または操作者がジェスチャ開始を意図していないと判定している段階
段階2:操作者がジェスチャ開始の意図を有すると判定した段階(すなわち、ジェスチャ認識装置1が、操作者の顔の位置および視線方向から、操作者がジェスチャ開始を意図していると判定した段階)
段階3:認識対象物の認識を完了した段階(すなわち、ジェスチャ認識装置1が、認識領域OE内で認識対象物を検出した段階)
段階4:ジェスチャ認識が完了した段階(すなわち、ジェスチャ認識装置1が認識対象物によるジェスチャ認識処理を終了した段階)
(4.記憶部14)
記憶部14は、ジェスチャ認識装置1が扱う各種データを記憶するものであり、データを揮発的に記憶する一時記憶部と、データを不揮発的に記憶する記憶装置とを含む。上記一時記憶部は、ジェスチャ認識装置1が実行する各種処理の過程で、演算に使用するデータおよび演算結果等を一時的に記憶するいわゆるワーキングメモリであり、RAMなどで構成される。また、上記記憶装置は、制御手段12が実行する制御プログラムおよびOSプログラム、ならびに、ジェスチャ認識装置1が有する各種機能を実行するときに読み出す各種データを記憶するものであり、ROMなどで構成される。
ここでは、制御手段12の詳細な構成について、図1を用いて説明する。
顔検出手段121は、動画撮影部11が撮影した画像を取得し、その画像中から人間の顔および顔位置FE(すなわち画像中において顔が占有する領域;図3参照)を検出するものである。そして、顔検出手段121は、各フレーム画像において推定した顔位置FEを、記憶部14に記憶する。画像中から人間の顔を抽出するには、周知の顔検出技術を利用すればよい。例えば、まずテンプレートマッチングを併用して肌色領域を抽出し、次に上記肌色領域における色の変化に基づいて眉および口の位置を推定し、推定した眉・口を含みかつ画像の縦横方向と平行な辺を有する最小の正方形の領域を、顔位置FEとして設定してもよい。
上記テンプレートマッチングとは、入力画像などのサンプルについて、予め準備したモデルとの一致(マッチング)の程度を計算する方法のことである。
視線方向推定手段122は、操作者の視線方向LV(図4の(a)および(b)参照)を推定するものである。また、視線方向推定手段122は、動画撮影部11が撮影した全てのフレーム画像毎、あるいは所定の枚数のフレーム画像毎に推定した視線方向を記憶部14に記憶する。
視線方向の推定は、以下のようにして実現してもよい。
意図判定手段123は、顔位置FEおよび視線方向LVを記憶部14から取得する。意図判定手段123は、詳細には、連続する複数のフレーム画像(例えば30フレーム画像)における顔位置FEおよび視線方向LVを取得する。そして、意図判定手段123は、取得したフレーム画像間における顔位置FEの変化量に基づいて、操作者の顔の位置が静止しているかを判定し、また、フレーム画像間における視線方向LVの変化量に基づいて、操作者の視線方向が静止しているか否かを判定する。ここで、操作者は、ジェスチャ認識装置1にジェスチャを認識させたい場合、動画撮影部11すなわちカメラを凝視する。そのため、操作者がジェスチャ開始を意図している場合、操作者の顔の位置は静止し、かつ、操作者の視線方向は動画撮影部11を向いて静止する。そこで、意図判定手段123は、所定数の連続するフレーム画像において、所定の方向と視線方向LVとの為す角度が所定値よりも小さく(条件A)、かつ、顔位置FEの変化量が所定値よりも小さい(条件B)場合に、操作者がジェスチャの開始を意図していると判定する。
条件A.視線方向が、連続する30フレーム画像において、動画撮影部11と正対する方向に対して10°の角度範囲内に存在する。すなわち、視線方向が、連続する30フレーム画像において、虹彩の中心を頂点とし、虹彩の中心と動画撮影部11とを結ぶ基準直線の周りに10°の角度で拡がる円錐に含まれる。
条件B.顔位置FEの中心(または重心など所定の一点)が、連続する30フレーム画像において、顔位置FEの幅(左右長さ)の10%の長さを径とする1つの円に含まれる。
認識領域設定手段124は、顔位置FEの周辺、詳細には顔位置FEの左右の位置に、認識領域OE1、OE2を設定するものである(図3参照)。なお、認識領域OE1、OE2の大きさは、その各辺の長さが、顔位置FEの対応する各辺の長さの1.5倍となるように設定される。そして、認識領域設定手段124は、認識領域OE1およびOE2内において、認識対象物(例えば操作者の手)を抽出する。なお、操作者が、おおよそ顔の横に相当する位置で認識対象物を操作する場合、認識領域OE1、OE2は、その高さ方向の範囲が、顔位置FEの高さ方向の範囲を含んでいることが望ましい。例えば、認識領域OE1およびOE2の高さ方向についての中心線が、顔位置FEの高さ方向についての中心線と一致するように、認識領域OE1、OE2を設定する。こうすることにより、認識領域OE1、OE2の高さ方向の中心と顔位置FEの高さ方向の中心とが一致する。さらに、前述のように、認識領域OE1、OE2の辺の長さは顔位置FEの辺の長さの1.5倍である。従って、認識領域OE1、OE2の高さ方向の範囲が、顔位置FEの高さ方向の範囲を含むことになる。
ジェスチャ認識手段125は、認識領域OE1およびOE2内において、認識対象物の位置、形状、および変位を認識する。認識対象物の認識の方法としては、例えば、フレーム画像毎に手の位置の変位を抽出する方法、あるいはHMMなどのモデルを利用した方法などを挙げることができる。
ジェスチャ認識を行うため、上述のように、フレーム画像間において認識対象物の位置の変位を測定する方法、および/またはHMMを用いた方法を使用することができる。詳細には、認識対象物の位置の変位を測定する方法によれば、操作者が認識対象物を移動させると、ジェスチャ認識装置1と接続されている表示装置に表示されたポインタPを、認識対象物が移動した方向・距離に動かすといった処理が可能になる。また、HMMを用いた方法では、まず、ジェスチャ認識装置1が認識するジェスチャの種類毎のモデルを、データベースにして記憶部14に記憶しておく。その後、ジェスチャ認識装置1に入力された画像に対して、ジェスチャ認識手段125は、上記データベースに含まれる各モデルの尤度を計算する。その結果、入力画像に対する尤度値が所定値以上である1つまたは複数のモデルが発見された場合、ジェスチャ認識手段125は、それらのモデルのうち尤度が最も高いモデルに対応するジェスチャを、入力画像から認識したジェスチャとする。
表示機器制御手段126は、ジェスチャ認識装置1外部の表示機器において、ジェスチャ認識手段125によるジェスチャ認識の結果に対応する処理を実行するものである。詳細には、表示機器制御手段126は、まず、記憶部14に記憶された、ジェスチャの種類毎にそれぞれ対応する処理内容を示すジェスチャ−処理内容対応テーブルを参照する。これにより、表示機器制御手段126は、上記表示機器において、ジェスチャ認識手段125によるジェスチャの認識結果に対応する処理を実行する。
なお、制御手段12は、以上に説明した各手段の他に、顔検出手段121が検出した人物を操作者として認定するか否かを決定し、また、複数の操作者候補が存在する場合に、いずれの人物を操作者として認定するか否かを決定する顔認証手段(図示せず)をさらに含んでいてもよい。例えば、顔検出手段121によって複数の顔が検出された場合、上記顔認証手段は、検出された各々の顔の特徴を抽出して、記憶部14に予め記憶した操作者リスト(操作者として認定する人物)に含まれる人物の顔の特徴と一致するか否か、それぞれ判定する。このとき、操作者リストに含まれる人物には優先順位が設定されており、上記顔認証手段は、顔検出手段121が検出した全ての人物の中から、優先順位の最も高い人物を操作者として認定する。あるいは、複数の顔が検出された場合、上記顔認証手段は、画像において顔が最も大きな領域を占める人物(すなわち、動画撮影部11に最も近い位置にいる人物)を操作者として認定してもよい。また、上記顔認証手段は、顔検出手段121が検出した人物が上記操作者リストに含まれないと判定した場合には、その人物を操作者として認定しなくてもよい。
ここでは、制御手段12によって実行されるジェスチャ認識処理の流れについて、図2を用いて説明する。ジェスチャ認識処理では、操作者の顔の位置と視線の方向とに基づいて、操作者がジェスチャ開始の意図を持つか否かを判定し、操作者がジェスチャ開始の意図を持つと判定した場合に、ジェスチャ認識を開始する。以下に、図2に示すフローチャートに従って、ジェスチャ認識処理の詳細を説明する。なお、ここでは、操作者が扱う認識対象物は操作者自身の手であるとする。
実施形態1に係るジェスチャ認識装置1の変形例について、図5および図6に基づいて説明すれば、以下のとおりである。ここで、図5は、本変形例に係るジェスチャ認識装置1aの構成を示すブロック図であり、図6は、ジェスチャ認識装置1aが備えた制御手段22によって実行されるジェスチャ認識処理αの流れを示すフローチャートである。以下では、説明の便宜上、実施形態1で説明した図面と同じ機能を有する部材については、同じ符号を付記して、その説明を省略することとする。
人の顔の向き(言い換えれば頭の向き)を推定するためには、前述した視線方向の推定を応用することができる。詳細には、動画像から前述のように抽出した両目が、顔位置FEの横方向の中心線CLに対して対称な位置にある場合(図4の(a)参照)、顔方向推定手段127は、顔の向きはジェスチャ認識装置1(正確にいえば動画撮影部11)に対して正対していると判断する。一方、抽出した目の位置が、上記中心線CLに対して非対称な位置にある場合(図4の(b)参照)、顔方向推定手段127は、顔の向きはジェスチャ認識装置1に対して正対していない、すなわち操作者は横を向いていると判断する。
ステップS103において、意図判定手段123が、視線方向は静止していると判定した場合(ステップS103でyes)、顔方向推定手段127は、顔方向の推定を行う(S104a)。その後、意図判定手段123は、連続する複数のフレーム画像(例えば30フレーム画像)において、顔方向が所定の方向で静止しているか否か判定する(S104b)。顔方向が所定の方向で静止していないと判定された場合(ステップS104bでno)、ステップS102に戻り、再び視線方向の推定が行われる。
条件B´.連続する30フレーム画像において、操作者の右目から中心線CLまでの距離と、操作者の左目から中心線CLまでの距離との差が、顔位置FEの幅の10%以下である。
本発明に係る表示機器1000について、図7に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、実施形態1および変形例で説明した図面と同じ機能を有する部材については、同じ符号を付記して、その説明を省略することとする。
図7に外観を示す表示機器1000は、ジェスチャ認識装置1および表示装置2を備えたものである。表示機器1000において、ジェスチャ認識装置1の代わりに、前記変形例のジェスチャ認識装置1aを適用することもできる。なお、表示機器1000は、具体的にはパーソナルコンピュータである。しかしながら、本発明はこれに限られず、表示機器1000は、テレビジョン受像機、インターネットテレビ、またはタブレット端末など、制御機能および表示機能を備えた各種表示機器であってもよい。
本実施形態における表示機器制御手段126は、ジェスチャ認識手段125から取得したジェスチャ認識結果に基づいて、表示装置2における表示を制御する。表示機器制御手段126は、例えば、上記表示機器1000がさらに備えた制御機能部(図示せず)と協働することによって、表示装置2に表示されたポインタPを制御する。このポインタPは、ジェスチャ認識装置1が認識対象物のジェスチャを認識した結果に基づき、認識対象物のジェスチャと連動する。すなわち、操作者が認識領域OE1、OE2内において認識対象物の操作を行うと、表示装置2の画面内において、ポインタPが認識対象物の操作に連動する。このように、操作者は、表示装置2の画面に接触したり、あるいはリモコンなどの道具を使用したりすることなく、画面に表示されたポインタPの操作を行うことができる。
以上のように、本発明によれば、操作者が、例えば手を振るなどの特別な開始動作を行うことなく、ジェスチャ認識装置1、1aにジェスチャを認識させることができる。さらに、操作者は、ジェスチャ認識装置1、1aから認識段階をフィードバックされるので、このフィードバックを確認することによって、適切な操作を行うことができる。さらに、操作者は、リモコン、マウス、またはグローブなどの特別な道具を使用することなく、かつ、表示装置2の画面に接触することなく、操作者自身の手などを認識対象物として用いて、表示機器1000の操作を行うことができる。すなわち、本発明に係るジェスチャ認識装置1、1aは、操作者が、自然でスムーズ、かつインタラクティブな操作を、表示機器1000に対して行うためのインタフェースを提供する。
最後に、ジェスチャ認識装置1、2の各ブロック、特に制御手段12、22に含まれる各手段は、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
2 表示装置
1000 表示機器
13 フィードバック部(通知手段)
121 顔検出手段
122 視線方向推定手段
123 意図判定手段(判定手段)
124 認識領域設定手段
127 顔方向推定手段
Claims (9)
- ユーザが撮影された動画から、該ユーザによるジェスチャを認識するジェスチャ認識装置において、
上記ユーザの視線方向を推定する視線方向推定手段と、
所定期間において、所定の方向と上記視線方向との為す角度が所定値よりも小さい場合に、上記ユーザがジェスチャを開始しようとしていると判定する判定手段と、
上記判定手段が、上記ユーザがジェスチャを開始しようとしていると判定した場合に、該判定が行われた旨を上記ユーザに通知する通知手段とを備えたことを特徴とするジェスチャ認識装置。 - 上記通知手段は、当該ジェスチャの認識開始または終了の少なくともいずれか一方を判定した場合にも、該判定が行われた旨を上記ユーザに通知することを特徴とする請求項1記載のジェスチャ認識装置。
- 動画において上記ユーザの顔の位置を検出する顔検出手段をさらに備え、
上記判定手段は、所定期間において、所定の方向と上記視線方向との為す角度が所定値よりも小さいとともに、上記顔検出手段によって検出された顔の位置の変化量が所定値よりも小さい場合に、上記ユーザがジェスチャを開始しようとしていると判定することを特徴とする請求項1または2に記載のジェスチャ認識装置。 - 動画において上記ユーザの顔の向きを推定する顔方向推定手段をさらに備え、
上記判定手段は、所定期間において、所定の方向と上記視線方向との為す角度が所定値よりも小さいとともに、上記顔方向推定手段によって推定された顔の向きと所定の方向との為す角度が所定値よりも小さい場合に、上記ユーザがジェスチャを開始しようとしていると判定することを特徴とする請求項1または2に記載のジェスチャ認識装置。 - 上記ジェスチャを認識する領域である認識領域を設定する認識領域設定手段をさらに備えたことを特徴とする請求項1または2に記載のジェスチャ認識装置。
- 外部の機器に対して、ジェスチャの認識結果に対応する処理を実行するように指示する機器制御手段をさらに備えたことを特徴とする請求項1〜5のいずれか一項に記載のジェスチャ認識装置。
- 請求項6記載のジェスチャ認識装置と、上記ジェスチャ認識装置によって動作制御が行われる表示装置とを備えた表示機器。
- ユーザが撮影された動画から、該ユーザによるジェスチャを認識するジェスチャ認識装置の制御方法であって、
上記ユーザの視線方向を推定し、
所定期間において、所定の方向と上記視線方向との為す角度が所定値よりも小さい場合に、上記ユーザがジェスチャを開始しようとしていると判定し、
上記ユーザがジェスチャを開始しようとしていると判定した場合に、該判定が行われた旨を上記ユーザに通知することを特徴とするジェスチャ認識装置の制御方法。 - 請求項8に記載のジェスチャ認識装置の制御方法の各処理をコンピュータに実行させるための制御プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012192036A JP2014048936A (ja) | 2012-08-31 | 2012-08-31 | ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム |
KR1020130100110A KR20140029223A (ko) | 2012-08-31 | 2013-08-23 | 제스처 인식 장치, 그 제어 방법, 표시 기기, 및 제어 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체 |
CN201310375853.9A CN103677252A (zh) | 2012-08-31 | 2013-08-26 | 姿势识别装置、其控制方法、显示器 |
EP13181873.4A EP2706434A3 (en) | 2012-08-31 | 2013-08-27 | Gesture recognition apparatus, control method thereof, display instrument, and computer readable medium |
US14/011,959 US20140062862A1 (en) | 2012-08-31 | 2013-08-28 | Gesture recognition apparatus, control method thereof, display instrument, and computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012192036A JP2014048936A (ja) | 2012-08-31 | 2012-08-31 | ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014048936A true JP2014048936A (ja) | 2014-03-17 |
Family
ID=49080698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012192036A Pending JP2014048936A (ja) | 2012-08-31 | 2012-08-31 | ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20140062862A1 (ja) |
EP (1) | EP2706434A3 (ja) |
JP (1) | JP2014048936A (ja) |
KR (1) | KR20140029223A (ja) |
CN (1) | CN103677252A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016076061A (ja) * | 2014-10-06 | 2016-05-12 | 三菱電機株式会社 | 操作入力装置 |
JP2017167727A (ja) * | 2016-03-15 | 2017-09-21 | Kddi株式会社 | 動画の処理装置、処理方法及びプログラム |
JP2018005660A (ja) * | 2016-07-05 | 2018-01-11 | 株式会社リコー | 情報処理装置、プログラム、位置情報作成方法、情報処理システム |
JP2020533662A (ja) * | 2017-09-11 | 2020-11-19 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | 自律運転している車両とコミュニケーションするための単純な2dカメラを採用したジェスチャー制御 |
US10936077B2 (en) | 2016-07-05 | 2021-03-02 | Ricoh Company, Ltd. | User-interactive gesture and motion detection apparatus, method and system, for tracking one or more users in a presentation |
CN112639718A (zh) * | 2018-05-04 | 2021-04-09 | 谷歌有限责任公司 | 自动化助手功能的免热词调配 |
US11493992B2 (en) | 2018-05-04 | 2022-11-08 | Google Llc | Invoking automated assistant function(s) based on detected gesture and gaze |
US11614794B2 (en) | 2018-05-04 | 2023-03-28 | Google Llc | Adapting automated assistant based on detected mouth movement and/or gaze |
US12020704B2 (en) | 2022-01-19 | 2024-06-25 | Google Llc | Dynamic adaptation of parameter set used in hot word free adaptation of automated assistant |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013164834A (ja) * | 2012-01-13 | 2013-08-22 | Sony Corp | 画像処理装置および方法、並びにプログラム |
US9740923B2 (en) * | 2014-01-15 | 2017-08-22 | Lenovo (Singapore) Pte. Ltd. | Image gestures for edge input |
CN104523403B (zh) * | 2014-11-05 | 2019-06-18 | 陶宇虹 | 一种判断外骨骼助行机器人穿戴者下肢行动意图的方法 |
US20170024086A1 (en) * | 2015-06-23 | 2017-01-26 | Jamdeo Canada Ltd. | System and methods for detection and handling of focus elements |
KR102541829B1 (ko) * | 2016-01-27 | 2023-06-09 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US10275646B2 (en) * | 2017-08-03 | 2019-04-30 | Gyrfalcon Technology Inc. | Motion recognition via a two-dimensional symbol having multiple ideograms contained therein |
KR102582863B1 (ko) * | 2018-09-07 | 2023-09-27 | 삼성전자주식회사 | 사용자 의도 기반 제스처 인식 방법 및 장치 |
US11196881B2 (en) * | 2019-01-21 | 2021-12-07 | Canon Kabushiki Kaisha | Image forming apparatus employs a line-of-sight detection technique to execute user operations in plural modes |
CN111815662A (zh) * | 2019-04-11 | 2020-10-23 | 上海集森电器有限公司 | 一种基于人脸检测的行为识别实现方法 |
US20230036233A1 (en) * | 2020-01-29 | 2023-02-02 | Nec Corporation | Information processing device, information processing method, and storage medium |
CN115210781A (zh) * | 2021-01-26 | 2022-10-18 | 京东方科技集团股份有限公司 | 控制方法、电子设备及存储介质 |
KR20230015785A (ko) * | 2021-07-23 | 2023-01-31 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US20230085330A1 (en) * | 2021-09-15 | 2023-03-16 | Neural Lab, Inc. | Touchless image-based input interface |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10301675A (ja) * | 1997-02-28 | 1998-11-13 | Toshiba Corp | マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法 |
JP2004187125A (ja) * | 2002-12-05 | 2004-07-02 | Sumitomo Osaka Cement Co Ltd | 監視装置および監視方法 |
WO2011148607A1 (ja) * | 2010-05-28 | 2011-12-01 | パナソニック株式会社 | ジェスチャ認識装置及びジェスチャ認識方法 |
JP2012515968A (ja) * | 2009-01-21 | 2012-07-12 | トムソン ライセンシング | 顔検出及びホットスポットの動きによりメディアを制御する方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1293446C (zh) * | 2005-06-02 | 2007-01-03 | 北京中星微电子有限公司 | 一种非接触式目控操作***和方法 |
US7438414B2 (en) * | 2005-07-28 | 2008-10-21 | Outland Research, Llc | Gaze discriminating electronic control apparatus, system, method and computer program product |
JP2007094935A (ja) * | 2005-09-30 | 2007-04-12 | Omron Corp | 情報処理装置および情報処理方法、情報処理システム、プログラム、並びに、記録媒体 |
JP4633043B2 (ja) * | 2005-12-27 | 2011-02-16 | パナソニック株式会社 | 画像処理装置 |
JP5230748B2 (ja) * | 2008-09-26 | 2013-07-10 | パナソニック株式会社 | 視線方向判定装置及び視線方向判定方法 |
US7810926B2 (en) * | 2009-02-15 | 2010-10-12 | International Business Machines Corporation | Lateral gaze angle estimation using relative eye separation |
KR20110003146A (ko) * | 2009-07-03 | 2011-01-11 | 한국전자통신연구원 | 제스쳐 인식 장치, 이를 구비한 로봇 시스템 및 이를 이용한 제스쳐 인식 방법 |
JP5569062B2 (ja) | 2010-03-15 | 2014-08-13 | オムロン株式会社 | ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム |
KR101334107B1 (ko) * | 2010-04-22 | 2013-12-16 | 주식회사 굿소프트웨어랩 | 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법 |
JP2011232894A (ja) | 2010-04-26 | 2011-11-17 | Renesas Electronics Corp | インタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラム |
KR20120029228A (ko) * | 2010-09-16 | 2012-03-26 | 엘지전자 주식회사 | 투명 디스플레이 장치 및 객체 정보 제공 방법 |
CN102508551B (zh) * | 2011-11-18 | 2014-06-18 | 北京恒信彩虹科技有限公司 | 一种目光捕捉方法和采用目光捕捉的人机交互方法 |
-
2012
- 2012-08-31 JP JP2012192036A patent/JP2014048936A/ja active Pending
-
2013
- 2013-08-23 KR KR1020130100110A patent/KR20140029223A/ko active Search and Examination
- 2013-08-26 CN CN201310375853.9A patent/CN103677252A/zh active Pending
- 2013-08-27 EP EP13181873.4A patent/EP2706434A3/en not_active Withdrawn
- 2013-08-28 US US14/011,959 patent/US20140062862A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10301675A (ja) * | 1997-02-28 | 1998-11-13 | Toshiba Corp | マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法 |
JP2004187125A (ja) * | 2002-12-05 | 2004-07-02 | Sumitomo Osaka Cement Co Ltd | 監視装置および監視方法 |
JP2012515968A (ja) * | 2009-01-21 | 2012-07-12 | トムソン ライセンシング | 顔検出及びホットスポットの動きによりメディアを制御する方法 |
WO2011148607A1 (ja) * | 2010-05-28 | 2011-12-01 | パナソニック株式会社 | ジェスチャ認識装置及びジェスチャ認識方法 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016076061A (ja) * | 2014-10-06 | 2016-05-12 | 三菱電機株式会社 | 操作入力装置 |
JP2017167727A (ja) * | 2016-03-15 | 2017-09-21 | Kddi株式会社 | 動画の処理装置、処理方法及びプログラム |
JP2018005660A (ja) * | 2016-07-05 | 2018-01-11 | 株式会社リコー | 情報処理装置、プログラム、位置情報作成方法、情報処理システム |
US10936077B2 (en) | 2016-07-05 | 2021-03-02 | Ricoh Company, Ltd. | User-interactive gesture and motion detection apparatus, method and system, for tracking one or more users in a presentation |
US11557150B2 (en) | 2017-09-11 | 2023-01-17 | Conti Temic Microelectronic Gmbh | Gesture control for communication with an autonomous vehicle on the basis of a simple 2D camera |
JP2020533662A (ja) * | 2017-09-11 | 2020-11-19 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | 自律運転している車両とコミュニケーションするための単純な2dカメラを採用したジェスチャー制御 |
JP7280865B2 (ja) | 2017-09-11 | 2023-05-24 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング | 自律運転している車両とコミュニケーションするための単純な2dカメラを採用したジェスチャー制御 |
JP2021520590A (ja) * | 2018-05-04 | 2021-08-19 | グーグル エルエルシーGoogle LLC | ホットワードを用いない自動アシスタント機能の適応 |
US11493992B2 (en) | 2018-05-04 | 2022-11-08 | Google Llc | Invoking automated assistant function(s) based on detected gesture and gaze |
US11614794B2 (en) | 2018-05-04 | 2023-03-28 | Google Llc | Adapting automated assistant based on detected mouth movement and/or gaze |
JP7263505B2 (ja) | 2018-05-04 | 2023-04-24 | グーグル エルエルシー | ホットワードを用いない自動アシスタント機能の適応 |
CN112639718A (zh) * | 2018-05-04 | 2021-04-09 | 谷歌有限责任公司 | 自动化助手功能的免热词调配 |
US11688417B2 (en) | 2018-05-04 | 2023-06-27 | Google Llc | Hot-word free adaptation of automated assistant function(s) |
US12020704B2 (en) | 2022-01-19 | 2024-06-25 | Google Llc | Dynamic adaptation of parameter set used in hot word free adaptation of automated assistant |
Also Published As
Publication number | Publication date |
---|---|
US20140062862A1 (en) | 2014-03-06 |
EP2706434A2 (en) | 2014-03-12 |
CN103677252A (zh) | 2014-03-26 |
EP2706434A3 (en) | 2016-09-21 |
KR20140029223A (ko) | 2014-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014048936A (ja) | ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム | |
JP6011165B2 (ja) | ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム | |
US10628670B2 (en) | User terminal apparatus and iris recognition method thereof | |
US20190041985A1 (en) | Information processing apparatus and information processing method | |
JP6143975B1 (ja) | 画像の取り込みを支援するためにハプティックフィードバックを提供するためのシステムおよび方法 | |
JP6221535B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6019947B2 (ja) | ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム | |
US9952667B2 (en) | Apparatus and method for calibration of gaze detection | |
JP6572600B2 (ja) | 情報処理装置、情報処理装置の制御方法、および、コンピュータープログラム | |
US11693475B2 (en) | User recognition and gaze tracking in a video system | |
US20150279369A1 (en) | Display apparatus and user interaction method thereof | |
JP6252409B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR20160135242A (ko) | 시선 검출을 통한 원격 디바이스 제어 | |
US11163995B2 (en) | User recognition and gaze tracking in a video system | |
TW201344597A (zh) | 顯示裝置控制方法、控制器及多媒體系統 | |
KR20170001430A (ko) | 디스플레이 장치 및 이의 영상 보정 방법 | |
US11477433B2 (en) | Information processor, information processing method, and program | |
US20180352168A1 (en) | Omnidirectional camera display image changing system, omnidirectional camera display image changing method, and program | |
US20150009314A1 (en) | Electronic device and eye region detection method in electronic device | |
KR101987806B1 (ko) | 단말 장치 및 그 제어 방법 | |
KR20230158283A (ko) | 전자 장치 및 이의 제어 방법 | |
JP2023167624A (ja) | 情報処理装置、情報処理方法、プログラム、および記憶媒体 | |
JP2014219812A (ja) | 入力装置および入力プログラム | |
JP2018055708A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2016122957A (ja) | 音声装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150807 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20151023 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20151028 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160527 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160809 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170221 |