JPWO2015125213A1 - 移動体用ジェスチャ誘導装置、移動体用ジェスチャ誘導システムおよび移動体用ジェスチャ誘導方法 - Google Patents
移動体用ジェスチャ誘導装置、移動体用ジェスチャ誘導システムおよび移動体用ジェスチャ誘導方法 Download PDFInfo
- Publication number
- JPWO2015125213A1 JPWO2015125213A1 JP2016503807A JP2016503807A JPWO2015125213A1 JP WO2015125213 A1 JPWO2015125213 A1 JP WO2015125213A1 JP 2016503807 A JP2016503807 A JP 2016503807A JP 2016503807 A JP2016503807 A JP 2016503807A JP WO2015125213 A1 JPWO2015125213 A1 JP WO2015125213A1
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- operator
- hand
- degree
- enhancement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
実施の形態1.
図1は、この実施の形態1に係る移動体用ジェスチャ誘導装置の構成を示すブロック図である。移動体用ジェスチャ誘導装置1は、車両などの移動体に搭乗した操作者が操作対象物に対するジェスチャ操作を行うときに、操作者の手を予め定められたジェスチャ実施領域へ誘導し、このジェスチャ操作に対して予め定められた手の形状へ誘導する。
図1において、移動体用ジェスチャ誘導装置1は、演算部2、I/F(インタフェース)部3およびイベント検知部4を備えており、これらはバス5で各々接続されている。
また移動体用ジェスチャ誘導装置1は、I/F部3を介して3Dカメラ6、スピーカ7、HUD(ヘッドアップディスプレイ)8およびセンターディスプレイ9と接続される。
また報知装置は操作対象物を操作者に報知する装置であり、図1ではスピーカ7、HUD8、センターディスプレイ9に相当する。すなわち、操作対象物の報知態様には、スピーカ7から出力される音による報知と、HUD8またはセンターディスプレイ9が表示する表示物による報知がある。
この場合、音による報知においては、強調度に応じて報知音の音量、音の種類などが変更される。表示物による報知では、強調度に応じて表示物の透明度、色、大きさ、形状などが変更される。
例えば、操作者の手の位置とジェスチャ実施領域との位置の差を定量化し、さらに操作者の手の形状と操作対象物のジェスチャ操作に予め定められた手の形状との差を定量化した相違度をそれぞれ用いて強調度を算出する。このとき、強調度算出部21は、操作者の手がジェスチャ実施領域に近づき、かつ、操作者の手の形状が予め定められた形状に類似するほど値が大きくなるように強調度を算出する。
このようにすることで、操作対象物に予め定められたジェスチャ実施領域に操作者の手が近づくにつれて操作対象物の報知が強調される。これにより、操作者は、操作対象物が強調される方向に手を移動させていくことで、操作者の手は、ジェスチャ操作を行う予め定められた手の位置(ジェスチャ実施領域)に誘導され、このジェスチャ操作に予め定められた手の形状へ誘導される。
3Dカメラ6は、例えばステレオカメラまたはTOF(Time Of Flight)カメラを用いて実現することができる。
すなわち、ジェスチャ操作を認識する構成要素を移動体用ジェスチャ誘導装置1とは別の装置に設けて、報知制御部20および強調度算出部21と連携してジェスチャ操作を認識するように構成してもよい。
また、移動体用ジェスチャ誘導装置1が、操作者の手を、ジェスチャ操作を行う予め定められた手の位置(ジェスチャ実施領域)へ誘導し、かつ、このジェスチャ操作に対して予め定められた手の形状へ誘導する例を示したが、これに限定されるものではない。
例えば、強調度算出部21が、センサの検出情報に基づいて操作者の手の位置のみを特定し、この操作者の手の位置とジェスチャ実施領域との差に応じた強調度を算出する。
そして、報知制御部20は、センサによる操作者の手の検出に応じて強調度算出部21が強調度を算出するごとに、算出された強調度でジェスチャ操作の操作対象物を報知装置に報知させて操作者の手を予め定められた位置へ誘導する。
図2は、実施の形態1に係る移動体用ジェスチャ誘導装置の動作を示すフローチャートであり、この図2に示すフローチャートの流れに従って説明を行う。
まず、イベント検知部4がイベントを検知する(ステップST1)。強調度算出部21は、イベント検知部4からイベントの検知が通知されると、予め定められた強調度Rの初期値を報知制御部20へ出力する。ここで、強調度Rの初期値は、イベントの発生時に、このイベントに対応する操作対象物をユーザに認識しやすくするために、最も高い強調度もしくはこれに準じた値とする。
例えば、HUD8の投影部材8aにアイコン10を表示している場合、アイコン10は運転者の前方視界に重畳表示されており、運転者の視界を妨げるものとなる。
そこで、設定時間が経過しても操作者Aの手が検出されなければ強調度Rを徐々に低くし、これに応じて透明度が高くなるようにアイコン10を表示する。これにより、アイコン10は徐々に目立たなくなり、運転者の視界を妨げることを抑制できる。
なお、上記設定時間が経過してからさらに予め定められた時間が経過しても操作者Aの手が検出されなかった場合には、操作者Aに操作の意思がないものと判断して、操作対象物の報知を停止してもよい。
3Dカメラ6が操作者Aの手を検出すると(ステップST4;YES)、強調度算出部21は、3Dカメラ6の検出情報に基づいて操作者Aの手の位置および形状を特定する。3Dカメラ6の検出情報とは、3Dカメラ6に撮影された3D映像であり、この3D映像から操作者Aの手の2次元映像およびこの映像の各画素が有する奥行き座標を得ることができる。これらの情報に基づいて操作者Aの手の位置(空間的な位置)および手の形状が特定される。
なお、操作者Aの手をジェスチャ実施領域11へ誘導するが、操作者Aの手の形状を、ジェスチャ操作に対して予め定められた手の形状へ誘導しない場合、すなわち強調度Rの算出に相違度sを考慮しない場合は、例えば係数βを0とすればよい。
R=1/(α・d+β・s) ・・・(1)
なお、イベント発生から設定時間が経過しても操作者Aの手がジェスチャ実施領域11内に進入したことが検出されない場合には、強調度算出部21が、徐々に低くなるように強調度Rを順次算出し、報知制御部20が、報知装置を制御して、強調度算出部21によって順次算出された強調度Rで操作対象物を報知してもよい。このようにすることでも、不要な操作対象物が報知され続けることを防止できる。
報知制御部20は、強調度算出部21から上記通知を受けると、報知装置を制御して、操作者Aの手がジェスチャ実施領域11内に存在することを報知させる(ステップST8)。例えば、スピーカ7から特別な音を出力する、もしくは、操作対象物に特別な表示を行う。これにより、操作者Aは、移動体用ジェスチャ誘導装置1においてジェスチャ操作が認識可能になったことを認識できる。
例えば、イベントがメール着信の場合は、メールの読み上げを指示する“選択”、またはメールの開封を保留して報知を終了する“キャンセル”といった処理が実施される。
特に、強調度算出部21が、操作者Aの手の位置とジェスチャ操作を行う予め定められたジェスチャ実施領域11の中心位置との距離dに応じた強調度Rを算出する。
このように構成することで、操作対象物のジェスチャ操作を認識するためにホログラムなどを用いて操作対象物の虚像を空間に表示する必要がなく、簡易な構成で移動体用ジェスチャ誘導装置1を実現することができる。また、操作者Aは、操作対象物の報知が強調される方向に手を移動させていくことで、操作者Aの手は、ジェスチャ操作を行う予め定められた手の位置(ジェスチャ実施領域)に誘導される。これにより、ジェスチャ操作を行うべき適切な位置に操作者Aの手が誘導され、ジェスチャ操作の認識精度を向上させることができる。
特に、強調度算出部21が、操作者Aの手の位置とジェスチャ実施領域11の中心位置との距離dおよび操作者Aの手の形状と操作対象物のジェスチャ操作に予め定められた手の形状との相違度sに応じた強調度Rを算出する。
このように構成することで、操作者Aの手を、ジェスチャ操作を行うべきジェスチャ実施領域11へ誘導し、さらにこのジェスチャ操作に対して予め定められた手の形状へ誘導することができる。これにより、操作者Aの手をジェスチャ操作を行うべき適切な状態に誘導することができ、ジェスチャ操作の認識精度を向上させることができる。
実施の形態1では、強調度算出部21が、操作者Aの手の位置からジェスチャ実施領域11の中心位置までの距離dを強調度Rの算出に用いることで、操作者Aの手の位置とジェスチャ実施領域11の中心位置との差を操作者Aにフィードバックした。しかし、この方法では、操作者Aがどの方向に手がずれているのかを知ることができず、ジェスチャ実施領域11へ誘導されるまでに時間がかかる可能性がある。
そこで、実施の形態2では、ジェスチャ実施領域11の内外で検出された操作者Aの手のジェスチャ実施領域11の中心位置からのずれ方向を算出して、このずれ方向に応じた報知態様で操作対象物を報知させて操作者Aの手をジェスチャ実施領域11の中心位置へ誘導する。このようにすることで、操作者Aは、報知装置による操作対象物の報知によって上下左右のどの方向に手を動かしたらよいかを知ることができる。
さらに図7(a)に示すように、ジェスチャ実施領域11内の上記xy面を操作者A側に投影し、操作者Aの手の位置における上記xy面の投影面の中心位置(中心Oから操作者A側へ延長した延長線(z軸)と当該投影面との交点位置)に対して操作者Aの手が左右方向にずれているdxの値および上下方向にずれているdyの値を算出し、dxおよびdyから上記投影面の中心位置に対する操作者Aの手のずれ方向を特定する。
報知制御部20は、報知装置を制御して、強調度算出部21が算出した強調度Rでかつずれ方向に応じた報知態様で操作対象物を報知する。
そこで、アイコン10aにおいては、操作者Aの手が中心Oまたは中心Oから操作者A側へ延長した延長線(z軸)上の点(上記投影面の中心)に対して右上方向にずれていることを視覚的に示すため、その右上部分が操作者Aの手の位置および形状(距離dおよび相違度s)に応じた強調度R、すなわち強調度Rに対応する透明度で表示され、その他の部分は、右上部分よりも高い透明度で表示される。
そこで、アイコン10cでは、操作者Aの手が中心Oまたは上記投影面の中心に対して左下方向にずれていることを視覚的に示すために、その左下部分が操作者Aの手の位置および形状(距離dおよび相違度s)に応じた強調度Rの透明度で表示され、その他の部分は、左下部分よりも高い透明度で表示される。
そこで、アイコン10dでは、操作者Aの手が中心Oまたは上記投影面の中心に対して右下方向にずれていることを視覚的に示すため、その右下部分が操作者Aの手の位置および形状(距離dおよび相違度s)に応じた強調度Rの透明度で表示され、その他の部分は、右下部分よりも高い透明度で表示される。
一方、アイコン10bは全体で濃さの偏りがないことから、操作者Aはジェスチャ実施領域11の中心Oまたは上記投影面の中心に手があることを視覚的に知ることができる。このようにすることで、操作者Aは、自分の手がジェスチャ実施領域11の位置に対して上下左右のどの方向にずれているかを直感的に理解でき、より容易に正しいジェスチャ操作を行うことができるようになる。
操作者Aの手が中心Oまたは中心Oから操作者A側へ延長した延長線(z軸)上の点(上記投影面の中心)に対して右上方向にずれている場合、スピーカ7から右上方向のずれに対応する種類の音を出力する。
一方、操作者Aの手が中心Oまたは上記投影面の中心にある場合には、スピーカ7から手が中心にあるときに対応する種類の音を出力する。なお、スピーカ7が出力する音は、強調度Rに応じた音量となる。
このようにすることで、操作者Aがジェスチャ実施領域11の位置に対して上下左右どの方向にずれているかを直感的に理解でき、より容易に正しいジェスチャ操作を行うことが可能である。
実施の形態3では、複数のジェスチャ実施領域が存在する場合について述べる。複数のジェスチャ実施領域を設けることで、ジェスチャ操作を行う場所およびジェスチャ操作の種類の幅を広げることができる。
このようにジェスチャ実施領域ごとに異なる操作対象物のジェスチャ操作が認識されるので、複数の操作対象物に対応する処理が可能となる。また“手を払う”などのジェスチャ操作に対してジェスチャ実施領域ごとに異なる意味を設定することで、ジェスチャ操作の種類の幅を広げることができる。
すなわち、報知制御部20は、ジェスチャ認識部22がジェスチャ操作を認識したジェスチャ実施領域に対応する報知装置がジェスチャ操作の処理結果を出力するように制御する。このようにすることで、操作者Aは、ジェスチャ操作の処理結果を出力したい報知装置をジェスチャ実施領域によって選択することができる。
例えば、左手用、右手用のジェスチャ実施領域13,14を設けることで、操作者Aの利き手によらず、ハンドル12から手を離しやすい方の手で操作対象物に対するジェスチャ操作を行うことができる。また、運転者以外の同乗者用のジェスチャ実施領域を設けることで、同乗者も操作対象物をジェスチャ操作することが可能となる。
図11は、この発明の実施の形態4に係る移動体用ジェスチャ誘導装置の構成を示すブロック図である。図11において、実施の形態4に係る移動体用ジェスチャ誘導装置1Aは、実施の形態1の構成と異なる演算部2Aを有しており、演算部2Aは、実施領域設定部23を備える。実施領域設定部23は、ジェスチャ実施領域11の位置を変更する位置変更部である。また、実施領域設定部23は、外部からの指示に応じてジェスチャ実施領域11の位置を調整する調整部23aを備える。なお、図11において、図1と同一構成要素には、同一符号を付して説明を省略する。
図12は、ジェスチャ実施領域の設定画面の一例を示す図である。まずユーザあるいはメンテナンスの担当者が、センターディスプレイ9などの表示装置に表示させたメニュー画面から選択して実施領域設定部23を起動する。
実施領域設定部23が起動すると、調整部23aが、図12に示すような設定画面9bをセンターディスプレイ9に表示する。なお、設定画面はHUD8に表示してもよい。
また、図12では操作対象物の位置を基準としてジェスチャ実施領域11の位置を変更する場合を示したが、操作者Aがハンドル12で運転を行う運転者である場合、ハンドル12の位置(例えば、ハンドル12の左端位置)を基準としてもよい。
例えば、実施領域設定部23が、操作者Aによってジェスチャ操作が行われた手の位置を順次記憶しておき、予め定められた回数で過去に行われたジェスチャ操作の位置のうち閾値以上の回数で同じであった位置または予め定められた回数で過去に行われたジェスチャ操作の平均位置を算出する。そして、実施領域設定部23は、算出した位置を中心Oとするか、あるいは、頂点位置などとしてジェスチャ実施領域11の位置を変更する。
このようにすることで、操作者Aに合った位置にジェスチャ実施領域11の位置を変更することができる。
そこで、実施領域設定部23によって変更可能なジェスチャ実施領域11の位置範囲に制限を設けてもよい。例えば、実施領域設定部23にハンドル12から予め定めた距離内にある空間位置を禁止位置として設定しておき、この禁止位置にジェスチャ実施領域11の位置が変更されないようにする。このようにすることで、ジェスチャ操作の誤認識を低減できる。
Claims (20)
- 操作者の手を検出するセンサの検出情報に基づいて前記操作者の手の位置を特定し、前記操作者の手の位置とジェスチャ操作を行う予め定められた位置との差に応じた強調度を算出する強調度算出部と、
前記センサによる前記操作者の手の検出に応じて前記強調度算出部が強調度を算出するごとに、算出された強調度で前記ジェスチャ操作の操作対象物を報知装置に報知させて前記操作者の手を前記予め定められた位置へ誘導する報知制御部とを備えた移動体用ジェスチャ誘導装置。 - 前記強調度算出部は、前記センサの検出情報に基づいて前記操作者の手の形状をさらに特定し、前記操作者の手の位置および形状と前記ジェスチャ操作を行う予め定められた位置および前記ジェスチャ操作に予め定められた手の形状との差に応じた強調度を算出し、
前記報知制御部は、前記強調度算出部が算出した強調度で前記ジェスチャ操作の操作対象物を前記報知装置に報知させて、前記操作者の手を前記予め定められた位置と前記ジェスチャ操作に予め定められた手の形状へ誘導することを特徴とする請求項1記載の移動体用ジェスチャ誘導装置。 - 前記強調度算出部は、前記操作者の手の位置と前記ジェスチャ操作を行う予め定められたジェスチャ実施領域の中心位置との距離に応じた強調度を算出することを特徴とする請求項1記載の移動体用ジェスチャ誘導装置。
- 前記強調度算出部は、前記操作者の手の位置と前記ジェスチャ実施領域の中心位置との距離、および前記操作者の手の形状と前記ジェスチャ操作に予め定められた手の形状との相違度に応じた強調度を算出することを特徴とする請求項2記載の移動体用ジェスチャ誘導装置。
- 前記強調度算出部は、前記操作対象物に関するイベントが発生して前記報知装置が当該操作対象物を報知している場合に、前記イベントが発生してから設定時間が経過すると、徐々に低くなるように強調度を順次算出し、
前記報知制御部は、前記強調度算出部によって順次算出された強調度で前記操作対象物を報知するように前記報知装置を制御することを特徴とする請求項1記載の移動体用ジェスチャ誘導装置。 - 前記強調度算出部は、さらに前記センサによって前記ジェスチャ実施領域の内外で検出された前記操作者の手についての当該ジェスチャ実施領域の中心またはこの中心から操作者側へ延長した延長線上の点からのずれ方向を算出し、
前記報知制御部は、前記強調度算出部によって算出された強調度でかつ前記ずれ方向に応じた報知態様で前記操作対象物を前記報知装置に報知させて前記操作者の手を前記ジェスチャ実施領域の中心位置へ誘導することを特徴とする請求項3記載の移動体用ジェスチャ誘導装置。 - 前記操作対象物と前記ジェスチャ実施領域とを1対1に対応させて前記ジェスチャ実施領域の前記操作者の手によるジェスチャ操作を認識するジェスチャ認識部を備えたことを特徴とする請求項3記載の移動体用ジェスチャ誘導装置。
- 前記報知制御部は、前記ジェスチャ認識部によって前記操作対象物が不要であることを示すジェスチャ操作が認識された場合、当該操作対象物を報知しないように前記報知装置を制御することを特徴とする請求項7記載の移動体用ジェスチャ誘導装置。
- 前記ジェスチャ実施領域を複数箇所に設けたことを特徴とする請求項7記載の移動体用ジェスチャ誘導装置。
- 前記ジェスチャ認識部は、ジェスチャ実施領域ごとに異なる操作対象物のジェスチャ操作を認識することを特徴とする請求項9記載の移動体用ジェスチャ誘導装置。
- 前記報知制御部は、前記ジェスチャ認識部がジェスチャ操作を認識したジェスチャ実施領域に対応する報知装置が前記ジェスチャ操作の処理結果を出力するように制御することを特徴とする請求項9記載の移動体用ジェスチャ誘導装置。
- 前記複数のジェスチャ実施領域は、移動体の運転者の右手用および左手用のジェスチャ実施領域、または、前記運転者以外の乗員向けのジェスチャ実施領域であることを特徴とする請求項9記載の移動体用ジェスチャ誘導装置。
- 前記ジェスチャ実施領域は、前記操作者と前記操作対象物との間に配置されていることを特徴とする請求項9記載の移動体用ジェスチャ誘導装置。
- 前記ジェスチャ実施領域の位置を変更する位置変更部を備えたことを特徴とする請求項3記載の移動体用ジェスチャ誘導装置。
- 前記位置変更部は、外部からの設定内容に応じて前記ジェスチャ実施領域の位置を調整する調整部を備えたことを特徴とする請求項14記載の移動体用ジェスチャ誘導装置。
- 前記位置変更部は、ジェスチャ操作が認識された前記操作者の手の位置を学習し、この学習の結果に基づいて前記ジェスチャ実施領域の位置を変更することを特徴とする請求項14記載の移動体用ジェスチャ誘導装置。
- 前記位置変更部によって変更可能な前記ジェスチャ実施領域の位置範囲に制限を設けたことを特徴とする請求項16記載の移動体用ジェスチャ誘導装置。
- 前記報知制御部は、前記操作者の手が前記ジェスチャ実施領域に進入もしくは離脱したことを報知するように前記報知装置を制御することを特徴とする請求項3記載の移動体用ジェスチャ誘導装置。
- 操作者の手を検出するセンサと、
操作対象物を報知する報知装置と、
前記センサの検出情報に基づいて前記操作者の手の位置を特定し、前記操作者の手の位置とジェスチャ操作を行う予め定められた手の位置との差に応じた強調度を算出する強調度算出部と、
前記センサによる前記操作者の手の検出に応じて前記強調度算出部が強調度を算出するごとに、算出された強調度で前記ジェスチャ操作の操作対象物を前記報知装置に報知させて前記操作者の手を前記予め定められた位置へ誘導する報知制御部とを備えた移動体用ジェスチャ誘導システム。 - 強調度算出部が、操作者の手を検出するセンサの検出情報に基づいて前記操作者の手の位置を特定し、前記操作者の手の位置とジェスチャ操作を行う予め定められた手の位置との差に応じた強調度を算出するステップと、
報知制御部が、前記センサによる前記操作者の手の検出に応じて前記強調度算出部が強調度を算出するごとに、算出された強調度で前記ジェスチャ操作の操作対象物を前記報知装置に報知させて前記操作者の手を前記予め定められた位置へ誘導するステップとを備えた移動体用ジェスチャ誘導方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2014/053769 WO2015125213A1 (ja) | 2014-02-18 | 2014-02-18 | 移動体用ジェスチャ誘導装置、移動体用ジェスチャ誘導システムおよび移動体用ジェスチャ誘導方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5968573B2 JP5968573B2 (ja) | 2016-08-10 |
JPWO2015125213A1 true JPWO2015125213A1 (ja) | 2017-03-30 |
Family
ID=53877754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016503807A Expired - Fee Related JP5968573B2 (ja) | 2014-02-18 | 2014-02-18 | 移動体用ジェスチャ誘導装置、移動体用ジェスチャ誘導システムおよび移動体用ジェスチャ誘導方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10168786B2 (ja) |
JP (1) | JP5968573B2 (ja) |
CN (1) | CN106030460B (ja) |
DE (1) | DE112014006380T5 (ja) |
WO (1) | WO2015125213A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018008226A1 (ja) * | 2016-07-05 | 2018-01-11 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN107977071B (zh) * | 2016-10-24 | 2020-02-28 | ***通信有限公司研究院 | 一种适用于空间***的操作方法及装置 |
US11032698B2 (en) * | 2016-10-27 | 2021-06-08 | International Business Machines Corporation | Gesture based smart download |
US11140116B2 (en) * | 2017-01-31 | 2021-10-05 | Samsung Electronics Co., Ltd | Method for providing notification to uncover execution screen and electronic apparatus for performing same |
DK180470B1 (en) | 2017-08-31 | 2021-05-06 | Apple Inc | Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments |
DK201870349A1 (en) | 2018-01-24 | 2019-10-23 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models |
JP7179334B2 (ja) * | 2019-05-07 | 2022-11-29 | コーデンシ株式会社 | ジェスチャ認識装置及びジェスチャ認識装置用プログラム |
JP7179180B2 (ja) * | 2019-07-01 | 2022-11-28 | 三菱電機株式会社 | 表示制御装置及び表示制御方法 |
JP7443070B2 (ja) | 2020-01-23 | 2024-03-05 | Sanei株式会社 | 画像認識水栓 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001216069A (ja) * | 2000-02-01 | 2001-08-10 | Toshiba Corp | 操作入力装置および方向検出方法 |
JP2012018559A (ja) * | 2010-07-08 | 2012-01-26 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
JP2013016060A (ja) * | 2011-07-05 | 2013-01-24 | Shimane Prefecture | 操作入力装置および操作判定方法並びにプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4606750B2 (ja) | 2004-02-17 | 2011-01-05 | アルパイン株式会社 | 空間操作系生成システム |
JP4566596B2 (ja) * | 2004-03-29 | 2010-10-20 | アルパイン株式会社 | 操作指示装置 |
CN101308441B (zh) * | 2004-10-12 | 2010-09-22 | 日本电信电话株式会社 | 三维显示控制方法和三维显示控制装置 |
EP2620849B1 (en) | 2010-09-22 | 2019-08-28 | Shimane Prefectural Government | Operation input apparatus, operation input method, and program |
US9019218B2 (en) * | 2012-04-02 | 2015-04-28 | Lenovo (Singapore) Pte. Ltd. | Establishing an input region for sensor input |
JP5900161B2 (ja) * | 2012-05-29 | 2016-04-06 | ソニー株式会社 | 情報処理システム、方法およびコンピュータ読み取り可能な記録媒体 |
JP5665140B2 (ja) * | 2012-08-17 | 2015-02-04 | Necソリューションイノベータ株式会社 | 入力装置、入力方法、及びプログラム |
DE102012216193B4 (de) | 2012-09-12 | 2020-07-30 | Continental Automotive Gmbh | Verfahren und Vorrichtung zur Bedienung einer Kraftfahrzeugkomponente mittels Gesten |
US20140181759A1 (en) * | 2012-12-20 | 2014-06-26 | Hyundai Motor Company | Control system and method using hand gesture for vehicle |
DE102014201578A1 (de) | 2014-01-29 | 2015-07-30 | Volkswagen Ag | Vorrichtung und Verfahren zur Signalisierung eines Eingabebereiches zur Gestenerkennung einer Mensch-Maschine-Schnittstelle |
-
2014
- 2014-02-18 CN CN201480075742.9A patent/CN106030460B/zh not_active Expired - Fee Related
- 2014-02-18 DE DE112014006380.0T patent/DE112014006380T5/de active Pending
- 2014-02-18 JP JP2016503807A patent/JP5968573B2/ja not_active Expired - Fee Related
- 2014-02-18 WO PCT/JP2014/053769 patent/WO2015125213A1/ja active Application Filing
- 2014-02-18 US US15/112,980 patent/US10168786B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001216069A (ja) * | 2000-02-01 | 2001-08-10 | Toshiba Corp | 操作入力装置および方向検出方法 |
JP2012018559A (ja) * | 2010-07-08 | 2012-01-26 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
JP2013016060A (ja) * | 2011-07-05 | 2013-01-24 | Shimane Prefecture | 操作入力装置および操作判定方法並びにプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN106030460A (zh) | 2016-10-12 |
JP5968573B2 (ja) | 2016-08-10 |
US20160334879A1 (en) | 2016-11-17 |
CN106030460B (zh) | 2017-12-19 |
US10168786B2 (en) | 2019-01-01 |
DE112014006380T5 (de) | 2016-11-24 |
WO2015125213A1 (ja) | 2015-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5968573B2 (ja) | 移動体用ジェスチャ誘導装置、移動体用ジェスチャ誘導システムおよび移動体用ジェスチャ誘導方法 | |
JP5563153B2 (ja) | 操作装置 | |
CN107107841B (zh) | 信息处理装置 | |
CN104755308B (zh) | 具有手势识别的机动车操作接口 | |
KR101416378B1 (ko) | 영상 이동이 가능한 디스플레이 장치 및 방법 | |
US20160132126A1 (en) | System for information transmission in a motor vehicle | |
US9956878B2 (en) | User interface and method for signaling a 3D-position of an input means in the detection of gestures | |
WO2016067544A1 (ja) | 車載注意喚起システム及び報知制御装置 | |
EP3524558B1 (en) | Elevator operation control device and method using monitor | |
US10346118B2 (en) | On-vehicle operation device | |
JP2017211884A (ja) | 動き検出システム | |
WO2018061603A1 (ja) | ジェスチャ操作システム、ジェスチャ操作方法およびプログラム | |
JP3933139B2 (ja) | コマンド入力装置 | |
JP2017097608A (ja) | 画像認識装置 | |
US11402646B2 (en) | Display apparatus, display control method, and program | |
JP2012179682A (ja) | 移動ロボットシステム、移動ロボット制御装置、該制御装置に用いられる移動制御方法及び移動制御プログラム | |
JP2017084136A (ja) | ジェスチャ入力装置 | |
JP6922686B2 (ja) | 操作装置 | |
US20210281966A1 (en) | Information processing apparatus, program, and information processing method | |
KR101500413B1 (ko) | 차량용 제스처 인식 장치 | |
JP4962387B2 (ja) | ポインタ表示・移動装置およびポインタ表示・移動装置用のプログラム | |
JP2018162023A (ja) | 操作装置 | |
JP2016224632A (ja) | ヘッドマウントディスプレイを制御するプログラム、システム、及び方法。 | |
JP6371589B2 (ja) | 車載システム、視線入力受付方法及びコンピュータプログラム | |
JP2018163555A (ja) | 情報入力システムおよび情報入力プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20160513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160705 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5968573 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |