JPWO2015125213A1 - 移動体用ジェスチャ誘導装置、移動体用ジェスチャ誘導システムおよび移動体用ジェスチャ誘導方法 - Google Patents

移動体用ジェスチャ誘導装置、移動体用ジェスチャ誘導システムおよび移動体用ジェスチャ誘導方法 Download PDF

Info

Publication number
JPWO2015125213A1
JPWO2015125213A1 JP2016503807A JP2016503807A JPWO2015125213A1 JP WO2015125213 A1 JPWO2015125213 A1 JP WO2015125213A1 JP 2016503807 A JP2016503807 A JP 2016503807A JP 2016503807 A JP2016503807 A JP 2016503807A JP WO2015125213 A1 JPWO2015125213 A1 JP WO2015125213A1
Authority
JP
Japan
Prior art keywords
gesture
operator
hand
degree
enhancement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016503807A
Other languages
English (en)
Other versions
JP5968573B2 (ja
Inventor
敬 平野
敬 平野
太郎 熊谷
太郎 熊谷
脩平 太田
脩平 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP5968573B2 publication Critical patent/JP5968573B2/ja
Publication of JPWO2015125213A1 publication Critical patent/JPWO2015125213A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

3Dカメラ6の検出信号に基づいて特定した操作者Aの手の位置とジェスチャ操作を行う予め定められた手の位置との差に応じた強調度Rを算出し、3Dカメラ6による操作者Aの手の検出に応じて強調度Rが算出されるごとに、算出された強調度Rでジェスチャ操作の操作対象物を報知させて操作者Aの手を予め定められた手の位置へ誘導する。

Description

この発明は、移動体内の操作者のジェスチャを認識する移動体用ジェスチャ誘導装置、移動体用ジェスチャ誘導システムおよび移動体用ジェスチャ誘導方法に関する。
移動体内で操作者から離れた位置に存在する機器を、操作者が行ったジェスチャを認識して操作するシステムが提案されている。このようなシステムでは、ジェスチャを的確に認識して操作を行う必要があるため、ジェスチャを実施すべき空間位置を操作者に知らしめることが重要となる。
例えば、特許文献1には、ホログラムなどの技術を用いて操作スイッチやボタンなどの操作系の虚像を空間に表示し、この虚像に対するジェスチャを認識して機器の操作を行うシステムが開示されている。このシステムでは、空間に表示された虚像が実際の操作対象機器の操作系であるかのようにジェスチャすることが可能である。このため、操作者は、虚像の表示された位置がジェスチャを実施すべき空間位置であることを容易に知ることができる。
また、特許文献2に記載の発明では、操作者の視点位置と操作対象物の位置とを直線で結び、その直線上の空間で操作者の指が検知された場合、その操作対象物を操作していると判断している。このようにすることで、操作者は、ジェスチャを実施すべき空間位置を自分の視点と操作対象物との三次元的な位置関係から知ることができる。
特開2005−234676号公報 特開2005−280396号公報
特許文献1では、ホログラムなどの技術を用いて操作スイッチやボタンなどの操作系の虚像を空間に表示する特別な装置が必要であるため、システム構成が複雑になりコスト増にも繋がるという課題があった。
また、特許文献2では、操作者の視点を基準としてジェスチャを実施すべき空間位置を判断しているため、操作者の頭の動きに応じてジェスチャを実施すべき空間位置もずれてしまう。従って、頭の動きで操作者の視点が誤検知された場合、操作者は、ジェスチャを実施すべき位置を知ることができず、正しく操作できない可能性がある。
この発明は、上記のような課題を解決するためになされたもので、簡易な構成で実現でき、かつジェスチャ操作を行うべき適切な状態に誘導することができる移動体用ジェスチャ誘導装置、移動体用ジェスチャ誘導システムおよび移動体用ジェスチャ誘導方法を得ることを目的とする。
この発明に係る移動体用ジェスチャ誘導装置は、操作者の手を検出するセンサの検出情報に基づいて操作者の手の位置を特定し、操作者の手の位置とジェスチャ操作を行う予め定められた位置との差に応じた強調度を算出する強調度算出部と、センサによる操作者の手の検出に応じて強調度算出部が強調度を算出するごとに、算出された強調度でジェスチャ操作の操作対象物を報知装置に報知させて操作者の手を予め定められた位置へ誘導する報知制御部とを備える。
この発明によれば、簡易な構成で実現でき、かつジェスチャ操作を行うべき適切な状態に誘導することができるという効果がある。
この実施の形態1に係る移動体用ジェスチャ誘導装置の構成を示すブロック図である。 実施の形態1に係る移動体用ジェスチャ誘導装置の動作を示すフローチャートである。 操作者の手、操作対象物およびジェスチャ実施領域の位置関係を示す図である。 操作者の手の形状を示す図である。 実施の形態1における操作対象物の報知態様を示す図である。 実施の形態2における操作対象物とジェスチャ実施領域との関係を示す図である。 ジェスチャ実施領域の中心位置からの操作者の手のずれ方向に応じた報知態様の一例を示す図である。 実施の形態3における操作対象物とこれに対応する複数のジェスチャ実施領域との関係を示す図である。 実施の形態3におけるジェスチャ実施領域ごとの操作対象物との関係を示す図である。 実施の形態3における報知装置ごとの操作対象物とジェスチャ実施領域との関係を示す図である。 この発明の実施の形態4に係る移動体用ジェスチャ誘導装置の構成を示すブロック図である。 ジェスチャ実施領域の設定画面の一例を示す図である。
以下、この発明をより詳細に説明するため、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この実施の形態1に係る移動体用ジェスチャ誘導装置の構成を示すブロック図である。移動体用ジェスチャ誘導装置1は、車両などの移動体に搭乗した操作者が操作対象物に対するジェスチャ操作を行うときに、操作者の手を予め定められたジェスチャ実施領域へ誘導し、このジェスチャ操作に対して予め定められた手の形状へ誘導する。
図1において、移動体用ジェスチャ誘導装置1は、演算部2、I/F(インタフェース)部3およびイベント検知部4を備えており、これらはバス5で各々接続されている。
また移動体用ジェスチャ誘導装置1は、I/F部3を介して3Dカメラ6、スピーカ7、HUD(ヘッドアップディスプレイ)8およびセンターディスプレイ9と接続される。
演算部2は、移動体用ジェスチャ誘導装置1に搭載されたCPUに相当し、各種制御における演算処理を行う。また、演算部2は、図1に示すように、報知制御部20、強調度算出部21およびジェスチャ認識部22を備える。例えば、報知制御部20、強調度算出部21およびジェスチャ認識部22は、ソフトウェアによってプログラムされたCPUによって実現される。
報知制御部20は、3Dカメラ6による操作者の手の検出に応じて強調度算出部21が強調度を算出するごとに、算出された強調度でジェスチャ操作の操作対象物を報知装置に報知させて、操作者の手を予め定められた位置とジェスチャ操作に予め定められた手の形状へ誘導する。ここで、操作対象物とは、例えばジェスチャ操作の対象となるデバイスあるいはアプリケーションである。
また報知装置は操作対象物を操作者に報知する装置であり、図1ではスピーカ7、HUD8、センターディスプレイ9に相当する。すなわち、操作対象物の報知態様には、スピーカ7から出力される音による報知と、HUD8またはセンターディスプレイ9が表示する表示物による報知がある。
この場合、音による報知においては、強調度に応じて報知音の音量、音の種類などが変更される。表示物による報知では、強調度に応じて表示物の透明度、色、大きさ、形状などが変更される。
強調度算出部21は、操作者の手の検出情報に基づいて操作者の手の位置および形状を特定し、操作者の手の位置および形状とジェスチャ操作を行う予め定められた手の位置および形状との差に応じた強調度を算出する。
例えば、操作者の手の位置とジェスチャ実施領域との位置の差を定量化し、さらに操作者の手の形状と操作対象物のジェスチャ操作に予め定められた手の形状との差を定量化した相違度をそれぞれ用いて強調度を算出する。このとき、強調度算出部21は、操作者の手がジェスチャ実施領域に近づき、かつ、操作者の手の形状が予め定められた形状に類似するほど値が大きくなるように強調度を算出する。
このようにすることで、操作対象物に予め定められたジェスチャ実施領域に操作者の手が近づくにつれて操作対象物の報知が強調される。これにより、操作者は、操作対象物が強調される方向に手を移動させていくことで、操作者の手は、ジェスチャ操作を行う予め定められた手の位置(ジェスチャ実施領域)に誘導され、このジェスチャ操作に予め定められた手の形状へ誘導される。
I/F部3は、移動体用ジェスチャ誘導装置1と、3Dカメラ6、スピーカ7、HUD8およびセンターディスプレイ9との間の情報のやり取りを中継するインタフェースである。なお、移動体用ジェスチャ誘導装置1、3Dカメラ6、スピーカ7、HUD8およびセンターディスプレイ9によって、操作者の手をジェスチャ実施領域と予め定められた手の形状へ誘導する移動体用ジェスチャ誘導システムが構成される。
イベント検知部4は、アンテナ4aおよびバス5を介して外部からのイベントを検知する。ここで、イベントとは、アンテナ4aを介して検知された車両外部からのメール着信やバス5を介して車載センサ(不図示)から取得されたガソリン欠如など、ユーザに報知すべき情報の発生を意味する。
3D(3次元)カメラ6は操作者の手を検出するセンサである。例えば、3Dカメラ6の検出情報(撮影情報)から、撮影視野内の操作者の手の空間的な位置(深度情報)および手の形状を特定するための画像情報が得られる。強調度算出部21は、これらの情報を3Dカメラ6の検出情報として入力し、操作者の手の位置および形状を特定する。
3Dカメラ6は、例えばステレオカメラまたはTOF(Time Of Flight)カメラを用いて実現することができる。
スピーカ7は、音の出力で聴覚的に操作対象物を報知する報知装置である。また、HUD8およびセンターディスプレイ9は、操作対象物に対応する表示物を表示して視覚的に報知する報知装置である。なお、HUD8は、運転席前方のフロントガラスあるいはハンドルとフロントガラスとの間に設けられた投影板などに情報を投影表示するディスプレイである。センターディスプレイ9は、車室内前方のインストルメントパネルの中央部付近に配置されるディスプレイである。
なお、図1に示した例では、移動体用ジェスチャ誘導装置1がジェスチャ認識部22を備えており、ジェスチャ認識部22がジェスチャ実施領域における操作者のジェスチャ操作を認識する構成を示したが、これに限定されるものではない。
すなわち、ジェスチャ操作を認識する構成要素を移動体用ジェスチャ誘導装置1とは別の装置に設けて、報知制御部20および強調度算出部21と連携してジェスチャ操作を認識するように構成してもよい。
また、移動体用ジェスチャ誘導装置1が、操作者の手を、ジェスチャ操作を行う予め定められた手の位置(ジェスチャ実施領域)へ誘導し、かつ、このジェスチャ操作に対して予め定められた手の形状へ誘導する例を示したが、これに限定されるものではない。
例えば、強調度算出部21が、センサの検出情報に基づいて操作者の手の位置のみを特定し、この操作者の手の位置とジェスチャ実施領域との差に応じた強調度を算出する。
そして、報知制御部20は、センサによる操作者の手の検出に応じて強調度算出部21が強調度を算出するごとに、算出された強調度でジェスチャ操作の操作対象物を報知装置に報知させて操作者の手を予め定められた位置へ誘導する。
次に動作について説明する。
図2は、実施の形態1に係る移動体用ジェスチャ誘導装置の動作を示すフローチャートであり、この図2に示すフローチャートの流れに従って説明を行う。
まず、イベント検知部4がイベントを検知する(ステップST1)。強調度算出部21は、イベント検知部4からイベントの検知が通知されると、予め定められた強調度Rの初期値を報知制御部20へ出力する。ここで、強調度Rの初期値は、イベントの発生時に、このイベントに対応する操作対象物をユーザに認識しやすくするために、最も高い強調度もしくはこれに準じた値とする。
報知制御部20は、イベントに対応する操作対象物を強調度Rの初期値で報知するよう報知装置を制御する。具体的に説明すると、報知制御部20は、イベント検知部4が検出したイベントに関する情報と強調度算出部21から入力した強調度Rの初期値に基づいてイベントに対応する操作対象物を特定し、特定した操作対象物を強調度Rの初期値で報知する報知命令を出力する。報知命令は、I/F部3を介して報知装置(スピーカ7、HUD8、センターディスプレイ9)に出力される。スピーカ7、HUD8、センターディスプレイ9は、報知命令に従ってイベントに対応する操作対象物を強調度Rの初期値で報知する(ステップST2)。
図3は、操作者の手、操作対象物およびジェスチャ実施領域の位置関係を示す図である。図3において、操作者Aがハンドル12で運転を行う運転者である。例えば、イベントがメール着信である場合、メール着信に対応するアイコン10が、HUD8の投影部材(フロントガラスあるいは投影板)8aに表示される。ここで、アイコン10は、ジェスチャ操作の対象となる操作対象物である。メール着信があった直後では、強調度Rの初期値が設定されているため、アイコン10は操作者Aから視認しやすいよう明確に表示されている。例えば、アイコン10が最も低い透明度で表示される。
上述したように操作対象物に関するイベントが発生して強調度Rの初期値で報知装置が操作対象物を報知しているときに、このイベントが発生してから設定時間が経過した場合には、強調度算出部21は、強調度Rの初期値から徐々に低くした強調度Rを順次算出する。報知制御部20は、強調度算出部21によって順次算出された強調度Rで操作対象物を報知するように報知装置を制御する。これにより、報知装置は徐々に低くなる強調度Rで操作対象物を報知する(ステップST3)。
このようにイベントが発生して操作対象物を報知してから設定時間が経過しても、この操作対象物に対するジェスチャ操作を行う操作者Aの手が検出されなかった場合は、強調度Rを徐々に低くして操作対象物を報知する。これにより、操作対象物が高い強調度Rで不要に報知され続けることを防止できる。
例えば、HUD8の投影部材8aにアイコン10を表示している場合、アイコン10は運転者の前方視界に重畳表示されており、運転者の視界を妨げるものとなる。
そこで、設定時間が経過しても操作者Aの手が検出されなければ強調度Rを徐々に低くし、これに応じて透明度が高くなるようにアイコン10を表示する。これにより、アイコン10は徐々に目立たなくなり、運転者の視界を妨げることを抑制できる。
なお、上記設定時間が経過してからさらに予め定められた時間が経過しても操作者Aの手が検出されなかった場合には、操作者Aに操作の意思がないものと判断して、操作対象物の報知を停止してもよい。
イベントが発生して上記設定時間が経過する前もしくは上記設定時間が経過して徐々に低くなる強調度Rで報知装置が操作対象物を報知している間、強調度算出部21は、3Dカメラ6による操作者Aの手の検出待ち状態となっている。ここで、操作者Aの手が検出されなければ(ステップST4;NO)、この検出待ち状態が継続する。
3Dカメラ6が操作者Aの手を検出すると(ステップST4;YES)、強調度算出部21は、3Dカメラ6の検出情報に基づいて操作者Aの手の位置および形状を特定する。3Dカメラ6の検出情報とは、3Dカメラ6に撮影された3D映像であり、この3D映像から操作者Aの手の2次元映像およびこの映像の各画素が有する奥行き座標を得ることができる。これらの情報に基づいて操作者Aの手の位置(空間的な位置)および手の形状が特定される。
次に、強調度算出部21は、特定した操作者Aの手の位置と予め定められたジェスチャ実施領域11との位置の差および特定した操作者Aの手の形状と操作対象物のジェスチャ操作に対して予め定められた手の形状との相違度に応じた強調度Rを算出する(ステップST5)。ここで、ジェスチャ実施領域11は、図3に示すように、操作者Aと操作対象物であるアイコン10との間に配置される。このようにすることで、操作者Aは、操作対象物を視認しながら直感的にジェスチャ操作を行うことができる。
また、強調度Rは、例えば下記式(1)に従って算出される。ただし、下記式(1)において、dは、図3に示すように、ジェスチャ実施領域11の中心Oの位置座標から操作者Aの手の位置座標までの距離である。なお、距離dは、操作者Aの手が中心Oに位置したときに0となる0以上の値である。また、sは、操作者Aの手の形状と操作対象物のジェスチャ操作に対して予め定められた手の形状との相違度である。相違度sは互いの形状が異なるほど大きな正の値をとる。さらにαとβは正の係数であり、αとβによって強調度Rにおける距離dと相違度sの寄与の度合いが設定される。
なお、操作者Aの手をジェスチャ実施領域11へ誘導するが、操作者Aの手の形状を、ジェスチャ操作に対して予め定められた手の形状へ誘導しない場合、すなわち強調度Rの算出に相違度sを考慮しない場合は、例えば係数βを0とすればよい。
R=1/(α・d+β・s) ・・・(1)
図4は操作者の手の形状を示す図である。例えば、操作対象物のジェスチャ操作に対して予め定められた手の形状が図4(a)に示す形状aである場合、操作者Aの手が形状aと類似した形状である場合、相違度sは小さな値となる。一方、操作者Aが、手の形状を図4(b)示す形状bあるいは図4(c)に示す形状cとしている場合、相違度sの値は大きくなる。これにより、上記式(1)に従って算出される強調度Rは、操作者Aの手がジェスチャ実施領域11から外れるか、あるいは予め定められた手の形状と相違する場合には低い値となる。すなわち、上記式(1)では、操作者Aの手がジェスチャ実施領域11内に近づき、かつ操作者Aの手の形状が予め定められた手の形状と類似するほど、強調度Rの値が大きくなる。
報知制御部20は、ステップST5で強調度算出部21が算出した強調度Rで操作対象物を報知するように報知装置を制御する。これにより、報知装置は、強調度Rで操作対象物を報知する(ステップST6)。ステップST4からステップST6までの処理は、操作者Aの手がジェスチャ実施領域11内に進入するまで(距離dが0になるまで)繰り返される。すなわち、報知制御部20は、上述した繰り返し期間において、3Dカメラ6によって操作者Aの手が順次検出され、これに応じて強調度算出部21が強調度Rを算出するごとに、算出された強調度Rで操作対象物を報知するように報知装置を制御する。報知装置は、報知制御部20の制御に従って、強調度算出部21に順次算出された強調度Rで操作対象物を報知する。
図5は実施の形態1における操作対象物の報知態様を示す図であり、メール着信に対応する操作対象物を報知する場合を示している。図5に示すように、強調度Rが最大の場合には、メール着信に対応するアイコンの透明度を最小にして表示する。またメール着信を報知する報知音の音量も最大とする。逆に強調度Rが最小の場合には、メール着信に対応するアイコンの透明度を最大にして表示し、メール着信を報知する報知音の音量も最小とする。報知装置は、操作者Aの手の位置および形状に応じて強調度算出部21が順次算出した強調度Rでアイコンの表示および報知音の出力を行う。操作者Aは、アイコンが明確に表示され報知音が大きくなる方向に手を移動させることで、操作者Aの手はジェスチャ実施領域11へ誘導される。
強調度算出部21は、3Dカメラ6の検出情報を基に強調度Rを算出すると、距離dに基づいて操作者Aの手がジェスチャ実施領域11内に存在するか否かを判定する(ステップST7)。ここで、操作者Aの手がジェスチャ実施領域11内に進入していなければ(ステップST7;NO)、ステップST4の処理に戻る。
なお、イベント発生から設定時間が経過しても操作者Aの手がジェスチャ実施領域11内に進入したことが検出されない場合には、強調度算出部21が、徐々に低くなるように強調度Rを順次算出し、報知制御部20が、報知装置を制御して、強調度算出部21によって順次算出された強調度Rで操作対象物を報知してもよい。このようにすることでも、不要な操作対象物が報知され続けることを防止できる。
一方、操作者Aの手がジェスチャ実施領域11内にある場合(ステップST7;YES)、強調度算出部21は、そのことを報知制御部20に通知する。
報知制御部20は、強調度算出部21から上記通知を受けると、報知装置を制御して、操作者Aの手がジェスチャ実施領域11内に存在することを報知させる(ステップST8)。例えば、スピーカ7から特別な音を出力する、もしくは、操作対象物に特別な表示を行う。これにより、操作者Aは、移動体用ジェスチャ誘導装置1においてジェスチャ操作が認識可能になったことを認識できる。
この後、ジェスチャ認識部22は、ジェスチャ実施領域11内の操作者Aの手による指先の回転、手振り、特別な手の形状の実施といったジェスチャ操作を認識する(ステップST9)。このようにしてジェスチャ操作の認識結果に応じた処理が実施される。
例えば、イベントがメール着信の場合は、メールの読み上げを指示する“選択”、またはメールの開封を保留して報知を終了する“キャンセル”といった処理が実施される。
なお、ジェスチャ認識部22によって“右方向への手払い”などの操作対象物が不要であることを示すジェスチャ操作が認識された場合は、報知制御部20は、報知装置を制御して、この操作対象物の報知を終了させる。すなわち、操作対象物の表示を消去するか、報知音の出力を停止する。これにより、不要な操作対象物が報知され続けることを防止できる。例えば、HUD8において運転者の視界を妨げる不要な操作対象物を消去することができる。
ジェスチャ認識部22がジェスチャ操作を認識できず、かつ操作者Aの手がジェスチャ実施領域11から離脱した場合、報知制御部20は、報知装置を制御して特別な音の出力または特別な表示を行わせることで、ジェスチャ操作が認識できない状態になったことを操作者Aに報知する。このようにすることにより、操作者Aは、ジェスチャ実施領域11からの離脱を直感的に知ることができ、ステップST4からの処理に直ちに移行することができる。
また、実施の形態1に係る移動体用ジェスチャ誘導装置1では、図3に示したように、ジェスチャ認識部22が、操作対象物とジェスチャ実施領域11とを1対1に対応させてジェスチャ実施領域11で行われたジェスチャ操作を認識する。例えば、異なる複数の操作対象物を共通のジェスチャ実施領域に対応させた場合には、共通のジェスチャ実施領域においてそれぞれの操作対象物に対するジェスチャ操作を行う必要がある。この場合に、操作対象物ごとに異なるジェスチャ操作が対応付けられていると、操作間違いを起こしやすくなる。そこで、操作対象物とジェスチャ実施領域11とを1対1に対応させることにより、操作者Aは、操作対象物ごとのジェスチャ実施領域で操作対象物に対応付けられたジェスチャ操作を行えばよい。これにより操作間違いの発生を低減させることができる。
以上のように、この実施の形態1によれば、強調度算出部21が、3Dカメラ6の検出信号に基づいて操作者Aの手の位置を特定し、操作者Aの手の位置とジェスチャ操作を行う予め定められた手の位置との差に応じた強調度Rを算出する。報知制御部20は、3Dカメラ6による操作者Aの手の検出に応じて強調度算出部21が強調度Rを算出するごとに、算出された強調度Rでジェスチャ操作の操作対象物を報知装置に報知させて操作者Aの手を予め定められた位置へ誘導する。
特に、強調度算出部21が、操作者Aの手の位置とジェスチャ操作を行う予め定められたジェスチャ実施領域11の中心位置との距離dに応じた強調度Rを算出する。
このように構成することで、操作対象物のジェスチャ操作を認識するためにホログラムなどを用いて操作対象物の虚像を空間に表示する必要がなく、簡易な構成で移動体用ジェスチャ誘導装置1を実現することができる。また、操作者Aは、操作対象物の報知が強調される方向に手を移動させていくことで、操作者Aの手は、ジェスチャ操作を行う予め定められた手の位置(ジェスチャ実施領域)に誘導される。これにより、ジェスチャ操作を行うべき適切な位置に操作者Aの手が誘導され、ジェスチャ操作の認識精度を向上させることができる。
また、この実施の形態1によれば、強調度算出部21が、3Dカメラ6の検出情報に基づいて操作者Aの手の形状をさらに特定し、操作者Aの手の位置および形状とジェスチャ操作を行う予め定められた位置およびジェスチャ操作に予め定められた手の形状との差に応じた強調度Rを算出し、報知制御部20は、強調度算出部21が算出した強調度Rでジェスチャ操作の操作対象物を報知装置に報知させて、操作者Aの手を予め定められた位置とジェスチャ操作に予め定められた手の形状へ誘導する。
特に、強調度算出部21が、操作者Aの手の位置とジェスチャ実施領域11の中心位置との距離dおよび操作者Aの手の形状と操作対象物のジェスチャ操作に予め定められた手の形状との相違度sに応じた強調度Rを算出する。
このように構成することで、操作者Aの手を、ジェスチャ操作を行うべきジェスチャ実施領域11へ誘導し、さらにこのジェスチャ操作に対して予め定められた手の形状へ誘導することができる。これにより、操作者Aの手をジェスチャ操作を行うべき適切な状態に誘導することができ、ジェスチャ操作の認識精度を向上させることができる。
さらに、この実施の形態1によれば、強調度算出部21が、操作対象物に関するイベントが発生して報知装置が当該操作対象物を報知している場合に、イベントが発生してから設定時間が経過すると、徐々に低くなるように強調度Rを順次算出し、報知制御部20が、強調度算出部21によって順次算出された強調度Rで操作対象物を報知するように報知装置を制御する。このようにすることで、不要な操作対象物が報知され続けることを防止できる。
さらに、この実施の形態1によれば、ジェスチャ認識部22が操作対象物とジェスチャ実施領域11とを1対1に対応させて、ジェスチャ実施領域11内の操作者Aの手によるジェスチャ操作を認識する。このようにすることで、操作者Aは、操作対象物ごとのジェスチャ実施領域で操作対象物に対応付けられたジェスチャ操作を行えばよい。これにより操作間違いの発生を低減させることができる。
さらに、この実施の形態1によれば、報知制御部20が、ジェスチャ認識部22によって操作対象物が不要であることを示すジェスチャ操作が認識された場合、当該操作対象物を報知しないように報知装置を制御する。このようにすることで、不要な操作対象物が報知され続けることを防止できる。
さらに、この実施の形態1によれば、報知制御部20が、操作者Aの手がジェスチャ実施領域11に進入もしくは離脱したことを報知するように報知装置を制御する。このようにすることで、操作者Aがジェスチャ実施領域11に進入もしくは離脱したことを直感的に知ることができる。
さらに、この実施の形態1によれば、ジェスチャ実施領域11が、操作者Aと操作対象物との間に配置される。このようにすることで、操作者Aは、操作対象物を視認しながら直感的にジェスチャ操作を行うことができる。
実施の形態2.
実施の形態1では、強調度算出部21が、操作者Aの手の位置からジェスチャ実施領域11の中心位置までの距離dを強調度Rの算出に用いることで、操作者Aの手の位置とジェスチャ実施領域11の中心位置との差を操作者Aにフィードバックした。しかし、この方法では、操作者Aがどの方向に手がずれているのかを知ることができず、ジェスチャ実施領域11へ誘導されるまでに時間がかかる可能性がある。
そこで、実施の形態2では、ジェスチャ実施領域11の内外で検出された操作者Aの手のジェスチャ実施領域11の中心位置からのずれ方向を算出して、このずれ方向に応じた報知態様で操作対象物を報知させて操作者Aの手をジェスチャ実施領域11の中心位置へ誘導する。このようにすることで、操作者Aは、報知装置による操作対象物の報知によって上下左右のどの方向に手を動かしたらよいかを知ることができる。
実施の形態2に係る移動体用ジェスチャ誘導装置1は、上記実施の形態1で示した構成と基本的に同一であるが、上述したように報知制御部20および強調度算出部21の内部処理が異なる。従って、以降では、実施の形態2に係る移動体用ジェスチャ誘導装置1の構成については図1を参照して説明する。
図6は実施の形態2における操作対象物とジェスチャ実施領域との関係を示す図である。図7はジェスチャ実施領域の中心位置からの操作者の手のずれ方向に応じた報知態様の例を示す図である。図6において、操作者Aはハンドル12で運転を行う運転者であり、ジェスチャ操作の対象となるアイコン10がHUD8の投影部材8aに表示されている。ジェスチャ実施領域11は、例えば図6に示すような直方体の空間領域である。このジェスチャ実施領域11の中心Oを原点とし、xy平面が操作者A側に対向するxyz座標系を定義する。
実施の形態2では、ジェスチャ実施領域11内のxy面の中心Oの位置に対して操作者Aの手が左右方向にずれているdxの値および上下方向にずれているdyの値を算出し、dxおよびdyの値から中心Oに対する操作者Aの手のずれ方向を特定する。
さらに図7(a)に示すように、ジェスチャ実施領域11内の上記xy面を操作者A側に投影し、操作者Aの手の位置における上記xy面の投影面の中心位置(中心Oから操作者A側へ延長した延長線(z軸)と当該投影面との交点位置)に対して操作者Aの手が左右方向にずれているdxの値および上下方向にずれているdyの値を算出し、dxおよびdyから上記投影面の中心位置に対する操作者Aの手のずれ方向を特定する。
強調度算出部21は、3Dカメラ6によってジェスチャ実施領域11の内外で検出された操作者Aの手について算出した強調度R、および、上述のようにして特定した操作者Aの手のジェスチャ実施領域11の中心位置からのずれ方向を報知制御部20へ通知する。
報知制御部20は、報知装置を制御して、強調度算出部21が算出した強調度Rでかつずれ方向に応じた報知態様で操作対象物を報知する。
例えば、操作対象物がメール着信に対応するアイコン10である場合において、図7(b)に示すように、アイコン10aでは、dxおよびdyがともに正の値であり、操作者Aの手が中心Oまたは中心Oから操作者A側へ延長した延長線(z軸)上の点(xy面の投影面の中心)に対して右上方向にずれている。
そこで、アイコン10aにおいては、操作者Aの手が中心Oまたは中心Oから操作者A側へ延長した延長線(z軸)上の点(上記投影面の中心)に対して右上方向にずれていることを視覚的に示すため、その右上部分が操作者Aの手の位置および形状(距離dおよび相違度s)に応じた強調度R、すなわち強調度Rに対応する透明度で表示され、その他の部分は、右上部分よりも高い透明度で表示される。
また、アイコン10bは、dxおよびdyがともに0であり、操作者Aの手が中心Oまたは上記投影面の中心位置にある。アイコン10bにおいて、図7(b)に示すように、アイコン全体が操作者Aの手の位置および形状(距離dおよび相違度s)に応じた強調度Rに対応する透明度で表示される。
同様に、アイコン10cは、dxおよびdyがともに負の値であり、操作者Aの手が中心Oまたは上記投影面の中心に対して左下方向にずれている。
そこで、アイコン10cでは、操作者Aの手が中心Oまたは上記投影面の中心に対して左下方向にずれていることを視覚的に示すために、その左下部分が操作者Aの手の位置および形状(距離dおよび相違度s)に応じた強調度Rの透明度で表示され、その他の部分は、左下部分よりも高い透明度で表示される。
アイコン10dは、dxは正の値であるが、dyは負の値であり、操作者Aの手が中心Oまたは上記投影面の中心に対して右下方向にずれている。
そこで、アイコン10dでは、操作者Aの手が中心Oまたは上記投影面の中心に対して右下方向にずれていることを視覚的に示すため、その右下部分が操作者Aの手の位置および形状(距離dおよび相違度s)に応じた強調度Rの透明度で表示され、その他の部分は、右下部分よりも高い透明度で表示される。
上述したようにアイコン10aは右上部分のみが濃くなるように表示されるため、操作者Aは、ジェスチャ実施領域11の中心Oまたは上記投影面の中心に対して手が右上方向にずれていることを視覚的に知ることができる。
一方、アイコン10bは全体で濃さの偏りがないことから、操作者Aはジェスチャ実施領域11の中心Oまたは上記投影面の中心に手があることを視覚的に知ることができる。このようにすることで、操作者Aは、自分の手がジェスチャ実施領域11の位置に対して上下左右のどの方向にずれているかを直感的に理解でき、より容易に正しいジェスチャ操作を行うことができるようになる。
また、操作者Aの手のずれ方向に応じて表示態様を変更する場合を示したが、音による聴覚的な態様を変更してもよい。例えば、ジェスチャ実施領域11の中心Oまたは上記投影面の中心に対する上下左右のずれに応じた互いに異なる種類の音を設定しておく。
操作者Aの手が中心Oまたは中心Oから操作者A側へ延長した延長線(z軸)上の点(上記投影面の中心)に対して右上方向にずれている場合、スピーカ7から右上方向のずれに対応する種類の音を出力する。
一方、操作者Aの手が中心Oまたは上記投影面の中心にある場合には、スピーカ7から手が中心にあるときに対応する種類の音を出力する。なお、スピーカ7が出力する音は、強調度Rに応じた音量となる。
以上のように、この実施の形態2によれば、強調度算出部21が、さらに3Dカメラ6によってジェスチャ実施領域11の内外で検出された操作者Aの手のジェスチャ実施領域11の中心Oまたはこの中心Oから操作者A側へ延長した延長線(z軸)上の点(xy面の投影面とz軸の交点)からのずれ方向を算出し、報知制御部20が、強調度算出部21によって算出された強調度Rで、かつずれ方向に応じた報知態様で操作対象物を報知装置に報知させて操作者Aの手をジェスチャ実施領域11の中心位置へ誘導する。
このようにすることで、操作者Aがジェスチャ実施領域11の位置に対して上下左右どの方向にずれているかを直感的に理解でき、より容易に正しいジェスチャ操作を行うことが可能である。
実施の形態3.
実施の形態3では、複数のジェスチャ実施領域が存在する場合について述べる。複数のジェスチャ実施領域を設けることで、ジェスチャ操作を行う場所およびジェスチャ操作の種類の幅を広げることができる。
実施の形態3に係る移動体用ジェスチャ誘導装置1は、上記実施の形態1で示した構成と基本的に同一であるが、上述したように複数のジェスチャ実施領域を扱う点で内部処理が異なる。従って、以降では、実施の形態3に係る移動体用ジェスチャ誘導装置1の構成については図1を参照して説明する。
図8は、実施の形態3における操作対象物とこれに対応する複数のジェスチャ実施領域との関係を示す図である。図8において、操作者Aはハンドル12で運転を行う運転者であり、ジェスチャ操作の対象となるアイコン10がHUD8の投影部材8aに表示されている。ジェスチャ実施領域13,14は、アイコン10に対する操作者Aの左手用と右手用のジェスチャ実施領域である。
ジェスチャ認識部22では、アイコン10とジェスチャ実施領域13とを1対1に対応させ、または、アイコン10とジェスチャ実施領域14とを1対1に対応させて、操作者Aの手によるジェスチャ操作を認識する。すなわち、操作者Aは、アイコン10に対してどちらのジェスチャ実施領域でジェスチャ操作してもよい。これにより図8に示す場合、操作者Aの利き手によらず、ハンドル12から離しやすい方の手でジェスチャ操作を行うことができる。
同様にアイコン10に対する助手席または後席における同乗者用のジェスチャ実施領域を設けてもよい。このようにすることで、同乗者もアイコン10に対するジェスチャ操作を行うことができる。
図9は、実施の形態3におけるジェスチャ実施領域ごとの操作対象物との関係を示す図である。図9において、操作者Aはハンドル12で運転を行う運転者であり、ジェスチャ操作の対象となるアイコン10,15がHUD8の投影部材8aに表示されている。アイコン10は、ジェスチャ実施領域16に対応するアイコンであり、アイコン15は、ジェスチャ実施領域17に対応するアイコンである。
操作者Aが、ジェスチャ実施領域16内でアイコン10に対するジェスチャ操作を行うことにより、着信したメールの読み上げ処理が実施される。またジェスチャ実施領域17内でアイコン15に対するジェスチャ操作を行うことで、ガソリンスタンドまでのナビゲーション処理が実施される。
このようにジェスチャ実施領域ごとに異なる操作対象物のジェスチャ操作が認識されるので、複数の操作対象物に対応する処理が可能となる。また“手を払う”などのジェスチャ操作に対してジェスチャ実施領域ごとに異なる意味を設定することで、ジェスチャ操作の種類の幅を広げることができる。
図10は、実施の形態3における報知装置ごとの操作対象物とジェスチャ実施領域との関係を示す図である。図10において、操作者Aは、ハンドル12で運転を行う運転者であり、ジェスチャ操作の対象となるアイコン10がHUD8の投影部材8aに表示され、同様にジェスチャ操作の対象となるアイコン15がセンターディスプレイ9の画面9aに表示されている。またジェスチャ実施領域18は、アイコン10に対応するジェスチャ実施領域であり、ジェスチャ実施領域19は、アイコン15に対応するジェスチャ実施領域である。
操作者Aがジェスチャ実施領域18で行ったジェスチャ操作を認識した場合、報知制御部20は、ジェスチャ実施領域18に対応するHUD8に対して、ジェスチャ操作の処理結果の報知命令を出力する。同様に、操作者Aがジェスチャ実施領域19でジェスチャ操作を行った場合、報知制御部20は、ジェスチャ実施領域19に対応するセンターディスプレイ9に対して、ジェスチャ操作の処理結果の報知命令を出力する。
すなわち、報知制御部20は、ジェスチャ認識部22がジェスチャ操作を認識したジェスチャ実施領域に対応する報知装置がジェスチャ操作の処理結果を出力するように制御する。このようにすることで、操作者Aは、ジェスチャ操作の処理結果を出力したい報知装置をジェスチャ実施領域によって選択することができる。
以上のように、この実施の形態3によれば、ジェスチャ実施領域を複数箇所に設けたので、ジェスチャ操作を行う場所およびジェスチャ操作の種類の幅を広げることができる。
例えば、左手用、右手用のジェスチャ実施領域13,14を設けることで、操作者Aの利き手によらず、ハンドル12から手を離しやすい方の手で操作対象物に対するジェスチャ操作を行うことができる。また、運転者以外の同乗者用のジェスチャ実施領域を設けることで、同乗者も操作対象物をジェスチャ操作することが可能となる。
また、この実施の形態3によれば、ジェスチャ認識部22が、ジェスチャ実施領域ごとに異なる操作対象物のジェスチャ操作を認識する。このようにすることで、複数の操作対象物に対応する処理が可能となる。また“手を払う”などのジェスチャ操作に対してジェスチャ実施領域ごとに異なる意味を設定することができる。
さらに、この実施の形態3によれば、報知制御部20が、ジェスチャ認識部22がジェスチャ操作を認識したジェスチャ実施領域に対応する報知装置がジェスチャ操作の処理結果を出力するように制御する。このようにすることで、操作者Aがジェスチャ操作の処理結果を出力したい報知装置をジェスチャ実施領域によって選択することができる。
実施の形態4.
図11は、この発明の実施の形態4に係る移動体用ジェスチャ誘導装置の構成を示すブロック図である。図11において、実施の形態4に係る移動体用ジェスチャ誘導装置1Aは、実施の形態1の構成と異なる演算部2Aを有しており、演算部2Aは、実施領域設定部23を備える。実施領域設定部23は、ジェスチャ実施領域11の位置を変更する位置変更部である。また、実施領域設定部23は、外部からの指示に応じてジェスチャ実施領域11の位置を調整する調整部23aを備える。なお、図11において、図1と同一構成要素には、同一符号を付して説明を省略する。
例えば、ユーザあるいはメンテナンスの担当者は、実施領域設定部23を用いることにより、任意のタイミングでジェスチャ実施領域11の位置を変更することが可能である。
図12は、ジェスチャ実施領域の設定画面の一例を示す図である。まずユーザあるいはメンテナンスの担当者が、センターディスプレイ9などの表示装置に表示させたメニュー画面から選択して実施領域設定部23を起動する。
実施領域設定部23が起動すると、調整部23aが、図12に示すような設定画面9bをセンターディスプレイ9に表示する。なお、設定画面はHUD8に表示してもよい。
設定画面9bには、ジェスチャ実施領域11の中心Oの位置座標(中心座標)、およびその大きさを示す幅、高さを設定するための設定欄9cを有する。ユーザがタッチパネルまたはハードウェアキーなどの入力装置を用いて設定欄9cに中心座標、幅および高さを設定することにより、調整部23aは、その設定値に基づいた位置にジェスチャ実施領域11を設定する。これにより、ユーザがジェスチャ操作を行いやすい場所にジェスチャ実施領域11の位置を変更することが可能である。
図12では、例えば、報知装置であるHUD8に表示された操作対象物からその表示面の法線方向(z軸)に操作者A側に10cmが設定されている。さらに、この表示面から10cm離れた位置が中心Oであり、この中心Oを原点としてx軸方向に20cm(中心Oを介して−x軸方向に−10cm、+x軸方向に+10cm)、y軸方向に20cm(中心Oを介して−y軸方向に−10cm、+y軸方向に+10cm)の値がそれぞれ設定される。さらに幅20cmを設定することにより、z軸方向に20cm(中心Oを介して−z軸方向に−10cm、+z軸方向に+10cm)の値が規定され、高さを20cmとすることで、中心Oを含むxy面をz軸方向に−10cmの位置に投影した面から+10cmの位置に投影した面までに規定される直方体の空間領域がジェスチャ実施領域として定義される。
なお、設定欄9cにおいて、操作者Aの位置と操作対象物との間のいずれかの空間位置をジェスチャ実施領域11の初期位置として予め設定しておいてもよい。このようにすることで、上記初期位置で操作者Aがジェスチャ操作をしやすければ、位置変更を行う必要がないため、ジェスチャ実施領域11の位置設定を簡易化することができる。
また、図12では操作対象物の位置を基準としてジェスチャ実施領域11の位置を変更する場合を示したが、操作者Aがハンドル12で運転を行う運転者である場合、ハンドル12の位置(例えば、ハンドル12の左端位置)を基準としてもよい。
また、実施領域設定部23が、ジェスチャ認識部22によってジェスチャ操作が認識された操作者Aの手の位置を学習し、この学習結果に基づいてジェスチャ実施領域11の位置を変更してもよい。
例えば、実施領域設定部23が、操作者Aによってジェスチャ操作が行われた手の位置を順次記憶しておき、予め定められた回数で過去に行われたジェスチャ操作の位置のうち閾値以上の回数で同じであった位置または予め定められた回数で過去に行われたジェスチャ操作の平均位置を算出する。そして、実施領域設定部23は、算出した位置を中心Oとするか、あるいは、頂点位置などとしてジェスチャ実施領域11の位置を変更する。
このようにすることで、操作者Aに合った位置にジェスチャ実施領域11の位置を変更することができる。
ただし、ジェスチャ実施領域11がハンドル12などに接近し過ぎた場合、操作者Aによるハンドル12の操作がジェスチャ操作と誤判定される可能性がある。
そこで、実施領域設定部23によって変更可能なジェスチャ実施領域11の位置範囲に制限を設けてもよい。例えば、実施領域設定部23にハンドル12から予め定めた距離内にある空間位置を禁止位置として設定しておき、この禁止位置にジェスチャ実施領域11の位置が変更されないようにする。このようにすることで、ジェスチャ操作の誤認識を低減できる。
以上のように、この実施の形態4によれば、ジェスチャ実施領域11の位置を変更する実施領域設定部23を備えたので、ジェスチャ実施領域を固定位置ではなく、移動させることができる。また、外部からの設定内容に応じてジェスチャ実施領域11の位置を調整する調整部23aを備えることにより、操作者Aの好みの場所にジェスチャ実施領域11を設定することができる。
また、この実施の形態4によれば、実施領域設定部23が、ジェスチャ操作が認識された操作者Aの手の位置を学習し、この学習結果に基づいてジェスチャ実施領域11の位置を変更する。このようにすることで、操作者Aがジェスチャ操作を行いやすいジェスチャ実施領域11を設定することができる。このとき、実施領域設定部23によって変更可能なジェスチャ実施領域11の位置範囲に制限を設ける。これにより誤認識されやすい場所にジェスチャ実施領域11が設定されることを防止でき、ジェスチャ操作の誤認識を低減できる。
なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明に係る移動体用ジェスチャ誘導装置は、簡易な構成で実現でき、かつジェスチャ操作を行うべき適切な状態に誘導することができるので、例えば、車載情報機器の操作装置として好適である。
1,1A 移動体用ジェスチャ誘導装置、2,2A 演算部、3 I/F部、4 イベント検知部、4a アンテナ、5 バス、6 3Dカメラ、7 スピーカ、8 HUD、8a 投影部材、9 センターディスプレイ、9a 画面、9b 設定画面、9c 設定欄、10,10a〜10d,15 アイコン、11,13,14,16〜19 ジェスチャ実施領域、12 ハンドル、20 報知制御部、21 強調度算出部、22 ジェスチャ認識部、23 実施領域設定部、23a 調整部。
この発明に係る移動体用ジェスチャ誘導装置は、操作者の手を検出するセンサの検出情報に基づいて操作者の手の位置および形状を特定し、操作者の手の位置および形状とジェスチャ操作を行う予め定められた位置および前記ジェスチャ操作に予め定められた手の形状との差に応じた強調度を算出する強調度算出部と、センサによる操作者の手の検出に応じて強調度算出部が強調度を算出するごとに、算出された強調度でジェスチャ操作の操作対象物を報知装置に報知させて操作者の手を予め定められた位置と前記ジェスチャ操作に予め定められた手の形状へ誘導する報知制御部とを備える。

Claims (20)

  1. 操作者の手を検出するセンサの検出情報に基づいて前記操作者の手の位置を特定し、前記操作者の手の位置とジェスチャ操作を行う予め定められた位置との差に応じた強調度を算出する強調度算出部と、
    前記センサによる前記操作者の手の検出に応じて前記強調度算出部が強調度を算出するごとに、算出された強調度で前記ジェスチャ操作の操作対象物を報知装置に報知させて前記操作者の手を前記予め定められた位置へ誘導する報知制御部とを備えた移動体用ジェスチャ誘導装置。
  2. 前記強調度算出部は、前記センサの検出情報に基づいて前記操作者の手の形状をさらに特定し、前記操作者の手の位置および形状と前記ジェスチャ操作を行う予め定められた位置および前記ジェスチャ操作に予め定められた手の形状との差に応じた強調度を算出し、
    前記報知制御部は、前記強調度算出部が算出した強調度で前記ジェスチャ操作の操作対象物を前記報知装置に報知させて、前記操作者の手を前記予め定められた位置と前記ジェスチャ操作に予め定められた手の形状へ誘導することを特徴とする請求項1記載の移動体用ジェスチャ誘導装置。
  3. 前記強調度算出部は、前記操作者の手の位置と前記ジェスチャ操作を行う予め定められたジェスチャ実施領域の中心位置との距離に応じた強調度を算出することを特徴とする請求項1記載の移動体用ジェスチャ誘導装置。
  4. 前記強調度算出部は、前記操作者の手の位置と前記ジェスチャ実施領域の中心位置との距離、および前記操作者の手の形状と前記ジェスチャ操作に予め定められた手の形状との相違度に応じた強調度を算出することを特徴とする請求項2記載の移動体用ジェスチャ誘導装置。
  5. 前記強調度算出部は、前記操作対象物に関するイベントが発生して前記報知装置が当該操作対象物を報知している場合に、前記イベントが発生してから設定時間が経過すると、徐々に低くなるように強調度を順次算出し、
    前記報知制御部は、前記強調度算出部によって順次算出された強調度で前記操作対象物を報知するように前記報知装置を制御することを特徴とする請求項1記載の移動体用ジェスチャ誘導装置。
  6. 前記強調度算出部は、さらに前記センサによって前記ジェスチャ実施領域の内外で検出された前記操作者の手についての当該ジェスチャ実施領域の中心またはこの中心から操作者側へ延長した延長線上の点からのずれ方向を算出し、
    前記報知制御部は、前記強調度算出部によって算出された強調度でかつ前記ずれ方向に応じた報知態様で前記操作対象物を前記報知装置に報知させて前記操作者の手を前記ジェスチャ実施領域の中心位置へ誘導することを特徴とする請求項3記載の移動体用ジェスチャ誘導装置。
  7. 前記操作対象物と前記ジェスチャ実施領域とを1対1に対応させて前記ジェスチャ実施領域の前記操作者の手によるジェスチャ操作を認識するジェスチャ認識部を備えたことを特徴とする請求項3記載の移動体用ジェスチャ誘導装置。
  8. 前記報知制御部は、前記ジェスチャ認識部によって前記操作対象物が不要であることを示すジェスチャ操作が認識された場合、当該操作対象物を報知しないように前記報知装置を制御することを特徴とする請求項7記載の移動体用ジェスチャ誘導装置。
  9. 前記ジェスチャ実施領域を複数箇所に設けたことを特徴とする請求項7記載の移動体用ジェスチャ誘導装置。
  10. 前記ジェスチャ認識部は、ジェスチャ実施領域ごとに異なる操作対象物のジェスチャ操作を認識することを特徴とする請求項9記載の移動体用ジェスチャ誘導装置。
  11. 前記報知制御部は、前記ジェスチャ認識部がジェスチャ操作を認識したジェスチャ実施領域に対応する報知装置が前記ジェスチャ操作の処理結果を出力するように制御することを特徴とする請求項9記載の移動体用ジェスチャ誘導装置。
  12. 前記複数のジェスチャ実施領域は、移動体の運転者の右手用および左手用のジェスチャ実施領域、または、前記運転者以外の乗員向けのジェスチャ実施領域であることを特徴とする請求項9記載の移動体用ジェスチャ誘導装置。
  13. 前記ジェスチャ実施領域は、前記操作者と前記操作対象物との間に配置されていることを特徴とする請求項9記載の移動体用ジェスチャ誘導装置。
  14. 前記ジェスチャ実施領域の位置を変更する位置変更部を備えたことを特徴とする請求項3記載の移動体用ジェスチャ誘導装置。
  15. 前記位置変更部は、外部からの設定内容に応じて前記ジェスチャ実施領域の位置を調整する調整部を備えたことを特徴とする請求項14記載の移動体用ジェスチャ誘導装置。
  16. 前記位置変更部は、ジェスチャ操作が認識された前記操作者の手の位置を学習し、この学習の結果に基づいて前記ジェスチャ実施領域の位置を変更することを特徴とする請求項14記載の移動体用ジェスチャ誘導装置。
  17. 前記位置変更部によって変更可能な前記ジェスチャ実施領域の位置範囲に制限を設けたことを特徴とする請求項16記載の移動体用ジェスチャ誘導装置。
  18. 前記報知制御部は、前記操作者の手が前記ジェスチャ実施領域に進入もしくは離脱したことを報知するように前記報知装置を制御することを特徴とする請求項3記載の移動体用ジェスチャ誘導装置。
  19. 操作者の手を検出するセンサと、
    操作対象物を報知する報知装置と、
    前記センサの検出情報に基づいて前記操作者の手の位置を特定し、前記操作者の手の位置とジェスチャ操作を行う予め定められた手の位置との差に応じた強調度を算出する強調度算出部と、
    前記センサによる前記操作者の手の検出に応じて前記強調度算出部が強調度を算出するごとに、算出された強調度で前記ジェスチャ操作の操作対象物を前記報知装置に報知させて前記操作者の手を前記予め定められた位置へ誘導する報知制御部とを備えた移動体用ジェスチャ誘導システム。
  20. 強調度算出部が、操作者の手を検出するセンサの検出情報に基づいて前記操作者の手の位置を特定し、前記操作者の手の位置とジェスチャ操作を行う予め定められた手の位置との差に応じた強調度を算出するステップと、
    報知制御部が、前記センサによる前記操作者の手の検出に応じて前記強調度算出部が強調度を算出するごとに、算出された強調度で前記ジェスチャ操作の操作対象物を前記報知装置に報知させて前記操作者の手を前記予め定められた位置へ誘導するステップとを備えた移動体用ジェスチャ誘導方法。
JP2016503807A 2014-02-18 2014-02-18 移動体用ジェスチャ誘導装置、移動体用ジェスチャ誘導システムおよび移動体用ジェスチャ誘導方法 Expired - Fee Related JP5968573B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/053769 WO2015125213A1 (ja) 2014-02-18 2014-02-18 移動体用ジェスチャ誘導装置、移動体用ジェスチャ誘導システムおよび移動体用ジェスチャ誘導方法

Publications (2)

Publication Number Publication Date
JP5968573B2 JP5968573B2 (ja) 2016-08-10
JPWO2015125213A1 true JPWO2015125213A1 (ja) 2017-03-30

Family

ID=53877754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016503807A Expired - Fee Related JP5968573B2 (ja) 2014-02-18 2014-02-18 移動体用ジェスチャ誘導装置、移動体用ジェスチャ誘導システムおよび移動体用ジェスチャ誘導方法

Country Status (5)

Country Link
US (1) US10168786B2 (ja)
JP (1) JP5968573B2 (ja)
CN (1) CN106030460B (ja)
DE (1) DE112014006380T5 (ja)
WO (1) WO2015125213A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018008226A1 (ja) * 2016-07-05 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN107977071B (zh) * 2016-10-24 2020-02-28 ***通信有限公司研究院 一种适用于空间***的操作方法及装置
US11032698B2 (en) * 2016-10-27 2021-06-08 International Business Machines Corporation Gesture based smart download
US11140116B2 (en) * 2017-01-31 2021-10-05 Samsung Electronics Co., Ltd Method for providing notification to uncover execution screen and electronic apparatus for performing same
DK180470B1 (en) 2017-08-31 2021-05-06 Apple Inc Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments
DK201870349A1 (en) 2018-01-24 2019-10-23 Apple Inc. Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models
JP7179334B2 (ja) * 2019-05-07 2022-11-29 コーデンシ株式会社 ジェスチャ認識装置及びジェスチャ認識装置用プログラム
JP7179180B2 (ja) * 2019-07-01 2022-11-28 三菱電機株式会社 表示制御装置及び表示制御方法
JP7443070B2 (ja) 2020-01-23 2024-03-05 Sanei株式会社 画像認識水栓

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
JP2012018559A (ja) * 2010-07-08 2012-01-26 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2013016060A (ja) * 2011-07-05 2013-01-24 Shimane Prefecture 操作入力装置および操作判定方法並びにプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4606750B2 (ja) 2004-02-17 2011-01-05 アルパイン株式会社 空間操作系生成システム
JP4566596B2 (ja) * 2004-03-29 2010-10-20 アルパイン株式会社 操作指示装置
CN101308441B (zh) * 2004-10-12 2010-09-22 日本电信电话株式会社 三维显示控制方法和三维显示控制装置
EP2620849B1 (en) 2010-09-22 2019-08-28 Shimane Prefectural Government Operation input apparatus, operation input method, and program
US9019218B2 (en) * 2012-04-02 2015-04-28 Lenovo (Singapore) Pte. Ltd. Establishing an input region for sensor input
JP5900161B2 (ja) * 2012-05-29 2016-04-06 ソニー株式会社 情報処理システム、方法およびコンピュータ読み取り可能な記録媒体
JP5665140B2 (ja) * 2012-08-17 2015-02-04 Necソリューションイノベータ株式会社 入力装置、入力方法、及びプログラム
DE102012216193B4 (de) 2012-09-12 2020-07-30 Continental Automotive Gmbh Verfahren und Vorrichtung zur Bedienung einer Kraftfahrzeugkomponente mittels Gesten
US20140181759A1 (en) * 2012-12-20 2014-06-26 Hyundai Motor Company Control system and method using hand gesture for vehicle
DE102014201578A1 (de) 2014-01-29 2015-07-30 Volkswagen Ag Vorrichtung und Verfahren zur Signalisierung eines Eingabebereiches zur Gestenerkennung einer Mensch-Maschine-Schnittstelle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
JP2012018559A (ja) * 2010-07-08 2012-01-26 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2013016060A (ja) * 2011-07-05 2013-01-24 Shimane Prefecture 操作入力装置および操作判定方法並びにプログラム

Also Published As

Publication number Publication date
CN106030460A (zh) 2016-10-12
JP5968573B2 (ja) 2016-08-10
US20160334879A1 (en) 2016-11-17
CN106030460B (zh) 2017-12-19
US10168786B2 (en) 2019-01-01
DE112014006380T5 (de) 2016-11-24
WO2015125213A1 (ja) 2015-08-27

Similar Documents

Publication Publication Date Title
JP5968573B2 (ja) 移動体用ジェスチャ誘導装置、移動体用ジェスチャ誘導システムおよび移動体用ジェスチャ誘導方法
JP5563153B2 (ja) 操作装置
CN107107841B (zh) 信息处理装置
CN104755308B (zh) 具有手势识别的机动车操作接口
KR101416378B1 (ko) 영상 이동이 가능한 디스플레이 장치 및 방법
US20160132126A1 (en) System for information transmission in a motor vehicle
US9956878B2 (en) User interface and method for signaling a 3D-position of an input means in the detection of gestures
WO2016067544A1 (ja) 車載注意喚起システム及び報知制御装置
EP3524558B1 (en) Elevator operation control device and method using monitor
US10346118B2 (en) On-vehicle operation device
JP2017211884A (ja) 動き検出システム
WO2018061603A1 (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
JP3933139B2 (ja) コマンド入力装置
JP2017097608A (ja) 画像認識装置
US11402646B2 (en) Display apparatus, display control method, and program
JP2012179682A (ja) 移動ロボットシステム、移動ロボット制御装置、該制御装置に用いられる移動制御方法及び移動制御プログラム
JP2017084136A (ja) ジェスチャ入力装置
JP6922686B2 (ja) 操作装置
US20210281966A1 (en) Information processing apparatus, program, and information processing method
KR101500413B1 (ko) 차량용 제스처 인식 장치
JP4962387B2 (ja) ポインタ表示・移動装置およびポインタ表示・移動装置用のプログラム
JP2018162023A (ja) 操作装置
JP2016224632A (ja) ヘッドマウントディスプレイを制御するプログラム、システム、及び方法。
JP6371589B2 (ja) 車載システム、視線入力受付方法及びコンピュータプログラム
JP2018163555A (ja) 情報入力システムおよび情報入力プログラム

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160705

R150 Certificate of patent or registration of utility model

Ref document number: 5968573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees