JP2014219938A - 入力支援装置、入力支援方法、および、プログラム - Google Patents

入力支援装置、入力支援方法、および、プログラム Download PDF

Info

Publication number
JP2014219938A
JP2014219938A JP2013100590A JP2013100590A JP2014219938A JP 2014219938 A JP2014219938 A JP 2014219938A JP 2013100590 A JP2013100590 A JP 2013100590A JP 2013100590 A JP2013100590 A JP 2013100590A JP 2014219938 A JP2014219938 A JP 2014219938A
Authority
JP
Japan
Prior art keywords
input support
marker
display
spatial
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013100590A
Other languages
English (en)
Inventor
英人 宮城
Hideto Miyagi
英人 宮城
和希 田中
Kazuki Tanaka
和希 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GEIS CO Ltd
Original Assignee
GEIS CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GEIS CO Ltd filed Critical GEIS CO Ltd
Priority to JP2013100590A priority Critical patent/JP2014219938A/ja
Priority to PCT/JP2014/062517 priority patent/WO2014181876A1/ja
Priority to EP14795029.9A priority patent/EP2996022A4/en
Priority to US14/890,124 priority patent/US20160092062A1/en
Priority to CN201480026167.3A priority patent/CN105190506A/zh
Publication of JP2014219938A publication Critical patent/JP2014219938A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】コントローラを用いずに非接触操作を行う場合に、利用者へのフィードバックを適切に行うことができる、入力支援装置、入力支援方法、および、プログラムを提供することを課題とする。
【解決手段】本発明は、検出部を介して、利用者の所定の部位についての空間座標を連続的に取得し、更新される空間座標に基づいて、表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う場合において、マーカーの初期形状は、任意の形状を分割した複数の形状として、空間座標の座標系における所定の面に対して、空間座標の距離が大きいほど、表示画面の対応する位置から複数の形状を互いに離隔させ、当該距離が小さいほど、表示画面の対応する位置に複数の形状を互いに接近させる表示制御を行う。
【選択図】図9

Description

本発明は、入力支援装置、入力支援方法、および、プログラムに関する。
従来、コントローラを用いずに、コンピュータを遠隔操作する方法が開発されている。
例えば、特許文献1では、手に投射される光パターンの連続的特徴を検知することによりユーザの手の動きを追跡する手追跡器を備えたコンピュータ装置において、手追跡器により追跡された手の動きに従って手の画像(第1画像)を動かし、表示上の仮想キーボード等の第2画像と第1画像との間で相互作用させるように手を動かすことにより、コンピュータ装置を制御する方法が開示されている。
また、非特許文献1のKinect for Windows(登録商標) SDK 1.7では、利用者の手の空間座標を検出し、検出した平面座標に応じて、表示画面上のカーソルを移動させるとともに、検出した深度に応じた表示ボタンの押下を判定する際に、カーソルの色を深度に応じて連続的に変化させて、利用者にボタン押下に至るまでの深度状況をフィードバックする技術が開示されている。
特表2013−505508号公報
マイクロソフト・コーポレーション、"New Features│Microsoft Kinect for Windows"、[online]、2013年、Microsoft Corporation、[平成25年5月7日検索]、インターネット<URL:http://www.microsoft.com/en−us/kinectforwindows/Develop/New.aspx>
しかしながら、コントローラを使用しない従来の遠隔操作技術においては、どの時点でボタン押下等の選択決定がなされるかを利用者が把握するのが難しいため誤動作を招くという問題点を有していた。
例えば、特許文献1に記載の遠隔制御方法では、ユーザの手を表示した画像が、表示上のキーボードの画像上で動き、ユーザが指をタイピング動作するように動かすと、キーボードキーを押下することができるものの、物理キーボードとは異なり、どの段階でキー押下操作と判定されるのかについて、利用者へのフィードバックに乏しいためタイプミスを招きやすいという問題点を有していた。
また、非特許文献1に記載の遠隔制御方法では、利用者の手の深度がカーソルの色としてフィードバックされるものの、利用者がディスプレイに対して手をかざして操作するので、カーソルが手で隠れてしまうことがあり、依然として誤動作を招く可能性があるという問題点を有していた。
本発明は、上記問題点に鑑みてなされたもので、コントローラを用いず接触せずに操作を行う場合に、利用者へのフィードバックを適切に行うことができる、入力支援装置、入力支援方法、および、プログラムを提供することを目的とする。
このような目的を達成するため、本発明の入力支援装置は、検出部を介して、利用者の所定の部位についての空間座標を連続的に取得する空間座標取得手段と、上記空間座標取得手段により更新される上記空間座標に基づいて、上記表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う表示制御手段と、を備えた入力支援装置において、上記マーカーの初期形状は、任意の形状を分割した複数の形状であって、上記表示制御手段は、上記空間座標の座標系における所定の面に対して、上記空間座標の距離が大きいほど、上記表示画面の対応する位置から上記複数の形状を互いに離隔させ、当該距離が小さいほど、上記表示画面の対応する位置に上記複数の形状を互いに接近させることを特徴とする。
また、本発明の入力支援装置は、上記記載の入力支援装置において、更に、更新される上記空間座標が上記所定の面を通過した状態で、押下状態と判定する押下判定手段、を更に備え、上記表示制御手段は、更新される上記空間座標が上記所定の面を通過した状態で、上記複数の形状を互いに結合させた、分割前の上記形状を上記マーカーとして表示することを特徴とする。
また、本発明の入力支援装置は、上記記載の入力支援装置において、上記表示制御手段は、上記空間座標取得手段により更新される上記空間座標に基づいて、上記表示画面の対応する位置に、カーソルを更に表示させ、上記押下判定手段は、更新される上記空間座標が上記所定の面を通過した状態で、上記カーソルの位置を対象として上記押下状態と判定することを特徴とする。
また、本発明の入力支援装置は、上記記載の入力支援装置において、上記マーカーの分割前の上記形状は、円環、ドーナツ形状、その他、結合時の形状を容易に想像できる形状、または、上記表示部の表示画面の対応する位置を覆うことのない形状でも実現できることを特徴とする。
また、本発明の入力支援装置は、上記記載の入力支援装置において、上記所定の面は、上記表示画面から数センチメートル程度手前側に設定されており、上記利用者の所定の部位は、指、手、ないしは、掌であって、上記表示制御手段は、上記マーカーを上記所定の部位よりも大きく表示、または、上記マーカーの上記初期形状における離隔範囲を上記所定の部位よりも大きく表示させることを特徴とする。
また、本発明の入力支援装置は、上記記載の入力支援装置において、上記所定の面に対する上記空間座標の距離は、上記所定の面に対して利用者が位置する側における上記空間座標の距離であることを特徴とする。
また、本発明の入力支援装置は、上記記載の入力支援装置において、上記空間座標は、上記表示画面に平行な上記所定の面における2次元座標、および、上記所定の面に垂直な奥行き座標、からなる3次元座標であって、上記表示制御手段は、上記空間座標取得手段により更新される上記2次元座標の、上記表示画面に対応する位置に上記マーカーの中心を移動させるとともに、上記空間座標取得手段により更新される上記奥行き座標が上記所定の面に対して0に近づけば近づくほど、上記中心から離隔させた上記複数の形状を互いに接近させて一つの連続した形状として表示させることを特徴とする。
また、本発明の入力支援方法は、コンピュータにおいて実行される入力支援方法であって、検出部を介して、利用者の所定の部位についての空間座標を連続的に取得する空間座標取得ステップと、上記空間座標取得ステップにて更新される上記空間座標に基づいて、上記表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う表示制御ステップと、を含み、上記マーカーの初期形状は、任意の形状を分割した複数の形状であって、上記表示制御ステップは、上記空間座標の座標系における所定の面に対して、上記空間座標の距離が大きいほど、上記表示画面の対応する位置から上記複数の形状を互いに離隔させ、当該距離が小さいほど、上記表示画面の対応する位置に上記複数の形状を互いに接近させることを特徴とする。
また、本発明のプログラムは、コンピュータに実行させるためのプログラムであって、検出部を介して、利用者の所定の部位についての空間座標を連続的に取得する空間座標取得ステップと、上記空間座標取得ステップにて更新される上記空間座標に基づいて、上記表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う表示制御ステップと、を実行させるためのプログラムにおいて、上記マーカーの初期形状は、任意の形状を分割した複数の形状であって、上記表示制御ステップは、上記空間座標の座標系における所定の面に対して、上記空間座標の距離が大きいほど、上記表示画面の対応する位置から上記複数の形状を互いに離隔させ、当該距離が小さいほど、上記表示画面の対応する位置に上記複数の形状を互いに接近させることを特徴とする。
また、本発明は記録媒体に関するものであり、上記記載のプログラムを記録したことを特徴とする。
この記録媒体によれば、当該記録媒体に記録されたプログラムをコンピュータに読み取らせて実行させることによって、上記記載された方法を、コンピュータを利用して実現することができ、これら各方法と同様の効果を得ることができる。
この発明によれば、検出部を介して、利用者の所定の部位についての空間座標を連続的に取得し、更新される空間座標に基づいて、表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う場合において、マーカーの初期形状は、任意の形状を分割した複数の形状であって、空間座標の座標系における所定の面に対して、空間座標の距離が大きいほど、表示画面の対応する位置から複数の形状を互いに離隔させ、当該距離が小さいほど、表示画面の対応する位置に複数の形状を互いに接近させる。これにより、コントローラを用いずに非接触操作を行う場合に、利用者へのフィードバックを適切に行うことができるという効果を奏する。
また、本発明によれば、更新される空間座標が所定の面を通過した状態で、押下状態と判定し、更新される空間座標が所定の面を通過した状態で、複数の形状を互いに結合させた、分割前の形状をマーカーとして表示するので、利用者が、クリックやドラッグやピンチアウト/ピンチインやスワイプやフリック等の各種操作を行うにあたって、押下状態を認識しやすいように視認性を向上させることができるという効果を奏する。
また、本発明によれば、更新される空間座標に基づいて、表示画面の対応する位置に、カーソルを更に表示させ、更新される空間座標が所定の面を通過した状態で、カーソルの位置を対象として押下状態と判定するので、利用者が、数メートル程度ディスプレイから離れた位置で操作する場合や、GUIボタン等の操作対象物が細かい場合等であっても、マーカーの中心付近に十字線等のカーソルを入れる等により、押下対象が認識し易いように視認性を向上させることができる。
また、本発明によれば、マーカーの分割前の形状は、円環、ドーナツ形状、その他、表示部の表示画面の対応する位置を覆うことのない形状でも実現できるので、利用者が、押下しようとする押下対象が隠れることなく、操作性を向上させることができるという効果を奏する。
また、本発明によれば、所定の面は、表示画面から数センチメートル程度手前側に設定されており、利用者の所定の部位は、指、手、ないしは、掌であって、マーカーを所定の部位よりも大きく表示、または、マーカーの初期形状における離隔範囲を所定の部位よりも大きく表示させるので、ディスプレイに数センチメートル程度に近づいて操作する場合等においても、利用者は、自身の指や手等で操作対象物を隠すことがなく、操作性を向上させることができるという効果を奏する。
また、本発明によれば、所定の面に対する空間座標の距離は、所定の面に対して利用者が位置する側における空間座標の距離であるので、利用者側から所定の面に近づくほど、表示画面の対応する位置に複数の形状を互いに接近させ、所定の面を超えた場合に、クリック等の選択状態と判定することができるという効果を奏する。
また、本発明によれば、空間座標は、表示画面に平行な所定の面における2次元座標、および、所定の面に垂直な奥行き座標、からなる3次元座標であって、更新される2次元座標の、表示画面に対応する位置にマーカーの中心を移動させるとともに、更新される奥行き座標が所定の面に対して0に近づけば近づくほど、中心から離隔させた複数の形状を互いに接近させて一つの連続した形状として表示させる。これにより、素早く、直感的に、数センチメートルの近距離から数メートルの遠距離でも使用できる、好適な入力操作のフィードバックを提供することができる。
図1は、従来例であるホバーボタン即時押下方式の一例を示す図である。 図2は、従来例であるホバーボタン一定時間経過後押下方式の一例を示す図である。 図3は、従来例であるプッシュボタンカーソル着色方式の一例を示す図である。 図4は、本実施の形態が適用される入力支援装置100の構成の一例を示すブロック図である。 図5は、本実施の形態を、数cm程度の近距離の非接触操作に適用する場合の、表示部114のディスプレイ、空中擬似タッチパネル、および、利用者の位置関係を示した図である。 図6は、本実施の形態を、数メートル程度の遠距離非接触操作に適用する場合の、表示部114のディスプレイ、空中擬似タッチパネル、および、利用者の位置関係を示した図である。 図7は、本実施の形態を、ヘッドマウントディスプレイにおける非接触操作に適用する場合の、表示部114のディスプレイ、空中擬似タッチパネル、および、利用者の位置関係を示した図である。 図8は、本実施の形態における入力支援装置100の入力支援処理の一例を示すフローチャートである。 図9は、本実施の形態によるプッシュボタンマーカー方式を模式的に示した図である。 図10は、本実施の形態のフリックマーカー方式を模式的に示した図である。 図11は、本実施の形態のピンチマーカー方式を模式的に示した図である。
以下に、本発明にかかる入力支援装置、入力支援方法、および、プログラム、並びに、記録媒体の実施の形態を、図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
[本実施の形態の概要]
以下、本発明にかかる本実施の形態の概要について従来方式と比較しながら説明し、その後、本実施の形態の構成および処理等について詳細に説明する。なお、本概要の説明によって、以降で説明する本実施の形態の構成および処理が限定されるものではない。
従来、Kinect(R)センサ(マイクロソフト社製)やLeapセンサ(Leap Motion社製)等の検出手段を用いて、リモートコントローラを用いずに、手や指で非接触にコンピュータ等を遠隔操作可能となる技術開発と商品開発が進んでいる。
これらの検出手段を用いれば、利用者の手や指の3次元空間座標を読取ることができるため、利用者の手や指をポインティングデバイスの代替として用いたユーザインターフェースを実現しようとする試みがある。ここで、従来の非接触でのボタン押下方式の例について、図1〜図3を参照して以下に説明する。ここで、図1は、従来例であるホバーボタン即時押下方式の一例を示す図である。図中の矩形は、表示画面であり、表示画面中には押下対象の一例としてボタンが表示されており、矢印の左側は遷移前、矢印の右側は遷移後を示している(以下も同様)。
図1に示すように、従来のホバーボタン即時押下方式では、利用者が押下したい対象の上に指(または指に連動するカーソル)を移動させる(ホバーさせる)と、即座にボタンが押下される方式である(MA−1〜2)。ホバーボタン即時押下方式の特徴として、押下するまでの待ち時間がないというメリットがあるものの、誤操作する可能性が高いので誤操作すると危険な操作には向いておらず、画面にカーソルを表示しないと押下対象が分かり難いというデメリットを有していた。ここで、図2は、従来例であるホバーボタン一定時間経過後押下方式の一例を示す図である。
図2に示すように、従来のホバーボタン一定時間経過後押下方式では、利用者が押下したい対象の上に指(または指に連動するカーソル)を移動させる(ホバーさせる)と(MB−1)、指(または指に連動するカーソル)を中心に一定時間をかけて、この例では時計回りに円が描かれ(MB−2)、一定時間が経過すると対象が押下される方式である(MB−3)。ホバーボタン一定時間経過後押下方式の特徴として、一定時間は押下されないため押下決定までに利用者が誤りに気付く可能性があり誤操作を抑止できるというメリットがあるものの、押下動作を行うために一定時間が必要であるというデメリットを有していた。ここで、図3は、従来例であるプッシュボタンカーソル着色方式の一例を示す図である。
図3に示すように、従来のプッシュボタンカーソル着色方式では、押下対象と指との距離が離れている場合は、カーソルが白く表示され(MC−1)、利用者が指を押下対象に接近させると、その距離に応じてカーソルの色が変化し(MC−2〜MC−4)、指が一定距離以内に達すると対象が押下される方式である(MC−5)。プッシュボタンカーソル着色方式の特徴として、対象を即座に押下でき、対象を押下するまでに利用者へのフィードバックがあるため誤操作を抑止できるというメリットがあるものの、数センチメートルの距離で使用した場合など、利用者の目とカーソルとの間に、利用者の手や指が位置するとカーソルが見え難くなるというデメリットを有していた。
本願発明者らは、上記の問題点等に鑑み、鋭意検討を行った結果、本願発明を完成させるに至った。本願発明の実施の形態は、次の特徴を有する。
すなわち、本実施の形態は、検出部を介して、利用者の所定の部位(手や指や掌や足等)についての空間座標を連続的に取得する。一例として、空間座標は、表示画面に平行な所定の面における2次元座標(x座標,y座標)、および、所定の面に垂直な奥行き座標(z座標)、からなる3次元座標(x,y,z)であってもよい。
そして、本実施の形態は、更新される空間座標に基づいて、表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う。好適には、本実施形態は、マーカーを所定の部位よりも大きく表示させるか、または、マーカーの初期形状における離隔範囲を所定の部位よりも大きく表示させてもよい。なお、本実施の形態は、表示制御において、マーカーとは別に、更新される空間座標に基づいて、表示画面の対応する位置に、カーソルを更に表示させる制御を行ってもよい。
ここで、マーカーの初期形状は、任意の形状(例えば円環やドーナツ形状等)を分割した複数の形状である。本実施の形態は、上述の表示制御において、空間座標の座標系における所定の面に対する空間座標の距離(利用者が位置する側における所定の面までの距離等)が大きいほど、表示画面の対応する位置から複数の形状を互いに離隔させ、一方、当該距離が小さいほど、表示画面の対応する位置に複数の形状を互いに接近させる表示制御を行う。
なお、所定の面は、表示画面に対応した形状(例えば、矩形形状)の、表示画面に平行な面であってもよい。本実施の形態において、空間座標系における仮想のタッチパネル(以下、「空中擬似タッチパネル」と呼ぶ場合がある。)としての役割を果たす。すなわち、利用者は、あたかも空中にタッチパネルがあるかのように操作する場合に、本実施の形態は、視覚的フィードバックを改善する好適な入力支援を行う。
つづいて、本実施の形態は、更新される空間座標が所定の面を通過した状態で(利用者が位置する側から所定の面の反対側に移動した場合など)、押下状態と判定してもよい。押下対象は、マーカーの中心に位置する対象でもよく、カーソルが位置する対象であってもよい。
以上のように、本実施の形態によれば、押下対象を即座に押下できる上、対象を押下するまでに利用者へ適切なフィードバックがあるため誤操作を抑止できるというメリットがある。また、数センチメートルの距離で使用しても、指等の周りにマーカーが表示されるため、マーカーが見えずに操作できない可能性が低いというメリットがある。したがって、従来例における問題点を克服して、大幅な操作性の向上に寄与することができる。
以上で、本発明の本実施の形態の概要の説明を終える。つづいて、以下に、本実施の形態の構成および処理等について詳細を説明する。
[入力支援装置100の構成]
まず、本実施の形態にかかる入力支援装置100の構成について説明する。図4は、本実施の形態が適用される入力支援装置100の構成の一例を示すブロック図であり、該構成のうち本実施の形態に関係する部分のみを概念的に示している。
図4において入力支援装置100は、概略的に、入力支援装置100の全体を統括的に制御するCPU等の制御部102、通信回線等に接続されるルータ等の通信装置(図示せず)に接続される通信制御インターフェース部104、検出部112や表示部114等に接続される入出力制御インターフェース部108、および、各種のデータベースやテーブルなどを格納する記憶部106を備えて構成されており、これら各部は任意の通信路を介して通信可能に接続されている。
記憶部106に格納される各種のデータベースやテーブル(表示要素ファイル106a等)は、固定ディスク装置等のストレージ手段であり、各種処理に用いる各種のプログラムやテーブルやファイルやデータベースやウェブページ等を格納する。
これら記憶部106の各構成要素のうち、表示要素ファイル106aは、表示画面の表示要素として表示可能なデータを記憶する要素データ記憶手段である。例えば、表示要素ファイル106aは、アイコン等のGUIボタンや、文字、記号、図形、立体オブジェクトなどのオブジェクトとなるデータを記憶してもよい。なお、これら表示要素となるデータのデータ形式は、画像データや、文字データ等に限られず、任意のデータ形式であってもよい。また、後述する制御部102の処理による、表示要素に対するアクション操作(クリックやドラッグやピンチアウト/ピンチインやスワイプやフリック等)の結果は、表示要素ファイル106a上のデータに反映されてもよい。
また、図4において、入出力制御インターフェース部108は、検出部112や表示部114の制御を行う。例えば、表示部114は、液晶パネルや有機ELパネル等の表示手段である。なお、表示部114は、ヘッドマウントディスプレイであってもよく、3D表示ディスプレイであってもよい。ここで、入力支援装置100は、図示しないスピーカ等の音声出力手段を備えてもよく、入出力制御インターフェース部108は、当該音声出力手段の制御を行ってもよい。以下の実施の形態においては、表示部114をモニタ(家庭用テレビ等を含む)として説明する場合があるが、本発明はこれに限定されるものではない。
また、検出部112は、利用者の任意の部位の3次元空間座標を取得するためのセンサ等である。なお、検出部112は、直接3次元座標を取得することに限られず、例えば、2次元画像を別角度から撮影する2台のカメラであってもよく、後述する空間座標取得部102aの解析により、複数の2次元画像から3次元座標を解析してもよい。一例として、検出部112は、カメラ等の撮像手段であってもよく、例えば、検出部112は、CMOSセンサやCCDセンサ等の検出手段であってもよい。また、特許文献1に記載のように、検出部112は、赤外線の縞模様等の光パターンを利用者に向けて投射し、光パターンの縞セグメントのクラスタリングを行うことによって、掌等の所定の部位の領域判定や、掌の深度を検出してもよい。このほか、検出部112としては、超音波や電磁波式の距離測定器(奥行きの検出手段等)や、近接センサ等を用いることができる。また、検出部112は、奥行きの検出手段(深度センサ等)と撮像手段(RGBカメラ等)とを組み合わせてもよい。なお、検出部112としては、Kinect(R)センサ(マイクロソフト社製)やLeapセンサ(Leap Motion社製)等を用いてもよく、前者のように、センサに加えて、センサから検出された信号に基づいて三次元マップを算出する制御手段を備えてもよい。なお、この場合の制御手段は、後述する空間座標取得手段としての役割を果たす。また、検出部112は、撮像手段の代わりに人物の動きを検出する位置検出手段として、利用者が手に持ったり腕等に装着したりした光源等の空間座標を検出してもよい。
また、図4において、制御部102は、OS(Operating System)等の制御プログラム、各種の処理手順等を規定したプログラム、および所要データを格納するための内部メモリを有し、これらのプログラム等により、種々の処理を実行するための情報処理を行う。制御部102は、機能概念的に、空間座標取得部102a、表示制御部102b、および、押下判定部102cを備えて構成されている。
このうち、空間座標取得部102aは、検出部112を介して、利用者の所定の部位についての空間座標を連続的に取得する空間座標取得手段である。例えば、深度センサとRGBカメラを備えた検出部112を介して、深度センサから奥行き座標(z座標)を取得するとともに、RGBカメラから得られた2次元画像から、所定の部位(手や掌等)の領域を判定し、当該領域の中心座標(例えば、領域認識を行った手領域の重心座標)である平面座標(x座標,y座標)をそれぞれ取得してもよい。また、空間座標取得部102aは、2台のカメラからなる検出部112から、それぞれ2枚の画像データを取得し、それぞれ比較解析を行うことにより、所定部位を含む利用者の各点の深さ位置等の三次元マップを生成し、所定の部位に対応する空間座標(x,y,z)を取得してもよい。ここで、図5〜図7は、本実施の形態を、数cm程度の近距離の非接触操作、数メートル程度の遠距離非接触操作、ヘッドマウントディスプレイにおける非接触操作に適用する場合の、表示部114のディスプレイ、空中擬似タッチパネル、および、利用者の位置関係を示した図である。なお、座標系として、x軸,y軸,z軸からなる直交座標系を図示している。
図5に示すように、本実施の形態を数cm程度の近距離の非接触操作に用いる場合、ディスプレイから数センチメートル程度の近傍の空中に、擬似的なタッチパネルが存在するように、座標空間において所定の面を設定してもよい。なお、近距離用途では、利用者の所定部位(指等)自体が、カーソルとしての役割を果たすので、カーソルを表示させなくともよい。ポインティングデバイスとして細かな操作を行うには、画面上にカーソルを表示する必要があるが、大まかな操作で良ければカーソル表示は不要である。
図6に示すように、本実施の形態を数メートル程度の遠距離非接触操作に用いる場合、ディスプレイから数メートルまたはそれ以上離れた位置の空中に、擬似的なタッチパネルが存在するように、座標空間において所定の面を設定してもよい。タッチパネルとは異なり、指等の所定部位をポインティングデバイスとして使用するには、表示制御部102bの制御により、画面上にカーソルを表示させることが望ましい。
図7に示すように、本実施の形態を、HMD(ヘッドマウントディスプレイ)における非接触操作に適用する場合、画像の結像位置に空中擬似タッチパネルが存在するように、座標空間上に所定の面を設定してもよい。この場合、利用者によっては結像位置が前後し得るので、入力支援装置100は、空中擬似タッチパネルの深度を微調整させるよう制御してもよい(3Dディスプレイの場合も同様)。なお、HMDと結像位置との間に障害物(利用者の手など)が入ると、結像された位置がずれ、障害物よりも手前にあるように感じる可能性があるため、空間座標取得部102aは、検出部112を介して障害物の形状を読み取り、表示制御部102bは、結像位置にディスプレイ表示があった場合に障害物で隠れる部分の画像を表示しないように制御することにより、結像位置をずれにくくしてもよい。
なお、上記ならびに以下の実施の形態においては、説明の容易のため、空間座標取得部102aから取得される3次元空間座標の座標系におけるxy平面が、表示部114のディスプレイおよび空中擬似タッチパネルと平行な面であり、z軸が、表示部114のディスプレイおよび空中擬似タッチパネルに対して垂直な軸として説明する場合があるが、本実施の形態は、これに限られない。例えば、空間座標取得部102aにより取得される座標系は、ディスプレイまたは空中擬似タッチパネルと垂直または平行な軸をもたない座標系であってもよい。このような座標系を用いたとしても、ディスプレイと平行な所定の面(すなわち空中擬似タッチパネル)を座標空間に定義することは数学的に可能であるので当業者にとって実施可能である。また、本実施の形態においては、ディスプレイと空中擬似タッチパネルが平行であることを前提として説明することがあるが、必ずしも数学的な平行である必要はなく、利用者がディスプレイの上下左右の方向と指等の上下左右の動きを感覚的に対応付けられるならば、これらが平行である必要はない。また、所定の面(空中擬似タッチパネル)は、表示部114の表示画面(ディスプレイ)からの距離により設定してもよく、利用者からの距離により設定してもよい。後者の例として、表示制御部102bは、利用者の所定部位の初期位置から、所定の距離(深度)離れた位置に、所定の面を自動的に設定してもよい。
再び図4に戻り、表示制御部102bは、表示部114の表示制御を行う表示制御手段である。例えば、表示制御部102bは、表示要素ファイル106aに記憶されたデータに基づいて、アイコン等のGUIボタンを、表示部114のディスプレイに表示させてもよい。これに限られず、表示制御部102bは、インターネット等のネットワーク300を介して、サーバ等の外部機器600から、ウェブページ等のデータを取得し、取得したデータに従って、表示部114上にウェブページを表示する等の制御を行ってもよい。
本実施の形態において、表示制御部102bは、空間座標取得部102aにより更新される空間座標に基づいて、表示部114の表示画面の対応する位置(以下、「マーカー中心位置」と呼ぶ場合がある。)に、マーカーを移動させる表示制御を行う。より具体的には、上述した直交座標系において、表示制御部102bは、空間座標取得部102aにより更新される2次元座標(x,y)の、ディスプレイ上の対応するピクセル座標(x´,y´)にマーカーの中心を移動させてもよい。3次元空間座標系の2次元座標(x,y)から、スクリーン座標系のピクセル座標(x´,y´)への変換は、空中タッチパネルとディスプレイの関係に基づいて、公知の手法で計算することができる。
また、表示制御部102bは、空間座標取得部102aにより更新される空間座標の、所定の面(空中擬似タッチパネル)に対する距離に応じて、マーカーの形状を変化させるフィードバック処理を行う。例えば、表示制御部102bは、空間座標取得部102aにより更新される空間座標に基づいて、空中擬似タッチパネルまでの距離が大きいほど、表示画面の対応する位置(マーカーの中心位置)から、マーカー形状を分割した複数の形状を互いに離隔させ、一方、空中擬似タッチパネルまでの距離が小さいほど、マーカーの中心位置に複数の形状を互いに接近させる。より具体的には、上述した直交座標系において、表示制御部102bは、空間座標取得部102aにより更新される奥行きz座標に基づいて、所定の面に対して距離0に近づけば近づくほど、中心位置(x´,y´)から離隔させた複数の形状を互いに接近させて一つの連続した形状として表示させる。そして、表示制御部102bは、更新される空間座標が空中擬似タッチパネルを通過した状態で、複数の形状を互いに結合させた、分割前の形状でマーカーを表示させる。なお、その際、同時に、後述する押下判定部102cは、押下状態と判定する。
ここで、マーカーの分割前の形状は、円環、ドーナツ形状、その他、結合時の形状を容易に想像できる形状(例えば、円形、三角形、四角形、六角形、星型)や、表示部114のディスプレイの対応する位置(中心位置)を覆うことのない形状(例えば、円形、三角形、四角形、六角形、星型などの周囲(外郭)を表示したもの)であってもよい。また、利用者の視認上、表示制御部102bは、マーカーを所定の部位よりも大きく表示するか、マーカーの初期形状における離隔範囲を所定の部位よりも大きく表示させることが望ましい。
ここで、表示制御部102bは、空間座標取得部102aにより更新される空間座標に基づいて、表示画面の対応する中心位置に、カーソルを更に表示させてもよい。より具体的には、上述した直交座標系において、表示制御部102bは、空間座標取得部102aにより更新される2次元座標(x,y)の、ディスプレイ上の対応するピクセル座標(x´,y´)に、カーソルを移動させながら表示してもよい。このように、押下対象物が細かな場合等において、マーカーの中心に十字線等でカーソルを入れることにより、押下される対象を利用者に判別しやすく表示することができる。
また、押下判定部102cは、更新される空間座標が所定の面を通過した状態で、押下状態と判定する押下判定手段である。例えば、押下判定部102cは、更新される空間座標の軌跡が、利用者の側から所定の面に到達した場合に、押下状態と判定してもよい。押下状態としては、クリック操作におけるボタン押下に限られず、ドラッグやピンチアウト/ピンチインやスワイプやフリック等の各種操作における押下状態をも含む。なお、押下判定部102cは、マーカーの中心位置(x´,y´)またはカーソルの位置(x´,y´)を押下対象として判定してもよい。
また、図4において、通信制御インターフェース部104は、入力支援装置100とネットワーク300(またはルータ等の通信装置)との間における通信制御や、入力支援装置100と図示しない受信装置との間における通信制御を行う装置である。すなわち、通信制御インターフェース部104は、他の端末または局と、通信回線(有線、無線を問わない)を介してデータを通信する機能を有する。また、ここで、受信装置は、放送局等から電波等を受信する受信手段であり、例えばアンテナ等である。
すなわち、入力支援装置100は、画像データに関する外部データベースや本発明にかかるプログラム等の外部プログラム等を提供する外部機器600と、ネットワーク300を介して通信可能に接続して構成されていてもよく、また、入力支援装置100は、画像データ等を発信する放送局等と、受信装置を介して受信可能に接続して構成されていてもよい。また、この入力支援装置100は、ルータ等の通信装置および専用線等の有線または無線の通信回線を介して、ネットワーク300に通信可能に接続されていてもよい。
ここで、図4において、ネットワーク300は、入力支援装置100と外部機器600とを相互に接続する機能を有し、例えば、インターネット等である。
また、図4において、外部機器600は、ネットワーク300を介して、入力支援装置100と相互に接続され、利用者に対して画像データに関する外部データベースやプログラム等の外部プログラム等を実行するウェブサイトを提供する機能を有する。
ここで、外部機器600は、WEBサーバやASPサーバ等として構成していてもよく、そのハードウェア構成は、一般に市販されるワークステーション、パーソナルコンピュータ等の情報処理装置およびその付属装置により構成していてもよい。また、外部機器600の各機能は、外部機器600のハードウェア構成中のCPU、ディスク装置、メモリ装置、入力装置、出力装置、通信制御装置等およびそれらを制御するプログラム等により実現される。
[入力支援処理]
次に、このように構成された本実施の形態における入力支援装置100の入力支援処理の一例について、以下に図8〜図11を参照して詳細に説明する。図8は、本実施の形態における入力支援装置100の入力支援処理の一例を示すフローチャートである。なお、以下の処理を始めるにあたって、表示部114には、表示制御部102bの制御により、何らかの表示要素が表示されていることを前提とする。
図8に示すように、まず、空間座標取得部102aは、検出部112を介して、利用者の所定の部位についての空間座標を取得する(ステップSA−1)。例えば、深度センサとRGBカメラを備えた検出部112を介して、深度センサから奥行き座標(z座標)を取得するとともに、RGBカメラから得られた2次元画像から、所定の部位(手や掌等)の領域を判定し、当該領域の中心座標(例えば、領域認識を行った手領域の重心座標)である平面座標(x座標,y座標)を取得することにより、3次元空間座標(x,y,z)を取得してもよい。
そして、表示制御部102bは、空間座標取得部102aにより取得された空間座標(x,y,z)に基づいて、表示部114のディスプレイ上の対応する位置(x´,y´)に、マーカーの中心を移動させるとともに、深度に応じてマーカーの形状を変化させるフィードバック処理を行う(ステップSA−2)。例えば、上述した直交座標系において、表示制御部102bは、空間座標(x,y,z)のz座標に応じて、空中擬似タッチパネルまでの距離が大きいほど、マーカー中心位置(x´,y´)から、マーカー形状を分割した複数の形状を広く引き離して表示させ、一方、空中擬似タッチパネルまでの距離が小さいほど、マーカー中心位置(x´,y´)に複数の形状を互いに集合させて表示させる。更に、表示制御部102bは、空中擬似タッチパネルまでの距離が0になった場合に、分割前の形状でマーカーを表示させるとともに、同時に、押下判定部102cは、押下状態を判定する。なお、押下判定部102cは、マーカー中心位置(x´,y´)を押下対象とする。ここで、図9は、本実施の形態によるプッシュボタンマーカー方式を模式的に示した図である。
図9の<MD−1>に示すように、表示制御部102bは、空中擬似タッチパネルと指との距離が離れていると、マーカー同士の距離を広い状態で分離して表示する。ここで、利用者が、指を押下対象に接近させると、接近させた距離に応じて、表示制御部102bは、マーカー同士を接近させる(MD−2)。そして、指が一定距離以内に達し表示制御部102bによりマーカーが円状につながると、押下判定部102cは、押下対象を押下する判定を行う(MD−3)。なお、表示制御部102bは、マーカー中心位置(x´,y´)に十字線等でカーソルを更に表示させてもよい。
再び図8に戻り、入力支援装置100の制御部102は、入力支援処理を終了するか否かを判定する(ステップSA−3)。入力支援処理を終了しないと判定された場合(ステップSA−3,No)、入力支援装置100の制御部102は、ステップSA−1に処理を戻し、空間座標取得部102aは空間座標(x,y,z)を更新して(ステップSA−1)、上述したステップSA−1〜SA−3の処理を繰返す。一方、例えば、入力支援処理の終了を利用者により指示された場合に、入力支援装置100は、入力支援処理を終了すると判定して(ステップSA−3,Yes)、以上の処理を終了する。
以上が、入力支援処理の一例である。なお、図9の例では、クリック操作におけるボタン押下の例を示したが、これに限られず、ドラッグやピンチアウト/ピンチインやスワイプやフリック等の各種操作(ジェスチャー入力等)における押下判定に用いることができる。ここで、図10は、本実施の形態のフリックマーカー方式を模式的に示した図である。
図10の<ME−1>に示すように、表示制御部102bは、空中擬似タッチパネルと指との距離が離れていると、マーカー同士の距離を広い状態で分離して表示する。利用者が指を押下対象に接近させると、接近させた距離に応じて、表示制御部102bは、マーカー同士を接近させる(ME−2)。そして、指が一定距離以内に達し、表示制御部102bによりマーカーが円状につながると(ME−3)、押下判定部102cは、押下対象を押下状態と判定する。その状態で、利用者がフリックしたい方向に指を動かす、すなわち、マーカーが円状になってから指を操作したい方向に動かすと(ME−4)、入力支援装置100の制御部102は、フリック操作を受け付ける。
このフリックマーカー方式の特徴として、フリックを受け付ける距離が明確に分かるようになることや、誤操作を最低限に抑えられる等のメリットが挙げられる。また、数cmの距離で使用しても、指の周りにマーカーが表示されるため、マーカーが見えずに操作できない可能性が低いというメリットもある。他のジェスチャー入力の例として、図11は、本実施の形態のピンチマーカー方式を模式的に示した図である。
図11の<MF−1>に示すように、空間座標取得部102aは、利用者の所定の2箇所の部位の空間座標を認識することも可能であり、表示制御部102bは、空中擬似タッチパネルと指との距離に応じて、2つのマーカー同士の距離を広い状態で表示する。利用者が指を押下対象に接近させると、接近させた距離に応じて、表示制御部102bは、マーカー同士を接近させる(MF−2)。そして、指が一定距離以内に達し、表示制御部102bにより2つのマーカーとも円状につながると(MF−3)、押下判定部102cは、押下対象をいずれも押下状態と判定する。その状態で、利用者が二本の指を動かすと(MF−3〜4)、入力支援装置100の制御部102は、ピンチイン/ピンチアウトのジェスチャー入力を受け付ける(MF−4)。
このピンチマーカー方式の特徴として、フリックを受け付ける距離が明確に分かるようになり、誤操作を最低限に抑えられ、数cmの距離で使用しても、指の周りにマーカーが表示されるため、マーカーが見えずに操作できない可能性が低いというメリットがある。また、どこまで対象から離せばジェスチャー入力が終るのかを把握しやすく、入力時の手の移動量を最低限に減らすことができるというメリットもある。
従来、非接触でジェスチャーを認識させる場合には、どこがジェスチャーを認識する箇所なのか、どの距離までジェスチャーを認識出来るのかが利用者が把握しにくい等の複数の問題点があった。本実施の形態の各マーカー方式によるジェスチャー入力では、マーカーが存在することにより、ジェスチャーの認識が始まっているのか否かを使用者が認識しやすく、非接触でもマルチタッチ等のジェスチャーを容易に使用できるという顕著な効果がある。
[他の実施の形態]
さて、これまで本発明の実施の形態について説明したが、本発明は、上述した実施の形態以外にも、特許請求の範囲に記載した技術的思想の範囲内において種々の異なる実施の形態にて実施されてよいものである。
特に、本実施の形態によるマーカー方式と、従来方式のホバーボタン(一定時間後に押下)の方式は、どちらか一方のみしか採用できない訳ではなく、両者を組み合せて実現することも可能である。また、タップと、本実施の形態によるマーカー方式でのジェスチャーの併用などで、全体の使用感を高めることもできる。
また、入力支援装置100がスタンドアローンの形態で処理を行う場合を一例に説明したが、入力支援装置100は、クライアント端末(入力支援装置100とは別筐体である)からの要求に応じて処理を行い、その処理結果を当該クライアント端末に返却するようにしてもよい。
また、実施の形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。
このほか、上記文献中や図面中で示した処理手順、制御手順、具体的名称、各処理の登録データや検索条件等のパラメータを含む情報、画面例、データベース構成については、特記する場合を除いて任意に変更することができる。
また、入力支援装置100に関して、図示の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。
例えば、入力支援装置100の各装置が備える処理機能、特に制御部102にて行われる各処理機能については、その全部または任意の一部を、CPU(Central Processing Unit)および当該CPUにて解釈実行されるプログラムにて実現してもよく、また、ワイヤードロジックによるハードウェアとして実現してもよい。尚、プログラムは、後述する、コンピュータに本発明に係る方法を実行させるためのプログラム化された命令を含む、一時的でないコンピュータ読み取り可能な記録媒体に記録されており、必要に応じて入力支援装置100に機械的に読み取られる。すなわち、ROMまたはHDD(Hard Disk Drive)などの記憶部106などには、OS(Operating System)と協働してCPUに命令を与え、各種処理を行うためのコンピュータプログラムが記録されている。このコンピュータプログラムは、RAMにロードされることによって実行され、CPUと協働して制御部を構成する。
また、このコンピュータプログラムは、入力支援装置100に対して任意のネットワーク300を介して接続されたアプリケーションプログラムサーバに記憶されていてもよく、必要に応じてその全部または一部をダウンロードすることも可能である。
また、本発明に係るプログラムを、コンピュータ読み取り可能な記録媒体に格納してもよく、また、プログラム製品として構成することもできる。ここで、この「記録媒体」とは、メモリーカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、ROM、EPROM、EEPROM、CD−ROM、MO、DVD、および、Blu−ray(登録商標)Disc等の任意の「可搬用の物理媒体」を含むものとする。
また、「プログラム」とは、任意の言語や記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。なお、「プログラム」は必ずしも単一的に構成されるものに限られず、複数のモジュールやライブラリとして分散構成されるものや、OS(Operating System)に代表される別個のプログラムと協働してその機能を達成するものをも含む。なお、実施の形態に示した各装置において記録媒体を読み取るための具体的な構成、読み取り手順、あるいは、読み取り後のインストール手順等については、周知の構成や手順を用いることができる。
記憶部106に格納される各種のデータベース等(表示要素ファイル106a等)は、RAM、ROM等のメモリ装置、ハードディスク等の固定ディスク装置、フレキシブルディスク、および、光ディスク等のストレージ手段であり、各種処理やウェブサイト提供に用いる各種のプログラム、テーブル、データベース、および、ウェブページ用ファイル等を格納する。
また、入力支援装置100は、既知のパーソナルコンピュータ、ワークステーション等の情報処理装置として構成してもよく、また、該情報処理装置に任意の周辺装置を接続して構成してもよい。また、入力支援装置100は、該情報処理装置に本発明の方法を実現させるソフトウェア(プログラム、データ等を含む)を実装することにより実現してもよい。
更に、装置の分散・統合の具体的形態は図示するものに限られず、その全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。すなわち、上述した実施形態を任意に組み合わせて実施してもよく、実施形態を選択的に実施してもよい。
以上詳述に説明したように、本発明によれば、コントローラを用いず非接触操作を行う場合に、利用者へのフィードバックを適切に行うことができる、入力支援装置、入力支援方法、および、プログラム、並びに、記録媒体を提供することができる。
100 入力支援装置
102 制御部
102a 空間座標取得部
102b 表示制御部
102c 押下判定部
104 通信制御インターフェース部
106 記憶部
106a 表示要素ファイル
108 入出力制御インターフェース部
112 検出部
114 表示部
300 ネットワーク
600 外部機器

Claims (9)

  1. 検出部を介して、利用者の所定の部位についての空間座標を連続的に取得する空間座標取得手段と、
    上記空間座標取得手段により更新される上記空間座標に基づいて、表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う表示制御手段と、
    を備えた入力支援装置において、
    上記マーカーの初期形状は、任意の形状を分割した複数の形状であって、
    上記表示制御手段は、
    上記空間座標の座標系における所定の面に対して、上記空間座標の距離が大きいほど、上記表示画面の対応する位置から上記複数の形状を互いに離隔させ、当該距離が小さいほど、上記表示画面の対応する位置に上記複数の形状を互いに接近させること
    を特徴とする入力支援装置。
  2. 請求項1に記載の入力支援装置において、更に、
    更新される上記空間座標が上記所定の面を通過した状態で、押下状態と判定する押下判定手段、
    を更に備え、
    上記表示制御手段は、
    更新される上記空間座標が上記所定の面を通過した状態で、上記複数の形状を互いに結合させた、分割前の上記形状を上記マーカーとして表示すること
    を特徴とする入力支援装置。
  3. 請求項2に記載の入力支援装置において、
    上記表示制御手段は、
    上記空間座標取得手段により更新される上記空間座標に基づいて、上記表示画面の対応する位置に、カーソルを更に表示させ、
    上記押下判定手段は、
    更新される上記空間座標が上記所定の面を通過した状態で、上記カーソルの位置を対象として上記押下状態と判定すること
    を特徴とする入力支援装置。
  4. 請求項1乃至3に記載の入力支援装置において、
    上記マーカーの分割前の上記形状は、
    円環、ドーナツ形状、その他、結合時の形状を容易に想像できる形状であること
    を特徴とする入力支援装置。
  5. 請求項1乃至4のいずれか一つに記載の入力支援装置において、
    上記所定の面は、上記表示画面から数センチメートル程度手前側に設定されており、
    上記利用者の所定の部位は、指、手、ないしは、掌であって、
    上記表示制御手段は、
    上記マーカーを上記所定の部位よりも大きく表示、または、上記マーカーの上記初期形状における離隔範囲を上記所定の部位よりも大きく表示させること
    を特徴とする入力支援装置。
  6. 請求項1乃至5のいずれか一つに記載の入力支援装置において、
    上記所定の面に対する上記空間座標の距離は、
    上記所定の面に対して利用者が位置する側における上記空間座標の距離であること
    を特徴とする入力支援装置。
  7. 請求項1乃至6のいずれか一つに記載の入力支援装置において、
    上記空間座標は、上記表示画面に平行な上記所定の面における2次元座標、および、上記所定の面に垂直な奥行き座標、からなる3次元座標であって、
    上記表示制御手段は、
    上記空間座標取得手段により更新される上記2次元座標の、上記表示画面に対応する位置に上記マーカーの中心を移動させるとともに、
    上記空間座標取得手段により更新される上記奥行き座標が上記所定の面に対して0に近づけば近づくほど、上記中心から離隔させた上記複数の形状を互いに接近させて一つの連続した形状として表示させること
    を特徴とする入力支援装置。
  8. コンピュータにおいて実行される入力支援方法であって、
    検出部を介して、利用者の所定の部位についての空間座標を連続的に取得する空間座標取得ステップと、
    上記空間座標取得ステップにて更新される上記空間座標に基づいて、表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う表示制御ステップと、
    を含み、
    上記マーカーの初期形状は、任意の形状を分割した複数の形状であって、
    上記表示制御ステップは、
    上記空間座標の座標系における所定の面に対して、上記空間座標の距離が大きいほど、上記表示画面の対応する位置から上記複数の形状を互いに離隔させ、当該距離が小さいほど、上記表示画面の対応する位置に上記複数の形状を互いに接近させること
    を特徴とする入力支援方法。
  9. コンピュータに実行させるためのプログラムであって、
    検出部を介して、利用者の所定の部位についての空間座標を連続的に取得する空間座標取得ステップと、
    上記空間座標取得ステップにて更新される上記空間座標に基づいて、表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う表示制御ステップと、
    を実行させるためのプログラムにおいて、
    上記マーカーの初期形状は、任意の形状を分割した複数の形状であって、
    上記表示制御ステップは、
    上記空間座標の座標系における所定の面に対して、上記空間座標の距離が大きいほど、上記表示画面の対応する位置から上記複数の形状を互いに離隔させ、当該距離が小さいほど、上記表示画面の対応する位置に上記複数の形状を互いに接近させること
    を特徴とするプログラム。
JP2013100590A 2013-05-10 2013-05-10 入力支援装置、入力支援方法、および、プログラム Pending JP2014219938A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013100590A JP2014219938A (ja) 2013-05-10 2013-05-10 入力支援装置、入力支援方法、および、プログラム
PCT/JP2014/062517 WO2014181876A1 (ja) 2013-05-10 2014-05-09 入力支援装置、入力支援方法、および、プログラム
EP14795029.9A EP2996022A4 (en) 2013-05-10 2014-05-09 SEIZURE ASSISTING DEVICE, SEIZURE ASSISTING METHOD, AND PROGRAM
US14/890,124 US20160092062A1 (en) 2013-05-10 2014-05-09 Input support apparatus, method of input support, and computer program
CN201480026167.3A CN105190506A (zh) 2013-05-10 2014-05-09 输入支援装置、输入支援方法以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013100590A JP2014219938A (ja) 2013-05-10 2013-05-10 入力支援装置、入力支援方法、および、プログラム

Publications (1)

Publication Number Publication Date
JP2014219938A true JP2014219938A (ja) 2014-11-20

Family

ID=51867348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013100590A Pending JP2014219938A (ja) 2013-05-10 2013-05-10 入力支援装置、入力支援方法、および、プログラム

Country Status (5)

Country Link
US (1) US20160092062A1 (ja)
EP (1) EP2996022A4 (ja)
JP (1) JP2014219938A (ja)
CN (1) CN105190506A (ja)
WO (1) WO2014181876A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018109938A (ja) * 2017-08-08 2018-07-12 京セラ株式会社 電子機器
JP2018518784A (ja) * 2015-05-15 2018-07-12 アシーア インコーポレイテッドAtheer, Inc. 面限定制御用に自由空間入力を適用する方法および装置
JP2018109871A (ja) * 2017-01-04 2018-07-12 京セラ株式会社 電子機器
US10747324B2 (en) 2016-11-02 2020-08-18 Panasonic Intellectual Property Management Co., Ltd. Gesture input system and gesture input method
WO2021117446A1 (ja) * 2019-12-13 2021-06-17 アルプスアルパイン株式会社 入力装置
JP2022522491A (ja) * 2019-03-01 2022-04-19 華為技術有限公司 ジェスチャ処理方法およびデバイス
WO2022181412A1 (ja) * 2021-02-24 2022-09-01 有限会社アドリブ 入力支援機構、入力システム
WO2023181237A1 (ja) * 2022-03-24 2023-09-28 三菱電機株式会社 非接触入力装置及び非接触入力方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10372204B2 (en) * 2013-10-30 2019-08-06 Technology Against Als Communication and control system and method
US10656780B2 (en) * 2018-01-12 2020-05-19 Mitutoyo Corporation Position specifying method and program
CN111727417A (zh) * 2018-02-19 2020-09-29 株式会社村上开明堂 操作检测装置和操作检测方法
US10928900B2 (en) 2018-04-27 2021-02-23 Technology Against Als Communication systems and methods
CN110456957B (zh) * 2019-08-09 2022-05-03 北京字节跳动网络技术有限公司 显示交互方法、装置、设备、存储介质
USD987652S1 (en) * 2019-09-11 2023-05-30 Ford Global Technologies, Llc Display screen with graphical user interface
USD955404S1 (en) * 2019-09-11 2022-06-21 Ford Global Technologies, Llc Display screen with graphical user interface
USD987666S1 (en) 2019-09-11 2023-05-30 Ford Global Technologies, Llc Display screen or portion thereof with transitional graphical user interface
CN111259871A (zh) * 2020-03-26 2020-06-09 广州微盾科技股份有限公司 完全非接触式手部生物信息的采集设备、方法及存储介质
JP2023059050A (ja) * 2021-10-14 2023-04-26 アルプスアルパイン株式会社 入力装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303000A (ja) * 2003-03-31 2004-10-28 Fuji Xerox Co Ltd 3次元指示入力装置
JP2007052793A (ja) * 2005-08-18 2007-03-01 Mitsubishi Electric Research Laboratories Inc ディスプレイ表面上にポインティングデバイスによって表示されるポインタの場所を制御するための方法
JP2007312930A (ja) * 2006-05-24 2007-12-06 Sony Computer Entertainment Inc ゲーム装置及びゲーム制御方法
JP2010015553A (ja) * 2008-06-03 2010-01-21 Shimane Pref Gov 画像認識装置および操作判定方法並びにプログラム
JP2011118857A (ja) * 2009-12-02 2011-06-16 Hyundai Motor Co Ltd 車両のマルチメディアシステム操作用ユーザーインターフェース装置
JP2012068854A (ja) * 2010-09-22 2012-04-05 Shimane Prefecture 操作入力装置および操作判定方法並びにプログラム
WO2012169106A1 (ja) * 2011-06-10 2012-12-13 Necカシオモバイルコミュニケーションズ株式会社 入力装置およびタッチパネルの制御方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070036075A (ko) * 2004-06-29 2007-04-02 코닌클리케 필립스 일렉트로닉스 엔.브이. 3-d 터치 상호작용에서의 터치-다운 피드-포워드
CN1977239A (zh) * 2004-06-29 2007-06-06 皇家飞利浦电子股份有限公司 3-d接触交互中的变焦
CN100437451C (zh) * 2004-06-29 2008-11-26 皇家飞利浦电子股份有限公司 用于防止弄脏显示设备的方法与设备
JP2008505381A (ja) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 表示装置の汚れを防ぐ方法及び装置
US8576181B2 (en) * 2008-05-20 2013-11-05 Lg Electronics Inc. Mobile terminal using proximity touch and wallpaper controlling method thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303000A (ja) * 2003-03-31 2004-10-28 Fuji Xerox Co Ltd 3次元指示入力装置
JP2007052793A (ja) * 2005-08-18 2007-03-01 Mitsubishi Electric Research Laboratories Inc ディスプレイ表面上にポインティングデバイスによって表示されるポインタの場所を制御するための方法
JP2007312930A (ja) * 2006-05-24 2007-12-06 Sony Computer Entertainment Inc ゲーム装置及びゲーム制御方法
JP2010015553A (ja) * 2008-06-03 2010-01-21 Shimane Pref Gov 画像認識装置および操作判定方法並びにプログラム
JP2011118857A (ja) * 2009-12-02 2011-06-16 Hyundai Motor Co Ltd 車両のマルチメディアシステム操作用ユーザーインターフェース装置
JP2012068854A (ja) * 2010-09-22 2012-04-05 Shimane Prefecture 操作入力装置および操作判定方法並びにプログラム
WO2012169106A1 (ja) * 2011-06-10 2012-12-13 Necカシオモバイルコミュニケーションズ株式会社 入力装置およびタッチパネルの制御方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018518784A (ja) * 2015-05-15 2018-07-12 アシーア インコーポレイテッドAtheer, Inc. 面限定制御用に自由空間入力を適用する方法および装置
US10747324B2 (en) 2016-11-02 2020-08-18 Panasonic Intellectual Property Management Co., Ltd. Gesture input system and gesture input method
JP2018109871A (ja) * 2017-01-04 2018-07-12 京セラ株式会社 電子機器
JP2018109938A (ja) * 2017-08-08 2018-07-12 京セラ株式会社 電子機器
JP2022522491A (ja) * 2019-03-01 2022-04-19 華為技術有限公司 ジェスチャ処理方法およびデバイス
JP7391102B2 (ja) 2019-03-01 2023-12-04 華為技術有限公司 ジェスチャ処理方法およびデバイス
WO2021117446A1 (ja) * 2019-12-13 2021-06-17 アルプスアルパイン株式会社 入力装置
JPWO2021117446A1 (ja) * 2019-12-13 2021-06-17
JP7365429B2 (ja) 2019-12-13 2023-10-19 アルプスアルパイン株式会社 入力装置
US11954312B2 (en) 2019-12-13 2024-04-09 Alps Alpine Co., Ltd. Input device adapted to receive a touch input and a hover input
WO2022181412A1 (ja) * 2021-02-24 2022-09-01 有限会社アドリブ 入力支援機構、入力システム
WO2023181237A1 (ja) * 2022-03-24 2023-09-28 三菱電機株式会社 非接触入力装置及び非接触入力方法

Also Published As

Publication number Publication date
CN105190506A (zh) 2015-12-23
WO2014181876A1 (ja) 2014-11-13
EP2996022A4 (en) 2016-12-14
US20160092062A1 (en) 2016-03-31
EP2996022A1 (en) 2016-03-16

Similar Documents

Publication Publication Date Title
JP2014219938A (ja) 入力支援装置、入力支援方法、および、プログラム
JP6371475B2 (ja) 視線入力装置、視線入力方法、および、視線入力プログラム
US9529527B2 (en) Information processing apparatus and control method, and recording medium
US9020194B2 (en) Systems and methods for performing a device action based on a detected gesture
US9569010B2 (en) Gesture-based human machine interface
US20150220150A1 (en) Virtual touch user interface system and methods
US20150220149A1 (en) Systems and methods for a virtual grasping user interface
EP2840478B1 (en) Method and apparatus for providing user interface for medical diagnostic apparatus
US20130222239A1 (en) Asymmetric mapping for tactile and non-tactile user interfaces
JP5507773B1 (ja) 要素選択装置、要素選択方法、および、プログラム
JP2019023849A (ja) 入力制御方法、コンピュータ、および、プログラム
JP6325659B2 (ja) 操作画面表示装置、操作画面表示方法およびプログラム
KR101233793B1 (ko) 손 동작 인식을 이용한 가상 마우스 구동 방법
JP5882270B2 (ja) 情報処理装置、プログラム
US20140168165A1 (en) Electronic device with virtual touch function and instant adjusting method for virtual touch
JP2016119019A (ja) 情報処理装置、情報処理方法、プログラム
KR101394604B1 (ko) 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치
KR101436588B1 (ko) 멀티 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
JP6722239B2 (ja) 情報処理装置、入力方法及びプログラム
JP6256545B2 (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
JP2021177313A (ja) 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム
KR20140086805A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록매체
KR101780546B1 (ko) 터치 입력의 트레이스 기반 링 유저 인터페이스의 입력 방법, 애플리케이션 및 컴퓨터 판독 가능한 기록 매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170516