JPWO2017134732A1 - Input device, input support method, and input support program - Google Patents

Input device, input support method, and input support program Download PDF

Info

Publication number
JPWO2017134732A1
JPWO2017134732A1 JP2017564988A JP2017564988A JPWO2017134732A1 JP WO2017134732 A1 JPWO2017134732 A1 JP WO2017134732A1 JP 2017564988 A JP2017564988 A JP 2017564988A JP 2017564988 A JP2017564988 A JP 2017564988A JP WO2017134732 A1 JPWO2017134732 A1 JP WO2017134732A1
Authority
JP
Japan
Prior art keywords
input
mode
unit
information
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017564988A
Other languages
Japanese (ja)
Inventor
境 克司
克司 境
村瀬 有一
有一 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2017134732A1 publication Critical patent/JPWO2017134732A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

ウェアラブルデバイスは、入力を受け付けるスイッチを備えると共に人体に装着され、姿勢センサを有する。ウェアラブルデバイスは、姿勢センサから出力される運動情報を取得する。そして、ウェアラブルデバイスは、取得された運動情報のうちスイッチが入力されている期間で取得された運動情報を用いて、第1のモードまたは第2のモードのいずれか一方の動作モードに対応する情報を出力する。また、ウェアラブルデバイスは、取得された運動情報のうちスイッチが入力されていない期間で取得された運動情報が予め設定された条件を満たす場合は、動作モードを他方の動作モードに切り替える。The wearable device includes a switch that receives an input, is mounted on a human body, and has a posture sensor. The wearable device acquires motion information output from the posture sensor. The wearable device uses the exercise information acquired in the period when the switch is input among the acquired exercise information, and corresponds to the operation mode of either the first mode or the second mode. Is output. Further, the wearable device switches the operation mode to the other operation mode when the exercise information acquired in a period in which the switch is not input among the acquired exercise information satisfies a preset condition.

Description

本発明は、入力装置、入力支援方法および入力支援プログラムに関する。   The present invention relates to an input device, an input support method, and an input support program.

スマートウォッチやスマートグラスなどのウェアラブルデバイスの市場への投入が進み、従来のパソコンやスマートフォンとは異なる新しいサービスが普及している。このようなウェアラブルデバイスは、身に着けて使用されることから、画面を触って操作するなどの入力が難しい。   With the introduction of wearable devices such as smart watches and smart glasses, new services different from conventional personal computers and smartphones are spreading. Since such a wearable device is worn and used, it is difficult to input by touching the screen.

従来から、ウェアラブルデバイスに対して音声によって文字等を入力する手法が知られている。近年では、センサを有するウェアラブルデバイスを指に装着し、指の動きによるジェスチャで簡単なコマンドや手書き文字を、ウェアラブルデバイスと無線通信されるデバイスへ入力する手法が知られている。   2. Description of the Related Art Conventionally, a method for inputting characters and the like by voice to a wearable device is known. In recent years, a method is known in which a wearable device having a sensor is worn on a finger and a simple command or handwritten character is input to a device wirelessly communicated with the wearable device by a gesture of finger movement.

特開2011−008604号公報JP 2011-008604 A 特開2000−250704号公報JP 2000-250704 A 特開2015−133088号公報Japanese Patent Laid-Open No. 2015-133308 特開2010−250708号公報JP 2010-250708 A

しかしながら、上記技術では、ウェアラブルデバイスの入力モードを切り替える際の操作性がよくない。例えば、上記ウェアラブルデバイスをマウスなどと同様にポインタデバイスとして使用する場合や手書き入力を行うデバイスとして使用することが考えられる。この場合、ウェアラブルデバイスと接続される表示デバイス側で、ポインタとして使用する場合のアプリケーションと手書き入力を行う場合のアプリケーションとを切り替えることになり、ユーザの利便性が悪い。   However, the above technique does not provide good operability when switching the input mode of the wearable device. For example, when the wearable device is used as a pointer device like a mouse or the like, it can be used as a device for handwritten input. In this case, the display device connected to the wearable device switches between an application for use as a pointer and an application for handwriting input, which is inconvenient for the user.

1つの側面では、操作性を向上させることができる入力装置、入力支援方法および入力支援プログラムを提供することを目的とする。   An object of one aspect is to provide an input device, an input support method, and an input support program that can improve operability.

第1の案では、入力装置は、入力を受け付けるスイッチを備えると共に人体に装着され、モーションセンサを有する。入力装置は、前記モーションセンサから出力される運動情報を取得する取得部を有する。入力装置は、前記取得部により取得された前記運動情報のうち前記スイッチが入力されている期間で取得された運動情報を用いて、第1のモードまたは第2のモードのいずれか一方の動作モードに対応する情報を出力する出力部を有する。入力装置は、前記取得部により取得された前記運動情報のうち前記スイッチが入力されていない期間で取得された運動情報が予め設定された条件を満たす場合は、前記動作モードを他方の動作モードに切り替える切替部を有する。   In the first proposal, the input device includes a switch that receives an input, is attached to a human body, and includes a motion sensor. The input device includes an acquisition unit that acquires exercise information output from the motion sensor. The input device uses either the first mode or the second mode of operation mode using the exercise information acquired during the period when the switch is input among the exercise information acquired by the acquisition unit. And an output unit for outputting information corresponding to. When the exercise information acquired during the period when the switch is not input among the exercise information acquired by the acquisition unit satisfies a preset condition, the input device sets the operation mode to the other operation mode. A switching unit for switching is provided.

一実施形態によれば、操作性を向上させることができる。   According to one embodiment, operability can be improved.

図1は、実施例1にかかるシステムの全体構成例を示す図である。FIG. 1 is a diagram illustrating an example of the overall configuration of a system according to the first embodiment. 図2Aは、ウェアラブルデバイスの一例を示す図である。FIG. 2A is a diagram illustrating an example of a wearable device. 図2Bは、ウェアラブルデバイスの一例を示す図である。FIG. 2B is a diagram illustrating an example of a wearable device. 図2Cは、ウェアラブルデバイスの一例を示す図である。FIG. 2C is a diagram illustrating an example of a wearable device. 図2Dは、ウェアラブルデバイスのスイッチに対する操作の一例を示す図である。FIG. 2D is a diagram illustrating an example of an operation on a switch of the wearable device. 図3は、ヘッドマウントディスプレイの一例を示す図である。FIG. 3 is a diagram illustrating an example of a head mounted display. 図4は、実施例1にかかるシステムの機能構成を示す機能ブロック図である。FIG. 4 is a functional block diagram of the functional configuration of the system according to the first embodiment. 図5は、指の回転軸の一例を示す図である。FIG. 5 is a diagram illustrating an example of a rotation axis of a finger. 図6は、ウェアラブルデバイスからの出力例を示す図である。FIG. 6 is a diagram illustrating an output example from the wearable device. 図7は、通信経路を説明する図である。FIG. 7 is a diagram for explaining a communication path. 図8は、手書き入力された文字の軌跡の表示結果の一例を示す図である。FIG. 8 is a diagram illustrating an example of a display result of a locus of characters input by handwriting. 図9は、ポインタの動作例を示す図である。FIG. 9 is a diagram illustrating an example of the operation of the pointer. 図10は、処理の流れを示すフローチャートである。FIG. 10 is a flowchart showing the flow of processing. 図11は、実施例2の通信経路を説明する図である。FIG. 11 is a diagram illustrating a communication path according to the second embodiment. 図12は、軌跡の補正例を説明する図である。FIG. 12 is a diagram for explaining a correction example of the trajectory. 図13は、入力支援プログラムを実行するコンピュータの一例を示す説明図である。FIG. 13 is an explanatory diagram illustrating an example of a computer that executes an input support program.

以下に、本発明にかかる入力装置、入力支援方法および入力支援プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。   Hereinafter, embodiments of an input device, an input support method, and an input support program according to the present invention will be described in detail with reference to the drawings. Note that the present invention is not limited to the embodiments. In addition, the embodiments can be appropriately combined within a consistent range.

[全体構成]
図1は、実施例1にかかるシステムの全体構成例を示す図である。図1に示す入力システムは、ウェアラブルデバイス10と、ヘッドマウントディスプレイ30と、入力装置50とを有する。ウェアラブルデバイス10とヘッドマウントディスプレイ30と入力装置50は、ネットワークを介して通信可能に接続され、各種の情報を交換することが可能とされている。かかるネットワークの一態様としては、有線または無線を問わず、携帯電話などの移動体通信、インターネット(Internet)、LAN(Local Area Network)やVPN(Virtual Private Network)などの任意の種類の通信網を採用できる。本実施例では、ウェアラブルデバイス10とヘッドマウントディスプレイ30と入力装置50が無線通信により通信を行う場合を例に説明する。
[overall structure]
FIG. 1 is a diagram illustrating an example of the overall configuration of a system according to the first embodiment. The input system shown in FIG. 1 includes a wearable device 10, a head mounted display 30, and an input device 50. The wearable device 10, the head mounted display 30, and the input device 50 are communicably connected via a network and can exchange various types of information. As an aspect of such a network, any type of communication network such as mobile communication such as a cellular phone, the Internet (Internet), a LAN (Local Area Network), a VPN (Virtual Private Network), or the like, regardless of wired or wireless. Can be adopted. In the present embodiment, a case where the wearable device 10, the head mounted display 30, and the input device 50 communicate by wireless communication will be described as an example.

入力システムは、ユーザの入力の支援を行うシステムである。例えば、入力システムは、工場などでのユーザの作業支援に用いられ、ユーザがメモなどを取る場合や他の装置へのコマンド発行などに使用される。ユーザは、様々な場所を移動しながら作業する場合がある。このため、パーソナルコンピュータなどの固定端末ではなく、ウェアラブルデバイス10を用いて各種入力を可能とすることにより、ユーザは、様々な場所を移動しながら入力を行うことができる。   The input system is a system that supports user input. For example, the input system is used for user work support in a factory or the like, and is used when the user takes notes or issues commands to other devices. A user may work while moving in various places. For this reason, by enabling various inputs using the wearable device 10 instead of a fixed terminal such as a personal computer, the user can input while moving in various places.

ウェアラブルデバイス10は、ユーザが身に着けて使用し、ユーザの指操作やジェスチャを検出するデバイスである。本実施例では、ウェアラブルデバイス10を、指に装着するデバイスとする。ウェアラブルデバイス10は、マウスなどのようなポインタ(ポインティング)デバイスや空中手書き入力用デバイスとして機能する。また、ウェアラブルデバイス10は、指の姿勢変化を検出し、指の姿勢変化に関する情報を入力装置50へ送信する。なお、本実施例では、ポインタデバイス(ポインティングデバイス)として機能する場合をポインタモード、空中手書き入力用デバイスとして機能する場合を手書きモードと記載する場合がある。   The wearable device 10 is a device that a user wears and uses and detects a user's finger operation and gesture. In the present embodiment, the wearable device 10 is a device worn on a finger. The wearable device 10 functions as a pointer (pointing) device such as a mouse or an aerial handwriting input device. The wearable device 10 detects a change in the posture of the finger and transmits information related to the change in the posture of the finger to the input device 50. In this embodiment, the case of functioning as a pointer device (pointing device) may be referred to as a pointer mode, and the case of functioning as an aerial handwriting input device may be referred to as a handwriting mode.

図2A〜図2Cは、ウェアラブルデバイスの一例を示す図である。ウェアラブルデバイス10は、指輪のように、リング形状とされており、図2Cに示すように、リングに指を通すことで指への装着が可能とされている。ウェアラブルデバイス10は、リングの一部分が他の部分より厚く且つ幅広に形成され、主要な電子部品を内蔵する部品内蔵部とされている。また、ウェアラブルデバイス10は、リングの部品内蔵部の内面が平面状に形成されている。すなわち、ウェアラブルデバイス10は、部品内蔵部を指の上側にした場合に指とフィットしやすい形状となっている。   2A to 2C are diagrams illustrating an example of a wearable device. The wearable device 10 has a ring shape like a ring, and can be attached to the finger by passing the finger through the ring as shown in FIG. 2C. In the wearable device 10, a part of the ring is formed thicker and wider than the other part, and is a component built-in part that incorporates main electronic components. Further, the wearable device 10 has a flat inner surface of a ring-containing component part. That is, the wearable device 10 has a shape that easily fits with a finger when the component built-in part is placed above the finger.

ウェアラブルデバイス10は、図2Cに示すように、部品内蔵部を指の上側としてほぼ同様の向きで指に装着される。また、ウェアラブルデバイス10は、図2Aに示すように、リングの側面側にスイッチ14が設けられている。また、図2Aに示すように、ウェアラブルデバイス10には、LED発光部10aと10bとが設けられており、例えばLED発光部10aは赤色に発光し、LED発光部10bは緑色に発光する。スイッチ14は、図2Cに示すように、ウェアラブルデバイス10を右手の人差指に装着した場合に親指に対応する位置に配置されている。ウェアラブルデバイス10は、スイッチ14の周辺部分が、スイッチ14の上面と同様の高さまで***させた形状に形成されている。これにより、ウェアラブルデバイス10は、指をスイッチ14部分に置いただけではスイッチ14がオンとならない。   As shown in FIG. 2C, the wearable device 10 is attached to the finger in a substantially similar orientation with the component built-in portion as the upper side of the finger. In addition, as shown in FIG. 2A, the wearable device 10 is provided with a switch 14 on the side surface side of the ring. As shown in FIG. 2A, the wearable device 10 includes LED light emitting units 10a and 10b. For example, the LED light emitting unit 10a emits red light, and the LED light emitting unit 10b emits green light. As shown in FIG. 2C, the switch 14 is disposed at a position corresponding to the thumb when the wearable device 10 is worn on the index finger of the right hand. The wearable device 10 is formed in a shape in which the peripheral portion of the switch 14 is raised to the same height as the upper surface of the switch 14. As a result, the wearable device 10 does not turn on the switch 14 simply by placing a finger on the switch 14 portion.

図2Dは、ウェアラブルデバイスのスイッチに対する操作の一例を示す図である。図2Dの例は、ウェアラブルデバイス10を人差指に装着してスイッチ14を親指で操作する場合を示している。ウェアラブルデバイス10は、図2Dの左側に示すように、親指をスイッチ14部分に置いただけではスイッチ14がオンされず、図2Dの右側に示すように、親指を押し込むことでスイッチ14がオンされる。ユーザは、入力開始時においては、指を入力ポジションにそえ、入力を行う際に指で押し込むことで入力を開始する。   FIG. 2D is a diagram illustrating an example of an operation on a switch of the wearable device. The example of FIG. 2D shows a case where the wearable device 10 is attached to the index finger and the switch 14 is operated with the thumb. In the wearable device 10, as shown on the left side of FIG. 2D, the switch 14 is not turned on only by placing the thumb on the switch 14, and the switch 14 is turned on by pushing the thumb as shown on the right side of FIG. 2D. . At the start of input, the user places the finger on the input position, and starts input by pushing the finger with the finger when performing input.

スイッチ14は、縮んだ状態でオン状態となり、伸びた状態でオフ状態となり、内蔵されたバネなどの弾性体により伸張した状態となるように付勢されている。これにより、スイッチ14は、指で押し込まれることでオン状態となり、指の力を抜き緩めることでオフ状態となる。このように構成することで、ウェアラブルデバイス10は、正常な状態で装着されないと入力を開始することができず、指に装着した際に装着位置が正常な状態の位置に自然に矯正される。また、ユーザは、指をスイッチ14から離さずに入力、非入力区間をコントロールできる。   The switch 14 is energized so that it is turned on when it is contracted, turned off when it is stretched, and stretched by an elastic body such as a built-in spring. As a result, the switch 14 is turned on when it is pressed with a finger, and is turned off when the finger force is released. With this configuration, the wearable device 10 cannot start input unless it is worn in a normal state, and when it is worn on the finger, the wearing position is naturally corrected to a normal position. Further, the user can control the input / non-input section without releasing the finger from the switch 14.

図1に戻り、ヘッドマウントディスプレイ30は、ユーザが頭に装着し、各種の情報をユーザに視認可能に表示するデバイスである。ヘッドマウントディスプレイ30は、両眼に対応したものであってもよく、片眼のみに対応したものであってもよい。   Returning to FIG. 1, the head mounted display 30 is a device that is worn by the user on the head and displays various types of information so as to be visible to the user. The head mounted display 30 may be compatible with both eyes or may be compatible with only one eye.

図3は、ヘッドマウントディスプレイの一例を示す図である。本実施例では、ヘッドマウントディスプレイ30は、両眼に対応する眼鏡形状とされている。ヘッドマウントディスプレイ30は、ユーザが装着したままでも、外部の現実環境を視認可能なように、レンズ部分に透過性を有する。また、ヘッドマウントディスプレイ30は、レンズ部分の一部に透過性を有する表示部が内蔵され、表示部に画像などの各種の情報の表示が可能とされている。これにより、ヘッドマウントディスプレイ30は、装着したユーザに現実環境を視認させつつ、視界の一部で各種の情報を視認させて現実環境を拡張する拡張現実を実現する。図3には、装着したユーザの視界30Aの一部に設けられた表示部30Bが模式的に示されている。   FIG. 3 is a diagram illustrating an example of a head mounted display. In the present embodiment, the head mounted display 30 has a glasses shape corresponding to both eyes. The head-mounted display 30 has transparency in the lens portion so that an external real environment can be visually recognized even when the user is wearing the head-mounted display 30. In addition, the head mounted display 30 includes a display unit having transparency in a part of the lens portion, and various types of information such as images can be displayed on the display unit. As a result, the head mounted display 30 realizes augmented reality in which the actual environment is expanded by visually recognizing various information in a part of the field of view while allowing the wearing user to visually recognize the actual environment. FIG. 3 schematically shows a display unit 30B provided in a part of the field of view 30A of the user who wears it.

また、ヘッドマウントディスプレイ30は、2つのレンズ部分の間にカメラが内蔵され、当該カメラにより、装着したユーザの視線方向の画像の撮影が可能とされている。   The head mounted display 30 has a camera built in between two lens portions, and the camera can take an image in the line-of-sight direction of the user wearing the head mounted display 30.

図1に戻り、入力装置50は、ユーザの指操作による各種入力を支援する装置である。入力装置50は、例えば、スマートフォンやタブレット端末など、携帯可能な情報処理装置である。なお、入力装置50は、データセンタなどに設けられた1台または複数台のコンピュータとして実装してもよい。すなわち、入力装置50は、ウェアラブルデバイス10およびヘッドマウントディスプレイ30と通信可能であれば、クラウドのコンピュータであってもよい。   Returning to FIG. 1, the input device 50 is a device that supports various inputs by user's finger operation. The input device 50 is a portable information processing device such as a smartphone or a tablet terminal. The input device 50 may be implemented as one or a plurality of computers provided in a data center or the like. That is, the input device 50 may be a cloud computer as long as it can communicate with the wearable device 10 and the head mounted display 30.

このような入力システムは、ウェアラブルデバイス10が有するモーションセンサから出力される運動情報を取得する。入力システムは、取得された運動情報のうちスイッチ14が入力されている期間で取得された運動情報を用いて、第1のモードまたは第2のモードのいずれか一方の動作モードに対応する情報を出力する。また、入力システムは、取得された運動情報のうちスイッチ14が入力されていない期間で取得された運動情報が予め設定された条件を満たす場合は、動作モードを他方の動作モードに切り替える。   Such an input system acquires motion information output from a motion sensor included in the wearable device 10. The input system uses the exercise information acquired during the period in which the switch 14 is input among the acquired exercise information, and obtains information corresponding to one of the operation modes of the first mode or the second mode. Output. The input system switches the operation mode to the other operation mode when the exercise information acquired during the period when the switch 14 is not input among the acquired exercise information satisfies a preset condition.

例えば、入力システムは、所定時間内に、ウェアラブルデバイス10が所定値以上の加速度で所定回数移動した場合に、現在選択中の動作モードを他方の動作モードに切り替える。つまり、入力システムは、ヘッドマウントディスプレイ30などの表示装置側でアプリなどの切替操作を行わずに、ウェアラブルデバイス10を動かすことで、動作モードを切り替えることができる。したがって、操作性を向上させることができる。   For example, the input system switches the currently selected operation mode to the other operation mode when the wearable device 10 moves a predetermined number of times with an acceleration equal to or greater than a predetermined value within a predetermined time. That is, the input system can switch the operation mode by moving the wearable device 10 without performing a switching operation of an application or the like on the display device side such as the head mounted display 30. Therefore, operability can be improved.

[各装置の構成]
次に、図1に示した入力システムの機能構成を説明する。図4は、実施例1にかかるシステムの機能構成を示す機能ブロック図である。ここでは、ウェアラブルデバイス10、ヘッドマウントディスプレイ30、入力装置50の機能構成について説明する。
[Configuration of each device]
Next, the functional configuration of the input system shown in FIG. 1 will be described. FIG. 4 is a functional block diagram of the functional configuration of the system according to the first embodiment. Here, functional configurations of the wearable device 10, the head mounted display 30, and the input device 50 will be described.

(ウェアラブルデバイスの機能構成)
図4に示すように、ウェアラブルデバイス10は、無線部11、記憶部12、加速度センサ13、スイッチ14、姿勢センサ15、制御部20を有する。なお、ウェアラブルデバイス10は、上記の機器以外の他の機器を有してもよい。
(Functional configuration of wearable device)
As illustrated in FIG. 4, the wearable device 10 includes a wireless unit 11, a storage unit 12, an acceleration sensor 13, a switch 14, a posture sensor 15, and a control unit 20. The wearable device 10 may have other devices other than the above devices.

無線部11は、他の装置との間で無線の通信制御を行うインタフェースである。無線部11としては、無線チップなどのネットワークインタフェースカードを採用できる。また、無線部11は、無線により通信を行うデバイスであり、無線により他の装置と各種情報を送受信する。例えば、無線部11は、指の操作情報や姿勢変化情報などの各種情報を入力装置50へ送信する。   The wireless unit 11 is an interface that performs wireless communication control with other devices. As the wireless unit 11, a network interface card such as a wireless chip can be adopted. The wireless unit 11 is a device that communicates wirelessly, and transmits and receives various information to and from other devices wirelessly. For example, the wireless unit 11 transmits various information such as finger operation information and posture change information to the input device 50.

例えば、無線部11は、入力装置50との間で2つの通信経路を確立する。具体的には、無線部11は、ブルートゥース(登録商標)の標準プロファイルの1つであるHID(Human Interface Device Profile)による、ポインタ情報を送信する経路と、手書き入力用に予め設定したUserProfile(ユーザプロファイル)による経路とを接続する。   For example, the wireless unit 11 establishes two communication paths with the input device 50. Specifically, the wireless unit 11 transmits a pointer information transmission path according to HID (Human Interface Device Profile), which is one of the standard profiles of Bluetooth (registered trademark), and a UserProfile (user) set in advance for handwriting input. Connect the route by profile.

記憶部12は、制御部20が実行するプログラムや各種情報を記憶する記憶装置であり、例えばハードディスクやメモリなどである。例えば、記憶部12は、制御部20で生成される各種情報、制御部20が実行する処理の中間データなどを記憶する。   The storage unit 12 is a storage device that stores programs executed by the control unit 20 and various types of information, such as a hard disk and a memory. For example, the storage unit 12 stores various information generated by the control unit 20, intermediate data of processing executed by the control unit 20, and the like.

加速度センサ13は、ウェアラブルデバイス10の加速度を検知するセンサであり、例えば3軸加速度センサである。例えば、加速度センサ13は、測定した加速度を制御部20に出力する。   The acceleration sensor 13 is a sensor that detects the acceleration of the wearable device 10, and is, for example, a three-axis acceleration sensor. For example, the acceleration sensor 13 outputs the measured acceleration to the control unit 20.

スイッチ14は、ユーザからの入力を受け付けるデバイスである。スイッチ14は、図2Cに示したように、ウェアラブルデバイス10のリングの側面側に設けられている。スイッチ14は、押されるとオンとなり、離されるとオフとなる。スイッチ14は、ユーザからの操作入力を受け付ける。例えば、ウェアラブルデバイス10がユーザの人差指に装着された場合、スイッチ14は、ユーザの親指による操作入力を受け付ける。スイッチ14は、受け付けた操作内容を示す操作情報を制御部20へ出力する。ユーザは、スイッチ14を操作して各種の入力を行う。例えば、ユーザは、指操作による入力を開始する際、スイッチ14をオンする。   The switch 14 is a device that receives input from the user. The switch 14 is provided on the side of the ring of the wearable device 10 as shown in FIG. 2C. The switch 14 is turned on when pressed, and turned off when released. The switch 14 receives an operation input from the user. For example, when the wearable device 10 is worn on the user's index finger, the switch 14 receives an operation input by the user's thumb. The switch 14 outputs operation information indicating the received operation content to the control unit 20. The user performs various inputs by operating the switch 14. For example, the user turns on the switch 14 when starting input by finger operation.

姿勢センサ15は、ユーザの指操作を検出するデバイスであり、モーションセンサの一例である。例えば、姿勢センサ15は、3軸のジャイロセンサなどを採用できる。姿勢センサ15は、図2Cに示すように、ウェアラブルデバイス10が正しく指に装着された場合、3軸が指の回転軸と対応するようにウェアラブルデバイス10に内蔵されている。図5は、指の回転軸の一例を示す図である。図5の例では、互いに直交するX、Y、Zの3軸が示されている。図5の例では、指を曲げる動作方向の回転軸がY軸とされ、指を左右に振る動作方向の回転軸がZ軸とされ、指を回す動作方向の回転軸がX軸とされている。姿勢センサ15は、制御部20からの制御に応じて、X、Y、Zの各回転軸の回転を検出し、検出された3軸の回転を指の姿勢変化を示す姿勢変化情報として制御部20へ出力する。   The posture sensor 15 is a device that detects a user's finger operation, and is an example of a motion sensor. For example, the attitude sensor 15 can employ a triaxial gyro sensor or the like. As shown in FIG. 2C, the posture sensor 15 is built in the wearable device 10 so that the three axes correspond to the rotation axis of the finger when the wearable device 10 is correctly attached to the finger. FIG. 5 is a diagram illustrating an example of a rotation axis of a finger. In the example of FIG. 5, three axes of X, Y, and Z that are orthogonal to each other are shown. In the example of FIG. 5, the rotation axis in the movement direction for bending the finger is the Y axis, the rotation axis in the movement direction for swinging the finger left and right is the Z axis, and the rotation axis in the movement direction for turning the finger is the X axis. Yes. The posture sensor 15 detects the rotation of each of the X, Y, and Z rotation axes in accordance with the control from the control unit 20, and uses the detected three-axis rotation as posture change information indicating the posture change of the finger. 20 output.

制御部20は、ウェアラブルデバイス10を制御するデバイスである。制御部20としては、マイコン、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路を採用できる。制御部20は、無線部11を介して、スイッチ14の操作情報を入力装置50へ送信する。また、制御部20は、スイッチ14がオンとなると、姿勢センサ15を制御して姿勢変化を検出させる。制御部20は、無線部11を介して、姿勢センサ15により検出される姿勢変化情報などを入力装置50へ送信する。   The control unit 20 is a device that controls the wearable device 10. As the control unit 20, an integrated circuit such as a microcomputer, an application specific integrated circuit (ASIC), or a field programmable gate array (FPGA) can be employed. The control unit 20 transmits operation information of the switch 14 to the input device 50 via the wireless unit 11. Further, when the switch 14 is turned on, the control unit 20 controls the posture sensor 15 to detect a posture change. The control unit 20 transmits posture change information detected by the posture sensor 15 to the input device 50 via the wireless unit 11.

このような制御部20は、検出部21、モード選択部22、モード切替部23、情報生成部24、出力部25を有する。   Such a control unit 20 includes a detection unit 21, a mode selection unit 22, a mode switching unit 23, an information generation unit 24, and an output unit 25.

検出部21は、姿勢センサ15から出力されるセンサ値、すなわち運動情報を検出する処理部である。具体的には、検出部21は、スイッチ14がオンにされた時点の位置を基準に設定し、スイッチ14がオンからオフになるまで、基準からの移動履歴を検出し続けて、検出する移動履歴を運動情報として検出する。なお、移動履歴としては、座標や3軸ジャイロを用いることもでき、座標と3軸ジャイロとを組み合わせた情報を用いることもできる。また、検出部21は、スイッチ14がオンにされた時、オフにされた時、動きが停止した停止時間などを、運動情報の該当箇所に対応付けて出力することもできる。   The detection unit 21 is a processing unit that detects a sensor value output from the attitude sensor 15, that is, motion information. Specifically, the detection unit 21 sets the position at the time when the switch 14 is turned on as a reference, and continues to detect the movement history from the reference until the switch 14 turns from on to off, and the detected movement. The history is detected as exercise information. In addition, as a movement history, a coordinate and a triaxial gyroscope can also be used, and the information which combined a coordinate and a triaxial gyroscope can also be used. Moreover, the detection part 21 can also output the stop time etc. which a motion stopped, matched with the applicable location of exercise | movement information, when the switch 14 was turned on, when it was turned off.

モード選択部22は、ポインタモードか手書きモードかのいずれかを選択する処理部である。例えば、モード選択部22は、初期モードとしてはポインタモードを選択し、選択した動作モードの情報を出力部25に通知する。また、モード選択部22は、後述するモード切替部23による指示によって切替が指示された場合は、選択している動作モードを他方に切り替える。例えば、モード選択部22は、ポインタモードを選択中に切り替え指示を受付けると、手書きモードに切り替えて、切り替えた動作モードを出力部25に通知する。なお、初期モードは任意に設定変更することができる。   The mode selection unit 22 is a processing unit that selects either the pointer mode or the handwriting mode. For example, the mode selection unit 22 selects the pointer mode as the initial mode, and notifies the output unit 25 of information on the selected operation mode. Further, when switching is instructed by an instruction from a mode switching unit 23 described later, the mode selection unit 22 switches the selected operation mode to the other. For example, when the mode selection unit 22 receives a switching instruction while the pointer mode is selected, the mode selection unit 22 switches to the handwriting mode and notifies the output unit 25 of the switched operation mode. The initial mode can be arbitrarily changed.

モード切替部23は、スイッチ14が入力されていない期間で取得された運動情報が予め設定された動作を検出した場合、動作モードを他方の動作モードに切り替える処理部である。例えば、モード切替部23は、スイッチ14がオフの状態で、例えば1秒以内に、ウェアラブルデバイス10の加速度が2回所定値以上になった場合に、モード切替指示をモード選択部22に通知する。   The mode switching unit 23 is a processing unit that switches the operation mode to the other operation mode when the exercise information acquired in a period when the switch 14 is not input detects a preset operation. For example, the mode switching unit 23 notifies the mode selection unit 22 of a mode switching instruction when the acceleration of the wearable device 10 exceeds a predetermined value twice within one second, for example, in a state where the switch 14 is off. .

例を挙げると、モード切替部23は、スイッチ14がオフになったことを検知すると、ウェアラブルデバイス10をアイドル状態に遷移させる。つまり、モード切替部23は、スイッチ14のオフ時は、姿勢センサ15による検出を抑制する。   For example, when the mode switching unit 23 detects that the switch 14 is turned off, the mode switching unit 23 causes the wearable device 10 to transition to an idle state. That is, the mode switching unit 23 suppresses detection by the attitude sensor 15 when the switch 14 is off.

そして、モード切替部23は、このアイドル状態から、加速度センサ13を介して閾値(α(m/s))以上の加速度を検知した後、1秒以内に、閾値(α(m/s))以上の加速度を再度検知した場合に、モード切替操作を検出する。その後、モード切替部23は、モード切替指示をモード選択部22に出力する。The mode switching unit 23, from the idle state, after detecting an acceleration above a threshold value (α (m / s 2) ) through an acceleration sensor 13, within one second, the threshold value (α (m / s 2 )) A mode switching operation is detected when the above acceleration is detected again. Thereafter, the mode switching unit 23 outputs a mode switching instruction to the mode selection unit 22.

なお、モード切替部23は、モード切替操作時に、選択中のモードをユーザに報知することもできる。例えば、モード切替部23は、アイドル状態で閾値以上の加速度を検知した場合、選択されているモードに対応するLED発光部10aを点灯させる。その後、モード切替部23は、モード切替操作を検知すると、他方のLED発光部10bを発光させる。   Note that the mode switching unit 23 can also notify the user of the mode being selected during the mode switching operation. For example, when the mode switching unit 23 detects an acceleration equal to or higher than the threshold value in the idle state, the mode switching unit 23 lights the LED light emitting unit 10a corresponding to the selected mode. Thereafter, when the mode switching unit 23 detects a mode switching operation, the other LED light emitting unit 10b emits light.

情報生成部24は、検出部21から受信した運動情報から、スイッチ14がオンからオフになるまでの一連の運動情報を抽出して、指の移動軌跡を生成する処理部である。つまり、情報生成部24は、スイッチ14がオンからオフになるまでの1つのセグメントで、指が移動した一連の移動情報を抽出して移動軌跡を生成する。   The information generation unit 24 is a processing unit that extracts a series of exercise information from the exercise information received from the detection unit 21 until the switch 14 is turned off and generates a finger movement locus. That is, the information generation unit 24 generates a movement locus by extracting a series of movement information about the movement of the finger in one segment until the switch 14 is turned on.

また、情報生成部24は、検出部21から受信した運動情報から、指の運動開始から終了までの期間を抽出し、各期間内の運動情報を抽出して、指の移動軌跡を生成する。つまり、情報生成部24は、複数のセグメントを抽出し、一つ一つのセグメントにおける指の操作を特定する移動情報を抽出した後、一連の移動情報から指の移動軌跡を生成する。   In addition, the information generation unit 24 extracts a period from the start to the end of finger movement from the movement information received from the detection unit 21, extracts movement information within each period, and generates a finger movement trajectory. That is, the information generation unit 24 extracts a plurality of segments, extracts movement information for specifying a finger operation in each segment, and then generates a finger movement locus from a series of movement information.

例えば、情報生成部24は、運動情報において、スイッチ14がオンになった位置を基準に設定し、スイッチ14がオフになった位置を終了位置に設定する。そして、情報生成部24は、基準を軌跡の開始に設定し、開始から終了位置までを結んだ軌跡を生成する。その後、情報生成部24は、生成した軌跡情報を生成時間などと対応付けて記憶部12に格納する。また、情報生成部24は、生成した軌跡情報を出力部25に出力する。   For example, in the exercise information, the information generation unit 24 sets the position where the switch 14 is turned on as a reference, and sets the position where the switch 14 is turned off as the end position. Then, the information generation unit 24 sets the reference to the start of the trajectory, and generates a trajectory connecting the start to the end position. Thereafter, the information generation unit 24 stores the generated trajectory information in the storage unit 12 in association with the generation time. Further, the information generation unit 24 outputs the generated trajectory information to the output unit 25.

ここで、ウェアラブルデバイス10が一連の指操作を検出したときに、その指操作(運動情報)から生成される軌跡情報について説明する。図6は、ウェアラブルデバイスからの出力例を示す図である。情報生成部24は、図6に示すように、ユーザの指動作として、aからスタートし、bで一時停止した後、cまでさらに移動させたことを検出し、このa→b→cの動作を運動情報として抽出する。続いて、情報生成部24は、aを基準としてa→b→cの一連の動作を抽出して軌跡情報を生成する。さらに、情報生成部24は、a→bの軌跡と、b→cの軌跡とを抽出して軌跡情報を生成する。   Here, the trajectory information generated from the finger operation (exercise information) when the wearable device 10 detects a series of finger operations will be described. FIG. 6 is a diagram illustrating an output example from the wearable device. As shown in FIG. 6, the information generation unit 24 detects that the user's finger movement starts from “a”, pauses at “b”, and then further moves to “c”, and this a → b → c action Are extracted as exercise information. Subsequently, the information generation unit 24 extracts trajectory information by extracting a series of operations of a → b → c with reference to a. Furthermore, the information generation unit 24 extracts the trajectory of a → b and the trajectory of b → c to generate trajectory information.

出力部25は、選択されている動作モードに該当する通信経路を用いて、情報生成部24によって生成された軌跡情報を入力装置50に送信する処理部である。例えば、出力部25は、動作モードがポインタモードである場合、情報生成部24によって生成された軌跡情報をポインタ情報として入力装置50に送信し、動作モードが手書きモードである場合、情報生成部24によって生成された軌跡情報を文字情報として入力装置50に送信する。   The output unit 25 is a processing unit that transmits the trajectory information generated by the information generation unit 24 to the input device 50 using the communication path corresponding to the selected operation mode. For example, when the operation mode is the pointer mode, the output unit 25 transmits the trajectory information generated by the information generation unit 24 to the input device 50 as pointer information. When the operation mode is the handwriting mode, the information generation unit 24 Is transmitted to the input device 50 as character information.

ここで、経路について説明する。図7は、通信経路を説明する図である。図7に示すように、ウェアラブルデバイス10と入力装置50とは、HIDにより規定される経路とUserProfileにより規定される経路との両方で、ドライバ層上での通信が確立されている。このような状態で、出力部25は、ポインタモードに切替えられた場合、情報生成部24によって生成された軌跡情報をHID経由で送信することで、軌跡情報をポインタ情報として入力装置50に送信することができる。この結果、入力装置50が取得した情報は、アプリケーション層においてポインティング処理として扱われる。つまり、ポインタモード時は、ユーザの指の軌跡がリアルタイムに入力装置50に送信された後、リアルタイムでヘッドマウントディスプレイ30に表示される。   Here, the route will be described. FIG. 7 is a diagram for explaining a communication path. As shown in FIG. 7, communication between the wearable device 10 and the input device 50 on the driver layer is established by both the route defined by the HID and the route defined by the UserProfile. In this state, when the output unit 25 is switched to the pointer mode, the trajectory information generated by the information generating unit 24 is transmitted via the HID, thereby transmitting the trajectory information to the input device 50 as pointer information. be able to. As a result, the information acquired by the input device 50 is handled as pointing processing in the application layer. That is, in the pointer mode, the locus of the user's finger is transmitted to the input device 50 in real time and then displayed on the head mounted display 30 in real time.

一方、出力部25は、手書きモードに切替えられた場合、情報生成部24によって生成された軌跡情報をUserProfile経由で送信することで、軌跡情報を文字情報として入力装置50に送信することができる。つまり、手書きモード時は、ユーザの手書き操作の軌跡がリアルタイムに入力装置50に送信された後、ヘッドマウントディスプレイ30に表示される。なお、UserProfileは、ウェアラブルデバイス10と入力装置50との間で予め規定された通信規約などである。   On the other hand, when the output unit 25 is switched to the handwriting mode, the trajectory information can be transmitted as character information to the input device 50 by transmitting the trajectory information generated by the information generating unit 24 via UserProfile. That is, in the handwriting mode, the locus of the user's handwriting operation is transmitted to the input device 50 in real time and then displayed on the head mounted display 30. The UserProfile is a communication protocol defined in advance between the wearable device 10 and the input device 50.

(ヘッドマウントディスプレイの機能構成)
図4に示すように、ヘッドマウントディスプレイ30は、無線部31、カメラ32、表示部33、制御部34を有する。なお、ヘッドマウントディスプレイ30は、上記の機器以外の他の機器を有してもよい。
(Functional configuration of head-mounted display)
As illustrated in FIG. 4, the head mounted display 30 includes a wireless unit 31, a camera 32, a display unit 33, and a control unit 34. The head mounted display 30 may have other devices other than the above devices.

無線部31は、無線により通信を行うデバイスである。無線部31は、無線により他の装置と各種情報を送受信する。例えば、無線部31は、表示部33に表示する画像の画像情報や撮影を指示する操作コマンドを入力装置50から受信する。また、無線部31は、カメラ32により撮影された画像の画像情報を入力装置50へ送信する。   The wireless unit 31 is a device that performs wireless communication. The wireless unit 31 transmits and receives various types of information to and from other devices wirelessly. For example, the wireless unit 31 receives image information of an image to be displayed on the display unit 33 and an operation command instructing shooting from the input device 50. In addition, the wireless unit 31 transmits image information of an image captured by the camera 32 to the input device 50.

カメラ32は、画像を撮影するデバイスである。カメラ32は、図3に示したように、2つのレンズ部分の間に設けられている。カメラ32は、制御部34の制御に応じて、画像を撮影する。   The camera 32 is a device that captures an image. As shown in FIG. 3, the camera 32 is provided between two lens portions. The camera 32 captures an image under the control of the control unit 34.

表示部33は、各種情報を表示するデバイスである。表示部33は、図3に示したように、ヘッドマウントディスプレイ30のレンズ部分に設けられている。表示部33は、各種情報を表示する。例えば、表示部33は、メニュー画面や、仮想的なレーザポインタ、入力の軌跡などを表示する。   The display unit 33 is a device that displays various types of information. As shown in FIG. 3, the display unit 33 is provided in the lens portion of the head mounted display 30. The display unit 33 displays various information. For example, the display unit 33 displays a menu screen, a virtual laser pointer, an input locus, and the like.

制御部34は、ヘッドマウントディスプレイ30を制御するデバイスである。制御部34としては、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、マイコン、ASIC、FPGA等の集積回路を採用できる。制御部34は、入力装置50から受信した画像情報を表示部33に表示させる制御を行う。また、制御部34は、入力装置50から撮影を指示する操作コマンドを受信すると、カメラ32を制御して画像を撮影する。そして、制御部34は、撮影された画像の画像情報を、無線部31を制御して入力装置50へ送信する。   The control unit 34 is a device that controls the head mounted display 30. As the control unit 34, an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), or an integrated circuit such as a microcomputer, ASIC, or FPGA can be employed. The control unit 34 performs control to display the image information received from the input device 50 on the display unit 33. In addition, when receiving an operation command for instructing photographing from the input device 50, the control unit 34 controls the camera 32 to photograph an image. Then, the control unit 34 controls the wireless unit 31 to transmit the image information of the captured image to the input device 50.

(入力装置の機能構成)
図4に示すように、入力装置50は、無線部51と、記憶部52と、制御部60とを有する。なお、入力装置50は、上記の機器以外の他の機器を有してもよい。
(Functional configuration of input device)
As illustrated in FIG. 4, the input device 50 includes a wireless unit 51, a storage unit 52, and a control unit 60. Note that the input device 50 may include devices other than the above-described devices.

無線部51は、無線により通信を行うデバイスである。無線部51は、無線により他の装置と各種情報を送受信する。例えば、無線部51は、ウェアラブルデバイス10と2つの経路を確立し、軌跡情報(ポインタ情報や文字情報)、姿勢変化情報などをウェアラブルデバイス10から受信する。また、無線部51は、ヘッドマウントディスプレイ30で表示させる画像の画像情報やポインタなどをヘッドマウントディスプレイ30へ送信する。また、無線部51は、ヘッドマウントディスプレイ30のカメラ32により撮影された画像の画像情報を受信する。   The wireless unit 51 is a device that performs wireless communication. The wireless unit 51 transmits / receives various information to / from other devices wirelessly. For example, the wireless unit 51 establishes two paths with the wearable device 10 and receives trajectory information (pointer information and character information), posture change information, and the like from the wearable device 10. In addition, the wireless unit 51 transmits image information, a pointer, and the like of an image to be displayed on the head mounted display 30 to the head mounted display 30. In addition, the wireless unit 51 receives image information of an image captured by the camera 32 of the head mounted display 30.

記憶部52は、ハードディスク、SSD(Solid State Drive)、光ディスクなどの記憶装置である。なお、記憶部52は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)などのデータを書き換え可能な半導体メモリであってもよい。   The storage unit 52 is a storage device such as a hard disk, an SSD (Solid State Drive), or an optical disk. The storage unit 52 may be a semiconductor memory capable of rewriting data, such as a RAM (Random Access Memory), a flash memory, and an NVSRAM (Non Volatile Static Random Access Memory).

また、記憶部52は、制御部60で実行されるOS(Operating System)や各種プログラムを記憶する。例えば、記憶部52は、入力の支援に用いる各種のプログラムを記憶する。さらに、記憶部52は、制御部60で実行されるプログラムで用いられる各種データを記憶する。例えば、記憶部52は、認識辞書データ53と、メモ情報54と、画像情報55とを記憶する。   The storage unit 52 stores an OS (Operating System) executed by the control unit 60 and various programs. For example, the storage unit 52 stores various programs used for input support. Further, the storage unit 52 stores various data used in programs executed by the control unit 60. For example, the storage unit 52 stores recognition dictionary data 53, memo information 54, and image information 55.

認識辞書データ53は、手書き入力された文字の認識のための辞書データである。例えば、認識辞書データ53には、各種の文字の標準的な軌跡情報が記憶されている。メモ情報54は、手書き入力された情報を記憶したデータである。例えば、メモ情報54には、手書き入力された文字の画像と、手書き入力された文字を認識した結果の文字情報とが対応付けて記憶される。画像情報55は、ヘッドマウントディスプレイ30のカメラ32により撮影された画像の画像情報である。   The recognition dictionary data 53 is dictionary data for recognizing handwritten characters. For example, the recognition dictionary data 53 stores standard trajectory information of various characters. The memo information 54 is data storing information input by handwriting. For example, in the memo information 54, an image of a character input by handwriting and character information obtained as a result of recognizing the character input by handwriting are stored in association with each other. The image information 55 is image information of an image taken by the camera 32 of the head mounted display 30.

制御部60は、入力装置50を制御するデバイスである。制御部60としては、CPU、MPU等の電子回路や、マイコン、ASIC、FPGA等の集積回路を採用できる。制御部60は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。   The control unit 60 is a device that controls the input device 50. As the control unit 60, an electronic circuit such as a CPU or MPU, or an integrated circuit such as a microcomputer, ASIC, or FPGA can be employed. The control unit 60 has an internal memory for storing programs defining various processing procedures and control data, and executes various processes using these.

制御部60は、各種のプログラムが動作することにより各種の処理部として機能する。例えば、制御部60は、入力検出部61と、表示制御部62と、キャリブレーション部63と、軸検出部64と、文字認識部65と、ポインタ出力部66とを有する。   The control unit 60 functions as various processing units by operating various programs. For example, the control unit 60 includes an input detection unit 61, a display control unit 62, a calibration unit 63, an axis detection unit 64, a character recognition unit 65, and a pointer output unit 66.

入力検出部61は、ウェアラブルデバイス10から受信される操作情報および姿勢変化情報に基づいて、各種の入力の検出を行う。例えば、入力検出部61は、操作情報に基づいて、スイッチ14に対する操作を検出する。例えば、入力検出部61は、所定時間以内にスイッチ14が押された回数からシングルクリック、ダブルクリック、トリプルクリックや、スイッチ14の長押し操作を検出する。また、入力検出部61は、ウェアラブルデバイス10から受信される姿勢変化情報から3軸の回転や各軸への移動を特定し、指の姿勢変化を検出する。   The input detection unit 61 detects various inputs based on operation information and posture change information received from the wearable device 10. For example, the input detection unit 61 detects an operation on the switch 14 based on the operation information. For example, the input detection unit 61 detects single click, double click, triple click, and long press operation of the switch 14 from the number of times the switch 14 is pressed within a predetermined time. Further, the input detection unit 61 identifies the rotation of the three axes and the movement to each axis from the posture change information received from the wearable device 10, and detects the posture change of the finger.

表示制御部62は、各種の表示制御を行う。例えば、表示制御部62は、入力検出部61による検出結果に応じて各種の画面の画像情報を生成し、無線部51を介して、生成した画像情報をヘッドマウントディスプレイ30へ送信する。これにより、ヘッドマウントディスプレイ30の表示部33には、画像情報の画像が表示される。例えば、表示制御部62は、入力検出部61によりダブルクリックが検出されると、ヘッドマウントディスプレイ30の表示部33にメニュー画面を表示させる。なお、メニュー画面には、動作モードを選択するメニューやキャリブレーションを行うメニューなどが表示される。   The display control unit 62 performs various display controls. For example, the display control unit 62 generates image information of various screens according to the detection result by the input detection unit 61, and transmits the generated image information to the head mounted display 30 via the wireless unit 51. As a result, an image of image information is displayed on the display unit 33 of the head mounted display 30. For example, when a double click is detected by the input detection unit 61, the display control unit 62 displays a menu screen on the display unit 33 of the head mounted display 30. The menu screen displays a menu for selecting an operation mode, a menu for calibration, and the like.

キャリブレーション部63は、検出される指の姿勢情報のキャリブレーションを行う。例えば、メニュー画面でキャリブレーションモードが選択された場合、キャリブレーション部63は、検出される指の姿勢情報のキャリブレーションを行う。   The calibration unit 63 calibrates detected finger posture information. For example, when the calibration mode is selected on the menu screen, the calibration unit 63 calibrates the detected finger posture information.

ここで、ウェアラブルデバイス10は、指に対して周方向に回転したずれ状態で装着される場合がある。ウェアラブルデバイス10が指に対してずれ状態で装着された場合、ウェアラブルデバイス10により検出される姿勢変化に回転分のずれが生じ、検出される動作がユーザの意図と異なるものとなる場合がある。このような場合、ユーザは、メニュー画面でキャリブレーションモードを選択する。ユーザは、メニュー画面でキャリブレーションモードを選択すると、指にウェアラブルデバイス10が装着された手を開閉させる。ウェアラブルデバイス10は、手を開閉させた際の指の姿勢変化の姿勢変化情報を入力装置50へ送信する。   Here, the wearable device 10 may be worn in a shifted state that is rotated in the circumferential direction with respect to the finger. When the wearable device 10 is worn in a shifted state with respect to a finger, there is a case where the posture change detected by the wearable device 10 is shifted by a rotation amount, and the detected motion may be different from the user's intention. In such a case, the user selects the calibration mode on the menu screen. When the user selects the calibration mode on the menu screen, the user opens and closes the hand on which the wearable device 10 is worn. The wearable device 10 transmits posture change information of the posture change of the finger when the hand is opened and closed to the input device 50.

例えば、キャリブレーション部63は、姿勢変化情報に基づき、手の開閉によりウェアラブルデバイス10が装着された指を屈伸させた際の指の動作を検出する。キャリブレーション部63は、検出した指の動作に基づいて、指の動作の基準方向をキャリブレーションする。   For example, the calibration unit 63 detects the movement of the finger when the finger wearing the wearable device 10 is bent and stretched by opening and closing the hand based on the posture change information. The calibration unit 63 calibrates the reference direction of the finger movement based on the detected finger movement.

軸検出部64は、入力検出部61により検出される指の姿勢変化に基づき、姿勢を示す軸を検出する。例えば、軸検出部64は、指の姿勢変化に応じて方向移動する軸を検出する。例えば、軸検出部64は、3次元空間上で原点を通り、X、Y、Zの各回転軸についてそれぞれの回転方向および回転速度に応じて、X、Y、Zの各方向に移動する軸の方向ベクトルを算出する。なお、姿勢だけで動きを検出する場合、手首を正対方向から離れれば離れるほど大きく動かすことは困難である。また、手のひらを水平にした場合、上下方向の自由度は高いが左右方向の自由度は低い場合がある。   The axis detecting unit 64 detects an axis indicating the posture based on the posture change of the finger detected by the input detecting unit 61. For example, the axis detection unit 64 detects an axis that moves in the direction according to a change in the posture of the finger. For example, the axis detector 64 passes through the origin in a three-dimensional space, and moves in the X, Y, and Z directions according to the respective rotation directions and rotation speeds of the X, Y, and Z rotation axes. The direction vector of is calculated. In addition, when detecting a motion only by a posture, it is difficult to move the wrist as far as it goes away from the facing direction. Further, when the palm is horizontal, the degree of freedom in the vertical direction is high, but the degree of freedom in the horizontal direction may be low.

そこで、軸検出部64は、キャリブレーション部63により補正された軸の方向の中心点から上下と左右のポインティング感度を変えてもよい。例えば、軸検出部64は、手の上下方向の回転より、手の左右方向の回転を大きく補正して軸の方向ベクトルを算出する。すなわち、軸検出部64は、回転量が同じ場合、上下方向の回転による移動量より、左右方向の回転による移動量を大きく補正する。また、軸検出部64は、補正された軸の方向の中心点から離れれば離れるほど感度を大きくしてもよい。例えば、軸検出部64は、軸の方向の中心点から離れるほど回転を大きく補正して軸の方向ベクトルを算出する。すなわち、軸検出部64は、回転量が同じ場合、軸の方向の中心点から離れた周辺部分での回転による移動量を、中心点付近での回転による移動量よりも大きく補正する。これにより、手首の可動のし易さに対応して回転の感度が設定されるため、正確なポインティングをしやすくすることができる。   Therefore, the axis detection unit 64 may change the vertical and left pointing sensitivity from the center point in the axis direction corrected by the calibration unit 63. For example, the axis detection unit 64 calculates the axis direction vector by correcting the rotation in the left-right direction of the hand to be larger than the rotation in the up-down direction of the hand. That is, when the rotation amount is the same, the axis detection unit 64 corrects the movement amount due to the rotation in the left-right direction larger than the movement amount due to the rotation in the vertical direction. Further, the axis detection unit 64 may increase the sensitivity as the distance from the center point in the corrected axis direction increases. For example, the axis detection unit 64 calculates the axis direction vector by correcting the rotation to be greater as the distance from the center point in the axis direction increases. That is, when the rotation amount is the same, the axis detection unit 64 corrects the movement amount due to the rotation in the peripheral portion away from the center point in the axis direction larger than the movement amount due to the rotation near the center point. Thereby, since the sensitivity of rotation is set corresponding to the ease of movement of the wrist, accurate pointing can be facilitated.

文字認識部65は、ウェアラブルデバイス10から取得した軌跡情報にしたがって文字認識を実行する処理部である。例えば、文字認識部65は、UserProfileを介して取得した軌跡情報を文字情報と認識し、認識辞書データ53に記憶された各種の文字の標準的な軌跡と比較する。そして、文字認識部65は、最も類似度の高い文字を特定し、特定した文字の文字コードを出力する。また、文字認識部65は、無線部51を介して、認識した文字をヘッドマウントディスプレイ30の表示部33に表示させる。   The character recognition unit 65 is a processing unit that performs character recognition in accordance with the trajectory information acquired from the wearable device 10. For example, the character recognition unit 65 recognizes the trajectory information acquired through the UserProfile as character information and compares it with standard trajectories of various characters stored in the recognition dictionary data 53. And the character recognition part 65 specifies the character with the highest similarity, and outputs the character code of the specified character. Further, the character recognition unit 65 displays the recognized character on the display unit 33 of the head mounted display 30 via the wireless unit 51.

また、文字認識部65は、認識した文字に撥ねがある場合、軌跡情報から特定される軌跡もしくは文字認識の結果を補正した上で、再度文字認識を実行することもできる。例えば、文字認識部65は、一般的な漢字では使用頻度の少ない「左上への撥ね」がある場合、当該撥ねに対応する軌跡を削除して、文字認識を実行することもできる。   In addition, when the recognized character is repelled, the character recognition unit 65 can perform character recognition again after correcting the locus specified from the locus information or the result of character recognition. For example, if there is “upper left splash” that is less frequently used in general Chinese characters, the character recognition unit 65 can also perform character recognition by deleting the locus corresponding to the hit.

ここで、ユーザは、文字の手書き入力を行う場合、文字ごとに、スイッチ14を長押し操作して入力を行うこともできる。すなわち、スイッチ14は、1文字ごとに一旦、離される。この結果、ウェアラブルデバイス10から1文字ごとの軌跡情報が送られてくるので、文字認識部65は、1文字ずつ手書き入力の軌跡を記録し、1文字ずつ軌跡から文字を認識することもできる。   Here, when performing handwritten input of characters, the user can also perform input by long pressing the switch 14 for each character. That is, the switch 14 is released once for each character. As a result, the trajectory information for each character is sent from the wearable device 10, so that the character recognition unit 65 can record the trajectory of handwriting input character by character and recognize the character from the trajectory character by character.

図8は、手書き入力された文字の軌跡の表示結果の一例を示す図である。図8(A)は、「鳥」を手書き入力した例である。図8(B)は、「神」を手書き入力した例である。図8(A)〜図8(B)に示すように、制御部60は、左上に移動する軌跡を薄く区別して表示することにより、軌跡で示される文字を認識しやすくする。なお、図8の例では、薄く表示される線部分を破線で示している。文字認識部65は、図8(A)〜図8(B)の濃い線で示された軌跡について文字認識を行う。   FIG. 8 is a diagram illustrating an example of a display result of a locus of characters input by handwriting. FIG. 8A shows an example in which “bird” is input by handwriting. FIG. 8B is an example in which “God” is input by handwriting. As shown in FIG. 8A to FIG. 8B, the control unit 60 makes it easy to recognize the character indicated by the trajectory by displaying the trajectory moving to the upper left in a thinly distinguished manner. In the example of FIG. 8, a thin line portion is indicated by a broken line. The character recognizing unit 65 performs character recognition on the trajectory indicated by the dark line in FIGS.

また、文字認識部65は、軌跡、認識結果、文字コード、認識実行時間などを対応付けて記憶部52に格納する。例えば、文字認識部65は、手書きされた文字の軌跡および認識された文字をメモ情報54に格納する。例えば、メニュー画面でメモ入力モードが選択された場合、文字認識部65は、軌跡情報と、認識された文字とを対応付けて、日時情報と共に、メモ情報54に格納する。メモ情報54に格納された情報は、参照可能である。例えば、メニュー画面でメモ入力モードが選択された場合、文字認識部65は、記憶部52のメモ情報54に格納された情報を表示する。   In addition, the character recognition unit 65 stores the locus, the recognition result, the character code, the recognition execution time, and the like in the storage unit 52 in association with each other. For example, the character recognition unit 65 stores the locus of handwritten characters and the recognized characters in the memo information 54. For example, when the memo input mode is selected on the menu screen, the character recognition unit 65 associates the trajectory information with the recognized character, and stores it in the memo information 54 together with the date / time information. Information stored in the memo information 54 can be referred to. For example, when the memo input mode is selected on the menu screen, the character recognition unit 65 displays information stored in the memo information 54 of the storage unit 52.

一例を挙げると、文字認識部65は、メモ入力の入力日時と、手書きされた文字を認識したテキストの文章と、手書きされた文字の画像による文章が対応付けて表示されている。このようにテキストの文章と、手書きされた文字の画像による文章とを対応付けて表示することで、ユーザは、手書きされた文字が正しく認識されているかを確認できる。また、テキストの文章と、手書きされた文字の画像による文章とを対応付けて表示することで、ユーザは、軌跡の認識で文字が誤変換された場合でも、対応する文字の画像を参照することで、手書きした文字を把握できる。また、手書きされた文字の画像には、ユーザの筆跡の特徴が記録される。このため、手書きされた文字の画像も格納することで、例えば、サインのように、ユーザが入力したことの証明に用いることもできる。   For example, the character recognition unit 65 displays the input date and time of memo input, the text of a text recognizing a handwritten character, and the text of a handwritten character image in association with each other. Thus, the user can confirm whether the handwritten character is correctly recognized by displaying the sentence of the text and the sentence of the handwritten character image in association with each other. In addition, by displaying a text sentence and a sentence based on a handwritten character image in association with each other, the user can refer to the corresponding character image even when the character is erroneously converted by the recognition of the trajectory. You can grasp the handwritten characters. In addition, the handwriting characteristics of the user are recorded in the handwritten character image. For this reason, the image of the handwritten character can also be stored and used for proof that the user has input, for example, like a signature.

ポインタ出力部66は、ウェアラブルデバイス10から取得した軌跡情報にしたがってポインタ情報を表示させる処理部である。例えば、ポインタ出力部66は、HIDを介して取得した軌跡情報をポインタ情報と認識する。そして、ポインタ出力部66は、無線部51を介して、認識したポインタ情報をヘッドマウントディスプレイ30の表示部33に表示させる。つまり、ポインタ出力部66は、ウェアラブルデバイス10を装着した指の動きを、マウスなどのポインタ操作(ジェスチャ)と捉えて、ヘッドマウントディスプレイ30の表示部33に表示させる。   The pointer output unit 66 is a processing unit that displays pointer information according to the trajectory information acquired from the wearable device 10. For example, the pointer output unit 66 recognizes trajectory information acquired via the HID as pointer information. The pointer output unit 66 displays the recognized pointer information on the display unit 33 of the head mounted display 30 via the wireless unit 51. That is, the pointer output unit 66 displays the movement of the finger wearing the wearable device 10 as a pointer operation (gesture) of a mouse or the like on the display unit 33 of the head mounted display 30.

ここで、ポインタの動作例を説明する。図9は、ポインタの動作例を示す図である。図9に示すように、空間上の点Xにおいて、指に装着されたウェアラブルデバイス10のスイッチ14がオンにされた後、空間上の点Yまでウェアラブルデバイス10が移動したとする(軌跡L)。この場合、ウェアラブルデバイス10の情報生成部24は、点Xを始点とし、点Yを終点とする軌跡情報を生成する。そして、ウェアラブルデバイス10の出力部25は、HIDを介して、この軌跡情報を入力装置50に送信する。   Here, an example of the operation of the pointer will be described. FIG. 9 is a diagram illustrating an example of the operation of the pointer. As shown in FIG. 9, it is assumed that the wearable device 10 moves to a point Y in the space after the switch 14 of the wearable device 10 attached to the finger is turned on at a point X in the space (trajectory L). . In this case, the information generation unit 24 of the wearable device 10 generates trajectory information starting from the point X and ending at the point Y. Then, the output unit 25 of the wearable device 10 transmits the trajectory information to the input device 50 via the HID.

すると、入力装置50のポインタ出力部66は、HIDを介して受信したことにより、この軌跡情報をポインタ情報と認識する。そして、ポインタ出力部66は、ヘッドマウントディスプレイ30の表示部33上で点Xに該当する点L1を出力し、点L1から軌跡Lを移動させて、点Yに該当する点L2を出力する。   Then, the pointer output unit 66 of the input device 50 recognizes the trajectory information as the pointer information by receiving it through the HID. The pointer output unit 66 outputs a point L1 corresponding to the point X on the display unit 33 of the head mounted display 30, moves the locus L from the point L1, and outputs a point L2 corresponding to the point Y.

このように、ウェアラブルデバイス10により検出される軌跡情報に連動し、ヘッドマウントディスプレイ30に表示させることができる。つまり、ヘッドマウントディスプレイ30に表示されるポインタは、ウェアラブルデバイス10からHIDを介して取得した軌跡情報と同期して表示される。   In this way, it can be displayed on the head mounted display 30 in conjunction with the trajectory information detected by the wearable device 10. That is, the pointer displayed on the head mounted display 30 is displayed in synchronization with the trajectory information acquired from the wearable device 10 via the HID.

なお、ヘッドマウントディスプレイ30の表示部33で表示する手法は、ウェアラブルデバイス10からレーダーポインタを出力してもよく、一般的なコンピュータのマウスと同様の処理を採用できる。また、入力装置50がヘッドマウントディスプレイ30へ座標等を表示し、ヘッドマウントディスプレイ30が該当する座標にポインタなどを表示してもよい。   As a method of displaying on the display unit 33 of the head mounted display 30, a radar pointer may be output from the wearable device 10, and the same processing as that of a general computer mouse can be employed. Further, the input device 50 may display coordinates or the like on the head mounted display 30, and the head mounted display 30 may display a pointer or the like at the corresponding coordinates.

[処理の流れ]
図10は、処理の流れを示すフローチャートである。図10に示すように、ウェアラブルデバイス10の検出部21は、電源がONになり(S101:Yes)、スイッチ14もONになると(S102:Yes)、姿勢センサ15を介して指先の動きを検出する(S103)。
[Process flow]
FIG. 10 is a flowchart showing the flow of processing. As shown in FIG. 10, the detection unit 21 of the wearable device 10 detects the movement of the fingertip via the posture sensor 15 when the power is turned on (S101: Yes) and the switch 14 is also turned on (S102: Yes). (S103).

続いて、情報生成部24は、指操作の運動成分(運動情報)を抽出し(S104)、運動が開始されてからの運動パターン(軌跡情報)を抽出する(S105)。そして、情報生成部24は、動作モードが手書きモードである場合(S106:Yes)、軌跡情報を生成して(S107)、UserProfileを用いた通信で、軌跡情報を入力装置50に送信する(S108)。一方、情報生成部24は、動作モードがポインタモードである場合(S106:No)、軌跡情報からポインタ情報を生成して(S109)、HIDを用いた通信で、ポインタ情報を入力装置50に送信する(S110)。   Subsequently, the information generation unit 24 extracts a motion component (motion information) of finger operation (S104), and extracts a motion pattern (trajectory information) after the motion is started (S105). Then, when the operation mode is the handwriting mode (S106: Yes), the information generation unit 24 generates trajectory information (S107), and transmits the trajectory information to the input device 50 by communication using UserProfile (S108). ). On the other hand, when the operation mode is the pointer mode (S106: No), the information generation unit 24 generates pointer information from the trajectory information (S109), and transmits the pointer information to the input device 50 through communication using HID. (S110).

その後、スイッチ14がONの間は(S111:No)、S103以降を繰り返す。一方、スイッチ14がOFFになると(S111:Yes)、モード切替部23は、ウェアラブルデバイス10をアイドル状態に遷移させる(S112)。   Thereafter, while the switch 14 is ON (S111: No), S103 and subsequent steps are repeated. On the other hand, when the switch 14 is turned off (S111: Yes), the mode switching unit 23 changes the wearable device 10 to the idle state (S112).

そして、モード切替部23は、加速度を検知すると、検知した時間からタイマ(経過時間T=0s)をスタートさせる(S113)。ここで、モード切替部23は、検知した加速度が閾値未満である場合(S114:No)、S112以降を繰り返す。   Then, when detecting the acceleration, the mode switching unit 23 starts a timer (elapsed time T = 0 s) from the detected time (S113). Here, when the detected acceleration is less than the threshold (S114: No), the mode switching unit 23 repeats S112 and subsequent steps.

一方、モード切替部23は、検知した加速度が閾値以上である場合(S114:Yes)、現動作モードをユーザに報知する(S115)。その後、モード切替部23は、加速度を再度検知すると(S116)、検知した加速度が閾値以上か否かを判定する(S117)。   On the other hand, when the detected acceleration is equal to or greater than the threshold (S114: Yes), the mode switching unit 23 notifies the user of the current operation mode (S115). Thereafter, when the mode switching unit 23 detects the acceleration again (S116), the mode switching unit 23 determines whether the detected acceleration is equal to or greater than a threshold value (S117).

ここで、モード切替部23は、検知した加速度が閾値未満である場合(S117:No)、S112以降を繰り返す。一方、モード切替部23は、検知した加速度が閾値以上である場合(S117:Yes)、経過時間Tが閾値未満か否かを判定する(S118)。つまり、S116で検知された加速度が、S113で加速度が検知されてから所定時間以内に検知されたものかを判定する。   Here, when the detected acceleration is less than the threshold value (S117: No), the mode switching unit 23 repeats S112 and subsequent steps. On the other hand, when the detected acceleration is equal to or greater than the threshold (S117: Yes), the mode switching unit 23 determines whether the elapsed time T is less than the threshold (S118). That is, it is determined whether the acceleration detected in S116 is detected within a predetermined time after the acceleration is detected in S113.

ここで、モード切替部23は、経過時間Tが閾値以上である場合(S118:No)、S112以降を繰り返す。一方、モード切替部23は、経過時間Tが閾値未満である場合(S118:Yes)、動作モードを変更する(S119)。   Here, when the elapsed time T is greater than or equal to the threshold (S118: No), the mode switching unit 23 repeats S112 and subsequent steps. On the other hand, when the elapsed time T is less than the threshold (S118: Yes), the mode switching unit 23 changes the operation mode (S119).

その後、スイッチ14がOFFのままの場合は(S120:No)、S112以降が繰り返され、スイッチ14がONになると(S120:Yes)、S103以降が繰り返される。   Thereafter, when the switch 14 remains OFF (S120: No), S112 and subsequent steps are repeated, and when the switch 14 is turned ON (S120: Yes), S103 and subsequent steps are repeated.

[効果]
このように、スイッチ操作という入力と無関係な動作によりモードを切り替えることで、不要な入力と誤動作が発生せず、直観的にモード切り替えが可能となる。したがって、アプリケーションの設定変更等を行わずに、動作モードの切替が実行できるので、操作性を向上させることができる。
[effect]
In this way, by switching the mode by an operation unrelated to the input of the switch operation, unnecessary input and malfunction do not occur, and the mode can be switched intuitively. Therefore, the operation mode can be switched without changing the application settings, and the operability can be improved.

また、各動作モードに対応した通信経路を隔離しておき、選択中の動作モードに対応した経路のみで各種情報を出力することができるので、経路切替の時間を抑制できる。また、1つの経路のみを用いたときに比べて、各種情報の送信ミスなどを抑制することもできる。   In addition, since communication paths corresponding to each operation mode can be isolated and various information can be output using only the path corresponding to the selected operation mode, the time for path switching can be suppressed. In addition, it is possible to suppress mistransmissions of various information as compared with the case where only one route is used.

ところで、実施例1では、ウェアラブルデバイス10と入力装置50とが2つの経路で接続される例を説明したが、これに限定されるものではない。例えば、ウェアラブルデバイス10と入力装置50とが1つの経路で接続される場合でも同様に処理することができる。   Incidentally, in the first embodiment, the example in which the wearable device 10 and the input device 50 are connected through two paths has been described, but the present invention is not limited to this. For example, the same processing can be performed even when the wearable device 10 and the input device 50 are connected by one path.

そこで、実施例2では、ウェアラブルデバイス10と入力装置50とが1つの経路で接続される例について説明する。図11は、実施例2の通信経路を説明する図である。   Therefore, in the second embodiment, an example in which the wearable device 10 and the input device 50 are connected through one path will be described. FIG. 11 is a diagram illustrating a communication path according to the second embodiment.

図11に示すように、ウェアラブルデバイス10と入力装置50とは、HIDにより規定される経路のみで通信が確立されている。このような状態で、出力部25は、ポインタモードに切替えられた場合、情報生成部24によって生成された軌跡情報をHID経由で送信することで、軌跡情報をポインタ情報として入力装置50に送信することができる。   As shown in FIG. 11, communication between the wearable device 10 and the input device 50 is established only through a route defined by the HID. In this state, when the output unit 25 is switched to the pointer mode, the trajectory information generated by the information generating unit 24 is transmitted via the HID, thereby transmitting the trajectory information to the input device 50 as pointer information. be able to.

一方、手書きモードに切替えられた場合、情報生成部24は、生成した軌跡情報と、認識辞書データ等とを用いて、軌跡情報の文字認識を行う。そして、情報生成部24は、認識した文字に対応する文字コードを、HIDにより規定される経路で入力装置50に送信する。つまり、手書きモード時は、入力装置50の文字認識部65と同様の処理を行い、認識結果をリアルタイムに入力装置50に送信する。   On the other hand, when the handwriting mode is switched, the information generation unit 24 performs character recognition of the trajectory information using the generated trajectory information, recognition dictionary data, and the like. Then, the information generation unit 24 transmits a character code corresponding to the recognized character to the input device 50 through a route defined by the HID. That is, in the handwriting mode, the same processing as the character recognition unit 65 of the input device 50 is performed, and the recognition result is transmitted to the input device 50 in real time.

このように、予め確保する通信経路の数を減らすこともできるので、無線通信の混信などを抑制することもでき、送信エラーの発生も低減できる。また、プロファイルの数も削減できるので、メモリ容量の削減も実現できる。なお、実施例1や実施例2で説明したブルートゥース(登録商標)標準のプロファイル等はあくまで一例であり、他の標準プロファイルや通信形式を採用することもできる。また、HIDで送信する情報は、ポインタ情報に限らず、例えばウェアラブルデバイス10が有するNFC(Near Field Communication)などで読み取った情報を送信することもできる。   Thus, since the number of communication paths to be secured in advance can be reduced, it is possible to suppress radio communication interference and the like, and to reduce the occurrence of transmission errors. In addition, since the number of profiles can be reduced, memory capacity can also be reduced. Note that the Bluetooth (registered trademark) standard profile described in the first and second embodiments is merely an example, and other standard profiles and communication formats may be employed. Further, the information transmitted by the HID is not limited to the pointer information, and for example, information read by NFC (Near Field Communication) included in the wearable device 10 can be transmitted.

さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。   Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the embodiments described above.

[条件]
上記実施例では、加速度と時間をモード切替の条件とする例を説明したが、これに限定されるものではない。例えば、モード切替用の切替ボタンや光センサをウェアラブルデバイス10に設けて、切替ボタンが押下された場合や光センサによって親指等の他の指との接触を検知した場合に、モード切替を実行することもできる。
[conditions]
In the above-described embodiment, an example in which acceleration and time are used as conditions for mode switching has been described. However, the present invention is not limited to this. For example, a switch button for switching modes and an optical sensor are provided in the wearable device 10 and mode switching is performed when the switch button is pressed or when contact with another finger such as a thumb is detected by the optical sensor. You can also.

また、上記実施例では、加速度を用いた例を説明したが、これに限定されるものではなく、姿勢センサ15によって検出される運動情報のうちスイッチ14が入力されていない期間で取得された運動情報が予め設定された条件を満たす場合に、動作モードを切り替えることもできる。例えば、ウェアラブルデバイス10は、スイッチ14が入力されていない期間で取得された運動情報が予め指定された軌跡情報と一致する場合に、動作モードを切り替える。   In the above embodiment, an example using acceleration has been described. However, the present invention is not limited to this, and exercise acquired during a period when the switch 14 is not input in the exercise information detected by the posture sensor 15. The operation mode can be switched when the information satisfies a preset condition. For example, the wearable device 10 switches the operation mode when the exercise information acquired during a period when the switch 14 is not input matches the trajectory information specified in advance.

[ゲイン補正]
ところで、指の操作に関して、動きやすい方向と動きにくい方向とがあり、これらを同じように処理すると、正しく軌跡が認識されないこともある。例えば、右手の人差し指にウェアラブルデバイス10を装着し、手首を動かさず指だけを動かす場合、一般的に左方向よりも右方向の方が動かしやすく、上方向よりも下方向の方が動かしやすい。そこで、実施例2では、方向によってゲインを変化させることで、軌跡を正しく認識する例を説明する。
[Gain correction]
By the way, with respect to the operation of the finger, there are a direction in which movement is easy and a direction in which movement is difficult, and if these are processed in the same way, the locus may not be recognized correctly. For example, when the wearable device 10 is attached to the index finger of the right hand and only the finger is moved without moving the wrist, the right direction is generally easier to move than the left direction, and the lower direction is easier to move than the upward direction. Therefore, in the second embodiment, an example will be described in which the trajectory is correctly recognized by changing the gain according to the direction.

図12は、軌跡の補正例を説明する図である。図12に示すように、スイッチ14がオンにされた姿勢を姿勢0点とし、指操作の運動成分抽出後のデータを元に算出される姿勢0点からの指の姿勢変化の推定値を軌跡の長さに変換するゲインを設定する。このゲインが大きい方が僅かな姿勢変化で長い軌跡が描ける。例えば、姿勢0点からの姿勢変化方向によって軌跡生成ゲイン変化のプロファイルを変え、姿勢0点からの姿勢変化量に応じて軌跡生成ゲインの変化率を変え、姿勢0点のゲインCは一致させて上記を満足する連続関数とする。   FIG. 12 is a diagram for explaining a correction example of the trajectory. As shown in FIG. 12, the posture at which the switch 14 is turned on is set as the posture 0 point, and the estimated value of the finger posture change from the posture 0 point calculated based on the data after extracting the motion component of the finger operation is traced. Set the gain to convert to the length of. The larger the gain, the longer the trajectory can be drawn with a slight change in posture. For example, the trajectory generation gain change profile is changed according to the posture change direction from the posture 0 point, the change rate of the trajectory generation gain is changed according to the posture change amount from the posture 0 point, and the gain C of the posture 0 point is matched. A continuous function satisfying the above is assumed.

このようにすることで、縦軸方向の軌跡については、+Y軸の姿勢変化についてゲインを大きくし、横軸方向の軌跡については、−Z軸の姿勢変化についてゲインを大きくする。この結果、動かしにくい方向の軌跡も、動かしやすい方向の軌跡と同じように処理することができるので、軌跡を正確に認識することができる。   In this way, with respect to the trajectory in the vertical axis direction, the gain is increased with respect to the + Y-axis posture change, and with respect to the trajectory in the horizontal axis direction, the gain is increased with respect to the −Z-axis posture change. As a result, a trajectory in a direction that is difficult to move can be processed in the same way as a trajectory in a direction that is easy to move, so that the trajectory can be accurately recognized.

[ウェアラブルデバイス]
上記実施例では、ウェアラブルデバイス10と入力装置50とを別々の装置で実行する例を説明したが、これに限定されるものではなく、入力装置50と同様の処理部を有するウェアラブルデバイス10だけで実現することもできる。また、ウェアラブルデバイス10の処理能力に応じて、ウェアラブルデバイス10と入力装置50に分散させる処理部を任意に変更することもできる。
[Wearable device]
In the above-described embodiment, the example in which the wearable device 10 and the input device 50 are executed by different devices has been described. However, the present invention is not limited to this, and only the wearable device 10 having the same processing unit as the input device 50 is used. It can also be realized. In addition, the processing units distributed to the wearable device 10 and the input device 50 can be arbitrarily changed according to the processing capability of the wearable device 10.

[システム]
また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。
[system]
In addition, each component of each part illustrated does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each unit is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in arbitrary units according to various loads or usage conditions. Can be configured. Furthermore, various processing functions performed by each device may be executed entirely or arbitrarily on a CPU (or a microcomputer such as an MPU or MCU (Micro Controller Unit)). In addition, various processing functions may be executed in whole or in any part on a program that is analyzed and executed by a CPU (or a microcomputer such as an MPU or MCU) or on hardware based on wired logic. Needless to say, it is good.

[ハードウェア]
上記の実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図13は、入力支援プログラムを実行するコンピュータの一例を示す説明図である。
[hardware]
The various processes described in the above embodiments can be realized by executing a prepared program on a computer. Therefore, in the following, an example of a computer that executes a program having the same function as in the above embodiment will be described. FIG. 13 is an explanatory diagram illustrating an example of a computer that executes an input support program.

図13が示すように、コンピュータ300は、CPU310、HDD(Hard Disk Drive)320、RAM(Random Access Memory)340を有する。これら310〜340の各部は、バス400を介して接続される。   As illustrated in FIG. 13, the computer 300 includes a CPU 310, an HDD (Hard Disk Drive) 320, and a RAM (Random Access Memory) 340. These units 310 to 340 are connected via a bus 400.

HDD320には、ウェアラブルデバイス10の検出部21、モード選択部22、モード切替部23、情報生成部24、出力部25と同様の機能を発揮する入力支援プログラム320a、または入力装置50の入力検出部61と、表示制御部62と、キャリブレーション部63と、軸検出部64と、文字認識部65と、ポインタ出力部66と同様の機能を発揮する入力支援プログラム320aが予め記憶される。なお、入力支援プログラム320aについては、適宜分離しても良い。また、HDD320は、各種情報を記憶する。   The HDD 320 includes an input support program 320a that exhibits the same functions as the detection unit 21, the mode selection unit 22, the mode switching unit 23, the information generation unit 24, and the output unit 25 of the wearable device 10, or the input detection unit of the input device 50. 61, a display control unit 62, a calibration unit 63, an axis detection unit 64, a character recognition unit 65, and an input support program 320a that performs the same functions as the pointer output unit 66 are stored in advance. Note that the input support program 320a may be separated as appropriate. The HDD 320 stores various information.

そして、CPU310が、入力支援プログラム320aをHDD320から読み出して実行することで、実施例の各処理部と同様の動作を実行する。すなわち、入力支援プログラム320aは、検出部21、モード選択部22、モード切替部23、情報生成部24、出力部25と同様の動作、または、入力検出部61と、表示制御部62と、キャリブレーション部63と、軸検出部64と、文字認識部65と、ポインタ出力部66と同様の動作を実行する。   Then, the CPU 310 reads out and executes the input support program 320a from the HDD 320, thereby executing the same operation as each processing unit of the embodiment. That is, the input support program 320a is similar to the operation of the detection unit 21, the mode selection unit 22, the mode switching unit 23, the information generation unit 24, and the output unit 25, or the input detection unit 61, the display control unit 62, and the calibration. The operation similar to that of the operation unit 63, the axis detection unit 64, the character recognition unit 65, and the pointer output unit 66 is executed.

なお、上記した入力支援プログラム320aについては、必ずしも最初からHDD320に記憶させることを要しない。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」にプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ300に接続される「他のコンピュータ(またはサーバ)」などにプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。   Note that the input support program 320a is not necessarily stored in the HDD 320 from the beginning. For example, the program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card inserted into the computer 300. Then, the computer 300 may read and execute the program from these. Furthermore, the program is stored in “another computer (or server)” connected to the computer 300 via a public line, the Internet, a LAN, a WAN, or the like. Then, the computer 300 may read and execute the program from these.

10 ウェアラブルデバイス
11 無線部
12 記憶部
13 加速度センサ
14 スイッチ
15 姿勢センサ
20 制御部
21 検出部
22 モード選択部
23 モード切替部
24 情報生成部
25 出力部
30 ヘッドマウントディスプレイ
31 無線部
32 カメラ
33 表示部
34 制御部
50 入力装置
51 無線部
52 記憶部
53 認識辞書データ
54 メモ情報
55 画像情報
60 制御部
61 入力検出部
62 表示制御部
63 キャリブレーション部
64 軸検出部
65 文字認識部
66 ポインタ出力部
DESCRIPTION OF SYMBOLS 10 Wearable device 11 Radio | wireless part 12 Memory | storage part 13 Acceleration sensor 14 Switch 15 Attitude sensor 20 Control part 21 Detection part 22 Mode selection part 23 Mode switching part 24 Information generation part 25 Output part 30 Head mounted display 31 Radio | wireless part 32 Camera 33 Display part 34 control unit 50 input device 51 wireless unit 52 storage unit 53 recognition dictionary data 54 memo information 55 image information 60 control unit 61 input detection unit 62 display control unit 63 calibration unit 64 axis detection unit 65 character recognition unit 66 pointer output unit

Claims (6)

入力を受け付けるスイッチを備えると共に人体に装着される入力装置であって、
モーションセンサと、
前記モーションセンサから出力される運動情報を取得する取得部と、
前記取得部により取得された前記運動情報のうち前記スイッチが入力されている期間で取得された運動情報を用いて、第1のモードまたは第2のモードのいずれか一方の動作モードに対応する情報を出力する出力部と、
前記取得部により取得された前記運動情報のうち前記スイッチが入力されていない期間で取得された運動情報が予め設定された条件を満たす場合は、前記動作モードを他方の動作モードに切り替える切替部と、
を有することを特徴とする入力装置。
An input device having a switch for receiving input and attached to a human body,
A motion sensor,
An acquisition unit for acquiring exercise information output from the motion sensor;
Information corresponding to one of the operation modes of the first mode or the second mode using the exercise information acquired during the period when the switch is input among the exercise information acquired by the acquisition unit. An output unit for outputting
A switching unit that switches the operation mode to the other operation mode when the exercise information acquired during the period when the switch is not input among the exercise information acquired by the acquisition unit satisfies a preset condition; ,
An input device comprising:
前記切替部は、所定時間内に、前記入力装置が所定値以上の加速度で所定回数移動した場合に、前記動作モードを他方の動作モードに切り替えることを特徴とする請求項1に記載の入力装置。   2. The input device according to claim 1, wherein the switching unit switches the operation mode to the other operation mode when the input device moves a predetermined number of times at an acceleration of a predetermined value or more within a predetermined time. . 前記出力部は、前記動作モードに対応する情報の出力先である出力先装置との間で、前記第1のモードに対応する第1の通信経路と前記第2のモードに対応する第2の通信経路とのそれぞれを確立し、出力対象の動作モードに対応する通信経路を用いて、前記出力対象の動作モードに対応する情報を出力することを特徴とする請求項1または2に記載の入力装置。   The output unit includes a first communication path corresponding to the first mode and a second corresponding to the second mode with an output destination device that is an output destination of information corresponding to the operation mode. 3. The input according to claim 1, wherein each of the communication paths is established, and information corresponding to the output operation mode is output using a communication path corresponding to the output operation mode. apparatus. 前記出力部は、前記動作モードに対応する情報の出力先である出力先装置との間で、前記第1のモードに対応する通信経路を確立し、出力対象の動作モードが前記第1のモードである場合は、前記第1のモードに対応する情報を出力し、出力対象の動作モードが前記第2のモードである場合は、前記第2のモードに対応する情報を前記第1のモードの形式で出力することを特徴とする請求項1または2に記載の入力装置。   The output unit establishes a communication path corresponding to the first mode with an output destination device that is an output destination of information corresponding to the operation mode, and the operation mode to be output is the first mode. Is output information corresponding to the first mode, and when the operation mode to be output is the second mode, information corresponding to the second mode is output. 3. The input device according to claim 1, wherein the input device outputs the data in a format. 入力を受け付けるスイッチを備えると共に人体に装着される入力装置が、
モーションセンサから出力される運動情報を取得し、
取得された前記運動情報のうち前記スイッチが入力されている期間で取得された運動情報を用いて、第1のモードまたは第2のモードのいずれか一方の動作モードに対応する情報を出力し、
取得された前記運動情報のうち前記スイッチが入力されていない期間で取得された運動情報が予め設定された条件を満たす場合は、前記動作モードを他方の動作モードに切り替える、
処理を実行することを特徴とする入力支援方法。
An input device equipped with a switch for receiving input and attached to the human body,
Get motion information output from the motion sensor,
Using the exercise information acquired in the period during which the switch is input among the acquired exercise information, output information corresponding to one of the operation modes of the first mode or the second mode,
When the exercise information acquired in a period when the switch is not input among the acquired exercise information satisfies a preset condition, the operation mode is switched to the other operation mode.
An input support method characterized by executing processing.
入力を受け付けるスイッチを備えると共に人体に装着される入力装置に、
モーションセンサから出力される運動情報を取得し、
取得された前記運動情報のうち前記スイッチが入力されている期間で取得された運動情報を用いて、第1のモードまたは第2のモードのいずれか一方の動作モードに対応する情報を出力し、
取得された前記運動情報のうち前記スイッチが入力されていない期間で取得された運動情報が予め設定された条件を満たす場合は、前記動作モードを他方の動作モードに切り替える、
処理を実行させることを特徴とする入力支援プログラム。
An input device equipped with a switch for receiving input and worn on the human body,
Get motion information output from the motion sensor,
Using the exercise information acquired in the period during which the switch is input among the acquired exercise information, output information corresponding to one of the operation modes of the first mode or the second mode,
When the exercise information acquired in a period when the switch is not input among the acquired exercise information satisfies a preset condition, the operation mode is switched to the other operation mode.
An input support program characterized by causing processing to be executed.
JP2017564988A 2016-02-01 2016-02-01 Input device, input support method, and input support program Pending JPWO2017134732A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/052938 WO2017134732A1 (en) 2016-02-01 2016-02-01 Input device, input assistance method, and input assistance program

Publications (1)

Publication Number Publication Date
JPWO2017134732A1 true JPWO2017134732A1 (en) 2018-09-27

Family

ID=59500645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017564988A Pending JPWO2017134732A1 (en) 2016-02-01 2016-02-01 Input device, input support method, and input support program

Country Status (2)

Country Link
JP (1) JPWO2017134732A1 (en)
WO (1) WO2017134732A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020066110A (en) * 2018-10-25 2020-04-30 国立大学法人千葉大学 Method for controlling work auxiliary tool
US20200326765A1 (en) * 2019-04-12 2020-10-15 XRSpace CO., LTD. Head mounted display system capable of indicating a tracking unit to track a hand gesture or a hand movement of a user or not, related method and related non-transitory computer readable storage medium
JP7365501B2 (en) 2020-04-28 2023-10-19 株式会社Nttドコモ information processing equipment
CN118020048A (en) * 2021-10-05 2024-05-10 索尼集团公司 Information processing device, information processing method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236174A (en) * 2000-02-25 2001-08-31 Fujitsu Ltd Device for inputting handwritten character and method for recognizing handwritten character
JP2008027082A (en) * 2006-07-19 2008-02-07 Fujitsu Ltd Handwriting input device, handwriting input method and computer program
JP2009301531A (en) * 2007-10-22 2009-12-24 Sony Corp Space operation type apparatus, control apparatus, control system, control method, method of producing space operation input apparatus, and handheld apparatus
JP2010231736A (en) * 2009-03-30 2010-10-14 Sony Corp Input device and method, information processing device and method, information processing system, and program
JP2013143139A (en) * 2012-01-06 2013-07-22 Samsung Electronics Co Ltd Input apparatus, display apparatus, control method thereof and display system
JP2016009994A (en) * 2014-06-24 2016-01-18 キヤノン株式会社 Information processing device, information processing device communication method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6206099B2 (en) * 2013-11-05 2017-10-04 セイコーエプソン株式会社 Image display system, method for controlling image display system, and head-mounted display device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236174A (en) * 2000-02-25 2001-08-31 Fujitsu Ltd Device for inputting handwritten character and method for recognizing handwritten character
JP2008027082A (en) * 2006-07-19 2008-02-07 Fujitsu Ltd Handwriting input device, handwriting input method and computer program
JP2009301531A (en) * 2007-10-22 2009-12-24 Sony Corp Space operation type apparatus, control apparatus, control system, control method, method of producing space operation input apparatus, and handheld apparatus
JP2010231736A (en) * 2009-03-30 2010-10-14 Sony Corp Input device and method, information processing device and method, information processing system, and program
JP2013143139A (en) * 2012-01-06 2013-07-22 Samsung Electronics Co Ltd Input apparatus, display apparatus, control method thereof and display system
JP2016009994A (en) * 2014-06-24 2016-01-18 キヤノン株式会社 Information processing device, information processing device communication method, and program

Also Published As

Publication number Publication date
WO2017134732A1 (en) 2017-08-10

Similar Documents

Publication Publication Date Title
US9983687B1 (en) Gesture-controlled augmented reality experience using a mobile communications device
JP6669069B2 (en) Detection device, detection method, control device, and control method
EP3090331B1 (en) Systems with techniques for user interface control
JP6524661B2 (en) INPUT SUPPORT METHOD, INPUT SUPPORT PROGRAM, AND INPUT SUPPORT DEVICE
US10055064B2 (en) Controlling multiple devices with a wearable input device
US9978261B2 (en) Remote controller and information processing method and system
KR100630806B1 (en) Command input method using motion recognition device
KR102441328B1 (en) Method for displaying an image and an electronic device thereof
US20150054730A1 (en) Wristband type information processing apparatus and storage medium
US10120444B2 (en) Wearable device
JP2015121979A (en) Wearable information input device, information input system and information input method
US10372223B2 (en) Method for providing user commands to an electronic processor and related processor program and electronic circuit
WO2017134732A1 (en) Input device, input assistance method, and input assistance program
JP2015142317A (en) Electronic apparatus
JPWO2015104884A1 (en) Information processing system, information processing method, and program
WO2019021566A1 (en) Information processing device, information processing method, and program
US20230076068A1 (en) Systems for interpreting a digit-to-digit gesture by a user differently based on roll values of a wrist-wearable device worn by the user, and methods of use thereof
CN108369477B (en) Information processing apparatus, information processing method, and program
JP2010086367A (en) Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment
US20170199578A1 (en) Gesture control method for interacting with a mobile or wearable device
US20200348749A1 (en) Information processing apparatus, information processing method, and program
JP6481360B2 (en) Input method, input program, and input device
JP6444345B2 (en) Method and apparatus for supporting input in virtual space, and program for causing computer to execute the method
WO2017013805A1 (en) Input device, input support method and input support program
US20240103629A1 (en) Control device and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191015

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200107