JP4497717B2 - Data input system and method, and input device - Google Patents
Data input system and method, and input device Download PDFInfo
- Publication number
- JP4497717B2 JP4497717B2 JP2000401331A JP2000401331A JP4497717B2 JP 4497717 B2 JP4497717 B2 JP 4497717B2 JP 2000401331 A JP2000401331 A JP 2000401331A JP 2000401331 A JP2000401331 A JP 2000401331A JP 4497717 B2 JP4497717 B2 JP 4497717B2
- Authority
- JP
- Japan
- Prior art keywords
- finger
- input
- correspondence table
- data
- data input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Input From Keyboards Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、指や手のひらで物体を叩いたり指で物体に触れたりして、片手でデータを入力する、データ入力システムあるいは装置に関するものである。また、本発明は、装着型コンピュータ(ウェアラブルコンピュータ)におけるデータ入力方法に関するものである。
【0002】
【従来の技術】
従来のコンピュータでは、キーボードやマウスやペンなどの入力装置を用いてデータを入力していた。また、各指にセンサーをつけて和音方式でデータを入力する方法も考えられている。
【0003】
【発明が解決しようとする課題】
上述の、キーボードやマウスによる入力では、いつでもどこでも自由な姿勢でコンピュータを操作できないという問題点があった。さらに、携帯性に欠けるという問題点があった。
【0004】
また、ペン入力では、入力に対する応答が鈍く、曖昧なので、長時間使っていると疲れ易いという問題点があった。
【0005】
また、指にセンサーをつけてデータを入力する方法では、どの指がどの入力コードに対応しているかが分かり難いという問題点があった。
【0006】
【課題を解決するための手段】
上記課題を解決するために、本発明によるデータ入力システムは、入力データを表示するデータ表示手段と、各指の動作を検出する指動作検出手段と、各指の動作と入力コードとの対応関係を記憶した対応表を記憶した記憶手段と、前記指動作検出手段により検出された各指の動作に基づいて、各指と入力コードとの対応表を切り替える切替手段と、該切替手段で切り替えられた対応表を入力制御カーソルとして、文字入力位置に表示する対応表表示手段と、前記切替手段で切り替えられた対応表にしたがって、各指の動作に基づいてデータを入力および編集する入力手段とを備える。
【0007】
また、本発明の他の態様によれば、入力装置において、手に装着するグローブの各指の、遠位指節間関節より指先の指腹部の位置に入力スイッチを備える。
【0008】
また、本発明の他の態様によれば、データ入力方法に、各指の動作を検出する指動作検出工程と、前記指動作検出工程により検出された各指の動作に基づいて、記憶部に記憶された各指と入力コードとの対応表を切り替える切替工程と、該切替工程で切り替えられた対応表を入力制御カーソルとして、文字入力位置に切り替えて表示する対応表表示工程と、前記切替工程で切り替えられた対応表にしたがって、各指の動作に基づいてデータを入力および編集する入力工程と、入力データを表示するデータ表示工程とを備える。
【0009】
【発明の実施の形態】
<実施形態1>
以下、図面を用いて本発明の1実施形態を詳細に説明する。
【0010】
図1は、本発明の実施形態1のデータ入力システムの構成図である。図1に示すように本システムは、指動作検出部1(R1、R2、R3、R4、R5)とコンピュータ2とから構成されている。指動作検出部1はユーザの指に装着され、指の動作を検出して信号を生成し、コンピュータ2は指動作検出部1からの信号を受信して動作する。
【0011】
図2は、コンピュータ2の構成図である。コンピュータ2は、ディスプレイ21、CPU22、RAM23、ROM24、テキスト編集部25、信号解析部26、受信部27とから構成されており、指動作検出部1からの信号を受信部27で受信し、受信信号を信号解析部26で解析し、CPU22で受信信号に応じた処理を行って動作する。
【0012】
ディスプレイ21には、図3に示すように、指と入力コードとの対応関係が分かるように、指入力コード対応表が表示されており、ユーザは指入力コード対応表を見ながら指で物体を叩いてデータを入力する。指入力コード対応表は、左から順番に各列が、右手親指、右手人差し指、右手中指、右手薬指、右手小指に対応しており、ユーザの指の動作に応じて切り替えて表示される。
【0013】
指入力コード対応表の白い部分はアクティブなメニューであり、灰色の部分はアクティブでないメニューである。例えばユーザが右手中指で物体を叩いたり物体に触れたりすると、図3のメニューで右手中指に対応する列に属する‘ア’、‘さたっ’、‘かきくけこ’、‘う’の中で、アクティブなメニュー‘う’が選択される。
【0014】
図2において。ROM24には、プログラムや辞書データや指入力コード対応表のデータなどが記憶されている。テキスト編集部25は、かな漢字変換やカーソルの移動、文字の削除等のテキスト編集処理を行う。
【0015】
図4は、指動作検出部1(R1、R2、R3、R4、R5)の構成図である。R1、R2、R3、R4、R5はすべて同じ構造をしており、振動検出部11、信号発生部12、送信部13とから構成されている。振動検出部11はユーザが指で物体を叩いた振動を検出する。信号発生部12は、検出された振動から各指に固有の信号を生成する。送信部13は、生成された信号をコンピュータ2に送信する。送信手段は無線であっても有線であってもよい。
【0016】
図5は、各指の動作と指動作検出部1(R1、R2、R3、R4、R5)と発生信号との対応関係を示す図である。右手親指にはR1が装着されており信号「1」を発生する。右手人差し指にはR2が装着されており信号「2」を発生する。右手中指にはR3が装着されており信号「3」を発生する。右手薬指にはR4が装着されており信号「4」を発生する。右手小指にはR5が装着されており信号「5」を発生する。
【0017】
図6は、指動作検出部1の動作を示す流れ図である。ステップS61においてユーザが指で物体を叩いたかどうか判定する。一定の閾値以上の振動が振動検出部11によって検出されれば、ステップS62に移り各指に固有の信号を信号発生部12において発生する。次に、ステップS63において送信部13からコンピュータ2に向けて信号が送信される。
【0018】
図7〜図10に示すように、ユーザが「海ヤマ.com」というテキストを入力する場合について述べる。メインルーチンを図11に示す。まず、ステップS111において表示処理が行われ、メインメニューの指入力コード対応表がディスプレイ21に表示される(図7(1))。
【0019】
ユーザが右手人差し指で物体を叩くと、ステップS61、S62、S63によってR2から信号「2」が送信されステップS112で受信され、ステップS113で受信信号が解析され、ステップS114で受信信号の種類が判別され、ステップS116の、ひらがな入力ルーチンに移る。これらの一連の動作を動作表記[2]と表わす(図5参照)。
【0020】
ひらがな入力ルーチン(図12)では、ステップS121において表示処理が行われ、ひらがな入力の指入力コード対応表がディスプレイ21に表示される(図7(2))。
【0021】
ユーザが右手人差し指で物体を叩くと、ステップS61、S62、S63によってR2から信号「2」が送信されステップS122で受信され、ステップS123で受信信号が解析され、ステップS124で受信信号の種類が判別され、ステップS125の、あか行変換ルーチンに移る。これらの一連の動作を動作表記[2]と表わす。
【0022】
あか行変換ルーチン(図13)では、ステップS131において表示処理が行われ、あか行変換ルーチンの指入力コード対応表がディスプレイ21に表示される(図7(3))。
【0023】
ユーザが右手親指で物体を叩くと、ステップS61、S62、S63によってR1から信号「1」が送信されステップS132で受信され、ステップS133で受信信号が解析され、ステップS134で受信信号の種類が判別され、ステップS135の、あ行ルーチンに移る。これらの一連の動作を動作表記[1]と表わす。
【0024】
あ行ルーチン(図14)では、ステップS141において表示処理が行われ、あ行ルーチンの指入力コード対応表がディスプレイ21に表示される(図7(4))。
【0025】
ユーザが右手中指で物体を叩くと、ステップS61、S62、S63によってR3から信号「3」が送信されステップS152で受信され、ステップS143で受信信号が解析され、ステップS144で受信信号の種類が判別され、ステップS147において‘う’が入力されると同時に、ひらがな入力ルーチン(図12)に戻る。これらの一連の動作を動作表記[3]と表わす。
【0026】
ひらがな入力ルーチン(図12)では、ステップS121において表示処理が行われ、入力データ‘う’とひらがな入力ルーチンの指入力コード対応表とがディスプレイ21に表示される(図7(5))。
【0027】
以下、同様の操作により‘み’が入力されると、入力データ‘うみ’とひらがな入力ルーチンの指入力コード対応表とがディスプレイ21に表示される(図7(6)〜(8))。
【0028】
ここで、ユーザが右手人差し指で物体を叩くと、R2から信号「2」が送信され、あか行変換ルーチンに移り、あか行変換ルーチンの指入力コード対応表がディスプレイ21に表示される(図7(9))。
【0029】
ここで、ユーザが右手小指で物体を叩くと、R5から信号「5」が送信され、変換ルーチンに移る。変換ルーチンでは、かな漢字変換処理が行われ、かな漢字変換結果と、変換ルーチンの指入力コード対応表がディスプレイ21に表示される(図8(10))。
【0030】
ここで、ユーザが右手人差し指で物体を叩くと、R2から信号「2」が送信され、確定の指示と解釈されて、かな漢字変換結果が‘海’に決定されると同時に、ひらがな入力ルーチンに戻る。ひらがな入力ルーチンでは、入力データ‘海’とひらがな入力ルーチンの指入力コード対応表がディスプレイ21に表示される(図8(11))。
【0031】
ここで、ユーザが右手親指で物体を叩くと、R1から信号「1」が送信され、メインルーチンに戻る。メインルーチンでは、メインルーチンの指入力コード対応表がディスプレイ21に表示される(図8(12))。
【0032】
以下、図8〜図10に示す一連の動作、[3]、[5]、[1]、[1]、[4]、[5]、[1]、[1]、[4]、[5]、[3]、[2]、[2]、[2]、[3]、[3]、[4]、[3]、[2]、[4]を続けて行うと、上述の動作と同様に、指入力コード対応表に従ってテキスト編集処理が行われ、ディスプレイ21には図7〜図10のようにテキスト編集処理結果が表示される。
【0033】
なお、削除改行ルーチン(S115)では、図15に示す指入力コード対応表が表示され、改行、スペース入力、削除、バックスペースを指示することができる。また、カーソル移動ルーチン(S119)では、図16に示す指入力コード対応表が表示され、上下左右へのカーソルの移動を指示することができる。
【0034】
このように、ひらがな、カタカナ、漢字、ローマ字、記号混じりのテキストなどのデータ入力が、キーボードを使わずに、片手で、自由な姿勢で可能になる。
【0035】
<実施形態2>
図17は、本発明の実施形態2の装着型データ入力システムの構成図である。図17に示すように本システムは、指動作検出部1(SR1、SR2、SR3、SR4、SR5)とヘッドマウントディスプレイ1511と小型コンピュータ1512とから構成されている。指動作検出部1はユーザの指に装着され、指の動作を検出して信号を生成し、コンピュータ小型1512は指動作検出部1からの信号を受信して動作する。
【0036】
小型コンピュータ1512の構成は、コンピュータ2(図2)と同様に、CPU22、RAM23、ROM24、テキスト編集部25、信号解析部26、受信部27とから構成されており、指動作検出部1からの信号を受信部27で受信し、受信信号を信号解析部26で解析し、CPU22で受信信号に応じた処理を行って動作するものとする。
【0037】
ヘッドマウントディスプレイ1511には、図3と同様に、指と入力コードとの対応関係が分かるように、指入力コード対応表が表示されており、ユーザは指入力コード対応表を見ながら指で物体に触れてデータを入力する。指入力コード対応表は、ユーザの指の動作に応じて切り替えて表示される。ROM24には、プログラムや辞書データや指入力コード対応表のデータなどが記憶されている。テキスト編集部25は、かな漢字変換やカーソルの移動、文字の削除等のテキスト編集処理を行う。
【0038】
図18は、指動作検出部1(SR1、SR2、SR3、SR4、SR5)の構成図である。SR1、SR2、SR3、SR4、SR5はすべて同じ構造をしており、触覚センサー14、信号発生部12、送信部13とから構成されている。触覚センサー14はユーザが指で物体に触れたことを検出する。信号発生部12は、各指に固有の信号を生成する。送信部13は、生成された信号を小型コンピュータ1512に送信する。送信手段は無線であっても有線であってもよい。
【0039】
このような構成にすることで、ひらがな、カタカナ、漢字、ローマ字、記号混じりのテキストなどのデータ入力が、いつでもどこでも、片手で、自由な姿勢で可能になる。
【0040】
なお、各指と入力コードとの対応関係は、上記に述べた実施形態以外の組み合わせでも良い。また、入力可能な入力コードは、上記に述べた実施形態の、ひらがな、カタカナ、ローマ字、記号、以外のコードやコマンドであっても良い。
【0041】
<実施形態3>
図19は、本発明の実施形態3のデータ入力システムの構成図である。図19に示すように本システムは、入力グローブ191と接続線2を介して接続されたコンピュータ9とから構成されている。ユーザは入力グローブ191を右手に装着し、ユーザが指で物体に触れたり物体を押したりすると、動作した各指のボタンスイッチ(SW1、SW2、SW3、SW4、SW5)がオンになり、コンピュータ9は各指の動作に応じて動作する。
【0042】
コンピュータ9は、受信部27が入力グローブ191からの信号を受信する以外は、図2と同様の構成であり、受信信号を信号解析部26で解析し、どの指が動作したかを判定し、CPU22で受信信号に応じた処理を行って動作する。ディスプレイ21には、図19に示すように、指と入力コードとの対応関係が分かるように、実施形態1と同様の指入力コード対応表が表示されており、ユーザは指入力コード対応表を見ながら指で物体に触れたり物体を押したりしてデータを入力する。
【0043】
図20は、入力グローブ191の構成図である。同図に示すように、入力グローブ191は、薄い布を用いたグローブの各指先の腹部の位置に、ボタンスイッチ(SW1、SW2、SW3、SW4、SW5)が配置された構成となっている。ボタンスイッチSW1は入力グローブ191の親指に、ボタンスイッチSW2は入力グローブ191の人差し指に、ボタンスイッチSW3は入力グローブ191の中指に、ボタンスイッチSW4は入力グローブ191の薬指に、ボタンスイッチSW5は入力グローブ191の小指に、それぞれ設置されている。
【0044】
各ボタンスイッチ(SW1、SW2、SW3、SW4、SW5)は、図21につき詳述するように、複数のプッシュボタン(B1〜Bn)から構成されており、ユーザが指で物体に触れたり物体を押したりして、プッシュボタンB1〜Bnのうちのいずれかが押されれば、スイッチがオンになる。また各プッシュボタンの素材にはシリコンゴムなどの弾性素材が用いられているので、ユーザが指で物体に触れたり物体を押したときにクリック感が得られ、入力したことが確認できる。SW1〜SW5のうちのいずれのボタンスイッチがオンになったかは、接続線192によって他の電子機器等に伝えられる。ここでは、接続線192によってボタンスイッチのオン・オフの情報を伝えているが、接続線を用いないで無線によってオン・オフの情報を伝えても良い。
【0045】
図21は、入力グローブ191の指部の構造を示した図である。同図に示すように、入力グローブ191の遠位指節間関節の位置より指先の方向の指腹部の位置に、厚さが0.1mm〜0.2mmの弾性プラスチック薄板211が接着されている。弾性プラスチック薄板3は各指の指腹部の形状に合わせて湾曲した形状をしており、指で押したとき軽く曲がる程度の反発弾性を持っている。弾性プラスチック薄板3の表面には複数のプッシュボタン(B1〜Bn)が接着されている。プッシュボタンの個数と配置は各指によって異なり、本実施形態では、図20に示すように、入力グローブ191の親指に4個、人差し指に3個、中指に3個、薬指に3個、小指に2個のプッシュボタンが付けられている。
【0046】
図22は、本入力装置を、図21の平面Aで切ってみたときの指部の断面図である。図22に示すように、薄い入力グローブ191の指腹部には弾性プラスチック薄板211が接着され、ユーザの指には布が直接触れるようになっており、布の感触を介してプッシュボタンを押したときのクリック感が指に得られる。プッシュボタンは、ボタン本体221と、ベース部222と、ヒンジ部223とからなり一体に形成されたものである。
【0047】
ボタン本体221は、ユーザが操作したとき直接物体に触れる部分であり、厚肉に成形され、ヒンジ部223で支えてベース部222の下に立ちさげられたものである。ボタン本体221の上面には、可動接点224が上向きに突出して一体に形成されている。ヒンジ部223は、ボタン本体221の外周から斜め上方に張り出して、ベース部222に接続された薄膜であって、自身の有する反発弾性作用によって押下時にクリック感を生じさせる。また押下時には、可動接点224と固定接点225とが接触することによってボタンスイッチがオンになる。
【0048】
図23は、本入力装置を形成したときの図である。同図に示すように、入力グローブ191の遠位指節間関節の位置より指先の方向の指腹部に、弾性プラスチック薄板211を接着する。弾性プラスチック薄板211の上には平行に2つの固定接点225を接着し、それぞれの固定接点225を接続線192に接続する。さらに弾性プラスチック薄板211の上にプッシュボタン(B1〜Bn)のベース部222(図22)を接着して固定する。
【0049】
以上のように入力装置を形成することによって、指で物体に触れたり指で物体を押したりしてデータを入力する際に、入力と同時に指腹部にクリック感が得られる。すなわち、入力に対する応答がユーザに対して明確に与えられるので、長時間使っていても疲れない入力装置が得られる。
【0050】
また、データグローブとして装着できるので、キーボードを必要とせず、いつでも、どこでも、自由な姿勢で、ひらがな、カタカナ、漢字、ローマ字、記号混じりのテキストなどのデータの入力が可能な入力装置が得られる。
【0051】
図24は、各指の動作と信号解析部26によって生成される解析信号との対応関係を示す。右手親指が動作してボタンスイッチSW1がオンになれば解析信号「1」を生成する。右手人差し指が動作してボタンスイッチSW2がオンになれば解析信号「2」を生成する。右手中指が動作してボタンスイッチSW3がオンになれば解析信号「3」を生成する。右手薬指が動作してボタンスイッチSW4がオンになれば解析信号「4」を生成する。右手小指が動作してボタンスイッチSW5がオンになれば解析信号「5」を生成する。
【0052】
以上の構成により、各指の動作に応じた画面の遷移、データの入力は、実施形態1と同様に行なわれる。
【0053】
また、本実施形態においても、実施形態2(図17)と同様に、表示手段としてヘッドマウントディスプレイを用いてもよい。
【0054】
また、各指と入力コードとの対応関係は、上述した以外の組み合わせでも良い。更に、入力可能な入力コードは、上記に述べた実施形態の、ひらがな、カタカナ、ローマ字、記号以外のコードやコマンドであっても良い。
【0055】
<実施形態4>
図25は、本発明の実施形態4の入力装置(データグローブ)の構成図である。図25に示すように、本入力装置は、薄い布を用いた入力グローブ191と接続線192とから構成されている。入力グローブ191の各指先の腹部の位置には、実施形態3と同様に、ボタンスイッチ(SW1、SW2、SW3、SW4、SW5)が配置されている。更に、手のひらに、同様のボタンスイッチ(SW6、SW7、SW8、SW9)が配置されている。ボタンスイッチSW6は入力グローブ191の人差し指の付け根に、ボタンスイッチSW7は入力グローブ191の小指の付け根に、ボタンスイッチSW8は入力グローブ191の母指球部に、ボタンスイッチSW9は入力グローブ191の小指球部に、それぞれ設置されている。
【0056】
ここでは、ボタンスイッチSW6〜SW9には、Enterコード、Shiftコード、Ctrlコード、ファンクションコードなどを割り当てるが、それ以外のコードを割り当てても良い。
【0057】
また、入力グローブ191の上記以外の位置にボタンスイッチを配置しても良い。
【0058】
このような入力装置を用いることにより、電子機器におけるテキストなどのデータ入力や、ゲーム機の操作が、いつでも、どこでも、片手で、自由な姿勢で可能になる。
【0059】
<実施形態5>
図26は、本発明の実施形態5の入力装置(データグローブ)の構成図である。図26に示すように本入力装置は、薄い布を用いた入力グローブ191と接続線192とから構成されている。入力グローブ191の各指先の腹部の位置には、ボタンスイッチ(BS1、BS2、BS3、BS4、BS5)が配置されている。
【0060】
ボタンスイッチBS1は入力グローブ191の親指に、ボタンスイッチBS2は入力グローブ191の人差し指に、ボタンスイッチBS3は入力グローブ191の中指に、ボタンスイッチBS4は入力グローブ191の薬指に、ボタンスイッチBS5は入力グローブ191の小指に、それぞれ設置されている。BS1〜BS5のうちのいずれのボタンスイッチがオンになったかは、接続線192によって他の電子機器等に伝えられる。ここでは、接続線192によってボタンスイッチのオン・オフの情報を伝えているが、接続線を用いないで無線によってオン・オフの情報を伝えても良い。
【0061】
図27は、本入力装置(データグローブ)の指部の構造を示した図である。図157に示すように、入力グローブ191の遠位指節間関節の位置より指先の方向の指側部の位置に、厚さが0.1mm〜0.2mmの弾性プラスチック薄板などで形成されたベース部273が接着されている。ベース部273は各指の指側部の形状に合わせて湾曲した形状をしており、指で押したとき軽く曲がる程度の反発弾性を持っている。
【0062】
図28は、入力グローブ191を、図27の平面Bで切ってみたときの指部の断面図である。図28に示すように、薄い入力グローブ191の指側部にはベース部282が接着されて固定されている。ボタン本体280は、反発弾性を持った素材で形成されたヒンジ部281を介して、ベース部282に接続されている。
【0063】
ボタン本体280は内部にバネやゴムなどの弾性素材を内蔵しており、ユーザが指で物体に触れたり物体を押したときに、キーボードやプッシュボタンと同様のクリック感が得られ、入力したことが確認できる。このとき、ボタン本体280と入力グローブ191との間には、1mmないし数mmの隙間が出来るようにベース部282の位置が固定されている。このように隙間を設けることによって、キーボードを押したときのような感触が得られる。
【0064】
図29は、ボタン本体280の構造を示す図である。ボタン本体280は、下部に突起部を持った押下キー283とボタン基盤284とからなり、押下キー283は、反撥弾性を持った素材で形成されたヒンジ部286を介してベース部285に接続されており、ベース部285は、ボタン基盤34の底面に接着されて固定されている。ボタン基盤284の底面には固定接点38が設置されており、それを覆うように反撥弾性を持った金属ドーム接点287が設置されている。
【0065】
ユーザが指で物体に触れたり物体を押したときに、ボタン本体280のボタン基盤284が物体に接触して押され、反撥弾性を持ったヒンジ部281とヒンジ部286とが湾曲し、指が押下キー283に触れて押下キー283を押しこむ。すると押下キー283の突起部が金属ドーム接点287を押しこみ、金属ドーム接点287が湾曲して、金属ドーム接点287と固定接点288とが接触し、スイッチがオンになる。このときキーボードやプッシュボタンと同様のクリック感が得られ、ユーザは入力したことが確認できる。
【0066】
以上のように入力装置を形成することによって、指で物体に触れたり指で物体を押したりしてデータを入力する際に、入力と同時に指腹部にクリック感が得られる。すなわち、入力に対する応答がユーザに対して明確に与えられるので、長時間使っていても疲れない入力装置が得られる。また、データグローブとして装着できるのでキーボードを必要とせず、いつでも、どこでも、自由な姿勢で、データの入力やゲームの操作が可能な入力装置が得られる。
【0067】
なお、上記実施形態では、入力グローブ191は布で形成されているが、布以外の素材を用いたグローブであっても良い。
【0068】
<実施形態6>
図30は、本発明の実施形態6におけるデータ入力システムの構成図である。図30に示すように、本システムは、入力グローブ191と、コンピュータ2と、ディスプレイ291とから構成されている。ユーザは布製の入力グローブ191を右手に装着し、ユーザが指で物体に触れたり物体を押したり指で物体を叩いたりすると、動作した各指のボタンスイッチ(SW1、SW2、SW3、SW4、SW5)がオンになり、コンピュータ2は各指の動作に応じて動作する。入力グローブ191の構成は、上述の実施形態と同様である。
【0069】
ディスプレイ291には、指と入力コードとの対応関係を表示する入力制御カーソル292が文字の入力位置に表示されており、ユーザは入力制御カーソル292を見ながら指で物体に触れたり物体を押したり物体を叩いたりしてデータを入力する。
【0070】
入力制御カーソル292は、その内部に、左から順番に各列が、右手親指、右手人差し指、右手中指、右手薬指、右手小指に対応した各指と入力コードとの対応表を表示しており、ユーザがテキストを編集する際の指の動作に応じて対応表のメニューを切り替えながら移動して表示される。入力制御カーソル292の白い部分はアクティブなメニューであり、灰色の部分はアクティブでないメニューである。例えばユーザが右手中指で物体に触れたり物体を押したり物体を叩いたりすると、図30のメニュー‘カナ’、‘さたっ’、‘かきくけこ’、‘う’の中で、メニュー‘う’が選択される。
【0071】
図31は、コンピュータ2の構成図である。コンピュータ2は、表示制御部311と、CPU22と、RAM23と、ROM24と、テキスト編集部25と、信号解析部26と、受信部27とから構成されており、入力グローブ191からの信号を受信部27で受信し、受信信号を信号解析部26で解析し、どの指が動作したかを判定し、CPU22で受信信号に応じた処理を行って動作する。各指の動作と信号解析部26によって生成される解析信号との対応関係は、実施形態3と同様であり、図24に示した通りである。
【0072】
ROM24には、プログラムや辞書データや入力制御カーソル292に表示するデータなどが記憶されている。テキスト編集部25は、かな漢字変換や入力制御カーソル292の移動、文字の削除等のテキスト編集処理を行う。表示制御部311は、ユーザの指の動作に応じて編集されるテキストや入力制御カーソル292の内容をディスプレイ291に表示する。
【0073】
本実施形態は、実施形態1において、メニューとして表示されていた対応表を入力制御カーソル292として表示するものであり、各指の動作に応じて切り換え表示される対応表の内容と、入力されるデータは、実施形態1と同様である。よって、本実施形態による入力表示の具体例については、以下に簡単に説明するにとどめる。
【0074】
図30には、「入力グローブ191によって各指の動作を検出し、片手でテキストのへんしゅ」までテキストが入力された状態での、ディスプレイ291に表示された入力テキストと入力制御カーソル292を示す。入力制御カーソル292は文字の入力位置に表示される。
【0075】
今、ユーザが‘う’を入力するためにディスプレイ291に表示された入力制御カーソル292を見ながら、右手中指で物体に触れる(図30)と、ボタンスイッチSW3がオンになり(図24の動作表記[3])、あ行ルーチン(図14)のステップS142においてボタンスイッチからの信号が受信され、ステップS143において受信信号が解析され、ステップS144において受信信号の種類が判別され、ステップS147において‘う’が入力され、入力制御カーソル292を移動すると同時に、ひらがな入力ルーチン(図12)に戻る。ひらがな入力ルーチン(図12)では、ステップS121において表示処理が行われ、図32に示すように、入力テキスト‘う’とひらがな入力ルーチンにおける入力制御カーソル292がディスプレイ291に表示される。
【0076】
このように、入力制御カーソル292の内部に各指と入力コードとの対応表を表示するようにし、文字の入力位置の移動に伴って入力制御カーソル292を移動することによって、対応表の表示位置が固定されている場合に生じる不自然な視線の移動がなくなり、自然な視線の移動で、テキストの入力および編集が、キーボードを使わずに、片手で、自由な姿勢で可能になる。
【0077】
<実施形態7>
各指と入力コードとの対応関係は、上記に述べた実施形態以外の組み合わせでも良い。また、入力制御カーソル292の内部に表示する各指と入力コードとの対応表の各列はユーザに分かりやすく色を付けて表示しても良い。例えば、親指に対応する列にはピンク色、人差し指に対応する列には空色、中指に対応する列には薄い黄色、薬指に対応する列には薄い紫色、小指に対応する列には薄いオレンジ色のように色分けして表示する。また、入力可能な入力コードは、上記に述べた実施形態の、ひらがな、カタカナ、ローマ字、記号以外のコードやコマンドであっても良い。
【0078】
<実施形態8>
図32は、本発明の実施形態8のディスプレイ291の表示状態を示す図である。同図に示すように、本実施形態においては、入力制御カーソル292として、実施形態6の入力制御カーソル292におけるアクティブな行、すなわち一番上の行のみが表示される。
【0079】
<実施形態9>
図34は、本発明の実施形態9のデータ入力システムの構成図である。図34に示すように、本システムは、指動作検出部1(L1、L2、L3、L4、L5、R6、R7、R8、R9、R0)とコンピュータ2とから構成されている。指動作検出部1はユーザの両手の指に装着され、指の動作を検出して信号を生成し、コンピュータ2は指動作検出部1からの信号を受信して動作する。各指動作検出部1の構成は、上述した実施形態と同様である。
【0080】
図35は、各指の動作と指動作検出部1(L1、L2、L3、L4、L5、R6、R7、R8、R9、R0)と発生信号との対応関係を示す図である。左手小指にはL1が装着されており信号「1」を発生する。左手薬指にはL2が装着されており信号「2」を発生する。左手中指にはL3が装着されており信号「3」を発生する。左手人差し指にはL4が装着されており信号「4」を発生する。左手親指にはL5が装着されており信号「5」を発生する。右手親指にはR6が装着されており信号「6」を発生する。右手人差し指にはR7が装着されており信号「7」を発生する。右手中指にはR8が装着されており信号「8」を発生する。右手薬指にはR9が装着されており信号「9」を発生する。右手小指にはR0が装着されており信号「0」を発生する。
【0081】
図36〜38は、具体的な入力に対する画面の遷移を表わす図である。ここでは、。海ソラ.jpという文字列を入力する場合を示している。本実施形態では、各指と文字または命令との対応表における現在アクティブな行のみを表示するようにしている。
【0082】
本実施形態によれば、両手を使うので、データ入力のストローク数は削減されるが、指動作検出部1を両手に装着し、データ入力時に両手の指を動作させる必要がある。
【0083】
また、指動作検出部1に代えて、入力グローブ191を両手に装着して用いることもできる。
【0084】
【発明の効果】
以上説明したように、本発明によれば、キーボードなしで、いつでもどこでも、自由な姿勢で、データを入力することができるという効果がある。
【0085】
また、各指の動作に応じて、各指と入力コードとの対応表を切り替えて表示するようにしたので、ユーザの操作に対するシステムの応答を分かりやすく表示することを可能にする。
【0086】
さらに、各指の動作に応じてデータを入力および編集すると同時に、各指と入力コードとの対応表を切り替えて表示することによって、キーボードなしで、自由な姿勢で、少ないストロークの操作で、日本語テキストなどのデータを入力することを可能にする。
【0087】
特に、片手だけでデータを入力することもできる。
【0088】
さらに、対応表の同一行内のメニューは、ほぼ同一のカテゴリに属することによって、ユーザに入力モードを分かりやすく表示することを可能にする。
【0089】
さらに、対応表の上位の行のある1つのメニューと下位の行のメニューとの間には、カテゴリにおいて上下関係が存在することによって、ユーザに入力モードを分かりやすく表示することを可能にする。
【0090】
さらに、各指の動作に応じて入力モードを切り替えると同時に、各指と入力コードとの対応表を切り替えて表示することによって、キーボードなしで自由な姿勢で、データを入力することを可能にする。
【0091】
さらに、表示手段としてヘッドマウントディスプレイを用いることによって、自由な姿勢で、いつでもどこでも、データを入力することを可能にする。
【0092】
また、指で物体に触れたり指で物体を押したりしてデータを入力する際に、入力と同時に指腹部にクリック感が得られるようにしたので、入力に対する応答がユーザに対して明確に与えられ、長時間使っていても疲れない入力装置が得られる。
【0093】
また、データグローブとして装着できるようにしたので、キーボードを必要とせず、いつでも、どこでも、自由な姿勢で、データの入力が可能な入力装置が得られる。
【0094】
また、対応表を入力位置に表示するようにしたことで、データ入力が、自然な視線の移動によって、いつでも、どこでも、片手で、自由な姿勢で可能になる。
【0095】
さらに、手に装着するグローブの手のひらの、人差し指の付け根、小指の付け根、母指球部、小指球部の位置に入力スイッチを付けたことによって、これらの入力スイッチの組み合わせにより、より多くのコードの入力を可能とする。
【0096】
さらに、各入力スイッチを、1つ又は複数のプッシュボタンから構成することで、各プッシュボタンは押されるとクリック感が生じて、ユーザの入力に対する応答が明確になるので、長時間使っていても疲れないデータの入力を可能とする。
【0097】
さらに、各入力スイッチは、それを構成するいずれかのプッシュボタンが押されればオンになることによって、入力を確実にする。
【図面の簡単な説明】
【図1】本発明に係る一実施形態のデータ入力システムの構成を示す図である。
【図2】コンピュータの構成を表わすブロック図である。
【図3】指入力コード対応表の表示例を示す図である。
【図4】指動作検出部のブロック構成を示す図である。
【図5】各指の動作と指動作検出部と発生信号の対応関係を示す図である。
【図6】指動作検出部の動作手順を表わすフローチャートである。
【図7】文字入力時の表示の遷移例を示す図である。
【図8】文字入力時の表示の遷移例を示す図である。
【図9】文字入力時の表示の遷移例を示す図である。
【図10】文字入力時の表示の遷移例を示す図である。
【図11】テキスト編集処理のメインルーチンを表わすフローチャートである。
【図12】ひらがな入力ルーチンを表わすフローチャートである。
【図13】あか行変換ルーチンを表わすフローチャートである。
【図14】あ行ルーチンを表わすフローチャートである。
【図15】削除改行ルーチンの表示処理で表示される指入力コード対応表を示す図である。
【図16】スペース記号ルーチンの表示処理で表示される指入力コード対応表を示す図である。
【図17】実施形態2のデータ入力システムの構成を示す図である。
【図18】実施形態2の指動作検出部の構成を示す図である。
【図19】実施形態のデータ入力システムの構成を示す図である。
【図20】実施形態の入力装置(データグローブ)の構成を示す図である。
【図21】本入力装置(データグローブ)の指部の構造をを示す図である。
【図22】指部の断面図である。
【図23】本入力装置を形成したときを示す図である。
【図24】各指の動作と信号解析部によって生成される解析信号との対応関係を示す図である。
【図25】実施形態6の入力装置(データグローブ)の構成を示す図である。
【図26】実施形態の入力装置(データグローブ)の構成を示す図である。
【図27】指部の構造を示す図である。
【図28】入力グローブ191の指部の断面図である。
【図29】実施形態1におけるデータ入力システムの構成図である。
【図30】コンピュータ2の構成図である。
【図31】テキスト編集処理におけるディスプレイの表示状態を示す図である。
【図32】テキスト編集処理におけるディスプレイの表示状態を示す図である。
【図33】ボタン本体30の構造を示す図である。
【図34】実施形態1におけるデータ入力システムの構成を示す図である。
【図35】各指の動作と指動作検出部と発生信号の対応関係を示す図である。
【図36】文字入力時の表示の遷移例を示す図である。
【図37】文字入力時の表示の遷移例を示す図である。
【図38】文字入力時の表示の遷移例を示す図である。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a data input system or apparatus for inputting data with one hand by hitting an object with a finger or palm or touching an object with a finger. The present invention also relates to a data input method in a wearable computer (wearable computer).
[0002]
[Prior art]
In a conventional computer, data is input using an input device such as a keyboard, a mouse, or a pen. A method of inputting data by a chord method with a sensor attached to each finger is also considered.
[0003]
[Problems to be solved by the invention]
The above-described input using the keyboard or mouse has a problem that the computer cannot be operated in a free posture anytime and anywhere. In addition, there is a problem of lack of portability.
[0004]
In addition, the pen input has a problem that the response to the input is dull and ambiguous, so that it is easy to get tired if used for a long time.
[0005]
Further, the method of inputting data by attaching a sensor to a finger has a problem that it is difficult to understand which finger corresponds to which input code.
[0006]
[Means for Solving the Problems]
In order to solve the above problems, a data input system according to the present invention includes a data display means for displaying input data, a finger motion detection means for detecting the motion of each finger, and a correspondence relationship between the motion of each finger and the input code. Storage means storing a correspondence table storing information, switching means for switching the correspondence table between each finger and the input code based on the movement of each finger detected by the finger motion detection means, and switching by the switching means A correspondence table display means for displaying the correspondence table as an input control cursor at a character input position, and an input means for inputting and editing data based on the operation of each finger according to the correspondence table switched by the switching means. Prepare.
[0007]
According to another aspect of the present invention, the input device includes an input switch at a position of a finger pad of a fingertip from a joint between distal phalanges of each finger of a glove worn on a hand.
[0008]
According to another aspect of the present invention, a data input method includes a finger motion detection step for detecting the motion of each finger, and a storage unit based on the motion of each finger detected by the finger motion detection step. A switching step of switching a correspondence table between each stored finger and an input code, a correspondence table display step of switching to a character input position and displaying the correspondence table switched in the switching step as an input control cursor, and the switching step And an input process for inputting and editing data based on the operation of each finger, and a data display process for displaying the input data.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
<
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
[0010]
FIG. 1 is a configuration diagram of a data input system according to the first embodiment of the present invention. As shown in FIG. 1, this system includes a finger motion detection unit 1 (R1, R2, R3, R4, R5) and a
[0011]
FIG. 2 is a configuration diagram of the
[0012]
As shown in FIG. 3, the
[0013]
The white portion of the finger input code correspondence table is an active menu, and the gray portion is an inactive menu. For example, when the user hits or touches the object with the middle finger of the right hand, the 'A', 'Sat', 'Kakikake', 'U' belonging to the column corresponding to the middle finger of the right hand in the menu of Fig. 3 The active menu 'u' is selected.
[0014]
In FIG. The
[0015]
FIG. 4 is a configuration diagram of the finger motion detection unit 1 (R1, R2, R3, R4, R5). R1, R2, R3, R4, and R5 all have the same structure, and include a
[0016]
FIG. 5 is a diagram illustrating a correspondence relationship between each finger motion, the finger motion detection unit 1 (R1, R2, R3, R4, R5) and the generated signal. R1 is attached to the right thumb and generates a signal “1”. R2 is attached to the right index finger, and a signal “2” is generated. R3 is attached to the middle finger of the right hand, and a signal “3” is generated. R4 is attached to the right ring finger and a signal “4” is generated. R5 is attached to the right little finger, and a signal “5” is generated.
[0017]
FIG. 6 is a flowchart showing the operation of the finger
[0018]
A case where the user inputs the text “Umiyama.com” as shown in FIGS. The main routine is shown in FIG. First, display processing is performed in step S111, and the finger input code correspondence table of the main menu is displayed on the display 21 (FIG. 7 (1)).
[0019]
When the user hits the object with the right index finger, a signal “2” is transmitted from R2 in steps S61, S62, and S63, received in step S112, the received signal is analyzed in step S113, and the type of the received signal is determined in step S114. Then, the process proceeds to a hiragana input routine in step S116. A series of these operations is represented as operation notation [2] (see FIG. 5).
[0020]
In the hiragana input routine (FIG. 12), display processing is performed in step S121, and a finger input code correspondence table for hiragana input is displayed on the display 21 (FIG. 7 (2)).
[0021]
When the user hits the object with the right index finger, the signal “2” is transmitted from R2 in steps S61, S62, and S63, received in step S122, the received signal is analyzed in step S123, and the type of the received signal is determined in step S124. Then, the process proceeds to the red line conversion routine in step S125. A series of these operations is represented as operation notation [2].
[0022]
In the red line conversion routine (FIG. 13), display processing is performed in step S131, and the finger input code correspondence table of the red line conversion routine is displayed on the display 21 (FIG. 7 (3)).
[0023]
When the user hits an object with the right thumb, a signal “1” is transmitted from R1 in steps S61, S62, and S63, received in step S132, the received signal is analyzed in step S133, and the type of received signal is determined in step S134. In step S135, the routine proceeds to that line routine. A series of these operations is represented as operation notation [1].
[0024]
In the line routine (FIG. 14), a display process is performed in step S141, and the finger input code correspondence table of the line routine is displayed on the display 21 (FIG. 7 (4)).
[0025]
When the user hits the object with the middle finger of the right hand, the signal “3” is transmitted from R3 in steps S61, S62, and S63, received in step S152, the received signal is analyzed in step S143, and the type of the received signal is determined in step S144. In step S147, “U” is input, and at the same time, the routine returns to the hiragana input routine (FIG. 12). A series of these operations is represented as operation notation [3].
[0026]
In the hiragana input routine (FIG. 12), display processing is performed in step S121, and the input data “U” and the finger input code correspondence table of the hiragana input routine are displayed on the display 21 (FIG. 7 (5)).
[0027]
Thereafter, when “mi” is input by the same operation, the input data “umi” and the finger input code correspondence table of the hiragana input routine are displayed on the display 21 (FIGS. 7 (6) to (8)).
[0028]
Here, when the user hits the object with the right index finger, a signal “2” is transmitted from R2, and the routine proceeds to the red line conversion routine, and the finger input code correspondence table of the red line conversion routine is displayed on the display 21 (FIG. 7). (9)).
[0029]
Here, when the user strikes an object with the right hand little finger, a signal “5” is transmitted from R5, and the process proceeds to the conversion routine. In the conversion routine, Kana-Kanji conversion processing is performed, and the Kana-Kanji conversion result and the finger input code correspondence table of the conversion routine are displayed on the display 21 (FIG. 8 (10)).
[0030]
Here, when the user hits the object with the right index finger, a signal “2” is transmitted from R2, which is interpreted as a confirmation instruction, and at the same time the Kana-Kanji conversion result is determined to be 'sea', the process returns to the hiragana input routine. . In the hiragana input routine, the input data 'sea' and the finger input code correspondence table of the hiragana input routine are displayed on the display 21 (FIG. 8 (11)).
[0031]
Here, when the user strikes an object with the thumb of the right hand, a signal “1” is transmitted from R1, and the process returns to the main routine. In the main routine, the finger input code correspondence table of the main routine is displayed on the display 21 (FIG. 8 (12)).
[0032]
Hereinafter, a series of operations shown in FIGS. 8 to 10, [3], [5], [1], [1], [4], [5], [1], [1], [4], [ 5], [3], [2], [2], [2], [3], [3], [4], [3], [2], [4] Similar to the operation, text editing processing is performed according to the finger input code correspondence table, and the text editing processing results are displayed on the
[0033]
In the delete line feed routine (S115), the finger input code correspondence table shown in FIG. 15 is displayed, and a line feed, space input, deletion, and backspace can be designated. Further, in the cursor movement routine (S119), the finger input code correspondence table shown in FIG. 16 is displayed, and the cursor can be instructed to move up, down, left, and right.
[0034]
In this way, data input such as hiragana, katakana, kanji, romaji, and mixed text is possible with one hand and free posture without using a keyboard.
[0035]
<
FIG. 17 is a configuration diagram of the wearable data input system according to the second embodiment of the present invention. As shown in FIG. 17, this system includes a finger movement detection unit 1 (
[0036]
Like the computer 2 (FIG. 2), the
[0037]
Similarly to FIG. 3, the head-mounted display 1511 displays a finger input code correspondence table so that the correspondence relationship between the finger and the input code can be understood. Touch to enter data. The finger input code correspondence table is switched and displayed according to the operation of the user's finger. The
[0038]
FIG. 18 is a configuration diagram of the finger motion detection unit 1 (SR1, SR2, SR3, SR4, SR5). SR1, SR2, SR3, SR4, and SR5 all have the same structure, and include a
[0039]
With this configuration, data input such as hiragana, katakana, kanji, romaji, and mixed text can be performed anytime, anywhere with one hand and in a free posture.
[0040]
The correspondence relationship between each finger and the input code may be a combination other than the embodiment described above. The input code that can be input may be a code or command other than the hiragana, katakana, romaji, and symbols of the above-described embodiment.
[0041]
<
FIG. 19 is a configuration diagram of a data input system according to the third embodiment of the present invention. As shown in FIG. 19, the present system is composed of an
[0042]
The
[0043]
FIG. 20 is a configuration diagram of the
[0044]
Each button switch (SW1, SW2, SW3, SW4, SW5) is composed of a plurality of push buttons (B1 to Bn) as will be described in detail with reference to FIG. If any one of the push buttons B1 to Bn is pressed by pressing it, the switch is turned on. In addition, since an elastic material such as silicon rubber is used as the material of each push button, a click feeling is obtained when the user touches or pushes the object with a finger, and it can be confirmed that the input has been made. Which button switch of SW1 to SW5 is turned on is transmitted to another electronic device or the like via the connection line 192. Here, on / off information of the button switch is transmitted by the connection line 192, but on / off information may be transmitted wirelessly without using the connection line.
[0045]
FIG. 21 shows the structure of the finger part of
[0046]
FIG. 22 is a cross-sectional view of the finger when the input device is cut along a plane A in FIG. As shown in FIG. 22, an elastic plastic thin plate 211 is adhered to the finger pad portion of the
[0047]
The button main body 221 is a portion that directly touches an object when operated by the user, is formed to be thick, and is supported by a hinge portion 223 and raised under the base portion 222. On the upper surface of the button main body 221, a movable contact 224 protrudes upward and is integrally formed. The hinge portion 223 is a thin film that protrudes obliquely upward from the outer periphery of the button body 221 and is connected to the base portion 222, and generates a click feeling when pressed by its own repulsive elastic action. When the button is pressed, the movable switch 224 and the fixed contact 225 come into contact with each other to turn on the button switch.
[0048]
FIG. 23 is a diagram when the present input device is formed. As shown in the figure, an elastic plastic thin plate 211 is bonded to the finger pad in the direction of the fingertip from the position of the distal interphalangeal joint of the
[0049]
By forming the input device as described above, when inputting data by touching an object with a finger or pressing an object with a finger, a click feeling is obtained at the finger pad simultaneously with the input. That is, since a response to the input is clearly given to the user, an input device that does not get tired even when used for a long time can be obtained.
[0050]
In addition, since it can be worn as a data glove, an input device that can input data such as hiragana, katakana, kanji, romaji, and mixed texts can be obtained at any time and anywhere without any keyboard.
[0051]
FIG. 24 shows a correspondence relationship between the movement of each finger and the analysis signal generated by the
[0052]
With the above configuration, screen transition and data input according to the operation of each finger are performed in the same manner as in the first embodiment.
[0053]
Also in the present embodiment, a head mounted display may be used as the display means, as in the second embodiment (FIG. 17).
[0054]
The correspondence relationship between each finger and the input code may be a combination other than those described above. Furthermore, the input codes that can be input may be codes or commands other than hiragana, katakana, romaji, and symbols in the embodiment described above.
[0055]
<
FIG. 25 is a configuration diagram of an input device (data glove) according to the fourth embodiment of the present invention. As shown in FIG. 25, this input device is composed of an
[0056]
Here, an Enter code, a Shift code, a Ctrl code, a function code, and the like are assigned to the button switches SW6 to SW9, but other codes may be assigned.
[0057]
Further, a button switch may be arranged at a position other than the above of the
[0058]
By using such an input device, it is possible to input data such as text in an electronic device and to operate a game machine anytime, anywhere with one hand and in a free posture.
[0059]
<
FIG. 26 is a configuration diagram of an input device (data glove) according to the fifth embodiment of the present invention. As shown in FIG. 26, the input device is composed of an
[0060]
The button switch BS1 is the thumb of the
[0061]
FIG. 27 is a diagram showing the structure of the finger portion of the input device (data glove). As shown in FIG. 157, a base portion formed of an elastic plastic thin plate having a thickness of 0.1 mm to 0.2 mm at the position of the finger side in the direction of the fingertip from the position of the distal interphalangeal joint of the
[0062]
FIG. 28 is a cross-sectional view of the finger when the
[0063]
The button body 280 incorporates an elastic material such as a spring or rubber inside, and when the user touches or presses an object with a finger, a click feeling similar to that of a keyboard or push button is obtained and input Can be confirmed. At this time, the position of the base portion 282 is fixed so that a gap of 1 mm to several mm is formed between the button body 280 and the
[0064]
FIG. 29 shows the structure of the button body 280. As shown in FIG. The button body 280 includes a pressing key 283 having a protruding portion at the bottom and a button base 284, and the pressing key 283 is connected to the base portion 285 via a hinge portion 286 formed of a material having repulsive elasticity. The base portion 285 is bonded and fixed to the bottom surface of the button base 34. A fixed contact 38 is installed on the bottom surface of the button base 284, and a metal dome contact 287 having rebound resilience is installed so as to cover it.
[0065]
When the user touches or presses an object with a finger, the button base 284 of the button body 280 is pressed in contact with the object, the hinge part 281 and the hinge part 286 having repulsive elasticity are curved, and the finger is The press key 283 is pressed by touching the press key 283. Then, the protrusion of the pressing key 283 pushes the metal dome contact 287, the metal dome contact 287 is bent, the metal dome contact 287 and the fixed contact 288 come into contact, and the switch is turned on. At this time, a click feeling similar to that of a keyboard or push button is obtained, and the user can confirm that the input has been made.
[0066]
By forming the input device as described above, when inputting data by touching an object with a finger or pressing an object with a finger, a click feeling is obtained at the finger pad simultaneously with the input. That is, since a response to the input is clearly given to the user, an input device that does not get tired even when used for a long time can be obtained. In addition, since it can be worn as a data glove, it does not require a keyboard, and an input device capable of inputting data and operating a game with a free posture anytime and anywhere can be obtained.
[0067]
In the above embodiment, the
[0068]
<
FIG. 30 is a configuration diagram of the data input system according to the sixth embodiment of the present invention. As shown in FIG. 30, this system includes an
[0069]
On the display 291, an input control cursor 292 that displays the correspondence between the finger and the input code is displayed at the character input position, and the user can touch the object with the finger or press the object while looking at the input control cursor 292. Input data by hitting an object.
[0070]
In the input control cursor 292, each column in the order from the left displays a correspondence table of each finger and input code corresponding to the right thumb, right index finger, right middle finger, right hand ring finger, right hand little finger, The display is moved and displayed while switching the menu of the correspondence table according to the operation of the finger when the user edits the text. The white portion of the input control cursor 292 is an active menu, and the gray portion is an inactive menu. For example, if the user touches the object with the middle finger of the right hand, presses the object, or hits the object, the menu 'U' is displayed in the menus 'Kana', 'Sat', 'Kakikenko', 'U' in Fig. 30. Is selected.
[0071]
FIG. 31 is a configuration diagram of the
[0072]
The
[0073]
In the present embodiment, the correspondence table displayed as the menu in
[0074]
FIG. 30 shows the input text and the input control cursor 292 displayed on the display 291 in a state where the text has been input up to “detecting the movement of each finger by the
[0075]
Now, when the user touches an object with the middle finger of the right hand (FIG. 30) while looking at the input control cursor 292 displayed on the display 291 to input “U”, the button switch SW3 is turned on (the operation in FIG. 24). Notation [3]), the signal from the button switch is received in step S142 of the routine (FIG. 14), the received signal is analyzed in step S143, the type of the received signal is determined in step S144, and in step S147, At the same time the input control cursor 292 is moved, the routine returns to the hiragana input routine (FIG. 12). In the hiragana input routine (FIG. 12), display processing is performed in step S121, and as shown in FIG. 32, the input text “U” and the input control cursor 292 in the hiragana input routine are displayed on the display 291.
[0076]
Thus, the correspondence table between each finger and the input code is displayed inside the input control cursor 292, and the display position of the correspondence table is displayed by moving the input control cursor 292 as the character input position is moved. This eliminates the unnatural line-of-sight movement that occurs when the camera is fixed, and the natural line-of-sight movement enables text input and editing with one hand and a free posture without using a keyboard.
[0077]
<
The correspondence relationship between each finger and the input code may be a combination other than the embodiment described above. Further, each column of the correspondence table between each finger and the input code displayed inside the input control cursor 292 may be displayed in a color that is easy to understand for the user. For example, the column corresponding to the thumb is pink, the column corresponding to the index finger is blue, the column corresponding to the middle finger is light yellow, the column corresponding to the ring finger is light purple, and the column corresponding to the little finger is light orange Display by color-coded like colors. The input codes that can be input may be codes and commands other than hiragana, katakana, romaji, and symbols in the above-described embodiment.
[0078]
<
FIG. 32 is a diagram showing a display state of the display 291 according to the eighth embodiment of the present invention. As shown in the figure, in the present embodiment, as the input control cursor 292, only the active line in the input control cursor 292 of the sixth embodiment, that is, the top line is displayed.
[0079]
<
FIG. 34 is a configuration diagram of the data input system according to the ninth embodiment of the present invention. As shown in FIG. 34, this system includes a finger motion detection unit 1 (L1, L2, L3, L4, L5, R6, R7, R8, R9, R0) and a
[0080]
FIG. 35 is a diagram showing a correspondence relationship between each finger motion, finger motion detection unit 1 (L1, L2, L3, L4, L5, R6, R7, R8, R9, R0) and the generated signal. L1 is attached to the left little finger, and signal “1” is generated. L2 is attached to the left ring finger and signal “2” is generated. L3 is attached to the middle finger of the left hand and generates a signal “3”. The left index finger is equipped with L4 and generates a signal “4”. L5 is attached to the left thumb and generates a signal “5”. R6 is attached to the right thumb and generates a signal “6”. R7 is attached to the right index finger, and a signal “7” is generated. R8 is attached to the middle finger of the right hand, and a signal “8” is generated. R9 is attached to the right ring finger, and a signal “9” is generated. R0 is attached to the right little finger, and a signal “0” is generated.
[0081]
36 to 38 are diagrams showing screen transitions in response to specific inputs. here,. This shows the case where the character string “Kai Sora.jp” is entered. In the present embodiment, only the currently active line in the correspondence table between each finger and a character or command is displayed.
[0082]
According to the present embodiment, since both hands are used, the number of strokes for data input is reduced. However, it is necessary to attach the finger
[0083]
Further, instead of the finger
[0084]
【The invention's effect】
As described above, according to the present invention, there is an effect that data can be input in a free posture anytime and anywhere without a keyboard.
[0085]
In addition, since the correspondence table between each finger and the input code is displayed by switching according to the operation of each finger, the system response to the user's operation can be displayed in an easy-to-understand manner.
[0086]
In addition, data can be input and edited according to the movement of each finger, and at the same time, the correspondence table between each finger and the input code can be switched and displayed. Allows you to enter data such as word text.
[0087]
In particular, data can be input with only one hand.
[0088]
Furthermore, menus in the same row of the correspondence table belong to substantially the same category, so that the user can easily display the input mode.
[0089]
Furthermore, there is a vertical relationship in category between one menu in the upper row of the correspondence table and the menu in the lower row, so that the user can easily display the input mode.
[0090]
Furthermore, by switching the input mode according to the movement of each finger and simultaneously switching and displaying the correspondence table between each finger and the input code, it is possible to input data in a free posture without a keyboard. .
[0091]
Furthermore, by using a head-mounted display as a display means, data can be input anytime and anywhere in a free posture.
[0092]
In addition, when inputting data by touching an object with a finger or pressing an object with a finger, a click feeling can be obtained at the same time as the input, so that a response to the input is clearly given to the user. And an input device that does not get tired even if used for a long time.
[0093]
In addition, since it can be worn as a data glove, an input device capable of inputting data in a free posture anytime and anywhere without a keyboard is obtained.
[0094]
In addition, since the correspondence table is displayed at the input position, data input can be performed anytime, anywhere with one hand and in any posture by natural movement of the line of sight.
[0095]
In addition, by adding input switches to the index finger base, pinkie base, thumb ball part, pink finger part position of the palm of the glove to be worn on the hand, more codes can be obtained by combining these input switches. Can be input.
[0096]
Furthermore, by configuring each input switch with one or more push buttons, each push button will produce a sense of clicking when it is pressed, and the response to the user's input will be clear, so it can be used for a long time Allows data entry without fatigue.
[0097]
Furthermore, each input switch ensures input by being turned on when any of the push buttons constituting it is pressed.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a data input system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a configuration of a computer.
FIG. 3 is a diagram showing a display example of a finger input code correspondence table.
FIG. 4 is a diagram illustrating a block configuration of a finger motion detection unit.
FIG. 5 is a diagram illustrating a correspondence relationship between each finger motion, a finger motion detection unit, and a generated signal.
FIG. 6 is a flowchart showing an operation procedure of a finger motion detection unit.
FIG. 7 is a diagram illustrating a display transition example when a character is input.
FIG. 8 is a diagram illustrating a display transition example when a character is input.
FIG. 9 is a diagram illustrating a display transition example when inputting characters.
FIG. 10 is a diagram illustrating a display transition example when a character is input.
FIG. 11 is a flowchart showing a main routine of text editing processing.
FIG. 12 is a flowchart showing a hiragana input routine.
FIG. 13 is a flowchart showing a red line conversion routine.
FIG. 14 is a flowchart showing a row routine.
FIG. 15 is a diagram showing a finger input code correspondence table displayed in the display process of the deleted line feed routine.
FIG. 16 is a diagram showing a finger input code correspondence table displayed in the display process of the space symbol routine.
FIG. 17 is a diagram illustrating a configuration of a data input system according to a second embodiment.
FIG. 18 is a diagram illustrating a configuration of a finger motion detection unit according to the second embodiment.
FIG. 19 is a diagram illustrating a configuration of a data input system according to an embodiment.
FIG. 20 is a diagram illustrating a configuration of an input device (data glove) according to the embodiment.
FIG. 21 is a diagram illustrating a structure of a finger portion of the input device (data glove).
FIG. 22 is a cross-sectional view of a finger part.
FIG. 23 is a diagram showing a state where the present input device is formed.
FIG. 24 is a diagram illustrating a correspondence relationship between the movement of each finger and the analysis signal generated by the signal analysis unit.
FIG. 25 is a diagram illustrating a configuration of an input device (data glove) according to a sixth embodiment.
FIG. 26 is a diagram illustrating a configuration of an input device (data glove) according to the embodiment.
FIG. 27 is a diagram illustrating a structure of a finger part.
28 is a cross-sectional view of a finger part of the
FIG. 29 is a configuration diagram of a data input system according to the first embodiment.
30 is a configuration diagram of a
FIG. 31 is a diagram showing a display state of a display in text editing processing.
FIG. 32 is a diagram showing a display state of the display in the text editing process.
33 is a diagram showing the structure of the
FIG. 34 is a diagram showing a configuration of a data input system according to the first embodiment.
FIG. 35 is a diagram illustrating a correspondence relationship between each finger motion, a finger motion detection unit, and a generated signal.
FIG. 36 is a diagram illustrating a display transition example when a character is input.
FIG. 37 is a diagram illustrating a display transition example when inputting characters.
FIG. 38 is a diagram illustrating a display transition example when inputting characters.
Claims (22)
入力データを表示するデータ表示手段と、
各指の動作を検出する指動作検出手段と、
各指の動作と入力コードとの対応関係を記憶した対応表を記憶した記憶手段と、
前記指動作検出手段により検出された各指の動作に基づいて、各指と入力コードとの対応表を切り替える切替手段と、
該切替手段で切り替えられた対応表を入力制御カーソルとして、文字入力位置に表示する対応表表示手段と、
前記切替手段で切り替えられた対応表にしたがって、各指の動作に基づいてデータを入力および編集する入力手段とを有することを特徴とするデータ入力システム。A data input system that inputs data by hitting an object with a finger or touching an object,
Data display means for displaying input data;
Finger motion detection means for detecting the motion of each finger;
Storage means for storing a correspondence table storing correspondence relations between movements of each finger and input codes;
Based on the operation of each finger detected by the finger movement detecting means, and switching means Ru switch the correspondence table between the input code and the finger,
Correspondence table display means for displaying the correspondence table switched by the switching means as an input control cursor at the character input position ;
A data input system comprising: input means for inputting and editing data based on the operation of each finger according to the correspondence table switched by the switching means .
各指の動作を検出する指動作検出工程と、
前記指動作検出工程により検出された各指の動作に基づいて、記憶部に記憶された各指と入力コードとの対応表を切り替える切替工程と、
該切替工程で切り替えられた対応表を入力制御カーソルとして、文字入力位置に切り替えて表示する対応表表示工程と、
前記切替工程で切り替えられた対応表にしたがって、各指の動作に基づいてデータを入力および編集する入力工程と、
入力データを表示するデータ表示工程と、
を有することを特徴とするデータ入力方法。A data input method for inputting data by hitting an object with a finger or touching an object,
A finger motion detection step for detecting the motion of each finger;
Based on the operation of each finger detected by the finger operation detection step, the switching step with each finger stored in the storage unit Ru switches the correspondence table between the input code,
The correspondence table switched in the switching step is used as an input control cursor, and the correspondence table display step for switching and displaying the character input position ;
According to the correspondence table switched in the switching step, an input step for inputting and editing data based on the operation of each finger;
A data display process for displaying input data;
A data input method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000401331A JP4497717B2 (en) | 2000-12-28 | 2000-12-28 | Data input system and method, and input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000401331A JP4497717B2 (en) | 2000-12-28 | 2000-12-28 | Data input system and method, and input device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002202840A JP2002202840A (en) | 2002-07-19 |
JP4497717B2 true JP4497717B2 (en) | 2010-07-07 |
Family
ID=18865781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000401331A Expired - Fee Related JP4497717B2 (en) | 2000-12-28 | 2000-12-28 | Data input system and method, and input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4497717B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023192413A1 (en) * | 2022-03-31 | 2023-10-05 | New York University | Text entry with finger tapping and gaze-directed word selection |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100445782B1 (en) * | 2001-07-18 | 2004-08-25 | 훙-리엔 센 | Data input method and device for a computer system |
JP2005339306A (en) * | 2004-05-28 | 2005-12-08 | Yokogawa Electric Corp | Data input device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01145714A (en) * | 1987-10-23 | 1989-06-07 | Yokogawa Hewlett Packard Ltd | Device and method for inputting character |
JPH03276324A (en) * | 1990-03-26 | 1991-12-06 | Shimadzu Corp | Data input device |
JP2000222415A (en) * | 1999-01-29 | 2000-08-11 | Canon Inc | Character processor and its method |
-
2000
- 2000-12-28 JP JP2000401331A patent/JP4497717B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01145714A (en) * | 1987-10-23 | 1989-06-07 | Yokogawa Hewlett Packard Ltd | Device and method for inputting character |
JPH03276324A (en) * | 1990-03-26 | 1991-12-06 | Shimadzu Corp | Data input device |
JP2000222415A (en) * | 1999-01-29 | 2000-08-11 | Canon Inc | Character processor and its method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023192413A1 (en) * | 2022-03-31 | 2023-10-05 | New York University | Text entry with finger tapping and gaze-directed word selection |
Also Published As
Publication number | Publication date |
---|---|
JP2002202840A (en) | 2002-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5102020B2 (en) | Apparatus and method for generating a data signal | |
US6947028B2 (en) | Active keyboard for handheld electronic gadgets | |
US7965279B2 (en) | Universal input device and system | |
JP3597060B2 (en) | Japanese character input device for mobile terminal and character input method | |
EP1183590B1 (en) | Communication system and method | |
US20060082540A1 (en) | Data input system | |
US20080297475A1 (en) | Input Device Having Multifunctional Keys | |
US20060279532A1 (en) | Data input device controlled by motions of hands and fingers | |
WO2002066259A1 (en) | Improved keyboard | |
JP2003500771A (en) | A data input device that records inputs in two dimensions | |
US6386773B1 (en) | Ergonomic keyboard | |
JP4497734B2 (en) | Data input device and operation method thereof | |
US7339124B2 (en) | Input key and input apparatus | |
JP2002342011A (en) | Character input system, character input method, character input device, character input program and kana/kanji conversion program | |
GB2161755A (en) | Computer peripheral device | |
US8279169B2 (en) | Universal input device and system | |
JP6740389B2 (en) | Adaptive user interface for handheld electronic devices | |
EP1394664B1 (en) | Apparatus and method for finger to finger typing | |
EP2070197A1 (en) | Keypad emulation | |
KR20040101560A (en) | User interface | |
JP4497717B2 (en) | Data input system and method, and input device | |
JP2004220536A (en) | Input device for information processor | |
WO2008047172A2 (en) | Glove as computer control input unit | |
JP2001242986A (en) | Information input device | |
US6398437B1 (en) | Keyboard and computer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100118 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100330 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100413 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130423 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |