JPH10260773A - 情報入力方法及びその装置 - Google Patents

情報入力方法及びその装置

Info

Publication number
JPH10260773A
JPH10260773A JP6652797A JP6652797A JPH10260773A JP H10260773 A JPH10260773 A JP H10260773A JP 6652797 A JP6652797 A JP 6652797A JP 6652797 A JP6652797 A JP 6652797A JP H10260773 A JPH10260773 A JP H10260773A
Authority
JP
Japan
Prior art keywords
input
line
sight
information
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6652797A
Other languages
English (en)
Inventor
Satoko Tominaga
聡子 富永
Sunao Sato
佐藤  直
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP6652797A priority Critical patent/JPH10260773A/ja
Publication of JPH10260773A publication Critical patent/JPH10260773A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

(57)【要約】 【課題】 コンピュータに対する情報入力手段として、
視線を用いて手入力を代替することである。 【解決手段】 視線情報検出手段5により表示手段4に
注がれた視線の位置および動きを検出し、入力処理およ
び表示制御手段2により検出した視線の位置を表示手段
4に表示し、視線の位置で定まる情報をコンピュータの
入力信号として用いることを特徴とする。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、コンピュータへの
情報入力方法および装置に関するもので、特に音声を用
いた入力と視線を用いた入力を組み合わせた情報入力方
法および装置に関するものである。
【0002】
【従来の技術】コンピュータへの情報入力方法に関する
従来技術は、現在市販されているコンピュータでは主
に、キーボードを用いて指で文字や数字などを入力する
方法と、マウスにより入力する方法が用いられている。
図10に従来技術の構成を示す。
【0003】図10において、1はキーボードやマウス
などの入力手段、2は前記入力手段1よりの信号を、そ
の入力信号の最終的な受け取り側である情報処理手段3
への受け渡し処理をし、さらに、表示手段4に表示する
ための制御を行う、入力処理および表示制御手段であ
る。なお、入力処理および表示制御手段2,情報処理手
段3および表示手段4はいわゆるコンピュータの構成要
素である。キーボード入力は指でキーを叩くことによっ
て、文字や数字などを入力するものであり、マウス入力
は画面上の希望する項目をマウスボタンで1回押下(ク
リック)する、2回押下する(ダブルクリック)、押し
たまま引っ張る(ドラッグ)ことにより、「選択」,
「実行」,「ドラッグ」といった制御情報を入力する。
また、マウスボタンを押さないで動かす場合は、表示手
段4上で指示位置を示しているポインタの単に「移動」
となる。これらの方法では、常に画面あるいはキーボー
ドを見ながら、さらにキーボード,マウスといった2種
類の入力端末を用いた手による入力を必要とし、手が使
えないような状況下では入力することができない。
【0004】
【発明が解決しようとする課題】このように従来技術
は、コンピュータへの情報入力方法が限定されている。
すなわち、キーボードやマウスといった手入力による入
力手段1を必要とし、音声や視線は使われていなかっ
た。また、マウスとキーボードでは機能が異なるため、
それぞれ状況に応じて使い分けが必要であった。
【0005】本発明の目的は、コンピュータに対する情
報入力手段に、視線,音声を用いており、また視線と音
声を組み合わることにより手入力を代替したコンピュー
タの情報入力方法および装置を提供することにある。
【0006】
【課題を解決するための手段】請求項1に記載の発明
は、ディスプレイ上の視線位置を検出し、前記ディスプ
レイ上に前記検出した視線位置を表示するとともに、前
記視線位置および視線の動きに応じて定まる情報をコン
ピュータへの入力信号とするものである。
【0007】請求項2に記載の発明は、ディスプレイ上
の視線位置を検出し、前記ディスプレイ上に前記検出し
た視線位置を表示するとともに、前記視線位置および視
線の動きに応じて定まる情報をコンピュータへの入力信
号とし、さらに入力された音声を認識し、前記音声によ
って定まる情報を前記コンピュータへの入力信号とする
ものである。
【0008】請求項3に記載の発明は、視線位置がアイ
コン上に停止したときの、まばたきの回数と間隔に応じ
て、前記アイコンの選択,実行,ドラッグのための制御
信号を対応させておき、前記視線位置がアイコン上に停
止し、まばたきがなされたとき、前記まばたきの回数と
間隔に対応する制御信号をコンピュータに入力し、アイ
コンがドラッグされているときの視線位置の動きに追随
して、前記ドラッグされたアイコンの位置を移動させる
ものである。
【0009】請求項4に記載の発明は、キーボードをデ
ィスプレイ上に表示し、前記ディスプレイ上のキーボー
ドにおいて視線位置にある文字を検出し、予め定めた視
線の動きを検出したときに、前記検出されている視線位
置にある文字を、コンピュータへの入力情報とするもの
である。
【0010】請求項5に記載の発明は、有限個の文字ま
たはコマンドに対応する音声を事前に登録しておき、音
声入力があった場合、前記入力された音声を、前記予め
登録されている有限個の文字またはコマンドに対応する
音声と比較し、最も近い文字またはコマンドを、コンピ
ュータへの入力情報とするものである。
【0011】請求項6に記載の発明は、ディスプレイに
注がれた視線の位置および動きを検出する視線情報検出
手段(図1に示す視線情報検出手段5)と、前記視線情
報検出手段にて検出された視線の位置を、ディスプレイ
(図1に示す表示手段4)上に表示する視線位置表示手
段(図1に示す入力処理および表示制御手段2)と、前
記検出された視線位置または動きに応じて定まる情報を
コンピュータの入力信号として入力する視線対応情報入
力手段(図1に示す入力処理および表示制御手段2)と
を有するものである。
【0012】請求項7に記載の発明は、音声を認識する
音声処理手段(図1に示す音声処理手段6)と、前記認
識された音声によって定まる情報を前記コンピュータへ
の入力信号として入力する音声対応情報入力手段(図1
に示す入力処理および表示制御手段2)とを有するもの
である。
【0013】請求項8に記載の発明は、視線位置がアイ
コン上に停止したときの、まばたきの回数と間隔に応じ
て、前記アイコンの選択,実行,ドラッグのための制御
信号を対応させ、対応する制御信号をコンピュータに入
力する制御信号入力手段(図1に示す入力処理および表
示制御手段2)と、アイコンがドラッグされているとき
の視線位置の動きに付随して、前記ドラッグされたアイ
コンの位置を移動させる移動手段(図1に示す入力処理
および表示制御手段2)とを有するものである。
【0014】請求項9に記載の発明は、キーボードをデ
ィスプレイ上に表示するキーボード表示手段(図1に示
す入力処理および表示制御手段2)と、前記ディスプレ
イ上のキーボードにおいて視線位置にある文字を検出
し、予め定めた視線の動きを検出したときに、前記検出
されている視線位置にある文字を、コンピュータへの入
力情報とするキーボード対応情報入力手段(図1に示す
入力処理および表示制御手段2)とを有するものであ
る。
【0015】請求項10に記載の発明は、事前に登録さ
れた有限個の文字またはコマンドに対応する音声と、入
力された音声とを比較する比較手段(図1に示す情報処
理手段3)と、最も近い文字またはコマンドを、コンピ
ュータへの入力情報とする登録情報入力手段(図1に示
す情報処理手段3)とを有するものである。
【0016】
【発明の実施の形態】本発明の特徴は、視線、および音
声と視線により従来、コンピュータの入力となっていた
マウスやキーボードの入力を代替するものであり、具体
的には、音声入力については、音声を認識し処理する音
声処理手段を持ち、発生した音声をコンピュータ(情報
処理手段)の入力信号に変換する。
【0017】また、ディスプレイに注がれた視線位置を
検出し、移動距離,移動速度,注視時間,瞳孔径,まば
たきの回数及びまばたきの間隔を収集する視線検出手段
と、収集結果を処理してコンピュータの入力にするとと
もに、ディスプレイ上(表示手段)での表示を制御する
制御処理手段からなり、視線の位置を検出してディスプ
レイ上の位置の指示に利用し、さらに、まばたきをする
間の時間長(まばたき間隔)およびまばたきの回数を測
定することにより、前記指示位置における入力がコマン
ドの選択なのか実行あるいはドラッグなのかに対応させ
るものであり、視線を用いたコンピュータへの情報入力
方法および装置を提供する。
【0018】本発明は、従来コンピュータ使用者がマウ
スやキーボードで行っている入力手段に代わり、使用者
の視線および音声でコンピュータの入力を可能としてい
ることが従来技術と異なる。
【0019】図1に、本発明を利用した情報入力装置の
構成例を示す。2は入力処理および表示制御手段、3は
情報処理手段、4はコンピュータの表示手段(以下、デ
ィスプレイという)、5は視線情報検出手段、6は情報
入力の対象となるところの音声処理手段である。
【0020】視線は、従来のコンピュータの情報入力方
法であるキーボード入力やマウス入力に対する作業では
入力手段として全く使用されていない。また、音声も、
従来のコンピュータの情報入力手段としてほとんど利用
されていない。視線情報検出手段5では、視線情報とし
て視線位置,移動距離,移動速度,注視時間,瞳孔径,
まばたきの回数及びまばたきの間隔の測定を行ってい
る。また、入力処理および表示制御手段2は、視線位
置,移動距離,移動速度,注視時間,瞳孔径,まばたき
の回数及びまばたきの間隔を利用してポインタの位置や
移動状態かどうか、あるいはコンピュータの入力である
選択,実行及びドラッグのうちいずれであるかを判断す
る。音声を入力とする音声処理手段6では、音声を認識
し、認識された音声を入力信号に変換することで、コン
ピュータへの音声入力を可能とする。これにより、手が
使えない状態でもコンピュータへの入力を可能とする。
また、視線入力だけでなく音声入力も用いることによ
り、視線入力のみによる疲労を軽減することができる。
【0021】
【実施例】
〔実施例1〕本発明における第1の実施例について説明
する。本実施例は、上述した図1に示す構成によって視
線情報入力で、通常のマウスによる入力を代替させるも
のである。また、音声による入力で、通常のキーボード
による入力を代替させるものである。
【0022】図1において、2は入力処理および表示制
御手段、3は情報処理手段、4は表示手段(ディスプレ
イ)、5は視線情報検出手段、6は音声処理手段であ
り、2〜4は図10に示すものと対応する。視線情報検
出手段5は、図示はしていないが、光学系装置,ビデオ
カメラ及びミラーからなり、光学系装置からコンピュー
タ使用者の瞳孔に送出された赤外線を、ディスプレイ4
の横に設置しているミラーで反射し、その反射光を再度
光学系装置に取り込む。また、ビデオカメラは被験者
(コンピュータの操作者)の見ているディスプレイ4を
映すものであり、視線の位置と画面の位置を一致させる
ためのものである。
【0023】視線位置の検出技術は既にあり、文献とし
ては、坂口,中野,山本:“自動車運転中のドライバの
視線検出”,信学技報PRU95−28,pp57−6
4,1995などがある。また、製品化された視線検出
装置の例としては、ASL(Applied Science Laborato
ries)社製の、「アイトラッキングシステム4250R
リモート式光学系装置」などがある。本発明において、
これらの技術を用いることが可能である。
【0024】視線位置の検出精度は、真正眼球位置付近
における、真の視線位置と測定視線位置の誤差は1度以
下、また、視野の周辺部における同誤差は2度以下であ
る。したがって、ディスプレイまでの距離を30cmと
すると、視野の周辺部では、
【0025】
【数1】30cm×tan2度=1.047cm すなわち、プラスマイナス約1cmの誤差である。した
がって2cm程度の大きさのアイコンであれば、視線位
置を検出することによって操作者がそのアイコンを注視
しているかどうか検出できる。また、後述するように検
出した視線位置を視線ポインタでディスプレイ4に表示
させるようにすると、操作者からのフィードバックが可
能となるので、さらに小さなアイコンでも指示可能とな
る。
【0026】図2は、音声および視線入力を行うための
起動アイコンおよび終了アイコンのイメージである。音
声入力起動アイコンをクリックすると、音声入力が可能
になり、同時に音声入力終了アイコンが表示される。音
声入力終了アイコンをクリックすると音声入力を終了す
る。同様に、視線入力起動アイコンをクリックすると視
線入力が可能となり、ポインタがディスプレイ4上の視
線の位置となり、同時に視線入力終了アイコンが表示さ
れる。視線入力終了アイコンをクリックすると、視線入
力を終了する。音声入力起動アイコンおよび視線入力起
動アイコンは、コンピュータの起動時に画面上に現れる
ものとする。これらのアイコンを用意することにより、
音声や視線による入力を必要とするときだけ利用するこ
とができる。
【0027】音声を入力に変換するためには、コンピュ
ータのマイク入力から入力された音声を音声処理手段6
を通して入力処理および表示制御手段2に送り、音声を
入力情報に変換する。マイクは、コンピュータに付属し
ているマイク入力に接続できるものを用い、音声入力用
の特別なマイクは必要としない。
【0028】音声の入力情報は、主としてキーボードの
機能を代替するものであり、アルファベット入力やかな
入力による文章や、キーパッド入力による数値などであ
る。
【0029】音声入力用にあらかじめ用意されているコ
マンドとしては、ファイル管理に必要な「複製」,「削
除」,「名前変更」といったコマンドや、ファイル内容
の編集に必要な「入力」,「変換」,「コピー」,「ペ
ースト」,「消去」,「置換・検索」といったコマンド
がある。これらのコマンドについては、音声で発声する
とコマンドを実行できる。
【0030】音声入力による文字や数字の入力には、
「入力」コマンドを用いる。「入力」コマンドが実行さ
れると、続いて発声されるものが数字あるいは文字入力
とみなされ、最も近い文字や数字に変換される。また、
ユーザがよく使う文字やコマンドについては、ユーザに
より単語登録やコマンド登録ができるものとする。
【0031】さらに、ファイル操作や編集操作などの基
本的な操作については、音声コマンドとしてあらかじめ
登録されている言葉を用いることにより、これらの操作
も音声入力により可能となる音声認識の技術も既にある
ので、その詳細は省略する。
【0032】視線の入力情報は、主としてマウス機能の
代替をするものであり、ポインタの移動や、選択,実
行,ドラッグといった機能を可能にするものである。
【0033】視線を入力に変換するためには、視線情報
検出手段5を通して得られる視線情報を入力処理および
表示制御手段2に送り、視線位置,移動距離,移動速
度,注視時間,瞳孔径,またばきの回数及びまたばきの
間隔から、ポインタの位置や移動状態かどうか、さらに
「選択」,「実行」、および「ドラッグ」のうち、どの
入力制御を行うかを判別する。その結果を表示手段4に
出力し、情報処理手段3に引き渡す。
【0034】視線をマウス機能の代替入力とするための
情報の流れを図3〜図5のフローチャートに示す。な
お、(1)〜(21)は各ステップを示す。
【0035】図3において、視線入力起動アイコンを起
動すると(1)、ポインタ上の視線情報の収集を開始す
る。まず、初期設定として視線の位置と画面の位置を一
致させるために校正を行う(2)。校正は、画面上に中
央および四隅を中心とした数カ所(5カ所もしくは9カ
所)の位置を画面上の表示に従い、使用者が凝視し、視
線の特性を登録する。これにより、使用者の視覚特性を
コンピュータに認識させる。ただし、校正はコンピュー
タを起動する度に要求されるが、同じ利用者が続けて使
用する場合は校正を省略できるものとする。
【0036】次に、実際のコンピュータ入力に対する視
線情報の収集を開始する(3)。処理の開始時におい
て、コンピュータへの入力状態は図中の「中立状態」で
ある(4)。
【0037】視線による入力の可能な期間中は、視線位
置の検出を常に行っておく。ただし、人間の視線の特性
として、以下に示す固視微動があり、これへの対処を以
下のように行う。
【0038】固視微動とは、人間の目は絶えず動いてお
り、一点を凝視したときでも自覚はされないが小さな微
動を続けており、この小さな微動のことである。したが
って、本発明では、視線位置の停止とは、視線の移動速
度が予め決められた一定値(しきい値a)より小さいと
きに、視線が停止しているとみなす。しきい値aの具体
値を参考までに挙げると、5度/秒である。この値は使
用者により設定できるものとする。
【0039】以上は、本発明における視線位置検出処理
の基本であって、常にこの処理を行っている。以上を前
提として、図3〜図5に基づいて、通常のマウスからの
入力を代替する手順について説明する。
【0040】本発明では、ディスプレイ4上における、
(イ)アイコン等の選択(通常のマウスでは1回クリッ
クで実現される)、(ロ)アイコンに対応する処理の実
行(通常のマウスでは2回クリックで実行される)、
(ハ)アイコン等をドラッグしての移動を以下のように
実現する。
【0041】(イ)アイコン等の選択 視線があるアイコンの上にきて(5)、まばたき1回し
たら(6)、そのアイコンを選択したものとする
(9)。このとき、視線の移動速度が上記のしきい値a
より小さいこと、すなわち停止しているとみなされるこ
とが前提である。また、まばたきが真に1回だけなの
か、2回のまばたきの内の最初のまばたきなのかを検出
する必要があるが、それは上記のまばたきの後、一定時
間bまばたきがなければ真に1回だけのまばたきである
と見なすことで(7)、解決できる。一定時間bの具体
的な値は、たとえば0.5秒であり、利用者により設定
できるものとする(10)。この操作で選択されたアイ
コン等は、選択されたまま保持されるものとし、次に、
視線位置が前記アイコン以外の場所でまばたきを検出し
たときに選択情報が解除されるものとする(13)〜
(16)。
【0042】(ロ)アイコンに対応する処理の実行 (イ)と同様にして、視線があるアイコンの上にきて停
止したとみなされ、まばたきを一定時間b内に2回した
ら、そのアイコンに対応する処理またはソフトウエアの
実行とする(7),(8)。
【0043】(ハ)アイコン等のドラッグ ドラッグしようとするアイコンの上に視線を停止させ、
1回まばたきをして選択状態にさせ(上記ステップ
(1)の処理と同じ)、さらに視線位置を一定時間以上
動かすことなく次のまばたきをしたときに、当該アイコ
ンがドラッグされたものとする(11),(12)。ド
ラッグされたアイコンの移動は、そのアイコン上に視線
位置をもって来て(17)、視線を動かすことで(1
8)、その動きに追随させて移動させる(19)。ただ
し、視線の動きが一定の速度のしきい値c以上のとき
は、視線位置に追随させてのアイコンの動きを行わない
ことにする。しきい値cの具体値を参考までに挙げる
と、一度ドラッグされたアイコンは、視線位置が前記ア
イコン以外の場所で、まばたきを検出したときにドラッ
グ状態が解除されるものとし(20),(21)、それ
までは、たとえ視線位置が前記アイコン以外の位置に来
ても解除されないものとする。
【0044】このような処理をすることで、ドラッグし
たアイコンの移動を視線の動きで行う際に、過度の集中
を要することもなくなる。
【0045】なお、ドラッグの解除については前述した
とおりである。また、まばたきの検出は、まばたきで瞳
孔が閉じるときに視線情報として瞳孔径のデータが取れ
ないことを利用し、瞳孔径データが取れない時間が20
0ms以下である場合を、まばたきしたと判断する。
【0046】このような構造になっているので、コンピ
ュータの入力装置であるマウスの代わりに視線が使用で
きるので、指を使わなくても入力ができるようになる。
その効果としては、コンピュータの入力端末が特に必要
ない、使用者のユーザインタフェースの負担が少ない、
指の動きが不自由なユーザが使用しやすいことが挙げら
れる。
【0047】〔実施例2〕図6は、本発明の第2の実施
例を説明する図であって、実施例1の場合に比べ、視線
による入力を実施例1のような従来のマウス入力の代替
としてのみ使うものではなく、キーボード入力の代替品
としても使うことであり、この場合は音声入力は行わな
い。構成は図1と同様であるが、音声入力を行わないの
でマイク入力は使わない。視線入力起動アイコンを起動
すると、ポインタ上に視線情報の収集を開始する。ま
ず、初期設定として視線の位置と両面の位置を一致させ
るために校正を行う。校正は、画面上に中央および四隅
を中心とした数カ所(5カ所もしくは9カ所)の位置を
画面上の表示に従い、使用者が凝視し、視線の特性を登
録する。これにより、使用者の視覚特性をコンピュータ
に認識させる。ただし、校正はコンピュータを起動する
度に要求されるが、同じ利用者が続けて使用する場合は
校正を省略できるものとする。
【0048】次に、実際のコンピュータ入力に対する視
線の収集を開始する。画面上には、キーボード入力を可
能とするアイコンがあり、これを起動すると、図6の
(a)の状態から(b)のようにキーボードが画面上に
現れる。この画面キーボード上のキーを視線によって選
択することで、キーボード入力を可能にする。この場合
は、従来の使い方であるキーボード端末の上に指を置い
て入力する代わりに、視線を画面上のキーボードのキー
の上に置くことで機能を代替する。視線によるキーボー
ド入力注視するときは、画面上に表示されているキーボ
ードの最上段左にある終了ボタンを選択することによ
り、終了できる。
【0049】図7に視線をキーボード機能の代替入力と
するための情報の流れをフローチャートで示す。なお、
(31)〜(37)は各ステップを示す。コンピュータ
が起動すると、画面中央にポインタおよび視線入力起動
アイコンが表示される。視線入力起動アイコンをクリッ
クすると(31)、ポインタ上の視線の収集を開始す
る。まず、校正を行う(32)。校正が終了すると入力
情報の分析に入る。まず、視線が静止しているか移動し
ているかを測定する(33)。移動速度(単位時間あた
りの移動角度)v1がしきい値aより小さいと(3
4)、その位置に視線が静止状態であるものと判定し、
しきい値aより大きいと移動状態であると判定する(3
7)。移動状態(Noの方向)では、測定時間単位で、
移動角度および移動距離を測定することにより位置検出
を行う。一方、静止状態(Yesの方向)では、次にま
ばたきをしたかどうかを検出する。まばたきをした状態
(Yesの方向)は、その位置にあるコマンドを実行す
る(35),(36)。一方、まばたきをしなかった場
合(Noの方向)は、再度、視線位置,注視時間,瞳孔
径,移動速度および移動距離を測定する。マウス機能と
キーボード機能の両者を視線で代替する場合は、使用者
の校正は1回のみとする。
【0050】このような構造になっているから、指を使
わず、実施例1の場合より直接文字や数字が入力できる
という点で、コンピュータでできる作業内容が拡大す
る。その効果としては、指を触れずに現在のコンピュー
タ操作と同等の作業が行え、使用者のユーザインタフェ
ースの負担が少ないことが挙げられる。
【0051】〔実施例3〕図8は本発明の第3の実施例
を説明する図であって、1Aは入力手段のうちのキーボ
ード、2は入力処理および表示制御手段、3は情報処理
手段、4は表示手段、5は視線情報検出手段である。キ
ーボード1Aは従来の使い方と同様で、指による入力と
し、マウスの機能のみ視線により代替する。このような
構造になっているから、従来のコンピュータ作業におけ
るマウス機能を視線で代替することにより、キーボード
とマウスという従来使われていた2種類の入力装置から
指先からはキーボード入力のみ、あとの入力は視線によ
り入力というように、指先を用いた入力装置を1種類に
できる。その効果としては、入力端末の簡素化、ユーザ
の入力端末使用に関する煩雑さからの開放がある。
【0052】〔実施例4〕図9は、本発明の第4の実施
例を説明する図であって、1Bは入力手段のうちのマウ
ス、2〜4,6は図1の実施例と同じである。マウス1
Bは従来の使い方と同様で、指による入力とし、キーボ
ードの機能のみ音声により代替する。このような構造に
なっているから、従来のコンピュータ作業におけるキー
ボード機能を音声で代替することにより、キーボードと
マウスという従来使われていた2種類の入力装置から指
先からはマウス入力のみ、あとの入力は音声による入力
というように、指先を用いた入力装置を1種類にでき
る。その効果としては、入力端末の簡素化、ユーザの入
力端末使用に関する煩雑さからの開放などがある。
【0053】音声入力用にあらかじめ用意されているコ
マンドとしては、ファイル管理に必要な「複製」,「削
除」,「名前変更」といったコマンドや、ファイル内容
の編集に必要な「入力」,「変換」,「コピー」,「ペ
ースト」,「消去」,「置換・検索」といったコマンド
がある。これらのコマンドについては、音声で発声する
とコマンドを実行できる。
【0054】音声入力による文字や数字の入力には、
「入力」コマンドを用いる。「入力」コマンドが実行さ
れると、続いて発声されるものが数字あるいは文字入力
とみなされ、最も近い文字や数字に変換される。また、
ユーザがよく使う文字やコマンドについては、ユーザに
より単語登録やコマンド登録ができるものとする。
【0055】
【発明の効果】以上説明したように、本発明による情報
入力方法および装置により音声および視線でコンピュー
タへの入力が可能であるから、コンピュータのユーザイ
ンタフェースがより容易になり、入力端末の簡易化が図
られ、例えば指に障害を持つ人や病気等で寝たきりの人
でもキーボードやマウスの操作なしにコンピュータの操
作が可能になるという利点がある。
【0056】また、本発明では、視線情報と音声情報の
両方を併用しているので、視線情報だけによる入力で
は、あちこち移動して場所を示すのは有効であるが、文
字,数字などの連続入力の際には、疲労がたまるという
欠点と、音声情報だけによる入力では、文字や数字の連
続入力には有効であるが、場所を細かく示すのに不便、
というそれぞれの欠点を相補うことができる。
【0057】また、音声による入力だけでは場所を細か
く示すのには不便であるため、任意の図形の描画は難し
かったが、視線入力を併用することにより、容易に図形
描画ができる。
【0058】さらに、視線入力だけでは、文字や数字を
画面上のキーボードから入力する際に細かい場所の移動
を繰返すことによる疲労が考えられるが、文字や数字の
入力の際に音声入力を併用することによって疲労を軽減
できるという効果を奏する。
【図面の簡単な説明】
【図1】本発明にかかる情報入力装置の一実施例の構成
を示すブロック図である。
【図2】図1の実施例で用いる画面上に表示される音声
および視線入力用の起動アイコンおよび終了アイコンの
一例を示すイメージ図である。
【図3】本発明にかかる情報入力方法の一実施例を説明
するためのフローチャートである。
【図4】本発明にかかる情報入力方法の一実施例を説明
するためのフローチャートである。
【図5】本発明にかかる情報入力方法の一実施例を説明
するためのフローチャートである。
【図6】本発明において画面上からキーボード入力を行
う際のキーボード表示のイメージ図である。
【図7】本発明にかかる情報入力方法の他の実施例を説
明するためのフローチャートである
【図8】本発明にかかる情報入力装置の他の実施例の構
成を示すブロック図である。
【図9】本発明にかかる情報入力装置のさらに他の実施
例の構成を示すブロック図である。
【図10】従来のコンピュータの構成例を示したブロッ
ク図である。
【符号の説明】
1 入力手段 2 入力処理および表示制御手段 3 情報処理手段 4 表示手段 5 視線情報検出手段 6 情報処理手段

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 コンピュータへの情報入力方法であっ
    て、 ディスプレイ上の視線位置を検出し、前記ディスプレイ
    上に前記検出した視線位置を表示するとともに、前記視
    線位置および視線の動きに応じて定まる情報をコンピュ
    ータへの入力信号とすることを特徴とする情報入力方
    法。
  2. 【請求項2】 コンピュータへの情報入力方法であっ
    て、 ディスプレイ上の視線位置を検出し、前記ディスプレイ
    上に前記検出した視線位置を表示するとともに、前記視
    線位置および視線の動きに応じて定まる情報をコンピュ
    ータへの入力信号とし、さらに入力された音声を認識
    し、前記音声によって定まる情報を前記コンピュータへ
    の入力信号とすることを特徴とする情報入力方法。
  3. 【請求項3】 請求項1または請求項2記載のコンピュ
    ータへの情報入力方法において、 視線位置がアイコン上に停止したときの、まばたきの回
    数と間隔に応じて、前記アイコンの選択,実行,ドラッ
    グのための制御信号を対応させておき、前記視線位置が
    アイコン上に停止し、まばたきがなされたとき、前記ま
    ばたきの回数と間隔に対応する制御信号をコンピュータ
    に入力し、アイコンがドラッグされているときの視線位
    置の動きに追随して、前記ドラッグされたアイコンの位
    置を移動させることを特徴とする情報入力方法。
  4. 【請求項4】 請求項1または請求項2記載の情報入力
    方法において、 キーボードをディスプレイ上に表示し、 前記ディスプレイ上のキーボードにおいて視線位置にあ
    る文字を検出し、予め定めた視線の動きを検出したとき
    に、前記検出されている視線位置にある文字を、コンピ
    ュータへの入力情報とすることを特徴とする情報入力方
    法。
  5. 【請求項5】 請求項2記載の情報入力方法において、 有限個の文字またはコマンドに対応する音声を事前に登
    録しておき、音声入力があった場合、前記入力された音
    声を、前記予め登録されている有限個の文字またはコマ
    ンドに対応する音声と比較し、最も近い文字またはコマ
    ンドを、コンピュータへの入力情報とすることを特徴と
    する情報入力方法。
  6. 【請求項6】 ディスプレイに注がれた視線の位置およ
    び動きを検出する視線情報検出手段と、 前記視線情報検出手段にて検出された視線の位置を、デ
    ィスプレイ上に表示する視線位置表示手段と、 前記検出された視線位置または動きに応じて定まる情報
    をコンピュータの入力信号として入力する視線対応情報
    入力手段と、を有することを特徴とする情報入力装置。
  7. 【請求項7】 音声を認識する音声処理手段と、 前記認識された音声によって定まる情報を前記コンピュ
    ータへの入力信号として入力する音声対応情報入力手段
    と、を有することを特徴とする情報入力装置。
  8. 【請求項8】 請求項6記載の情報入力装置において、 視線位置がアイコン上に停止したときの、まばたきの回
    数と間隔に応じて、前記アイコンの選択,実行,ドラッ
    グのための制御信号を対応させ、対応する制御信号をコ
    ンピュータに入力する制御信号入力手段と、 アイコンがドラッグされているときの視線位置の動きに
    付随して、前記ドラッグされたアイコンの位置を移動さ
    せる移動手段と、を有することを特徴とする情報入力装
    置。
  9. 【請求項9】 請求項6記載の情報入力装置において、 キーボードをディスプレイ上に表示するキーボード表示
    手段と、 前記ディスプレイ上のキーボードにおいて視線位置にあ
    る文字を検出し、予め定めた視線の動きを検出したとき
    に、前記検出されている視線位置にある文字を、コンピ
    ュータへの入力情報とするキーボード対応情報入力手段
    と、を有することを特徴とする情報入力装置。
  10. 【請求項10】 請求項7記載の情報入力装置におい
    て、 事前に登録された有限個の文字またはコマンドに対応す
    る音声と、入力された音声とを比較する比較手段と、最
    も近い文字またはコマンドを、コンピュータへの入力情
    報とする登録情報入力手段と、を有することを特徴とす
    る情報入力装置。
JP6652797A 1997-03-19 1997-03-19 情報入力方法及びその装置 Pending JPH10260773A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6652797A JPH10260773A (ja) 1997-03-19 1997-03-19 情報入力方法及びその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6652797A JPH10260773A (ja) 1997-03-19 1997-03-19 情報入力方法及びその装置

Publications (1)

Publication Number Publication Date
JPH10260773A true JPH10260773A (ja) 1998-09-29

Family

ID=13318444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6652797A Pending JPH10260773A (ja) 1997-03-19 1997-03-19 情報入力方法及びその装置

Country Status (1)

Country Link
JP (1) JPH10260773A (ja)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001042892A (ja) * 1999-07-08 2001-02-16 Microsoft Corp 音声入力用グラフィカル・ユーザ・インターフェース、その処理方法および記録媒体
KR20030022538A (ko) * 2001-09-11 2003-03-17 김태용 시점 추적 좌표 입력 시스템을 이용한 데이터 입력 방법
KR20030022537A (ko) * 2001-09-11 2003-03-17 김태용 동공 추적 카메라를 이용한 좌표 입력 시스템 및 그 방법
JP2004530501A (ja) * 2001-06-19 2004-10-07 ファーゲル,ヤン,ゲー 生き物のための環境を作り出すための装置及び方法
US7056216B2 (en) 1999-06-11 2006-06-06 Canon Kabushiki Kaisha User interface apparatus, user interface method, game apparatus, and program storage medium
KR100846210B1 (ko) 2006-12-05 2008-07-15 한국전자통신연구원 입력 데이터 자동 인식 시스템 및 방법
US7574051B2 (en) 2005-06-10 2009-08-11 British Telecommunications Plc Comparison of patterns
US7593602B2 (en) 2002-12-19 2009-09-22 British Telecommunications Plc Searching images
US8040428B2 (en) 2005-12-19 2011-10-18 British Telecommunications Public Limited Company Method for focus control
US8135210B2 (en) 2005-07-28 2012-03-13 British Telecommunications Public Limited Company Image analysis relating to extracting three dimensional information from a two dimensional image
JP2012234549A (ja) * 2011-05-06 2012-11-29 Deckel Maho Pfronten Gmbh 工作物を取り扱い、組み立て、または機械加工するための自動化された機械を作動させるためのデバイス
WO2013046942A1 (ja) * 2011-09-26 2013-04-04 Necカシオモバイルコミュニケーションズ株式会社 表示装置
WO2014050949A1 (ja) * 2012-09-27 2014-04-03 京セラ株式会社 端末装置
KR101410667B1 (ko) * 2007-04-09 2014-06-24 삼성전자주식회사 단말 및 주시와 선택에 의한 그의 문자 입력 방법
JP2014191237A (ja) * 2013-03-27 2014-10-06 Brother Ind Ltd 情報記憶装置および情報記憶プログラム
KR20140125078A (ko) * 2013-04-18 2014-10-28 삼성전자주식회사 전자 장치 및 전자 장치에서 잠금 해제 방법
JP2015055718A (ja) * 2013-09-11 2015-03-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2015064165A1 (ja) * 2013-11-01 2015-05-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2016507112A (ja) * 2013-03-05 2016-03-07 インテル コーポレイション 複合的な知覚感知入力の対話
JP2016071835A (ja) * 2014-09-30 2016-05-09 深▲せん▼市億思達科技集団有限公司 眼追跡に基づく三次元ホログラフィック仮想オブジェクトの表示制御方法
JP2018018141A (ja) * 2016-07-25 2018-02-01 日本電信電話株式会社 判定装置、判定方法および判定プログラム
JP2019036927A (ja) * 2017-08-21 2019-03-07 富士ゼロックス株式会社 画像処理装置
WO2020105349A1 (ja) * 2018-11-20 2020-05-28 ソニー株式会社 情報処理装置および情報処理方法
JP2021502659A (ja) * 2017-11-13 2021-01-28 ニューラブル インコーポレイテッド 高速、正確及び直観的なユーザ対話のための適合を有する脳−コンピュータインターフェース
CN114327026A (zh) * 2020-09-29 2022-04-12 宏碁股份有限公司 具有眼球追踪装置的电子装置以及文字输入方法
US11972049B2 (en) 2017-08-23 2024-04-30 Neurable Inc. Brain-computer interface with high-speed eye tracking features

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7056216B2 (en) 1999-06-11 2006-06-06 Canon Kabushiki Kaisha User interface apparatus, user interface method, game apparatus, and program storage medium
JP2001042892A (ja) * 1999-07-08 2001-02-16 Microsoft Corp 音声入力用グラフィカル・ユーザ・インターフェース、その処理方法および記録媒体
JP2004530501A (ja) * 2001-06-19 2004-10-07 ファーゲル,ヤン,ゲー 生き物のための環境を作り出すための装置及び方法
KR20030022538A (ko) * 2001-09-11 2003-03-17 김태용 시점 추적 좌표 입력 시스템을 이용한 데이터 입력 방법
KR20030022537A (ko) * 2001-09-11 2003-03-17 김태용 동공 추적 카메라를 이용한 좌표 입력 시스템 및 그 방법
US7593602B2 (en) 2002-12-19 2009-09-22 British Telecommunications Plc Searching images
US7574051B2 (en) 2005-06-10 2009-08-11 British Telecommunications Plc Comparison of patterns
US8135210B2 (en) 2005-07-28 2012-03-13 British Telecommunications Public Limited Company Image analysis relating to extracting three dimensional information from a two dimensional image
US8040428B2 (en) 2005-12-19 2011-10-18 British Telecommunications Public Limited Company Method for focus control
KR100846210B1 (ko) 2006-12-05 2008-07-15 한국전자통신연구원 입력 데이터 자동 인식 시스템 및 방법
KR101410667B1 (ko) * 2007-04-09 2014-06-24 삼성전자주식회사 단말 및 주시와 선택에 의한 그의 문자 입력 방법
JP2012234549A (ja) * 2011-05-06 2012-11-29 Deckel Maho Pfronten Gmbh 工作物を取り扱い、組み立て、または機械加工するための自動化された機械を作動させるためのデバイス
WO2013046942A1 (ja) * 2011-09-26 2013-04-04 Necカシオモバイルコミュニケーションズ株式会社 表示装置
US9395814B2 (en) 2011-09-26 2016-07-19 Nec Corporation Display device
WO2014050949A1 (ja) * 2012-09-27 2014-04-03 京セラ株式会社 端末装置
JP2014071476A (ja) * 2012-09-27 2014-04-21 Kyocera Corp 端末装置
US9801068B2 (en) 2012-09-27 2017-10-24 Kyocera Corporation Terminal device
JP2016507112A (ja) * 2013-03-05 2016-03-07 インテル コーポレイション 複合的な知覚感知入力の対話
JP2014191237A (ja) * 2013-03-27 2014-10-06 Brother Ind Ltd 情報記憶装置および情報記憶プログラム
KR20140125078A (ko) * 2013-04-18 2014-10-28 삼성전자주식회사 전자 장치 및 전자 장치에서 잠금 해제 방법
JP2015055718A (ja) * 2013-09-11 2015-03-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2015064165A1 (ja) * 2013-11-01 2015-05-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2015064165A1 (ja) * 2013-11-01 2017-03-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US9891707B2 (en) 2013-11-01 2018-02-13 Sony Corporation Information processing device, information processing method, and program for controlling a state of an application by gaze position
JP2016071835A (ja) * 2014-09-30 2016-05-09 深▲せん▼市億思達科技集団有限公司 眼追跡に基づく三次元ホログラフィック仮想オブジェクトの表示制御方法
JP2018018141A (ja) * 2016-07-25 2018-02-01 日本電信電話株式会社 判定装置、判定方法および判定プログラム
JP2019036927A (ja) * 2017-08-21 2019-03-07 富士ゼロックス株式会社 画像処理装置
US11070694B2 (en) 2017-08-21 2021-07-20 Fujifilm Business Innovation Corp. Image processing apparatus for controlling a scanner
US11972049B2 (en) 2017-08-23 2024-04-30 Neurable Inc. Brain-computer interface with high-speed eye tracking features
JP2021502659A (ja) * 2017-11-13 2021-01-28 ニューラブル インコーポレイテッド 高速、正確及び直観的なユーザ対話のための適合を有する脳−コンピュータインターフェース
US12001602B2 (en) 2017-11-13 2024-06-04 Neurable Inc. Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions
WO2020105349A1 (ja) * 2018-11-20 2020-05-28 ソニー株式会社 情報処理装置および情報処理方法
JPWO2020105349A1 (ja) * 2018-11-20 2021-10-14 ソニーグループ株式会社 情報処理装置および情報処理方法
US11900931B2 (en) 2018-11-20 2024-02-13 Sony Group Corporation Information processing apparatus and information processing method
CN114327026A (zh) * 2020-09-29 2022-04-12 宏碁股份有限公司 具有眼球追踪装置的电子装置以及文字输入方法

Similar Documents

Publication Publication Date Title
JPH10260773A (ja) 情報入力方法及びその装置
US11567573B2 (en) Neuromuscular text entry, writing and drawing in augmented reality systems
US11561616B2 (en) Nonverbal multi-input and feedback devices for user intended computer control and communication of text, graphics and audio
US6963937B1 (en) Method and apparatus for providing configurability and customization of adaptive user-input filtration
KR19990011180A (ko) 화상인식을 이용한 메뉴 선택 방법
WO2014067110A1 (zh) 绘图控制方法、装置及移动终端
JPH04372012A (ja) 入力装置
JP7405093B2 (ja) 情報処理装置および情報処理方法
JP2009054101A (ja) 視線入力装置、視線入力方法、及び、視線入力プログラム
JP2000187553A (ja) 入力装置および入力装置用ヘッドマウントディスプレイ
CN110597382B (zh) 一种核电站控制室多通道融合人机交互方法以及***
JP4088282B2 (ja) コンピュータ入力方法と装置
Ohno et al. Gaze-Based Interaction for Anyone, Anytime.
Montanini et al. Low complexity head tracking on portable android devices for real time message composition
KR102083372B1 (ko) 아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템 및 동작 방법
CN101446859B (zh) 一种基于机器视觉的输入方法及其***
JPH1039995A (ja) 視線・音声入力装置
JPH09237151A (ja) グラフィカルユーザインタフェース
JPH1195912A (ja) 座標入力装置、座標入力方法及び座標入力プログラムを記録したコンピュータ読み取り可能な記録媒体
KR100846210B1 (ko) 입력 데이터 자동 인식 시스템 및 방법
WO2019167052A1 (en) A system for augmentative and alternative communication for people with severe speech and motor disabilities
Kalyanakumar et al. Facial movement and voice recognition based mouse cursor control
Khandagale et al. Jarvis-AI Based Virtual Mouse
JPH03256112A (ja) 制御処理装置
KR102586144B1 (ko) 딥러닝을 이용한 손 움직임 추적방법 및 장치