JP2007102369A - ジェスチャ認識装置およびジェスチャ認識方法 - Google Patents

ジェスチャ認識装置およびジェスチャ認識方法 Download PDF

Info

Publication number
JP2007102369A
JP2007102369A JP2005289061A JP2005289061A JP2007102369A JP 2007102369 A JP2007102369 A JP 2007102369A JP 2005289061 A JP2005289061 A JP 2005289061A JP 2005289061 A JP2005289061 A JP 2005289061A JP 2007102369 A JP2007102369 A JP 2007102369A
Authority
JP
Japan
Prior art keywords
character
input
stroke
gesture
coordinate data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005289061A
Other languages
English (en)
Inventor
Tomohiro Haniyu
知浩 羽生
Kei Sakamoto
圭 坂本
Yojiro Touchi
洋次郎 登内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005289061A priority Critical patent/JP2007102369A/ja
Publication of JP2007102369A publication Critical patent/JP2007102369A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)

Abstract

【課題】 タブレット等の座標入力装置に容易に文字やジェスチャを入力できるジェスチャ認識装置を提供する。
【解決手段】 入力位置判定処理手段においてストロークの最後の座標データがタブレット内の文字入力領域の内側に在ると判定された場合には、ストロークを文字として処理する文字認識処理手段へ送り、ストロークの最後の座標データが文字入力領域の外側に在ると判定された場合には、ストロークをジェスチャとして処理するジェスチャ認識処理手段へ送り、手書き文字とジェスチャを区別する。
【選択図】 図2

Description

本発明は、タブレット等の座標入力装置を介して入力される座標情報を処理するコンピュータや携帯情報端末、ワードプロセッサ等の情報処理装置に用いられるジェスチャ認識装置およびジェスチャ認識方法に関する。
情報処理装置のタブレット等の座標入力装置に、ユーザがペン等を用いて英字、数字、平仮名、片仮名等の文字や一般的に文中の文字として扱われる記号(例えば“「”、“」”、“(”、“)”、“?”等)等の各種文字、それらを使った一連の文章を入力する動作の中で、ジェスチャと言われる筆跡を入力することで、入力された各種文字、一連の文章の編集等の操作や情報処理装置に対する操作を指示することが行われている。
一部のジェスチャは、文字と類似した形状のものがある。例えば、入力内容確定を意味するジェスチャとして逆L字形状の“┘”を割り当てることがある。英語の場合は“┘”に類似した文字は無いため問題ないが、日本語の場合、かぎ括弧“」”と形が類似しているため、形状から入力内容確定を意味するジェスチャなのかかぎ括弧なのか判別するのは難しい。
以上のようなことから、文字とジェスチャを判別するためには、入力された文字やジェスチャの座標系列によるストロークのデータ以外に、タブレット上での入力位置等の情報を用いる場合もある。
例えば、タブレット上にジェスチャ機能の有効領域をと無効領域を予め設け、ペンダウンした座標が有効領域内であればジェスチャと判定し、有効領域外であれば文字あるいは他の操作と判定する方法が考えられている。(特許文献1)
特開平11−345072号公報
ユーザが入力ペンを用いてタブレット上に文字やジェスチャを入力する場面の多くは、机上の作業ではなく、タブレットを有するPDA(Personal Digital Assistance )のような携帯情報端末や情報処理装置を片手に持ち、立ち作業で、現場の状況に応じてその場で入力するというものである。携帯情報端末を片手に持った立ち作業では、タブレット上にあるボタンにペンを当てたり、文字やジェスチャを入力するための区別された領域に目掛けて交互にペンを当てることは難しく面倒な作業である。また机上での操作においても、タブレット上の狭い領域にペンを当てたり、文字やジェスチャを入力するときに、切り替え作業を行うのは面倒な作業である。
タブレット上にジェスチャ機能の有効領域と無効領域を設け、ペンダウンした座標が有効領域内であればジェスチャと判定し、有効領域外であれば文字あるいは装置の他の操作と判定する方法では、タブレットに積極的に文字を記入することを想定しておらず、ペンによる文字入力とジェスチャ入力を区別するのに手間が掛かり、タブレット等の座標入力装置を有する情報処理装置として使い勝手がよくなかった。
文字を入力したりジェスチャを入力したりするときの入力作業において、入力位置が違っていたり、入力の事前の切り替え作業があったりすると入力作業の効率が悪い。入力位置が同じで、事前の切り替え作業がなく、連続的な動作で文字やジェスチャを入力できることが望ましい。
本発明は上記問題点を解決するためになされたもので、タブレット等の座標入力装置に文字やジェスチャを容易に入力できるジェスチャ認識装置およびジェスチャ認識方法を提供することを目的とする。
上記目的を達成するために、本発明のジェスチャ認識装置は、座標入力装置にペン等により入力された座標を検知するための入力位置検出手段と、前記入力位置検出手段によって検知された座標系列により生成されたストロークが文字入力領域に在るかを判定するための入力位置判定処理手段と、前記入力位置判定処理手段において、前記ストロークの最初の座標データが前記文字入力領域の内側に在ると判定され、且つ前記ストロークの最後の座標データが前記文字入力領域の内側に在ると判定されたときに、前記ストロークを文字として認識するための文字認識処理を行う文字認識処理手段と、前記入力位置判定処理手段において、前記ストロークの最初の座標データが前記文字入力領域の内側に在ると判定され、且つ前記ストロークの最後の座標データが前記文字入力領域の外側に在ると判定されたときに、前記ストロークをジェスチャとして認識するためのジェスチャ認識処理を行うジェスチャ認識処理手段とを有することを特徴とする。
本発明によれば、ストロークの最後の座標データがタブレット内の文字入力領域の内側に在る場合には、ストロークを文字として処理し、ストロークの最後の座標データが文字入力領域の外側に在る場合には、ストロークをジェスチャとして処理するようにしたので、ジェスチャを入力するときに、タブレットの別の領域にペンを当てたり、入力の事前の切替え作業をする必要がなく、文字入力と同様の連続的な動作でジェスチャを入力できるので、タブレット等の座標入力装置に文字やジェスチャを容易に入力できる。
以下本発明の実施例について図面を参照しながら説明する。
図1は本発明の一実施例のハードウェア構成を示す図である。図1の情報処理装置は、例えば携帯情報端末等の小型情報機器であり、CPU1、ROM2、RAM3、タブレット(タブレット装置)4、表示装置5、データ記録再生装置6、記憶媒体7、及びインターフェース部(I/F)8,9,10等から構成されている。
CPU1は各種データの処理のための演算や情報処理装置のシステム全体の制御を行う。ROM2は基本ソフトウェア等が予め格納された不揮発メモリ(記憶媒体)、RAM3はCPU1の作業エリア等に利用される揮発性メモリである。
タブレット4は手書き文字あるいはジェスチャといった筆跡データの入力が可能な座標入力装置、表示装置5は各種情報を表示する液晶ディスプレイ等の表示装置である。
記憶媒体7はハードディスク、メモリカード等の記録再生可能な記憶手段である。この記憶媒体7にはデータ及びプログラムが格納されている。データ記録再生装置6は、記憶媒体7に格納されているデータやプログラムを読み込んだり、新しいデータを記録したりすることができるハードディスクドライブ、メモリカード記録再生機器等のデータ記録再生手段である。ここでは、ハードディスクドライブ、メモリカード記録再生機器等の記録再生可能なタイプの装置を想定しているが、データやプログラムの読み込みだけであれば、CD−ROMドライブのようなデータ再生機器を接続してもよい。
インターフェース部8、インターフェース部9、インターフェース部10は、それぞれタブレット4、表示装置5及びデータ記録再生装置6のインターフェースを構成する。
記憶媒体7には、上記プログラムとして、タブレット4に入力された筆跡の認識を行うための文字認識プログラムが予め格納されている。CPU1は文字認識プログラムに従って入力筆跡の文字認識処理を行う。なお文字認識プログラムはROM2に格納されていても構わない。
入力ペン11はタブレット4へ手書き文字あるいはジェスチャといった筆跡データを入力するための専用のペンである。入力ペン11とタブレット4の入力・読み取り方式として、感圧方式、電磁誘導方式、静電容量方式、波動方式等がある。本実施例では例えば感圧方式を適用するものとするが、上記のどの方式を用いても構わない。電磁誘導方式ではタブレット4に入力ペン11のペン先が直接接触せず、タブレットの表面から数ミリメートル離れている状態であってもタブレット4が入力信号を検出できるが、入力信号を検出する距離でペンダウンと考えて差し支えない。またタブレット4の表面と入力ペン11との接触位置から徐々に離れて入力信号を検出しなくなった位置をペンアップと考えて差し支えない。タブレット4は例えば透明であり、表示装置5の表示画面上に重ねて配置されている。
タブレット4にユーザが入力ペン11を利用して文字を筆記すると、その入力された座標値の時系列情報がタブレット4により検出される。入力ペン11がタブレット4に触れてから離れるまでの間の座標データの列、つまり筆跡の座標データ列をストロークと呼ぶひとまとまりのデータとして扱う。
図2は本発明の一実施例の機能構成を示すブロック図である。このジェスチャ認識装置は、タブレット4、表示装置5、入力ペン11、入力位置検知手段14、入力位置処理手段15、入力位置判定処理手段16、文字認識処理手段17、文字認識結果送信処理手段18、ジェスチャ認識処理手段19、ジェスチャ認識結果送信処理手段20、文字入力・編集領域処理手段21、入力結果表示手段22とから構成される。
タブレット4の入力面には、文字入力領域12が設けられている。文字入力領域12は、タブレット4の入力面上の一部に座標データとして区切られた領域であって、手書き文字を入力するための領域である。またタブレット4には文字入力・編集領域13が設けられている。文字入力・編集領域13は文字として認識された結果を表示するようになっている。
入力位置検出手段14は、入力ペン11がタブレット4に触れた位置を検知し、座標データを得る。入力ペン11がタブレット4に触れている間のペン先の位置を表す2次元座標データを、一定時間間隔でサンプリングすることによって座標データを得る。得られた座標データはRAM3上のバッファに取り込まれる。
入力位置処理手段15は、入力位置検出手段14によって得られた座標データを、入力ペン11がタブレット4に触れて(ペンダウン)から離れる(ペンアップ)までの間の座標データ列、つまり筆跡の座標データ列をストロークとして生成する。入力位置処理手段15は、入力位置検出手段14からのデータが取り込まれる度にストロークを生成する。また、入力位置処理手段15は、生成されたストロークの座標データ列をタブレット4への入力とほぼ同時に入力結果表示手段22へ送る。
入力位置判定処理手段16は、入力位置処理手段15によって生成されたストロークが文字入力領域12にあるかを判定する。例えばストロークの最初の座標データ(ペンダウンの座標データ)、最後の座標データ(ペンアップの座標データ)が文字入力領域12の内側にあるか外側にあるかを判定する。
入力位置判定処理手段16は、ストロークの最初の座標データが文字入力領域12の内側に在ると判定し、且つストロークの最後の座標データが文字入力領域12の内側に在ると判定したときに、入力したストロークを文字として処理する文字認識処理手段17に送る。一方、入力位置判定処理手段16は、ストロークの最初の座標データが文字入力領域12の内側に在ると判定し、且つストロークの最後の座標データが文字入力領域12の外側に在ると判定したときには、入力したストロークをジェスチャとして処理するジェスチャ認識処理手段19に送る。
このように入力位置判定処理手段16は、入力位置処理手段15からストロークが取り込まれる度に、ストロークの最初の座標データと最後の座標データが文字入力領域12の内側にあるか外側にあるかを判定し、その判定結果に基づいてストロークを文字認識処理手段17またはジェスチャ認識処理手段19に送る。
文字認識処理手段17は、入力位置判定処理手段16から出力されたストロークを文字として処理する。文字認識処理手段17は、ストロークのデータが入力される度に、文字認識辞書23を用いて、それまでに入力されたストロークの形状およびストローク間の位置関係に基づき最も確からしい、最適な文字を求め、文字コードを得る。
文字認識辞書23は、文字を構成するストロークの形状やストローク間の位置関係などの特徴情報を登録した辞書と、複数の文字のうちの続けて筆記される各2文字の組み合わせについて、その2文字の間の構造関係が表現された情報を登録した辞書から構成されている。
タブレット4上の文字入力領域12には、連続する2文字が左右に並べて筆記される場合もあれば、重ねて筆記される場合(例えば、ペンで文字を筆記するための文字入力領域12が1文字分だけである場合)もある。前者の場合の2文字の間の構造関係とは、2文字が左右に並べて筆記される場合における一方の文字のストロークと他方の文字のストロークとの間の位置関係の特徴情報である。後者の場合の2文字の間の構造関係とは、2文字が重ねて筆記される場合における一方の文字のストロークと他方の文字のストロークとの間の位置関係の特徴情報である。本実施形態ではいずれの場合であっても適用可能である。両者の違いは2文字の間の構造関係の情報のみである。
ジェスチャ認識処理手段19は、入力位置判定処理手段16から出力されたストロークをジェスチャとして処理する。ジェスチャ認識処理手段19は、入力位置判定処理手段16からストロークが入力する度に、ジェスチャ認識辞書24を用いて、それまでに入力されたストロークの形状およびストローク間の位置関係に基づき最も確からしい、最適なジェスチャを求め、ジェスチャコードを得る。ジェスチャコードは、各ジェスチャに割り当てられた固有のコードである。
ジェスチャ認識辞書24は、ジェスチャを構成するストロークの形状やストローク間の位置関係などの特徴情報を登録した辞書と、各ジェスチャに対応するコマンドが登録された辞書とから構成されている。なお、複数のジェスチャが続けて筆記されることが想定される場合には、複数のジェスチャのうちの続けて筆記される各2ジェスチャの組み合わせについて、その2ジェスチャの間の構造関係が表現された情報を登録した辞書を前記ジェスチャ認識辞書24に追加してもよい。
文字認識結果送信処理手段18は、文字認識処理手段17より出力された文字コードを、文字入力・編集領域処理手段21へ送る。
ジェスチャ認識結果送信処理手段20は、ジェスチャ認識処理手段19によって判定され出力されたジェスチャコードをコマンドに変換して文字入力・編集領域処理手段21へ送る。
図3は良く使われるジェスチャの例を示す図である。例えば、右から左方向への横棒というジェスチャは一文字後退削除を意味する編集コマンドであって、このジェスチャが認識されると結果として、カーソルの直前にある文字1文字が削除される。なお、図中の矢印はジェスチャの筆順を示す。
文字入力・編集領域処理手段21は、文字の入力および編集が可能なアプリケーションであり、文字認識結果送信処理手段18から送られた文字コードを蓄積する。また、ジェスチャ認識結果送信処理手段20から出力されたコマンドに対応した操作を行う。例えば、一文字後退削除を意味する編集コマンドに対応するジェスチャを入力した場合には、表示されている現在のカーソルの位置のすぐ左側の一文字を削除する。
入力結果表示手段22は文字入力・編集領域処理手段21において蓄積された文字コード列を文字として可視化して表示装置5に表示したり、前記コマンド操作に応じた結果を表示する。また入力結果表示手段22は、入力位置処理手段15によって生成されたストロークの座標データ列を用いて、タブレット4への入力とほぼ同時に表示装置5に入力したストロークの筆跡を表示する。
図4は図2に示したブロック図の動作を示すフローチャートである。図4を参照しながら文字認識およびジェスチャ認識の手順について説明する。
ステップS11は入力位置検出ステップであり、入力ペン11によってタブレット4に触れた部分を入力位置検出手段14によって検知し座標データを得るステップである。
ステップS12では入力位置処理手段15によって、入力ペン11がタブレット4にペンダウンしてからペンアップするまで移動した一連の座標データ列を1個のストロークとして生成する。
ステップS13は入力位置判定処理ステップであり、入力位置判定処理手段16によってストロークの最初の座標データ(ペンダウンの座標データ)、ストロークの最後の座標データ(ペンアップの座標データ)が文字入力領域12の内側にあるか外側にあるかを判定するステップである。ストロークの最初の座標データが文字入力領域12の内側にあり、且つストロークの最後の座標データが文字入力領域12の内側にある場合、当該ストロークの座標データ列を文字として認識するため処理はステップS14へ移る。ストロークの最初の座標データが文字入力領域12の内側にあり、且つストロークの最後の座標データが文字入力領域12の外側にある場合、当該ストロークの座標データ列をジェスチャとして認識するため処理はステップS18へ移る。
ステップS14は文字認識処理ステップであり、文字と判定されたストロークを文字認識処理手段17によって、文字認識処理を行い、文字コードを得るステップである。例えば、平仮名には1個のストロークからなる文字と複数のストロークからなる文字があるが、文字認識処理手段17は、それまでに入力されたストロークのデータから、文字認識辞書23を用いて、最適な文字列を認識する。例えば、この認識処理により、それまでに入力されたストロークのうち確かにその文字列が筆記されたと断定できる認識確定文字と、最もそれらしい文字と、筆記途中の文字のストロークとを推定することができる。
ステップS15では、文字認識結果送信処理手段18によって、ステップS14で得た文字コードを文字入力・編集領域処理手段21へ送る。
ステップS16では、文字入力・編集領域処理手段21によって蓄積された文字を表示装置5に表示する。
以上のステップS11〜S16を、ストロークの入力が終了するまで、あるいは、それまでに入力された全ての入力ストロークが文字認識処理されるまで繰り返す(ステップS17)。これにより、ユーザが文字の区切りを意識することなく、タブレット4の文字入力領域12にただ文字を続けて筆記していくだけで、筆跡を文字として認識することができる。
ステップS18はジェスチャ認識処理ステップであり、ジェスチャと判定されたストロークをジェスチャ認識処理手段19によって、ジェスチャ認識処理するステップである。ステップS18では、それまでに入力されたストロークデータから、ジェスチャ認識辞書24を用いて、最適なジェスチャを認識し、ジェスチャコードを得る。
ステップS19では、その時点における認識確定されたジェスチャに対応するコマンドがジェスチャ認識辞書24にあるかを判定する。ジェスチャとして認識されたストロークに対応するコマンドがジェスチャ認識辞書24に登録されていれば、ジェスチャとして判定しステップS20へ進み、登録されていなければ、ジェスチャとして判定せずステップS14へ進む。この際、ジェスチャ認識処理手段19にあるストロークの座標データ列を文字認識処理手段17に移すことによって、文字認識処理を行うステップ14に移る。
例えば、文字入力領域12に文字を入力している途中で、あるストロークの後端が文字入力領域12の外側に出てしまったとき、つまりストロークの最後の座標データが文字入力領域12の外側のデータとなってしまった場合、そのストロークはジェスチャとして処理されるステップS18に移る。このような場合には最適なジェスチャが存在しない場合があるが、前記したような処理とすることで、文字認識処理(ステップS14)に戻すことにより、文字として再認識することが可能となる。
ステップS20では、ジェスチャ認識結果送信処理手段20によって、ジェスチャの認識結果をコマンド(例えば、入力内容の確定や一文字後退削除などのコマンド)に変換し、文字入力・編集領域処理手段21へ送る。
これを受けて、ステップS16では、文字入力・編集領域処理手段21に送られたコマンドに対応した操作の結果を入力結果表示手段22によって表示装置5へ表示する。
上記で説明した1ストローク単位で認識処理を行う方式は既知の技術であり、詳細な説明は省略する。1ストローク単位での認識処理の例としては、例えば特開2002−203208号に記載されている。
以上のように本実施例においては、入力位置判定処理手段16においてストロークの最初の座標データが文字入力領域12の内側にあり、且つストロークの最後の座標データが文字入力領域12の内側に在ると判定された場合には、ストロークを文字として処理する文字認識処理手段17へ渡し、一方、ストロークの最初の座標データが文字入力領域12の内側にあり、且つストロークの最後の座標データが文字入力領域12の外側に在ると判定された場合には、ストロークをジェスチャとして処理するジェスチャ認識処理手段19へ渡すように制御することで、手書き文字とジェスチャの入力の区別を行っている。つまり文字入力領域12とペンダウンとペンアップの座標データの位置関係で判定するようにし、文字またはジェスチャの入力が終わった直後に文字入力なのかジェスチャ入力なのかが判断される。
このようにすることで、ジェスチャを入力するために、タブレット4の別の領域にペンダウンしたり、入力の事前の切替え作業をする必要がなく、文字入力と同様の連続的な動作でスムーズにジェスチャを入力できる。
図5は文字入力領域12を1文字入力とした場合の入力編集処理の動作例を示す説明図である。タブレット4の座標検出面と表示装置5の表示画面は略同一の大きさで構成されているものとする。
文字入力領域12は一文字だけ入力する領域として設定されており、ユーザが記入する文字の大きさによって文字入力領域12の大きさを変更できる。例えば、文字認識プログラムを立ち上げるときに、文字入力領域12の大きさを選択するためのダイアログボックスが表示され、複数の大きさから一つを選択できるようにしてもよい。
文字入力領域12には手書き文字を重ね書き入力することができる。例えば“あいう”と入力する場合、“あ”を入力した後でその上に“い”を重ね書きし、さらにその上に“う”を連続して重ね書きしていくことができる。文字“あ”を記入するとき、“あ”は3個のストロークからなる文字であるが、1画目を記入すると長音記号として認識され、表示装置5の文字入力・編集領域13に“ー”と表示される。“あ”を普通に書くような早さで2画目を記入すると、“さ”と認識され、文字入力・編集領域13に“さ”と表示される。続けて3画目を記入すると“あ”と認識され、文字入力・編集領域13に“あ”と表示される。結果として図5(1)に示すような表示結果となる。続けて“い”の1画目を記入すると“し”と認識され、文字入力・編集領域13に“あし”と表示される。続けて2画目を記入すると“い”と認識され、文字入力・編集領域13に“あい”と表示さる。続けて“う”を記入する。図6に“あいう”と重ね書きしたときの表示装置5の文字入力・編集領域13の表示例を示す。
“あいう”に続けて、ここで例えば一文字後退削除のコマンドを意味するジェスチャ“−”を記入しようとするとき、ジェスチャの“−”は長音符号の“ー”と似ており、ジェスチャなのか長音符号なのか形状だけから判定するのは難しい。しかしながら、図5(4)に示すように、本実施例においては、ジェスチャの“−”を記入するとき“−”の一部を文字入力領域12の外側へ伸ばしてペンアップすればよく、ストロークの最初の座標データが文字入力領域12の内側にあり、且つストロークの最後の座標データが文字入力領域12の外側に在ると判定された場合には、そのストロークはジェスチャとして処理される。
手書き入力された“−”がジェスチャとして認識され、一文字削除のコマンドに変換、実行されて、“う”が削除される。結果として、図5(4)に示すように、表示装置5の文字入力・編集領域13に“あい”と表示される。
手書き文字の“あいう”に続けて、ジェスチャである“−”を入力する場合に、ジェスチャ“−”を手書き文字入力と同じ動作で入力することができ、文字とジェスチャの入力作業の連続性が確保されている。ジェスチャ“−”を例にしたが、他のジェスチャを入力するときも同様であって、ジェスチャを入力するために、タブレット4の別の領域にペンダウンしたり入力の事前の切替え作業をする必要がなく、文字入力と同様の連続的な動作でジェスチャを入力できるので、スムーズにジェスチャ入力作業を行うことができ、たいへん効率がよい。
図7は文字入力領域12を複数文字入力とした場合の入力編集処理の動作例を示す説明図である。文字入力領域12を一文字だけ入力するような小さな領域ではなく、複数の文字あるいは文章が記入できるようにタブレット4内に大きく確保している。この場合は複数の文字が入力できるため、図5の実施例のような重ね書き入力ができる設定をする必要はない。
“ストローク”という手書き文字に続けて、ここで例えば入力内容確定のコマンドを意味するジェスチャ“┘”を記入しようとするとき、ジェスチャの“┘”はかぎ括弧の“┘”と似ており、ジェスチャなのかかぎ括弧なのか形状だけから判定するのは難しい。しかしながら、本実施例においては、ジェスチャの“┘”を記入するとき“┘”の一部を文字入力領域12の外側へ伸ばしてペンアップすればよく、ストロークの最初の座標データが文字入力領域12の内側にあり、且つストロークの最後の座標データが文字入力領域12の外側に在ると判定された場合には、ストロークはジェスチャとして処理される。
手書き文字の“ストローク”に続けて、ジェスチャである“┘”を入力する場合に、ジェスチャ“┘”を手書き文字入力と同じ動作で入力することができ、文字とジェスチャの入力作業の連続性が確保されている。図5の場合と同様に、ジェスチャを入力するために、タブレット4の別の領域にペンダウンしたり、入力の事前の切替え作業をする必要がなく、文字入力と同様の連続的な動作でジェスチャを入力できるので、スムーズにジェスチャの入力作業を行うことができ、たいへん効率がよい。
以上のように本実施例においては、タブレット4等の座標入力装置に容易に文字やジェスチャを入力することができる。
本発明の一実施例のハードウェア構成を示す図 本発明の一実施例の機能構成を示すブロック図。 ジェスチャの種類とコマンドの例を示す図。 文字およびジェスチャ認識の手順を示すフローチャート。 文字入力領域を1文字入力とした場合の入力編集処理の動作例を示す説明図。 図5の文字入力領域に重ね書きした場合の表示例を示す図。 文字入力領域を複数文字入力とした場合の入力編集処理の動作例を示す説明図。
符号の説明
1 CPU
2 ROM
3 RAM
4 タブレット
5 表示装置
6 データ記録再生装置
7 記憶媒体
8、9、10 インターフェース
11 入力ペン
12 文字入力領域
14 入力位置検出手段
15 入力位置処理手段
16 入力位置判定処理手段
17 文字認識処理手段
18 文字認識結果送信処理手段
19 ジェスチャ認識処理手段
20 ジェスチャ認識結果送信処理手段
21 文字入力・編集領域処理手段
22 入力結果表示手段

Claims (4)

  1. 座標入力装置にペン等により入力された座標を検知するための入力位置検出手段と、
    前記入力位置検出手段によって検知された座標系列により生成されたストロークが文字入力領域に在るかを判定するための入力位置判定処理手段と、
    前記入力位置判定処理手段において、前記ストロークの最初の座標データが前記文字入力領域の内側に在ると判定され、且つ前記ストロークの最後の座標データが前記文字入力領域の内側に在ると判定されたときに、前記ストロークを文字として認識するための文字認識処理を行う文字認識処理手段と、
    前記入力位置判定処理手段において、前記ストロークの最初の座標データが前記文字入力領域の内側に在ると判定され、且つ前記ストロークの最後の座標データが前記文字入力領域の外側に在ると判定されたときに、前記ストロークをジェスチャとして認識するためのジェスチャ認識処理を行うジェスチャ認識処理手段と
    を有することを特徴とするジェスチャ認識装置。
  2. 前記ジェスチャ認識処理手段におけるジェスチャ認識処理を行う際、前記ストロークをジェスチャと認識するには不十分であると判断した場合に、当該ストロークを前記文字認識処理手段で文字認識処理することを特徴とする請求項1記載のジェスチャ認識装置。
  3. 座標入力装置にペン等により入力された座標を検知するための入力位置検出ステップと、
    前記入力位置検出ステップによって検知された座標系列により生成されたストロークが文字入力領域に在るかを判定するための入力位置判定処理ステップと、
    前記入力位置判定処理ステップにおいて、前記ストロークの最初の座標データが前記文字入力領域の内側に在ると判定され、且つ前記ストロークの最後の座標データが前記文字入力領域の内側に在ると判定されたときに、前記ストロークを文字として認識するための文字認識処理を行う文字認識処理ステップと、
    前記入力位置判定処理ステップにおいて、前記ストロークの最初の座標データが前記文字入力領域の内側に在ると判定され、且つ前記ストロークの最後の座標データが前記文字入力領域の外側に在ると判定されたときに、前記ストロークをジェスチャとして認識するためのジェスチャ認識処理を行うジェスチャ認識処理ステップと
    を具備したことを特徴とするジェスチャ認識方法。
  4. 前記ジェスチャ認識処理ステップにおけるジェスチャ認識処理を行う際、前記ストロークをジェスチャとして認識するには不十分であると判断した場合に、当該ストロークを前記文字認識処理ステップで文字認識処理することを特徴とする請求項3記載のジェスチャ認識方法。
JP2005289061A 2005-09-30 2005-09-30 ジェスチャ認識装置およびジェスチャ認識方法 Pending JP2007102369A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005289061A JP2007102369A (ja) 2005-09-30 2005-09-30 ジェスチャ認識装置およびジェスチャ認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005289061A JP2007102369A (ja) 2005-09-30 2005-09-30 ジェスチャ認識装置およびジェスチャ認識方法

Publications (1)

Publication Number Publication Date
JP2007102369A true JP2007102369A (ja) 2007-04-19

Family

ID=38029270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005289061A Pending JP2007102369A (ja) 2005-09-30 2005-09-30 ジェスチャ認識装置およびジェスチャ認識方法

Country Status (1)

Country Link
JP (1) JP2007102369A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012524308A (ja) * 2009-04-16 2012-10-11 台均科技(深▲川▼)有限公司 電磁ペン、電磁信号の発信方法と処理方法、装置及び設備
JP2013504103A (ja) * 2009-09-07 2013-02-04 上海合合信息科技発展有限公司 マルチタッチ文字入力方法及びシステム
CN103299322A (zh) * 2011-01-06 2013-09-11 松下电器产业株式会社 手写文字输入装置及便携终端
JP2013228775A (ja) * 2012-04-24 2013-11-07 Seiko Epson Corp 文字入力装置
EP2745218A1 (de) * 2011-08-18 2014-06-25 Volkswagen Aktiengesellschaft Verfahren zum bedienen einer elektronischen einrichtung oder einer applikation und entsprechende vorrichtung

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012524308A (ja) * 2009-04-16 2012-10-11 台均科技(深▲川▼)有限公司 電磁ペン、電磁信号の発信方法と処理方法、装置及び設備
US8773404B2 (en) 2009-04-16 2014-07-08 Taiguen Technology (Shen—Zhen) Co., Ltd. Electromagnetic pen, electromagnetic signal transmission method and processing method, apparatus and device
JP2013504103A (ja) * 2009-09-07 2013-02-04 上海合合信息科技発展有限公司 マルチタッチ文字入力方法及びシステム
CN103299322A (zh) * 2011-01-06 2013-09-11 松下电器产业株式会社 手写文字输入装置及便携终端
EP2745218A1 (de) * 2011-08-18 2014-06-25 Volkswagen Aktiengesellschaft Verfahren zum bedienen einer elektronischen einrichtung oder einer applikation und entsprechende vorrichtung
JP2013228775A (ja) * 2012-04-24 2013-11-07 Seiko Epson Corp 文字入力装置

Similar Documents

Publication Publication Date Title
JP5349645B1 (ja) 電子機器および手書き文書処理方法
JP2006164238A (ja) タッチパッド入力情報の処理方法及びタッチパッド入力情報の処理装置
JP5550598B2 (ja) 手書き文字入力装置
JP2008305437A (ja) ジェスチャ判定方法
US20140189482A1 (en) Method for manipulating tables on an interactive input system and interactive input system executing the method
JP6991486B2 (ja) 文字列に文字を挿入するための方法およびシステム
JP2019220155A (ja) 手書き入力表示装置、手書き入力表示方法およびプログラム
JP5306528B1 (ja) 電子機器および手書き文書処理方法
CN105117159B (zh) 一种字符处理方法及终端
CN113867521B (zh) 一种基于手势视觉识别的手写输入方法、装置及电子设备
JP5567097B2 (ja) 電子機器、手書き文書表示方法、及び表示プログラム
JP2004342101A (ja) データ処理装置及び方法
TW201510799A (zh) 可攜式電子裝置及控制可攜式電子裝置的方法
JP6054547B2 (ja) 手書き文書情報を処理するための電子機器および方法
TW201234280A (en) Hand-written character input device and portable terminal
JP2007102369A (ja) ジェスチャ認識装置およびジェスチャ認識方法
US9811238B2 (en) Methods and systems for interacting with a digital marking surface
KR20110049616A (ko) 터치스크린을 이용한 한글 입력 방법, 기록매체, 한글 입력 장치 및 이를 포함하는 모바일 기기
US20160334941A1 (en) Method and Device for Optical Handwriting Recognition
JPH11305896A (ja) 文字入力装置、文字入力方法、記憶媒体
US20160147437A1 (en) Electronic device and method for handwriting
JP6342194B2 (ja) 電子機器、方法及びプログラム
JP6223687B2 (ja) 電子機器および手書き文書検索方法
TW201423563A (zh) 手寫輸入識別系統及方法
WO2012054062A1 (en) User interface for facilitating character input