JP2005025566A - Handwriting input device, method and program, and program recording medium - Google Patents
Handwriting input device, method and program, and program recording medium Download PDFInfo
- Publication number
- JP2005025566A JP2005025566A JP2003191169A JP2003191169A JP2005025566A JP 2005025566 A JP2005025566 A JP 2005025566A JP 2003191169 A JP2003191169 A JP 2003191169A JP 2003191169 A JP2003191169 A JP 2003191169A JP 2005025566 A JP2005025566 A JP 2005025566A
- Authority
- JP
- Japan
- Prior art keywords
- handwritten information
- prediction candidate
- input
- search target
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/142—Image acquisition using hand-held instruments; Constructional details of the instruments
- G06V30/1423—Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
Abstract
Description
【0001】
【発明の属する技術分野】
この発明は、手書き入力装置,手書き入力方法,手書き入力プログラムおよびプログラム記録媒体に関する。
【0002】
【従来の技術】
タブレット等の座標入力装置を介して操作者が文字や図形を手書き入力する装置が知られている。これらの装置では、入力した文字や図形に対して文字認識や図形認識が行われ、その認識結果を手書きの文字や図形に置き換えることによって、入力や編集等の処理が行われる。また、文字認識や図形認識等を行わずに、入力された文字や図形をイメージのまま処理する技術も知られている。
【0003】
上記文字認識や図形認識等を行う前者の技術に関しては、手書きで文字を入力する際の操作者の負荷を軽減するために、文字列の一部を省略して入力することを可能にする技術が提案されている(例えば、特許文献1参照)。この特許文献1には、入力したい文字列の途中または続きに省略記号を入力することによって、単語辞書および用例辞書等を検索して省略部を補完した文字列候補を提示する文章入力装置が開示されている。
【0004】
また、上記文字認識や図形認識等を行わない後者の技術に関しては、手書きで入力された文字や図形等の情報を検索する技術が提案されている(例えば、特許文献2参照)。この特許文献2には、以前に入力された手書き情報を検索するに際し、検索指定のために操作者が入力した手書き情報に類似している手書き情報を手書き情報辞書から検索する手書き文字記号処理装置が開示されている。
【0005】
【特許文献1】
特開平7‐191986号公報
【特許文献2】
特開平10‐214267号公報
【0006】
【発明が解決しようとする課題】
しかしながら、上記従来の文章入力装置および手書き文字記号処理装置には、以下のような問題がある。
【0007】
すなわち、上記特許文献1に記載された文章入力装置では、単語辞書および用例辞書等を検索して省略部を補完するようにしている。したがって、最終的な出力が活字である場合における文字入力時の負担を軽減することは可能である。ところが、操作者が入力した手書き情報を入力イメージのまま処理する場合には活用することができないと言う問題がある。
【0008】
一方、上記特許文献2に記載の手書き文字記号処理装置では、操作者が手書き入力した文字や図形をイメージのままで処理して、以前に入力した手書き情報を検索することが可能になっている。ところが、上述のように、検索指定のために操作者は入力を意図している文字や図形の総てを手書き入力する必要があり、手書き入力時の負荷を軽減することは全く考慮されてはいない。
【0009】
そこで、この発明の目的は、操作者が入力した手書き情報をイメージのまま処理するに際して手書き入力時の操作者の負荷を軽減することが可能な手書き入力装置,手書き入力方法,手書き入力プログラムおよびプログラム記録媒体を提供することにある。
【0010】
【課題を解決するための手段】
上記目的を達成するため、この発明の手書き入力装置は、手書きによって文字や図形等の手書き情報が入力される入力部と、上記入力部から入力された手書き情報に基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成部と、上記入力手書き情報および予測候補を表示する表示部と、操作者によって操作されると共に,上記表示部によって表示された予測候補から所望の予測候補を選択する予測候補選択部を備えて、上記表示部は、上記予測候補選択部によって予測候補の選択が行われた場合には、この選択された予測候補を表示するようになっている。
【0011】
ここで、上記「手書き情報」とは、本明細書においては、1つ以上のストロークの集合に関する情報を意味する。また、上記「予測候補」とは、本明細書においては、操作者が最終的に入力したい手書き情報を予測した際に得られた各候補を指す。
【0012】
上記構成によれば、操作者によって、上記表示部に所望の予測候補が表示されるまで上記入力部から手書き情報が入力され、上記表示された所望の予測候補が選択される。こうして、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0013】
また、この発明の手書き入力装置は、手書きによって文字や図形等の手書き情報が入力される入力部と、種々の手書き情報が辞書エントリとして登録された手書き情報辞書と、上記入力部から入力された手書き情報の一部あるいは全てを検索対象手書き情報として,上記手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し,この抽出された辞書エントリから上記検索対象手書き情報に類似している部分を削除することによって入力を意図している手書き情報の予測候補を生成する予測候補生成部と、上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示部と、操作者によって操作されると共に,上記表示部によって表示された予測候補から所望の予測候補を選択する予測候補選択部を備えて、上記表示部は、上記予測候補選択部によって予測候補の選択が行われた場合には、この選択された予測候補を上記検索対象手書き情報と共に表示するようになっている。
【0014】
上記構成によれば、操作者によって、上記表示部に所望の予測候補が表示されるまで上記入力部から手書き情報が入力され、上記表示された所望の予測候補が選択される。こうして、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0015】
また、この発明の手書き入力装置は、手書きによって文字や図形等の手書き情報が入力される入力部と、種々の手書き情報が辞書エントリとして登録された手書き情報辞書と、上記入力部から入力された手書き情報の一部または全てを検索対象手書き情報として,上記手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し,この抽出された辞書エントリに基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成部と、上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示部と、操作者によって操作されると共に,上記表示部によって表示された予測候補から所望の予測候補を選択する予測候補選択部を備えて、上記表示部は、上記予測候補選択部によって予測候補の選択が行われた場合には、この選択された予測候補から上記検索対象手書き情報に類似している部分を削除して上記検索対象手書き情報と共に表示するようになっている。
【0016】
上記構成によれば、操作者によって、上記表示部に所望の予測候補が表示されるまで上記入力部から手書き情報が入力され、上記表示された所望の予測候補が選択される。こうして、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0017】
また、この発明の手書き入力装置は、手書きによって文字や図形等の手書き情報が入力される入力部と、種々の手書き情報が辞書エントリとして登録された手書き情報辞書と、上記入力部から入力された手書き情報の一部あるいは全てを検索対象手書き情報として,上記手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し,この抽出された辞書エントリに基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成部と、上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示部と、操作者によって操作されると共に,上記表示部によって表示された予測候補から所望の予測候補を選択する予測候補選択部を備えて、上記表示部は、上記予測候補選択部によって予測候補の選択が行われた場合には、既に表示している上記検索対象手書き情報を非表示状態とした後、上記選択された予測候補を表示するようになっている。
【0018】
上記構成によれば、操作者によって、上記表示部に所望の予測候補が表示されるまで上記入力部から手書き情報が入力され、上記表示された所望の予測候補が選択される。こうして、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0019】
また、1実施例の上記手書き情報辞書を有する手書き入力装置では、上記予測候補生成部は、上記検索対象手書き情報のサイズおよび方向と、上記抽出された辞書エントリにおける上記検索対象手書き情報に類似している部分のサイズおよび方向とが一致するように、当該辞書エントリ全体のサイズおよび方向を変更した後に、この全体のサイズおよび方向が変更された当該辞書エントリに基づいて上記予測候補を生成するようになっている。
【0020】
この実施例によれば、上記検索対象手書き情報と形状は似ているが、サイズや方向が異なる辞書エントリに基づいて予測候補を生成する場合に、見栄えが上記入力を意図する手書き情報に近い予測候補が生成される。
【0021】
また、1実施例の上記手書き情報辞書を有する手書き入力装置では、上記表示部は、上記予測候補生成部によって生成された予測候補を表示する場合には、当該予測候補における上記検索対象手書き情報に類似している部分の位置あるいは上記部分が存在していた位置が、上記検索対象手書き情報の位置に合うように表示するようになっている。
【0022】
この実施例によれば、上記検索対象手書き情報と予測候補とが連続した状態で表示される。したがって、操作者は、上記表示された予測候補を選択した場合のイメージを確認することが可能になる。
【0023】
また、1実施例の上記手書き情報辞書を有する手書き入力装置では、上記表示部は、上記予測候補選択部によって選択された予測候補を表示する場合には、当該選択予測候補の生成に用いられた辞書エントリにおける上記検索対象手書き情報に類似している部分のサイズおよび方向の上記検索対象手書き情報のサイズおよび方向に対するずれの度合を求め、このずれの度合に応じて当該選択予測候補全体のサイズおよび方向を変更した後に、当該選択予測候補における上記検索対象手書き情報に類似している部分の位置または上記部分が存在していた位置が、上記検索対象手書き情報の位置に合うように表示するようになっている。
【0024】
この実施例によれば、サイズおよび方向が上記検索対象手書き情報と合っていない予測候補が生成・表示された場合であっても、所望の予測候補を選択した場合には、サイズおよび方向を上記検索対象手書き情報に合わせた選択予測候補が表示される。したがって、入力を意図している手書き情報により近い選択予測候補が表示される。
【0025】
また、1実施例の手書き入力装置では、上記表示部は、上記予測候補を上記入力手書き情報とは異なる表示形態で表示するようになっている。
【0026】
この実施例によれば、上記表示部に表示された実際に手書き入力された上記検索対象手書き情報と上記予測候補との識別が容易になる。
【0027】
また、1実施例の手書き入力装置では、上記予測候補選択部は、上記表示部によって上記予測候補の近傍に表示されたボタンあるいはメニューで構成されている。
【0028】
この実施例によれば、上記表示部に表示された予測候補から所望の予測候補を選択する際の操作が容易になり、操作性が向上される。
【0029】
また、1実施例の手書き入力装置では、上記予測候補選択部は、上記表示部によって上記検索対象手書き情報の筆記終了点の近傍に表示されたボタンあるいはメニューで構成されている。
【0030】
この実施例によれば、上記表示部に表示された予測候補から所望の予測候補を選択する際の操作が容易になると共に、手書き入力後の予測候補選択を素早く行うことが可能になり、操作性が向上される。
【0031】
また、1実施例の手書き入力装置では、上記予測候補選択部は、上記表示部によって上記予測候補の筆記終了点の近傍に表示されたボタンあるいはメニューで構成されている。
【0032】
この実施例によれば、上記表示部に表示された予測候補から所望の予測候補を選択する際の操作が容易になると共に、予測候補選択後の次の手書き入力への移行が容易になり、操作性が向上される。
【0033】
また、この発明の手書き入力方法は、手書きによって文字や図形等の手書き情報を入力する入力ステップと、上記入力された手書き情報に基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成ステップと、上記入力手書き情報および予測候補を表示する表示ステップと、上記表示された予測候補から所望の予測候補を選択する予測候補選択ステップと、上記選択された予測候補を表示する選択予測候補表示ステップを有している。
【0034】
上記構成によれば、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0035】
また、この発明の手書き入力方法は、手書きによって文字や図形等の手書き情報を入力する入力ステップと、上記入力された手書き情報の一部あるいは全てを検索対象手書き情報として,手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し,この抽出された辞書エントリから上記検索対象手書き情報に類似している部分を削除することによって入力を意図している手書き情報の予測候補を生成する予測候補生成ステップと、上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示ステップと、上記表示された予測候補から所望の予測候補を選択する予測候補選択ステップと、上記選択された予測候補を上記検索対象手書き情報と共に表示する選択予測候補表示ステップを有している。
【0036】
上記構成によれば、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0037】
また、この発明の手書き入力方法は、手書きによって文字や図形等の手書き情報を入力する入力ステップと、上記入力された手書き情報の一部あるいは全てを検索対象手書き情報として,手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し,この抽出された辞書エントリに基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成ステップと、上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示ステップと、上記表示された予測候補から所望の予測候補を選択する予測候補選択ステップと、上記選択された予測候補から上記検索対象手書き情報に類似している部分を削除して上記検索対象手書き情報と共に表示する選択予測候補表示ステップを有している。
【0038】
上記構成によれば、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0039】
また、この発明の手書き入力方法は、手書きによって文字や図形等の手書き情報を入力する入力ステップと、上記入力された手書き情報の一部あるいは全てを検索対象手書き情報として,手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し,この抽出された辞書エントリに基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成ステップと、上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示ステップと、上記表示された予測候補から所望の予測候補を選択する予測候補選択ステップと、既に表示されている上記検索対象手書き情報を非表示状態とした後,上記選択された予測候補を表示する選択予測候補表示ステップを有している。
【0040】
上記構成によれば、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0041】
また、この発明の手書き入力プログラムは、コンピュータを、この発明の手書き入力装置における上記入力部,予測候補生成部,表示部および予測候補選択部として機能させる。
【0042】
上記構成によれば、入力を意図している手書き情報(文字や図形)の一部を手書き入力するだけで、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0043】
また、この発明のプログラム記録媒体は、この発明の手書き入力プログラムが記録されている。
【0044】
上記構成によれば、手書き入力プログラムをコンピュータで読み出して実行することによって、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0045】
【発明の実施の形態】
以下、この発明を図示の実施の形態により詳細に説明する。
【0046】
・第1実施の形態
図1は、本実施の形態の手書き入力装置における機能的構成を示す機能ブロック図である。この手書き入力装置は簡単なコンピュータ上に構成されて、入力部1,記憶部2,候補生成部3,候補選択部4および表示部5を含んで構成されている。
【0047】
上記入力部1はタブレット等を含んで構成され、操作者によって文字や図形等のストロークが手書き入力される。そして、入力部1から手書き入力されたストロークの集合から成る手書き情報は記憶部2に記憶される。候補生成部3は、記憶部2に記憶されている入力手書き情報に基づいて、入力を意図している手書き情報(すなわち、操作者が最終的に入力したい手書き情報)を予測し、予測候補を生成する。候補選択部4は、入力部1を構成するタブレット等の特定の領域で構成され、または、キーボードやボタン等の入力部1とは異なるハードウェアによって構成されており、操作者からの指示によって上記予測候補の選択を行う。表示部5は、入力部1から入力された上記手書き情報や候補生成部3によって生成された予測候補を表示する。さらに、候補選択部4によって選択された予測候補を表示する。
【0048】
ここで、上記ストロークとは、入力部1の入力面への接触開始時点から接触終了時点までの間に得られた筆記の軌跡を指す。また、ストローク情報とは、入力部1から得られるストロークの座標列情報またはベクトル列情報またはイメージ情報を指す。尚、上記ストローク情報は、入力時刻や筆記に要した時間等の時間情報,筆記速度情報,筆圧情報,外接矩形情報,ストロークの長さ情報等を含んでいても差し支えない。
【0049】
また、上記手書き情報とは1つ以上のストロークの集合に関する情報を指し、包含するストロークの情報に加えて、全体の外接矩形情報や手書き情報同志の形状照合に使用する各種情報を含んでもよい。
【0050】
尚、上記入力部1及び表示部5は、個別に設けても良いし、表示装置上に透明のタブレットを積層配置して成る表示一体型タブレットとして設けても差し支えない。また、入力部1は、カメラ等を用いて筆跡を取得するような装置や、ペンや指先等の3次元位置を取得して筆跡を取得するような装置で構成してもよい。
【0051】
図1に示す手書き入力装置のハードウェア構成を図2に示す。この手書き入力装置は、後述する各種処理を実行するプログラムを含む各種プログラムを記憶するプログラムメモリ11、記憶部2を構成して上記手書き情報を含む各種情報を記憶するデータメモリ12、入力部1および予測候補選択部4を構成する入力装置13、表示部5を構成する表示装置14、外部のインターネット等の通信ネットワーク15と本手書き入力装置とを接続する通信I/F16、CD‐ROM(コンパクトディスク・リード・オンリ・メモリ)等の外部記録媒体17がセットされてこの外部記録媒体17をアクセスする外部記憶媒体ドライバ18、プログラムメモリ11,データメモリ12,入力装置13,表示装置14,通信I/F16および外部記憶媒体ドライバ18を制御して、手書き入力処理動作等を実行するCPU(中央演算処理装置)19を含んで構成されている。
【0052】
図3は、上記CPU19による制御の下に実行される手書き入力処理動作のフローチャートである。以下、図3に従って、上記手書き入力処理動作について詳細に説明する。尚、この手書き入力処理動作は、入力部1に対してストローク入力が開始される毎に行われ、操作者によって入力部1へのストローク入力が開始されるとスタートする。
【0053】
ステップS1で、上記表示部5によって、入力中のストロークがリアルタイムに表示される。それと同時に、記憶部2によって、上記ストローク情報が記憶される。ステップS2で、入力部1からの情報に基づいて、ストローク入力が終了したか否かが判別される。その結果、終了している場合にはステップS3に進む一方、終了していなければ上記ステップS1に戻って入力中のスロトークの処理が続行される。こうして、操作者によるストローク入力の終了が検知されるまで上記ステップS1による処理が繰り返される。ステップS3で、候補生成部3による予測候補の生成を開始するか否かが判別される。その結果、予測候補の生成を開始する場合にはステップS4に進む一方、開始しない場合にはそのまま手書き入力処理動作を終了する。
【0054】
ここで、上記予測候補の生成開始の判別方法については特に限定しないが、例えば以下のような方法が効果的である。
(A1) ストローク入力後、次のストロークの入力操作や後述する予測候補の選択操作等が行われないまま所定時間が経過した場合に、上記予測候補の生成を開始すると判別する。
(A2) 入力済のストロークの合計数が所定値に達した場合に、上記予測候補の生成を開始すると判別する。
(A3) 入力済のストロークの合計長が所定値に達した場合に、上記予測候補の生成を開始すると判別する。
(A4) 最初の入力ストロークの筆記開始時点から経過時間が所定時間に達した場合に、上記予測候補の生成を開始すると判別する。
(A5) 入力部1あるいは別途設けられた予測候補生成指示部(図示せず)に対して操作者によって指示が行われた場合に、上記予測候補の生成を開始すると判別する。
【0055】
但し、上述した判別方法は、何れか1つの判別方法のみを用いてもよいし、任意の2つ以上の判別方法を組み合わせて用いても差し支えない。また、上記判別方法(A5)における「上記入力部1に対する指示」としては、入力部1に手書き情報と同様に手書き入力されるジェスチャを用いてもよい。尚、上記ジェスチャとは、予め定められた1以上のストロークで構成された形状によって定義され、特定の処理を実行するためのトリガとなるものである。また、文字や図形の手書き情報と上記ジェスチャとを判別する方法としては、入力部1に文字や図形を入力する「文字図形入力モード」と上記ジェスチャを入力する「ジェスチャ入力モード」との2つのモードを設ける方法や、特にモードは設けずに入力されたストロークの形状からジェスチャであるか否かを逐次判定する方法が、特に知られている。
【0056】
ステップS4で、上記候補生成部3によって、記憶部2に記憶されている手書き情報に基づいて上記予測候補が生成される。尚、上記予測候補の生成方法に関しては後述する。ステップS5で、表示部5によって、上記ステップS4において生成された予測候補が表示される。そして、候補選択部4によって所望の予測候補が選択されると、この選択予測候補が表示される。尚、上記予測候補の表示方法に関しては後述する。そうした後、手書き入力処理動作を終了する。
【0057】
尚、図3に示すフローチャートにおいては、説明が煩雑になるので省略しているが、上記ステップS4およびステップS5においては、次のストロークが入力されて次の手書き入力処理動作が開始され、次の手書き入力処理動作における上記ステップS3において予測候補生成開始の判別が開始された場合には、上記予測候補生成および予測候補表示の処理を中止するようになっている。
【0058】
また、図3に示すフローチャートにおける上記ステップS3において用いられる判別方法(A1)の「所定時間(何も行われない経過時間)」,判別方法(A2)の「所定値(ストローク数)」,判別方法(A3)の「所定値(ストローク長)」および判別方法(A4)の「所定時間(筆記開始からの経過時間)」の夫々を複数設ける。そして、夫々の所定値に達した際に上記予測候補を生成し直すようにしてもよい。その場合における上記複数の所定値は、5→10→15のごとく一定間隔で増加するように設定してもよいし、5→8(+3)→10(+2)のごとく増加幅に変化を持たせてもよい。
【0059】
さらに、2番目以降の所定値(上述の例では「10」,「15」または「8」,「10」)に達した場合には、それまでに生成した予測候補とは異なる予測候補を生成することもできる。そうすることによって、例えば3ストローク毎に上記予測候補を生成する場合、操作者が「シ」と筆記した時点で生成・表示された予測候補に意中のものが無い場合に、続けて「シャー」まで筆記した時点で生成・表示される予測候補では、前回まで生成された予測候補(つまり、意中ではない予測候補)は除外されている。したがって、生成される予測候補の正解率を上げることができるのである。
【0060】
次に、上記図3に示す手書き入力処理動作における上記ステップS4において実行される予測候補生成処理動作について、さらに詳細に説明する。この発明においては、予測候補生成方法については特に限定しないが、手書き情報検索技術を応用して以下のように生成する方法が考えられる。すなわち、予測候補として生成したい手書き情報を辞書エントリとし、辞書エントリを集めた手書き情報辞書から入力手書き情報と類似する辞書エントリを検索することによって、予測候補を生成するのである。
【0061】
上記手書き情報辞書は、図1においては省略されているが、候補生成部3によって検索可能に設けられている。その場合、手書き情報辞書には、予め総ての辞書エントリを用意してもよいし、操作者の手書き入力に応じて適宜辞書エントリを追加・更新・削除してもよい。
【0062】
前者の場合、例えば、図4に示すような手書き情報を予め上記手書き情報辞書内に用意しておけば、顔の輪郭に相当する○を筆記した時点で、色々な種類の顔イラストを予測候補として生成し、表示させることが可能になる。他にも、簡単なストロークの入力で予測候補を表示できるような様々なイラスト等を上記手書き情報辞書内に用意しておけば、イラスト等を描くのが苦手な人であっても表現力豊かな手書きイメージを作成することが可能になる。また、後者の場合には、テストの添削を行う際に、手書きした解答を一度入力しておけば、先頭数ストロークを筆記した時点で上記解答を予測することが可能となり、各答案に対する解答入力の手間を大幅に軽減することができるのである。当然ながら、これらの方法は適宜組み合わせて使用しても効果的である。
【0063】
図5は、上記予測候補生成処理動作のフローチャートである。以下、図5に従って、図3に示す手書き入力処理動作の上記ステップS4において実行される上記予測候補生成処理動作について説明する。上記手書き入力処理動作の上記ステップS3において予測候補の生成を開始すると判別されると、予測候補生成処理動作がスタートする。
【0064】
ステップS11で、上記記憶部2に記憶されている入力手書き情報から、上記手書き情報辞書を検索する際に使用する検索用情報が生成される。ここで、上記記憶されている入力手書き情報から検索対象となる入力手書き情報を決定する方法としては、大きく以下の2つの方法に分けられる。
(B1) 上記記憶部2に記憶されている全てのストロークを対象とする。
(B2) 上記記憶部2に記憶されている一部のストロークを対象とする。
【0065】
さらに、上記方法(B2)において、記憶部2に記憶されているストロークのうちから対象となるストロークを抽出する方法としては、次のものが考えられる。
(B2a) 上記記憶部2に記憶されているストロークのうち、入力時刻順に最新のストロークから所定数分のストロークを対象とする。
(B2b) 上記記憶部2に記憶されているストロークのうち、入力時刻順に最新のストロークから合計長が所定値に達するまでのストロークを対象とする。
(B2c) 上記記憶部2に記憶されているストロークのうち、現時点より所定時間前の時点以降に入力された総てのストロークを対象とする。
(B2d) あるストロークの入力終了から次のストロークの入力開始までの経過時間が所定値を超えた場合をタイムアウトとし、記憶部2に記憶されているストロークのうち、最新のタイムアウト発生以降に入力されたストロークを対象とする。
(B2e) 上記記憶部2に記憶されているストロークのうち、別途設けられた検索対象手書き情報指示部(図示せず)からの操作者の指示によって指定されたストロークを対象とする。
【0066】
上記抽出方法(B2a)および抽出方法(B2b)においては、各ストロークの入力時刻順序を得る必要があるが、これは記憶部2に各ストロークを配列やリスト等のデータ構造で入力時刻順に記憶したり、記憶部2に上記ストローク情報として入力時刻をも記憶したりすることによって、実現可能である。
【0067】
また、上記抽出方法(B2e)における上記検索対象手書き情報指示部からの操作者による指示は、上記判別方法(A5)における「上記入力部1に対する指示」の場合と同様に、入力部1に手書き情報と同様に手書き入力されるジェスチャを用いてもよい。その場合、ジェスチャと判定されたストロークとジェスチャ以外の手書き文字や図形のストロークとの位置関係に応じて、検索対象手書き情報を決定する。
【0068】
尚、上記抽出方法(B2a)〜抽出方法(B2e)以外にも、これらに類する抽出方法によって抽出した一部のストロークを探索対象としても差し支えない。更に、上記方法(B1)および方法(B2)(=抽出方法(B2a)〜抽出方法(B2e))は、何れか1つのみを用いてもよいし、任意の2つ以上を組み合わせて用いてもよい。
【0069】
上述のようにして決定されたストローク群でなる手書き情報が、検索対象手書き情報すなわち検索用情報として決定される。
【0070】
ステップS12で、上記生成された検索用情報に基づいて上記手書き情報辞書が検索され、上記検索用情報である検索対象手書き情報と部分的にマッチする辞書エントリが抽出される。ここで、上記検索対象手書き情報と手書き情報辞書との照合方法は特に限定しないが、オンライン文字認識やOCR(Optical Character Reader:光学式文字読み取り装置)等で使用される各種パターンマッチング法が適用可能である。
【0071】
以下、一例として、上記ストローク情報として座標列を保持し、DP(Dynamic Programing:動的計画法)マッチングを用いて照合する場合について、図6および図7に従って説明する。
【0072】
図6(a)は検索対象手書き情報を示し、図6(b)は1つの辞書エントリを示している。尚、図6(a)および図6(b)において、ストローク上の黒丸が各座標を表わしている。これらの座標を用いて直接DPマッチングを行ってもよい。しかしながら、処理量を減らすために、図6(c)および図6(d)に示すように、サンプリング等による折れ線近似処理を行い、この折れ線の両端部や折れ部の座標を用いてDPマッチングを行うのが一般的である。
【0073】
上記折れ線近似によって、図6(c)に示す検索手書き情報の座標列Ps1〜Ps7と、図6(d)に示す辞書エントリの座標列Pd1〜Pd27とが得られたものとする。但し、上記辞書エントリの座標については後の説明で不要な座標のラベルPd10〜Pd26を省略している。尚、上記辞書エントリの折れ線近似座標列は、予め算出して辞書エントリと共に保持しておいてもよい。この場合、上記手書き情報辞書の記憶容量は増加するが、照合時の処理量を減らすことができる。
【0074】
上記DPマッチングでは、図6(c)に示す各座標と図6(d)に示す各座標との対応が取られる。本照合は部分マッチでよいので、図6(c)に示す各座標が図6(d)に示す何れかの座標との対応が取れた時点でDPマッチングを終了すればよい。
【0075】
図7(a)は検索手書き情報と辞書エントリとの対応を2次元で表わしたものであり、縦軸が図6(c)における各座標であり、横軸が図6(d)の各座標であり、黒丸が対応を表わしている。すなわち、図7(a)によれば、図7(b)に示すような対応関係が得られている。上述のマッチング方法の場合は、辞書エントリ内のあるストロークの途中の座標までしか対応が取れない場合があり得るので、何れかのストロークの終了点までで対応付けを終了してもよい。
【0076】
こうして対応付けが終了した時点で、形状類似の評価スコアが得られる。この評価スコアの順に辞書エントリをソートすることによって、類似度の高い順に並んだ辞書エントリリストが取得される。尚、最終的に抽出される辞書エントリの数は、最も信頼度が高い辞書エントリを1つだけ抽出してもよいし、信頼度の高い順に複数の辞書エントリを抽出してもよい。
【0077】
ステップS13で、上記抽出された辞書エントリに基づいて予測候補が生成された後、図3に示す手書き入力処理動作の上記ステップS5にリターンする。
【0078】
その場合における上記予測候補は、上記抽出された辞書エントリのストロークをそのまま用いて生成してもよいし、上記辞書エントリから上記ステップS12でのDPマッチングにおいて上記検索対象手書き情報のストロークとマッチした部分を削除して生成してもよい。例えば、図6および図7に示す例においては、辞書エントリの座標列Pd1〜Pd8が検索対象手書き情報に対応しているので、座標列Pd9〜Pd27に関する折れ線近似前の座標列に基づいて予測候補を生成すればよいのである。
【0079】
尚、上記抽出された辞書エントリのストロークをそのまま用いて予測候補を生成する場合、上記生成された予測候補が選択された際には、この予測候補から検索対象手書き情報のストロークとマッチする部分を削除して表示する、または、上記検索対象手書き情報を削除して予測候補のみを表示することになるが、これについては後述する。
【0080】
また、図8に示すように、サイズや方向は異なるものの形状は類似している辞書エントリ(図8(b))の場合でも抽出可能なパターンマッチング手法が知られている。このパターンマッチング手法を利用した場合には、上記検索対象手書き情報のサイズおよび方向と、抽出された辞書エントリにおける上記検索対象手書き情報に類似している部分のサイズおよび方向とが一致するように、当該辞書エントリ全体のサイズおよび方向を変更した後に、この全体のサイズおよび方向が変更された当該辞書エントリに基づいて上記予測候補を生成してもよい。その場合には、当該辞書エントリのサイズおよび方向の変更に基づいて上記手書き情報辞書の内容を更新してもよいし、予測候補生成のために仮に当該辞書エントリのサイズおよび方向を変更するのみで上記手書き情報辞書の内容は更新しないようにしてもよい。
【0081】
上記辞書エントリのサイズおよび方向の変更は、例えば、図9に示すように、上記検索対象手書き情報における筆記開始点とこの筆記開始点から最も離れている座標点とを結ぶベクトルv1と、抽出された辞書エントリにおける上記ベクトルv1に対応するベクトルv2とが、等しくなるように(つまり、両ベクトルv1,v2の方向と大きさとが等しくなるように)、当該辞書エントリを回転およびリサイズしたものに基づいて予測候補を生成することによって実現できる。
【0082】
次に、上記図3に示す手書き入力処理動作における上記ステップS5において実行される予測候補表示処理について、さらに詳細に説明する。本実施の形態においては、上記予測候補の表示方法を限定するものではないが、以下のような表示方法が考えられる。
(C1) 全予測候補を特定領域に表示する方法。
(C2) 第1予測候補のみを検索対象手書き情報の位置,サイズおよび方向に合わせて表示する方法。
(C3) 第1予測候補を検索対象手書き情報の位置,サイズおよび方向に合わせて表示し、第2以降の予測候補は特定領域に表示する方法。
【0083】
上記表示方法(C1)の場合、上記表示部5における予測候補表示用に予め定められた領域に表示してもよいし、図10に示すように検索対象手書き情報の近傍にウィンドウ表示してもよい。
【0084】
図10において、図10(a)は、上記検索対象手書き情報に対応する部分を含む予測候補を生成した場合の表示結果を示している。つまり、入力中の文字「テ」21が検索対象手書き情報である場合に、検索対象手書き情報「テ」に対応する部分をも含む予測候補22〜24が表示されている。また、図10(b)は、検索対象手書き情報に対応する部分を削除した予測候補を生成した場合の表示結果を示している。つまり、入力中の文字「テ」25に対応する部分が削除された予測候補26〜28が表示されている。ここで、図10(a)におけるボタン29,30および図10(b)におけるボタン31,32は、現在表示されている予測候補22〜24,26〜28以外の予測候補を表示させるためのボタンである。
【0085】
尚、図10においては、上述したように、上記検索対象手書き情報のサイズおよび方向に合わせて生成した予測候補を表示しているが、抽出された辞書エントリのサイズおよび方向をそのまま反映させた予測候補を表示してもよい。あるいは、画面サイズの制約や複数予測候補の一覧性を考慮して、縮小した予測候補を表示してもよい。
【0086】
図11は、上記表示方法(C2)による表示例である。図11(a)は、検索対象手書き情報に対応する部分を含む予測候補を生成した場合の表示結果を示している。つまり、入力中の文字「シ」(図11(a)中の太線部:検索対象手書き情報)に対応する部分をも含む第1予測候補「シャープ」(図11(a)中の細線部)が、検索対象手書き情報に重畳して表示されている。また、図11(b)は、検索対象手書き情報に対応する部分を削除して予測候補を生成した場合の表示結果を示している。つまり、入力中の文字「シ」(図11(b)中の太線部)に対応する部分が削除された第1予測候補「ャープ」(図11(b)中の細線部)が表示されている。これらの表示は、図9に示すように、2つのベクトルv1およびv2が等しくなるように回転およびリサイズした後、これらのベクトルv1,v2が重なるように予測候補を表示すればよい。ここで、図11(a)におけるボタン41および図11(b)におけるボタン42は、現在表示されている予測候補以外の予測候補を表示させるためのボタンである。
【0087】
尚、図11(a)においては、上記検索対象手書き情報と予測候補とを線の太さを変えて識別できるように表示しているが、色や濃度を変えたり予測候補を点滅表示させることも効果的である。
【0088】
また、図10および図11の何れの表示方法においても、上記表示された予測候補に対して選択が行われずに筆記が継続された場合には、現在生成されている予測候補を非表示にしたり、色や濃度をより薄く表示する等表示形態を変えて表示したりすれば、筆記時の視認性を向上させる効果を得ることができる。
【0089】
続いて、上述のように図3の手書き入力処理動作によって表示部5に予測候補が表示された際に、操作者が候補選択部4を操作して行う予測候補の選択について説明する。先ず、候補選択部4の構成について補足説明を行う。
【0090】
上記候補選択部4は、上述したように、入力部1を構成するタブレット等の特定の領域、または、キーボードやボタン等の入力部1とは異なるハードウェア、によって構成されている。ここで、入力部1の特定の領域としては、例えば、図10における予測候補22〜24,26〜28の夫々が包含されている矩形領域である。この場合には、矩形領域内に対してペンダウン等の指示があると、その矩形に含まれている予測候補が選択されるのである。あるいは、図12に示すように、複数の予測候補の夫々が包含されている矩形領域内に表示されたボタン領域43〜45を、上記入力部1の特定の領域としてもよい。この場合には、ボタン領域43〜45に対してペンダウン等の指示があると、当該ボタン領域に対応している矩形領域内の予測候補が選択されるのである。尚、ボタン領域43〜45以外の矩形領域内の部分は手書き入力可能である。
【0091】
ここで、上記矩形領域の全体を選択用領域とする前者の場合には、上記矩形領域内への手書き入力は不可能であるため、検索対象手書き情報の表示位置近傍に上記矩形領域を設定すると、何れの予測候補をも選択せずに続けて筆記する場合に不都合が生じる。ところが、上記矩形領域内にボタン領域43〜45を設ける後者の場合には、ボタン領域43〜45以外の矩形領域内の部分は手書き入力が可能であるため、検索対象手書き情報の表示位置近傍に上記矩形領域を設定しても、不具合は生じ難いのである。
【0092】
さらに、図11に示すように、上記検索対象手書き情報の位置,サイズおよび方向に合わせて第1予測候補のみを表示する場合には、予測候補の選択方法として以下の2通りが考えられる。
(D1) 図13(a)に示すように、上記検索対象手書き情報の筆記終了点Pe1の近傍に、予測候補選択用のボタン46を表示する方法。
(D2) 図13(b)に示すように、表示された予測候補の筆記終了点Pe2の近傍に、予測候補選択用のボタン47を表示する方法。
【0093】
ここで、上記選択方法(D2)における予測候補の筆記終了点とは、上記予測候補の手書き情報が実際の筆記によって入力された場合の最終ストロークの筆記終了点を指す。例えば、手書き情報に含まれるストローク情報およびストロークの座標列情報を時系列で保持している場合であれば、最終ストロークの最終座標がそれに当る。
【0094】
選択方法(D1)の場合には、上記検索対象手書き情報の筆記終了点(手書き入力終了点)から予測候補選択用のボタン46までの距離が短いため、手書き入力から予測候補選択までの動作を素早く行うことができ、操作性が向上する。これに対して、選択方法(D2)の場合には、入力を意図していた手書き情報を予測候補の選択を行わずに入力部1から実際に筆記した場合の筆記終了点に近い位置で予測候補選択の操作が終了するため、操作者はその近傍から次の手書き入力を開始することが可能になり、入力効率および操作感が向上する。何れの選択方法においても、検索対象手書き情報および予測候補の視認性を妨げない位置に表示するか、または、ボタン46,47を半透明表示にするなどの視認正を妨げない表示方法にすることが望ましい。
【0095】
上述した選択方法(D1)の場合において、上記検索対象手書き情報および予測候補の視認性を妨げないボタンの表示位置の決定方法例を、以下に示す。
(E1) 図14(a)に示すように、上記検索対象手書き情報および予測候補の外接矩形Rを求め、さらに外接矩形Rの辺上であって検索対象手書き情報「シ」の筆記終了点Peに最も近い点Pbを求め、その点Pbに接するように予測候補選択用のボタンを表示する方法。
(E2) 図14(b)に示すように、上記検索対象手書き情報「シ」の筆記終了点Peからの距離がd1となる点(○で表示)を複数求め、それらの点のうち、予測候補選択用のボタンを表示した際に検索対象手書き情報および予測候補の各ストロークと接触しない点の位置に、予測候補選択用のボタンを表示する方法。
【0096】
表示位置決定方法(E1)の場合には、上記検索対象手書き情報のみの外接矩形を対象にしてもよい。但し、その場合は、予測候補選択用のボタンと予測候補とが接触する可能性があるので、予測候補に接触しない点のうち最も近い点に接するようにボタンを表示するか、ボタンを半透明表示する必要がある。尚、予測候補の筆記終了点近傍に表示する場合も同様である。この表示位置決定方法(E1)は、処理量が少なくて済む反面、上記外接矩形の中心近くに筆記終了点がある場合には、筆記終了点の周囲に空間が空いていてもボタンが遠く表示されてしまうという欠点がある。
【0097】
表示位置決定方法(E2)の場合には、表示位置を、上記検索対象手書き情報の筆記終了点を中心とした正多角形の頂点に設定すればよい。図14(b)においては正六角形としている。尚、正多角形の何れの頂点においても検索対象手書き情報または予測候補の各ストロークと接触する場合には、筆記終了点からの距離がd2(>d1)となる複数の点について同様の処理を行えばよい。上記距離がd2でも接触する場合には、さらにd3(>d2)となる複数の点について同様の処理を行う。以下、同様に、最終的に接触が無い点が見つかるまで筆記終了点からの距離を大きくして同様の処理を繰り返し、最終的に得られた点の位置にボタンを表示する。尚、予測候補の筆記終了点近傍に表示する場合も同様である。さらに、この表示位置決定方法(E2)は、表示位置決定方法(E1)よりも処理量は大きくなるが、上述したような外接矩形内の中心近くに筆記終了点がある場合でも、周囲に空間がある場合には終了点近傍にボタンを表示することが可能になる。
【0098】
上述した上記候補選択部4の構成において、候補選択用のボタンの代わりに、選択以外の処理指示も可能なメニュー等を用いても効果的である。
【0099】
次に、上記構成の候補選択部4によって予測候補の選択が行われた場合における選択予測候補の表示処理について説明する。この処理は、図10に示すように複数の予測候補を表示する場合と、図11に示すように第1予測候補のみを表示する場合とによって異なるため、夫々について順に説明する。
【0100】
先ず、図10に示すごとく複数の予測候補を表示する場合のうち、図10(a)に示すように、上記検索対象手書き情報に対応する部分を含む予測候補をウィンドウ表示する場合、または、予め定められた表示領域に同様の表示を行う場合には、以下の2通りの選択予測候補の表示処理方法がある。
(F1) 上記検索対象手書き情報に合わせて、選択された予測候補のサイズおよび方向を変更した後に、検索対象手書き情報に対応する部分を削除し、上記検索対象手書き情報の位置に合わせて入力手書き情報と同様の表示形態で表示する方法。
(F2) 上記検索対象手書き情報に合わせて、選択された予測候補のサイズおよび方向を変更した後に、検索対象手書き情報を削除(つまり、非表示状態に)し、検索対象手書き情報が存在していた位置に合わせて入力手書き情報と同様の表示形態で表示する方法。
【0101】
表示処理方法(F1)の場合における表示例を図15に示す。図15から分るように、表示処理方法(F1)は、実際に手書き入力されたストロークをそのまま用いる方法である。一方、表示処理方法(F2)の場合における表示例を図16に示す。図16から分るように、表示処理方法(F2)は、入力したストロークに代えて予測候補を用いる方法である。
【0102】
尚、上記表示処理方法(F1),(F2)においては、上記選択された予測候補のサイズおよび方向を検索対象手書き情報に合わせて変更するようにしているが、上述した予測候補生成時にこの処理が既に行われている場合には不要である。また、当然ながら、予測候補のサイズおよび方向は変更しないようにすることも可能である。
【0103】
次に、図10(b)に示すように、上記検索対象手書き情報に対応する部分を削除した予測候補をウィンドウ表示する場合、または、予め定められた表示領域に同様の表示を行う場合における選択予測候補の表示処理方法について説明する。この場合には、上記検索対象手書き情報に合わせて、選択された予測候補のサイズおよび方向を変更した後に、検索対象手書き情報が存在していた位置に合わせて検索対象手書き情報と同様の表示形態で表示すればよい。図10(a)の場合と同様に、サイズおよび方向の変更は上述した予測候補生成時に既に行われている場合は不要である。図17に、この表示処理方法を用いた場合の表示例を示す。
【0104】
次に、図11に示す如く第1予測候補のみを表示する場合のうち、図11(a)に示すように、上記検索対象手書き情報に対応する部分を含む予測候補を、検索対象手書き情報の位置,サイズおよび方向に合わせて表示する場合には、以下の2通りの選択予測候補の表示処理方法がある。
(G1) 上記予測候補から検索対象手書き情報に対応する部分を削除して、検索対象手書き情報の位置に合わせて入力手書き情報と同様の表示形態で表示する方法。
(G2) 上記検索対象手書き情報を削除(非表示状態に)して、予測候補を検索対象手書き情報が存在していた位置に合わせて入力手書き情報と同様の表示形態で表示する方法。
【0105】
上記表示処理方法(G1),(G2)による表示例を図18に示す。尚、図18における方法1は上記表示処理方法(G1)に相当し、表示された予測候補「シャープ」のうちの先頭文字「シ」が検索対象手書き情報の「シ」に置き換えられている。一方、方法2は上記表示処理方法(G2)に相当し、表示された予測候補「シャープ」がそのまま表示されている。
【0106】
最後に、図11(b)に示すように、上記検索対象手書き情報に対応する部分を削除した予測候補を、検索対象手書き情報の位置,サイズおよび方向に合わせて表示する場合の表示処理方法について説明する。この場合には、選択された予測候補を、検索対象手書き情報と同様の表示形態で表示するだけでよい。表示例を図19に示す。
【0107】
ところで、上記選択予測候補を表示するに際して行われる選択予測候補のサイズおよび方向の変更と上記検索対象手書き情報との位置合せとの方法は、特に限定するものではないが、例えば以下のようにして行う。
【0108】
先ず、上記候補生成部3が当該選択予測候補を生成した際に用いた辞書エントリを読み出す。そして、当該辞書エントリにおける検索対象手書き情報に対応する部分の図9(b)に示すベクトルv2と、上記検索対象手書き情報の図9(a)に示すベクトルv1とを比較して、ベクトルv2のサイズおよび方向のベクトルv1のサイズおよび方向に対するずれの度合を求める。次に、このずれの度合に応じて当該選択予測候補全体のサイズおよび方向を変更して、当該選択予測候補のサイズおよび方向が上記検索対象手書き情報のサイズおよび方向に略一致するようにする。そうした後に、当該選択予測候補における上記検索対象手書き情報に対応する部分の位置(または、当該選択予測候補における上記検索対象手書き情報に対応する部分が存在していた位置)を、上記検索対象手書き情報が存在していた位置(または、上記検索対象手書き情報の位置)に合わせて表示するのである。
【0109】
以上のごとく、本実施の形態においては、入力部1から手書き入力されたストロークの集合に関する情報が手書き情報として記憶部2に記憶される。また、こうして入力された手書き情報や予め用意された手書き情報を辞書エントリとする手書き情報辞書を形成して記憶しておく。そして、上記入力部1から順次入力されて記憶部2に記憶されるストロークの集合に基づいて予測候補の生成開始が判別されると、候補生成部3によって、記憶部2に記憶されている手書き情報から検索対象手書き情報が決定される。さらに、この検索対象手書き情報に基づいて上記手書き情報辞書が検索され、検索対象手書き情報にマッチングする辞書エントリに基づいて予測候補が生成される。そして、表示部5に表示された予測候補の中から候補選択部4によって選択された選択予測候補が、恰も入力部1から入力された手書き情報のごとく表示部5に表示される。
【0110】
したがって、上記入力部1から手書き入力された情報をイメージのまま処理するに際して、操作者は、所望の予測候補が生成・表示されるまで入力部1から手書き入力を行えば良く、所望の予測候補が表示された段階で入力を意図している手書き情報に相当する予測候補を得ることができる。こうして、操作者の手書き入力の負担を軽減することができるのである。
【0111】
尚、上記実施の形態においては、上記候補生成部3による予測候補生成処理および予測候補表示処理と、候補選択部4による予測候補選択処理とについて、複数の処理方法を例示すると共に、何れかを選択的に実行するようにしている。しかしながら、この発明はこれに限定されるものではなく、操作者の指示により、適宜切り換え実行が可能な構成にしても差し支えない。
【0112】
・第2実施の形態
本実施の形態は、上記第1実施の形態において述べた各種機能を実現するための手書き入力プログラムおよびこの手書き入力プログラムが記録されたコンピュータ読み出し可能な記録媒体に関するものである。
【0113】
この記録媒体は、図2に示す手書き入力装置によって手書き入力処理を行うために必要なメモリであり、例えばプログラムメモリ11自体がプログラムメディアであってもよいし、外部記憶媒体ドライバ18としてのプログラム読み取り装置に装着されて読み取りが行われるプログラムメディア(磁気テープやCD‐ROM等)であってもよい。何れの場合においても、上記プログラムメディアに格納されているプログラムは、CPU19によって直接アクセスされて実行される構成であってもよいし、一旦読み出されて図2における所定のプログラム記憶エリア(例えば、プログラムメモリ11のプログラム記憶エリア)にロードされた後にCPU19によって読み出されて実行される構成であってもよい。尚、上記ロード用のプログラムは、予め当該装置に格納されているものとする。
【0114】
すなわち、上記プログラムメディアとは、装置本体と分離可能に構成され、磁気テープやカセットテープ等のテープ系、フレキシブルディスク,ハードディスク等の磁気ディスクやCD‐ROM,MO(光磁気)ディスク,MD(ミニディスク),DVD(ディジタル多用途ディスク)等の光ディスクのディスク系、IC(集積回路)カード(メモリカードを含む)や光カード等のカード系、マスクROM,EPROM(紫外線消去型ROM),EEPROM(電気的消去型ROM),フラッシュROM等の半導体メモリ系を含めた、固定的にプログラムを坦持する媒体であればよいのである。
【0115】
つまり、本実施の形態における記録媒体とは、上記構成を有するプログラムメディアに、上記第1実施例における図3に示す手書き処理動作および図5に示す予測候補生成処理動作とその具体的処理例とを実行する手書きプログラムが記録したものなのである。
【0116】
尚、上記第1実施の形態における手書き入力装置は、インターネットを含む通信ネットワーク15と通信I/F16を介して接続可能な構成を有している。したがって、上記プログラムメディアは、通信ネットワーク15からのダウンロード等によって流動的にプログラムを坦持する媒体であっても差し支えない。その場合における上記通信ネットワーク15からダウンロードするためのダウンロード用プログラムは、予め当該装置に格納されているものとする。あるいは、別の外部記録媒体から予め当該装置本体にインストールされるものとする。
【0117】
また、上記記録媒体に記録されるものはプログラムのみに限定されるものではなく、データも記録することが可能である。
【0118】
また、上述した各実施の形態は全ての点において例示であって、制限的なものではない。この発明の範囲は、特許請求の範囲によって示され、特許請求の範囲と均等な意味および範囲内での全ての変更が含まれることが意図される。
【0119】
【発明の効果】
以上より明らかなように、この発明によれば、操作者は、表示部に所望の予測候補が表示されるまで入力部から手書き情報を入力し、表示された所望の予測候補を選択することによって、意図している手書き情報(文字や図形)を入力することができるので、意図している文字や図形の総てを実際に手書き入力することなく入力することができる。したがって、入力された手書き情報をイメージのまま処理するに際して、操作者の手書き入力時の労力を軽減し、入力効率および操作性を大幅に向上させることができる。
【0120】
また、手書きイラスト等が苦手な人であっても、簡単な手書き入力だけで複雑な凝ったイラスト等を入力することができ、表現力に富んだ手書きイメージの作成が可能になる。
【図面の簡単な説明】
【図1】この発明の手書き入力装置における機能ブロック図である。
【図2】図1に示す手書き入力装置の具体的ハードウェア構成を示す図である。
【図3】図2におけるCPUによる制御の下に実行される手書き入力処理動作のフローチャートである。
【図4】手書き情報辞書内に予め用意される手書き情報の一例を示す図である。
【図5】図3に示す手書き入力処理動作において実行される予測候補生成処理動作のフローチャートである。
【図6】DPマッチングの対象となる検索対象手書と辞書エントリとの一例を示す図である。
【図7】図6に示す検索手書き情報と辞書エントリとの対応関係を示す図である。
【図8】サイズや方向は異なる検索対象手書き情報と辞書エントリとの一例を示す図である。
【図9】図8において辞書エントリのサイズおよび方向を検索対象手書き情報に合わせて予測候補を生成する場合の説明図である。
【図10】選択された予測候補をウィンドウ表示する場合の一例を示す図である。
【図11】図10とは異なる予測候補の表示例を示す図である。
【図12】図1における候補選択部を入力部に表示されたボタン領域で構成した場合の一例を示す図である。
【図13】図12とは異なるボタン領域の構成例を示す図である。
【図14】図13に示すボタン領域の表示位置決定の説明図である。
【図15】選択予測候補の表示方法の一例を示す図である。
【図16】図15とは異なる選択予測候補の表示方法を示す図である。
【図17】検索対象手書き情報に対応する部分を削除した予測候補をウインドウ表示している場合における選択予測候補の表示例を示す図である。
【図18】検索対象手書き情報に対応する部分を含む予測候補を検索対象手書き情報の位置,サイズおよび方向に合わせて表示している場合における選択予測候補の表示例を示す図である。
【図19】検索対象手書き情報に対応する部分を削除した予測候補を検索対象手書き情報の位置,サイズおよび方向に合わせて表示している場合における選択予測候補の表示例を示す図である。
【符号の説明】
1…入力部、
2…記憶部、
3…候補生成部、
4…候補選択部、
5…表示部、
11…プログラムメモリ、
12…データメモリ、
13…入力装置、
14…表示装置、
15…通信ネットワーク、
16…通信I/F、
17…外部記録媒体、
18…外部記憶媒体ドライバ、
19…CPU、
21,25…入力中の文字、
22〜24,26〜28…予測候補、
29,30,31,32,41,42,46,47…ボタン、
43〜45…ボタン領域。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a handwriting input device, a handwriting input method, a handwriting input program, and a program recording medium.
[0002]
[Prior art]
An apparatus is known in which an operator inputs characters and figures by handwriting via a coordinate input device such as a tablet. In these devices, character recognition and graphic recognition are performed on the input characters and graphics, and processing such as input and editing is performed by replacing the recognition results with handwritten characters and graphics. There is also known a technique for processing an input character or graphic as an image without performing character recognition or graphic recognition.
[0003]
With regard to the former technique for performing the above character recognition, figure recognition, etc., a technique that allows a part of a character string to be omitted in order to reduce the burden on the operator when inputting characters by handwriting. Has been proposed (see, for example, Patent Document 1). This patent document 1 discloses a text input device for searching a word dictionary, an example dictionary, and the like, and presenting a character string candidate that complements the omitted part by inputting an ellipsis in the middle or continuation of the character string to be input. Has been.
[0004]
As for the latter technique that does not perform character recognition or graphic recognition, a technique for searching for information such as handwritten characters and figures has been proposed (see, for example, Patent Document 2). This
[0005]
[Patent Document 1]
Japanese Patent Laid-Open No. 7-191986
[Patent Document 2]
Japanese Patent Laid-Open No. 10-214267
[0006]
[Problems to be solved by the invention]
However, the conventional text input device and handwritten character symbol processing device have the following problems.
[0007]
That is, in the text input device described in Patent Document 1, a word dictionary, an example dictionary, and the like are searched to supplement the omitted part. Therefore, it is possible to reduce the burden at the time of character input when the final output is printed. However, there is a problem that it cannot be used when handwritten information input by the operator is processed as an input image.
[0008]
On the other hand, in the handwritten character symbol processing device described in
[0009]
Accordingly, an object of the present invention is to provide a handwriting input device, a handwriting input method, a handwriting input program, and a program capable of reducing the burden on the operator when handwritten input when processing handwritten information input by the operator as an image. It is to provide a recording medium.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, the handwriting input device of the present invention is intended to input based on handwriting information input from the input unit and an input unit in which handwritten information such as characters and figures is input by handwriting. A prediction candidate generating unit that generates a prediction candidate of handwritten information, a display unit that displays the input handwritten information and the prediction candidate, and a desired prediction candidate that is operated by the operator and that is selected from the prediction candidates displayed by the display unit A prediction candidate selection unit that selects the prediction candidate, and when the prediction candidate is selected by the prediction candidate selection unit, the display unit displays the selected prediction candidate.
[0011]
Here, the above-mentioned “handwritten information” means information related to a set of one or more strokes in this specification. Further, in the present specification, the “prediction candidate” refers to each candidate obtained when predicting handwritten information that the operator wants to finally input.
[0012]
According to the above configuration, the operator inputs handwritten information from the input unit until the desired prediction candidate is displayed on the display unit, and the displayed desired prediction candidate is selected. In this way, characters and figures are input without actually writing all handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0013]
The handwriting input device according to the present invention includes an input unit for inputting handwritten information such as characters and figures by handwriting, a handwritten information dictionary in which various handwritten information is registered as a dictionary entry, and input from the input unit. Using part or all of the handwritten information as search target handwritten information, a dictionary entry whose part is similar to the search target handwritten information is extracted from the handwritten information dictionary, and the search target handwritten information is extracted from the extracted dictionary entry. A prediction candidate generating unit that generates a prediction candidate of handwritten information intended to be input by deleting a part similar to the above, and a display unit that displays the input handwritten information including the search target handwritten information and the prediction candidate A prediction candidate selection that is operated by the operator and selects a desired prediction candidate from the prediction candidates displayed by the display unit. Comprise, the display unit, when the selection of the prediction candidate by the prediction candidate selection unit is performed, becomes the selected prediction candidates to display together with the search target handwritten information.
[0014]
According to the above configuration, the operator inputs handwritten information from the input unit until the desired prediction candidate is displayed on the display unit, and the displayed desired prediction candidate is selected. In this way, characters and figures are input without actually writing all handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0015]
The handwriting input device according to the present invention includes an input unit for inputting handwritten information such as characters and figures by handwriting, a handwritten information dictionary in which various handwritten information is registered as a dictionary entry, and input from the input unit. A part or all of the handwritten information is used as search target handwritten information, and a dictionary entry partly similar to the search target handwritten information is extracted from the handwritten information dictionary, and input is intended based on the extracted dictionary entry. A prediction candidate generation unit that generates a prediction candidate of the handwritten information being performed, a display unit that displays input handwritten information and prediction candidates including the search target handwritten information, and a display that is operated by an operator and displayed by the display unit A prediction candidate selection unit that selects a desired prediction candidate from the predicted prediction candidates, and the display unit uses the prediction candidate selection unit to If the selection of is performed, and displays with the search target handwritten information from the selected prediction candidate to delete the portions which are similar to the search target handwritten information.
[0016]
According to the above configuration, the operator inputs handwritten information from the input unit until the desired prediction candidate is displayed on the display unit, and the displayed desired prediction candidate is selected. In this way, characters and figures are input without actually writing all handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0017]
The handwriting input device according to the present invention includes an input unit for inputting handwritten information such as characters and figures by handwriting, a handwritten information dictionary in which various handwritten information is registered as a dictionary entry, and input from the input unit. Using part or all of the handwritten information as search target handwritten information, a dictionary entry partly similar to the search target handwritten information is extracted from the handwritten information dictionary, and input is intended based on the extracted dictionary entry A prediction candidate generation unit that generates a prediction candidate of the handwritten information being performed, a display unit that displays input handwritten information and prediction candidates including the search target handwritten information, and a display that is operated by an operator and displayed by the display unit A prediction candidate selection unit that selects a desired prediction candidate from the predicted candidates, and the display unit predicts by the prediction candidate selection unit When the selection of the auxiliary is performed, already was a non-display state the search target handwritten information which is displayed, so as to display the predicted candidates said selected.
[0018]
According to the above configuration, the operator inputs handwritten information from the input unit until the desired prediction candidate is displayed on the display unit, and the displayed desired prediction candidate is selected. In this way, characters and figures are input without actually writing all handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0019]
Further, in the handwriting input device having the handwritten information dictionary of one embodiment, the prediction candidate generating unit is similar to the size and direction of the search target handwritten information and the search target handwritten information in the extracted dictionary entry. The prediction candidate is generated based on the dictionary entry in which the overall size and direction are changed after the size and direction of the entire dictionary entry are changed so that the size and direction of the current part match. It has become.
[0020]
According to this embodiment, when the prediction candidate is generated based on the dictionary entry having a shape similar to that of the search target handwritten information but having a different size and direction, the prediction is close to the handwritten information intended for the input. Candidates are generated.
[0021]
Moreover, in the handwriting input device having the handwriting information dictionary of one embodiment, when the display unit displays the prediction candidates generated by the prediction candidate generation unit, the display target handwritten information in the prediction candidates is displayed. The position of the similar part or the position where the part was present is displayed so as to match the position of the search handwritten information.
[0022]
According to this embodiment, the search target handwritten information and the prediction candidates are displayed in a continuous state. Therefore, the operator can confirm an image when the displayed prediction candidate is selected.
[0023]
In the handwriting input device having the handwriting information dictionary of one embodiment, the display unit is used to generate the selected prediction candidate when displaying the prediction candidate selected by the prediction candidate selection unit. The degree of deviation of the size and direction of the portion similar to the search target handwritten information in the dictionary entry with respect to the size and direction of the search target handwritten information is obtained, and the size of the entire selected prediction candidate and After changing the direction, the position of the part similar to the search target handwritten information in the selected prediction candidate or the position where the part existed is displayed so as to match the position of the search target handwritten information. It has become.
[0024]
According to this embodiment, even when a prediction candidate whose size and direction do not match the search target handwritten information is generated and displayed, when a desired prediction candidate is selected, the size and direction are set as described above. Selection prediction candidates that match the search target handwritten information are displayed. Therefore, a selection prediction candidate closer to the handwritten information intended for input is displayed.
[0025]
Moreover, in the handwriting input device of one Example, the said display part displays the said prediction candidate with the display form different from the said input handwritten information.
[0026]
According to this embodiment, the search target handwritten information actually input by handwriting displayed on the display unit and the prediction candidate can be easily identified.
[0027]
Moreover, in the handwriting input device of one Example, the said prediction candidate selection part is comprised by the button or menu displayed by the said display part in the vicinity of the said prediction candidate.
[0028]
According to this embodiment, the operation for selecting a desired prediction candidate from the prediction candidates displayed on the display unit is facilitated, and the operability is improved.
[0029]
Moreover, in the handwriting input apparatus of one Example, the said prediction candidate selection part is comprised by the button or menu displayed on the vicinity of the writing end point of the said search object handwritten information by the said display part.
[0030]
According to this embodiment, the operation for selecting a desired prediction candidate from the prediction candidates displayed on the display unit is facilitated, and the prediction candidate selection after handwriting input can be quickly performed. Is improved.
[0031]
Moreover, in the handwriting input apparatus of one Example, the said prediction candidate selection part is comprised by the button or menu displayed on the vicinity of the writing end point of the said prediction candidate by the said display part.
[0032]
According to this embodiment, the operation for selecting a desired prediction candidate from the prediction candidates displayed on the display unit is facilitated, and the transition to the next handwriting input after the selection of the prediction candidate is facilitated. Operability is improved.
[0033]
The handwriting input method of the present invention includes an input step of inputting handwritten information such as characters and figures by handwriting, and a prediction for generating a prediction candidate of handwritten information intended for input based on the input handwritten information. A candidate generation step, a display step for displaying the input handwritten information and a prediction candidate, a prediction candidate selection step for selecting a desired prediction candidate from the displayed prediction candidates, and a selection prediction for displaying the selected prediction candidate A candidate display step is included.
[0034]
According to the above configuration, characters and figures are input without actually writing all handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0035]
Further, the handwriting input method of the present invention includes an input step of inputting handwritten information such as characters and figures by handwriting, and the search from the handwritten information dictionary using part or all of the input handwritten information as search target handwritten information. Predicting handwritten information intended for input by extracting a dictionary entry that is partially similar to the target handwritten information and deleting a portion similar to the search target handwritten information from the extracted dictionary entry A prediction candidate generation step for generating a candidate; a display step for displaying input handwritten information including the search target handwritten information and a prediction candidate; a prediction candidate selection step for selecting a desired prediction candidate from the displayed prediction candidates; A selection prediction candidate display step for displaying the selected prediction candidate together with the search handwritten information;
[0036]
According to the above configuration, characters and figures are input without actually writing all handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0037]
Further, the handwriting input method of the present invention includes an input step of inputting handwritten information such as characters and figures by handwriting, and the search from the handwritten information dictionary using part or all of the input handwritten information as search target handwritten information. A prediction candidate generating step of extracting a dictionary entry partially similar to the target handwritten information and generating a prediction candidate of handwritten information intended to be input based on the extracted dictionary entry; and the search target handwriting Display step for displaying input handwritten information including information and prediction candidates; prediction candidate selection step for selecting a desired prediction candidate from the displayed prediction candidates; and similarity to the search target handwritten information from the selected prediction candidates A selection prediction candidate display step for deleting the displayed portion and displaying it together with the search handwritten information.
[0038]
According to the above configuration, characters and figures are input without actually writing all handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0039]
Further, the handwriting input method of the present invention includes an input step of inputting handwritten information such as characters and figures by handwriting, and the search from the handwritten information dictionary using part or all of the input handwritten information as search target handwritten information. A prediction candidate generating step of extracting a dictionary entry partially similar to the target handwritten information and generating a prediction candidate of handwritten information intended to be input based on the extracted dictionary entry; and the search target handwriting A display step of displaying input handwritten information including information and a prediction candidate; a prediction candidate selecting step of selecting a desired prediction candidate from the displayed prediction candidates; and the search target handwritten information already displayed being hidden. Then, there is a selected prediction candidate display step for displaying the selected prediction candidate.
[0040]
According to the above configuration, characters and figures are input without actually writing all handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0041]
Moreover, the handwriting input program of this invention makes a computer function as said input part, prediction candidate production | generation part, display part, and prediction candidate selection part in the handwriting input device of this invention.
[0042]
According to the above configuration, characters and figures can be input only by handwriting input of a part of handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0043]
The program recording medium of the present invention records the handwriting input program of the present invention.
[0044]
According to the above configuration, by reading and executing the handwriting input program with a computer, characters and figures can be input without actually inputting all handwritten information (characters and figures) intended to be input. Done. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0045]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail with reference to the illustrated embodiments.
[0046]
First embodiment
FIG. 1 is a functional block diagram showing a functional configuration of the handwriting input device of the present embodiment. The handwriting input device is configured on a simple computer and includes an input unit 1, a
[0047]
The input unit 1 includes a tablet or the like, and strokes such as characters and figures are input by hand by an operator. Handwritten information including a set of strokes input by handwriting from the input unit 1 is stored in the
[0048]
Here, the stroke refers to a writing trajectory obtained between the start of contact with the input surface of the input unit 1 and the end of contact. The stroke information refers to stroke coordinate string information, vector string information, or image information obtained from the input unit 1. The stroke information may include time information such as input time and time required for writing, writing speed information, writing pressure information, circumscribed rectangle information, stroke length information, and the like.
[0049]
The handwritten information refers to information related to a set of one or more strokes, and may include various information used for shape matching between the entire circumscribed rectangle information and handwritten information in addition to the information of the included strokes.
[0050]
The input unit 1 and the
[0051]
FIG. 2 shows a hardware configuration of the handwriting input device shown in FIG. The handwriting input device includes a
[0052]
FIG. 3 is a flowchart of the handwriting input processing operation executed under the control of the
[0053]
In step S1, the input stroke is displayed on the
[0054]
Here, the method for determining the generation start of the prediction candidate is not particularly limited. For example, the following method is effective.
(A1) After a stroke is input, it is determined that the generation of the prediction candidate is started when a predetermined time has passed without performing an input operation for the next stroke, a selection operation for selecting a prediction candidate, which will be described later, or the like.
(A2) When the total number of input strokes reaches a predetermined value, it is determined that generation of the prediction candidate is started.
(A3) It is determined that generation of the prediction candidate is started when the total length of the input strokes reaches a predetermined value.
(A4) When the elapsed time has reached a predetermined time from the writing start time of the first input stroke, it is determined that generation of the prediction candidate is started.
(A5) When an instruction is given by the operator to the input unit 1 or a separately provided prediction candidate generation instruction unit (not shown), it is determined that generation of the prediction candidate is started.
[0055]
However, any one of the determination methods described above may be used, or any two or more determination methods may be used in combination. In addition, as the “instruction to the input unit 1” in the determination method (A5), a gesture input by handwriting to the input unit 1 in the same manner as handwritten information may be used. The gesture is defined by a shape composed of one or more predetermined strokes and serves as a trigger for executing a specific process. Further, there are two methods for discriminating handwritten information of characters and figures from the above gestures: “character figure input mode” for inputting characters and figures to the input unit 1 and “gesture input mode” for inputting the gestures. A method of providing a mode and a method of sequentially determining whether or not a gesture is made from the shape of an input stroke without providing a mode are particularly known.
[0056]
In step S <b> 4, the
[0057]
In the flowchart shown in FIG. 3, the description will be omitted because it is complicated, but in step S <b> 4 and step S <b> 5, the next stroke is input and the next handwriting input processing operation is started. When the judgment candidate generation start determination is started in step S3 in the handwriting input processing operation, the prediction candidate generation and prediction candidate display processes are stopped.
[0058]
Also, the “predetermined time (elapsed time in which nothing is performed)” of the determination method (A1) used in step S3 in the flowchart shown in FIG. 3, the “predetermined value (number of strokes)” of the determination method (A2), and the determination A plurality of “predetermined value (stroke length)” of the method (A3) and “predetermined time (elapsed time from the start of writing)” of the determination method (A4) are provided. Then, the prediction candidates may be regenerated when the respective predetermined values are reached. In this case, the plurality of predetermined values may be set so as to increase at regular intervals, such as 5 → 10 → 15, or have a change in the increase range, such as 5 → 8 (+3) → 10 (+2). It may be allowed.
[0059]
Further, when the second and subsequent predetermined values (“10”, “15” or “8”, “10” in the above example) are reached, a prediction candidate different from the prediction candidates generated so far is generated. You can also By doing so, for example, when the prediction candidate is generated every three strokes, when the prediction candidate generated / displayed at the time when the operator wrote “shi” does not have any intention, The prediction candidates generated / displayed at the time of writing up to “” exclude the prediction candidates generated up to the previous time (that is, prediction candidates that are not intended). Therefore, the accuracy rate of the generated prediction candidates can be increased.
[0060]
Next, the prediction candidate generation processing operation executed in step S4 in the handwriting input processing operation shown in FIG. 3 will be described in more detail. In the present invention, the prediction candidate generation method is not particularly limited, but a method of generating as follows by applying handwritten information search technology is conceivable. That is, the handwritten information desired to be generated as a prediction candidate is set as a dictionary entry, and a prediction candidate is generated by searching a dictionary entry similar to the input handwritten information from a handwritten information dictionary in which dictionary entries are collected.
[0061]
Although the handwritten information dictionary is omitted in FIG. 1, the handwritten information dictionary is provided so as to be searchable by the
[0062]
In the former case, for example, if handwritten information as shown in FIG. 4 is prepared in the handwritten information dictionary in advance, various types of face illustrations are predicted as candidates when a circle corresponding to the outline of the face is written. Can be generated and displayed. In addition, if you prepare various illustrations in the above handwritten information dictionary that can display prediction candidates by inputting simple strokes, even if you are not good at drawing illustrations etc. It becomes possible to create a simple handwritten image. In the latter case, once the handwritten answer is entered once when the test is corrected, the above answer can be predicted when the first few strokes are written, and the answer is input for each answer. This can greatly reduce the time and effort. Of course, these methods are effective even when used in appropriate combination.
[0063]
FIG. 5 is a flowchart of the prediction candidate generation processing operation. Hereinafter, the prediction candidate generation processing operation executed in step S4 of the handwriting input processing operation shown in FIG. 3 will be described with reference to FIG. When it is determined in step S3 of the handwriting input processing operation that generation of a prediction candidate is started, the prediction candidate generation processing operation starts.
[0064]
In step S11, search information used for searching the handwritten information dictionary is generated from the input handwritten information stored in the
(B1) All strokes stored in the
(B2) A part of strokes stored in the
[0065]
Furthermore, in the above method (B2), the following method can be considered as a method for extracting the target stroke from the strokes stored in the
(B2a) Of the strokes stored in the
(B2b) Among the strokes stored in the
(B2c) Of the strokes stored in the
(B2d) When the elapsed time from the end of the input of a stroke to the start of the input of the next stroke exceeds a predetermined value, a time-out is set, and the stroke stored in the
(B2e) Among the strokes stored in the
[0066]
In the extraction method (B2a) and the extraction method (B2b), it is necessary to obtain the input time order of each stroke. This is because the strokes are stored in the
[0067]
Further, the operator's instruction from the search target handwritten information instruction unit in the extraction method (B2e) is handwritten to the input unit 1 as in the case of “instruction to the input unit 1” in the determination method (A5). You may use the gesture input by hand like information. In this case, search target handwritten information is determined according to the positional relationship between the stroke determined to be a gesture and the stroke of a handwritten character or figure other than the gesture.
[0068]
In addition to the extraction method (B2a) to the extraction method (B2e), a part of strokes extracted by an extraction method similar to these may be used as a search target. Furthermore, the method (B1) and the method (B2) (= extraction method (B2a) to extraction method (B2e)) may use only one or a combination of any two or more. Also good.
[0069]
The handwritten information including the stroke group determined as described above is determined as search target handwritten information, that is, search information.
[0070]
In step S12, the handwritten information dictionary is searched based on the generated search information, and a dictionary entry that partially matches the search target handwritten information that is the search information is extracted. Here, the collation method between the above-mentioned handwritten information to be searched and the handwritten information dictionary is not particularly limited, but various pattern matching methods used in online character recognition, OCR (Optical Character Reader), etc. are applicable. It is.
[0071]
Hereinafter, as an example, a case where a coordinate sequence is held as the stroke information and collation is performed using DP (Dynamic Programming) matching will be described with reference to FIGS. 6 and 7.
[0072]
FIG. 6A shows search target handwritten information, and FIG. 6B shows one dictionary entry. In FIGS. 6A and 6B, the black circles on the stroke represent the coordinates. Direct DP matching may be performed using these coordinates. However, in order to reduce the processing amount, as shown in FIGS. 6C and 6D, a polygonal line approximation process is performed by sampling or the like, and DP matching is performed using the coordinates of both ends of the polygonal line and the broken part. It is common to do it.
[0073]
It is assumed that coordinate lines Ps1 to Ps7 of search handwritten information shown in FIG. 6C and coordinate strings Pd1 to Pd27 of dictionary entries shown in FIG. However, as for the coordinates of the dictionary entry, unnecessary coordinate labels Pd10 to Pd26 are omitted in the following description. Note that the polygonal line approximate coordinate sequence of the dictionary entry may be calculated in advance and held together with the dictionary entry. In this case, the storage capacity of the handwritten information dictionary increases, but the processing amount at the time of collation can be reduced.
[0074]
In the DP matching, correspondence between each coordinate shown in FIG. 6C and each coordinate shown in FIG. 6D is taken. Since this collation may be a partial match, the DP matching may be terminated when each coordinate shown in FIG. 6C is matched with any one of the coordinates shown in FIG.
[0075]
FIG. 7A shows the correspondence between the retrieved handwritten information and the dictionary entry in two dimensions, with the vertical axis representing the coordinates in FIG. 6C and the horizontal axis representing the coordinates in FIG. 6D. The black circle represents the correspondence. That is, according to FIG. 7A, the correspondence as shown in FIG. 7B is obtained. In the case of the above-described matching method, it is possible that correspondence can be obtained only up to the coordinates in the middle of a certain stroke in the dictionary entry. Therefore, the association may be completed up to the end point of any stroke.
[0076]
When the association is thus completed, an evaluation score similar to the shape is obtained. By sorting the dictionary entries in the order of the evaluation scores, a dictionary entry list arranged in descending order of similarity is acquired. As for the number of dictionary entries to be finally extracted, only one dictionary entry with the highest reliability may be extracted, or a plurality of dictionary entries may be extracted in order of the reliability.
[0077]
In step S13, after a prediction candidate is generated based on the extracted dictionary entry, the process returns to step S5 of the handwriting input processing operation shown in FIG.
[0078]
In this case, the prediction candidate may be generated using the extracted stroke of the dictionary entry as it is, or a portion matching the stroke of the search handwritten information in the DP matching in step S12 from the dictionary entry. You may delete and generate. For example, in the example shown in FIG. 6 and FIG. 7, since the coordinate sequence Pd1 to Pd8 of the dictionary entry corresponds to the search target handwritten information, the prediction candidate is based on the coordinate sequence before the broken line approximation related to the coordinate sequence Pd9 to Pd27. Should be generated.
[0079]
When generating a prediction candidate using the extracted dictionary entry stroke as it is, when the generated prediction candidate is selected, a portion that matches the stroke of the search handwritten information is selected from the prediction candidate. It deletes and displays, or deletes the said search object handwritten information, and displays only a prediction candidate, but this is mentioned later.
[0080]
Further, as shown in FIG. 8, there is known a pattern matching method that can be extracted even in the case of a dictionary entry (FIG. 8B) having a similar shape but different in size and direction. When using this pattern matching technique, the size and direction of the search target handwritten information matches the size and direction of the portion similar to the search target handwritten information in the extracted dictionary entry. After changing the size and direction of the entire dictionary entry, the prediction candidate may be generated based on the dictionary entry in which the entire size and direction are changed. In that case, the contents of the handwritten information dictionary may be updated based on the change in the size and direction of the dictionary entry, or only by changing the size and direction of the dictionary entry to generate a prediction candidate. The contents of the handwritten information dictionary may not be updated.
[0081]
The change in the size and direction of the dictionary entry is extracted, for example, as shown in FIG. 9, a vector v1 connecting the writing start point in the search handwritten information and the coordinate point farthest from the writing start point. Based on the dictionary entry rotated and resized so that the vector v2 corresponding to the vector v1 in the dictionary entry is equal (that is, the direction and magnitude of both vectors v1 and v2 are equal). This can be realized by generating prediction candidates.
[0082]
Next, the prediction candidate display process executed in step S5 in the handwriting input process operation shown in FIG. 3 will be described in more detail. In the present embodiment, the display method of the prediction candidate is not limited, but the following display method is conceivable.
(C1) A method of displaying all prediction candidates in a specific area.
(C2) A method of displaying only the first prediction candidate according to the position, size, and direction of the search-target handwritten information.
(C3) A method in which the first prediction candidate is displayed in accordance with the position, size, and direction of the search target handwritten information, and the second and subsequent prediction candidates are displayed in a specific area.
[0083]
In the case of the display method (C1), it may be displayed in a predetermined area for displaying the prediction candidate in the
[0084]
10, FIG. 10 (a) shows a display result when a prediction candidate including a portion corresponding to the search target handwritten information is generated. That is, when the input character “te” 21 is the search handwritten information, the
[0085]
In FIG. 10, as described above, the prediction candidates generated in accordance with the size and direction of the search handwritten information are displayed, but the prediction in which the size and direction of the extracted dictionary entry are reflected as they are. Candidates may be displayed. Alternatively, reduced prediction candidates may be displayed in consideration of screen size restrictions and listability of multiple prediction candidates.
[0086]
FIG. 11 is a display example according to the display method (C2). FIG. 11A shows a display result when a prediction candidate including a part corresponding to the search handwritten information is generated. That is, the first prediction candidate “sharp” (thin line portion in FIG. 11A) including a portion corresponding to the character “shi” being input (thick line portion in FIG. 11A: handwritten information to be searched). Is superimposed on the search handwritten information. Moreover, FIG.11 (b) has shown the display result at the time of deleting the part corresponding to search object handwritten information, and producing | generating a prediction candidate. That is, the first prediction candidate “harp” (thin line part in FIG. 11B) from which the part corresponding to the character “shi” being input (thick line part in FIG. 11B) is deleted is displayed. Yes. As shown in FIG. 9, after the rotation and resizing so that the two vectors v1 and v2 are equal, the prediction candidates may be displayed so that these vectors v1 and v2 overlap. Here, the
[0087]
In FIG. 11A, the search target handwritten information and the prediction candidate are displayed so that they can be identified by changing the thickness of the line. However, the color or density is changed or the prediction candidate is blinked. Is also effective.
[0088]
Further, in any of the display methods of FIGS. 10 and 11, when writing is continued without selecting the displayed prediction candidate, the currently generated prediction candidate is hidden. If the display mode is changed such as displaying the color and density more thinly, the effect of improving the visibility at the time of writing can be obtained.
[0089]
Subsequently, selection of a prediction candidate performed by the operator operating the
[0090]
As described above, the
[0091]
Here, in the former case where the entire rectangular area is the selection area, handwriting input into the rectangular area is impossible, so if the rectangular area is set near the display position of the search target handwritten information Inconvenience occurs when writing without selecting any prediction candidate. However, in the latter case in which the
[0092]
Furthermore, as shown in FIG. 11, when only the first prediction candidate is displayed in accordance with the position, size, and direction of the search target handwritten information, there are two possible methods for selecting a prediction candidate as follows.
(D1) A method of displaying a prediction
(D2) A method of displaying a prediction candidate selection button 47 in the vicinity of the writing end point Pe2 of the displayed prediction candidate, as shown in FIG. 13B.
[0093]
Here, the writing end point of the prediction candidate in the selection method (D2) indicates the writing end point of the final stroke when the handwritten information of the prediction candidate is input by actual writing. For example, if the stroke information included in the handwritten information and the coordinate sequence information of the stroke are held in time series, the final coordinate of the final stroke corresponds to that.
[0094]
In the case of the selection method (D1), since the distance from the writing end point (handwriting input end point) of the search target handwritten information to the prediction
[0095]
In the case of the selection method (D1) described above, an example of a method for determining the display position of a button that does not hinder the visibility of the search handwritten information and the prediction candidate will be described below.
(E1) As shown in FIG. 14A, the search target handwritten information and the circumscribed rectangle R of the prediction candidate are obtained, and the writing end point Pe of the search target handwritten information “shi” on the side of the circumscribed rectangle R. A point Pb closest to the point Pb is obtained, and a button for selecting a prediction candidate is displayed so as to contact the point Pb.
(E2) As shown in FIG. 14 (b), a plurality of points (indicated by ◯) whose distance from the writing end point Pe of the search target handwritten information “shi” is d1 are obtained, and among these points, prediction A method for displaying a button for selecting a prediction candidate at a position of a point that does not contact each stroke of the search target handwritten information and the prediction candidate when the button for selecting a candidate is displayed.
[0096]
In the case of the display position determination method (E1), a circumscribed rectangle of only the search target handwritten information may be targeted. However, in this case, since the prediction candidate selection button and the prediction candidate may come into contact with each other, the button is displayed so as to touch the closest point that does not touch the prediction candidate, or the button is translucent. Need to be displayed. The same applies to the case where the prediction candidate is displayed near the writing end point. Although this display position determination method (E1) requires a small amount of processing, when there is a writing end point near the center of the circumscribed rectangle, the button is displayed far away even if there is a space around the writing end point. There is a drawback that it will be.
[0097]
In the case of the display position determination method (E2), the display position may be set to the vertex of a regular polygon centered on the writing end point of the search handwritten information. In FIG. 14B, it is a regular hexagon. When any vertex of the regular polygon comes into contact with search target handwritten information or each stroke of the prediction candidate, the same processing is performed for a plurality of points whose distance from the writing end point is d2 (> d1). Just do it. When the distance is in contact with d2, the same processing is performed for a plurality of points that are further d3 (> d2). Thereafter, similarly, the distance from the writing end point is increased until a point having no contact is finally found, and the same processing is repeated, and a button is displayed at the position of the finally obtained point. The same applies to the case where the prediction candidate is displayed near the writing end point. Furthermore, although this display position determination method (E2) has a larger processing amount than the display position determination method (E1), even if there is a writing end point near the center in the circumscribed rectangle as described above, there is a space around it. If there is, a button can be displayed near the end point.
[0098]
In the configuration of the
[0099]
Next, the display process of the selection prediction candidate when the prediction candidate is selected by the
[0100]
First, among the cases where a plurality of prediction candidates are displayed as shown in FIG. 10, as shown in FIG. 10A, when a prediction candidate including a portion corresponding to the search handwritten information is displayed in a window, or in advance When the same display is performed in a predetermined display area, there are the following two selection prediction candidate display processing methods.
(F1) After changing the size and direction of the selected prediction candidate according to the search target handwritten information, the portion corresponding to the search target handwritten information is deleted, and the input handwritten according to the position of the search target handwritten information A method of displaying in the same display form as information.
(F2) After changing the size and direction of the selected prediction candidate according to the search target handwritten information, the search target handwritten information is deleted (that is, hidden), and the search target handwritten information exists. Display in the same display form as the input handwritten information according to the position.
[0101]
A display example in the case of the display processing method (F1) is shown in FIG. As can be seen from FIG. 15, the display processing method (F1) is a method in which strokes actually input by handwriting are used as they are. On the other hand, a display example in the case of the display processing method (F2) is shown in FIG. As can be seen from FIG. 16, the display processing method (F2) is a method using prediction candidates instead of the input stroke.
[0102]
In the display processing methods (F1) and (F2), the size and direction of the selected prediction candidate are changed in accordance with the search target handwritten information. This is not necessary if has already been done. Of course, it is also possible not to change the size and direction of the prediction candidate.
[0103]
Next, as shown in FIG. 10 (b), the selection in the case where the prediction candidate from which the portion corresponding to the search handwritten information is deleted is displayed in the window or the same display is performed in a predetermined display area. A prediction candidate display processing method will be described. In this case, after changing the size and direction of the selected prediction candidate according to the search target handwritten information, the same display form as the search target handwritten information according to the position where the search target handwritten information existed Can be displayed. Similar to the case of FIG. 10A, the change in size and direction is not necessary if it has already been performed at the time of generating the prediction candidate described above. FIG. 17 shows a display example when this display processing method is used.
[0104]
Next, in the case where only the first prediction candidate is displayed as shown in FIG. 11, as shown in FIG. 11A, the prediction candidate including the part corresponding to the search target handwritten information is selected as the search target handwritten information. When displaying in accordance with the position, size, and direction, there are the following two selection prediction candidate display processing methods.
(G1) A method in which a portion corresponding to the search handwritten information is deleted from the prediction candidates and displayed in the same display form as the input handwritten information according to the position of the search target handwritten information.
(G2) A method of deleting the search target handwritten information (in a non-display state) and displaying the prediction candidate in the same display form as the input handwritten information in accordance with the position where the search target handwritten information was present.
[0105]
A display example by the display processing methods (G1) and (G2) is shown in FIG. The method 1 in FIG. 18 corresponds to the display processing method (G1), and the first character “si” in the displayed prediction candidate “sharp” is replaced with “shi” of the search target handwritten information. On the other hand,
[0106]
Finally, as shown in FIG. 11B, a display processing method in the case of displaying the prediction candidate from which the part corresponding to the search target handwritten information is deleted according to the position, size, and direction of the search target handwritten information. explain. In this case, it is only necessary to display the selected prediction candidate in the same display form as the search target handwritten information. A display example is shown in FIG.
[0107]
By the way, the method of changing the size and direction of the selected prediction candidate and the alignment of the search target handwritten information performed when displaying the selected prediction candidate is not particularly limited. For example, as follows: Do.
[0108]
First, the dictionary entry used when the
[0109]
As described above, in the present embodiment, information related to a set of strokes input by handwriting from the input unit 1 is stored in the
[0110]
Therefore, when processing the information input by handwriting from the input unit 1 as an image, the operator may perform handwriting input from the input unit 1 until a desired prediction candidate is generated and displayed. A prediction candidate corresponding to handwritten information intended to be input can be obtained at the stage where is displayed. Thus, the burden of handwriting input by the operator can be reduced.
[0111]
In the above embodiment, a plurality of processing methods are exemplified for the prediction candidate generation process and the prediction candidate display process by the
[0112]
Second embodiment
The present embodiment relates to a handwriting input program for realizing various functions described in the first embodiment and a computer-readable recording medium on which the handwriting input program is recorded.
[0113]
This recording medium is a memory necessary for performing handwriting input processing by the handwriting input device shown in FIG. 2. For example, the
[0114]
In other words, the program medium is configured to be separable from the main body of the apparatus, and is a tape system such as a magnetic tape or a cassette tape, a magnetic disk such as a flexible disk or a hard disk, a CD-ROM, a MO (photo-optical) disk, an MD (miniature Discs), optical discs such as DVDs (digital versatile discs), card systems such as IC (integrated circuit) cards (including memory cards) and optical cards, mask ROM, EPROM (ultraviolet erasable ROM), EEPROM ( Any medium can be used as long as it can carry a fixed program, including a semiconductor memory system such as an electrically erasable ROM) or a flash ROM.
[0115]
That is, the recording medium in the present embodiment is the program medium having the above-described configuration, the handwriting processing operation shown in FIG. 3 and the prediction candidate generation processing operation shown in FIG. Is recorded by a handwriting program that executes.
[0116]
The handwriting input device in the first embodiment has a configuration that can be connected to the
[0117]
Further, what is recorded on the recording medium is not limited to a program, and data can also be recorded.
[0118]
Moreover, each embodiment mentioned above is an illustration in all the points, Comprising: It is not restrictive. The scope of the present invention is defined by the terms of the claims, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
[0119]
【The invention's effect】
As apparent from the above, according to the present invention, the operator inputs handwritten information from the input unit until the desired prediction candidate is displayed on the display unit, and selects the displayed desired prediction candidate. Since the intended handwritten information (characters and graphics) can be input, all of the intended characters and graphics can be input without actually performing handwriting input. Therefore, when the input handwritten information is processed as an image, it is possible to reduce the labor of the operator during handwriting input and greatly improve the input efficiency and operability.
[0120]
Further, even a person who is not good at handwritten illustrations can input complicated elaborate illustrations and the like by simple handwriting input, and a handwritten image rich in expressive power can be created.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of a handwriting input device according to the present invention.
FIG. 2 is a diagram showing a specific hardware configuration of the handwriting input device shown in FIG. 1;
3 is a flowchart of a handwriting input processing operation executed under the control of the CPU in FIG.
FIG. 4 is a diagram illustrating an example of handwritten information prepared in advance in a handwritten information dictionary.
FIG. 5 is a flowchart of a prediction candidate generation processing operation executed in the handwriting input processing operation shown in FIG.
FIG. 6 is a diagram illustrating an example of a search target handwriting and a dictionary entry that are targets of DP matching.
7 is a diagram showing a correspondence relationship between search handwritten information and dictionary entries shown in FIG. 6. FIG.
FIG. 8 is a diagram illustrating an example of search target handwritten information and dictionary entries having different sizes and directions.
FIG. 9 is an explanatory diagram of a case where prediction candidates are generated by matching the size and direction of the dictionary entry with search target handwritten information in FIG. 8;
FIG. 10 is a diagram illustrating an example of displaying a selected prediction candidate in a window.
11 is a diagram showing a display example of prediction candidates different from FIG.
12 is a diagram illustrating an example of a case where the candidate selection unit in FIG. 1 is configured with button areas displayed on the input unit. FIG.
13 is a diagram showing a configuration example of a button area different from FIG.
FIG. 14 is an explanatory diagram for determining the display position of the button area shown in FIG. 13;
FIG. 15 is a diagram illustrating an example of a selection prediction candidate display method;
16 is a diagram showing a method for displaying a selection prediction candidate different from FIG.
FIG. 17 is a diagram illustrating a display example of selected prediction candidates in a case where a prediction candidate from which a portion corresponding to search target handwritten information is deleted is displayed in a window.
FIG. 18 is a diagram illustrating a display example of selected prediction candidates when a prediction candidate including a portion corresponding to search target handwritten information is displayed in accordance with the position, size, and direction of search target handwritten information.
FIG. 19 is a diagram illustrating a display example of selected prediction candidates when a prediction candidate from which a portion corresponding to search target handwritten information is deleted is displayed in accordance with the position, size, and direction of the search handwritten information.
[Explanation of symbols]
1 ... input part,
2 ... storage part,
3 ... candidate generation unit,
4 ... candidate selection part,
5 ... display part,
11 ... Program memory,
12: Data memory,
13 ... Input device,
14 ... display device,
15 ... communication network,
16 ... Communication I / F,
17 ... External recording medium,
18 ... External storage medium driver,
19 ... CPU,
21, 25 ... the characters being input,
22-24, 26-28 ... prediction candidates,
29, 30, 31, 32, 41, 42, 46, 47 ... buttons,
43-45 ... Button area.
Claims (17)
上記入力部から入力された手書き情報に基づいて、入力を意図している手書き情報の予測候補を生成する予測候補生成部と、
上記入力手書き情報および予測候補を表示する表示部と、
操作者によって操作されると共に、上記表示部によって表示された予測候補から所望の予測候補を選択する予測候補選択部
を備えて、
上記表示部は、上記予測候補選択部によって予測候補の選択が行われた場合には、この選択された予測候補を表示するようになっている
ことを特徴とする手書き入力装置。An input unit for inputting handwritten information such as characters and figures by handwriting;
Based on the handwritten information input from the input unit, a prediction candidate generation unit that generates a prediction candidate of handwritten information intended for input;
A display unit for displaying the input handwritten information and the prediction candidates;
A prediction candidate selection unit that is operated by an operator and that selects a desired prediction candidate from the prediction candidates displayed by the display unit,
The display unit displays the selected prediction candidate when the prediction candidate is selected by the prediction candidate selection unit.
種々の手書き情報が辞書エントリとして登録された手書き情報辞書と、
上記入力部から入力された手書き情報の一部あるいは全てを検索対象手書き情報として、上記手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し、この抽出された辞書エントリから上記検索対象手書き情報に類似している部分を削除することによって入力を意図している手書き情報の予測候補を生成する予測候補生成部と、
上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示部と、
操作者によって操作されると共に、上記表示部によって表示された予測候補から所望の予測候補を選択する予測候補選択部
を備えて、
上記表示部は、上記予測候補選択部によって予測候補の選択が行われた場合には、この選択された予測候補を上記検索対象手書き情報と共に表示するようになっている
ことを特徴とする手書き入力装置。An input unit for inputting handwritten information such as characters and figures by handwriting;
A handwritten information dictionary in which various handwritten information is registered as a dictionary entry;
A part or all of the handwritten information input from the input unit is used as search target handwritten information, and a dictionary entry whose part is similar to the search target handwritten information is extracted from the handwritten information dictionary, and the extracted dictionary A prediction candidate generation unit that generates a prediction candidate of handwritten information intended to be input by deleting a part similar to the search target handwritten information from the entry;
A display unit for displaying input handwritten information including the search target handwritten information and a prediction candidate;
A prediction candidate selection unit that is operated by an operator and that selects a desired prediction candidate from the prediction candidates displayed by the display unit,
The display unit displays the selected prediction candidate together with the search handwritten information when the prediction candidate is selected by the prediction candidate selection unit. apparatus.
種々の手書き情報が辞書エントリとして登録された手書き情報辞書と、
上記入力部から入力された手書き情報の一部あるいは全てを検索対象手書き情報として、上記手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し、この抽出された辞書エントリに基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成部と、
上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示部と、
操作者によって操作されると共に、上記表示部によって表示された予測候補から所望の予測候補を選択する予測候補選択部
を備えて、
上記表示部は、上記予測候補選択部によって予測候補の選択が行われた場合には、この選択された予測候補から上記検索対象手書き情報に類似している部分を削除して上記検索対象手書き情報と共に表示するようになっている
ことを特徴とする手書き入力装置。An input unit for inputting handwritten information such as characters and figures by handwriting;
A handwritten information dictionary in which various handwritten information is registered as a dictionary entry;
A part or all of the handwritten information input from the input unit is used as search target handwritten information, and a dictionary entry whose part is similar to the search target handwritten information is extracted from the handwritten information dictionary, and the extracted dictionary A prediction candidate generating unit that generates a prediction candidate of handwritten information intended to be input based on an entry;
A display unit for displaying input handwritten information including the search target handwritten information and a prediction candidate;
A prediction candidate selection unit that is operated by an operator and that selects a desired prediction candidate from the prediction candidates displayed by the display unit,
When the prediction candidate is selected by the prediction candidate selection unit, the display unit deletes a portion similar to the search target handwritten information from the selected prediction candidate, and the search target handwritten information A handwriting input device characterized by being displayed together.
種々の手書き情報が辞書エントリとして登録された手書き情報辞書と、
上記入力部から入力された手書き情報の一部あるいは全てを検索対象手書き情報として、上記手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し、この抽出された辞書エントリに基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成部と、
上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示部と、
操作者によって操作されると共に、上記表示部によって表示された予測候補から所望の予測候補を選択する予測候補選択部
を備えて、
上記表示部は、上記予測候補選択部によって予測候補の選択が行われた場合には、既に表示している上記検索対象手書き情報を非表示状態とした後、上記選択された予測候補を表示するようになっている
ことを特徴とする手書き入力装置。An input unit for inputting handwritten information such as characters and figures by handwriting;
A handwritten information dictionary in which various handwritten information is registered as a dictionary entry;
A part or all of the handwritten information input from the input unit is used as search target handwritten information, and a dictionary entry whose part is similar to the search target handwritten information is extracted from the handwritten information dictionary, and the extracted dictionary A prediction candidate generating unit that generates a prediction candidate of handwritten information intended to be input based on an entry;
A display unit for displaying input handwritten information including the search target handwritten information and a prediction candidate;
A prediction candidate selection unit that is operated by an operator and that selects a desired prediction candidate from the prediction candidates displayed by the display unit,
When the prediction candidate is selected by the prediction candidate selection unit, the display unit displays the selected prediction candidate after the search handwritten information already displayed is hidden. A handwriting input device characterized by the above.
上記予測候補生成部は、上記検索対象手書き情報のサイズおよび方向と、上記抽出された辞書エントリにおける上記検索対象手書き情報に類似している部分のサイズおよび方向とが一致するように、当該辞書エントリ全体のサイズおよび方向を変更した後に、この全体のサイズおよび方向が変更された当該辞書エントリに基づいて上記予測候補を生成するようになっている
ことを特徴とする手書き入力装置。The handwriting input device according to any one of claims 2 to 4,
The prediction candidate generation unit is configured so that the size and direction of the search target handwritten information matches the size and direction of a portion similar to the search target handwritten information in the extracted dictionary entry. A handwriting input device configured to generate the prediction candidate based on the dictionary entry in which the overall size and direction are changed after changing the overall size and direction.
上記表示部は、上記予測候補生成部によって生成された予測候補を表示する場合には、当該予測候補における上記検索対象手書き情報に類似している部分の位置あるいは上記部分が存在していた位置が、上記検索対象手書き情報の位置に合うように表示するようになっている
ことを特徴とする手書き入力装置。The handwriting input device according to claim 5,
When the display unit displays the prediction candidate generated by the prediction candidate generation unit, the position of the part similar to the search target handwritten information in the prediction candidate or the position where the part existed is displayed. A handwriting input device, wherein the handwriting input device is adapted to display so as to match the position of the search target handwritten information.
上記表示部は、上記予測候補選択部によって選択された予測候補を表示する場合には、当該選択予測候補の生成に用いられた辞書エントリにおける上記検索対象手書き情報に類似している部分のサイズおよび方向の上記検索対象手書き情報のサイズおよび方向に対するずれの度合を求め、このずれの度合に応じて当該選択予測候補全体のサイズおよび方向を変更した後に、当該選択予測候補における上記検索対象手書き情報に類似している部分の位置あるいは上記部分が存在していた位置が、上記検索対象手書き情報の位置に合うように表示するようになっている
ことを特徴とする手書き入力装置。The handwriting input device according to any one of claims 2 to 4,
When the display unit displays the prediction candidate selected by the prediction candidate selection unit, the size of the portion similar to the search target handwritten information in the dictionary entry used for generating the selected prediction candidate and After obtaining the degree of deviation of the direction with respect to the size and direction of the search target handwritten information, and changing the size and direction of the entire selection prediction candidate according to the degree of deviation, the search target handwritten information in the selection prediction candidate A handwriting input device, wherein a position of a similar part or a position where the part was present is displayed so as to match a position of the search target handwritten information.
上記表示部は、上記予測候補を、上記入力手書き情報とは異なる表示形態で表示するようになっている
ことを特徴とする手書き入力装置。The handwriting input device according to any one of claims 1 to 4,
The said display part displays the said prediction candidate by the display form different from the said input handwritten information, The handwriting input apparatus characterized by the above-mentioned.
上記予測候補選択部は、上記表示部によって上記予測候補の近傍に表示されたボタンあるいはメニューで構成されている
ことを特徴とする手書き入力装置。The handwriting input device according to any one of claims 1 to 4,
The handwriting input device, wherein the prediction candidate selection unit includes a button or a menu displayed in the vicinity of the prediction candidate by the display unit.
上記予測候補選択部は、上記表示部によって上記検索対象手書き情報の筆記終了点の近傍に表示されたボタンあるいはメニューで構成されている
ことを特徴とする手書き入力装置。The handwriting input device according to any one of claims 1 to 4,
The said prediction candidate selection part is comprised by the button or menu displayed on the vicinity of the writing end point of the said search object handwritten information by the said display part, The handwriting input apparatus characterized by the above-mentioned.
上記予測候補選択部は、上記表示部によって上記予測候補の筆記終了点の近傍に表示されたボタンあるいはメニューで構成されている
ことを特徴とする手書き入力装置。The handwriting input device according to any one of claims 1 to 4,
The handwriting input device, wherein the prediction candidate selection unit includes a button or a menu displayed by the display unit in the vicinity of a writing end point of the prediction candidate.
上記入力された手書き情報に基づいて、入力を意図している手書き情報の予測候補を生成する予測候補生成ステップと、
上記入力手書き情報および予測候補を表示する表示ステップと、
上記表示された予測候補から所望の予測候補を選択する予測候補選択ステップと、
上記選択された予測候補を表示する選択予測候補表示ステップ
を有することを特徴とする手書き入力方法。An input step for inputting handwritten information such as characters and figures by handwriting;
Based on the input handwritten information, a prediction candidate generating step for generating a prediction candidate for handwritten information intended for input;
A display step for displaying the input handwritten information and the prediction candidates;
A prediction candidate selection step of selecting a desired prediction candidate from the displayed prediction candidates;
A handwriting input method comprising a selected prediction candidate display step for displaying the selected prediction candidate.
上記入力された手書き情報の一部あるいは全てを検索対象手書き情報として、手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し、この抽出された辞書エントリから上記検索対象手書き情報に類似している部分を削除することによって入力を意図している手書き情報の予測候補を生成する予測候補生成ステップと、
上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示ステップと、
上記表示された予測候補から所望の予測候補を選択する予測候補選択ステップと、
上記選択された予測候補を上記検索対象手書き情報と共に表示する選択予測候補表示ステップ
を有することを特徴とする手書き入力方法。An input step for inputting handwritten information such as characters and figures by handwriting;
Using part or all of the input handwritten information as search target handwritten information, a dictionary entry partly similar to the search target handwritten information is extracted from the handwritten information dictionary, and the search is performed from the extracted dictionary entry. A prediction candidate generation step of generating a prediction candidate of handwritten information intended to be input by deleting a portion similar to the target handwritten information;
A display step for displaying input handwritten information including the search target handwritten information and a prediction candidate;
A prediction candidate selection step of selecting a desired prediction candidate from the displayed prediction candidates;
A handwritten input method comprising: a selected prediction candidate display step for displaying the selected prediction candidate together with the search target handwritten information.
上記入力された手書き情報の一部あるいは全てを検索対象手書き情報として、手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し、この抽出された辞書エントリに基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成ステップと、
上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示ステップと、
上記表示された予測候補から所望の予測候補を選択する予測候補選択ステップと、
上記選択された予測候補から上記検索対象手書き情報に類似している部分を削除して上記検索対象手書き情報と共に表示する選択予測候補表示ステップ
を有することを特徴とする手書き入力方法。An input step for inputting handwritten information such as characters and figures by handwriting;
Based on the extracted dictionary entry, a part or all of the input handwritten information is used as search target handwritten information, and a dictionary entry partly similar to the search target handwritten information is extracted from the handwritten information dictionary. A prediction candidate generation step for generating a prediction candidate of handwritten information intended for input;
A display step for displaying input handwritten information including the search target handwritten information and a prediction candidate;
A prediction candidate selection step of selecting a desired prediction candidate from the displayed prediction candidates;
A handwriting input method comprising: a selection prediction candidate display step of deleting a portion similar to the search target handwritten information from the selected prediction candidate and displaying it together with the search target handwritten information.
上記入力された手書き情報の一部あるいは全てを検索対象手書き情報として、手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し、この抽出された辞書エントリに基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成ステップと、
上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示ステップと、
上記表示された予測候補から所望の予測候補を選択する予測候補選択ステップと、
既に表示されている上記検索対象手書き情報を非表示状態とした後、上記選択された予測候補を表示する選択予測候補表示ステップ
を有することを特徴とする手書き入力方法。An input step for inputting handwritten information such as characters and figures by handwriting;
Based on the extracted dictionary entry, a part or all of the input handwritten information is used as search target handwritten information, and a dictionary entry partly similar to the search target handwritten information is extracted from the handwritten information dictionary. A prediction candidate generation step for generating a prediction candidate of handwritten information intended for input;
A display step for displaying input handwritten information including the search target handwritten information and a prediction candidate;
A prediction candidate selection step of selecting a desired prediction candidate from the displayed prediction candidates;
A handwriting input method comprising: a selection prediction candidate display step for displaying the selected prediction candidate after the search target handwritten information already displayed is hidden.
請求項1乃至請求項4の何れか一つにおける上記入力部,予測候補生成部,表示部および予測候補選択部
として機能させることを特徴とする手書き入力プログラム。Computer
A handwriting input program that functions as the input unit, the prediction candidate generation unit, the display unit, and the prediction candidate selection unit according to any one of claims 1 to 4.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003191169A JP2005025566A (en) | 2003-07-03 | 2003-07-03 | Handwriting input device, method and program, and program recording medium |
PCT/JP2004/009767 WO2005004041A1 (en) | 2003-07-03 | 2004-07-02 | Handwritten information input device, handwritten information input method, handwritten information input program, and program recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003191169A JP2005025566A (en) | 2003-07-03 | 2003-07-03 | Handwriting input device, method and program, and program recording medium |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005106332A Division JP4393415B2 (en) | 2005-04-01 | 2005-04-01 | Handwriting input device, handwriting input program, and program recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005025566A true JP2005025566A (en) | 2005-01-27 |
Family
ID=33562350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003191169A Pending JP2005025566A (en) | 2003-07-03 | 2003-07-03 | Handwriting input device, method and program, and program recording medium |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2005025566A (en) |
WO (1) | WO2005004041A1 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100983194B1 (en) | 2010-03-18 | 2010-09-20 | 김진욱 | Text input method using a touch screen and a device for the same |
WO2011115313A1 (en) * | 2010-03-18 | 2011-09-22 | Kim Jin-Wook | Method and device for inputting characters using a touch screen |
JP2013025390A (en) * | 2011-07-15 | 2013-02-04 | Metamoji Corp | Handwriting input method |
WO2015015644A1 (en) | 2013-08-02 | 2015-02-05 | 株式会社 東芝 | Electronic device, method, and program |
CN104508683A (en) * | 2012-09-25 | 2015-04-08 | 株式会社东芝 | Handwriting input support apparatus and method |
WO2015083290A1 (en) * | 2013-12-06 | 2015-06-11 | 株式会社 東芝 | Electronic device and method for processing handwritten document information |
WO2015136618A1 (en) * | 2014-03-11 | 2015-09-17 | 株式会社 東芝 | Electronic device, method, and program |
JP2015179529A (en) * | 2015-05-13 | 2015-10-08 | 株式会社東芝 | Electronic device, method and program |
JP2015179329A (en) * | 2014-03-18 | 2015-10-08 | 株式会社東芝 | Electronic apparatus and method |
CN105094381A (en) * | 2015-07-21 | 2015-11-25 | 网易(杭州)网络有限公司 | Writing processing method and device |
US9298366B2 (en) | 2014-03-28 | 2016-03-29 | Kabushiki Kaisha Toshiba | Electronic device, method and computer readable medium |
US9606981B2 (en) | 2013-11-08 | 2017-03-28 | Kabushiki Kaisha Toshiba | Electronic apparatus and method |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103049204A (en) * | 2012-12-17 | 2013-04-17 | 上海海知信息技术有限公司 | Method for moving cursor on handwriting image, input method and input system |
CN103218153A (en) * | 2012-12-17 | 2013-07-24 | 上海海知信息技术有限公司 | Method for line feed operation on handwriting images |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02186491A (en) * | 1989-01-13 | 1990-07-20 | Toshiba Corp | Character graphic recognizing device |
JPH07225663A (en) * | 1994-02-09 | 1995-08-22 | Fujitsu Ltd | Handwritten information input device |
JPH08106513A (en) * | 1994-10-07 | 1996-04-23 | Pfu Ltd | Hand-written character recognition device |
JPH096893A (en) * | 1995-06-19 | 1997-01-10 | Canon Inc | Processor and method for image processing |
JP3356639B2 (en) * | 1996-11-26 | 2002-12-16 | シャープ株式会社 | Data processing device |
JPH10214267A (en) * | 1997-01-29 | 1998-08-11 | Sharp Corp | Handwritten character and symbol processor and medium recording control program for the processor |
JP3660943B2 (en) * | 1998-08-27 | 2005-06-15 | カシオ計算機株式会社 | Image search apparatus and image search method |
JP2000148794A (en) * | 1998-08-31 | 2000-05-30 | Canon Inc | Device and method for image retrieval and computer- readable memory |
-
2003
- 2003-07-03 JP JP2003191169A patent/JP2005025566A/en active Pending
-
2004
- 2004-07-02 WO PCT/JP2004/009767 patent/WO2005004041A1/en active Application Filing
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011115313A1 (en) * | 2010-03-18 | 2011-09-22 | Kim Jin-Wook | Method and device for inputting characters using a touch screen |
KR100983194B1 (en) | 2010-03-18 | 2010-09-20 | 김진욱 | Text input method using a touch screen and a device for the same |
JP2013025390A (en) * | 2011-07-15 | 2013-02-04 | Metamoji Corp | Handwriting input method |
CN104508683A (en) * | 2012-09-25 | 2015-04-08 | 株式会社东芝 | Handwriting input support apparatus and method |
JP5813780B2 (en) * | 2013-08-02 | 2015-11-17 | 株式会社東芝 | Electronic device, method and program |
WO2015015644A1 (en) | 2013-08-02 | 2015-02-05 | 株式会社 東芝 | Electronic device, method, and program |
US9274704B2 (en) | 2013-08-02 | 2016-03-01 | Kabushiki Kaisha Toshiba | Electronic apparatus, method and storage medium |
JPWO2015015644A1 (en) * | 2013-08-02 | 2017-03-02 | 株式会社東芝 | Electronic device, method and program |
US9606981B2 (en) | 2013-11-08 | 2017-03-28 | Kabushiki Kaisha Toshiba | Electronic apparatus and method |
WO2015083290A1 (en) * | 2013-12-06 | 2015-06-11 | 株式会社 東芝 | Electronic device and method for processing handwritten document information |
JPWO2015083290A1 (en) * | 2013-12-06 | 2017-03-16 | 株式会社東芝 | Electronic device and method for processing handwritten document information |
WO2015136618A1 (en) * | 2014-03-11 | 2015-09-17 | 株式会社 東芝 | Electronic device, method, and program |
JP6010253B2 (en) * | 2014-03-11 | 2016-10-19 | 株式会社東芝 | Electronic device, method and program |
JP2015179329A (en) * | 2014-03-18 | 2015-10-08 | 株式会社東芝 | Electronic apparatus and method |
US9298366B2 (en) | 2014-03-28 | 2016-03-29 | Kabushiki Kaisha Toshiba | Electronic device, method and computer readable medium |
JP2015179529A (en) * | 2015-05-13 | 2015-10-08 | 株式会社東芝 | Electronic device, method and program |
CN105094381A (en) * | 2015-07-21 | 2015-11-25 | 网易(杭州)网络有限公司 | Writing processing method and device |
CN105094381B (en) * | 2015-07-21 | 2018-01-09 | 网易(杭州)网络有限公司 | One kind writing treating method and apparatus |
Also Published As
Publication number | Publication date |
---|---|
WO2005004041A1 (en) | 2005-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210406578A1 (en) | Handwriting-based predictive population of partial virtual keyboards | |
JP4560062B2 (en) | Handwriting determination apparatus, method, and program | |
JP4393415B2 (en) | Handwriting input device, handwriting input program, and program recording medium | |
JP4241883B2 (en) | Text input device and method | |
CN114365075B (en) | Method for selecting a graphical object and corresponding device | |
JP2002203208A (en) | Device, method and program for recognizing on-line character and computer readable storage medium | |
JPH09190505A (en) | Device for recognizing character and its method | |
JP2001005599A (en) | Information processor and information processing method an d recording medium recording information processing program | |
JP2005025566A (en) | Handwriting input device, method and program, and program recording medium | |
JP3292752B2 (en) | Gesture processing device and gesture processing method | |
JPH08305821A (en) | Method and device for data processing | |
US20080120540A1 (en) | System And Method For Inputting Syllables Into A Computer | |
JP2003196593A (en) | Character recognizer, method and program for recognizing character | |
JP4312429B2 (en) | Handwriting input device and method, handwriting input program, and program recording medium | |
KR100349887B1 (en) | Handwriting Recognition System and the Method for Information Unit | |
JP3893013B2 (en) | Character recognition method, computer-readable recording medium on which character recognition program is recorded, and character recognition device | |
JP4207089B2 (en) | Text input device and method | |
JP2989084B2 (en) | Information processing device | |
JP2002342320A (en) | Device and method for inputting sentence | |
JP4148867B2 (en) | Handwriting processor | |
JP2006302318A (en) | Text input device and method | |
JPH0744655A (en) | Handwritten input display device | |
JP3591319B2 (en) | Character input device | |
JPH08212306A (en) | Handwriting data thinning-out method, dictionary generating method, and character recognition device | |
JP2021043713A (en) | Character input device, character input method, and handwriting input program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041018 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050401 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20050620 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20050722 |