JP2005025566A - Handwriting input device, method and program, and program recording medium - Google Patents

Handwriting input device, method and program, and program recording medium Download PDF

Info

Publication number
JP2005025566A
JP2005025566A JP2003191169A JP2003191169A JP2005025566A JP 2005025566 A JP2005025566 A JP 2005025566A JP 2003191169 A JP2003191169 A JP 2003191169A JP 2003191169 A JP2003191169 A JP 2003191169A JP 2005025566 A JP2005025566 A JP 2005025566A
Authority
JP
Japan
Prior art keywords
handwritten information
prediction candidate
input
search target
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003191169A
Other languages
Japanese (ja)
Inventor
Satoru Suzuki
哲 鈴木
Tadashi Hirose
斉志 広瀬
Yasushi Ishizuka
康司 石塚
Mitsuhiro Toya
充宏 斗谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2003191169A priority Critical patent/JP2005025566A/en
Priority to PCT/JP2004/009767 priority patent/WO2005004041A1/en
Publication of JP2005025566A publication Critical patent/JP2005025566A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting

Abstract

<P>PROBLEM TO BE SOLVED: To reduce a load on inputting by hand-writing when hand-written information inputted is processed in its image state. <P>SOLUTION: A storage part 2 stores information on the set of strokes, which is inputted by hand-writing from an input part 1, as hand-written information. A candidate generation part 3 determines hand-written information to be retrieved from the hand-written information stored in the storage part 2, searches a hand-written information dictionary based on the hand-written information to be retrieved, generates dictionary entry, which matches the hand-written information to be searched, as a predicted candidate, and then displays it on a display part 5. A candidate selection part 4 selects a predicted candidate from the predicted candidates displayed and displays it on the display part 5. Thus, an operator has only to execute inputting by hand-writing till a desirable predicted candidate is generated, when the information inputted by hand-writing from the input part 1 is processed in its image state, and the load required for hand-writing on the operator is alleviated. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は、手書き入力装置,手書き入力方法,手書き入力プログラムおよびプログラム記録媒体に関する。
【0002】
【従来の技術】
タブレット等の座標入力装置を介して操作者が文字や図形を手書き入力する装置が知られている。これらの装置では、入力した文字や図形に対して文字認識や図形認識が行われ、その認識結果を手書きの文字や図形に置き換えることによって、入力や編集等の処理が行われる。また、文字認識や図形認識等を行わずに、入力された文字や図形をイメージのまま処理する技術も知られている。
【0003】
上記文字認識や図形認識等を行う前者の技術に関しては、手書きで文字を入力する際の操作者の負荷を軽減するために、文字列の一部を省略して入力することを可能にする技術が提案されている(例えば、特許文献1参照)。この特許文献1には、入力したい文字列の途中または続きに省略記号を入力することによって、単語辞書および用例辞書等を検索して省略部を補完した文字列候補を提示する文章入力装置が開示されている。
【0004】
また、上記文字認識や図形認識等を行わない後者の技術に関しては、手書きで入力された文字や図形等の情報を検索する技術が提案されている(例えば、特許文献2参照)。この特許文献2には、以前に入力された手書き情報を検索するに際し、検索指定のために操作者が入力した手書き情報に類似している手書き情報を手書き情報辞書から検索する手書き文字記号処理装置が開示されている。
【0005】
【特許文献1】
特開平7‐191986号公報
【特許文献2】
特開平10‐214267号公報
【0006】
【発明が解決しようとする課題】
しかしながら、上記従来の文章入力装置および手書き文字記号処理装置には、以下のような問題がある。
【0007】
すなわち、上記特許文献1に記載された文章入力装置では、単語辞書および用例辞書等を検索して省略部を補完するようにしている。したがって、最終的な出力が活字である場合における文字入力時の負担を軽減することは可能である。ところが、操作者が入力した手書き情報を入力イメージのまま処理する場合には活用することができないと言う問題がある。
【0008】
一方、上記特許文献2に記載の手書き文字記号処理装置では、操作者が手書き入力した文字や図形をイメージのままで処理して、以前に入力した手書き情報を検索することが可能になっている。ところが、上述のように、検索指定のために操作者は入力を意図している文字や図形の総てを手書き入力する必要があり、手書き入力時の負荷を軽減することは全く考慮されてはいない。
【0009】
そこで、この発明の目的は、操作者が入力した手書き情報をイメージのまま処理するに際して手書き入力時の操作者の負荷を軽減することが可能な手書き入力装置,手書き入力方法,手書き入力プログラムおよびプログラム記録媒体を提供することにある。
【0010】
【課題を解決するための手段】
上記目的を達成するため、この発明の手書き入力装置は、手書きによって文字や図形等の手書き情報が入力される入力部と、上記入力部から入力された手書き情報に基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成部と、上記入力手書き情報および予測候補を表示する表示部と、操作者によって操作されると共に,上記表示部によって表示された予測候補から所望の予測候補を選択する予測候補選択部を備えて、上記表示部は、上記予測候補選択部によって予測候補の選択が行われた場合には、この選択された予測候補を表示するようになっている。
【0011】
ここで、上記「手書き情報」とは、本明細書においては、1つ以上のストロークの集合に関する情報を意味する。また、上記「予測候補」とは、本明細書においては、操作者が最終的に入力したい手書き情報を予測した際に得られた各候補を指す。
【0012】
上記構成によれば、操作者によって、上記表示部に所望の予測候補が表示されるまで上記入力部から手書き情報が入力され、上記表示された所望の予測候補が選択される。こうして、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0013】
また、この発明の手書き入力装置は、手書きによって文字や図形等の手書き情報が入力される入力部と、種々の手書き情報が辞書エントリとして登録された手書き情報辞書と、上記入力部から入力された手書き情報の一部あるいは全てを検索対象手書き情報として,上記手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し,この抽出された辞書エントリから上記検索対象手書き情報に類似している部分を削除することによって入力を意図している手書き情報の予測候補を生成する予測候補生成部と、上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示部と、操作者によって操作されると共に,上記表示部によって表示された予測候補から所望の予測候補を選択する予測候補選択部を備えて、上記表示部は、上記予測候補選択部によって予測候補の選択が行われた場合には、この選択された予測候補を上記検索対象手書き情報と共に表示するようになっている。
【0014】
上記構成によれば、操作者によって、上記表示部に所望の予測候補が表示されるまで上記入力部から手書き情報が入力され、上記表示された所望の予測候補が選択される。こうして、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0015】
また、この発明の手書き入力装置は、手書きによって文字や図形等の手書き情報が入力される入力部と、種々の手書き情報が辞書エントリとして登録された手書き情報辞書と、上記入力部から入力された手書き情報の一部または全てを検索対象手書き情報として,上記手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し,この抽出された辞書エントリに基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成部と、上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示部と、操作者によって操作されると共に,上記表示部によって表示された予測候補から所望の予測候補を選択する予測候補選択部を備えて、上記表示部は、上記予測候補選択部によって予測候補の選択が行われた場合には、この選択された予測候補から上記検索対象手書き情報に類似している部分を削除して上記検索対象手書き情報と共に表示するようになっている。
【0016】
上記構成によれば、操作者によって、上記表示部に所望の予測候補が表示されるまで上記入力部から手書き情報が入力され、上記表示された所望の予測候補が選択される。こうして、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0017】
また、この発明の手書き入力装置は、手書きによって文字や図形等の手書き情報が入力される入力部と、種々の手書き情報が辞書エントリとして登録された手書き情報辞書と、上記入力部から入力された手書き情報の一部あるいは全てを検索対象手書き情報として,上記手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し,この抽出された辞書エントリに基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成部と、上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示部と、操作者によって操作されると共に,上記表示部によって表示された予測候補から所望の予測候補を選択する予測候補選択部を備えて、上記表示部は、上記予測候補選択部によって予測候補の選択が行われた場合には、既に表示している上記検索対象手書き情報を非表示状態とした後、上記選択された予測候補を表示するようになっている。
【0018】
上記構成によれば、操作者によって、上記表示部に所望の予測候補が表示されるまで上記入力部から手書き情報が入力され、上記表示された所望の予測候補が選択される。こうして、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0019】
また、1実施例の上記手書き情報辞書を有する手書き入力装置では、上記予測候補生成部は、上記検索対象手書き情報のサイズおよび方向と、上記抽出された辞書エントリにおける上記検索対象手書き情報に類似している部分のサイズおよび方向とが一致するように、当該辞書エントリ全体のサイズおよび方向を変更した後に、この全体のサイズおよび方向が変更された当該辞書エントリに基づいて上記予測候補を生成するようになっている。
【0020】
この実施例によれば、上記検索対象手書き情報と形状は似ているが、サイズや方向が異なる辞書エントリに基づいて予測候補を生成する場合に、見栄えが上記入力を意図する手書き情報に近い予測候補が生成される。
【0021】
また、1実施例の上記手書き情報辞書を有する手書き入力装置では、上記表示部は、上記予測候補生成部によって生成された予測候補を表示する場合には、当該予測候補における上記検索対象手書き情報に類似している部分の位置あるいは上記部分が存在していた位置が、上記検索対象手書き情報の位置に合うように表示するようになっている。
【0022】
この実施例によれば、上記検索対象手書き情報と予測候補とが連続した状態で表示される。したがって、操作者は、上記表示された予測候補を選択した場合のイメージを確認することが可能になる。
【0023】
また、1実施例の上記手書き情報辞書を有する手書き入力装置では、上記表示部は、上記予測候補選択部によって選択された予測候補を表示する場合には、当該選択予測候補の生成に用いられた辞書エントリにおける上記検索対象手書き情報に類似している部分のサイズおよび方向の上記検索対象手書き情報のサイズおよび方向に対するずれの度合を求め、このずれの度合に応じて当該選択予測候補全体のサイズおよび方向を変更した後に、当該選択予測候補における上記検索対象手書き情報に類似している部分の位置または上記部分が存在していた位置が、上記検索対象手書き情報の位置に合うように表示するようになっている。
【0024】
この実施例によれば、サイズおよび方向が上記検索対象手書き情報と合っていない予測候補が生成・表示された場合であっても、所望の予測候補を選択した場合には、サイズおよび方向を上記検索対象手書き情報に合わせた選択予測候補が表示される。したがって、入力を意図している手書き情報により近い選択予測候補が表示される。
【0025】
また、1実施例の手書き入力装置では、上記表示部は、上記予測候補を上記入力手書き情報とは異なる表示形態で表示するようになっている。
【0026】
この実施例によれば、上記表示部に表示された実際に手書き入力された上記検索対象手書き情報と上記予測候補との識別が容易になる。
【0027】
また、1実施例の手書き入力装置では、上記予測候補選択部は、上記表示部によって上記予測候補の近傍に表示されたボタンあるいはメニューで構成されている。
【0028】
この実施例によれば、上記表示部に表示された予測候補から所望の予測候補を選択する際の操作が容易になり、操作性が向上される。
【0029】
また、1実施例の手書き入力装置では、上記予測候補選択部は、上記表示部によって上記検索対象手書き情報の筆記終了点の近傍に表示されたボタンあるいはメニューで構成されている。
【0030】
この実施例によれば、上記表示部に表示された予測候補から所望の予測候補を選択する際の操作が容易になると共に、手書き入力後の予測候補選択を素早く行うことが可能になり、操作性が向上される。
【0031】
また、1実施例の手書き入力装置では、上記予測候補選択部は、上記表示部によって上記予測候補の筆記終了点の近傍に表示されたボタンあるいはメニューで構成されている。
【0032】
この実施例によれば、上記表示部に表示された予測候補から所望の予測候補を選択する際の操作が容易になると共に、予測候補選択後の次の手書き入力への移行が容易になり、操作性が向上される。
【0033】
また、この発明の手書き入力方法は、手書きによって文字や図形等の手書き情報を入力する入力ステップと、上記入力された手書き情報に基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成ステップと、上記入力手書き情報および予測候補を表示する表示ステップと、上記表示された予測候補から所望の予測候補を選択する予測候補選択ステップと、上記選択された予測候補を表示する選択予測候補表示ステップを有している。
【0034】
上記構成によれば、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0035】
また、この発明の手書き入力方法は、手書きによって文字や図形等の手書き情報を入力する入力ステップと、上記入力された手書き情報の一部あるいは全てを検索対象手書き情報として,手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し,この抽出された辞書エントリから上記検索対象手書き情報に類似している部分を削除することによって入力を意図している手書き情報の予測候補を生成する予測候補生成ステップと、上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示ステップと、上記表示された予測候補から所望の予測候補を選択する予測候補選択ステップと、上記選択された予測候補を上記検索対象手書き情報と共に表示する選択予測候補表示ステップを有している。
【0036】
上記構成によれば、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0037】
また、この発明の手書き入力方法は、手書きによって文字や図形等の手書き情報を入力する入力ステップと、上記入力された手書き情報の一部あるいは全てを検索対象手書き情報として,手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し,この抽出された辞書エントリに基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成ステップと、上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示ステップと、上記表示された予測候補から所望の予測候補を選択する予測候補選択ステップと、上記選択された予測候補から上記検索対象手書き情報に類似している部分を削除して上記検索対象手書き情報と共に表示する選択予測候補表示ステップを有している。
【0038】
上記構成によれば、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0039】
また、この発明の手書き入力方法は、手書きによって文字や図形等の手書き情報を入力する入力ステップと、上記入力された手書き情報の一部あるいは全てを検索対象手書き情報として,手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し,この抽出された辞書エントリに基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成ステップと、上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示ステップと、上記表示された予測候補から所望の予測候補を選択する予測候補選択ステップと、既に表示されている上記検索対象手書き情報を非表示状態とした後,上記選択された予測候補を表示する選択予測候補表示ステップを有している。
【0040】
上記構成によれば、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0041】
また、この発明の手書き入力プログラムは、コンピュータを、この発明の手書き入力装置における上記入力部,予測候補生成部,表示部および予測候補選択部として機能させる。
【0042】
上記構成によれば、入力を意図している手書き情報(文字や図形)の一部を手書き入力するだけで、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0043】
また、この発明のプログラム記録媒体は、この発明の手書き入力プログラムが記録されている。
【0044】
上記構成によれば、手書き入力プログラムをコンピュータで読み出して実行することによって、入力を意図している手書き情報(文字や図形)の総てを実際に手書き入力することなく、文字や図形の入力が行われる。したがって、入力した手書き情報をイメージのまま処理するに際して、手書き入力の手間が大きく軽減され、入力効率が大幅に向上される。
【0045】
【発明の実施の形態】
以下、この発明を図示の実施の形態により詳細に説明する。
【0046】
・第1実施の形態
図1は、本実施の形態の手書き入力装置における機能的構成を示す機能ブロック図である。この手書き入力装置は簡単なコンピュータ上に構成されて、入力部1,記憶部2,候補生成部3,候補選択部4および表示部5を含んで構成されている。
【0047】
上記入力部1はタブレット等を含んで構成され、操作者によって文字や図形等のストロークが手書き入力される。そして、入力部1から手書き入力されたストロークの集合から成る手書き情報は記憶部2に記憶される。候補生成部3は、記憶部2に記憶されている入力手書き情報に基づいて、入力を意図している手書き情報(すなわち、操作者が最終的に入力したい手書き情報)を予測し、予測候補を生成する。候補選択部4は、入力部1を構成するタブレット等の特定の領域で構成され、または、キーボードやボタン等の入力部1とは異なるハードウェアによって構成されており、操作者からの指示によって上記予測候補の選択を行う。表示部5は、入力部1から入力された上記手書き情報や候補生成部3によって生成された予測候補を表示する。さらに、候補選択部4によって選択された予測候補を表示する。
【0048】
ここで、上記ストロークとは、入力部1の入力面への接触開始時点から接触終了時点までの間に得られた筆記の軌跡を指す。また、ストローク情報とは、入力部1から得られるストロークの座標列情報またはベクトル列情報またはイメージ情報を指す。尚、上記ストローク情報は、入力時刻や筆記に要した時間等の時間情報,筆記速度情報,筆圧情報,外接矩形情報,ストロークの長さ情報等を含んでいても差し支えない。
【0049】
また、上記手書き情報とは1つ以上のストロークの集合に関する情報を指し、包含するストロークの情報に加えて、全体の外接矩形情報や手書き情報同志の形状照合に使用する各種情報を含んでもよい。
【0050】
尚、上記入力部1及び表示部5は、個別に設けても良いし、表示装置上に透明のタブレットを積層配置して成る表示一体型タブレットとして設けても差し支えない。また、入力部1は、カメラ等を用いて筆跡を取得するような装置や、ペンや指先等の3次元位置を取得して筆跡を取得するような装置で構成してもよい。
【0051】
図1に示す手書き入力装置のハードウェア構成を図2に示す。この手書き入力装置は、後述する各種処理を実行するプログラムを含む各種プログラムを記憶するプログラムメモリ11、記憶部2を構成して上記手書き情報を含む各種情報を記憶するデータメモリ12、入力部1および予測候補選択部4を構成する入力装置13、表示部5を構成する表示装置14、外部のインターネット等の通信ネットワーク15と本手書き入力装置とを接続する通信I/F16、CD‐ROM(コンパクトディスク・リード・オンリ・メモリ)等の外部記録媒体17がセットされてこの外部記録媒体17をアクセスする外部記憶媒体ドライバ18、プログラムメモリ11,データメモリ12,入力装置13,表示装置14,通信I/F16および外部記憶媒体ドライバ18を制御して、手書き入力処理動作等を実行するCPU(中央演算処理装置)19を含んで構成されている。
【0052】
図3は、上記CPU19による制御の下に実行される手書き入力処理動作のフローチャートである。以下、図3に従って、上記手書き入力処理動作について詳細に説明する。尚、この手書き入力処理動作は、入力部1に対してストローク入力が開始される毎に行われ、操作者によって入力部1へのストローク入力が開始されるとスタートする。
【0053】
ステップS1で、上記表示部5によって、入力中のストロークがリアルタイムに表示される。それと同時に、記憶部2によって、上記ストローク情報が記憶される。ステップS2で、入力部1からの情報に基づいて、ストローク入力が終了したか否かが判別される。その結果、終了している場合にはステップS3に進む一方、終了していなければ上記ステップS1に戻って入力中のスロトークの処理が続行される。こうして、操作者によるストローク入力の終了が検知されるまで上記ステップS1による処理が繰り返される。ステップS3で、候補生成部3による予測候補の生成を開始するか否かが判別される。その結果、予測候補の生成を開始する場合にはステップS4に進む一方、開始しない場合にはそのまま手書き入力処理動作を終了する。
【0054】
ここで、上記予測候補の生成開始の判別方法については特に限定しないが、例えば以下のような方法が効果的である。
(A1) ストローク入力後、次のストロークの入力操作や後述する予測候補の選択操作等が行われないまま所定時間が経過した場合に、上記予測候補の生成を開始すると判別する。
(A2) 入力済のストロークの合計数が所定値に達した場合に、上記予測候補の生成を開始すると判別する。
(A3) 入力済のストロークの合計長が所定値に達した場合に、上記予測候補の生成を開始すると判別する。
(A4) 最初の入力ストロークの筆記開始時点から経過時間が所定時間に達した場合に、上記予測候補の生成を開始すると判別する。
(A5) 入力部1あるいは別途設けられた予測候補生成指示部(図示せず)に対して操作者によって指示が行われた場合に、上記予測候補の生成を開始すると判別する。
【0055】
但し、上述した判別方法は、何れか1つの判別方法のみを用いてもよいし、任意の2つ以上の判別方法を組み合わせて用いても差し支えない。また、上記判別方法(A5)における「上記入力部1に対する指示」としては、入力部1に手書き情報と同様に手書き入力されるジェスチャを用いてもよい。尚、上記ジェスチャとは、予め定められた1以上のストロークで構成された形状によって定義され、特定の処理を実行するためのトリガとなるものである。また、文字や図形の手書き情報と上記ジェスチャとを判別する方法としては、入力部1に文字や図形を入力する「文字図形入力モード」と上記ジェスチャを入力する「ジェスチャ入力モード」との2つのモードを設ける方法や、特にモードは設けずに入力されたストロークの形状からジェスチャであるか否かを逐次判定する方法が、特に知られている。
【0056】
ステップS4で、上記候補生成部3によって、記憶部2に記憶されている手書き情報に基づいて上記予測候補が生成される。尚、上記予測候補の生成方法に関しては後述する。ステップS5で、表示部5によって、上記ステップS4において生成された予測候補が表示される。そして、候補選択部4によって所望の予測候補が選択されると、この選択予測候補が表示される。尚、上記予測候補の表示方法に関しては後述する。そうした後、手書き入力処理動作を終了する。
【0057】
尚、図3に示すフローチャートにおいては、説明が煩雑になるので省略しているが、上記ステップS4およびステップS5においては、次のストロークが入力されて次の手書き入力処理動作が開始され、次の手書き入力処理動作における上記ステップS3において予測候補生成開始の判別が開始された場合には、上記予測候補生成および予測候補表示の処理を中止するようになっている。
【0058】
また、図3に示すフローチャートにおける上記ステップS3において用いられる判別方法(A1)の「所定時間(何も行われない経過時間)」,判別方法(A2)の「所定値(ストローク数)」,判別方法(A3)の「所定値(ストローク長)」および判別方法(A4)の「所定時間(筆記開始からの経過時間)」の夫々を複数設ける。そして、夫々の所定値に達した際に上記予測候補を生成し直すようにしてもよい。その場合における上記複数の所定値は、5→10→15のごとく一定間隔で増加するように設定してもよいし、5→8(+3)→10(+2)のごとく増加幅に変化を持たせてもよい。
【0059】
さらに、2番目以降の所定値(上述の例では「10」,「15」または「8」,「10」)に達した場合には、それまでに生成した予測候補とは異なる予測候補を生成することもできる。そうすることによって、例えば3ストローク毎に上記予測候補を生成する場合、操作者が「シ」と筆記した時点で生成・表示された予測候補に意中のものが無い場合に、続けて「シャー」まで筆記した時点で生成・表示される予測候補では、前回まで生成された予測候補(つまり、意中ではない予測候補)は除外されている。したがって、生成される予測候補の正解率を上げることができるのである。
【0060】
次に、上記図3に示す手書き入力処理動作における上記ステップS4において実行される予測候補生成処理動作について、さらに詳細に説明する。この発明においては、予測候補生成方法については特に限定しないが、手書き情報検索技術を応用して以下のように生成する方法が考えられる。すなわち、予測候補として生成したい手書き情報を辞書エントリとし、辞書エントリを集めた手書き情報辞書から入力手書き情報と類似する辞書エントリを検索することによって、予測候補を生成するのである。
【0061】
上記手書き情報辞書は、図1においては省略されているが、候補生成部3によって検索可能に設けられている。その場合、手書き情報辞書には、予め総ての辞書エントリを用意してもよいし、操作者の手書き入力に応じて適宜辞書エントリを追加・更新・削除してもよい。
【0062】
前者の場合、例えば、図4に示すような手書き情報を予め上記手書き情報辞書内に用意しておけば、顔の輪郭に相当する○を筆記した時点で、色々な種類の顔イラストを予測候補として生成し、表示させることが可能になる。他にも、簡単なストロークの入力で予測候補を表示できるような様々なイラスト等を上記手書き情報辞書内に用意しておけば、イラスト等を描くのが苦手な人であっても表現力豊かな手書きイメージを作成することが可能になる。また、後者の場合には、テストの添削を行う際に、手書きした解答を一度入力しておけば、先頭数ストロークを筆記した時点で上記解答を予測することが可能となり、各答案に対する解答入力の手間を大幅に軽減することができるのである。当然ながら、これらの方法は適宜組み合わせて使用しても効果的である。
【0063】
図5は、上記予測候補生成処理動作のフローチャートである。以下、図5に従って、図3に示す手書き入力処理動作の上記ステップS4において実行される上記予測候補生成処理動作について説明する。上記手書き入力処理動作の上記ステップS3において予測候補の生成を開始すると判別されると、予測候補生成処理動作がスタートする。
【0064】
ステップS11で、上記記憶部2に記憶されている入力手書き情報から、上記手書き情報辞書を検索する際に使用する検索用情報が生成される。ここで、上記記憶されている入力手書き情報から検索対象となる入力手書き情報を決定する方法としては、大きく以下の2つの方法に分けられる。
(B1) 上記記憶部2に記憶されている全てのストロークを対象とする。
(B2) 上記記憶部2に記憶されている一部のストロークを対象とする。
【0065】
さらに、上記方法(B2)において、記憶部2に記憶されているストロークのうちから対象となるストロークを抽出する方法としては、次のものが考えられる。
(B2a) 上記記憶部2に記憶されているストロークのうち、入力時刻順に最新のストロークから所定数分のストロークを対象とする。
(B2b) 上記記憶部2に記憶されているストロークのうち、入力時刻順に最新のストロークから合計長が所定値に達するまでのストロークを対象とする。
(B2c) 上記記憶部2に記憶されているストロークのうち、現時点より所定時間前の時点以降に入力された総てのストロークを対象とする。
(B2d) あるストロークの入力終了から次のストロークの入力開始までの経過時間が所定値を超えた場合をタイムアウトとし、記憶部2に記憶されているストロークのうち、最新のタイムアウト発生以降に入力されたストロークを対象とする。
(B2e) 上記記憶部2に記憶されているストロークのうち、別途設けられた検索対象手書き情報指示部(図示せず)からの操作者の指示によって指定されたストロークを対象とする。
【0066】
上記抽出方法(B2a)および抽出方法(B2b)においては、各ストロークの入力時刻順序を得る必要があるが、これは記憶部2に各ストロークを配列やリスト等のデータ構造で入力時刻順に記憶したり、記憶部2に上記ストローク情報として入力時刻をも記憶したりすることによって、実現可能である。
【0067】
また、上記抽出方法(B2e)における上記検索対象手書き情報指示部からの操作者による指示は、上記判別方法(A5)における「上記入力部1に対する指示」の場合と同様に、入力部1に手書き情報と同様に手書き入力されるジェスチャを用いてもよい。その場合、ジェスチャと判定されたストロークとジェスチャ以外の手書き文字や図形のストロークとの位置関係に応じて、検索対象手書き情報を決定する。
【0068】
尚、上記抽出方法(B2a)〜抽出方法(B2e)以外にも、これらに類する抽出方法によって抽出した一部のストロークを探索対象としても差し支えない。更に、上記方法(B1)および方法(B2)(=抽出方法(B2a)〜抽出方法(B2e))は、何れか1つのみを用いてもよいし、任意の2つ以上を組み合わせて用いてもよい。
【0069】
上述のようにして決定されたストローク群でなる手書き情報が、検索対象手書き情報すなわち検索用情報として決定される。
【0070】
ステップS12で、上記生成された検索用情報に基づいて上記手書き情報辞書が検索され、上記検索用情報である検索対象手書き情報と部分的にマッチする辞書エントリが抽出される。ここで、上記検索対象手書き情報と手書き情報辞書との照合方法は特に限定しないが、オンライン文字認識やOCR(Optical Character Reader:光学式文字読み取り装置)等で使用される各種パターンマッチング法が適用可能である。
【0071】
以下、一例として、上記ストローク情報として座標列を保持し、DP(Dynamic Programing:動的計画法)マッチングを用いて照合する場合について、図6および図7に従って説明する。
【0072】
図6(a)は検索対象手書き情報を示し、図6(b)は1つの辞書エントリを示している。尚、図6(a)および図6(b)において、ストローク上の黒丸が各座標を表わしている。これらの座標を用いて直接DPマッチングを行ってもよい。しかしながら、処理量を減らすために、図6(c)および図6(d)に示すように、サンプリング等による折れ線近似処理を行い、この折れ線の両端部や折れ部の座標を用いてDPマッチングを行うのが一般的である。
【0073】
上記折れ線近似によって、図6(c)に示す検索手書き情報の座標列Ps1〜Ps7と、図6(d)に示す辞書エントリの座標列Pd1〜Pd27とが得られたものとする。但し、上記辞書エントリの座標については後の説明で不要な座標のラベルPd10〜Pd26を省略している。尚、上記辞書エントリの折れ線近似座標列は、予め算出して辞書エントリと共に保持しておいてもよい。この場合、上記手書き情報辞書の記憶容量は増加するが、照合時の処理量を減らすことができる。
【0074】
上記DPマッチングでは、図6(c)に示す各座標と図6(d)に示す各座標との対応が取られる。本照合は部分マッチでよいので、図6(c)に示す各座標が図6(d)に示す何れかの座標との対応が取れた時点でDPマッチングを終了すればよい。
【0075】
図7(a)は検索手書き情報と辞書エントリとの対応を2次元で表わしたものであり、縦軸が図6(c)における各座標であり、横軸が図6(d)の各座標であり、黒丸が対応を表わしている。すなわち、図7(a)によれば、図7(b)に示すような対応関係が得られている。上述のマッチング方法の場合は、辞書エントリ内のあるストロークの途中の座標までしか対応が取れない場合があり得るので、何れかのストロークの終了点までで対応付けを終了してもよい。
【0076】
こうして対応付けが終了した時点で、形状類似の評価スコアが得られる。この評価スコアの順に辞書エントリをソートすることによって、類似度の高い順に並んだ辞書エントリリストが取得される。尚、最終的に抽出される辞書エントリの数は、最も信頼度が高い辞書エントリを1つだけ抽出してもよいし、信頼度の高い順に複数の辞書エントリを抽出してもよい。
【0077】
ステップS13で、上記抽出された辞書エントリに基づいて予測候補が生成された後、図3に示す手書き入力処理動作の上記ステップS5にリターンする。
【0078】
その場合における上記予測候補は、上記抽出された辞書エントリのストロークをそのまま用いて生成してもよいし、上記辞書エントリから上記ステップS12でのDPマッチングにおいて上記検索対象手書き情報のストロークとマッチした部分を削除して生成してもよい。例えば、図6および図7に示す例においては、辞書エントリの座標列Pd1〜Pd8が検索対象手書き情報に対応しているので、座標列Pd9〜Pd27に関する折れ線近似前の座標列に基づいて予測候補を生成すればよいのである。
【0079】
尚、上記抽出された辞書エントリのストロークをそのまま用いて予測候補を生成する場合、上記生成された予測候補が選択された際には、この予測候補から検索対象手書き情報のストロークとマッチする部分を削除して表示する、または、上記検索対象手書き情報を削除して予測候補のみを表示することになるが、これについては後述する。
【0080】
また、図8に示すように、サイズや方向は異なるものの形状は類似している辞書エントリ(図8(b))の場合でも抽出可能なパターンマッチング手法が知られている。このパターンマッチング手法を利用した場合には、上記検索対象手書き情報のサイズおよび方向と、抽出された辞書エントリにおける上記検索対象手書き情報に類似している部分のサイズおよび方向とが一致するように、当該辞書エントリ全体のサイズおよび方向を変更した後に、この全体のサイズおよび方向が変更された当該辞書エントリに基づいて上記予測候補を生成してもよい。その場合には、当該辞書エントリのサイズおよび方向の変更に基づいて上記手書き情報辞書の内容を更新してもよいし、予測候補生成のために仮に当該辞書エントリのサイズおよび方向を変更するのみで上記手書き情報辞書の内容は更新しないようにしてもよい。
【0081】
上記辞書エントリのサイズおよび方向の変更は、例えば、図9に示すように、上記検索対象手書き情報における筆記開始点とこの筆記開始点から最も離れている座標点とを結ぶベクトルv1と、抽出された辞書エントリにおける上記ベクトルv1に対応するベクトルv2とが、等しくなるように(つまり、両ベクトルv1,v2の方向と大きさとが等しくなるように)、当該辞書エントリを回転およびリサイズしたものに基づいて予測候補を生成することによって実現できる。
【0082】
次に、上記図3に示す手書き入力処理動作における上記ステップS5において実行される予測候補表示処理について、さらに詳細に説明する。本実施の形態においては、上記予測候補の表示方法を限定するものではないが、以下のような表示方法が考えられる。
(C1) 全予測候補を特定領域に表示する方法。
(C2) 第1予測候補のみを検索対象手書き情報の位置,サイズおよび方向に合わせて表示する方法。
(C3) 第1予測候補を検索対象手書き情報の位置,サイズおよび方向に合わせて表示し、第2以降の予測候補は特定領域に表示する方法。
【0083】
上記表示方法(C1)の場合、上記表示部5における予測候補表示用に予め定められた領域に表示してもよいし、図10に示すように検索対象手書き情報の近傍にウィンドウ表示してもよい。
【0084】
図10において、図10(a)は、上記検索対象手書き情報に対応する部分を含む予測候補を生成した場合の表示結果を示している。つまり、入力中の文字「テ」21が検索対象手書き情報である場合に、検索対象手書き情報「テ」に対応する部分をも含む予測候補22〜24が表示されている。また、図10(b)は、検索対象手書き情報に対応する部分を削除した予測候補を生成した場合の表示結果を示している。つまり、入力中の文字「テ」25に対応する部分が削除された予測候補26〜28が表示されている。ここで、図10(a)におけるボタン29,30および図10(b)におけるボタン31,32は、現在表示されている予測候補22〜24,26〜28以外の予測候補を表示させるためのボタンである。
【0085】
尚、図10においては、上述したように、上記検索対象手書き情報のサイズおよび方向に合わせて生成した予測候補を表示しているが、抽出された辞書エントリのサイズおよび方向をそのまま反映させた予測候補を表示してもよい。あるいは、画面サイズの制約や複数予測候補の一覧性を考慮して、縮小した予測候補を表示してもよい。
【0086】
図11は、上記表示方法(C2)による表示例である。図11(a)は、検索対象手書き情報に対応する部分を含む予測候補を生成した場合の表示結果を示している。つまり、入力中の文字「シ」(図11(a)中の太線部:検索対象手書き情報)に対応する部分をも含む第1予測候補「シャープ」(図11(a)中の細線部)が、検索対象手書き情報に重畳して表示されている。また、図11(b)は、検索対象手書き情報に対応する部分を削除して予測候補を生成した場合の表示結果を示している。つまり、入力中の文字「シ」(図11(b)中の太線部)に対応する部分が削除された第1予測候補「ャープ」(図11(b)中の細線部)が表示されている。これらの表示は、図9に示すように、2つのベクトルv1およびv2が等しくなるように回転およびリサイズした後、これらのベクトルv1,v2が重なるように予測候補を表示すればよい。ここで、図11(a)におけるボタン41および図11(b)におけるボタン42は、現在表示されている予測候補以外の予測候補を表示させるためのボタンである。
【0087】
尚、図11(a)においては、上記検索対象手書き情報と予測候補とを線の太さを変えて識別できるように表示しているが、色や濃度を変えたり予測候補を点滅表示させることも効果的である。
【0088】
また、図10および図11の何れの表示方法においても、上記表示された予測候補に対して選択が行われずに筆記が継続された場合には、現在生成されている予測候補を非表示にしたり、色や濃度をより薄く表示する等表示形態を変えて表示したりすれば、筆記時の視認性を向上させる効果を得ることができる。
【0089】
続いて、上述のように図3の手書き入力処理動作によって表示部5に予測候補が表示された際に、操作者が候補選択部4を操作して行う予測候補の選択について説明する。先ず、候補選択部4の構成について補足説明を行う。
【0090】
上記候補選択部4は、上述したように、入力部1を構成するタブレット等の特定の領域、または、キーボードやボタン等の入力部1とは異なるハードウェア、によって構成されている。ここで、入力部1の特定の領域としては、例えば、図10における予測候補22〜24,26〜28の夫々が包含されている矩形領域である。この場合には、矩形領域内に対してペンダウン等の指示があると、その矩形に含まれている予測候補が選択されるのである。あるいは、図12に示すように、複数の予測候補の夫々が包含されている矩形領域内に表示されたボタン領域43〜45を、上記入力部1の特定の領域としてもよい。この場合には、ボタン領域43〜45に対してペンダウン等の指示があると、当該ボタン領域に対応している矩形領域内の予測候補が選択されるのである。尚、ボタン領域43〜45以外の矩形領域内の部分は手書き入力可能である。
【0091】
ここで、上記矩形領域の全体を選択用領域とする前者の場合には、上記矩形領域内への手書き入力は不可能であるため、検索対象手書き情報の表示位置近傍に上記矩形領域を設定すると、何れの予測候補をも選択せずに続けて筆記する場合に不都合が生じる。ところが、上記矩形領域内にボタン領域43〜45を設ける後者の場合には、ボタン領域43〜45以外の矩形領域内の部分は手書き入力が可能であるため、検索対象手書き情報の表示位置近傍に上記矩形領域を設定しても、不具合は生じ難いのである。
【0092】
さらに、図11に示すように、上記検索対象手書き情報の位置,サイズおよび方向に合わせて第1予測候補のみを表示する場合には、予測候補の選択方法として以下の2通りが考えられる。
(D1) 図13(a)に示すように、上記検索対象手書き情報の筆記終了点Pe1の近傍に、予測候補選択用のボタン46を表示する方法。
(D2) 図13(b)に示すように、表示された予測候補の筆記終了点Pe2の近傍に、予測候補選択用のボタン47を表示する方法。
【0093】
ここで、上記選択方法(D2)における予測候補の筆記終了点とは、上記予測候補の手書き情報が実際の筆記によって入力された場合の最終ストロークの筆記終了点を指す。例えば、手書き情報に含まれるストローク情報およびストロークの座標列情報を時系列で保持している場合であれば、最終ストロークの最終座標がそれに当る。
【0094】
選択方法(D1)の場合には、上記検索対象手書き情報の筆記終了点(手書き入力終了点)から予測候補選択用のボタン46までの距離が短いため、手書き入力から予測候補選択までの動作を素早く行うことができ、操作性が向上する。これに対して、選択方法(D2)の場合には、入力を意図していた手書き情報を予測候補の選択を行わずに入力部1から実際に筆記した場合の筆記終了点に近い位置で予測候補選択の操作が終了するため、操作者はその近傍から次の手書き入力を開始することが可能になり、入力効率および操作感が向上する。何れの選択方法においても、検索対象手書き情報および予測候補の視認性を妨げない位置に表示するか、または、ボタン46,47を半透明表示にするなどの視認正を妨げない表示方法にすることが望ましい。
【0095】
上述した選択方法(D1)の場合において、上記検索対象手書き情報および予測候補の視認性を妨げないボタンの表示位置の決定方法例を、以下に示す。
(E1) 図14(a)に示すように、上記検索対象手書き情報および予測候補の外接矩形Rを求め、さらに外接矩形Rの辺上であって検索対象手書き情報「シ」の筆記終了点Peに最も近い点Pbを求め、その点Pbに接するように予測候補選択用のボタンを表示する方法。
(E2) 図14(b)に示すように、上記検索対象手書き情報「シ」の筆記終了点Peからの距離がd1となる点(○で表示)を複数求め、それらの点のうち、予測候補選択用のボタンを表示した際に検索対象手書き情報および予測候補の各ストロークと接触しない点の位置に、予測候補選択用のボタンを表示する方法。
【0096】
表示位置決定方法(E1)の場合には、上記検索対象手書き情報のみの外接矩形を対象にしてもよい。但し、その場合は、予測候補選択用のボタンと予測候補とが接触する可能性があるので、予測候補に接触しない点のうち最も近い点に接するようにボタンを表示するか、ボタンを半透明表示する必要がある。尚、予測候補の筆記終了点近傍に表示する場合も同様である。この表示位置決定方法(E1)は、処理量が少なくて済む反面、上記外接矩形の中心近くに筆記終了点がある場合には、筆記終了点の周囲に空間が空いていてもボタンが遠く表示されてしまうという欠点がある。
【0097】
表示位置決定方法(E2)の場合には、表示位置を、上記検索対象手書き情報の筆記終了点を中心とした正多角形の頂点に設定すればよい。図14(b)においては正六角形としている。尚、正多角形の何れの頂点においても検索対象手書き情報または予測候補の各ストロークと接触する場合には、筆記終了点からの距離がd2(>d1)となる複数の点について同様の処理を行えばよい。上記距離がd2でも接触する場合には、さらにd3(>d2)となる複数の点について同様の処理を行う。以下、同様に、最終的に接触が無い点が見つかるまで筆記終了点からの距離を大きくして同様の処理を繰り返し、最終的に得られた点の位置にボタンを表示する。尚、予測候補の筆記終了点近傍に表示する場合も同様である。さらに、この表示位置決定方法(E2)は、表示位置決定方法(E1)よりも処理量は大きくなるが、上述したような外接矩形内の中心近くに筆記終了点がある場合でも、周囲に空間がある場合には終了点近傍にボタンを表示することが可能になる。
【0098】
上述した上記候補選択部4の構成において、候補選択用のボタンの代わりに、選択以外の処理指示も可能なメニュー等を用いても効果的である。
【0099】
次に、上記構成の候補選択部4によって予測候補の選択が行われた場合における選択予測候補の表示処理について説明する。この処理は、図10に示すように複数の予測候補を表示する場合と、図11に示すように第1予測候補のみを表示する場合とによって異なるため、夫々について順に説明する。
【0100】
先ず、図10に示すごとく複数の予測候補を表示する場合のうち、図10(a)に示すように、上記検索対象手書き情報に対応する部分を含む予測候補をウィンドウ表示する場合、または、予め定められた表示領域に同様の表示を行う場合には、以下の2通りの選択予測候補の表示処理方法がある。
(F1) 上記検索対象手書き情報に合わせて、選択された予測候補のサイズおよび方向を変更した後に、検索対象手書き情報に対応する部分を削除し、上記検索対象手書き情報の位置に合わせて入力手書き情報と同様の表示形態で表示する方法。
(F2) 上記検索対象手書き情報に合わせて、選択された予測候補のサイズおよび方向を変更した後に、検索対象手書き情報を削除(つまり、非表示状態に)し、検索対象手書き情報が存在していた位置に合わせて入力手書き情報と同様の表示形態で表示する方法。
【0101】
表示処理方法(F1)の場合における表示例を図15に示す。図15から分るように、表示処理方法(F1)は、実際に手書き入力されたストロークをそのまま用いる方法である。一方、表示処理方法(F2)の場合における表示例を図16に示す。図16から分るように、表示処理方法(F2)は、入力したストロークに代えて予測候補を用いる方法である。
【0102】
尚、上記表示処理方法(F1),(F2)においては、上記選択された予測候補のサイズおよび方向を検索対象手書き情報に合わせて変更するようにしているが、上述した予測候補生成時にこの処理が既に行われている場合には不要である。また、当然ながら、予測候補のサイズおよび方向は変更しないようにすることも可能である。
【0103】
次に、図10(b)に示すように、上記検索対象手書き情報に対応する部分を削除した予測候補をウィンドウ表示する場合、または、予め定められた表示領域に同様の表示を行う場合における選択予測候補の表示処理方法について説明する。この場合には、上記検索対象手書き情報に合わせて、選択された予測候補のサイズおよび方向を変更した後に、検索対象手書き情報が存在していた位置に合わせて検索対象手書き情報と同様の表示形態で表示すればよい。図10(a)の場合と同様に、サイズおよび方向の変更は上述した予測候補生成時に既に行われている場合は不要である。図17に、この表示処理方法を用いた場合の表示例を示す。
【0104】
次に、図11に示す如く第1予測候補のみを表示する場合のうち、図11(a)に示すように、上記検索対象手書き情報に対応する部分を含む予測候補を、検索対象手書き情報の位置,サイズおよび方向に合わせて表示する場合には、以下の2通りの選択予測候補の表示処理方法がある。
(G1) 上記予測候補から検索対象手書き情報に対応する部分を削除して、検索対象手書き情報の位置に合わせて入力手書き情報と同様の表示形態で表示する方法。
(G2) 上記検索対象手書き情報を削除(非表示状態に)して、予測候補を検索対象手書き情報が存在していた位置に合わせて入力手書き情報と同様の表示形態で表示する方法。
【0105】
上記表示処理方法(G1),(G2)による表示例を図18に示す。尚、図18における方法1は上記表示処理方法(G1)に相当し、表示された予測候補「シャープ」のうちの先頭文字「シ」が検索対象手書き情報の「シ」に置き換えられている。一方、方法2は上記表示処理方法(G2)に相当し、表示された予測候補「シャープ」がそのまま表示されている。
【0106】
最後に、図11(b)に示すように、上記検索対象手書き情報に対応する部分を削除した予測候補を、検索対象手書き情報の位置,サイズおよび方向に合わせて表示する場合の表示処理方法について説明する。この場合には、選択された予測候補を、検索対象手書き情報と同様の表示形態で表示するだけでよい。表示例を図19に示す。
【0107】
ところで、上記選択予測候補を表示するに際して行われる選択予測候補のサイズおよび方向の変更と上記検索対象手書き情報との位置合せとの方法は、特に限定するものではないが、例えば以下のようにして行う。
【0108】
先ず、上記候補生成部3が当該選択予測候補を生成した際に用いた辞書エントリを読み出す。そして、当該辞書エントリにおける検索対象手書き情報に対応する部分の図9(b)に示すベクトルv2と、上記検索対象手書き情報の図9(a)に示すベクトルv1とを比較して、ベクトルv2のサイズおよび方向のベクトルv1のサイズおよび方向に対するずれの度合を求める。次に、このずれの度合に応じて当該選択予測候補全体のサイズおよび方向を変更して、当該選択予測候補のサイズおよび方向が上記検索対象手書き情報のサイズおよび方向に略一致するようにする。そうした後に、当該選択予測候補における上記検索対象手書き情報に対応する部分の位置(または、当該選択予測候補における上記検索対象手書き情報に対応する部分が存在していた位置)を、上記検索対象手書き情報が存在していた位置(または、上記検索対象手書き情報の位置)に合わせて表示するのである。
【0109】
以上のごとく、本実施の形態においては、入力部1から手書き入力されたストロークの集合に関する情報が手書き情報として記憶部2に記憶される。また、こうして入力された手書き情報や予め用意された手書き情報を辞書エントリとする手書き情報辞書を形成して記憶しておく。そして、上記入力部1から順次入力されて記憶部2に記憶されるストロークの集合に基づいて予測候補の生成開始が判別されると、候補生成部3によって、記憶部2に記憶されている手書き情報から検索対象手書き情報が決定される。さらに、この検索対象手書き情報に基づいて上記手書き情報辞書が検索され、検索対象手書き情報にマッチングする辞書エントリに基づいて予測候補が生成される。そして、表示部5に表示された予測候補の中から候補選択部4によって選択された選択予測候補が、恰も入力部1から入力された手書き情報のごとく表示部5に表示される。
【0110】
したがって、上記入力部1から手書き入力された情報をイメージのまま処理するに際して、操作者は、所望の予測候補が生成・表示されるまで入力部1から手書き入力を行えば良く、所望の予測候補が表示された段階で入力を意図している手書き情報に相当する予測候補を得ることができる。こうして、操作者の手書き入力の負担を軽減することができるのである。
【0111】
尚、上記実施の形態においては、上記候補生成部3による予測候補生成処理および予測候補表示処理と、候補選択部4による予測候補選択処理とについて、複数の処理方法を例示すると共に、何れかを選択的に実行するようにしている。しかしながら、この発明はこれに限定されるものではなく、操作者の指示により、適宜切り換え実行が可能な構成にしても差し支えない。
【0112】
・第2実施の形態
本実施の形態は、上記第1実施の形態において述べた各種機能を実現するための手書き入力プログラムおよびこの手書き入力プログラムが記録されたコンピュータ読み出し可能な記録媒体に関するものである。
【0113】
この記録媒体は、図2に示す手書き入力装置によって手書き入力処理を行うために必要なメモリであり、例えばプログラムメモリ11自体がプログラムメディアであってもよいし、外部記憶媒体ドライバ18としてのプログラム読み取り装置に装着されて読み取りが行われるプログラムメディア(磁気テープやCD‐ROM等)であってもよい。何れの場合においても、上記プログラムメディアに格納されているプログラムは、CPU19によって直接アクセスされて実行される構成であってもよいし、一旦読み出されて図2における所定のプログラム記憶エリア(例えば、プログラムメモリ11のプログラム記憶エリア)にロードされた後にCPU19によって読み出されて実行される構成であってもよい。尚、上記ロード用のプログラムは、予め当該装置に格納されているものとする。
【0114】
すなわち、上記プログラムメディアとは、装置本体と分離可能に構成され、磁気テープやカセットテープ等のテープ系、フレキシブルディスク,ハードディスク等の磁気ディスクやCD‐ROM,MO(光磁気)ディスク,MD(ミニディスク),DVD(ディジタル多用途ディスク)等の光ディスクのディスク系、IC(集積回路)カード(メモリカードを含む)や光カード等のカード系、マスクROM,EPROM(紫外線消去型ROM),EEPROM(電気的消去型ROM),フラッシュROM等の半導体メモリ系を含めた、固定的にプログラムを坦持する媒体であればよいのである。
【0115】
つまり、本実施の形態における記録媒体とは、上記構成を有するプログラムメディアに、上記第1実施例における図3に示す手書き処理動作および図5に示す予測候補生成処理動作とその具体的処理例とを実行する手書きプログラムが記録したものなのである。
【0116】
尚、上記第1実施の形態における手書き入力装置は、インターネットを含む通信ネットワーク15と通信I/F16を介して接続可能な構成を有している。したがって、上記プログラムメディアは、通信ネットワーク15からのダウンロード等によって流動的にプログラムを坦持する媒体であっても差し支えない。その場合における上記通信ネットワーク15からダウンロードするためのダウンロード用プログラムは、予め当該装置に格納されているものとする。あるいは、別の外部記録媒体から予め当該装置本体にインストールされるものとする。
【0117】
また、上記記録媒体に記録されるものはプログラムのみに限定されるものではなく、データも記録することが可能である。
【0118】
また、上述した各実施の形態は全ての点において例示であって、制限的なものではない。この発明の範囲は、特許請求の範囲によって示され、特許請求の範囲と均等な意味および範囲内での全ての変更が含まれることが意図される。
【0119】
【発明の効果】
以上より明らかなように、この発明によれば、操作者は、表示部に所望の予測候補が表示されるまで入力部から手書き情報を入力し、表示された所望の予測候補を選択することによって、意図している手書き情報(文字や図形)を入力することができるので、意図している文字や図形の総てを実際に手書き入力することなく入力することができる。したがって、入力された手書き情報をイメージのまま処理するに際して、操作者の手書き入力時の労力を軽減し、入力効率および操作性を大幅に向上させることができる。
【0120】
また、手書きイラスト等が苦手な人であっても、簡単な手書き入力だけで複雑な凝ったイラスト等を入力することができ、表現力に富んだ手書きイメージの作成が可能になる。
【図面の簡単な説明】
【図1】この発明の手書き入力装置における機能ブロック図である。
【図2】図1に示す手書き入力装置の具体的ハードウェア構成を示す図である。
【図3】図2におけるCPUによる制御の下に実行される手書き入力処理動作のフローチャートである。
【図4】手書き情報辞書内に予め用意される手書き情報の一例を示す図である。
【図5】図3に示す手書き入力処理動作において実行される予測候補生成処理動作のフローチャートである。
【図6】DPマッチングの対象となる検索対象手書と辞書エントリとの一例を示す図である。
【図7】図6に示す検索手書き情報と辞書エントリとの対応関係を示す図である。
【図8】サイズや方向は異なる検索対象手書き情報と辞書エントリとの一例を示す図である。
【図9】図8において辞書エントリのサイズおよび方向を検索対象手書き情報に合わせて予測候補を生成する場合の説明図である。
【図10】選択された予測候補をウィンドウ表示する場合の一例を示す図である。
【図11】図10とは異なる予測候補の表示例を示す図である。
【図12】図1における候補選択部を入力部に表示されたボタン領域で構成した場合の一例を示す図である。
【図13】図12とは異なるボタン領域の構成例を示す図である。
【図14】図13に示すボタン領域の表示位置決定の説明図である。
【図15】選択予測候補の表示方法の一例を示す図である。
【図16】図15とは異なる選択予測候補の表示方法を示す図である。
【図17】検索対象手書き情報に対応する部分を削除した予測候補をウインドウ表示している場合における選択予測候補の表示例を示す図である。
【図18】検索対象手書き情報に対応する部分を含む予測候補を検索対象手書き情報の位置,サイズおよび方向に合わせて表示している場合における選択予測候補の表示例を示す図である。
【図19】検索対象手書き情報に対応する部分を削除した予測候補を検索対象手書き情報の位置,サイズおよび方向に合わせて表示している場合における選択予測候補の表示例を示す図である。
【符号の説明】
1…入力部、
2…記憶部、
3…候補生成部、
4…候補選択部、
5…表示部、
11…プログラムメモリ、
12…データメモリ、
13…入力装置、
14…表示装置、
15…通信ネットワーク、
16…通信I/F、
17…外部記録媒体、
18…外部記憶媒体ドライバ、
19…CPU、
21,25…入力中の文字、
22〜24,26〜28…予測候補、
29,30,31,32,41,42,46,47…ボタン、
43〜45…ボタン領域。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a handwriting input device, a handwriting input method, a handwriting input program, and a program recording medium.
[0002]
[Prior art]
An apparatus is known in which an operator inputs characters and figures by handwriting via a coordinate input device such as a tablet. In these devices, character recognition and graphic recognition are performed on the input characters and graphics, and processing such as input and editing is performed by replacing the recognition results with handwritten characters and graphics. There is also known a technique for processing an input character or graphic as an image without performing character recognition or graphic recognition.
[0003]
With regard to the former technique for performing the above character recognition, figure recognition, etc., a technique that allows a part of a character string to be omitted in order to reduce the burden on the operator when inputting characters by handwriting. Has been proposed (see, for example, Patent Document 1). This patent document 1 discloses a text input device for searching a word dictionary, an example dictionary, and the like, and presenting a character string candidate that complements the omitted part by inputting an ellipsis in the middle or continuation of the character string to be input. Has been.
[0004]
As for the latter technique that does not perform character recognition or graphic recognition, a technique for searching for information such as handwritten characters and figures has been proposed (see, for example, Patent Document 2). This patent document 2 discloses a handwritten character symbol processing device that searches handwritten information similar to handwritten information input by an operator for search designation from a handwritten information dictionary when searching for previously input handwritten information. Is disclosed.
[0005]
[Patent Document 1]
Japanese Patent Laid-Open No. 7-191986
[Patent Document 2]
Japanese Patent Laid-Open No. 10-214267
[0006]
[Problems to be solved by the invention]
However, the conventional text input device and handwritten character symbol processing device have the following problems.
[0007]
That is, in the text input device described in Patent Document 1, a word dictionary, an example dictionary, and the like are searched to supplement the omitted part. Therefore, it is possible to reduce the burden at the time of character input when the final output is printed. However, there is a problem that it cannot be used when handwritten information input by the operator is processed as an input image.
[0008]
On the other hand, in the handwritten character symbol processing device described in Patent Document 2, it is possible to search for previously input handwritten information by processing the characters and figures input by the operator as they are in the image. . However, as described above, in order to specify a search, the operator needs to input all characters and figures that are intended to be input by handwriting. Not in.
[0009]
Accordingly, an object of the present invention is to provide a handwriting input device, a handwriting input method, a handwriting input program, and a program capable of reducing the burden on the operator when handwritten input when processing handwritten information input by the operator as an image. It is to provide a recording medium.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, the handwriting input device of the present invention is intended to input based on handwriting information input from the input unit and an input unit in which handwritten information such as characters and figures is input by handwriting. A prediction candidate generating unit that generates a prediction candidate of handwritten information, a display unit that displays the input handwritten information and the prediction candidate, and a desired prediction candidate that is operated by the operator and that is selected from the prediction candidates displayed by the display unit A prediction candidate selection unit that selects the prediction candidate, and when the prediction candidate is selected by the prediction candidate selection unit, the display unit displays the selected prediction candidate.
[0011]
Here, the above-mentioned “handwritten information” means information related to a set of one or more strokes in this specification. Further, in the present specification, the “prediction candidate” refers to each candidate obtained when predicting handwritten information that the operator wants to finally input.
[0012]
According to the above configuration, the operator inputs handwritten information from the input unit until the desired prediction candidate is displayed on the display unit, and the displayed desired prediction candidate is selected. In this way, characters and figures are input without actually writing all handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0013]
The handwriting input device according to the present invention includes an input unit for inputting handwritten information such as characters and figures by handwriting, a handwritten information dictionary in which various handwritten information is registered as a dictionary entry, and input from the input unit. Using part or all of the handwritten information as search target handwritten information, a dictionary entry whose part is similar to the search target handwritten information is extracted from the handwritten information dictionary, and the search target handwritten information is extracted from the extracted dictionary entry. A prediction candidate generating unit that generates a prediction candidate of handwritten information intended to be input by deleting a part similar to the above, and a display unit that displays the input handwritten information including the search target handwritten information and the prediction candidate A prediction candidate selection that is operated by the operator and selects a desired prediction candidate from the prediction candidates displayed by the display unit. Comprise, the display unit, when the selection of the prediction candidate by the prediction candidate selection unit is performed, becomes the selected prediction candidates to display together with the search target handwritten information.
[0014]
According to the above configuration, the operator inputs handwritten information from the input unit until the desired prediction candidate is displayed on the display unit, and the displayed desired prediction candidate is selected. In this way, characters and figures are input without actually writing all handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0015]
The handwriting input device according to the present invention includes an input unit for inputting handwritten information such as characters and figures by handwriting, a handwritten information dictionary in which various handwritten information is registered as a dictionary entry, and input from the input unit. A part or all of the handwritten information is used as search target handwritten information, and a dictionary entry partly similar to the search target handwritten information is extracted from the handwritten information dictionary, and input is intended based on the extracted dictionary entry. A prediction candidate generation unit that generates a prediction candidate of the handwritten information being performed, a display unit that displays input handwritten information and prediction candidates including the search target handwritten information, and a display that is operated by an operator and displayed by the display unit A prediction candidate selection unit that selects a desired prediction candidate from the predicted prediction candidates, and the display unit uses the prediction candidate selection unit to If the selection of is performed, and displays with the search target handwritten information from the selected prediction candidate to delete the portions which are similar to the search target handwritten information.
[0016]
According to the above configuration, the operator inputs handwritten information from the input unit until the desired prediction candidate is displayed on the display unit, and the displayed desired prediction candidate is selected. In this way, characters and figures are input without actually writing all handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0017]
The handwriting input device according to the present invention includes an input unit for inputting handwritten information such as characters and figures by handwriting, a handwritten information dictionary in which various handwritten information is registered as a dictionary entry, and input from the input unit. Using part or all of the handwritten information as search target handwritten information, a dictionary entry partly similar to the search target handwritten information is extracted from the handwritten information dictionary, and input is intended based on the extracted dictionary entry A prediction candidate generation unit that generates a prediction candidate of the handwritten information being performed, a display unit that displays input handwritten information and prediction candidates including the search target handwritten information, and a display that is operated by an operator and displayed by the display unit A prediction candidate selection unit that selects a desired prediction candidate from the predicted candidates, and the display unit predicts by the prediction candidate selection unit When the selection of the auxiliary is performed, already was a non-display state the search target handwritten information which is displayed, so as to display the predicted candidates said selected.
[0018]
According to the above configuration, the operator inputs handwritten information from the input unit until the desired prediction candidate is displayed on the display unit, and the displayed desired prediction candidate is selected. In this way, characters and figures are input without actually writing all handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0019]
Further, in the handwriting input device having the handwritten information dictionary of one embodiment, the prediction candidate generating unit is similar to the size and direction of the search target handwritten information and the search target handwritten information in the extracted dictionary entry. The prediction candidate is generated based on the dictionary entry in which the overall size and direction are changed after the size and direction of the entire dictionary entry are changed so that the size and direction of the current part match. It has become.
[0020]
According to this embodiment, when the prediction candidate is generated based on the dictionary entry having a shape similar to that of the search target handwritten information but having a different size and direction, the prediction is close to the handwritten information intended for the input. Candidates are generated.
[0021]
Moreover, in the handwriting input device having the handwriting information dictionary of one embodiment, when the display unit displays the prediction candidates generated by the prediction candidate generation unit, the display target handwritten information in the prediction candidates is displayed. The position of the similar part or the position where the part was present is displayed so as to match the position of the search handwritten information.
[0022]
According to this embodiment, the search target handwritten information and the prediction candidates are displayed in a continuous state. Therefore, the operator can confirm an image when the displayed prediction candidate is selected.
[0023]
In the handwriting input device having the handwriting information dictionary of one embodiment, the display unit is used to generate the selected prediction candidate when displaying the prediction candidate selected by the prediction candidate selection unit. The degree of deviation of the size and direction of the portion similar to the search target handwritten information in the dictionary entry with respect to the size and direction of the search target handwritten information is obtained, and the size of the entire selected prediction candidate and After changing the direction, the position of the part similar to the search target handwritten information in the selected prediction candidate or the position where the part existed is displayed so as to match the position of the search target handwritten information. It has become.
[0024]
According to this embodiment, even when a prediction candidate whose size and direction do not match the search target handwritten information is generated and displayed, when a desired prediction candidate is selected, the size and direction are set as described above. Selection prediction candidates that match the search target handwritten information are displayed. Therefore, a selection prediction candidate closer to the handwritten information intended for input is displayed.
[0025]
Moreover, in the handwriting input device of one Example, the said display part displays the said prediction candidate with the display form different from the said input handwritten information.
[0026]
According to this embodiment, the search target handwritten information actually input by handwriting displayed on the display unit and the prediction candidate can be easily identified.
[0027]
Moreover, in the handwriting input device of one Example, the said prediction candidate selection part is comprised by the button or menu displayed by the said display part in the vicinity of the said prediction candidate.
[0028]
According to this embodiment, the operation for selecting a desired prediction candidate from the prediction candidates displayed on the display unit is facilitated, and the operability is improved.
[0029]
Moreover, in the handwriting input apparatus of one Example, the said prediction candidate selection part is comprised by the button or menu displayed on the vicinity of the writing end point of the said search object handwritten information by the said display part.
[0030]
According to this embodiment, the operation for selecting a desired prediction candidate from the prediction candidates displayed on the display unit is facilitated, and the prediction candidate selection after handwriting input can be quickly performed. Is improved.
[0031]
Moreover, in the handwriting input apparatus of one Example, the said prediction candidate selection part is comprised by the button or menu displayed on the vicinity of the writing end point of the said prediction candidate by the said display part.
[0032]
According to this embodiment, the operation for selecting a desired prediction candidate from the prediction candidates displayed on the display unit is facilitated, and the transition to the next handwriting input after the selection of the prediction candidate is facilitated. Operability is improved.
[0033]
The handwriting input method of the present invention includes an input step of inputting handwritten information such as characters and figures by handwriting, and a prediction for generating a prediction candidate of handwritten information intended for input based on the input handwritten information. A candidate generation step, a display step for displaying the input handwritten information and a prediction candidate, a prediction candidate selection step for selecting a desired prediction candidate from the displayed prediction candidates, and a selection prediction for displaying the selected prediction candidate A candidate display step is included.
[0034]
According to the above configuration, characters and figures are input without actually writing all handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0035]
Further, the handwriting input method of the present invention includes an input step of inputting handwritten information such as characters and figures by handwriting, and the search from the handwritten information dictionary using part or all of the input handwritten information as search target handwritten information. Predicting handwritten information intended for input by extracting a dictionary entry that is partially similar to the target handwritten information and deleting a portion similar to the search target handwritten information from the extracted dictionary entry A prediction candidate generation step for generating a candidate; a display step for displaying input handwritten information including the search target handwritten information and a prediction candidate; a prediction candidate selection step for selecting a desired prediction candidate from the displayed prediction candidates; A selection prediction candidate display step for displaying the selected prediction candidate together with the search handwritten information;
[0036]
According to the above configuration, characters and figures are input without actually writing all handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0037]
Further, the handwriting input method of the present invention includes an input step of inputting handwritten information such as characters and figures by handwriting, and the search from the handwritten information dictionary using part or all of the input handwritten information as search target handwritten information. A prediction candidate generating step of extracting a dictionary entry partially similar to the target handwritten information and generating a prediction candidate of handwritten information intended to be input based on the extracted dictionary entry; and the search target handwriting Display step for displaying input handwritten information including information and prediction candidates; prediction candidate selection step for selecting a desired prediction candidate from the displayed prediction candidates; and similarity to the search target handwritten information from the selected prediction candidates A selection prediction candidate display step for deleting the displayed portion and displaying it together with the search handwritten information.
[0038]
According to the above configuration, characters and figures are input without actually writing all handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0039]
Further, the handwriting input method of the present invention includes an input step of inputting handwritten information such as characters and figures by handwriting, and the search from the handwritten information dictionary using part or all of the input handwritten information as search target handwritten information. A prediction candidate generating step of extracting a dictionary entry partially similar to the target handwritten information and generating a prediction candidate of handwritten information intended to be input based on the extracted dictionary entry; and the search target handwriting A display step of displaying input handwritten information including information and a prediction candidate; a prediction candidate selecting step of selecting a desired prediction candidate from the displayed prediction candidates; and the search target handwritten information already displayed being hidden. Then, there is a selected prediction candidate display step for displaying the selected prediction candidate.
[0040]
According to the above configuration, characters and figures are input without actually writing all handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0041]
Moreover, the handwriting input program of this invention makes a computer function as said input part, prediction candidate production | generation part, display part, and prediction candidate selection part in the handwriting input device of this invention.
[0042]
According to the above configuration, characters and figures can be input only by handwriting input of a part of handwritten information (characters and figures) intended to be input. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0043]
The program recording medium of the present invention records the handwriting input program of the present invention.
[0044]
According to the above configuration, by reading and executing the handwriting input program with a computer, characters and figures can be input without actually inputting all handwritten information (characters and figures) intended to be input. Done. Therefore, when processing the input handwritten information as an image, the labor of handwriting input is greatly reduced, and the input efficiency is greatly improved.
[0045]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail with reference to the illustrated embodiments.
[0046]
First embodiment
FIG. 1 is a functional block diagram showing a functional configuration of the handwriting input device of the present embodiment. The handwriting input device is configured on a simple computer and includes an input unit 1, a storage unit 2, a candidate generation unit 3, a candidate selection unit 4 and a display unit 5.
[0047]
The input unit 1 includes a tablet or the like, and strokes such as characters and figures are input by hand by an operator. Handwritten information including a set of strokes input by handwriting from the input unit 1 is stored in the storage unit 2. Based on the input handwritten information stored in the storage unit 2, the candidate generating unit 3 predicts handwritten information intended for input (that is, handwritten information that the operator wants to finally input), and selects a prediction candidate. Generate. The candidate selection unit 4 is configured by a specific area such as a tablet constituting the input unit 1 or by hardware different from that of the input unit 1 such as a keyboard and a button. Select prediction candidates. The display unit 5 displays the handwritten information input from the input unit 1 and the prediction candidates generated by the candidate generation unit 3. Furthermore, the prediction candidate selected by the candidate selection part 4 is displayed.
[0048]
Here, the stroke refers to a writing trajectory obtained between the start of contact with the input surface of the input unit 1 and the end of contact. The stroke information refers to stroke coordinate string information, vector string information, or image information obtained from the input unit 1. The stroke information may include time information such as input time and time required for writing, writing speed information, writing pressure information, circumscribed rectangle information, stroke length information, and the like.
[0049]
The handwritten information refers to information related to a set of one or more strokes, and may include various information used for shape matching between the entire circumscribed rectangle information and handwritten information in addition to the information of the included strokes.
[0050]
The input unit 1 and the display unit 5 may be provided individually, or may be provided as a display-integrated tablet in which transparent tablets are stacked on the display device. The input unit 1 may be configured by a device that acquires a handwriting using a camera or the like, or a device that acquires a handwriting by acquiring a three-dimensional position such as a pen or a fingertip.
[0051]
FIG. 2 shows a hardware configuration of the handwriting input device shown in FIG. The handwriting input device includes a program memory 11 for storing various programs including programs for executing various processes to be described later, a data memory 12 for configuring the storage unit 2 to store various information including the handwritten information, the input unit 1 and The input device 13 constituting the prediction candidate selection unit 4, the display device 14 constituting the display unit 5, the communication I / F 16 for connecting the communication network 15 such as the external Internet and the handwriting input device, a CD-ROM (compact disc An external storage medium driver 18, a program memory 11, a data memory 12, an input device 13, a display device 14, a communication I / Control F16 and external storage medium driver 18 to execute handwriting input processing operation PU is configured to include a (central processing unit) 19.
[0052]
FIG. 3 is a flowchart of the handwriting input processing operation executed under the control of the CPU 19. Hereinafter, the handwriting input processing operation will be described in detail with reference to FIG. The handwriting input processing operation is performed every time stroke input is started with respect to the input unit 1 and is started when stroke input to the input unit 1 is started by the operator.
[0053]
In step S1, the input stroke is displayed on the display unit 5 in real time. At the same time, the storage unit 2 stores the stroke information. In step S2, based on the information from the input unit 1, it is determined whether or not the stroke input has been completed. As a result, if it has been completed, the process proceeds to step S3. If it has not been completed, the process returns to step S1 to continue the processing of the input talk. Thus, the process in step S1 is repeated until the end of stroke input by the operator is detected. In step S3, it is determined whether or not generation of a prediction candidate by the candidate generation unit 3 is started. As a result, when the generation of the prediction candidate is started, the process proceeds to step S4, and when it is not started, the handwriting input processing operation is ended as it is.
[0054]
Here, the method for determining the generation start of the prediction candidate is not particularly limited. For example, the following method is effective.
(A1) After a stroke is input, it is determined that the generation of the prediction candidate is started when a predetermined time has passed without performing an input operation for the next stroke, a selection operation for selecting a prediction candidate, which will be described later, or the like.
(A2) When the total number of input strokes reaches a predetermined value, it is determined that generation of the prediction candidate is started.
(A3) It is determined that generation of the prediction candidate is started when the total length of the input strokes reaches a predetermined value.
(A4) When the elapsed time has reached a predetermined time from the writing start time of the first input stroke, it is determined that generation of the prediction candidate is started.
(A5) When an instruction is given by the operator to the input unit 1 or a separately provided prediction candidate generation instruction unit (not shown), it is determined that generation of the prediction candidate is started.
[0055]
However, any one of the determination methods described above may be used, or any two or more determination methods may be used in combination. In addition, as the “instruction to the input unit 1” in the determination method (A5), a gesture input by handwriting to the input unit 1 in the same manner as handwritten information may be used. The gesture is defined by a shape composed of one or more predetermined strokes and serves as a trigger for executing a specific process. Further, there are two methods for discriminating handwritten information of characters and figures from the above gestures: “character figure input mode” for inputting characters and figures to the input unit 1 and “gesture input mode” for inputting the gestures. A method of providing a mode and a method of sequentially determining whether or not a gesture is made from the shape of an input stroke without providing a mode are particularly known.
[0056]
In step S <b> 4, the candidate generation unit 3 generates the prediction candidate based on the handwritten information stored in the storage unit 2. The prediction candidate generation method will be described later. In step S5, the display unit 5 displays the prediction candidates generated in step S4. When the candidate selection unit 4 selects a desired prediction candidate, the selected prediction candidate is displayed. The prediction candidate display method will be described later. After that, the handwriting input processing operation is terminated.
[0057]
In the flowchart shown in FIG. 3, the description will be omitted because it is complicated, but in step S <b> 4 and step S <b> 5, the next stroke is input and the next handwriting input processing operation is started. When the judgment candidate generation start determination is started in step S3 in the handwriting input processing operation, the prediction candidate generation and prediction candidate display processes are stopped.
[0058]
Also, the “predetermined time (elapsed time in which nothing is performed)” of the determination method (A1) used in step S3 in the flowchart shown in FIG. 3, the “predetermined value (number of strokes)” of the determination method (A2), and the determination A plurality of “predetermined value (stroke length)” of the method (A3) and “predetermined time (elapsed time from the start of writing)” of the determination method (A4) are provided. Then, the prediction candidates may be regenerated when the respective predetermined values are reached. In this case, the plurality of predetermined values may be set so as to increase at regular intervals, such as 5 → 10 → 15, or have a change in the increase range, such as 5 → 8 (+3) → 10 (+2). It may be allowed.
[0059]
Further, when the second and subsequent predetermined values (“10”, “15” or “8”, “10” in the above example) are reached, a prediction candidate different from the prediction candidates generated so far is generated. You can also By doing so, for example, when the prediction candidate is generated every three strokes, when the prediction candidate generated / displayed at the time when the operator wrote “shi” does not have any intention, The prediction candidates generated / displayed at the time of writing up to “” exclude the prediction candidates generated up to the previous time (that is, prediction candidates that are not intended). Therefore, the accuracy rate of the generated prediction candidates can be increased.
[0060]
Next, the prediction candidate generation processing operation executed in step S4 in the handwriting input processing operation shown in FIG. 3 will be described in more detail. In the present invention, the prediction candidate generation method is not particularly limited, but a method of generating as follows by applying handwritten information search technology is conceivable. That is, the handwritten information desired to be generated as a prediction candidate is set as a dictionary entry, and a prediction candidate is generated by searching a dictionary entry similar to the input handwritten information from a handwritten information dictionary in which dictionary entries are collected.
[0061]
Although the handwritten information dictionary is omitted in FIG. 1, the handwritten information dictionary is provided so as to be searchable by the candidate generation unit 3. In that case, all the dictionary entries may be prepared in advance in the handwritten information dictionary, or dictionary entries may be added / updated / deleted as appropriate according to the handwritten input by the operator.
[0062]
In the former case, for example, if handwritten information as shown in FIG. 4 is prepared in the handwritten information dictionary in advance, various types of face illustrations are predicted as candidates when a circle corresponding to the outline of the face is written. Can be generated and displayed. In addition, if you prepare various illustrations in the above handwritten information dictionary that can display prediction candidates by inputting simple strokes, even if you are not good at drawing illustrations etc. It becomes possible to create a simple handwritten image. In the latter case, once the handwritten answer is entered once when the test is corrected, the above answer can be predicted when the first few strokes are written, and the answer is input for each answer. This can greatly reduce the time and effort. Of course, these methods are effective even when used in appropriate combination.
[0063]
FIG. 5 is a flowchart of the prediction candidate generation processing operation. Hereinafter, the prediction candidate generation processing operation executed in step S4 of the handwriting input processing operation shown in FIG. 3 will be described with reference to FIG. When it is determined in step S3 of the handwriting input processing operation that generation of a prediction candidate is started, the prediction candidate generation processing operation starts.
[0064]
In step S11, search information used for searching the handwritten information dictionary is generated from the input handwritten information stored in the storage unit 2. Here, the method of determining the input handwritten information to be searched from the stored input handwritten information is roughly divided into the following two methods.
(B1) All strokes stored in the storage unit 2 are targeted.
(B2) A part of strokes stored in the storage unit 2 is targeted.
[0065]
Furthermore, in the above method (B2), the following method can be considered as a method for extracting the target stroke from the strokes stored in the storage unit 2.
(B2a) Of the strokes stored in the storage unit 2, a predetermined number of strokes from the latest stroke in order of input time are targeted.
(B2b) Among the strokes stored in the storage unit 2, the stroke from the latest stroke to the total length reaches a predetermined value in the order of input time is targeted.
(B2c) Of the strokes stored in the storage unit 2, all strokes input after a predetermined time before the current time are targeted.
(B2d) When the elapsed time from the end of the input of a stroke to the start of the input of the next stroke exceeds a predetermined value, a time-out is set, and the stroke stored in the storage unit 2 is input after the latest time-out occurs. Target strokes.
(B2e) Among the strokes stored in the storage unit 2, a stroke specified by an operator's instruction from a separately provided search target handwritten information instruction unit (not shown) is targeted.
[0066]
In the extraction method (B2a) and the extraction method (B2b), it is necessary to obtain the input time order of each stroke. This is because the strokes are stored in the storage unit 2 in the order of input time in a data structure such as an array or a list. Or by storing the input time as the stroke information in the storage unit 2.
[0067]
Further, the operator's instruction from the search target handwritten information instruction unit in the extraction method (B2e) is handwritten to the input unit 1 as in the case of “instruction to the input unit 1” in the determination method (A5). You may use the gesture input by hand like information. In this case, search target handwritten information is determined according to the positional relationship between the stroke determined to be a gesture and the stroke of a handwritten character or figure other than the gesture.
[0068]
In addition to the extraction method (B2a) to the extraction method (B2e), a part of strokes extracted by an extraction method similar to these may be used as a search target. Furthermore, the method (B1) and the method (B2) (= extraction method (B2a) to extraction method (B2e)) may use only one or a combination of any two or more. Also good.
[0069]
The handwritten information including the stroke group determined as described above is determined as search target handwritten information, that is, search information.
[0070]
In step S12, the handwritten information dictionary is searched based on the generated search information, and a dictionary entry that partially matches the search target handwritten information that is the search information is extracted. Here, the collation method between the above-mentioned handwritten information to be searched and the handwritten information dictionary is not particularly limited, but various pattern matching methods used in online character recognition, OCR (Optical Character Reader), etc. are applicable. It is.
[0071]
Hereinafter, as an example, a case where a coordinate sequence is held as the stroke information and collation is performed using DP (Dynamic Programming) matching will be described with reference to FIGS. 6 and 7.
[0072]
FIG. 6A shows search target handwritten information, and FIG. 6B shows one dictionary entry. In FIGS. 6A and 6B, the black circles on the stroke represent the coordinates. Direct DP matching may be performed using these coordinates. However, in order to reduce the processing amount, as shown in FIGS. 6C and 6D, a polygonal line approximation process is performed by sampling or the like, and DP matching is performed using the coordinates of both ends of the polygonal line and the broken part. It is common to do it.
[0073]
It is assumed that coordinate lines Ps1 to Ps7 of search handwritten information shown in FIG. 6C and coordinate strings Pd1 to Pd27 of dictionary entries shown in FIG. However, as for the coordinates of the dictionary entry, unnecessary coordinate labels Pd10 to Pd26 are omitted in the following description. Note that the polygonal line approximate coordinate sequence of the dictionary entry may be calculated in advance and held together with the dictionary entry. In this case, the storage capacity of the handwritten information dictionary increases, but the processing amount at the time of collation can be reduced.
[0074]
In the DP matching, correspondence between each coordinate shown in FIG. 6C and each coordinate shown in FIG. 6D is taken. Since this collation may be a partial match, the DP matching may be terminated when each coordinate shown in FIG. 6C is matched with any one of the coordinates shown in FIG.
[0075]
FIG. 7A shows the correspondence between the retrieved handwritten information and the dictionary entry in two dimensions, with the vertical axis representing the coordinates in FIG. 6C and the horizontal axis representing the coordinates in FIG. 6D. The black circle represents the correspondence. That is, according to FIG. 7A, the correspondence as shown in FIG. 7B is obtained. In the case of the above-described matching method, it is possible that correspondence can be obtained only up to the coordinates in the middle of a certain stroke in the dictionary entry. Therefore, the association may be completed up to the end point of any stroke.
[0076]
When the association is thus completed, an evaluation score similar to the shape is obtained. By sorting the dictionary entries in the order of the evaluation scores, a dictionary entry list arranged in descending order of similarity is acquired. As for the number of dictionary entries to be finally extracted, only one dictionary entry with the highest reliability may be extracted, or a plurality of dictionary entries may be extracted in order of the reliability.
[0077]
In step S13, after a prediction candidate is generated based on the extracted dictionary entry, the process returns to step S5 of the handwriting input processing operation shown in FIG.
[0078]
In this case, the prediction candidate may be generated using the extracted stroke of the dictionary entry as it is, or a portion matching the stroke of the search handwritten information in the DP matching in step S12 from the dictionary entry. You may delete and generate. For example, in the example shown in FIG. 6 and FIG. 7, since the coordinate sequence Pd1 to Pd8 of the dictionary entry corresponds to the search target handwritten information, the prediction candidate is based on the coordinate sequence before the broken line approximation related to the coordinate sequence Pd9 to Pd27. Should be generated.
[0079]
When generating a prediction candidate using the extracted dictionary entry stroke as it is, when the generated prediction candidate is selected, a portion that matches the stroke of the search handwritten information is selected from the prediction candidate. It deletes and displays, or deletes the said search object handwritten information, and displays only a prediction candidate, but this is mentioned later.
[0080]
Further, as shown in FIG. 8, there is known a pattern matching method that can be extracted even in the case of a dictionary entry (FIG. 8B) having a similar shape but different in size and direction. When using this pattern matching technique, the size and direction of the search target handwritten information matches the size and direction of the portion similar to the search target handwritten information in the extracted dictionary entry. After changing the size and direction of the entire dictionary entry, the prediction candidate may be generated based on the dictionary entry in which the entire size and direction are changed. In that case, the contents of the handwritten information dictionary may be updated based on the change in the size and direction of the dictionary entry, or only by changing the size and direction of the dictionary entry to generate a prediction candidate. The contents of the handwritten information dictionary may not be updated.
[0081]
The change in the size and direction of the dictionary entry is extracted, for example, as shown in FIG. 9, a vector v1 connecting the writing start point in the search handwritten information and the coordinate point farthest from the writing start point. Based on the dictionary entry rotated and resized so that the vector v2 corresponding to the vector v1 in the dictionary entry is equal (that is, the direction and magnitude of both vectors v1 and v2 are equal). This can be realized by generating prediction candidates.
[0082]
Next, the prediction candidate display process executed in step S5 in the handwriting input process operation shown in FIG. 3 will be described in more detail. In the present embodiment, the display method of the prediction candidate is not limited, but the following display method is conceivable.
(C1) A method of displaying all prediction candidates in a specific area.
(C2) A method of displaying only the first prediction candidate according to the position, size, and direction of the search-target handwritten information.
(C3) A method in which the first prediction candidate is displayed in accordance with the position, size, and direction of the search target handwritten information, and the second and subsequent prediction candidates are displayed in a specific area.
[0083]
In the case of the display method (C1), it may be displayed in a predetermined area for displaying the prediction candidate in the display unit 5, or may be displayed in a window near the search handwritten information as shown in FIG. Good.
[0084]
10, FIG. 10 (a) shows a display result when a prediction candidate including a portion corresponding to the search target handwritten information is generated. That is, when the input character “te” 21 is the search handwritten information, the prediction candidates 22 to 24 including the part corresponding to the search handwritten information “te” are displayed. FIG. 10B shows a display result when a prediction candidate in which a portion corresponding to the search target handwritten information is deleted is generated. That is, the prediction candidates 26 to 28 from which the part corresponding to the character “te” 25 being input is deleted are displayed. Here, the buttons 29 and 30 in FIG. 10A and the buttons 31 and 32 in FIG. 10B are buttons for displaying prediction candidates other than the prediction candidates 22 to 24 and 26 to 28 currently displayed. It is.
[0085]
In FIG. 10, as described above, the prediction candidates generated in accordance with the size and direction of the search handwritten information are displayed, but the prediction in which the size and direction of the extracted dictionary entry are reflected as they are. Candidates may be displayed. Alternatively, reduced prediction candidates may be displayed in consideration of screen size restrictions and listability of multiple prediction candidates.
[0086]
FIG. 11 is a display example according to the display method (C2). FIG. 11A shows a display result when a prediction candidate including a part corresponding to the search handwritten information is generated. That is, the first prediction candidate “sharp” (thin line portion in FIG. 11A) including a portion corresponding to the character “shi” being input (thick line portion in FIG. 11A: handwritten information to be searched). Is superimposed on the search handwritten information. Moreover, FIG.11 (b) has shown the display result at the time of deleting the part corresponding to search object handwritten information, and producing | generating a prediction candidate. That is, the first prediction candidate “harp” (thin line part in FIG. 11B) from which the part corresponding to the character “shi” being input (thick line part in FIG. 11B) is deleted is displayed. Yes. As shown in FIG. 9, after the rotation and resizing so that the two vectors v1 and v2 are equal, the prediction candidates may be displayed so that these vectors v1 and v2 overlap. Here, the button 41 in FIG. 11A and the button 42 in FIG. 11B are buttons for displaying prediction candidates other than the currently displayed prediction candidates.
[0087]
In FIG. 11A, the search target handwritten information and the prediction candidate are displayed so that they can be identified by changing the thickness of the line. However, the color or density is changed or the prediction candidate is blinked. Is also effective.
[0088]
Further, in any of the display methods of FIGS. 10 and 11, when writing is continued without selecting the displayed prediction candidate, the currently generated prediction candidate is hidden. If the display mode is changed such as displaying the color and density more thinly, the effect of improving the visibility at the time of writing can be obtained.
[0089]
Subsequently, selection of a prediction candidate performed by the operator operating the candidate selection unit 4 when the prediction candidate is displayed on the display unit 5 by the handwriting input processing operation of FIG. 3 as described above will be described. First, a supplementary description will be given of the configuration of the candidate selection unit 4.
[0090]
As described above, the candidate selection unit 4 is configured by a specific area such as a tablet constituting the input unit 1 or hardware different from the input unit 1 such as a keyboard and buttons. Here, the specific area of the input unit 1 is, for example, a rectangular area in which each of the prediction candidates 22 to 24 and 26 to 28 in FIG. 10 is included. In this case, when an instruction such as pen down is given to the rectangular area, the prediction candidate included in the rectangle is selected. Alternatively, as shown in FIG. 12, button areas 43 to 45 displayed in a rectangular area in which each of a plurality of prediction candidates is included may be set as a specific area of the input unit 1. In this case, when an instruction such as pen down is given to the button areas 43 to 45, a prediction candidate in the rectangular area corresponding to the button area is selected. In addition, handwriting input is possible for the part in rectangular areas other than button area 43-45.
[0091]
Here, in the former case where the entire rectangular area is the selection area, handwriting input into the rectangular area is impossible, so if the rectangular area is set near the display position of the search target handwritten information Inconvenience occurs when writing without selecting any prediction candidate. However, in the latter case in which the button areas 43 to 45 are provided in the rectangular area, handwriting input is possible for the parts in the rectangular area other than the button areas 43 to 45, so that the vicinity of the display position of the search target handwritten information. Even if the rectangular area is set, a problem hardly occurs.
[0092]
Furthermore, as shown in FIG. 11, when only the first prediction candidate is displayed in accordance with the position, size, and direction of the search target handwritten information, there are two possible methods for selecting a prediction candidate as follows.
(D1) A method of displaying a prediction candidate selection button 46 in the vicinity of the writing end point Pe1 of the search target handwritten information as shown in FIG.
(D2) A method of displaying a prediction candidate selection button 47 in the vicinity of the writing end point Pe2 of the displayed prediction candidate, as shown in FIG. 13B.
[0093]
Here, the writing end point of the prediction candidate in the selection method (D2) indicates the writing end point of the final stroke when the handwritten information of the prediction candidate is input by actual writing. For example, if the stroke information included in the handwritten information and the coordinate sequence information of the stroke are held in time series, the final coordinate of the final stroke corresponds to that.
[0094]
In the case of the selection method (D1), since the distance from the writing end point (handwriting input end point) of the search target handwritten information to the prediction candidate selection button 46 is short, the operation from handwriting input to prediction candidate selection is performed. It can be done quickly, improving operability. On the other hand, in the case of the selection method (D2), the handwritten information intended for input is predicted at a position close to the writing end point when actually writing from the input unit 1 without selecting a prediction candidate. Since the candidate selection operation ends, the operator can start the next handwriting input from the vicinity thereof, and the input efficiency and the operational feeling are improved. In any of the selection methods, display is performed at a position that does not hinder the visibility of search target handwritten information and prediction candidates, or a display method that does not hinder visual correctness such as making the buttons 46 and 47 translucent display is used. Is desirable.
[0095]
In the case of the selection method (D1) described above, an example of a method for determining the display position of a button that does not hinder the visibility of the search handwritten information and the prediction candidate will be described below.
(E1) As shown in FIG. 14A, the search target handwritten information and the circumscribed rectangle R of the prediction candidate are obtained, and the writing end point Pe of the search target handwritten information “shi” on the side of the circumscribed rectangle R. A point Pb closest to the point Pb is obtained, and a button for selecting a prediction candidate is displayed so as to contact the point Pb.
(E2) As shown in FIG. 14 (b), a plurality of points (indicated by ◯) whose distance from the writing end point Pe of the search target handwritten information “shi” is d1 are obtained, and among these points, prediction A method for displaying a button for selecting a prediction candidate at a position of a point that does not contact each stroke of the search target handwritten information and the prediction candidate when the button for selecting a candidate is displayed.
[0096]
In the case of the display position determination method (E1), a circumscribed rectangle of only the search target handwritten information may be targeted. However, in this case, since the prediction candidate selection button and the prediction candidate may come into contact with each other, the button is displayed so as to touch the closest point that does not touch the prediction candidate, or the button is translucent. Need to be displayed. The same applies to the case where the prediction candidate is displayed near the writing end point. Although this display position determination method (E1) requires a small amount of processing, when there is a writing end point near the center of the circumscribed rectangle, the button is displayed far away even if there is a space around the writing end point. There is a drawback that it will be.
[0097]
In the case of the display position determination method (E2), the display position may be set to the vertex of a regular polygon centered on the writing end point of the search handwritten information. In FIG. 14B, it is a regular hexagon. When any vertex of the regular polygon comes into contact with search target handwritten information or each stroke of the prediction candidate, the same processing is performed for a plurality of points whose distance from the writing end point is d2 (> d1). Just do it. When the distance is in contact with d2, the same processing is performed for a plurality of points that are further d3 (> d2). Thereafter, similarly, the distance from the writing end point is increased until a point having no contact is finally found, and the same processing is repeated, and a button is displayed at the position of the finally obtained point. The same applies to the case where the prediction candidate is displayed near the writing end point. Furthermore, although this display position determination method (E2) has a larger processing amount than the display position determination method (E1), even if there is a writing end point near the center in the circumscribed rectangle as described above, there is a space around it. If there is, a button can be displayed near the end point.
[0098]
In the configuration of the candidate selection unit 4 described above, it is also effective to use a menu or the like that can also give processing instructions other than selection instead of the button for candidate selection.
[0099]
Next, the display process of the selection prediction candidate when the prediction candidate is selected by the candidate selection unit 4 having the above configuration will be described. Since this process differs depending on whether a plurality of prediction candidates are displayed as shown in FIG. 10 or only the first prediction candidate is displayed as shown in FIG. 11, each will be described in turn.
[0100]
First, among the cases where a plurality of prediction candidates are displayed as shown in FIG. 10, as shown in FIG. 10A, when a prediction candidate including a portion corresponding to the search handwritten information is displayed in a window, or in advance When the same display is performed in a predetermined display area, there are the following two selection prediction candidate display processing methods.
(F1) After changing the size and direction of the selected prediction candidate according to the search target handwritten information, the portion corresponding to the search target handwritten information is deleted, and the input handwritten according to the position of the search target handwritten information A method of displaying in the same display form as information.
(F2) After changing the size and direction of the selected prediction candidate according to the search target handwritten information, the search target handwritten information is deleted (that is, hidden), and the search target handwritten information exists. Display in the same display form as the input handwritten information according to the position.
[0101]
A display example in the case of the display processing method (F1) is shown in FIG. As can be seen from FIG. 15, the display processing method (F1) is a method in which strokes actually input by handwriting are used as they are. On the other hand, a display example in the case of the display processing method (F2) is shown in FIG. As can be seen from FIG. 16, the display processing method (F2) is a method using prediction candidates instead of the input stroke.
[0102]
In the display processing methods (F1) and (F2), the size and direction of the selected prediction candidate are changed in accordance with the search target handwritten information. This is not necessary if has already been done. Of course, it is also possible not to change the size and direction of the prediction candidate.
[0103]
Next, as shown in FIG. 10 (b), the selection in the case where the prediction candidate from which the portion corresponding to the search handwritten information is deleted is displayed in the window or the same display is performed in a predetermined display area. A prediction candidate display processing method will be described. In this case, after changing the size and direction of the selected prediction candidate according to the search target handwritten information, the same display form as the search target handwritten information according to the position where the search target handwritten information existed Can be displayed. Similar to the case of FIG. 10A, the change in size and direction is not necessary if it has already been performed at the time of generating the prediction candidate described above. FIG. 17 shows a display example when this display processing method is used.
[0104]
Next, in the case where only the first prediction candidate is displayed as shown in FIG. 11, as shown in FIG. 11A, the prediction candidate including the part corresponding to the search target handwritten information is selected as the search target handwritten information. When displaying in accordance with the position, size, and direction, there are the following two selection prediction candidate display processing methods.
(G1) A method in which a portion corresponding to the search handwritten information is deleted from the prediction candidates and displayed in the same display form as the input handwritten information according to the position of the search target handwritten information.
(G2) A method of deleting the search target handwritten information (in a non-display state) and displaying the prediction candidate in the same display form as the input handwritten information in accordance with the position where the search target handwritten information was present.
[0105]
A display example by the display processing methods (G1) and (G2) is shown in FIG. The method 1 in FIG. 18 corresponds to the display processing method (G1), and the first character “si” in the displayed prediction candidate “sharp” is replaced with “shi” of the search target handwritten information. On the other hand, Method 2 corresponds to the display processing method (G2), and the displayed prediction candidate “Sharp” is displayed as it is.
[0106]
Finally, as shown in FIG. 11B, a display processing method in the case of displaying the prediction candidate from which the part corresponding to the search target handwritten information is deleted according to the position, size, and direction of the search target handwritten information. explain. In this case, it is only necessary to display the selected prediction candidate in the same display form as the search target handwritten information. A display example is shown in FIG.
[0107]
By the way, the method of changing the size and direction of the selected prediction candidate and the alignment of the search target handwritten information performed when displaying the selected prediction candidate is not particularly limited. For example, as follows: Do.
[0108]
First, the dictionary entry used when the candidate generation unit 3 generates the selection prediction candidate is read out. Then, the vector v2 shown in FIG. 9B corresponding to the search target handwritten information in the dictionary entry is compared with the vector v1 shown in FIG. The degree of displacement of the size and direction vector v1 with respect to the size and direction is obtained. Next, the size and direction of the entire selected prediction candidate are changed according to the degree of the shift so that the size and direction of the selected prediction candidate substantially match the size and direction of the search target handwritten information. After that, the position of the portion corresponding to the search target handwritten information in the selection prediction candidate (or the position where the portion corresponding to the search target handwritten information in the selection prediction candidate was present) is determined as the search target handwritten information. Is displayed in accordance with the position where the user exists (or the position of the handwritten information to be searched).
[0109]
As described above, in the present embodiment, information related to a set of strokes input by handwriting from the input unit 1 is stored in the storage unit 2 as handwritten information. Further, a handwritten information dictionary is created and stored with the handwritten information input in this way and handwritten information prepared in advance as dictionary entries. When the generation start of the prediction candidate is determined based on the set of strokes sequentially input from the input unit 1 and stored in the storage unit 2, the handwriting stored in the storage unit 2 is stored by the candidate generation unit 3. Search target handwritten information is determined from the information. Further, the handwritten information dictionary is searched based on the search target handwritten information, and a prediction candidate is generated based on a dictionary entry matching the search target handwritten information. Then, the selected prediction candidate selected by the candidate selection unit 4 from the prediction candidates displayed on the display unit 5 is displayed on the display unit 5 like the handwritten information input from the input unit 1.
[0110]
Therefore, when processing the information input by handwriting from the input unit 1 as an image, the operator may perform handwriting input from the input unit 1 until a desired prediction candidate is generated and displayed. A prediction candidate corresponding to handwritten information intended to be input can be obtained at the stage where is displayed. Thus, the burden of handwriting input by the operator can be reduced.
[0111]
In the above embodiment, a plurality of processing methods are exemplified for the prediction candidate generation process and the prediction candidate display process by the candidate generation unit 3 and the prediction candidate selection process by the candidate selection unit 4, and either I am trying to execute it selectively. However, the present invention is not limited to this, and it is possible to adopt a configuration in which switching can be appropriately executed according to an operator's instruction.
[0112]
Second embodiment
The present embodiment relates to a handwriting input program for realizing various functions described in the first embodiment and a computer-readable recording medium on which the handwriting input program is recorded.
[0113]
This recording medium is a memory necessary for performing handwriting input processing by the handwriting input device shown in FIG. 2. For example, the program memory 11 itself may be a program medium, or a program read as the external storage medium driver 18. It may be a program medium (magnetic tape, CD-ROM, etc.) that is loaded into the apparatus and read. In any case, the program stored in the program medium may be configured to be directly accessed and executed by the CPU 19, or may be read once and a predetermined program storage area (for example, a program in FIG. 2). The program may be read and executed by the CPU 19 after being loaded into the program storage area of the memory 11. It is assumed that the loading program is stored in the apparatus in advance.
[0114]
In other words, the program medium is configured to be separable from the main body of the apparatus, and is a tape system such as a magnetic tape or a cassette tape, a magnetic disk such as a flexible disk or a hard disk, a CD-ROM, a MO (photo-optical) disk, an MD (miniature Discs), optical discs such as DVDs (digital versatile discs), card systems such as IC (integrated circuit) cards (including memory cards) and optical cards, mask ROM, EPROM (ultraviolet erasable ROM), EEPROM ( Any medium can be used as long as it can carry a fixed program, including a semiconductor memory system such as an electrically erasable ROM) or a flash ROM.
[0115]
That is, the recording medium in the present embodiment is the program medium having the above-described configuration, the handwriting processing operation shown in FIG. 3 and the prediction candidate generation processing operation shown in FIG. Is recorded by a handwriting program that executes.
[0116]
The handwriting input device in the first embodiment has a configuration that can be connected to the communication network 15 including the Internet via the communication I / F 16. Therefore, the program medium may be a medium that dynamically carries the program by downloading from the communication network 15 or the like. In this case, it is assumed that a download program for downloading from the communication network 15 is stored in advance in the apparatus. Alternatively, it is assumed that the apparatus is installed in advance from another external recording medium.
[0117]
Further, what is recorded on the recording medium is not limited to a program, and data can also be recorded.
[0118]
Moreover, each embodiment mentioned above is an illustration in all the points, Comprising: It is not restrictive. The scope of the present invention is defined by the terms of the claims, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
[0119]
【The invention's effect】
As apparent from the above, according to the present invention, the operator inputs handwritten information from the input unit until the desired prediction candidate is displayed on the display unit, and selects the displayed desired prediction candidate. Since the intended handwritten information (characters and graphics) can be input, all of the intended characters and graphics can be input without actually performing handwriting input. Therefore, when the input handwritten information is processed as an image, it is possible to reduce the labor of the operator during handwriting input and greatly improve the input efficiency and operability.
[0120]
Further, even a person who is not good at handwritten illustrations can input complicated elaborate illustrations and the like by simple handwriting input, and a handwritten image rich in expressive power can be created.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of a handwriting input device according to the present invention.
FIG. 2 is a diagram showing a specific hardware configuration of the handwriting input device shown in FIG. 1;
3 is a flowchart of a handwriting input processing operation executed under the control of the CPU in FIG.
FIG. 4 is a diagram illustrating an example of handwritten information prepared in advance in a handwritten information dictionary.
FIG. 5 is a flowchart of a prediction candidate generation processing operation executed in the handwriting input processing operation shown in FIG.
FIG. 6 is a diagram illustrating an example of a search target handwriting and a dictionary entry that are targets of DP matching.
7 is a diagram showing a correspondence relationship between search handwritten information and dictionary entries shown in FIG. 6. FIG.
FIG. 8 is a diagram illustrating an example of search target handwritten information and dictionary entries having different sizes and directions.
FIG. 9 is an explanatory diagram of a case where prediction candidates are generated by matching the size and direction of the dictionary entry with search target handwritten information in FIG. 8;
FIG. 10 is a diagram illustrating an example of displaying a selected prediction candidate in a window.
11 is a diagram showing a display example of prediction candidates different from FIG.
12 is a diagram illustrating an example of a case where the candidate selection unit in FIG. 1 is configured with button areas displayed on the input unit. FIG.
13 is a diagram showing a configuration example of a button area different from FIG.
FIG. 14 is an explanatory diagram for determining the display position of the button area shown in FIG. 13;
FIG. 15 is a diagram illustrating an example of a selection prediction candidate display method;
16 is a diagram showing a method for displaying a selection prediction candidate different from FIG.
FIG. 17 is a diagram illustrating a display example of selected prediction candidates in a case where a prediction candidate from which a portion corresponding to search target handwritten information is deleted is displayed in a window.
FIG. 18 is a diagram illustrating a display example of selected prediction candidates when a prediction candidate including a portion corresponding to search target handwritten information is displayed in accordance with the position, size, and direction of search target handwritten information.
FIG. 19 is a diagram illustrating a display example of selected prediction candidates when a prediction candidate from which a portion corresponding to search target handwritten information is deleted is displayed in accordance with the position, size, and direction of the search handwritten information.
[Explanation of symbols]
1 ... input part,
2 ... storage part,
3 ... candidate generation unit,
4 ... candidate selection part,
5 ... display part,
11 ... Program memory,
12: Data memory,
13 ... Input device,
14 ... display device,
15 ... communication network,
16 ... Communication I / F,
17 ... External recording medium,
18 ... External storage medium driver,
19 ... CPU,
21, 25 ... the characters being input,
22-24, 26-28 ... prediction candidates,
29, 30, 31, 32, 41, 42, 46, 47 ... buttons,
43-45 ... Button area.

Claims (17)

手書きによって文字や図形等の手書き情報が入力される入力部と、
上記入力部から入力された手書き情報に基づいて、入力を意図している手書き情報の予測候補を生成する予測候補生成部と、
上記入力手書き情報および予測候補を表示する表示部と、
操作者によって操作されると共に、上記表示部によって表示された予測候補から所望の予測候補を選択する予測候補選択部
を備えて、
上記表示部は、上記予測候補選択部によって予測候補の選択が行われた場合には、この選択された予測候補を表示するようになっている
ことを特徴とする手書き入力装置。
An input unit for inputting handwritten information such as characters and figures by handwriting;
Based on the handwritten information input from the input unit, a prediction candidate generation unit that generates a prediction candidate of handwritten information intended for input;
A display unit for displaying the input handwritten information and the prediction candidates;
A prediction candidate selection unit that is operated by an operator and that selects a desired prediction candidate from the prediction candidates displayed by the display unit,
The display unit displays the selected prediction candidate when the prediction candidate is selected by the prediction candidate selection unit.
手書きによって文字や図形等の手書き情報が入力される入力部と、
種々の手書き情報が辞書エントリとして登録された手書き情報辞書と、
上記入力部から入力された手書き情報の一部あるいは全てを検索対象手書き情報として、上記手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し、この抽出された辞書エントリから上記検索対象手書き情報に類似している部分を削除することによって入力を意図している手書き情報の予測候補を生成する予測候補生成部と、
上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示部と、
操作者によって操作されると共に、上記表示部によって表示された予測候補から所望の予測候補を選択する予測候補選択部
を備えて、
上記表示部は、上記予測候補選択部によって予測候補の選択が行われた場合には、この選択された予測候補を上記検索対象手書き情報と共に表示するようになっている
ことを特徴とする手書き入力装置。
An input unit for inputting handwritten information such as characters and figures by handwriting;
A handwritten information dictionary in which various handwritten information is registered as a dictionary entry;
A part or all of the handwritten information input from the input unit is used as search target handwritten information, and a dictionary entry whose part is similar to the search target handwritten information is extracted from the handwritten information dictionary, and the extracted dictionary A prediction candidate generation unit that generates a prediction candidate of handwritten information intended to be input by deleting a part similar to the search target handwritten information from the entry;
A display unit for displaying input handwritten information including the search target handwritten information and a prediction candidate;
A prediction candidate selection unit that is operated by an operator and that selects a desired prediction candidate from the prediction candidates displayed by the display unit,
The display unit displays the selected prediction candidate together with the search handwritten information when the prediction candidate is selected by the prediction candidate selection unit. apparatus.
手書きによって文字や図形等の手書き情報が入力される入力部と、
種々の手書き情報が辞書エントリとして登録された手書き情報辞書と、
上記入力部から入力された手書き情報の一部あるいは全てを検索対象手書き情報として、上記手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し、この抽出された辞書エントリに基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成部と、
上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示部と、
操作者によって操作されると共に、上記表示部によって表示された予測候補から所望の予測候補を選択する予測候補選択部
を備えて、
上記表示部は、上記予測候補選択部によって予測候補の選択が行われた場合には、この選択された予測候補から上記検索対象手書き情報に類似している部分を削除して上記検索対象手書き情報と共に表示するようになっている
ことを特徴とする手書き入力装置。
An input unit for inputting handwritten information such as characters and figures by handwriting;
A handwritten information dictionary in which various handwritten information is registered as a dictionary entry;
A part or all of the handwritten information input from the input unit is used as search target handwritten information, and a dictionary entry whose part is similar to the search target handwritten information is extracted from the handwritten information dictionary, and the extracted dictionary A prediction candidate generating unit that generates a prediction candidate of handwritten information intended to be input based on an entry;
A display unit for displaying input handwritten information including the search target handwritten information and a prediction candidate;
A prediction candidate selection unit that is operated by an operator and that selects a desired prediction candidate from the prediction candidates displayed by the display unit,
When the prediction candidate is selected by the prediction candidate selection unit, the display unit deletes a portion similar to the search target handwritten information from the selected prediction candidate, and the search target handwritten information A handwriting input device characterized by being displayed together.
手書きによって文字や図形等の手書き情報が入力される入力部と、
種々の手書き情報が辞書エントリとして登録された手書き情報辞書と、
上記入力部から入力された手書き情報の一部あるいは全てを検索対象手書き情報として、上記手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し、この抽出された辞書エントリに基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成部と、
上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示部と、
操作者によって操作されると共に、上記表示部によって表示された予測候補から所望の予測候補を選択する予測候補選択部
を備えて、
上記表示部は、上記予測候補選択部によって予測候補の選択が行われた場合には、既に表示している上記検索対象手書き情報を非表示状態とした後、上記選択された予測候補を表示するようになっている
ことを特徴とする手書き入力装置。
An input unit for inputting handwritten information such as characters and figures by handwriting;
A handwritten information dictionary in which various handwritten information is registered as a dictionary entry;
A part or all of the handwritten information input from the input unit is used as search target handwritten information, and a dictionary entry whose part is similar to the search target handwritten information is extracted from the handwritten information dictionary, and the extracted dictionary A prediction candidate generating unit that generates a prediction candidate of handwritten information intended to be input based on an entry;
A display unit for displaying input handwritten information including the search target handwritten information and a prediction candidate;
A prediction candidate selection unit that is operated by an operator and that selects a desired prediction candidate from the prediction candidates displayed by the display unit,
When the prediction candidate is selected by the prediction candidate selection unit, the display unit displays the selected prediction candidate after the search handwritten information already displayed is hidden. A handwriting input device characterized by the above.
請求項2乃至請求項4の何れか一つに記載の手書き入力装置において、
上記予測候補生成部は、上記検索対象手書き情報のサイズおよび方向と、上記抽出された辞書エントリにおける上記検索対象手書き情報に類似している部分のサイズおよび方向とが一致するように、当該辞書エントリ全体のサイズおよび方向を変更した後に、この全体のサイズおよび方向が変更された当該辞書エントリに基づいて上記予測候補を生成するようになっている
ことを特徴とする手書き入力装置。
The handwriting input device according to any one of claims 2 to 4,
The prediction candidate generation unit is configured so that the size and direction of the search target handwritten information matches the size and direction of a portion similar to the search target handwritten information in the extracted dictionary entry. A handwriting input device configured to generate the prediction candidate based on the dictionary entry in which the overall size and direction are changed after changing the overall size and direction.
請求項5に記載の手書き入力装置において、
上記表示部は、上記予測候補生成部によって生成された予測候補を表示する場合には、当該予測候補における上記検索対象手書き情報に類似している部分の位置あるいは上記部分が存在していた位置が、上記検索対象手書き情報の位置に合うように表示するようになっている
ことを特徴とする手書き入力装置。
The handwriting input device according to claim 5,
When the display unit displays the prediction candidate generated by the prediction candidate generation unit, the position of the part similar to the search target handwritten information in the prediction candidate or the position where the part existed is displayed. A handwriting input device, wherein the handwriting input device is adapted to display so as to match the position of the search target handwritten information.
請求項2乃至請求項4の何れか一つに記載の手書き入力装置において、
上記表示部は、上記予測候補選択部によって選択された予測候補を表示する場合には、当該選択予測候補の生成に用いられた辞書エントリにおける上記検索対象手書き情報に類似している部分のサイズおよび方向の上記検索対象手書き情報のサイズおよび方向に対するずれの度合を求め、このずれの度合に応じて当該選択予測候補全体のサイズおよび方向を変更した後に、当該選択予測候補における上記検索対象手書き情報に類似している部分の位置あるいは上記部分が存在していた位置が、上記検索対象手書き情報の位置に合うように表示するようになっている
ことを特徴とする手書き入力装置。
The handwriting input device according to any one of claims 2 to 4,
When the display unit displays the prediction candidate selected by the prediction candidate selection unit, the size of the portion similar to the search target handwritten information in the dictionary entry used for generating the selected prediction candidate and After obtaining the degree of deviation of the direction with respect to the size and direction of the search target handwritten information, and changing the size and direction of the entire selection prediction candidate according to the degree of deviation, the search target handwritten information in the selection prediction candidate A handwriting input device, wherein a position of a similar part or a position where the part was present is displayed so as to match a position of the search target handwritten information.
請求項1乃至請求項4の何れか一つに記載の手書き入力装置において、
上記表示部は、上記予測候補を、上記入力手書き情報とは異なる表示形態で表示するようになっている
ことを特徴とする手書き入力装置。
The handwriting input device according to any one of claims 1 to 4,
The said display part displays the said prediction candidate by the display form different from the said input handwritten information, The handwriting input apparatus characterized by the above-mentioned.
請求項1乃至請求項4の何れか一つに記載の手書き入力装置において、
上記予測候補選択部は、上記表示部によって上記予測候補の近傍に表示されたボタンあるいはメニューで構成されている
ことを特徴とする手書き入力装置。
The handwriting input device according to any one of claims 1 to 4,
The handwriting input device, wherein the prediction candidate selection unit includes a button or a menu displayed in the vicinity of the prediction candidate by the display unit.
請求項1乃至請求項4の何れか一つに記載の手書き入力装置において、
上記予測候補選択部は、上記表示部によって上記検索対象手書き情報の筆記終了点の近傍に表示されたボタンあるいはメニューで構成されている
ことを特徴とする手書き入力装置。
The handwriting input device according to any one of claims 1 to 4,
The said prediction candidate selection part is comprised by the button or menu displayed on the vicinity of the writing end point of the said search object handwritten information by the said display part, The handwriting input apparatus characterized by the above-mentioned.
請求項1乃至請求項4の何れか一つに記載の手書き入力装置において、
上記予測候補選択部は、上記表示部によって上記予測候補の筆記終了点の近傍に表示されたボタンあるいはメニューで構成されている
ことを特徴とする手書き入力装置。
The handwriting input device according to any one of claims 1 to 4,
The handwriting input device, wherein the prediction candidate selection unit includes a button or a menu displayed by the display unit in the vicinity of a writing end point of the prediction candidate.
手書きによって文字や図形等の手書き情報を入力する入力ステップと、
上記入力された手書き情報に基づいて、入力を意図している手書き情報の予測候補を生成する予測候補生成ステップと、
上記入力手書き情報および予測候補を表示する表示ステップと、
上記表示された予測候補から所望の予測候補を選択する予測候補選択ステップと、
上記選択された予測候補を表示する選択予測候補表示ステップ
を有することを特徴とする手書き入力方法。
An input step for inputting handwritten information such as characters and figures by handwriting;
Based on the input handwritten information, a prediction candidate generating step for generating a prediction candidate for handwritten information intended for input;
A display step for displaying the input handwritten information and the prediction candidates;
A prediction candidate selection step of selecting a desired prediction candidate from the displayed prediction candidates;
A handwriting input method comprising a selected prediction candidate display step for displaying the selected prediction candidate.
手書きによって文字や図形等の手書き情報を入力する入力ステップと、
上記入力された手書き情報の一部あるいは全てを検索対象手書き情報として、手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し、この抽出された辞書エントリから上記検索対象手書き情報に類似している部分を削除することによって入力を意図している手書き情報の予測候補を生成する予測候補生成ステップと、
上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示ステップと、
上記表示された予測候補から所望の予測候補を選択する予測候補選択ステップと、
上記選択された予測候補を上記検索対象手書き情報と共に表示する選択予測候補表示ステップ
を有することを特徴とする手書き入力方法。
An input step for inputting handwritten information such as characters and figures by handwriting;
Using part or all of the input handwritten information as search target handwritten information, a dictionary entry partly similar to the search target handwritten information is extracted from the handwritten information dictionary, and the search is performed from the extracted dictionary entry. A prediction candidate generation step of generating a prediction candidate of handwritten information intended to be input by deleting a portion similar to the target handwritten information;
A display step for displaying input handwritten information including the search target handwritten information and a prediction candidate;
A prediction candidate selection step of selecting a desired prediction candidate from the displayed prediction candidates;
A handwritten input method comprising: a selected prediction candidate display step for displaying the selected prediction candidate together with the search target handwritten information.
手書きによって文字や図形等の手書き情報を入力する入力ステップと、
上記入力された手書き情報の一部あるいは全てを検索対象手書き情報として、手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し、この抽出された辞書エントリに基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成ステップと、
上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示ステップと、
上記表示された予測候補から所望の予測候補を選択する予測候補選択ステップと、
上記選択された予測候補から上記検索対象手書き情報に類似している部分を削除して上記検索対象手書き情報と共に表示する選択予測候補表示ステップ
を有することを特徴とする手書き入力方法。
An input step for inputting handwritten information such as characters and figures by handwriting;
Based on the extracted dictionary entry, a part or all of the input handwritten information is used as search target handwritten information, and a dictionary entry partly similar to the search target handwritten information is extracted from the handwritten information dictionary. A prediction candidate generation step for generating a prediction candidate of handwritten information intended for input;
A display step for displaying input handwritten information including the search target handwritten information and a prediction candidate;
A prediction candidate selection step of selecting a desired prediction candidate from the displayed prediction candidates;
A handwriting input method comprising: a selection prediction candidate display step of deleting a portion similar to the search target handwritten information from the selected prediction candidate and displaying it together with the search target handwritten information.
手書きによって文字や図形等の手書き情報を入力する入力ステップと、
上記入力された手書き情報の一部あるいは全てを検索対象手書き情報として、手書き情報辞書から上記検索対象手書き情報と一部が類似している辞書エントリを抽出し、この抽出された辞書エントリに基づいて入力を意図している手書き情報の予測候補を生成する予測候補生成ステップと、
上記検索対象手書き情報を含む入力手書き情報および予測候補を表示する表示ステップと、
上記表示された予測候補から所望の予測候補を選択する予測候補選択ステップと、
既に表示されている上記検索対象手書き情報を非表示状態とした後、上記選択された予測候補を表示する選択予測候補表示ステップ
を有することを特徴とする手書き入力方法。
An input step for inputting handwritten information such as characters and figures by handwriting;
Based on the extracted dictionary entry, a part or all of the input handwritten information is used as search target handwritten information, and a dictionary entry partly similar to the search target handwritten information is extracted from the handwritten information dictionary. A prediction candidate generation step for generating a prediction candidate of handwritten information intended for input;
A display step for displaying input handwritten information including the search target handwritten information and a prediction candidate;
A prediction candidate selection step of selecting a desired prediction candidate from the displayed prediction candidates;
A handwriting input method comprising: a selection prediction candidate display step for displaying the selected prediction candidate after the search target handwritten information already displayed is hidden.
コンピュータを、
請求項1乃至請求項4の何れか一つにおける上記入力部,予測候補生成部,表示部および予測候補選択部
として機能させることを特徴とする手書き入力プログラム。
Computer
A handwriting input program that functions as the input unit, the prediction candidate generation unit, the display unit, and the prediction candidate selection unit according to any one of claims 1 to 4.
請求項16に記載の手書き入力プログラムが記録されたことを特徴とするコンピュータ読出し可能なプログラム記録媒体。A computer-readable program recording medium on which the handwriting input program according to claim 16 is recorded.
JP2003191169A 2003-07-03 2003-07-03 Handwriting input device, method and program, and program recording medium Pending JP2005025566A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003191169A JP2005025566A (en) 2003-07-03 2003-07-03 Handwriting input device, method and program, and program recording medium
PCT/JP2004/009767 WO2005004041A1 (en) 2003-07-03 2004-07-02 Handwritten information input device, handwritten information input method, handwritten information input program, and program recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003191169A JP2005025566A (en) 2003-07-03 2003-07-03 Handwriting input device, method and program, and program recording medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005106332A Division JP4393415B2 (en) 2005-04-01 2005-04-01 Handwriting input device, handwriting input program, and program recording medium

Publications (1)

Publication Number Publication Date
JP2005025566A true JP2005025566A (en) 2005-01-27

Family

ID=33562350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003191169A Pending JP2005025566A (en) 2003-07-03 2003-07-03 Handwriting input device, method and program, and program recording medium

Country Status (2)

Country Link
JP (1) JP2005025566A (en)
WO (1) WO2005004041A1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100983194B1 (en) 2010-03-18 2010-09-20 김진욱 Text input method using a touch screen and a device for the same
WO2011115313A1 (en) * 2010-03-18 2011-09-22 Kim Jin-Wook Method and device for inputting characters using a touch screen
JP2013025390A (en) * 2011-07-15 2013-02-04 Metamoji Corp Handwriting input method
WO2015015644A1 (en) 2013-08-02 2015-02-05 株式会社 東芝 Electronic device, method, and program
CN104508683A (en) * 2012-09-25 2015-04-08 株式会社东芝 Handwriting input support apparatus and method
WO2015083290A1 (en) * 2013-12-06 2015-06-11 株式会社 東芝 Electronic device and method for processing handwritten document information
WO2015136618A1 (en) * 2014-03-11 2015-09-17 株式会社 東芝 Electronic device, method, and program
JP2015179529A (en) * 2015-05-13 2015-10-08 株式会社東芝 Electronic device, method and program
JP2015179329A (en) * 2014-03-18 2015-10-08 株式会社東芝 Electronic apparatus and method
CN105094381A (en) * 2015-07-21 2015-11-25 网易(杭州)网络有限公司 Writing processing method and device
US9298366B2 (en) 2014-03-28 2016-03-29 Kabushiki Kaisha Toshiba Electronic device, method and computer readable medium
US9606981B2 (en) 2013-11-08 2017-03-28 Kabushiki Kaisha Toshiba Electronic apparatus and method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103049204A (en) * 2012-12-17 2013-04-17 上海海知信息技术有限公司 Method for moving cursor on handwriting image, input method and input system
CN103218153A (en) * 2012-12-17 2013-07-24 上海海知信息技术有限公司 Method for line feed operation on handwriting images

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02186491A (en) * 1989-01-13 1990-07-20 Toshiba Corp Character graphic recognizing device
JPH07225663A (en) * 1994-02-09 1995-08-22 Fujitsu Ltd Handwritten information input device
JPH08106513A (en) * 1994-10-07 1996-04-23 Pfu Ltd Hand-written character recognition device
JPH096893A (en) * 1995-06-19 1997-01-10 Canon Inc Processor and method for image processing
JP3356639B2 (en) * 1996-11-26 2002-12-16 シャープ株式会社 Data processing device
JPH10214267A (en) * 1997-01-29 1998-08-11 Sharp Corp Handwritten character and symbol processor and medium recording control program for the processor
JP3660943B2 (en) * 1998-08-27 2005-06-15 カシオ計算機株式会社 Image search apparatus and image search method
JP2000148794A (en) * 1998-08-31 2000-05-30 Canon Inc Device and method for image retrieval and computer- readable memory

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011115313A1 (en) * 2010-03-18 2011-09-22 Kim Jin-Wook Method and device for inputting characters using a touch screen
KR100983194B1 (en) 2010-03-18 2010-09-20 김진욱 Text input method using a touch screen and a device for the same
JP2013025390A (en) * 2011-07-15 2013-02-04 Metamoji Corp Handwriting input method
CN104508683A (en) * 2012-09-25 2015-04-08 株式会社东芝 Handwriting input support apparatus and method
JP5813780B2 (en) * 2013-08-02 2015-11-17 株式会社東芝 Electronic device, method and program
WO2015015644A1 (en) 2013-08-02 2015-02-05 株式会社 東芝 Electronic device, method, and program
US9274704B2 (en) 2013-08-02 2016-03-01 Kabushiki Kaisha Toshiba Electronic apparatus, method and storage medium
JPWO2015015644A1 (en) * 2013-08-02 2017-03-02 株式会社東芝 Electronic device, method and program
US9606981B2 (en) 2013-11-08 2017-03-28 Kabushiki Kaisha Toshiba Electronic apparatus and method
WO2015083290A1 (en) * 2013-12-06 2015-06-11 株式会社 東芝 Electronic device and method for processing handwritten document information
JPWO2015083290A1 (en) * 2013-12-06 2017-03-16 株式会社東芝 Electronic device and method for processing handwritten document information
WO2015136618A1 (en) * 2014-03-11 2015-09-17 株式会社 東芝 Electronic device, method, and program
JP6010253B2 (en) * 2014-03-11 2016-10-19 株式会社東芝 Electronic device, method and program
JP2015179329A (en) * 2014-03-18 2015-10-08 株式会社東芝 Electronic apparatus and method
US9298366B2 (en) 2014-03-28 2016-03-29 Kabushiki Kaisha Toshiba Electronic device, method and computer readable medium
JP2015179529A (en) * 2015-05-13 2015-10-08 株式会社東芝 Electronic device, method and program
CN105094381A (en) * 2015-07-21 2015-11-25 网易(杭州)网络有限公司 Writing processing method and device
CN105094381B (en) * 2015-07-21 2018-01-09 网易(杭州)网络有限公司 One kind writing treating method and apparatus

Also Published As

Publication number Publication date
WO2005004041A1 (en) 2005-01-13

Similar Documents

Publication Publication Date Title
US20210406578A1 (en) Handwriting-based predictive population of partial virtual keyboards
JP4560062B2 (en) Handwriting determination apparatus, method, and program
JP4393415B2 (en) Handwriting input device, handwriting input program, and program recording medium
JP4241883B2 (en) Text input device and method
CN114365075B (en) Method for selecting a graphical object and corresponding device
JP2002203208A (en) Device, method and program for recognizing on-line character and computer readable storage medium
JPH09190505A (en) Device for recognizing character and its method
JP2001005599A (en) Information processor and information processing method an d recording medium recording information processing program
JP2005025566A (en) Handwriting input device, method and program, and program recording medium
JP3292752B2 (en) Gesture processing device and gesture processing method
JPH08305821A (en) Method and device for data processing
US20080120540A1 (en) System And Method For Inputting Syllables Into A Computer
JP2003196593A (en) Character recognizer, method and program for recognizing character
JP4312429B2 (en) Handwriting input device and method, handwriting input program, and program recording medium
KR100349887B1 (en) Handwriting Recognition System and the Method for Information Unit
JP3893013B2 (en) Character recognition method, computer-readable recording medium on which character recognition program is recorded, and character recognition device
JP4207089B2 (en) Text input device and method
JP2989084B2 (en) Information processing device
JP2002342320A (en) Device and method for inputting sentence
JP4148867B2 (en) Handwriting processor
JP2006302318A (en) Text input device and method
JPH0744655A (en) Handwritten input display device
JP3591319B2 (en) Character input device
JPH08212306A (en) Handwriting data thinning-out method, dictionary generating method, and character recognition device
JP2021043713A (en) Character input device, character input method, and handwriting input program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041018

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050401

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050620

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20050722