JPH0444313B2 - - Google Patents

Info

Publication number
JPH0444313B2
JPH0444313B2 JP57104744A JP10474482A JPH0444313B2 JP H0444313 B2 JPH0444313 B2 JP H0444313B2 JP 57104744 A JP57104744 A JP 57104744A JP 10474482 A JP10474482 A JP 10474482A JP H0444313 B2 JPH0444313 B2 JP H0444313B2
Authority
JP
Japan
Prior art keywords
character
input
candidate
recognition
characters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP57104744A
Other languages
Japanese (ja)
Other versions
JPS58222379A (en
Inventor
Eiichiro Yamamoto
Hiroshi Kamata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP57104744A priority Critical patent/JPS58222379A/en
Publication of JPS58222379A publication Critical patent/JPS58222379A/en
Publication of JPH0444313B2 publication Critical patent/JPH0444313B2/ja
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Character Discrimination (AREA)

Description

【発明の詳細な説明】 (1) 発明の技術分野 本発明は文字認識修正処理方式、特に例えば光
学的手段によつて入力した文字を認識する文字認
識装置において、表示した認識結果が誤つている
場合に、指定された文字に対する正しい読みを入
力することによつて候補カテゴリの上位のものか
ら順次その読みに一致する文字を表示し、それを
選別することによつてリジエクト・誤読文字の修
正が可能とされた文字認識修正処理方式に関する
ものである。
[Detailed Description of the Invention] (1) Technical Field of the Invention The present invention relates to a character recognition correction processing method, particularly a character recognition device that recognizes characters input by optical means, when the displayed recognition result is incorrect. By inputting the correct pronunciation for a specified character, characters that match the pronunciation are displayed in order from the top candidates in the candidate category, and by selecting them, rejects and misread characters can be corrected. This paper relates to a character recognition correction processing method that has been made possible.

(2) 従来技術と問題点 一般に文字認識装置においては、観測部から入
力した文字の特徴を抽出し、その特徴と認識辞書
に予め登録された各カテゴリの標準特徴との距離
を計算して、距離の小さいものを認識結果とす
る。この認識辞書との照合によつて、例えば2000
カテゴリを20個位の候補カテゴリに絞るとする
と、正しい入力文字がその候補に含まれる割合が
99%以上になる例もある。しかし、標準特徴との
距離の最小のものを1つだけ選別した場合には、
特に手書き漢字のような場合、正答率は落ちるこ
ととなる。
(2) Prior art and problems In general, character recognition devices extract features of characters input from an observation unit, calculate the distance between those features and standard features of each category registered in advance in a recognition dictionary, and The recognition result is the one with the smallest distance. By checking with this recognition dictionary, for example, 2000
If you narrow down the categories to about 20 candidate categories, the percentage of candidates that contain the correct input character is
In some cases, it is over 99%. However, if only one feature with the minimum distance from the standard feature is selected,
In particular, when it comes to handwritten kanji, the rate of correct answers decreases.

表示された認識結果が誤つている場合には、操
作者は何らかの手段によつて修正しなければなら
ないが、従来、この修正のために、例えば認識結
果のすべての候補カテゴリをデイスプレイ上に表
示して、いわゆるメニユー方式により、ライトペ
ンまたはキーボードから正しい文字をポイントし
て修正するような方式、あるいは候補カテゴリと
は無関係にキーボード等で正しいカテゴリを指定
する方式が用いられている。
If the displayed recognition result is incorrect, the operator must correct it by some means, but conventionally, for this correction, for example, all candidate categories of the recognition result are displayed on the display. Therefore, a so-called menu method is used in which corrections are made by pointing at the correct character with a light pen or keyboard, or a method in which the correct category is specified with a keyboard or the like regardless of candidate categories.

このような従来の方式によれば、漢字のように
字種の多い場合には、チエツクすべき候補のカテ
ゴリが多く修正操作が極めて煩雑になるという欠
点があつた。例えば、「情」という漢字と、「惰」
という漢字とは区別して認識することが難しく、
これらが候補カテゴリとしてデイスプレイ上に表
示された場合、入間の目にとつても判別がなかな
か難しく、修正のための作業時間が長くかかるこ
ととなる。
This conventional method has the disadvantage that when there are many types of characters, such as Chinese characters, there are many candidate categories to be checked, making the correction operation extremely complicated. For example, the kanji ``jo'' and ``indo''
It is difficult to distinguish and recognize it from the kanji,
When these are displayed as candidate categories on the display, it is very difficult for Iruma's eyes to distinguish them, and it takes a long time to make corrections.

(3) 発明の目的と構成 本発明は上記問題点の解決を図り、候補カテゴ
リを減小させ、修正操作を容易にすることを目的
としている。そのため、本発明は文字の読みを入
力して、文字の読みの辞書と認識の候補カテゴリ
とを利用することによつて、候補カテゴリを特定
し、リジエクト・誤読文字の修正作業が容易にな
るようにしたものである。すなわち、本発明の文
字認識修正処理方式は、少なくとも文字図形を入
力する観測部と、該観測部によつて入力された文
字図形から入力文字の特徴を抽出する特徴抽出部
と、予め各カテゴリ毎に標準特徴が格納されてい
る認識辞書と、上記特徴抽出部が抽出した特徴と
上記認識辞書から読み出した標準特徴とを対照す
ることにより入力文字のいくつかの候補カテゴリ
を選別する識別部と、認識結果を表示する表示部
とをそなえた文字認識装置において、上記識別部
が選別したいくつかの候補カテゴリを少なくとも
修正操作が完了するまで蓄積する手段と、上記認
識辞書に登録されたカテゴリに対応される文字の
読みの情報を記憶している読み辞書と、認識候補
結果の修正時に、上記入力文字の正しい読みを認
識処理を用いずに直接入力する入力手段と、該入
力手段から入力した読みに対応して上記読み辞書
から読み出された文字コード群と上記選別され蓄
積された候補カテゴリ群とのマツチングをとるこ
とにより上記候補カテゴリを特定する修正手段と
をそなえ、表示された認識結果のリジエクト・誤
読文字の修正が可能とされたことを特徴としてい
る。以下図面を参照しつつ実施例にもとづいて説
明する。
(3) Object and Structure of the Invention The present invention aims to solve the above problems, reduce the number of candidate categories, and facilitate modification operations. Therefore, the present invention inputs character readings and uses a dictionary of character readings and recognition candidate categories to identify candidate categories and facilitate the work of correcting rejects and misread characters. This is what I did. That is, the character recognition correction processing method of the present invention includes at least an observation unit that inputs character figures, a feature extraction unit that extracts features of input characters from the character figures input by the observation unit, and a feature extraction unit that extracts features of input characters from character figures input by the observation unit. a recognition dictionary in which standard features are stored; an identification unit that selects several candidate categories of input characters by comparing the features extracted by the feature extraction unit and the standard features read from the recognition dictionary; In a character recognition device comprising a display unit for displaying recognition results, means for accumulating several candidate categories selected by the identification unit at least until a correction operation is completed, and corresponding to the categories registered in the recognition dictionary. a pronunciation dictionary that stores information on pronunciations of characters to be input; an input means for directly inputting the correct pronunciation of the input character without using recognition processing when correcting recognition candidate results; and pronunciations input from the input means. and a correction means for specifying the candidate category by matching the character code group read from the reading dictionary with the selected and accumulated candidate category group in response to the displayed recognition result. It is characterized by the ability to correct rejected and misread characters. Embodiments will be described below with reference to the drawings.

(4) 発明の実施例 第1図は本発明の一実施例の処理概念を説明す
るための説明図、第2図は本発明の一実施例構成
ブロツク図、第3図は本発明の一実施例による文
字の修正態様説明図を示す。
(4) Embodiments of the Invention Fig. 1 is an explanatory diagram for explaining the processing concept of an embodiment of the present invention, Fig. 2 is a block diagram of the configuration of an embodiment of the invention, and Fig. 3 is an illustration of the processing concept of an embodiment of the invention. An explanatory diagram of a character correction mode according to an embodiment is shown.

図中、1は文字図形を光学的手段によつて入力
する観測部、2は入力文字の特徴を抽出する特徴
抽出部、3は各カテゴリ毎に標準特徴が登録され
ている認識辞書、4は候補カテゴリを選別する識
別部、5は識別部4が選別した候補カテゴリを蓄
積する候補カテゴリバツフア、6は認識結果を修
正する制御を行なう修正制御部、7は文字の読み
の辞書、8は例えばCRTデイスプレイ等の認識
結果の表示部、9は修正情報を入力する入力部を
表わす。
In the figure, 1 is an observation unit that inputs character shapes by optical means, 2 is a feature extraction unit that extracts features of input characters, 3 is a recognition dictionary in which standard features are registered for each category, and 4 is a recognition dictionary in which standard features are registered for each category. 5 is a candidate category buffer that stores the candidate categories selected by the identification unit 4; 6 is a modification control unit that performs control to modify the recognition results; 7 is a dictionary of character readings; 8 is a For example, there is a display section such as a CRT display for displaying recognition results, and numeral 9 indicates an input section for inputting correction information.

まず第1図によつて、本発明による処理の概要
を簡単に説明する。例えば、第1図図示の如く、
正しくは「話」という文字が入力されたとする。
そのとき、候補カテゴリが、「認、読、話、説、
誤」と5文字あり、その中の「認」が標準特徴と
の距離が最も小さいとすれば、とりあえず候補認
識結果として「認」の文字を表示する。オペレー
タは修正する場合、入力文字の読み「ワ」を入力
すればよい。候補カテゴリの中の文字「話」が特
定されて取り出され、修正されることとなる。例
えば同音異字がある場合であつても、候補カテゴ
リの数が減小するので修正が容易となるが、さら
に音読みと訓読みとを併用することができるよう
にしてもよい。
First, an overview of the processing according to the present invention will be briefly explained with reference to FIG. For example, as shown in Figure 1,
Suppose that the correct word "story" is input.
At that time, the candidate categories are “recognition, reading, story, theory,”
If there are five characters such as ``wrong'' and ``recognized'' among them has the smallest distance from the standard feature, the character ``recognized'' is displayed as a candidate recognition result for the time being. When the operator wants to make a correction, he or she only needs to input the reading of the input character, ``wa''. The character "story" in the candidate category will be identified, extracted, and modified. For example, even if there are homonyms, the number of candidate categories is reduced, making correction easier, but it may also be possible to use on-yomi and kun-yomi together.

なお、例えば入力文字から抽出した特徴と、い
くつか候補カテゴリとして選別された標準特徴と
の距離が、どれも所定の閾値より大きく、最も距
離の小さいものを候補認識結果としても誤読の可
能性が非常に大きいときには、それをリジエクト
文字として扱うことがある。誤読文字に限らず、
このようなリジエクト文字についても、候補カテ
ゴリを保存しておくことにより、読みの入力によ
る修正の容易化が可能である。
Note that, for example, if the distance between a feature extracted from an input character and some standard features selected as candidate categories are all greater than a predetermined threshold, there is a possibility of misreading even if the candidate recognition result is the one with the smallest distance. If it is very large, it may be treated as a reject character. Not limited to misread characters,
By storing candidate categories for such reject characters, it is possible to easily modify them by inputting their readings.

第2図において、観測部1は文字の書かれた用
紙を走査し、読取り光電変換して、その入力情報
を特徴抽出部2に転送する。特徴抽出部2は入力
された文字図形の情報から文字の特徴を抽出す
る。この特徴の抽出は、必ずしも1種類に限られ
るわけではなく、通常種々の観点から複数の特徴
が抽出される。この抽出結果は識別部4に通知さ
れる。
In FIG. 2, an observation section 1 scans a sheet of paper with characters written on it, performs reading and photoelectric conversion, and transfers the input information to a feature extraction section 2. The feature extraction unit 2 extracts character features from input character/graphic information. The extraction of this feature is not necessarily limited to one type, but usually a plurality of features are extracted from various viewpoints. This extraction result is notified to the identification unit 4.

一方、認識辞書3には、予め各カテゴリ毎に標
準特徴が格納されており、識別部4は認識辞書3
から読み出した標準特徴と、特徴抽出部2が抽出
した入力文字の特徴との距離を演算することによ
つて、その距離が所定の範囲内にあるものを候補
カテゴリとして選択する。すなわち、入力文字に
近い候補カテゴリが複数個選択されることとな
る。そして選択した候補カテゴリを候補カテゴリ
バツフア5に格納し、蓄積する。
On the other hand, the recognition dictionary 3 stores standard features for each category in advance, and the identification unit 4 stores standard features in the recognition dictionary 3 in advance.
By calculating the distance between the standard feature read from the input character and the feature of the input character extracted by the feature extraction unit 2, those whose distance is within a predetermined range are selected as candidate categories. That is, a plurality of candidate categories close to the input character are selected. Then, the selected candidate category is stored and accumulated in the candidate category buffer 5.

例えば、候補カテゴリバツフア5としては、表
示部8によつて表示される1画面分の文字の候補
がすべて格納できる程度の容量が用意される。修
正制御部6は、特に指示がない場合には候補カテ
ゴリバツフア5に蓄積された最も上位のカテゴリ
の文字、すなわち上記特徴量の距離が小さいもの
を表示部8に表示する。
For example, the candidate category buffer 5 is provided with a capacity large enough to store all character candidates for one screen displayed by the display section 8. If there is no particular instruction, the modification control section 6 displays, on the display section 8, the characters of the highest category accumulated in the candidate category buffer 5, that is, the characters with the shortest distance between the feature amounts.

オペレータは表示部8は見て、ライトペンある
いはカーソルを用いることにより、リジエクト文
字あるいは誤読文字を指定し、入力部9から入力
文字の正しい読みを入力する。読み辞書7には、
文字の読みに対応する文字コードが格納されてお
り、修正制御部6は読み辞書7から指定された読
みの文字コードを拾い出す。例えば、読みが
「ワ」の場合には、「我、環、輪、倭、和、話」等
の文字コードが拾い出されることになる。この読
みの候補のうち、候補カテゴリバツフア5に蓄積
されているものがあれば、候補カテゴリバツフア
5に蓄積されている順に、表示部8の指定された
文字位置に表示する。もし、これ以外に認識の候
補の中に読みの候補が含まれていれば、入力部9
の特定のキーを操作することによつて、2番目の
候補が表示される。このようにして正解の文字が
表示されるまで操作を繰り返して、修正が終了す
る。読みの候補によつて、認識の候補が限定され
るので迅速に修正することが可能になる。
The operator looks at the display section 8, uses a light pen or a cursor to specify a reject character or a misread character, and inputs the correct reading of the input character from the input section 9. In reading dictionary 7,
Character codes corresponding to the readings of characters are stored, and the correction control unit 6 picks up the character code of the specified reading from the reading dictionary 7. For example, if the reading is "wa", character codes such as "wa, ring, ring, wa, sum, story" will be picked up. If any of these pronunciation candidates are stored in the candidate category buffer 5, they are displayed at designated character positions on the display section 8 in the order in which they are stored in the candidate category buffer 5. If other reading candidates are included in the recognition candidates, input section 9
By operating a specific key, the second candidate is displayed. The operation is repeated in this manner until the correct letter is displayed, and the correction is completed. The pronunciation candidates limit the recognition candidates, making it possible to make quick corrections.

第3図において、符号10はデイスプレイの表
示画面、11はキーボード、12はカーソルを表
わす。例えば、第3図A図示の如く、最初の認識
結果が、デイスプレイの表示画面10に表示され
たとする。オペレータは、例えばキーボード11
のカーソル移動キーを押下することによつて、第
3図B図示の如く、カーソル12を修正したい文
字位置に合わせる。そこで、例えばキーボード1
1から「ワ」のカナ文字キーを押下して読みを入
力すると、第3図C図示の如く、候補カテゴリの
中から「話」を選択して、デイスプレイの表示画
面10に表示し、認識結果が修正できることとな
る。
In FIG. 3, reference numeral 10 represents a display screen, 11 represents a keyboard, and 12 represents a cursor. For example, assume that the first recognition result is displayed on the display screen 10 as shown in FIG. 3A. The operator uses the keyboard 11, for example.
By pressing the cursor movement key, the cursor 12 is positioned at the character position to be corrected, as shown in FIG. 3B. So, for example, keyboard 1
When you press the kana character key from 1 to ``wa'' to input the pronunciation, ``story'' is selected from the candidate categories and displayed on the display screen 10 of the display, as shown in Figure 3C, and the recognition result is displayed. can be corrected.

なお、上記第2図で説明した実施例において
は、認識辞書3と読み辞書7とを別に設けている
が、認識辞書3の各カテゴリ毎に標準特徴ととも
にその読み情報をも格納するようにし、認識辞書
3と読み辞書7とを一体化して構成してもよく、
この場合も本発明に含まれることは言うまでもな
い。
In the embodiment described in FIG. 2 above, the recognition dictionary 3 and the reading dictionary 7 are provided separately, but the reading information is also stored together with the standard features for each category of the recognition dictionary 3. The recognition dictionary 3 and the reading dictionary 7 may be integrated and configured,
It goes without saying that this case is also included in the present invention.

(5) 発明の効果 以上説明した如く本発明によれば、リジエク
ト・誤読文字を、読みを入力することにより修正
できるので、文字修正の操作を容易にすることが
できる。特に、文字認識装置が誤つて認識するよ
うな文字は候補カテゴリの数が多く、文字構成も
難解な場合が多いので、人間が目でみても直ちに
は判別が困難である。このときに、本発明によれ
ば視覚と無関係な読みによつて、候補カテゴリの
1つを特定し、あるいは少数に限定できるので、
実際の使用上の効果は非常に大きい。
(5) Effects of the Invention As described above, according to the present invention, rejected or misread characters can be corrected by inputting their pronunciations, thereby facilitating the character correction operation. In particular, characters that are incorrectly recognized by a character recognition device have a large number of candidate categories and often have difficult to understand character structures, so it is difficult for humans to immediately distinguish them even when looking at the characters. At this time, according to the present invention, one of the candidate categories can be identified or limited to a small number by reading unrelated to vision.
The effect in actual use is very large.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例の処理概念を説明す
るための説明図、第2図は本発明の一実施例構成
ブロツク図、第3図は本発明の一実施例による文
字の修正態様説明図を示す。 図中、1は観測部、2は特徴抽出部、3は認識
辞書、4は識別部、5は候補カテゴリバツフア、
6は修正制御部、7は読み辞書、8は表示部、9
は入力部を表わす。
FIG. 1 is an explanatory diagram for explaining the processing concept of an embodiment of the present invention, FIG. 2 is a block diagram of the configuration of an embodiment of the present invention, and FIG. 3 is a mode of character correction according to an embodiment of the present invention. An explanatory diagram is shown. In the figure, 1 is an observation unit, 2 is a feature extraction unit, 3 is a recognition dictionary, 4 is an identification unit, 5 is a candidate category buffer,
6 is a correction control unit, 7 is a reading dictionary, 8 is a display unit, 9
represents the input section.

Claims (1)

【特許請求の範囲】 1 少なくとも文字図形を入力する観測部と、該
観測部によつて入力された文字図形から入力文字
の特徴を抽出する特徴抽出部と、予め各カテゴリ
毎に標準特徴が格納されている認識辞書と、上記
特徴抽出部が抽出した特徴と上記認識辞書から読
み出した標準特徴とを対照することにより入力文
字のいくつかの候補カテゴリを選別する識別部
と、認識結果を表示する表示部とをそなえた文字
認識装置において、 上記識別部が選別したいくつかの候補カテゴリ
を少なくとも修正操作が完了するまで蓄積する手
段と、 上記認識辞書に登録されたカテゴリに対応され
る文字の読みの情報を記憶している読み辞書と、 候補認識結果の修正時に、上記入力文字の正し
い読みを入力する入力手段と、 該入力手段から入力した読みに対応して上記読
み辞書から読み出された文字コード群と上記選別
され蓄積された候補カテゴリ群とのマツチングを
とることにより上記候補カテゴリを特定する修正
手段とをそなえ、 表示された認識結果のリジエクト文字または誤
読文字の修正が行われるように構成されたことを
特徴とする文字認識修正処理方式。
[Claims] 1. At least an observation unit that inputs character figures, a feature extraction unit that extracts features of input characters from the character figures input by the observation unit, and standard features stored in advance for each category. an identification unit that selects several candidate categories of input characters by comparing the features extracted by the feature extraction unit with the standard features read from the recognition dictionary, and displays the recognition results; a character recognition device comprising: a display section; means for accumulating several candidate categories selected by the identification section at least until a correction operation is completed; and a character recognition device having a display section; an input means for inputting the correct pronunciation of the input character when correcting candidate recognition results; and an input means for inputting the correct pronunciation of the input character when correcting the candidate recognition results; A correction means is provided for identifying the candidate category by matching the character code group with the candidate category group selected and accumulated, so that reject characters or misread characters in the displayed recognition results are corrected. A character recognition correction processing method characterized by being configured.
JP57104744A 1982-06-18 1982-06-18 Processing system of correction of character recognition Granted JPS58222379A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP57104744A JPS58222379A (en) 1982-06-18 1982-06-18 Processing system of correction of character recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP57104744A JPS58222379A (en) 1982-06-18 1982-06-18 Processing system of correction of character recognition

Publications (2)

Publication Number Publication Date
JPS58222379A JPS58222379A (en) 1983-12-24
JPH0444313B2 true JPH0444313B2 (en) 1992-07-21

Family

ID=14388998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP57104744A Granted JPS58222379A (en) 1982-06-18 1982-06-18 Processing system of correction of character recognition

Country Status (1)

Country Link
JP (1) JPS58222379A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5347733A (en) * 1976-10-14 1978-04-28 Fujitsu Ltd Recognizing device for hand-written kana and chinese characters
JPS569873A (en) * 1979-07-02 1981-01-31 Mitsubishi Electric Corp Character coder
JPS5699573A (en) * 1980-01-09 1981-08-10 Hitachi Ltd Kanji (chinese character) distinction system using katakana (square form of japanese syllabary)

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5347733A (en) * 1976-10-14 1978-04-28 Fujitsu Ltd Recognizing device for hand-written kana and chinese characters
JPS569873A (en) * 1979-07-02 1981-01-31 Mitsubishi Electric Corp Character coder
JPS5699573A (en) * 1980-01-09 1981-08-10 Hitachi Ltd Kanji (chinese character) distinction system using katakana (square form of japanese syllabary)

Also Published As

Publication number Publication date
JPS58222379A (en) 1983-12-24

Similar Documents

Publication Publication Date Title
JPH07185473A (en) Video coating apparatus
KR100298547B1 (en) Character input apparatus
JPH0444313B2 (en)
JPS592191A (en) Recognizing and processing system of handwritten japanese sentence
JPS61150081A (en) Character recognizing device
JPS60217483A (en) Recognizer of character
JPH07302306A (en) Character inputting device
JPS5842904B2 (en) Handwritten kana/kanji character recognition device
JPS61272882A (en) Information recognizing device
JPH0562008A (en) Character recognition method
JPH0527916B2 (en)
JP2731394B2 (en) Character input device
JP2677271B2 (en) Character recognition device
JPH0612520A (en) Confirming and correcting system for character recognizing device
JPS63184861A (en) Documentation and editing device
JPS5875278A (en) Character and symbol recognizing device
JPH11120294A (en) Character recognition device and medium
JPH06150066A (en) Handwritten character recognizing device
JP2907947B2 (en) Optical character reading system
JPH11282965A (en) Character recognizing device and computer readable storage medium recording character recognition program
JPH1078956A (en) Information processor
JPS61153787A (en) Information processing device
JPH06162269A (en) Handwritten character recognizing device
JPH07192081A (en) Handwritten character input device
JPH0253832B2 (en)