JPS62190569A - Character input device - Google Patents

Character input device

Info

Publication number
JPS62190569A
JPS62190569A JP61031839A JP3183986A JPS62190569A JP S62190569 A JPS62190569 A JP S62190569A JP 61031839 A JP61031839 A JP 61031839A JP 3183986 A JP3183986 A JP 3183986A JP S62190569 A JPS62190569 A JP S62190569A
Authority
JP
Japan
Prior art keywords
area
character
data
input
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61031839A
Other languages
Japanese (ja)
Inventor
Motoi Kurihara
栗原 基
Noriyoshi Kikuchi
菊地 紀芳
Akio Mori
秋夫 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP61031839A priority Critical patent/JPS62190569A/en
Publication of JPS62190569A publication Critical patent/JPS62190569A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)

Abstract

PURPOSE:To attain a manual input on a position input device without a character recognition area and an image processing area in mind by setting an on-line character recognition area and an image processing area on a screen or in documents. CONSTITUTION:A position input device 11 has a coordinate position detection area, and inputs coordinate position data which is drawn with a pen on the screen. The inputted data is read in a controller that checks which area said data enters and sets the processing state of the area. If the area is in an image processing state, its position data is point-displayed on a display device 13. Thus a graphic manually drawn on the position input device 11 is displayed on the display device 13. If the area is in a character recognition processing state, the code of a character concerned is generated with the aid of the position data inputted through the position input device 11 and a character recognition message stored in an external storage device 14. The character pattern corresponding to the character code is displayed on the display device 13.

Description

【発明の詳細な説明】 〔発明の技術分野〕 本発明は位置入力データの処理状態を領域毎に設定でき
る文字入力装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field of the Invention] The present invention relates to a character input device in which the processing state of position input data can be set for each region.

〔発明の技術的背景とその問題点〕[Technical background of the invention and its problems]

従来、位置入力装置より入力された位置データを用い、
オンライン文字認識する装置では、入力したデータをイ
メージとして、そのまま処理するか、又はオンライン文
字認識データとして処理するかは、入力前のコマンドで
切換えていた。つまりイメージ入力コマンドを指定すれ
ば、それ以降に入力される位置データは、イメージとし
て処理される。位置入力装置上で描かれたイメージがそ
のまま表示されることになる。一方、文字認識コマンド
を指定すれば、以降に入力される位置データは、文字認
識のデータとして扱かわれ、入力された位置データを解
析し、文字を認識し、文字コードが得られる。この結果
認識された文字パターンが表示される。以上のように従
来はコマンドで切換えていた。しかし、電子メールの文
書等を考える時、文書内容はイメージでも良いが、宛名
はコード化されていなければならない。このように、必
ずコード化されている領域がある文書では、前述のコマ
ンドによる切換では、ユーザのミスにより宛名がイメー
ジで入力されたり、又、イメージで良い所がフード化さ
れたりするような誤まりが生じやすく問題であった。
Conventionally, using position data input from a position input device,
In online character recognition devices, whether input data is processed as an image or as online character recognition data is switched by a command before input. In other words, if an image input command is specified, position data input thereafter will be processed as an image. The image drawn on the position input device will be displayed as is. On the other hand, if a character recognition command is specified, position data input thereafter is treated as character recognition data, the input position data is analyzed, the character is recognized, and a character code is obtained. As a result, the recognized character pattern is displayed. As mentioned above, conventionally switching was done by command. However, when considering e-mail documents, etc., the content of the document may be an image, but the addressee must be encoded. In this way, for documents that have areas that are always encoded, switching using the above command may cause errors such as the address being entered as an image due to a user's mistake, or a good part of the image being hooded. This was a problem because it was easy to cause clumping.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、画面上や文書の中に、領域を設定する
ことができ、更にこの領域毎に、処理状態を設定し、こ
の領域内で描かれた位置入力データを、イメージとして
、そのまま処理するか、又は1オンライン文字認旅し、
コード化するかをこの処理状態で特定できる文字入力装
置を提供することにある。
An object of the present invention is to be able to set an area on the screen or in a document, set a processing state for each area, and input position input data drawn within this area as an image. Process or one online character recognition journey,
It is an object of the present invention to provide a character input device that can specify whether to encode or not based on this processing state.

〔発明の概要〕 本発明は電子メールの文書等を想定し、宛名の領域と、
内容の領域を設け、宛名領域は、フード化処理される領
域であり、内容領域は、イメージ処理される領域である
。このように領域毎に処理状態をセットすることができ
、オンライン入力された位置データをイメージとしてそ
のまま処理するのか、文字認識のデータとして処理する
のかを処理状態に応じて、行なうような、文字入力装置
に関するものである。
[Summary of the invention] The present invention assumes an e-mail document, etc., and has an address area,
A content area is provided, the address area is an area to be subjected to hood processing, and the content area is an area to be subjected to image processing. In this way, the processing state can be set for each area, and character input can be performed depending on the processing state, such as whether position data input online is processed as is as an image or as character recognition data. It is related to the device.

〔発明の効果〕〔Effect of the invention〕

本発明によれば文書の中に、オンライン文字認識する領
域とイメージ処理する領域を設定することができるため
ユーザは、文字認識領域、イメージ処理領域を意識する
心安がなく、単に位置入力装置上で手書き入力すれば良
い。又入力前のコマンド指定が不要となり、入力速度の
向上が図れる。
According to the present invention, since it is possible to set an online character recognition area and an image processing area in a document, the user does not have to worry about being aware of the character recognition area and the image processing area; You can enter it by hand. In addition, it is no longer necessary to specify a command before inputting it, and the input speed can be improved.

更にユーザのコマンド指定による入力ミスがなくなり、
データの信頼性が大巾に向上する。
Furthermore, input errors caused by user command specifications are eliminated.
Data reliability will be greatly improved.

〔発明の実施例〕[Embodiments of the invention]

本発明の一実施例を以下、図面を参照しながら具体的に
説明する。第1図は、本発明の構成ブロック図である。
An embodiment of the present invention will be specifically described below with reference to the drawings. FIG. 1 is a configuration block diagram of the present invention.

位置入力装置11は座標位置検出機能を有し、その面上
で、ペンで描かれた。座標位置データを入力する。この
入力されたデータは、制御装置に読み込まれ描かれた座
標位置データがどの領域に入るか調べその領域の処理状
態をセットする。これによりその領域がイメージ処理状
態であれば、その位置データを表示部fli13に点表
示する。これにより位置入力装置11上で措かれた手書
き図形が表示装fif13上に表示される。又、文字i
g識処理状態ならば、位置入力装flillより入力さ
れた位置データと外部記憶装[14に格納されている文
字認識辞書を用い、該当する文字フードを生成し、該文
字コードに対応する文字パターンを表示装置13上に表
示する。
The position input device 11 has a coordinate position detection function, and a drawing is made with a pen on its surface. Enter coordinate position data. This input data is read into the control device, and it is determined which region the drawn coordinate position data falls into, and the processing state of that region is set. As a result, if the area is in the image processing state, its position data is displayed as a dot on the display section fli13. As a result, the handwritten figure drawn on the position input device 11 is displayed on the display device fif13. Also, the letter i
If it is in the g-identification processing state, a corresponding character hood is generated using the position data input from the position input device flill and a character recognition dictionary stored in the external storage device [14], and a character pattern corresponding to the character code is generated. is displayed on the display device 13.

次にここで用いる入力装置について具体的に説明する。Next, the input device used here will be specifically explained.

この入力装置は、表示装置13と位置入力装@11の一
体化されたもので第2図に示すように具体的には液晶の
表示装置上に透明の導電シートを着装したものである。
This input device is an integrated display device 13 and a position input device @11, and as shown in FIG. 2, specifically, a transparent conductive sheet is attached to a liquid crystal display device.

導電シートは第3図のように上下の導電膜16が数10
μのスペース17を介して、固定されており、導電シー
トをペンで押すと、上下のシートが導通し電流が流れる
。この時の電圧をシート膜の4辺で測定することにより
導通点を検出するものである。このような入力装置を用
いると、入力された点の位置座標を検出できると同時に
その位置を液晶に表示することが出来る。
The conductive sheet has several tens of upper and lower conductive films 16 as shown in Figure 3.
It is fixed through a space 17 of μ, and when the conductive sheet is pressed with a pen, the upper and lower sheets become conductive and current flows. The conduction point is detected by measuring the voltage at this time on the four sides of the sheet film. When such an input device is used, it is possible to detect the position coordinates of an input point and at the same time display the position on the liquid crystal.

これにより位置検出装置上で文字を描くと、その軌跡が
表示出来、あたかも紙上に文字を書いているような入力
装置が実現できる。ここでは、このような入力装置を用
いて、文字を入力する。従って第1図のブロック図では
位置入力装@11と表示装置13は分離されているが、
形状は一体化されたものである。又、表示装置13は、
第4図に示すように液晶表示部130、液晶駆動部13
1、文字フォント部132、文字表示部133、図形表
示部134、画面メモリ部135で構成され、表示装置
13に文字コードが与えられると、文字表示部133は
該文字フードに対応する文字パターンを文字7オント部
132より読み出し表示位置に対応する画面メモリ部1
35に書き込む液晶駆動部131は、この画面メモリ部
135のデニタを順次読み出し液晶表示部130に表示
する。このようにして表示装置13上゛に文字が表示さ
れる。表示装置13に与えられる図形データは、例えば
点(X8.Yl )、直線(X2.Yり(Xs’ = 
Y、) 、等である。この時、図形表示部134では、
点、直線等の図形コマンドを検出し、このコマンドに従
って、画面メモリ部135上の対応する位置にデータを
書込む。画面メモリ部135上にデータが書込まれると
、文字の時と同様に処理されその位置に対応する液晶表
示部130にドツトが表示され、点、及び直線等が表示
される。このドツト表示を用いれば、イメージをそのま
ま表示することができ手書き図形も表示できる。
As a result, when a character is drawn on the position detection device, its locus can be displayed, making it possible to realize an input device that feels as if the character is being written on paper. Here, characters are input using such an input device. Therefore, in the block diagram of FIG. 1, the position input device @11 and the display device 13 are separated, but
The shape is integrated. Moreover, the display device 13 is
As shown in FIG. 4, a liquid crystal display section 130, a liquid crystal drive section 13
1. Consists of a character font section 132, a character display section 133, a graphic display section 134, and a screen memory section 135. When a character code is given to the display device 13, the character display section 133 displays a character pattern corresponding to the character hood. Screen memory section 1 corresponding to the read display position from the character 7 ont section 132
The liquid crystal driving section 131 that writes data to the screen memory section 135 sequentially reads out the data from the screen memory section 135 and displays it on the liquid crystal display section 130. In this way, characters are displayed on the display device 13. The graphic data given to the display device 13 includes, for example, a point (X8.Yl), a straight line (X2.Yri (Xs' =
Y, ), etc. At this time, in the graphic display section 134,
A graphical command such as a point or a straight line is detected, and data is written to a corresponding position on the screen memory section 135 according to this command. When data is written on the screen memory section 135, it is processed in the same way as for characters, and dots, dots, straight lines, etc. are displayed on the liquid crystal display section 130 corresponding to the position. If this dot display is used, images can be displayed as they are, and handwritten figures can also be displayed.

制御装置には、具体的に第5図のように、大きく処理部
20バッファ部30で構成されている。処理部20は、
更に入力部211領域モ一ド処理部22、イメージ処理
部n1文字認識部24、文字編集処理部25で構成され
ている。
Specifically, the control device mainly includes a processing section 20 and a buffer section 30, as shown in FIG. The processing unit 20 is
Furthermore, it is composed of an input section 211, an area mode processing section 22, an image processing section n1, a character recognition section 24, and a character editing processing section 25.

バッファ部30は、状態バッファ31、位置データ32
領域データバツフア33、文字フードバッファ34、イ
メージデータバッファ35、一時バッファ36で構成さ
れている。入力部21は、位置入力装置11より入力さ
れた位置データを読込み、その位置データが、コマンド
指定位置か、データ位置か、判定し、コマンドならば、
そのコマンド処理を行なう。ここでは、説明を簡略化す
るため、コマンドとして領域モード設定コマンドだけを
取上げている。従って、領域モード設定コマンドが入力
された時は、入力部21は、領域モード設定部221に
制御を渡す。
The buffer unit 30 includes a status buffer 31 and position data 32.
It is composed of an area data buffer 33, a character food buffer 34, an image data buffer 35, and a temporary buffer 36. The input unit 21 reads the position data input from the position input device 11, determines whether the position data is a command specified position or a data position, and if it is a command,
Process that command. Here, in order to simplify the explanation, only the area mode setting command is mentioned as a command. Therefore, when a region mode setting command is input, the input section 21 passes control to the region mode setting section 221.

コマンドでなく、データ位置ならば、位置データバッフ
ァ32に位置データを格納する。領域モード処理部22
は、領域モード設定部221と領域モード検出5222
からなる。領域モード設定部221は、第6図に示すよ
うに画面61上で領域の左上端点と右下端点を指示し、
更にこ゛の領域をイメージ処理領域63又は、文字認識
処理領域62に指定する領域データバッファ33には第
7図に示すような、領域データがセットされる。この領
域データの処理状態に、イメージ処理331又は文字認
識処理332がセットされる。領域モード検出部222
は、画面上で手書き入力さ°れた位置データより、この
位置データが含まれる領域を前述の領域データを用い検
出する。ここで該当する領域が見出されると、この領域
の処理状態を抽出し、状態バッファにセットする。従っ
て、この領域内で描かれた位置データは、この領域で指
定された処理を受けることになる。
If it is not a command but a data position, the position data is stored in the position data buffer 32. Area mode processing unit 22
The area mode setting section 221 and the area mode detection 5222
Consisting of The area mode setting unit 221 specifies the upper left end point and lower right end point of the area on the screen 61 as shown in FIG.
Furthermore, area data as shown in FIG. 7 is set in the area data buffer 33 which specifies this area as the image processing area 63 or the character recognition processing area 62. Image processing 331 or character recognition processing 332 is set to the processing state of this region data. Area mode detection unit 222
detects an area including the position data entered by handwriting on the screen using the above-mentioned area data. When a corresponding area is found here, the processing state of this area is extracted and set in the state buffer. Therefore, position data drawn within this area will undergo the processing specified in this area.

文字認識部22は、位置入力装[11より入力された位
置データが格納されている位置データ・I(ツファ32
の内容を解析し、外部記憶装置14に格納されている文
字認識辞書を用い、該当する文字コードを生成し、文字
コードバッファ34に格納する。
The character recognition unit 22 stores position data I (ZFA 32) in which position data input from the position input device [11] is stored.
, generates a corresponding character code using the character recognition dictionary stored in the external storage device 14, and stores it in the character code buffer 34.

文書編集処理部25は、文字認識部Uで認識された文字
コードを文字コードバッファ34に追加格納したり、挿
入したりし、文字コードデータの編集を行ない、その結
果を表示装置13に表示するものである。次に第8図の
流れ図を用い、全体の処理の流れについて説明する。表
示画面上に領域モード設定、文字認識、イメージ入力等
のコマンドメニューが表示されている。この表示位置を
位置入力装置11上で指定すると、位置入力装置11よ
り該位置データが入力される。(ステップ81)。入力
部21は、この位置データを読み取り、位置データバッ
ファ32に格納する。(ステップ82)、ここで、入力
部21は、この格納されたデータが、コマンド位置か、
否かを調べ、もしコマンド位置ならば、例えば領域モー
ド設定コマンド位置ならば、領域モード設定処理221
を行なう(ステップ84)。コマンド以外ならば、この
入力データは、イメージデータか1オンライン文字認織
データである。そこで、領域モード検出部222は、こ
の入力された位置がどの領域に含まれるかを、領域バッ
ファお内の領域データを順次サーチし調べる(ステップ
85)。ここで該当する領域を見出し、その領域の処理
状態、例えば、イメージ処理状紗か、オンライン文字認
識処理状態かを抽出し、状態バッファ31にセットする
(ステップ86)。
The document editing processing unit 25 additionally stores or inserts the character code recognized by the character recognition unit U into the character code buffer 34, edits the character code data, and displays the result on the display device 13. It is something. Next, the overall process flow will be explained using the flowchart shown in FIG. A command menu for area mode setting, character recognition, image input, etc. is displayed on the display screen. When this display position is specified on the position input device 11, the position data is inputted from the position input device 11. (Step 81). The input unit 21 reads this position data and stores it in the position data buffer 32. (Step 82), here, the input unit 21 determines whether this stored data is a command position or not.
If it is a command position, for example, an area mode setting command position, area mode setting processing 221 is performed.
(Step 84). If it is other than a command, this input data is image data or online character recognition data. Therefore, the area mode detection unit 222 sequentially searches the area data in the area buffer to find out which area this input position is included in (step 85). Here, the corresponding area is found, and the processing status of the area, for example, image processing paper or online character recognition processing status, is extracted and set in the status buffer 31 (step 86).

次にこの状態バッファ31の値により、イメージ処理又
はオンライン文字認識処理が行なわれる。
Next, image processing or online character recognition processing is performed based on the value of this status buffer 31.

もしイメージ処理領域ならば、入力される位置データは
、領域データの中にあるイメージデータバッファ35の
ポインタで指定されるイメージデータバッファ35より
順次イメージデータを格納し、同時に表示装置 13上
に入力された位置を点表示する(ステップ87)。これ
により、イメージ処理状態がセットされた領域では、手
書き入力された位置データは、全てイメージデータとし
て処理される。
If it is an image processing area, the input position data is stored sequentially from the image data buffer 35 specified by the pointer of the image data buffer 35 in the area data, and is simultaneously input to the display device 13. The selected position is displayed as a dot (step 87). As a result, in the area where the image processing state is set, all handwritten position data is processed as image data.

又、文字詔瓢処理状態ならば、文字認識部24及び文字
編集処理部25に位置データを渡す。ここで文字の詔轟
と、認識された文字が、イメージ処理状態の時と同様に
、領域データ中にある文字フードバッファ翼のポインタ
で指定される、文字コードバッファ34より文字コード
を順次格納する。同時に表示装置13上にこの文字コー
ドに対応する文字パターンが表示される。(ステップ8
8.89)。
Further, if it is in the character edict processing state, position data is passed to the character recognition section 24 and character editing processing section 25. Here, the character code of the recognized character is sequentially stored from the character code buffer 34 specified by the character food buffer wing pointer in the area data, just as in the image processing state. . At the same time, a character pattern corresponding to this character code is displayed on the display device 13. (Step 8
8.89).

文字認識部24は、位置入力装置11上で描かれた文字
の位置データと、外部記憶装置14の認識辞書を用い文
字の認識を行なうところである。この外部記憶装置14
は第9図のように構成されており、先ずはストローク数
91で別けられており、次に各ストロークの始点から終
点までを複数の線分に分け、この線分の方向を第10図
(a) (b)のような方向値で表わしている。従って
、ス)Ej−りは、方向列情報92で構成されている。
The character recognition unit 24 performs character recognition using the position data of characters drawn on the position input device 11 and the recognition dictionary in the external storage device 14. This external storage device 14
is structured as shown in Fig. 9, first of all, it is divided by the number of strokes 91, and then it is divided into a plurality of line segments from the start point to the end point of each stroke, and the direction of this line segment is shown in Fig. 10 ( a) It is expressed by the direction value as shown in (b). Therefore, Ej-ri is composed of direction column information 92.

又、この方向列情報に該当する文字フード情報93も格
納されている。この認識辞書を用い、認識処理の流れを
第11図を用いて説明する。ここでは、入力部21より
文字認識部24に制御が移つり、それ以降について説明
する。位置入力装置11上でのペンの0N10FFを調
べる(ステップIll )。ペンがONならば、1つの
ストローク内のデータと考え、位置データバッファ32
に位置データを格納する(ステップ112)。ペンがO
FFならば、1つのストロークが終わり、次のストロー
クに移ると考え、位置データバッファ32に区切りコー
ドを格納する(ステップ113)。このようにして、位
置データ、区切りフードが位置データバッファ32に格
納される。この時、ストロークの開始位置が以前に格納
していたストロークの位置データからある値以内の位置
ならば、このストロークも文字を構成するストロークと
判定し、前のストロークに続けて位置データを位置デー
タバッファ32に格納する。ある値以上離れている場所
幌、新しい文字の書始めと判定し、それ以前の位置デー
タが1つの文字を構成すると考え文字の認識を行なう(
ステップ114 )。ここでは位置データ・バッファ3
2のデータを解析し、先ず区切りデータをiベストロー
フ数を決定する(ステップ115 )。
Further, character food information 93 corresponding to this direction column information is also stored. Using this recognition dictionary, the flow of recognition processing will be explained with reference to FIG. Here, control is transferred from the input section 21 to the character recognition section 24, and the subsequent steps will be explained. 0N10FF of the pen on the position input device 11 is checked (step Ill). If the pen is ON, it is considered as data within one stroke, and the position data buffer 32
The position data is stored in (step 112). Pen is O
If it is FF, it is assumed that one stroke has ended and the next stroke is to be started, and the delimiter code is stored in the position data buffer 32 (step 113). In this way, the position data and the delimiter hood are stored in the position data buffer 32. At this time, if the start position of the stroke is within a certain value from the previously stored stroke position data, this stroke is also determined to be a stroke that constitutes a character, and the position data is added to the position data following the previous stroke. Store it in the buffer 32. If the distance is more than a certain value, it is determined that this is the beginning of a new character, and the previous position data is considered to constitute one character, and the character is recognized (
Step 114). Here, position data buffer 3
2 is analyzed, and first, the i-best loaf number is determined for the delimited data (step 115).

次に各ス)ローフに対して、ストロークを構成している
各座標位置データより、2点間の方向値を決め、方向別
データを作成する。更にこの方向列データをサーチし同
一の方向値が続いているものは、1つの方向値で代表さ
せ、方向列データを圧縮する。外部記憶装置114から
ストローク数に対応する方向列情報、文字コードからな
る辞書データを一時バッファ36に格納し、前記の作成
された方向列データと、この一時バッファ36の方向列
情報を比較し、一致するものがあるかを調べ、一致する
場合には、その文字コードを抽出し、文字コ−バッ7ア
34に書込む。ここで文字が認識されたことになる。完
全に一致するものがない時でも許容範囲内で一致するも
のがあれば、その文字コードを抽出する。(ステップ1
16.117 )。
Next, for each stroke, a direction value between two points is determined from each coordinate position data making up the stroke, and data for each direction is created. Furthermore, this direction column data is searched, and if the same direction value continues, it is represented by one direction value, and the direction column data is compressed. Store dictionary data consisting of direction string information and character codes corresponding to the number of strokes from the external storage device 114 in the temporary buffer 36, compare the created direction string data with the direction string information in the temporary buffer 36, It is checked whether there is a match, and if there is a match, the character code is extracted and written to the character converter 7a 34. At this point, the characters are recognized. Even if there is no exact match, if there is a match within the allowable range, that character code is extracted. (Step 1
16.117).

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、本発明の構成ブロック図、第2図は、位置入
力装置と表示装置の一体化された入力装置を示す図、第
3図は透明導電シートによる位置入力装置の構成図、第
4図は、表示装置の内部構成図、第5図は制御装置の内
部構成図、第6図は、表示画面上における領域の設定例
、第7図は、領域データ・バッファ内の領域データと、
文字フードバッファ、イメージデータバッファの関係を
示す図、第8図は、本装置で行なわれる全体の処理の流
れ図、第9図は、外部記憶装置に格納されている辞書デ
ータの構成図、第10図は、方向値の決め方と方向列情
報を示す図、第11図は、文字認識部で1文字の詔騒が
行なわれる過程を示した処理の流れ図である。 11・・・位置入力装置12・・・制御装置13・・・
表示装置    圓・・・外部記憶装置代理人 弁理士
 則 近 憲 佑 同    竹 花 喜久男 第  1 図 第  4 図 第2図 第  3 図 第5図 第  6 図 第  9  図 θ (e)                  Cb)第
10図 第11図
FIG. 1 is a block diagram of the configuration of the present invention, FIG. 2 is a diagram showing an input device in which a position input device and a display device are integrated, FIG. 3 is a configuration diagram of a position input device using a transparent conductive sheet, and FIG. Figure 4 is an internal configuration diagram of the display device, Figure 5 is an internal configuration diagram of the control device, Figure 6 is an example of setting areas on the display screen, and Figure 7 is an example of area data in the area data buffer. ,
FIG. 8 is a diagram showing the relationship between the character food buffer and the image data buffer; FIG. 8 is a flowchart of the overall processing performed by this device; FIG. 9 is a diagram showing the configuration of dictionary data stored in the external storage device; FIG. The figure shows how to determine the direction value and the direction column information, and FIG. 11 is a process flowchart showing the process by which one character is evangelized in the character recognition section. 11...Position input device 12...Control device 13...
Display device En...External storage device Agent Patent attorney Rules Ken Yudo Chika Kikuo Takehana Figure 1 Figure 4 Figure 2 Figure 3 Figure 5 Figure 6 Figure 9 Figure θ (e) Cb) Figure 10 Figure 11

Claims (3)

【特許請求の範囲】[Claims] (1)位置座標を入力するための位置入力手段と、この
位置入力手段より入力された位置座標に対応する点を表
示する表示手段と、この表示手段上に領域を設定すると
共にこの領域内で処理される処理状態をセットする領域
モード設定手段と、この領域モード設定手段により設定
された領域に対して前記位置入力手段より入力された位
置座標の含まれる領域を見出しこの領域にセットされた
処理状態を検出する領域モード検出手段と、この領域モ
ード検出手段で検出された処理状態に基づいて前記位置
入力手段より入力された位置座標を処理する処理手段と
を具備したことを特徴とする文字入力装置。
(1) A position input means for inputting position coordinates, a display means for displaying a point corresponding to the position coordinates inputted from this position input means, and an area is set on this display means, and an area is set within this area. an area mode setting means for setting a processing state to be processed; and an area set by the area mode setting means to find an area including the position coordinates inputted from the position input means and a process set in this area. Character input characterized by comprising: area mode detection means for detecting a state; and processing means for processing position coordinates input from the position input means based on the processing state detected by the area mode detection means. Device.
(2)処理手段は、位置座標をイメージとして処理する
イメージ処理手段と、位置座標を解析し辞書を参照して
文字認識する認識手段とから成ることを特徴とする特許
請求の範囲第1項記載の文字入力装置。
(2) The processing means comprises an image processing means for processing the position coordinates as an image, and a recognition means for analyzing the position coordinates and recognizing characters by referring to a dictionary. character input device.
(3)位置入力手段と表示手段とは一体化されたもので
ある特許請求の範囲第1項記載の文字入力装置。
(3) The character input device according to claim 1, wherein the position input means and the display means are integrated.
JP61031839A 1986-02-18 1986-02-18 Character input device Pending JPS62190569A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61031839A JPS62190569A (en) 1986-02-18 1986-02-18 Character input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61031839A JPS62190569A (en) 1986-02-18 1986-02-18 Character input device

Publications (1)

Publication Number Publication Date
JPS62190569A true JPS62190569A (en) 1987-08-20

Family

ID=12342222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61031839A Pending JPS62190569A (en) 1986-02-18 1986-02-18 Character input device

Country Status (1)

Country Link
JP (1) JPS62190569A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0196060U (en) * 1987-12-17 1989-06-26

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0196060U (en) * 1987-12-17 1989-06-26

Similar Documents

Publication Publication Date Title
JP2740575B2 (en) Character processor
EP0519713B1 (en) Character input method and apparatus
US5991440A (en) Method and apparatus for recognizing input handwritten characters associated with title information
JPS58208865A (en) Document producing device
JPS62190569A (en) Character input device
JP3085552B2 (en) Character input / cursor instruction determination method in online handwriting input device
JPS62190565A (en) Device for making fair copy of hand-written pattern
JP2578747B2 (en) Handwritten information processing method
JPH0782530B2 (en) Handwriting recognition device
JPH05233599A (en) Online character recognizing device
JP2682873B2 (en) Recognition device for tabular documents
JPH0610447Y2 (en) Image processing device
JPS58189785A (en) Designation input method of handwritten character type
JPS62197882A (en) Sentence input device
JPH0634258B2 (en) Handwritten character recognition device with personal dictionary creation function
JPH07239901A (en) Character correction method for optical reader
JPH06223221A (en) Character recognizing device
JPH04353964A (en) Document generation device
JPH01292586A (en) Back-up device for recognition of character
JPH01298483A (en) Picture recognizing device
JPH0429089B2 (en)
JP2595399B2 (en) Document processing method
JPS61206087A (en) Document reading device
JPH0831092B2 (en) Document processing device
JPH0764990A (en) Device for preparing sentence by on-line handwritten character recognition