JP2001005599A - Information processor and information processing method an d recording medium recording information processing program - Google Patents

Information processor and information processing method an d recording medium recording information processing program

Info

Publication number
JP2001005599A
JP2001005599A JP17491199A JP17491199A JP2001005599A JP 2001005599 A JP2001005599 A JP 2001005599A JP 17491199 A JP17491199 A JP 17491199A JP 17491199 A JP17491199 A JP 17491199A JP 2001005599 A JP2001005599 A JP 2001005599A
Authority
JP
Japan
Prior art keywords
stroke
gesture
character
area
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP17491199A
Other languages
Japanese (ja)
Inventor
Mitsuru Mizuguchi
充 水口
Naoki Urano
直樹 浦野
Kohei Yoshikawa
耕平 吉川
Yasushi Tsumori
靖 津森
Kaoru Hieda
薫 稗田
Keiichi Shima
慶一 島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP17491199A priority Critical patent/JP2001005599A/en
Publication of JP2001005599A publication Critical patent/JP2001005599A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve the operability and functional property by executing a processing corresponding to the stroke order of strokes preparing a closed region, and selecting plural kinds of processing by one series of operations of a handwritten input. SOLUTION: This information processor is provided with a stroke storing means 201 for storing handwritten input strokes, a stroke analyzing means 202 for analyzing the strokes, and a closed region storing means 203 for storing the kind of processing corresponding to the range of the closed region and the generation procedure of the closed region at the time of judging that the strokes generate the closed region from the analyzed result.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ペン、マウス等の
手書き入力手段を有する情報処理装置及び情報処理方法
並びに情報処理プログラムを記録した記録媒体に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus having handwriting input means such as a pen and a mouse, an information processing method, and a recording medium on which an information processing program is recorded.

【0002】[0002]

【従来の技術】従来の手書き入力による情報処理装置と
して、手書き入力データを文字コードに変換することを
特徴とする特開平6−83526号公報で示される装
置、及び予め決められた特殊な記号の手書き入力データ
により編集を実行する機能(以下、ジェスチャ機能とい
う)を有する特開平6−149467号公報で示される
装置がある。
2. Description of the Related Art As a conventional information processing apparatus based on handwriting input, an apparatus disclosed in Japanese Patent Application Laid-Open No. Hei 6-83526 characterized by converting handwritten input data into character codes, and a special symbol There is an apparatus disclosed in Japanese Patent Application Laid-Open No. 6-149467 having a function of executing editing by handwritten input data (hereinafter, referred to as a gesture function).

【0003】前者の装置は、描画領域の任意の位置に書
かれた手書き入力データを文字認識し、認識後の文字を
元の位置に表示する装置であり、モード変換ボタンを押
下するなどの操作により文字認識モードに設定した後、
手書き入力文字のビットマップイメージを領域指定する
と、その領域内のデータを文字コードに変換する。さら
に、前記領域指定した位置へ前記認識した文字コードの
ビットマップイメージを既入力されている手書き入力文
字に置換えることにより、判読性能の優れた手書き入力
による情報処理装置を提供している。
The former device is a device for recognizing handwritten input data written at an arbitrary position in a drawing area and displaying the recognized character at an original position. After setting to character recognition mode by,
When a bitmap image of a handwritten input character is designated as an area, data in the area is converted into a character code. Further, the present invention provides an information processing apparatus by handwriting input having excellent reading performance by replacing a bitmap image of the recognized character code at a position designated by the area with a previously input handwritten input character.

【0004】後者の装置は、文字認識用の所定の枠に含
まれる手書き入力データを文字認識し認識後の文字を編
集用の所定の枠に表示する装置であり、編集用の所定の
枠において、手書き入力を行う編集命令が認識されると
その編集命令が指定された位置に対し手書き入力を行な
うための手書き入力領域を表示する、所謂ジェスチャ機
能を有することにより、編集操作性の優れた手書き入力
による情報処理装置を提供している。
The latter device is a device for recognizing handwritten input data included in a predetermined character recognition frame and displaying the recognized character in a predetermined editing frame. When an editing instruction for performing handwriting input is recognized, a so-called gesture function for displaying a handwriting input area for performing handwriting input at a position designated by the editing instruction is provided. An input-based information processing device is provided.

【0005】[0005]

【発明が解決しようとする課題】情報処理装置による手
書き入力は、紙と鉛筆による手書き入力に比べて、判読
性能に優れているばかりでなく入力データを編集、再利
用できる利点がある。ここで編集とは例えば文字の挿入
・削除・複写機能のことであり、再利用とは例えば入力
された情報を利用して他の情報を検索する機能のことで
ある。
The handwriting input by the information processing apparatus has an advantage that it can not only have excellent reading performance but also edit and reuse the input data as compared with the handwriting input using paper and pencil. Here, editing refers to, for example, a function of inserting, deleting, and copying characters, and reuse refers to, for example, a function of searching for other information using input information.

【0006】しかしながら、前記記載の特開平6−83
526号公報による従来の情報処理装置では、手書き入
力データを文字コードに変換することで判読性能の向上
を実現しているが、入力データの編集、再利用機能につ
いては記載されていない。更に、手書き入力データを文
字コードに変換する場合、例えばモード変換ボタンを押
下するなどの操作により文字認識モードに設定した後、
領域を指定しなければならないという操作上煩わしいと
いう問題があった。更に、「言語」という単語を一度に
文字認識させる場合、「語」のように偏と旁がそれぞれ
単独で別の文字として成立する文字に対して変換を行な
うと(この場合「言」と「吾」)、手書き入力データを
文字認識用の所定の記入枠に書く場合は誤認識される確
率は低いが、描画領域の任意の位置に書く場合は偏と旁
が離れて書かれると文字の区切り位置を特定できず誤認
識される確率が高くなるという問題があった。
[0006] However, Japanese Patent Application Laid-Open No. H6-8383 described above.
In the conventional information processing device disclosed in Japanese Patent Application Publication No. 526, the reading performance is improved by converting the handwritten input data into a character code, but the function of editing and reusing the input data is not described. Furthermore, when converting the handwritten input data into a character code, for example, after setting the character recognition mode by an operation such as pressing a mode conversion button,
There is a problem that it is troublesome in operation that a region must be specified. Further, in the case where the word "language" is recognized at a time, characters such as "word" in which the partiality and the side are independently formed as separate characters are converted (in this case, "word" and " Go) ”, the probability of misrecognition is low when handwriting input data is written in a predetermined entry frame for character recognition, but when writing at any position in the drawing area There has been a problem that the break position cannot be specified and the probability of erroneous recognition increases.

【0007】また、前記記載の特開平6−149467
号公報による従来の情報処理装置では、手書き入力デー
タを文字コードに変換することで判読性能の向上、及び
ジェスチャ機能による編集操作性の向上を実現している
が、再利用機能については記載されていない。
The above-mentioned Japanese Patent Application Laid-Open No. 6-149467.
In the conventional information processing apparatus disclosed in Japanese Patent Application Laid-Open Publication No. H10-209, the reading performance is improved by converting the handwritten input data into the character code, and the editing operability is improved by the gesture function, but the reuse function is described. Absent.

【0008】以上整理すると、従来の手書き入力による
情報処理装置は、文字認識させる領域を指定するのに例
えばモード変換ボタンを押下してから領域を指定しなけ
ればならないという操作上煩わしいという問題、文字の
区切りを特定できないために手書き入力データの文字認
識率が低くなるという問題、手書き入力データを文字コ
ードに変換後そのデータを他のアプリケーションに渡し
て再利用できないという問題があり、この発明は、上記
従来技術の問題点を解決することを目的としている。
In summary, the conventional information processing apparatus based on handwriting input has a problem in that it is cumbersome in operation that, for example, the user has to press a mode conversion button and then specify an area in order to specify an area for character recognition. There is a problem that the character recognition rate of the handwritten input data is low because the delimiter of the handwritten input data cannot be specified, and there is a problem that after the handwritten input data is converted into the character code, the data cannot be passed to another application and reused. An object of the present invention is to solve the above-mentioned problems of the related art.

【0009】[0009]

【課題を解決するための手段】本発明は、上記課題を解
決するために、ストロークを記憶するストローク記憶手
段と、前記ストロークを解析するストローク解析手段
と、解析結果により、閉領域を生成するストローク(以
下、領域指定ジェスチャという)であると判断した場合
に、閉領域の範囲、及び閉領域の生成手順に応じた処理
の種類(以下、閉領域の処理の種類という)を記憶する
閉領域記憶手段とを有することを特徴とする情報処理装
置を提供する。本発明によれば、描画領域の任意の位置
の文字認識を行う場合、既入力された文字に対して、領
域指定ジェスチャを入力すると、ストローク記憶手段に
おいてストロークが記憶され、ストローク解析手段にお
いて領域指定ジェスチャが解析され、閉領域記憶手段に
閉領域の範囲と閉領域の処理の種類が記憶され、再びス
トローク解析手段において前記閉領域の範囲に含まれる
データに対して文字認識が実行され、情報処理装置の一
部分である表示装置において文字認識後の文字が表示さ
れるので、モード変換ボタンを押下しなくても文字認識
の領域を指定することができる。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention provides a stroke storage means for storing a stroke, a stroke analysis means for analyzing the stroke, and a stroke for generating a closed area based on the analysis result. (Hereinafter, referred to as a region specifying gesture), a closed region storage for storing a range of the closed region and a type of processing according to a closed region generation procedure (hereinafter, referred to as a type of closed region processing). And an information processing apparatus characterized by having means. According to the present invention, when performing character recognition at an arbitrary position in a drawing area, when a region specifying gesture is input for a previously input character, a stroke is stored in the stroke storage unit, and the region is specified in the stroke analysis unit. The gesture is analyzed, the range of the closed region and the type of processing of the closed region are stored in the closed region storage unit, and character recognition is performed again on the data included in the range of the closed region by the stroke analysis unit, and the information processing is performed. Since the characters after the character recognition are displayed on the display device which is a part of the device, the character recognition area can be designated without pressing the mode conversion button.

【0010】また本発明によれば、前記ストローク解析
手段において、解析結果により領域指定ジェスチャと判
断した場合に、その後入力されてくるストロークの解析
を、予め決められた記号(以下、ジェスチャコマンドと
いう)として認識することを特徴とする情報処理装置を
提供することにより、文字認識実行後、直ちにジェスチ
ャコマンドによる編集操作が可能となる。
Further, according to the present invention, when the stroke analysis means determines that the gesture is an area designation gesture based on the analysis result, the analysis of the subsequently input stroke is performed using a predetermined symbol (hereinafter referred to as a gesture command). By providing an information processing apparatus characterized in that the character recognition is performed, the editing operation by the gesture command can be performed immediately after the character recognition is performed.

【0011】また本発明によれば、前記ストローク解析
手段において、解析結果により領域指定ジェスチャと判
断し、その後閉領域を複数の範囲に分割するためのジェ
スチャコマンドを認識した場合に、分割された各範囲ご
とに処理を実行することを特徴とする情報処理装置を提
供することにより、描画領域の任意の位置の文字認識を
行う場合、文字の区切りを特定することが可能となる。
Further, according to the present invention, when the stroke analyzing means determines that the gesture is an area designating gesture based on the analysis result, and subsequently recognizes a gesture command for dividing the closed area into a plurality of ranges, each of the divided gestures is determined. By providing an information processing apparatus characterized in that processing is performed for each range, it is possible to identify a character break when performing character recognition at an arbitrary position in a drawing area.

【0012】また本発明によれば、閉領域内のデータに
基づいて所定のアプリケーションを起動することを特徴
とする情報処理装置を提供することにより、描画領域の
任意の位置の文字認識を実行後、直ちにその入力データ
を指定のアプリケーションに渡し起動することが可能と
なる。
Further, according to the present invention, by providing an information processing apparatus characterized in that a predetermined application is activated based on data in a closed area, character recognition at an arbitrary position in a drawing area is performed. Then, the input data can be immediately passed to the designated application and activated.

【0013】[0013]

【発明の実施の形態】図面を使って、本発明の実施の形
態を説明する。
Embodiments of the present invention will be described with reference to the drawings.

【0014】図1は、本発明の情報処理装置の構成ブロ
ック図で、装置全体の制御を行うCPU(101)と、
処理の実行に必要なデータを記憶するROM(102)
と、RAM(103)と、外部記憶装置(104)と、
ROM(102)、RAM(103)、外部記憶装置
(104)に記憶されている表示情報を参照して表示内
容を管理する表示コントローラ(105)と、表示内容
を表示する表示装置(106)と、データを入力するた
めのペン、マウス等の手書き入力装置(107)より成
る。
FIG. 1 is a block diagram showing the configuration of an information processing apparatus according to the present invention. The CPU (101) controls the entire apparatus.
ROM (102) for storing data necessary for execution of processing
, A RAM (103), an external storage device (104),
A display controller (105) for managing display contents by referring to display information stored in a ROM (102), a RAM (103), and an external storage device (104); and a display device (106) for displaying display contents. , A handwriting input device (107) such as a pen or a mouse for inputting data.

【0015】本発明の情報処理プログラムは、磁気ディ
スク又はCD−ROM等コンピュータ読取り可能な記録
媒体によって提供される。該プログラムは情報処理装置
本体によって実行される。また、該プログラムは他の情
報処理装置等により通信回線を経由して情報処理装置本
体に供給されても良い。
The information processing program of the present invention is provided by a computer-readable recording medium such as a magnetic disk or a CD-ROM. The program is executed by the information processing apparatus main body. Further, the program may be supplied to the information processing apparatus main body via a communication line by another information processing apparatus or the like.

【0016】図2は、本発明の処理を説明するための機
能ブロック図で、手書き入力装置(107)で入力され
たデータを記憶し所定のデータ処理を終えた後表示コン
トローラ(105)にデータを出力するストローク記憶
手段(201)と、該ストローク情報から入力データの
閉領域認識、ジェスチャ認識、文字認識、及び図形認識
を行うストローク解析手段(202)と、閉領域の範囲
及び閉領域の処理の種類を記憶する閉領域記憶手段(2
03)より成る。
FIG. 2 is a functional block diagram for explaining the processing of the present invention. The data input by the handwriting input device (107) is stored, and after a predetermined data processing is completed, the data is transmitted to the display controller (105). A stroke storage means (201) for outputting closed area recognition, gesture recognition, character recognition, and graphic recognition of input data from the stroke information, and processing of a closed area range and a closed area. Area storage means (2) for storing the type of
03).

【0017】図3は、図2の詳細な機能ブロック図で、
ストローク記憶手段(201)は、ストローク情報を記
憶するストローク情報記憶部(204)とテキスト情報
を文字コードデータとして記憶するテキスト情報記憶部
(206)と図形情報を直線や円弧等の図形要素として
記憶する図形情報記憶部(205)とから成り、ストロ
ーク解析手段(202)は、手書き入力されたデータの
ストロークを解析するストローク解析部(211)とジ
ェスチャコマンドを認識するジェスチャ認識部(20
7)とから成る。さらにストローク解析部(211)
は、閉領域を認識する閉領域認識部(210)と、閉領
域内の文字を認識する文字認識部(209)と、閉領域
内の図形を認識する図形認識部(208)とから成る。
FIG. 3 is a detailed functional block diagram of FIG.
A stroke storage unit (201) stores a stroke information storage unit (204) that stores stroke information, a text information storage unit (206) that stores text information as character code data, and stores graphic information as graphic elements such as straight lines and arcs. A stroke analyzing unit (211) for analyzing a stroke of handwritten input data and a gesture recognizing unit (20) for recognizing a gesture command.
7). Further, a stroke analysis unit (211)
Is composed of a closed region recognizing unit (210) for recognizing a closed region, a character recognizing unit (209) for recognizing characters in the closed region, and a graphic recognizing unit (208) for recognizing a graphic in the closed region.

【0018】以下、図3に従って、手書きデータが入力
されてから文字認識され表示装置に表示されるまでのデ
ータの流れを説明する。
Hereinafter, the flow of data from the input of handwritten data to the recognition of characters and the display of the data on a display device will be described with reference to FIG.

【0019】手書き入力装置(107)で入力されたデ
ータは、ストローク情報記憶部(204)において、一
連の手書き入力の座標列データ(ストローク)として取
得され記憶される。ストローク情報は入力された時間順
に記憶されても良いし、入力された時間と合わせて記憶
されても良い。ストローク情報記憶部(204)におい
て記憶されたストローク情報は、閉領域認識部(21
0)において領域指定ジェスチャかどうか判別される。
領域指定ジェスチャと認識されると、ストローク解析手
段(202)の解析モードは、ストローク解析部(21
1)において手書き入力データのストロークの解析を行
うストローク解析モードからジェスチャ認識部(20
7)においてどのようなジェスチャコマンドかを認識す
るジェスチャモードに移る。引き続き閉領域認識部(2
10)は取得した閉領域の範囲を示す座標及び対応する
処理の種類を閉領域記憶手段(203)に渡す。閉領域
記憶手段(203)では、閉領域の処理の種類が文字認
識の場合(図4(a))は、文字認識を実行する領域を
指定するために、文字認識部(209)に座標情報を渡
し、文字認識後の文字を表示する位置と大きさを指定す
るために表示コントローラ(105)に同じく座標情報
を渡す。文字認識部(209)では、ストローク情報記
憶部(204)において記憶されているストローク情報
のうち閉領域に含まれるデータについて文字認識を行
い、認識後の文字コードをテキスト情報記憶部(20
6)に渡し、そこで記憶される。ここで文字認識の技術
については従来の情報処理装置における周知の技術であ
るため、説明は省略する。テキスト情報記憶部(20
6)において記憶されたデータは表示コントローラ(1
05)に渡され、表示装置(106)において表示され
る。ストローク解析手段(202)の解析モードをジェ
スチャモードからストローク解析モードに戻すタイミン
グは、指定した領域をペンでタッチするなどのユーザの
操作(以下、ジェスチャモードを解除する操作という)
により行われてもよいし、一定時間手書き入力がない場
合に自動的に戻るようにしておいてもよい。
The data input by the handwriting input device (107) is acquired and stored as a series of handwritten input coordinate sequence data (strokes) in the stroke information storage unit (204). The stroke information may be stored in the order of the input time, or may be stored together with the input time. The stroke information stored in the stroke information storage unit (204) is stored in the closed area recognition unit (21).
At 0), it is determined whether the gesture is an area designation gesture.
When the gesture is recognized as the region designation gesture, the analysis mode of the stroke analysis unit (202) is changed to the stroke analysis unit (21).
In the stroke analysis mode for analyzing the stroke of the handwritten input data in 1), the gesture recognition unit (20)
In 7), the mode shifts to a gesture mode for recognizing a gesture command. Then, the closed area recognition unit (2
10) passes the acquired coordinates indicating the range of the closed region and the type of the corresponding process to the closed region storage means (203). In the closed area storage means (203), when the processing type of the closed area is character recognition (FIG. 4A), the character recognition unit (209) sends the coordinate information to the character recognition unit (209) in order to specify the area for performing character recognition. , And the same coordinate information is passed to the display controller (105) in order to specify the position and size of the character after character recognition. The character recognition unit (209) performs character recognition on data included in the closed area in the stroke information stored in the stroke information storage unit (204), and recognizes the recognized character code in the text information storage unit (20).
6) and stored there. Here, the technique of character recognition is a well-known technique in a conventional information processing apparatus, and thus description thereof is omitted. Text information storage (20
The data stored in 6) is stored in the display controller (1).
05) and displayed on the display device (106). The timing of returning the analysis mode of the stroke analysis means (202) from the gesture mode to the stroke analysis mode is determined by a user operation such as touching a designated area with a pen (hereinafter, referred to as an operation of canceling the gesture mode).
Or may automatically return when there is no handwriting input for a certain period of time.

【0020】次に図3及び図4に従って、閉領域の処理
の種類が文字認識以外の場合のデータの流れを説明す
る。図4は、閉領域ジェスチャの例である。矩形を左回
りに一筆書きすることで、閉領域を作り出すことができ
る。更に、閉領域を作り出すストロークの書き始めの位
置に応じて閉領域内のデータに対する処理内容を切替え
ることができる。例えば、図4(a)に示すように文字
と見なして文字認識を行うジェスチャ、図4(b)に示
すように図形と見なして図形認識を行うジェスチャ、図
4(c)に示すように文字や図形の拡大・縮小等の編集
操作を行うジェスチャ、図4(d)に示すように指定さ
れた処理を実行するためのアプリケーション呼出し(以
下、別処理呼出しという)を行うジェスチャ、というよ
うに閉領域の処理の種類を切換えることができる。
Next, referring to FIGS. 3 and 4, a description will be given of the flow of data when the type of closed area processing is other than character recognition. FIG. 4 is an example of a closed region gesture. A closed area can be created by drawing a single stroke of the rectangle counterclockwise. Further, the processing content for the data in the closed area can be switched according to the writing start position of the stroke for creating the closed area. For example, a gesture that recognizes a character as a character as shown in FIG. 4A, a gesture that performs a shape recognition as a figure as shown in FIG. 4B, and a character as shown in FIG. And a gesture for performing an editing operation such as enlargement / reduction of a graphic or a gesture for performing an application call (hereinafter, referred to as another process call) for executing a designated process as shown in FIG. The type of processing of the area can be switched.

【0021】領域指定ジェスチャが図4(b)に示す図
形認識の場合は、前記文字認識の例における文字認識部
(209)及びテキスト情報記憶部(206)をそれぞ
れ図形認識部(208)及び図形情報記憶部(205)
を介して処理すればよい。ここで図形認識の技術につい
ては従来の情報処理装置における周知の技術であるた
め、説明は省略する。
In the case where the region designation gesture is the graphic recognition shown in FIG. 4B, the character recognition unit (209) and the text information storage unit (206) in the above-described character recognition example are replaced by the graphic recognition unit (208) and the graphic information storage unit (206), respectively. Information storage unit (205)
What is necessary is just to process through. Here, the technique of graphic recognition is a well-known technique in a conventional information processing apparatus, and thus the description thereof is omitted.

【0022】次に、領域指定ジェスチャが図4(c)又
は図4(d)に示す編集又は別処理呼出しの場合のデー
タの流れを説明する。手書きデータが入力され、閉領域
記憶手段(203)に閉領域の範囲及び閉領域の処理の
種類を記憶し、文字認識を実行する領域を指定するため
に文字認識部(209)に座標情報を渡し、文字認識後
の文字を表示する位置と大きさを指定するために座標情
報を表示コントローラ(105)に渡すところまでは、
前記文字認識の場合のデータの流れと同様である。その
後、編集操作を選択するためのメニュー(以下、編集ポ
ップアップメニューという)又は、別処理呼出しのメニ
ュー(以下、別処理ポップアップメニューという)を表
示させるために閉領域の処理の種類を表示コントローラ
(105)に渡す。表示コントローラ(105)では、
閉領域記憶手段(203)から渡された座標情報及び閉
領域の処理の種類により所定のポップアップメニューを
表示し、そのポップアップメニューの中から所定のアプ
リケーションが選択されると、テキスト情報記憶部(2
06)から渡された文字コードデータを該アプリケーシ
ョンに渡すとともにアプリケーションを起動する。ここ
で、表示コントローラ(105)において所定のポップ
アップメニューを表示させて、所定のアプリケーション
を起動する動作については、従来の情報処理装置におけ
る周知の技術であるため、ここでは説明を省略する。
Next, the flow of data when the region designation gesture is the editing or another processing call shown in FIG. 4C or FIG. 4D will be described. The handwritten data is input, the range of the closed area and the type of processing of the closed area are stored in the closed area storage means (203), and the coordinate information is input to the character recognition unit (209) in order to specify the area in which the character recognition is to be performed. Until the coordinate information is passed to the display controller (105) in order to specify the position and size of the character after character recognition and display,
This is the same as the data flow in the case of the character recognition. Then, the display controller (105) displays the type of processing of the closed area in order to display a menu for selecting an editing operation (hereinafter, referred to as an editing pop-up menu) or a menu for calling another processing (hereinafter, referred to as another processing pop-up menu). ). In the display controller (105),
A predetermined pop-up menu is displayed based on the coordinate information passed from the closed area storage means (203) and the type of processing of the closed area, and when a predetermined application is selected from the pop-up menu, the text information storage unit (2) is displayed.
06) is passed to the application and the application is started. Here, the operation of displaying a predetermined pop-up menu on the display controller (105) and starting a predetermined application is a well-known technique in a conventional information processing apparatus, and thus the description thereof is omitted here.

【0023】以下、図5乃至図15に従って、手書き入
力装置(107)として表示一体型タブレットを使用し
た場合の本発明の内容について説明する。
The contents of the present invention in the case where a display-integrated tablet is used as the handwriting input device (107) will be described below with reference to FIGS.

【0024】図5は、図4(a)に示す文字認識を行う
領域指定ジェスチャにより文字認識を行う例を示すもの
である。図5(a)のように表示一体型タブレット(3
01)上にペン(302)で手書き文字(303)を描
いた後に、手書き文字全体を、文字認識を行う領域指定
ジェスチャ(304)で囲むことにより、領域内の文字
が認識されて、図5(b)のように文字コードのビット
マップイメージ(305)に変換される。文字認識が実
行されるタイミングは領域指定ジェスチャが入力されて
から一定時間経過後に自動的に行われるようにしておく
と操作性の面から望ましいが、指定した領域をペンでタ
ッチするなどのユーザの操作によって実行を指示するこ
とも可能である。また、領域指定ジェスチャ(304)
の表示が消えるタイミングは、ジェスチャモードを解除
する操作により行われるようにしておくと、現在どちら
のモードであるかをユーザが理解しやすくなり、ジェス
チャモードを有効に活用でき機能性の面から望ましい
が、一定時間後に自動的に行われるようにすることも可
能である。また、認識処理によって変換されたキャラク
タデータの表示の位置と大きさを元の手書き文字に近づ
けるように設定しておけば、文字認識前と文字認識後と
で表示の違いが少なくなる。
FIG. 5 shows an example in which character recognition is performed by the gesture for specifying an area for performing character recognition shown in FIG. As shown in FIG. 5A, the display-integrated tablet (3
01), a handwritten character (303) is drawn with a pen (302), and then the entire handwritten character is surrounded by an area designating gesture (304) for character recognition. It is converted into a character code bitmap image (305) as shown in FIG. It is desirable from the viewpoint of operability that the timing at which character recognition is performed should be performed automatically after a certain period of time has elapsed since the area designation gesture was input, but it is desirable for the user to touch the specified area with a pen. Execution can be instructed by an operation. Also, an area designation gesture (304)
When the display disappears by performing an operation of canceling the gesture mode, the user can easily understand which mode is currently in use, and the gesture mode can be effectively used, which is desirable in terms of functionality. May be automatically performed after a certain period of time. Further, if the display position and size of the character data converted by the recognition process are set to be closer to the original handwritten characters, the difference in display between before and after character recognition is reduced.

【0025】図6は、図4(b)に示す図形認識を行う
領域指定ジェスチャにより図形認識を行う例を示すもの
である。図6(a)のように表示一体型タブレット(3
01)上にペン(302)で手書き図形(306)を描
き、さらに図形全体を、図形認識を行う領域指定ジェス
チャ(307)で囲むことにより、図形が認識されて、
それぞれ図6(b)のように円、三角形、四角形の清書
された図形(308)になる。認識対象を図形に絞って
いるので、これらの図形が○や△や□といったキャラク
タデータに認識されることはない。
FIG. 6 shows an example in which the figure recognition is performed using the area designation gesture for performing the figure recognition shown in FIG. 4B. As shown in FIG. 6A, the display-integrated tablet (3
01), a handwritten figure (306) is drawn with a pen (302), and the whole figure is surrounded by an area designation gesture (307) for performing figure recognition.
As shown in FIG. 6 (b), each of them is a circle, a triangle, and a square, and is a finely-printed figure (308). Since the objects to be recognized are narrowed down to figures, these figures are not recognized by character data such as ○, △ and □.

【0026】図7は、図4(a)に示す文字認識を行う
領域指定ジェスチャを実行後さらに閉領域を複数の領域
に分割することにより文字認識率を向上させる例を示す
ものである。図7(a)のように「言語」と手書きで入
力後、全体を領域指定しておき、更に図7(b)のよう
に指定された領域内を分割するジェスチャコマンド(以
下、領域分割ジェスチャという)(309)により複数
の領域に分割すると、図7(d)のように「言語」と認
識されるし、図7(c)のように分割すると、図7
(e)のように「言言吾」と認識される。この時、閉領
域の範囲が確定すると、それ以降に入力されてくるスト
ロークの解析は、ジェスチャコマンドを認識するモード
に切換わっているので入力データはジェスチャコマンド
と見なす処理を行うため、領域分割ジェスチャ(30
9)が通常の手書き文字と間違われることはない。
FIG. 7 shows an example of improving the character recognition rate by further dividing the closed area into a plurality of areas after executing the area specifying gesture for performing the character recognition shown in FIG. After inputting the "language" by handwriting as shown in FIG. 7A, the entire area is designated, and a gesture command for dividing the designated area as shown in FIG. (309), it is recognized as a "language" as shown in FIG. 7D, and when it is divided as shown in FIG.
It is recognized as "languagego" as shown in (e). At this time, when the range of the closed area is determined, the analysis of the strokes input thereafter is switched to the mode for recognizing the gesture command. Therefore, the input data is processed as a gesture command. (30
9) is not mistaken for ordinary handwritten characters.

【0027】図8は、図4(a)に示す文字認識を行う
領域指定ジェスチャと領域分割ジェスチャを実行後、手
書き文字がユーザの意図しない文字に誤認識された場合
の修正表示例を示すものである。図8(a)のように
「文字の入力」と手書きで入力して前述の方法で認識処
理を行ったところ、図8(b)のように「力」(漢字の
「ちから」)が「カ」(片仮名)と誤認識されたとす
る。そこで認識候補を表示する操作、例えば誤認識され
た文字の上をペンでしばらくタッチし続けると、図8
(c)のように他の認識候補を表示する認識候補ポップ
アップメニュー(310)が現れる。図8(d)のよう
に、ユーザは表示された他の候補の中から目的とする正
しい文字「力」を選択すると、図8(e)のように修正
される。ここで、認識候補ポップアップメニューに一度
に表示しきれない数の候補がある場合は、上下のスクロ
ールボタンなどを用いて表示を切替えることができるよ
うにすればよい。また、認識候補ポップアップメニュー
表示後はいずれかの候補の上でペンが離されるか、一定
時間ペンがタッチされないときなどのタイミングで認識
候補ポップアップメニューを消すようにすればよい。ま
た、図8(a)乃至図8(e)ではジェスチャモードで
操作が行われているため、領域指定ジェスチャ(30
4)及び領域分割ジェスチャ(309)の表示が残った
ままになっている。ユーザは、誤認識された文字が正し
く修正されたのを確認してからジェスチャモードの解除
操作を行うと、領域指定ジェスチャ(304)及び領域
分割ジェスチャ(309)の表示が消えるとともにジェ
スチャモードからストローク解析モードに移り、次の入
力データを待つ状態になる。
FIG. 8 shows an example of a corrected display when a handwritten character is erroneously recognized as a character not intended by the user after the region designation gesture and the region division gesture for performing the character recognition shown in FIG. 4A are executed. It is. As shown in FIG. 8A, when "character input" is input by handwriting and the recognition processing is performed by the above-described method, "power" (Chinese "Chichi") is changed to "power" as shown in FIG. 8B. It is assumed that the character is misrecognized as "K" (Katakana). Then, an operation of displaying recognition candidates, for example, if a pen is touched for a while on a misrecognized character, FIG.
A recognition candidate pop-up menu (310) for displaying another recognition candidate as shown in (c) appears. As shown in FIG. 8D, when the user selects a desired correct character “strength” from other displayed candidates, the character is corrected as shown in FIG. 8E. Here, when there are a number of candidates that cannot be displayed at a time in the recognition candidate pop-up menu, the display may be switched by using an up / down scroll button or the like. After the recognition candidate pop-up menu is displayed, the recognition candidate pop-up menu may be erased at a timing such as when the pen is released over any of the candidates or when the pen is not touched for a certain period of time. 8A to 8E, since the operation is performed in the gesture mode, the region designation gesture (30
4) and the display of the region division gesture (309) remain. When the user confirms that the misrecognized character has been correctly corrected and then performs the gesture mode releasing operation, the display of the area designation gesture (304) and the area division gesture (309) disappears, and the stroke is changed from the gesture mode. The mode shifts to the analysis mode and waits for the next input data.

【0028】図9は、図4(a)に示す文字認識を行う
領域指定ジェスチャを実行後、ユーザは正しく文字認識
がされたと思い込んでジェスチャモードを解除したが、
実は誤認識されていた場合の文字の修正表示例を示すも
のである。図9(a)のように、誤認識された文字の上
で改めて文字(311)を書き直し、この文字を文字認
識を行う領域指定ジェスチャで囲むことにより図9
(b)のように修正できる。このようにすればメニュー
呼び出しなどの複雑な操作を覚えなくても誤認識された
文字の修正を行うことができる。
FIG. 9 shows that, after executing the area designation gesture for performing character recognition shown in FIG. 4A, the user cancels the gesture mode on the assumption that character recognition has been correctly performed.
Actually, it shows an example of correction display of a character when erroneously recognized. As shown in FIG. 9A, the character (311) is rewritten anew on the misrecognized character, and the character is surrounded by an area designation gesture for character recognition.
It can be modified as shown in FIG. In this way, the erroneously recognized characters can be corrected without having to remember complicated operations such as calling a menu.

【0029】図10及び図11は、図4(d)に示す別
処理呼出しを行う領域指定ジェスチャにより、かな漢字
変換のアプリケーションを起動して、平仮名で手書き入
力を行った文字を漢字に変換する例を示すものである。
図10(a)のように「ひらがな」と手書きで入力した
文字(303)に対し、別処理ジェスチャ(404)を
入力後かな漢字変換のアプリケーションが起動し、図1
0(b)のようにかな漢字変換ポップアップメニュー
(312)が表示され、メニューの中から所望の候補を
選択すると文字列は変換され、図10(c)のように変
換後の文字(313)が表示される。本実施の形態の別
処理呼出しは、領域指定ジェスチャの動作で文字認識と
アプリケーションの起動を同時に実行できるため操作性
に優れている。また、かな漢字変換ポップアップメニュ
ー(312)の表示切替えや消えるタイミングについて
は前述の認識候補ポップアップメニュー(310)と同
様である。さらに、図11(a)のように、かな漢字変
換の対象となるキャラクタをペンでなぞるような操作に
より選択することで(選択された文字(314)は反転
表示されている)、図11(b)のように漢字に変換さ
れる範囲を指定して所望の漢字を選択して図11(c)
のように変換することで、より変換されやすくなる。
FIGS. 10 and 11 show an example of activating a Kana-Kanji conversion application and converting characters input by handwriting in Hiragana into Kanji by the gesture for specifying an area for calling another process shown in FIG. 4D. It shows.
As shown in FIG. 10A, after inputting another processing gesture (404) for the character (303) handwritten as “Hiragana”, an application for kana-kanji conversion is activated, and FIG.
A kana-kanji conversion pop-up menu (312) as shown in FIG. 10 (b) is displayed, and when a desired candidate is selected from the menu, the character string is converted. As shown in FIG. 10 (c), the converted character (313) is displayed. Is displayed. The separate processing call according to the present embodiment is excellent in operability because character recognition and application activation can be performed simultaneously by the operation of the area designation gesture. The switching of the display of the Kana-Kanji conversion pop-up menu (312) and the timing at which it disappears are the same as those in the above-described recognition candidate pop-up menu (310). Further, as shown in FIG. 11 (a), by selecting a character to be subjected to the kana-kanji conversion by an operation such as tracing with a pen (the selected character (314) is highlighted), 11) Specifying a range to be converted to kanji as in FIG.
By converting like this, conversion becomes easier.

【0030】図12は、図4(a)に示す文字認識を行
う領域指定ジェスチャ及びジェスチャコマンドを利用し
て、手書きした数字を計算する表示例を示すものであ
る。図12(a)のように複数の数字を手書きで入力
し、図12(b)のように文字認識を行う領域指定ジェ
スチャ(304)を指定して更に領域分割ジェスチャ
(309)により数字毎に領域を分割すると、図12
(c)のようにそれぞれの数字は文字認識される。この
状態(ジェスチャモード)で、図12(d)のように合
計を計算するジェスチャコマンド「+」(315)を記
入すると、図12(e)のように領域内の数字が足し合
わされて計算結果である「1368」(316)が表示
される。
FIG. 12 shows a display example in which a handwritten numeral is calculated using an area designation gesture and a gesture command for character recognition shown in FIG. 4A. As shown in FIG. 12 (a), a plurality of numbers are input by hand, and as shown in FIG. 12 (b), an area specifying gesture (304) for performing character recognition is specified, and furthermore, an area dividing gesture (309) is used for each number. When the area is divided, FIG.
Each number is recognized as a character as shown in FIG. In this state (gesture mode), when a gesture command “+” (315) for calculating the total is entered as shown in FIG. 12D, the numbers in the area are added as shown in FIG. "1368" (316) is displayed.

【0031】図13は、図4(a)に示す文字認識を行
う領域指定ジェスチャ及びジェスチャコマンドを利用し
て、手書きした数字を計算する別の表示例を示すもので
ある。図13(a)のように計算したい内容を数式で手
書きし、図13(b)のように領域を指定して囲むと、
図13(c)のように文字認識されてキャラクタデータ
に変換される。この状態で、図13(d)のように計算
結果を求めるジェスチャコマンド「=」(317)を記
入すると、図13(e)のように計算結果である「57
9」(318)が表示される。ここで、数式と計算結果
の関係を示すために、ジェスチャコマンドである「=」
を清書してキャラクタデータの「=」として合わせて表
示するようにしている。他にも、数式を計算結果で置き
換えるような表示方法にしても良い。
FIG. 13 shows another display example in which a handwritten numeral is calculated by using an area designation gesture and a gesture command for character recognition shown in FIG. 4A. When the contents to be calculated are handwritten with mathematical formulas as shown in FIG. 13A and the area is designated and surrounded as shown in FIG.
As shown in FIG. 13C, characters are recognized and converted into character data. In this state, when a gesture command “=” (317) for obtaining the calculation result is entered as shown in FIG. 13D, the calculation result “57” is obtained as shown in FIG.
9 "(318) is displayed. Here, in order to show the relationship between the mathematical expression and the calculation result, the gesture command “=”
And is displayed as “=” of character data. In addition, a display method that replaces a mathematical expression with a calculation result may be used.

【0032】図14は、図4(a)に示す文字認識を行
う領域指定ジェスチャ及びジェスチャコマンドを利用し
て、誤認識された文字を修正する例を示すものである。
図14(a)のように「alphabet」と手書きで入力して
認識された結果、図14(b)のように「a1phabe七」
と誤認識されたとする。誤認識された「1」と「七」
を、図14(c)のようにアルファベットであることを
示すジェスチャコマンド「○」(319)で囲むことに
より、図14(d)のように認識対象をアルファベット
に限定することができ、正しい認識結果に修正すること
ができる。文字種を指定するジェスチャコマンドとして
は、平仮名の場合は「□」(四角)、数字の場合は
「△」(三角)というように別の記号のジェスチャコマ
ンドとしても良いし、ジェスチャコマンドの書き始めの
始点を上ならアルファベット、下なら平仮名、右なら数
字というように同じジェスチャコマンドの書き方で使い
分けるようにしても良い。
FIG. 14 shows an example in which an erroneously recognized character is corrected by using an area designation gesture and a gesture command for character recognition shown in FIG. 4A.
As a result of inputting and recognizing "alphabet" by handwriting as shown in FIG. 14A, "a1phabe seven" is recognized as shown in FIG. 14B.
Is mistakenly recognized. Misidentified "1" and "seven"
Is surrounded by a gesture command “O” (319) indicating that it is an alphabet as shown in FIG. 14C, so that the recognition target can be limited to the alphabet as shown in FIG. Can be modified to the result. Gesture commands for specifying the character type may be other symbols such as “□” (square) for hiragana, “△” (triangle) for numbers, or the beginning of writing a gesture command. The same gesture command may be used depending on how to write the same gesture command, such as the alphabet at the top, the hiragana at the top, and the numbers at the right.

【0033】図15は、図4(a)に示す文字認識を行
う領域指定ジェスチャ及びジェスチャコマンドを利用し
て、手書き入力した文字列を修正する例を示すものであ
る。図15(a)のように「あいううえおきくけこ」と
手書きした文字を認識処理して、図15(b)のように
キャラクタデータに変換した状態で、「う」を削除する
ジェスチャコマンド(320)と、「お」と「き」の間
に文字を挿入するジェスチャコマンド(321)を記入
し、図15(c)のように文字を挿入するジェスチャコ
マンドの上には挿入する文字「か」(322)を手書き
で記入すると、図15(d)のように文字列が修正され
て「あいうえおかきくけこ」となる。
FIG. 15 shows an example in which a character string input by handwriting is corrected using the gesture and the gesture command for specifying an area for performing character recognition shown in FIG. 4A. As shown in FIG. 15A, a gesture command (“U”) is deleted by recognizing a character handwritten as “Aoi Ue Kikuko” and converting it to character data as shown in FIG. 15B. 320) and a gesture command (321) for inserting a character between “o” and “ki” is written, and the character to be inserted is placed above the gesture command for inserting a character as shown in FIG. (322) by handwriting, the character string is corrected as shown in FIG.

【0034】以上、本発明の内容を領域指定ジェスチャ
の種類毎に説明をしてきた(編集を行う領域指定ジェス
チャは後述する)が、これらを踏まえて以下に本発明の
具体的な使用例を、図16乃至図35を用いて説明す
る。本使用例では、編集及び別処理呼出しを行う領域指
定ジェスチャを使用した例について説明するが、必要に
応じて前記実施例に挙げた文字認識及び図形認識を行う
領域指定ジェスチャを使用できることは言うまでもな
い。
Although the contents of the present invention have been described for each type of region designation gesture (the region designation gesture for editing will be described later), based on these, a specific example of use of the present invention will be described below. This will be described with reference to FIGS. In this use example, an example in which an area designation gesture for editing and calling another process is used will be described. However, it is needless to say that the area designation gesture for character recognition and graphic recognition described in the above embodiment can be used as needed. .

【0035】図16のように表示一体型タブレット装置
(401)上にペン(402)を用いて手書きでメモ
(403)が書かれている。左上の「12/18 会議
メモ」はこのメモの内容を表しており、後に検索すると
きのキーにしたいので、図17のように別処理ジェスチ
ャ(404)で領域を選択すると、図18のように領域
内の手書き入力データがキャラクタデータ(405)に
変換され、図19のように別処理ポップアップメニュー
(406)が呼び出されるので「キーワード登録」を選
択する。
As shown in FIG. 16, a memo (403) is handwritten on a display-integrated tablet device (401) using a pen (402). The “12/18 meeting memo” in the upper left represents the contents of this memo, and it is desired to use it as a key for searching later. When an area is selected by another processing gesture (404) as shown in FIG. 19, the handwritten input data in the area is converted into character data (405), and the separate processing pop-up menu (406) is called as shown in FIG.

【0036】次に、「追加」と書いておいた部分を修正
して別の絵を書くことにする。まず不要になった「追
加」の文字を削除するために、図20のように、編集操
作を行うための領域ジェスチャ(以下、編集ジェスチャ
という)(407)で領域選択すると編集ポップアップ
メニュー(408)が呼出される。ここで、「削除」を
選択すると、図21のように選択した領域が削除され
る。
Next, another portion is written by correcting the portion where "addition" is written. First, in order to delete an unnecessary “add” character, as shown in FIG. 20, when an area is selected by an area gesture (hereinafter, referred to as an editing gesture) (407) for performing an editing operation, an edit pop-up menu (408) is displayed. Is called. Here, when "delete" is selected, the selected area is deleted as shown in FIG.

【0037】次に追加するべき内容を追記するが、書き
込む内容が多いので一旦大きく書いておいてから縮小す
ることにする。図22のように編集ジェスチャ(40
7)を入力すると、編集ポップアップメニュー(40
8)が呼出されるので、図23のように「子画面作成」
を選択すると、図24のように選択した領域に相当する
ウィンドウ(409)が作成される。このウィンドウは
四隅に大きさを変更するためのハンドル(410)がつ
いており、図25のようにこのハンドルを操作して書込
む領域を広くする。ハンドルの操作はハンドルの上でペ
ンダウンし、そのままペンを動かすとハンドルが移動し
てウィンドウの大きさが調整される。図26のように内
容を書きこんだ後、図27のように再びハンドルを操作
してウィンドウを縮めると書き込んだ内容もウィンドウ
の大きさに合わせて縮小される。そしてウィンドウの外
をペンでタッチするなどの操作によりウィンドウの選択
を解除すると、図28のようにウィンドウの枠表示が消
える。ここでは、この部分は子ウィンドウで描かれてい
ることの手がかりとして点線のような目印(411)を
表示している。
Next, contents to be added are added, but since there are many contents to be written, the contents are once written large and then reduced. As shown in FIG. 22, the editing gesture (40
7), the edit pop-up menu (40
8) is called, and as shown in FIG.
When is selected, a window (409) corresponding to the selected area is created as shown in FIG. This window has handles (410) for changing the size at the four corners, and as shown in FIG. 25, the area to be written is widened by operating the handles. The operation of the handle is performed by moving the pen down on the handle, and moving the pen as it is moves the handle to adjust the size of the window. After the contents are written as shown in FIG. 26, when the window is shrunk by operating the handle again as shown in FIG. 27, the written contents are also reduced according to the size of the window. When the window selection is released by an operation such as touching the outside of the window with a pen, the window frame disappears as shown in FIG. Here, a mark (411) such as a dotted line is displayed as a clue that this part is drawn in the child window.

【0038】次に、このメモに書いた待ち合わせの内容
を参照することにする。図29のように待ち合わせ場所
である「東京駅」を別処理ジェスチャ(404)で領域
を選択すると、図30のように領域内の手書き入力デー
タがキャラクタデータに変換され、図31のように別処
理ポップアップメニュー(406)が呼び出されるので
「地図」を選択すると、データとして「東京駅」が渡さ
れて地図アプリケーションが起動され、地図検索が行わ
れて、図32のように東京駅周辺の地図(412)が表
示される。
Next, reference will be made to the contents of the meeting written in this memo. When an area is selected for the meeting place "Tokyo Station" as shown in FIG. 29 by a different processing gesture (404), the handwritten input data in the area is converted into character data as shown in FIG. When the processing pop-up menu (406) is called, when "map" is selected, "Tokyo Station" is passed as data, a map application is started, a map search is performed, and a map around the Tokyo station as shown in FIG. (412) is displayed.

【0039】また、図33のように名前の「吉田」を同
様にして別処理ジェスチャ(404)で選択すると、図
34のように領域内の手書き入力データがキャラクタデ
ータに変換され、別処理ポップアップメニュー(40
6)が呼び出されるので「住所録」を選択すると、住所
録アプリケーションが起動され、図35のように氏名検
索されて「吉田」の住所データ(413)が表示され
る。
When the name "Yoshida" is similarly selected by another processing gesture (404) as shown in FIG. 33, the handwritten input data in the area is converted into character data as shown in FIG. Menu (40
When 6) is called, when "address book" is selected, an address book application is started, and a name is searched as shown in FIG. 35, and address data (413) of "Yoshida" is displayed.

【0040】以上、本発明の実施例について説明をして
きたが、これらの動作を実現するための処理について、
以下、図36乃至図42を用いて説明する。
Although the embodiments of the present invention have been described above, processing for realizing these operations will be described below.
This will be described below with reference to FIGS.

【0041】図36は領域指定ジェスチャを判別する処
理の流れを説明する図である。まず、STEP101で
示すように、ペンによる入力をストローク情報として取
得する。この処理の詳細は後述する。次にSTEP10
2で示すように、取得されたストローク情報に対して領
域指定ジェスチャ認識処理を行う。次にSTEP103
で示すように、STEP101で取得されたストローク
情報がSTEP102で領域指定ジェスチャに相当する
と判断されたかどうかを判定する。相当するときはST
EP104で示すように、該ストロークから処理対象と
なる領域を生成し、STEP105で示すように、該領
域指定ジェスチャに割り当てられた処理を実行し、ST
EP106で示すように、後のペンによる入力をジェス
チャとして処理するモード(ジェスチャモード)に移行
する。STEP107で示すように、STEP103に
おいて該ストロークが領域指定ジェスチャに相当しない
ときは該ストローク情報を入力データとして記憶してお
く。
FIG. 36 is a diagram for explaining the flow of processing for determining an area designation gesture. First, as shown in STEP 101, an input by a pen is acquired as stroke information. Details of this processing will be described later. Next, STEP10
As shown by 2, an area designation gesture recognition process is performed on the acquired stroke information. Next, STEP103
As shown by, it is determined whether or not the stroke information acquired in STEP 101 is determined in STEP 102 to correspond to the region designation gesture. ST when equivalent
An area to be processed is generated from the stroke as shown in EP104, and a process assigned to the area designation gesture is executed as shown in STEP105.
As shown in EP 106, the mode shifts to a mode (gesture mode) in which a later input by a pen is processed as a gesture. As shown in STEP 107, when the stroke does not correspond to the area designation gesture in STEP 103, the stroke information is stored as input data.

【0042】次にSTEP101のストローク情報取得
処理の流れを図37を用いて説明する。まずSTEP2
01でペンがタブレットに触れた(ペンダウンされた)
かどうかをチェックする。ペンダウンされていないとき
はペンダウンされるまで待つ。ペンダウンされた時は次
の処理に進む。次にSTEP202で示すように、ペン
タブレット上におけるペン位置を座標データとして読み
取り、ストローク情報として記録し、STEP203で
示すように、ペンがペンタブレットから離れた(ペンア
ップされた)かどうかをチェックする。STEP202
においては、座標データの量を調整するために、前回の
座標データを読み取った時からの時間間隔が所定の時間
に満たない場合や、前回のペン位置からの移動量が小さ
いときには座標データをストローク情報に記録しないよ
うにしても良い。STEP203でペンアップされてい
なければSTEP202に戻り、ペンの位置を読み取り
続ける。STEP204で示すように、STEP203
でペンアップされていたらペンアップされた座標データ
を読み取りストローク情報に記録し、該ストローク情報
を完結する。以上の処理により、ペンがペンタブレット
に触れてから離れるまでの一連のペンの動きによって描
かれた手書き入力情報をストローク情報として取得する
ことができる。
Next, the flow of the stroke information acquisition process in STEP 101 will be described with reference to FIG. First, STEP2
01 touches the tablet (pen down)
Check whether or not. If the pen is not down, wait until the pen is down. When the pen is down, the process proceeds to the next step. Next, as shown in STEP 202, the pen position on the pen tablet is read as coordinate data, recorded as stroke information, and as shown in STEP 203, it is checked whether the pen has left the pen tablet (pen-up). . STEP202
In order to adjust the amount of coordinate data, when the time interval from when the previous coordinate data was read is less than a predetermined time, or when the amount of movement from the previous pen position is small, stroke the coordinate data. The information may not be recorded. If the pen is not up in STEP 203, the process returns to STEP 202 and the position of the pen is continuously read. As shown in STEP 204, STEP 203
If the pen has been moved up, the pen-up coordinate data is read and recorded in the stroke information, and the stroke information is completed. Through the above processing, handwritten input information drawn by a series of pen movements from when the pen touches the pen tablet until the pen is released can be acquired as stroke information.

【0043】STEP102での領域指定ジェスチャ認
識処理は一般的な手書き認識技術を利用すればよい。こ
の処理の一例を図38乃至図39を用いて説明する。
The region designation gesture recognition processing in STEP 102 may use a general handwriting recognition technique. An example of this processing will be described with reference to FIGS.

【0044】図38(a)は前記ストローク情報を所定
のジェスチャと比較するために変換するベクトルデータ
の例を示すものである。ストローク情報は一連の座標列
として得られるが、座標間で定義されるベクトルを8種
類の方向ベクトルに単純化し、それぞれに番号を割り当
てる。図38(b)乃至図38(c)はこれを用いてス
トローク情報をベクトルデータに変換した例である。ま
た、図4に示した領域指定ジェスチャをこの方向ベクト
ルを用いて表すと図39のようになる。例えば文字認識
を行う領域は左下から始まる左回りの矩形であるので、
右(1)、上(3)、左(5)、下(7)の順の方向ベ
クトルとなる。図39で最後の0はデータの末端を示す
符合である。
FIG. 38A shows an example of vector data converted for comparing the stroke information with a predetermined gesture. The stroke information is obtained as a series of coordinate strings. The vector defined between the coordinates is simplified into eight types of direction vectors, and a number is assigned to each of them. FIGS. 38 (b) to 38 (c) show examples in which stroke information is converted into vector data using this. FIG. 39 shows the region designation gesture shown in FIG. 4 using this direction vector. For example, since the area for character recognition is a counterclockwise rectangle starting from the lower left,
Direction vectors are right (1), upper (3), left (5), and lower (7). In FIG. 39, the last 0 is a code indicating the end of the data.

【0045】これらを用いてストローク情報と領域指定
ジェスチャとを比較する処理を図40に示す。STEP
301で示すように、まず比較するストローク情報を方
向ベクトルのデータSに変換する。この処理の具体例に
ついては前述の通りである。次にSTEP302乃至S
TEP303で示すように、カウンタiを0に、カウン
タjを0にする。次にSTEP304で示すように、ベ
クトルデータSのi番目の値Siと、比較するジェスチ
ャデータGのj番目の値Gjとを比較する。値が異なる
ならば該ストローク情報は該ジェスチャに相当しないの
で偽の値を返して処理を終了する。値が同じであれば次
の処理に進む。次にSTEP305で示すように、カウ
ンタiの値を1増やす。次にSTEP306で示すよう
に、iの値と該ベクトルデータSに含まれるデータの数
とを比較し、Sをすべて調べたかどうかを判定する。S
をすべて調べていたらSTEP311に進む。次にST
EP307で示すように、SiとGjの値を比較する。
SiとGjの値が同じであれば同じ方向にストロークが
続いているとみなされるのでSTEP305に戻り比較
を続ける。SiとGjの値が異なっていればストローク
の方向が変わったとみなされ、次の処理に移る。次にS
TEP308で示すように、カウンタjの値を1増や
す。次にSTEP309で示すように、Gjの値が0で
あるかどうかを判定する。Gjの値が該ジェスチャのデ
ータの終了を意味する0ならばデータは終了したとみな
されるが該ストローク情報はまだ残っており該ジェスチ
ャには相当しないことになるので偽の値を返して処理を
終了する。次にSTEP310で示すように、SiとG
jの値を比較する。SiとGjの値が同じであれば引き
続き該ジェスチャに相当するストロークが続いていると
みなされるのでSTEP305に戻り比較を続ける。S
iとGjの値が異なっていれば該ジェスチャとは異なる
とみなされるので偽の値を返して処理を終了する。ST
EP306でSをすべて調べたと判定された場合、ST
EP311で示すように、カウンタjの値を1増やし、
次にSTEP312で示すように、Gjの値が0かどう
かを判定する。0であれば閉曲線型のジェスチャである
とみなし、STEP313で示すように、ストロークが
閉曲線になっているかどうかを判定するために始点と終
点との距離を計算し、所定の値以下かどうかを判定す
る。所定の値以下であれば該ストロークは該ジェスチャ
に相当するので真の値を返して処理を終了する。所定の
値より大きければ該ストロークは該ジェスチャに相当し
ないので偽の値を返して処理を終了する。Gjの値が0
でなければ、取得したストローク情報のサンプリング数
に間違いがあった等の理由により正しく処理が実行され
なかったため、該ジェスチャには相当しないとみなし偽
の値を返して処理を終了する。
FIG. 40 shows a process for comparing stroke information with an area designation gesture using the above. STEP
As indicated by 301, first, the stroke information to be compared is converted into direction vector data S. A specific example of this processing is as described above. Next, from STEP 302 to S
As shown in TEP 303, the counter i is set to 0 and the counter j is set to 0. Next, as shown in STEP 304, the i-th value Si of the vector data S is compared with the j-th value Gj of the gesture data G to be compared. If the values are different, the stroke information does not correspond to the gesture, so a false value is returned and the process ends. If the values are the same, proceed to the next process. Next, as shown in STEP 305, the value of the counter i is increased by one. Next, as shown in STEP 306, the value of i is compared with the number of data included in the vector data S, and it is determined whether or not all S have been checked. S
If all have been checked, the flow proceeds to STEP311. Then ST
As shown in EP 307, the values of Si and Gj are compared.
If the values of Si and Gj are the same, it is considered that the stroke continues in the same direction, and the process returns to STEP 305 to continue the comparison. If the values of Si and Gj are different, it is considered that the direction of the stroke has changed, and the process proceeds to the next process. Then S
As indicated by TEP 308, the value of the counter j is increased by one. Next, as shown in STEP 309, it is determined whether or not the value of Gj is 0. If the value of Gj is 0, which means the end of the data of the gesture, the data is considered to be finished, but the stroke information is still left and does not correspond to the gesture. finish. Next, as shown in STEP 310, Si and G
Compare the value of j. If the values of Si and Gj are the same, it is considered that the stroke corresponding to the gesture continues, and the process returns to STEP 305 to continue the comparison. S
If the values of i and Gj are different, it is considered that the gesture is different, so a false value is returned and the process is terminated. ST
If it is determined in EP306 that all S have been checked, ST
As shown in EP311, the value of the counter j is increased by one,
Next, as shown in STEP 312, it is determined whether the value of Gj is 0. If it is 0, it is regarded as a closed curve type gesture, and as shown in STEP 313, the distance between the start point and the end point is calculated to determine whether or not the stroke is a closed curve, and it is determined whether the gesture is equal to or less than a predetermined value. I do. If the stroke is equal to or less than the predetermined value, the stroke corresponds to the gesture, so that a true value is returned and the processing is terminated. If the stroke is larger than the predetermined value, the stroke does not correspond to the gesture, so that a false value is returned and the process is terminated. Gj value is 0
If not, the processing was not correctly performed because the sampling number of the acquired stroke information was incorrect or the like, so that the processing does not correspond to the gesture, and a false value is returned, and the processing ends.

【0046】次に図36のSTEP105において領域
指定ジェスチャに割り当てられた処理を実行する例を、
文字認識を行う領域指定を例に図41を参照して説明す
る。まずSTEP401で示すように、STEP104
で生成された領域に含まれるストローク情報を取得す
る。次にSTEP402で示すように、STEP401
で得られたストローク情報に対して文字認識処理を行
う。文字認識処理は一般的な認識処理でよく、ここでは
説明を省略する。次にSTEP403で示すように、認
識された文字毎に相当するストロークの位置から文字の
表示位置を計算し、またSTEP404で示すように、
ストロークの大きさから文字の表示サイズを計算する。
次にSTEP405で示すように、STEP402乃至
STEP404で得られた文字の情報をテキスト情報記
憶部(206)に格納する。領域が複数に分割されてい
るときは以上の処理をそれぞれの領域に対して行えば良
い。
Next, an example of executing the processing assigned to the area designation gesture in STEP 105 of FIG. 36 will be described.
A description will be given with reference to FIG. First, as shown in STEP 401, STEP 104
To obtain the stroke information included in the area generated in step (1). Next, as shown in STEP 402, STEP 401
Character recognition processing is performed on the stroke information obtained in step (1). The character recognition process may be a general recognition process, and the description is omitted here. Next, as shown in STEP 403, the display position of the character is calculated from the position of the stroke corresponding to each recognized character, and as shown in STEP 404,
Calculate the display size of the character from the size of the stroke.
Next, as shown in STEP 405, the character information obtained in STEP 402 to STEP 404 is stored in the text information storage unit (206). When a region is divided into a plurality of regions, the above processing may be performed for each region.

【0047】次に図36のSTEP106においてペン
による入力をジェスチャとして処理するモードに移行し
た場合の処理の流れを図42を用いて説明する。まず、
STEP501で示すように、ペンによる入力をストロ
ーク情報として取得する。この処理の詳細は前述の通り
である。次にSTEP502で示すように、取得された
ストローク情報に対してジェスチャ認識処理を行う。次
にSTEP503で示すように、STEP501で取得
されたストローク情報がSTEP502でジェスチャに
相当すると判断されたかどうかを判定する。相当すると
きはSTEP504で示すように、該ストロークが相当
するジェスチャコマンドに対応した処理を実行する。次
にSTEP505で示すように、ジェスチャモードを終
了するかどうかを判定する。ジェスチャモードの終了は
特定のジェスチャを描いたときや、特定のキーを押した
ときや、一定時間ペンダウンされなかったときなどとす
ればよい。
Referring now to FIG. 42, the flow of processing when the mode is shifted to the mode of processing a pen input as a gesture in STEP 106 of FIG. 36 will be described. First,
As shown in STEP 501, an input by a pen is acquired as stroke information. The details of this processing are as described above. Next, as shown in STEP 502, a gesture recognition process is performed on the acquired stroke information. Next, as shown in STEP 503, it is determined whether or not the stroke information acquired in STEP 501 is determined to correspond to a gesture in STEP 502. If so, as shown in STEP 504, a process corresponding to the gesture command corresponding to the stroke is executed. Next, as shown in STEP 505, it is determined whether to end the gesture mode. The gesture mode may be ended when a specific gesture is drawn, when a specific key is pressed, or when the pen is not pressed down for a certain period of time.

【0048】[0048]

【発明の効果】本発明は、以上説明したようなものであ
るから、以下に記載されるような効果を奏する。
Since the present invention has been described above, it has the following effects.

【0049】閉領域を作り出すストロークの筆順に応じ
た処理を実行できるため、手書き入力の一連の動作で複
数の種類の処理を選択することができ、操作性及び機能
性が向上する。
Since a process corresponding to the stroke order of a stroke for creating a closed region can be executed, a plurality of types of processes can be selected in a series of handwriting input operations, thereby improving operability and functionality.

【0050】領域指定ジェスチャを認識した後に入力さ
れてくるストロークの解析をジェスチャコマンドに特定
することによりジェスチャコマンドの認識率が向上す
る。
By specifying the analysis of the stroke input after recognizing the region specifying gesture as the gesture command, the recognition rate of the gesture command is improved.

【0051】文字の区切りを指定することが可能なため
文字認識率が向上する。
Since character delimiters can be specified, the character recognition rate is improved.

【0052】手書き入力データを文字認識後直ちに他の
アプリケーションに渡し起動することが可能なため、デ
ータの再利用性が向上するとともに、簡単な操作で実行
できるため操作性が向上する。
Since the handwritten input data can be transferred to another application immediately after character recognition and started, the reusability of the data is improved, and the operability is improved because the data can be executed by a simple operation.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の手書き入力による情報処理装置の構成
ブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an information processing apparatus based on handwriting input according to the present invention.

【図2】本発明の処理を説明するための機能ブロック図
である。
FIG. 2 is a functional block diagram for explaining the processing of the present invention.

【図3】図2の詳細な機能ブロック図である。FIG. 3 is a detailed functional block diagram of FIG. 2;

【図4】本発明の実施例中での領域指定ジェスチャの例
を示す図である。
FIG. 4 is a diagram showing an example of an area designation gesture in the embodiment of the present invention.

【図5】本発明の実施例中で文字認識を行う例である。FIG. 5 is an example of performing character recognition in the embodiment of the present invention.

【図6】本発明の実施例中で図形認識を行う例である。FIG. 6 is an example of performing graphic recognition in the embodiment of the present invention.

【図7】本発明の実施例中で閉領域を複数の領域に分割
して文字認識を行う例である。
FIG. 7 is an example of performing character recognition by dividing a closed area into a plurality of areas in the embodiment of the present invention.

【図8】本発明の実施例中で手書き文字が誤認識された
場合の修正を行う例である。
FIG. 8 is an example in which a correction is made when a handwritten character is erroneously recognized in the embodiment of the present invention.

【図9】本発明の実施例中で手書き文字が誤認識された
場合の修正を行う例である。
FIG. 9 is an example in which a correction is made when a handwritten character is erroneously recognized in the embodiment of the present invention.

【図10】本発明の実施例中で手書き文字に対してかな
漢字変換を行う例である。
FIG. 10 is an example in which kana-kanji conversion is performed on handwritten characters in the embodiment of the present invention.

【図11】本発明の実施例中で手書き文字に対してかな
漢字変換を行う例である。
FIG. 11 is an example in which kana-kanji conversion is performed on handwritten characters in the embodiment of the present invention.

【図12】本発明の実施例中で手書きした数字に対して
ジェスチャコマンドを利用して計算を行う例である。
FIG. 12 is an example in which a handwritten number is calculated using a gesture command in the embodiment of the present invention.

【図13】本発明の実施例中で手書きした数字に対して
ジェスチャコマンドを利用して計算を行う例である。
FIG. 13 is an example in which a handwritten number is calculated using a gesture command in the embodiment of the present invention.

【図14】本発明の実施例中で誤認識された文字に対し
てジェスチャコマンドを利用して修正を行う例である。
FIG. 14 is an example in which a character misrecognized in the embodiment of the present invention is corrected using a gesture command.

【図15】本発明の実施例中で誤認識された文字に対し
てジェスチャコマンドを利用して修正を行う例である。
FIG. 15 is an example in which a character that is erroneously recognized in the embodiment of the present invention is corrected using a gesture command.

【図16】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 16 is a diagram illustrating a specific example of use in the embodiment of the present invention.

【図17】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 17 is a diagram illustrating a specific example of use in the embodiment of the present invention.

【図18】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 18 is a diagram illustrating a specific example of use in the embodiment of the present invention.

【図19】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 19 is a diagram for explaining a specific use example in the embodiment of the present invention.

【図20】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 20 is a diagram illustrating a specific example of use in the embodiment of the present invention.

【図21】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 21 is a diagram illustrating a specific example of use in an embodiment of the present invention.

【図22】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 22 is a diagram illustrating a specific example of use in the embodiment of the present invention.

【図23】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 23 is a diagram illustrating a specific example of use in an embodiment of the present invention.

【図24】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 24 is a diagram illustrating a specific example of use in an embodiment of the present invention.

【図25】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 25 is a diagram illustrating a specific example of use in the embodiment of the present invention.

【図26】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 26 is a diagram illustrating a specific example of use in the embodiment of the present invention.

【図27】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 27 is a diagram illustrating a specific example of use in an embodiment of the present invention.

【図28】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 28 is a diagram illustrating a specific example of use in an embodiment of the present invention.

【図29】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 29 is a diagram for explaining a specific use example in the embodiment of the present invention.

【図30】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 30 is a diagram illustrating a specific example of use in the embodiment of the present invention.

【図31】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 31 is a diagram illustrating a specific example of use in an embodiment of the present invention.

【図32】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 32 is a diagram illustrating a specific example of use in the embodiment of the present invention.

【図33】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 33 is a diagram illustrating a specific example of use in the embodiment of the present invention.

【図34】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 34 is a diagram illustrating a specific example of use in an embodiment of the present invention.

【図35】本発明の実施例中の具体的な使用例を説明す
る図である。
FIG. 35 is a diagram illustrating a specific example of use in an embodiment of the present invention.

【図36】本発明の実施例中で領域指定ジェスチャを判
別する処理の流れを説明する図である。
FIG. 36 is a diagram illustrating a flow of a process of determining an area designation gesture in the embodiment of the present invention.

【図37】本発明の実施例中でストローク情報取得処理
の流れの詳細を説明する図である。
FIG. 37 is a diagram illustrating details of a flow of a stroke information acquisition process in the embodiment of the present invention.

【図38】本発明の実施例中でストローク情報を所定の
ジェスチャと比較するために変換するベクトルデータの
例を示す図である。
FIG. 38 is a diagram illustrating an example of vector data to be converted in order to compare stroke information with a predetermined gesture in the embodiment of the present invention.

【図39】本発明の実施例中で領域指定ジェスチャをベ
クトルデータで表した例を示す図である。
FIG. 39 is a diagram illustrating an example in which an area designation gesture is represented by vector data in the embodiment of the present invention.

【図40】本発明の実施例中でストローク情報と所定の
ジェスチャとを比較する処理の流れを説明する図であ
る。
FIG. 40 is a diagram illustrating a flow of a process for comparing stroke information with a predetermined gesture in the embodiment of the present invention.

【図41】本発明の実施例中で領域指定ジェスチャに割
り当てられた処理を実行する例を示す図である。
FIG. 41 is a diagram illustrating an example of executing a process assigned to an area designation gesture in the embodiment of the present invention.

【図42】本発明の実施例中でペンによる入力をジェス
チャとして処理するモードに移行した場合の処理の流れ
を説明する図である。
FIG. 42 is a diagram illustrating a processing flow when the mode is shifted to a mode in which an input by a pen is processed as a gesture in the embodiment of the present invention.

【符合の説明】[Description of sign]

101 CPU(Central Processing Unit) 102 ROM(Read Only Memory) 103 RAM(Random Access Memory) 104 外部記憶装置 105 表示コントローラ 106 表示装置 107 手書き入力装置 201 ストローク記憶手段 202 ストローク解析手段 203 閉領域記憶手段 204 ストローク情報記憶部 205 図形情報記憶部 206 テキスト情報記憶部 207 ジェスチャ認識部 208 図形認識部 209 文字認識部 210 閉領域認識部 211 ストローク解析部 101 CPU (Central Processing Unit) 102 ROM (Read Only Memory) 103 RAM (Random Access Memory) 104 External storage device 105 Display controller 106 Display device 107 Handwriting input device 201 Stroke storage means 202 Stroke analysis means 203 Closed area storage means 204 Stroke Information storage section 205 Graphic information storage section 206 Text information storage section 207 Gesture recognition section 208 Graphic recognition section 209 Character recognition section 210 Closed area recognition section 211 Stroke analysis section

───────────────────────────────────────────────────── フロントページの続き (72)発明者 吉川 耕平 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 津森 靖 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 稗田 薫 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 島 慶一 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 Fターム(参考) 5B009 NA01 NC02 TB11 TB14 5B064 AB04 BA05 CA10 DD08 5B068 AA04 AA05 BD17 BE12 CC01 CC06 CC13 CC19  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Kohei Yoshikawa 22-22, Nagaikecho, Abeno-ku, Osaka-shi, Osaka Inside (72) Inventor Yasushi Tsumori 22-22 Nagaikecho, Abeno-ku, Osaka-shi, Osaka Sharp (72) Inventor Kaoru Hieda 22-22 Nagaikecho, Abeno-ku, Osaka City, Osaka Sharp Corporation (72) Inventor Keiichi Shima 22-22 Nagaikecho, Abeno-ku, Osaka City, Osaka Sharp Corporation F Terms (reference) 5B009 NA01 NC02 TB11 TB14 5B064 AB04 BA05 CA10 DD08 5B068 AA04 AA05 BD17 BE12 CC01 CC06 CC13 CC19

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 手書き入力されたストロークを記憶する
ストローク記憶手段と、前記ストロークを解析するスト
ローク解析手段と、解析結果により閉領域を生成するス
トロークであると判断した場合に、閉領域の範囲と閉領
域の生成手順に応じた処理の種類を記憶する閉領域記憶
手段とを有することを特徴とする情報処理装置。
1. A stroke storage unit for storing a stroke input by handwriting, a stroke analyzing unit for analyzing the stroke, and a range of the closed region when it is determined that the stroke is a stroke for generating a closed region based on an analysis result. An information processing apparatus comprising: a closed area storage unit configured to store a type of processing according to a closed area generation procedure.
【請求項2】 前記ストローク解析手段は、前記解析結
果により閉領域を生成するストロークであると判断した
場合に、その後入力されてくるストロークの解析を、予
め決められた記号として認識することを特徴とする請求
項1記載の情報処理装置。
2. A method according to claim 1, wherein said stroke analyzing means recognizes, as a predetermined symbol, an analysis of a subsequently input stroke when determining that the stroke is a stroke for generating a closed area based on the analysis result. The information processing apparatus according to claim 1.
【請求項3】 前記ストローク解析手段は、閉領域を複
数の範囲に分割するための予め決められた記号を認識し
た場合に、分割された各範囲ごとに処理を実行すること
を特徴とする請求項2記載の情報処理装置。
3. The method according to claim 2, wherein the stroke analysis unit executes a process for each of the divided ranges when recognizing a predetermined symbol for dividing the closed region into a plurality of ranges. Item 3. The information processing device according to Item 2.
【請求項4】 閉領域の範囲内のデータに基づいて所定
のアプリケーションを起動することを特徴とする請求項
1記載の情報処理装置。
4. The information processing apparatus according to claim 1, wherein a predetermined application is started based on data within a range of the closed area.
【請求項5】 手書き入力されたストロークを記憶する
ステップと、前記ストロークを解析するステップと、解
析結果により閉領域を生成するストロークであると判断
した場合に、閉領域の範囲と閉領域の生成手順に応じた
処理の種類を記憶するステップとを有することを特徴と
する情報処理方法。
5. A step of storing a stroke input by handwriting, a step of analyzing the stroke, and a step of generating a closed area range and a closed area when it is determined that the stroke is a stroke for generating a closed area based on an analysis result. Storing the type of processing according to the procedure.
【請求項6】 コンピュータを、ストロークを記憶する
手段、前記ストロークを解析する手段、解析結果により
閉領域を生成するストロークであると判断した場合に、
閉領域の範囲と閉領域の生成手順に応じた処理の種類を
記憶する手段として機能させるためのプログラムを記録
したコンピュータ読取り可能な記録媒体。
6. When the computer determines that the stroke is a stroke for generating a closed region based on a result of the analysis, the means for storing the stroke, the means for analyzing the stroke,
A computer-readable storage medium storing a program for functioning as a means for storing a range of a closed area and a type of processing according to a procedure for generating the closed area.
JP17491199A 1999-06-22 1999-06-22 Information processor and information processing method an d recording medium recording information processing program Pending JP2001005599A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17491199A JP2001005599A (en) 1999-06-22 1999-06-22 Information processor and information processing method an d recording medium recording information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17491199A JP2001005599A (en) 1999-06-22 1999-06-22 Information processor and information processing method an d recording medium recording information processing program

Publications (1)

Publication Number Publication Date
JP2001005599A true JP2001005599A (en) 2001-01-12

Family

ID=15986864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17491199A Pending JP2001005599A (en) 1999-06-22 1999-06-22 Information processor and information processing method an d recording medium recording information processing program

Country Status (1)

Country Link
JP (1) JP2001005599A (en)

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004031930A1 (en) * 2002-09-30 2004-04-15 Sanyo Electric Co., Ltd. Mobile digital devices
JP2004342101A (en) * 2003-05-08 2004-12-02 Orange Sa Data processing device and method
JP2005339420A (en) * 2004-05-31 2005-12-08 Sony Corp On-vehicle device, information providing method for on-vehicle device, program for information providing method for on-vehicle device, and storage medium recording the program for information providing method for on-vehicle device
JP2007504565A (en) * 2004-06-03 2007-03-01 リープフロッグ エンタープライズィーズ,インコーポレイテッド Interactive interface created by the user
US7486821B2 (en) 2003-06-10 2009-02-03 Samsung Electronics Co., Ltd. Method for recognizing characters in a portable terminal having an image input unit
JP2010045658A (en) * 2008-08-14 2010-02-25 Sony Corp Device, method and program for processing information
JP2011203829A (en) * 2010-03-24 2011-10-13 Seiko Epson Corp Command generating device, method of controlling the same, and projector including the same
JP2011242889A (en) * 2010-05-14 2011-12-01 Nippon Telegr & Teleph Corp <Ntt> Information input device using gesture, method and program
JP2012027532A (en) * 2010-07-20 2012-02-09 Canon Inc Information processor and information processing method
JP2012234514A (en) * 2011-05-03 2012-11-29 Samsung Electronics Co Ltd Device and method for inputting text on portable terminal
JP2012238344A (en) * 2012-09-12 2012-12-06 Dainippon Printing Co Ltd Board writing system, computer device and program
JP2012256088A (en) * 2011-06-07 2012-12-27 Dainippon Printing Co Ltd Electronic pen, terminal device, and program
JP2013073484A (en) * 2011-09-28 2013-04-22 Jvc Kenwood Corp Electronic apparatus, method for controlling electronic apparatus, and program
WO2013058047A1 (en) * 2011-10-21 2013-04-25 シャープ株式会社 Input device, input device control method, controlled device, electronic whiteboard system, control program, and recording medium
JP2013077302A (en) * 2011-09-29 2013-04-25 Samsung Electronics Co Ltd User interface providing method and device of portable terminal
JP2013228775A (en) * 2012-04-24 2013-11-07 Seiko Epson Corp Character input device
JP2014044673A (en) * 2012-08-28 2014-03-13 Kyocera Corp Portable terminal device
JP5489377B1 (en) * 2012-12-28 2014-05-14 パナソニック株式会社 Display device, display method, and display program
JP2014153865A (en) * 2013-02-07 2014-08-25 Toshiba Corp Electronic apparatus and handwritten document processing method
JP2014170551A (en) * 2013-03-04 2014-09-18 Samsung Electronics Co Ltd Data processing method and apparatus utilizing partial area of page
WO2014147722A1 (en) * 2013-03-18 2014-09-25 株式会社 東芝 Electronic apparatus, method, and program
WO2014192156A1 (en) * 2013-05-31 2014-12-04 株式会社 東芝 Electronic device and processing method
JP2015038670A (en) * 2012-11-28 2015-02-26 株式会社東芝 Electronic device, and method
JP2015064692A (en) * 2013-09-24 2015-04-09 ブラザー工業株式会社 Information input device
JP2015525926A (en) * 2012-07-13 2015-09-07 サムスン エレクトロニクス カンパニー リミテッド User terminal user interface device and method
JP2015191565A (en) * 2014-03-28 2015-11-02 シャープ株式会社 Display input device
JP2016015099A (en) * 2014-07-03 2016-01-28 シャープ株式会社 Handwriting input device and handwriting input method
JP2016048563A (en) * 2011-12-29 2016-04-07 アップル インコーポレイテッド Device, method and graphical user interface for configuring restricted interaction with user interface
JP2016218819A (en) * 2015-05-22 2016-12-22 シャープ株式会社 Pen input system, touch pen, and pen input method
JP2017068476A (en) * 2015-09-29 2017-04-06 ブラザー工業株式会社 Writing processing program and electronic writing device
JP2017084388A (en) * 2013-01-04 2017-05-18 株式会社Uei Information processing device and information input control program
US10209879B2 (en) 2011-12-29 2019-02-19 Apple Inc. Device, method, and graphical user interface for configuring and implementing restricted interactions for applications
JP2019066958A (en) * 2017-09-28 2019-04-25 株式会社コロプラ Program, processing method, and information terminal device
JP2019087280A (en) * 2019-02-07 2019-06-06 シャープ株式会社 Touch input display device, display control method and program
US10867059B2 (en) 2012-01-20 2020-12-15 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
US11960615B2 (en) 2021-06-06 2024-04-16 Apple Inc. Methods and user interfaces for voice-based user profile management

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7444163B2 (en) 2002-09-30 2008-10-28 Sanyo Electric Co., Ltd Mobile digital devices
CN1685301B (en) * 2002-09-30 2010-05-26 三洋电机株式会社 Mobile digital devices
WO2004031930A1 (en) * 2002-09-30 2004-04-15 Sanyo Electric Co., Ltd. Mobile digital devices
JP2004342101A (en) * 2003-05-08 2004-12-02 Orange Sa Data processing device and method
US7486821B2 (en) 2003-06-10 2009-02-03 Samsung Electronics Co., Ltd. Method for recognizing characters in a portable terminal having an image input unit
US8151210B2 (en) 2004-05-31 2012-04-03 Sony Corporation Vehicle-mounted apparatus, information providing method for use with vehicle-mounted apparatus, and recording medium recorded information providing method program for use with vehicle-mounted apparatus therein
JP2005339420A (en) * 2004-05-31 2005-12-08 Sony Corp On-vehicle device, information providing method for on-vehicle device, program for information providing method for on-vehicle device, and storage medium recording the program for information providing method for on-vehicle device
US9285955B2 (en) 2004-05-31 2016-03-15 Sony Corporation Vehicle-mounted apparatus, information providing method for use with vehicle-mounted apparatus, and recording medium recorded information providing method program for use with vehicle-mounted apparatus therein
US8458618B2 (en) 2004-05-31 2013-06-04 Sony Corporation Vehicle-mounted apparatus, information providing method for use with vehicle-mounted apparatus, and recording medium recorded information providing method program for use with vehicle-mounted apparatus therein
US10503358B2 (en) 2004-05-31 2019-12-10 Sony Corporation Vehicle-mounted apparatus, information providing method for use with vehicle-mounted apparatus, and recording medium recorded information providing method program for use with vehicle-mounted apparatus therein
JP2007504565A (en) * 2004-06-03 2007-03-01 リープフロッグ エンタープライズィーズ,インコーポレイテッド Interactive interface created by the user
JP2010045658A (en) * 2008-08-14 2010-02-25 Sony Corp Device, method and program for processing information
US8237655B2 (en) 2008-08-14 2012-08-07 Sony Corporation Information processing apparatus, method and program
US8698743B2 (en) 2008-08-14 2014-04-15 Sony Corporation Information processing apparatus, method and program
JP4720874B2 (en) * 2008-08-14 2011-07-13 ソニー株式会社 Information processing apparatus, information processing method, and information processing program
JP2011203829A (en) * 2010-03-24 2011-10-13 Seiko Epson Corp Command generating device, method of controlling the same, and projector including the same
JP2011242889A (en) * 2010-05-14 2011-12-01 Nippon Telegr & Teleph Corp <Ntt> Information input device using gesture, method and program
JP2012027532A (en) * 2010-07-20 2012-02-09 Canon Inc Information processor and information processing method
JP2012234514A (en) * 2011-05-03 2012-11-29 Samsung Electronics Co Ltd Device and method for inputting text on portable terminal
JP2012256088A (en) * 2011-06-07 2012-12-27 Dainippon Printing Co Ltd Electronic pen, terminal device, and program
JP2013073484A (en) * 2011-09-28 2013-04-22 Jvc Kenwood Corp Electronic apparatus, method for controlling electronic apparatus, and program
US9223487B2 (en) 2011-09-28 2015-12-29 JVC Kenwood Corporation Electronic apparatus, method of controlling the same, and related computer program
JP2013077302A (en) * 2011-09-29 2013-04-25 Samsung Electronics Co Ltd User interface providing method and device of portable terminal
WO2013058047A1 (en) * 2011-10-21 2013-04-25 シャープ株式会社 Input device, input device control method, controlled device, electronic whiteboard system, control program, and recording medium
JP2013089203A (en) * 2011-10-21 2013-05-13 Sharp Corp Input device, input device control method, controlled device, electronic whiteboard system, control program, and recording medium
CN103890698A (en) * 2011-10-21 2014-06-25 夏普株式会社 Input device, input device control method, controlled device, electronic whiteboard system, control program, and recording medium
JP2016048563A (en) * 2011-12-29 2016-04-07 アップル インコーポレイテッド Device, method and graphical user interface for configuring restricted interaction with user interface
US9703450B2 (en) 2011-12-29 2017-07-11 Apple Inc. Device, method, and graphical user interface for configuring restricted interaction with a user interface
US10209879B2 (en) 2011-12-29 2019-02-19 Apple Inc. Device, method, and graphical user interface for configuring and implementing restricted interactions for applications
US10867059B2 (en) 2012-01-20 2020-12-15 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
JP2013228775A (en) * 2012-04-24 2013-11-07 Seiko Epson Corp Character input device
JP2015525926A (en) * 2012-07-13 2015-09-07 サムスン エレクトロニクス カンパニー リミテッド User terminal user interface device and method
JP2014044673A (en) * 2012-08-28 2014-03-13 Kyocera Corp Portable terminal device
JP2012238344A (en) * 2012-09-12 2012-12-06 Dainippon Printing Co Ltd Board writing system, computer device and program
JP2015038670A (en) * 2012-11-28 2015-02-26 株式会社東芝 Electronic device, and method
US8988380B2 (en) 2012-12-28 2015-03-24 Panasonic Intellectual Property Corporation Of America Display apparatus, display method, and display program
JP5489377B1 (en) * 2012-12-28 2014-05-14 パナソニック株式会社 Display device, display method, and display program
JP2017084388A (en) * 2013-01-04 2017-05-18 株式会社Uei Information processing device and information input control program
JP2014153865A (en) * 2013-02-07 2014-08-25 Toshiba Corp Electronic apparatus and handwritten document processing method
JP2014170551A (en) * 2013-03-04 2014-09-18 Samsung Electronics Co Ltd Data processing method and apparatus utilizing partial area of page
JPWO2014147722A1 (en) * 2013-03-18 2017-02-16 株式会社東芝 Electronic device, method and program
WO2014147722A1 (en) * 2013-03-18 2014-09-25 株式会社 東芝 Electronic apparatus, method, and program
JPWO2014192156A1 (en) * 2013-05-31 2017-02-23 株式会社東芝 Electronic device and processing method
WO2014192156A1 (en) * 2013-05-31 2014-12-04 株式会社 東芝 Electronic device and processing method
JP2015064692A (en) * 2013-09-24 2015-04-09 ブラザー工業株式会社 Information input device
JP2015191565A (en) * 2014-03-28 2015-11-02 シャープ株式会社 Display input device
JP2016015099A (en) * 2014-07-03 2016-01-28 シャープ株式会社 Handwriting input device and handwriting input method
JP2016218819A (en) * 2015-05-22 2016-12-22 シャープ株式会社 Pen input system, touch pen, and pen input method
JP2017068476A (en) * 2015-09-29 2017-04-06 ブラザー工業株式会社 Writing processing program and electronic writing device
JP2019066958A (en) * 2017-09-28 2019-04-25 株式会社コロプラ Program, processing method, and information terminal device
JP2019087280A (en) * 2019-02-07 2019-06-06 シャープ株式会社 Touch input display device, display control method and program
US11960615B2 (en) 2021-06-06 2024-04-16 Apple Inc. Methods and user interfaces for voice-based user profile management

Similar Documents

Publication Publication Date Title
JP2001005599A (en) Information processor and information processing method an d recording medium recording information processing program
US5502803A (en) Information processing apparatus having a gesture editing function
US5481278A (en) Information processing apparatus
US6938220B1 (en) Information processing apparatus
EP0597379B1 (en) Pen input processing apparatus
JP5947887B2 (en) Display control device, control program, and display device control method
JPH06332610A (en) Handwritten information input processing system
JPH06139229A (en) Kana-kanji converting method using pen-type stylus and computer
KR20180119647A (en) Method for inserting characters into a string and corresponding digital device
US6542090B1 (en) Character input apparatus and method, and a recording medium
JP2963589B2 (en) Gesture processing device and gesture processing method
JP2003099713A (en) Device, method, and program for processing hand-written information, recording medium having the program recorded therein, and electronic blackboard
JP3388451B2 (en) Handwriting input device
JP3893013B2 (en) Character recognition method, computer-readable recording medium on which character recognition program is recorded, and character recognition device
JP3258978B2 (en) Gesture processing device and gesture processing method
JP2989084B2 (en) Information processing device
JP2012108893A (en) Hand-written entry method
JP2003005902A (en) Character inputting device, information processor, method for controlling character inputting device, and storage medium
JPH06131111A (en) Device and method for character recognition
JP2005108032A (en) Handwriting processing device
JPH06131109A (en) Information processor
JPH11154198A (en) Handwriting input device and storage medium
JPH1063775A (en) Document preparing device, and method for displaying recognition candidate
JP2994176B2 (en) Ruled line input device
JPH05324606A (en) Character inputting method and device