JPH06309465A - Method for recognizing/learning graphic - Google Patents

Method for recognizing/learning graphic

Info

Publication number
JPH06309465A
JPH06309465A JP5094596A JP9459693A JPH06309465A JP H06309465 A JPH06309465 A JP H06309465A JP 5094596 A JP5094596 A JP 5094596A JP 9459693 A JP9459693 A JP 9459693A JP H06309465 A JPH06309465 A JP H06309465A
Authority
JP
Japan
Prior art keywords
information
learning
curvature
neural network
graphic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5094596A
Other languages
Japanese (ja)
Inventor
Masaji Katagiri
雅二 片桐
Masakazu Nagura
正計 名倉
Hiroyuki Arai
啓之 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP5094596A priority Critical patent/JPH06309465A/en
Publication of JPH06309465A publication Critical patent/JPH06309465A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To attain the automatic recognition of a graphic without preparing graphic software for each graphic shape by extracting the curvature information of a graphic as input information to a neural network. CONSTITUTION:The stroke centerline of a graphic 300 to be learned is found out as a picture element string and the curvature information of each picture element is found out and divided on a feature point and inputted to an adaptive vector quantizer 100. The quantizer 100 includes a reference vector corresponding to the dimension of the inputted curvature information, compares the inputted curvature information with that of the reference vector and obtains an index in accordance with the shape. Namely, the curvature information is quantized to be input information of the neural network 200. Then the stroke centerline of a graphic 700 to be recognized is found out as a picture element string and curvature information of each picture element is found out and similarly quantized to be input information. The neural network 200 receives the index from the quantizer 100 and teacher information 500, executes learning and recognizing processing based upon a learned result and outputs a recognized result.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、線図形学習認識方法に
係り、特に、図面上の情報の設計、維持、管理等を行う
図面情報システムにおいて、図面中に描かれた図形情報
を計算機で取り扱える情報に変換する、即ち、初期図形
情報を図面から獲得する手段として、図面中の図形情報
を自動的に認識可能にする図形認識方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a line figure learning and recognition method, and more particularly, in a drawing information system for designing, maintaining and managing information on a drawing, the drawing information drawn in the drawing can be calculated by a computer. The present invention relates to a figure recognition method for automatically recognizing figure information in a drawing as a means for converting the information into handleable information, that is, obtaining initial figure information from the drawing.

【0002】[0002]

【従来の技術】図面中の図形情報を計算機で得る方法と
して、取扱い可能な情報に変換する従来の代表的な手法
は、図面を大型タブレットに張り付け、カーソルを用い
て、図形を構成する線分の1本1本を手作業で抽出する
方法がある。この方式では、多大な時間を要するため、
他の方法として図形情報を自動的に獲得するために、図
面の図形を自動的に認識させる手法も開発されている。
この図面中の図形を自動的に認識する従来の代表的な手
法は、図形の種類毎の対象図形の特徴情報を抽出処理し
た後、その図形種の分類処理を行うソフトウェア(図形
認識プログラム)を作成し、その図形認識プログラムを
用いて図面中の図形の認識を行うものである。
2. Description of the Related Art As a method for obtaining graphic information in a drawing by a computer, a typical conventional method for converting the information into manageable information is to stick the drawing on a large tablet and use a cursor to draw a line segment that composes the graphic. There is a method of manually extracting each of the above. This method requires a lot of time, so
As another method, a method of automatically recognizing a figure in a drawing has been developed in order to automatically acquire figure information.
A typical conventional method for automatically recognizing a figure in this drawing is a software (a figure recognizing program) for classifying the figure type after extracting characteristic information of the target figure for each type of figure. It is created and the figure in the drawing is recognized by using the figure recognition program.

【0003】一方、近年ニューラルネットワーク技術が
進展し、文字パターンや音声信号の認識に利用しようと
する技術の開発も進められている。ニューラルネットワ
ークは、入力情報とそれに対応するカテゴリ情報を教師
信号として与えることによって代表的な誤差逆伝播法等
の技術により、入力情報を自動的に学習するものであ
り、単純な(サイズ、方向、位置が固定した)文字パタ
ーンの自動学習や認識処理などに有効であることが検証
されている。
On the other hand, in recent years, the neural network technology has progressed, and the technology for utilizing it for recognition of character patterns and voice signals is also being developed. The neural network automatically learns the input information by a technique such as a typical error back-propagation method by giving the input information and the category information corresponding thereto as a teacher signal, and is simple (size, direction, It has been verified to be effective for automatic learning and recognition processing of character patterns (fixed position).

【0004】[0004]

【発明が解決しようとする課題】しかしながら、ニュー
ラルネットワーク技術を実用的なレベルで有効にするに
は、学習可能性の高い情報をいかにニューラルネットワ
ークに与えるかが問題であり、即ち、ニューラルネット
ワークへの入力情報(学習情報)の品質(学習可能性)
をいかに高いものにするかは、未解決の問題であり、個
々の事例毎に解決しなければならない。
However, in order to make the neural network technology effective at a practical level, the problem is how to provide the neural network with information with high learning possibility. Quality of input information (learning information) (learnability)
How to raise is an unsolved problem and must be solved for each individual case.

【0005】上記の従来の図形認識プログラム(手続き
型プログラミング)による手法は、取り扱う図形種毎に
プログラミングしなければならないのが通常であり、取
り扱う図形種が多くなればなるほど、また、図形の構造
が多少でも複雑になればなる程、膨大なプログラミング
を要し、また、そのソフトウェアの開発に、多大な開発
費と時間を要するのが一般的であり、大きな問題となっ
ている。このため、この従来の方法では、取り扱える図
形の形状が単純なものに限定され、一般的な図面の図形
情報の自動獲得には適用困難である。
In the above-mentioned conventional method using a figure recognition program (procedural programming), it is usually necessary to program each figure type to be handled, and the more the figure types to be handled, the more the structure of the figure becomes. The more complicated it becomes, the more enormous programming is required, and the development of the software generally requires a great deal of development cost and time, which is a big problem. Therefore, in this conventional method, the shape of the graphic that can be handled is limited to a simple shape, and it is difficult to apply it to general automatic acquisition of graphic information of a drawing.

【0006】また、ニューラルネットワーク等を用いて
自動的に学習することにより、図形の認識を行う方式が
いくつか開発されているが、その方式によって学習させ
た図形と認識させる図形とで大きさが異なる(拡大/縮
小されている)場合に適用できなかったり、認識させる
図形が回転している場合に適用できない等の問題があ
る。このため、適用できる事例がごく一部に限定され
る。
Further, some methods have been developed for recognizing a figure by automatically learning using a neural network or the like. The size of the figure learned by the method and the figure to be recognized are different in size. There is a problem that it cannot be applied when they are different (enlarged / reduced) or cannot be applied when the figure to be recognized is rotated. Therefore, only a limited number of cases can be applied.

【0007】本発明は、上記の点に鑑みなされたもの
で、上記従来の問題を解決し、図形形状毎に対応する図
形認識ソフトウェアを作成することなく、図形の自動認
識が実現でき、さらに、図形の位置変動、回転、拡大、
縮小に関わらず、自動認識が可能な線図形学習認識方法
を提供することを目的とする。
The present invention has been made in view of the above points, and solves the above-mentioned problems of the related art and realizes automatic recognition of figures without creating figure recognition software corresponding to each figure shape. Position change, rotation, enlargement of figure,
It is an object of the present invention to provide a line figure learning recognition method capable of automatic recognition regardless of reduction.

【0008】[0008]

【課題を解決するための手段】図1は本発明の原理構成
図である。
FIG. 1 is a block diagram showing the principle of the present invention.

【0009】紙面上に描かれた線図形からその図形の中
心線を求め(ステップ1)、図面のカテゴリ情報を付与
し(ステップ2)、図形の中心線を画素列として抽出
し、図形の形状構造を表現する情報として画素毎の曲率
情報を求め(ステップ3)、曲率情報から変曲点を特徴
点として抽出し、特徴点で区切られる区間の曲率情報を
適応的にベクトル量子化器の入力情報になるように正規
化し(ステップ4)、正規化された曲率情報をベクトル
量子化器に与え、ベクトル量子化器を適応的に学習させ
(ステップ5)、上記処理(ステップ1〜ステップ5)
を複数個の学習対象の図形分繰り返し(ステップ6)、
特徴点で区切られる区間の正規化された曲率情報を量子
化し(ステップ7)、量子化された曲率情報と対象図形
のカテゴリ情報とをニューラルネットワークに与え(ス
テップ8)、ニューラルネットワークに対象図形を学習
させる処理を複数個の学習対象図形数分繰り返し(ステ
ップ9)、学習用図形以外の新たな図形に対して正規化
された曲率情報を求め、量子化器により量子化し、量子
化された曲率情報をニューラルネットワークに入力し
(ステップ10)、ニューラルネットワークの出力情報
から認識図形の認識結果情報を得る(ステップ11)。
The center line of the figure is obtained from the line figure drawn on the paper (step 1), the category information of the drawing is added (step 2), the center line of the figure is extracted as a pixel row, and the shape of the figure is extracted. Curvature information for each pixel is obtained as information expressing the structure (step 3), inflection points are extracted from the curvature information as feature points, and the curvature information of the section delimited by the feature points is adaptively input to the vector quantizer. Information is normalized (step 4), the normalized curvature information is given to the vector quantizer, and the vector quantizer is adaptively learned (step 5), and the above processing (steps 1 to 5)
Is repeated for a plurality of learning target figures (step 6),
The normalized curvature information of the section delimited by the feature points is quantized (step 7), the quantized curvature information and the category information of the target figure are given to the neural network (step 8), and the target figure is given to the neural network. The learning process is repeated for a plurality of learning target figures (step 9), the curvature information normalized for a new figure other than the learning figure is obtained, quantized by a quantizer, and the quantized curvature is calculated. Information is input to the neural network (step 10), and recognition result information of the recognized figure is obtained from the output information of the neural network (step 11).

【0010】[0010]

【作用】本発明は、我々人間が図形を認識理解する過程
では図形の折れ曲がり具合(曲率情報)を利用してお
り、また、部分形状の特徴(急峻な曲がりなど)及びそ
の組み合わせにより図形をとらえていることに着目し、
また、幼児期の図形の認識/理解において与えられた図
形を何度も学習しながら、徐々にその図形を理解してい
くことに着眼し、前者の部分形状の特徴の把握に対して
適応的ベクトル量子化技術を後者の学習機能に対して、
近年急速に進歩したニューラルネットワーク技術を利用
するものである。
The present invention utilizes the bending degree (curvature information) of a figure in the process of human beings recognizing and understanding the figure, and also grasps the figure by the characteristics of the partial shape (a sharp curve, etc.) and their combination. Paying attention to
In addition, while learning the given figure many times in the recognition / understanding of the figure in early childhood, focusing on gradually understanding the figure, adaptive to grasping the characteristics of the former partial shape Vector quantization technology for the latter learning function,
It utilizes neural network technology that has advanced rapidly in recent years.

【0011】特に、図形の形状の特徴を図形の曲率情報
が的確に表現していることに着目し、その曲率情報を抽
出し、曲率情報を入力とする適応的ベクトル量子化によ
り、類似の特徴をもつ曲線部分をまとめた上で、隣接す
る曲線部分との相対的な長さの情報とともにニューラル
ネットワークへの入力情報とすることによって図形の学
習を行い、その結果のニューラルネットワークを用い
て、認識対応となる図形の認識を行う。
In particular, paying attention to the fact that the curvature information of a figure accurately expresses the characteristics of the shape of the figure, the curvature information is extracted, and adaptive vector quantization using the curvature information as an input causes similar characteristics. After collecting the curve parts with, the learning of the figure is performed by using the information of the relative length with the adjacent curve parts as input information to the neural network, and the resulting neural network is used for recognition. The corresponding figure is recognized.

【0012】これにより、システムに図形を提示する
(学習させる)だけで、サイズ・位置・回転の変動に影
響を受けない図形の認識が可能になる。
As a result, it is possible to recognize a figure that is not affected by variations in size, position, and rotation simply by presenting (learning) the figure to the system.

【0013】[0013]

【実施例】以下、本発明の実施例を図面と共に説明す
る。
Embodiments of the present invention will be described below with reference to the drawings.

【0014】まず、本発明の前提として、ニューラルネ
ットワークと適応的ベクトル量子化器について説明す
る。
First, a neural network and an adaptive vector quantizer will be described as a premise of the present invention.

【0015】図2はニューラルネットワークの原理構成
図を示す。
FIG. 2 shows the principle configuration of the neural network.

【0016】ニューラルネットワークは、種々の構成が
既存技術として開発されている。その中身については本
発明の特許請求の範囲に抵触するものでなく、ブラック
ボックスとする。そのブラックボックスとして与えられ
るニューラルネットワークは、入力情報と出力情報があ
り、入力情報に対するカテゴリ情報を教師情報として与
える。ニューラルネットワークに入力情報と教師情報を
与えることにより学習処理が行われる。その学習処理は
入力情報に対する出力情報と教師情報との差分(誤差)
をできるだけ小さくするように処理される。その差分
(誤差)をできるだけ小さくする方法として、誤差逆伝
播法などが一般的に用いられる。この誤差逆伝搬法は、
複数個の入力情報・教師情報を複数回繰り返し、学習処
理させることによって、ニューラルネットワークの出力
情報と教師情報との差分(誤差)が最小になるように学
習し、誤差が最小になった状態で学習が終了する。
Various structures of the neural network have been developed as existing technologies. The content of the black box does not conflict with the claims of the present invention. The neural network given as the black box has input information and output information, and gives category information for the input information as teacher information. Learning processing is performed by giving input information and teacher information to the neural network. The learning process is the difference (error) between the output information and the teacher information with respect to the input information.
Is processed to be as small as possible. As a method of making the difference (error) as small as possible, an error back propagation method or the like is generally used. This error backpropagation method
By repeating a plurality of input information / teaching information multiple times and performing learning processing, learning is performed so that the difference (error) between the output information of the neural network and the teaching information is minimized, and the error is minimized. Learning ends.

【0017】ここで、学習が終了したニューラルネット
ワークに、新たな入力情報を与えると、ニューラルネッ
トワークの出力情報として、既に学習されている入力情
報に最も似通った教師情報に略対応した情報を得ること
ができる。
Here, when new input information is given to the neural network which has finished learning, as output information of the neural network, information substantially corresponding to the teacher information most similar to the already learned input information is obtained. You can

【0018】本発明では、ニューラルネットワークへの
入力情報として、本発明の主眼とする図形形状を的確に
表現する曲率情報を後述する適応的ベクトル量子化器に
より量子化したものを与える。そして、その図形のカテ
ゴリ情報を教師情報として与えることによって、ニュー
ラルネットワークにおいて、図形の学習を行う。ニュー
ラルネットワークの学習が終了したネットワークに新た
な図形の曲率情報を入力情報として与えることによっ
て、その新たな図形のカテゴライジング(分類処理/認
識処理)を行わせるものである。
In the present invention, as input information to the neural network, curvature information that accurately expresses the figure shape, which is the main object of the present invention, is quantized by an adaptive vector quantizer described later. Then, by giving the category information of the figure as teacher information, the figure is learned in the neural network. By providing curvature information of a new figure as input information to the network for which learning of the neural network has been completed, categorizing (classification processing / recognition processing) of the new figure is performed.

【0019】なお、一般的に入力情報、出力情報、教師
情報はそれぞれ任意の数の任意の数値で与えられる。
In general, the input information, the output information, and the teacher information are given as arbitrary numbers.

【0020】次に、適応的ベクトル量子化器について説
明する。
Next, the adaptive vector quantizer will be described.

【0021】図3に適応的ベクトル量子化器の原理構成
図を示す。
FIG. 3 is a block diagram showing the principle of the adaptive vector quantizer.

【0022】適応的ベクトル量子化手法は、最近になっ
てその能力に注目が集まり、種々の方式/手法が既存技
術として開発されている。その内容については、先のニ
ューラルネットワークと同様の本発明の請求範囲に抵触
するものでなく、ブラックボックスとして扱うものとす
る。このブラックボックスとして扱う適応的ベクトル量
子化器にもニューラルネットワーク同様入力情報と出力
情報がある。前述のニューラルネットワークと異なるの
は、学習処理において、教師信号を与えない点である。
(教師信号を与える適応的ベクトル量子化器も既存技術
として存在するが、ここでは、教師信号を与えないもの
を扱う。)適応的ベクトル量子化器に学習用の入力情報
を予め定めた一定量を与えることにより学習処理が行わ
れる。ここでいう入力情報とは、任意の(但し、予め定
められた)次元の数値ベクトルである。適応的ベクトル
量子化器の内部には、任意の数の入力情報と同じ次元を
持つ参照ベクトルが保持されており、入力情報は逐次与
えられた時点での参照ベクトルと比較され、最も与えら
れた入力情報と距離の近い参照ベクトルが選ばれる。選
ばれた参照ベクトルはベクトルの各次元において、入力
情報との差分が少なくなるように、差分に1より小さい
ある係数εを乗じた値だけ、その値が修正される。この
係数εは、学習が進むにつれ、単調に減少し、予め設定
した学習回数分だけ学習用の入力情報が提示され、学習
が終了すると共に、0.0となるように制御される。即
ち、学習が進むにつれ、各参照ベクトルはそのベクトル
の値の周辺の入力情報の分布を代表する値を示すように
なり、学習が終了すると、適応的ベクトル量子化器の内
部の参照ベクトル群は固定され、それ以降変動しなくな
る。
The adaptive vector quantization method has recently attracted attention for its capability, and various methods / methods have been developed as existing techniques. The content does not conflict with the scope of claims of the present invention similar to the above neural network, and is treated as a black box. Like the neural network, the adaptive vector quantizer treated as this black box also has input information and output information. The difference from the above-mentioned neural network is that no teacher signal is given in the learning process.
(Although there is an adaptive vector quantizer that gives a teacher signal as an existing technology, here, one that does not give a teacher signal is handled.) A certain amount of input information for learning that is set in advance to the adaptive vector quantizer. Learning processing is performed by giving. The input information mentioned here is a numerical vector of arbitrary (but predetermined) dimension. The reference vector having the same dimension as any number of input information is held inside the adaptive vector quantizer, and the input information is compared with the reference vector at each given time point and given the most. A reference vector close to the input information is selected. The value of the selected reference vector is modified by a value obtained by multiplying the difference by a certain coefficient ε smaller than 1 so that the difference with the input information is reduced in each dimension of the vector. The coefficient ε monotonically decreases as the learning progresses, the input information for learning is presented by the preset number of times of learning, and is controlled to be 0.0 when the learning is completed. That is, as learning progresses, each reference vector shows a value representing the distribution of input information around the value of that vector, and when learning ends, the reference vector group inside the adaptive vector quantizer becomes It is fixed and does not change thereafter.

【0023】また、量子化処理は、この学習の終わった
参照ベクトル群を用いて行われる。即ち、入力情報は、
学習時と同様に各参照ベクトルと比較され、最も距離の
近い参照ベクトルが選ばれる。そして、適応的ベクトル
量子化器は、その選ばれた参照ベクトルに付与されてい
るインデックスを出力する。本発明で利用する適応的ベ
クトル量子化器では、このインデックスは、各参照ベク
トルにおいて、一意に定まる符号(番号)とする。
The quantization process is performed using the reference vector group that has been learned. That is, the input information is
Similar to the case of learning, each reference vector is compared and the reference vector with the shortest distance is selected. Then, the adaptive vector quantizer outputs the index given to the selected reference vector. In the adaptive vector quantizer used in the present invention, this index is a code (number) that is uniquely determined in each reference vector.

【0024】本発明では、この適応的ベクトル量子化器
に曲率情報を与えて、量子化を行う。この量子化によ
り、形状の似通った部分に関しては、同一のインデック
スが得られ、形状の異なる部分については、異なるイン
デックスが得られる。
In the present invention, the adaptive vector quantizer is provided with curvature information to perform quantization. By this quantization, the same index is obtained for the parts having similar shapes, and different indexes are obtained for the parts having different shapes.

【0025】図4は、本発明の一実施例のシステム概念
図を示す。
FIG. 4 is a system conceptual diagram of an embodiment of the present invention.

【0026】同図により、本発明の概要を説明する。ま
ず、適応的ベクトル量子化器100に量子化すべき紙面
上に描かれている線図形の中心線を求め、カテゴリ情報
を付与し、図形300の心線化を画素列として求め、そ
の画素列より各画素毎の曲率情報を求める。このように
して求められた曲率情報から形状が曲がっている変曲点
をその図形の特徴点とし、曲率情報を特徴点で分割す
る。分割された曲率情報を適応的ベクトル量子化器10
0に入力する。
The outline of the present invention will be described with reference to FIG. First, the adaptive vector quantizer 100 obtains the center line of the line figure drawn on the paper to be quantized, adds category information, obtains the core line of the figure 300 as a pixel row, and from that pixel row The curvature information for each pixel is obtained. An inflection point whose shape is bent from the curvature information thus obtained is used as a feature point of the figure, and the curvature information is divided by the feature points. Adaptive curvature vector quantizer 10 for the divided curvature information
Enter 0.

【0027】適応的ベクトル量子化器100は、入力さ
れた曲率情報の次元に対応する参照ベクトルを内有し、
この参照ベクトルと入力された曲率情報とが比較され、
その形状によりインデックスが得られる。このようにし
て曲率情報が量子化され、ニューラルネットワーク20
0の入力情報となる。
The adaptive vector quantizer 100 has a reference vector corresponding to the dimension of the input curvature information,
This reference vector is compared with the input curvature information,
The shape gives an index. In this way, the curvature information is quantized, and the neural network 20
The input information is 0.

【0028】ニューラルネットワーク200は適応的ベ
クトル量子化器100から入力されたインデックスと学
習対象図形300に付与されたカテゴリ情報400であ
る教師情報500が入力される。ニューラルネットワー
ク200は入力されたインデックスと教師情報500に
より学習を行う。
The neural network 200 receives the index input from the adaptive vector quantizer 100 and the teacher information 500 which is the category information 400 assigned to the learning target graphic 300. The neural network 200 learns by using the input index and the teacher information 500.

【0029】次に、ニューラルネットワーク200で上
記の学習対象図形300の学習処理が終了すると、認識
対象図形700の中心線を求め、カテゴリ情報を付与
し、図形700の心線を画素列として求め、その画素列
より各画素毎の曲率情報を求める。このようにして求め
られた曲率情報からその図形700の特徴点を図形30
0と同様にして求め、さらに、特徴点により曲率情報を
区分し、区分化された曲率情報を適応的量子化器100
に入力する。適応的量子化器100は入力された図形7
00に関する曲率情報を量子化し、これをニューラルネ
ットワーク200の入力情報とする。ニューラルネット
ワーク200は学習されている学習結果により認識処理
を行い、認識結果を出力する。
Next, when the learning process of the learning target figure 300 is completed by the neural network 200, the center line of the recognition target figure 700 is obtained, category information is added, and the core line of the figure 700 is obtained as a pixel row. The curvature information for each pixel is obtained from the pixel row. From the curvature information obtained in this way, the characteristic points of the graphic 700 are calculated as
0 is obtained in the same manner as described above, the curvature information is further divided by the feature points, and the divided curvature information is adaptively quantized by the adaptive quantizer 100.
To enter. The adaptive quantizer 100 receives the input graphic 7
The curvature information about 00 is quantized, and this is used as input information of the neural network 200. The neural network 200 performs recognition processing based on the learned learning result and outputs the recognition result.

【0030】図5は、本発明の一実施例の学習過程まで
を説明するためのフローチャートである。
FIG. 5 is a flow chart for explaining the learning process of one embodiment of the present invention.

【0031】紙面上に描かれた線図形は既存スキャナ装
置から電子計算機(以下、単に計算機と呼ぶ)内にディ
ジタル情報として読み込むことができ、計算機内に読み
込まれた線図形情報は、従来技術としての心線化処理
(細線化処理)によって、その線図形の心線(1画素幅
の中心線)を得る(ステップ100)。
The line graphic drawn on the paper surface can be read as digital information from an existing scanner device into an electronic computer (hereinafter, simply referred to as a computer), and the line graphic information read into the computer is a conventional technique. The core line (center line of one pixel width) of the line figure is obtained by the core line conversion process (thin line process) of (step 100).

【0032】上記の心線情報は、1画素幅の画素の連結
情報であり、その連結した画素列の連結を追跡すること
により、心線画素列情報を得ることができる(ステップ
101)。その画素列情報は、各画素の座標値の列であ
る。以下、その画素列をFで表し、各画素をdi で表
す。即ち、画素列Fは、F={di }(画素列の画素数
をnとすると、1≦i≦n,{ }はdi の集合を表
す。以下同じ)で表す。また、各画素の座標値を
(xi ,yi )で表し、画素列FをF={(xi
i )}と表す。
The above-mentioned core line information is the connection information of pixels of one pixel width, and the core line pixel column information can be obtained by tracing the connection of the connected pixel columns (step 101). The pixel column information is a column of coordinate values of each pixel. Hereinafter, the pixel column is represented by F, and each pixel is represented by d i . That is, the pixel array F is represented by F = {d i } (where n is the number of pixels in the pixel array, 1 ≦ i ≦ n, {} represents a set of d i; the same applies below). Further, the coordinate value of each pixel is represented by (x i , y i ), and the pixel column F is F = {(x i ,
y i )}.

【0033】画素列の各画素の曲率情報は線図形の折れ
曲がり具合を表現するものであり、線図形の幾何学的形
状情報を的確に表現しているとみなすことができる。そ
の曲率情報を各画素単位に次のように算出する(ステッ
プ102)。
The curvature information of each pixel in the pixel array expresses the degree of bending of the line figure, and can be regarded as accurately expressing the geometrical shape information of the line figure. The curvature information is calculated for each pixel as follows (step 102).

【0034】図6は本発明の一実施例の曲率情報の意味
を説明するための図である。
FIG. 6 is a diagram for explaining the meaning of curvature information according to an embodiment of the present invention.

【0035】即ち、画素di の曲率をCi で表し、次の
ように求める。図6(a)に示すように、画素di から
k個離れた画素の2個の画素(d(i-k) ,d(i+k) )を
設定し、画素d(i-k) と画素d(i+k) を接続する直線線
分をLk とする。次に、画素di から直線Lk への垂線
をつくり、その垂線の足(垂線と直線Lk との交点)を
k とし、画素di と点qk との距離をBk とする。さ
らに、上記kの値を1、2、3、…と順次増加させてい
くとき、その距離Bk が予め設定するパラメータEに対
して、Bk ≦Eなる条件でのkの最大値を求め、その最
大値をLとする。そして、図6(b)に示すように、画
素d(i-L) を始点、画素di を終点とするベクトルをV
- とし、画素di を始点、画素d(i+L) を終点とするベ
クトルV + とする。このようにして、作成された2個の
ベクトル(V- ,V+ )のなす角度をθi (角度をラジ
アンで表し、−π≦θi ≦π:πは円周率を表す)とす
る。ここで、図6(c)に示すように、画素d(i-L)
ら画素d(i+L) までの部分を画素d(i-L) ,di ,d
(i+L) の3点を通る円弧として近似する。この得られた
円弧の半径をRi として、この半径Ri の逆数1/Ri
を画素di における折れ曲がり具合を表現するものと
し、画素di における曲率情報Ci =1/Ri とする。
以上のようにして作成された画素列Fの曲率情報(FC
とする)は、Fc={Ci }で表す。
That is, the pixel diThe curvature of CiExpressed as
Ask. As shown in FIG. 6A, the pixel diFrom
Two pixels (d of k pixels apart)(ik), D(i + k))
Set the pixel d(ik)And pixel d(i + k)Straight line connecting
Minutes to LkAnd Next, pixel diFrom straight line LkPerpendicular to
Make a foot of the vertical line (vertical line and straight line Lk(Intersection with)
qkAnd pixel diAnd the point qkDistance to BkAnd It
In addition, the value of k is sequentially increased to 1, 2, 3, ...
When the time comes, the distance BkCorresponds to the preset parameter E
And then BkFind the maximum value of k under the condition
Let the large value be L. Then, as shown in FIG.
Element d(iL)Starting point, pixel diThe vector whose end point is V
-And pixel diStarting point, pixel d(i + L)End point
Cutle V +And The two created in this way
Vector (V-, V+) Is the angle θi(Radius angle
Expressed in Anne, −π ≦ θi≤ π: π represents the circular constant)
It Here, as shown in FIG. 6C, the pixel d(iL)Or
Pixel d(i + L)Up to pixel d(iL), Di, D
(i + L)It is approximated as an arc passing through the three points. Got this
The radius of the arc is RiAs this radius RiReciprocal of 1 / Ri
Pixel diTo express the degree of bending in
And pixel diCurvature information ati= 1 / RiAnd
Curvature information (FC
And F)c= {Ci} Represents.

【0036】なお、本実施例の説明では、説明の簡単化
のために、対象とする線図形(心線化画素列)がループ
を描く図形であるとして、以下に説明する。
In the description of the present embodiment, for simplification of the description, the following description will be made assuming that the target line figure (core-lined pixel row) is a figure that draws a loop.

【0037】即ち、画素列の最初の画素((x1
1 )):始点画素)と、最後の画素((xn
n ):終点画素)は隣接するものとし、これにより、
始点画素、終点画素の近傍画素における、それぞれから
k画素離れた2画素(d(i-k) ,d(i+k ) )を容易に得
ることができる。また、上記予め設定するパラメータE
は、画素間隔町の数倍に設定すればよいことが実験的に
確かめられている。
That is, the first pixel ((x 1 ,
y 1 )): starting pixel) and the last pixel ((x n ,
y n ): the end pixel) are adjacent, and
It is possible to easily obtain two pixels (d (ik) , d (i + k ) ) that are k pixels away from the start point pixel and the end point pixel and are adjacent to each other. Also, the above-mentioned preset parameter E
Has been experimentally confirmed to be set to several times the pixel interval town.

【0038】なお、本発明で用いている曲率という用語
は、数学的に厳密な定義の曲率を意味するものでなく、
直観的にわかりやすくするために、上述したように、図
形の折れ曲がり具合を表現するという意味で曲率情報と
いう用語を用いている。
The term "curvature" used in the present invention does not mean a mathematically strictly defined curvature,
In order to make it intuitively easy to understand, the term “curvature information” is used in the sense of expressing the bending degree of a figure, as described above.

【0039】図7は、本発明の一実施例の画素列Fの曲
率情報Fc の一例を示すグラフである。同図に示す曲率
情報FC は、同図左上に描かれているはさみ(原図形)
の情報である。
FIG. 7 is a graph showing an example of the curvature information F c of the pixel array F according to the embodiment of the present invention. The curvature information F C shown in the figure is the scissors (original figure) drawn in the upper left of the figure.
Information.

【0040】次に、上述のようにして求められた画素列
(心線)の曲率情報FC ={Ci }から、その対象図形
の特徴点を抽出する(ステップ103)。以下、具体例
を説明する。
Next, the characteristic points of the target graphic are extracted from the curvature information F C = {C i } of the pixel row (core line) obtained as described above (step 103). Hereinafter, a specific example will be described.

【0041】図7の例のように、曲率情報は、凹凸のあ
る曲線(的)グラフで表現される。本実施例では、この
グラフの中で、グラフが0の線を横切る点を特徴点とし
て抽出する。即ち、2次元平面上の線図形の凹凸の変曲
点を特徴点として算出する。この特徴点の算出方法は、
図7の例から容易に理解できるように、曲率が0.0と
なる点を抽出すればよい。
As in the example of FIG. 7, the curvature information is represented by a curved (target) graph having irregularities. In this embodiment, points in the graph that cross the line of 0 are extracted as feature points. That is, the inflection point of the unevenness of the line figure on the two-dimensional plane is calculated as the characteristic point. The calculation method of this feature point is
As can be easily understood from the example of FIG. 7, it is sufficient to extract a point having a curvature of 0.0.

【0042】上述の手段により、得られた特徴点によっ
て区切られる各区間の曲率情報は、図形の拡大・縮小に
より変動する情報であるため、この情報を図形の拡大・
縮小に無関係となるように正規化する(ステップ10
4)。曲率情報は上述のとおり円弧の半径の逆数である
ため、図形の拡大・縮小に対して反比例の関係をもつ。
従って、各区間の曲率情報に対してその区間の長さを乗
じることにより、図形の拡大・縮小に対して無関係な正
規化された曲率情報が算出される。この図形をその特徴
点で区切り、その区間の形状を表すものとして、図形の
拡大・縮小に対して無関係となるように、正規化された
曲率情報を用いる。
Since the curvature information of each section delimited by the feature points obtained by the above-mentioned means is information that varies depending on the enlargement / reduction of the figure, this information is enlarged / reduced.
Normalize to be independent of reduction (step 10)
4). Since the curvature information is the reciprocal of the radius of the arc as described above, it has an inversely proportional relationship with the enlargement / reduction of the figure.
Therefore, by multiplying the curvature information of each section by the length of that section, normalized curvature information that is irrelevant to the enlargement / reduction of the figure is calculated. This figure is divided by its characteristic points, and the curvature information normalized so as to have no relation to the enlargement / reduction of the figure is used as the shape of the section.

【0043】次に、上述のように、特徴点で区切られる
各区間毎に得られた、正規化された曲率情報を、適応的
ベクトル量子化器100の学習用入力情報として与え、
前述(従来の技術)したように、適応的ベクトル量子化
器100に学習を行わせる(ステップ105)。このと
き、学習用入力情報として与える前に、適応的ベクトル
量子化器100の入力ベクトル次元数に曲率情報(前述
の通り、各区間内の画素数個の曲率の列により構成され
る)を適合させる。
Next, as described above, the normalized curvature information obtained for each section divided by the feature points is given as learning input information of the adaptive vector quantizer 100,
As described above (prior art), the adaptive vector quantizer 100 is made to perform learning (step 105). At this time, the curvature information (consisting of a curvature sequence of several pixels in each section, as described above) is adapted to the input vector dimensionality of the adaptive vector quantizer 100 before being given as learning input information. Let

【0044】具体的には、区間内の画素列を適応的ベク
トル量子化器100の入力ベクトル次元数から1を減じ
た数で等分し、それぞれの分割点において、近傍の曲率
の平均をとったのを入力情報として与える。1つの図形
は、通常複数の変曲点を持つため、複数の区間に分割さ
れる。この複数の区間の曲率情報を一括して適応的ベク
トル量子化器100に学習用入力情報として与える。
Specifically, the pixel array in the interval is equally divided by the number of input vector dimensions of the adaptive vector quantizer 100 minus 1, and the average of the curvatures in the neighborhood is calculated at each division point. The input information is given. Since one figure usually has a plurality of inflection points, it is divided into a plurality of sections. The curvature information of the plurality of sections is collectively given to the adaptive vector quantizer 100 as learning input information.

【0045】複数の学習用図形がある場合も同様に、す
べての学習用図形に対して変曲点を求め、それにより分
割されるすべての区間に対して正規化を施した曲率情報
を求め、適応的ベクトル量子化器100の入力ベクトル
次元数に曲率情報を適合させ、それらの曲率情報を一括
して適応的ベクトル量子化器100に学習用入力情報と
して与え、学習を行わせる(ステップ106)。
Similarly, when there are a plurality of learning figures, inflection points are obtained for all learning figures, and curvature information obtained by normalizing all sections divided by the inflection points is obtained. The curvature information is adapted to the number of input vector dimensions of the adaptive vector quantizer 100, and the curvature information is collectively given to the adaptive vector quantizer 100 as learning input information to perform learning (step 106). .

【0046】以上の手順により、適応的ベクトル量子化
器100は、その参照ベクトル群を適応的に獲得する。
これにより、適応的ベクトル量子化器100は類似の曲
線形状をもつ変曲点から変曲点までの区間をそれぞれま
とめて、類似の区間には同一の符号(インデックス)を
つけることができるようになる。このためには、ステッ
プ106で算出した各学習用入力情報を、認識用入力情
報として与え、前述(従来の技術)の項で示した量子化
処理を行い、それぞれに対して量子化を行った結果とし
て符号(インデックス)を得る(ステップ107)。以
降のこの適応的ベクトル量子化器100によって得た区
間の符号(インデックス)を、インデックス情報と呼
ぶ。
Through the above procedure, the adaptive vector quantizer 100 adaptively acquires the reference vector group.
As a result, the adaptive vector quantizer 100 collects the sections from the inflection points having similar curve shapes to the inflection points, and assigns the same code (index) to the similar sections. Become. For this purpose, each learning input information calculated in step 106 is given as recognition input information, and the quantization processing shown in the above (Prior art) is performed, and each is quantized. As a result, a code (index) is obtained (step 107). Subsequent codes (indexes) obtained by the adaptive vector quantizer 100 are called index information.

【0047】ステップ107の処理により得られた学習
用図形の変曲点で区切られた各区間のインデックス情報
と、ステップ101により得られる画素列情報から求ま
る各区間の長さ(画素数)情報を入力情報として、ま
た、ステップ108により与えられたカテゴリ情報40
0を教師情報500として次にのべるように、ニューラ
ルネットワーク200に与え、学習処理を行う(ステッ
プ109)。一つの学習用図形の一つの区間Aを、現在
着目している区間とすると、その区間の前後の予め規定
した数(C)の区間の入力情報、即ち、区間のインデッ
クス情報と区間の長さ情報を、ニューラルネットワーク
200に与える。従って入力されるのは、インデックス
情報と長さの情報の組が(2C+1)組である。一つの
区間に対してのインデックス情報は、適応的ベクトル量
子化器100の参照ベクトルの数Tと等しい数の入力端
子を用意し、その中の当該インデックスに対応する端子
の値のみ1.0とし、それ以外を0.0とすることによ
り表す。
The index information of each section delimited by the inflection points of the learning graphic obtained by the processing of step 107 and the length (number of pixels) information of each section obtained from the pixel string information obtained in step 101 are obtained. As input information, also the category information 40 given in step 108
0 is given to the neural network 200 as the teaching information 500 as described below, and learning processing is performed (step 109). Assuming that one section A of one learning figure is the section currently focused on, input information of a predetermined number (C) of sections before and after the section, that is, section index information and section length Information is provided to neural network 200. Therefore, what is input is (2C + 1) sets of index information and length information. For index information for one section, the number of input terminals equal to the number T of reference vectors of the adaptive vector quantizer 100 is prepared, and only the value of the terminal corresponding to the index is set to 1.0. , And other values are set to 0.0.

【0048】従って、ニューラルネットワーク200に
必要となる入力端子の数は(T+1)×(2C+1)個
となる。また、長さ情報は、着目している区間Aの長さ
を1.0としたときの相対的な長さ情報をニューラルネ
ットワーク200に与える。このように、着目している
区間に対する前後の区間のインデックス情報と相対的な
長さの情報をニューラルネットワーク200に与えるこ
とが、本発明の主眼の一つである。これにより、図形の
拡大・縮小に対して影響を受けない学習・認識が可能と
なる。上の学習処理を学習させようとする図形の変曲点
で区切られる各区間に対して全て行う。
Therefore, the number of input terminals required for the neural network 200 is (T + 1) × (2C + 1). The length information gives the neural network 200 relative length information when the length of the section A of interest is 1.0. Thus, one of the main points of the present invention is to provide the neural network 200 with the index information of the sections before and after the section of interest and the information of the relative length. This enables learning / recognition that is not affected by enlargement / reduction of figures. The above learning process is performed for each section divided by the inflection points of the figure to be learned.

【0049】学習対象図形が複数存在する場合は、その
各々の学習図形毎に、ステップ107、ステップ109
の処理により学習処理を行う(ステップ110)。ニュ
ーラルネットワーク200は一度入力情報・教師情報を
提示されただけで、直ちに学習を終了するものではな
く、学習が終了するまで何度も繰り返し学習処理する必
要がある。また、学習は、ニューラルネットワーク20
0に入力情報を与え学習処理を行ったときに、その出力
として得られる出力情報と教師情報500との差分(誤
差)総和が最小となり、かつその差分(誤差)総和の変
化が殆どなくなるときに終了するものとする。
When there are a plurality of learning target figures, step 107 and step 109 are performed for each learning figure.
The learning process is performed by the process (step 110). The neural network 200 does not end learning immediately after being presented with input information and teacher information once, but needs to repeatedly perform learning processing until the learning ends. In addition, learning is performed by the neural network 20.
When the input information is input to 0 and the learning process is performed, the sum of the differences (errors) between the output information obtained as the output and the teacher information 500 becomes minimum, and there is almost no change in the sum of the differences (errors). It shall end.

【0050】以上の処理により、複数個の学習用図形の
学習処理が終了し、ニューラルネットワーク200は、
複数個の図形を学習したことになる。このニューラルネ
ットワーク200を用いて別途作成される認識用図形の
認識処理を図8を用いて説明する。
With the above processing, the learning processing of a plurality of learning figures is completed, and the neural network 200 becomes
You have learned more than one figure. A recognition process of a recognition figure separately created using this neural network 200 will be described with reference to FIG.

【0051】まず、認識用図形の変曲点により区切られ
た各区間に対しての正規化された曲率情報を算出する
(ステップ200)。曲率情報を算出するには、上記の
ステップ100からステップ104の処理と同様であ
る。
First, the normalized curvature information for each section delimited by the inflection point of the recognition figure is calculated (step 200). The calculation of the curvature information is the same as the processing in steps 100 to 104 described above.

【0052】ステップ200により得られた認識用図形
の各区間の曲率情報を上記ステップ106により得られ
た学習済の適応的ベクトル量子化器100を用いて量子
化し、インデックス情報を得る(ステップ201)。
The curvature information of each section of the recognition graphic obtained in step 200 is quantized by using the learned adaptive vector quantizer 100 obtained in step 106 to obtain index information (step 201). .

【0053】ステップ201により得られたインデック
ス情報と、ステップ200で得られた各区間の長さの情
報を上記のステップ110で得られた学習済のニューラ
ルネットワーク200に入力情報として入力し、認識処
理を行わせ、その処理結果(ニューラルネットワーク2
00の出力情報)を得る(ステップ202)。このニュ
ーラルネットワーク200の学習処理時に、教師情報5
00としてカテゴリ情報400を与えているため、ここ
での認識処理時の出力情報は、与えた認識用図形のカテ
ゴリ情報400として得ることができる。即ち、予め提
示し、学習させた図形のうちのどの図形に最も類似して
いるかという情報を得ることができ、図形の認識を行う
ことができる。また、曲率情報をその処理の基としてい
るため、図形の平行移動・回転には影響を受けずに学習
・認識処理が行われる。さらに、曲線の形状を長さで正
規化しており、また、隣接する区間同士での相対的な長
さのみを利用しているため、図形の拡大・縮小に対して
も影響を受けずに学習・認識処理が行われる。
The index information obtained in step 201 and the information about the length of each section obtained in step 200 are input as input information to the learned neural network 200 obtained in step 110, and the recognition processing is performed. And the processing result (neural network 2
00 output information) is obtained (step 202). During the learning process of this neural network 200, the teacher information 5
Since the category information 400 is given as 00, the output information at the time of the recognition processing here can be obtained as the category information 400 of the given recognition graphic. That is, it is possible to obtain information as to which figure out of the figures that have been presented and learned in advance, and that the figure can be recognized. Further, since the curvature information is the basis of the processing, the learning / recognition processing is performed without being affected by the parallel movement / rotation of the figure. In addition, the shape of the curve is normalized by the length, and since only the relative length between adjacent sections is used, learning is not affected by the scaling of the figure. -The recognition process is performed.

【0054】なお、上記説明では、学習対象図形、認識
対象図形を紙面上に描かれた図形としてスキャナ装置等
から入力しているが、マウス等を用いて計算器に接続さ
れるディスプレイ装置上に直接描きながら計算器に入力
した図形情報においても、その図形の心線(中心線)を
上述した画素列として容易に得ることができる。また、
その他の手法を用いても、対象図形の心線が上述した画
素列として得られる本発明の範囲内であれば、種々変更
が可能である。
In the above description, the learning target graphic and the recognition target graphic are input as a graphic drawn on the paper from the scanner device or the like, but on the display device connected to the calculator using the mouse or the like. Even in the graphic information input to the calculator while directly drawing, the core line (center line) of the graphic can be easily obtained as the above-mentioned pixel row. Also,
Various methods can be used as long as the core line of the target graphic is within the scope of the present invention in which the pixel line is obtained as described above.

【0055】[0055]

【発明の効果】上述のように、本発明によれば、図形の
形状を的確に表現する曲率情報を、図形の拡大・縮小に
影響を受けないように、適応的ベクトル量子化器及びニ
ューラルネットワークを利用して学習させ、その学習さ
れたベクトル量子化器とニューラルネットワークを用い
て、別途作成される図形を認識する方法であるため、従
来のように、図形形状毎に対応する図形認識のソフトウ
ェア(プログラム)を作成することなく、図形の自動認
識が実現でき、さらに、他のニューラルネットワークを
用いた方式とは異なり、図形の位置変動、回転、拡大、
縮小に関わらず自動認識が可能であるため、実用的価値
は極めて高い。
As described above, according to the present invention, the curvature information that accurately represents the shape of a graphic is adaptive vector quantizer and neural network so as not to be affected by the enlargement / reduction of the graphic. Is a method of recognizing a separately created figure by using the learned vector quantizer and neural network, so that the figure recognition software corresponding to each figure shape as in the past Automatic recognition of figures can be realized without creating a (program). Furthermore, unlike the method using other neural networks, position change, rotation, enlargement,
Practical value is extremely high because automatic recognition is possible regardless of reduction.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理説明図である。FIG. 1 is a diagram illustrating the principle of the present invention.

【図2】ニューラルネットワークの原理構造を示す図で
ある。
FIG. 2 is a diagram showing a principle structure of a neural network.

【図3】適応的ベクトル量子化器の原理構造を示す図で
ある。
FIG. 3 is a diagram showing a principle structure of an adaptive vector quantizer.

【図4】本発明の一実施例のシステム概念図である。FIG. 4 is a system conceptual diagram of an embodiment of the present invention.

【図5】本発明の一実施例の学習過程までを説明するた
めのフローチャートである。
FIG. 5 is a flowchart for explaining a learning process according to an embodiment of the present invention.

【図6】本発明の一実施例の曲率情報の意味を説明する
ための図である。
FIG. 6 is a diagram for explaining the meaning of curvature information according to an embodiment of the present invention.

【図7】本発明の一実施例の画素列Fの曲率情報FC
一例を示すグラフである。
FIG. 7 is a graph showing an example of curvature information F C of the pixel row F according to the embodiment of the present invention.

【図8】本発明の一実施例の認識過程のフローチャート
である。
FIG. 8 is a flowchart of a recognition process according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

100 適応的ベクトル量子化器 200 ニューラルネットワーク 300 学習対象図形 400 カテゴリ情報 500 教師情報 600 認識結果情報 700 認識対象図形 100 adaptive vector quantizer 200 neural network 300 learning target figure 400 category information 500 teacher information 600 recognition result information 700 recognition target figure

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 紙面上に描かれた線図形からその図形の
心線を求め、該図面のカテゴリ情報を付与し、 該図形の中心線を画素列として抽出し、該図形の形状構
造を表現する情報として該画素毎の曲率情報を求め、 該曲率情報から変曲点を特徴点として抽出し、該特徴点
で区切られる区間の曲率情報を適応的にベクトル量子化
器の入力情報になるように正規化し、 該正規化された曲率情報を該ベクトル量子化器に与え、
該ベクトル量子化器を適応的に学習させ、 上記処理を複数個の学習対象の図形数分繰り返し、 該特徴点で区切られる区間の正規化された該曲率情報を
量子化し、量子化された曲率情報と該対象図形のカテゴ
リ情報とをニューラルネットワークに与え、該ニューラ
ルネットワークに対象図形を学習させる処理を複数個の
学習対象図形数分繰り返し、 学習用図形以外の新たな図形に対して該正規化された曲
率情報を求め、該量子化器により量子化し、量子化され
た曲率情報を該ニューラルネットワークに入力し、該ニ
ューラルネットワークの出力情報から認識図形の認識結
果情報を得ることを特徴とする線図形学習認識方法。
1. A shape line of a graphic is expressed by obtaining a core line of the graphic from a line graphic drawn on paper, adding category information of the graphic, and extracting a center line of the graphic as a pixel row. The curvature information for each pixel is obtained as the information to be extracted, the inflection point is extracted from the curvature information as a feature point, and the curvature information of the section delimited by the feature point is adaptively input to the vector quantizer. And the normalized curvature information is given to the vector quantizer,
The vector quantizer is adaptively trained, the above process is repeated for a plurality of learning target figures, the normalized curvature information of the section delimited by the feature points is quantized, and the quantized curvature is quantized. The information and the category information of the target figure are given to the neural network, and the process of learning the target figure by the neural network is repeated for a plurality of learning target figures, and the normalization is performed on a new figure other than the learning figure. A line characterized in that the obtained curvature information is obtained, quantized by the quantizer, the quantized curvature information is input to the neural network, and the recognition result information of the recognition figure is obtained from the output information of the neural network. Figure learning recognition method.
JP5094596A 1993-04-21 1993-04-21 Method for recognizing/learning graphic Pending JPH06309465A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5094596A JPH06309465A (en) 1993-04-21 1993-04-21 Method for recognizing/learning graphic

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5094596A JPH06309465A (en) 1993-04-21 1993-04-21 Method for recognizing/learning graphic

Publications (1)

Publication Number Publication Date
JPH06309465A true JPH06309465A (en) 1994-11-04

Family

ID=14114659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5094596A Pending JPH06309465A (en) 1993-04-21 1993-04-21 Method for recognizing/learning graphic

Country Status (1)

Country Link
JP (1) JPH06309465A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1183246A (en) * 1997-06-06 1999-03-26 Carrier Corp System for monitoring refrigerant charge
WO2001003068A1 (en) * 1999-07-05 2001-01-11 Mitsubishi Denki Kabushiki Kaisha Method and device for displaying or searching for object in image and computer-readable storage medium
WO2001003069A1 (en) * 1999-07-05 2001-01-11 Mitsubishi Denki Kabushiki Kaisha Method and device for displaying or searching for object in image and computer-readable storage medium
WO2001006457A1 (en) * 1999-07-15 2001-01-25 Mitsubishi Denki Kabushiki Kaisha Method and device for displaying or searching for object in image and computer-readable storage medium
KR100415074B1 (en) * 2001-10-09 2004-01-14 채영도 Method for recognition of the resemblance of the object and apparatus thereof
US7068821B2 (en) 2001-01-29 2006-06-27 Canon Kabushiki Kaisha Information processing method and apparatus
JP2007172409A (en) * 2005-12-22 2007-07-05 Matsushita Electric Works Ltd Image processing method
WO2012070474A1 (en) * 2010-11-26 2012-05-31 日本電気株式会社 Object or form information expression method
JP2012146108A (en) * 2011-01-12 2012-08-02 Toshiba Corp Image recognition apparatus, image recognition method and program
JP2020087418A (en) * 2018-11-30 2020-06-04 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited Systems and methods for automating information extraction from piping and instrumentation diagrams

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1183246A (en) * 1997-06-06 1999-03-26 Carrier Corp System for monitoring refrigerant charge
KR100937273B1 (en) * 1999-07-05 2010-01-18 미쓰비시덴키 가부시키가이샤 Method, apparatus, computer system and computer-readable storage medium for representing or searching for an object in an image
CN1311411C (en) * 1999-07-05 2007-04-18 三菱电机株式会社 Method, device and computer program for object representation and search on pattern
US7492972B2 (en) 1999-07-05 2009-02-17 Mitsubishi Denki Kabushiki Kaisha Method, apparatus, computer program, computer system, and computer-readable storage medium for representing and searching for an object in an image
US7505628B2 (en) 1999-07-05 2009-03-17 Mitsubishi Denki Kabushiki Kaisha Method and device for processing and for searching for an object by signals corresponding to images
KR100944584B1 (en) * 1999-07-05 2010-02-25 미쓰비시덴키 가부시키가이샤 Method, apparatus, computer system and computer-readable storage medium for representing or searching for an object in an image
KR100448610B1 (en) * 1999-07-05 2004-09-13 미쓰비시덴키 가부시키가이샤 Method and device for displaying object in image and computer-readable storage medium
US6882756B1 (en) 1999-07-05 2005-04-19 Mitsubishi Denki Kabushiki Kaisha Method and device for displaying or searching for object in image and computer-readable storage medium
US6931154B1 (en) 1999-07-05 2005-08-16 Mitsubishi Denki Kabushiki Kaisha Method and device for displaying or searching for object in image and computer-readable storage medium
WO2001003068A1 (en) * 1999-07-05 2001-01-11 Mitsubishi Denki Kabushiki Kaisha Method and device for displaying or searching for object in image and computer-readable storage medium
KR100892470B1 (en) * 1999-07-05 2009-04-10 미쓰비시덴키 가부시키가이샤 Method for representing and searching an object in an image, apparatus, and computer readable medium thereof
US7505638B2 (en) 1999-07-05 2009-03-17 Mitsubishi Denki Kabushiki Kaisha Method and device for processing and for searching for an object by signals corresponding to images
US7257277B2 (en) 1999-07-05 2007-08-14 Mitsubishi Electric Information Technology Centre Europe B.V. Method, apparatus, computer program, computer system and computer-readable storage for representing and searching for an object in an image
KR100809831B1 (en) * 1999-07-05 2008-03-04 미쓰비시덴키 가부시키가이샤 Method, apparatus, computer system and computer readable medium for representing and searching for an object in an mage
US7356203B2 (en) 1999-07-05 2008-04-08 Mitsubishi Denki Kabushiki Kaisha Method, apparatus, computer program, computer system, and computer-readable storage medium for representing and searching for an object in an image
US7430338B2 (en) 1999-07-05 2008-09-30 Mitsubishi Denki Kabushiki Kaisha Method and device for processing and for searching for an object by signals corresponding to images
US7483594B2 (en) 1999-07-05 2009-01-27 Mitsubishi Denki Kabushiki Kaisha Method, apparatus, computer program, computer system, and computer-readable storage medium for representing and searching for an object in an image
US7542626B2 (en) 1999-07-05 2009-06-02 Mitsubishi Denki Kabushiki Kaisha Method, apparatus, computer program, computer system, and computer-readable storage medium for representing and searching for an object in an image
US7532775B2 (en) 1999-07-05 2009-05-12 Mitsubishi Denki Kabushiki Kaisha Method and device for processing and for searching for an object by signals corresponding to images
WO2001003069A1 (en) * 1999-07-05 2001-01-11 Mitsubishi Denki Kabushiki Kaisha Method and device for displaying or searching for object in image and computer-readable storage medium
US7505637B2 (en) 1999-07-05 2009-03-17 Mitsubishi Denki Kabushiki Kaisha Method, apparatus, computer program, computer system, and computer-readable storage medium for representing and searching for an object in an image
US7646920B2 (en) 1999-07-15 2010-01-12 Mitsubishi Denki Kabushiki Kaisha Method, apparatus, computer program, computer system and computer-readable storage for representing and searching for an object in an image
US7664327B2 (en) 1999-07-15 2010-02-16 Mitsubishi Denki Kabushiki Kaisha Method, apparatus, computer program, computer system and computer-readable storage for representing and searching for an object in an image
WO2001006457A1 (en) * 1999-07-15 2001-01-25 Mitsubishi Denki Kabushiki Kaisha Method and device for displaying or searching for object in image and computer-readable storage medium
US7574049B2 (en) 1999-07-15 2009-08-11 Mitsubishi Denki Kabushiki Kaisha Method, apparatus, computer program, computer system and computer-readable storage for representing and searching for an object in an image
US7613342B1 (en) 1999-07-15 2009-11-03 Mitsubishi Denki Kabushiki Kaisha Method and device for displaying or searching for object in image and computer-readable storage medium
JP4727879B2 (en) * 1999-07-15 2011-07-20 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ Method for displaying an object appearing in an image, apparatus therefor, and computer-readable storage medium
KR100436532B1 (en) * 1999-07-15 2004-06-22 미쓰비시덴키 가부시키가이샤 Method and device for displaying object in image and computer-readable storage medium
US7068821B2 (en) 2001-01-29 2006-06-27 Canon Kabushiki Kaisha Information processing method and apparatus
KR100415074B1 (en) * 2001-10-09 2004-01-14 채영도 Method for recognition of the resemblance of the object and apparatus thereof
JP2007172409A (en) * 2005-12-22 2007-07-05 Matsushita Electric Works Ltd Image processing method
WO2012070474A1 (en) * 2010-11-26 2012-05-31 日本電気株式会社 Object or form information expression method
JPWO2012070474A1 (en) * 2010-11-26 2014-05-19 日本電気株式会社 Information representation method of object or shape
JP5754055B2 (en) * 2010-11-26 2015-07-22 日本電気株式会社 Information representation method of object or shape
US9256802B2 (en) 2010-11-26 2016-02-09 Nec Corporation Object or shape information representation method
JP2012146108A (en) * 2011-01-12 2012-08-02 Toshiba Corp Image recognition apparatus, image recognition method and program
JP2020087418A (en) * 2018-11-30 2020-06-04 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited Systems and methods for automating information extraction from piping and instrumentation diagrams

Similar Documents

Publication Publication Date Title
CN111160533B (en) Neural network acceleration method based on cross-resolution knowledge distillation
CN108960207B (en) Image recognition method, system and related components
CN111950453A (en) Optional-shape text recognition method based on selective attention mechanism
CN110990543A (en) Intelligent conversation generation method and device, computer equipment and computer storage medium
KR101183391B1 (en) Image comparison by metric embeddings
CN107392865B (en) Restoration method of face image
CN111259940A (en) Target detection method based on space attention map
JPH06309465A (en) Method for recognizing/learning graphic
CN110705399A (en) Method for automatically identifying mathematical formula
CN114022882B (en) Text recognition model training method, text recognition device, text recognition equipment and medium
CN111597932A (en) Road crack image identification method, device and system based on convolutional neural network
JP2023547010A (en) Model training methods, equipment, and electronics based on knowledge distillation
CN110188819A (en) A kind of CNN and LSTM image high-level semantic understanding method based on information gain
EP0450522A2 (en) A learning method for a data processing system
CN113837965A (en) Image definition recognition method and device, electronic equipment and storage medium
CN117115614B (en) Object identification method, device, equipment and storage medium for outdoor image
CN111428191B (en) Antenna downtilt angle calculation method and device based on knowledge distillation and storage medium
Georgy et al. Data dimensionality reduction for face recognition
WO2023078009A1 (en) Model weight acquisition method and related system
CN115035351B (en) Image-based information extraction method, model training method, device, equipment and storage medium
CN112200275B (en) Artificial neural network quantification method and device
CN115546813A (en) Document analysis method and device, storage medium and equipment
JPH0737095A (en) Line graphic element piece learning and recognizing method
CN115496734A (en) Quality evaluation method of video content, network training method and device
Phong et al. Offline and online deep learning for image recognition