JP2706744B2 - Image data position distortion correction method - Google Patents

Image data position distortion correction method

Info

Publication number
JP2706744B2
JP2706744B2 JP4105780A JP10578092A JP2706744B2 JP 2706744 B2 JP2706744 B2 JP 2706744B2 JP 4105780 A JP4105780 A JP 4105780A JP 10578092 A JP10578092 A JP 10578092A JP 2706744 B2 JP2706744 B2 JP 2706744B2
Authority
JP
Japan
Prior art keywords
image
correction
image data
vectorized
distortion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP4105780A
Other languages
Japanese (ja)
Other versions
JPH06208617A (en
Inventor
義数 守
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Corp
Original Assignee
Nippon Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Steel Corp filed Critical Nippon Steel Corp
Priority to JP4105780A priority Critical patent/JP2706744B2/en
Publication of JPH06208617A publication Critical patent/JPH06208617A/en
Application granted granted Critical
Publication of JP2706744B2 publication Critical patent/JP2706744B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、図面データの自動入力
装置などに利用される画像データの位置歪み補正方法に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for correcting positional distortion of image data used in an automatic input device for drawing data.

【0002】[0002]

【従来の技術】図面をイメージスキャナーなどで電子的
に走査し、得られた2値の画像データに対してベクトル
化処理と文字、記号等の図形要素の認識とを行う図面の
自動入力システムが開発されている。このような図面の
自動入力システムでは、図面の描かれている媒体( 例え
ば紙やマイラー紙) の伸縮や、イメージスキャナの有限
の解像度、あるいは媒体の送り精度等に起因する図形デ
ータの微小な位置誤差(歪み) が自動入力された図面デ
ータ全体にわたって生じる。特に、A3乃至A1サイズ
程度の大型の設計図などでは、大きな位置歪みが発生す
る。このため、ベクトル化処理の前処理として、位置歪
みの補正を行うことが往々にして必要になる。
2. Description of the Related Art An automatic drawing input system for scanning a drawing electronically with an image scanner or the like and performing vectorization processing on the obtained binary image data and recognizing graphic elements such as characters and symbols has been developed. Is being developed. In such an automatic drawing input system, a minute position of graphic data due to expansion and contraction of a medium (for example, paper or mylar paper) on which the drawing is drawn, a finite resolution of an image scanner, or a feeding accuracy of the medium. Errors (distortion) occur throughout the automatically entered drawing data. In particular, large positional distortion occurs in a large design such as A3 to A1. For this reason, it is often necessary to correct positional distortion as a pre-process of the vectorization process.

【0003】このような位置歪みを補正する方法として
は、例えば周知のアフィン変換による方法( 例えば「エ
レクトロニクス技術集中基礎口座 ディジタル画像処理
技術」日本工業技術センター 昭和58年発行参照) や、
立体幾何の“点による投影"に基づく方法( 例えば「数
学ワンポイント双書 立体幾何」 共立出版昭和54年発
行参照) 、あるいは水平もしくは垂直方向に存在する位
置歪みをその位置歪みの方向と直交する方向に段階的に
補正する方法( 特開平1-253796等) などが知られ
ている。いずれの方法による場合でも、イメージスキャ
ナで読取ったラスターデータを構成する画素群のそれぞ
れについて位置歪みを補正している。
As a method of correcting such positional distortion, for example, a well-known affine transformation method (for example, see “Electronic Technology Concentration Basic Account Digital Image Processing Technology”, published by Japan Industrial Technology Center, 1983),
A method based on the "point projection" of solid geometry (for example, see "Mathematics One-point Sosoku Solid Geometry", published by Kyoritsu Shuppan in 1979) There is known a method of performing stepwise correction (for example, JP-A-1-253796). In either case, the positional distortion is corrected for each of the pixel groups constituting the raster data read by the image scanner.

【0004】本出願人が先に出願した「画像データの位
置歪み補正方法」と題する特願平3ー303936号の
明細書には、ベクトル処理後の図枠内に含まれる画像デ
ータについて、アフィン変換による3点位置歪み補正
と、未補正の1個の頂点を対応の補正後の頂点に一致さ
せるための補正量を算定し、これを図枠内の各画像デー
タに相対位置に応じて比例配分する4点位置歪み補正方
法が開示されている。
[0004] The specification of Japanese Patent Application No. 3-303936 entitled "Method of Correcting Positional Distortion of Image Data" previously filed by the present applicant discloses that image data contained in a picture frame after vector processing is affine. The three-point position distortion correction by the conversion and the correction amount for making one uncorrected vertex coincide with the corresponding corrected vertex are calculated, and this is proportional to each image data in the drawing frame according to the relative position. A method for correcting a four-point position distortion to be distributed is disclosed.

【0005】[0005]

【発明が解決しようとする課題】上記従来の位置歪み補
正方法では、自動入力後の図枠などの位置歪みから補正
係数を算定し、これに基づき図枠内の図面データの位置
歪みを補正しているが、これは図面全体に生じた平均的
な補正量のもとで位置歪みを行うことを意味している。
しかしながら、このような方法では、媒体の送りむらな
どによって発生した局部的な歪みを補正できないと
問題がある。
In the above-described conventional position distortion correction method, a correction coefficient is calculated from the position distortion of a drawing frame or the like after automatic input, and based on this, the position distortion of drawing data in the drawing frame is corrected. However, this means that positional distortion is performed under an average correction amount generated in the entire drawing.
However, this method has a problem that it has Failure to correct the local distortions generated by such feed unevenness of the medium.

【0006】また、上記従来の位置歪み補正方法のうち
上記本出願人の先願に係わるもの以外では、ラスターデ
ータを構成する画素群のそれぞれに対して位置歪みの補
正を行っている。これは、従来、位置歪み補正対象の図
面サイズが数百画素×数百画素程度と比較的小さなもの
が主体であったためと考えられる。しかしながら、A3
乃至A1サイズの大きな設計図を対象とする図面の自動
入力システムでは、位置歪み補正対象のラスターデータ
の画素数が数万画素×数万画素程度もの膨大なものとな
るため、処理時間が長引くという問題がある。また、補
正対象のラスターデータを蓄積しておく大容量のメモリ
に加えて位置歪み補正中のラスターデータを一時的に蓄
積しておく大容量のメモリも必要になり、システム全体
が高価になるという問題がある。
[0006] In the above-described conventional position distortion correction method, the position distortion is corrected for each of the pixel groups constituting the raster data, except for the method according to the prior application of the present applicant. It is considered that this is because the drawing size to be subjected to the positional distortion correction is conventionally relatively small, about several hundred pixels × several hundred pixels. However, A3
In an automatic drawing input system for a design drawing with a large A1 size, the processing time is prolonged because the number of pixels of the raster data to be subjected to position distortion correction is tens of thousands × tens of thousands of pixels. There's a problem. Further, in addition to a large-capacity memory for storing the raster data to be corrected, a large-capacity memory for temporarily storing the raster data being subjected to position distortion correction is required, which makes the entire system expensive. There's a problem.

【0007】従って、本発明の一つの解決課題は、媒体
の送りむらなどによって発生する局部的な位置歪みに対
応可能な新規な位置歪み補正方法を提供することにあ
る。
It is, therefore, an object of the present invention to provide a novel position distortion correction method capable of coping with local position distortion caused by uneven feeding of a medium.

【0008】本発明の他の解決課題は、処理時間とコン
ピュータ資源の低減が可能な新規な位置歪み補正方法を
提供することにある。
Another object of the present invention is to provide a novel position distortion correction method capable of reducing processing time and computer resources.

【0009】[0009]

【課題を解決するための手段】本発明に係わる画像デー
タの位置歪み補正方法は、 a.媒体上に所定間隔で縦横に配列される複数の基準線
によって囲まれる枡目を形成しておく段階と、 b.イメージスキャナで読取られベクトル化処理され
枡目内部にベクトル化 画像データを含むことを条件とし
て、枡目の全部又は一部を抽出する段階と、 c.上記抽出した1個又は隣接する複数個の枡目につい
て実際に抽出した4個の頂点と位置歪みが無いことを想
定して算定した4個の頂点とに基づきこの枡目に含まれ
るベクトル化画像データに対して4点位置歪みを行う段
階とを含んでいる。
According to the present invention, there is provided a method for correcting a positional distortion of image data, comprising the steps of: a. Forming meshes surrounded by a plurality of reference lines arranged vertically and horizontally at predetermined intervals on a medium; b. It is read by an image scanner and vectorized ,
On condition that vectorized image data is included inside the mesh
Te, extracting all or part of the squares, c. A vectorized image included in the mesh based on the actually extracted four vertices of the extracted one or a plurality of adjacent meshes and the four vertices calculated assuming that there is no positional distortion. Performing a four-point position distortion on the data.

【0010】[0010]

【作用】紙などの媒体上には、所定サイズの枡目が予め
形成される。イメージスキャナで読取られベクトル化処
理された各枡目は、媒体の送りむらなどによって発生す
る局部的な位置歪みを反映したものとなる。各枡目の全
部あるいは内部にベクトル化された画像データをを含む
ものだけが抽出され、抽出された各枡目あるいは隣接複
数個の枡目を単位としてこれらに含まれるベクトル化画
像データに対し4点位置歪み補正が行われる。この4点
位置歪み補正は、実際に抽出した4個の頂点と、位置歪
みが無いことを想定して算定した4個の頂点とに基づき
行われる。補正単位の枡目の個数を送りむらの発生状況
に応じて適宜設定することにより、最小限の処理時間の
もとで必要な精度の歪み補正が行われる。
A mesh of a predetermined size is previously formed on a medium such as paper. Each mesh read by the image scanner and subjected to the vectorization process reflects local positional distortion caused by uneven feeding of the medium or the like. Only those containing vectorized image data in all or inside each cell are extracted, and each extracted cell or a plurality of adjacent cells are used as a unit for the vectorized image data contained therein. Point position distortion correction is performed. This four-point positional distortion correction is performed based on the four vertices actually extracted and the four vertices calculated assuming that there is no positional distortion. By appropriately setting the number of cells in the correction unit according to the occurrence state of uneven feeding, distortion correction with necessary accuracy is performed in a minimum processing time.

【0011】また、本発明の位置歪み補正方法によれ
ば、ベクトル化処理後に位置歪みの補正を行うため、ラ
スターデータを補正する場合に比べて、データ量が大幅
に圧縮され、処理時間の短縮、コンピュータ資源の低減
が可能になる。
Further, according to the position distortion correction method of the present invention, since the position distortion is corrected after the vectorization processing, the data amount is greatly reduced as compared with the case of correcting the raster data, and the processing time is shortened. Thus, computer resources can be reduced.

【0012】[0012]

【実施例】図4は、本発明の一実施例の画像データの位
置歪み補正方法をベクトル化や文字認識等の前処理とし
て行う図面自動入力システムの構成を示すブロック図で
あり、1はCPU、2はワークRAM、3はグラフィッ
クコントローラ、4は画像メモリ、5は表示装置、6は
イメージスキャナ、7はスキャナインタフェース、8は
入力インタフェース、9はキーボード、10はマウス、
11はデータメモリ、12はシステムバスである。
FIG. 4 is a block diagram showing the construction of an automatic drawing input system for performing a method for correcting positional distortion of image data according to one embodiment of the present invention as preprocessing such as vectorization and character recognition. 2, a work RAM, 3 a graphic controller, 4 an image memory, 5 a display device, 6 an image scanner, 7 a scanner interface, 8 an input interface, 9 a keyboard, 10 a mouse,
11 is a data memory and 12 is a system bus.

【0013】図4の図面自動入力システムでは、図2に
示すような所定間隔で縦横に延在される基準線群によっ
て所定サイズの枡目が形成されたA3乃至A1程度の大
型の設計図や地図などの図面が読取られる。この図面上
に描かれた二次元画像データがイメージスキャナ6のラ
インセンサで読取られ、図面上の明暗に応じて変化する
読取りレベルが量子化され、白画素(“0”)と黒画素
(“1”)の二値信号の画素列に変換される。この二値
信号の画素列には、ラインセンサによる主走査と副走査
との組合せから成る読取り順序に対応して、原図上の二
次元座標(X,Y)が属性の一つして自動的に付与され
る。この明暗の属性と二次元座標の属性とを有する画素
列(以下「ラスターデータ」と称する)は、スキャナイ
ンタフェース7、システムバス12を介してデータメモ
リ11に転送され、二次元座標に対応して割当てられる
アドレスに書込まれる。
In the drawing automatic input system of FIG. 4, a large design drawing of about A3 to A1 in which meshes of a predetermined size are formed by reference line groups extending vertically and horizontally at predetermined intervals as shown in FIG. A drawing such as a map is read. The two-dimensional image data drawn on this drawing is read by the line sensor of the image scanner 6, and the reading level that changes according to the light and darkness on the drawing is quantized, and the white pixel (“0”) and the black pixel (“ 1 ″) is converted into a pixel row of a binary signal. In the pixel row of this binary signal, two-dimensional coordinates (X, Y) on the original drawing are automatically set as one of the attributes corresponding to the reading order composed of a combination of the main scanning and the sub-scanning by the line sensor. Is given to A pixel row having the attribute of light and dark and the attribute of two-dimensional coordinates (hereinafter, referred to as “raster data”) is transferred to the data memory 11 via the scanner interface 7 and the system bus 12, and corresponds to the two-dimensional coordinates. Written to the assigned address.

【0014】データメモリ11に書込まれたラスターデ
ータに対しベクトル化処理を行わせるには、キーボード
9からベクトル化処理を指令するコマンドをCPU1に
入力する。処理を開始したCPU1は、データメモリ1
1からラスターデータを読出し、まず、所定線幅のラス
ターデータに変換する前処理を実行する。この前処理
は、ラスターデータを指定された幅まで外側から削り取
る細線化や、ラスターデータの端点を接続する輪郭線抽
出処理とこれによって抽出されたほぼ平行な2本の輪郭
線の中間に指定された線幅の中心線を発生させる芯線化
処理との組合せなどによって行われる。
In order to perform the vectorization process on the raster data written in the data memory 11, a command for instructing the vectorization process is input from the keyboard 9 to the CPU 1. The CPU 1 that has started the processing is the data memory 1
First, raster data is read from No. 1 and firstly, pre-processing for converting the raster data into raster data having a predetermined line width is executed. This preprocessing is performed by thinning the raster data from the outside to a specified width, extracting a contour line connecting the end points of the raster data, and specifying the intermediate point between two substantially parallel contour lines extracted thereby. This is performed by a combination with a centering process for generating a center line having a reduced line width.

【0015】上記前処理によって作成された所定線幅の
ラスターデータに対してベクトル化の本処理が行われ
る。このベクトル化の本処理では、連結性を有する点群
が直線上に存在するか否かの判定に基づき線分の認識が
行われ、この認識された線分群が連結性を有するか否か
の判定に基づき折れ線の認識が行われ、この認識された
折れ線が特定の円弧上に存在するか否かの判定に基づき
円弧の認識が行われる。このベクトル化の本処理によ
り、ラスターデータが線分、円弧などの基本図形の描画
コマンド群から成るベクトル化データに変換される。こ
れらの描画コマンドは、線分であれば線分の描画コマン
ドと端点の座標であり、円弧であれば円弧の描画コマン
ドと端点を含む円弧状の3点の座標などから成る。この
ようにして作成されたベクトル化画像データは、後続の
位置歪み補正に備えて一旦データメモリ11に保存され
る。
The main processing of vectorization is performed on raster data having a predetermined line width created by the above preprocessing. In this vectorization process, line segments are recognized based on whether or not a point group having connectivity exists on a straight line, and whether or not the recognized line group has connectivity is determined. The polygonal line is recognized based on the determination, and the circular arc is recognized based on whether or not the recognized polygonal line exists on a specific circular arc. By this vectorization process, the raster data is converted into vectorized data composed of a drawing command group of a basic figure such as a line segment or an arc. These drawing commands are, for a line segment, a line drawing command and coordinates of an end point, and for a circular arc, the drawing command include an arc drawing command and coordinates of three arc-shaped points including the end point. The vectorized image data created in this way is temporarily stored in the data memory 11 in preparation for the subsequent positional distortion correction.

【0016】イメージスキャナ8で読取った画像データ
は、この読取り機構に固有の紙の送りむらなどによる局
部的な位置歪みを含んでいるため、ベクトル化処理後に
その位置歪みの補正が行われる。この位置歪み補正に際
しては、外部からキーボード9やマウス10を介してそ
の旨の開始指令が発せられ、入力インタフェース部8と
システムバス11とを介してCPU1に転送される。こ
の位置歪みの開始指令を受けたCPU1は、図1のフロ
ーチャートに示す内容の位置歪み補正を開始する。
Since the image data read by the image scanner 8 includes local positional distortion due to uneven paper feeding inherent to the reading mechanism, the positional distortion is corrected after the vectorization processing. At the time of this positional distortion correction, a start command to that effect is issued from the outside via the keyboard 9 or the mouse 10 and transferred to the CPU 1 via the input interface unit 8 and the system bus 11. Upon receiving the position distortion start command, the CPU 1 starts position distortion correction of the contents shown in the flowchart of FIG.

【0017】CPU1は、まず、データメモリ11から
ベクトル化処理済みの画像データを読出してこれに含ま
れる基準線群を抽出し(ステップA)、抽出した基準線
群の交点群を算定する(ステップB)。この際、原図の
かすれなどによる基準線の欠落に伴って交点が欠落して
いる場合も想定されるので、対話形式で基準線の延長を
行わせ、欠落した交点を補完する。次に、CPU1は、
算定した交点群を、位置座標の昇順又は降順に行と列と
に、すなわち何行目・何列目の交点という具合に再配列
し(ステップC)、隣接する4個の交点で囲まれる枡目
を識別し、これらの配列順、例えば、左上から右下にか
けて番号を付与する(ステップD)。
The CPU 1 first reads the vectorized image data from the data memory 11, extracts a reference line group included in the image data (step A), and calculates an intersection of the extracted reference line group (step A). B). At this time, since the intersection may be missing due to the lack of the reference line due to blurring of the original drawing or the like, the reference line is extended in an interactive manner to complement the missing intersection. Next, the CPU 1
The calculated intersection group is rearranged into rows and columns in ascending or descending order of the position coordinates, that is, the intersection of the row and the column (step C), and a cell surrounded by four adjacent intersections The eyes are identified, and numbers are assigned in the order of their arrangement, for example, from the upper left to the lower right (step D).

【0018】続いて、CPU1は、識別した枡目のうち
内部にベクトル化画像データを含むもののみを抽出し
(ステップE)、抽出した全ての枡目に含まれるベクト
ル化画像データについて枡目単位の4点位置歪み補正を
繰り返す。すなわち、CPU1は抽出した枡目の中から
位置歪み補正が未処理のものを一つ選択し(ステップ
F)、その4個の頂点、すなわち位置歪みを含む基準線
のベクトル化データから算定した位置歪みを含む4個の
交点を補正前の旧頂点として定義する(ステップG)。
次に、CPU1は、選択した枡目の4個の交点が位置歪
みを含まないと仮定した場合の無歪みの交点を、一番左
下の枡目の左下の交点(「基準点」と称する)の座標と
基準線の既知の間隔とから算定し、これを4個の新頂点
として定義する(ステップH)。
Subsequently, the CPU 1 extracts only the identified meshes containing vectorized image data therein (step E), and extracts the vectorized image data contained in all the extracted meshes in mesh units. Is repeated. That is, the CPU 1 selects one of the extracted meshes that has not been subjected to the positional distortion correction (step F), and the four vertices, that is, the positions calculated from the vectorized data of the reference line including the positional distortion. Four intersections including distortion are defined as old vertices before correction (step G).
Next, the CPU 1 determines an undistorted intersection assuming that the four intersections of the selected cell do not include positional distortion (referred to as a “reference point”) at the lower left corner of the lowermost cell. , And the known interval of the reference line, and this is defined as four new vertices (step H).

【0019】すなわち、基準線のX,Y方向への間隔が
それぞれLx,Lyであり、選択した枡目が1番左から
m番目で1番下からn番目の枡目であり、かつ基準点の
座標が(Xo,Yo)の場合には、この選択した位置歪
み補正対象の枡目の各新頂点の座標は、左下が〔Xo+
(m−1)Lx,Yo+(n−1)Ly〕、左上が〔X
o+(m−1)Lx,Yo+nLy〕、右下が〔Xo+
mLx,Yo+(n−1)Ly〕、右上が〔Xo+mL
x,Yo+nLy〕と定義される。
That is, the intervals of the reference line in the X and Y directions are Lx and Ly, respectively, and the selected mesh is the m-th mesh from the left and the n-th mesh from the bottom and the reference point Is (Xo, Yo), the coordinates of each new vertex of the selected cell subject to position distortion correction are [Xo +
(M-1) Lx, Yo + (n-1) Ly], and the upper left is [X
o + (m-1) Lx, Yo + nLy], and the lower right is [Xo +
mLx, Yo + (n-1) Ly], and the upper right is [Xo + mL
x, Yo + nLy].

【0020】次に、CPU1は、4個の旧頂点のうち3
個を対応の3個の新頂点のそれぞれに一致させるための
アフィン変換係数を算定し、3点位置歪み補正を実行す
る。例えば、図3(I)に示すように、4個の旧頂点
(a,b,c,d)中の3個(a,b,c)を対応の3
個の新頂点(A,B,C)のそれぞれに一致させるため
のアフィン変換係数が算定され、このアフィン変換係数
を用いて、この枡目内に含まれる全ベクトル化データに
ついて位置歪み補正が実行される。
Next, the CPU 1 determines 3 out of the 4 old vertices.
An affine transformation coefficient for making each of the three new vertices coincide with each other is calculated, and three-point position distortion correction is performed. For example, as shown in FIG. 3 (I), three (a, b, c) of the four old vertices (a, b, c, d) are assigned to the corresponding three vertices.
An affine transformation coefficient for matching each of the new vertices (A, B, C) is calculated, and using this affine transformation coefficient, position distortion correction is performed on all vectorized data included in this mesh. Is done.

【0021】続いて、CPU1は、新頂点と一致しない
1個の頂点をその新頂点に一致させるのに必要な位置の
補正量を算定し、これを枡目内のベクトル化画像データ
に対しその相対位置に応じて比例配分することにより4
点位置歪み補正を行う(ステップJ)。すなわち、図3
(II)に示すように、新頂点Cとまだ一致していない1
個の頂点c1 をこの新頂点Cに一致させるのに必要な位
置の補正量(ベクトルα)を算定し、このベクトルの
(X,Y)成分、(αx,αy)をこの頂点c1と各ベ
クトル化データの相対位置に応じて比例配分する。図3
(II)の例では、ベクトル化データP1 に対する位置歪
み補正量の比例配分量は、βx=αx・(X1 /X
1 )、βy=αy・(Y1 /Yc1 )となる。
Subsequently, the CPU 1 calculates a correction amount of a position required to match one vertex that does not match the new vertex to the new vertex, and calculates the correction amount for the vectorized image data in the cell. 4 by proportional distribution according to relative position
Point position distortion correction is performed (step J). That is, FIG.
As shown in (II), 1 that does not yet match the new vertex C
Calculated correction amount of the position required to match number of vertices c 1 to the new vertex C (vector α), (X, Y) component of the vector, (αx, αy) of this vertex c 1 Proportional distribution is performed according to the relative position of each vectorized data. FIG.
In the example of (II), the proportional distribution amount of the positional distortion correction amount with respect to the vectorized data P 1 is βx = αx · (X 1 / X
c 1 ), βy = αy · (Y 1 / Yc 1 ).

【0022】CPU1は、一つの枡目についてベクトル
化データの4点位置歪み補正が終了すると、これがステ
ップEにおいて処理対象として抽出済みの最後の未処理
の枡目であるか否かを判定し(ステップK)、未処理の
枡目がまだ残存していれば、ステップFに戻って未処理
の枡目を一つ選択し、上述の4点位置歪み補正を最後の
枡目まで反復する。このように、ベクトル化データを含
む全ての枡目については4点位置補正歪みが行われ、イ
メージスキャナによる読取り時の送りむらなどに起因す
る細かい位置歪みが枡目単位で補正される。
When the correction of the four-point position distortion of the vectorized data is completed for one mesh, the CPU 1 determines whether or not this is the last unprocessed mesh that has been extracted as a processing target in step E ( Step K) If unprocessed meshes still remain, return to step F, select one unprocessed mesh, and repeat the above-described four-point position distortion correction up to the last mesh. As described above, the four-point position correction distortion is performed on all the cells including the vectorized data, and the fine positional distortion due to the uneven feeding at the time of reading by the image scanner is corrected for each cell.

【0023】以上、4点位置歪み補正をアフィン変換に
よる3点位置歪み補正と、残る1頂点の補正量を相対位
置関係に基づき各ベクトル化画像データに比例配分する
処理との組合せによって行う構成を例示した。しかしな
がら、この4点位置歪み補正を、従来公知の他の方法に
よって行う構成とすることもできる。
As described above, the four-point position distortion correction is realized by a combination of the three-point position distortion correction by affine transformation and the process of proportionally distributing the correction amount of the remaining one vertex to each vectorized image data based on the relative positional relationship. Illustrated. However, a configuration in which the four-point position distortion correction is performed by another conventionally known method may be adopted.

【0024】また、紙などの媒体上に予め作成されてい
る枡目をそのまま4点位置補正歪みの単位とする構成を
例示した。しかしながら、実際の位置歪みの発生状況や
必要な補正精度に応じて、隣接する2×2個分の枡目
や、3×3個分の枡目を4点位置歪み補正の単位として
選択する構成とすることもできる。
Also, an example has been described in which a mesh previously created on a medium such as paper is used as a unit of four-point position correction distortion. However, a configuration in which adjacent 2 × 2 cells or 3 × 3 cells are selected as a unit of four-point position distortion correction in accordance with the actual situation of positional distortion and necessary correction accuracy. It can also be.

【0025】なお、上記実施例では媒体上に予め所定間
隔で縦横に配列される枡目が形成されているが、本発明
では必ずしもかかる特別な媒体を使う必要がなく、イメ
ージスキャナによる読取りの前あるいは読取時にかかる
枡目を形成する工程を設けることも可能である。この工
程は、例えば枡目が形成された透明シートを読取るべき
媒体に重ね合わせて、同時にイメージスキャナで読取ら
せる方法を採ることによって可能である。
In the above-described embodiment, the meshes which are arranged vertically and horizontally at predetermined intervals on the medium are formed in advance. However, in the present invention, it is not always necessary to use such a special medium. Alternatively, it is also possible to provide a step of forming such meshes at the time of reading. This process is, for example, superimposed on the medium to read a transparent sheet having squares is formed and can therefore be adopted a method of read by the image scanner simultaneously.

【0026】[0026]

【発明の効果】以上詳細に説明したように、本発明の位
置歪み補正方法によれば、紙などの媒体上に予め枡目を
形成しておき、読取った画像データに対し1個又は隣接
する複数個の枡目を単位として4点位置歪み補正を行う
構成であるから、イメージスキャナによる読取り時の送
りむらなどに起因する細かい位置歪みが枡目単位で補正
できるという効果が奏される。
As described above in detail, according to the position distortion correction method of the present invention, a mesh is formed in advance on a medium such as paper, and one or a plurality of meshes are adjacent to the read image data. Since the configuration is such that four-point position distortion is corrected in units of a plurality of meshes, there is an effect that fine positional distortions due to uneven feeding at the time of reading by an image scanner can be corrected in mesh units.

【0027】また、本発明の位置歪み補正方法によれ
ば、ベクトル化処理後に位置歪みの補正を行う構成であ
るから、ラスターデータについて位置歪み補正を行う場
合に比べて、処理対象のデータ量が圧縮され、処理時間
の短縮、コンピュータ資源の低減が可能になるという効
果も奏される。
Further, according to the position distortion correction method of the present invention, since the position distortion is corrected after the vectorization processing, the data amount to be processed is smaller than when the position distortion is corrected for the raster data. It is also possible to reduce the processing time and the computer resources by being compressed, so that there is an effect that the computer resources can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例の位置歪み補正方法の処理内
容を説明するためのフローチャートである。
FIG. 1 is a flowchart for explaining processing contents of a position distortion correction method according to an embodiment of the present invention.

【図2】上記処理対象の図面データが描かれる紙などの
媒体上に形成される所定間隔の枡目を示す概念図であ
る。
FIG. 2 is a conceptual diagram showing meshes at predetermined intervals formed on a medium such as paper on which drawing data to be processed is drawn.

【図3】上記一実施例の4点位置補正の方法を説明する
ための概念図である。
FIG. 3 is a conceptual diagram for explaining a method of correcting a four-point position in the embodiment.

【図4】上記実施例を適用する図面自動入力システムの
構成を例示するブロック図である。
FIG. 4 is a block diagram illustrating a configuration of a drawing automatic input system to which the above embodiment is applied.

【符号の説明】[Explanation of symbols]

A〜D イメージスキャナで読取られベクトル化処理さ
れた枡目を抽出する段階 G〜J 抽出した枡目に対して4点位置歪み補正を行う
段階
AD Steps for extracting meshes read and vectorized by the image scanner GJ Steps for performing four-point position distortion correction on the extracted meshes

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】媒体上に図面が描かれ、その図面の二次元
画像をイメージスキャナで読取り、これをベクトル化処
理して保存しあるいは処理する画像入力システムに適用
する画像データの位置歪み補正方法であって、 a.前記媒体上に所定間隔で縦横に配列される複数の基
準線によって囲まれる枡目を形成しておく段階と、 b.イメージスキャナで読取られベクトル化処理され
枡目内部にベクトル化 画像データを含むことを条件とし
て、枡目の全部又は一部を抽出する段階と、 c.前記抽出した1個又は隣接する複数個の枡目につい
て実際に抽出した4個の頂点と位置歪みが無いことを想
定して算定した4個の頂点とに基づきこの枡目に含まれ
るベクトル化画像データに対して4点位置歪み補正を行
う段階とを含むことを特徴とする画像データの位置歪み
補正方法。
1. A method for correcting a positional distortion of image data applied to an image input system in which a drawing is drawn on a medium, a two-dimensional image of the drawing is read by an image scanner, and this is vectorized and stored or processed. And a. Forming meshes surrounded by a plurality of reference lines arranged vertically and horizontally at predetermined intervals on the medium; b. It is read by an image scanner and vectorized ,
On condition that vectorized image data is included inside the mesh
Te, extracting all or part of the squares, c. A vectorized image included in the mesh based on the four vertices actually extracted for the extracted one or a plurality of adjacent meshes and the four vertices calculated assuming that there is no positional distortion. Performing a four-point positional distortion correction on the data.
【請求項2】前記1個又は隣接する複数個の枡目につい
ての4点位置歪み補正は、アフィン変換に基づく3点位
置歪み補正と、未補正の1個の頂点について必要な補正
量を算定しこの算定値をこの1個の頂点との相対位置関
係に応じて各ベクトル画像データに比例配分する処理と
の組合せから成ることを特徴とする請求項1記載の画像
データの位置歪み補正方法。
2. The four-point position correction for one or a plurality of adjacent meshes includes a three-point position correction based on affine transformation and a correction amount required for one uncorrected vertex. 2. A method according to claim 1, wherein the calculated value is combined with a process of proportionally distributing the calculated value to each vector image data according to a relative positional relationship with the one vertex.
【請求項3】前記処理段階cにおける複数個の枡目の数
は、必要な補正精度に応じて外部から設定可能であるこ
とを特徴とする請求項1又は2記載の画像データの位置
歪み補正方法。
The number of 3. A plurality of squares in the processing step c, the positional distortion of the image data according to claim 1 or 2, wherein it is externally settable in accordance with the required correction accuracy correction Method.
【請求項4】所定間隔で縦横に配列される複数の基準線
によって囲まれる枡目が形成された媒体上に図面が描か
れ、その図面の二次元画像をイメージスキャナで読み取
り、これをベクトル化処理して保存しあるいは処理する
画像入力システムに適用する画像データの位置歪み補正
方法であって、 a.イメージスキャナで読取られベクトル化処理され
枡目内部にベクトル化 画像データを含むことを条件とし
枡目の全部又は一部を抽出する段階と、 b.前記抽出した1個又は隣接する複数個の枡目につい
て実際に抽出した4個の頂点と位置歪みが無いことを想
定して算定した4個の頂点とに基づきこの枡目に含まれ
るベクトル化画像データに対して4点位置歪み補正を行
う段階とを含むことを特徴とする画像データの位置歪み
補正方法。
4. A drawing is drawn on a medium in which meshes surrounded by a plurality of reference lines arranged vertically and horizontally at predetermined intervals are formed.
A method for correcting a positional distortion of image data applied to an image input system that reads a two-dimensional image of the drawing with an image scanner, vectorizes the image, and stores or processes the image. It is read by an image scanner and vectorized ,
On condition that vectorized image data is included inside the mesh
A step of extracting all or part of the squares Te, b. A vectorized image included in each of the extracted one or a plurality of adjacent meshes based on the four vertices actually extracted and the four vertices calculated assuming that there is no positional distortion. Performing a four-point positional distortion correction on the data.
【請求項5】前記1個又は隣接する複数個の枡目につい
ての4点位置歪み補正は、アフィン変換に基づく3点位
置歪み補正と、未補正の1個の頂点について必要な補正
量を算定しこの算定値をこの1個の頂点との相対位置関
係に応じて各ベクトル画像データに比例配分する処理
との組合せから成ることを特徴とする請求項記載の画
像データの位置歪み補正方法。
5. The four-point position distortion correction for one or a plurality of adjacent meshes includes a three-point position distortion correction based on affine transformation and a correction amount required for one uncorrected vertex. displacement correction method of the image data according to claim 4, characterized in that it comprises a calculation value of Chico a combination of a process that is proportional allocated to each vectorized image data according to the relative positional relationship between the one of the vertices .
【請求項6】前記処理段階bにおける複数個の枡目の数
は、必要な補正精度に応じて外部から設定可能であるこ
とを特徴とする請求項4又は5記載の画像データの位置
歪み補正方法。
6. The position distortion correction of image data according to claim 4, wherein the number of the plurality of cells in the processing step (b) can be set externally according to required correction accuracy. Method.
JP4105780A 1992-03-31 1992-03-31 Image data position distortion correction method Expired - Fee Related JP2706744B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4105780A JP2706744B2 (en) 1992-03-31 1992-03-31 Image data position distortion correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4105780A JP2706744B2 (en) 1992-03-31 1992-03-31 Image data position distortion correction method

Publications (2)

Publication Number Publication Date
JPH06208617A JPH06208617A (en) 1994-07-26
JP2706744B2 true JP2706744B2 (en) 1998-01-28

Family

ID=14416669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4105780A Expired - Fee Related JP2706744B2 (en) 1992-03-31 1992-03-31 Image data position distortion correction method

Country Status (1)

Country Link
JP (1) JP2706744B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5387193B2 (en) * 2009-07-16 2014-01-15 富士ゼロックス株式会社 Image processing system, image processing apparatus, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5963580A (en) * 1982-10-04 1984-04-11 Nippon Kogaku Kk <Nikon> Position correcting device of semiconductor optical position detector
JPH01319872A (en) * 1988-06-21 1989-12-26 Toshiba Corp Distortion measuring method and device by lattice picture
JPH01320579A (en) * 1988-06-22 1989-12-26 Tokyo Gas Co Ltd Graphic processing mechanism

Also Published As

Publication number Publication date
JPH06208617A (en) 1994-07-26

Similar Documents

Publication Publication Date Title
US5404411A (en) Bitmap-image pattern matching apparatus for correcting bitmap errors in a printing system
JP3163215B2 (en) Line extraction Hough transform image processing device
JP3049672B2 (en) Image processing method and apparatus
JPH07104958B2 (en) How to activate a data display system
US5226098A (en) Method of and apparatus for generating image data representing integrated image
JP3142550B2 (en) Graphic processing unit
US4564865A (en) Picture scanning and recording method
JP2706744B2 (en) Image data position distortion correction method
JPS6227538B2 (en)
US5526474A (en) Image drawing with improved process for area ratio of pixel
JP2856420B2 (en) Character pattern data generation method
US4903315A (en) Apparatus for enlarging or reducing an image pattern
JP2885996B2 (en) Image processing method and apparatus
JP2001519104A (en) Image processing method and circuit device for changing image resolution
JP2706711B2 (en) Method and apparatus for correcting positional distortion of image data
JPS60231267A (en) Intra-character control system
JPH049149B2 (en)
JP2782752B2 (en) Character pattern output device
JP3889118B2 (en) Endless image reduction method and reduction apparatus
JP3055327B2 (en) Data converter
JPH08216460A (en) Method and device for processing image data
JPH04288541A (en) Image distortion correction device
JPH0962782A (en) Document reader
JPH09114435A (en) Data converting device
JPH07141336A (en) Character producing device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19970909

LAPS Cancellation because of no payment of annual fees