JP2006235785A - Image processor, image processing method and computer program - Google Patents

Image processor, image processing method and computer program Download PDF

Info

Publication number
JP2006235785A
JP2006235785A JP2005046555A JP2005046555A JP2006235785A JP 2006235785 A JP2006235785 A JP 2006235785A JP 2005046555 A JP2005046555 A JP 2005046555A JP 2005046555 A JP2005046555 A JP 2005046555A JP 2006235785 A JP2006235785 A JP 2006235785A
Authority
JP
Japan
Prior art keywords
feature
region
image
setting
feature region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005046555A
Other languages
Japanese (ja)
Inventor
Hideaki Ashikaga
英昭 足利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2005046555A priority Critical patent/JP2006235785A/en
Publication of JP2006235785A publication Critical patent/JP2006235785A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device and a method for accurately performing the calculation of deviation between images and the image correction processing. <P>SOLUTION: A corresponding connection region selection processing performed to calculate deviation among a plurality of images is performed two or more times while a selection condition is changed. For example, the retrieval range is changed sequentially from wide setting to narrower setting, the number of kinds of feature amount information pieces of a comparison object is changed from a larger value to a smaller value, and the coincidence of the feature amount information pieces of the comparison object is changed from strict setting to rough setting. In the coarse control processing performed at the initial stage, even if displacement between two images is large, the corresponding connection region can be found. In the fine control processing performed in the latter half, the corresponding connection region selection processing is performed in a narrow range and under rough coincidence condition, so that the connection region having the correspondence can be efficiently extracted. Thus, the displacement calculation and adjustment processing between the images can be performed accurately and efficiently. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理装置、および画像処理方法、並びにコンピュータ・プログラムに関する。さらに詳細には、複数の画像データについてのずれ量算出や、位置合わせ補正処理を正確に行なう画像処理装置、および画像処理方法、並びにコンピュータ・プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a computer program. More specifically, the present invention relates to an image processing apparatus, an image processing method, and a computer program that accurately perform deviation amount calculation and alignment correction processing for a plurality of image data.

画像処理の分野において、2枚以上の同種の画像を位置合わせしたい場合が少なくない。例えばプリンタやFAXなどから出力した帳票やレジュメなどの紙ドキュメントに、ユーザが記入した追記等を抽出したり、セキュリティ文書が改竄されていないかどうか検証したりする場合など、これらの紙文書をスキャンして電子原本と比較して追記や改竄部分を検出する処理が行なわれる。   In the field of image processing, there are many cases where two or more images of the same type are desired to be aligned. For example, to scan a paper document such as a form or resume output from a printer or FAX to extract additional notes entered by the user or to verify whether the security document has been tampered with. Then, a process for detecting a postscript or falsified portion is performed as compared with the electronic original.

この検出処理の際、2つの画像データの比較に先立ちスキャン画像と電子原本画像の位置合わせを高精度に行う必要がある。複数の画像データについての位置合わせ技術を開示した従来技術として例えば特許文献1がある。   In this detection process, it is necessary to align the scanned image and the electronic original image with high accuracy before comparing the two image data. For example, Patent Document 1 discloses a conventional technique that discloses an alignment technique for a plurality of image data.

特許文献1には、スキャン画像を単色化・二値化した後、所定の大きさの範囲に設定した検索領域において、黒データ(黒ラン)の連結領域を抽出し、スキャン処理の元データとしての原本画像(単色化・二値化済み)から、同様の黒データ(黒ラン)の連結領域を抽出し、相互の画像から抽出した連結領域のパターンを比較して、対応パターンを、パターンマッチングで見つけ、さらに、パターンマッチングの結果、両画像で対応が取れた複数のパターン(連結領域)の重心を求め、各画像における対応パターンの重心の位置に基づいて、両画像の位置ずれを算出して、一方の画像の補正を実行して、2つの画像位置を一致させる構成が示されている。なお、画像補正は、アフィン変換を用いて実行し、位置ずれ情報は、アフィン変換の変換パラメータ(補正係数)として適用している。   In Patent Document 1, after a scan image is monochromatized and binarized, a connection area of black data (black run) is extracted in a search area set to a predetermined size range, and is used as original data for scan processing. Extract connected regions of similar black data (black run) from original images (monochrome and binarized), compare the patterns of connected regions extracted from each other image, and match the corresponding patterns with pattern matching In addition, as a result of pattern matching, the center of gravity of a plurality of patterns (connected areas) that can be matched in both images is obtained, and the positional deviation between both images is calculated based on the position of the center of gravity of the corresponding pattern in each image Thus, a configuration is shown in which correction of one image is executed to match two image positions. Note that image correction is performed using affine transformation, and the positional deviation information is applied as a transformation parameter (correction coefficient) for affine transformation.

上記従来技術において、パターンマッチング対象のデータとして検出する連結領域は、連結領域の外接矩形、すなわち、黒データ(黒ラン)の連結領域に外接する矩形の大きさが、幅W画素、高さH画素とした場合、8<W<128、かつ8<H<128の大きさを有する連結領域としている。また、アフィン変換の補正係数としては、並行移動(X,Y)・回転(θ)・倍率(β)の4種類の補正係数を適用した処理例を開示している。   In the above prior art, the connected area detected as pattern matching target data has a circumscribed rectangle of the connected area, that is, a rectangle circumscribing the connected area of black data (black run) has a width W pixel and a height H. In the case of a pixel, the connected region has a size of 8 <W <128 and 8 <H <128. In addition, as an affine transformation correction coefficient, a processing example is disclosed in which four types of correction coefficients of parallel movement (X, Y), rotation (θ), and magnification (β) are applied.

しかし、上述の従来技術を含むこれまでに知られる画像相互の位置合わせ技術では、例えば原本画像と原本画像をスキャンして得られたスキャン画像や、原本画像と原本画像の電子データをプリンタを介して出力されたプリント画像など、様々なデータ読み取りまたは出力機器を介して出力された画像は、スキャン処理やプリント処理などの際に、各機器の持つ光学的な特性やメカニカルな特性によって、原本との大きな位置ずれが発生してしまう場合がある。このような場合、原本画像とスキャン画像の位置合わせや、原本画像とプリント画像との位置合わせ、あるいはスキャン画像とプリント画像との位置合わせ処理などにおいて位置ずれが大きすぎて、画像間で対応する連結領域パターンの検索が困難になるという問題がある。   However, in the conventional image registration technique including the above-described conventional technique, for example, a scanned image obtained by scanning the original image and the original image, and electronic data of the original image and the original image are transmitted via a printer. Images that are output via various data reading or output devices such as printed images that are output in the same way as the original due to the optical and mechanical characteristics of each device during scanning and printing. In some cases, a large misalignment may occur. In such a case, the positional deviation between the original image and the scan image, the alignment between the original image and the print image, or the alignment process between the scan image and the print image is too large, and the correspondence is between the images. There is a problem that it becomes difficult to search for a connected region pattern.

特に、プリンタやFAXなどから出力した帳票やレジュメなどの紙ドキュメントに、ユーザが追記等を行い、スキャナやFAXで読み込むと、原本画像に対して読み取り画像が大きくずれる。その主原因としては、次の2点が想定される。
(1)出力時のプリンタやFAX・コピアなど、画像形成装置が原本画像に描かれたオブジェクトの位置関係を完全に再現できない
(2)画像データの読み込み時のスキャナやFAX機など、画像読取装置が紙ドキュメントに描かれたオブジェクトの位置関係を完全に再現できない
In particular, when a user adds information to a paper document such as a form or a resume output from a printer or FAX and reads it with a scanner or FAX, the read image is greatly shifted from the original image. The following two points are assumed as the main cause.
(1) The image forming apparatus such as a printer or FAX / copier at the time of output cannot completely reproduce the positional relationship of the object drawn on the original image. (2) An image reading apparatus such as a scanner or a FAX machine when reading image data. Cannot fully reproduce the positional relationship of objects drawn on paper documents

実際に、既存の複数のプリンタ、スキャナ、FAX、さらにマルチファンクション機器を調査したところ、自動給紙機・自動原稿送り機を適用した紙出力処理において、原本画像と出力画像の一ずれは、幅方向のずれ(X)、縦方向のずれ(Y)、回転ずれ角(θ)、倍率変動(β)とした場合、X=±10mm、Y=±10mm、θ=±3deg.β=±3%程度のずれが発生していることが確認されている。さらに、自動原稿送り機を使わずにマニュアルで原稿をプラテンに置く場合には、概ねこの2倍のずれを見込まねばならないことが予測される。   Actually, when a plurality of existing printers, scanners, fax machines, and multi-function devices were investigated, in paper output processing using an automatic paper feeder / automatic document feeder, the difference between the original image and the output image When the direction deviation (X), the vertical deviation (Y), the rotation deviation angle (θ), and the magnification fluctuation (β) are assumed, X = ± 10 mm, Y = ± 10 mm, θ = ± 3 deg. It has been confirmed that a deviation of about β = ± 3% occurs. Further, when the document is manually placed on the platen without using the automatic document feeder, it is predicted that approximately twice this shift should be expected.

また、スキャン画像と原本画像の画像品質が異なることも問題になる。スキャン画像は、プリンタやFAXなどから出力された用紙を元にスキャンされているので、画像の品質(かすれ具合や色合い)が劣化している。場合によっては、プリントされたものを何回かコピーした後に加筆が施されているかも知れない。一方の原本画像は劣化が少ない。このような一方の画像に様々なノイズデータが含まれる場合、画像間での黒ランの連結領域パターンに基づくパターンマッチングはさらに困難になる。   Another problem is that the image quality of the scanned image is different from that of the original image. Since the scanned image is scanned based on paper output from a printer, a fax machine, or the like, the quality of the image (blurred or tint) is degraded. In some cases, it may be applied after several copies of the printed material. One original image has little deterioration. When such one image includes various noise data, pattern matching based on a black run connection region pattern between images becomes more difficult.

こうした状況は、プリントやスキャンに使う装置を限定するなどである程度回避可能であるが、現実にユーザが利用状況を限定することは難しい。従来技術では、上述したように、例えばスキャン画像と原本画像を単色化・二値化した後、所定の大きさ範囲の連結領域を抽出し、両者の対応するパターンを見つける構成を有するが、かすれなどのノイズを含む画像において、広い範囲を探索して正確なパターマッチングを行い正確な対応データを抽出することは非常に難しい。また対応パターンが抽出されても、その数は極端に少なくなり(2個とか3個とか)、位置あわせ精度が極端に悪化するという問題がある。
特開平9−245173号公報
Such a situation can be avoided to some extent by limiting the devices used for printing and scanning, but it is difficult for the user to actually limit the usage situation. As described above, the conventional technology has a configuration in which, for example, a scan image and an original image are monochromatic and binarized, and then a connected region of a predetermined size range is extracted and a corresponding pattern of both is found. It is extremely difficult to extract accurate correspondence data by searching a wide range and performing accurate pattern matching in an image including noise. Further, even if the corresponding patterns are extracted, the number thereof is extremely small (such as two or three), and there is a problem that the alignment accuracy is extremely deteriorated.
Japanese Patent Laid-Open No. 9-245173

本発明は、上述の問題点に鑑みてなされたものであり、複数の画像データについてのずれ量算出や、位置合わせ補正処理を正確に行なう画像処理装置、および画像処理方法、並びにコンピュータ・プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and provides an image processing apparatus, an image processing method, and a computer program that accurately perform misalignment calculation and alignment correction processing for a plurality of image data. The purpose is to provide.

さらに、詳細には、本発明は、黒ランデータなどの画像パターンに基づくパターンマッチング処理を、条件を異ならせて複数回実行し、精度の高いパターンマッチングを実行し、これらのパターンマッチング処理結果などから得られる補正係数を適用してアフィン変換などの画像変換を実行して精度の高いずれ量算出や位置合わせを可能とした画像処理装置、および画像処理方法、並びにコンピュータ・プログラムを提供することを目的とする。   In more detail, the present invention executes pattern matching processing based on an image pattern such as black run data multiple times under different conditions, performs highly accurate pattern matching, and results of these pattern matching processing, etc. To provide an image processing apparatus, an image processing method, and a computer program capable of performing image conversion such as affine transformation by applying a correction coefficient obtained from the above and performing high-accuracy amount calculation and alignment Objective.

本発明の第1の側面は、画像処理装置であり、2つの画像の各々から特徴領域を抽出する特徴領域抽出手段と、前記特徴領域抽出手段の抽出した特徴領域の特徴量を算出する特徴量算出手段と、前記2つの画像から抽出された特徴領域から対応する特徴領域を選択するための選択基準を設定する特徴領域選択基準設定手段と、前記特徴領域選択基準設定手段の設定した選択基準に基づいて、前記2つの画像から抽出された特徴領域の特徴量の一致度に基づいて対応特徴領域を選択する対応特徴領域選択手段と、前記対応特徴領域選択手段において選択された対応特徴領域に基づいて、前記2つの画像間のずれ量を算出し、該ずれ量に基づく補正係数を算出する補正係数算出手段と、前記補正係数に基づいて、補正対象画像または補正対象画像対応データの変換処理を実行するデータ変換手段とを有し、前記対応特徴領域選択手段は、前記特徴領域選択基準設定手段の設定する異なる選択基準に基づいて、対応特徴領域選択処理を繰り返し実行する構成であり、2回目以降の対応特徴領域選択処理においては、前段の処理において算出された補正係数に基づく変換データを適用した処理を実行する構成であることを特徴とする画像処理装置にある。   A first aspect of the present invention is an image processing apparatus, a feature region extraction unit that extracts a feature region from each of two images, and a feature amount that calculates a feature amount of the feature region extracted by the feature region extraction unit A calculation means, a feature area selection criterion setting means for setting a selection criterion for selecting a corresponding feature area from the feature areas extracted from the two images, and a selection criterion set by the feature area selection criterion setting means. Based on the corresponding feature region selecting means for selecting the corresponding feature region based on the degree of coincidence of the feature amounts of the feature regions extracted from the two images, and the corresponding feature region selected by the corresponding feature region selecting means. A correction coefficient calculating means for calculating a shift amount between the two images and calculating a correction coefficient based on the shift amount; and a correction target image or a correction target image based on the correction coefficient Data conversion means for executing response data conversion processing, and the corresponding feature area selection means repeatedly executes the corresponding feature area selection processing based on different selection criteria set by the feature area selection reference setting means. The image processing apparatus has a configuration in which, in the second and subsequent corresponding feature region selection processes, a process to which conversion data based on the correction coefficient calculated in the preceding process is applied is executed.

さらに、本発明の画像処理装置の一実施態様において、前記特徴領域選択基準設定手段は、特徴領域選択基準を処理回数の進行に従って、
(1)対応特徴領域検索範囲を広い設定から狭い設定に変更、
(2)比較対象の特徴量の一致度を厳格な設定から緩い設定に変更、
上記(1)〜(2)の少なくともいずれかの設定変更を実行する構成であることを特徴とする。
Furthermore, in one embodiment of the image processing apparatus of the present invention, the feature region selection criterion setting means sets the feature region selection criterion as the number of processing times,
(1) Change corresponding feature area search range from wide setting to narrow setting,
(2) Change the degree of coincidence of comparison target features from strict setting to loose setting,
It is the structure which performs the setting change of at least any one of said (1)-(2), It is characterized by the above-mentioned.

さらに、本発明の画像処理装置の一実施態様において、前記特徴領域抽出手段は、前記画像から連結領域を抽出し、前記特徴量算出手段は、前記特徴領域抽出手段の抽出した連結領域の特徴量として、重心を含む特徴量情報の抽出処理を実行し、連結領域に対応する重心を含む特徴量についてのリストとしての連結領域情報テーブルを生成する処理を実行する構成であることを特徴とする。   Furthermore, in one embodiment of the image processing apparatus of the present invention, the feature region extracting unit extracts a connected region from the image, and the feature amount calculating unit is a feature amount of the connected region extracted by the feature region extracting unit. As described above, the feature amount information including the center of gravity is extracted, and a process of generating a connected region information table as a list of feature amounts including the center of gravity corresponding to the connected region is performed.

さらに、本発明の画像処理装置の一実施態様において、前記対応特徴領域選択手段は、前記連結領域情報テーブルの格納データに基づいて、前記2つの画像から抽出された連結領域の特徴量比較を実行し、対応連結領域を選択する処理を実行する構成であることを特徴とする。   Furthermore, in one embodiment of the image processing apparatus according to the present invention, the corresponding feature region selection means performs a feature amount comparison of the connected regions extracted from the two images based on the data stored in the connected region information table. And a process of selecting a corresponding connected area.

さらに、本発明の画像処理装置の一実施態様において、前記データ変換手段は、前記補正係数算出手段の算出した補正係数に基づいて、補正対象画像に対応する前記連結領域情報テーブルの格納データの変換処理を実行する構成であることを特徴とする。   Furthermore, in an embodiment of the image processing apparatus of the present invention, the data conversion unit converts the stored data of the connected region information table corresponding to the correction target image based on the correction coefficient calculated by the correction coefficient calculation unit. It is the structure which performs a process.

さらに、本発明の第2の側面は、画像処理方法であり、2つの画像の各々から特徴領域を抽出する特徴領域抽出ステップと、前記特徴領域抽出ステップにおいて抽出した特徴領域の特徴量を算出する特徴量算出ステップと、前記2つの画像から抽出された特徴領域から対応する特徴領域を選択するための選択基準を設定する特徴領域選択基準設定ステップと、前記特徴領域選択基準設定ステップにおいて設定した選択基準に基づいて、前記2つの画像から抽出された特徴領域の特徴量の一致度に基づいて対応特徴領域を選択する対応特徴領域選択ステップと、前記対応特徴領域選択ステップにおいて選択された対応特徴領域に基づいて、前記2つの画像間のずれ量を算出し、該ずれ量に基づく補正係数を算出する補正係数算出ステップと、前記補正係数に基づいて、補正対象画像または補正対象画像対応データの変換処理を実行するデータ変換ステップとを有し、前記対応特徴領域選択ステップは、前記特徴領域選択基準設定ステップにおいて設定する異なる選択基準に基づいて、対応特徴領域選択処理を繰り返し実行し、2回目以降の対応特徴領域選択処理においては、前段の処理において算出された補正係数に基づく変換データを適用した処理を実行することを特徴とする画像処理方法にある。   Further, the second aspect of the present invention is an image processing method, wherein a feature region extraction step for extracting a feature region from each of two images, and a feature amount of the feature region extracted in the feature region extraction step is calculated. A feature amount calculating step, a feature region selection criterion setting step for setting a selection criterion for selecting a corresponding feature region from the feature regions extracted from the two images, and a selection set in the feature region selection criterion setting step A corresponding feature region selecting step for selecting a corresponding feature region based on the degree of coincidence of the feature amounts of the feature regions extracted from the two images based on a criterion, and the corresponding feature region selected in the corresponding feature region selecting step A correction coefficient calculating step for calculating a shift amount between the two images based on the correction amount and calculating a correction coefficient based on the shift amount; A data conversion step of performing a conversion process of the correction target image or the correction target image corresponding data based on the correction coefficient, and the corresponding feature region selection step includes different selection criteria set in the feature region selection reference setting step And the corresponding feature region selection process is repeatedly executed, and in the corresponding feature region selection process for the second and subsequent times, a process to which conversion data based on the correction coefficient calculated in the preceding process is applied is executed. There is an image processing method.

さらに、本発明の画像処理方法の一実施態様において、前記特徴領域選択基準設定ステップにおいては、特徴領域選択基準を処理回数の進行に従って、
(1)対応特徴領域検索範囲を広い設定から狭い設定に変更、
(2)比較対象の特徴量の一致度を厳格な設定から緩い設定に変更、
上記(1)〜(2)の少なくともいずれかの設定変更を実行することを特徴とする。
Furthermore, in one embodiment of the image processing method of the present invention, in the feature region selection criterion setting step, the feature region selection criterion is set according to the number of processing times,
(1) Change corresponding feature area search range from wide setting to narrow setting,
(2) Change the degree of coincidence of comparison target features from strict setting to loose setting,
The setting change of at least any one of said (1)-(2) is performed, It is characterized by the above-mentioned.

さらに、本発明の画像処理方法の一実施態様において、前記特徴領域抽出ステップは、前記画像から連結領域を抽出し、前記特徴量算出ステップは、前記特徴領域抽出ステップにおいて抽出した連結領域の特徴量として、重心を含む特徴量情報の抽出処理を実行し、連結領域に対応する重心を含む特徴量についてのリストとしての連結領域情報テーブルを生成する処理を実行することを特徴とする。   Furthermore, in an embodiment of the image processing method of the present invention, the feature region extracting step extracts a connected region from the image, and the feature amount calculating step includes a feature amount of the connected region extracted in the feature region extracting step. As described above, a feature amount information extraction process including the center of gravity is executed, and a process of generating a connected region information table as a list of feature amounts including the center of gravity corresponding to the connected region is executed.

さらに、本発明の画像処理方法の一実施態様において、前記対応特徴領域選択ステップは、前記連結領域情報テーブルの格納データに基づいて、前記2つの画像から抽出された連結領域の特徴量比較を実行し、対応連結領域を選択する処理を実行することを特徴とする。   Furthermore, in an embodiment of the image processing method of the present invention, the corresponding feature region selection step performs a feature amount comparison of the connected regions extracted from the two images based on data stored in the connected region information table. And a process of selecting a corresponding connected area.

さらに、本発明の画像処理方法の一実施態様において、前記データ変換ステップは、前記補正係数算出ステップにおいて算出した補正係数に基づいて、補正対象画像に対応する前記連結領域情報テーブルの格納データの変換処理を実行することを特徴とする。   Furthermore, in one embodiment of the image processing method of the present invention, the data conversion step converts the stored data of the connected region information table corresponding to the correction target image based on the correction coefficient calculated in the correction coefficient calculation step. A process is executed.

さらに、本発明の第3の側面は、
画像処理をコンピュータ上において実行させるコンピュータ・プログラムであり、
2つの画像の各々から特徴領域を抽出する特徴領域抽出ステップと、
前記特徴領域抽出ステップにおいて抽出した特徴領域の特徴量を算出する特徴量算出ステップと、
前記2つの画像から抽出された特徴領域から対応する特徴領域を選択するための選択基準を設定する特徴領域選択基準設定ステップと、
前記特徴領域選択基準設定ステップにおいて設定した選択基準に基づいて、前記2つの画像から抽出された特徴領域の特徴量の一致度に基づいて対応特徴領域を選択する対応特徴領域選択ステップと、
前記対応特徴領域選択ステップにおいて選択された対応特徴領域に基づいて、前記2つの画像間のずれ量を算出し、該ずれ量に基づく補正係数を算出する補正係数算出ステップと、
前記補正係数に基づいて、補正対象画像または補正対象画像対応データの変換処理を実行するデータ変換ステップとを有し、
前記対応特徴領域選択ステップは、
前記特徴領域選択基準設定ステップにおいて設定する異なる選択基準に基づいて、対応特徴領域選択処理を繰り返し実行し、2回目以降の対応特徴領域選択処理においては、前段の処理において算出された補正係数に基づく変換データを適用した処理を実行することを特徴とするコンピュータ・プログラムにある。
Furthermore, the third aspect of the present invention provides
A computer program for executing image processing on a computer;
A feature region extraction step for extracting a feature region from each of the two images;
A feature amount calculating step for calculating a feature amount of the feature region extracted in the feature region extracting step;
A feature region selection criterion setting step for setting a selection criterion for selecting a corresponding feature region from the feature regions extracted from the two images;
A corresponding feature region selection step of selecting a corresponding feature region based on the degree of matching of the feature amounts of the feature regions extracted from the two images based on the selection criterion set in the feature region selection criterion setting step;
A correction coefficient calculating step of calculating a deviation amount between the two images based on the corresponding feature area selected in the corresponding feature area selecting step, and calculating a correction coefficient based on the deviation amount;
A data conversion step of performing a conversion process of the correction target image or the correction target image corresponding data based on the correction coefficient,
The corresponding feature region selection step includes:
The corresponding feature region selection process is repeatedly executed based on different selection criteria set in the feature region selection reference setting step, and the second and subsequent corresponding feature region selection processes are based on the correction coefficient calculated in the preceding process. The present invention resides in a computer program that executes processing to which converted data is applied.

なお、本発明のコンピュータ・プログラムは、例えば、様々なプログラム・コードを実行可能なコンピュータシステムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体、例えば、CDやFD、MOなどの記録媒体、あるいは、ネットワークなどの通信媒体によって提供可能なコンピュータ・プログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータシステム上でプログラムに応じた処理が実現される。   Note that the computer program of the present invention is a recording medium provided in a computer-readable format for a computer system capable of executing various program codes, for example, a recording medium such as a CD, FD, or MO. A computer program that can be provided by a medium or a communication medium such as a network. By providing such a program in a computer-readable format, processing corresponding to the program is realized on the computer system.

本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Other objects, features, and advantages of the present invention will become apparent from a more detailed description based on embodiments of the present invention described later and the accompanying drawings. In this specification, the system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.

本発明の構成によれば、複数の画像間のずれを算出するために実行する対応特徴領域選択処理を、選択条件を変更して複数回実行する構成とした。例えば検索範囲を、広い設定から順次狭い設定に変更し、比較対象の特徴量情報の一致度は、厳しい設定から緩い設定に変更する。この繰り返し処理によって、初期的に実行する粗調処理においては、広い範囲からより一致度の高い特徴領域を選択することが可能であり、2つの画像のずれ量が大きくても対応特徴領域を発見する可能性を高くすることができる。また、後半で実行する微調処理では、狭い範囲で、かつ緩い一致条件の下で、対応特徴領域選択処理を実行するので、対応関係のある特徴領域を効率的に抽出することが可能となる。   According to the configuration of the present invention, the corresponding feature region selection process that is executed to calculate the deviation between a plurality of images is executed a plurality of times while changing the selection condition. For example, the search range is sequentially changed from a wide setting to a narrow setting, and the degree of coincidence of comparison target feature amount information is changed from a strict setting to a loose setting. With this iterative process, it is possible to select a feature region with a higher degree of matching from a wide range in the coarse adjustment processing that is initially executed, and the corresponding feature region is found even if the amount of deviation between the two images is large. The possibility of doing can be increased. Further, in the fine adjustment process executed in the second half, the corresponding feature area selection process is executed in a narrow range and under a loose matching condition, so that it is possible to efficiently extract the corresponding characteristic areas.

また、本発明の構成では、複数画像から選択された連結領域の重心および特徴量情報を記録した連結領域情報テーブルを生成し、テーブルの比較に基づいて、対応連結領域を選択する処理を実行し、1回の処理で算出した補正係数に基づいて、補正対象画像の連結領域情報テーブルに記録された連結領域の重心および特徴量情報を更新して、更新したデータに基づいて、条件を変更して2回目の対応連結領域選択処理を実行して、さらに対応連結領域情報に基づく補正係数の算出、テーブルの更新という処理を繰り返し実行する構成としたので、正確でかつ効率的な画像間のずれ量調整処理が可能となる。   In the configuration of the present invention, a connected area information table in which the center of gravity of the connected area selected from the plurality of images and the feature amount information are recorded is generated, and the corresponding connected area is selected based on the comparison of the tables. Based on the correction coefficient calculated in one process, the centroid and feature amount information of the connected area recorded in the connected area information table of the correction target image is updated, and the condition is changed based on the updated data. The corresponding connected region selection process is executed for the second time, and the correction coefficient calculation based on the corresponding connected region information and the table update process are repeatedly executed. A quantity adjustment process becomes possible.

以下、図面を参照しながら本発明の実施形態に係る画像処理装置、および画像処理方法、並びにコンピュータ・プログラムの詳細について説明する。   Hereinafter, an image processing apparatus, an image processing method, and a computer program according to embodiments of the present invention will be described in detail with reference to the drawings.

図1を参照して、本発明の画像処理装置の構成、および処理について説明する。まず、本発明の画像処理装置において実行する画像処理の概要について説明する。本発明の画像処理装置では、例えば図1に示す画像a10と、画像b20の2つの画像の位置合わせを実行する。例えば画像a10と画像b20から特徴的な類似パターン(連結領域)を抽出してパターンマッチングを行い、各画像の位置ずれを算出して、算出した位置ずれ量に基づいて補正係数を算出して、補正係数を適用した画像変換を一方の画像または画像構成データに施すものであり、2つの画像a10と画像b20の正確なずれ量算出や位置合わせを行なうものである。   The configuration and processing of the image processing apparatus of the present invention will be described with reference to FIG. First, an overview of image processing executed in the image processing apparatus of the present invention will be described. In the image processing apparatus of the present invention, alignment of two images, for example, an image a10 and an image b20 shown in FIG. 1 is executed. For example, a characteristic similar pattern (connected region) is extracted from the images a10 and b20, pattern matching is performed, the positional deviation of each image is calculated, a correction coefficient is calculated based on the calculated positional deviation amount, Image conversion to which the correction coefficient is applied is performed on one image or image configuration data, and an accurate shift amount calculation and alignment between the two images a10 and b20 are performed.

画像a10と画像b20は、例えば原本画像とスキャン画像、原本画像とプリント出力画像、スキャン画像とプリント出力画像等、様々な組み合わせが可能である。また、処理対象とする画像は用紙等の出力データに限らず、PC等の記憶手段に格納されディスプレイに出力可能な電子画像データであってもよい。   The image a10 and the image b20 can be variously combined such as an original image and a scan image, an original image and a print output image, and a scan image and a print output image. The image to be processed is not limited to output data such as paper, but may be electronic image data that can be stored in storage means such as a PC and output to a display.

画像変換としては、例えば補正係数として、幅方向移動量(X)、縦方向移動量(Y)、回転角(θ)、倍率(β)を用いたアフィン変換を実行する。画像変換(アフィン変換)に適用するパラメータ(補正係数)は、画像a10と画像b20のパターンマッチングの結果から得られる位置ずれ情報に基づいて決定されるデータである。   As the image conversion, for example, affine transformation using a width direction movement amount (X), a vertical direction movement amount (Y), a rotation angle (θ), and a magnification (β) is executed as a correction coefficient. The parameter (correction coefficient) applied to the image conversion (affine conversion) is data determined based on positional deviation information obtained from the result of pattern matching between the image a10 and the image b20.

本発明の画像処理装置においては、アフィン変換の補正係数を算出するための2画像間の位置ずれの検出処理を、粗調処理と微調処理の少なくとも2段階の処理として実行する。さらに複数回の粗調処理、複数回の微調処理を行なう構成としてもよい。   In the image processing apparatus of the present invention, the detection process of the positional deviation between the two images for calculating the correction coefficient of the affine transformation is executed as at least two stages of the coarse adjustment process and the fine adjustment process. Furthermore, it is good also as a structure which performs multiple times of rough adjustment processes and multiple times of fine adjustment processes.

粗調処理において、2画像間の大まかなずれを算出して、大まかなアフィン変換の補正係数を求め、この補正係数に基づいて一方の画像の補正、あるいは画像に基づいて抽出した特徴部分、すなわちパターンマッチングに適用する黒ランデータなどの連結領域画像に関する位置や倍率などの補正を実行し、補正された連結領域データに基づいて微調処理、すなわち、再度、連結領域に基づくパターンマッチング処理を実行して、再度、アフィン変換の補正係数を算出し、ずれの補正を行なうという処理を繰り返し実行する。   In the rough adjustment process, a rough deviation between two images is calculated, a rough affine transformation correction coefficient is obtained, one image is corrected based on this correction coefficient, or a feature portion extracted based on the image, that is, Execute corrections such as the position and magnification of the connected area image such as black run data applied to pattern matching, and perform fine adjustment processing based on the corrected connected area data, that is, execute pattern matching processing based on the connected area again. Then, the process of calculating the correction coefficient for affine transformation and correcting the deviation is repeated.

なお、粗調処理においては、比較対象画像、すなわち図1に示す画像a10と画像b20とから抽出される特徴パターンが概ね同一とみなせる連結領域パターンを、広範囲の検索領域を設定して抽出する。例えば一方の画像において抽出した黒ランデータ等の連結領域の位置に対応する他方の画像の位置の±20mmの広領域を検索領域にして、対応パターンを検出する。この粗調処理では、対応連結領域の選択基準を厳しく設定するなどして、より一致度の高い対応連結領域を抽出する。この処理では、2つの画像において対応する連結領域が数個見つかればよい。   In the coarse adjustment process, a connection area pattern in which the characteristic patterns extracted from the comparison target images, that is, the image a10 and the image b20 shown in FIG. For example, a corresponding pattern is detected using a wide region of ± 20 mm of the position of the other image corresponding to the position of the connected region such as black run data extracted in one image as a search region. In this rough adjustment process, a corresponding connected region having a higher degree of matching is extracted by setting a strict selection criterion for the corresponding connected region. In this process, it is only necessary to find several corresponding connected areas in the two images.

微調処理では、粗調処理において求めたアフィン変換の補正係数に基づいて補正された画像または、黒ランデータなどの連結領域画像に関する位置データの補正データに基づいて、再度、パターンマッチングを行なう。この微調処理においては、先の粗調処理において設定した検索領域より、狭い領域、例えば、一方の画像において抽出した黒ランデータ等の連結領域の位置に対応する他方の画像の位置の±1mmの侠領域を検索領域にして、対応パターンを検出する。この微調処理では、対応連結領域の選択基準を緩やかに設定するなどして2つの画像において、対応する連結領域を出来るだけ多く抽出する。   In the fine adjustment process, pattern matching is performed again based on the image data corrected based on the affine transformation correction coefficient obtained in the coarse adjustment process or the correction data of the position data related to the connected region image such as black run data. In this fine adjustment process, a region narrower than the search area set in the previous coarse adjustment process, for example, ± 1 mm of the position of the other image corresponding to the position of the connected region such as black run data extracted in one image. Corresponding patterns are detected using the heel region as a search region. In this fine adjustment process, as many corresponding connected areas as possible are extracted from the two images by gradually setting the selection criteria for the corresponding connected areas.

前述したように、粗調処理と微調処理は、アフィン変換の補正係数を順次更新しながら夫々複数回行っても良い。その場合、連結領域の探索範囲は徐々に狭めていき、各画像において対応連結領域として抽出する条件である連結領域の特徴の一致度は徐々に緩めていくという条件変更を行なってパターンマッチング処理を行なう。   As described above, the coarse adjustment process and the fine adjustment process may be performed a plurality of times while sequentially updating the correction coefficient of the affine transformation. In that case, the pattern matching process is performed by changing the condition that the search range of the connected region is gradually narrowed and the matching degree of the feature of the connected region that is a condition for extracting as a corresponding connected region in each image is gradually relaxed. Do.

図1を参照して、本発明の画像処理について説明する。位置合わせの対象となる2つの画像、画像a10、画像bは、それぞれ前処理手段111,121に入力されて前処理が施される。前処理手段111,121では、単色化処理および二値化処理が実行される。単色化処理は、カラー画像である場合、輝度情報のみの画素データとする処理である。二値化処理は、単色画像をさらに所定の閾値レベルで[1]黒または[0]白いずれかの値に設定する処理である。なお、入力画像が白黒画像である場合は、単色化処理は省略可能である。   The image processing of the present invention will be described with reference to FIG. The two images to be aligned, the image a10 and the image b, are input to the preprocessing means 111 and 121, respectively, and preprocessed. In the preprocessing means 111 and 121, a monochromatic process and a binarization process are executed. In the case of a color image, the monochromatic process is a process for converting pixel data of only luminance information. The binarization processing is processing for further setting a monochrome image to a value of [1] black or [0] white at a predetermined threshold level. Note that when the input image is a monochrome image, the monochromatic processing can be omitted.

次に、前処理の済んだ画像データは、連結領域抽出手段112,122において、各画像からの連結領域抽出処理が実行される。連結領域抽出処理は、例えば特開平12−295438に説明の手法などを適用して実行する。連結領域は二値化画像における黒画素の連続領域(黒ラン)、あるいは黒画素ではない白画素データの連続した領域(白ラン)として抽出される。連結領域の抽出処理は、例えば、予め抽出条件として、所定の大きさ(面積あるいは画素数)の範囲(最小、最大)を設定し、その範囲にある連続する同一画素値領域など、予め定められた設定条件に基づいて実行される。   Next, for the preprocessed image data, the connected region extraction means 112 and 122 execute connected region extraction processing from each image. The connected region extraction processing is executed by applying the method described in JP-A-12-295438, for example. The connected area is extracted as a continuous area of black pixels (black run) in the binarized image or a continuous area of white pixel data that is not black pixels (white run). The connected region extraction process is performed in advance by, for example, setting a range (minimum, maximum) of a predetermined size (area or number of pixels) as an extraction condition, and continuously determining the same pixel value region in the range. It is executed based on the set conditions.

図2を参照して連結領域抽出処理において抽出される連結領域データの具体例ついて説明する。図2には、二値化処理のなされた画像a10と、画像b20を示している。これの画像から、一定条件の下に黒画素の連続領域(黒ラン)を持つ画像データや白画素データの連続した領域(白ラン)を持つ画像データを連続領域として抽出する。図の例では、画像a10から黒文字画像のA、B、Cと白抜き文字Aが、連結領域データ11〜14として抽出され、画像b20から黒文字画像のA、B、Cと白抜き文字Aが、連結領域データ21〜24として抽出された例を示している。なお、実際の処理において抽出される連結領域のデータ数は、設定条件にもよるが、数百〜数千個単位のデータの抽出が行なわれる。   A specific example of the connected region data extracted in the connected region extraction process will be described with reference to FIG. FIG. 2 shows an image a10 and an image b20 that have been binarized. From these images, image data having a continuous area of black pixels (black run) and image data having a continuous area of white pixel data (white run) are extracted as a continuous area under a certain condition. In the example of the figure, black character images A, B, and C and white characters A are extracted from the image a10 as connected region data 11 to 14, and black character images A, B, and C and white characters A are extracted from the image b20. The example extracted as the connection area | region data 21-24 is shown. Note that the number of data of the connected area extracted in the actual processing is extracted in units of several hundred to several thousand, although it depends on the setting conditions.

各画像から連結領域が抽出されると、図1に示す重心算出手段113,123において、抽出された連結領域の重心が算出され、さらに、特徴量算出手段114、124において、各連結領域についての特徴量が算出される。なお、本例では、重心算出手段と特徴量算出手段とを区別して示してあるが、重心も連結領域の1つの特徴量として、特徴量算出手段において算出する構成としてもよい。   When the connected area is extracted from each image, the center of gravity of the extracted connected area is calculated by the center-of-gravity calculating means 113 and 123 shown in FIG. 1, and the feature amount calculating means 114 and 124 further calculates the center of each connected area. A feature amount is calculated. In this example, the centroid calculating unit and the feature amount calculating unit are distinguished from each other. However, the centroid may be calculated by the feature amount calculating unit as one feature amount of the connected region.

図3および図4を参照して、連結領域から求められる重心および特徴量情報について説明する。図3に示す文字[A]が、例えば二値化画像a10から抽出された1つの連結領域200である。図4は、画像aと画像bとから抽出された連結領域についての重心と特徴量情報からなるテーブルを示している。   With reference to FIG. 3 and FIG. 4, the center of gravity and feature amount information obtained from the connected region will be described. The character [A] shown in FIG. 3 is one connected area 200 extracted from the binarized image a10, for example. FIG. 4 shows a table made up of the center of gravity and feature amount information for the connected regions extracted from the images a and b.

図3を参照して、連結領域200の重心、特徴量情報の詳細について説明する。
重心201は、連結領域としての文字[A]200の重心位置であり、例えば、画像a10をxy座標面とした場合の座標データ(x,y)として算出される(図4参照)。
外接矩形の幅・高さ・縦横比は、図に示す連結領域200を外接するように囲む外接矩形202の幅(L)、高さ(H)、および縦横比(H/L)として求められる。
線長(細線化後の構成画素数)は、図3に示すように、連結領域[A]200を細線化して、幅が1画素の線として変換した連結領域細線化データ203における構成画素数[n]として算出する。
線面積(連結領域の画素)は、連結領域[A]200自体の構成全画素数[Nall]として算出する。
線幅は、図3に示すように、連結領域[A]200の線幅[W]203である。画素数、または長さとして算出する。
With reference to FIG. 3, the center of gravity of the connection area 200 and details of the feature amount information will be described.
The center of gravity 201 is the position of the center of gravity of the character [A] 200 as a connected region, and is calculated as coordinate data (x, y) when the image a10 is an xy coordinate plane (see FIG. 4).
The width, height, and aspect ratio of the circumscribed rectangle are obtained as the width (L), height (H), and aspect ratio (H / L) of the circumscribed rectangle 202 that circumscribes the connecting region 200 shown in the figure. .
As shown in FIG. 3, the line length (number of constituent pixels after thinning) is the number of constituent pixels in the connection region thinning data 203 obtained by thinning the connection region [A] 200 and converting it into a line having a width of one pixel. Calculate as [n].
The line area (pixels of the connected region) is calculated as the total number of pixels [Nall] of the connected region [A] 200 itself.
As shown in FIG. 3, the line width is the line width [W] 203 of the connection area [A] 200. Calculated as the number of pixels or length.

図1に示す重心算出手段113,123と、特徴量算出手段114、124は、比較対象となる画像a10と、画像b20から、それぞれ抽出された連結領域各々について重心と、上述した特徴量情報、すなわち、外接矩形の幅・高さ・縦横比、線長、線面積、線幅などの特徴量情報を算出する。その結果が、例えば図4に示す連結領域情報テーブルである。図4に示すように、画像a10と、画像b20の各々から抽出された連結領域について識別子(ID)が設定され、各連結領域についての重心と、特徴量情報、すなわち、外接矩形の幅・高さ・縦横比、線長、線面積、線幅が記録される。   The center-of-gravity calculating means 113 and 123 and the feature amount calculating means 114 and 124 shown in FIG. 1 include the center of gravity and the above-described feature amount information for each of the connected regions extracted from the images a10 and b20 to be compared. That is, feature amount information such as the width / height / aspect ratio, line length, line area, and line width of the circumscribed rectangle is calculated. The result is, for example, a linked area information table shown in FIG. As shown in FIG. 4, identifiers (ID) are set for the connected areas extracted from the images a10 and b20, and the center of gravity and feature amount information for each connected area, that is, the width / height of the circumscribed rectangle. The length / aspect ratio, line length, line area, and line width are recorded.

次に、図1に示す対応連結領域選択手段131において、図4に示す2つの画像a10と画像b20についての連結領域情報テーブルを入力して、両テーブルに記録された連結領域情報に基づくパターンマッチング処理を行なう。すなわち、一方の画像についての1つの連結領域に類似する連結領域を他方の画像から選択する処理を行なう。   Next, the corresponding connected area selection unit 131 shown in FIG. 1 inputs a connected area information table for the two images a10 and b20 shown in FIG. 4, and pattern matching based on the connected area information recorded in both tables is performed. Perform processing. That is, a process of selecting a connected area similar to one connected area for one image from the other image is performed.

パターンマッチング処理において比較する連結領域の特徴情報は、図4に示す連結領域の特徴量情報から選択される。すなわち、外接矩形の幅・高さ・縦横比、線長(細線化後の構成画素数)、線面積(連結領域の画素)、線幅の少なくともいずれかの情報を比較する。   The feature information of the connected region to be compared in the pattern matching process is selected from the feature amount information of the connected region shown in FIG. That is, information on at least one of the width, height, aspect ratio, line length (number of constituent pixels after thinning), line area (pixels in a connected region), and line width of the circumscribed rectangle is compared.

図1に示す対応連結領域選択手段131は、連結領域選択基準設定手段132において設定された選択基準に基づいて、複数画像からの対応連結領域を選択する処理を実行する。図1に示す対応連結領域選択手段131の処理、補正係数算出手段133おける補正係数算出処理、データ変換手段134におけるデータ変換処理は、連結領域選択基準設定手段132において設定する選択基準を変更して繰り返し実行される。   The corresponding connected area selection unit 131 shown in FIG. 1 executes processing for selecting corresponding connected areas from a plurality of images based on the selection criteria set by the connected area selection criterion setting unit 132. The processing of the corresponding connected area selection unit 131, the correction coefficient calculation process of the correction coefficient calculation unit 133, and the data conversion process of the data conversion unit 134 shown in FIG. It is executed repeatedly.

すなわち、前述したように、粗調処理、微調処理の少なくとも2段階の処理を繰り返し実行する。前述したように、複数回の粗調処理、複数回の微調処理を実行してもよい。この場合には、処理回数ごとに対応連結領域選択記述を変更する。初期的に実行する粗調処理では、連結領域選択基準設定手段132において設定する選択基準を厳しくする。すなわち、対応連結領域選択手段131において、図4に示す2つの画像a10と画像b20についての連結領域情報テーブルを入力して、両テーブルに記録された連結領域情報に基づくパターンマッチング処理を行なう場合、比較する特徴量情報の種類を多く設定したり、あるいは特徴量情報の一致度が極めて高いもののみをマッチングパターンとして抽出する。一方、後半で実行する微調処理においては、連結領域選択基準設定手段132において設定する選択基準を緩やかにする。すなわち、比較する特徴量情報の種類を少なく設定したり、あるいは特徴情報の一致度を緩くして判定する。   That is, as described above, at least two stages of coarse adjustment processing and fine adjustment processing are repeatedly executed. As described above, a plurality of coarse adjustment processes and a plurality of fine adjustment processes may be executed. In this case, the corresponding connected region selection description is changed for each processing count. In the rough adjustment process that is initially executed, the selection criterion set by the connected region selection criterion setting unit 132 is tightened. That is, in the corresponding connected area selection unit 131, when the connected area information table for the two images a10 and b20 shown in FIG. 4 is input and pattern matching processing based on the connected area information recorded in both tables is performed, A large number of types of feature amount information to be compared are set, or only features having extremely high matching degree of feature amount information are extracted as matching patterns. On the other hand, in the fine adjustment process executed in the second half, the selection criterion set in the connected region selection criterion setting unit 132 is relaxed. That is, it is determined by setting the types of feature amount information to be compared to be small or by loosening the degree of coincidence of feature information.

図5を参照して、連結領域選択基準設定手段132において設定する選択基準の変遷について説明する。図5に示す例は、対応連結領域選択手段131において1回目からn回目までのn回の対応連結領域選択処理(パターンマッチング処理)を行なう場合の設定基準の態様を説明する図である。n回の処理中、前半の処理が粗調処理に対応し、後半の処理が微調処理に対応する。   With reference to FIG. 5, the transition of the selection criteria set in the connected region selection criteria setting means 132 will be described. The example shown in FIG. 5 is a diagram for explaining an aspect of setting criteria when the corresponding connected region selection unit 131 performs n corresponding connected region selection processes (pattern matching processing) from the first time to the n-th time. During the n times of processing, the first half process corresponds to the coarse adjustment process, and the second half process corresponds to the fine adjustment process.

連結領域選択基準設定手段132において設定する選択基準としては、
(a)対応連結領域検索範囲
(b)比較対象の特徴量情報の種類数
(c)比較対象の特徴量情報の一致度
の3つの選択基準カテゴリがある。
As a selection criterion set in the connected region selection criterion setting unit 132,
There are three selection criteria categories: (a) Corresponding linked region search range (b) Number of types of feature quantity information to be compared (c) Matching degree of feature quantity information to be compared.

(a)対応連結領域検索範囲は、図5上段に示すように、画像a10における1つの連結領域301の重心302の座標に対応する座標位置を画像b20から重心対応位置321として選択し、その周囲に連結領域301と同様の特徴量を検索する範囲を設定する場合の設定する検索範囲322である。
(b)比較対象の特徴量情報の種類数とは、図4に示す外接矩形の幅・高さ・縦横比、線長(細線化後の構成画素数)、線面積(連結領域の画素)、線幅から、何種類の特徴量を比較対象として設定するかである。
(c)比較対象の特徴量情報の一致度とは、適用した比較対象の特徴量を比較する場合、例えば画像aから選択した1つの連結領域の1つの特徴量、例えば外接矩形の幅と、画像bに設定された検索範囲から選択された連結領域の外接矩形の幅とを比較した場合に、どの程度一致したかで、対応連結領域として選択するか否かを判定する度合いである。
(A) As shown in the upper part of FIG. 5, the corresponding connected area search range is selected from the image b20 as a center of gravity corresponding position 321 corresponding to the coordinates of the center of gravity 302 of one connected area 301 in the image a10, and its surroundings. This is a search range 322 to be set when a range for searching for a feature amount similar to that of the connected region 301 is set.
(B) The number of types of feature quantity information to be compared is the width, height, aspect ratio, line length (number of constituent pixels after thinning), line area (pixels in a connected region) of the circumscribed rectangle shown in FIG. How many types of feature quantities are set as comparison targets based on the line width.
(C) The degree of coincidence of the comparison target feature amount information is, for example, when comparing the applied comparison target feature amount, for example, one feature amount of one connected region selected from the image a, for example, the width of the circumscribed rectangle, This is the degree of determination as to whether or not to select a corresponding connected region based on how much they match when comparing the width of the circumscribed rectangle of the connected region selected from the search range set in the image b.

連結領域選択基準設定手段132は、処理の前半(粗調処理)においては、
(a)対応連結領域検索範囲:広い
(b)比較対象の特徴量情報の種類数:適宜
(c)比較対象の特徴量情報の一致度:厳しい
という設定を実行し、処理の後半(微調処理)においては、
(a)対応連結領域検索範囲:狭い
(b)比較対象の特徴量情報の種類数:適宜
(c)比較対象の特徴量情報の一致度:緩い
という設定を実行する。
In the first half of the process (rough adjustment process), the connected area selection criterion setting unit 132
(A) Corresponding connected region search range: wide (b) number of types of feature quantity information to be compared: as appropriate (c) matching degree of feature quantity information to be compared: strict )
(A) Corresponding connected region search range: narrow (b) number of types of feature quantity information to be compared: as appropriate (c) matching degree of feature quantity information to be compared: loose

これは、初期的な粗調処理では、2つの画像間のずれが大きい場合でも、パターンマッチングのパターン検出領域を広く設定することで、マッチングする連結領域データを検出することを可能としているものである。ただし、検索範囲が広いため、多量の一致パターンが検出されてしまう可能性が高くなるので、比較対象の特徴量情報の一致度を厳しくして、より確からしい一致パターンのみを検出する構成としている。   This is because, in the initial coarse adjustment processing, even when the deviation between two images is large, it is possible to detect matching connected region data by setting a wide pattern detection region for pattern matching. is there. However, since the search range is wide, there is a high possibility that a large number of matching patterns will be detected. Therefore, the matching degree of the feature quantity information to be compared is tightened to detect only more probable matching patterns. .

一方、微調処理は、初期的な粗調処理において得られた2つの画像間の大まかなずれ情報に基づいて、補正処理が施され、ずれ量は比較的小さくなっている。従って、パターンマッチングにおける検出領域を狭く設定した処理を行なう。検出領域が狭いため、多くの連結領域が抽出される可能性は少なく、比較対象の特徴量情報の一致度を緩く、すなわち、マッチング条件を緩く設定して、確実に一致パターンを検出する。   On the other hand, in the fine adjustment process, a correction process is performed based on rough deviation information between two images obtained in the initial coarse adjustment process, and the deviation amount is relatively small. Therefore, processing is performed in which the detection area in pattern matching is set narrow. Since the detection area is narrow, there is little possibility that many connected areas are extracted, and the matching degree of the feature quantity information to be compared is set to be loose, that is, the matching condition is set to be low, so that the matching pattern is reliably detected.

また通常、粗調処理では比較対照の特徴量情報の種類を多くして、より確からしい一致パターンのみを検出し、微調処理では少なくして確実に一致パターンを検出する様に調整する。しかし一方で、2画像間の倍率ずれが大きい場合には、特徴量情報の種類を多くした上に一致度も厳しくすると、一致パターンが一つも見付からないケースもある。よって、比較対照の特徴量情報の種類は、想定される2画像のずれ量や比較対照の特徴量情報の一致度の厳しさに応じて、慎重に決定される。   In general, the coarse adjustment process increases the types of comparison feature amount information to detect only a more probable matching pattern, and the fine adjustment process decreases the characteristic information so that the matching pattern is reliably detected. On the other hand, if the magnification difference between the two images is large, there are cases where no matching pattern can be found if the degree of matching is severed while increasing the types of feature amount information. Therefore, the type of comparison feature amount information is carefully determined according to the assumed shift amount of the two images and the severity of the degree of coincidence between the comparison feature amount information.

なお、初期的に実行する粗調処理では、連結領域の特徴情報として、少なくとも外接矩形の縦横比を使うことが好ましい。この処理によって、例えば比較画像データ間で、倍率の差が大きい場合でも、類似する形状を持つ連結領域を検出することができる。また、比較対照の特徴量情報の一致度は総体的に見れば、粗調処理から微調処理に移行するに従い、厳しい設定から緩い設定へと変化させるが、これらは一律に変化させる必要は無い。場合によっては、粗調処理・微調処理ともに同じ値を採用することもできる。   In the coarse adjustment process that is initially performed, it is preferable to use at least the aspect ratio of the circumscribed rectangle as the feature information of the connected region. By this process, for example, even when the difference in magnification between the comparison image data is large, a connected region having a similar shape can be detected. In addition, the degree of coincidence of the comparison feature amount information generally changes from a strict setting to a gradual setting as the process shifts from the coarse adjustment process to the fine adjustment process, but it is not necessary to change them uniformly. In some cases, the same value can be adopted for both the coarse adjustment process and the fine adjustment process.

図6に、連結領域選択基準設定手段132において設定する選択基準を変化させた場合に、連結領域選択手段131におけるパターンマッチングによって選択された連結領域の数の実験データを示す。J=1〜3の3回のパターンマッチングを条件を変更して、行なった。
1回目のパターンマッチング処理は、
対応連結領域検索範囲=重心位置±20mm
比較対象の特徴量情報の一致度=±1%
2回目のパターンマッチング処理は、
対応連結領域検索範囲=重心位置±2mm
比較対象の特徴量情報の一致度=±10%
3回目のパターンマッチング処理は、
対応連結領域検索範囲=重心位置±0.4mm
比較対象の特徴量情報の一致度=±20%
の連結領域選択基準を設定した処理を行なった。比較対象の特徴量情報の種類は変更しなかった。
FIG. 6 shows experimental data on the number of connected regions selected by pattern matching in the connected region selection unit 131 when the selection criteria set in the connected region selection reference setting unit 132 is changed. J = 1 to 3 pattern matching was performed by changing the conditions.
The first pattern matching process is
Corresponding connected area search range = center of gravity position ± 20mm
Matching degree of feature quantity information to be compared = ± 1%
The second pattern matching process is
Corresponding connected area search range = center of gravity position ± 2mm
Consistency of feature quantity information to be compared = ± 10%
The third pattern matching process is
Corresponding connected area search range = center of gravity position ± 0.4mm
Consistency of comparison target feature information = ± 20%
The process which set the connection area | region selection criteria of was performed. The type of feature quantity information to be compared was not changed.

上記の選択基準で連結領域選択手段131におけるパターンマッチングによって選択された連結領域の数は、
1回目=10〜20個
2回目=100〜200個
3回目=200〜300個
このような数となる。なお、この数は、比較対象画像データ全体において抽出される対応連結領域である。
The number of connected regions selected by pattern matching in the connected region selecting means 131 based on the above selection criteria is as follows:
1st time = 10 to 20 times 2nd time = 100 to 200 times 3rd time = 200 to 300 times This number is a corresponding connected area extracted in the entire comparison target image data.

連結領域選択手段131における1回目の連結領域選択処理(パターンマッチング処理)では、10〜20個の対応連結領域が取得され、この対応情報に基づいて、画像aと画像bとの大まかなずれ量が算出され、算出されたずれ量に基づいて補正係数が算出されて補正処理の後、連結領域選択基準設定手段132において選択基準を変更して、2回目のパターンマッチングを行なうと、100〜200個の対応連結領域が取得され、この対応情報に基づいて、さらに画像aと画像bのずれ量が算出され、算出されたずれ量に基づいて補正係数が算出されて2回目の補正処理の後、さらに連結領域選択基準設定手段132において選択基準を変更して、3回目のパターンマッチングを行なうと、200〜300個の対応連結領域が取得され、この対応情報に基づいて、さらに画像aと画像bのずれ量を算出して算出されたずれ量に基づいて補正係数を算出されて3回目の補正処理を行なうといった処理を繰り返すことになる。   In the first connected area selection process (pattern matching process) in the connected area selection unit 131, 10 to 20 corresponding connected areas are acquired, and based on this correspondence information, a rough shift amount between the image a and the image b. When the correction coefficient is calculated based on the calculated deviation amount and the correction process is performed, and then the selection criterion is changed in the connected region selection reference setting unit 132 and the second pattern matching is performed, 100 to 200 is performed. A corresponding connected region is acquired, and based on this correspondence information, the shift amount between the image a and the image b is further calculated, a correction coefficient is calculated based on the calculated shift amount, and after the second correction process. Furthermore, when the selection criterion is changed in the connected region selection reference setting unit 132 and the third pattern matching is performed, 200 to 300 corresponding connected regions are acquired, Of based on the correspondence information, so that further repeated processing such being calculated performing third correction processing correction coefficient based on the shift amount calculated by calculating the deviation amount of the image a and image b.

図1に示す対応連結領域選択手段131は、連結領域選択基準設定手段132において設定された選択基準に基づいて、画像aの連結領域の特徴量と画像bの連結領域の特徴量とを比較して、対応する連結領域を選択する。   The corresponding connected region selection unit 131 shown in FIG. 1 compares the feature amount of the connected region of the image a with the feature amount of the connected region of the image b based on the selection criterion set by the connected region selection criterion setting unit 132. To select the corresponding connected area.

この対応連結領域情報は、補正係数算出手段133に入力され、2画像データの位置ずれを直すための画像変換(アフィン変換)に適用する補正係数を算出する。画像変換(アフィン変換)に適用する補正係数は、幅方向移動量(X)、縦方向移動量(Y)、回転角(θ)、倍率(β)である。補正係数は、一方の画像に対して補正係数に基づく変換を実行した場合に、2つの画像の対応連結領域の重心位置の誤差が最も小さくなる値として算出される。具体的には、例えば、最小二乗法を適用して、2つの画像の対応連結領域の重心位置の誤差の総和が最も小さくなる補正係数としての幅方向移動量(X)、縦方向移動量(Y)、回転角(θ)、倍率(β)の各値を求める。なお、最小二乗法を適用した補正係数算出処理については、例えば特開平9−93431に記載されている。   This corresponding connected area information is input to the correction coefficient calculation means 133, and calculates a correction coefficient to be applied to image conversion (affine conversion) for correcting the positional deviation between the two image data. The correction coefficients applied to the image conversion (affine transformation) are the width direction movement amount (X), the vertical direction movement amount (Y), the rotation angle (θ), and the magnification (β). The correction coefficient is calculated as a value that minimizes the error of the centroid position of the corresponding connected region of the two images when conversion based on the correction coefficient is performed on one image. Specifically, for example, by applying the least square method, the movement amount in the width direction (X), the movement amount in the vertical direction (as a correction coefficient that minimizes the sum of errors in the centroid positions of the corresponding connected regions of the two images ( Y), rotation angle (θ), and magnification (β) are obtained. The correction coefficient calculation process using the least square method is described in, for example, JP-A-9-93431.

データ変換手段134は、補正係数算出手段133の算出した補正係数に基づくデータ変換処理を実行する。データ変換は、図4に示す連結領域情報テーブルに記録された重心位置、特徴量情報の値を更新する処理として実行する。   The data conversion unit 134 executes a data conversion process based on the correction coefficient calculated by the correction coefficient calculation unit 133. Data conversion is executed as a process of updating the position of the center of gravity and the value of feature amount information recorded in the connected region information table shown in FIG.

すなわち、図4に示す連結領域情報テーブルから、補正処理を実行する画像に対応する一方のテーブルを選択し、選択したテーブルに記録された特徴量、重心位置の値を、補正係数算出手段133の算出した補正係数に基づくアフィン変換を実行した場合に変更される値に更新する。画像データ自体を、補正係数に基づいて変換(アフィン変換)を行なう構成としてもよいが、画像自体の変換処理は時間を要する処理となるので、データのみの変換を行なう構成としてある。   That is, one table corresponding to the image to be corrected is selected from the connected region information table shown in FIG. 4, and the feature amount and the gravity center position value recorded in the selected table are stored in the correction coefficient calculation unit 133. It is updated to a value that is changed when affine transformation based on the calculated correction coefficient is executed. The image data itself may be configured to perform conversion (affine transformation) based on the correction coefficient. However, since the conversion process of the image itself is a time-consuming process, only the data is converted.

1回目の粗調処理に基づくデータ変換、すなわち、連結領域情報テーブルの更新が終了すると、連結領域選択基準設定手段132において、連結領域選択基準を変更して、2回目の対応連結領域選択処理(パターンマッチング処理)が対応連結領域選択手段131において実行される。この処理は、1回目の処理において更新された連結領域情報テーブルの値の比較によって実行されることになる。   When the data conversion based on the first coarse adjustment process, that is, the update of the connection area information table is completed, the connection area selection criterion setting unit 132 changes the connection area selection criterion, and the second corresponding connection area selection process ( Pattern matching processing) is executed in the corresponding connected region selection means 131. This process is executed by comparing the values of the linked area information table updated in the first process.

この2回目の処理においても、1回目の処理と同様、更新された連結領域情報テーブルを適用して、画像aの連結領域の特徴量と画像bの連結領域の特徴量とを比較して、対応する連結領域を選択する。対応連結領域情報は、補正係数算出手段133に入力され、画像変換(アフィン変換)に適用する補正係数、すなわち、幅方向移動量(X)、縦方向移動量(Y)、回転角(θ)、倍率(β)を算出する。   In the second process, as in the first process, the updated connected area information table is applied to compare the feature quantity of the connected area of image a with the feature quantity of the connected area of image b. Select the corresponding connected area. Corresponding connected area information is input to the correction coefficient calculation unit 133 and is applied to image conversion (affine transformation), that is, a movement amount in the width direction (X), a movement amount in the vertical direction (Y), and a rotation angle (θ). The magnification (β) is calculated.

さらに、データ変換手段134が、補正係数算出手段133の算出した補正係数に基づくデータ変換処理、すなわち、図4に示す連結領域情報テーブルに記録された重心位置、特徴量情報の値を更新する。さらに、3回目の処理を実行する場合は、図4に示す連結領域情報テーブルに記録された重心位置、特徴量情報の値を更新し、更新したテーブルを適用し、選択基準を変更して、対応連結領域選択処理を実行する。この処理を繰り返し実行して、予め決められた設定回数、または、最小二乗法の誤差値が所定値以下になるまで処理が実行され、最終的な処理が終了した時点で得られた補正係数に基づいて図4に示す連結領域情報テーブルの更新が行なわれる。   Further, the data conversion unit 134 updates the data conversion process based on the correction coefficient calculated by the correction coefficient calculation unit 133, that is, the position of the center of gravity and the feature amount information recorded in the connected region information table shown in FIG. Furthermore, when executing the third process, update the value of the center of gravity position and feature amount information recorded in the connected region information table shown in FIG. 4, apply the updated table, change the selection criteria, Corresponding linked area selection processing is executed. This process is repeatedly executed until the predetermined number of times or the error value of the least squares method is equal to or less than a predetermined value, and the correction coefficient obtained when the final process is completed Based on this, the linked area information table shown in FIG. 4 is updated.

例えば画像aを補正対象画像とした場合は、画像aに対応する連結領域情報テーブルの更新が複数回実行されることになる。最終的に得られた画像aに対応する更新された連結領域情報テーブルの重心位置および特徴量情報は、比較対象画像bの連結領域情報テーブルに記録された対応する連結領域の重心位置および特徴量情報とほぼ一致する情報に更新されることになる。   For example, when the image a is a correction target image, the linked area information table corresponding to the image a is updated a plurality of times. The barycentric position and feature amount information of the updated connected region information table corresponding to the finally obtained image a is the barycentric position and feature amount of the corresponding connected region recorded in the connected region information table of the comparison target image b. It will be updated to information that almost matches the information.

なお補正対象画像、例えば画像aの補正を実行する場合は、最終的に得られた画像aに対応する更新された連結領域情報テーブルの記録情報と、更新前の画像aに対応するオリジナルの連結領域情報テーブルの記録情報との差分に基づいて、アフィン変換に適用する補正係数、すなわち、幅方向移動量(X)、縦方向移動量(Y)、回転角(θ)、倍率(β)の各値を算出し、算出した補正係数に基づくアフィン変換を実行すればよい。なお、複数回の処理(粗調処理〜微調処理)において算出された補正係数を積算して最終的な補正係数を算出し、積算によって算出した補正係数に基づいて補正対象画像のアフィン変換を実行する構成としてもよい。   When correction of an image to be corrected, for example, image a, is performed, the recorded information in the updated connection region information table corresponding to the finally obtained image a and the original connection corresponding to the image a before update are performed. Based on the difference from the recorded information in the area information table, correction coefficients applied to the affine transformation, that is, the width direction movement amount (X), the vertical direction movement amount (Y), the rotation angle (θ), and the magnification (β) Each value may be calculated and affine transformation based on the calculated correction coefficient may be executed. In addition, the final correction coefficient is calculated by integrating the correction coefficients calculated in a plurality of processes (rough adjustment process to fine adjustment process), and affine transformation of the correction target image is executed based on the correction coefficient calculated by the integration. It is good also as composition to do.

上述したように、本発明の構成では、複数画像から選択された連結領域の重心および特徴量情報を記録した連結領域情報テーブルを生成し、テーブルの比較に基づいて、対応連結領域を選択する処理を実行する。さらに、対応連結領域選択処理を選択条件を変更して複数回実行する。   As described above, in the configuration of the present invention, a process of generating a connected area information table in which the center of gravity and feature amount information of connected areas selected from a plurality of images is recorded, and selecting a corresponding connected area based on the comparison of the tables Execute. Further, the corresponding connected area selection process is executed a plurality of times while changing the selection condition.

本発明の構成では、1回の処理で算出した補正係数に基づいて、補正対象画像の連結領域情報テーブルに記録された連結領域の重心および特徴量情報を更新して、更新したデータに基づいて、条件を変更して2回目の対応連結領域選択処理を実行して、さらに対応連結領域情報に基づく補正係数の算出、テーブルの更新という処理を繰り返し実行する。   In the configuration of the present invention, based on the correction coefficient calculated in one process, the centroid and feature amount information of the connected area recorded in the connected area information table of the correction target image is updated, and based on the updated data. Then, the second corresponding linked region selection process is executed with the conditions changed, and the process of calculating the correction coefficient based on the corresponding linked region information and updating the table is repeatedly executed.

対応連結領域の選択条件は、先に、図6を参照して説明したように、対応連結領域検索範囲は、広い設定から順次狭い設定に変更し、比較対象の特徴量情報の一致度は、厳しい設定から緩い設定に変更する構成として、粗調処理においては、広い範囲からより一致度の高い連結領域を選択することが可能であり、2つの画像のずれ量が大きくても対応連結領域を発見する可能性を高くすることが可能となる。また、微調処理では、狭い範囲で、かつ緩い一致条件の下で、対応連結領域選択処理を実行するので、対応関係のある連結領域を効率的に抽出することが可能となる。   As described above with reference to FIG. 6, the selection conditions for the corresponding connected region are changed from the wide setting to the narrow setting in order to search for the corresponding connected region search range. As a configuration to change from a strict setting to a loose setting, it is possible to select a connected region with a higher degree of matching from a wide range in the coarse adjustment process, and the corresponding connected region can be selected even if the shift amount between two images is large. It is possible to increase the possibility of discovery. Further, in the fine adjustment process, the corresponding connected area selection process is executed in a narrow range and under a loose matching condition, so that it is possible to efficiently extract a connected area having a corresponding relationship.

次に、本発明の画像処理装置の実行する処理シーケンスについて、図7、図8に示すフローチャートを参照して説明する。図7は、図1に示す前処理手段111〜特徴量算出手段114に対応する処理であり、図8は、対応連結領域選択手段131〜データ変換手段134における処理を示している。   Next, a processing sequence executed by the image processing apparatus of the present invention will be described with reference to flowcharts shown in FIGS. FIG. 7 shows the processing corresponding to the preprocessing means 111 to the feature amount calculation means 114 shown in FIG. 1, and FIG. 8 shows the processing in the corresponding connected area selection means 131 to the data conversion means 134.

なお、図1に示す前処理手段111〜特徴量算出手段114と前処理手段121〜特徴量算出手段124は処理対象画像が異なるのみで、同様の処理であり、これらの処理は並列に実行される。図7のフローの各ステップの処理について説明する。なお、以下の説明においては、図1に示す画像a10に対して、前処理手段111〜特徴量算出手段114の実行する処理として説明するが、画像bについても、前処理手段121〜特徴量算出手段124において同様の処理が実行される。   Note that the preprocessing unit 111 to the feature amount calculation unit 114 and the preprocessing unit 121 to the feature amount calculation unit 124 shown in FIG. 1 are the same processes except for the processing target images, and these processes are executed in parallel. The Processing of each step in the flow of FIG. 7 will be described. In the following description, the processing executed by the preprocessing unit 111 to the feature amount calculation unit 114 is described for the image a10 illustrated in FIG. 1, but the preprocessing unit 121 to the feature amount calculation is also performed for the image b. Similar processing is executed in the means 124.

ステップS101において、画像aの読み込みを行なう。ステップS102において、前処理手段111において前処理を実行する。この前処理は、前述したように輝度情報のみを取得する単色化処理と、二値化処理である。次に、ステップS103において、連結領域の抽出処理を実行する。連結領域抽出手段112において、二値化画像における黒画素の連続領域(黒ラン)、あるいは黒画素ではない白画素データの連続した領域(白ラン)であり、予め定めた条件を満足する領域を連続領域として抽出する。抽出された連続領域は、識別子(ID)を付与して図4に示す連結領域情報テーブルに登録する。   In step S101, the image a is read. In step S102, the preprocessing means 111 performs preprocessing. As described above, this pre-processing is a monochromatic process for obtaining only luminance information and a binarization process. Next, in step S103, a connected region extraction process is executed. In the connected area extracting unit 112, a continuous area of black pixels in the binarized image (black run) or a continuous area of white pixel data that is not black pixels (white run), and an area that satisfies a predetermined condition is detected. Extract as a continuous region. The extracted continuous area is given an identifier (ID) and registered in the linked area information table shown in FIG.

次に、ステップS104において、画像から取得した連結領域の重心位置を算出する。さらに、ステップS105〜S110において、連結領域に対応する特徴量情報、すなわち、図3を参照して説明した特徴量情報としての外接矩形の幅・高さ・縦横比、線長、線面積、線幅などの特徴量情報を算出し、ステップS111において、連結領域の重心および特徴量情報を連結領域情報テーブル(図4参照)に登録する。ステップS112において、全ての抽出連結領域に対応する重心および特徴量の算出、登録が完了したか否かを判定し、未終了の場合は、ステップS104以下の処理を各連結領域について繰り返し実行し、最終的に全ての抽出連結領域に対応する重心および特徴量の算出、登録が完了して処理を終了する。この処理によって、図4に示す連結領域情報テーブルが完成する。   Next, in step S104, the position of the center of gravity of the connected area acquired from the image is calculated. Further, in steps S105 to S110, the feature amount information corresponding to the connected region, that is, the width / height / aspect ratio of the circumscribed rectangle as the feature amount information described with reference to FIG. 3, the line length, the line area, and the line The feature amount information such as the width is calculated, and in step S111, the center of gravity of the connected region and the feature amount information are registered in the connected region information table (see FIG. 4). In step S112, it is determined whether the calculation and registration of the center of gravity and the feature amount corresponding to all the extracted connected areas have been completed. If not completed, the process from step S104 is repeatedly executed for each connected area. Finally, calculation and registration of the centroids and feature amounts corresponding to all the extracted connected regions are completed, and the process ends. By this process, the linked area information table shown in FIG. 4 is completed.

次に、図8を参照して、対応連結領域選択手段131〜データ変換手段134における処理のシーケンスについて説明する。まず、ステップS201において、初期的な補正係数、すなわちアフィン変換補正係数を設定する。初期的な補正係数は、2つの画像に全くずれが無いと仮定し、幅方向移動量:X=0、縦方向移動量:Y=0、回転角θ=0、倍率=1倍とする。   Next, with reference to FIG. 8, a processing sequence in the corresponding connected area selection unit 131 to the data conversion unit 134 will be described. First, in step S201, an initial correction coefficient, that is, an affine transformation correction coefficient is set. Assuming that there is no deviation between the two images, the initial correction coefficient is set such that the movement amount in the width direction: X = 0, the movement amount in the vertical direction: Y = 0, the rotation angle θ = 0, and the magnification = 1 ×.

ステップS202において、処理回数を示す変数jを初期値j=1に設定する。なお、このフローは、処理回数を3回として設定した例を示している。ステップS203では、1回目の処理における連結領域選択基準を連結領域選択基準設定手段132から取得する。   In step S202, a variable j indicating the number of processes is set to an initial value j = 1. This flow shows an example in which the number of processes is set to three. In step S <b> 203, the connection area selection reference in the first process is acquired from the connection area selection reference setting unit 132.

ステップS204では、連結領域識別子(番号)に対応する変数iを初期値i=1に設定する。なお、本フローではN個の連結領域について、対応連結領域を選択する処理を実行するものとする。次に、ステップS205において、補正処理対象画像のi番目の連結領域の重心と、特徴量情報を取得する。図4に示す連結領域情報テーブルから取得する。   In step S204, the variable i corresponding to the connected region identifier (number) is set to an initial value i = 1. In this flow, it is assumed that a process for selecting a corresponding connected region is executed for N connected regions. Next, in step S205, the center of gravity of the i-th connected region of the correction processing target image and the feature amount information are acquired. Obtained from the linked region information table shown in FIG.

次に、ステップS206において、ステップS205で求めた1つの連結領域の重心位置に対応する原本画像の対応位置から所定範囲内にある連結領域を抽出する。この抽出処理は、図4に示す連結領域情報テーブルに基づいて実行される。なお、本処理フローでは、補正処理を実行する画像を補正処理対象画像とし、補正処理を実行しない画像を原本画像として説明している。すなわち、補正処理対象画像を原本画像に合わせるように補正を行なう。   Next, in step S206, a connected area within a predetermined range is extracted from the corresponding position of the original image corresponding to the barycentric position of one connected area obtained in step S205. This extraction process is executed based on the linked area information table shown in FIG. In this processing flow, an image for which correction processing is performed is described as a correction processing target image, and an image for which correction processing is not performed is described as an original image. That is, correction is performed so that the correction processing target image matches the original image.

また、ステップS206において説明している所定範囲は、先に、図5、図6を参照して説明したように連結領域選択基準設定手段132の設定条件によって決定される範囲である。ステップS207では、ステップS206において、原本画像に設定された所定の検索領域から選択された複数の連結領域から、選択基準を満足する特徴量を持つ連結領域データを対応連結領域として選択する。なお、選択基準を満足する特徴量を持つ連結領域が複数ある場合は、最も特徴量の一致度が高いデータを対応連結領域とする。選択基準を満足する特徴量を持つ連結領域がない場合は、該当なしとする。   Further, the predetermined range described in step S206 is a range determined by the setting conditions of the connected region selection reference setting unit 132 as described above with reference to FIGS. In step S207, in step S206, connected region data having a feature quantity satisfying the selection criterion is selected as a corresponding connected region from a plurality of connected regions selected from the predetermined search region set in the original image. If there are a plurality of connected regions having feature quantities that satisfy the selection criteria, the data having the highest feature value matching degree is set as the corresponding connected region. If there is no connected area having a feature value that satisfies the selection criteria, it is not applicable.

ステップS208では、連結領域識別子(番号)に対応する変数iが、連結領域数(N)に等しいか否かを判定し、等しくない場合は、ステップS221に進み、変数iを更新し、次の連結領域について、ステップS205〜S207の対応連結領域選択処理を実行する。   In step S208, it is determined whether or not the variable i corresponding to the connected region identifier (number) is equal to the number of connected regions (N). If not, the process proceeds to step S221 to update the variable i, and For the connection area, the corresponding connection area selection processing in steps S205 to S207 is executed.

補正対象画像から選択されたN個すべての連結領域に対応する対応連結領域選択処理が修了すると、ステップS209に進む。ステップS209では、補正対象画像と原本画像における対応連結領域の相対位置を比較し、概ね一致する相対位置情報を持つ組み合わせを抽出する。すなわち、この処理は、誤った対応連結領域の組み合わせを排除するための処理である。   When the corresponding connected region selection processing corresponding to all N connected regions selected from the correction target image is completed, the process proceeds to step S209. In step S209, the relative positions of the corresponding connected areas in the correction target image and the original image are compared, and a combination having relatively matching relative position information is extracted. In other words, this process is a process for eliminating combinations of erroneous corresponding connected regions.

次に、ステップS210において、ステップS209で選択された対応連結領域情報の位置情報に基づいて補正係数を算出する。すなわち、図1に示す補正係数算出手段133の処理であり、2つの画像データの位置ずれを直すための画像変換(アフィン変換)に適用する補正係数として、幅方向移動量(X)、縦方向移動量(Y)、回転角(θ)、倍率(β)を算出する。   Next, in step S210, a correction coefficient is calculated based on the position information of the corresponding connected region information selected in step S209. That is, the correction coefficient calculation unit 133 shown in FIG. 1 is a correction coefficient applied to image conversion (affine conversion) for correcting the positional deviation between two image data. A movement amount (Y), a rotation angle (θ), and a magnification (β) are calculated.

次に、ステップS211において、処理回数jが、設定処理回数(本例では3)に等しくなったか否かを判定し、等しくない場合は、ステップS222に進み、処理回数jを更新し、さらに、ステップS223において、算出した補正係数を適用したデータ変換を実行する。データ変換は、補正対象画像の連結領域情報テーブルの格納データの更新処理として実行する。さらに、ステップS203〜210の対応連結領域選択処理および補正係数算出処理を繰り返し実行する。なお、この回における対応連結領域の選択基準は、先に図5、図6を参照して説明したように前回の処理で適用した基準とは異なった基準として設定される。   Next, in step S211, it is determined whether or not the processing count j is equal to the set processing count (3 in this example). If not, the process proceeds to step S222, and the processing count j is updated. In step S223, data conversion using the calculated correction coefficient is executed. The data conversion is executed as an update process of the stored data in the connection area information table of the correction target image. Further, the corresponding connected area selection process and the correction coefficient calculation process in steps S203 to S210 are repeatedly executed. Note that the selection criterion for the corresponding connected region at this time is set as a criterion different from the criterion applied in the previous process, as described above with reference to FIGS.

ステップS211において、処理回数jが、設定処理回数(本例では3)に等しくなった場合は、処理を終了する。   In step S211, when the processing count j is equal to the set processing count (3 in this example), the processing ends.

この処理によって、補正対象画像の連結領域情報テーブルの更新が複数回実行され、最終的な補正対象画像の連結領域情報テーブルの更新された重心位置および特徴量情報は、原本画像の連結領域情報テーブルに記録された対応連結領域の重心位置および特徴量情報とほぼ一致する情報になる。なお補正対象画像の補正を実行する場合は、前述したように、最終的に得られた補正対象画像の更新連結領域情報テーブルの記録情報と、更新前のオリジナルの連結領域情報テーブルの記録情報との差分に基づいて、アフィン変換に適用する補正係数、すなわち、幅方向移動量(X)、縦方向移動量(Y)、回転角(θ)、倍率(β)の各値を算出し、算出した補正係数に基づくアフィン変換を実行するか、複数回の処理(粗調処理〜微調処理)において算出された補正係数を積算して最終的な補正係数を算出し、積算によって算出した補正係数に基づいて補正対象画像のアフィン変換を実行する。   By this processing, the connection area information table of the correction target image is updated a plurality of times, and the updated barycentric position and feature amount information in the connection area information table of the final correction target image are obtained from the connection area information table of the original image. Information corresponding to the centroid position and feature amount information of the corresponding connected area recorded in (1). When performing correction of the correction target image, as described above, the record information of the updated connection region information table of the finally obtained correction target image, and the record information of the original connection region information table before the update, Based on the difference, a correction coefficient to be applied to the affine transformation, that is, each value of the width direction movement amount (X), the vertical direction movement amount (Y), the rotation angle (θ), and the magnification (β) is calculated. The affine transformation based on the corrected correction coefficient is executed, or the final correction coefficient is calculated by adding the correction coefficients calculated in a plurality of processes (rough adjustment process to fine adjustment process), and the correction coefficient calculated by the integration is calculated. Based on this, affine transformation of the correction target image is executed.

最後に、図9を参照して、画像処理装置のハードウェア構成例について説明する。図9に示す構成は、例えばPCなどの情報処理装置と、スキャナ等の画像データ読み取り部531と、プリンタなどの画像データ出力部532を備えたハード構成例を示している。   Finally, an example of the hardware configuration of the image processing apparatus will be described with reference to FIG. The configuration illustrated in FIG. 9 illustrates a hardware configuration example including an information processing apparatus such as a PC, an image data reading unit 531 such as a scanner, and an image data output unit 532 such as a printer.

CPU(Central Processing Unit)501は、上述の実施例において説明した各種のデータ処理、すなわち連結領域の抽出処理、連結領域の重心、特徴量の算出、連結領域情報テーブルの生成、対応連結領域の選択処理、補正係数の算出、補正係数に基づくデータ変換処理等の各処理の実行シーケンスを記述したコンピュータ・プログラムに従った処理を実行する制御部である。   A CPU (Central Processing Unit) 501 performs various data processing described in the above-described embodiments, that is, connected region extraction processing, connected region centroids, feature amount calculation, connected region information table generation, and corresponding connected region selection. It is a control part which performs the process according to the computer program describing the execution sequence of each process, such as a process, calculation of a correction coefficient, and the data conversion process based on a correction coefficient.

ROM(Read Only Memory)502は、CPU501が使用するプログラムや演算パラメータ等を格納する。RAM(Random Access Memory)503は、CPU501の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を格納する。これらはCPUバスなどから構成されるホストバス504により相互に接続されている。   A ROM (Read Only Memory) 502 stores programs used by the CPU 501, calculation parameters, and the like. A RAM (Random Access Memory) 503 stores programs used in the execution of the CPU 501, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 504 including a CPU bus.

ホストバス504は、ブリッジ505を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス506に接続されている。   The host bus 504 is connected to an external bus 506 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 505.

キーボード508、ポインティングデバイス509は、ユーザにより操作される入力デバイスである。ディスプレイ510は、液晶表示装置またはCRT(Cathode Ray Tube)などから成り、各種情報をテキストやイメージ情報として表示する。   A keyboard 508 and a pointing device 509 are input devices operated by the user. The display 510 includes a liquid crystal display device, a CRT (Cathode Ray Tube), or the like, and displays various information as text or image information.

HDD(Hard Disk Drive)511は、ハードディスクを内蔵し、ハードディスクを駆動し、CPU501によって実行するプログラムや情報を記録または再生させる。ハードディスクは、例えば前述した連結領域情報テーブルを格納する。さらに、各種のデータ処理プログラム等、各種コンピュータ・プログラムが格納される。   An HDD (Hard Disk Drive) 511 includes a hard disk, drives the hard disk, and records or reproduces a program executed by the CPU 501 and information. The hard disk stores, for example, the connection area information table described above. Further, various computer programs such as various data processing programs are stored.

ドライブ512は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体521に記録されているデータまたはプログラムを読み出して、そのデータまたはプログラムを、インタフェース507、外部バス506、ブリッジ505、およびホストバス504を介して接続されているRAM503に供給する。リムーバブル記録媒体521も、ハードディスクと同様のデータ記録領域として利用可能である。   The drive 512 reads data or a program recorded on a removable recording medium 521 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and the data or program is read out from the interface 507 and the external bus 506. , And supplied to the RAM 503 connected via the bridge 505 and the host bus 504. The removable recording medium 521 can also be used as a data recording area similar to a hard disk.

接続ポート514は、外部接続機器522を接続するポートであり、USB,IEEE1394等の接続部を持つ。接続ポート514は、インタフェース507、および外部バス506、ブリッジ505、ホストバス504等を介してCPU501等に接続されている。通信部515は、ネットワークに接続され、外部とのデータ通信処理を実行する。プリント処理部531は、画像データの出力を実行し、文書読み取り部532は、画像データの読み取り処理を実行する。   The connection port 514 is a port for connecting the external connection device 522 and has a connection unit such as USB or IEEE1394. The connection port 514 is connected to the CPU 501 and the like via the interface 507, the external bus 506, the bridge 505, the host bus 504, and the like. The communication unit 515 is connected to a network and executes data communication processing with the outside. The print processing unit 531 executes image data output, and the document reading unit 532 executes image data reading processing.

なお、図9に示す画像処理装置のハードウェア構成例は、1つの装置例を示すものであり、本発明の画像処理装置は、図9に示す構成に限らず、上述した実施例において説明した処理を実行可能な構成であればよい。   Note that the hardware configuration example of the image processing apparatus shown in FIG. 9 shows one example of the apparatus, and the image processing apparatus of the present invention is not limited to the configuration shown in FIG. Any configuration capable of executing the process may be used.

以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。   The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present invention. In other words, the present invention has been disclosed in the form of exemplification, and should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims should be taken into consideration.

なお、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。   The series of processes described in the specification can be executed by hardware, software, or a combined configuration of both. When executing processing by software, the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and executed.

例えば、プログラムは記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することができる。   For example, the program can be recorded in advance on a hard disk or ROM (Read Only Memory) as a recording medium. Alternatively, the program is temporarily or permanently stored on a removable recording medium such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, or a semiconductor memory. It can be stored (recorded). Such a removable recording medium can be provided as so-called package software.

なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。   The program is installed on the computer from the removable recording medium as described above, or is wirelessly transferred from the download site to the computer, or is wired to the computer via a network such as a LAN (Local Area Network) or the Internet. The computer can receive the program transferred in this manner and install it on a recording medium such as a built-in hard disk.

なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   The various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes. Further, in this specification, the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.

以上、説明したように、本発明の構成によれば、複数の画像間のずれを算出するために実行する対応連結領域選択処理を、選択条件を変更して複数回実行する構成とした。例えば検索範囲を、広い設定から順次狭い設定に変更し、比較対象の特徴量情報の一致度は、厳しい設定から緩い設定に変更する。この繰り返し処理によって、初期的に実行する粗調処理においては、広い範囲からより一致度の高い連結領域を選択することが可能であり、2つの画像のずれ量が大きくても対応連結領域を発見する可能性を高くすることができる。また、後半で実行する微調処理では、狭い範囲で、かつ緩い一致条件の下で、対応連結領域選択処理を実行するので、対応関係のある連結領域を効率的に抽出することが可能となる。   As described above, according to the configuration of the present invention, the corresponding connected region selection process executed for calculating the shift between the plurality of images is configured to be executed a plurality of times while changing the selection condition. For example, the search range is sequentially changed from a wide setting to a narrow setting, and the degree of coincidence of comparison target feature amount information is changed from a strict setting to a loose setting. By this iterative process, it is possible to select a connected area with a higher degree of coincidence from a wide range in the rough adjustment process that is initially executed, and a corresponding connected area is found even if the amount of deviation between the two images is large. The possibility of doing can be increased. Further, in the fine adjustment process executed in the second half, the corresponding connected area selection process is executed in a narrow range and under a loose matching condition, so that it is possible to efficiently extract a connected area having a corresponding relationship.

また、本発明の構成では、複数画像から選択された連結領域の重心および特徴量情報を記録した連結領域情報テーブルを生成し、テーブルの比較に基づいて、対応連結領域を選択する処理を実行し、1回の処理で算出した補正係数に基づいて、補正対象画像の連結領域情報テーブルに記録された連結領域の重心および特徴量情報を更新して、更新したデータに基づいて、条件を変更して2回目の対応連結領域選択処理を実行して、さらに対応連結領域情報に基づく補正係数の算出、テーブルの更新という処理を繰り返し実行する構成としたので、正確でかつ効率的な画像間のずれ量調整処理が可能となる。   In the configuration of the present invention, a connected area information table in which the center of gravity of the connected area selected from the plurality of images and the feature amount information are recorded is generated, and the corresponding connected area is selected based on the comparison of the tables. Based on the correction coefficient calculated in one process, the centroid and feature amount information of the connected area recorded in the connected area information table of the correction target image is updated, and the condition is changed based on the updated data. The corresponding connected region selection process is executed for the second time, and the correction coefficient calculation based on the corresponding connected region information and the table update process are repeatedly executed. A quantity adjustment process becomes possible.

本発明の画像処理装置の構成について説明する図である。It is a figure explaining the structure of the image processing apparatus of this invention. 連結領域について説明する図である。It is a figure explaining a connection field. 連結領域の重心および特徴量について説明する図である。It is a figure explaining the gravity center and feature-value of a connection area | region. 連結領域の重心および特徴量のリストとしての連結領域情報テーブルについて説明する図である。It is a figure explaining the connection area | region information table as a list | wrist of the gravity center and feature-value of a connection area | region. 対応連結領域選択処理において適用する連結領域選択基準について説明する図である。It is a figure explaining the connection area | region selection criteria applied in corresponding connection area | region selection processing. 対応連結領域選択処理において適用する連結領域選択基準の適用処理例について説明する図である。It is a figure explaining the application process example of the connection area | region selection reference | standard applied in a corresponding connection area | region selection process. 本発明の画像処理装置の前処理手段111〜特徴量算出手段114において実行する処理シーケンスを説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the processing sequence performed in the pre-processing means 111-the feature-value calculation means 114 of the image processing apparatus of this invention. 本発明の画像処理装置の対応連結領域選択手段131〜データ変換手段134において実行する処理シーケンスを説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the process sequence performed in the corresponding connection area | region selection means 131-data conversion means 134 of the image processing apparatus of this invention. 本発明の画像処理装置のハードウェア構成例について説明する図である。It is a figure explaining the hardware structural example of the image processing apparatus of this invention.

符号の説明Explanation of symbols

111,121 前処理手段
112,122 連結領域抽出手段
113,123 重心算出手段
114,124 特徴量算出手段
131 対応連結領域選択手段
132 連結領域選択基準設定手段
133 補正係数算出手段
134 データ変換手段
200 連結領域
201 重心
202 外接矩形
203 連結領域細線化データ
204 線幅
301 連結領域
302 重心
321 重心対応位置
322 検索範囲
501 CPU(Central Processing Unit)
502 ROM(Read-Only-Memory)
503 RAM(Random Access Memory)
504 ホストバス
505 ブリッジ
506 外部バス
507 インタフェース
508 キーボード
509 ポインティングデバイス
510 ディスプレイ
511 HDD(Hard Disk Drive)
512 ドライブ
514 接続ポート
515 通信部
516 カードリーダ
521 リムーバブル記録媒体
522 外部接続機器
531 画像データ読み取り部
532 画像データ出力部
111, 121 Pre-processing means 112, 122 Connected area extraction means 113, 123 Center of gravity calculation means 114, 124 Feature amount calculation means 131 Corresponding connection area selection means 132 Connection area selection reference setting means 133 Correction coefficient calculation means 134 Data conversion means 200 Connection Area 201 center of gravity 202 circumscribed rectangle 203 connected area thinning data 204 line width 301 connected area 302 center of gravity 321 position corresponding to center of gravity 322 search range 501 CPU (Central Processing Unit)
502 ROM (Read-Only-Memory)
503 RAM (Random Access Memory)
504 Host bus 505 Bridge 506 External bus 507 Interface 508 Keyboard 509 Pointing device 510 Display 511 HDD (Hard Disk Drive)
512 Drive 514 Connection port 515 Communication unit 516 Card reader 521 Removable recording medium 522 Externally connected device 531 Image data reading unit 532 Image data output unit

Claims (11)

画像処理装置であり、
2つの画像の各々から特徴領域を抽出する特徴領域抽出手段と、
前記特徴領域抽出手段の抽出した特徴領域の特徴量を算出する特徴量算出手段と、
前記2つの画像から抽出された特徴領域から対応する特徴領域を選択するための選択基準を設定する特徴領域選択基準設定手段と、
前記特徴領域選択基準設定手段の設定した選択基準に基づいて、前記2つの画像から抽出された特徴領域の特徴量の一致度に基づいて対応特徴領域を選択する対応特徴領域選択手段と、
前記対応特徴領域選択手段において選択された対応特徴領域に基づいて、前記2つの画像間のずれ量を算出し、該ずれ量に基づく補正係数を算出する補正係数算出手段と、
前記補正係数に基づいて、補正対象画像または補正対象画像対応データの変換処理を実行するデータ変換手段とを有し、
前記対応特徴領域選択手段は、
前記特徴領域選択基準設定手段の設定する異なる選択基準に基づいて、対応特徴領域選択処理を繰り返し実行する構成であり、2回目以降の対応特徴領域選択処理においては、前段の処理において算出された補正係数に基づく変換データを適用した処理を実行する構成であることを特徴とする画像処理装置。
An image processing device,
Feature region extraction means for extracting a feature region from each of the two images;
Feature quantity calculating means for calculating the feature quantity of the feature area extracted by the feature area extracting means;
Feature region selection criterion setting means for setting a selection criterion for selecting a corresponding feature region from the feature regions extracted from the two images;
Corresponding feature region selection means for selecting a corresponding feature region based on the degree of coincidence of feature amounts of feature regions extracted from the two images based on the selection criterion set by the feature region selection criterion setting unit;
Correction coefficient calculation means for calculating a deviation amount between the two images based on the corresponding feature area selected by the corresponding feature area selection means, and calculating a correction coefficient based on the deviation amount;
Data conversion means for performing conversion processing of the correction target image or the correction target image corresponding data based on the correction coefficient;
The corresponding feature region selection means includes
Based on different selection criteria set by the feature region selection criterion setting means, the corresponding feature region selection process is repeatedly executed, and in the second and subsequent corresponding feature region selection processes, the correction calculated in the preceding process An image processing apparatus configured to execute a process to which conversion data based on a coefficient is applied.
前記特徴領域選択基準設定手段は、
特徴領域選択基準を処理回数の進行に従って、
(1)対応特徴領域検索範囲を広い設定から狭い設定に変更、
(2)比較対象の特徴量の一致度を厳格な設定から緩い設定に変更、
上記(1)〜(2)の少なくともいずれかの設定変更を実行する構成であることを特徴とする請求項1に記載の画像処理装置。
The feature region selection criterion setting means includes:
According to the number of processing times, the feature area selection criteria
(1) Change corresponding feature area search range from wide setting to narrow setting,
(2) Change the degree of coincidence of comparison target features from strict setting to loose setting,
The image processing apparatus according to claim 1, wherein the image processing apparatus is configured to execute a setting change of at least one of (1) to (2).
前記特徴領域抽出手段は、
前記画像から連結領域を抽出し
前記特徴量算出手段は、
前記特徴領域抽出手段の抽出した連結領域の特徴量として、重心を含む特徴量情報の抽出処理を実行し、連結領域に対応する重心を含む特徴量についてのリストとしての連結領域情報テーブルを生成する処理を実行する構成であることを特徴とする請求項1に記載の画像処理装置。
The feature region extraction means includes
Extracting a connected area from the image, the feature amount calculating means,
As a feature amount of the connected region extracted by the feature region extracting means, a feature amount information extraction process including a center of gravity is executed, and a connected region information table as a list of feature amounts including the center of gravity corresponding to the connected region is generated. The image processing apparatus according to claim 1, wherein the image processing apparatus is configured to execute processing.
前記対応特徴領域選択手段は、
前記連結領域情報テーブルの格納データに基づいて、前記2つの画像から抽出された連結領域の特徴量比較を実行し、対応連結領域を選択する処理を実行する構成であることを特徴とする請求項3に記載の画像処理装置。
The corresponding feature region selection means includes
The configuration is such that, based on data stored in the connected area information table, a feature amount comparison of connected areas extracted from the two images is executed, and a process of selecting a corresponding connected area is executed. The image processing apparatus according to 3.
前記データ変換手段は、
前記補正係数算出手段の算出した補正係数に基づいて、補正対象画像に対応する前記連結領域情報テーブルの格納データの変換処理を実行する構成であることを特徴とする請求項3に記載の画像処理装置。
The data conversion means includes
4. The image processing according to claim 3, wherein the conversion processing of the data stored in the connected region information table corresponding to the correction target image is executed based on the correction coefficient calculated by the correction coefficient calculation unit. 5. apparatus.
画像処理方法であり、
2つの画像の各々から特徴領域を抽出する特徴領域抽出ステップと、
前記特徴領域抽出ステップにおいて抽出した特徴領域の特徴量を算出する特徴量算出ステップと、
前記2つの画像から抽出された特徴領域から対応する特徴領域を選択するための選択基準を設定する特徴領域選択基準設定ステップと、
前記特徴領域選択基準設定ステップにおいて設定した選択基準に基づいて、前記2つの画像から抽出された特徴領域の特徴量の一致度に基づいて対応特徴領域を選択する対応特徴領域選択ステップと、
前記対応特徴領域選択ステップにおいて選択された対応特徴領域に基づいて、前記2つの画像間のずれ量を算出し、該ずれ量に基づく補正係数を算出する補正係数算出ステップと、
前記補正係数に基づいて、補正対象画像または補正対象画像対応データの変換処理を実行するデータ変換ステップとを有し、
前記対応特徴領域選択ステップは、
前記特徴領域選択基準設定ステップにおいて設定する異なる選択基準に基づいて、対応特徴領域選択処理を繰り返し実行し、2回目以降の対応特徴領域選択処理においては、前段の処理において算出された補正係数に基づく変換データを適用した処理を実行することを特徴とする画像処理方法。
An image processing method,
A feature region extraction step for extracting a feature region from each of the two images;
A feature amount calculating step for calculating a feature amount of the feature region extracted in the feature region extracting step;
A feature region selection criterion setting step for setting a selection criterion for selecting a corresponding feature region from the feature regions extracted from the two images;
A corresponding feature region selection step of selecting a corresponding feature region based on the degree of matching of the feature amounts of the feature regions extracted from the two images based on the selection criterion set in the feature region selection criterion setting step;
A correction coefficient calculating step of calculating a deviation amount between the two images based on the corresponding feature area selected in the corresponding feature area selecting step, and calculating a correction coefficient based on the deviation amount;
A data conversion step of performing a conversion process of the correction target image or the correction target image corresponding data based on the correction coefficient,
The corresponding feature region selection step includes:
The corresponding feature region selection process is repeatedly executed based on different selection criteria set in the feature region selection reference setting step, and the second and subsequent corresponding feature region selection processes are based on the correction coefficient calculated in the preceding process. An image processing method characterized by executing a process to which conversion data is applied.
前記特徴領域選択基準設定ステップにおいては、
特徴領域選択基準を処理回数の進行に従って、
(1)対応特徴領域検索範囲を広い設定から狭い設定に変更、
(2)比較対象の特徴量の一致度を厳格な設定から緩い設定に変更、
上記(1)〜(2)の少なくともいずれかの設定変更を実行することを特徴とする請求項6に記載の画像処理方法。
In the feature region selection criterion setting step,
According to the number of processing times, the feature area selection criteria
(1) Change corresponding feature area search range from wide setting to narrow setting,
(2) Change the degree of coincidence of comparison target features from strict setting to loose setting,
The image processing method according to claim 6, wherein the setting change of at least one of (1) to (2) is executed.
前記特徴領域抽出ステップは、
前記画像から連結領域を抽出し
前記特徴量算出ステップは、
前記特徴領域抽出ステップにおいて抽出した連結領域の特徴量として、重心を含む特徴量情報の抽出処理を実行し、連結領域に対応する重心を含む特徴量についてのリストとしての連結領域情報テーブルを生成する処理を実行することを特徴とする請求項6に記載の画像処理方法。
The feature region extraction step includes:
Extracting a connected region from the image, and calculating the feature amount,
As a feature amount of the connected region extracted in the feature region extraction step, a feature amount information extraction process including the center of gravity is executed, and a connected region information table as a list of feature amounts including the center of gravity corresponding to the connected region is generated. The image processing method according to claim 6, wherein the process is executed.
前記対応特徴領域選択ステップは、
前記連結領域情報テーブルの格納データに基づいて、前記2つの画像から抽出された連結領域の特徴量比較を実行し、対応連結領域を選択する処理を実行することを特徴とする請求項8に記載の画像処理方法。
The corresponding feature region selection step includes:
9. The process according to claim 8, wherein a feature amount comparison between connected regions extracted from the two images is performed based on data stored in the connected region information table, and a corresponding connected region is selected. Image processing method.
前記データ変換ステップは、
前記補正係数算出ステップにおいて算出した補正係数に基づいて、補正対象画像に対応する前記連結領域情報テーブルの格納データの変換処理を実行することを特徴とする請求項8に記載の画像処理方法。
The data conversion step includes
9. The image processing method according to claim 8, wherein a conversion process of data stored in the connected area information table corresponding to the correction target image is executed based on the correction coefficient calculated in the correction coefficient calculation step.
画像処理をコンピュータ上において実行させるコンピュータ・プログラムであり、
2つの画像の各々から特徴領域を抽出する特徴領域抽出ステップと、
前記特徴領域抽出ステップにおいて抽出した特徴領域の特徴量を算出する特徴量算出ステップと、
前記2つの画像から抽出された特徴領域から対応する特徴領域を選択するための選択基準を設定する特徴領域選択基準設定ステップと、
前記特徴領域選択基準設定ステップにおいて設定した選択基準に基づいて、前記2つの画像から抽出された特徴領域の特徴量の一致度に基づいて対応特徴領域を選択する対応特徴領域選択ステップと、
前記対応特徴領域選択ステップにおいて選択された対応特徴領域に基づいて、前記2つの画像間のずれ量を算出し、該ずれ量に基づく補正係数を算出する補正係数算出ステップと、
前記補正係数に基づいて、補正対象画像または補正対象画像対応データの変換処理を実行するデータ変換ステップとを有し、
前記対応特徴領域選択ステップは、
前記特徴領域選択基準設定ステップにおいて設定する異なる選択基準に基づいて、対応特徴領域選択処理を繰り返し実行し、2回目以降の対応特徴領域選択処理においては、前段の処理において算出された補正係数に基づく変換データを適用した処理を実行することを特徴とするコンピュータ・プログラム。
A computer program for executing image processing on a computer;
A feature region extraction step for extracting a feature region from each of the two images;
A feature amount calculating step for calculating a feature amount of the feature region extracted in the feature region extracting step;
A feature region selection criterion setting step for setting a selection criterion for selecting a corresponding feature region from the feature regions extracted from the two images;
A corresponding feature region selection step of selecting a corresponding feature region based on the degree of matching of the feature amounts of the feature regions extracted from the two images based on the selection criterion set in the feature region selection criterion setting step;
A correction coefficient calculating step of calculating a deviation amount between the two images based on the corresponding feature area selected in the corresponding feature area selecting step, and calculating a correction coefficient based on the deviation amount;
A data conversion step of performing a conversion process of the correction target image or the correction target image corresponding data based on the correction coefficient,
The corresponding feature region selection step includes:
The corresponding feature region selection process is repeatedly executed based on different selection criteria set in the feature region selection reference setting step, and the second and subsequent corresponding feature region selection processes are based on the correction coefficient calculated in the preceding process. A computer program for executing a process to which conversion data is applied.
JP2005046555A 2005-02-23 2005-02-23 Image processor, image processing method and computer program Pending JP2006235785A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005046555A JP2006235785A (en) 2005-02-23 2005-02-23 Image processor, image processing method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005046555A JP2006235785A (en) 2005-02-23 2005-02-23 Image processor, image processing method and computer program

Publications (1)

Publication Number Publication Date
JP2006235785A true JP2006235785A (en) 2006-09-07

Family

ID=37043390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005046555A Pending JP2006235785A (en) 2005-02-23 2005-02-23 Image processor, image processing method and computer program

Country Status (1)

Country Link
JP (1) JP2006235785A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008113145A (en) * 2006-10-30 2008-05-15 Fuji Xerox Co Ltd Image processor and image processing program
JP2008135857A (en) * 2006-11-27 2008-06-12 Fuji Xerox Co Ltd Image processor and image processing program
JP2009230603A (en) * 2008-03-25 2009-10-08 Fuji Xerox Co Ltd Image processor and image processing program
EP2169613A1 (en) 2008-09-25 2010-03-31 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method, and image processing program
JP2015126373A (en) * 2013-12-26 2015-07-06 ダンロップスポーツ株式会社 Image blurring correction system, program and method
JP2015130082A (en) * 2014-01-08 2015-07-16 富士ゼロックス株式会社 Image processing apparatus and image processing program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008113145A (en) * 2006-10-30 2008-05-15 Fuji Xerox Co Ltd Image processor and image processing program
JP2008135857A (en) * 2006-11-27 2008-06-12 Fuji Xerox Co Ltd Image processor and image processing program
JP2009230603A (en) * 2008-03-25 2009-10-08 Fuji Xerox Co Ltd Image processor and image processing program
EP2169613A1 (en) 2008-09-25 2010-03-31 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method, and image processing program
JP2015126373A (en) * 2013-12-26 2015-07-06 ダンロップスポーツ株式会社 Image blurring correction system, program and method
JP2015130082A (en) * 2014-01-08 2015-07-16 富士ゼロックス株式会社 Image processing apparatus and image processing program

Similar Documents

Publication Publication Date Title
JP4919028B2 (en) Image processing apparatus and image processing program
JP4724802B1 (en) 2D code reader and program
US8768052B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
JP4310288B2 (en) Image processing apparatus and method, program, and storage medium
JP4724801B1 (en) 2D code reader and program
JP2011044146A (en) Deblurring and supervised adaptive thresholding for print-and-scan document image evaluation
JP5321109B2 (en) Information processing apparatus and information processing program
US7969631B2 (en) Image processing apparatus, image processing method and computer readable medium storing image processing program
JP2014225932A (en) Method of detecting document alteration by comparing characters using shape features of characters
JP2006235785A (en) Image processor, image processing method and computer program
US8228564B2 (en) Apparatus, system, and method for identifying embedded information
US10924620B2 (en) Document reading guidance for operator using feature amount acquired from image of partial area of document
US7155051B2 (en) Image recognition apparatus, image recognition method and image recognition program for specific pattern
US6968501B2 (en) Document format identification apparatus and method
JP2006235786A (en) Image processor, image processing method and computer program
JP6010318B2 (en) Image inspection apparatus, image inspection method, and program
JP2009246967A (en) Method of generating high quality scanned image of document
JP5742367B2 (en) Image processing apparatus and image processing program
JP4910635B2 (en) Image processing apparatus and image processing program
WO2012014263A1 (en) Article detection device and program
US20090051978A1 (en) Image processing apparatus, image processing method and medium
JP4840388B2 (en) Image processing apparatus and image processing program
JP4552757B2 (en) Image processing apparatus, image processing method, and image processing program
JP2008206037A (en) Image processing apparatus and image processing program
JP2014120832A (en) Image processing apparatus and image processing program