JPH04117069A - Image synthesizing method for image processor - Google Patents

Image synthesizing method for image processor

Info

Publication number
JPH04117069A
JPH04117069A JP2230665A JP23066590A JPH04117069A JP H04117069 A JPH04117069 A JP H04117069A JP 2230665 A JP2230665 A JP 2230665A JP 23066590 A JP23066590 A JP 23066590A JP H04117069 A JPH04117069 A JP H04117069A
Authority
JP
Japan
Prior art keywords
image
images
read
gauge
document
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2230665A
Other languages
Japanese (ja)
Inventor
Toshiaki Onozuka
小野塚 敏明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2230665A priority Critical patent/JPH04117069A/en
Publication of JPH04117069A publication Critical patent/JPH04117069A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PURPOSE:To prevent discontinuity in an image between adjacent images by providing two gage works on an original and dividing the original into two sections so that the two gage works can be included in both of the images, and making the two gage works coincide with the gage works corresponding to them. CONSTITUTION:Two references P and Q with the different color from the ground color of an original are provided on an original 11, the original 11 is divided into two sections so that the two gage works can be included in both of the images and the images are read by utilizing a static type scanner. The divided and read two images are synthesized into one image with the two gage works matched the two gage works corresponding to them. In short, two common gage works are supplied on both of the two divided images before synthesis by providing two gage works P and Q on the original 11 in order to give continuity to the image, and the two divided images are overlapped so that the two gage works on one of the divided images can coincide with the corresponding gage works on the other of the divided images. Thus, the divided and inputted two images can be synthesized into one image without fail.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は画像処理装置における画像合成方法にかかり、
特に1つの原稿を画像入力用スキャナを用いて複数回に
わたって取込み、取り込んだ複数の画像を合成して、原
画像と異なるサイズの連在画像に合成するのに好適な画
像処理装置における画像合成方法に関する。
[Detailed Description of the Invention] [Field of Industrial Application] The present invention relates to an image synthesis method in an image processing device,
In particular, an image synthesis method in an image processing device suitable for capturing one document multiple times using an image input scanner and synthesizing the captured images into a continuous image of a different size from the original image. Regarding.

〔従来の技術〕[Conventional technology]

従来の画像処理装置は、特公昭60−54079号公報
に記載されているように、画像入力用のスキャナから入
力された画像データをメモリに格納し、格納された画像
をメモリから読出し、読み出した複数の画像を表示器上
に表示し、表示器上においてポインティングデバイスを
用いて上下左右の位置合わせを行い、1つの画像に合成
するものであった。
As described in Japanese Patent Publication No. 60-54079, conventional image processing devices store image data input from a scanner for image input in a memory, and read out the stored image from the memory. A plurality of images are displayed on a display, and a pointing device is used to align the images vertically and horizontally on the display to combine them into a single image.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

上記従来技術は、オペレータが隣接する画像の上下左右
の位置合わせを表示器上においてポインティングデバイ
スを用いて行うものであり、合成する2つの画像をオー
バラップすることなく、また合致させる点を特定するこ
とく、位置合わせを行っていた。さらに、画像を回転し
て上下左右の位置合わせを行ったり、画像の倍率補正を
行うことなく、2つの画像を合成していた。そのため、
隣接画像間における接続部の画像が、画像入力時のオペ
レータ原稿セット誤差や入力画像の線形倍率誤差・非線
形倍率誤差等により不連続になるという問題点があった
In the above conventional technology, an operator aligns adjacent images vertically and horizontally using a pointing device on a display, and identifies points where two images to be combined should match without overlapping. I was carefully adjusting the position. Furthermore, the two images were combined without rotating the images to align them vertically and horizontally or correcting the magnification of the images. Therefore,
There has been a problem in that images at connecting portions between adjacent images become discontinuous due to errors in operator document setting during image input, linear magnification errors, non-linear magnification errors, etc. of input images.

次に、上記問題点のうち、入力画像の線形倍率誤差及び
非線形倍率誤差について、第6図を用いて詳細に説明す
る。第6図は、画像処理装置における画像入力用スキャ
ナの一例を示す説明図である。第6図に示す画像入力用
スキャナは原稿静止形スキャナであり、61は原稿台ガ
ラス、62a。
Next, among the above-mentioned problems, the linear magnification error and nonlinear magnification error of the input image will be explained in detail using FIG. 6. FIG. 6 is an explanatory diagram showing an example of an image input scanner in the image processing apparatus. The image input scanner shown in FIG. 6 is a stationary document scanner, and 61 is a document table glass 62a.

62bは発光部、63は第1の可動部、64は第2の可
動部、65は太径プーリイ、66は小径プーリイ、67
.68.69はミラー、70はレンズ、71は読取セン
サ、72.73はワイヤ、74はミラー台、75は原稿
、Yは読取点を示している。
62b is a light emitting part, 63 is a first movable part, 64 is a second movable part, 65 is a large diameter pulley, 66 is a small diameter pulley, 67
.. 68 and 69 are mirrors, 70 are lenses, 71 are reading sensors, 72 and 73 are wires, 74 is a mirror stand, 75 is a document, and Y is a reading point.

ここで、大径ブーリイ65と小径プーリイ66は同一軸
を中心として一体に回転し、大径ブーリイ65はワイヤ
72と係合し、小径プーリイ66はワイヤ73と係合し
ている。また、大径ブーリイ65の直径と小径ブーリイ
66の直径は2:1の関係を有してる。また、レンズ7
0と読取センサ71は定位値に固定されている。さらに
、読取センサ7エは主走査方向にアレイを有し、原稿7
5の像がレンズ70によって読取センサ71上に結像さ
れる いま、大径ブーリイ65と小径ブーリイ66が図示しな
いモータに駆動されて回転し、第1の可動部63がワイ
ヤ72に沿って矢印Aの方向(副走査方向)に距離Rだ
け移動したとする。このとき、第2の可動部64は、大
径プーリイ65と小径ブーリイ66の直径差により、ワ
イヤ73に沿って矢印Aの方向に距離R/2だけ移動す
る。これによって、読取点Yが主走査方向に移動しても
、読取点Yとミラー67.68.69と読取センサ71
の経路の距離が一定に保持され、同率倍率の画像信号が
読取センサ71によって得られる。すなわち、上記従来
の画像入力用スキャナによれば、第2の可動部64は原
稿面とレンズ間距離を一定に保つために第1の可動部6
3の1/2の速度で移動し、同率倍率画像を取り込むよ
うに構成されている。
Here, the large-diameter pulley 65 and the small-diameter pulley 66 rotate together around the same axis, and the large-diameter pulley 65 engages with the wire 72 and the small-diameter pulley 66 engages with the wire 73. Further, the diameter of the large-diameter booley 65 and the diameter of the small-diameter booley 66 have a 2:1 relationship. Also, lens 7
0 and the reading sensor 71 are fixed at localization values. Further, the reading sensor 7e has an array in the main scanning direction, and the reading sensor 7e has an array in the main scanning direction, and
5 is formed on the reading sensor 71 by the lens 70, the large-diameter booley 65 and the small-diameter booley 66 are driven by a motor (not shown) and rotate, and the first movable part 63 moves along the wire 72 in the direction of the arrow. Assume that the object moves by a distance R in the direction of A (sub-scanning direction). At this time, the second movable part 64 moves by a distance R/2 in the direction of arrow A along the wire 73 due to the difference in diameter between the large diameter pulley 65 and the small diameter pulley 66. As a result, even if the reading point Y moves in the main scanning direction, the reading point Y, the mirrors 67, 68, 69, and the reading sensor 71
The distance of the path is kept constant, and image signals with the same magnification are obtained by the reading sensor 71. That is, according to the conventional image input scanner described above, the second movable part 64 is connected to the first movable part 6 in order to keep the distance between the document surface and the lens constant.
It is configured to move at a speed of 1/2 of 3 and capture images at the same magnification.

しかし、上記大径プーリ65と小径プーリ66は、通常
主走査方向に1対設けられており(以下、左右プーリと
呼称する)、左右ブーりの2つの大径プーリ65の直径
と2つの小径プーリ66の直径は、通常微小に異なって
いる。したがって、原稿75の左右の画像は倍率が異な
ったものになる。
However, the large diameter pulley 65 and the small diameter pulley 66 are usually provided as a pair in the main scanning direction (hereinafter referred to as left and right pulleys). The diameters of the pulleys 66 usually differ slightly. Therefore, the left and right images of the document 75 have different magnifications.

これを、入力画像の線形倍率誤差と言う。This is called the linear magnification error of the input image.

また、上記大径プーリ65と小径プーリ66はその外形
が互いに偏心しており、さらに回転軸中心も偏心してい
る。したがって、上記偏心により、副走査方向の位置に
より第1の可動部63と第2の可動部64の移動量が変
動し、原稿75の左右の画像は、その副走査方向の位置
により倍率が異なったものになる。これを入力画像の非
線形誤差と言う。
Further, the outer shapes of the large-diameter pulley 65 and the small-diameter pulley 66 are eccentric from each other, and the centers of their rotational axes are also eccentric. Therefore, due to the eccentricity, the amount of movement of the first movable part 63 and the second movable part 64 varies depending on the position in the sub-scanning direction, and the magnification of the left and right images of the document 75 differs depending on their position in the sub-scanning direction. become something. This is called a nonlinear error in the input image.

したがって、従来技術においては、隣接画像を合成する
際に、接続部の画像が上記した入力画像の線形倍率誤差
・非線形倍率誤差等により不連続になるという問題点が
あったのである。
Therefore, in the prior art, when adjacent images are combined, there is a problem in that the image at the connected portion becomes discontinuous due to the above-mentioned linear magnification error, non-linear magnification error, etc. of the input image.

本発明は上記した従来技術における問題点に鑑みなされ
たもので、画像処理装置の画像入力用スキャナの画像取
込サイズを越えた原稿から、複数の画像として入力され
た画像データを用いて、入力画像サイズとは異なる連続
した画像を合成する際に、隣接画像間における画像不連
続をなくすことが可能な画像処理装置における画像合成
方法を提供することを目的としている。
The present invention was made in view of the problems in the prior art described above, and uses image data input as a plurality of images from a document whose size exceeds the image capture size of the image input scanner of an image processing apparatus. It is an object of the present invention to provide an image compositing method in an image processing apparatus that can eliminate image discontinuity between adjacent images when composing consecutive images having different image sizes.

〔課題を解決するための手段〕[Means to solve the problem]

本発明の第1の画像合成方法は、静止型スキャナを用い
て原稿を読み取り、読み取った画像をディスプレイに表
示し、オペレータの指示に基づいて表示された画像を画
像処理し、読み取った少なくとも2つの画像を1つの画
像に合成する画像処理装置に適用されるものであり、原
稿上に原稿の地色と異なる色の標点を2つ設ける第1の
ステップと、上記2つの標点が両方の画像に含まれるよ
うに原稿を2分割して上記静止型スキャナを用いて読み
取る第2のステップと、第2のステップにおいて分割し
て読み取られた2つの画像について、2つの標点を一致
させることにより、1つの画像に合成する第3のステッ
プとを含んでいることを特徴としている。
A first image composition method of the present invention reads a document using a stationary scanner, displays the read image on a display, performs image processing on the displayed image based on instructions from an operator, and combines at least two read images. This is applied to an image processing device that combines images into one image, and the first step is to provide two gauge marks on the original in a color different from the background color of the original, and the two gauge marks are A second step of dividing the document into two parts so as to be included in the image and reading them using the static scanner, and matching two gauge points of the two images divided and read in the second step. The method is characterized in that it includes a third step of combining the images into one image.

本発明の第2の画像合成方法は、静止型スキャナを用い
て原稿を読み取り、読み取った画像をディスプレイに表
示し、オペレータの指示に基づいて表示された画像を画
像処理し、読み取った少なくとも2つの画像を1つの画
像に合成する画像処理装置に適用されるものであり、原
稿上に原稿の地色と異なる色の標点を2つ設ける第1の
ステップと、上記2つの標点が両方の画像に含まれるよ
うに原稿を2分割し、上記静止型スキャナを用いて読み
取る第2のステップと、分割して読み取られた2つの画
像のそれぞれについて、2つの標点を結ぶ直線の傾きを
求め、求められた2つの傾きが互いに同一になるように
、画像を回転補正する第3のステップと、分割して読み
取られた2つの画像のそれぞれについて、標点間距離を
求め、求められた標点間距離か同一になるように画像の
倍率補正を行う第4のステップと、上記回転補正と上記
倍率補正を行った後、分割して読み取られた2つの画像
における2つの標点を互いに一致させることにより、1
つの画像に合成する第5のステップとを含んでいること
を特徴としている。
A second image composition method of the present invention reads a document using a static scanner, displays the read image on a display, performs image processing on the displayed image based on instructions from an operator, and combines at least two read images. This is applied to an image processing device that combines images into one image, and the first step is to provide two gauge marks on the original in a color different from the background color of the original, and the two gauge marks are The second step is to divide the document into two so that they are included in the image and read them using the above-mentioned stationary scanner, and for each of the two divided and read images, find the slope of the straight line connecting the two gauge points. , the third step is to correct the rotation of the image so that the two obtained inclinations are the same, and the distance between the gauge points is determined for each of the two images that are read separately. The fourth step is to correct the magnification of the images so that the distances between the points are the same, and after the rotation correction and the magnification correction, the two gauge points in the two divided images are made to match each other. By letting 1
The method is characterized in that it includes a fifth step of combining the images into one image.

本発明の第3の画像合成方法は、静止型スキャナを用い
て原稿を読み取り、読み取った画像をディスプレイに表
示し、オペレータの指示に基づいて表示された画像を画
像処理し、読み取った少なくとも2つの画像を1つの画
像に合成する画像処理装置に適用されるものであり、副
走査方向に関して左端部と右端部に一定間隔毎に標線を
付した学習用原稿を、上記静止型スキャナを用いて読み
取る第1のステップと、第1のステップにおいて読み取
った学習用原稿上の標線毎に標線間距離を求め、求めた
標線毎の標線間と上記学習用原稿の標線間距離との比を
求め、静止型スキャナに固有の副走査方向における区域
別補正倍率を求めて記憶する第2のステップと、第2の
ステップにおいて求められた区域別補正倍率により、入
力された画像の副走査方向の倍率補正を行う第3のステ
ップとを含んでなり、入力画像のスキャナによる非線形
倍率誤差を除去することを特徴としている。
A third image composition method of the present invention reads a document using a stationary scanner, displays the read image on a display, performs image processing on the displayed image based on instructions from an operator, and combines at least two read images. This method is applied to an image processing device that combines images into one image, and uses the above-mentioned stationary scanner to scan a learning manuscript with marked lines at regular intervals on the left and right edges in the sub-scanning direction. In the first step of reading, calculate the distance between the gauge lines for each gauge line on the learning manuscript read in the first step, and calculate the distance between the gauge lines for each gauge line and the distance between the gauge lines on the learning manuscript. A second step of calculating and storing the area-by-area correction magnification in the sub-scanning direction specific to the stationary scanner; and a third step of performing magnification correction in the scanning direction, and is characterized in that nonlinear magnification errors caused by the scanner of the input image are removed.

本発明の第4の画像合成方法は静止型スキャナを用いて
原稿を読み取り、読み取った画像をディスプレイに表示
し、オペレータの指示に基づいて表示された画像を画像
処理し、読み取った少なくとも2つの画像を1つの画像
に合成する画像処理装置に適用されるものであり、副走
査方向に関して左端部と右端部に一定間隔毎に標線を付
した学習用原稿を、上記静止型スキャナを用いて読み取
る第1のステップと、第1のステップにおいて読み取っ
た学習用原稿上の標線毎に標線間距離を求め、求めた標
線毎の標線間と上記学習用原稿の標線間距離との比を求
め、静止型スキャナに固有の副走査方向における区域別
補正倍率を求めて記憶する第2のステップと、原稿上に
原稿の地色と異なる色の標点を2つ設ける第3のステッ
プと、上記2つの標点が両方の画像に含まれるように原
稿を2分割し、上記静止型スキャナを用いて読み取る第
3のステップと、分割して読み取られた2つの画像のそ
れぞれについて、2つの標点を結ぶ直線の傾きを求め、
求められた2つの傾きが互いに同一になるように、画像
を回転補正する第4のステップと、第2のステップにお
いて求められた区域別補正倍率により、入力された2つ
の画像の副走査方向の倍率補正を区域別に行う第5のス
テップと、分割して読み取られた2つの画像のそれぞれ
について、標点間距離を求め、求められた標点間距離が
同一になるように画像の倍率補正を行う第5のステップ
と、上記回転補正と上記倍率補正を行った後、分割して
読み取られた2つの画像における2つの標点を互いに一
致させることにより、1つの画像に合成する第6のステ
ップとを含んでいることを特徴としている。
A fourth image composition method of the present invention reads a document using a stationary scanner, displays the read image on a display, performs image processing on the displayed image based on instructions from an operator, and combines at least two read images. This method is applied to an image processing device that combines images into one image, and uses the above-mentioned stationary scanner to read a learning manuscript with marking lines attached at regular intervals on the left and right edges in the sub-scanning direction. In the first step, the distance between the gauge lines is calculated for each gauge line on the learning manuscript read in the first step, and the distance between the gauge lines for each gauge line thus determined is compared with the distance between the gauge lines on the learning manuscript. A second step in which the ratio is determined and a correction magnification for each area in the sub-scanning direction unique to a stationary scanner is determined and stored; and a third step in which two markers of a color different from the background color of the document are provided on the document. and a third step of dividing the document into two such that the two reference points are included in both images and reading them using the stationary scanner, and for each of the two divided and read images. Find the slope of the straight line connecting the two gauge points,
In the fourth step, the images are rotated and corrected so that the two obtained inclinations become the same, and the sub-scanning direction of the two input images is corrected by the area-specific correction magnification obtained in the second step. The fifth step is to perform magnification correction for each area, and calculate the distance between the gauge points for each of the two images that have been read separately, and then correct the magnification of the image so that the calculated distances between the gauge points are the same. After performing the rotation correction and the magnification correction, a sixth step of combining the two divided images into one image by aligning the two gauge points in the two images read separately. It is characterized by containing the following.

上記目的を達成するためには、連続した原稿から人力さ
れた複数の画像を用いて別の画像に合成するのであり、
合成された画像では合成された部分にて画像が成る連続
性を有することが必要である。そのためには、合成前の
2つの画像にて共通の箇所が一致して重ね合わせの合成
がされる。画像入力スキャナにて入力された2つの画像
を合成するには、スキャナ装置による誤差と操作者によ
ってセットされた原稿のセットによる誤差を補正して原
稿上の同一箇所を画像上で一致させて重ね合わせること
が必要になる。
In order to achieve the above purpose, multiple manually generated images from consecutive manuscripts are used to combine them into another image.
It is necessary for the synthesized image to have continuity in the synthesized parts. To do this, the common parts of the two images before combination are matched and the images are superimposed and combined. To combine two images input with an image input scanner, correct the errors caused by the scanner device and the errors caused by the setting of the original by the operator, match the same parts of the original on the image, and overlap. It will be necessary to match.

原稿上で同一の箇所を2つの画像で共通の箇所として一
致させるため、原稿上に周囲と色の異なる2つの円形単
一色標点を設定する。この標点の中心を標点座標として
求め、標点座標が一致するように画像回転、倍率補正を
行う。これは、2画像の回転角度及び全体の画像倍率を
一致させ線形倍率を補正して合成するためである。標点
としてそのエリアをマウスで指定するのは、標点座標を
算出するのに対象認識範囲が標点の周囲を標点色と異な
る色にして標点座標算出を容易にするためであり、形状
を円形にするのは、回転補正によっても標点の角度を意
識せずに円形として扱うことにより座標算出を容易にす
るものである。
In order to match the same location on the document as a common location in the two images, two circular single color gauge points are set on the document with different colors from the surroundings. The center of this gauge point is determined as the gauge point coordinates, and image rotation and magnification correction are performed so that the gauge point coordinates match. This is to match the rotation angles and overall image magnification of the two images, correct the linear magnification, and combine them. The reason why you specify the area as a gauge point with the mouse is to make it easier to calculate the gauge point coordinates by using a target recognition range that uses a different color from the gauge color around the gauge point when calculating the gauge coordinates. The purpose of making the shape circular is to facilitate coordinate calculation by handling it as a circle without being conscious of the angle of the gage point even through rotational correction.

また、装置固有の学習データとして副走査方向における
区域別補正倍率を求めるのは、副走査方向の機械的誤差
による非線形倍率誤差から生じる標点間合酸部での副走
査方向の不一致を区域別に倍率補正するものである。
In addition, the correction magnification factor for each area in the sub-scanning direction is determined as learning data specific to the device.The purpose of calculating the correction magnification factor for each area in the sub-scanning direction is to correct the discrepancy in the sub-scanning direction in the merging area between gauges resulting from a non-linear magnification error due to mechanical error in the sub-scanning direction. This is to correct the magnification.

上記にて補正された2つの画像を用い、入力画像とは異
なるサイズの画像データを得るため、補正後の標点を一
致させて合成して連続した画像を得るものである。
In order to obtain image data of a different size from the input image using the two images corrected as described above, the corrected gauge points are matched and combined to obtain a continuous image.

〔作用〕[Effect]

本発明の第1の画像合成方法によれば、合成画像におけ
る画像の接合部において、画像に連続性を付与するため
、原稿に2つの標点を付すことにより合成前の2つの分
割画像に共通に2つの標点を付与し、2つの分割画像そ
れぞれにおける2つの標点が互いに一致するように重ね
合わせ合成が行われる。これによって、分割入力された
2つの画像を確実に1つの画像に合成することが可能に
なる。
According to the first image compositing method of the present invention, in order to give continuity to the images at the joint of the images in the composite image, two marks are attached to the document so that the images are common to the two divided images before compositing. Two gauge points are given to each of the two divided images, and overlapping synthesis is performed so that the two gauge points in each of the two divided images coincide with each other. This makes it possible to reliably combine two split-input images into one image.

本発明の第2の画像合成方法によれば、上記第1の画像
合成方法と同様に、合成前の2つの画像に共通に付与さ
れた2つの標点が互いに一致するように重ね合わせ合成
が行われる。その際に、2つの分割画像について、2つ
の標点を結ぶ直線の傾きを求め、各直線に傾きが同じに
なるように画像を回転補正し、さらに回転補正後の標点
間距離が同一になるように倍率補正を行う。これによっ
て、スキャナから入力された2つの分割画像について、
スキャナによる機構上の線形倍率誤差と操作者による原
稿セット誤差を補正することができる。
According to the second image compositing method of the present invention, similarly to the first image compositing method, overlapping compositing is performed such that two reference points commonly given to the two images before compositing coincide with each other. It will be done. At that time, for the two divided images, calculate the slope of the straight line connecting the two gauge points, rotate the image so that each straight line has the same slope, and then correct the rotation so that the distance between the gauge points is the same after the rotation correction. Perform magnification correction so that As a result, for the two divided images input from the scanner,
It is possible to correct mechanical linear magnification errors caused by the scanner and document setting errors caused by the operator.

本発明の第3の画像合成方法によれば、あらかじめスキ
ャナに固有の非線形倍率誤差を区域別に求めておくこと
により、副走査方向に生じる非線形倍率誤差を入力画像
から除去することができる。
According to the third image synthesis method of the present invention, nonlinear magnification errors that occur in the sub-scanning direction can be removed from the input image by determining in advance the nonlinear magnification errors specific to the scanner for each area.

本発明の第4の画像合成方法によれば、上記第1、第2
の画像合成方法と同様に、合成前の2つの画像に共通に
付与された2つの標点が互いに一致するように重ね合わ
せ合成が行われる。その際に、2つの分割画像について
、2つの標点を結ぶ直線の傾きを求め、各直線に傾きが
同じになるように画像を回転補正し、さらに回転補正後
の標点間距離が同一になるように倍率補正を行う。これ
によって、スキャナから入力された2つの分割画像につ
いて、スキャナによる機構上の線形倍率誤差と操作者に
よる原稿セット誤差を補正することができる。また、あ
らかじめスキャナに固有の非線形倍率誤差を区域別に求
めておくことにより、副走査方向に生じる非線形倍率誤
差を入力画像から除去することができる。
According to the fourth image synthesis method of the present invention, the first and second
Similar to the image synthesis method, superposition synthesis is performed so that the two reference points commonly given to the two images before synthesis coincide with each other. At that time, for the two divided images, calculate the slope of the straight line connecting the two gauge points, rotate the image so that each straight line has the same slope, and then correct the rotation so that the distance between the gauge points is the same after the rotation correction. Perform magnification correction so that As a result, it is possible to correct the mechanical linear magnification error caused by the scanner and the document setting error caused by the operator for the two divided images input from the scanner. Furthermore, by determining in advance the nonlinear magnification error specific to the scanner for each area, the nonlinear magnification error occurring in the sub-scanning direction can be removed from the input image.

〔実施例〕〔Example〕

以下添付の図面に示す実施例により、さらに詳細に本発
明について説明する。第2図は本発明が適用される画像
処理装置の一例を示すものでり、画像入力用スキャナ1
と画像処理部2とディスプレイ3とマウス4を備えて構
成されている。スキャナ1は原稿静止形スキャナであり
、第6図に示すスキャナと同様の構造を有している。さ
らに、画像処理部2は、画像メモリ5と、メモリs上の
画像を処理して画像の拡大・縮小・回転・複数画像の合
成や画像上の座標データの演算処理等を行う画像編集部
6より構成されている。
The present invention will be described in more detail below with reference to embodiments shown in the accompanying drawings. FIG. 2 shows an example of an image processing device to which the present invention is applied.
, an image processing section 2 , a display 3 , and a mouse 4 . The scanner 1 is a stationary original scanner, and has a structure similar to that of the scanner shown in FIG. Furthermore, the image processing unit 2 includes an image memory 5 and an image editing unit 6 that processes the images in the memory s, and performs image enlargement, reduction, rotation, compositing multiple images, arithmetic processing of coordinate data on the image, etc. It is composed of

次に、本発明の画像合成方法において用いられる非線形
倍率誤差の補正処理について、第3図(a)、  (b
)を用いて説明する。第3図(a)はこの実施例で用い
る学習用原稿12の一例を示す説明図である。学習用原
稿12の左右端には、図示するように、副走査方向に一
定間隔ΔYtkで複数の標線13が設けられており、こ
の学習用原稿12は画像入力用スキャナ1から画像処理
装置内に取り込まれる。取り込まれた学習用原稿12の
画像は、画像メモリ5に格納されるとともに、第3図(
b)に示すようにディスプレイ3上に表示される。次に
、オペレータは、第3図(b)に示すように、マウス4
を用いて各標線13を囲むエリア14を指定する。これ
によって、画像処理部2は上記マウス4によって指定さ
れたエリア14内について白・黒画素判定を行って標線
13を形成する複数の画素を求め、求めた画素について
副走査方向をY座標として最大値と最小値の平均を算出
し、各標線13のY座標とする。そして、求めた各標線
13Y座標から左側標線の間隔△Ytklと右側標線の
間隔ΔY tkrとを算出する。その際に、画像入力用
スキャナ1や原稿セット誤差により、画像が角度αだけ
回転していたとしても、正確な標線間距離と上記の行程
によって求められたΔYtkl、  ΔY tkrとの
比は1 / c o s aであり、無視することがで
きる。次に、実際の学習用原稿12の標線間隔ΔYtk
と、上記行程によって求めたΔYtkl、 ΔY tk
rとの比Mkl(ΔY tk/ΔYtk1) 、 Mk
r (ΔYtk/ΔY tkr)を求め、装置固有の非
線形倍率誤差を補正するための標線間区域別補正倍率と
する。このように、主走査方向の左右両端について求め
られた標線間区域別補正倍率比Mkl、 Mkrは、学
習値として画像処理部2に記憶保持される。
Next, FIGS. 3(a) and 3(b) will explain the nonlinear magnification error correction process used in the image synthesis method of the present invention.
). FIG. 3(a) is an explanatory diagram showing an example of the learning manuscript 12 used in this embodiment. As shown, a plurality of marked lines 13 are provided on the left and right ends of the learning manuscript 12 at regular intervals ΔYtk in the sub-scanning direction, and the learning manuscript 12 is transferred from the image input scanner 1 into the image processing device. be taken in. The captured image of the learning manuscript 12 is stored in the image memory 5, and is also stored in the image memory 5 as shown in FIG.
It is displayed on the display 3 as shown in b). Next, the operator selects the mouse 4 as shown in FIG. 3(b).
The area 14 surrounding each marked line 13 is specified using . As a result, the image processing unit 2 performs white/black pixel determination within the area 14 specified by the mouse 4 to find a plurality of pixels forming the marked line 13, and sets the sub-scanning direction as the Y coordinate for the found pixels. The average of the maximum value and minimum value is calculated and used as the Y coordinate of each gauge line 13. Then, the interval ΔYtkl between the left gauge lines and the interval ΔY tkr between the right gauge lines are calculated from the determined Y coordinates of each gauge line 13. At that time, even if the image is rotated by the angle α due to the image input scanner 1 or document setting error, the ratio between the accurate distance between gauge lines and ΔYtkl and ΔYtkr determined by the above process is 1. / co sa and can be ignored. Next, the gauge line interval ΔYtk of the actual learning manuscript 12
and ΔYtkl, ΔYtk obtained by the above process
Ratio to r Mkl (ΔY tk/ΔYtk1), Mk
r (ΔYtk/ΔY tkr) is determined and used as a correction magnification factor for each zone between marked lines to correct a nonlinear magnification error specific to the device. In this way, the correction magnification ratios Mkl and Mkr for each area between marked lines obtained for both the left and right ends in the main scanning direction are stored and held in the image processing section 2 as learning values.

次に、画像入力用スキャナ1を用いてその取込サイズよ
り大きいサイズの原稿を複数の画像に分割して画像処理
装置内に取り込み、取り込んだ複数の画像を合成して、
原画像と異なるサイズの連続画像に合成する場合につい
て、第1図(a)〜第1図(j)を用いて説明する。最
初に、オペレータは、第1図(a)に示すように、スキ
ャナ1の取込サイズより大きいサイズの原稿11上の合
成重ね合わせ部となる位置に、原稿11の地色と異なる
色の例えば円形をした標点P、Qをマーキングする。次
に、原稿11を左右2つに分けて、2回にわたって画像
の取り込みを行い、取り込んだ2つの画像15.16を
画像メモリ5に格納すると共に、第1図(b)に示すよ
うに、ディスプレイ3上に取り込んだ画像15.16を
表示する。
Next, using the image input scanner 1, a document larger than the captured size is divided into multiple images and imported into the image processing device, and the multiple captured images are combined.
The case of combining continuous images of different sizes from the original images will be explained using FIGS. 1(a) to 1(j). First, as shown in FIG. 1(a), the operator places an image of a color different from the background color of the original 11 on the original 11 of a size larger than the scanned size of the scanner 1 at a position that will become the composite overlapping part. Mark circular gauge points P and Q. Next, the original 11 is divided into left and right parts, images are captured twice, and the two captured images 15 and 16 are stored in the image memory 5, and as shown in FIG. 1(b), The captured images 15 and 16 are displayed on the display 3.

なお、例えば、原稿11がA3サイズであり、スキャナ
1の読取サイズがA3サイズよりも小さい場合には、ス
キャナ1からA4サイズよりも重ね合わせ部だけ大きな
入力サイズで画像入力する。
Note that, for example, if the document 11 is A3 size and the reading size of the scanner 1 is smaller than the A3 size, the image is input from the scanner 1 at an input size larger than the A4 size by the overlapped portion.

このとき、スキャナ1のサイズに合わせて、スキャナ1
によって入力される範囲を示すテンプレートを用意して
おけば、原稿11に標点P、 Qを位置づける際に便利
である。なお、スキャナ1としてB4サイズの読取範囲
がある場合には、B4サイズの入力画像を使用してもよ
い。
At this time, depending on the size of scanner 1,
It is convenient to position the gauge points P and Q on the document 11 by preparing a template that shows the range to be input by. Note that if the scanner 1 has a B4 size reading range, a B4 size input image may be used.

次に、オペレータは、第1図(b)に示すように、ディ
スプレイ3上で標点P、 Qをそれぞれ囲むエリア31
a、31b、32a、32bをマウスで指定する。画像
処理部2は、各々のエリア31a、31b、32a、3
2bについて、白・黒判定を行って、各画像15.16
について標点P。
Next, as shown in FIG.
Specify a, 31b, 32a, and 32b with the mouse. The image processing unit 2 processes each area 31a, 31b, 32a, 3
For 2b, perform white/black judgment, and each image 15.16
About marker P.

Qを形成する複数の画素を求め、求めた画素について主
走査方向をX座標、副走査方向をY座標として、最大値
と最小値の平均を算出し、画像15の標点座標PL (
XPI、YPI)、画像15の標点座標Ql (XQI
、YQI) 、画像16の標点座標P2 (XP2.Y
P2)、画像16の標点座標Q2 (XQ2.YQ2)
をそれぞれ算出する。
Find a plurality of pixels forming Q, and calculate the average of the maximum and minimum values for the found pixels, with the main scanning direction as the X coordinate and the sub-scanning direction as the Y coordinate, and calculate the gauge point coordinates PL of the image 15 (
XPI, YPI), gauge coordinates Ql of image 15 (XQI
, YQI), gauge coordinates P2 of image 16 (XP2.Y
P2), gauge coordinates Q2 (XQ2.YQ2) of image 16
Calculate each.

次に、第1図(C)に示すように、標点座標P1.Q1
間を結ぶ直線の傾きに1と標点座標P2゜02間を結ぶ
直線の傾きに2を求める。さらに、第1図(d)に示す
ように、画像処理部2は、各直線の傾きがその平均値(
K1+に2)/2になるように、画像15.16を角度
θだけ回転移動する。
Next, as shown in FIG. 1(C), the gauge point coordinates P1. Q1
The slope of the straight line connecting the two points is 1, and the slope of the straight line connecting the gauge point coordinates P2°02 is 2. Furthermore, as shown in FIG. 1(d), the image processing unit 2 determines that the slope of each straight line is the average value (
Images 15 and 16 are rotated by an angle θ so that K1+ becomes 2)/2.

次に、第1図(e)に示す区域毎に、スキャナ1の副走
査方向非線形倍率として学習した区域別の非線形補正倍
率Mkl、 Mkrを用いて2回転後の画像15.16
について倍率補正する。この倍率補正は、画像15.1
6の左端の倍率と右端について、それぞれの区域(第1
図(e)に1点鎖線で示す)毎に非線形倍率誤差Mkr
、 Mklを用いて行われ、さらにそれぞれの区域の主
走査方向(X方向)については、上記非線形倍率誤差M
kr、 Mklを用いた補間倍率法によって行われる。
Next, for each area shown in FIG. 1(e), the image 15.16 after two rotations is created using the area-specific nonlinear correction magnifications Mkl and Mkr learned as the sub-scanning direction nonlinear magnification of the scanner 1.
The magnification is corrected for This magnification correction is applied to image 15.1
For the left end magnification and right end of 6, each area (first
(indicated by the dashed-dotted line in figure (e)), the nonlinear magnification error Mkr
, Mkl, and in the main scanning direction (X direction) of each area, the above nonlinear magnification error M
This is done by the interpolation magnification method using kr and Mkl.

これにより、スキャナ1の機構上の誤差の1つである非
線形倍率誤差が除去された画像15.16が得られる。
As a result, images 15 and 16 are obtained in which non-linear magnification error, which is one of the mechanical errors of the scanner 1, is removed.

なお、上記回転移動(第1図(e)、  (d)参照)
及び上記非線形倍率補正(第1図(e)参照)に伴って
、画像処理部2は、第1図(f)に示すように、画像1
5.16上で求めた標点座標PIP2.Ql、Q2 (
第1図(C)参照)について、回転移動及び非線形倍率
補正を行った後の標点P1’ 、P2’ 、Ql’ 、
Q2’の各標点座標を算出する。さらに、画像処理部2
は、標点P1′P2’ 、Ql’ 、Q2’の各標点座
標から、P1′Q1′間距離L1とP2’ Q2’間距
離L2とを求め、Pi’ Ql’間距離L1とP2’ 
Q2’間距離L2の平均をとって倍率補正を行う。これ
によって、スキャナ1の機構上の誤差の1つである線形
倍率誤差が除去された画像15.16が得られる。
In addition, the above-mentioned rotational movement (see Fig. 1 (e) and (d))
In conjunction with the non-linear magnification correction (see FIG. 1(e)), the image processing unit 2 converts the image 1 into the image 1 as shown in FIG.
5.16 Gauge point coordinates PIP2. Ql, Q2 (
(see Fig. 1(C)), the gauge points P1', P2', Ql', after rotational movement and non-linear magnification correction are
Calculate the coordinates of each gauge point of Q2'. Furthermore, the image processing section 2
calculates the distance L1 between P1'Q1' and the distance L2 between P2'Q2' from the coordinates of each gauge point P1'P2', Ql', and Q2', and calculates the distance L1 and P2' between Pi'Ql'.
The magnification correction is performed by taking the average of the distance L2 between Q2'. As a result, images 15 and 16 are obtained in which the linear magnification error, which is one of the mechanical errors of the scanner 1, is removed.

次に、第1図(g)に示すように、画像16の標点P2
’ 、Q2’の座標が画像15の標点P1′  Q1′
の座標と等しくなるように、X座標方向にΔX(標点P
i’、P2’のX座標間距離)、Y座標方向にΔY(標
点Ql’ 、Q2’のY座標間距離)だけ、画像16を
平行移動する。なお、この画像15.16を画像メモリ
5に格納する際に、コード情報としてインデックスの他
に、付加情報として補正済を示す情報を付与しておく。
Next, as shown in FIG. 1(g), the reference point P2 of the image 16 is
' , Q2' coordinates are landmark P1'Q1' of image 15
ΔX (gage point P
The image 16 is translated in parallel by ΔY (the distance between the Y coordinates of the gauge points Ql' and Q2') in the Y coordinate direction (distance between the X coordinates of points Ql' and Q2'). Note that when storing images 15 and 16 in the image memory 5, in addition to the index as code information, information indicating that the image has been corrected is added as additional information.

次に、第1図(h)、(i)に示すように、画像15.
16の標点Pi’、Ql’  (標点P2’Q2′)を
結ぶ直線の外側を白色化処理し、さらに画像17.18
上に残っている標点Pi’、Q1′ (標点P2’ 、
Q2’ )を白色化処理して、新たな画像データとして
おくことにより、画像17.18を得る。
Next, as shown in FIGS. 1(h) and (i), image 15.
The outside of the straight line connecting 16 gauge points Pi' and Ql' (gauge point P2'Q2') is whitened, and image
The remaining gauge points Pi', Q1' (gauge P2',
Images 17 and 18 are obtained by performing whitening processing on Q2') and leaving it as new image data.

次に、第1図(j)に示すように、画像17゜18を合
成して、連続画像19が得られる。ここで、画像19に
ついても、画像メモリ5に格納する際に、コード情報と
してインデックスの他に、付加情報として補正済を示す
情報を付与しておく。
Next, as shown in FIG. 1(j), images 17.degree. 18 are combined to obtain a continuous image 19. Here, when storing the image 19 in the image memory 5, in addition to the index as code information, information indicating that the image has been corrected is added as additional information.

なお、オペレータは、第1図(b)において標点Pi、
Ql、P2.Q2の座標を求めた後、あらかじめ該座標
を白色化処理しておくことにより、それ以後の画像16
.17上には標点Pi、Ql。
In addition, in FIG. 1(b), the operator points the gauges Pi,
Ql, P2. After determining the coordinates of Q2, by whitening the coordinates in advance, subsequent images 16
.. On 17 there are markers Pi and Ql.

P2.Q2の円形形状は現れないので、第1図(Dに示
す合成された連続画像19を標点記入前の原稿11の連
続画像として得ることができる。
P2. Since the circular shape Q2 does not appear, the combined continuous images 19 shown in FIG. 1(D) can be obtained as continuous images of the document 11 before marking.

いま、原稿11がA3サイズであり、かつスキャナ1の
読取サイズがA3よりも小さく、A4サイズよりも重ね
合わせ部だけ大きな入力サイズで画像入力した場合、得
られる連続画像19はA3サイズになる。また、この場
合において、B4サイズで画像入力された場合には、デ
ィスプレイ3上に表示された連続画像19上において、
オペレータがA3サイズのエリアを指定してもよい。ま
た、原稿11がA3サイズであって、スキャナ1の読み
取りサイズがA4サイズである場合には、1度の画像合
成だけでは、得られた連続画像19のサイズは重ね合わ
せられる範囲だけA3サイズより小さくなる。したがっ
て、このような場合には、画像合成を2回行い、初回の
画像合成時においては、A3サイズより小さな部分は白
データを埋め込んで画像合成を行い、2回目の画像合成
においては、初回の画像合成により得られた連続画像と
再度スキャナ1から入力された画像をあらためて合成し
、A3サイズの連続画像に合成してもよい。
Now, if the document 11 is A3 size, the scanner 1 has a reading size smaller than A3, and the image is input at an input size larger than A4 size by the overlapped portion, the resulting continuous images 19 will be A3 size. In this case, if an image is input in B4 size, on the continuous image 19 displayed on the display 3,
The operator may specify an A3 size area. In addition, if the document 11 is A3 size and the scanner 1 reads A4 size, the size of the obtained continuous images 19 will be larger than A3 size only by the overlapped area. becomes smaller. Therefore, in such a case, image compositing is performed twice, and during the first image compositing, white data is embedded for parts smaller than A3 size and image compositing is performed, and during the second image compositing, The continuous images obtained by image compositing and the images inputted from the scanner 1 again may be combined to form a continuous image of A3 size.

上記のようにして得られた合成画像は、既に分割して画
像入力されて登録されている画像に追加して、光デイス
クファイル等に登録される。この合成画像データ上に今
後の合成用に標点画像のデータを残すことにより、さら
に大判画像への合成も可能である。
The composite image obtained as described above is added to the images that have already been input as divided images and registered, and is registered in an optical disk file or the like. By leaving gauge point image data on this composite image data for future composition, composition into a larger image is also possible.

以上の説明から明らかなように、本実施例によれば、原
稿のサイズがスキャナ取込サイズよりも大きい場合にお
いても、スキャナの入力画像サイズよりも大きな画像を
連続した一画像として得ることができる。
As is clear from the above description, according to this embodiment, even when the size of the document is larger than the scanner capture size, it is possible to obtain an image larger than the input image size of the scanner as one continuous image. .

また、スキャナからの画像入力の際、誤って原稿の向き
を1800回転させた状態で画像15と画像16を入力
した場合には、画像15.16の向きを一致させるよう
に、オペレータがデイスフレイ3を見て回転指示し、画
像処理部2が回転処理した画像を画像15または16と
すればよい。
Furthermore, when inputting images from a scanner, if images 15 and 16 are input with the document orientation rotated 1800 degrees by mistake, the operator must adjust the disk frame 3 so that the orientations of images 15 and 16 match. It is only necessary to instruct the rotation by looking at the image, and use the image 15 or 16 as the image rotated by the image processing section 2.

さらに、上記実施例に記載した手順によって2つの画像
から合成された1つの画像と、さらに別の2つの画像か
ら合成されたもう1つの画像を合成する場合、主走査方
向において合成する場合は主走査方向の非線形倍率補正
の手順を省略して合成しても良い。この理由は、主走査
方向の非線形倍率補正は、レンズの収差に起因するもの
であり、合成部で合成される2つの画像に同様に生じる
ことによる。副走査方向で既に合成された画像をさらに
副走査方向で合成する場合は、既に副走査方向の非線形
倍率誤差は補正されているため、補正を行う必要がない
。この場合には、合成された連続画像を画像メモリ5に
格納する際に、コード情報として補正済を示す情報が付
与されているため、補正を容易に省略することができる
。このように、2つの画像から1つの画像に合成するこ
とを複数回実施し、さらに大きな画像を得ることも可能
である。
Furthermore, when combining one image combined from two images by the procedure described in the above embodiment and another image combined from another two images, when combining in the main scanning direction, The procedure of nonlinear magnification correction in the scanning direction may be omitted for synthesis. The reason for this is that the nonlinear magnification correction in the main scanning direction is caused by lens aberration, and similarly occurs in the two images combined in the combining section. When images that have already been combined in the sub-scanning direction are further combined in the sub-scanning direction, there is no need to perform correction because the non-linear magnification error in the sub-scanning direction has already been corrected. In this case, when storing the combined continuous images in the image memory 5, information indicating that the correction has been completed is added as code information, so correction can be easily omitted. In this way, it is possible to combine two images into one image multiple times to obtain an even larger image.

なお、上記の実施例においては、画像を白・黒の2値化
画像として取り込む場合を例にして説明したが、本発明
はこれに限定されるものではなく、画像入力用スキャナ
がカラー原稿の読み取り入力を行う場合についても、同
様のステップにより実施することができる。この場合に
は、上記標点の白色処理化は原稿の地色に合せる処理と
なる。
In the above embodiment, the case where the image is captured as a binary image of white and black was explained as an example, but the present invention is not limited to this, and the image input scanner is capable of capturing a color original. Similar steps can also be used to perform reading input. In this case, the whitening of the gage points is a process to match the background color of the document.

第4図は上記した実施例の画像処理手順の概略を示すフ
ローチャートである。図示するように、まずステップS
1において、学習用原稿の画像入力が行われる。次に、
ステップS2において、学習用原稿に設けられている標
線間の距離から非線形倍率誤差Mkr、 Mklを求め
る。次に、ステップS3いにおいて、画像入力を行うべ
きか否かを判断し、画像入力を行う場合には、ステップ
S4において原稿に標点を付し、ステップS5において
画像入力を実行する。また、画像入力を行わない場合に
は、ステップS13において、光ディスク等のファイル
から画像の読み出しを行う。上記したステップS3から
ステップS5及びステップS13における処理は、合成
用の各画像について実行される。
FIG. 4 is a flowchart showing an outline of the image processing procedure of the above-described embodiment. As shown in the figure, first step S
1, an image of a learning manuscript is input. next,
In step S2, nonlinear magnification errors Mkr and Mkl are determined from the distance between the gauge lines provided on the learning manuscript. Next, in step S3, it is determined whether or not to perform image input. If image input is to be performed, marks are attached to the document in step S4, and image input is executed in step S5. If no image is to be input, the image is read from a file on an optical disc or the like in step S13. The processes from step S3 to step S5 and step S13 described above are executed for each image for synthesis.

次に、ステップS6において、取り込まれた画像上の標
点を囲むエリアをマウスを用いて指定し、ステップS7
において、標点座標の算出及び求めた標点座標の白色処
理化を行う。次に、ステップS8において、位置・非線
形倍率誤差・線形倍率誤差が補正済みか否かが判定され
、補正済みではないと判定された場合に限って、ステッ
プS9において補正処理が行われる。なお、ステップS
8゜S9の処理は、合成用の各画像について行われる。
Next, in step S6, use the mouse to specify an area surrounding the gauge point on the captured image, and in step S7
In this step, the gauge point coordinates are calculated and the determined gauge point coordinates are subjected to white processing. Next, in step S8, it is determined whether the position, nonlinear magnification error, and linear magnification error have been corrected, and only when it is determined that they have not been corrected, correction processing is performed in step S9. In addition, step S
8. The process of S9 is performed for each image for synthesis.

次に、ステップS10において、合成用の2つの画像が
取得され、ステップSllにおいて画像の合成が行われ
る。次に、ステップS12において、光ディスク等のフ
ァイルへの登録が実行される。そして、ステップS13
において画像の合成が終了したか否かが判定され、終了
していないと判定された場合には、ステップS3に戻り
、以上の処理が繰り返し実行される。
Next, in step S10, two images for synthesis are acquired, and in step Sll, the images are synthesized. Next, in step S12, registration in a file such as an optical disk is executed. Then, step S13
In step S3, it is determined whether or not the image composition has been completed, and if it is determined that it has not been completed, the process returns to step S3 and the above processing is repeatedly executed.

第5図は、本発明が適用される画像処理装置の具体例を
示すブロック図である。第5図において、1は画像入力
用スキャナ、3はディスプレイ、4はマウス、5はイメ
ージメモリ、501はマイクロプロセッサ、502はメ
インメモリ、503はバスアダプタ、504はサブプロ
セッサ/コントロールメモリ、505はキーボード/デ
ィスプレイコントローラ、506はキーボード、507
はディスプレイコントロール/ビットマツプメモリ、5
08は光デイスクコントローラ、509は光デイスクフ
ァイル、510はスキャナコントローラ、511はプリ
ンタコントローラ、512はプリンタ、513はイメー
ジプロセッサ、514はコードバス、515はイメージ
バスである。
FIG. 5 is a block diagram showing a specific example of an image processing apparatus to which the present invention is applied. In FIG. 5, 1 is an image input scanner, 3 is a display, 4 is a mouse, 5 is an image memory, 501 is a microprocessor, 502 is a main memory, 503 is a bus adapter, 504 is a subprocessor/control memory, and 505 is a Keyboard/display controller, 506, keyboard, 507
is display control/bitmap memory, 5
08 is an optical disk controller, 509 is an optical disk file, 510 is a scanner controller, 511 is a printer controller, 512 is a printer, 513 is an image processor, 514 is a code bus, and 515 is an image bus.

上記した実施例の画像合成方法は、第5図に示すマイク
ロプロセッサ501の制御に基づいて、主にイメージメ
モリ5とイメージプロセッサ513によって行われ、合
成された画像は光デイスクコントローラ508の制御の
もとに、光デイスクファイル509に格納される。上記
実施例において説明した方法は、第5図に示す画像処理
装置において実施することが可能である。
The image synthesis method of the embodiment described above is performed mainly by the image memory 5 and the image processor 513 under the control of the microprocessor 501 shown in FIG. It is then stored in the optical disk file 509. The method described in the above embodiment can be implemented in the image processing apparatus shown in FIG.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、スキャナの人力サイズで入力された複
数の画像から1つの連続した画像を合成することができ
る。したかって、画像処理装置において取り扱う画像の
サイズに応じた読み取り範囲を有するスキャナ装置を設
けることなく、入カサイスが小さなスキャナを用いて大
きなサイズの原稿を複数回に分けて取り込み、取り込ん
だ複数の画像を合成することにより、1つの連続した画
像を得ることができる。さらに、画像メモリ上の複数の
画像データを合成することにより、さらに大きなサイズ
の1つの連続画像を得ることも可能である。
According to the present invention, it is possible to synthesize one continuous image from a plurality of images inputted in the human size of a scanner. Therefore, without installing a scanner device that has a reading range that corresponds to the size of the image handled by the image processing device, it is possible to scan a large document in multiple batches using a scanner with a small input size, and then scan multiple scanned images. By combining the images, one continuous image can be obtained. Furthermore, by combining a plurality of image data on the image memory, it is also possible to obtain one continuous image of an even larger size.

また、上記画像合成の際に、原稿入力用スキャナの機構
が原因となって生じる線形倍率誤差及び非線形倍率誤差
やオペレータの原稿セット誤差を除去することができる
ので、合成された画像か不連続になることが有効に防止
できる効果を有する。
In addition, during the above image composition, it is possible to remove linear magnification errors and non-linear magnification errors caused by the mechanism of the scanner for document input, as well as the operator's document setting errors, so that the composite image does not appear discontinuously. This has the effect of effectively preventing this from occurring.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図(a)〜(j)は本発明の方法により画像合成を
行うさいの画像処理の過程をの一例を示す説明図、第2
図は本発明が適用される画像処理装置の一例を示すブロ
ック図、第3図(a)は本発明の画像合成方法において
用いられる非線形倍率誤差の補正処理用に用いる学習用
原稿の一例を示す説明図、第3図(b)は第3図(a)
に示す学習用原稿の画像を示す説明図、第4図は上記し
た実施例の画像処理手順の概略を示すフローチャート、
第5図は本発明が適用される画像処理装置の具体例を示
すブロック図、第6図は画像処理装置に設けられている
静止型の画像入力用スキャナの一例を示す説明図である
。 イヤ、74・・・ミラー台、75・・・原稿、Y・・・
読取点代理人 弁理士 秋 本 正 実 11・・・原稿、12・・・学習用原稿、13・・・標
線、標点・・・P、Q、PL、Ql、P2.Q2.PL
’Ql’  P2’  、Q2’ 、15,16,17
.18・・・画像、19・・・連続画像、61・・・原
稿台ガラス、62a、62b・・・発光部、63・・・
第1の可動部、64・・・第2の可動部、65・・・大
径プーリイ、66・・・小径プーリイ、67.68.6
9・・・ミラー、70・・・レンズ、71・・・読取セ
ンサ、72.73・・・ワ第 図 (a) (Q (b) (C) 第 図 第 図 (d) 第 図
1(a) to 1(j) are explanatory diagrams showing an example of the image processing process when performing image synthesis by the method of the present invention;
The figure is a block diagram showing an example of an image processing device to which the present invention is applied, and FIG. 3(a) shows an example of a learning manuscript used for correction processing of nonlinear magnification error used in the image synthesis method of the present invention. Explanatory diagram, Figure 3(b) is Figure 3(a)
FIG. 4 is an explanatory diagram showing an image of the learning manuscript shown in FIG.
FIG. 5 is a block diagram showing a specific example of an image processing apparatus to which the present invention is applied, and FIG. 6 is an explanatory diagram showing an example of a static image input scanner provided in the image processing apparatus. No, 74...Mirror stand, 75...Original, Y...
Reading point agent Patent attorney Tadashi Akimoto Minoru 11...manuscript, 12...study manuscript, 13...marked line, marked point...P, Q, PL, Ql, P2. Q2. P.L.
'Ql'P2',Q2', 15, 16, 17
.. 18... Image, 19... Continuous image, 61... Original table glass, 62a, 62b... Light emitting section, 63...
First movable part, 64... Second movable part, 65... Large diameter pulley, 66... Small diameter pulley, 67.68.6
9... Mirror, 70... Lens, 71... Reading sensor, 72.73... Figure (a) (Q (b) (C) Figure (d) Figure

Claims (1)

【特許請求の範囲】 1、静止型スキャナを用いて原稿を読み取り、読み取っ
た画像をディスプレイに表示し、オペレータの指示に基
づいて表示された画像を画像処理し、読み取った少なく
とも2つの画像を1つの画像に合成する画像処理装置に
おいて、 原稿上に原稿の地色と異なる色の標点を2つ設ける第1
のステップと、 上記2つの標点が両方の画像に含まれるように原稿を2
分割して上記静止型スキャナを用いて読み取る第2のス
テップと、 第2のステップにおいて分割して読み取られた2つの画
像について、2つの標点を一致させることにより、1つ
の画像に合成する第3のステップと、 を含んでいる構成されることを特徴とする画像処理装置
における画像合成方法。 2、静止型スキャナを用いて原稿を読み取り、読み取っ
た画像をディスプレイに表示し、オペレータの指示に基
づいて表示された画像を画像処理し、読み取った少なく
とも2つの画像を1つの画像に合成する画像処理装置に
おいて、 原稿上に原稿の地色と異なる色の標点を2つ設ける第1
のステップと、 上記2つの標点が両方の画像に含まれるように原稿を2
分割し、上記静止型スキャナを用いて読み取る第2のス
テップと、 分割して読み取られた2つの画像のそれぞれについて、
2つの標点を結ぶ直線の傾きを求め、求められた2つの
傾きが互いに同一になるように、画像を回転補正する第
3のステップと、分割して読み取られた2つの画像のそ
れぞれについて、標点間距離を求め、求められた標点間
距離が同一になるように画像の倍率補正を行う第4のス
テップと、上記回転補正と上記倍率補正を行った後、分
割して読み取られた2つの画像における2つの標点を互
いに一致させることにより、1つの画像に合成する第5
のステップと、 を含んでいる構成されることを特徴とする画像処理装置
における画像合成方法。 3、静止型スキャナを用いて原稿を読み取り、読み取っ
た画像をディスプレイに表示し、オペレータの指示に基
づいて表示された画像を画像処理し、読み取った少なく
とも2つの画像を1つの画像に合成する画像処理装置に
おいて、 副走査方向に関して左端部と右端部に一定間隔毎に標線
を付した学習用原稿を、上記静止型スキャナを用いて読
み取る第1のステップと、第1のステップにおいて読み
取った学習用原稿上の標線毎に標線間距離を求め、求め
た標線毎の標線間と上記学習用原稿の標線間距離との比
を求め、静止型スキャナに固有の副走査方向における区
域別補正倍率を求めて記憶する第2のステップと、 第2のステップにおいて求められた区域別補正倍率によ
り、入力された画像の副走査方向の倍率補正を行う第3
のステップと、 を含んでなり、入力画像のスキャナによる非線形倍率誤
差を除去することを特徴とする画像合成方法。 4、静止型スキャナを用いて原稿を読み取り、読み取っ
た画像をディスプレイに表示し、オペレータの指示に基
づいて表示された画像を画像処理し、読み取った少なく
とも2つの画像を1つの画像に合成する画像処理装置に
おいて、 副走査方向に関して左端部と右端部に一定間隔毎に標線
を付した学習用原稿を、上記静止型スキャナを用いて読
み取る第1のステップと、第1のステップにおいて読み
取った学習用原稿上の標線毎に標線間距離を求め、求め
た標線毎の標線間と上記学習用原稿の標線間距離との比
を求め、静止型スキャナに固有の副走査方向における区
域別補正倍率を求めて記憶する第2のステップと、 原稿上に原稿の地色と異なる色の標点を2つ設ける第3
のステップと、 上記2つの標点が両方の画像に含まれるように原稿を2
分割し、上記静止型スキャナを用いて読み取る第3のス
テップと、 分割して読み取られた2つの画像のそれぞれについて、
2つの標点を結ぶ直線の傾きを求め、求められた2つの
傾きが互いに同一になるように、画像を回転補正する第
4のステップと、第2のステップにおいて求められた区
域別補正倍率により、入力された2つの画像の副走査方
向の倍率補正を区域別に行う第5のステップと、 分割して読み取られた2つの画像のそれぞれについて、
標点間距離を求め、求められた標点間距離が同一になる
ように画像の倍率補正を行う第5のステップと、 上記回転補正と上記倍率補正を行った後、分割して読み
取られた2つの画像における2つの標点を互いに一致さ
せることにより、1つの画像に合成する第6のステップ
と、 を含んでいる構成されることを特徴とする画像処理装置
における画像合成方法。
[Claims] 1. Read a document using a stationary scanner, display the read image on a display, perform image processing on the displayed image based on instructions from an operator, and combine at least two read images into one image. In an image processing device that combines images into a single image, the first method is to provide two gauge marks on a document in a color different from the background color of the document.
Step 2, and double up the manuscript so that the above two gauge points are included in both images.
a second step in which the images are divided and read using the stationary scanner; and a second step in which the two images divided and read in the second step are combined into one image by matching the two gauge points. 3. An image synthesis method in an image processing apparatus, characterized in that the method includes the following steps: 2. An image in which a document is read using a static scanner, the read image is displayed on a display, the displayed image is processed based on instructions from an operator, and at least two read images are combined into one image. In the processing device, the first step is to provide two markers on the document in a color different from the background color of the document.
Step 2, and double up the manuscript so that the above two gauge points are included in both images.
A second step of dividing the image and reading it using the static scanner, and for each of the two divided and read images,
The third step is to calculate the slope of the straight line connecting the two gauge points and correct the rotation of the image so that the two calculated slopes are the same, and for each of the two images that are read separately. The fourth step is to calculate the distance between the gauge points and correct the magnification of the image so that the determined distance between the gauges becomes the same, and after performing the above rotation correction and the above magnification correction, the image is divided and read. The fifth step is to combine the two images into one image by matching the two gauge points with each other.
An image synthesis method in an image processing apparatus, characterized in that the method includes the following steps. 3. An image in which a document is read using a static scanner, the read image is displayed on a display, the displayed image is image-processed based on instructions from an operator, and at least two read images are combined into one image. In the processing device, a first step of reading, using the stationary scanner, a learning manuscript with marking lines attached at regular intervals on the left end and right end in the sub-scanning direction; and a learning document read in the first step. Determine the distance between the gauge lines for each gauge line on the work manuscript, calculate the ratio of the distance between the gauge lines for each gauge line and the distance between the gauge lines on the above-mentioned study manuscript, and calculate the distance in the sub-scanning direction specific to the stationary scanner. a second step of determining and storing a correction magnification for each area, and a third step for correcting the magnification of the input image in the sub-scanning direction using the correction magnification for each area determined in the second step.
An image synthesis method, comprising the steps of: and removing nonlinear magnification errors caused by a scanner of an input image. 4. An image that reads a document using a static scanner, displays the read image on a display, processes the displayed image based on instructions from an operator, and combines at least two read images into one image. In the processing device, a first step of reading, using the stationary scanner, a learning manuscript with marking lines attached at regular intervals on the left end and right end in the sub-scanning direction; and a learning document read in the first step. Determine the distance between the gauge lines for each gauge line on the work manuscript, calculate the ratio of the distance between the gauge lines for each gauge line and the distance between the gauge lines on the above-mentioned study manuscript, and calculate the distance in the sub-scanning direction specific to the stationary scanner. The second step is to calculate and memorize the correction magnification for each area, and the third step is to set two gauge points on the document in a color different from the background color of the document.
Step 2, and double up the manuscript so that the above two gauge points are included in both images.
The third step is to divide the image and read it using the stationary scanner, and for each of the two divided and read images,
A fourth step of determining the slope of the straight line connecting the two gauge points and correcting the rotation of the image so that the two calculated slopes are the same, and the correction magnification for each area determined in the second step. , a fifth step in which magnification correction in the sub-scanning direction of the two input images is performed for each area, and for each of the two images that are read separately,
The fifth step is to calculate the distance between the gauge points and correct the magnification of the image so that the distance between the gauges obtained is the same. An image combining method in an image processing apparatus, comprising: a sixth step of combining two images into one image by matching two reference points in the two images.
JP2230665A 1990-09-03 1990-09-03 Image synthesizing method for image processor Pending JPH04117069A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2230665A JPH04117069A (en) 1990-09-03 1990-09-03 Image synthesizing method for image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2230665A JPH04117069A (en) 1990-09-03 1990-09-03 Image synthesizing method for image processor

Publications (1)

Publication Number Publication Date
JPH04117069A true JPH04117069A (en) 1992-04-17

Family

ID=16911380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2230665A Pending JPH04117069A (en) 1990-09-03 1990-09-03 Image synthesizing method for image processor

Country Status (1)

Country Link
JP (1) JPH04117069A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002091422A (en) * 2000-09-18 2002-03-27 Toshiba Corp Image data processing system and storage medium storing program therefor
JP2003187215A (en) * 2001-12-18 2003-07-04 Fuji Xerox Co Ltd Image processing system and image processing server
JP2006343702A (en) * 2005-02-28 2006-12-21 Sony Corp Hologram-reproducing method and device thereof
WO2018029924A1 (en) * 2016-08-08 2018-02-15 京セラドキュメントソリューションズ株式会社 Image processing device and image processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002091422A (en) * 2000-09-18 2002-03-27 Toshiba Corp Image data processing system and storage medium storing program therefor
JP2003187215A (en) * 2001-12-18 2003-07-04 Fuji Xerox Co Ltd Image processing system and image processing server
JP2006343702A (en) * 2005-02-28 2006-12-21 Sony Corp Hologram-reproducing method and device thereof
WO2018029924A1 (en) * 2016-08-08 2018-02-15 京セラドキュメントソリューションズ株式会社 Image processing device and image processing method
JPWO2018029924A1 (en) * 2016-08-08 2018-08-09 京セラドキュメントソリューションズ株式会社 Image processing apparatus and image processing method

Similar Documents

Publication Publication Date Title
US7139424B2 (en) Stereoscopic image characteristics examination system
US6292593B1 (en) Image synthesizing device and method
EP1378790B1 (en) Method and device for correcting lens aberrations in a stereo camera system with zoom
CN112837257B (en) Curved surface label splicing detection method based on machine vision
US8134608B2 (en) Imaging apparatus
KR100481399B1 (en) Imaging system, program used for controlling image data in same system, method for correcting distortion of captured image in same system, and recording medium storing procedures for same method
US8760735B2 (en) Image combining device and image combining method
JPH10122819A (en) Method and device for calibration
JPH077616A (en) Inclination detection device
JPH04117069A (en) Image synthesizing method for image processor
US20050105822A1 (en) Variable distortion aberration image pickup device
JPH08194734A (en) Fine pattern dimension picture measuring device
JPH09329440A (en) Coordinating method for measuring points on plural images
JP3924576B2 (en) Three-dimensional measurement method and apparatus by photogrammetry
JP2003067726A (en) Solid model generation system and method
US5280370A (en) Apparatus and method for scanning by means of a rotatable detector array
JPH1115951A (en) Deviation detector and image synthesizer
JP2001155674A (en) Measurement method and correction method of the deviation of electron beam scanning axis with stage moving axis and stage moving error in scanning electron microscope
JPH087102A (en) Correspondent point extracting device
CN111654680A (en) Projection splicing method and device of digital light processing optical machine
JPH0779379A (en) Compound eye image pickup device
JP4278764B2 (en) Defect inspection apparatus and defect inspection method
JP3740848B2 (en) 3D input device
JPH09113220A (en) Inspection point marking method for fine processed product, and method device for automatic dimensional inspection
JP2005044077A (en) Method for composing plurality of images