JP2012004867A - Image processing method for image reader, and image reader - Google Patents
Image processing method for image reader, and image reader Download PDFInfo
- Publication number
- JP2012004867A JP2012004867A JP2010138185A JP2010138185A JP2012004867A JP 2012004867 A JP2012004867 A JP 2012004867A JP 2010138185 A JP2010138185 A JP 2010138185A JP 2010138185 A JP2010138185 A JP 2010138185A JP 2012004867 A JP2012004867 A JP 2012004867A
- Authority
- JP
- Japan
- Prior art keywords
- image
- correction
- image data
- brightness
- gain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 23
- 238000012937 correction Methods 0.000 claims abstract description 181
- 238000012545 processing Methods 0.000 claims abstract description 74
- 238000011156 evaluation Methods 0.000 claims abstract description 20
- 238000000034 method Methods 0.000 claims description 30
- 239000006185 dispersion Substances 0.000 claims description 2
- 235000019557 luminance Nutrition 0.000 description 34
- 230000003287 optical effect Effects 0.000 description 19
- 238000005286 illumination Methods 0.000 description 9
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 239000000758 substrate Substances 0.000 description 3
- 238000003705 background correction Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Image Input (AREA)
- Facsimile Scanning Arrangements (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
本発明は、複数個のライン状のイメージセンサが千鳥状に配置され、かつ隣接するイメージセンサ同士が長手方向に一部オーバーラップして配置された画像読取装置およびその画像処理方法に係わり、特に、隣接するイメージセンサの各受光素子から出力される画像データ間の輝度補正に関するものである。 The present invention relates to an image reading apparatus in which a plurality of line-shaped image sensors are arranged in a staggered manner and adjacent image sensors are partially overlapped in the longitudinal direction, and an image processing method thereof, in particular. The present invention relates to luminance correction between image data output from the respective light receiving elements of adjacent image sensors.
紙原稿を読み取り、画像データの作成あるいは複写を行う画像読取装置として、多数の受光素子からなるライン状のイメージセンサを複数個千鳥状に、かつ、隣接するイメージセンサ同士を、その長手方向に一部オーバーラップさせて配置し、これらイメージセンサ上にレンズ等の読取光学系を備えた装置がある(特許文献1参照)。
図7は、このような画像読取装置の構成を示している。
この画像読取装置では、固定した画像読取装置10に対して原稿(紙)20が搬送されるか、もしくは原稿20が固定で、画像読取装置10が原稿20上をスキャンする。
この際、画像読取装置10内部の図示しないランプやLEDなどの光源から発せられた照明光11により原稿20が照明され、原稿20で反射・散乱された光がレンズ等の読取光学系12を通って、イメージセンサ13上に結像される。
結像された光はイメージセンサ13の受光素子によって、画像データとして図示しないメモリに出力される。
なお、図7に示すように、複数個のライン状のイメージセンサが、その長手方向にほぼ一列に配列されたものを「ラインセンサ」とも称す。
As an image reading apparatus that reads a paper document and creates or copies image data, a plurality of line-shaped image sensors composed of a large number of light receiving elements are arranged in a zigzag pattern, and adjacent image sensors are arranged in the longitudinal direction. There is an apparatus that is arranged so as to overlap each other and includes a reading optical system such as a lens on these image sensors (see Patent Document 1).
FIG. 7 shows the configuration of such an image reading apparatus.
In this image reading apparatus, the document (paper) 20 is conveyed to the fixed
At this time, the original 20 is illuminated by
The formed light is output as image data to a memory (not shown) by the light receiving element of the
As shown in FIG. 7, a plurality of line-shaped image sensors arranged in a line in the longitudinal direction is also referred to as “line sensor”.
図7では、固定の画像読取装置10に対して原稿20が搬送されている。
イメージセンサ13から出力される画像データは、原稿20の搬送と共に順次時系列でメモリに取り込まれていき、原稿20全体の画像データが取得される。
隣接するイメージセンサ13同士は、主走査方向(原稿の搬送方向と直交する方向)で一部オーバーラップするように、基板14上に千鳥状に配置されている。
なお、図7では、1番目、2番目、・・・、n番目、・・・、z番目の複数個のイメージセンサ13が、千鳥状に配置されている様子を示している。
イメージセンサ13の画像データのうち、隣接するイメージセンサ13の画像データとオーバーラップする部分を、オーバーラップ領域と呼ぶ。
In FIG. 7, the
The image data output from the
7 shows a state in which a plurality of first, second,..., Nth,...,
A portion of the image data of the
図8は、各イメージセンサ13から出力された画像データを繋ぎ合わせて、原稿に忠実な再生画像(複写画像)を作成する従来の画像結合処理のフローを表す図である。
ライン状のイメージセンサ13は、原稿20の搬送方向に直交するように配置されている。
そのため、イメージセンサ13から出力される画像データ(以降、イメージセンサから出力される画像データを「初期画像」とも呼ぶ)は、図8(a)に示すように原稿20を主走査方向に裁断した短冊型の画像データになる。
なお、図8(a)において、n番目、n+1番目、n+2番目・・・とあるのは、n番目のイメージセンサ13、n+1番目のイメージセンサ13、n+2番目のイメージセンサ13・・・から出力される画像データ(初期画像)である。
実際には、原稿20を読み取りながらリアルタイムで図8の処理(フロー)が行われるため、副走査方向(図7参照:原稿の搬送方向と逆の方向)のデータサイズは数画素分のみであり、原稿20の搬送に従い、処理の確定した画像データを一画素分削除し(メモリから例えばプリンタ等の外部へ出力し)、新たに読み込まれた画像データを一画素分追加しながら、順次画像結合処理が行われていく。
FIG. 8 is a diagram showing a flow of a conventional image combination process for creating a reproduced image (copy image) faithful to a document by connecting image data output from each
The line-
Therefore, image data output from the image sensor 13 (hereinafter, image data output from the image sensor is also referred to as “initial image”) is obtained by cutting the
In FIG. 8A, n, n + 1, n + 2,... Are output from the
Actually, since the process (flow) of FIG. 8 is performed in real time while reading the
図8では、理解を容易にするため、原稿20を副走査方向に一旦読み終えた後の画像に対して、画像結合処理する場合を表している。
イメージセンサ13より出力された初期画像に対して、処理Aとして、黒補正と白補正(シェーディング補正)を行う。
黒補正とは、「得られている初期画像の画素値(赤(R)・緑(G)・青(B)の信号強度)から、照明光11が無く読取光学系12が暗室状態にある時のイメージセンサ13の出力(バックグラウンド)を差し引く補正」である。このバックグラウンドは、原稿読取前に事前に取得(測定)しておく。
FIG. 8 shows a case where image combination processing is performed on an image after the
As processing A, black correction and white correction (shading correction) are performed on the initial image output from the
Black correction means that “the reading
白補正とは、「白基準となる原稿を読んだ時に、画素値が設定値(例えば、8ビット画像では250、10ビット画像では1000)になるように、黒補正後の画素値にゲインを乗算する補正」である。
なお、画素値の設定値は、理論的には、例えば、8ビット画像では255、10ビット画像では1023であるが、この理論値に設定すると、入力データのばらつきのため入力値が白基準値を超えた場合にデータが飽和するので、少し小さめの値に設定する。
このゲインは、原稿読取前に事前に白基準板15を読み(測定し)、R・G・Bそれぞれ個別に算出しておく。
白補正では、照明光11の主走査方向照度分布(図7参照)、読取光学系12の周辺光量比、およびイメージセンサ13の各受光素子の感度など、「真っ白な原稿20の読取時に真っ白として画像データを出力しない全ての誤差要因」を同時に補正する。
処理A(黒補正・白補正)によって、均一な明るさ(輝度・濃度)の原稿20を読んだ時に、均一な明るさの再生画像(複写画像)が得られるようになる(特許文献2、3参照)。
なお、図8(b)は、処理A後の画像を示している。
これらバックグラウンドとゲインは、全イメージセンサ13の各受光素子、つまり全画像データの主走査方向の画素の一つずつが、それぞれ固有の値を有している。
White correction means that “when a document serving as a white reference is read, the pixel value after black correction is set to a set value (for example, 250 for an 8-bit image and 1000 for a 10-bit image). Correction to multiply ".
The set value of the pixel value is theoretically, for example, 255 for an 8-bit image and 1023 for a 10-bit image. However, when this value is set, the input value is a white reference value due to variations in input data. If the value exceeds, the data will be saturated, so set it to a slightly smaller value.
This gain is calculated in advance for each of R, G, and B by reading (measuring) the
In the white correction, the illuminance distribution in the main scanning direction of the illumination light 11 (see FIG. 7), the peripheral light amount ratio of the reading
By processing A (black correction / white correction), a reproduced image (copy image) having a uniform brightness can be obtained when a
FIG. 8B shows an image after the process A.
The background and gain have unique values for each light receiving element of all
次に、処理A後の画像データ(すなわち、黒補正後および白補正後の画像データ)に対して、処理Bとして、副走査方向のずれの補正を行う。
後述するように、各イメージセンサ13の原稿20上における読取位置16が副走査方向にばらついているため、各イメージセンサ13からの初期画像は、図8(a)や図8(b)に示すように、同時刻(同タイミング)のデータで見れば、画像(絵)としては副走査方向にずれていることになる。
次の処理Cにて、各イメージセンサ13の画像データを滑らかに繋ぎ合わせるため、この副走査方向のずれ量を補正し、隣接する画像データ間で副走査方向の位置合わせを行う必要がある。
副走査方向の位置合わせには、画像データ中のオーバーラップ領域を利用する。
隣り合う画像データのオーバーラップ領域には、原稿20面上の同じ箇所の情報が含まれており、各画像データを副走査方向に移動させて、オーバーラップ領域同士の濃淡模様を合わせることによって、副走査方向のずれを補正する(特許文献4参照)。
Next, as processing B, image data after processing A (that is, image data after black correction and white correction) is corrected for deviation in the sub-scanning direction.
As will be described later, since the
In the next process C, in order to smoothly join the image data of the
For alignment in the sub-scanning direction, an overlap area in the image data is used.
The overlap area of adjacent image data includes the same information on the surface of the
最後に、処理B後の画像データに対し、処理Cとして、画像の結合作業を行う。
副走査方向の位置合わせが行われた隣接する画像データ間において、オーバーラップ領域の画素値に対し種々の演算が行われる(特許文献5参照)。
これにより、各イメージセンサ13からの画像データが主走査方向に繋ぎ合わされて、一つの画像となる。
複数個のイメージセンサを用いた画像読取装置では、このような画像結合処理によって再生画像(複写画像)が得られる。
Finally, the image combining operation is performed as the process C on the image data after the process B.
Various calculations are performed on pixel values in the overlap region between adjacent image data that have been aligned in the sub-scanning direction (see Patent Document 5).
As a result, the image data from the
In an image reading apparatus using a plurality of image sensors, a reproduced image (copy image) is obtained by such an image combining process.
図8に示した画像結合処理の処理Aにおいて白補正を行ったにも関わらず、各イメージセンサ13の画像データ間で、全体的な明るさ(輝度)が異なる場合がある。
例えば、均一な明るさの原稿20を読んだ時に、処理A後で各画像データが均一な明るさになっていない場合がある。
このような場合、処理C後にも主走査方向に実際の原稿20には無い「明暗の縞」が現れ、得られる再生画像は、原稿20の画像に忠実ではない「品質の低い画像」となってしまう。
Although the image correction process A shown in FIG. 8 performs white correction, the overall brightness (luminance) may differ between the image data of the
For example, when reading a
In such a case, “light and dark stripes” that do not exist in the
このような現象は、以下の(a)〜(d)に示すような要因が複合した場合に生じる。
(a)搬送された原稿20の読取光学系12からの高さ・距離が、白補正に用いた白基準板15と同じでない。[設計的制約による]
(b)読取光学系12からの高さ・距離によって、照明光11の主走査・副走査方向の照度分布が変化する。[設計的制約による]
(c)千鳥状に配置された2つの列のイメージセンサ13(図7に示した奇数番目のイメージセンサ13と偶数番目のイメージセンサ13)の原稿20面上における読取位置16は、副走査方向に2つの列を成しており、その2つの列の中心に対して、照明光11の副走査方向照度分布の中心がずれている。[製造誤差による]
(d)各イメージセンサ13の原稿20面上における読取位置16が、副走査方向にばらついている。[製造誤差による]
(特に奇数番目のイメージセンサ13と偶数番面のイメージセンサ13の読取位置16は、上記(c)に記載のとおり副走査方向に分離している。)
Such a phenomenon occurs when the following factors (a) to (d) are combined.
(A) The height / distance of the conveyed
(B) Depending on the height and distance from the reading
(C) The
(D) The
(In particular, the reading positions 16 of the odd-numbered
上記(a)に関しては、一枚の原稿搬送中においても、読取光学系12からの距離は変化する。
特に、原稿20の副走査方向の両端部周辺は、原稿20の搬送方向の上流側と下流側に位置する搬送ローラ(図示せず)において、上流側もしくは下流側の片側のみでの搬送となるため、読取光学系12からの高さ・距離が変化しやすい。
上記(d)に関しては、図7において読取光学系12の光軸を傾け、奇数番目のイメージセンサ13と偶数番目のイメージセンサ13とで、原稿20面上における読取位置16を副走査方向に一致させた画像読取装置(図示せず)も存在する。
With regard to (a) above, the distance from the reading
In particular, the periphery of both ends in the sub-scanning direction of the
Regarding (d) above, the optical axis of the reading
しかし、いずれの画像読取装置においても、読取光学系12などの製造誤差のために、各イメージセンサ13の読取位置16は副走査方向にばらつく。
これら(a)〜(d)の要因が複合すると、原稿読取時の各イメージセンサ13の読取位置16における照度が白補正時とは異なり、また、その照度変化は全てのイメージセンサ13で一様にはならない。
そのため、前述した画像データ全体の明るさを均一化する白補正を行っても、得られる再生画像には主走査方向に明暗の縞が現れてしまい、品質の低い画像となる。
However, in any image reading apparatus, the
When these factors (a) to (d) are combined, the illuminance at the
For this reason, even when the above-described white correction is performed to make the brightness of the entire image data uniform, bright and dark stripes appear in the main scanning direction in the obtained reproduced image, resulting in a low quality image.
従来の画像読取装置の問題点(課題)は、上記したように、複数の設計的要因・製造的
要因からなるため、ハードウェアによる解決は困難であった。
また、特許文献2あるいは特許文献3に記載されているような、何らかの基準チャート(テストチャート)による補正を行っても、「原稿搬送中において読取光学系12からの距離が変化する」あるいは「基準チャートと厚みが異なる原稿20では読取光学系12からの距離が異なる」といった要因のため、問題点(課題)の解決は容易でない。
更に、再生する画像が複雑(例えば、輝度変化が複雑)である場合、副走査方向の画像結合位置のズレが補正ゲインの算出に大きな影響を与え、輝度補正が不安定となり、再生画像に明暗の縞やムラが発生することがある。
As described above, the problems (problems) of the conventional image reading apparatus are composed of a plurality of design factors and manufacturing factors, so that it has been difficult to solve by hardware.
Further, even if correction is performed using any reference chart (test chart) as described in
Further, when the image to be reproduced is complicated (for example, the luminance change is complicated), the deviation of the image coupling position in the sub-scanning direction has a great influence on the calculation of the correction gain, the luminance correction becomes unstable, and the reproduced image has a light / dark Stripes and unevenness may occur.
本発明は、このような課題を解決するために成されたものであり、特別なハードウェアの追加あるいは特殊な基準チャートによる原稿読取前の事前の補正を行うことなく、「主走査方向の明暗の縞」の発生を抑えた「原稿の画像に忠実な再生画像」を得ると共に、更に、再生する画像が複雑であっても、再生画像に明暗の縞やムラが発生するのを抑制することができる「画像読取装置の画像処理方法」を提供することを目的とする。 The present invention has been made to solve such a problem, and without adding special hardware or performing advance correction before reading a document by using a special reference chart, "Reproduced image faithful to the original image" that suppresses the occurrence of "stripes" and further suppresses the occurrence of bright and dark stripes and unevenness in the reproduced image even when the reproduced image is complex It is an object to provide an “image processing method for an image reading apparatus”.
本発明に係る画像読取装置の画像処理方法は、多数の受光素子を直線状に並べてなる長尺形状のイメージセンサを複数個千鳥状に配置し、かつ、隣り合う前記イメージセンサ同士を長手方向に一部オーバーラップさせて配置して、搬送される原稿の画像を読み取る画像読取装置の画像処理方法であって、
前記イメージセンサより出力される各画像データに対し、黒補正および白補正を行う黒補正・白補正処理ステップと、前記黒補正・白補正処理ステップにて補正された補正後の各画像データに対して、これらが滑らかに繋ぎ合わせられるように副走査方向のずれの補正を行うずれ補正処理ステップと、前記ずれ補正処理ステップにおいて前記副走査方向のずれが補正された各画像データに対して、隣り合う前記イメージセンサから出力される画像データにおいてオーバーラップした領域同士の画素値の平均値が一致するように、前記各イメージセンサによる画像データの全画素値に前記各イメージセンサに応じた補正ゲインを乗算し、画像の明るさを補正する明るさ補正処理ステップと、前記明るさ補正処理ステップにおいて明るさが補正された各画像データを結合し画像再生する画像結合処理ステップとを有し、
前記明るさ補正処理ステップにおいて、前記オーバーラップ領域の平均輝度を算出するエリアの輝度値を用いて、前記補正ゲインの評価値を算出し、該評価値が所定の閾値を越える場合は演算エラーとし、前記演算エラーとなる範囲の補正ゲインを、前記演算エラーとなる前後の補正ゲインから補間して算出するものである。
また、本発明に係る画像読取装置は、多数の受光素子を直線状に並べてなる長尺形状のイメージセンサを複数個千鳥状に配置し、かつ、隣り合う前記イメージセンサ同士を長手方向に一部オーバーラップさせて配置して、搬送される原稿の画像を読み取る画像読取装置であって、
前記イメージセンサより出力される各画像データに対し、黒補正および白補正を行う黒補正・白補正処理手段と、前記黒補正・白補正処理手段にて補正された補正後の各画像データに対して、これらが滑らかに繋ぎ合わせられるように副走査方向のずれの補正を行うずれ補正処理手段と、前記ずれ補正処理手段において前記副走査方向のずれが補正された各画像データに対して、隣り合う前記イメージセンサから出力される画像データにおいてオーバーラップした領域同士の画素値の平均値が一致するように、前記各イメージセンサによる画像データの全画素値に前記各イメージセンサに応じた補正ゲインを乗算し、画像の明るさを補正する明るさ補正処理手段と、前記明るさ補正処理手段により明るさが補正された各画像データを結合し画像再生する画像結合処理手段とを備え、
前記明るさ補正処理手段は、前記オーバーラップ領域の平均輝度を算出するエリアの輝度値を用いて前記補正ゲインの評価値を算出し、該評価値が所定の閾値を越える場合は演算エラーとし、前記演算エラーとなる範囲の補正ゲインを、前記演算エラーとなる前後の
補正ゲインから補間して算出するものである。
In the image processing method of the image reading apparatus according to the present invention, a plurality of elongated image sensors in which a large number of light receiving elements are arranged in a straight line are arranged in a staggered manner, and the adjacent image sensors are arranged in the longitudinal direction. An image processing method of an image reading device that partially overlaps and reads an image of a conveyed document,
For each image data output from the image sensor, a black correction / white correction processing step for performing black correction and white correction, and each corrected image data corrected in the black correction / white correction processing step A deviation correction processing step for correcting a deviation in the sub-scanning direction so that they are smoothly connected, and each image data in which the deviation in the sub-scanning direction is corrected in the deviation correction processing step. A correction gain corresponding to each image sensor is applied to all pixel values of the image data obtained by each image sensor so that the average values of the pixel values of the overlapped regions in the image data output from the matching image sensors match. The brightness correction processing step of multiplying and correcting the brightness of the image, and the brightness is corrected in the brightness correction processing step. A bound and an image combining process step for image reproduction of each image data,
In the brightness correction processing step, the evaluation value of the correction gain is calculated using the luminance value of the area where the average luminance of the overlap region is calculated, and if the evaluation value exceeds a predetermined threshold, an arithmetic error is assumed. The correction gain in the range causing the calculation error is calculated by interpolating from the correction gains before and after the calculation error.
In the image reading apparatus according to the present invention, a plurality of elongated image sensors in which a large number of light receiving elements are arranged in a straight line are arranged in a staggered manner, and the adjacent image sensors are partially in the longitudinal direction. An image reading device that is arranged in an overlapping manner and reads an image of a conveyed document,
For each image data output from the image sensor, black correction and white correction processing means for performing black correction and white correction, and for each image data after correction corrected by the black correction and white correction processing means In addition, a shift correction processing unit that corrects a shift in the sub-scanning direction so that they are smoothly connected, and each image data in which the shift in the sub-scanning direction is corrected by the shift correction processing unit are adjacent to each other. A correction gain corresponding to each image sensor is applied to all pixel values of the image data obtained by each image sensor so that the average values of the pixel values of the overlapped regions in the image data output from the matching image sensors match. A brightness correction processing unit that multiplies and corrects the brightness of the image and the image data whose brightness is corrected by the brightness correction processing unit are combined to display an image. And an image combining processing means for reproducing,
The brightness correction processing means calculates an evaluation value of the correction gain using a luminance value of an area for calculating an average luminance of the overlap region, and if the evaluation value exceeds a predetermined threshold, it is an arithmetic error. The correction gain in the range causing the calculation error is calculated by interpolation from the correction gains before and after the calculation error.
本発明によれば、特別なハードウェアの追加や特殊な基準チャートによる原稿読取前の事前補正を行うことなく、画像における主走査方向の明暗の縞の発生を抑えた補正が可能であり、原稿から読み取った画像データから原稿により忠実で高品質な画像を直接得られる効果がある。
更に、再生する画像が複雑であっても、再生画像に明暗の縞やムラが発生するのを抑制することができる補正が可能である。
According to the present invention, it is possible to perform correction while suppressing generation of bright and dark stripes in the main scanning direction in an image without adding special hardware or performing advance correction before reading the document using a special reference chart. Therefore, it is possible to directly obtain a high-quality image with higher fidelity from the image data read from the document.
Furthermore, even if the image to be reproduced is complex, it is possible to perform correction that can suppress the occurrence of bright and dark stripes and unevenness in the reproduced image.
以下、図面に基づいて、本発明の一実施の形態例について説明する。
実施の形態1.
前掲した図7は、本願発明による画像処理方法が適用される画像読取装置の構成も示している。
背景技術の項での説明と重複するが、本発明が適用される画像読取装置の構成について再度説明しておく。
前述したように、画像読取装置10では、固定した装置10に対して原稿(紙)20が搬送されるか、もしくは原稿20側が固定で、画像読取装置10が原稿20上をスキャンする。
そして、画像読取装置10内部の図示しないランプやLEDなどの光源から発せられた照明光11により原稿20が照明され、原稿20で反射・散乱された光がレンズ等の読取光学系12を通って、イメージセンサ13上に結像される。結像された光はイメージセンサ13の受光素子によって、画像データとして図示しないメモリに出力される。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 7 described above also shows the configuration of an image reading apparatus to which the image processing method according to the present invention is applied.
Although overlapping with the description in the background art section, the configuration of the image reading apparatus to which the present invention is applied will be described again.
As described above, in the
Then, the
図7では、固定された画像読取装置10に対して原稿20が搬送されている。
イメージセンサ13から出力される画像データは、原稿20の搬送と共に順次時系列でメモリに取り込まれていき、原稿20全体の画像データが取得される。
隣接するイメージセンサ13同士は、主走査方向に一部オーバーラップするように、基板14上に千鳥状に配置されている。
イメージセンサ13の画像データのうち、隣接するイメージセンサ13の画像データとオーバーラップする部分を、オーバーラップ領域と呼ぶ。
In FIG. 7, the
The image data output from the
A portion of the image data of the
図1は、実施の形態1に係る、各イメージセンサ13から出力された画像データを繋ぎ合わせ、従来よりも原稿に忠実な再生画像(複写画像)を作成する「画像読取装置の画像結合処理」のフローを表す図である。
背景技術の項で説明したように、ライン状のイメージセンサ13は、原稿20の搬送方向に直交するように配置されているため、イメージセンサ13から出力される画像データ(初期画像)は、図1(a)に示すように原稿20を主走査方向に裁断した短冊型の画像データになる。
なお、図1(a)において、n番目、n+1番目、n+2番目・・・とあるのは、n番目のイメージセンサ13、n+1番目のイメージセンサ13、n+2番目のイメージセンサ13・・・から出力される画像データ(初期画像)である。
実際には、原稿20を読み取りながらリアルタイムで図1の処理(フロー)が行われるため、副走査方向のデータサイズは数画素分のみであり、原稿20の搬送に従い、処理の確定した画像データを一画素分削除し(メモリから例えばプリンタ等の外部へ出力し)、新たに読み込まれた画像データを一画素分追加しながら、順次画像結合処理が行われていく。
FIG. 1 shows an “image combining process of an image reading apparatus” in which image data output from each
As described in the background art section, since the line-shaped
In FIG. 1A, n, n + 1, n + 2,... Are output from the
In practice, since the processing (flow) of FIG. 1 is performed in real time while reading the
図8と同様に、図1では、理解を容易にするため、原稿20を副走査方向に一旦読み終えた後の画像に対して、画像結合処理する図を表している。
イメージセンサ13より出力された初期画像に対し、処理Aとして、黒補正と白補正(シェーディング補正)を行う。
前述したように、黒補正とは、「得られている初期画像(すなわち、イメージセンサ13から出力された画像データ)の画素値(赤(R)・緑(G)・青(B)の信号強度)から、照明光11が無く読取光学系12が暗室状態にある時のイメージセンサ13の出力(バックグラウンド)を差し引く補正」である。このバックグラウンドは、原稿読取前に事前に取得(測定)しておく。
Similar to FIG. 8, FIG. 1 shows a diagram in which image combining processing is performed on an image after the
As processing A, black correction and white correction (shading correction) are performed on the initial image output from the
As described above, the black correction is “a signal of pixel values (red (R), green (G), and blue (B)) of an obtained initial image (that is, image data output from the image sensor 13). "Intensity)" is a correction to subtract the output (background) of the
また、白補正とは、「真っ白な原稿を読んだ時に、画素値が最大値付近(例えば、8ビット画像では250、10ビット画像では1000)になるように、黒補正後の画素値にゲインを乗算する補正」である。
なお、画素値の設定値を、例えば8ビット画像の場合の理論値255、10ビット画像の場合の理論値1023より小さくするのは、前述したように、入力データのばらつきのために入力値が白基準値を超えた場合に、データが飽和するのを防止するためである。
このゲインは、原稿読取前に事前に白基準板15を読み(測定し)、R・G・Bそれぞれ個別に算出しておく。
白補正では、照明光11の主走査方向照度分布、読取光学系12の周辺光量比、およびイメージセンサ13の各受光素子の感度など、「真っ白な原稿20の読取時に真っ白として画像データを出力しない全ての誤差要因」を同時に補正する。
処理A(黒補正・白補正)によって、均一な明るさ(輝度・濃度)の原稿20を読んだ時に、均一な明るさの再生画像(複写画像)が得られるようになる。
しかし、実際には、前述した(a)〜(d)の要因により、画像データ全体の明るさを均一化する白補正を行っても、主走査方向に明暗の縞が現れた再生画像となる。
図1(b)は、処理A後の画像を示している。
これらバックグラウンドとゲインは、全てのイメージセンサ13の各受光素子、つまり全画像データの主走査方向の画素の一つずつが、それぞれ固有の値を有している。
Further, white correction means that “when a white document is read, the pixel value is adjusted to the pixel value after black correction so that the pixel value is near the maximum value (for example, 250 for an 8-bit image and 1000 for a 10-bit image). It is a correction to multiply by.
Note that the pixel value setting value is made smaller than the theoretical value 255 in the case of an 8-bit image, for example, and the theoretical value 1023 in the case of a 10-bit image, as described above, due to variations in input data. This is to prevent the data from being saturated when the white reference value is exceeded.
This gain is calculated in advance for each of R, G, and B by reading (measuring) the
In the white correction, the illuminance distribution in the main scanning direction of the
By processing A (black correction / white correction), a reproduced image (copy image) having a uniform brightness can be obtained when a
However, in practice, due to the above-described factors (a) to (d), even if white correction is performed to make the brightness of the entire image data uniform, a reproduced image in which bright and dark stripes appear in the main scanning direction is obtained. .
FIG. 1B shows an image after the process A.
The background and gain have unique values for each light receiving element of all
次に、処理A後の画像データ(すなわち、黒補正後および白補正後の画像データ)に対し、処理Bとして副走査方向のずれの補正を行う。
各イメージセンサ13の原稿20上における読取位置16(図7参照)は、副走査方向にばらついているため、各イメージセンサ13からの初期画像は、図1(a)や図1(b)に示すように、同時刻(同タイミング)のデータで見れば、画像(絵)としては副走査方向にずれていることになる。
なお、処理A(黒補正・白補正)と処理B(副走査方向のずれ補正)は、前述した背景技術における処理Aと処理Bと同じ処理である。
本実施の形態では、図8に示した処理Bと処理Cの間に処理D(明るさ補正)を有し、輝度補正値の演算時の誤差を低減することを特徴とする。
Next, correction in the sub-scanning direction is performed as processing B on the image data after processing A (that is, image data after black correction and after white correction).
Since the reading position 16 (see FIG. 7) on the
Note that the processing A (black correction / white correction) and the processing B (shift correction in the sub-scanning direction) are the same as the processing A and processing B in the background art described above.
The present embodiment is characterized in that a process D (brightness correction) is provided between the process B and the process C shown in FIG. 8 to reduce an error when calculating the luminance correction value.
背景技術の場合と同様に、イメージセンサ13より出力された初期画像に対し、処理A
(黒補正と白補正)と処理B(副走査方向のずれの補正)を行う。
この処理B後の画像データに対し、オーバーラップ領域を利用して、各画像データ間の全体的な明るさ(輝度)を合わせるための処理Dを行う。
その後、処理D後の画像データに対し、処理C(結合作業)を行う。
処理A、処理B、処理Dおよび処理Cでは、前述したとおり、実際には原稿20を読み取りながらリアルタイムに処理(フロー)が行われるため、副走査方向のデータサイズは数画素分のみである。(データサイズは全体でも良い。メモリサイズに依存する)
As in the case of the background art, the process A is performed on the initial image output from the
(Black correction and white correction) and process B (correction of deviation in the sub-scanning direction) are performed.
A process D for matching the overall brightness (luminance) between the image data is performed on the image data after the process B using the overlap region.
Thereafter, processing C (combination work) is performed on the image data after processing D.
In the processing A, processing B, processing D and processing C, as described above, the processing (flow) is actually performed in real time while reading the
以下、処理D(明るさ補正)の詳細について説明する。
図1(c)に示すように、「n番目のイメージセンサ13による画像データIn」中の
「n+1番目のイメージセンサ13による画像データIn+1」側のオーバーラップ領域を
Rnとする。一方、画像In+1中の画像In側のオーバーラップ領域をLn+1とする。
前述したように、原稿20を読み取りながら順次画像結合処理されるので、前記オーバーラップ領域Rn、Ln+1は、共に「(主走査方向数十画素)×(副走査方向十画素)程度のサイズ」である。
処理Bによって画像Inと画像In+1は副走査方向のずれが補正されているため、オーバーラップ領域Rn、Ln+1は原稿20の面上では全く同じ領域のデータのはずであり、その明るさ(画素値)においても同じでなくてはならない。
Details of the process D (brightness correction) will be described below.
As shown in FIG. 1 (c), "n-th by the
As described above, since the image combining process is sequentially performed while reading the
Since the image I n and image I n + 1 is the processing B is the sub-scanning direction of the deviation is corrected, the overlap regions R n, L n + 1 is supposed data identical region on the surface of the
そこで、領域Rnにおける赤(R)・緑(G)・青(B)それぞれの画素値の平均値を
求め、それぞれARn(R)、ARn(G)、ARn(B)とする。
同様に、領域Ln+1におけるR・G・Bそれぞれの画素値の平均値を求めて、それぞれ
ALn+1(R)、ALn+1(G)、ALn+1(B)とする。
R・G・Bそれぞれにおける比をαn+1(R)、αn+1(G)、αn+1(B)とすると、
これらは下記の式(1)で表される。
Therefore, the average values of the respective pixel values of red (R), green (G), and blue (B) in the region R n are obtained and are set as A Rn (R), A Rn (G), and A Rn (B), respectively. .
Similarly, the average values of the R, G, and B pixel values in the region L n + 1 are obtained, and A Ln + 1 (R), A Ln + 1 (G), and A Ln + 1 (B) are obtained. To do.
If the ratio in each of R, G and B is α n + 1 (R), α n + 1 (G), α n + 1 (B),
These are represented by the following formula (1).
これらの比は、画像In+1の明るさを画像Inの明るさに合わせるための倍率(ゲイン)を表している。
すなわち、画像In+1を構成する全画素値に対して、R・G・Bのそれぞれを、αn+1(R)倍、αn+1(G)倍、αn+1(B)倍すれば、画像In+1の明るさが画像Inの明るさに一致する。
These ratios represent the ratio (gain) for matching the brightness of the image I n + 1 to the brightness of the image I n.
That is, for all the pixel values constituting the image I n + 1, each of R · G · B, α n + 1 (R) times, α n + 1 (G) times, α n + 1 (B ) by multiplying it, the brightness of the image I n + 1 is equal to the brightness of the image I n.
同様に、αn+2(R)、αn+2(G)、αn+2(B)を求める。
これにより、n+2番目のイメージセンサ13による画像In+2の明るさを画像Inの明るさに合わせるための倍率は、R・G・Bそれぞれαn+1(R)×αn+2(R)、αn+1(
G)×αn+2(G)、αn+1(B)×αn+2(B)となる。
すなわち、1番目のイメージセンサ13による画像I1の明るさを基準に、全てのイメ
ージセンサ13における画像の明るさを合わせることができる。
例えばm番目の画像Imの倍率は、R・G・Bそれぞれ次の式(2)のようになる。
Similarly, α n + 2 (R), α n + 2 (G), and α n + 2 (B) are obtained.
Thus, the magnification for matching the brightness of the image I n + 2 by n + 2
G) × α n + 2 (G), α n + 1 (B) × α n + 2 (B).
That is, the brightness of the images in all the
For example the magnification of the m-th image I m may, R · G · B respectively as shown in the following equation (2).
ここで、オーバーラップ領域の詳細について、図2を用いて説明する。
実際の入力画像において、オーバーラップ領域Rn、Ln+1が綺麗に一画素単位で重複するわけではなく、読取光学系12やイメージセンサ13の製造誤差のため、図2に示すように、主走査方向、副走査方向のいずれにおいても一画素未満のずれが存在する。
このため、図1に示す処理B(副走査方向のずれの補正)では、隣接する画像データ間の副走査方向の位置合わせは1画素未満、例えば0.1画素単位で行われる。
また、主走査方向についても、事前に基準チャートを読み込むことによって、例えば、同じく0.1画素単位でオーバーラップ領域の算出が行われる。
Here, details of the overlap region will be described with reference to FIG.
In the actual input image, the overlap regions Rn and Ln + 1 do not neatly overlap in units of pixels, but due to manufacturing errors of the reading
For this reason, in the process B (correction in the sub-scanning direction) shown in FIG. 1, alignment in the sub-scanning direction between adjacent image data is performed in units of less than one pixel, for example, 0.1 pixel.
Also, in the main scanning direction, the overlap area is calculated in units of 0.1 pixels, for example, by reading the reference chart in advance.
オーバーラップ領域において式1に示す補正ゲイン(単に、ゲインとも称す)を算出するための領域Rn、Ln+1のサイズを、主走査方向にu 画素、副走査方向に v 画素と設定
し、図2に示すように、画像データIn と In+1 のズレが主走査方向にk 画素、副走査
方向に l画素であったとする。 但し、 0 ≦ k,1 < 1 とする。
この場合、画像データIn+1 上の画素(t , r) の輝度をEtr 、画像データIn 上の画素(s
, q)の輝度をEs,qとすると、Etr は以下の式(3)となる。
In the overlap region, the size of the regions R n and L n + 1 for calculating the correction gain (simply referred to as gain) shown in
In this case, the luminance of the pixel (t, r) on the image data I n + 1 is set to E tr , and the pixel (s on the image data I n (s
, q) is E s, q , E tr is expressed by the following equation (3).
以降、画像データIn+1 上の画素(t , r)に対応する画像データIn 上の画素の輝度を
E’t,rと記載する。
前述の通り、画像データInとIn+1は1画素未満で位置合わせを行っているが、ズレ補
正処理の精度や光学系のバラツキなどの影響で、誤差を持つことある。
誤差がなければ、Et,r =E’t,r となるが、上記誤差のために差異が発生し、補正ゲインの算出に誤差が生じることにより副走査方向の縞が発生する。
この縞の発生を抑制するために、以下の処理を行う。
補正ゲインを算出するために領域Rn、Ln+1の平均値を算出するが、領域Rn、Ln+1のサイズ(u,v)に対して重みを乗じて平均値を算出し、前掲の式(1)を以下の式(4)
の様に拡張する。
Hereinafter, the luminance of the pixel on the image data I n corresponding to the pixel (t, r) on the image data I n + 1 is described as E ′ t, r .
As described above, the image data In and In + 1 are aligned with less than one pixel, but may have an error due to the effect of deviation correction processing accuracy and optical system variations.
If there is no error, E t, r = E ′ t, r , but a difference occurs due to the above error, and a fringe in the sub-scanning direction is generated due to an error in calculating the correction gain.
In order to suppress the occurrence of the fringes, the following processing is performed.
Region R n to calculate a correction gain to calculate an average value of L n + 1, but the region R n, multiplied by the weight to size (u, v) of L n + 1 calculates the average value The above formula (1) is replaced by the following formula (4)
Extend like this.
但し、ki,jは重み、E(R)i,jは座標(i,j)の赤成分の輝度値、E(G)i,jは座標(i,j)の緑成分の輝度値、E(B)i,jは座標(i,j)の青成分の輝度値であり、 0 ≦ kij < 1 である。
重みki,jは、図3に示す様な台形形状やハニング窓(図示しない)を設定する。
なお、ハニング窓とは、“ y=0.5−0.5*Cos(2πx) (0≦x≦1) ”で表される窓関
数である。
補正ゲインを算出する領域Rn、Ln+1に含まれる画像が輝度変化が少ない均一輝度である場合や、領域Rn、Ln+1内部に模様(明暗差の大きな画像)が内包される場合は、重みki,jを乗じなくても演算精度は変化しないが、模様の一部が領域Rn、Ln+1の外周にかかる場合、上記位置合わせの誤差による影響を受けることになるため、周辺部の影響度を低減し、領域Rn、Ln+1の中央部の影響度を上げる処理を行うことで、主走査方向の明暗の縞を低減する。
Where k i, j is the weight, E (R) i, j is the luminance value of the red component at coordinates (i, j), E (G) i, j is the luminance value of the green component at coordinates (i, j) , E (B) i, j is the luminance value of the blue component of coordinates (i, j), and 0 ≦ k ij <1.
As the weights k i, j , trapezoidal shapes and Hanning windows (not shown) as shown in FIG. 3 are set.
The Hanning window is a window function represented by “y = 0.5−0.5 * Cos (2πx) (0 ≦ x ≦ 1)”.
When the image included in the regions Rn and Ln + 1 for calculating the correction gain has uniform luminance with little luminance change, or when a pattern (an image having a large contrast difference) is included in the regions Rn and Ln + 1, the weights k i, Even if j is not multiplied, the calculation accuracy does not change. However, when a part of the pattern is applied to the outer periphery of the regions Rn and Ln + 1, it is affected by the alignment error, so the influence of the peripheral portion is reduced. By performing the process of increasing the influence of the central part of the regions Rn and Ln + 1, the bright and dark stripes in the main scanning direction are reduced.
しかし、画像が複雑(例えば、輝度変化が複雑)で、位置ズレの影響が補正ゲイン算出に大きな場合、上記処理だけでは補正が不安定になることがある。
このため、全てのラインで補正ゲインを算出するのではなく、算出した補正ゲインの信頼性が高い箇所のみを採用し、それ以外の箇所はゲイン演算エラーとすることで、原稿にはない主走査方向の明暗の縞の発生を抑える。
具体的には、補正ゲインを算出する領域Rn、Ln+1において一番上のラインの平均値と一番したのラインの平均値の差が設定値以上であれば、エラーとする。
However, when the image is complicated (for example, the luminance change is complicated) and the influence of the positional deviation is large in calculating the correction gain, the correction may become unstable only by the above processing.
For this reason, instead of calculating the correction gain for all lines, only the areas where the reliability of the calculated correction gain is high are adopted, and the other areas are set as gain calculation errors, thereby preventing the main scanning that is not found in the document. Reduces the occurrence of bright and dark stripes in the direction.
Specifically, if the difference between the average value of the top line and the average value of the top line in the regions R n and L n + 1 for calculating the correction gain is equal to or greater than the set value, an error is determined.
これは、画像で言うならば、輝度が均一なエリアから複雑な画像である模様が含まれるエリアに差し掛かったことを意味し、輝度均一エリアでのみ補正ゲインを算出し、それ以
外のエリアはエラーとする。
これにより、補正ゲインを算出する領域Rn、Ln+1の輝度が均一な領域の補正ゲインは求まるが、それ以外のエリアのゲインが不定となる。
このため、この不定領域の補正ゲインを補間して求める。
なお、「ライン」とは、副走査方向のデータを指しており、センサから一度に出力されるデータを1ラインと称している。補正ゲインは、1センサから出力される1ラインデータに対して、1つ演算する。
In terms of images, this means that an area with a uniform luminance has reached an area that includes a pattern that is a complex image. The correction gain is calculated only in the uniform luminance area, and the other areas are error-prone. And
As a result, the correction gain of the region where the luminances of the regions R n and L n + 1 for calculating the correction gain are uniform can be obtained, but the gains of the other regions are indefinite.
For this reason, the correction gain of this indefinite region is obtained by interpolation.
Note that “line” refers to data in the sub-scanning direction, and data output from the sensor at one time is referred to as one line. One correction gain is calculated for one line data output from one sensor.
以下、この補間方法について、図4、図5を用いて説明する。
ある箇所のゲインを副走査方向にプロットした場合、図4に示すようなグラフとなったとする。
ここで、中央部の「エラー範囲」と表記した箇所が、「ゲイン演算エラー」とした箇所である。
ゲイン演算エラーの箇所は、画像のズレの影響などで、ゲイン演算が不安定となり、本来のゲインに比べると、大きく誤差が発生したゲインを出力する。このゲインを採用すると、主走査方向の明暗の縞となる。
このため、本領域はエラーとして前後から補間し、図5に示すようにエラー範囲の直前のゲインとエラー範囲の直後のゲインを直線で補間することで、演算エラーとなった領域の補正ゲインを生成でき、再生画像における主走査方向の明暗の縞の発生を低減する。
Hereinafter, this interpolation method will be described with reference to FIGS.
It is assumed that when a gain at a certain point is plotted in the sub-scanning direction, a graph as shown in FIG. 4 is obtained.
Here, the location indicated as “error range” in the center is the location designated as “gain calculation error”.
The gain calculation error portion is unstable due to the effect of image misalignment or the like, and outputs a gain in which a large error occurs compared to the original gain. Employing this gain results in bright and dark stripes in the main scanning direction.
For this reason, this area is interpolated as an error from the front and back, and as shown in FIG. The generation of bright and dark stripes in the main scanning direction in the reproduced image can be reduced.
以上説明したように、本実施の形態による画像読取装置の画像処理方法は、多数の受光素子を直線状に並べてなる長尺形状のイメージセンサ13を複数個千鳥状に配置し、かつ、隣り合う前記イメージセン13サ同士を長手方向に一部オーバーラップさせて配置して、搬送される原稿の画像を読み取る画像読取装置10の画像処理方法であって、
イメージセンサ13より出力される各画像データに対し、黒補正および白補正を行う黒補正・白補正処理ステップ(処理A)と、黒補正・白補正処理ステップにて補正された補正後の各画像データに対して、これらが滑らかに繋ぎ合わせられるように副走査方向のずれの補正を行うずれ補正処理ステップ(処理B)と、ずれ補正処理ステップにおいて副走査方向のずれが補正された各画像データに対して、隣り合う前記イメージセンサ13から出力される画像データにおいて、オーバーラップした領域同士の画素値の平均値が一致するように、各イメージセンサ13による画像データの全画素値に各イメージセンサに応じた補正ゲインを乗算し、画像の明るさを補正する明るさ補正処理ステップ(処理D)と、明るさ補正処理ステップにおいて明るさが補正された各画像データを結合し画像再生する画像結合処理ステップ(処理C)とを有し、明るさ補正処理ステップにおいて、オーバーラップ領域の平均輝度を算出するエリアの輝度値を用いて、補正ゲインの評価値を算出し、該評価値が所定の閾値を越える場合は演算エラーとし、演算エラーとなる範囲の補正ゲインを、演算エラーとなる前後の補正ゲインから補間して算出する。
As described above, in the image processing method of the image reading apparatus according to the present embodiment, a plurality of long-shaped
Each image data output from the
従って、本実施の形態によれば、特別なハードウェアの追加あるいは特殊な基準チャートによる原稿読取前の事前の補正を行うことなく、「主走査方向の明暗の縞」の発生を抑えることが可能であり、原稿の画像に更に忠実な再生画像を得ることができると共に、更に、再生する画像が複雑であっても、再生画像に明暗の縞やスジ状のムラが発生するのを抑制することができる。
また、本実施の形態によれば、オーバーラップ領域の平均輝度を算出するエリアの上下ラインでの補正ゲインの差を前記評価値とするので、画像内に輝度が均一でない画像が入ってきた場合に演算エラーと判断することが可能であり、再生画像にスジ状のムラが発生するのを防ぐことができる。
また、本実施の形態によれば、演算エラーとなる範囲の前後のゲインから補正ゲインを直線補間するので、演算エラーとなった領域の補正ゲインを生成することができる。
Therefore, according to the present embodiment, it is possible to suppress the occurrence of “bright and dark stripes in the main scanning direction” without adding special hardware or performing advance correction before reading a document using a special reference chart. In addition to being able to obtain a reproduced image that is more faithful to the image of the document, it is also possible to suppress the occurrence of bright and dark stripes and streaky irregularities in the reproduced image even if the reproduced image is complicated. Can do.
Further, according to the present embodiment, the difference between the correction gains in the upper and lower lines of the area where the average luminance of the overlap area is calculated is used as the evaluation value, so that an image with non-uniform luminance is included in the image. Therefore, it is possible to determine that a calculation error has occurred, and it is possible to prevent the occurrence of streaky irregularities in the reproduced image.
Further, according to the present embodiment, since the correction gain is linearly interpolated from the gains before and after the range causing the calculation error, it is possible to generate the correction gain in the region where the calculation error has occurred.
また、本実施の形態による画像読取装置の画像処理方法は、画像データの副走査方向のオーバーラップした領域のサイズは十画素程度であり、各イメージセンサ13から出力される画像データのうち、副走査方向の画像データには一画素分ずつ画素値にゲインを乗算し、順次時系列に、処理の確定した副走査方向一画素分の画像データを削除と、新たに読み込まれた副走査方向一画素分の画像データを追加しながら、オーバーラップした領域の画素値の平均値によるゲインの算出と、画像データの画素値に対するゲインの乗算とを繰り返すことにより、原稿20の全体の再生画像を得る。
従って、本実施の形態によれば、原稿を読み取りながら、原稿全体の画像再生(結合)処理をすることができる。
Further, in the image processing method of the image reading apparatus according to the present embodiment, the size of the overlapped area in the sub-scanning direction of the image data is about 10 pixels, and among the image data output from each
Therefore, according to the present embodiment, it is possible to perform image reproduction (combination) processing of the entire document while reading the document.
実施の形態2.
実施の形態1では、補正ゲインを算出する領域Rn、Ln+1において、一番上のラインの補正ゲインの平均値と、一番下のラインの補正ゲインの平均値の差が、設定値以上であればエラーとしたが、領域Rn、Ln+1のそれぞれの補正ゲインの分散値が所定の閾値以上であればエラーとする。
これにより、ゲイン演算を行う領域の輝度の複雑度に応じて、エラーとするか判断することが可能となる。
即ち、本実施の形態によれば、オーバーラップ領域の平均輝度を算出するエリアの補正ゲインの分散値を前記評価値とするので、実施の形態1と同様に、画像内に輝度が均一でない画像が入ってきた場合に演算エラーと判断することが可能であり、再生画像にスジ状のムラが発生するのを防ぐことができる。
In the first embodiment, in the regions R n and L n + 1 for calculating the correction gain, the difference between the average value of the correction gain of the top line and the average value of the correction gain of the bottom line is set. An error is determined if the value is equal to or greater than the value, but an error is determined if the dispersion value of each correction gain in the regions R n and L n + 1 is equal to or greater than a predetermined threshold.
Accordingly, it is possible to determine whether an error occurs according to the luminance complexity of the area where the gain calculation is performed.
That is, according to the present embodiment, since the variance value of the correction gain of the area for calculating the average luminance of the overlap region is used as the evaluation value, an image with nonuniform luminance in the image as in the first embodiment. Can be determined as a calculation error, and streak-like unevenness can be prevented from occurring in the reproduced image.
実施の形態3.
実施の形態1では、補正ゲインを算出する領域Rn、Ln+1において、一番上のラインの補正ゲインの平均値と、一番下のラインの補正ゲインの平均値の差が、設定値以上であればエラーとしたが、本実施の形態では、領域Rn、Ln+1のそれぞれの平均値が所定の閾値以下であればエラーとする。
これにより、ゲイン演算を行う領域の輝度が全体的に小さく、輝度の比(補正ゲイン)を算出する際の分母の項が小さくなることによる演算誤差の増大を防ぎ、エラーを判断することが可能となる。
即ち、本実施の形態によれば、オーバーラップ領域の平均輝度を算出するエリアの補正ゲインの平均値を前記評価値とするので、補正ゲインを算出するエリアの平均輝度が低く、演算誤差が大きくなることにより発生するスジ状のムラの発生を防ぐことができる。
Embodiment 3 FIG.
In the first embodiment, in the regions R n and L n + 1 for calculating the correction gain, the difference between the average value of the correction gain of the top line and the average value of the correction gain of the bottom line is set. In the present embodiment, an error is determined if the average value of the regions R n and L n + 1 is equal to or less than a predetermined threshold value.
This makes it possible to determine the error by preventing the increase in calculation error due to the fact that the brightness of the area where gain calculation is performed is small overall and the denominator term when calculating the luminance ratio (correction gain) is small. It becomes.
That is, according to the present embodiment, since the average value of the correction gain of the area for calculating the average luminance of the overlap region is used as the evaluation value, the average luminance of the area for calculating the correction gain is low and the calculation error is large. As a result, it is possible to prevent the occurrence of streaky unevenness.
実施の形態4.
実施の形態1では、補正ゲインの補間を直線で補間したが、図6に示すように、エラー範囲の直前のゲインとエラー範囲の直後のゲインから、補正ゲインをエラー範囲の中央で階段状に補間することで、演算エラーとなった領域の補正ゲインを生成でき、再生画像における主走査方向の明暗の縞の発生を低減する。
Embodiment 4 FIG.
In the first embodiment, the correction gain is interpolated by a straight line, but as shown in FIG. 6, the correction gain is stepped in the center of the error range from the gain immediately before the error range and the gain immediately after the error range. By performing the interpolation, it is possible to generate a correction gain for a region in which an operation error has occurred, and to reduce the occurrence of bright and dark stripes in the main scanning direction in the reproduced image.
実施の形態5.
実施の形態1では、エラーとなる領域の補正ゲインを直線で補間したが、画像全体にわたってエラーとなる場合があり、この場合は補間することが困難となる。
このため、画像全体がエラーとなった場合は、オーバーラップ領域全体の平均値を用いて補正ゲインを算出し、画像全体を均一な補正ゲインで補正することにより、再生画像における主走査方向の明暗の縞の発生を低減する。
即ち、本実施の形態によれば、前記隣接するイメージセンサ間の補正ゲインの評価値が画像全域でエラーとなった場合は、オーバーラップ領域全体の平均値を用いて補正ゲインを算出する。
Embodiment 5 FIG.
In the first embodiment, the correction gain of the error area is interpolated with a straight line, but an error may occur over the entire image. In this case, it is difficult to interpolate.
For this reason, if an error occurs in the entire image, the correction gain is calculated using the average value of the entire overlap area, and the entire image is corrected with a uniform correction gain. Reduce the occurrence of fringes.
That is, according to the present embodiment, when the evaluation value of the correction gain between the adjacent image sensors has an error in the entire image, the correction gain is calculated using the average value of the entire overlap region.
実施の形態6.
実施の形態5では、オーバーラップ領域全体の平均値を用いて補正ゲインを算出したが、オーバーラップ領域全体の平均値が閾値以下である場合、輝度の比(補正ゲイン)を算出する際の分母の項が小さくなることによる演算誤差の増大が発生する。
このため、オーバーラップ領域全体の平均値が閾値以下である場合は、ゲインを1.0
とし、輝度をオフセット処理して輝度差を補正することで、再生画像における主走査方向の明暗の縞の発生を低減する。
Embodiment 6 FIG.
In the fifth embodiment, the correction gain is calculated using the average value of the entire overlap area. However, when the average value of the entire overlap area is equal to or less than the threshold value, the denominator for calculating the luminance ratio (correction gain) is calculated. As the term becomes smaller, an increase in calculation error occurs.
For this reason, when the average value of the entire overlap area is equal to or less than the threshold value, the gain is set to 1.0.
And correcting the luminance difference by offsetting the luminance, thereby reducing the occurrence of bright and dark stripes in the main scanning direction in the reproduced image.
本発明は、再生画像が複雑であっても、再生画像に明暗の縞やムラが発生するのを抑制することができる画像読取装置の画像処理方法の実現に有用である。」 The present invention is useful for realizing an image processing method of an image reading apparatus that can suppress the occurrence of bright and dark stripes and unevenness in a reproduced image even if the reproduced image is complicated. "
10 画像読取装置、 11 照明光 12 読取光学系
13 イメージセンサ 14 基板 15 白基準板
16 読取位置 20 原稿
DESCRIPTION OF
Claims (9)
前記イメージセンサより出力される各画像データに対し、黒補正および白補正を行う黒補正・白補正処理ステップと、前記黒補正・白補正処理ステップにて補正された補正後の各画像データに対して、これらが滑らかに繋ぎ合わせられるように副走査方向のずれの補正を行うずれ補正処理ステップと、前記ずれ補正処理ステップにおいて前記副走査方向のずれが補正された各画像データに対して、隣り合う前記イメージセンサから出力される画像データにおいてオーバーラップした領域同士の画素値の平均値が一致するように、前記各イメージセンサによる画像データの全画素値に前記各イメージセンサに応じた補正ゲインを乗算し、画像の明るさを補正する明るさ補正処理ステップと、前記明るさ補正処理ステップにおいて明るさが補正された各画像データを結合し画像再生する画像結合処理ステップとを有し、
前記明るさ補正処理ステップにおいて、前記オーバーラップ領域の平均輝度を算出するエリアの輝度値を用いて、前記補正ゲインの評価値を算出し、該評価値が所定の閾値を越える場合は演算エラーとし、前記演算エラーとなる範囲の補正ゲインを、前記演算エラーとなる前後の補正ゲインから補間して算出することを特徴とする画像読取装置の画像処理方法。 A plurality of elongate image sensors in which a large number of light receiving elements are arranged in a straight line are arranged in a staggered manner, and the adjacent image sensors are partially overlapped in the longitudinal direction and conveyed. An image processing method of an image reading apparatus for reading an image of a document,
For each image data output from the image sensor, a black correction / white correction processing step for performing black correction and white correction, and each corrected image data corrected in the black correction / white correction processing step A deviation correction processing step for correcting a deviation in the sub-scanning direction so that they are smoothly connected, and each image data in which the deviation in the sub-scanning direction is corrected in the deviation correction processing step. A correction gain corresponding to each image sensor is applied to all pixel values of the image data obtained by each image sensor so that the average values of the pixel values of the overlapped regions in the image data output from the matching image sensors match. The brightness correction processing step of multiplying and correcting the brightness of the image, and the brightness is corrected in the brightness correction processing step. A bound and an image combining process step for image reproduction of each image data,
In the brightness correction processing step, the evaluation value of the correction gain is calculated using the luminance value of the area where the average luminance of the overlap region is calculated, and if the evaluation value exceeds a predetermined threshold, an arithmetic error is assumed. An image processing method for an image reading apparatus, wherein a correction gain in a range causing the calculation error is calculated by interpolation from correction gains before and after the calculation error.
の画像読取装置の画像処理方法。 8. The image reading apparatus according to claim 7, wherein when an average value of correction gains of the entire overlap area is lower than a set value, all the correction gains are set to 1 and luminance is corrected by an offset. Image processing method.
前記イメージセンサより出力される各画像データに対し、黒補正および白補正を行う黒補正・白補正処理手段と、前記黒補正・白補正処理手段にて補正された補正後の各画像デ
ータに対して、これらが滑らかに繋ぎ合わせられるように副走査方向のずれの補正を行うずれ補正処理手段と、前記ずれ補正処理手段において前記副走査方向のずれが補正された各画像データに対して、隣り合う前記イメージセンサから出力される画像データにおいてオーバーラップした領域同士の画素値の平均値が一致するように、前記各イメージセンサによる画像データの全画素値に前記各イメージセンサに応じた補正ゲインを乗算し、画像の明るさを補正する明るさ補正処理手段と、前記明るさ補正処理手段により明るさが補正された各画像データを結合し画像再生する画像結合処理手段とを備え、
前記明るさ補正処理手段は、前記オーバーラップ領域の平均輝度を算出するエリアの輝度値を用いて前記補正ゲインの評価値を算出し、該評価値が所定の閾値を越える場合は演算エラーとし、前記演算エラーとなる範囲の補正ゲインを、前記演算エラーとなる前後の補正ゲインから補間して算出することを特徴とする画像読取装置。 A plurality of elongate image sensors in which a large number of light receiving elements are arranged in a straight line are arranged in a staggered manner, and the adjacent image sensors are partially overlapped in the longitudinal direction and conveyed. An image reading apparatus for reading an image of a document,
For each image data output from the image sensor, black correction and white correction processing means for performing black correction and white correction, and for each image data after correction corrected by the black correction and white correction processing means In addition, a shift correction processing unit that corrects a shift in the sub-scanning direction so that they are smoothly connected, and each image data in which the shift in the sub-scanning direction is corrected by the shift correction processing unit are adjacent to each other. A correction gain corresponding to each image sensor is applied to all pixel values of the image data obtained by each image sensor so that the average values of the pixel values of the overlapped regions in the image data output from the matching image sensors match. A brightness correction processing unit that multiplies and corrects the brightness of the image and the image data whose brightness is corrected by the brightness correction processing unit are combined to display an image. And an image combining processing means for reproducing,
The brightness correction processing means calculates an evaluation value of the correction gain using a luminance value of an area for calculating an average luminance of the overlap region, and if the evaluation value exceeds a predetermined threshold, it is an arithmetic error. An image reading apparatus, wherein a correction gain in a range causing the calculation error is calculated by interpolating from correction gains before and after the calculation error.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010138185A JP5511535B2 (en) | 2010-06-17 | 2010-06-17 | Image processing method of image reading apparatus and image reading apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010138185A JP5511535B2 (en) | 2010-06-17 | 2010-06-17 | Image processing method of image reading apparatus and image reading apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012004867A true JP2012004867A (en) | 2012-01-05 |
JP5511535B2 JP5511535B2 (en) | 2014-06-04 |
Family
ID=45536343
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010138185A Expired - Fee Related JP5511535B2 (en) | 2010-06-17 | 2010-06-17 | Image processing method of image reading apparatus and image reading apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5511535B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014228339A (en) * | 2013-05-21 | 2014-12-08 | 三菱電機株式会社 | Radar image processing apparatus |
JP2016127295A (en) * | 2014-12-26 | 2016-07-11 | 三菱電機株式会社 | Image processing apparatus, image processing method, image reader, and image processing program |
US10487879B2 (en) | 2014-09-12 | 2019-11-26 | Nsk Ltd. | Ball bearing assembly method and assembly device, and ball bearing produced using said assembly method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1155558A (en) * | 1997-08-06 | 1999-02-26 | Minolta Co Ltd | Digital camera |
JP2000156871A (en) * | 1998-11-19 | 2000-06-06 | Sony Corp | Image processor and image processing method |
-
2010
- 2010-06-17 JP JP2010138185A patent/JP5511535B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1155558A (en) * | 1997-08-06 | 1999-02-26 | Minolta Co Ltd | Digital camera |
JP2000156871A (en) * | 1998-11-19 | 2000-06-06 | Sony Corp | Image processor and image processing method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014228339A (en) * | 2013-05-21 | 2014-12-08 | 三菱電機株式会社 | Radar image processing apparatus |
US10487879B2 (en) | 2014-09-12 | 2019-11-26 | Nsk Ltd. | Ball bearing assembly method and assembly device, and ball bearing produced using said assembly method |
JP2016127295A (en) * | 2014-12-26 | 2016-07-11 | 三菱電機株式会社 | Image processing apparatus, image processing method, image reader, and image processing program |
Also Published As
Publication number | Publication date |
---|---|
JP5511535B2 (en) | 2014-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8866902B2 (en) | Correction information calculating device, image processing apparatus, image display system, and image correcting method | |
JP5338718B2 (en) | Correction information calculation apparatus, image processing apparatus, image display system, and image correction method | |
US20100014778A1 (en) | Image correcting apparatus, image correcting method, projector and projection system | |
JP5161899B2 (en) | Image processing method of image reading apparatus | |
US10326908B2 (en) | Image reading apparatus and image reading method | |
JP2011211276A (en) | Image processing apparatus, image display system, and image processing method | |
JP3470097B2 (en) | Image forming apparatus and color image reading apparatus used therein | |
CN105103541A (en) | Pattern position detection method, pattern position detection system, and image quality adjustment technique using pattern position detection method and pattern position detection system | |
JP6249939B2 (en) | Image processing apparatus, image processing method, image reading apparatus, and image processing program | |
JP5570315B2 (en) | Image processing method of image reading apparatus and image reading apparatus | |
JP2006050627A (en) | Method and system for correcting color distortion | |
JP2011182078A (en) | Correction information calculation device, image correction device, image display system, and correction information calculation method | |
JP5511535B2 (en) | Image processing method of image reading apparatus and image reading apparatus | |
US7589739B2 (en) | Color evaluating method of image display device | |
US7400430B2 (en) | Detecting and compensating for color misregistration produced by a color scanner | |
JP5517769B2 (en) | Image processing method of image reading apparatus and image reading apparatus | |
US9338375B2 (en) | Imaging apparatus | |
US7551798B2 (en) | Apparatus for reducing zipper of image and method thereof | |
JP2005079816A (en) | Method and apparatus for creating image data | |
JP6052389B2 (en) | Image processing apparatus and image processing method | |
JP2000175001A (en) | Image data correction method in image reader | |
JP2012186825A (en) | Image quality adjustment device, image quality adjustment system, and image quality adjustment method | |
JP4483746B2 (en) | Defective pixel correction method and apparatus | |
JP2017098775A (en) | Imaging device | |
EP2134099B1 (en) | Method of compensation for spatial non-uniformities of image devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121009 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140325 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5511535 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |