JPH0514711A - Picture input device - Google Patents

Picture input device

Info

Publication number
JPH0514711A
JPH0514711A JP3159260A JP15926091A JPH0514711A JP H0514711 A JPH0514711 A JP H0514711A JP 3159260 A JP3159260 A JP 3159260A JP 15926091 A JP15926091 A JP 15926091A JP H0514711 A JPH0514711 A JP H0514711A
Authority
JP
Japan
Prior art keywords
data
correction
image
color
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3159260A
Other languages
Japanese (ja)
Other versions
JP3203689B2 (en
Inventor
Yoshihiko Hirota
好彦 廣田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=15689878&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JPH0514711(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP15926091A priority Critical patent/JP3203689B2/en
Priority to US07/905,109 priority patent/US5412489A/en
Publication of JPH0514711A publication Critical patent/JPH0514711A/en
Application granted granted Critical
Publication of JP3203689B2 publication Critical patent/JP3203689B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE:To attain highly precise shading correction with the use of the line memory by one line by converging a mean value with the weighting mean value of the data of plural lines inputted successively, and using it for mean value picture correction. CONSTITUTION:A CCD sensor is driven, and a system is set to an initial value mode in respect of black level correction, and an initial value is inputted to a FIFO memory 162. Then, the system is set to a data generation mode in respect of a white-and-black level, and reference data inputted successively are inputted again to the memory 162 by weighting and averaging them. When the mean value is generated, the system is set to a correction mode, and the reference data for correction is outputted for correcting the white-and-black level. Then, a reference white plate is irradiated by an exposure lamp. Next, the reference white plate is read, and reading is inputted to the FIFO memory 182 as the initial value. Further, the system is set to the data generation mode, and the reference data are weighted-averaged successively, and are inputted again to the memory 182. Then, weighting and averaging processing is stopped, and the data in the memories 162, 182 are outputted.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、原稿を読取り、デジタ
ルデータに変換する画像入力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image input device for reading a document and converting it into digital data.

【0002】[0002]

【従来の技術】フルカラーで画像再現を行うプリンタな
どにおいては、CCDセンサなどにより原稿から読み取
った赤、緑、青(原色系)のデジタル画像データR,G,B
を色再現の3色シアン、マゼンタ、イエローC,M,Y
(補色系)のデータに変換して画像を再現する。このた
め、原稿を走査して得られた赤、緑、青の3色のデジタ
ルデータを画像再現のための3再現色のデータに変換す
るデータ処理を行う。
2. Description of the Related Art In a printer which reproduces an image in full color, red, green and blue (primary color system) digital image data R, G, B read from an original by a CCD sensor or the like.
3 color reproduction of cyan, magenta, yellow C, M, Y
Reproduce the image by converting it to (complementary color) data. Therefore, data processing for converting digital data of three colors of red, green, and blue obtained by scanning the document into data of three reproduced colors for image reproduction is performed.

【0003】ここで、CCDセンサなどより読み取った
光電変換データは、まずアナログ・デジタル変換により
デジタル値に変換され、次にシェーディング補正とよば
れる規格化処理が行われる。
Here, photoelectric conversion data read by a CCD sensor or the like is first converted into a digital value by analog / digital conversion, and then a standardization process called shading correction is performed.

【0004】この規格化においては、たとえば基準白色
板から白レベルが読み取られ、画像信号の入力がない状
態において黒レベルが読み取られ、原稿の読み取りデー
タは、この両レベルの間で規格化される。この補正は、
オフセット除去の兼ねている。
In this standardization, for example, the white level is read from the reference white plate, the black level is read in the absence of an image signal input, and the read data of the document is standardized between these two levels. .. This correction is
Also serves as an offset remover.

【0005】[0005]

【発明が解決しようとする課題】このシェーディング補
正において、1ライン分のサンプリングデータから補正
用基準データを決定する場合、補正用規準データに画像
ノイズが含まれていると、原稿画像の読み取りにおい
て、同一画素位置に常に画像ノイズがあらわれるため、
規則性の高い画像ノイズ(副走査方向のすじ)が発生す
る。画像ノイズの発生原因は、システム内の電源ノイズ
やクロック系のクロストークノイズなど様々であるが、
A/D変換前の画像信号に対してS/N比を悪化させ
る。
In this shading correction, when the correction reference data is determined from the sampling data for one line, if the correction reference data contains image noise, the original image is read. Since image noise always appears at the same pixel position,
Image noise with high regularity (lines in the sub-scanning direction) occurs. There are various causes of image noise, such as power supply noise in the system and clock crosstalk noise.
The S / N ratio is deteriorated with respect to the image signal before A / D conversion.

【0006】画像規格化補正用規準データの画像ノイズ
を除去するには、複数ライン分の規準データを平滑化さ
せる方法がよいが、これを行なうには、多くのラインメ
モリを必要とする。
In order to remove the image noise of the reference data for image standardization correction, a method of smoothing the reference data for a plurality of lines is preferable, but a large number of line memories are required to do this.

【0007】また、本発明者は、補正用規準データに対
し、主走査側の平滑化処理を行なう方法を提案したが、
この方法は、十分なノイズ低下の効果が得られない。ま
た、通常のシェーディング歪みが逆に補正しきれなくな
るという欠点が生じる。
Further, the present inventor has proposed a method of performing smoothing processing on the main scanning side with respect to the correction reference data.
This method cannot obtain a sufficient noise reduction effect. On the contrary, there is a drawback that ordinary shading distortion cannot be corrected completely.

【0008】本発明の目的は、1ライン分のラインメモ
リを用いて、規格化補正用規準データのノイズ除去が行
える画像入力装置を提供することである。
An object of the present invention is to provide an image input device capable of removing noise from standardized correction standard data by using a line memory for one line.

【0009】[0009]

【課題を解決するための手段】本発明に係る画像入力装
置は、原稿を1ラインごとに走査し、光電変換処理後に
デジタル信号に変換する画像入力装置において、原稿情
報とは無関係に入力された複数ライン分の白レベルと黒
レベルの規準作成データを基に画像補正用規準データを
決定する決定手段と、この画像補正用規準データに従っ
て入力された原稿情報のデジタル変換信号を規格化する
規格化手段とを備え、上記の決定手段は、各画素ごとに
1ライン分の規準作成データを初期値とし1個のライン
メモリに書き込む初期値書込手段と、初期値書込手段が
初期値をメモリに書き込んだ後に、1ライン分の基準作
成データが入力されるごとに、ラインメモリ内のデータ
を読み出し、規準作成データを各画素ごとに重み付け平
均し、ふたたびラインメモリに書き込む重み付け平均手
段と、重み付け平均手段による重み付け平均処理を停止
し、ラインメモリ内のデータを画像補正用規準データと
して出力する出力手段とを備えることを特徴とする。
The image input device according to the present invention is an image input device which scans an original document line by line and converts it into a digital signal after photoelectric conversion processing. Determining means for determining the standard data for image correction based on the standard creation data of white and black levels for a plurality of lines, and standardization for standardizing the digital conversion signal of the document information input according to the standard data for image correction The determining means includes the initial value writing means for writing the standard creation data for one line for each pixel as an initial value into one line memory, and the initial value writing means stores the initial value in the memory. After writing the data in, the data in the line memory is read every time the reference creation data for one line is input, the reference creation data is weighted and averaged for each pixel, and the reference A weighted average means for writing the Nmemori, stop a weighted average processing by the weighted averaging unit, and an outputting means for outputting the data of the line memory as the image correction reference data.

【0010】[0010]

【作用】複数ライン分の規格化補正用規準データより、
1個のラインメモリを用いて重み付け平均により画像補
正用規準データを生成する。順次入力される複数ライン
のデータの重み付け平均により、1ライン分のデータが
入力されるごとに重みづけ平均値はしだいに収束してい
く。この収束した平均値を補正に用いることにより、画
像補正用基準データの画像ノイズの低下を図り、画像デ
ータの正確な規格化をおこなう。
[Function] From the standardized correction data for multiple lines,
The image correction reference data is generated by weighted averaging using one line memory. By the weighted average of the data of a plurality of lines that are sequentially input, the weighted average value gradually converges each time one line of data is input. By using this converged average value for correction, the image noise of the image correction reference data is reduced, and the image data is accurately standardized.

【0011】好ましくは、初期値書き込み手段により書
き込まれる初期値は、最初に読み込まれる1ライン分の
基準作成データである。また、この初期値は、以前に求
められた平均値であってもよい。
Preferably, the initial value written by the initial value writing means is the reference creation data for one line which is read first. Further, this initial value may be a previously calculated average value.

【0012】[0012]

【0013】[0013]

【実施例】以下、添付の図面を参照して本発明による実
施例であるデジタルカラー複写機について、以下の順序
で説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A digital color copying machine according to an embodiment of the present invention will be described below in the following order with reference to the accompanying drawings.

【0014】 (a)デジタルカラー複写機の構成 (b)画像信号処理部 (c)シェーディング補正 (d)HVC変換 (d-1)R,G,B読み取り位置補正 (d-2)彩度と色相の分離 (d-3)HVC変換部の回路 (e)濃度変換部 (f)領域判別部 (f-1)領域判別部の回路 (f-2)下色除去/墨加刷自動制御 (f-3)エッジ強調自動制御 (f-4)無彩色エッジ部の判定 (g)色補正 (g-1)UCR/BP自動処理 (g-2)マスキング処理 (g-3)UCR/BP自動処理の例 (g-4)モノカラーモードとカラーチェンジ (g-5)縁取りモード (g-6)色補正部の回路構成 (h)MTF補正 (h-1)MTF補正部の回路構成 (h-2)平滑化処理 (h-3)エッジ強調 (h-4)エッジ強調処理とシャープネスモード (h-5)色にじみ補正 (h-6)輪郭抽出モード (h-7)自動MTF補正の例 (a)デジタルカラー複写機の構成 図1は、本発明の実施例に係るデジタルカラー複写機の
全体構成を示す。デジタルカラー複写機は、原稿画像を
読み取るイメージリーダ部100と、イメージリーダ部
で読み取った画像を再現する本体部200とに大きく分
けられる。
(A) Configuration of digital color copying machine (b) Image signal processing unit (c) Shading correction (d) HVC conversion (d-1) R, G, B reading position correction (d-2) Saturation Hue separation (d-3) HVC converter circuit (e) Density converter (f) Area discrimination unit (f-1) Area discrimination circuit (f-2) Undercolor removal / blackening automatic control ( f-3) Edge enhancement automatic control (f-4) Achromatic edge judgment (g) Color correction (g-1) UCR / BP automatic processing (g-2) Masking processing (g-3) UCR / BP automatic Example of processing (g-4) Mono color mode and color change (g-5) Border mode (g-6) Circuit configuration of color correction section (h) MTF correction (h-1) Circuit configuration of MTF correction section (h -2) Smoothing processing (h-3) Edge enhancement (h-4) Edge enhancement processing and sharpness mode (h-5) Color fringing correction (h-6) Contour extraction mode (h-7) Example of automatic MTF correction (a) Configuration of Digital Color Copier FIG. 1 shows a digital color copying machine according to an embodiment of the present invention. The overall structure of the copying machine is shown. The digital color copying machine is roughly divided into an image reader unit 100 that reads an original image and a main body unit 200 that reproduces the image read by the image reader unit.

【0015】図1において、スキャナ10は、原稿を照
射する露光ランプ12と、原稿からの反射光を集光する
ロッドレンズアレー13、及び集光された光を電気信号
に変換する密着型のCCDカラーイメージセンサ14を
備えている。スキャナ10は、原稿読取時にはモータ1
1により駆動されて、矢印の方向(副走査方向)に移動
し、プラテン15上に載置された原稿を走査する。露光
ランプ12で照射された原稿面の画像は、イメージセン
サ14で光電変換される。イメージセンサ14により得
られたR,G,Bの3色の多値電気信号は、読取信号処理
部20により、イエロー(Y)、マゼンタ(M)、シアン
(C)、ブラック(K)のいずれかの階調データに変換され
る。次いで、プリントヘッド部31は、入力される階調
データに対してこの感光体の階調特性に応じた補正(γ
補正)および必要に応じてディザ処理を行った後、補正
後の画像データをD/A変換してレーザダイオード駆動
信号を生成して、この駆動信号によりプリントヘッド部
31内のレーザダイオード221(図示せず)を駆動させ
る。
In FIG. 1, a scanner 10 includes an exposure lamp 12 for irradiating a document, a rod lens array 13 for condensing reflected light from the document, and a contact-type CCD for converting the condensed light into an electric signal. A color image sensor 14 is provided. The scanner 10 uses the motor 1 when reading a document.
It is driven by 1 to move in the direction of the arrow (sub-scanning direction) to scan the document placed on the platen 15. The image on the document surface illuminated by the exposure lamp 12 is photoelectrically converted by the image sensor 14. The R, G, and B multi-valued electric signals obtained by the image sensor 14 are processed by the read signal processing unit 20 to be yellow (Y), magenta (M), and cyan.
(C) or black (K) gradation data is converted. Next, the print head unit 31 corrects the input gradation data according to the gradation characteristic of the photoconductor (γ
(Correction) and, if necessary, dither processing, and then D / A-converts the corrected image data to generate a laser diode drive signal, and the laser diode 221 (see FIG. Drive (not shown).

【0016】階調データに対応してレーザダイオード2
21から発生するレーザビームは、図1の一点鎖線に示
すように、反射鏡37を介して、回転駆動される感光体
ドラム41を露光する。これにより感光体ドラム41の
感光体上に原稿の画像が形成される。感光体ドラム41
は、1複写ごとに露光を受ける前にイレーサランプ42
で照射され、帯電チャージャ43により帯電されてい
る。この一様に帯電した状態で露光を受けると、感光体
ドラム41上に静電潜像が形成される。イエロー、マゼ
ンタ、シアン、ブラックのトナー現像器45a〜45dの
うちいずれか一つだけが選択され、感光体ドラム41上
の静電潜像を現像する。現像された像は、転写チャージ
ャ46により転写ドラム51上に巻きつけられた複写紙
に転写される。
Laser diode 2 corresponding to gradation data
The laser beam generated from the laser beam 21 exposes the photosensitive drum 41 which is rotationally driven through the reflecting mirror 37, as shown by the chain line in FIG. As a result, an image of the original is formed on the photoconductor of the photoconductor drum 41. Photoconductor drum 41
The eraser lamp 42 before receiving the exposure for each copy.
And is charged by the charging charger 43. When exposed in this uniformly charged state, an electrostatic latent image is formed on the photosensitive drum 41. Only one of the yellow, magenta, cyan, and black toner developing devices 45a to 45d is selected to develop the electrostatic latent image on the photosensitive drum 41. The developed image is transferred by the transfer charger 46 onto the copy paper wound around the transfer drum 51.

【0017】上記印字過程は、イエロー、マゼンタ、シ
アン及びブラックについて繰り返して行われる。このと
き、感光体ドラム41と転写ドラム51の動作に同期し
てスキャナ10はスキャン動作を繰り返す。その後、分
離爪47を作動させることによって複写紙は転写ドラム
51から分離され、定着装置48を通って定着され、排
紙トレー49に排紙される。なお、複写紙は用紙カセッ
ト50より給紙され、転写ドラム51上のチャッキング
機構52によりその先端がチャッキングされ、転写時に
位置ずれが生じないようにしている。
The above printing process is repeated for yellow, magenta, cyan and black. At this time, the scanner 10 repeats the scanning operation in synchronization with the operations of the photosensitive drum 41 and the transfer drum 51. Thereafter, by operating the separation claw 47, the copy paper is separated from the transfer drum 51, fixed through the fixing device 48, and discharged to the paper discharge tray 49. The copy paper is fed from the paper cassette 50, and the tip of the copy paper is chucked by the chucking mechanism 52 on the transfer drum 51 so that the positional deviation does not occur during transfer.

【0018】図2と図3とにデジタルカラー複写機の制
御系の全体ブロック図を示す。
2 and 3 are block diagrams showing the entire control system of the digital color copying machine.

【0019】イメージリーダ部100はイメージリーダ
制御部101により制御される。イメージリーダ制御部
101は、プラテン15上の原稿の位置を示す位置検出
スイッチ102からの位置信号によって、ドライブI/
0103を介して露光ランプ12を制御し、また、ドラ
ムI/O103およびパラレルI/O104を介してス
キャンモータドライバ105を制御する。スキャンモー
タ11はスキャンモータドライバ105により駆動され
る。
The image reader unit 100 is controlled by the image reader control unit 101. The image reader control unit 101 uses the position signal from the position detection switch 102, which indicates the position of the document on the platen 15, to drive the drive I / O.
The exposure lamp 12 is controlled via 0103, and the scan motor driver 105 is controlled via the drum I / O 103 and the parallel I / O 104. The scan motor 11 is driven by the scan motor driver 105.

【0020】一方、イメージリーダ制御部101は、画
像制御部106とバスにより接続される。画像制御部1
06は、CCDカラーイメージセンサ14および画像信
号処理部20のそれぞれとバスで互いに接続されてい
る。CCDカラーイメージセンサ14からの画像信号
は、後に説明する画像信号処理部20に入力されて処理
される。
On the other hand, the image reader control unit 101 is connected to the image control unit 106 by a bus. Image control unit 1
Reference numeral 06 is connected to each of the CCD color image sensor 14 and the image signal processing unit 20 by a bus. The image signal from the CCD color image sensor 14 is input to the image signal processing unit 20 described later and processed.

【0021】本体部200には、複写動作一般に制御を
行うプリンタ制御部201とプリントヘッド部31の制
御を行うプリントヘッド制御部202とが備えられる。
プリンタ制御部201には、自動濃度制御用の各種セン
サ44、60、203〜205からのアナログ信号が入
力される。また、操作パネル206へのキー入力によっ
て、パラレルI/O207を介して、プリンタ制御部2
01に各種データが入力される。プリンタ制御部201
は、制御用のプログラムが格納された制御ROM208
と各種データが格納されたデータROM209とが接続
される。プリンタ制御部201は、各種センサ44、6
0、203〜205、操作パネル206およびデータR
OM209からのデータによって、制御ROM208の
内容に従って、複写制御部210と表示パネル211と
を制御し、さらに、自動濃度補償制御を行うため、パラ
レルI/O212およびドライブI/O213を介し帯
電チャージャのグリッド電圧発生用高圧ユニット214
および現像器バイアス電圧発生用高圧ユニット215を
制御する。
The main body section 200 is provided with a printer control section 201 for generally controlling the copying operation and a print head control section 202 for controlling the print head section 31.
Analog signals from various sensors 44, 60, 203 to 205 for automatic density control are input to the printer control unit 201. In addition, the printer control unit 2 can be operated via the parallel I / O 207 by a key input on the operation panel 206.
Various data is input to 01. Printer control unit 201
Is a control ROM 208 storing a control program.
And a data ROM 209 in which various data are stored are connected. The printer control unit 201 includes various sensors 44, 6
0, 203-205, operation panel 206 and data R
The data from the OM 209 controls the copy controller 210 and the display panel 211 according to the contents of the control ROM 208, and further, in order to perform automatic density compensation control, the grid of the charger is connected via the parallel I / O 212 and the drive I / O 213. High voltage unit for voltage generation 214
And controlling the developing device bias voltage generating high voltage unit 215.

【0022】プリントヘッド制御部202は、制御RO
M216内に格納されている制御用プログラムに従って
動作し、また、イメージリーダ部100の画像信号処理
部20と画像データバスで接続されており、画像データ
バスを介して入力される画像信号を元にして、γ補正用
変換テーブルの格納されているデータROM217の内
容を参照してγ補正を行い、さらに、階調表現法として
多値化ディザ法を用いる場合はディザ処理を施して、ド
ライブI/O218およびパラレルI/O219を介し
てレーザダイオードドライバ220を制御している。レ
ーザダイオード221はレーザダイオードドライバ22
0によって、その発光が制御される。
The printhead controller 202 controls the control RO
It operates according to the control program stored in M216, and is connected to the image signal processing unit 20 of the image reader unit 100 by the image data bus, and based on the image signal input through the image data bus. Then, the γ-correction is performed by referring to the contents of the data ROM 217 in which the γ-correction conversion table is stored. Further, when the multi-valued dither method is used as the gradation expression method, dither processing is performed, and The laser diode driver 220 is controlled via O218 and parallel I / O219. The laser diode 221 is the laser diode driver 22.
The light emission is controlled by 0.

【0023】また、プリントヘッド制御部202は、プ
リンタ制御部201、画像信号処理部20およびイメー
ジリーダ制御部101とバスで接続されて、互いに同期
がとられる。
The print head control unit 202 is connected to the printer control unit 201, the image signal processing unit 20 and the image reader control unit 101 by a bus and is synchronized with each other.

【0024】図4は、読取部の斜視図を示す。読取部で
は、3波長(R,G,B)の分光分布を備えた光源(ハロゲ
ンランプ)12によって原稿91の面上を照射し、その
反射光をロッドレンズアレー13によって密着型のCC
Dカラーイメージセンサ14の受光面に対しライン状に
等倍結像させる。ロッドレンズアレー13、光源12お
よびCCDカラーイメージセンサ14を含む光学系は、
図1の矢印方向にライン走査され、原稿91の光情報を
CCDカラーイメージセンサ14によって電気信号に変
換する。
FIG. 4 shows a perspective view of the reading unit. In the reading unit, a light source (halogen lamp) 12 having a spectral distribution of three wavelengths (R, G, B) illuminates the surface of the original document 91, and the reflected light is radiated by a rod lens array 13 to form a contact type CC
A linear image is formed on the light receiving surface of the D color image sensor 14 in the same size. The optical system including the rod lens array 13, the light source 12, and the CCD color image sensor 14 is
Line scanning is performed in the direction of the arrow in FIG. 1, and the light information of the original 91 is converted into an electric signal by the CCD color image sensor 14.

【0025】(b)画像信号処理部の構成 図5は、画像信号処理部20のブロック図であり、この
図を参照して、CCDカラーイメージセンサ14から画
像信号処理部20を介してプリントヘッド制御部202
に至る画像信号の処理の流れを説明する。
(B) Structure of Image Signal Processing Unit FIG. 5 is a block diagram of the image signal processing unit 20. Referring to this drawing, the CCD color image sensor 14 through the image signal processing unit 20 print head Control unit 202
The flow of the processing of the image signal leading to is explained.

【0026】画像信号処理部20においては、CCDカ
ラーイメージセンサ14によって光電変換された画像信
号は、A/D変換器61で、赤、緑、青の3原色R,G,
Bの多値デジタル画像データr7〜0,g7〜0,b7〜0
変換される。変換された画像データは、シェーディング
補正部62でシェーディング補正により規格化がされ
る。次に、シェーディング補正がなされた画像データ
は、HVC変換部64において、明度V,彩度W,色調
HのデータV7〜0,W7〜0,H7〜0に変換される。変換
されたデータは、HVCラインメモリインターフェース
66に出力される。
In the image signal processing section 20, the image signal photoelectrically converted by the CCD color image sensor 14 is processed by the A / D converter 61, and the three primary colors R, G, and R of red, green, and blue.
B multi-valued digital image data r7-0 , g7-0 , b7-0 are converted. The converted image data is standardized by shading correction in the shading correction unit 62. Next, the shading-corrected image data is converted by the HVC converter 64 into data V 7-0 , W 7-0 , and H 7-0 of lightness V, saturation W, and color tone H. The converted data is output to the HVC line memory interface 66.

【0027】一方、画像データRS7〜0,GS7〜0,B
7〜0は、原稿91の反射データであるため、濃度変換
部68においてlog変換を行って実際の画像の濃度デー
タDR7〜0,DG7〜0,DB7〜0に変換されて、色補正
部72とRGBラインメモリインターフェース70に出
力される。
On the other hand, image data RS 7-0 , GS 7-0 , B
Since S 7 to 0 are reflection data of the original document 91, log conversion is performed in the density conversion unit 68 to be converted into actual image density data DR 7 to 0 , DG 7 to 0 , DB 7 to 0 , It is output to the color correction unit 72 and the RGB line memory interface 70.

【0028】一方、HVC変換部64から出力されたデ
ータV7〜0,W7〜0,H7〜0は、領域判別部74におい
て、それぞれ、領域とカラーが判別され、UCR/BP
比が色補正部72に出力され、MTFデータと制御パラ
メータNEDG(以下で、Nではじまる信号名で表され
る信号は、負論理の信号を意味する。)がMTF補正部
78に出力される。また、これらのデータV,W,H
は、カラー判別部76においてカラーが判別され、信号
NCCSが色補正部72に出力される。
On the other hand, the data V 7-0 , W 7-0 , and H 7-0 output from the HVC converter 64 are discriminated in the region and color by the region discriminating unit 74, respectively, and the UCR / BP is determined.
The ratio is output to the color correction unit 72, and the MTF data and the control parameter NEDG (hereinafter, a signal represented by a signal name starting with N means a signal of negative logic) is output to the MTF correction unit 78. .. Also, these data V, W, H
Is discriminated by the color discriminating unit 76, and the signal NCCS is output to the color correcting unit 72.

【0029】そして色補正部72において、黒色データ
発生処理とマスキング処理を同時に行う。すなわち、黒
色データを発生し、読取データDR,DG,DBから差
し引くとともに、読取データをシアンC,マゼンタM,イ
エローYの3再現色のデータに変換する。
Then, in the color correction section 72, black data generation processing and masking processing are simultaneously performed. That is, black data is generated and subtracted from the read data DR, DG, and DB, and the read data is converted into three reproduction color data of cyan C, magenta M, and yellow Y.

【0030】さらに、MTF補正部78において、領域
判別部74からの信号に対応してデジタルフィルタを選
択して、最適なスムージング(平滑化)処理またはエッジ
強調処理を行なう。また、色にじみ補正や輪郭抽出がな
される。
Further, in the MTF correction section 78, a digital filter is selected corresponding to the signal from the area discrimination section 74, and optimum smoothing (smoothing) processing or edge enhancement processing is performed. Also, color fringing correction and contour extraction are performed.

【0031】次に、変倍・移動部80において、倍率を
変更する。さらに、カラーバランス部(γ補正部)82
において、カラーバランスを調整し、プリントヘッド制
御部202にデータを出力する。
Next, the scaling / moving section 80 changes the scaling factor. Further, a color balance unit (γ correction unit) 82
At, the color balance is adjusted and the data is output to the print head controller 202.

【0032】なお、図6は、画像信号処理部20のタイ
ミング信号を発生するタイミング制御部84を示す。タ
イミング制御部84は、CCDセンサ14のCCD水平
方向駆動信号、CCD垂直方向駆動信号、A/D変換器
61のデジタル化タイミング信号、および、画像処理基
準信号を発生する。
Note that FIG. 6 shows a timing control section 84 for generating a timing signal for the image signal processing section 20. The timing control unit 84 generates a CCD horizontal driving signal for the CCD sensor 14, a CCD vertical driving signal, a digitizing timing signal for the A / D converter 61, and an image processing reference signal.

【0033】図7は、HVCラインメモリインターフェ
ース66の回路図を示す。HVC変換部64から出力さ
れた画像データV7〜0,W7〜0,H7〜0および明度平均
量VEは、セレクタ100、双方向バッファ102を介
してH,V,Cラインメモリ104に記憶され、また、
双方向バッファ102、バスゲート106を介して、画
像信号処理部20を制御するCPU140(図9参照)
により読み出される。なお、アドレスカウンタ108と
セレクタ110を介して、表1に示すようにH,V,C
ラインメモリ104への書き込みデータの種類とアドレ
スが制御される。
FIG. 7 shows a circuit diagram of the HVC line memory interface 66. The image data V 7 to 0 , W 7 to 0 , H 7 to 0 and the lightness average amount V E output from the HVC conversion unit 64 are transmitted through the selector 100 and the bidirectional buffer 102 to the H, V, C line memory 104. Memorized in
A CPU 140 (see FIG. 9) that controls the image signal processing unit 20 via the bidirectional buffer 102 and the bus gate 106.
Read by. It should be noted that as shown in Table 1, H, V, and C are passed through the address counter 108 and the selector 110.
The type and address of write data to the line memory 104 are controlled.

【0034】[0034]

【表1】 [Table 1]

【0035】図8は、RGBラインメモリインターフェ
ース70の回路図を示す。濃度変換部68から出力され
た画像データDR7〜0,DG7〜0,DB7〜0は、セレク
タ120、双方向バッファ122を介してRGBライン
メモリ124に記憶され、また、双方向バッファ12
2、バスゲート126を介して、CPU140(図9参
照)に読み出される。なお、アドレスカウンタ128と
セレクタ130を介して、表2に示すようにR,G,B
ラインメモリ124への書き込みデータの種類とアドレ
スが制御される。
FIG. 8 shows a circuit diagram of the RGB line memory interface 70. The image data DR 7-0 , DG 7-0 , and DB 7-0 output from the density conversion unit 68 are stored in the RGB line memory 124 via the selector 120 and the bidirectional buffer 122, and the bidirectional buffer 12 is also stored.
2, read by the CPU 140 (see FIG. 9) via the bus gate 126. In addition, as shown in Table 2, R, G, and B are passed through the address counter 128 and the selector 130.
The type and address of write data to the line memory 124 are controlled.

【0036】[0036]

【表2】 [Table 2]

【0037】図9は、CPU周辺回路の回路図を示す。
CPU140は、両ラインメモリインターフェース6
6、70を介して画像データをモニタして、原稿サイズ
の検出、システム異常の検出、CCDセンサ14の信号
の自動調整を行なう。
FIG. 9 shows a circuit diagram of the CPU peripheral circuit.
CPU 140 is a dual line memory interface 6
The image data is monitored via 6 and 70 to detect the document size, detect the system abnormality, and automatically adjust the signal of the CCD sensor 14.

【0038】さらに、画像処理の読取モードや編集モー
ドに応じて、パラメータ信号を設定する。すなわち、デ
コーダ142を介して、3個のパラレルIO回路144
により各種パラメータ信号を画像信号部20の各構成部
分に出力する。
Further, the parameter signal is set according to the reading mode or the editing mode of the image processing. That is, the three parallel IO circuits 144 are passed through the decoder 142.
Then, various parameter signals are output to each component of the image signal unit 20.

【0039】(c)シェーディング補正 シェーディング補正部62は、CCDセンサ14により
読み取られた画像データについて、黒レベルと白レベル
の補正を行なって、次の式により規格化する。
(C) Shading Correction The shading correction unit 62 corrects the black level and the white level of the image data read by the CCD sensor 14 and standardizes it by the following equation.

【0040】 DOUT=(DIN−BK)・255/WH ここに、DINは、原稿読取データr,g,bであり、
WHは、シェーディング基準白色板の読取データであ
り、BKは、CCDセンサ14の黒レベルデータであ
る。この補正は、各色データr,g,b毎に独立して行
われる。
DOUT = (DIN−BK) · 255 / WH where DIN is the original read data r, g, b,
WH is read data of the shading reference white plate, and BK is black level data of the CCD sensor 14. This correction is independently performed for each color data r, g, b.

【0041】BKレベル補正は、CCDセンサ14の各
ドットの下地感度レベルの違いを補正するために行われ
る。このため、入射光が無い状態でCCDセンサ14の
3原色の読取データr,g,bの各データを1ライン分
のラインメモリであるFIFOメモリ162に格納して
おき、原稿読取データDINと差分する。また、この処
理は、デジタル信号上でのオフセット除去も兼ねてい
る。
The BK level correction is performed to correct the difference in the background sensitivity level of each dot of the CCD sensor 14. Therefore, in the absence of incident light, the read data r, g, and b of the three primary colors of the CCD sensor 14 are stored in the FIFO memory 162, which is a line memory for one line, and the difference from the original read data DIN is stored. To do. In addition, this processing also serves as offset removal on the digital signal.

【0042】また、WHレベル補正は、CCDセンサ1
4の感度不均一性やランプなどの光学系の分光分布によ
る主走査のむらを除去するために行われる。このため、
シェーディング基準白色板の読取データWHをFIFO
メモリ182に格納しておき、その逆数を原稿読取デー
タと乗算して補正する。この処理は、CCDセンサ14
の出力の3原色データを規格化する働きをもつため、各
R,G,Bデータが白原稿に対して一定比率になるホワ
イトバランス補正を兼ねている。
The WH level correction is performed by the CCD sensor 1
This is performed in order to eliminate the unevenness of main scanning due to the sensitivity nonuniformity of 4 and the spectral distribution of the optical system such as the lamp. For this reason,
The read data WH of the shading reference white plate is FIFO
It is stored in the memory 182, and its reciprocal is multiplied by the document read data to be corrected. This process is performed by the CCD sensor 14
Since it has a function of standardizing the three primary color data of the output, it also serves as white balance correction in which each R, G, B data has a constant ratio with respect to a white original.

【0043】シェーディング補正における1つの問題点
は、1ラインのサンプリングデータによって、シェーデ
ィング補正用基準データを決定したとき、このサンプリ
ングデータに画像ノイズが含まれていると、補正後の画
像データ上の同一画素位置に常に画像ノイズが現れるこ
とである。
One problem in shading correction is that when the shading correction reference data is determined by the sampling data of one line, and if this sampling data contains image noise, the same on the corrected image data is obtained. This means that image noise always appears at the pixel position.

【0044】画像ノイズの発生する要因は、システム内
の電源ノイズやクロック系のクロストークノイズなど様
々であり、A/D変換前の画像信号に対してS/N比を
悪化させる。これは、A/D変換のダイナミックレンジ
(リファランス電位)が約2.39Vであり、これを8
ビットに量子化すれば、1LSB≒9.3mVという点
にある。
There are various causes of image noise, such as power source noise in the system and clock crosstalk noise, which deteriorates the S / N ratio of the image signal before A / D conversion. This is because the dynamic range (reference potential) of A / D conversion is about 2.39V.
If it is quantized into bits, it is 1 LSB≈9.3 mV.

【0045】そこで複数ライン分のサンプリングデータ
によって補正基準データBK,WHを決定して、画像ノ
イズを軽減することができる。
Therefore, the correction reference data BK and WH can be determined by the sampling data of a plurality of lines to reduce the image noise.

【0046】このため複数ライン分のラインメモリを用
意して補正基準データを決定することが考えられるが、
本発明では、この補正を1ライン分のラインメモリを用
いて、複数ラインのデータの累積平均を求めることによ
り行う。
Therefore, it is conceivable to prepare a line memory for a plurality of lines to determine the correction reference data.
In the present invention, this correction is performed by using the line memory for one line and obtaining the cumulative average of the data of a plurality of lines.

【0047】本実施例では、表3と表4に示すように、
BKレベル補正とWHレベル補正に関して4つのモー
ド、すなわち、初期値モード、データ生成モード、保持
モード、補正モードを備える。これらのモードは、BK
レベル補正とWHレベル補正について各々独立して、C
PU140から出力されるモード選択信号SH0〜3によ
り選択される。
In this embodiment, as shown in Tables 3 and 4,
It has four modes for BK level correction and WH level correction, namely, an initial value mode, a data generation mode, a holding mode, and a correction mode. These modes are BK
For level correction and WH level correction independently, C
It is selected by the mode selection signals SH 0 to 3 output from the PU 140.

【0048】[0048]

【表3】 [Table 3]

【0049】[0049]

【表4】 [Table 4]

【0050】ここで、初期値モードは、1ライン分のラ
インメモリであるFIFOメモリ162,182に初期
値を入力するモードである。
Here, the initial value mode is a mode in which initial values are input to the FIFO memories 162 and 182 which are line memories for one line.

【0051】データ生成モードは、FIFOメモリ内の
データと順次入力される基準データを重み付け平均し、
累積平均により高精度に補正用基準データを生成するモ
ードである。
In the data generation mode, the data in the FIFO memory and the reference data sequentially input are weighted and averaged,
This is a mode in which the correction reference data is generated with high accuracy by the cumulative average.

【0052】補正モードは、データ生成モードで得られ
た補正用基準データを保持しつつ、補正用基準データを
出力して、原稿画像信号に対してBKレベルとWHレベ
ルの補正を行なうモードである。
The correction mode is a mode for outputting the correction reference data while holding the correction reference data obtained in the data generation mode, and correcting the original image signal at the BK level and the WH level. ..

【0053】さらに、保持モードは、補正は行わない
が、生成された補正用基準データを保持するモードであ
る。DRAM構造のラインメモリを用いるためにメモリ
を常にアクセスしておくために用いる。
Further, the holding mode is a mode for holding the generated correction reference data, although no correction is performed. Since the line memory having the DRAM structure is used, it is used to keep the memory always accessed.

【0054】次にシェーディング補正部62の回路につ
いて説明する。シェーディング補正は、1ライン分のメ
モリを用いて複数のラインについて行なう。図10は、
シェーディング補正部62の回路図である。
Next, the circuit of the shading correction section 62 will be described. Shading correction is performed for a plurality of lines using a memory for one line. Figure 10
6 is a circuit diagram of a shading correction unit 62. FIG.

【0055】画像信号DIN7〜0は、第1セレクタ16
0のC端子(初期値モード用)を介して、DRAM構造
のBKレベル用FIFOメモリ162に入力される。さ
らに、FIFOメモリ162の出力は、第1セレクタ1
60のA端子(保持モード、補正モード用)に入力され
る。また、画像信号DIN7〜0は、乗算器164におい
て1/4倍されて加算器166に出力され、FIFOメ
モリ162の出力は、乗算器168において3/4倍さ
れて加算器166に出力され、加算器166はこの両者
の和(重み付け平均)を第1セレクタ160のB端子
(データ生成モード用)に出力する。画像信号DIN
7〜0は、減算器172に入力され、一方、第3セレクタ
170は、FIFOメモリ162の出力または”00”
(補正モード以外の場合のみ)を選択して、減算器17
0に出力する。減算器172は、補正モードにおいての
み、黒レベルBKで補正された画像信号(DIN−B
K)を第2セレクタ180と乗算器192に出力する。
The image signals DIN 7 to 0 are sent to the first selector 16
It is inputted to the BK level FIFO memory 162 of the DRAM structure through the C terminal 0 (for the initial value mode). Furthermore, the output of the FIFO memory 162 is the first selector 1
The signal is input to the A terminal 60 (for holding mode and correction mode). Further, the image signals DIN 7 to 0 are multiplied by ¼ in the multiplier 164 and output to the adder 166, and the output of the FIFO memory 162 is multiplied by 3/4 in the multiplier 168 and output to the adder 166. The adder 166 outputs the sum (weighted average) of both to the B terminal (for the data generation mode) of the first selector 160. Image signal DIN
7 to 0 are input to the subtractor 172, while the third selector 170 outputs the output of the FIFO memory 162 or "00".
Select (only in non-correction mode) to select the subtractor 17
Output to 0. The subtractor 172 receives the image signal (DIN-B) corrected by the black level BK only in the correction mode.
K) is output to the second selector 180 and the multiplier 192.

【0056】この黒レベルで補正された画像信号(DI
N−BK)は、第3セレクタ180のC端子(初期値モ
ード用)を介して、DRAM構造のWHレベル用FIF
Oメモリ182に入力される。さらに、FIFOメモリ
182の出力は、第3セレクタ180のA端子(保持モ
ード、補正モード用)に入力される。また、この画像信
号は、乗算器184において1/4倍されて加算器18
6に出力され、FIFOメモリ182の出力は、乗算器
188において3/4倍されて加算器186に出力され
る。そして、加算器186はこの両者の和(重み付け平
均)を第3セレクタ180のB端子(データ生成モード
用)に出力する。黒レベルBKで補正された画像信号
は、乗算器192に入力され、一方、第4セレクタ19
0は、FIFOメモリ182の出力または”FF”(補
正モード以外の場合)を選択して、WHレベルの値とし
て逆数テーブル194に出力し、逆数テーブル194
は、その逆数(1/WH)を乗算器192に出力する。
乗算器192は、この逆数と黒レベルBKで補正された
画像信号(DIN−BK)とを乗算して、黒レベルBK
と白レベルWHで補正された階調信号DOUTを出力す
る。
The image signal (DI
N-BK) is a WH level FIF of the DRAM structure via the C terminal (for initial value mode) of the third selector 180.
It is input to the O memory 182. Further, the output of the FIFO memory 182 is input to the A terminal (holding mode, correction mode) of the third selector 180. Further, this image signal is multiplied by 1/4 in the multiplier 184 and added to the adder 18
6 and the output of the FIFO memory 182 is multiplied by 3/4 in the multiplier 188 and output to the adder 186. Then, the adder 186 outputs the sum (weighted average) of the both to the B terminal (for the data generation mode) of the third selector 180. The image signal corrected by the black level BK is input to the multiplier 192, while the fourth selector 19
For 0, the output of the FIFO memory 182 or “FF” (in the case other than the correction mode) is selected and output to the reciprocal table 194 as the value of the WH level, and the reciprocal table 194.
Outputs its reciprocal (1 / WH) to the multiplier 192.
The multiplier 192 multiplies this reciprocal by the image signal (DIN-BK) corrected with the black level BK to obtain the black level BK.
And the gradation signal DOUT corrected by the white level WH is output.

【0057】各セレクタ160、170、180、19
0の選択は、モード選択信号SH0,1,SH3,2により行
われる(表3、表4参照)。黒レベル補正において、初
期値モード(SH0,1=0)では、第1セレクタ160
は、C端子での入力を選択し、第3セレクタ170は、
B端子での入力(”00”)を選択する。したがって、
画像信号DIN7〜0は、そのままFIFOメモリ162
に初期値として記憶される。
Each selector 160, 170, 180, 19
The selection of 0 is performed by the mode selection signals SH 0 , 1 , SH 3 and 2 (see Tables 3 and 4). In the black level correction, in the initial value mode (SH 0 , 1 = 0), the first selector 160
Selects the input at the C terminal, and the third selector 170
Select the input (“00”) at the B terminal. Therefore,
The image signals DIN 7 to 0 are directly stored in the FIFO memory 162.
Is stored as the initial value.

【0058】データ生成モード(SH0,1=1)では、
第1セレクタ160は、B端子での入力を選択し、第3
セレクタ170は、B端子での入力(”00”)を選択
する。したがって、重み付け平均された複数ラインの画
像データの平均値画像データがFIFOメモリ162に
補正用基準データとして記憶される。本実施例では、初
期値として入力されるFIFOメモリ162のデータと
順次入力される基準データ(DIN7〜0=BK17〜10
とを3:1の比で重み付け平均する。従って、黒レベル
は、理論的には16ラインで収束していく。
In the data generation mode (SH 0 , 1 = 1),
The first selector 160 selects the input at the B terminal and
The selector 170 selects the input (“00”) at the B terminal. Therefore, the weighted average image data of the image data of a plurality of lines is stored in the FIFO memory 162 as the correction reference data. In this embodiment, the reference data sequentially input the data in the FIFO memory 162 is input as an initial value (DIN 7~0 = BK 17~10)
And are weighted averaged in a ratio of 3: 1. Therefore, the black level theoretically converges on 16 lines.

【0059】補正モード(SH0,1=3)では、第1セ
レクタ160は、A端子での入力を選択し、第3セレク
タ180は、A端子での入力(黒レベルの値)を選択す
る。すなわち、FIFOメモリ162は、補正用基準デ
ータを保持しつつ、減算器172は、原稿画像信号に対
して黒レベルの補正を行なう。
In the correction mode (SH 0 , 1 = 3), the first selector 160 selects the input at the A terminal, and the third selector 180 selects the input at the A terminal (black level value). .. That is, the FIFO memory 162 holds the correction reference data, while the subtractor 172 corrects the original image signal at the black level.

【0060】保持モード(SH0,1=2)では、第1セ
レクタ160は、A端子での入力を選択し、第3セレク
タ170は、B端子での入力(”00”)を選択する。
したがって、補正用基準データは、FIFOメモリ16
2に保持されるが、減算器172は、補正は行わない。
In the hold mode (SH 0 , 1 = 2), the first selector 160 selects the input at the A terminal, and the third selector 170 selects the input at the B terminal (“00”).
Therefore, the correction reference data is stored in the FIFO memory 16
However, the subtractor 172 does not perform correction.

【0061】白レベル補正における各モードにおける動
作も同様に行われる。
The operation in each mode in the white level correction is similarly performed.

【0062】この回路では、ラインメモリとしてFIF
Oメモリ162,182を用いるので、書き込みと読み
出しを独立して行える。
In this circuit, an FIF is used as a line memory.
Since the O memories 162 and 182 are used, writing and reading can be performed independently.

【0063】また、複数ラインのデータの重み付け平均
は、順次入力される補正用規準データに対して1/2n
(n=1,2,…)とすれば、乗算器164,168,
184,188の回路が簡単になる。
The weighted average of the data of a plurality of lines is 1 / 2n with respect to the correction reference data that are sequentially input.
If (n = 1, 2, ...), the multipliers 164, 168,
The circuits 184 and 188 are simplified.

【0064】なお、図11は、このシェーディング補正
部62の黒補正ブロックを詳細に示した図である。図1
1では、さらに詳細に、タイミングを合わせるためのフ
リップフロップ174とFIFOメモリ162の回路も
具体的に示される。ここでフリップフロップ174を用
いてクロックによる同期をとり、ラインメモリ162に
対して入出力データが重み付け平均および規格化補正を
するさいに、(たとえば4個のフリップフロップにより
信号WEを4ドット分遅らして)画素位置がずれないよ
うに調整する。
FIG. 11 is a diagram showing in detail the black correction block of the shading correction section 62. Figure 1
1 further specifically shows the circuits of the flip-flop 174 and the FIFO memory 162 for adjusting the timing. Here, the flip-flop 174 is used for clock synchronization, and when the input / output data is weighted averaged and standardized in the line memory 162 (for example, the signal WE is delayed by 4 dots by four flip-flops). Adjustment) so that the pixel position does not shift.

【0065】また、図12と図13は、図11の(a)
〜(i)点での動作を示すタイミングチャートである。
ここで、a1、a2、a3、…は、順次入力される基準デ
ータであり、f1、f2、f3、…は、第1セレクタ16
0の出力値である。また、(c)は、重み付け平均値で
あり、(i)は、減算器170の出力する補正値であ
る。変形例として、あらかじめ1ライン分の補正用規準
データの平均値をラインメモリに記憶しておき、CPU
がこれを読み出して初期値として設定するようにしても
よい。後で説明するフローでは2回目以降のシェーディ
ング補正では、前回の補正値(すなわち平均値)を初期
値として用いている。この初期値を用いても、収束にや
や時間がかかるが、同様の効果が得られる。
Further, FIG. 12 and FIG. 13 are shown in FIG.
7 is a timing chart showing the operation at points (i) to (i).
Here, a 1 , a 2 , a 3 , ... Are reference data that are sequentially input, and f 1 , f 2 , f 3 , ... Are the first selectors 16.
The output value is 0. Further, (c) is a weighted average value, and (i) is a correction value output by the subtractor 170. As a modification, the average value of the correction reference data for one line is stored in the line memory in advance, and the CPU
May read this and set it as an initial value. In the flow described later, in the second and subsequent shading corrections, the previous correction value (that is, the average value) is used as the initial value. Even if this initial value is used, it takes some time to converge, but the same effect can be obtained.

【0066】なお、入力される原稿情報の色分解データ
ごとに上記のシェーディング補正回路を設けてもよい。
これにより、赤、緑、青が独立して補正できる。
The above shading correction circuit may be provided for each color separation data of the input document information.
This allows red, green, and blue to be corrected independently.

【0067】また、白側または黒側だけこの方法で規準
データを補正してもよい。たとえば白黒画像の場合、白
側だけを補正すればよい。
The reference data may be corrected by this method only on the white side or the black side. For example, in the case of a monochrome image, only the white side needs to be corrected.

【0068】ところで、以上に説明したシェーディング
補正では、BKレベルとWHレベルの両方を独立して補
正していて、各補正データは、複数ラインのデータを累
積平均することによって作成されている。これにより、
高精度の補正が可能である。しかし、この場合、補正デ
ータを作成する時間が、BKレベルの補正データの追
加、累積平均化処理の追加にともない、従来に比べて長
くなってしまう。特に、マルチスチャン時(フルカラー
のC,M,Y,Kの4回のスキャン、複数コピーの場
合)には、補正に要する時間が多いため、露光ランプの
立ち上がり特性なども影響して、コピー作業の障害とな
ってしまう。
By the way, in the shading correction described above, both the BK level and the WH level are corrected independently, and each correction data is created by cumulatively averaging the data of a plurality of lines. This allows
Highly accurate correction is possible. However, in this case, the time for creating the correction data becomes longer than that in the conventional case due to the addition of the BK level correction data and the addition of the cumulative averaging process. Especially, in multi-scan mode (when full-color C, M, Y, K scans four times, multiple copies), it takes a lot of time for correction. Therefore, the rising characteristics of the exposure lamp also affect the copying work. Will be an obstacle.

【0069】そこで次に説明する変形実施例では、マル
チスチャン時には、WHレベル側の補正データの累積平
均処理のみを行なうことで、時間短縮を図った。BKレ
ペルについて、電源投入時の初期化で得られた保持値を
用い、BKレベルの更新を行わないのは、BKレベル側
は、環境条件には左右されず、CCDセンサ14の部品
ばらつきが主な原因であることによる。これに対し、W
Hレベル側は、マルチスチャン時の露光ランプのオン/
オフに伴う周囲温度上昇によってCCDセンサ14の感
度がゆっくり変化していくから、かぶりなどが生じるた
め、補正が必要である。このように補正をすることによ
り、スキャンごとにWHレベル側の補正データが更新さ
れ、感度変化が抑えられる一方で、常に累積平均された
補正データが使用されるので、シェーディング補正が高
精度に行える。
Therefore, in the modified embodiment described next, the time is shortened by performing only the cumulative average processing of the correction data on the WH level side at the time of multi-stian. Regarding the BK level, the holding value obtained by the initialization at the time of power-on is used and the BK level is not updated. The BK level side is not affected by the environmental conditions and the component variation of the CCD sensor 14 is the main factor. Because it is a cause. On the other hand, W
On the H level side, the exposure lamp is turned on / off during multi-scan.
Since the sensitivity of the CCD sensor 14 slowly changes due to an increase in ambient temperature due to turning off, fog or the like occurs, and therefore correction is necessary. By performing the correction in this manner, the correction data on the WH level side is updated for each scan, and the sensitivity change is suppressed, while the correction data that is cumulatively averaged is always used, so that the shading correction can be performed with high accuracy. ..

【0070】図14と図15は、シェーディング補正の
フローを示す。また、これに対応したシェーディング補
正のシーケンスは、図16に示される。
14 and 15 show the flow of shading correction. A shading correction sequence corresponding to this is shown in FIG.

【0071】このフローにおいて、電源が投入される
と、BKレベル補正とWHレベル補正とについて、保持
モードにする(ステップS2)。次に、CCDセンサ1
4を駆動して(ステップS4)、BKレベル補正につい
て初期値モードにし、初期値をFIFOメモリに入力す
る(ステップS6)。次に、BKレベル補正について、
データ生成モードにし(ステップS8)、順次入力され
る基準データを重み付け平均してFIFOメモリ162
に再入力する。平均値が生成されると、次に、BKレベ
ル補正について補正モードにし(ステップS10)、補
正用基準データをWHレベル補正用に出力する。次に、
露光ランプを点灯して、シェーディング補正用の基準白
色板を照射する(ステップS12)。次に、WHレベル
補正について初期値モードにし、基準白色板を読み取
り、初期値としてFIFOメモリ182に入力する(ス
テップS14)。さらに、WHレベル補正について、デ
ータ生成モードにし(ステップS16)、順次入力され
る基準データを重み付け平均してFIFOメモリ182
に再入力する。平均値が生成されると、BKレベル補正
とWHレベル補正について保持モードにし(ステップS
18)、補正値を保持する。そして、露光ランプを消し
て、読取を終了し、CCDセンサ14の駆動を停止して
(ステップS20)、待機する。
In this flow, when the power is turned on, the holding mode is set for the BK level correction and the WH level correction (step S2). Next, the CCD sensor 1
4 is driven (step S4) to set the initial value mode for BK level correction, and the initial value is input to the FIFO memory (step S6). Next, regarding BK level correction,
In the data generation mode (step S8), the sequentially input reference data is weighted and averaged to obtain the FIFO memory 162.
Enter again. When the average value is generated, next, the correction mode is set for the BK level correction (step S10), and the correction reference data is output for the WH level correction. next,
The exposure lamp is turned on to illuminate the reference white plate for shading correction (step S12). Next, the WH level correction is set to the initial value mode, the reference white plate is read, and is input to the FIFO memory 182 as the initial value (step S14). Furthermore, for the WH level correction, the data generation mode is set (step S16), and the sequentially input reference data is weighted and averaged to obtain the FIFO memory 182.
Enter again. When the average value is generated, the holding mode is set for the BK level correction and the WH level correction (step S
18) Hold the correction value. Then, the exposure lamp is turned off, the reading is completed, the driving of the CCD sensor 14 is stopped (step S20), and the process stands by.

【0072】次に、コピーが行われるとき、BKレベル
について、先に求めておいた初期値が用いられる。コピ
ー要求があると(ステップS22でYES)、CCDセ
ンサ14を駆動して(ステップS24)、BKレベル補
正について補正モードにし(ステップS26)、BKレ
ベルの補正用基準データとしてFIFOメモリ162よ
りデータを出力する。そして、露光ランプを点灯してシ
ェーディング基準白色板を読み取り、FIFOメモリ1
62に入力する(ステップS28)。次に、WHレベル
補正について、データ生成モードにし(ステップS3
0)、順次入力される基準データを重み付け平均してF
IFOメモリに再入力する。WHレベル補正について補
正モードにし(ステップS32)、補正用基準データと
してFIFOメモリ182からのデータを出力する。そ
して、原稿を走査し(ステップS34)、読み取りを行
なう。このとき、補正レベルBK,WHを用いてシェー
ディング補正が行われる。そして、露光ランプを消し
て、読み取りを終了する(ステップS36)。
Next, when copying is performed, the initial value previously obtained for the BK level is used. When there is a copy request (YES in step S22), the CCD sensor 14 is driven (step S24) to enter the correction mode for BK level correction (step S26), and the data is read from the FIFO memory 162 as reference data for BK level correction. Output. Then, the exposure lamp is turned on, the shading reference white plate is read, and the FIFO memory 1
It inputs into 62 (step S28). Next, for the WH level correction, the data generation mode is set (step S3
0), weighted average of the sequentially input reference data and F
Re-enter into IFO memory. The correction mode is set for the WH level correction (step S32), and the data from the FIFO memory 182 is output as the reference data for correction. Then, the document is scanned (step S34) and read. At this time, shading correction is performed using the correction levels BK and WH. Then, the exposure lamp is turned off and the reading is finished (step S36).

【0073】次に、マルチスキャンであるか否かを判定
する(ステップS38)。
Then, it is determined whether or not the multi-scan is performed (step S38).

【0074】マルチスキャンであれば、ステップS28
に戻り、再度WHレベルについて補正を行ない、その後
に原稿の読み取りを行なう。
If multi-scan, step S28
Then, the WH level is corrected again, and then the document is read.

【0075】マルチスキャンでなければ、CCDセンサ
14の駆動を停止して(ステップS40)、BKレベル
補正とWHレベル補正とについて、保持モードにし、補
正値BK,WHを保持する。(ステップS42)。そし
て、ステップS22に戻り、次のコピー要求を待つ。
If it is not a multi-scan, the driving of the CCD sensor 14 is stopped (step S40), the holding mode is set for the BK level correction and the WH level correction, and the correction values BK and WH are held. (Step S42). Then, the process returns to step S22 to wait for the next copy request.

【0076】このように、マルチスキャン時には、電源
投入時とは異なったシーケンスで補正用基準データを作
成しているが、補正基準データ作成時間を短縮するため
の他のシーケンスとして、例えば、マルチスキャンにお
ける2回目以降のスキャンにおいてのみ保持している黒
レベル補正基準データを用いてもよい。
As described above, during the multi-scan, the correction reference data is created in a sequence different from that at the time of turning on the power source. However, as another sequence for shortening the correction reference data creation time, for example, the multi-scan is used. The black level correction reference data that is held only in the second and subsequent scans may be used.

【0077】(d)HVC変換部 赤、緑、青の読取データr,g,bは、画像データ処理
に用いるため、色相Hと彩度Wに変換される。
(D) HVC converter Red, green, and blue read data r, g, b are converted into hue H and saturation W for use in image data processing.

【0078】(d−1)R,G,B読み取り位置補正 図17は、CCDセンサ14を図式的に示す。図に示す
ように、CCDセンサ14は、赤(R)、緑(G)、青
(B)の画素を一列に順次配列してなるが、モアレ対策
のために画素を45°傾けている。このため画像のエッ
ジ部では読取位置がR、G、Bの各色データによって異
なるため、色差信号(WR、WB)が正確に分離できな
い。この現象を軽減するために、以下のような式でG画
素を基準に、R、G、B画素の読取位置の補正を行う。
(D-1) R, G, B reading position correction FIG. 17 schematically shows the CCD sensor 14. As shown in the figure, the CCD sensor 14 has red (R), green (G), and blue (B) pixels sequentially arranged in a line, but the pixels are inclined by 45 ° to prevent moire. Therefore, at the edge portion of the image, the reading position is different for each color data of R, G, B, and the color difference signals (WR, WB) cannot be accurately separated. In order to reduce this phenomenon, the read positions of the R, G, and B pixels are corrected with reference to the G pixel by the following formula.

【0079】 Rn=(5/8)rn+(3/8)rn-1n=(3/4)gn+(1/8)(gn-1+gn+1) Bn=(5/8)bn+(3/8)bn+1 ここに、nは画素番号を示す。R n = (5/8) r n + (3/8) r n-1 G n = (3/4) g n + (1/8) (g n-1 + g n + 1 ) B n = (5/8) b n + (3/8) b n + 1 here, n represents shows the pixel numbers.

【0080】こうして読み取った色分解信号R、G、B
に対して、H(色相)、V(明度)、C(彩度)のデー
タに変換する。この変換は後段の画像識別処理(カラー
チェンジ、UCR/BP比自動制御、HTF自動制御、
無彩色エッジ判定)を正確に行うために用いる。比視感
度分布は、緑に比重が高く、C光源、2°視野にて一般
にR:G:B=0.229:0.587:0.114の
比で近似される。明度信号(V)はこの分布から求めら
れる。また、色差信号(H)は、明度信号(V)よりW
B=B−V、WR=R−Vとして求める。従って、V、
WB、WRは以下の行列演算にて算出される。
The color separation signals R, G, B thus read
To H (hue), V (brightness), and C (saturation) data. This conversion is performed by the image identification processing (color change, UCR / BP ratio automatic control, HTF automatic control,
It is used to accurately perform achromatic edge determination). The relative luminous efficiency distribution has a high specific gravity to green, and is generally approximated by a ratio of R: G: B = 0.229: 0.587: 0.114 in a C light source and a 2 ° visual field. The brightness signal (V) is obtained from this distribution. In addition, the color difference signal (H) is more than W than the lightness signal (V).
It is determined as B = B−V and WR = R−V. Therefore, V,
WB and WR are calculated by the following matrix calculation.

【0081】[0081]

【数1】 [Equation 1]

【0082】図18は、上側に示した白と黒の画像の読
み取りデータを示す。中段の読み取ったままのR,G,
Bのデータを、下側の補正後のデータと比較すると、3
色とも変化位置が一致するようになったことが分かる。
これにより、後で説明する色にじみも改善される。
FIG. 18 shows read data of the white and black images shown on the upper side. R, G, as read in the middle row
Comparing the B data with the corrected data on the lower side, 3
It can be seen that the change positions are now in agreement with the color.
This also improves color fringing, which will be described later.

【0083】(d−2)彩度と色相の分離 2つの色差信号WR、WBは、色空間上の色相面の直交
座標軸を示している。これを極座標に変換したとき、図
19のマンセル色票図に示すように色相はうまく分離さ
れ、ベクトルの長さが彩度を示し(中心方向にいくほど
彩度がない)、角度が色相を示すことになる。従って、
彩度信号〔W〕と色相信号〔H〕は、以下の式より算出
される。
(D-2) Separation of saturation and hue The two color difference signals WR and WB indicate the orthogonal coordinate axes of the hue plane in the color space. When this is converted into polar coordinates, the hues are well separated as shown in the Munsell color chart of FIG. 19, the length of the vector indicates the saturation (there is less saturation toward the center), and the angle indicates the hue. Will be shown. Therefore,
The saturation signal [W] and the hue signal [H] are calculated by the following equations.

【0084】 W=(WR 2+WB 21/2 (ただし、W≧256のとき、W=255) H=(256/360)tan-1(WR/WB) (d−3)HVC変換部の回路 図20は、HVC変換部64のブロック図である。位置
補正部(上述の読み取り位置補正をおこなうテーブル)
300は、読取データr、g、bを基に、上に説明した
位置補正演算を行って、3色のデータRS、GS、BS
に変換する。(なお、CCDセンサ14の種類によって
は、読取位置補正は不必要である。)変換されたデータ
はそのまま明度信号Vとして出力される一方、明度・色
差分離部(すなわち数式1の演算を行なうテーブル)3
02において上に説明したように、R、G、Bから明度
Vと、WR、WBに変換される。信号WR、WBは、さらに
彩度抽出回路304で彩度信号Wに変換され、色相抽出
回路306において、色相信号Hに変換される。
W = (W R 2 + W B 2 ) 1/2 (however, when W ≧ 256, W = 255) H = (256/360) tan −1 (W R / W B ) (d-3 ) Circuit of HVC Converter FIG. 20 is a block diagram of the HVC converter 64. Position correction unit (table that performs the above-mentioned reading position correction)
The 300 performs the above-described position correction calculation based on the read data r, g, b, and the three-color data RS, GS, BS.
Convert to. (Note that depending on the type of the CCD sensor 14, reading position correction is unnecessary.) The converted data is output as it is as the lightness signal V, while the lightness / color difference separation unit (that is, the table for performing the calculation of Formula 1). ) 3
As described in 02 above, R, G, and B are converted into lightness V and W R and W B. The signals W R and W B are further converted into a saturation signal W in a saturation extraction circuit 304, and converted into a hue signal H in a hue extraction circuit 306.

【0085】図21は、彩度抽出回路304の回路図で
ある。信号WR、WBはそれぞれ絶対値回路320、3
22で絶対値に変換された後、2乗回路324、326
において2乗された後、加算回路328で加算される。
そして、加算値は、平方根テーブル330により平方根
すなわち彩度Wに変換されて出力される。
FIG. 21 is a circuit diagram of the saturation extraction circuit 304. The signals WR and WB are absolute value circuits 320 and 3 respectively.
After being converted to an absolute value at 22, the squaring circuits 324 and 326 are performed.
After being squared, the addition circuit 328 performs addition.
Then, the added value is converted into a square root, that is, saturation W by the square root table 330, and is output.

【0086】される。また、図22は、色相抽出回路3
06の回路図である。信号WR、WBは、tan-1テー
ブル340において色相信号Hに変換される。
It is done. Further, FIG. 22 shows the hue extraction circuit 3
It is a circuit diagram of 06. The signals WR and WB are converted into the hue signal H in the tan −1 table 340.

【0087】(e)濃度変換部 濃度変換部68においては、CCDカラーイメージセン
サ14の出力データを人間の目から見た原稿濃度(OD)
に対してリニアな特性を有するように変換する。CCD
カラーイメージセンサ14の出力は、入射強度(=原稿
反射率OR)に対してリニアな光電変換特性を有してい
る。一方、原稿反射率(OR)と原稿濃度(OD)とは、−
logOR=ODなる関係がある。そこで、反射率/濃度
変換テーブルを用いて、CCDカラーイメージセンサ1
4の非線形な読取特性をリニアな特性に変換する。
(E) Density Converting Section In the density converting section 68, the output density of the CCD color image sensor 14 is the original density (OD) as seen by human eyes.
To have a linear characteristic. CCD
The output of the color image sensor 14 has a photoelectric conversion characteristic that is linear with respect to the incident intensity (= original reflectance OR). On the other hand, the document reflectance (OR) and the document density (OD) are −
There is a relation of logOR = OD. Therefore, using the reflectance / density conversion table, the CCD color image sensor 1
The non-linear reading characteristic of 4 is converted into a linear characteristic.

【0088】図23は、濃度変換部68の回路図であ
る。赤、緑、青の画像データRS、GS、BSおよび明
度信号Vは、濃度変換テーブル360により、それぞれ
濃度データRL、GL、BL、VLに変換される。
FIG. 23 is a circuit diagram of the density converter 68. The red, green, and blue image data RS, GS, BS and the brightness signal V are converted into density data RL, GL, BL, VL by the density conversion table 360, respectively.

【0089】この濃度変換後に、さらに、ネガポジ反転
選択用のネガポジ反転回路362において、データD
R、DG、DBに対してネガ出力するかポジ出力するか
を選択する。このネガポジ反転回路362は、濃度信号
をそのまま出力するか(B出力)インバータによる反転
出力(A出力)を出力するかを指定する制御信号NNE
GA(LでA出力)により選択する。A出力が選択され
ると入力データは反転される。さらに、このネガポジ反
転回路362の出力と”00”とは、セレクタ364
で、有効原稿画素エリア信号NHD1により選択され
る。すなわち、原稿の読み取りを行なうエリアの外で
は、ネガ/ポジ出力に無関係に、出力を白
After this density conversion, the data D is further processed in the negative / positive inversion circuit 362 for selecting the negative / positive inversion.
Select negative output or positive output for R, DG, and DB. The negative / positive inversion circuit 362 is a control signal NNE for designating whether to output the density signal as it is (B output) or the inverted output (A output) by the inverter.
Select by GA (A output at L). When the A output is selected, the input data is inverted. Furthermore, the output of the negative / positive inversion circuit 362 and "00" are the same as the selector 364.
Is selected by the effective original pixel area signal NHD1. That is, outside the area where the original is read, the output is white regardless of the negative / positive output.

〔00〕にす
る。
Set to [00].

【0090】なお、明度データVは、モノカラー濃度デ
ータDVに変換される。
The lightness data V is converted into the monocolor density data DV.

【0091】(f)領域判別部 後で説明するように、色補正部72ではUCR/BP比
により黒再現性と色の彩やかさの制御を行い、また、縁
取り処理を行なう。また、MTF補正部78では、エッ
ジ強調処理を行なう。これらの処理は画像の性質に応じ
て制御されねばならない。そこで、領域判別部74で
は、HVC変換により得られたデータを基に、彩度デー
タによるUCR/BP比自動制御、明度変化量によるエ
ッジ量自動制御、および、無彩色エッジ部の特殊処理
(色にじみ補正)について制御値の設定や領域判別を行
い、その結果を色補正部72とMTF補正部78に送
る。
(F) Area Discriminating Section As will be described later, the color correcting section 72 controls black reproducibility and color saturation and color according to the UCR / BP ratio, and also performs border processing. Further, the MTF correction unit 78 performs edge enhancement processing. These processes must be controlled according to the nature of the image. Therefore, in the area discrimination unit 74, based on the data obtained by the HVC conversion, the UCR / BP ratio automatic control by the saturation data, the edge amount automatic control by the brightness change amount, and the special processing (color The control value is set and the area is discriminated, and the result is sent to the color correction unit 72 and the MTF correction unit 78.

【0092】図24は、画像信号処理部20の領域判別
に関連する部分を簡略に示したブロック図である。画像
データは、濃度変換部で赤、緑、青の濃度データDR,
DG,DBに変換されるとともに、HVC変換部64で
明度Vと彩度Wに変換される。明度信号Vは、エッジ検
出部でエッジ検出に用いられ、そのエッジ量はエッジ判
定部で判定に用いられ、その結果は、色にじみ補正用テ
ーブル620に送られる。また、エッジ量は、MTF制
御テーブル412においてMTFdataAに変換され
乗算器622に入力される。
FIG. 24 is a block diagram schematically showing a portion related to the area discrimination of the image signal processing unit 20. The image data is the density conversion unit for the red, green, and blue density data DR,
In addition to being converted into DG and DB, the HVC conversion unit 64 converts into lightness V and saturation W. The lightness signal V is used for edge detection by the edge detection unit, the edge amount is used for determination by the edge determination unit, and the result is sent to the color-blurring correction table 620. Further, the edge amount is converted into MTFdataA in the MTF control table 412 and input to the multiplier 622.

【0093】MIN検出部において検出された濃度デー
タのMIN値は、UCR/BP処理部72に送られる。
一方、信号Wは、平滑化フィルタ430により平滑され
た後、その結果に対応して、UCR/BP制御テーブル
432からUCR/BP比がUCR/BP処理部72に
送られる。こうして決定されたUCR/BP比を用い
て、赤、緑、青の濃度データDR,DG,DBがマスキ
ング処理部においてシアンM,マゼンタC,イエロー
Y,ブラックKの信号に変換される。
The MIN value of the density data detected by the MIN detector is sent to the UCR / BP processor 72.
On the other hand, after the signal W is smoothed by the smoothing filter 430, the UCR / BP ratio is sent from the UCR / BP control table 432 to the UCR / BP processing unit 72 in accordance with the result. Using the UCR / BP ratio thus determined, the red, green and blue density data DR, DG and DB are converted into cyan M, magenta C, yellow Y and black K signals in the masking processing section.

【0094】一方、MIN値は、無彩色判定部442に
送られて、平滑された彩度信号Wについて無彩色か否か
の判定に用いられ、その結果が色にじみ補正テーブル6
20に送られる。
On the other hand, the MIN value is sent to the achromatic color determining section 442 and used for determining whether or not the smoothed saturation signal W is an achromatic color, and the result is the color fringing correction table 6
Sent to 20.

【0095】色にじみ補正用テーブル620では、信号
C,M,Y,Kのラプラシアンフィルタ610による2
次微分値が、無彩色判定の結果とエッジ判定の結果とに
対応して補正され、その補正値が、MTF制御テーブル
412の出力値と乗算され、さらに平滑された信号C,
M,Y,Kと加算器608で加算されて、出力される。
In the color fringing correction table 620, the signals C, M, Y, and K of the Laplacian filter 610 are used for the 2
The secondary differential value is corrected corresponding to the result of the achromatic color determination and the result of the edge determination, the corrected value is multiplied by the output value of the MTF control table 412, and the smoothed signal C,
The M, Y, and K are added by the adder 608 and output.

【0096】なお、図25は、モノクロモードの場合の
MTF自動制御のための領域判別に関連する部分を簡略
に示したブロック図である。赤、緑、青の読み取りデー
タは、1次微分フィルタ400,402と絶対値検出回
路404,406によりエッジ成分が検出され、その値
がMTF制御テーブル412によりMTFdataAに
変換される。
FIG. 25 is a block diagram schematically showing a portion related to area discrimination for MTF automatic control in the monochrome mode. The red, green, and blue read data have their edge components detected by the primary differential filters 400 and 402 and the absolute value detection circuits 404 and 406, and the values are converted into MTFdataA by the MTF control table 412.

【0097】(f−1)領域判別部の回路 図26と図27は領域判別部74の回路図である。濃度
変換部68からの明度データVは、主走査方向の1次微
分フィルタ400と副走査方向の1次微分フィルタ40
2によりそれぞれエッジ成分が検出され、さらに絶対値
検出回路404、406により絶対値が検出された後
に、それぞれの絶対値が平均化回路410に入力され
て、平均値VEが出力される。この平均値VEは、シャー
プネス設定値SHARP5〜3とともにMTF制御テーブ
ル412によりMTFdataAに変換される。
(F-1) Circuit of Area Discriminating Section FIGS. 26 and 27 are circuit diagrams of the area discriminating section 74. The lightness data V from the density converter 68 is the primary differential filter 400 in the main scanning direction and the primary differential filter 40 in the sub scanning direction.
After the edge components are detected by 2 and the absolute values are detected by the absolute value detection circuits 404 and 406, the respective absolute values are input to the averaging circuit 410 and the average value V E is output. This average value V E is converted into MTF dataA by the MTF control table 412 together with the sharpness setting values SHARP 5 to 3 .

【0098】2つの絶対値は、また、コンパレータ42
0、422に入力されて、しきい値REFと比較され
る。そして、いずれかがしきい値REFより大きけれ
ば、ORゲート424を介してエッジ信号NEDが出力
される。エッジ信号NEDは、EGEN1信号が出力さ
れているとき、ANDゲート426を介してNWAKU
信号を出力する。また、彩度信号Wは、平滑化フィルタ
430を通って平滑化されて信号WSとして出力され、
さらに、UCR/BP制御テーブル432によりUCR
/BPdataに変換される。
The two absolute values are also compared by the comparator 42
0, 422 and is compared with a threshold value REF. Then, if either is larger than the threshold value REF, the edge signal NED is output via the OR gate 424. The edge signal NED is output through the AND gate 426 as NWAKU when the EGEN1 signal is output.
Output a signal. Further, the saturation signal W is smoothed through the smoothing filter 430 and output as a signal WS,
In addition, the UCR / BP control table 432 allows the UCR
/ BPdata.

【0099】さらに、色補正部72からの最小値データ
MINは、BKレベルリファレンステーブル440を介
してBKレベル(D)に変換され、このBKレベルは、
平滑化フィルタ430で平滑化された信号WSとコンパ
レータ432で比較される。BKレベルの方が大きいと
きは、黒エッジであるので信号NBKが出力される。こ
の信号NBKは、エッジ信号NEDがORゲート424
から出力されているとき、ANDゲート434からもう
1つのANDゲート436に出力される。そして、NW
AKU信号(縁取り編集エリア)、NCH信号(カラー
チェンジ編集エリア)、NMONO信号(モノカラー編
集エリア)が出力されていないときに、NED信号が出
力され、かつカラーモード信号NCMY/K信号が出力
されていれば、ANDゲート444、NANDゲート4
46、ANDゲート448を介して、無彩色エッジ判定
信号NEDGを出力する。
Further, the minimum value data MIN from the color correction unit 72 is converted into a BK level (D) via the BK level reference table 440, and this BK level is
The signal WS smoothed by the smoothing filter 430 is compared with the comparator 432. When the BK level is higher, the signal NBK is output because it is a black edge. The edge signal NED is the OR gate 424 of this signal NBK.
Is output from the AND gate 434 to the other AND gate 436. And NW
When the AKU signal (outline editing area), NCH signal (color change editing area) and NMONO signal (mono color editing area) are not output, the NED signal is output and the color mode signal NCMY / K signal is output. If so, AND gate 444 and NAND gate 4
46, and outputs an achromatic color edge determination signal NEDG via the AND gate 448.

【0100】BKレベルレフェレンステーブル440
は、各補正部で検出されるDR,DG,DBん最小値を
入力したときに、図28に示すようにWSの2値化レベ
ルを決定する。セルフォックレンズの色収差によって、
入射されるR,G,Bの焦点深度が異なることから、空
間周波数の高い無彩色原稿では、色差信号WR,WBが
通常より大きくなる。したがって、黒レベル出力である
最小値MINに応じて2値化レベルを制御するのであ
る。
BK level reference table 440
Determines the WS binarization level as shown in FIG. 28 when the minimum values of DR, DG, and DB detected by the respective correction units are input. Due to the chromatic aberration of the SELFOC lens,
Since the incident depths of focus of R, G, and B are different, the color difference signals WR and WB are larger than usual in an achromatic original having a high spatial frequency. Therefore, the binarization level is controlled according to the minimum value MIN which is the black level output.

【0101】上記の1次微分フィルタ400、402
は、図29に示すような構成を有する。すなわち、連続
する4本のラインのデータがラインメモリ414a,4
14b,414c,414dに順次格納される。さら
に、5本目のラインのデータが入力されるとき、図にし
めすように5×5=25の画素のデータについて1次微
分フィルタ400、402について演算が行われる。こ
こで、主走査方向のフィルタ400では、主走査方向の
両端でのみ図に示した数値が乗算され、その結果が加算
される。これにより5×5の画素の中心の注目画素につ
いて、主走査方向の1次微分の値(エッジ量)VHが得
られる。もう1つのフィルタ402についても、副走査
方向のエッジ量VVについて同様な演算がなされる。
The above first-order differential filters 400 and 402
Has a configuration as shown in FIG. That is, the data of four consecutive lines is stored in the line memories 414a, 4a.
Sequentially stored in 14b, 414c and 414d. Further, when the data of the fifth line is input, as shown in the figure, the first-order differential filters 400 and 402 are operated on the data of 5 × 5 = 25 pixels. Here, in the filter 400 in the main scanning direction, the numerical values shown in the figure are multiplied only at both ends in the main scanning direction, and the results are added. As a result, the value (edge amount) V H of the primary differential in the main scanning direction is obtained for the pixel of interest at the center of the 5 × 5 pixel. With respect to the other filter 402, the same calculation is performed on the edge amount V V in the sub-scanning direction.

【0102】また、色補正部72からのW信号を平滑化
する平滑化フィルタ430は、図30に示すような構成
を有する。すなわち、連続する3本のラインのデータが
ラインメモリ434a,434b,434cに順次格納
される。そして、これらのデータについて、図にしめす
ように3×3のデータについて平滑化フィルタ430に
ついて演算が行われる。ここで、図に示した数値が乗算
され、その結果が加算される。これにより3×3=9の
画素の中心の注目画素について、平滑化された値WSが
得られる。
Further, the smoothing filter 430 for smoothing the W signal from the color correction section 72 has a structure as shown in FIG. That is, the data of three consecutive lines are sequentially stored in the line memories 434a, 434b, 434c. Then, with respect to these data, the smoothing filter 430 is operated on the 3 × 3 data as shown in the figure. Here, the numerical values shown in the figure are multiplied and the results are added. As a result, the smoothed value WS is obtained for the target pixel at the center of the 3 × 3 = 9 pixels.

【0103】(f−2)下色除去/墨加刷自動制御 後で説明するように、色補正部72では、黒データK'
としてK’=MIN(DR,DG,DB)を検出する。そし
て、3色の読取濃度データDR,DG,DBよりα・
K’を減算し、黒データKを作成するときは、β・K’
をK量として出力する。ここに、αは、UCR比であ
り、黒量を決定する。βは、BP比であり、色データを
低くする。UCR比/BP比は有彩色の彩度と無彩色の
鮮明度に対して影響を持つ。
(F-2) Undercolor Removal / Black Printing Automatic Control As will be described later, in the color correction section 72, the black data K '
As K '= MIN (DR, DG, DB) is detected. Then, from the read density data DR, DG, and DB of the three colors, α ·
When subtracting K'to create black data K, β · K '
Is output as the K amount. Here, α is the UCR ratio and determines the black amount. β is the BP ratio and lowers the color data. The UCR ratio / BP ratio has an influence on the saturation of chromatic colors and the sharpness of achromatic colors.

【0104】色補正部72におけるUCR比/BP比
は、色再現性について以下のようなトレードオフの関係
がある。すなわち、黒の再現性は、UCR比/BP比
(−α/β)をそれぞれ大きくすれば純粋な黒K'で再現
されるので向上する反面、有彩色の彩やかさはK'の出
力比が高くなるために低下してしまう。UCR比/BP
比が100%に近づくほど下色を除去した後の画像デー
タDR,DG,DBの振幅が極端に小さくなり、信号誤
差が無視できなくなり、有彩色の画像ノイズが無視でき
なくなる。したがって、有彩色原稿時には0%に近いほ
うに、無彩色原稿時には100%に近いほうになるよう
に、原稿彩度に応じてUCR比/BP比を制御すること
によって、無彩色の鮮明度の向上と有彩色の彩度の向上
とを両立でき、理想的な色再現処理がおこなえる。
The UCR ratio / BP ratio in the color correction section 72 has the following trade-off relationship with respect to color reproducibility. That is, the reproducibility of black is the UCR ratio / BP ratio.
When (−α / β) is increased, the reproduction is made in pure black K ′, which is improved. On the other hand, the chromatic color saturation is decreased because the output ratio of K ′ is increased. UCR ratio / BP
As the ratio approaches 100%, the amplitude of the image data DR, DG, and DB after the undercolor is removed becomes extremely small, the signal error cannot be ignored, and the chromatic image noise cannot be ignored. Therefore, by controlling the UCR ratio / BP ratio in accordance with the document saturation so that it is closer to 0% for a chromatic original and closer to 100% for an achromatic original, the sharpness of the achromatic color is controlled. Both improvement and saturation of chromatic colors can be achieved, and ideal color reproduction processing can be performed.

【0105】しかし、カラー画像の場合、単に読み取り
データから得られた黒量K’についてUCR比/BP比
を設定したのでは、色相、彩度の変化に対しても画像濃
度は変化するため、このような処理は、必ずしもうまく
作用しない。たとえば、白から赤に変化する場合、エッ
ジを強調してもよいが、赤からシアンへ変化する場合、
エッジで色相が変に変化してしまうので、エッジを強調
しない方がよい。肌色などは特に影響が大きい。従っ
て、画像明度の変化のみをうまく抽出して制御しなけれ
ばならない。そこで本実施例では、彩度データを用いて
UCR/BP処理を行なう。
However, in the case of a color image, if the UCR ratio / BP ratio is simply set for the black amount K'obtained from the read data, the image density changes with changes in hue and saturation. Such processing does not always work well. For example, if you change from white to red, you may emphasize the edges, but if you change from red to cyan,
It is better not to emphasize the edges, because the hue changes strangely at the edges. The skin color has a particularly large effect. Therefore, it is necessary to extract and control only the change in image brightness. Therefore, in this embodiment, the UCR / BP processing is performed using the saturation data.

【0106】彩度信号Wは、画像エッジ部での極端なデ
ータ変化を抑えるために3×3のスムージングフィルタ
に入力され、平滑化される。次に、平滑された彩度信号
WSは、図31に示すようにUCR/BP制御テーブル
432により、UCR/BPデータDB7〜0に変換さ
れ、色補正部72に出力される。すなわち、UCR/B
Pdataは、彩度信号WSの大きさに対して、信号が
0に近いところを除いて、0%から100%の間で直線
的に変化させる。
The saturation signal W is input to a 3 × 3 smoothing filter and smoothed in order to suppress an extreme change in data at the image edge portion. Next, the smoothed saturation signal WS is converted into UCR / BP data DB 7-0 by the UCR / BP control table 432 as shown in FIG. 31 and output to the color correction unit 72. That is, UCR / B
Pdata is linearly changed between 0% and 100% with respect to the magnitude of the saturation signal WS, except where the signal is close to zero.

【0107】色補正部72では、後で説明するように、
マスキング処理を併せてUCR/BP自動処理が行われ
る。
In the color correction section 72, as will be described later,
UCR / BP automatic processing is performed together with masking processing.

【0108】(f−3)エッジ強調自動制御 画像の濃淡感覚は、入射される光強度に対して−log
特性を有する。しかし、画像のエッジ部では、(濃度で
はなく)明度の変化量に対して反応しているため、濃度
変換後のデータに対してエッジ強調処理を行なうと、以
下のような問題点が生じる。すなわち、文字/細線のエ
ッジ部のデータが濃度変換前より滑らかな変化になるた
め、十分なエッジ強調が行われない。また、高濃度側で
のデータ変化が大きく、エッジとして検出されやすいた
め、画像ノイズまで強調される。これは、−log特性
の傾きが低濃度側で小さく、高濃度側で大きいことに起
因する。
(F-3) Edge enhancement automatic control The sense of light and shade of the image is -log with respect to the incident light intensity.
Has characteristics. However, since the edge portion of the image responds to the amount of change in lightness (not the density), the following problems occur when the edge emphasis processing is performed on the data after density conversion. That is, since the data of the edge portion of the character / thin line changes more smoothly than before the density conversion, sufficient edge enhancement cannot be performed. Further, since the data change on the high density side is large and is easily detected as an edge, image noise is also emphasized. This is because the slope of the −log characteristic is small on the low density side and large on the high density side.

【0109】また、フルカラー画像では、色補正後のデ
ータに対して処理したとき、エッジ強調処理によって色
相変化を起こす。
Further, in the case of a full-color image, when the color-corrected data is processed, a hue change is caused by the edge emphasis processing.

【0110】したがって、画像の明度成分の変化量を検
出し、その検出量に応じて後段での各C,M,Y,Kデ
ータのエッジ強調量を制御すれば、上述した問題点は軽
減される。
Therefore, if the change amount of the lightness component of the image is detected and the edge emphasis amount of each C, M, Y, K data in the subsequent stage is controlled according to the detected amount, the above-mentioned problems can be alleviated. It

【0111】そこで、まず、R,G,Bの読み取りデー
タを明度Vに変換し、明度データ(V7〜0)を主、副の
両走査方向に対する1次微分フィルタ400、402に
入力し、各方向の変化量を抽出し、絶対値に変換した後
で平均値(VE7〜O)を求める。その結果を、図32に
示すようなMTF制御テーブル412においてMTFデ
ータA(D7〜0)に変換し、後段のMTF補正部78へ
入力する。ここで、信号SHARP5〜3は、テーブルの
BANK信号であり、シャープネス信号によって強調量
を可変にする。図32には、SHARP=”7”の場合
に1.75倍とし、SHARP=”0”の場合に0.2
5倍とした例を示している。すなわち、エッジ量の絶対
値の平均値VEは、信号が0の近くを除いて直線的にM
TFdataAに変換される。
Therefore, first, the read data of R, G, and B is converted into the lightness V, and the lightness data (V 7 to 0 ) is input to the primary differential filters 400 and 402 for both the main and sub scanning directions, The amount of change in each direction is extracted, converted into an absolute value, and then the average value (V E7 to O ) is obtained. The result is converted into MTF data A (D 7 to 0 ) in the MTF control table 412 as shown in FIG. 32 and input to the MTF correction unit 78 at the subsequent stage. Here, the signals SHARP 5 to 3 are BANK signals of the table, and the amount of emphasis is made variable by the sharpness signal. In FIG. 32, it is 1.75 times when SHARP = “7” and 0.2 when SHARP = “0”.
An example in which the magnification is 5 times is shown. That is, the average value V E of the absolute value of the edge amount is linearly M except that the signal is close to 0.
Converted to TFdataA.

【0112】図33は、上側に示した原画像を中心のラ
インで読み取ったときの明度分布と、これに対応した1
次微分フィルタ502の出力および絶対値検出回路40
4の出力するその絶対値を示す。この絶対値は平均処理
の後、適当なSHARP設定値に対応したMTFdat
aAに変換されてMTF補正部78に送られ、そこで
C,M,Yの濃度PDの分布のラプラシアンフィルタ6
00の出力との乗算によりエッジ強調が行われる。
FIG. 33 shows the lightness distribution when the original image shown on the upper side is read at the center line, and 1 corresponding to this.
Output of second derivative filter 502 and absolute value detection circuit 40
4 shows the absolute value output by 4. After this averaging, this absolute value is the MTFdat corresponding to the appropriate SHARP setting value.
It is converted to aA and sent to the MTF correction unit 78, where the Laplacian filter 6 of the distribution of C, M, and Y density PDs is provided.
Edge multiplication is performed by multiplication with the output of 00.

【0113】(f−4)無彩色エッジ部の判定 フルカラー画像の黒文字あるいは黒細線の再現性を向上
させるには、無彩色エッジ部での色にじみを防止すると
よい。つまり、無彩色エッジ部では、C,M,Yデータ
を消去し、Kデータのみエッジ強調すれば、エッジ部で
の色にじみは解消される。第1に、|VH7〜0|,|V
V7〜0|をしきい値データREFによって2値化し、コ
ンパレータ420、422により主、副のいずれかの走
査方向でエッジ部の有/無を判定する(NED=”L”
で有)。
(F-4) Determination of achromatic color edge portion In order to improve the reproducibility of black characters or black fine lines in a full-color image, it is preferable to prevent color fringing at the achromatic color edge portion. That is, if the C, M, and Y data are erased in the achromatic edge portion and only the K data is edge-emphasized, the color blurring in the edge portion is eliminated. First, | V H7-0 |, | V
V7-0 | is binarized by the threshold value data REF, and the presence / absence of the edge portion is determined by the comparators 420 and 422 in either the main scanning direction or the sub scanning direction (NED = "L").
Yes).

【0114】第2に、信号WSをBKレベルリファレン
ステーブル440の出力とコンパレータ442により比
較して2値化し、無彩色か否かを判定する(NBK=”
L”で無彩色)。
Secondly, the signal WS is binarized by comparing it with the output of the BK level reference table 440 by the comparator 442 to judge whether it is an achromatic color (NBK = "
(L is achromatic).

【0115】第3に、NED=”L”かつNBK=”
L”(無彩色エッジ部)のときにのみ、MTF補正部7
8で特殊な処理(色にじみ補正)をおこなうため、AN
Dゲート444を介して無彩色エッジ判定信号NEDG
=”L”を出力する。
Thirdly, NED = "L" and NBK = ""
Only when L ″ (achromatic edge portion), the MTF correction unit 7
Since special processing (color fringing correction) is performed in step 8,
Achromatic edge determination signal NEDG via D gate 444
= “L” is output.

【0116】なお、、モノカラー編集エリア(NMON
O=”L”)、カラーチェンジ編集エリア(NCH=”
L”)、縁取り編集エリア(NWAKU=”L”)のい
ずれかに該当したとき、NANDゲート446、AND
ゲート448により無彩色エッジ判定信号NEDGを取
り消す。(これは、編集エリア内での色にじみ補正によ
る影響を出さないためである。)後で説明するように、
色補正部72で再現用色分解データがKであるとき、M
TF補正部78での色にじみ補正は、通常のエリア強調
処理を行なうから、色信号NCMY/K信号が”L”の
ときのみ、この無彩色エッジ判定信号NEDGは許可さ
れる。(NED=”L”は、画像のエッジ部を示してい
るから、縁取り編集エリア信号としてNWAKUを出力
する。ここで、ANDゲート426への信号NEGEN
1は、縁取り編集用許可信号である。) (g)色補正 フルカラー再現に必要なシアン、マゼンタ、イエロー、
黒の各色データC',M',Y',K'は、面順次方式によっ
て1スキャン毎に作成され、計4回のスキャンによりフ
ルカラーを再現する。ここで、黒の印字も行うのは、シ
アン,マゼンタ,イエローを重ね合わせて黒を再現して
も、各トナーの分光特性の影響により鮮明な黒の再現が
難しいためである。そこで、本フルカラー複写機では、
データY',M',C'による減法混色法と黒データK'によ
る墨加刷によって、黒の再現性を向上し、フルカラーを
実現する。
Incidentally, the mono-color editing area (NMON
O = “L”), color change edit area (NCH = ”
L ") and the border editing area (NWAKU =" L "), the NAND gate 446, AND
The achromatic edge determination signal NEDG is canceled by the gate 448. (This is because it does not affect the color fringing correction in the editing area.) As described later,
When the reproduction color separation data is K in the color correction unit 72, M
Since the color fringing correction in the TF correction unit 78 is a normal area enhancement process, the achromatic edge determination signal NEDG is permitted only when the color signal NCMY / K signal is "L". (NED = "L" indicates the edge portion of the image, so NWAKU is output as the border editing area signal. Here, the signal NEGEN to the AND gate 426 is output.
1 is a border editing permission signal. ) (G) Color correction Cyan, magenta, yellow, necessary for full color reproduction
The black color data C ′, M ′, Y ′, and K ′ are created for each scan by the frame sequential method, and a full color is reproduced by a total of four scans. Here, the reason why black is also printed is that even if cyan, magenta, and yellow are superimposed to reproduce black, it is difficult to reproduce clear black due to the influence of the spectral characteristics of each toner. So with this full-color copier,
By the subtractive color mixture method using the data Y ′, M ′, and C ′ and the black printing using the black data K ′, the black reproducibility is improved and full color is realized.

【0117】(g−1)UCR/BP自動処理 色補正部72は、原稿上の明るさを表す赤、緑、青の成
分DR,DG,DBから黒量Kを以下のように求める。濃
度変換部68から得られるDR,DG,DBは、R,G,B
成分の各濃度データであるから、CCDセンサ14によ
る読取におけるR,G,Bの各補色であるシアン、マゼン
タ、イエローの成分C',M',Y'に一致している。従っ
て、図34に示すように、DR,DG,DBの最小値は、
原稿上のC',M',Y'が色重ねされた成分であるから、
黒データK'としてよい。そこで、色補正部72では、
黒データK'=MIN(DR,DG,DB)を検出する。
(G-1) UCR / BP automatic processing The color correction unit 72 obtains the black amount K from the red, green and blue components DR, DG and DB representing the brightness on the original as follows. DR, DG, and DB obtained from the density conversion unit 68 are R, G, and B.
Since these are density data of each component, they coincide with cyan, magenta, and yellow components C ′, M ′, and Y ′, which are complementary colors of R, G, and B in reading by the CCD sensor 14. Therefore, as shown in FIG. 34, the minimum values of DR, DG, and DB are
Since C ', M', and Y'on the manuscript are color-superposed components,
The black data K'may be used. Therefore, in the color correction unit 72,
The black data K '= MIN (DR, DG, DB) is detected.

【0118】そして、再現色データC,M,Yを作成する
時には、データK'を用い、C',M',Y'のデータよりα
・K'を減算し、黒データKを作成するときは、β・K'
をK量として出力する。ここに、αは、後で説明するU
CR(下色除去)比であり、βは、BP(黒加刷)比であ
り、これらは、すでに(f−2)で説明したように、
赤、緑、青の濃度データDR,DG,DBから直接にで
はなく、これらの値のHVC変換により得られた彩度デ
ータWSを基に領域判別部74で設定される(図31参
照)。
Then, when the reproduction color data C, M, Y are created, the data K'is used, and α is obtained from the data of C ', M', Y '.
・ When subtracting K'to create black data K, β ・ K '
Is output as the K amount. Here, α is U which will be described later.
CR (undercolor removal) ratio, β is BP (black printing) ratio, and these are as described in (f-2) above.
It is set not by the red, green, and blue density data DR, DG, and DB directly, but by the area discrimination unit 74 based on the saturation data WS obtained by HVC conversion of these values (see FIG. 31).

【0119】さらに、低濃度側での彩度を向上されるた
めに、α、βを乗算する前に、あるレベルd1、d2(K
カットdata)をMIN(DR,DG,DB)より差
分し、UCR/BP処理を行っている。
Furthermore, in order to improve the saturation on the low density side, before multiplication by α and β, certain levels d 1 and d 2 (K
The cut data) is subtracted from MIN (DR, DG, DB) and UCR / BP processing is performed.

【0120】(g−2)マスキング処理 さらに、色補正部72は、CCDカラーイメージセンサ
14内の各フィルタR,G,Bの透過特性とプリンタ部の
各トナーC,M,Yの反射特性を補正し、色再現性が理想
に近い特性にマッチングさせる。GフィルタとMトナー
を例にとって説明すると、図35の透過特性と図36の
反射特性にそれぞれ示すように、GフィルタとMトナー
の各特性は、理想的な特性に比べ、斜線部に示すような
非理想的な波長領域が存在する。そこで、この補正をす
るために、先に説明したUCR/BP処理と合わせて、
次のマスキング方程式による線形補正を行なう。
(G-2) Masking Process Further, the color correction section 72 determines the transmission characteristics of the filters R, G, B in the CCD color image sensor 14 and the reflection characteristics of the toners C, M, Y of the printer section. Correct to match the color reproducibility to the ideal characteristics. The G filter and the M toner will be described as an example. As shown in the transmission characteristics of FIG. 35 and the reflection characteristics of FIG. 36, the characteristics of the G filter and the M toner are indicated by the shaded areas as compared with the ideal characteristics. There are non-ideal wavelength regions. Therefore, in order to make this correction, together with the UCR / BP processing described above,
Linear correction is performed using the following masking equation.

【0121】すなわち、フルカラーの入力データを画像
に再現するために、マスキング演算がMTF補正部にお
いて行われる。マスキング係数(Ac,m,y、Bc,m,y,C
c,m,y)は、色再現域のほぼ全体に対して平均色差が最小
になるように設定される。(なお、印字は面順次で行わ
れるので、このマスキング方程式は、1行ずつ実行され
る。
That is, in order to reproduce full-color input data on an image, masking calculation is performed in the MTF correction unit. Masking coefficient (Ac, m, y, Bc, m, y, C
c, m, y) is set so that the average color difference is minimized over almost the entire color reproduction range. (Note that since the printing is performed in the frame sequential manner, this masking equation is executed line by line.

【0122】[0122]

【数2】 [Equation 2]

【0123】 K=β・{MIN(DR,DG,DB)−d2} (g−3)UCR/BP自動処理の例 図37は、グレースケールについて読み取った1ライン
分のR,B,Gのデータを示し、また図38は、図37
のデータについてUCR/BP処理を行った結果の1部
の拡大図である。図37では、R,G,Bの3色がいず
れもおなじ程度に出力される。グレースケールは、左か
ら右へ次第に黒から白へ変化していく。しかし、グレー
スケールの彩度WSは0であるため、UCR/BP比は
100%である。マスキング演算の結果、C,M,Yの
出力は、図38に示されるように0になり、グレースケ
ールの濃度変化がほとんどKのみで表せる。したがっ
て、グレースケールの色再現性が良くなった。
K = β · {MIN (DR, DG, DB) -d 2 } (g-3) Example of UCR / BP automatic processing FIG. 37 shows R, B, G for one line read for gray scale. FIG. 38 shows the data of FIG.
FIG. 3 is an enlarged view of a part of a result of performing UCR / BP processing on the data of FIG. In FIG. 37, all three colors of R, G and B are output to the same degree. The gray scale gradually changes from black to white from left to right. However, since the grayscale saturation WS is 0, the UCR / BP ratio is 100%. As a result of the masking calculation, the outputs of C, M, and Y become 0 as shown in FIG. 38, and the grayscale density change can be expressed only by K. Therefore, the gray scale color reproducibility is improved.

【0124】また、図39は、上側に示す白と黒とから
なる画像について読み取った1ライン分のR,G,Bの
データを示す。これらの読み取りデータを濃度変換した
結果を図40に示し、HVC変換した結果を図41と図
42に示す。図40に示されるように、白部分でのC,
M,Yの値は大きいが、図42に示すように、この画像
の彩度は小さい。したがって、UCR/BP比は、10
0%にちかくなり、図43に示すUCR/BP処理の結
果は、C,M,Yの出力小さく、画像はほとんどKのみ
で表される。したがって、無彩色画像の黒色再現性が向
上する。
Further, FIG. 39 shows R, G, B data for one line read for the image consisting of white and black shown on the upper side. FIG. 40 shows the result of density conversion of these read data, and FIG. 41 and FIG. 42 show the result of HVC conversion. As shown in FIG. 40, C in the white part,
Although the values of M and Y are large, the saturation of this image is small as shown in FIG. Therefore, the UCR / BP ratio is 10
The result of the UCR / BP processing shown in FIG. 43 is 0%, the output of C, M, and Y is small, and the image is almost represented by only K. Therefore, black reproducibility of an achromatic image is improved.

【0125】また、図44は、上側に示す白と赤からな
る画像について読み取った1ライン分のR,G,Bのデ
ータを示す。これらの読み取りデータを濃度変換した結
果を図45に示し、HVC変換した結果を図46と図4
7に示す。図45に示されるように、白部分でC,M,
Yの値は大きく、さらに、赤部分でC値、K’値が大き
いのみならず、M値、Y値も小さくない。図47に示す
ように、赤部分での彩度は大きい。この例におけるUC
R/BP処理においては、彩度WS≧85のとき、UC
R/BP比=0(%)、WS<85のときUCR/BP
比=100(1−W/85)(%)と設定した。したが
って、図48に示すUCR/BP処理の結果は、K出力
はなくなり、画像は主にCからなる有彩色で表される。
したがって、有彩色画像の彩やかさが向上する。
Further, FIG. 44 shows R, G, B data for one line read for the image consisting of white and red shown on the upper side. FIG. 45 shows the result of density conversion of these read data, and FIG. 46 and FIG. 4 show the result of HVC conversion.
7 shows. As shown in FIG. 45, C, M, and
The value of Y is large, and not only the C value and K'value are large in the red part, but also the M value and Y value are not small. As shown in FIG. 47, the saturation in the red part is large. UC in this example
In the R / BP processing, when the saturation WS ≧ 85, UC
R / BP ratio = 0 (%), WS <85 UCR / BP
The ratio was set to 100 (1-W / 85) (%). Therefore, in the result of the UCR / BP processing shown in FIG. 48, K output is lost and the image is represented by a chromatic color mainly composed of C.
Therefore, the color of the chromatic image is improved.

【0126】 (g−4)モノカラーモードとカラーチェンジモード モノカラーデータ(DV7〜0)を再現する色は、R,
G,B,C,M,Y,Kより選択できる。表5に示すよ
うに、再現色は、プリンタ側へ移送する色分解データの
状態(C,M,Y,K)とNWH信号の論理によって決
定され、最終的なモノカラー用データ(MONO7〜0
となる。すなわち、NWH=”L”で00を選択し、N
WH=”H”でDV7〜0を選択する。
(G-4) Mono Color Mode and Color Change Mode The colors for reproducing the mono color data (DV 7 to 0 ) are R,
It can be selected from G, B, C, M, Y and K. As shown in Table 5, the reproduced color is determined by the states (C, M, Y, K) of the color separation data transferred to the printer and the logic of the NWH signal, and the final monocolor data (MONO 7 ... 0 )
Becomes That is, when NWH = "L", 00 is selected, and N
DV 7-0 is selected with WH = "H".

【0127】[0127]

【表5】 [Table 5]

【0128】このとき、同時にカラーチェンジ用データ
も選択でき、フルカラーデータ(PD7〜0)も選択でき
る。
At this time, color change data can be selected at the same time, and full color data (PD 7 to 0 ) can also be selected.

【0129】これらのフルカラーデータ(PD7〜0)、
モノカラーデータ(MONO7〜0)、カラーチェンジデ
ータは、表6に示すように、信号NCHAN、NCC
S,NMONOにより制御される。
These full color data (PD 7 to 0 ),
As shown in Table 6, the mono color data (MONO 7 to 0 ) and color change data are signals NCHAN and NCC.
It is controlled by S and NMONO.

【0130】[0130]

【表6】 [Table 6]

【0131】これらの表5,表6の選択は、カラー判別
部76において、テーブル(図示しない)により行われ
る。
Selection of these Tables 5 and 6 is made by a table (not shown) in the color discriminating section 76.

【0132】(g−5)縁取りモード 縁取りモードでは、図49に示すように、画像の縁取り
が行われる。図の原稿画像(ローマ字の大文字A)の読
取データについて、1次微分の結果(エッジ量)を求
め、さらにその絶対値を検出する。この絶対値が所定の
しきい値REFを超える部分のみにエッジ信号NEDが
出力され、これに対応した縁取り画像が出力される。す
なわち、画像のエッジ部分の近傍の有限の幅の画像が出
力され、縁取り画像の中の原画像の大きさはやや小さく
なる。
(G-5) Bordering Mode In the bordering mode, the bordering of the image is performed as shown in FIG. Regarding the read data of the original image (Roman capital letter A) in the figure, the result of the first-order differentiation (edge amount) is obtained, and the absolute value thereof is detected. The edge signal NED is output only to the portion where this absolute value exceeds the predetermined threshold value REF, and the edging image corresponding to this is output. That is, an image having a finite width near the edge portion of the image is output, and the size of the original image in the bordered image is slightly reduced.

【0133】NEDGN1=”L”のときエッジ信号N
EDは許可され、縁取りモード指定信号(NWAKU)
が生成される。
Edge signal N when NEDGN1 = "L"
ED is allowed, edging mode designation signal (NWAKU)
Is generated.

【0134】縁取り色は、C,M,Y,K、R,G,B
の7色から指定でき、色分解データの状態(C,M,
Y,K)によって表7に示すように決定され、セレクタ
532は、WCLR信号の論理と縁取り編集許可信号N
EGN1,エッジ信号NED,縁取りモード指定信号N
WAKUに対応して表8に示すようにデータを出力す
る。
Border colors are C, M, Y, K, R, G, B
Can be specified from 7 colors, and the state of color separation data (C, M,
Y, K) as shown in Table 7, and the selector 532 determines the logic of the WCLR signal and the border editing permission signal N.
EGN1, edge signal NED, edging mode designation signal N
Data is output as shown in Table 8 in correspondence with WAKU.

【0135】[0135]

【表7】 [Table 7]

【0136】[0136]

【表8】 [Table 8]

【0137】(g−6)色補正部の回路構成 図50と図51は、色補正部72の回路図である。濃度
変換部68からの濃度信号DR,DG,DBは、まず下
色除去/墨加刷部500において、最小値検出回路50
2により最小値MIN(DR,DG,DB)が検出され
る。この最小値は、減算器504において、所定の黒カ
ットデータdを減算した後、乗算器506においてUC
R/BPデータ(α/β)と乗算されて、黒データKと
なる。さらに、減算器508において、下色除去のた
め、濃度データDR、DG、DBから黒データKが減算
されて、出力される。
(G-6) Circuit Configuration of Color Corrector FIG. 50 and FIG. 51 are circuit diagrams of the color corrector 72. The density signals DR, DG, and DB from the density conversion unit 68 are first detected by the minimum value detection circuit 50 in the undercolor removal / blackening unit 500.
2, the minimum value MIN (DR, DG, DB) is detected. This minimum value is calculated by subtracting the predetermined black cut data d in the subtractor 504 and then calculating the UC in the multiplier 506.
The R / BP data (α / β) is multiplied to obtain the black data K. Further, in the subtractor 508, the black data K is subtracted from the density data DR, DG, and DB to remove the undercolor, and the black data K is output.

【0138】マスキング演算部510において、まず、
減算器508からの3色の色データDR,DG,DBが
それぞれ乗算器512でマスキングデータ(Ac,m,y、B
c,m,y,Cc,m,y)と乗算され、この結果が加算器514
で加算され、シアン、マゼンタ、イエローのデータC,
M,Yが生成される。さらに、このデータは、セレクタ
516において、色信号NCMY/Kにより乗算器50
6からの黒データKと選択されて、データPDとして出
力される。
In the masking calculation unit 510, first,
The color data DR, DG, DB of the three colors from the subtractor 508 are masked by the multiplier 512 (Ac, m, y, B).
c, m, y, Cc, m, y) and the result is the adder 514
Are added, and cyan, magenta, and yellow data C,
M and Y are generated. Further, this data is supplied to the multiplier 50 by the color signal NCMY / K in the selector 516.
The black data K from 6 is selected and output as data PD.

【0139】さらに、カラーチェンジ・モノカラー選択
部520において、このデータPDは、セレクタ522
のA端子に入力される。一方、HVC変換部64からの
明度信号DVと”00”とはセレクタ424において、
信号NWHに対応して、単色データMONOとしてセレ
クタ422のB端子に入力される。また、カラーチェン
ジデータはセレクタ522のC端子に入力される。セレ
クタ522において、これらの信号は、信号NMON
O、NCHにより選択される。信号NCHは、信号NC
HN,NCCSがともに”L”であるときに出力され
る。 縁取り編集部530では、セレクタ532におい
て、セレクタ522からの入力信号、”00”および”
FF”が、信号NWAKU、WCLRにより選択され
て、信号PD17〜10として出力される。
Further, in the color change / mono color selection unit 520, this data PD is stored in the selector 522.
Input to the A terminal of. On the other hand, the lightness signals DV and “00” from the HVC conversion unit 64 are output by the selector 424.
Corresponding to the signal NWH, the monochrome data MONO is input to the B terminal of the selector 422. Also, the color change data is input to the C terminal of the selector 522. In the selector 522, these signals are the signals NMON.
Selected by O and NCH. The signal NCH is the signal NC
It is output when both HN and NCCS are "L". In the border editing unit 530, the selector 532 inputs the input signals from the selector 522, “00” and “00”.
FF "is selected by the signals NWAKU and WCLR and is output as the signals PD 17 to 10.

【0140】図52は、レジスタ部540の回路図を示
す。本実施例では、上に説明したUCR/BPデータ
(α7〜0/β7〜0)、マスキングデータ(Ac,m,
y9〜0、Bc,m,y9〜0,Cc,m,y9〜0)、黒カットデータ
(d7〜0)は、2種設定できる。そこで、信号NGCS
0が出力されているときにパラメータMA3〜0に対応し
てデコータ542によりデコードして、信号NWRが出
力されているときに、CPUの出力するデータMD7〜0
をレジスタ544に記憶しておく。そして、これらのデ
ータは、セレクタ546に出力されて、選択信号MPX
1により一方がマスキングデータ(Ac,m,y9〜0、Bc,
m,y9〜0,Cc,m,y9〜0)、UCR/BPデータ(α7〜0
/β7〜0)、黒カットdata(d7〜0)(第1デー
タ)として出力される。
FIG. 52 shows a circuit diagram of the register section 540. In this embodiment, the UCR / BP data ( α7-0 / β7-0 ) and the masking data (Ac, m,
y 9~0, Bc, m, y 9~0, Cc, m, y 9~0), black cutting data (d 7 to 0) can be set two. Therefore, the signal NGCS
When 0 is output, it is decoded by the decoder 542 corresponding to the parameters MA 3 to 0, and when the signal NWR is output, the data MD 7 to 0 output by the CPU
Are stored in the register 544. Then, these data are output to the selector 546 and the selection signal MPX is output.
One is masking data (Ac, m, y 9 to 0 , Bc,
m, y 9~0, Cc, m , y 9~0), UCR / BP data 7~0
/ Β 7-0 ) and black cut data (d 7-0 ) (first data).

【0141】これらのマスキングデータ(Ac,m,
y9〜0、Bc,m,y9〜0,Cc,m,y9〜0)、UCR/BPデ
ータ(α7〜0/β7〜0)、黒カットdata(d7〜0
は、表9に示すように、CPUのアドレスマップ上でそ
れぞれ2種ずつレジスタ44にセットできる。NGCS
0=”L”のとき、MWRが”L”レベルから立ち上が
るときにデータがセットされる。このとき、MPX1
=”L”で第1データが選択され、”H”で第2データ
が選択される。
These masking data (Ac, m,
y 9~0, Bc, m, y 9~0, Cc, m, y 9~0), UCR / BP data (α 7~0 / β 7~0), black cut data (d 7~0)
As shown in Table 9, two kinds can be set in the register 44 on the address map of the CPU. NGCS
When 0 = “L”, data is set when MWR rises from the “L” level. At this time, MPX1
= “L” selects the first data, and “H” selects the second data.

【0142】[0142]

【表9】 [Table 9]

【0143】なお、UCR/BPデータについては、さ
らに、セレクタ538において、α7〜0/β7〜0とUC
7〜0とが選択信号MPX0により選択して、出力され
る。ここで、後者のデータUCR7〜0は、領域判別部7
4から入力される彩度データである。
Regarding the UCR / BP data, the selector 538 further sets α 7-0 / β 7-0 and UC.
R 7 to 0 are selected by the selection signal MPX0 and output. Here, the latter data UCR 7 to 0 are stored in the area discrimination unit 7
It is the saturation data input from 4.

【0144】また、マスキングデータとUCR/BPデ
ータのビット定義は、表10と表11に示すように行わ
れる。
Bit definitions of masking data and UCR / BP data are made as shown in Tables 10 and 11.

【0145】[0145]

【表10】 [Table 10]

【0146】[0146]

【表11】 [Table 11]

【0147】(h)MTF補正部 MTF補正部78では、平滑化処理、エッジ強調処理お
よび色にじみ補正を行なう。全体の画像データ処理の構
成は、図24の回路で理解される。
(H) MTF Correction Unit The MTF correction unit 78 performs smoothing processing, edge enhancement processing, and color fringing correction. The overall image data processing configuration can be understood by the circuit shown in FIG.

【0148】(h−1)MTF補正部の回路構成 図53は、MTF補正部78の回路図を示す。画像デー
タ処理の概略は、図24のブロック図で理解される。
(H-1) Circuit Configuration of MTF Correction Section FIG. 53 shows a circuit diagram of the MTF correction section 78. The outline of the image data processing can be understood by the block diagram of FIG.

【0149】色補正部72からの信号PDは、中心画素
とその周辺の画素について2種の2次元のFIR型デジ
タルフィルタ600、602によって注目画素とその周
辺画素との重み付け平均によって平滑化される。両者の
出力信号は、平滑化しない信号とともに、セレクタ60
4に入力される。そして、シャープ信号SHARP1,0
に応じて、いずれかが選択されて出力される。これによ
り、画像ノイズの軽減および平滑化が実現される。
The signal PD from the color correction unit 72 is smoothed by the weighted average of the pixel of interest and its peripheral pixels by the two types of two-dimensional FIR digital filters 600 and 602 for the central pixel and its peripheral pixels. .. The output signals of both the selector 60 and the signal not smoothed
Input to 4. Then, the sharp signal SHARP 1,0
Either of them is selected and output. Thereby, reduction and smoothing of image noise are realized.

【0150】色補正部72からの信号PDは、また、ラ
プラシアンフィルタ610に入力される。ラプラシアン
フィルタ610は、2次微分フィルタとも呼ばれ、入力
画像のエッジ成分を抽出する働きをもつ。
The signal PD from the color correction section 72 is also input to the Laplacian filter 610. The Laplacian filter 610 is also called a second-order differential filter and has a function of extracting the edge component of the input image.

【0151】セレクタ612の出力は、色にじみ補正
((h−5)参照)を行うための信号NEDG,読取モ
ード(写真/標準モード)を示す選択信号MODEとと
もに、ラプラシアンテーブル(色にじみ補正用テーブ
ル)620に入力され、図57に示すように、入力値に
応じてフィルタ出力Dを変換する。NEDG=”L”か
つMODE=”H”のときは、色にじみ補正が行われ
る。
The output of the selector 612 is a Laplacian table (color-blurring correction table) together with a signal NEDG for performing color-blurring correction (see (h-5)) and a selection signal MODE indicating a reading mode (photograph / standard mode). ) 620, and as shown in FIG. 57, the filter output D is converted according to the input value. When NEDG = "L" and MODE = "H", color fringing correction is performed.

【0152】このラプラシアンテーブル620の出力D
は、さらに乗算器622において、領域判別部74で明
度データVより作成されたエッジ制御用のMTFdat
aとの積が求められ、セレクタ604からの原画像の平
滑化データとともに、加算器608に入力される。この
MTFdataAは、図32に示されるように、1次微
分フィルタにより検出されたエッジ量により変化される
量である。
Output D of this Laplacian table 620
Further, in the multiplier 622, MTFdat for edge control created from the brightness data V in the area discriminating unit 74.
The product with a is obtained, and is input to the adder 608 together with the smoothed data of the original image from the selector 604. This MTFdataA is an amount that is changed by the edge amount detected by the first derivative filter, as shown in FIG.

【0153】これにより、ラプラシアンフィルタにより
エッジ画像部で検出されたエッジ量を基に、平滑されか
つエッジ強調された画像データが出力できる。すなわ
ち、画像の平坦部では、平滑化により画像のあれがなく
なり、エッジ画像部では、ラプラシアンフィルタによる
エッジ検出値によりエッジでの濃度のだれが防止され
る。また、このエッジでの補正量は、HVC変換部で1
次微分フィルタにより検出された明度のエッジの大きさ
により調整される。この自動MTF補正の具体例は、
(h−7)で説明される。
As a result, smoothed and edge-enhanced image data can be output based on the edge amount detected in the edge image portion by the Laplacian filter. That is, in the flat portion of the image, the unevenness of the image is eliminated by the smoothing, and in the edge image portion, the sag of the density at the edge is prevented by the edge detection value by the Laplacian filter. The correction amount at this edge is 1 in the HVC conversion unit.
It is adjusted by the size of the edge of the brightness detected by the second derivative filter. A specific example of this automatic MTF correction is
(H-7).

【0154】ラプラシアンフィルタ610の出力するエ
ッジ検出信号RAPは、エッジレベル判定回路630に
おいて、しきい値REFと比較され、画像の輪郭抽出信
号NRAPが生成される。
The edge detection signal RAP output from the Laplacian filter 610 is compared with the threshold value REF in the edge level determination circuit 630 to generate the contour extraction signal NRAP of the image.

【0155】セレクタ632では、画像データとEDG
データとが入力され、NRAP=”L”かつNEGEN
2(輪郭抽出信号)=”L”ならば、EDGデータ(輪
郭データ)を選択する。
The selector 632 displays the image data and EDG.
Data and are input, NRAP = "L" and NEGEN
If 2 (contour extraction signal) = “L”, EDG data (contour data) is selected.

【0156】なお、図54は、各種制御データを格納す
るレジスタ640とその周辺回路を示す。レジスタ64
0には、CPUからデータMDと書き込み信号NWRが
レジスタに入力され、デコーダ642において、信号N
GCS1とMA1、0によりデコードされた信号に対応し
て、MTFdataB、REF、EDGが記憶される。
なお、レジスタ640のMTFdataBとMTFda
taAとは、セレクタ644において、MPX2信号に
より選択され、MTFdataとして出力される。
FIG. 54 shows a register 640 for storing various control data and its peripheral circuits. Register 64
At 0, the data MD and the write signal NWR are input to the register from the CPU, and the decoder 642 outputs the signal N.
MTFdataB, REF, and EDG are stored corresponding to the signals decoded by GCS1 and MA1,0.
Note that MTFdataB and MTFda of the register 640 are
The taA is selected by the MPX2 signal in the selector 644 and output as MTFdata.

【0157】(h−2)平滑化処理 上に説明したように、色補正部72からの信号PDは、
2種の2次元のFIR型デジタルフィルタ600、60
2によって注目画素とその周辺画素との重み付け平均に
よって平滑化される。両者の出力信号は、平滑化しない
信号とともに、セレクタ604に入力される。そして、
シャープ信号SHARP10に応じて、いずれかが選択
されて、加算器608に出力される。これにより、画像
ノイズの軽減および平滑化が実現される。
(H-2) Smoothing processing As described above, the signal PD from the color correction section 72 is
Two kinds of two-dimensional FIR type digital filters 600, 60
2 smooths the weighted average of the pixel of interest and its surrounding pixels. Both output signals are input to the selector 604 together with the unsmoothed signal. And
One of them is selected according to the sharp signal SHARP 1 , 0 and is output to the adder 608. Thereby, reduction and smoothing of image noise are realized.

【0158】図55は、この平滑化処理をさらに具体的
に示す。すなわち、連続する4本のラインのデータがラ
インメモリ606a,606b,606c,606dに
順次格納される。さらに、5本目のラインのデータが入
力されるとき、図にしめすように5×5=25の画素の
データについて第1平滑化フィルタ600において演算
が行われ、3×3=9の画素について第2平滑化フィル
タ602において演算が行われる。演算においては、図
に示した数値がデータに乗算され、その結果が加算され
る。これにより注目画素について、平滑化された値が得
られる。なお、表12は、選択信号SHARP10によ
るセレクタ604の出力の選択を示す。
FIG. 55 shows this smoothing processing more specifically. That is, data of four consecutive lines is sequentially stored in the line memories 606a, 606b, 606c, 606d. Further, when the data of the fifth line is input, as shown in the figure, the first smoothing filter 600 performs an arithmetic operation on the data of 5 × 5 = 25 pixels, and the pixel of 3 × 3 = 9 is processed by the first The calculation is performed in the 2 smoothing filter 602. In the calculation, the numerical values shown in the figure are multiplied by the data, and the results are added. As a result, a smoothed value is obtained for the pixel of interest. Incidentally, Table 12 shows the selection of the output of the selector 604 by the selection signals SHARP 1, 0.

【0159】[0159]

【表12】 [Table 12]

【0160】(h−3)エッジ強調 色補正部72からの信号PDは、また、ラプラシアンフ
ィルタ610に入力される。ラプラシアンフィルタ61
0は、2次微分フィルタとも呼ばれ、入力画像のエッジ
成分を抽出する働きをもつ。後で説明するように、この
フィルタの処理結果と入力画像を加算すると、画像の先
鋭化(エッジ強調)がおこなえる。
(H-3) Edge Enhancement The signal PD from the color correction section 72 is also input to the Laplacian filter 610. Laplacian filter 61
0 is also called a second derivative filter and has a function of extracting an edge component of the input image. As will be described later, by adding the processing result of this filter and the input image, sharpening (edge emphasis) of the image can be performed.

【0161】図56は、ラプラシアンフィルタ610を
具体的に示す。このフィルタは5×5のフィルタであ
り、演算においては、図に示した数値が対応するデータ
に乗算され、その結果が加算される。
FIG. 56 specifically shows the Laplacian filter 610. This filter is a 5 × 5 filter, and in calculation, corresponding data is multiplied by the corresponding numerical value and the result is added.

【0162】このラプラシアンフィルタ610の出力結
果は、エッジ強調を必要としないとき、セレクタ612
においてNSHARP3信号により”00”を選択する
ことにより、強制的にクリアされる。
The output result of the Laplacian filter 610 is the selector 612 when the edge emphasis is not required.
In "," it is forcibly cleared by selecting "00" by the NSHARP3 signal.

【0163】 (h−4)エッジ強調処理とシャープネスモード セレクタ612の出力は、色にじみ補正を行うための信
号NEDG,読取モード(写真/標準モード)を示す選
択信号MODEとともに、ラプラシアンテーブル620
に入力され、図57に示すように、入力値に応じてフィ
ルタ出力Dを変換する。
(H-4) Edge Enhancement Processing and Sharpness Mode The output of the selector 612 is the Laplacian table 620 together with the signal NEDG for performing color fringing correction and the selection signal MODE indicating the reading mode (photograph / standard mode).
57, and the filter output D is converted according to the input value, as shown in FIG.

【0164】図57に示すように、写真モード(MOD
E=”L”)では、出力Dは、入力Aに比例する。一
方、標準モード(MODE=”H”)では、NEDG
=”L”(黒エッジ強調)のとき出力Dは、常に−64
である。また、NEDG=”H”のときは、普通のエッ
ジ強調がなされ、入力Aが大きいときを小さいとき出力
Dは一定にされる。
As shown in FIG. 57, the photo mode (MOD
E = “L”), the output D is proportional to the input A. On the other hand, in the standard mode (MODE = "H"), NEDG
When "L" (black edge enhancement), the output D is always -64.
Is. Further, when NEDG = "H", ordinary edge enhancement is performed, and when the input A is large and the output D is small, the output D is made constant.

【0165】このラプラシアンテーブル620の出力D
は、さらに乗算器622において、領域判別部74で明
度データVより作成されたエッジ制御用のMTFdat
aとの積が求められ、セレクタ604からの原画像の平
滑化データとともに、加算器608に入力される。これ
により、平滑化データとエッジ量の加算がなされ、エッ
ジ強調された画像データが出力できる。
Output D of this Laplacian table 620
Further, in the multiplier 622, MTFdat for edge control created from the brightness data V in the area discriminating unit 74.
The product with a is obtained, and is input to the adder 608 together with the smoothed data of the original image from the selector 604. As a result, the smoothed data and the edge amount are added, and the edge-emphasized image data can be output.

【0166】図58は、上側に示した画像について濃度
変換データと、そのラプラシアンフィルタ610による
結果を示す。加算器608において両者を加算すると、
下側に示すように、画像のエッジ部の値が実際より大き
くなり、エッジ強調が行える。
FIG. 58 shows the density conversion data of the image shown on the upper side and the result obtained by the Laplacian filter 610. When the two are added in the adder 608,
As shown in the lower side, the value of the edge portion of the image becomes larger than the actual value, and edge enhancement can be performed.

【0167】なお、表13に示すように、SHARP
5〜0は、領域判別部74のMTF制御テーブルのバン
ク、MTF補正部の平滑化フィルタ602、604の選
択およびラプラシアンフィルタ610の出力のON/O
FFを制御して、外部から指定されたシャープネスモー
ドSHARPに対応している。
As shown in Table 13, SHARP
5 to 0 are banks of the MTF control table of the area discrimination unit 74, selection of the smoothing filters 602 and 604 of the MTF correction unit, and ON / O output of the Laplacian filter 610.
The FF is controlled to correspond to the sharpness mode SHARP specified from the outside.

【0168】[0168]

【表13】 [Table 13]

【0169】(h−5)色にじみ補正 領域判別部74において生成された無彩色エッジ判定信
号NEDGを用いて、原画像の黒エッジ部における有彩
色再現データC,M,Yを消去させ、色にじみ補正を行
なう。上に説明したように、信号NEDGと、読取モー
ド信号MODE(”L”で写真モード、”H”で標準モ
ード)とは、ラプラシアンテーブル(色にじみ補正用テ
ーブル)620に入力される。
(H-5) Color Bleed Correction The achromatic color edge determination signal NEDG generated in the area determination section 74 is used to erase the chromatic color reproduction data C, M, Y in the black edge portion of the original image, and Perform bleed correction. As described above, the signal NEDG and the read mode signal MODE (“L” is the photographic mode and “H” is the standard mode) are input to the Laplacian table (color fringing correction table) 620.

【0170】ここで、NEDG=”L”(無彩色エッジ
部分)かつMODE=”H”(標準モード)のとき、色
にじみ補正を行なう。このとき、入力値Aがいかなる値
であっても、出力D=−64とするため、次段の乗算器
622におけるMTFデータとの乗算結果は、強制的に
負の値になる。したがって、PD17〜10がC,M,Yデ
ータである(NCMY/K=”L”)ときには、PD
17〜10に対して−64*(MTFデータ)を差分するた
め、黒エッジ部分でのC,M,Yデータが消去され、色
にじみが防止される。
Here, when NEDG = “L” (achromatic color edge portion) and MODE = “H” (standard mode), color fringing correction is performed. At this time, no matter what value the input value A has, the output D = −64, so that the multiplication result with the MTF data in the multiplier 622 in the next stage is forcibly set to a negative value. Therefore, when PDs 17 to 10 are C, M, Y data (NCMY / K = "L"), PDs
Since -64 * (MTF data) is subtracted from 17 to 10, the C, M, Y data at the black edge portion is erased and color fringing is prevented.

【0171】また、MODE信号の論理によってラプラ
シアンテーブル620によりラプラシアンフィルタの強
度が選択され、標準モードでは写真モードに比べてエッ
ジ強調を強くする。
Further, the Laplacian filter 620 selects the intensity of the Laplacian filter according to the logic of the MODE signal, and the edge enhancement is made stronger in the standard mode than in the photographic mode.

【0172】次に、色にじみ補正の例を説明する。図5
9に示すR,G,Bの読み取り濃度データについて、色
補正部72において、先に説明した自動UCR/BP処
理を行なうと、図60に示すような出力結果が得られ
る。(UCR/BP比は80%前後で処理された。)横
軸は画素番号を表す。ここで、エッジ部分に色にじみ現
象が生じる(〇部分参照)。すなわち、Kデータのエッ
ジ部分にC,M,Yもエッジ部分を持つため、黒の他に
有彩色も重なり、色がにじんで、エッジがきれいに再現
されない。次に、MTF補正部78において色にじみ補
正を行わないでMTF補正によりエッジ強調を行なう
と、図61のようになり、さらに色にじみがひどくなる
(〇部分参照)。そこで、NEDG信号とMODE信号
とにより無彩色エッジ部で標準モードで色にじみ補正を
行なうと、図62に示すように、C,M,Yについて黒
エッジ部分での出力がなくなり、色にじみが完全に解消
される(〇部分参照)。
Next, an example of color fringing correction will be described. Figure 5
When the color correction unit 72 performs the automatic UCR / BP processing described above on the read density data of R, G, and B shown in FIG. 9, an output result as shown in FIG. 60 is obtained. (The UCR / BP ratio was processed at about 80%.) The horizontal axis represents the pixel number. Here, a color fringing phenomenon occurs at the edge portion (see the circled portion). That is, since C, M, and Y also have edge portions at the edge portions of the K data, chromatic colors overlap in addition to black, the colors are blurred, and the edges cannot be reproduced properly. Next, when the MTF correction unit 78 performs edge enhancement by MTF correction without performing color fringing correction, the result is as shown in FIG. 61, and the color fringing becomes more severe (see the circles). Therefore, when color fringing correction is performed in the standard mode in the achromatic color edge portion using the NEDG signal and MODE signal, as shown in FIG. Will be resolved (see 〇 part).

【0173】(h−6)輪郭抽出モード ラプラシアンフィルタ610の出力するエッジ検出信号
RAPは、エッジレベル判定回路630において、しき
い値REFと比較され、画像の輪郭抽出信号NRAPが
生成される。すなわち、まずエッジ検出信号RAPは、
負であれば絶対値に変換され、正であれば”00”とさ
れる。次に、その値が、しきい値REFと比較されて2
値化され、あるレベル以上のときは、NRA=”L””
をセレクタ632に出力する(図63参照)。セレクタ
632では、画像データとEDGデータとが入力され、
NRAP=”L”かつNEGEN2(輪郭抽出信号)
=”L”ならば、EDGデータ(輪郭データ)を選択す
る。
(H-6) Contour extraction mode The edge detection signal RAP output from the Laplacian filter 610 is compared with the threshold value REF in the edge level determination circuit 630 to generate the contour extraction signal NRAP of the image. That is, first, the edge detection signal RAP is
If it is negative, it is converted to an absolute value, and if it is positive, it is set to "00". The value is then compared to the threshold value REF, 2
NRA = "L""when the value is digitized and is above a certain level
Is output to the selector 632 (see FIG. 63). The selector 632 inputs the image data and the EDG data,
NRAP = "L" and NEGEN2 (outline extraction signal)
If = “L”, EDG data (contour data) is selected.

【0174】図63は、輪郭抽出の例を示す。図の原稿
画像(ローマ字の大文字A)の濃度変換データについ
て、2次微分の結果を求め、さらに負のときは絶対値に
変換し、正のときは0とする。この結果が所定のしきい
値REFを超える部分のみにNRAP信号が出力され、
これが輪郭部分を示す。
FIG. 63 shows an example of contour extraction. With respect to the density conversion data of the original image (Roman letter capital letter A) in the figure, the result of the second derivative is obtained, and when it is negative, it is converted to an absolute value, and when it is positive, it is set to 0. The NRAP signal is output only to the portion where this result exceeds the predetermined threshold value REF,
This shows the contour portion.

【0175】なお、REF17〜10(輪郭抽出用2値化レ
ベル),EDG data(輪郭データ)およびMTF
dataB(エッジ強調制御データ)は、CPUのアド
レスマップ上で表14のようにセットされる。このデー
タは、NGCS1=”L”のとき、NWRが”L”から
立ち上がるときにセットされる。
It should be noted that REF 17 to 10 (binarization level for contour extraction), EDG data (contour data) and MTF.
dataB (edge emphasis control data) is set as shown in Table 14 on the address map of the CPU. This data is set when NWR rises from "L" when NGCS1 = "L".

【0176】[0176]

【表14】 [Table 14]

【0177】また、MTFdataについては、表15
に示すように、領域判別部74のMTFdataAによ
ってエッジ強調を自動制御する場合(写真/標準モー
ド)とレジスタのセット値(MTFdataB)によっ
てマニュアル制御する場合(地図モード)に分けてい
る。
Table 15 shows MTFdata.
As shown in FIG. 3, the edge discrimination is automatically controlled by the MTFdataA of the area discrimination unit 74 (photograph / standard mode) and manually controlled by the set value (MTFdataB) of the register (map mode).

【0178】[0178]

【表15】 [Table 15]

【0179】なお、MTFdataBのビット定義は、
表16に示される。
The bit definition of MTFdataB is
It is shown in Table 16.

【0180】[0180]

【表16】 [Table 16]

【0181】地図モードのときには、細線再現性を優先
して処理するため、MTFdataB=”80”
(1),MODE=”H”(標準モード),NBKEN
=”H”(色にじみ補正なし)とセットする。
In the map mode, since fine line reproducibility is processed with priority, MTFdataB = “80”
(1), MODE = "H" (standard mode), NBKEN
Set to "H" (no color fringing correction).

【0182】(h−7)自動MTF補正の例 図64〜図68は、1ライン/mmの原稿についての自
動MTF補正の例をしめす。図64は、明度データとそ
の1次微分を示す。横軸は画素番号を表す。各ラインに
対応した明度変化が得られる。図65は、濃度データと
その2次微分結果を示す。
(H-7) Example of automatic MTF correction FIGS. 64 to 68 show examples of automatic MTF correction for a document of 1 line / mm. FIG. 64 shows lightness data and its first derivative. The horizontal axis represents the pixel number. The brightness change corresponding to each line can be obtained. FIG. 65 shows the density data and the second derivative result thereof.

【0183】図66は、この濃度データをもとに自動M
TF補正を行った結果をしめす。エッジ強調と同等な処
理がなされる。ラインペアの画像に対しては境界が鋭い
ほうがよい。したがって、画像の再現性はよい。
FIG. 66 shows the automatic M based on this density data.
The result of TF correction is shown. Processing equivalent to edge enhancement is performed. It is better to have sharp boundaries for images of line pairs. Therefore, the reproducibility of the image is good.

【0184】比較のため、図67に平滑化処理を行った
結果を示すが、ラインペアの再現性はよくない。また、
図68に従来のエッジ強調の結果を示す。実施例と同等
なデータが得られている。
For comparison, FIG. 67 shows the result of the smoothing process, but the line pair reproducibility is not good. Also,
FIG. 68 shows the result of conventional edge enhancement. Data equivalent to the example is obtained.

【0185】図69〜図72は、網点原稿(スクリーン
133線)についての自動MTF補正の例をしめす。図
69は濃度データを示す。横軸は画素番号を表す。モア
レがみられる。
69 to 72 show examples of automatic MTF correction for a halftone original (screen 133 lines). FIG. 69 shows density data. The horizontal axis represents the pixel number. Moire is seen.

【0186】図70は、この濃度データをもとに自動M
TF補正を行った結果を示す。モアレは強調されていな
い。
FIG. 70 shows an automatic M based on this density data.
The result of performing TF correction is shown. Moire is not highlighted.

【0187】比較のため、図71にエッジ強調を行った
結果を示すが、モアレが強調されている。また、図72
に平滑化処理の結果を示す。濃度変化が小さくなってい
る。
For comparison, FIG. 71 shows the result of edge enhancement, but moire is enhanced. Also, FIG.
Shows the result of the smoothing process. The change in concentration is small.

【0188】図73〜図77は、1mm幅の黒ラインの
原稿についての自動MTF補正の例をしめす。図73
は、明度データとその1次微分を示す。黒ラインに対応
した明度変化が得られる。図74は、濃度データとその
2次微分結果を示す。
73 to 77 show examples of automatic MTF correction for an original having a black line with a width of 1 mm. FIG. 73
Indicates the lightness data and its first derivative. The brightness change corresponding to the black line is obtained. FIG. 74 shows the density data and the second derivative result thereof.

【0189】図75は、この濃度データをもとに自動M
TF補正を行った結果をしめす。画像の平坦部では平滑
化効果が大きく、画像のエッジ部では、エッジの傾きは
鋭くなっている。したがって、黒ラインの画像の再現性
はよい。
FIG. 75 shows the automatic M based on this density data.
The result of TF correction is shown. The smoothing effect is large in the flat portion of the image, and the inclination of the edge is sharp in the edge portion of the image. Therefore, the reproducibility of the black line image is good.

【0190】比較のため、図76に平滑化処理を行った
結果を示すが、エッジの傾きが緩やかになっている。ま
た、図77にエッジ強調の結果を示す。画像の平坦部で
は変化が大きくなっている。
For comparison, FIG. 76 shows the result of the smoothing process, but the slope of the edge is gentle. 77 shows the result of edge enhancement. The change is large in the flat part of the image.

【0191】このように、本発明の自動MTF補正で
は、どのような画像に対しても最適なMTF補正が達成
できる。
As described above, the automatic MTF correction of the present invention can achieve the optimum MTF correction for any image.

【0192】なお、以上に説明したMTF補正は、フル
カラーモードにおけるものであるが、モノカラーモード
においても同様のMTF補正が行える。この場合、図2
5に示されるような回路構成が用いられる。モノカラー
モードでは、読み取りデータが明度データとして扱える
ので、構成が簡単化できる。
Although the MTF correction described above is for the full color mode, the same MTF correction can be performed for the mono color mode. In this case,
The circuit configuration shown in FIG. 5 is used. In the mono-color mode, the read data can be treated as lightness data, so the configuration can be simplified.

【0193】[0193]

【発明の効果】画像読み取り値の規格化の補正を行なう
シェーディング補正において、1ライン分のラインメモ
リを用いて、複数ライン分の基準作成用データより補正
基準データを高精度に作成できる。
As described above, in the shading correction for correcting the standardization of the image read value, the line reference memory for one line can be used to create the correction reference data with higher accuracy than the reference creation data for a plurality of lines.

【図面の簡単な説明】[Brief description of drawings]

【図1】 フルカラー複写機の断面図である。FIG. 1 is a sectional view of a full-color copying machine.

【図2】 制御系の1部のブロック図である。FIG. 2 is a block diagram of a part of a control system.

【図3】 制御系の他の部分のブロック図である。FIG. 3 is a block diagram of another portion of the control system.

【図4】 読取部の斜視図である。FIG. 4 is a perspective view of a reading unit.

【図5】 画像信号処理部のブロック図である。FIG. 5 is a block diagram of an image signal processing unit.

【図6】 タイミング制御部の図である。FIG. 6 is a diagram of a timing control unit.

【図7】 HVCラインメモリインターフェースの回路
図である。
FIG. 7 is a circuit diagram of an HVC line memory interface.

【図8】 RGBラインメモリインターフェースの回路
図である。
FIG. 8 is a circuit diagram of an RGB line memory interface.

【図9】 CPU周辺回路の図である。FIG. 9 is a diagram of a CPU peripheral circuit.

【図10】 シェーディング補正部の回路図である。FIG. 10 is a circuit diagram of a shading correction unit.

【図11】 シェーディング補正部の黒補正ブロックの
図である。
FIG. 11 is a diagram of a black correction block of a shading correction unit.

【図12】 図11の(a)〜(i)点でのタイミング
チャートである。
FIG. 12 is a timing chart at points (a) to (i) in FIG.

【図13】 図11の(a)〜(i)点でのタイミング
チャートである。
FIG. 13 is a timing chart at points (a) to (i) in FIG.

【図14】 シェーディング補正のフローチャートの一
部である。
FIG. 14 is a part of a flowchart of shading correction.

【図15】 シェーディング補正のフローチャートの一
部である。
FIG. 15 is a part of a flowchart of shading correction.

【図16】 シェーディング補正のシーケンスの図であ
る。
FIG. 16 is a diagram of a sequence of shading correction.

【図17】 CCDセンサの図である。FIG. 17 is a diagram of a CCD sensor.

【図18】 上側の画像の読み取りデータと位置補正後
のデータの図である。
FIG. 18 is a diagram of read data of an upper image and data after position correction.

【図19】 マンセル色票図である。FIG. 19 is a Munsell color chart.

【図20】 HVC変換部のブロック図である。FIG. 20 is a block diagram of an HVC conversion unit.

【図21】 彩度抽出回路のブロック図である。FIG. 21 is a block diagram of a saturation extraction circuit.

【図22】 色相抽出回路の回路図である。FIG. 22 is a circuit diagram of a hue extraction circuit.

【図23】 濃度変換部の回路図である。FIG. 23 is a circuit diagram of a density conversion unit.

【図24】 画像信号処理部の領域判別に係る部分の簡
略ブロック図である。
FIG. 24 is a simplified block diagram of a portion related to area discrimination of an image signal processing unit.

【図25】 モノクロモードの場合のMTF自動制御の
ための領域判別の簡略ブロック図である。
FIG. 25 is a simplified block diagram of area determination for MTF automatic control in the monochrome mode.

【図26】 領域判別部の1部の回路図である。FIG. 26 is a circuit diagram of a part of a region discriminating unit.

【図27】 領域判別部の1部の回路図である。FIG. 27 is a circuit diagram of a part of a region discriminating unit.

【図28】 BKレベル(D)と最小値(MIN)の関
係を示すグラフである。
FIG. 28 is a graph showing the relationship between BK level (D) and minimum value (MIN).

【図29】 1次微分フィルタの図である。FIG. 29 is a diagram of a first derivative filter.

【図30】 平滑化フィルタの図である。FIG. 30 is a diagram of a smoothing filter.

【図31】 UCR/BP制御テーブルによる変換の図
である。
FIG. 31 is a diagram of conversion by a UCR / BP control table.

【図32】 MTF制御テーブルによる強調量の変化の
図である。
FIG. 32 is a diagram showing changes in the amount of emphasis according to the MTF control table.

【図33】 上側に示した画像の読み取りと処理を示す
図である。
FIG. 33 is a diagram showing reading and processing of the image shown on the upper side.

【図34】 黒データの図である。FIG. 34 is a diagram of black data.

【図35】 Gフィルタの特性のグラフである。FIG. 35 is a graph of characteristics of a G filter.

【図36】 Mトナーの特性のグラフである。FIG. 36 is a graph of characteristics of M toner.

【図37】 グレースケールの読み取りデータの図であ
る。
FIG. 37 is a diagram of grayscale read data.

【図38】 図37に示したデータを自動UCR/BP
処理した結果の1部の図である。
FIG. 38 is an automatic UCR / BP conversion of the data shown in FIG. 37.
It is a figure of a part of the processed result.

【図39】 CCDセンサの各素子(横軸にアドレスを
示す)による白と黒からなる画像の読み取りデータの図
である。
FIG. 39 is a diagram of read data of an image composed of white and black by each element (address is shown on the horizontal axis) of the CCD sensor.

【図40】 図39のデータを濃度に変換した図であ
る。
FIG. 40 is a diagram in which the data of FIG. 39 is converted into density.

【図41】 図39のデータをHVC変換した図であ
る。
41 is a diagram in which the data in FIG. 39 is HVC converted.

【図42】 図41のデータの明度のエッジと彩度の図
である。
42 is a diagram of a lightness edge and saturation of the data of FIG. 41.

【図43】 図39のデータの自動UCR/BP処理の
結果の図である。
43 is a diagram showing the result of automatic UCR / BP processing of the data of FIG. 39. FIG.

【図44】 CCDセンサの各素子(横軸にアドレスを
示す)による白と赤とからなる画像の読み取りデータの
図である。
FIG. 44 is a diagram of read data of an image composed of white and red by each element of the CCD sensor (address is shown on the horizontal axis).

【図45】 図44のデータを濃度に変換した図であ
る。
FIG. 45 is a diagram in which the data in FIG. 44 is converted into density.

【図46】 図44のデータをHVC変換した図であ
る。
FIG. 46 is a diagram in which the data in FIG. 44 is HVC converted.

【図47】 図46のデータの明度のエッジと彩度の図
である。
FIG. 47 is a diagram of a lightness edge and saturation of the data of FIG. 46.

【図48】 図44のデータの自動UCR/BP処理の
結果の図である。
48 is a diagram of a result of automatic UCR / BP processing of the data of FIG. 44.

【図49】 縁取りモードにおける画像の縁取りのため
のデータ処理を示す図である。
FIG. 49 is a diagram showing data processing for edging an image in the edging mode.

【図50】 色補正部の1部の回路図である。FIG. 50 is a circuit diagram of a part of the color correction unit.

【図51】 色補正部の1部の回路図である。FIG. 51 is a circuit diagram of a part of the color correction unit.

【図52】 レジスタ部の回路図である。FIG. 52 is a circuit diagram of a register unit.

【図53】 MTF補正部の回路図である。FIG. 53 is a circuit diagram of an MTF correction unit.

【図54】 レジスタとその周辺回路の図である。FIG. 54 is a diagram of a register and its peripheral circuit.

【図55】 平滑化フィルタの図である。FIG. 55 is a diagram of a smoothing filter.

【図56】 ラプラシアンフィルタの図である。FIG. 56 is a diagram of a Laplacian filter.

【図57】 ラプラシアンテーブルによる処理の図であ
る。
FIG. 57 is a diagram of processing by a Laplacian table.

【図58】 ラプラシアンフィルタによるエッジ強調処
理を示す図である。
FIG. 58 is a diagram showing edge enhancement processing by a Laplacian filter.

【図59】 R,G,Bの読み取りデータの図である。FIG. 59 is a diagram of read data of R, G, and B.

【図60】 図59のデータの自動UCR/BP処理の
結果の図である。
FIG. 60 is a diagram showing a result of automatic UCR / BP processing of the data shown in FIG. 59.

【図61】 図59のデータの自動MTF処理の結果の
図である。
61 is a diagram of a result of automatic MTF processing of the data of FIG. 59.

【図62】 図59のデータの色にじみ補正の結果の図
である。
FIG. 62 is a diagram showing a result of color fringing correction of the data of FIG. 59.

【図63】 輪郭抽出モードにおける輪郭抽出処理を示
す図である。
FIG. 63 is a diagram showing a contour extraction process in a contour extraction mode.

【図64】 1ラインペア/mmの原稿の明度データと
その1次微分の図である。
FIG. 64 is a diagram of lightness data of a document of 1 line pair / mm and its first derivative.

【図65】 図64のデータの濃度データとその1次微
分の図である。
FIG. 65 is a diagram of density data of the data of FIG. 64 and its first derivative.

【図66】 図64のデータの自動MTF補正の結果の
図である。
66 is a diagram showing a result of automatic MTF correction of the data in FIG. 64.

【図67】 図64のデータの平滑化処理(比較例)の
図である。
67 is a diagram of a smoothing process (comparative example) of the data of FIG. 64.

【図68】 図64のデータの従来のエッジ強調(比較
例)の結果の図である。
68 is a diagram showing a result of conventional edge enhancement (comparative example) of the data in FIG. 64. FIG.

【図69】 網点原稿の濃度データの図である。FIG. 69 is a diagram of density data of a halftone dot original.

【図70】 図69のデータの自動MTF補正の結果の
図である。
70 is a diagram showing the result of automatic MTF correction of the data of FIG. 69. FIG.

【図71】 図69のデータのエッジ強調処理(比較
例)の結果の図である。
71 is a diagram showing a result of edge enhancement processing (comparative example) of the data in FIG. 69. FIG.

【図72】 図69のデータの平滑化処理(比較例)の
結果の図である。
72 is a diagram showing a result of the smoothing process (comparative example) of the data in FIG. 69. FIG.

【図73】 1mm幅の黒ラインの原稿の明度とその1
次微分のデータの図である。
[FIG. 73] Lightness of a 1 mm wide black line original and its 1
It is a figure of the data of a secondary differential.

【図74】 図73のデータの濃度のその2次微分のデ
ータの図である。
FIG. 74 is a diagram of data of the second derivative of the density of the data of FIG. 73.

【図75】 図74のデータの自動MTF補正の結果の
図である。
FIG. 75 is a diagram showing a result of automatic MTF correction of the data of FIG. 74.

【図76】 図74のデータの平滑化処理の結果(比較
例)の図である。
FIG. 76 is a diagram showing a result (comparative example) of the smoothing processing of the data in FIG. 74.

【図77】 図74の従来のエッジ強調(比較例)の図
である。
77 is a diagram of the conventional edge enhancement (comparative example) of FIG. 74. FIG.

【符号の説明】[Explanation of symbols]

65…領域判別部、 66…色補正処理部、67…M
TF補正部、 81…スムージング処理部、82…下色
除去/墨加刷制御部、 83…色補正マスキング制御
部、84…エッジ検出部、 85…MTF補正制御部、
65 ... Area discrimination unit, 66 ... Color correction processing unit, 67 ... M
TF correction unit, 81 ... Smoothing processing unit, 82 ... Undercolor removal / blackening control unit, 83 ... Color correction masking control unit, 84 ... Edge detection unit, 85 ... MTF correction control unit,

Claims (1)

【特許請求の範囲】 【請求項1】 原稿を1ラインごとに走査し、光電変換
処理後にデジタル信号に変換する画像入力装置におい
て、 原稿情報とは無関係に入力された複数ライン分の白レベ
ルと黒レベルの規準作成データを基に画像補正用規準デ
ータを決定する決定手段と、 この画像補正用規準データに従って入力された原稿情報
のデジタル変換信号を規格化する規格化手段とを備え、 上記の決定手段は、 各画素ごとに1ライン分の規準作成データを初期値とし
てラインメモリに書き込む初期値書込手段と、 初期値書込手段が初期値をメモリに書き込んだ後に、1
ライン分の基準作成データが入力されるごとに、ライン
メモリ内のデータを読み出し、規準作成データを各画素
ごとに重み付け平均し、ふたたび同じメモリに書き込む
重み付け平均手段と、 重み付け平均手段による重み付け平均処理を停止し、ラ
インメモリ内のデータを画像補正用規準データとして出
力する出力手段とを備えることを特徴とする画像入力装
置。
Claim: What is claimed is: 1. An image input device for scanning an original document line by line and converting it into a digital signal after photoelectric conversion processing. The image forming apparatus is provided with a deciding means for deciding the image correction reference data based on the black level reference creating data, and a normalizing means for standardizing the digital conversion signal of the document information inputted according to the image correction reference data. The determining means includes an initial value writing means for writing the standard creation data for one line for each pixel as an initial value in the line memory, and 1 after the initial value writing means writes the initial value in the memory.
Each time the reference creation data for a line is input, the data in the line memory is read out, the reference creation data is weighted and averaged for each pixel, and the weighted averaging process is performed to write the same memory again to the same memory. And an output unit for outputting the data in the line memory as the image correction reference data.
JP15926091A 1991-06-29 1991-06-29 Image input device Expired - Lifetime JP3203689B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP15926091A JP3203689B2 (en) 1991-06-29 1991-06-29 Image input device
US07/905,109 US5412489A (en) 1991-06-29 1992-06-26 Shading correction having a line memory read which generates an average reference level from a plurality of lines of a reference plate

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15926091A JP3203689B2 (en) 1991-06-29 1991-06-29 Image input device

Publications (2)

Publication Number Publication Date
JPH0514711A true JPH0514711A (en) 1993-01-22
JP3203689B2 JP3203689B2 (en) 2001-08-27

Family

ID=15689878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15926091A Expired - Lifetime JP3203689B2 (en) 1991-06-29 1991-06-29 Image input device

Country Status (1)

Country Link
JP (1) JP3203689B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7161626B1 (en) 1998-10-02 2007-01-09 Ricoh Company, Ltd. Image reading apparatus
CN109710398A (en) * 2018-12-12 2019-05-03 中国航空工业集团公司西安航空计算技术研究所 It is a kind of based on UML towards GPU vertex coloring method for scheduling task

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7161626B1 (en) 1998-10-02 2007-01-09 Ricoh Company, Ltd. Image reading apparatus
CN109710398A (en) * 2018-12-12 2019-05-03 中国航空工业集团公司西安航空计算技术研究所 It is a kind of based on UML towards GPU vertex coloring method for scheduling task
CN109710398B (en) * 2018-12-12 2023-01-13 中国航空工业集团公司西安航空计算技术研究所 GPU (graphics processing Unit) -oriented vertex coloring task scheduling method based on UML (unified modeling language)

Also Published As

Publication number Publication date
JP3203689B2 (en) 2001-08-27

Similar Documents

Publication Publication Date Title
US5357353A (en) Image forming apparatus
US5398124A (en) Image processor
US5345320A (en) Color image data processing apparatus comprising monochrome pixel detector
US5999279A (en) Image forming apparatus having an MTF correction unit
JPH09247473A (en) Image forming device
JP4329271B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JP3176101B2 (en) Image reading device
US5412489A (en) Shading correction having a line memory read which generates an average reference level from a plurality of lines of a reference plate
JPH06276399A (en) Picture processing unit
JP2003032504A (en) Image forming device
JP3203689B2 (en) Image input device
JP3158498B2 (en) Image processing device
JP3319766B2 (en) Image processing device
JP3128869B2 (en) Image processing device
JP3178013B2 (en) Image input device
JPH0514723A (en) Picture processor
JP3500639B2 (en) Image forming device
JP3306875B2 (en) Image forming device
JP2000270234A (en) Method and unit for discriminating black edge
JP3245883B2 (en) Image forming device
US6999632B2 (en) Image processing apparatus, image forming apparatus and image processing method
JPH04342370A (en) Image forming device
JP3253112B2 (en) Image processing apparatus and image processing method
JP3216149B2 (en) Image forming device
JP3297466B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090629

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090629

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100629

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110629

Year of fee payment: 10

EXPY Cancellation because of completion of term