JPH0451263A - Image processor - Google Patents

Image processor

Info

Publication number
JPH0451263A
JPH0451263A JP2159951A JP15995190A JPH0451263A JP H0451263 A JPH0451263 A JP H0451263A JP 2159951 A JP2159951 A JP 2159951A JP 15995190 A JP15995190 A JP 15995190A JP H0451263 A JPH0451263 A JP H0451263A
Authority
JP
Japan
Prior art keywords
color
data
signal
image
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2159951A
Other languages
Japanese (ja)
Other versions
JP2915503B2 (en
Inventor
Keizo Isemura
圭三 伊勢村
Hiroyuki Ichikawa
弘幸 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2159951A priority Critical patent/JP2915503B2/en
Publication of JPH0451263A publication Critical patent/JPH0451263A/en
Application granted granted Critical
Publication of JP2915503B2 publication Critical patent/JP2915503B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Color Image Communication Systems (AREA)
  • Dot-Matrix Printers And Others (AREA)
  • Color, Gradation (AREA)
  • Color Electrophotography (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE:To reproduce color information which is not reproduced up to this time with simple constitution by providing a color discriminating means discriminating the color phase of input image information and a pattern generating means generating a pattern corresponding to the minimum value on the image information of the discriminated color phase. CONSTITUTION:Each eight bit image data of R, G, and B that the correcting of the black and white levels of the variance of a light quantity, color level sensitivity, etc., is carried out by a black correcting/white correcting circuit 107 is inputted into a color detecting part 109. The inputted data is first inputted into a max/mid/min detecting part carrying out the discrimination of its size. First, each data of the R, G, and B is converted into two-dimensional data. The common part of the R, G, and B, that is, the min(R, G, and B) as the minimum value of the R, G, and B is an achromatic color component. By using the fact, the minimum (R, G, and B) is subtracted from each data of the R, G, and B, and left information is used as a chromatic color. Thus, a three-dimensional input color space is converted into a two-dimensional input color space and a corresponding color phase is obtained in such a simple constitution that a LUT (look up table), etc., are used based on the order of the size of the inputted R, G, and B and the maximum and middle values in the inputted R, G, and B.

Description

【発明の詳細な説明】[Detailed description of the invention] 【産業上の利用分野】[Industrial application field]

本発明は画像処理装置に関し、例えばディジタル複写機
、イメージスキャナ、プリンタ、ファクシミリ等に適用
可能な画像処理装置に関するものである。
The present invention relates to an image processing apparatus, and relates to an image processing apparatus applicable to, for example, a digital copying machine, an image scanner, a printer, a facsimile, and the like.

【従来の技術】[Conventional technology]

従来の例えばディジタル複写機における画像処理におい
ては、複写すべき原稿をハロゲンランプ等で照射し、そ
の反射光をCCD等の電荷結合素子を用い光電変換した
後、ディジタル信号に変換して、所定の画像処理を行な
っていた。そしてこの画像処理した画像データをレーザ
ービームプリンタ、液晶プリンタ、サーマルプリンタ、
インクジェットプリンタ等の記録装置を用い可視像化し
ていた。 このような複写装置に於ては、複写原稿のカラー化等に
伴ない情報量の多いアウトプットが求められており、近
年複数色の現像器を有し、部分的に色を換えて複写する
複写装置が開発されている。
In conventional image processing, for example, in a digital copying machine, a document to be copied is irradiated with a halogen lamp or the like, and the reflected light is photoelectrically converted using a charge-coupled device such as a CCD, and then converted into a digital signal to produce a predetermined signal. I was doing image processing. This image processed image data is then sent to a laser beam printer, liquid crystal printer, thermal printer, etc.
It was visualized using a recording device such as an inkjet printer. Such copying machines are required to output a large amount of information due to the colorization of copied originals, and in recent years, they have been equipped with multi-color developing units and are capable of copying by partially changing colors. A copying device has been developed.

【発明が解決しようとしている課題】[Problem to be solved by the invention]

しかしながら、複数色の現像器をもち、部分的に色を変
えて画像を形成する複写装置に於ては、多くの現像器を
有するため機構が複雑となり、かつ画像の位置精度も高
いものが要求される。このため、高価なものとなってい
る。 又、従来の複写装置に於ては、感光体の感度特性により
(ディジタル複写装置では他に画像を読み取る受光素子
の感度特性により)、原稿の特定色、例えば黄色等を再
現する事がほとんど不可能であった。
However, in a copying machine that has multiple color developing units and forms images by partially changing the color, the mechanism is complicated due to the large number of developing units, and high image positioning accuracy is required. be done. For this reason, it is expensive. Furthermore, in conventional copying devices, due to the sensitivity characteristics of the photoreceptor (in digital copying devices, due to the sensitivity characteristics of the light-receiving element that reads the image), it is almost impossible to reproduce a specific color of the original, such as yellow. It was possible.

【課題を解決するための手段】[Means to solve the problem]

本発明は上述の課題を解決し、複数の現像器を有する事
な(、かつ従来再現できなかった色情報を失うことなく
再現できる安価な画像処理装置を提供することを目的と
する。 上述の目的を達成する一手段として本発明に係る一実施
例は以下の構成を備える。 即ち、入力画像情報の色相を判別する色判別手段と、該
色判別手段の判別色相の画像情報における最小値に対応
したパターンを発生するパターン発生手段とを備える。 そして、例えば、パターン発生手段は予め色相情報に対
応して所定パターンを記憶する記憶手段を有している。
It is an object of the present invention to solve the above-mentioned problems and provide an inexpensive image processing apparatus that does not require a plurality of developing devices (and can reproduce color information without losing color information that could not be reproduced conventionally. As one means for achieving the object, an embodiment according to the present invention has the following configuration: a color discriminator for discriminating the hue of input image information; and a pattern generating means for generating a corresponding pattern.For example, the pattern generating means has a storage means for storing a predetermined pattern in advance in correspondence with the hue information.

【作用] 以上の構成において、簡単な構成で従来再現できなかっ
た色情報を再現できる。 さらに、予め色情報に対応したパターンを記憶手段に記
憶させておき、入力される原稿の画像情報の最小値色情
報に基づき所定パターンを発生させることにより、従来
再現できなかった色情報を再現できる。 【実施例1】 以下、図面を参照して本発明に係る一実施例を詳細に説
明する。 以下の説明では、本実施例の画像処理装置を以下の複写
装置に適用した場合を例に説明する。 即ち、フルカラーの原稿を、ハロゲンランプや蛍光灯等
の照明源で露光し、反射カラー像をCCD等のカラーイ
メージセンサで撮像し、得られたアナログ画像信号をA
/D変換器等でデジタル化し、デジタル化されたフルカ
ラー画像信号を処理、加工し、熱転写型プリンター、イ
ンクジェットプリンター レーザービームプリンター等
のプリント手段に出力し画像を得る複写装置に適用する
。しかし、本実施例装置は以上の装置への適用に限定さ
れるものではなく、画像を処理する装置であれば表示装
置であっても、画像情報の記録媒体への記録装置であっ
ても、種々適用可能である。 上述の複写装置においては、原稿Aは、まず露光ランプ
100により照射され、反射光はカラー読み取りセンサ
であるCCDセンサ102により画像ごとに色分解され
て読み取られ、増幅回路103で所定レベルに増幅され
る。ここで、CCDセンサ102の駆動のための必要な
駆動パルスは、システムパルスジェネレータ101で生
成されている。 第2図にCCDセンサ102の詳細構成及び、該CCD
センサ102の駆動パルスを示す。 第2図(a)は本実施例例で使用されるCCDセンサ1
02であり、主走査方向を5分割して読み取るべく63
.5μmを1画素として(400ドツト/インチ(以下
rdpiJという)で)、1000画素、(図の如く1
画素を主走査方向にG、B、Rで3分割しているので、
トータル1024x3=3072画素)の有効画素数を
有している。 一方、各チップ58〜62は、同一セラミック基板上に
形成され、センサの1.3.5番目(58a、60a、
62a)は同一ラインLA上に、2.4番目はLAとは
4ライン分(63,5μmx4=254μm)だけ離れ
たラインLB上に配置され、原稿読み取り時は、矢印A
L力方向走査する。 各5つのCCDチップ58〜62のうち1゜3.5番目
は駆動パルス群0DRV118aにより、2,4番目は
EDRV119aにより、それぞれ独立にかつ同期して
駆動される。0DRV118aに含まれる0OIA、0
02A、ORSとEDRV119aに含まれるEOIA
、EO2A、ER5はそれぞれ各センサ内での電荷転送
りロック、電荷リセットパルスであり、1,3.5番目
のチップと2,4番目のチップとの相互干渉やノイズ制
限のため、お互いにジッタにないように全く同期して生
成される。このため、これらパルスはシステムパルスジ
ェネレータ101中の1つの基準発振源O8Cから生成
される。 第3図(a)はシステムパルスジェネレータ101中の
0DRVI 18a、EDRVI 19aを生成する回
路ブロック、第3図(b)はそのタイミングチャートを
示している。 システムパルスジェネレータ101に含まれる単一の0
SC558aより発生される源クロックCLKOを分周
回路63aで分周したクロックKO135aは、0DR
VとEDRVの発生タイミングを決める基準信号5YN
C2,5YNC3を生成するクロックであり、5YNC
2゜5YNC3はCPUバスに接続された信号線22に
より設定されるプリセッタブルカウンタ64a及びプリ
セッタブルカウンタ65aの設定値に応じて出力タイミ
ングが決定さる。この5YNC2及び5YNC3は、分
周器66a、67aおよび駆動パルス生成部68a、6
9aを初期化する。即ち、本ブロックに入力されるH5
YNC118を基準とし、全て1つの発振源の0805
58aより出力されるCLKOおよび全て同期して発生
している分周クロックにより生成されているので、0D
RV118aとEDRV119aのそれぞれのパルス群
は又(ジッタのない同期した信号として得られ、センサ
間の干渉による信号の乱れを防止できる。 ここで、お互いに同期して得られたセンサ駆動パルス0
DRV118aは1,3.5番目のセンサ58 a、 
60 a、 62 aに、EDRV119aは2,4番
目のセンサ59a、61aに供給され、各センサ58a
、59a、60a、61a。 62aからは駆動パルスに同期してビデオ信号■1〜v
5が独立に出力される。 このビデオ信号v1〜v5は、増幅回路103に0O3
129aのタイミングでVl、V3゜V5が、EO31
34aのタイミングでV2゜v4がそれぞれ送られ、各
チャンネル毎に独立して所定の電圧値に増幅される。増
幅されたカラー画像信号は、サンプルホールド回路S/
H104に送られ、G(グリーン)、B(ブルー)、R
(レッド)の3色に分離される。従ってS/Hされたの
ちは3x5=15系統の信号処理される。 S/H回路104により、各色R,G、B毎にサンプル
ホールドされたアナログカラー画像信号は、次段A/D
変換回路105で各1〜5チヤンネルごとでデジタル化
され、各1〜5チヤンネル独立に並列で、次段に出力さ
れる。 本実施例では、前述したように4ライン分(63,5μ
mx4=254μm)の間隔を副走査方向に持ち、かつ
主走査方向に5領域に分割した5つの千鳥状センサで原
稿読み取りを行っている。このため、先行走査している
チャンネル2゜4と、残るチャンネル1,3.5では読
み取る位置がズしている。このため、デジタル化された
カラー画像信号は、複数ライン分のメモリを備えたズレ
補正回路106に送られ、正しくつなぐためのズレ補正
を行なう。そして黒補正/白補正回路107に送られる
。 次に、第4図(a)、第4図(b)を用いて黒補正/白
補正回路107における黒補正動作をまず説明する。 第4図(b)に示す様に、チャンネル1〜5の黒レベル
出力は、CCDセンサ102に入力する光量が微小の時
、チップ間、画素間のバラツキが大きい、これをそのま
ま出力し、画像を出力すると、画像のデータ部にスジや
ムラが生じてしまう。このため、この黒部の出力バラツ
キを補正する必要が有る。そこで本実施例では第4図(
a)に示す回路でこの補正を行う。 原稿読取り動作に先立ち、原稿走査ユニットを原稿台先
端部の非画像領域に配置された均一濃度を有する黒色板
の位置へ移動し、ハロゲンを転送し黒レベル画像信号を
本回路に入力する。これらの構成については公知である
ため詳細説明は省略する。 ブルー信号B Inに関しては、この画像データの1ラ
イン分を黒レベルRA M 78 aに格納すべく、セ
レクタ82aで(■信号により)Aを選択し、(■信号
により)ゲート80aを閉じ、ゲート81aを開く。こ
れにより、データ信号線は151a→152a→153
aと接続される。 一方、RAM78aのアドレス人力155aはTrT丁
−で初期化され、VCLKをカウントするアドレスカウ
ンタ84aの出力154aが入力されるべくセレクタ8
3aに対する◎が出力される。 このため、結果として1ライン分の黒レベル信号がRA
 M 78 aの中に格納されることになる。 なお、以上の制御を「黒基準値取込みモード」と呼ぶ。 画像読み込み時には、RA M 78 aはデータ読み
出しモードとなり、データ線153→157aの経路で
減算器79aのB入力へライン毎、1画素毎に読み出さ
れて入力される。即ち、この時、ゲート81aは(■信
号により)閉じ、80aは(■信号により)開く。また
、セレクタ86aはA出力となる。 従って、黒補正回路畠力156aは、黒レベルデータD
K (i)に対し、例えばブルー信号の場合B+、(t
)−DK (i)=13.ut (i)として得られる
。なお、以上の制御を「黒補正モード」と呼ぶ。 グリーンG lll+ レッドRanにおいても、77
aG、77aRによる同様の制御が行われる。 また、本制御のための各セレクタゲートの制御線■、■
+01■、■は、第1図に示す本実施例全体の制御を司
るCPU22のIloとして割り当てられたラッチ85
aによりCPU制御で行われる。 なお、セレクタ82a、83a、86aをB個選択する
ことにより、CPU22によりRAM78aをアクセス
可能となる。 次に、第5図を参照して黒補正/白補正回路107の白
補正(シェーディング補正)動作について説明する。 白レベル補正は、原稿走査ユニットを均一な白色板の位
置に移動して照射した時の白色データに基づき、照明系
、光学系やセンサの感度バラツキの補正を行う、基本的
な回路構成は第4図(a)と同一であるが、黒補正では
減算器79aにて補正を行っていたのに対し、白補正で
は乗算器79′aを用いる点が異なるのみであるので同
一部分の説明は省(。 色補正時に、原稿を読み取るためのCCDセンサ102
が均一白色板の読み取り位置(ホームポジション)にあ
る時、即ち、複写動作または読み取り動作に先立ち、第
1図に示す露光ランプ100を点灯させ、均−白レベル
の画像データを1ライン分の補正RAM78 ” aに
格納する。 例えば、主走査方向A4長手方向の8幅を有するとすれ
ば、少な(とも補正RAMの容量は16peρ/ m 
mで16x297mm=4752画素分の容量、即ち、
少なくとも4752バイトを備えており、第5図(b)
のごとく、“i”画素目の白色板データWi(i=1〜
4752)とすると、RA M 787 aには第5図
(c)のごとく、各画素毎の白色板に対するデータが格
納される。 一方、Wiに対し、“i”番目の画素の通常画像の読み
取り値Diに対しては、補正後のデータD o = D
 i x F F H/ W iとなるべきである。 そこで、本実施例ではCPU22により、ラッチ85′
a■′、■′、◎′、■′に対しゲー)80′a、86
′aを開き、さらにセレクタ82′a、83’a、86
′aにてBが選択されるよう出力し、RAM78 ′a
をCPUアクセス可能とする。 次に、CPU22は、第6図に示す手順で先頭画素W0
に対しFFH/W、の演算処理、Wlに対しFF/W、
の演算処理、・・・ と順次演算してデータの置換を行
う。このようにして5tepBに示す色成分画像のブル
ー成分に対する処理が終了すると、続いて同様にして5
tepGに示すグリーン成分の置換、次の5tepRに
示すレッド成分の置換を順次行う。このようにして、以
後、入力される原画像データDiに対して、DO=D 
i x F F H/ W iが出力されるように、■
′倍信号よりゲート80′aを開、■′倍信号より81
′aを閉とし、セレクタ83’a、86′aのAを選択
するよう制御し、RAM78′aから読み出された係数
データF F H/ W iが信号線153a−=15
7aを通り、一方から入力された原画像データ151a
との乗算がとられ出力されるようにする。 以上説明した様に、黒補正/白補正回路107では、画
像入力系の黒レベル感度、CCDセンサ102の暗電流
のバラツキ、CCDセンサ102の各センサチップ間の
感度のバラツキ、光学系の光量のバラツキや白レベル感
度等積々の要因に基づ(、黒レベル、白レベルの補正を
行う。これにより、主走査方向にわたって、白、黒とも
各色ごとに均一に補正された画像データB011t12
1゜G、u、 122. R,、tl 23が得られる
。 白補正、黒補正されたR、G、Bの各8ビツトの画像デ
ータは、次に、第1図の輝度信号生成部108、及び色
検出部109に入力される。 まず、輝度信号生成部108について説明する。 輝度信号生成部108は、CCDセンサ102で読み取
られて色分解された画像イメージデータから、色分解さ
れてない全波長領域にわたるイメージ、即ち、白黒のイ
メージを作り出している。これは本実施例の出力手段と
してのプリンタが、単色の出力手段しか有しないためで
ある。 本実施例の輝度信号生成部108では、このために次式
の演算により、入力されるR、G、Bの各データに対す
る平均値を算出して輝度信号を生成している。 Dataout  =      (R+ G + B
 )本実施例では、加算器及び乗算器を用いてこの演算
を行なっている。算出された輝度信号は、後述するセレ
クター116へ出力される。 輝度信号生成部108への入力データは、同時に色検出
部109にも入力される。この色検出部109では、本
実施例における画像処理を行なうための原稿上の色成分
を検出するためのものである。 この色検出部109の詳細構成を第7図に示す。 本実施例では、色検出部109での色検出方法に色相信
号を用いている。これは、同一色でも、その彩やかさ及
び明るさが異なる場合に於ても、正確な判定を行なえる
ようにするためである(正確には、通常表わされる色相
とは、異なるが、以下の説明では「色相」として説明す
る)。 まず始めに色検出方法の概略について説明する。 入力されるR、G、Bの各データは各8ビツトのデータ
であり、計234色の情報を有している。 このため、この様な膨大な情報をそのまま用いる事は、
その回路規模からも高価なものとなってしまう。本実施
例では、以上の点に考慮して、先述の色相を用いて以下
の処理を行なう。 入力されるR、G、Bデータは、まずその大小判別を行
なうm a x / m i d / m i n検出
部201に入力される。これは、各入力データをコンパ
レータを用いて比較することにより、max値(最大値
)、mid値(中間値)、min値(最小値)を求め、
各個を出力する。又、コンパレータの各出力値を順位信
号として同時に圧力している。 色空間は、マンセルの立体等で知られている様に、彩度
、明度、色相で表わされることが知られている。そして
、まずR,G、Bの各データを平面、即ち、2次元のデ
ータに変換する必要がある。本実施例では、R,G、B
の共通部、即ち、R,G、Bの最小値であるmin (
R,G、B)は、無彩色成分であることを利用して、m
1n(R,G、B)を各R,G、Bデータより減算し、
残った情報を有彩色成分として用いることとしている。 これにより、簡単な構成で、3次元の入力色空間を2次
元の色空間に変換することを達成している。 このようにして変換された平面は、第8図に示す様にO
1′〜360°までを6つに分け、入力されるR、G、
Bの大きさの順番、即ち、RAG>B%R>B>G、G
>B>R,G>R>B%B〉G>R%B>R>Gの各情
報としている。 本実施例では、以上の変換処理のため、出力されたma
x値、mid値から減算器202及び203により無彩
色成分を減するために、max値及びmid値より最小
値であるmin値を減算し、色相検出部204に順位信
号と共に入力している。色相検圧部204は、RAMあ
るいはROM等のランダムアクセスの可能な記憶素子で
構成することが望ましく、本実施例ではROMを用いた
ルックアップテーブルで構成している。 このROMで構成されたルックアップテーブルである色
相検出部204には、予め第8図に示す平面の角度に対
応する値が記憶されており、入力される順位信号と、(
max−min)値、(m i d−m L n)値と
により、対応する色相値が出力される。 これにより、入力されるR、G、Bの大きさの順番と、
入力されるR、G、Bの内の最大値、中間値に基いて、
LUT (ルックアップテーブル)等を用いるという簡
単な構成で、3次元の入力色空間を2次元の色空間に変
換し、対応する色相を求めている。 このようにして出力された色相値は、次にウィンドウコ
ンパレータ205,206に入力される。このコンパレ
ータ205,206への基準比較値の設定はCPU22
により行なわれる。この基準値は、不図示のデータ入力
手段等により、本来パターン化したい色データを入力し
、その色に合った色相データ値をCPU22によって所
望のオフセットを持たせた後、コンパレータにセットさ
れる。 コンパレータ205は、設定基準値がalとすると、入
力される色相データに対し、 (入力色相データ)<(a+) の時に“1”を出力する。 同様にコンパレータ206は、設定基準値がa、とする
と、入力される色相データに対し、(入力色相データ)
>(a、) の時に“1”を出力される様構成されている。 従って、後段のANDゲート208により、(a+ )
< (入力色相データ)<(a、)の時、色検出部10
9から“1”が出力される。 なお、以上の説明では、ウィンドウコンパレータは1組
のみの例について行なったが、これを複数組みにすれば
、検出色も複数色になる事はいうまでもない。 このようにして色検出部109で判定された判定信号は
、第1図のANDゲート110とセレクタ116に入力
される。 ANDゲー)110は後述するパターン発生部111か
ら発生されるパターン信号に対するゲート処理を行なっ
ている。セレクタ116には、輝度信号生成部108よ
りの輝度信号と、後述するフチどすされたmin (R
,G+ B)信号とが入力されており、色検出部109
よりの検出結果に基づき、両信号の切り換え処理を行な
っている。 次にANDゲート110にパターン信号を出力するパタ
ーン発生部111、及びパターン発生部111の土カバ
ターンの選択を行なうアドレス制御部112について説
明する。 第9図はパターン発生部111、及びパターンアドレス
制御部112の詳細構成を示す図である。 第9図に示す様に、パターン発生部111は実質的には
パターン用ドツトデータが記憶されたROMで構成され
ている0本実施例のパターン発生部111は、第10図
に示す様な上位、下位アドレスに対応するアドレスに”
1″、“0”のデータが書き込まれた構成である。この
値はそれぞれl絵素のオン/オフに対応しており、実際
のパターン化にあたっては第10図(b)の如(にあら
れされることになる。 アドレス制御部112は、第9図に示す様にパターン発
生部111のアドレス信号を画素クロツりVCLK及び
走査基準信号HSYNCに同期した主走査カウンタ70
1、副走査カウンタ703で生成している。 基準信号であるITOP信号、H3YNC信号、及びV
CLK信号のaカタイミングチャートを第11図に示す
。 第11図において、ITOP信号は画先を示す信号であ
り、スキャナ部で画像を読み取っている間、ローレベル
となる。 主走査カウンタ701はH5YNC信号に同期してVC
LK信号をカウントしている。又、副走査カウンタ70
3は、ITOP信号に同期してH5YNC信号をカウン
トしている。そしてこの両カウンタ701,703によ
り、パターン発生部111のアドレスを生成している。 色検出部109からの判定結果により、ANDゲート1
10でゲート処理を行なわれたパターン信号は、次に乗
算器113で、色相検出部109よりの読取られたR、
G、Bの色分解されたビデオ信号の中の最小値を示す信
号、即ち、最も暗い信号であるm L n (R+ G
 + B )のビデオ信号との乗算が行なわれる− m
 in (R+ G + B )の信号を用いたのは、
輝度信号生成部108で生成される信号が、色によって
その信号レベルが異なり、例えば黄色等の色に対しては
、その信号レベルが白に近づき、原稿の画像データが欠
落してしまうためである。 min (R,G、B)の信号は、他に輪郭抽出部11
4にも入力され、ここで、読取り画像画像等の輪郭が抽
出される。この輪郭の抽出処理は、一般に知られている
ラプラシアンフィルタにより行なうことができる。輪郭
抽出部114で抽出された輪郭信号は、加算器115に
送られ、上述した乗算器113から出力されるパターン
化されたm l n (R+ G + B)信号に加算
される。 即ち、第12図(a)に示す輪郭抽出部114で抽出さ
れた輪郭信号と、第12図(b)に示す乗算器113か
ら出力されるパターン化されたmin (R,G、B)
信号との加算が行なわれ、第12図(c)に示す様な縁
取りされたm1n(R,G、B)信号が得られる。加算
器115から出力される信号は、セレクタ116に入力
される。セレクタ116では、前述の様に色検出部10
9からの検出結果に基づき、輝度信号と縁取りされたm
in (R,G、B)信号とのいずれかを切り換えて出
力する。 セレクタ116で選択されたいずれかの信号は、次に輝
度信号を対応する濃度信号に変換するLOG変換部11
7に入力され、対応する濃度信号に変換された後出力さ
れる。 以上説明した様に本実施例によれば、パターン化された
画像信号に輪郭信号を付加することにより、元々の入力
画像に縁取りがしである第13図(a)に示す原稿に対
しては第13図(b)に示す良好な再生画像を得ること
ができる。更に、第14図(a)に示す様な縁取りが成
されていない見にくい原稿に対しては輪郭信号を附加す
ることにより第14図(b)に示すような非常に見易い
再生画像を得ることができる。このように本実施例では
あらゆる原稿画像に対して、画像を見に(くする事なく
再生することができる。 以上説明した様に本実施例によれば、従来の画像処理装
置に於て、感光体の感度特性、ディジタル複写装置での
画像を読み取る受光素子の感度特性により原稿の特性色
(例えば黄色等)を再現することが不可能であったもの
が、本実施例によって特定色も再現することが可能な、
かつ原稿の色情報を失うこともない安価な画像処理装置
が提供できる効果がある。 なお、入力信号は、R,G、Bではな(、Y。 I、Q、L”、a@、b@等の信号であってもよい、こ
れらの信号の場合には、I、Q成分、a”、b”成分の
みで色相判定が行えるので便利である。 また、第7図のウィンドウコンパレータの組を複数設け
ることにより、複数色を指定して色情報をパターン化で
き、その際、色に応じてパターンを変更してもよい。 また、プリンタ部には、レーザビームプリンタ、熱転写
プリンタ、インクジェットプリンタ、ドツトプリンタ等
を用いることができる。
[Operation] With the above configuration, color information that could not be reproduced in the past can be reproduced with a simple configuration. Furthermore, by storing a pattern corresponding to the color information in advance in the storage means and generating a predetermined pattern based on the minimum value color information of the image information of the input document, it is possible to reproduce color information that could not be reproduced conventionally. . Embodiment 1 Hereinafter, one embodiment of the present invention will be described in detail with reference to the drawings. In the following description, an example will be described in which the image processing apparatus of this embodiment is applied to the following copying apparatus. That is, a full-color original is exposed to light from an illumination source such as a halogen lamp or a fluorescent lamp, a reflected color image is captured by a color image sensor such as a CCD, and the resulting analog image signal is
It is applied to a copying device that obtains an image by digitizing it with a /D converter or the like, processing and processing the digitized full-color image signal, and outputting it to a printing means such as a thermal transfer printer, an inkjet printer, or a laser beam printer. However, the device of this embodiment is not limited to application to the above devices, and can be applied to any device that processes images, whether it is a display device or a device that records image information on a recording medium. Various applications are possible. In the copying apparatus described above, the original A is first irradiated by an exposure lamp 100, and the reflected light is separated into colors for each image and read by a CCD sensor 102, which is a color reading sensor, and then amplified to a predetermined level by an amplifier circuit 103. Ru. Here, the drive pulses necessary for driving the CCD sensor 102 are generated by the system pulse generator 101. FIG. 2 shows the detailed configuration of the CCD sensor 102 and the CCD sensor 102.
The driving pulse of the sensor 102 is shown. Figure 2(a) shows the CCD sensor 1 used in this embodiment.
02, and 63 to read by dividing the main scanning direction into 5 parts.
.. Assuming 5 μm as one pixel (at 400 dots/inch (hereinafter referred to as rdpiJ)), there are 1000 pixels (1 as shown in the figure).
Since the pixel is divided into three parts in the main scanning direction by G, B, and R,
The total number of effective pixels is 1024x3=3072 pixels. On the other hand, each chip 58 to 62 is formed on the same ceramic substrate, and the 1st, 3rd, and 5th chips (58a, 60a,
62a) is placed on the same line LA, and the 2.4th line is placed on line LB, which is separated from LA by 4 lines (63.5 μm x 4 = 254 μm).
Scan in the L force direction. Of the five CCD chips 58 to 62, the 1.3.5th one is driven by the drive pulse group 0DRV 118a, and the second and fourth ones are driven by the EDRV 119a, independently and synchronously. 0OIA, 0 included in 0DRV118a
02A, EOIA included in ORS and EDRV119a
, EO2A, and ER5 are charge transfer lock and charge reset pulses within each sensor, respectively, and due to mutual interference and noise limitations between the 1st, 3.5th chips and the 2nd and 4th chips, there is no jitter between them. They are generated completely synchronously, as if they were not. For this reason, these pulses are generated from one reference oscillation source O8C in the system pulse generator 101. FIG. 3(a) shows a circuit block for generating 0DRVI 18a and EDRVI 19a in the system pulse generator 101, and FIG. 3(b) shows its timing chart. A single 0 included in the system pulse generator 101
The clock KO135a obtained by dividing the source clock CLKO generated by the SC558a by the frequency dividing circuit 63a is 0DR.
Reference signal 5YN that determines the generation timing of V and EDRV
This is the clock that generates C2, 5YNC3, and 5YNC
The output timing of 2°5YNC3 is determined according to the set values of the presettable counter 64a and the presettable counter 65a, which are set by the signal line 22 connected to the CPU bus. These 5YNC2 and 5YNC3 are frequency dividers 66a, 67a and drive pulse generators 68a, 6
Initialize 9a. That is, H5 input to this block
Based on YNC118, all 0805 with one oscillation source
Since it is generated by the CLKO output from 58a and the divided clocks that are all generated synchronously, the 0D
The respective pulse groups of RV118a and EDRV119a are also obtained as jitter-free synchronized signals, which can prevent signal disturbances due to interference between sensors.
The DRV 118a is the 1st, 3.5th sensor 58a,
60a and 62a, the EDRV 119a is supplied to the second and fourth sensors 59a and 61a, and each sensor 58a
, 59a, 60a, 61a. From 62a, video signals ■1 to v are synchronized with the drive pulse.
5 are output independently. These video signals v1 to v5 are sent to the amplifier circuit 103 at 0O3.
At the timing of 129a, Vl, V3°V5, EO31
V2°v4 is sent at timing 34a and amplified to a predetermined voltage value independently for each channel. The amplified color image signal is sent to the sample and hold circuit S/
Sent to H104, G (green), B (blue), R
(red). Therefore, after S/H, signals are processed in 3×5=15 systems. The analog color image signals sampled and held for each color R, G, and B by the S/H circuit 104 are sent to the next stage A/D.
The conversion circuit 105 digitizes each of the 1st to 5th channels, and outputs each of the 1st to 5th channels independently in parallel to the next stage. In this example, as described above, 4 lines (63,5μ
The document is read using five staggered sensors having an interval of 254 μm (mx4=254 μm) in the sub-scanning direction and divided into five areas in the main-scanning direction. For this reason, the reading positions of channel 2.4, which is being scanned in advance, and the remaining channels 1 and 3.5 are shifted. For this reason, the digitized color image signal is sent to a shift correction circuit 106 that includes memory for a plurality of lines, and performs shift correction to ensure correct connection. Then, it is sent to the black correction/white correction circuit 107. Next, the black correction operation in the black correction/white correction circuit 107 will be described first with reference to FIGS. 4(a) and 4(b). As shown in FIG. 4(b), when the amount of light input to the CCD sensor 102 is small, the black level outputs of channels 1 to 5 have large variations between chips and between pixels. When outputting , streaks and unevenness occur in the data part of the image. Therefore, it is necessary to correct the output variation of this black part. Therefore, in this embodiment, Fig. 4 (
This correction is performed by the circuit shown in a). Prior to the original reading operation, the original scanning unit is moved to the position of a black plate having uniform density that is placed in a non-image area at the tip of the original table, halogen is transferred, and a black level image signal is input to this circuit. Since these configurations are well known, detailed explanation will be omitted. Regarding the blue signal B In, in order to store one line of this image data in the black level RAM 78a, the selector 82a selects A (by the ■ signal), closes the gate 80a (by the ■ signal), and closes the gate 80a. Open 81a. As a result, the data signal line changes from 151a to 152a to 153.
connected to a. On the other hand, the address input 155a of the RAM 78a is initialized by the TrT, and the selector 8 is configured to receive the output 154a of the address counter 84a that counts VCLK.
◎ for 3a is output. Therefore, as a result, the black level signal for one line is RA
It will be stored in M78a. Note that the above control is called "black reference value capture mode." When reading an image, the RAM 78a is in a data read mode, and the data is read line by line and pixel by pixel and input to the B input of the subtracter 79a via the data line 153→157a. That is, at this time, the gate 81a is closed (by the ■ signal) and the gate 80a is opened (by the ■ signal). Moreover, the selector 86a becomes an A output. Therefore, the black correction circuit 156a outputs the black level data D.
For K(i), for example, in the case of a blue signal, B+, (t
)-DK (i)=13. It is obtained as ut (i). Note that the above control is called "black correction mode." Even in Green Gllll+ Red Ran, 77
Similar control is performed by aG and 77aR. In addition, the control lines of each selector gate for this control
+01■, ■ are latches 85 assigned as Ilo of the CPU 22 that controls the entire embodiment shown in FIG.
This is performed under CPU control using a. Note that by selecting B selectors 82a, 83a, and 86a, the RAM 78a can be accessed by the CPU 22. Next, the white correction (shading correction) operation of the black correction/white correction circuit 107 will be explained with reference to FIG. White level correction corrects the sensitivity variations of the illumination system, optical system, and sensor based on the white data obtained when the document scanning unit is moved to the position of a uniform white plate and irradiated.The basic circuit configuration is as follows. This is the same as in Figure 4(a), but the only difference is that the black correction uses a subtracter 79a, whereas the white correction uses a multiplier 79'a, so the explanation of the same parts will be omitted. CCD sensor 102 for reading the original during color correction
When the is at the reading position (home position) of a uniform white plate, that is, before a copying operation or a reading operation, the exposure lamp 100 shown in FIG. 1 is turned on, and the uniform white level image data is corrected by one line. For example, if the width of A4 in the main scanning direction is 8 in the longitudinal direction, the correction RAM capacity is 16 peρ/m.
Capacity for 16x297mm = 4752 pixels in m, that is,
It has at least 4752 bytes, as shown in Figure 5(b).
The white board data Wi of the “i” pixel (i=1~
4752), data for the white board for each pixel is stored in the RAM 787a as shown in FIG. 5(c). On the other hand, with respect to Wi, for the read value Di of the normal image of the "i"-th pixel, the corrected data Do = D
It should be i x F F H/W i. Therefore, in this embodiment, the latch 85' is
Game for a■′, ■′, ◎′, ■′) 80′a, 86
'a, and selectors 82'a, 83'a, 86
'a outputs so that B is selected, and RAM78 'a
can be accessed by the CPU. Next, the CPU 22 selects the first pixel W0 according to the procedure shown in FIG.
Computation processing of FFH/W for Wl, FF/W for Wl,
Arithmetic processing of ,... is performed sequentially to replace data. When the processing for the blue component of the color component image shown in step 5 is completed in this way, the process is continued in the same manner as step 5.
The replacement of the green component shown in tepG and the replacement of the red component shown in the next 5tepR are performed sequentially. In this way, DO=D for the original image data Di to be input from now on.
■ so that i x F F H/ W i is output.
Gate 80'a is opened by '' double signal, and gate 81' is opened by '' double signal.
'a is closed, the selectors 83'a and 86'a are controlled to select A, and the coefficient data F F H/W i read from the RAM 78'a is connected to the signal line 153a-=15.
Original image data 151a passed through 7a and inputted from one side.
The multiplication with is calculated and output. As explained above, in the black correction/white correction circuit 107, the black level sensitivity of the image input system, the variation in the dark current of the CCD sensor 102, the variation in sensitivity between each sensor chip of the CCD sensor 102, the variation in the light amount of the optical system, etc. The black level and white level are corrected based on cumulative factors such as variations and white level sensitivity.As a result, the image data B011t12 is uniformly corrected for each color for both white and black in the main scanning direction.
1°G, u, 122. R,,tl 23 is obtained. The white-corrected and black-corrected 8-bit R, G, and B image data are then input to the luminance signal generating section 108 and color detecting section 109 in FIG. First, the luminance signal generation section 108 will be explained. The brightness signal generation unit 108 generates an image covering the entire wavelength range that is not color separated, that is, a black and white image, from the image data read by the CCD sensor 102 and color separated. This is because the printer as an output means in this embodiment has only a monochrome output means. For this purpose, the brightness signal generation unit 108 of this embodiment calculates the average value of each of the input R, G, and B data and generates a brightness signal by calculating the following equation. Dataout = (R+G+B
) In this embodiment, this operation is performed using an adder and a multiplier. The calculated luminance signal is output to a selector 116, which will be described later. The input data to the luminance signal generation section 108 is also input to the color detection section 109 at the same time. This color detection unit 109 is for detecting color components on a document for performing image processing in this embodiment. The detailed configuration of this color detection section 109 is shown in FIG. In this embodiment, the color detection unit 109 uses a hue signal as a color detection method. This is to enable accurate judgment even when the same color has different saturation and brightness (to be precise, it is different from the hue that is normally expressed, but the following (Explained as "hue" in the explanation). First, an outline of the color detection method will be explained. Each of the input R, G, and B data is 8-bit data, and has information on a total of 234 colors. For this reason, it is difficult to use such a huge amount of information as is.
The circuit size also makes it expensive. In this embodiment, in consideration of the above points, the following processing is performed using the hue described above. Input R, G, and B data are first input to a max/mid/min detection unit 201 that determines their size. This calculates the max value (maximum value), mid value (intermediate value), and min value (minimum value) by comparing each input data using a comparator.
Output each item. Further, each output value of the comparator is simultaneously applied as a ranking signal. It is known that color space is represented by saturation, brightness, and hue, as is known from Munsell's solid. First, it is necessary to convert the R, G, and B data into flat, ie, two-dimensional data. In this example, R, G, B
min (
Using the fact that R, G, B) are achromatic color components, m
Subtract 1n (R, G, B) from each R, G, B data,
The remaining information is used as chromatic color components. With this, it is possible to convert a three-dimensional input color space into a two-dimensional color space with a simple configuration. The plane transformed in this way is as shown in FIG.
Divide the range from 1' to 360° into 6 parts, input R, G,
The order of the size of B, that is, RAG>B%R>B>G, G
>B>R, G>R>B%B>G>R%B>R>G. In this embodiment, for the above conversion process, the output ma
In order to subtract the achromatic color component from the x value and the mid value by the subtractors 202 and 203, the minimum value, which is the minimum value, is subtracted from the max value and the mid value, and the subtracted values are input to the hue detection unit 204 together with the ranking signal. The hue detection unit 204 is desirably configured with a randomly accessible storage element such as RAM or ROM, and in this embodiment is configured with a look-up table using ROM. The hue detection unit 204, which is a look-up table configured with this ROM, stores in advance values corresponding to the angles of the plane shown in FIG.
max-min) value and (m i d-m L n) value, the corresponding hue value is output. As a result, the order of the input R, G, and B sizes,
Based on the maximum value and intermediate value of input R, G, and B,
With a simple configuration that uses an LUT (look-up table) or the like, a three-dimensional input color space is converted into a two-dimensional color space, and the corresponding hue is determined. The hue values output in this way are then input to window comparators 205 and 206. The setting of the reference comparison value to the comparators 205 and 206 is performed by the CPU 22.
This is done by This reference value is set in the comparator after the color data originally desired to be patterned is input using a data input means (not shown), and the hue data value matching the color is given a desired offset by the CPU 22. If the set reference value is al, the comparator 205 outputs "1" when (input hue data)<(a+) with respect to the input hue data. Similarly, if the set reference value is a, the comparator 206 calculates (input hue data)
>(a,), it is configured to output "1". Therefore, by the AND gate 208 in the latter stage, (a+)
When <(input hue data)<(a,), the color detection unit 10
9 outputs “1”. In the above description, only one set of window comparators is used, but it goes without saying that if a plurality of window comparators are used, a plurality of colors can be detected. The determination signal determined by the color detection unit 109 in this manner is input to the AND gate 110 and selector 116 in FIG. AND game) 110 performs gate processing on a pattern signal generated from a pattern generation section 111, which will be described later. The selector 116 receives a luminance signal from the luminance signal generation unit 108 and a bordered min (R
, G+B) signals are input to the color detection unit 109.
Based on the detection results, switching between both signals is performed. Next, the pattern generation section 111 that outputs a pattern signal to the AND gate 110 and the address control section 112 that selects the cover pattern of the pattern generation section 111 will be described. FIG. 9 is a diagram showing the detailed configuration of the pattern generation section 111 and the pattern address control section 112. As shown in FIG. 9, the pattern generating section 111 is substantially composed of a ROM in which pattern dot data is stored. , to the address corresponding to the lower address”
It has a configuration in which data of 1'' and 0 are written. These values correspond to on/off of l picture elements, respectively, and in actual patterning, the data should be as shown in Fig. 10(b). As shown in FIG. 9, the address control section 112 converts the address signal of the pattern generation section 111 into a main scanning counter 70 synchronized with the pixel clock signal VCLK and the scanning reference signal HSYNC.
1. It is generated by the sub-scanning counter 703. The reference signals ITOP signal, H3YNC signal, and V
A timing chart of the CLK signal is shown in FIG. In FIG. 11, the ITOP signal is a signal indicating the tip of the image, and is at a low level while the scanner unit is reading the image. The main scanning counter 701 is synchronized with the H5YNC signal.
Counting LK signals. Also, the sub-scanning counter 70
3 counts the H5YNC signal in synchronization with the ITOP signal. Both counters 701 and 703 generate an address for the pattern generation section 111. Based on the determination result from the color detection unit 109, AND gate 1
The pattern signal subjected to the gate processing in step 10 is then passed through a multiplier 113 to the R,
m L n (R+ G
+ B ) is multiplied with the video signal − m
The in (R+G+B) signal was used as follows.
This is because the signal level of the signal generated by the luminance signal generation unit 108 differs depending on the color. For example, for a color such as yellow, the signal level approaches white, causing image data of the document to be lost. . The min (R, G, B) signals are also sent to the contour extraction unit 11.
4 is also input, and here the outline of the read image, etc. is extracted. This contour extraction process can be performed using a generally known Laplacian filter. The contour signal extracted by the contour extraction section 114 is sent to an adder 115 and added to the patterned m l n (R+G+B) signal output from the multiplier 113 described above. That is, the contour signal extracted by the contour extraction unit 114 shown in FIG. 12(a) and the patterned min (R, G, B) output from the multiplier 113 shown in FIG. 12(b)
Addition with the signal is performed, and a framed m1n (R, G, B) signal as shown in FIG. 12(c) is obtained. The signal output from adder 115 is input to selector 116. In the selector 116, as described above, the color detection section 10
Based on the detection results from 9, the luminance signal and the edged m
in (R, G, B) signal and outputs it. One of the signals selected by the selector 116 is then sent to the LOG converter 11 which converts the luminance signal into a corresponding density signal.
7, and output after being converted into a corresponding density signal. As explained above, according to this embodiment, by adding the contour signal to the patterned image signal, the original input image shown in FIG. A good reproduced image shown in FIG. 13(b) can be obtained. Furthermore, by adding a contour signal to a difficult-to-see original without borders as shown in FIG. 14(a), it is possible to obtain a reproduced image that is very easy to see as shown in FIG. 14(b). can. In this way, in this embodiment, any original image can be reproduced without image distortion.As explained above, according to this embodiment, in the conventional image processing apparatus, Due to the sensitivity characteristics of the photoreceptor and the sensitivity characteristics of the light-receiving element that reads the image in a digital copying device, it was impossible to reproduce the characteristic colors of the original (such as yellow), but with this example, it is now possible to reproduce specific colors. It is possible to
Moreover, it is possible to provide an inexpensive image processing apparatus that does not lose the color information of the original. Note that the input signals are not R, G, B (, Y. I, Q, L", a@, b@, etc. signals. In the case of these signals, I, Q components , a'', and b'' components, which is convenient. In addition, by providing multiple sets of window comparators shown in Figure 7, it is possible to designate multiple colors and pattern the color information. The pattern may be changed depending on the color. Also, a laser beam printer, a thermal transfer printer, an inkjet printer, a dot printer, etc. can be used as the printer section.

【発明の効果】【Effect of the invention】

以上説明したように本発明によれば、簡単な構成で従来
再現できなかった色情報を再現できる。 さらに、予め色情報に対応したパターンを記憶手段に記
憶させておき、入力される原稿の画像情報の最小値色情
報に基づき所定パターンを発生させることにより、従来
再現できなかった色情報を再現できる。
As described above, according to the present invention, color information that could not be reproduced conventionally can be reproduced with a simple configuration. Furthermore, by storing a pattern corresponding to the color information in advance in the storage means and generating a predetermined pattern based on the minimum value color information of the image information of the input document, it is possible to reproduce color information that could not be reproduced conventionally. .

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明に係る一実施例のブロック図、第2図(
a)は本実施例のCCDセンサの詳細構成図、 第2図(b)は本実施例のCCDセンサ駆動タイミング
チャート、 第3図(a)は本実施例のCCDセンサ駆動パルス発生
回路の詳細構成図、 第3図(b)は本実施例のCCDセンサ駆動パルス発生
回路の動作タイミングチャート、第4図(a)は本実施
例の黒補正回路図、第4図(b)は本実施例の黒補正の
概念を示す図、 第5図(a)は本実施例の白補正回路図、第5図(b)
は本実施例の白補正の概念を示す図、 第5図(c)は本実施例の白色板に対するデータを示す
図、 第6図は本実施例の白補正の手順を示す図、第7図は本
実施例の色検出部の詳細ブロック図、 第8図は色認識を説明するための色相面を示す図、 第9図は本実施例のパターン発生部及びアドレス制御部
の詳細回路図、 第10図(a)はパターン発生部のアドレスとデータと
の関係を示す図、 第10図(b)はパターン発生部の発生パターンを示す
図、 第11図はアドレス制御部に入力される基準制御信号の
タイミングチャート、 第12図(a)は輪郭画像を示す図、 第12図(b)はパターン化された画像を示す図、 第12図(c)は第12図(a)の輪郭画像と第12図
(b)のパターン化された画像を元に縁取りをした画像
の例を示す図、 第13図(a)は縁取りがしである画像の例を示す図 第13図(b)は第13図(a)の入力画像を本実施例
で再生した場合の画像例を示す図、第14図(a)は縁
取りが成されていない画像の例を示す図、 第14図(b)は第14図(a)の入力画像を本実施例
で再生した場合の画像例を示す図である。 信号生成部、109・・・色検出部、111・・・パタ
ーン発生部、112・・・アドレス制御部、114・・
・輪郭抽出部、116・・・セレクタ、117・・・L
OG変換部、201−・m a x / m i d 
/ m i n検出部、204・・・色相検出部、20
5,206・・・コンパレータ、701・・・主走査カ
ウンタ、703・・・副走査カウンタである。 特許 出願人   キャノン 株式会社代理人弁理士 
  大塚康徳(他1名)図中、22・・・CPU、10
0・・・露光ランプ、102−CCD セ:/す、10
4・S/H回路、105・・・A/D変換回路、106
・・・ズレ補正回路、107・・・黒補正/白補正回路
、108・・・輝度第 図(a) 第 図(b) 第 図(b) (裏、)CHl CH2CH3CH4CH5 第 図(b) 第 図(c) 1=0 第 図 第 図 TOP 第 図 主、を嶽 第 図(b) (a) 第 図 (b) (b) (b)
FIG. 1 is a block diagram of an embodiment according to the present invention, and FIG. 2 (
a) is a detailed configuration diagram of the CCD sensor of this embodiment, FIG. 2(b) is a CCD sensor drive timing chart of this embodiment, and FIG. 3(a) is a detailed diagram of the CCD sensor drive pulse generation circuit of this embodiment. 3(b) is an operation timing chart of the CCD sensor drive pulse generation circuit of this embodiment, FIG. 4(a) is a black correction circuit diagram of this embodiment, and FIG. 4(b) is a diagram of the black correction circuit of this embodiment. Figure 5(a) is a diagram showing the concept of black correction in this example, and Figure 5(b) is a white correction circuit diagram of this embodiment.
5(c) is a diagram showing the data for the white board of this embodiment. FIG. 6 is a diagram showing the white correction procedure of this embodiment. Figure 8 is a detailed block diagram of the color detection section of this embodiment. Figure 8 is a diagram showing a hue plane for explaining color recognition. Figure 9 is a detailed circuit diagram of the pattern generation section and address control section of this embodiment. , FIG. 10(a) is a diagram showing the relationship between the address and data of the pattern generating section, FIG. 10(b) is a diagram showing the generated pattern of the pattern generating section, and FIG. 11 is a diagram showing the relationship between the address and data of the pattern generating section. Timing chart of the reference control signal, Fig. 12(a) is a diagram showing a contour image, Fig. 12(b) is a diagram showing a patterned image, Fig. 12(c) is a diagram of Fig. 12(a). FIG. 13(a) is a diagram showing an example of an image with a border removed based on the contour image and the patterned image in FIG. 12(b). b) is a diagram showing an example of an image when the input image of FIG. 13(a) is reproduced in this embodiment, FIG. 14(b) is a diagram showing an example of an image when the input image of FIG. 14(a) is reproduced in this embodiment. Signal generation section, 109... Color detection section, 111... Pattern generation section, 112... Address control section, 114...
- Contour extraction section, 116...Selector, 117...L
OG conversion section, 201-・max/mid
/ min detection unit, 204...hue detection unit, 20
5, 206... Comparator, 701... Main scanning counter, 703... Sub-scanning counter. Patent Applicant Canon Agent Patent Attorney Co., Ltd.
Yasunori Otsuka (and 1 other person) In the diagram, 22...CPU, 10
0...Exposure lamp, 102-CCD C:/su, 10
4.S/H circuit, 105...A/D conversion circuit, 106
... Misalignment correction circuit, 107 ... Black correction/white correction circuit, 108 ... Luminance diagram (a) Figure (b) Figure (b) (Back,) CHl CH2CH3CH4CH5 Figure (b) Figure Figure (c) 1=0 Figure Figure TOP Figure Main Figure (b) (a) Figure (b) (b) (b)

Claims (2)

【特許請求の範囲】[Claims] (1)入力画像情報の色相を判別する色判別手段と、該
色判別手段の判別色相の画像情報における最小値に対応
したパターンを発生するパターン発生手段とを備えるこ
とを特徴とする画像処理装置。
(1) An image processing device characterized by comprising a color discriminating means for discriminating the hue of input image information, and a pattern generating means for generating a pattern corresponding to the minimum value in the image information of the hue discriminated by the color discriminating means. .
(2)請求項第1項記載の画像処理装置において、 パターン発生手段は予め色相情報に対応して所定パター
ンを記憶する記憶手段を有していることを特徴とする画
像処理装置。
(2) The image processing apparatus according to claim 1, wherein the pattern generation means includes a storage means for storing a predetermined pattern in advance in correspondence with hue information.
JP2159951A 1990-06-20 1990-06-20 Image processing device Expired - Fee Related JP2915503B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2159951A JP2915503B2 (en) 1990-06-20 1990-06-20 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2159951A JP2915503B2 (en) 1990-06-20 1990-06-20 Image processing device

Publications (2)

Publication Number Publication Date
JPH0451263A true JPH0451263A (en) 1992-02-19
JP2915503B2 JP2915503B2 (en) 1999-07-05

Family

ID=15704730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2159951A Expired - Fee Related JP2915503B2 (en) 1990-06-20 1990-06-20 Image processing device

Country Status (1)

Country Link
JP (1) JP2915503B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006326280A (en) * 2005-04-25 2006-12-07 Takeshi Kuroda Knocked-down flower vase

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006326280A (en) * 2005-04-25 2006-12-07 Takeshi Kuroda Knocked-down flower vase

Also Published As

Publication number Publication date
JP2915503B2 (en) 1999-07-05

Similar Documents

Publication Publication Date Title
US7057775B2 (en) Image processing apparatus and method using image information and additional informational or an additional pattern added thereto or superposed thereon
US4974072A (en) Image reading apparatus having a plurality of line sensors and means for correcting crosstalk therebetween
JP4158332B2 (en) Color image processing device
JP3178541B2 (en) Image processing method and apparatus
US5631983A (en) Image forming system for synthesizing color image data with binary image data which has been colored with a predetermined color during the synthesizing operation
JP4280404B2 (en) Image processing apparatus and method
JP3176101B2 (en) Image reading device
US5585945A (en) Image synthesis with reduced memory requirements
US5760929A (en) Image processing apparatus for processing discriminated color regions within specified boundaries
JPH10210311A (en) Image-processing method and device therefor
JP3253117B2 (en) Image processing apparatus and method
EP0559470A1 (en) Method of histogram analysis of colour tints
JPH0451263A (en) Image processor
JP3226224B2 (en) Image processing device
JP3206932B2 (en) Image processing method and apparatus
JP3200090B2 (en) Image processing method and apparatus
JP3316077B2 (en) Background density level detector
JP3359045B2 (en) Image processing apparatus and image processing method
JP2738412B2 (en) Color image information processing device
JP2815962B2 (en) Image processing apparatus and image processing method
JP3077204B2 (en) Image reading device
JP2547738B2 (en) Color image processing device
JP3020955B2 (en) Image processing device
JP2759977B2 (en) Image processing device
JPH07182518A (en) Method and device for processing image

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees