JP2004153563A - Image processing device, image readout device, image forming device and color copying device - Google Patents

Image processing device, image readout device, image forming device and color copying device Download PDF

Info

Publication number
JP2004153563A
JP2004153563A JP2002316420A JP2002316420A JP2004153563A JP 2004153563 A JP2004153563 A JP 2004153563A JP 2002316420 A JP2002316420 A JP 2002316420A JP 2002316420 A JP2002316420 A JP 2002316420A JP 2004153563 A JP2004153563 A JP 2004153563A
Authority
JP
Japan
Prior art keywords
color
pixel
white
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002316420A
Other languages
Japanese (ja)
Inventor
Shinji Yamakawa
愼二 山川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2002316420A priority Critical patent/JP2004153563A/en
Publication of JP2004153563A publication Critical patent/JP2004153563A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing device, an image readout device, an image forming device and a color copying device of such good capability as avoiding the incorrect decision of deep colored dots and the like as a character. <P>SOLUTION: Each device includes a white pixel detection means for detecting whether a white pixel is existent in an N × N matrix, a color decision means for deciding a color including a color pixel and a color dot when the color pixel is existent in a predetermined position of the N × N matrix, and a color pixel decision means for deciding the color pixel when the white pixel detection means detects the pixel being not a white pixel and the color decision means decides as the color including the color pixel and the color dot. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置、画像読取り装置、画像形成装置およびカラー複写装置に関し、特に、画像データの色文字黒文字を検出して適切な画像処理をする画像処理装置に関する。
【0002】
【従来の技術】
従来例として、特許文献1に開示される画像処理装置が知られている。この発明では、それぞれの特徴にあわせて、パターンマッチングを行っている。
また、特許文献2に開示される画像処理装置、特許文献3に開示される有彩色無彩色分類方法、カラー画像処理装置および記録媒体が知られている。
【0003】
【特許文献1】
特開平5−307641号公報
【特許文献2】
特開2000−125140号公報
【特許文献3】
特開2001−346057号公報
【0004】
【発明が解決しようとする課題】
しかしながら、特許文献1の発明においては、色画素のみでパターンマッチングを行っているので、読取り位置ずれがあると誤判定してしまい、非現実的であるという問題点があった。
また、特許文献2の発明においては、暗い色網点を検出できない、特許文献3の発明においては、色網点検出手段を備えているが、白画素をしてかつマトリックスを細分化して装置を複雑化しているという問題点があった。
また、従前の発明では、濃い色網点などは文字と誤判定されることがある。そのときに色判定が正常に色と判定されても黒文字と判定されて黒単色で出力され、結局のところ非常に見苦しくなるという問題点があった。
【0005】
本発明は、上記問題点に鑑みてなされたものであり、暗い色網点を色として検出する画像処理装置、画像読取り装置、画像形成装置およびカラー複写装置を提供することを目的とする。
【0006】
より詳細には、本発明の第1の目的は、N×Nマトリックス内に、白画素がなく、所定の位置に色画素が存在する場合に色画素を判定するときに、色網点を色として検出する画像処理装置を提供することにある。
【0007】
本発明の第2の目的は、色画素は、N×Nのマトリックスの外周4辺のそれぞれ1箇所を参照することにより、読取り位置ずれの影響を受けないようにして色を検出する画像処理装置を提供することにある。
【0008】
本発明の第3の目的は、色網点検出手段に加え、色細線検出可能な色細線画素検出手段とを組み合わせることにより、色網点を検出する。これによって色細線を明確に検出可能とした画像処理装置を提供することにある。
【0009】
【課題を解決するための手段】
上記の課題を解決するために、請求項1記載の発明は、N×Nマトリックス内に白画素があるかどうかを検出する白画素検出手段と、前記N×Nマトリックス内の所定の位置に色画素が存在する場合に色画素、色網点を含む色を判定する色判定手段と、前記白画素検出手段で白画素でなく、前記色判定手段で前記色画素、色網点を含む色であると判定したときに、前記色画素を判定する色画素判定手段とを有することを特徴とする画像処理装置である。
【0010】
請求項2記載の発明は、請求項1記載の発明において、前記色判定手段は、前記N×Nマトリックスの外周4辺のそれぞれ1箇所を参照することを特徴とする画像処理装置である。
【0011】
請求項3記載の発明は、請求項1記載の発明において、さらに、色細線検出可能な色細線画素検出手段を備えることを特徴とする画像処理装置である。
【0012】
請求項4記載の発明は、請求項1から3のいずれか1項に記載の画像処理装置を用い、さらに、原稿画像を色分解して読取って画像データを生成し前記画像処理装置に与えるカラースキャナとを備えることを特徴とする画像読取り装置である。
【0013】
請求項5記載の発明は、請求項1から3のいずれか1項に記載の画像処理装置を用い、さらに、前記画像処理装置の出力画像データを用紙上にプリントアウトするカラープリンタを備えることを特徴とする画像形成装置である。
【0014】
請求項6記載の発明は、請求項1から3のいずれか1項に記載の画像処理装置を用い、さらに、原稿画像を色分解して読取って画像データを生成し前記画像処理装置に与えるカラースキャナと、前記画像処理装置の出力画像データを用紙上にプリントアウトするカラープリンタを備えることを特徴とするカラー複写装置である。
【0015】
請求項7記載の発明は、外部からのプリント指示コマンドを解析して前記カラープリンタによって外部からの画像情報をプリントアウトするプリンタコントローラを更に備えることを特徴とする請求項6記載ののカラー複写装置である。
【0016】
【発明の実施の形態】
以下、添付図面を参照しながら本発明の実施の形態を詳細に説明する。
図1は、本発明の実施の形態によるデジタルフルカラー複写機の概略構成図である。主な構成は、カラー画像読取り装置200と、カラー画像記録装置400と、が設けられており、これにより複写機を構成している。
【0017】
カラー画像読取り装置(以下、スキャナという)200は、コンタクトガラス202上の原稿180の画像を照明ランプ205、ミラー群204A、204B、204C、およびレンズ206を介してカラーセンサ207に結像して、原稿のカラー画像情報を、例えば、ブルー(以下、Bという)、グリーン(以下、Gという)およびレッド(以下、Rという)の色分解光毎に読取り、電気的な画像信号に変換する。カラーセンサ207は、この例では、3ラインCCDセンサで構成されており、B、G、Rの画像を色ごとに読取る。スキャナ200で得たB、G、Rの色分解画像信号強度レベルをもとにして、画像処理ユニット(図示省略)にて色変換処理を行い、ブラック(以下、BKという)、シアン(以下、Cという)、マゼンタ(以下、Mという)およびイエロー(以下、Yという)の記録色情報を含むカラー画像データを得る。
【0018】
このカラー画像データを用い、次に述べるカラー画像記録装置(以下、カラープリンタという)400によって、BK、C、M、Yの画像を中間転写ベルト上に重ね形成し、そして転写紙に転写する。スキャナ200は、カラープリンタ400の動作とタイミングをとったスキャナスタート信号を受けて、照明ランプ205やミラー群204A、204B、204Cなどからなる照明・ミラー光学系が左矢印方向へ原稿走査し、1回走査毎に1色の画像データを得る。そして、その都度、カラープリンタ400で順次、顕像化しつつ、これらを中間転写ベルト上に重ね合わせて、4色のフルカラー画像を形成する。
【0019】
カラープリンタ400における露光手段としての光書き込み光学ユニット401は、スキャナ200からのカラー画像データを光信号に変換して、原稿画像に対応した光書き込みを行い、感光体ドラム414に静電潜像を形成する。光書き込み光学ユニット401は、レーザ発光器441、これを発光駆動する発光駆動制御部(図示省略)、ポリゴンミラー443、これを回転駆動する回転用モータ444、fθレンズ442、反射ミラー446などで構成されている。感光体ドラム414は、矢印で示す如く反時計廻りの向きに回転するが、その周りには、感光体クリーニングユニット421、除電ランプ414M、帯電器419、感光体ドラム上の潜像電位を検知する電位センサー414D、リボルバー現像装置420の選択された現像器、現像濃度パターン検知器414P、中間転写ベルト415などが配置されている。
【0020】
リボルバー現像装置420は、BK現像器420K、C現像器420C、M現像器420M、Y現像器420Yと、各現像器を矢印で示す如く反時計回りの向きに回転させるリボルバー回転駆動部(図示省略)などからなる。これら各現像器は、静電潜像を顕像化するために、現像剤の穂を感光体ドラム414の表面に接触させて回転するBK現像器420Kの現像スリーブ420KS、C現像器420Cの現像スリーブ420CS、M現像器420Mの現像スリーブ420MS、Y現像器420Yの現像スリーブ420YSと、現像剤を組み上げ・撹拌するために回転する現像パドルなどで構成されている。待機状態では、リボルバー現像装置420はBK現像器420Kで現像を行う位置にセットされており、コピー動作が開始されると、スキャナ200で所定のタイミングからBK画像データの読取りがスタートし、この画像データに基づき、レーザ光による光書き込み・潜像形成が始まる。以下、BK画像データによる静電潜像をBK潜像という。C、M、Yの各画像データについても同じ。このBK潜像の先端部から現像可能とすべく、BK現像器420Kの現像位置に潜像先端部が到達する前に、現像スリーブ420KSを回転開始して、BK潜像をBKトナーで現像する。そして、以後、BK潜像領域の現像動作を続けるが、潜像後端部がBK潜像位置を通過した時点で、速やかに、BK現像器420Kによる現像位置から次の色の現像器による現像位置まで、リボルバー現像装置420を駆動して回動させる。この回動動作は、少なくとも、次の画像データによる潜像先端部が到達する前に完了させる。
【0021】
像の形成サイクルが開始されると、感光体ドラム414は矢印で示すように反時計回りの向きに回動し、中間転写ベルト415は駆動モータ(図示省略)により、時計回りの向きに回動する。中間転写ベルト415の回動に伴って、BKトナー像形成、Cトナー像形成、Mトナー像形成およびYトナー像形成が順次行われ、最終的に、BK、C、M、Yの順に中間転写ベルト415上に重ねてトナー像が形成される。BK像の形成は、以下のようにして行われる。すなわち、帯電器419がコロナ放電によって、感光体ドラム414を負電荷で約−700Vに一様に帯電する。続いて、レーザダイオード441は、BK信号に基づいてラスタ露光を行う。このようにラスタ像が露光されたとき、当初、一様に荷電された感光体ドラム414の露光された部分については、露光光量に比例する電荷が消失し、静電潜像が形成される。リボルバー現像装置420内のトナーは、フェライトキャリアとの撹拌によって負極性に帯電され、また、本現像装置の現像スリーブ420KSは、感光体ドラム414の金属基体層に対して電源回路(図示省略)によって、負の直流電位と交流とが重畳された電位にバイアスされている。この結果、感光体ドラム414の電荷が残っている部分には、トナーが付着せず、電荷のない部分、つまり、露光された部分にはBKトナーが吸着され、潜像と相似なBK可視像が形成される。中間転写ベルト415は、駆動ローラ415D、転写対向ローラ415T、クリーニング対向ローラ415Cおよび従動ローラ群に張架されており、駆動モータ(図示省略)により回動駆動される。さて、感光体ドラム414上に形成したBKトナー像は、感光体と接触状態で等速駆動している中間転写ベルト415の表面に、ベルト転写コロナ放電器(以下、ベルト転写部という。)416によって転写される。以下、感光体ドラム414から中間転写ベルト415へのトナー像転写を、ベルト転写と称する。感光体ドラム414上の若干の未転写残留トナーは、感光体ドラム414の再使用に備えて、感光体クリーニングユニット421で清掃される。ここで回収されたトナーは、回収パイプを経由して図示しない排トナータンクに蓄えられる。
【0022】
なお、中間転写ベルト415には、感光体ドラム414に順次形成するBK、C、M、Yのトナー像を同一面に順次位置合わせして、4色重ねのベルト転写画像を形成し、その後、転写紙にコロナ放電転写器にて一括転写を行う。ところで感光体ドラム414側では、BK画像の形成工程の次に、C画像の形成工程に進むが、所定のタイミングから、スキャナ200によるC画像データの読取りが始まり、その画像データによるレーザ光書込みでC潜像の形成を行う。C現像器420Cは、その現像位置に対して先のBK潜像後端部が通過した後で、かつ、C潜像先端が到達する前に、リボルバー現像装置の回転動作を行い、C潜像をCトナーで現像する。以降、C潜像領域の現像をつづけるが、潜像後端部が通過した時点で、先のBK現像器の場合と同様にリボルバー現像装置420を駆動して、C現像器420Cを送り出し、次のM現像器420Mを現像位置に位置させる。この動作もやはり、次のM潜像先端部が現像部に到達する前に行う。なお、MおよびYの各像の形成工程については、それぞれの画像データの読取り、潜像形成、現像の動作が、上述のBK像や、C像の工程に準ずるので、説明は省略する。
【0023】
ベルトクリーニング装置415Uは、入口シール、ゴムブレード、排出コイルおよび、これら入口シールやゴムブレードの接離機構により構成される。1色目のBK画像をベルト転写した後の、2、3、4色目を画像をベルト転写している間は、ブレード接離機構によって、中間転写ベルト面から入口シール、ゴムブレードなどは離間させておく。
【0024】
紙転写コロナ放電器(以下、紙転写器という。)417は、中間転写ベルト415上の重ねトナー像を転写紙に転写するべく、コロナ放電方式にて、AC+DCまたは、DC成分を転写紙および中間転写ベルトに印加するものである。
【0025】
給紙バンク内の転写紙カセット482には、各種サイズの転写紙が収納されており、指定されたサイズの用紙を収納しているカセットから、給紙コロ483によってレジストローラ対418R方向に給紙・搬送される。なお、符号412B2は、OHP用紙や厚紙などを手差しするための給紙トレイを示している。像形成が開始される時期に、転写紙は前記いずれかの給紙トレイから給送され、レジストローラ対418Rのニップ部にて待機している。そして、紙転写器417に中間転写ベルト415上のトナー像の先端がさしかかるときに、丁度、転写紙先端がこの像の先端に一致する如くにレジストローラ対418Rが駆動され、紙と像との合わせが行われる。このようにして、転写紙が中間転写ベルト上の色重ね像と重ねられて、正電位につながれた紙転写器417の上を通過する。このとき、コロナ放電電流で転写紙が正電荷で荷電され、トナー画像の殆どが転写紙上に転写される。続いて、紙転写器417の左側に配置した図示しない除電ブラシによる分離除電器を通過するときに、転写紙は除電され、中間転写ベルト415から剥離されて紙搬送ベルト422に移る。中間転写ベルト面から4色重ねトナー像を一括転写された転写紙は、紙搬送ベルト422で定着器423に搬送され、所定温度にコントロールされた定着ローラ423Aと加圧ローラ423Bのニップ部でトナー像が溶融定着され、排出ロール対424で本体外に送り出され、コピートレイ(図示省略)に表向きにスタックされる。
【0026】
なお、ベルト転写後の感光体ドラム414は、ブラシローラ、ゴムブレードなどからなる感光体クリーニングユニット421で表面をクリーニングされ、また、除電ランプ414Mで均一除電される。また、転写紙にトナー像を転写した後の中間転写ベルト415は、再び、ベルトクリーニング装置415Uのブレード接離機構でブレードを押圧して表面をクリーニングする。リピートコピーの場合には、スキャナの動作および感光体への画像形成は、1枚目の4色目画像工程にひきつづき、所定のタイミングで2枚目の1色目画像工程に進む。中間転写ベルト415の方は、1枚目の4色重ね画像の転写紙への一括転写工程にひきつづき、表面をベルトクリーニング装置でクリーニングされた領域に、2枚目のBKトナー像がベルト転写されるようにする。その後は、1枚目と同様動作になる。
【0027】
図1に示すカラー複写機は、パ−ソナルコンピュ−タ等のホストから、LAN又はパラレルI/Fを通じてプリントデ−タが与えられるとそれをカラープリンタ400でプリントアウト(画像出力)でき、しかもスキャナ200で読取った画像データを遠隔のファクシミリに送信し、受信する画像データもプリントアウトできる複合機能つきのカラー複写機である。この複写機は、構内交換器PBXを介して公衆電話網に接続され、公衆電話網を介して、ファクシミリ交信やサ−ビスセンタの管理サ−バと交信することができる。
【0028】
次に、図2を参照し、図1に示すカラー複写機の電気システムの概要について述べる。
図2はメインコントローラ10を中心に、カラー複写機の制御装置を図示したものである。
メインコントローラ10は、カラー複写機全体を制御する。なお、メインコントローラ10には、オペレータに対する表示と、オペレータからの機能設定入力制御を行う操作/表示ボードOPB、エディタ15、スキャナ200およびオプションのADFの制御、原稿画像を画像メモリに書込む制御、および、画像メモリからの作像を行う制御等を行う、スキャナコントローラ12、プリンタコントローラ16、画像処理ユニット(IPU)300、ならびに、カラープリンタ400内にあって荷電、露光、現像、給紙、転写、定着ならびに転写紙搬送を行う作像エンジンの制御を行うエンジンコントローラ13、等の分散制御装置が接続されている。各分散制御装置とメインコントローラ10は、必要に応じて機械の状態、動作指令のやりとりを行っている。また、紙搬送等に必要なメインモータ、各種クラッチも、メインコントロ−ラ10内のドライバ(図示省略)に接続されている。
【0029】
カラープリンタ400には、給紙トレイからの給紙をはじめとして、感光体ドラム414の荷電、レーザ書込みユニットによる画像露光、現像、転写、定着および排紙を行う機構要素を駆動する電気回路および制御回路、ならびに各種センサ等がある。
【0030】
プリンタコントローラ16は、パソコンなど外部からの画像およびプリント指示するコマンドを解析し、画像データとして、印刷できる状態にビットマップ展開し、メインコントローラ10を介して、カラープリンタ400を駆動して画像データをプリントアウトする。画像およびコマンドをLANおよびパラレルI/Fを通じて受信し動作するために、LANコントロール19とパラレルI/Fコントロール18がある。
【0031】
FAXコントローラ17は、ファクシミリ送信指示があるときには、メインコントローラ10を介してスキャナ200およびIPU300を駆動して原稿の画像を読んで、画像データを、通信コントロール20およびPBXを介して、ファクシミリ通信回線に送出する。通信回線からファクシミリの呼びを受け画像データを受信すると、メインコントローラ10を介して、カラープリンタ400を駆動して画像データをプリントアウトする。
【0032】
図3に、画像処理ユニット(IPU)300の構成を示す。
画像処理ユニット(IPU)300には、スキャナ200が発生するR、G、B画像データが、インタフェイス(1)351を介して与えられる。なお、B又はR単色の記録をBRユニット355が指示する場合には、R、G、B画像データの選択と集成が行われるが、このモードの画像記録処理の説明は省略する。IPU300に与えられたR、G、B画像データは、原稿認識320に入力され、次段のRGBγ補正310で、反射率データ(R、G、Bデータ)から濃度データ(R、G、Bデータ)に変換される。
【0033】
原稿認識320が、この濃度R、G、Bデータに基づいて、それらのデータが宛てられる画像領域が文字エッヂ領域(文字や線画のエッジ領域)、網点領域、低線数網点領域か絵柄領域(写真や絵の領域&文字領域でない領域&網点領域でない&網点領域でない)かを判定し、C/P信号(領域判定信号)およびB/C信号(色か色でないか判定した信号)を、RGBフィルタ330、ならびに、インタフェイス(3)353を介してメインコントローラ10に与える。以下、C/P信号およびB/C信号を説明する。
C/P信号:2ビット信号であり、
3が低線数網点領域を示し、
2が網点領域を示し、
1が文字エッジ領域を示し、
0が絵柄領域を示す。
B/C信号:1ビット信号であり、
H(「1」)が無彩領域を示し、
L(「0」)が有彩領域を示す。
【0034】
−原稿認識320−
次に、図4を参照して原稿認識320の機能について述べる。
図4は、原稿認識320の機能をブロック区分で示した図である。
原稿認識320は、大別して、ラインメモリR3201、ラインメモリG3202、ラインメモリB3203、認識処理部3204から構成されている。
認識処理部3204は文字エッジ検出、絵柄検出および有彩/無彩検出を行う。
これにより、文字エッジ領域あるいは絵柄領域を表すC/P信号および有彩領域/無彩領域を表すB/C信号を発生する。
ラインメモリR3201と、ラインメモリG3202と、ラインメモリB3203は、RGBを複数ライン蓄えることが可能なラインメモリである。ラインメモリR、G、Bは、認識結果(C/P、B/C)とラインの同期(位置)をあわせるために入力のRGBを複数ライン遅らせて出力する。これにより、認識処理と、認識処理時に複数ライン処理がかかる問題を回避することができる。
【0035】
図5は、原稿認識320の構成を示すブロック図である。
以下、図5を参照しながら、原稿認識320の構成について詳細に説明する。
【0036】
原稿認識320は、フィルタ処理321、エッジ抽出322、白領域抽出323、網点抽出324、色判定325および総合判定326からなる。
以下、各ブロックにおける処理動作について説明する。なお、ここでは、スキャナ200の読取り密度が600dpi程度の場合を例とする。
【0037】
−フィルタ処理321−
まず、フィルタ処理321における処理動作について詳細に説明する。
フィルタ処理321は、主に文字のエッジの抽出ために、スキャナ200が発生するG画像データを補正する。ここで、スキャナ200で読取ったデータは、レンズなどの性能でボケていることがあるので、エッジ強調フィルタをかける。ただし、ここでは単純に原稿上の像エッジを強調し、複写機に広く普及している階調表現のための万線パターンを強調しない必要がある。万線パターンを強調してしまうと、絵柄(万線パターンによる階調表現領域)をエッジとして抽出して、最終的に文字エッジと誤判定する可能性があるので、強調しないようにする必要がある。
また、図6に示すように、600dpiの万線パターンAと400dpiの万線パターンBは、繰返し周期が異なるので、同一のフィルタ係数で強調しないようにするのは難しい。そのため、後段の特徴量検出(エッジ抽出、白領域検出)に応じて、2つの係数の演算結果の最大値または、最小値のどちらかを使用する。
なお図6において、主走査方向xの白1ブロック幅とそれに接する黒1ブロック幅との和が、万線ピッチ(定幅:所定数の画素)すなわち万線周期であり、低濃度中間調の時には白ブロック幅が広がり黒ブロック幅が狭くなる。高濃度中間調になるにつれて、白ブロック幅が狭くなり黒ブロック幅が広がる。
【0038】
この実施例では、フィルタ処理321の画素マトリックスを、主走査方向xの画素数7×副走査方向y(スキャナ200の機械的な原稿走査方向)の画素数5として、図5に示すフィルタ処理321のブロックには、各画素宛てに各重み付け係数a1からa7、b1からb7、c1からc7、d1からd7、e1からe7を宛てた2組の係数グループ(係数マトリックス)A、Bがある。以下に、係数グループAと係数グループBの表を示す。
【0039】
【表1】

Figure 2004153563
【0040】
【表2】
Figure 2004153563
【0041】
上記係数グループAは、図6に示す、600dpiの万線パターンAの強調を抑制し、文字のエッジを強調するフィルタ処理用の係数である。
係数グループBは、図6に示す、400dpiの万線パターンBの強調を抑制し、文字のエッジを強調するフィルタ処理用の係数である。
【0042】
なお、係数グループA、係数グループBにおいて、横方向が主走査方向xの並び、縦方向が副走査方向yの並びを示す。
また、係数グループA、Bの、グループ内第1行の係数が、図5のフィルタ処理321に示す、ブロックの係数マトリックスの、第1行の係数a1からa7であり、係数グループA、Bの第3行の中央の「20」が、フイルタ処理321に示す、ブロックの係数マトリックスの第3行c1からc7の中央の画素の係数、即ち注目画素の係数c4である。
【0043】
このように、係数マトリックスの各係数に、それに宛てられる画素の画像データが表す値を乗算した積(総計7×5=35個)の総和(積和値)が、注目画素(c4が宛てられた画素)の、フィルタ処理321で処理した画像データ値として、エッジ抽出322および白領域抽出323に与えられる。
なお、注目画素とは、現在処理対象の画素であり、それが順次にx方向にそしてy方向に位置が異なるものに更新される。
【0044】
係数グループAは、図6に示す600dpiの万線パターンAの万線ピッチで負の係数(小さい値の係数)が分布し、それらの間に0(やや大きい値の係数)が分布する。そしてエッジ強調のために注目画素には20(極めて大きな係数)が宛てられている。
これにより、画像データ(注目画素)が万線パターンAの領域における黒/白間エッジである時には、それにあてて導出される加重平均値(積和値)は、万線パターンAではない文字エッジである時に比べて、かなり低い値になる。
【0045】
係数グループBは、図6に示す400dpiの万線パターンBの万線ピッチで負の係数(小さい値の係数)が分布しそれらの間に0(やや大きい値の係数)が分布する。そしてエッジ強調のために注目画素には20(極めて大きな係数)が宛てられている。
これにより、画像データ(注目画素)が万線パターンBの領域における黒/白間エッジである時には、それにあてて導出される加重平均値(積和値)は、万線パターンBでない文字エッジである時に比べて、かなり低い値になる。
【0046】
なお、フィルタ処理321では、係数グループAと係数グループBの演算を行い、エッジ抽出322に、演算結果の最小値を出力して、白領域抽出323には、演算結果の最大値を出力する。
エッジ抽出322に、演算結果の最小値を出力するのは、文字の構造が万線形状をしている場合に、白レベルが十分に抽出できないことがあるのを避けるためである。
また、白領域抽出323に、演算結果の最大値を出力するのは、絵柄が万線パターンの構造の場合(例えば複写機の出力)より、鮮明な絵柄になりやすいようにするためである。
【0047】
これにより、エッジ抽出322ではよりエッヂとして拾いやすくして、白領域検出323ではより絵柄として拾いやすくしている。
なお、本実施形態では、2つ係数を例に取って説明したが、3つ以上の係数でも同様の効果が得られる。
また、図5にはエッジ抽出322での処理にG画像データを参照する態様を示すが、Gデータに限らず、輝度データであってもよい。濃いまたは薄いを表現する信号なら適応可能である。
【0048】
−エッジ抽出322−
次に、エッジ抽出322における処理動作について詳細に説明する。
文字領域は、高レベル濃度の画素(以下、黒画素という)と低レベル濃度の画素(以下、白画素という)が多く、かつ、エッジ部分では、これら黒画素および白画素が連続している。エッジ抽出322では、このような黒画素および白画素それぞれの連続性に基づいて文字エッジを検出する。
【0049】
−3値化322a−
まず、3値化322aにおける処理動作について説明する。
3値化322aでは、2種の閾値TH1およびTH2を用いて、フィルタ処理321が文字エッジ強調のフィルタ処理をしたG画像データ(エッジ抽出322の入力データ)を3値化する。なお、閾値TH1およびTH2は、例えば、画像データが0から255までの256階調(0=白)を表す場合、TH1=20、TH2=80と設定する。
3値化322aでは、入力データを以下の条件により変換する。
入力データ<TH1であると、該データが宛てられる画素を白画素と、
TH1≦入力データ<TH2であると、中間調画素と、
TH2≦入力データであると、黒画素と、
表す3値化データに変換する。
【0050】
−黒画素連続検出322b、白画素連続検出322c−
次に、黒画素連続検出322b、白画素連続検出322cにおける処理動作について説明する。
黒画素連続検出322bおよび白画素連続検出322cは、3値化データに基づいて、黒画素が連続する箇所および白画素が連続する箇所を、それぞれパターンマッチングにより検出する。
このパターンマッチングには、本実施形態では、図7に示す3×3画素マトリックスのパターンBPaからBPdおよびWPaからWPdを用いる。
図7に示す3×3画素マトリックスのパターンにおいて、黒丸は上述の黒画素であることを示し、白丸は上述の白画素であることを示す。また、いずれの丸印もない空白画素は、黒画素、中間調画素、白画素のどの画素かを問わないものである。なお、3×3画素マトリックスの中心の画素が注目画素である。
【0051】
黒画素連続検出322bは、3値化データの内容の分布が、図7に示す黒画素分布パターンBPaからBPdのいずれかにマッチングすると、その時の注目画素を「黒連続画素」として、それを表すデータを注目画素に与える。
同様に、白画素連続検出322cは、図7に示す白画素分布パターンWPaからWPdのいずれかにマッチングすると、その時の注目画素を「白連続画素」として、それを表すデータを注目画素に与える。
【0052】
−近傍画素検出322d−
次に、近傍画素検出322dにおける処理動作について説明する。
近傍画素検出322dは、黒画素連続検出322bおよび白画素連続検出322cの検出結果について、この近傍画素検出322dでの注目画素の近傍に黒連続画素又は白連続画素があるか否かを調べる。
これにより、注目画素が、エッジ領域と非エッジ領域のいずれにあるかを判定する。より具体的に述べれば、本実施形態においては、5×5画素マトリックスのブロックで、その内部に黒連続画素と白連続画素がそれぞれ1つ以上存在するときに、そのブロックをエッジ領域と判定する。また、その内部に黒連続画素と白連続画素がそれぞれ1つ以上存在しないときに、そのブロックを非エッジ領域と判定する。
【0053】
−孤立点除去322e−
次に、孤立点除去322eにおける処理動作について説明する。
文字エッジは連続して存在するので、孤立点除去322eにて孤立しているエッジを非エッジ領域に補正する。そして、エッジ領域と判定した画素に対して“1”(エッジ領域)なるedge信号を出力し、非エッジ領域と判定した画素に対して“0”(非エッジ領域)なるedge信号を出力する。
【0054】
−白領域抽出323−
次に、白領域抽出323における処理動作について詳細に説明する。
白領域抽出323は、2値化323a、RGB白抽出323b、白判定323c、白パターンマッチング323d、白パターン補正323e、白膨張323f、白収縮323g、白補正323h、グレーパターンマッチング323i、グレー膨張323j、および判定323kからなる。
【0055】
−2値化323a−
まず、2値化323aについて説明する。
2値化323aは、フィルタ処理321の画像濃度データ(G画像データ)のエッジ強調出力を、閾値thwsbで2値化して、白パターンマッチング323d(図8のステップ7の処理)が参照する白データの生成のための2値化白判定信号を発生する。
なお、エッジ強調出力は、この実施形態では0から255の256階調であり、0が濃度の無い白であり、閾値thwsbの一例は、50であって、エッジ強調出力の値がthwsb=50より小さければ、2値化323aが「2値化白」と判定し2値化白判定信号「1」を発生する。エッジ強調出力の値がthwsb=50以上のときは2値化白判定信号「0」を発生する。
【0056】
−RGB白抽出323b−
次に、RGB白抽出323bについて説明する。
RGB白抽出323bは、RGB白地検出および谷白画素検出323b1、色地検出323b2、グレー画素検出323b3により構成される。
上記構成により、RGB白地検出および谷白画素検出、および色地検出を行い、画像データが白領域かを判定する。また、グレー画素検出を行い、グレー判定を行う。
【0057】
−RGB白地検出および谷白画素検出323b1−
まず、RGB白地検出について説明する。
RGB白地検出では、R、G、B画像データで白地領域を検出することにより、白背景の分離動作をアクティブにする。すなわち白背景分離の処理を起動する。具体的には、図9のパターンWBPに示すように、3×3画素マトリックスのR、G、B画像データのすべてが閾値thwssより小さければ、注目画素(3×3画素マトリックスの中心画素)が白領域と判定して白パターンマッチング323d(図8のステップS3の処理を表す白地判定信号)をアクティブ(「1」)にする。これは、ある程度の広がりの白画素領域があるかを検出するものである。なお、R、G、B画像データのそれぞれも、この実施形態では0から255の256階調であり、0が濃度の無い基底レベルであり、閾値thwss<thwsbであって、thwssの一例は、40であって、R、G、B画像データのすべてがthwss=40より小さいと、「白地」と判定し白地判定信号「1」を発生する。R、G、B画像データのいずれかがthwss=40以上のときは白地判定信号「0」を発生する。
【0058】
次に、谷白画素検出について説明する。
谷白画素検出では、上記RGB白地検出で検出できない小さな白領域の谷白画素を、図9に示すG画像データの5×5画素マトリックス分布RDPaおよびRDPbに基づいて検出する。具体的には、5×5画素マトリックス分布RDPaに基づいて、
miny=min(G[1][2]、G[1][3]、G[1][4]、G[5][2]、G[5][3]、G[5][4])
を算出する。
即ち、図9に示す5×5画素マトリックス分布RDPaの、黒丸を付した画素群の中の最低濃度minyを摘出する。
そして、
maxy=max(G[3][2]、G[3][3]、G[3][4])
を算出する。
即ち、図9に示す5×5画素マトリックス分布RDPaの、白丸を付した画素群の中の最高濃度maxyを摘出する。
次に、
mint=min(G[2][1]、G[3][1]、G[4][1]、G[2][5]、G[3][5]、G[4][5])
を算出する。
即ち、図9に示すもう1つの5×5画素マトリックス分布RDPbの、黒丸を付した画素群の中の最低濃度mintを摘出する。
そして、
maxt=max(G[2][3]、G[3][3]、G[4][3])
を算出する。
即ち、図9に示す5×5画素マトリックス分布RDPbの、白丸を付した画素群の中の最高濃度maxtを摘出する。ここで、 min( )は最小値を検出する関数である。 max( )は、最大値を検出する関数である。
次に、
OUT=((miny−maxy) > 0) # ((mint−maxt) > 0)
を算出する。
即ち、(miny−maxy)と(mint−maxt)のうち、正値であって大きいほうの値を谷検出値OUTとし、このOUTの値がある閾値以上であると、注目画素(RDPaまたはRDPbの中心画素)を谷白画素と検出する。このように画像の谷状態を検出して、RGB白地検出では、検出しにくいところを補う。
【0059】
−色地検出323b2−
次に、色地検出323b2について説明する。
色地検出は、薄い色を白背景と判定しないようにするために、色地を検出する。
A. ここではまず、注目画素を中心とする5×5画素マトリックスの各画素の符号を、図10のパターンMPpに示すものとすると、注目画素となる中心画素c3(MCaからMCdの×印画素)のRGB差(1画素宛てのR、G、B画像データの最大値と最小値との差)が閾値thcより大きいと色画素判定信号aを「1」(色画素)とし、閾値thc以下のときは「0」(白黒画素)とする。
B. 注目画素の片側の周辺画素群△(図10のMCaからMCdの中)のいずれかの画素のR、G、B画像データがすべて閾値thwc以下であると一方側白判定信号bを「1」(白画素)とし、閾値thwcを超えるときは「0」(非白画素)とする。閾値thwcは例えば20である。
C. 注目画素の他方側の周辺画素群□(図10のMCaからMCdの中)のいずれかの画素のR、G、B画像データがすべて閾値thwc以下であると他方側白判定信号cを「1」(白画素)とし、閾値thwcを超えるときは「0」(非白画素)とする。
D. 図10のパターンMCaからMCdのいずれかにおいて、
a AND (bとcのエクスクルーシブノア)=「1」
が成立すると、すなわち、a=「1」(注目画素が色画素)、かつ、bとcが一致(注目画素の両側ともに白画素、または、両側ともに非白画素)のとき、注目画素宛ての、色地判定信号dを「1」(色地)とする。この色地判定信号dは、白パターンマッチング323d(図8のステップS6の処理を表す)で、参照される。
【0060】
上述のパターンマッチングAからDを行うのは、黒文字のまわりがRGB読取り位置ずれで、わずかながらに色付きになるとき、そこを色と拾わないためである。黒文字のまわりの色付き位置では、(bとcのエクスクルーシブノア)が「0」(注目画素の両側の一方が白画素、他方が非白画素)となり、この場合は、色地判定信号d=「0」(非色地)となる。
【0061】
加えて、注目画素が、周辺を白地で囲まれた色画素のときには、色地判定信号d=「1」(色地)となり、線が込み入ったところでも、薄い色画素を色地として検出することができる。すなわち、線が込み入ったところでは、本来白いところが完全に白に読取られないが、上記処理Aで、RGB差が小さいと色画素と判定しないので、閾値thwcを濃度を見るべき白地よりも厳しく設定して(たとえばthwss=40、thwsb=50に対し、thwc=20)、BからDの処理で白背景か否を厳密にチエックして薄い色画素を色地として正確に検出することができる。
【0062】
−グレー画素検出323b3−
次に、グレー画素検出323b3について説明する。
グレー画素検出は、R、G、B、Y、M、C、BKの色相分割を行い、色相毎に濃度が低いと画素を検出する。
色相分割は、後述する色判定と同一である。
ここで、フィルタ後のGデータをthgrと比較して、Gデータより大きいか、RGB白抽出の色画素検出で色画素であるか、のどちらかを満たしていれば、下記の演算を行い、下記条件を満たしていれば、グレー画素とする。
ここで、色毎に閾値を変えているのは各インクの最大濃度が異なるためである。
【0063】
1)R−Y色相領域境界(ry)
R−2*G+B>0
2)Y−G色相領域境界(yg)
11*R−8*G−3*B>0
3)G−C色相領域境界(gc)
1*R−5*G+4*B<0
4)C−B色相領域境界(cb)
8*R−14*G+6*B<0
5)B−M色相領域境界(bm)
9*R−2*G−7*B<0
6)M−R色相領域境界(mr)
R+5*G−6*B<0
7)Y画素判定(gry)
(色画素である)& (ry == 1) & (yg == 0) & (RGBの最大値<thmaxy)8)G画素判定(grg)
(色画素である)& (yg == 1) & (gc == 0) & (RGBの最大値<thmaxg)9)C画素判定(grc)
(色画素である)& (gc == 1) & (cb == 0) & (RGBの最大値<thmaxc)10)B画素判定(grb)
(色画素である)& (cb == 1) & (bm == 0) & (RGBの最大値<thmaxb)11)M画素判定(grm)
(色画素である)& (bm == 1) & (mr == 0) &(RGBの最大値<thmaxm)12)R画素判定(grr)
(色画素である)& (mr == 1) & (ry == 0) & (RGBの最大値<thmaxr)13)色画素でない時(grbk)
(RGBの最大値<thmaxbk )
14)グレー画素判定
7)から14)のいずれかの条件を満たす時にグレー画素とする。
なお、「==」は、C言語の表記である。
【0064】
−白判定323c−
次に、白判定323cについて説明する。
ここでは、白判定に用いる状態変数MS、SS[I]の更新を行う。その内容を図8に示す。
なお、図8は白判定に用いる状態変数MS、SS[I]の更新の処理手順を示すフローチャートである。
ここで、状態変数MSは処理対象ライン(注目ライン)の画素宛てのもの、状態変数SS[I]は処理対象ラインの1ライン前(処理済ライン)の画素宛てのものであり、いずれも白地の白の程度を表す4bitの白地情報であり、図8の処理によって生成されるものである。状態変数MSおよびSS[I]が表す値の最高値は15に定めており、これが最も白い程度を意味し、最低値は0である。すなわち、状態変数MSおよびSS[I]は、白の程度を示すデータであり、それが表す値が大きいほど、強い白を意味する。複写動作開始時に、状態変数MSおよびSS[I]は共に0に初期化される。
【0065】
次に、図8の処理動作について説明する。
まず、処理対象である注目画素の1ライン前の状態変数すなわち白地情報SS[I]と、注目画素の同一ライン上における1画素前の画素(先行画素:処理済画素)の状態変数、すなわち白地情報MSとを比較する(ステップS1)。そして、1ライン前の白地情報SS[I]の方が大きければ(ステップS1/YES)、それを注目画素の仮の白地情報MSとする(ステップ2)。そうでない場合(ステップS1/NO)は、先行画素の状態変数MSを、注目画素の仮の白地情報MSとする。これは、周辺画素の白地情報の、より白に近い情報を選択することを意味する。
【0066】
複写動作を開始してから、上記処理動作からRGB白地検出で白領域すなわち白地か、そうでないものかを判定する(ステップS3)。そして白地(白領域)を検出すると(ステップS3/YES、RGB白地検出の出力である白地判定信号=「1」)、注目画素の1ライン前の画素の白地情報SS[I]を15に更新し、注目画素の白地情報MSも15とする(ステップS4、5)。そして、注目画素の白地情報MSは、図11に示すラインメモリLMPの、現ライン(注目ライン)用のラインメモリの注目画素の主走査位置(F)に書込み、1ライン前の画素宛ての白地情報SS[I]は、図11に示すラインメモリLMPの、前1ライン用のラインメモリの、注目画素の主走査位置(F)に書込む(ステップ3、4、5)。
【0067】
次に、1ライン前の画素宛ての白地情報SS[I]を、1ライン前の画素に、次のように、伝搬させる(ステップS14から17)。なお、[I]は注目画素の主走査位置を意味し、[I−1]は主走査方向xでそれより1画素前の画素(注目画素の直前の画素)の位置を意味する。
【0068】
SS[I−1]<SS[I]−1の時、SS[I−1]=SS[I]−1をラインメモリにセットする(ステップS14、15)。
すなわち、注目画素より1ライン前のラインにおいて、主走査方向で注目画素の位置(F)より1画素前(E)の白地情報SS[I−1]よりも注目画素の位置(F)の白地情報SS[I]から1を減算した値「SS[I]−1」のほうが大きい(白程度が強い)と、1ライン前のライン上の注目画素の位置(F)より1画素前の画素(E)宛ての白地情報SS[I−1]を、注目画素の位置(F)の白地情報SS[I]より1だけ白強度を下げた値に更新する。
【0069】
次に、SS[I−2]<SS[I]−2の時、SS[I−2]=SS[I]−2をラインメモリにセットする(ステップS16、17−14、15)。
次に、SS[I−3]<SS[I]−3の時、SS[I−3]=SS[I]−3をラインメモリにセットする(ステップS16、17−14、15)。
【0070】
以下、同様にして最後に、SS[I−15]<SS[I]−15の時、SS[I−15]=SS[I]−15をラインメモリにセットする(ステップS16、17−14、15)。これらの白地情報SS[I]の値の下限値MINは0であり、0未満になるときには、0にとどめる。これは後述のステップS13においても同様である。
【0071】
これらのステップS14から17の処理により、1ライン前かつ注目画素の主走査位置より前の白地情報SSが、注目画素の白地情報MSを、それから主走査方向xの1画素の位置ずれにつき1の低減率で下げた値に更新され、注目画素の白地情報が1ライン前の主走査方向xで主走査の後方に、前記低減率で伝搬する(白伝搬処理)。
ただし、これは1ライン前の白地情報のほうが小さい値である場合である。例えば1ライン前の画素が、RGB白地検出で白地(白領域)と検出したものであるときにはそれの白地情報は15であって最高値であるので書換えは行われない。
【0072】
注目画素を更新してそれが白地でないものになると(RGB白地検出の出力である白地判定信号=「0」)、ステップS3からステップS6以下に進み、注目画素が、色地(色地検出の出力である色地判定信号d=「1」)でなく(非色地であり)、2値化白(前記2値化323aの出力である2値化白判定信号=「1」)であり、しかも、ステツプS1、2で仮に定めた注目画素の状態変数すなわち白地情報MSが閾値thw1(例えば13)以上である場合に、注目画素宛ての白地情報MSを+1する(ステップS6から10)。
【0073】
すなわち、1だけ白程度が強い値に更新する。白地情報MSの最高値maxは15に定めており、15を超える時には15にとどめる(ステップS9、10)。この経路を進んできたときにも、前述の、ステップS5および14から17を実行する。すなわち、白伝搬処理を行う。
【0074】
注目画素が非色地かつ2値化白ではあるが、白地情報MSがthw1(例えば7)未満、thw2(例えば1)以上、かつ、谷白画素である場合には、状態変数MSをそのままの値に保持する(ステップS8、11、12)。この経路を進んできたときにも、前述の、ステップS5および14から17を実行する。すなわち、白伝搬処理を行う。
【0075】
上記条件のいずれにも一致しないとき、すなわち、注目画素が色地又は非2値化白のときは、注目画素の白地情報MSを−1する(ステップS13)。
すなわち、白程度が1だけ弱い白地情報に更新する。白地情報MSの最低値minは0であり、0未満になる場合には0にとどめる。この経路を進んできたときにも、前述の、ステップS5および14から17を実行する。すなわち、白伝搬処理を行う。
【0076】
以上の白地情報MSの生成により、ラインメモリLMP上において、状態変数(白地情報)MSを介して周辺画素に白情報を伝搬させることができる。この白地情報MSの生成は前述のように、色データ(R、G、B画像データのすべて)が閾値thwss=40より小さいとき白地と表すRGB白地判定信号に基づいた、図8に示す、ステップS3−4−5−14から17系統の、色対応の白地情報MSの生成を含み、しかも、濃度データ(G画像データ)のエッジ強調出力(フィルタ321の出力)が、閾値thwsb=50より小さいとき白地と2値化白判定信号に基づいた、図8に示す、ステップS7から13−5−14から17系統の、濃度対応の白地情報MSの生成を含む。
【0077】
白判定323cは、まず、RGB白抽出323bの中のRGB白地検出で、白領域を検出するまで、すなわち、RGB白地検出が白地判定信号「1」を発生し、これに対応して色対応の白地情報MSの生成(ステップS3−4−5−14から17)を開始するまでは動作(ステップ4の実行)をしない。
これは、白領域(白地)との判定が得られない領域において、フィルタ処理321のエッジ強調処理後のG画像データを後述する白パターンマッチングにて白画素(白ブロック)と誤判定することを防ぐためである。
【0078】
薄い色地上の文字にエッジ強調フィルタ処理321をかけると、文字周辺のデータが本来の画像データ(色地)より、レベルの低い値(白)となるので、フィルタ処理321のエッジ強調処理後のデータで白パターンマッチングをすると、すなわち、濃度対応の白地情報MSの生成(ステップS7から13−5−14から17)のみに基づいて白領域判定をすると、色地上の文字周辺を白地と誤判定しやすいが、上述の色対応の白地情報MSの生成(ステップS3−4−5−14から17)によって白領域との判定が得られる領域に後述する白画素(白ブロック)を判定するための白パターンマッチングを適用するように白地情報MSを最高値とする。
【0079】
また、ステップS3で白地でないときには、更にステップS6以下で詳細に白地条件をチエックして白パターンマッチングを適用するか否を決定するための1つのパラメータである白地情報MSを調整するので、フィルタ処理321のエッジ強調処理後G画像データを後述する白パターンマッチングにて白画素(白ブロック)と誤判定することを防いでいる。
【0080】
例えば、色画素の可能性が高いときには、白地情報MSを下げ(ステツプS13)、色画素の疑いもあり得るときには白地情報MSをホールド(変更無し)にして(ステップS11から13)、後述する白パターンマッチングにて白画素(白ブロック)と誤判定することを防いで、文字周辺のデータが本来の画像データ(色地)より、レベルの低い値(白)となるのを防止している。
【0081】
文字が密なところは上述の処理(ステツプS3から5、6から10および14から17)によって白地情報MSを更新し伝搬させるので、密な文字領域が絵柄と誤判定される可能性が低減する。また、込み入った文字(例えば、「書」)などの文字の中は、RGB白地検出で白検出ができない場合があるが、そのときに谷白画素検出にて、白と検出し、白地情報MSを、ステツプS12のYES出力がステップS5に直進する経路でホールドして、白地傾向にとどめるので、込み入った文字の中が絵柄と誤判定される可能性が低減する。
【0082】
また、先に触れたように、注目画素が、周辺を白地で囲まれた色画素のときには、色地検出の出力である色地判定信号d=「1」(色地)となり、線が込み入ったところでも、薄い色画素を色地として検出することができ、注目画素周辺が白かを見る閾値thwcを低く設定して(thwc=20)、薄い色画素(注目画素)の周辺が白背景か否を厳密にチエックして、薄い色画素を色地として検出することができるので、込み入った文字の中が絵柄と誤判定される可能性を更に低減することができる。
【0083】
上述のように、薄い色画素を色地としてより厳密に検出できることにより、色地と検出したときには図8のステップS6からステップS13に進んで、状態変数MSを下げて色地を白と判定する可能性を低減できるのに加えて、ステップS3で参照する白地判定信号を生成する時の閾値thwss(例えば40)に対して、ステップS7で参照する2値化白判定信号を生成する時の閾値thwsb(例えば50)を大きい値として、色地と判定しなかつた場合(ステップS6/NO)には、前記2値化323aで白と見なす確率を高くして、図8のステップS7から10に進んで状態変数MSを上げて白領域と判定する可能性を高くしている。
【0084】
すなわち、RGB白地検出で閾値thwss=40の場合、白と判定する確率が低い厳しい白判定を行って、そこで白地と判定すると、図8のステップS3から4以下の処理により、状態変数MSを上げて文字背景を白と判定する可能性を高くしている。
厳しい白判定で白地との判定が出なかったときには、では逆に色地であるかの、薄い色画素も色地として検出する信頼性が高い厳しい色地判定、すなわち前記色地検出の結果を参照する。また、それが色地との判定にならないときには、もう一度、今度は白と判定する確率が高い閾値thwsb=50の甘い白判定、すなわち前記2値化323a、を参照してそれが白の判定であると、状態変数MSを上げて文字背景を白と判定する可能性を高くしている(ステップS7から10)。
この処理(ステップS6から10)があるので、色地と検出される薄い色画素よりも更に薄い背景濃度ムラ、例えば裏映りのような原稿の地にムラがある場合に、原稿の細かい地ムラに連動して状態変数MSが2値的に大きく変化するのが抑制され、次の白パターンマッチング323dでの白画素か否かの判定が走査方向に細かく変動するのが抑制される。その結果、背景が薄い色地のときに、裏映りのような原稿の細かい地ムラに連動して細かい色抜け(白背景)が現われることがなくなる。
【0085】
−白パターンマッチング323d−
次に、白パターンマッチング323dについて説明する。
注目画素を中心とする5×5画素単位のブロックで連続した白画素が存在するか否かで、背景が白かを判断する。そのために、注目画素に関して、次の条件式が満たされる場合に、注目画素を白画素と仮に定めて、白パターンマッチングを行う。
【0086】
(非色画素&(白地情報MS≧thw1(13))&2値化白)#
(非色画素&(白地情報MS≧thw2(1))&谷白画素&2値化白)
【0087】
ここで、上記条件式を満たすか否かのチエックを行う注目画素は、図8のステップS5および14から17の白伝搬処理の対象となってその処理過程を経たものであり、上記条件式の中の「白地情報MS」が、白伝搬処理後の上記チエックを行う注目画素の白地情報MS[I]である。ただし、このMS[I]は白伝搬処理を終えた白地情報であって、そのIは、上記チエックを行う注目画素の主走査方向xの位置であり、上述の白判定323cで状態変数MSを算出する注目画素の主走査方向xの位置とは別物である。
【0088】
上記条件式の中の、「非色画素」は、色地検出の出力である色地判定信号dが「0」であること、「2値化白」は2値化323aの2値化白判定信号が「1」(2値化白)であること、および「谷白画素」は、谷白画素検出の検出結果が谷白画素であることをそれぞれ意味し、#は論理和(オア:又は)を意味する。また、&は論理積(アンド:かつ)を意味する。
【0089】
このように、白パターンマッチングは、上記条件式で判定した出力(白画素か否)に対し、図11の縦横斜めの連続性パターンPMPaからPMPdのいずれかに該当するかをチェックするものである。パターンPMPaからPMPdに付した白丸は、白画素であることを意味する。他の空白画素において、白画素であるか否か不問である。
【0090】
注目画素を中心とする5×5画素マトリックスの白画素分布が図11のパターンPMPa、PMPb、PMPcまたはPMPdに該当すると、注目画素が白パターン画素であると判定する。
【0091】
−白パターン補正323e−
次に、白パターン補正323eについて説明する。
白パターン補正は、白画素パターンマッチングで孤立(1×1、1×2、2×1、2×2、1×3、3×1の白画素)しているアクティブ画素を非アクティブにする。
このことにより、孤立している画素を除去する。
【0092】
−白膨張323f−
次に、白膨張323fについて説明する。
白画素パターンマッチングの補正の結果を7×41のORを行う。
【0093】
−白収縮323g−
次に、白収縮323gについて説明する。
白収縮は、白膨張323fにおける白膨張の結果の1×33のANDを行う。このように、白膨張と白収縮を行うことにより、白画素パターンマッチングの補正結果に対して膨張と小面積で存在する非アクティブ画素を除去する。
この判定結果は、白地と境界部分に対して、非白地側の境界領域を含む結果となる。
言いかえれば、白地よりも大きな領域となる。
【0094】
−白補正323h−
次に、白補正323hについて説明する。
白補正では、図11に示す、ブロックパターンBCPの×を付した注目画素を中心とした15×11画素において、四隅の各6×4画素領域それぞれに1つ以上の白候補ブロックが存在するときに、注目ブロックに白ブロック補正データを与える。このことにより、白地に囲まれた領域を白領域とする。
【0095】
−グレーパターンマッチング323i−
次に、グレーパターンマッチング323iについて説明する。
グレーパターンマッチングは、Dをグレー画素として、BKはグレー画素より濃いところとして、下記パターンマッチングを行う。複写原稿は、薄い200線の万線パターン、300銭の万線パターンであるので、複写原稿もクレー検出するように表3のようなパターンを採用している。
なお、表3のパターンに一致したものは、グレー画素となる。
図12に、表3のパターンを示す。図12において、図12(a)は、200線用であり、図12(b)は、300線用のパターンを示す。
【0096】
【表3】
Figure 2004153563
【0097】
−グレー膨張323j−
次に、グレー膨張323jについて説明する。
グレー膨張は、グレーパターンマッチングの結果に対して、11×11のOR処理をする。
このことにより、グレー領域に対してやや大きな領域となる。
【0098】
−判定323k−
次に、判定323kについて説明する。
判定は、白補正の結果がアクティブまたは、収縮結果がアクティブで、かつ、グレー膨張結果が非アクティブの時に白背景とする。
式で表現すると下記式のようになる。
【0099】
(白補正の結果) # (白収縮の結果 & !グレー膨張の結果)
【0100】
ここで、(白補正の結果)は、白地に書込まれた領域を確実に白領域と判定する。
(白収縮の結果 & !グレー膨張の結果の結果)は、濃い黒文字周辺を白領域として、濃度の薄い所を非白領域とする。
【0101】
図13に、丸Bp1からBp4で囲んだ黒の突出部は、上述の、注目ブロックを中心とした15×11画素において四隅の各6×4画素領域それぞれに1つ以上の白候補ブロックが存在するときに、注目ブロックに白ブロック補正データを与える白ブロック補正によって白ブロックに置き換えられる。
丸Bp1からBp4で囲んだ黒の突出部のように白地で囲まれた黒領域を、白領域とすることは、そこを絵柄部と判定する可能性を低減する。
後述する総合判定326では、非白領域は絵柄と判定するが、丸Bp1からBp4で囲んだ黒の突出部のように白地で囲まれた黒領域を絵柄と誤判定する可能性が減る。
さらに、白収縮の結果、グレー膨張の結果にて、黒地と白地境界を白領域(文字領域)と判定するので、濃い文字エッジは、文字の太さに係らず白地判定する。
これにより、文字エッジを正しく文字エッジと判定することが可能となる。また、濃度の薄い部分は文字エッヂ判定しなくなる。
【0102】
−文字/写真判定レベルの調整−
上述のように白領域抽出323では、白判定323cで、RGB白抽出323bの白地判定信号、色地判定信号dおよび谷白画素判定信号、ならびに、2値化323aの2値化白判定信号、に対応する、白の程度をあらわす状態変数である白地情報MSを生成する。
【0103】
RGB白抽出323bの白地判定信号(図8のステップS3を参照)は、注目画素のR、G、B画像データのすべてが閾値thwss=40より小さいと「1」(白地)である。この閾値thwssを大きくすると大きい値の白地情報MSを定める確率が高くなり、上記「白領域」(黒地と白地境界との境界:文字領域)を摘出する確率が高くなる(すなわち絵柄領域を摘出する確率が低下する)。閾値thwssを小さくするとこの逆となる。
【0104】
2値化323aの2値化白判定信号(図8のステップS7を参照)は、フィルタ処理321のG画像データのエッジ強調出力が閾値thwsb=50より小さければ、「1」(2値化白)である。この閾値thwsbを大きくすると大きい値の白地情報MSを定める確率が高くなり、上記「白領域」を摘出する確率が高くなる(すなわち、絵柄領域を摘出する確率が低下する)。閾値thwsbを小さくするとこの逆となる。
【0105】
「白領域」の画像データには後工程で、文字画像を鮮明に表すための画像処理が施されるので、閾値thwssおよびthwsbを大きくすると、文字に優先度が高い画像処理が施される。
非白領域すなわち絵柄(写真)領域の画像データには後工程で、写真や絵柄を忠実に表すための画像処理が施されるので、閾値thwssおよびthwsbを小さくすると、絵柄(写真)に優先度が高い画像処理が施される。
【0106】
ところで、RGB白抽出323bの色地判定信号d(図8のステップ6を参照)が「1」(色地)であると白地情報MSを低くし、上記「白領域」を摘出する確率が低くなる(すなわち絵柄領域を摘出する確率が高くなる)。色地検出で色地判定信号dを生成する処理B、Cで用いる閾値thwc(例えば20)を小さくすると、周辺画素(図10の△と□、なお×が中心画素)を同時に色画素と検出する確率、すなわち(bとcのエクスクルーシブノア)=「1」となる確率が高くなる。これにより色地判定信号d=「1」(色地)を得る確率が高くなり、上記「白領域」を摘出する確率が低くなる(すなわち絵柄領域を摘出する確率が高くなる)。
【0107】
そこで本実施形態では、図2の操作/表示部OPBにて、キー入力による入力モードのメニュー表示ならびに液晶ディスプレに表示されたメニュー画面上のキー画像(パラメータ指定キーおよびアップ、ダウンキー)の操作によって調整するパラメータ調整の中の「文字/写真レベル」の調整によって、閾値thwss、thwsbおよびthwcを次のように調整するようにしている。
【0108】
Figure 2004153563
【0109】
すなわち、オペレータが操作/表示部OPBにて調整設定するパラメータ「文字/写真レベル」の標準値(デフォルト)は「3」であり、このデフォルト値が、上記の文字/写真レベルと閾値thwss、thwsbおよびthwcとの関係をあらわす変換テーブルと共に、図3に示すROM358に書込まれている。そして、図3に示すIPU300に電源が投入され、CPU357がIPU300の初期化をするときに、CPU357がROM358から文字/写真レベルのデフォルト値を読み出す。そして、読み出したデフォルト値に対応する閾値thwss、thwsbおよびthwcを、変換テーブルから読み出して、RAM356の各閾値宛てレジスタに書きこむ。そして、白領域抽出323での上述の処理に用いる。
その後、操作ボードOPBからの入力で文字/写真レベルの調整があり、調整後の値Aがメインコントローラ10からCPU357に与えられると、CPU357は、調整後の値Aに対応するパラメータthwss、thwsbおよびthwcの各値を、ROM358の変換テーブルから読み出して、RAM356の、パラメータ宛てレジスタに書込む。
【0110】
また、閾値を標準値thwss=40、thwsb=50、thwc=20に設定しているときに、操作ボードOPBを使ってオペレータが「文字/写真レベル」の値をi(例えば1)だけ大きく「Up」すると、閾値thwss、thwsbおよびthwcが2i(2)分、文字優先方向に変更した値に定められる。逆に、オペレータが「文字/写真レベル」の値をi(例えば1)だけ小さく「Down」すると、閾値thwss、thwsbおよびthwcが2i(2)分、写真優先方向に変更した値に定められる。
【0111】
−網点抽出324−
次に、図5を参照しながら網点抽出324について説明する。
網点抽出324は、第1網点ピーク検出部324aと、第2網点ピーク検出部324bと、第3網点ピーク検出部324cと、第1周期チェック324dと、第2周期チェック324eと、OR処理部324fと、第1網点領域検出部324gと、第2網点領域検出部324hと、第1の一時記憶手段324jと、第2の一時記憶手段324kと、を有し構成される。
【0112】
第1網点ピーク検出部324aは、G画像データを用いて、所定の大きさの、二次元局所領域内の画素濃度情報から、網点ドットの一部を形成する画素(網点ピーク画素と呼ぶ)を検出する回路である。局所領域に関して、次の二つの条件が同時に成立するときに、領域の中心画素を網点ピーク画素として検出する。
条件1:中心画素の濃度レベルが局所領域内で最大(山ピーク)または最小(谷ピーク)であること。
条件2:中心画素に対し点対称関係にある全ての画素のペアについて、画素ペアの濃度レベルの平均と中心画素の濃度レベルとの差の絶対値が、閾値Th以上であること。
【0113】
次に、図14を参照して、第1網点ピーク検出部324aの検出処理を具体的に説明する。
局所領域として5×5画素マトリックス(一般化して示すとM×M画素マトリックス)のマスクを採用した例である。5×5画素マトリックスの各画素の符号を、図10のパターンMPpに示すものとすると、注目画素となる中心画素c3の濃度Lcが、その周囲画素の濃度L1からL8と比較して最大または最小であるとともに、
abs(2Lc−L1−L8)≧Lth
かつ、abs(2Lc−L2−L7)≧Lth
かつ、abs(2Lc−L3−L6)≧Lth
かつ、abs(2Lc−L4−L5)≧Lth
のときに、マスクの中心画素(Lc)を網点ピーク画素として検出する。abs関数は絶対値をとることを意味する。Lthは閾値(固定値)である。
【0114】
具体的には、周囲画素は、図14に示す周囲画素分布パターンMPaまたはMPbの、4角形を付記した画素とする。周囲画素分布パターンMPaとMPbに基づいた上述の網点ピーク画素検出のどちらかが、網点ピーク画素と検出した時に、そのときの注目画素(中心画素c3)に網点ピーク画素を表す検出信号を与える。なお、2つのパターンを用いるのは、網点の線数に幅広く対応するためである。
【0115】
パターンMPaは、
L1=b2、L2=b3、L3=b4、L4=c2、L5=c4、L6=d2、L7=d3、L8=d4、
と定めたものである。ここで、L1=b2とは、画素b2の濃度を、網点ピーク画素検出演算におけるL1の値とすることを意味する。
【0116】
パターンMPbは、
L1=b2、L2=a3、L3=b4、L4=c1、L5=c5、L6=d2、
L7=e3、 L8=d4、
と定めたものである。
【0117】
また、複写の場合、副走査方向yの拡大、縮小はスキャナ200の原稿走査速度の低、高で行うので、スキャナ200からは、副走査方向yの拡大、縮小があった画像データが与えられる。そこで、縮小のときには、上述のパターンMPa、MPbにかえて、図14上に示すパタン―ンMPc、MPdを用いる。
また、拡大のときには、図14上に示すパタ―ンMPe、MPfを用いる。
なお、パタ―ンMPe、MPfにおいて、三角印△を与えた画素も、上述の「周囲画素」に加えても良い。
【0118】
第2網点ピーク検出部324bは、Bデータを用いて網点ピーク検出するものであって、機能は、第1網点ピーク検出部324aと同じである。
第1網点ピーク検出部324aは、G画像データを用いるので、ほとんどの色に対して反応するが、Yに対しては反応しないので第2網点ピーク検出部324bでは、B画像データを使用して、Yの網点ピークを検出することを目的としている補助的なものである。
【0119】
第1網点領域検出部324gは、第1網点ピーク画素検出部324a、第2網点ピーク画素検出部324bのどちらかで検出された山と谷の網点ピーク画素を、所定の大きさの、二次元の小領域毎に計数し、山と谷の網点ピーク画素の合計を小領域の計数値Pとする。この計数値Pが閾値Pthより大きい場合に、小領域の全画素(あるいは画素単位の処理の場合、小領域の中心画素のみ)を網点領域と判定する。判定の結果は第1の一時記憶手段324jに記憶される(第1の一時記憶手段324jでは、網点領域の大きさの情報が主に記憶される)。
【0120】
次に、図15(a)を参照して、第3網点ピーク検出部324cの検出処理を具体的に説明する。
この第3網点ピーク検出部324cは、100線以下、65線(新聞の網点)以上の検出を目的としている。
局所領域として7×7画素マトリックス(一般化して示すとM×M画素マトリックス)のマスクを採用した例である。
局所領域を、図15(c)のパターンに示すと、注目画素となる中心画素群の濃度Lcが、その周囲画素の濃度群L1からL8と比較して最大または最小であるとともに、
abs(2Lc−L1−L8)≧Lth
かつ、abs(2Lc−L2−L7)≧Lth
かつ、abs(2Lc−L3−L6)≧Lth
かつ、abs(2Lc−L4−L5)≧Lth
のときに、マスクの中心画素(Lc)を網点ピーク画素として検出する。なお、abs関数は絶対値をとることを意味する。Lthは閾値(固定値)である。ここで、マスクの中心画素(Lc)が最大値の時の網点ピーク画素を網点山ピーク画素として、第1周期チェック324dに出力する。
また、マスクの中心画素(Lc)が最小値の時の網点ピーク画素を網点谷ピーク画素として、第2周期チェック324eに出力する。
【0121】
具体的には、周囲画素は、図15(a)に示す周囲画素分布パターンの画素とする。周囲画素分布パターンに基づいた上述の網点ピーク画素検出のどちらかが、網点ピーク画素と検出した場合に、そのときの注目画素(中心画素d4)に網点ピーク画素を表す検出信号を与える。2つのパターンを用いるのは、網点の網点面積率に幅広く対応するためである。
【0122】
注目画素Lcの濃度は周辺画素を参照して以下のように求める。
Lc=Min(d4、d3、d5、c4、e4)
このLcが周辺画素に対して最大値のときは、
パターンは、
L1=Max(a1、a2、b1)
L2=Max(a3、a4、a5)
L3=Max(a6、a7、c7)
L4=Max(c1、d1、e1)
L5=Max(c7、d7、e7)
L6=Max(f1、g1、g2)
L7=Max(g3、g4、g5)
L8=Max(g6、g7、f7)
と定めたものである。ここで、L1=Max(a1、a2、b1)とは、画素a1、a2、b1の濃度の最大値を、上述の網点ピーク画素検出演算におけるL1の値とすることを意味する。
なお、Lc=Min(d4、d3、d5、c4、e4)とは、d4、d3、d5、c4、e4の濃度(画像データ)の最小値を意味する。
【0123】
また、Lc=Max(d4、d3、d5、c4、e4)
このLcが周辺画素に対して最小値の場合は、
パターンは、
L1=Min(a1、a2、b1)
L2=Min(a3、a4、a5)
L3=Max(a6、a7、c7)
L4=Max(c1、d1、e1)
L5=Max(c7、d7、e7)
L6=Max(f1、g1、g2)
L7=Max(g3、g4、g5)
L8=Max(g6、g7、f7)
と定めたものである。
【0124】
また、複写の場合、副走査方向yの拡大、縮小はスキャナ200の原稿走査速度の低、高で行うので、スキャナ200からは、副走査方向yの拡大、縮小があった画像データが与えられる。そこで、縮小のときには、図15(b)に示すパタ―ンを用いる。拡大のときには、図15(a)に示すパタ―ンを用いる。
【0125】
第3網点ピーク検出部324cの演算式は、1画素のデータで演算するのではなく、複数の画素(min、maxの演算)で、対象となる画素を参照する。
これは、低線数の網点は濃淡の周期が大きくなるので、1画素で決定するのでは、周辺画素を参照することにより、ノイズ(ごみ)の影響を少なくし、かつ、算術演算量を減らし、他のブロックを共通に演算式を使えるようにしているので、ハード化が容易である。
【0126】
第1周期チェック324dでは、網点山ピークと網点山ピークの周期をチェックする。また、主走査1次元方向に網点山ピークの間隔をチェックをする。
網点ピーク検出の検出対象の網点は、検出線数100線以下なので、網点山ピークは、8以上となる。なお、8未満の場合は小さな文字を誤判定した場合がほとんどある(600dpi読取り時)。
【0127】
図16(a)に示す網点山間隔において、L1が6で、L2が10であれば、L1間隔の網点山ピークは、小さな文字である場合がほとんどなので、網点山ピークを除去する。L2間隔は、低線数網点である場合がほとんどなので、除去はしない。
なお、周期チェックにより、図16(a)が、図16(b)のように補正される。
第2周期チェック324eでは、網点谷ピークを、第1周期チェック324dと同様に行う。
なお、網点山ピークと網点谷ピークとを独立に行うのは、網点面積率50%近傍においては、網点山ピークと網点谷ピークが交互に発生することで、正確な周期が出ないために独立に行っている。
第1周期チェック324d、第2周期チェック324eの出力をOR処理部324fにてorして、第2網点領域検出部324hに入力する。
第2網点領域検出部324hは第1周期チェック324d、第2周期チェック324eをorして入力された、山と谷の網点ピーク画素を、所定の大きさの、二次元の小領域毎に計数し、山と谷の網点ピーク画素の合計を小領域の計数値Pとする。この計数値Pが閾値Pthより大きいときに、小領域の全画素(あるいは画素単位の処理の場合、小領域の中心画素のみ)を網点領域と判定する。判定の結果は第1の一時記憶手段324jおよび第2の一時記憶手段324kに記憶される(第2の一時記憶手段では、網か非網かの情報が主に記憶される)。
【0128】
第1の一時記憶手段324jは、第1網点領域検出部324gまたは第2領域検出部324kのどちらかが網点領域ならば、注目している小領域の近傍の、処理済み領域の網点/非網点判定結果(周辺の特徴情報)に応じ適応的に閾値Pthを変化させる。
【0129】
本実施形態においては、閾値Pthとして、二つの値TH1(非網)、TH2(網)(ただしTH1>TH2)が用意され、第1の一時記憶手段324jに記憶されている注目小領域近傍の、処理済み領域の判定結果によって、その一方の値を選択する。
すなわち、近傍の領域が非網点領域と判定されていた場合には、線画領域である可能性が高いので、誤検出を減らすために条件が厳しくなるTH1のほうを閾値Pthとして選択する。これに対し、近傍領域が網点領域であると判定されていた場合には、網点領域である可能性が高いので、条件が緩くなるTH2のほうを閾値Pthとして用いる。なお、閾値Pthの初期値としてはTH1を選択する。
【0130】
図14上のAMPに、上述の小領域の分布を示す。小領域分布パターンAMPのS1からS4のそれぞれは、例えば4×4画素の大きさの小領域(ブロック)であり、S4が注目している小領域、S1、S2およびS3は処理済みの小領域であるとする。S1、S2およびS3のすべてが網点領域であると判定されている時には、Th2がS4の判定のための閾値Pthとして用いられる。S1、S2およびS3の一つでも非網点領域と判定されているときは、閾値PthとしてTH1が選択される。網点領域と判定したときに“1”で、非網点と判定した時に“0”の網点領域検出信号htが網点抽出324から出力される。
ただし、これは一例であって、S1、S2およびS3のいずれか一つの小領域でも網点領域と判定されたときにTH2を選択し、すべてが非網点領域と判定されたときにのみTH1を選択するようにしてもよい。
さらに、参照する近傍領域をS1のみ、あるいはS2のみとすることもできる。この出力結果は、網点抽出結果である。
【0131】
第2網点領域検出部324hが網点領域ならば、注目している小領域の近傍の、処理済み領域の網点/非網点判定結果(周辺の特徴情報)に応じ適応的に閾値Pthを変化させる。本実施形態においては、閾値Pthとして、二つの値TH1、TH2(ただしTH1>TH2)が用意され、第2の一時記憶手段324kに記憶されている注目小領域近傍の処理済み領域の判定結果によって、その一方の値を選択する。
すなわち、近傍の領域が非網点領域と判定されていた場合には、線画領域である可能性が高いので、誤検出を減らすために条件が厳しくなるTH1のほうを閾値Pthとして選択する。
【0132】
これに対し、近傍領域が網点領域であると判定されていた場合には、網点領域である可能性が高いので、条件が緩くなるTH2のほうを閾値Pthとして用いる。なお、閾値Pthの初期値としてはTH1を選択する。
【0133】
図14上のAMPに、上述の小領域の分布を示す。小領域分布パターンAMPのS1からS4のそれぞれは、例えば4×4画素の大きさの小領域(ブロック)であり、S4が注目している小領域、S1、S2およびS3は処理済みの小領域であるとする。S1、S2およびS3のすべてが網点領域であると判定されている場合には、Th2がS4の判定のための閾値Pthとして用いられる。S1、S2およびS3の一つでも非網点領域と判定されているときは、閾値PthとしてTH1が選択される。網点領域と判定したときに“1”で、非網点と判定した場合に“0”の網点領域検出信号htが網点抽出324から出力される。
ただし、これは一例であって、S1、S2およびS3のいずれか一つの小領域でも網点領域と判定されたときにTH2を選択し、すべてが非網点領域と判定されたときにのみTH1を選択するようにしてもよい。さらに、参照する近傍領域をS1のみ、あるいはS2のみとすることもできる。この出力結果は、低線数網点抽出結果である。
網点抽出結果との処理の違いは、網点ピーク検出では、低線数の入力のみで網点抽出をしているので、低線数網点のみの抽出が可能となっている。
【0134】
−色判定325−
次に、色判定325について説明をする。
原稿中の色(有彩)画素や黒(無彩)画素を検出する際には、R、G、Bの相対的な読取りずれが、各色画像データのサンプリングや機械的精度のために存在する。以下、図17を用いて説明する。
図17(a)は、画像濃度信号で、黒濃度信号は理想的には、R、B、G濃度信号ともレベルの高低が一致したとき理想の黒である。ところが、実際の画像データは、レンズでCCD上に画像を結像し、CCDの画像信号をデジタル化したもので、図17(b)が理想の高低波形となる。しかし、一般的なスキャナでは、3ラインCCDセンサを用いているため、画像データのR、G、Bの各画像を時間的に同時に読取るのではなく、R、G、Bの各ラインセンサは等間隔で配置され、時間的に同時に読むことができないので、どうしても読取り位置ずれが生じてしまう。例えば、図17(b)に示すレベル変化の黒を表すR、G、B各色濃度信号は、図17(c)に示すように、相対的にずれる。このずれが大きいと、黒領域の周縁に色ずれが現われる。
【0135】
色判定325は、有彩色領域を見つけるものであり、第1N値化325a、第2N値化325b、色判定325c、ACS325dの4つのブロックからなる。
【0136】
−第1N値化325a−
まず、図18を参照しながら第1N値化325aについて説明する。
第1N値化325aは、色相分割回路0から4を有して構成される。
入力データR、G、Bは、第1N値化325aにて、色相分割回路0から4にて、c(シアン)、m(マゼンタ)、y(イエロー)の信号に変換される。
ここで、色相分割回路0から4はすべて同一で入力データのラインが異なるだけである。色相分割の例としては、それぞれの色の境界を求め、1画素内のR、G、Bそれぞれの画像データの最大値と最小値との差をRGB差と定義して、以下のようにした。なお、R、G、B画像データは、数字が大きくなると濃くなる。
1)R−Y色相領域境界(ry)
R−2*G+B>0
2)Y−G色相領域境界(yg)
11*R−8*G−3*B>0
3)G−C色相領域境界(gc)
1*R−5*G+4*B<0
4)C−B色相領域境界(cb)
8*R−14*G+6*B<0
5)B−M色相領域境界(bm)
9*R−2*G−7*B<0
6)M−R色相領域境界(mr)
R+5*G−6*B<0
【0137】
7)色判定用w(白)画素判定:
(R < thwa)&(G < thwa)&(B < thwa)ならば、y=m=c=0 とする。thwaは閾値である。
【0138】
8)Y画素判定:
(ry == 1)&(yg == 0)&(RGB差 >(thy+RGBの最大値/16))ならば、y=1 、m=c=0 とする。thy は閾値である。
【0139】
9)G画素判定:
(yg == 1)&(gc == 0)&(RGB差 >(thg+RGBの最大値/16))ならば、c=y=1 、m=0 とする。thg は閾値である。
【0140】
10)C画素判定:
(gc == 1)&(cb == 0)&(RGB差 >(thc+RGBの最大値/16))ならば、c=1 、m=y=0 とする。thc は閾値である。
【0141】
11)B画素判定:
(cb == 1)&(bm == 0)&(RGB差 >(thb+RGBの最大値/16))ならば、m=c=1 、y=0 とする。thb は閾値である。
【0142】
12)M画素判定:
(bm == 1)&(mr == 0)&(RGB差 >(thm+RGBの最大値/16))ならば、m=1 、y=c=0 とする。thm は閾値である。
【0143】
13)R画素判定:
(mr == 1)&(ry == 0)&(RGB差 >(thr+RGBの最大値/16))ならば、y=m=1 、c=0 とする。thr は閾値である。
【0144】
14)BK画素判定:7)から13)に該当しない場合、y=m=c=1 とする。
【0145】
ここで、7)から14)の優先順位は、数の小さい方を優先する。また、上述の閾値thwa、thy、thm、thc、thr、thg、thbは、複写(処理)前に決まる閾値である。また、出力信号は、c、m、yに各1ビットの3ビットデータである。
ここで色相毎に閾値を変えているのは、色相領域毎に、有彩範囲が異なる時に色相領域に応じた閾値を決定するためである。この色相分割は一例であって、どんな式を使用してもよい。
また、RGBの最大値により閾値を変えているのは、反射率データでは濃い(数字が大きい)ときに、色であってもRGB差が少なくなるので、補正を行っている。
【0146】
第1N値化325aの出力c、m、yの5ラインデータは、色判定325c(図19)に入力する。
【0147】
−色判定325c−
次に、図19を参照しながら色判定325cについて説明する。
色判定325cは、色判定用有彩検出325c1と、ブロック化325c2と、孤立点除去325c3と、膨張325c4とを有して構成される。
また、色判定用有彩検出325c1は、第1パターンマッチング325c11と、第1カウント325c12と、色網点検出325c13と、有彩判定325c14と、を有して構成される。
【0148】
上記構成により、5ライン分の、c、m、yのデータは、第1パターンマッチング325c11、第1カウント325c12、色網点検出325c13に入力する。ここでまず、B/C信号を求める流れの中の第1パターンマッチング325c11について説明する。
【0149】
−第1パターンマッチング325c11−
注目画素を中心とする5×5画素マトリックスの白レベルが大きくなる。次に注目画素が、第1N値化325aの具備する色相分割回路において判定した画素(c、m、y)の全てが1(c=m=y=1)または全てが0(c=m=y=0)以外の画素(色画素)であるかを、5×5画素マトリックスが次のパターンにマッチングするかをチェックすることによって判定する。
【0150】
1)色画素パターン群
1―1)パターン1―1(pm1)
D23 & D33 & D43
1―2)パターン1―2(pm2)
D32 & D33 & D34
1―3)パターン1―3(pm3)
D22 & D33 & D44
1―4)パターン1―4(pm4)
D24 & D33 & D42
なお、中心画素(注目画素)は、D33である。図20にこれらのパターンpm1からpm4を示す。これらのパターン上の白丸は、c、m、yの少なくとも一つが1であることを示す。
なお、パターンマッチングを採用するのは、孤立点などを拾わないようにするためである。逆に、網点などの、小面積色検出する際には、中心画素が1(c=m=y=1)または全てが0(c=m=y=0)以外の画素(色画素)であるか否かで、判定すればよい。
【0151】
2)色細線用パターン群
白に囲まれた色線を検出する。これに用いるパターンを図21に示す。
図21において、白丸を付した画素は、c、m、yが全て0の画素である。注目画素(中心画素)を中心とする5×5画素マトリックスのデータ(c、m、y)の分布が、図21のパターンpw11aからpw14dのいずれかにマッチングすると、そのときの注目画素(中心画素)を色線画素と見なす。
【0152】
2―1)パターン2―1(pw11aからpw11d)
((D12&D13&D14)&(D42&D43&D44))#
((D12&D13&D14)&(D52&D53&D54))#
((D22&D23&D42)&(D42&D43&D44))#
((D22&D23&D42)&(D52&D53&D54))
【0153】
2―2)パターン2―2(pw12aからpw12d)
((D21&D31&D41)&(D24&D34&D44))#
((D21&D31&D41)&(D25&D35&D45))#
((D22&D23&D24)&(D24&D34&D44))#
((D22&D23&D24)&(D25&D35&D45))
【0154】
2―3)パターン2―3(pw13aからpw13d)
((D11&D21&D12)&(D35&D44&D53))#
((D11&D21&D12)&(D45&D44&D55))#
((D13&D22&D31)&(D35&D44&D53))#
((D13&D22&D31)&(D45&D44&D55))
【0155】
2―4)パターン2―4(pw14aからpw14d)
((D13&D24&D35)&(D41&D51&D52))#
((D14&D15&D25)&(D41&D51&D52))#
((D13&D24&D35)&(D31&D42&D53))#
((D14&D15&D25)&(D31&D42&D53))。
【0156】
3)白領域パターン群
c、m、yが全て0のところのパターンマッチングを行う。これに用いるパターンを図22に示す。
図22において、白丸を付した画素は、c、m、yが全て0の画素である。注目画素(中心画素)を中心とする5×5画素マトリックスのデータ(c、m、y)の分布が、図22のパターンpw21aからpw24dのいずれかにマッチングすると、そのときの注目画素(中心画素)を白領域画素と見なす。
【0157】
3―1)パターン3―1(pw21aからpw21d)
(D21&D31&D41)#
(D22&D32&D42)#
(D24&D34&D44)#
(D25&D35&D45)
【0158】
3―2)パターン3―2(pw22aからpw22d)
(D12&D13&D14)#
(D22&D23&D24)#
(D42&D43&D44)#
(D52&D53&D54)
【0159】
3―3)パターン3―3(pw23aからpw23d)
(D52&D51&D41)#
(D53&D42&D31)#
(D35&D24&D13)#
(D25&D15&D14)
【0160】
3―4)パターン3―4(pw24aからpw24d)
(D54&D55&D45)#
(D53&D44&D35)#
(D31&D22&D13)#
(D21&D11&D12)
【0161】
4)色画素候補2の判定
上記で抽出したパターンマッチング結果が以下のパターンに一致すれば、注目画素を、色判定用色画素候補2とする。
【0162】
((pm1 == 1) & ((pw11 == 1) # (pw21 != 1))) #
((pm2 == 1) & ((pw12 == 1) # (pw22 != 1))) #
((pm3 == 1) & ((pw13 == 1) # (pw23 != 1))) #
((pm4 == 1) & ((pw14 == 1) # (pw24 != 1)))
【0163】
なお、上記の(pm1 == 1)は、注目画素を中心とするデータ分布が、パターンpm1にマッチングすることを意味する。また、(pw11 == 1 )はパターンpw11aからpw11dのいずれかにマッチングすることを意味する。また、(pw21 != 1 )はパターンpw21aからpw21dのいずれかにマッチングすることを意味する。&は論理積を、#は論理和を意味する。
このパターンマッチングにより、白領域に囲まれた色画素を色画素候補として、それ以外で白領域が存在するときは、色画素としない。白領域がない色画素パターンマッチングで一致したものは、色画素候補となる。
【0164】
−第1カウント325c12−
次に、第1カウント325c12について説明する。
第1カウント325c12は、注目画素を中心とする5×5画素マトリックス内の各画素のc、m、yの1(c=1、m=1、y=1)の数をカウントする。c、m、yそれぞれについてのカウント値の最大値と最小値との差が、thcnt以上でかつ最小値がthmin未満ならば、色画素候補1とする。thcnt、thminは、複写(処理)前に設定する閾値である。y、m、cにプレーン展開して、N×Nのマトリックスにおいてのそれぞれのプレーン毎に数を数えて、最小値をブラックと仮定している。
これにより、黒画素の読取りがずれても補正が可能となる。そして最大値と最小値の差で有彩画素を判定する。
また、黒画素が読取りから外れた画素を補正して、有彩画素を抽出する。
また、注目画素を中心とする5×5画素マトリックス内に一定画素の有彩画素があると注目画素を有彩画素としている。
【0165】
−色網点検出325c13−
次に、色網点検出325c13について説明する。
彩度の低い網点(濃い色網点)は、第1カウント325c12では黒と判定するために濃い網点を検出するために、下記のパターンマッチングを行い、濃い色網点を検出する。濃い網点の特徴は、黒データと色データが混在していて、白データは存在しないので下記のように検出する。
【0166】
1)非白地検出
5×5のマトリックス内にいて、c=0、m=0、y=0が無ければ、非白地領域と判定する。これは、濃い色網点には白を含まないからである。
2)色網点画素検出
5×5のマトリックスで色と判定した画素D(c=0、m=0、y=0でも、c=1、m=1、y=1でも無いところ)のパターンマッチングを行う。
式で書くと以下のとおりとなる。
【0167】
(D11&D15&D33&D51&D55)#
(D13&D31&D33&D51&D55)#
(D12&D14&D21&D22&D33&D41&D45&D52&D54)
【0168】
ここで、マトリックスの外側に参照点があるのは、色ずれの誤判定を防ぐためである(図30参照)。
【0169】
3)色網点検出
非白地検出でかつ色網点画素検出があるときは、色網点を検出したとしてHを出力する。
【0170】
−有彩判定325c14−
次に、有彩判定325c14について説明する。
有彩判定325c14は、色画素か否かを判定する。色画素候補1でかつ色画素候補2であれば、色画素1とする。
さらに、色網点検出で色網点であれば、色画素1とする。
【0171】
−ブロック化325c2−
次に、ブロック化325c2について説明する。
ブロック化1×4は、色判定有彩検出の出力をブロック化する。
なお、ブロック化とは、1×4画素のマトリックスにおいて、1画素以上の色画素1があれば、1×4画素マトリックス全体を色画素1ブロックとして、出力する。ブロック化1×4以降の処理は、1×4画素を1ブロックとしてブロック単位出力する。
【0172】
−孤立点除去325c3−
次に、孤立点除去325c3について説明する。
孤立点除去7×5は、ブロック化したデータを注目ブロックの隣り合うブロックを含んで4×1の色画素1ブロックがなければ孤立点として除去する。
副走査方向を4としているのは、主走査は4画素を1単位としているので、大きさをあわせるためである。
【0173】
−膨張325c4−
次に、膨張325c4について説明する。
孤立点除去325c3の出力を、膨張325c4にて、色画素1ブロックが存在する場合は、17ライン×5ブロックに膨張する。膨張するのは、色画素の周辺を、黒文字処理をしないようにするためである。ここで、出力するB/C信号は、色画素1ブロックの時にL(有彩)を出力し、それ以外の時は、H(無彩)を出力する。
【0174】
−第2N値化325b−
次に、図24を参照しながら第2N値化325bについて説明する。
第2N値化325bは、セレクタ1から4と、色相分割回路0から4と、を有して構成される。
第2N値化325bにて、入力データR、G、Bは、セレクタ1から4を介して色相分割回路0から4にてci、mi、yiおよび色判定用wi(白)(iは0から4のいずれかからの色相分割回路からの出力信号)の信号に変換される。
【0175】
色相分割の例としては、それぞれの色の境界を求め、1画素内のR、G、Bそれぞれの画像データの最大値と最小値との差をRGB差と定義して、以下のようにした。ここでは、R、G、B画像データは、数字が大きくなると濃くなる。
ここでのセレクタの副走査の変倍率が、200%以下のときに上部の入力データを選択して、200%を超える倍率のときに、下部の入力信号を選択する。
つまり、200%以下のときは、5ライン連続した入力データで評価を行う。
また、200%を越すときは、入力の1ライン飛ばしで評価する。
ここで、1ライン飛ばしにすることにより、次段において1ラインの細線の評価が出来なくなるが、200%を越す倍率なので1ライン線はほとんど存在しないので影響が少ない。
200%を越すときは、参照ラインが実質2倍になるので、読取り位置ずれの許容量も実質2倍となる。よって、外乱(振動)の影響も大きくなるので、外乱に対して誤判定しにくくなる。
【0176】
また、N値化の評価のみを切り替えるので、カラー画素判定は同一処理をするので、切り換え前と切り換え後でカラー原稿の判定基準は変わらない。よって、切り替えることによって判定基準が変わることはない。
1)R−Y色相領域境界(ry)
R−2*G+B>0
2)Y−G色相領域境界(yg)
11*R−8*G−3*B>0
3)G−C色相領域境界(gc)
1*R−5*G+4*B<0
4)C−B色相領域境界(cb)
8*R−14*G+6*B<0
5)B−M色相領域境界(bm)
9*R−2*G−7*B<0
6)M−R色相領域境界(mr)
R+5*G−6*B<0
【0177】
7)色判定用w(白)画素判定:
(R < thwa)&(G < thwa)&(B < thwa)ならば、y=m=c=0 とする。thwaは閾値である。
【0178】
8)Y画素判定:
(ry == 1)&(yg == 0)&(RGB差 >(thy+RGBの最大値/16))
ならば、y=1 、m=c=0 とする。thy は閾値である。
【0179】
9)G画素判定:
(yg == 1)&(gc == 0)&(RGB差 >(thg+RGBの最大値/16))
ならば、c=y=1 、m=0 とする。thg は閾値である。
【0180】
10)C画素判定:
(gc == 1)&(cb == 0)&(RGB差 >(thc+RGBの最大値/16))
ならば、c=1 、m=y=0 とする。thc は閾値である。
【0181】
11)B画素判定:
(cb == 1)&(bm == 0)&(RGB差 >(thb+RGBの最大値/16))
ならば、m=c=1 、y=0 とする。thb は閾値である。
【0182】
12)M画素判定:
(bm == 1)&(mr == 0)&(RGB差 >(thm+RGBの最大値/16))
ならば、m=1 、y=c=0 とする。thm は閾値である。
【0183】
13)R画素判定:
(mr == 1)&(ry == 0)&(RGB差 >(thr+RGBの最大値/16))
ならば、y=m=1 、c=0 とする。thr は閾値である。
【0184】
14)BK画素判定:7)から13)に該当しないとき、y=m=c=1 とする。
【0185】
さらに、色判定用w画素の判定を行う。条件は以下のようになる。
(R < thw)&(G < thw)&(B < thw)ならば、色画素用w画素とし、wとして出力する。thw は閾値である。
【0186】
なお、7)から14)の優先順位は、数の小さい方を優先する。上述の閾値thwa、thy、thm、thc、thr、thg、thbは、複写(処理)前に決まる閾値である。thwとthwaの関係は、thw>thaとなっている。出力信号は、c、m、yに各1ビットの3ビットデータと、さらに、色判定用色画素検出のwの1ビットである。
ここで色相毎に閾値をかえているのは、色相領域毎に、有彩範囲が異なるときに色相領域に応じた閾値を決定する。この色相分割は、一例であって、どんな式を使用してもよい。
RGBの最大値により閾値を変えているのは、反射率データでは濃い(数字が大きい)ときに、色であってもRGB差が少なくなるので、補正を行っているためである。
N値化2の出力c、m、yの5ラインデータは、ACS(図25)に入力する。
【0187】
次に、図25を参照しながらACS325dについて説明する。
ACS325dは、第1ACS用有彩検出325d1と、第2ACS用有彩検出325d2と、無彩検出325d3と、カラー画素判定325d4と、膨張325d5と、連続カウント325d6と、を有して構成される。
【0188】
−第1ACS用有彩検出325d1−
まず、第1ACS用有彩検出325d1について説明する。
第1ACS用有彩検出325d1は、第2カウント325d11と、第2パターンマッチング325d12と、有彩判定325d13と、ブロック化325d14と、密度325d15と、を有して構成される。以下、各動作について説明する。
【0189】
−第2カウント325d11−
第2カウント325d11は、注目画素を中心とする5×5画素マトリックス内に色判定用w画素が存在するときは、その画素の第2N値化325bで判定したc、m、yデータをc=m=y=0に補正する。この補正により、画素マトリックスの白レベルが大きくなる。そして、画素マトリックス内の各画素の、c、m、yの1(c=1、m=1、y=1)の数をカウントする。c、m、yそれぞれについてのカウント値の最大値と最小値との差が、thacnt以上でかつ最小値がthamin未満ならば、注目画素を色画素候補1とする。thacnt、thaminは、複写(処理)前に設定する閾値である。
【0190】
−第2パターンマッチング325d12−
第2パターンマッチング325d12は、色判定に使用した第1パターンマッチング325c11と同一のパターンマッチングを行い、色画素候補2とする。
【0191】
−第1ACS用有彩検出の有彩判定325d13−
有彩判定325d13は、第2カウント325d11と第2パターンマッチング325d12の出力にもとづいて、色画素か否かを判定する。色画素候補1でかつ色画素候補2であれば、色画素2とする。
【0192】
−第1ACS用有彩検出のブロック化325d14−
ブロック化325d14は、有彩判定325d13の出力をブロック化する。すなわち、4×4画素のマトリックスにおいて、1画素以上の色画素2があれば、4×4画素マトリックスの全体を色画素2ブロックとして、出力する。ブロック化以降の処理は、4×4画素を1ブロックとしてブロック単位出力する。
【0193】
−第1ACS用有彩検出の密度325d15−
密度325d15は、孤立ブロックの除去のために、3×3ブロックの中のアクティブ条件(色画素2ブロック)が3個以上あり、注目ブロックがアクティブ(色画素)ならば、注目ブロックをアクティブブロック(色画素2ブロック)とする。
【0194】
−第2ACS用有彩検出325d2−
次に、第2ACS用有彩検出325d2について説明する。
第2ACS用有彩検出325d2は、第3カウント325d21と、第3パターンマッチング325d22と、有彩判定325d23と、ブロック化325d24と、密度325d25と、を有して構成される。以下、各動作について説明する。
【0195】
−第3カウント325d21−
次に、第3カウント325d21について説明する。
第3カウント325d21は、注目画素を中心とする5×5画素マトリックス内の各画素の、c、m、yの1(c=1、m=1、y=1)の数をカウントする。
また、c、m、yそれぞれについてのカウント値の最大値と最小値との差が、tha1cnt以上で、かつカウントしたc、m、yの最小値が、tha1min未満ならば、色画素候補3とする。tha1cnt、tha1minは、複写(処理)前に設定する閾値である。
【0196】
−第3パターンマッチング325d22−
次に、第3パターンマッチング325d22について説明する。
第3パターンマッチング325d22は、色判定に使用した第1パターンマッチング325c11と同一のパターンマッチングを行い、色画素候補3とする。
【0197】
−第2ACS用有彩検出の有彩判定325d23−
有彩判定325d23は、色画素候補3でかつ色画素候補4であれば、色画素3とする。
【0198】
−第2ACS用有彩検出のブロック化325d24−
ブロック化325d24は、第2ACS用有彩検出の有彩判定325d23の出力をブロック化をする。
すなわち、4×4画素のマトリックスにおいて、1画素以上の色画素3があれば、4×4画素マトリックスの全体を色画素3ブロックとして、出力する。ブロック化以降の処理は、4×4画素を1ブロックとしてブロック単位出力する。
【0199】
−第2ACS用有彩検出の密度325d25−
密度325d25は、孤立ブロックの除去のために、3×3ブロックの中のアクティブ条件(色画素3ブロック)が3個以上あり、注目ブロックがアクティブ(色画素3)ならば、注目ブロックをアクティブブロック(色画素3ブロック)とする。
【0200】
−無彩検出325d3−
次に、無彩検出325d3について説明する。
無彩検出325d3は、第4カウント325d31と、無彩判定325d32と、ブロック化325d33と、無彩膨張325d34と、を有して構成される。以下、各動作について説明する。
【0201】
−第4カウント325d31−
第4カウント325d31は、注目画素を中心とする5×5画素マトリックス内の各画素の、色相分割325aで判定したc、m、yの1(c=1、m=1、y=1)の数をカウントする。c、m、yの各カウント値の最小値が、thabk以上ならば、注目画素を黒画素候補1とする。thabkは、複写(処理)前に設定する閾値である。
黒画素を判定するのではなく、注目画素と周辺画素を見て、黒成分を見つけているので細線が位置ずれして、注目画素が黒でなくても黒と判定できるようにしている。
【0202】
−無彩判定325d32−
無彩判定325d32は、注目画素が、黒画素候補1あれば、黒画素とする。
【0203】
−ブロック化325d33−
ブロック化325d33は、黒画素の出力をブロック化する。ここでのブロック化とは、4×4画素のマトリックスにおいて、1画素以上の黒画素があれば、4×4画素マトリックスの全体を黒画素ブロックとして、出力する。ブロック化325d33以降の処理は、4×4画素を1ブロックとしてブロック単位出力する。
【0204】
−無彩膨張325d34−
無彩膨張325d34は、3×3ブロックのマトリックス内において、注目ブロックがアクティブ(黒画素ブロック)で、その周辺画素がノンアクティブ(非黒画素)ならば、注目ブロックをノンアクティブ(非黒画素ブロック)にする。
【0205】
−カラー画素判定325d4−
次に、カラー画素判定325d4について説明する。
カラー画素判定325d4は、注目ブロックが、第2ACS用有彩検出325d2の結果でアクティブ(色画素2)と判定され、かつ、無彩検出325d3でアクティブ(黒画素)と判定されていなければ、注目ブロックは色(色ブロック)と判定する。また、第1ACS用有彩検出325d1の結果がアクティブ(色画素)のときも色と判定する。
【0206】
−膨張325d5−
次に、膨張325d5について説明する。
膨張325d5は、カラー画素判定325d4で、色と判定したブロックに対して小さな文字を連続と見なすために、注目ブロックを中心とする9×9ブロックのマトリックス内に1ブロックでもアクティブブロックがあれば、注目ブロックをアクティブブロックとする。ここで、大きく膨張させるのは、文字同士のすき間を埋めるためである。
【0207】
−連続カウント325d6−
次に、連続カウント325d6について説明する。
連続カウント325d6では、色画素ブロックの連続性を見て、カラー原稿か白黒原稿かを判定する。膨張の出力データ(色画素ブロック)の中の色画素の連続数をカウントすることにより、カラー原稿かどうかを判定する。
【0208】
図26に、この判定処理の内容を示す。注目画素が色画素ブロックにあるときに注目画素の左上、上、右上および左の画素の色画素連続数を参照して、注目画素の色画素連続数を算出する(ステップS21から26)。ここで、注目画素を、例えば図10の5×5画素分布パターンMPpのc3画素とすると、左上、上、右上および左の画素はそれぞれ、b2、b3、b4およびc2の画素である。注目画素が色画素ブロックにないときには、それには0なる色画素連続数を与える(ステップS21−27)。
【0209】
注目画素が色画素ブロックにある場合は、まず注目画素(c3)の上画素(b3)の色画素連続数をチェックする(ステップS22)。次に、チェックした色画素連続数が0であると、参照値Aに右上画素(b4)の色画素連続数に1を加えた値を与える(ステップS24)。また、上画素(b3)の色画素連続数が0であると、参照値Aに右上画素(b4)の色画素連続数を与える(ステップS23)。次に、参照値Bに左上画素(b2)の色画素連続数に1を加えた値を与え、また、参照値Cには上画素(b3)の色画素連続数に1を加えた値を与え、また、参照値Dには左画素(c2)の色画素連続数に1を加えた値を与える(ステップS25)。そして、参照値A、B、CおよびDのうちの最高値を、注目画素(c3)の色画素連続数とする(ステップS26)。
【0210】
注目画素(c3)に色画素連続数を上述のように与えると、この色画素連続数が設定値THACS以上であるかをチエックして(ステップS28)、THACS以上であると、カラー原稿であると決定して(ステップS29)、そこで連続カウント325D6の処理を終える。色画素連続数が設定値THACS未満であると、注目画素を走査方向x、yの次の画素に更新して、上述の処理を繰返す。原稿全面について上述の処理をした結果、最後まで色画素連続数が設定値THACS未満であったときには(ステップS30から34)、原稿は白黒画像であると決定する。
【0211】
上述の色画素連続数は、縦の色付き線分と横の色付き線分の和となる。なお、右上の色画素連続数が、他と異なるのは二重カウントを防ぐためである。色画素連続数の具体的なデータを、図27に示す。
図19に示す数字を入れた小四角が色画素であり、数字が該画素に与えた色画素連続数である。数字を入れた小四角が連なったブロックが色画素群であり、同一原稿上のどれかの色画素群のなかの色画素連続数が1つでも設定値THACS以上になるとそこで、カラー原稿であるとカラーか白黒かの判定を確定する(ステップS28、29)。
【0212】
なお、カラー画素判定325d4を1から3と分けたのは、カラー原稿か白黒原稿かの判定精度を高くするためである。黒文字処理のためのカラー画素判定325d4は、誤判定をしても局所的であり、さほど目立たない。しかし、カラー原稿か白黒原稿かの判定は、誤判定をすると原稿全体に影響する。そこで、カウントを独立とした。本来ならば、色相分割から独立にした方がよいが色相分割を独立にすると、パターンマッチングのメモリが増えるので、好ましくない。
【0213】
また、カウントのパラメータ(色画素候補1、3、黒画素候補1)で、色画素のパラメータ(カラー画素1−3)を変更している事により、メモリ量の増加を少なくしている。色画素判定2、3を設けているのは蛍光ペンの黄色のような濃度の低い色を検出するためで、さらに、無彩判定(黒画素判定)325d32を備えたのは濃度を低くすると誤検出した際に補正するためである。
蛍光ペンなど濃度の薄い色は、ある程度の幅により黒データで補正しても問題はない。複数の色画素を抽出する際に、w(白)のレベルを変えているだけなので、色画素検出のために2つ分のメモリを持つ必要がなく、1つ分+1ラインの容量で可能である。
【0214】
また、連続カウント325d6で、1ライン前のカウントデータと現在のラインのカウントデータを参照してカウント値を数えている。これにより、確実に周辺画素の連続を正確に数えることが可能となるので色画素の連続を数えることができる。
なお、本実施形態は、R、G、B画像データに対して色相判定を行ったが、R、G、B画像データに限定するものではなく、輝度色差(例えばLab)などに対して、色相判定することも可能である。
【0215】
−総合判定326−
次に、図5を参照して、総合判定326について説明する。
総合判定326は、文字判定326a、膨張処理326b、デコード326cからなる。以下、各動作について説明する。
【0216】
−文字判定326a−
まず、文字判定326aについて説明する。
文字判定326aは、エッジ抽出322の結果がエッジありと判定する。
また、網点抽出324の結果が網点なしで、白領域抽出323の結果が白領域ありのときは、文字エッジと判定する。
また、そうでないときには非文字エッジ(絵柄又は文字なか)と判定する。
【0217】
−膨張処理326b−
次に、膨張処理326bについて説明する。
膨張処理326bは、文字判定326aの結果を8×8ブロックのOR処理をして、その後に3×3ブロックのAND処理をして4ブロックの膨張処理を行う。すなわち、注目ブロックを中心とする8×8ブロックのいずれかのブロックが文字エッジであると、注目ブロックも文字エッジブロックであると仮定し、注目ブロックを中心とする3×3ブロックのすべてが文字エッジであると、注目ブロックを文字エッジと確定する。
そして、注目ブロックとそれに隣接する3ブロック、計4ブロックを文字エッジと見なす。なお、OR処理してからAND処理するのは、特に黒文字の場合、黒文字の領域の周辺に小領域の非黒文字領域が存在すると、処理の差により違和感があり、例えば、黒が薄く見える。これを防ぐために、OR処理で非黒文字領域を大きくしている。AND処理は、望むべき膨張量にするために行う。
【0218】
ところで、カラー複写機は、1枚の複写をするのに、4回スキャンをするので、スキャン毎に、微妙に文字判定結果が異なる。特に、ブラック作像のときに非黒文字判定をし、ブラック作像以外のときに黒文字判定をすると、この黒文字領域は薄くなってしまうので、BK時には8×8ブロックのOR処理をして、その後に3×3ブロックのAND処理をしてBK以外の作像時は、5×5ブロックのOR処理をして、その後は1×1ブロックのAND処理をする。なお、1×1画素のAND処理をする、と言うことは、その結果が処理前と同一になるので、何の処理もしないと言うことと同義である。膨張処理の結果は、文字エッジ信号としてデコード326cに出力する。
【0219】
このように膨張処理をすることにより、分離結果が異なって文字の領域が薄くなることがなくなる。この膨張処理によって、文字の中部分が濃くなることがあるが、文字のエッジに対して、文字のなかは薄いのと、濃度は飽和しているので、違和感はない。
【0220】
図28に、カラー複写によるカラー色剤の重なりを、模式的に拡大して示す。
図28(a)は、膨張量は同一で黒文字処理をした理想の場合を示す。
図28(b)は、膨張量は同一で黒文字処理をして印字位置がずれた場合(白く抜ける)を示す。
図28(c)は、BKの膨張量が大きい場合で、本実施形態によって黒文字処理をして印字位置がずれた場合を示す。
図28(d)は、4色とも黒文字処理をした理想の場合を示す。
図28(e)は、4色とも黒文字処理をして、BKのみ補正がかからず、BK以外で補正がかかって薄くなった場合を示す。
図28(f)は、本実施形態によってBKのみ黒文字処理をした、好適な場合を示す。
図28(g)は、本実施形態によってBKのみ黒文字処理をして、BKのみ補正が掛からず、BK以外で補正が掛かった好適な場合を示す。
【0221】
−デコード326c−
次に、デコード326cについて説明する。
デコード326cが最終的に出力するC/P信号は、以下の表4のようになる。
【0222】
【表4】
Figure 2004153563
【0223】
次に、再度図3を参照する。
原稿認識320が発生するC/P信号およびB/C信号は、RGBフィルタ330、色補正340、変倍350、インタフェース352、UCR360、CMYBkフィルタ370、CMYBkγ補正380および階調処理390について、画像データに同期してカスケードに与えられる。
【0224】
RGBフィルタ330は、RGBデータをMTF補正するフィルタであり、N×Nの画素マトリックスに対応する係数マトリックスと、各係数に各画像データを乗じて重み付け平均値を得るロジックで構成されている。
C/P信号が1を表すもの(文字エッジ領域)であるときには、鮮鋭化処理用の係数マトリックスを用い、0又は2、3を表すもの(絵柄領域、低線数網点領域、網点領域)であるときには平滑化処理用の係数マトリックスを用いて、重み付け平均値を導出し色補正340に出力する。
ここでの平滑化フィルタは、平滑化量の強い順に並べると、低線数網点領域、網点領域、絵柄領域となる。これは、網点は平滑を強くしないと網点構造が残り、モアレの原因となるためである、さらに低線数の網点は、高線数の網点より強く平滑化してやる必要がある。
【0225】
色補正340は、R、G、Bデータを一次のマスキング処理等でC、M、Yデータに変換する。変倍350は、画像データに、主走査方向xの拡大・縮小または等倍処理を施す。
【0226】
UCR360は、画像データの色再現を向上させるためのものであり、色補正340から入力したC、M、Yデータの共通部分をUCR(加色除去)処理してBKデータを生成し、C、M、Y、BKデータを出力する。ここで、C/P信号が1(文字エッジ領域)以外のとき(文字なか領域又は絵柄領域のとき)は、スケルトンブラック処理を行う。C/P信号が3(文字エッジ領域)のときは、フルブラック処理を行う。さらにC/P信号が1(文字エッジ領域)かつB/C信号がH(無彩領域)の時は、C、M、Yのデータをイレースする。これは、黒文字のとき、黒成分のみで表現するためである。
【0227】
また、UCR360の出力画像信号IMGついて、一時点はC、M、Y、BKのうち一色であり、面順次の一色出力である。すなわち、4回原稿読取りを行うことにより、フルカラー(4色)データを生成する。また、白黒複写のときは、BK作像一回でよいので、1回の原稿読取りでよい。カラー原稿か、白黒原稿かの判定機構があれば、原稿に応じた読取り回数で済むので、操作者が、原稿に応じてカラー原稿か白黒原稿かを判断して複写する必要がなくなる。本実施形態では、B/C信号がカラー原稿か、白黒原稿かの判定に参照する信号である。原稿全面でB/C信号がH(無彩領域)であったときにメインコントローラ10が、白黒原稿と判定する。
【0228】
CMYBkフィルタ370は、カラープリンタ400の周波数特性やC/P信号に応じて、N×Nの空間フィルタを用い、平滑化や鮮鋭化処理を行う。CMYBkγ補正380は、カラープリンタ400の周波数特性やC/P信号に応じて、γカーブを変更し処理する。C/P信号が1(文字エッジ領域以外)以外のときは画像を忠実に再現するγカーブを用い、C/P信号が1(文字エッジ領域)のときはγカーブを立たせてコントラストを強調する。
【0229】
階調処理390は、カラープリンタ400の階調特性やC/P信号に応じて、ディザ処理、誤差拡散処理等の量子化を行う。BK作像のときは、C/P信号が1以外(文字エッジ領域以外)のときは階調重視の処理を行い、それ以外のときは解像力重視の処理を行う。BK以外の作像の時は、C/P信号が0(絵柄領域)のときは階調重視の処理を行い、それ以外のときは解像力重視の処理を行う。以上の処理をした画像データは、バッファメモリを有するビデオコントロール359からカラープリンタ400に、その画像データ書込み動作に同期して、与えられる。
【0230】
IPU300は、文字領域以外(C/P信号=1以外)のときは、RGBフィルタ330で平滑化処理を行い、UCR360でスケルトンブラックの処理を行い、CMYBkγ補正380ではリニア(階調性)を重視したカーブを選択し、CMYBkフィルタ370および階調処理390では階調を重視した処理を行う。
【0231】
一方、文字処理(C/P信号=1でB/C信号=L)のときは、RGBフィルタ330でエッジ強調処理を行い、UCR360でフルブラック処理を行い、CMYBkγ補正380ではコントラストを重視したカーブを選択し、CMYBkフィルタ370および階調処理390では解像度を重視した処理を行う。
【0232】
また、黒文字処理(C/P信号=1でB/C信号=H)として、BKを除くC、M、Yの画像形成時には、C、M、Yデータを印字しない。これは、黒文字の周りが位置ずれのために色付くのを防ぐためである。また、このときのBKデータのRGBフィルタ330は色文字のときより、エッジ強調を強めに行いくっきりさせても良い。
【0233】
このようにIPU300では、絵柄、文字エッジ、網点、低線数網点の4種の処理を行う。
【0234】
なお、上述する実施形態は本発明の好適な実施形態であり、本発明の主旨を逸脱しない範囲内において種々変形して実施することが可能である。
【0235】
【発明の効果】
以上の説明より明らかなように、本発明は以下のような効果を奏する。
第1の効果として、N×Nマトリックス内に、白画素がなく、所定の位置に色画素が存在する場合に色画素を判定するとともに、色網点を色として検出することができる。
【0236】
第2の効果として、色画素は、N×Nのマトリックスの外周4辺のそれぞれ1箇所を参照することによって、読取り位置ずれの影響を受けないようにして色を検出することができる。
【0237】
第3の効果として、色網点検出手段に加え細線の色を判定する色検出手段とを組み合わせるという、複数の検出手段を設けることにより細線も色網点も色判定を行うことができる。
【0238】
第4の効果として、カラースキャナに適用することができる。
【0239】
第5の効果として、カラープリンタに適用することができる。
【0240】
第6の効果として、カラー複写機に適用することができる。
【図面の簡単な説明】
【図1】本実施形態にかかる画像処理装置を具備したデジタルフルカラー複写機の概略構成図である。
【図2】図1に示すデジタルフルカラー複写機の電気システムの概略を示すブロック図である。
【図3】本実施形態における画像処理ユニット(IPU)の構成を示すブロック図である。
【図4】図3における原稿認識部の機能を示す機能ブロック図である。
【図5】図4における原稿認識部の構成を示すブロック図である。
【図6】600dpiの万線パターンと400dpiの万線パターンとを比較して示す図である。
【図7】図5のエッジ抽出部における黒画素連続検出部および白画素連続検出部で行うパターンマッチングに使用する3×3画素マトリックスのパターンを示す図である。
【図8】白判定に用いる状態変数MS、SS[I]の更新の処理手順を示すフローチャートである。
【図9】図5におけるRGB白地検出部の白背景分離に使用するパターン例を示す図である。
【図10】図5における色地検出時に使用するパターン例を示す図である。
【図11】ラインメモリLMPの現ライン(注目ライン)を模式的に示す図である。
【図12】200線の万線パターン、300線の万線パターンを示す図である。
【図13】図5における白領域抽出部の処理を説明するための領域を示す図である。
【図14】図5における網点抽出部の第1網ピーク検出部の検出処理を説明するための図である。
【図15】周囲画素分布パターンの画素を示す図である。
【図16】網点山間隔を示す図である。
【図17】図5における色判定部の処理を説明するための図である。
【図18】図5の色判定部に示す第1N値化の構成を示す図である。
【図19】図5の色判定部に示す色判定の構成を示す図である。
【図20】色判定におけるパターンマッチングを説明するための図である。
【図21】白に囲まれた色線を検出する色細線用パターンを示す図である。
【図22】c、m、yが全て0のところのパターンマッチングを行うための白領域パターンを示す図である。
【図23】マトリックスの外側に参照点がある場合の図を示す。
【図24】図5の色判定部に示す第2N値化の構成を示す図である。
【図25】図5の色判定部に示すACSの構成を示す図である。
【図26】連続カウント部におけるカラー原稿か白黒原稿かを判定する判定処理の処理手順を示すフローチャートである。
【図27】色画素連続数の具体的なデータを示す図である。
【図28】カラー複写によるカラー色剤の重なりを模式的に拡大して示す図である。
【符号の説明】
200 スキャナ
300 IPU
310 RGBγ補正
320 原稿認識
321 フィルタ
322 エッジ抽出
322a 3値化
322b 黒画素連続検出
322c 白画素連続検出
322d 近傍画素検出
322e 孤立点除去
323 白領域抽出
323a 2値化
323b RGB白抽出
323c 白判定
323d 白パターンマッチング
323e 白パターン補正
323f 白膨張
323g 白収縮
323h 白補正
323i グレーパターンマッチング
323j グレー膨張
323k 判定
324 網点抽出
324a 第1網点ピーク検出部
324b 第2網点ピーク検出部
324c 第3網点ピーク検出部
324d 第1周期チェック
324e 第2周期チェック
324f OR処理部
324g 第1網点領域検出部
324h 第2網点領域検出部
324i 網点領域検出部
324j 第1の一時記憶手段
324k 第2の一時記憶手段
325 色判定
325a 第1N値化
325b 第2N値化
325c 色判定
325d ACS
326 総合判定
326a 文字判定
326b 膨張処理
326c デコード
330 RGBフィルタ
340 色補正
350 変倍
352 インタフェース
360 UCR
370 CMYBkフィルタ
380 CMYBkγ補正
390 階調処理
OPB 操作/表示部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus, an image reading apparatus, an image forming apparatus, and a color copying apparatus, and more particularly, to an image processing apparatus that detects color characters and black characters of image data and performs appropriate image processing.
[0002]
[Prior art]
As a conventional example, an image processing device disclosed in Patent Document 1 is known. In the present invention, pattern matching is performed according to each feature.
Further, an image processing device disclosed in Patent Document 2, a chromatic / achromatic color classification method disclosed in Patent Document 3, a color image processing device, and a recording medium are known.
[0003]
[Patent Document 1]
JP-A-5-307641
[Patent Document 2]
JP 2000-125140 A
[Patent Document 3]
JP 2001-346057 A
[0004]
[Problems to be solved by the invention]
However, in the invention of Patent Document 1, since pattern matching is performed only with color pixels, there is a problem that it is erroneously determined that there is a reading position shift, which is impractical.
Further, in the invention of Patent Document 2, a dark halftone dot cannot be detected, and in the invention of Patent Document 3, a color halftone dot detecting means is provided. There was a problem that it became complicated.
In the prior invention, a dark halftone dot or the like may be erroneously determined to be a character. At this time, even if the color determination is normally made as a color, it is determined that the character is a black character and is output in a single black color.
[0005]
The present invention has been made in view of the above problems, and has as its object to provide an image processing device, an image reading device, an image forming device, and a color copying device that detect dark halftone dots as colors.
[0006]
More specifically, a first object of the present invention is to determine a color pixel when a white pixel is not present in an N × N matrix and a color pixel is present at a predetermined position. It is an object of the present invention to provide an image processing device that detects the above.
[0007]
A second object of the present invention is to provide an image processing apparatus for detecting a color pixel by referring to each one of four outer sides of an N × N matrix so as not to be affected by a reading position shift. Is to provide.
[0008]
A third object of the present invention is to detect a color halftone dot by combining a color thin line pixel detection means capable of detecting a color thin line in addition to a color halftone dot detection means. Accordingly, an object of the present invention is to provide an image processing apparatus capable of clearly detecting a thin color line.
[0009]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the invention according to claim 1 comprises a white pixel detecting means for detecting whether a white pixel is present in an N × N matrix, and a color detecting means for detecting a color at a predetermined position in the N × N matrix. A color pixel when a pixel is present, a color determination unit that determines a color including a color halftone dot, and the white pixel detection unit is not a white pixel but the color determination unit is the color pixel and a color including a color halftone dot. A color pixel determining unit that determines the color pixel when it is determined that there is a color pixel.
[0010]
According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the color determination unit refers to each one of four outer sides of the N × N matrix.
[0011]
According to a third aspect of the present invention, there is provided the image processing apparatus according to the first aspect, further comprising a color thin line pixel detecting means capable of detecting a color thin line.
[0012]
According to a fourth aspect of the present invention, there is provided the image processing apparatus according to any one of the first to third aspects, wherein the image processing apparatus further performs color separation of a document image, reads the generated image data, generates image data, and supplies the image data to the image processing apparatus. An image reading apparatus comprising a scanner.
[0013]
According to a fifth aspect of the present invention, there is provided the image processing apparatus according to any one of the first to third aspects, further comprising a color printer for printing out output image data of the image processing apparatus on paper. This is a characteristic image forming apparatus.
[0014]
According to a sixth aspect of the present invention, there is provided the image processing apparatus according to any one of the first to third aspects, further comprising: reading a document image by color separation, generating image data, and providing the image data to the image processing apparatus; A color copying apparatus comprising a scanner and a color printer for printing out image data output from the image processing apparatus on paper.
[0015]
The color copying apparatus according to claim 6, further comprising a printer controller that analyzes an external print instruction command and prints out external image information by the color printer. It is.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
FIG. 1 is a schematic configuration diagram of a digital full-color copying machine according to an embodiment of the present invention. The main configuration is provided with a color image reading device 200 and a color image recording device 400, thereby constituting a copying machine.
[0017]
A color image reading apparatus (hereinafter, referred to as a scanner) 200 forms an image of an original 180 on a contact glass 202 on a color sensor 207 via an illumination lamp 205, mirror groups 204A, 204B, 204C, and a lens 206, and The color image information of the original is read for each color separation light of blue (hereinafter, referred to as B), green (hereinafter, referred to as G) and red (hereinafter, referred to as R), and is converted into an electric image signal. In this example, the color sensor 207 is constituted by a three-line CCD sensor, and reads B, G, and R images for each color. Based on the color separation image signal intensity levels of B, G, and R obtained by the scanner 200, color conversion processing is performed by an image processing unit (not shown), and black (hereinafter, referred to as BK) and cyan (hereinafter, referred to as BK). C), color image data including recording color information of magenta (hereinafter, referred to as M) and yellow (hereinafter, referred to as Y).
[0018]
Using this color image data, BK, C, M, and Y images are formed on an intermediate transfer belt by a color image recording device (hereinafter, referred to as a color printer) 400 described below, and then transferred to transfer paper. The scanner 200 receives a scanner start signal synchronized with the operation of the color printer 400, and scans a document in the left arrow direction by an illumination / mirror optical system including an illumination lamp 205 and mirror groups 204A, 204B and 204C. Image data of one color is obtained every scanning. Then, each time, while visualizing the images sequentially with the color printer 400, these are superimposed on the intermediate transfer belt to form four full-color images.
[0019]
An optical writing optical unit 401 as an exposure unit in the color printer 400 converts color image data from the scanner 200 into an optical signal, performs optical writing corresponding to a document image, and forms an electrostatic latent image on the photosensitive drum 414. Form. The optical writing optical unit 401 includes a laser light emitter 441, a light emission drive control unit (not shown) for driving the light emission, a polygon mirror 443, a rotation motor 444 for driving the rotation, a fθ lens 442, a reflection mirror 446, and the like. Have been. The photoconductor drum 414 rotates counterclockwise as indicated by an arrow. Around the photoconductor cleaning unit 421, a neutralization lamp 414M, a charger 419, and a latent image potential on the photoconductor drum are detected. A potential sensor 414D, a selected developing device of the revolver developing device 420, a developed density pattern detector 414P, an intermediate transfer belt 415, and the like are arranged.
[0020]
The revolver developing device 420 includes a BK developing device 420K, a C developing device 420C, an M developing device 420M, a Y developing device 420Y, and a revolver rotation drive unit (not shown) for rotating each developing device in a counterclockwise direction as indicated by an arrow. ). In order to visualize the electrostatic latent image, each of these developing units contacts a developing sleeve 420KS of the BK developing unit 420K and a developing unit 420C of the C developing unit 420C which rotate by contacting the ears of the developer with the surface of the photosensitive drum 414. The sleeve 420CS includes a developing sleeve 420MS of the M developing unit 420M, a developing sleeve 420YS of the Y developing unit 420Y, and a developing paddle that rotates to assemble and stir the developer. In the standby state, the revolver developing device 420 is set at a position where development is performed by the BK developing device 420K, and when a copying operation is started, reading of BK image data is started at a predetermined timing by the scanner 200, and this image is read. Based on the data, optical writing / latent image formation by laser light starts. Hereinafter, the electrostatic latent image based on the BK image data is referred to as a BK latent image. The same applies to each of the C, M, and Y image data. In order to enable development from the leading end of the BK latent image, before the leading end of the latent image reaches the developing position of the BK developing unit 420K, the rotation of the developing sleeve 420KS is started to develop the BK latent image with BK toner. . Thereafter, the developing operation of the BK latent image area is continued. When the rear end of the latent image passes the BK latent image position, the developing operation of the next color developing unit is immediately performed from the developing position of the BK developing unit 420K. The revolver developing device 420 is driven and rotated to the position. This rotation operation is completed at least before the leading end of the latent image based on the next image data arrives.
[0021]
When the image forming cycle is started, the photosensitive drum 414 rotates counterclockwise as indicated by an arrow, and the intermediate transfer belt 415 rotates clockwise by a drive motor (not shown). I do. With the rotation of the intermediate transfer belt 415, BK toner image formation, C toner image formation, M toner image formation, and Y toner image formation are sequentially performed, and finally the intermediate transfer is performed in the order of BK, C, M, and Y A toner image is formed over the belt 415. The formation of the BK image is performed as follows. That is, the charger 419 uniformly charges the photoconductor drum 414 with a negative charge to about -700 V by corona discharge. Subsequently, the laser diode 441 performs raster exposure based on the BK signal. When the raster image is exposed in this manner, in the exposed portion of the photosensitive drum 414 that is initially uniformly charged, the charge proportional to the amount of exposure disappears, and an electrostatic latent image is formed. The toner in the revolver developing device 420 is negatively charged by stirring with the ferrite carrier, and the developing sleeve 420KS of the present developing device is connected to the metal base layer of the photosensitive drum 414 by a power supply circuit (not shown). , Are biased to a potential obtained by superimposing a negative DC potential and an AC. As a result, the toner does not adhere to the portion of the photosensitive drum 414 where the charge remains, and the BK toner is attracted to the portion having no charge, that is, the exposed portion, so that the BK visible similar to the latent image can be obtained. An image is formed. The intermediate transfer belt 415 is stretched around a drive roller 415D, a transfer opposed roller 415T, a cleaning opposed roller 415C, and a driven roller group, and is rotated by a drive motor (not shown). The BK toner image formed on the photoconductor drum 414 is applied to the surface of the intermediate transfer belt 415 which is driven at a constant speed in contact with the photoconductor, by a belt transfer corona discharger (hereinafter, referred to as a belt transfer unit) 416. Is transcribed. Hereinafter, the transfer of the toner image from the photosensitive drum 414 to the intermediate transfer belt 415 is referred to as belt transfer. Some untransferred residual toner on the photoconductor drum 414 is cleaned by the photoconductor cleaning unit 421 in preparation for reuse of the photoconductor drum 414. The collected toner is stored in a waste toner tank (not shown) via a collection pipe.
[0022]
The intermediate transfer belt 415 sequentially aligns the BK, C, M, and Y toner images formed on the photosensitive drum 414 on the same surface to form a four-color superimposed belt transfer image. Batch transfer is performed on transfer paper using a corona discharge transfer device. On the photoconductor drum 414 side, the process proceeds to the C image forming process after the BK image forming process. At a predetermined timing, reading of the C image data by the scanner 200 starts, and the laser light is written by the image data. A C latent image is formed. The C developing device 420C performs the rotation operation of the revolver developing device after the trailing end of the preceding BK latent image has passed the developing position and before the leading end of the C latent image has arrived, and performs the C latent image Is developed with C toner. Thereafter, the development of the C latent image area is continued, but when the rear end of the latent image has passed, the revolver developing device 420 is driven in the same manner as in the case of the BK developing device, and the C developing device 420C is sent out. Of the M developing device 420M is positioned at the developing position. This operation is also performed before the leading end of the next M latent image reaches the developing unit. In the process of forming each of the M and Y images, the operations of reading the respective image data, forming the latent image, and developing are in accordance with the processes of the BK image and the C image described above, and a description thereof will be omitted.
[0023]
The belt cleaning device 415U includes an inlet seal, a rubber blade, a discharge coil, and a mechanism for contacting and separating the inlet seal and the rubber blade. After the BK image of the first color is transferred to the belt, while the images of the second, third, and fourth colors are transferred to the belt, the entrance seal, the rubber blade, and the like are separated from the intermediate transfer belt surface by the blade contact / separation mechanism. deep.
[0024]
A paper transfer corona discharger (hereinafter, referred to as a paper transfer device) 417 uses an AC + DC or DC component to transfer the superposed toner image on the intermediate transfer belt 415 to the transfer paper. This is applied to the transfer belt.
[0025]
Transfer paper of various sizes is stored in a transfer paper cassette 482 in the paper feed bank. Paper is fed from a cassette storing paper of a designated size to the registration roller pair 418R by a paper feed roller 483.・ Transported. Reference numeral 412B2 indicates a paper feed tray for manually feeding OHP paper, thick paper, and the like. At the time when the image formation is started, the transfer paper is fed from any one of the paper feed trays, and is waiting at the nip portion of the registration roller pair 418R. Then, when the leading end of the toner image on the intermediate transfer belt 415 approaches the paper transfer unit 417, the registration roller pair 418R is driven so that the leading end of the transfer paper coincides with the leading end of this image, and the paper and the image are transferred. Matching is performed. In this way, the transfer paper is superimposed on the color superimposed image on the intermediate transfer belt and passes over the paper transfer unit 417 connected to the positive potential. At this time, the transfer paper is charged with a positive charge by the corona discharge current, and most of the toner image is transferred onto the transfer paper. Subsequently, when the transfer paper passes through a separation and static eliminator by a static elimination brush (not shown) disposed on the left side of the paper transfer device 417, the transfer paper is discharged, separated from the intermediate transfer belt 415 and moved to the paper transport belt 422. The transfer paper on which the four-color superimposed toner image is collectively transferred from the intermediate transfer belt surface is conveyed to a fixing device 423 by a paper conveyance belt 422, and the toner is transferred to a nip portion between a fixing roller 423A and a pressure roller 423B controlled to a predetermined temperature. The image is fused and fixed, sent out of the main body by a discharge roll pair 424, and stacked face up on a copy tray (not shown).
[0026]
The surface of the photoconductor drum 414 after the belt transfer is cleaned by a photoconductor cleaning unit 421 including a brush roller, a rubber blade, and the like, and is uniformly discharged by a discharge lamp 414M. Further, the intermediate transfer belt 415 after the transfer of the toner image onto the transfer paper is pressed again by the blade contacting / separating mechanism of the belt cleaning device 415U to clean the surface. In the case of the repeat copy, the operation of the scanner and the image formation on the photosensitive member continue from the fourth-color image process on the first sheet, and then proceed to the first-color image process on the second sheet at a predetermined timing. In the case of the intermediate transfer belt 415, the second BK toner image is belt-transferred to an area whose surface has been cleaned by the belt cleaning device, following the batch transfer process of the first four-color superimposed image onto transfer paper. So that Thereafter, the operation is the same as that of the first sheet.
[0027]
In the color copying machine shown in FIG. 1, when print data is supplied from a host such as a personal computer via a LAN or a parallel I / F, the print data can be printed out (image output) by a color printer 400, and The image forming apparatus is a color copier with a composite function capable of transmitting image data read by the scanner 200 to a remote facsimile and printing out received image data. This copying machine is connected to a public telephone network via a private branch exchange PBX, and can communicate with a facsimile communication and a management server of a service center via the public telephone network.
[0028]
Next, an outline of an electric system of the color copying machine shown in FIG. 1 will be described with reference to FIG.
FIG. 2 illustrates a control device of the color copying machine with the main controller 10 at the center.
The main controller 10 controls the entire color copying machine. The main controller 10 controls the operation / display board OPB for performing display to an operator and input of function setting from the operator, control of the editor 15, the scanner 200 and an optional ADF, control of writing a document image into an image memory, The scanner controller 12, the printer controller 16, the image processing unit (IPU) 300, and the color printer 400 which perform control and the like for performing image formation from the image memory, and charge, exposure, development, paper feed, and transfer A decentralized control device such as an engine controller 13 for controlling an image forming engine for carrying out fixing and transfer paper transfer is connected. Each decentralized control device and the main controller 10 exchange machine status and operation commands as needed. A main motor and various clutches necessary for paper conveyance and the like are also connected to a driver (not shown) in the main controller 10.
[0029]
The color printer 400 includes an electric circuit and control for driving a mechanism element that performs charging of the photosensitive drum 414, image exposure by a laser writing unit, development, transfer, fixing, and paper discharge, including paper supply from a paper supply tray. There are circuits and various sensors.
[0030]
The printer controller 16 analyzes an external image such as a personal computer and a command to instruct printing, develops a bitmap into a printable state as image data, and drives the color printer 400 via the main controller 10 to convert the image data. Print out. A LAN control 19 and a parallel I / F control 18 are provided for receiving and operating images and commands via the LAN and the parallel I / F.
[0031]
When there is a facsimile transmission instruction, the facsimile controller 17 drives the scanner 200 and the IPU 300 via the main controller 10 to read the image of the original, and transfers the image data to the facsimile communication line via the communication control 20 and the PBX. Send out. When a facsimile call is received from the communication line and the image data is received, the color printer 400 is driven via the main controller 10 to print out the image data.
[0032]
FIG. 3 shows a configuration of the image processing unit (IPU) 300.
The R, G, and B image data generated by the scanner 200 is provided to the image processing unit (IPU) 300 via the interface (1) 351. When the BR unit 355 instructs recording of B or R single color, selection and aggregation of R, G, and B image data are performed, but description of the image recording processing in this mode is omitted. The R, G, B image data given to the IPU 300 is input to the document recognition 320, and the RGBγ correction 310 at the next stage converts the reflectance data (R, G, B data) into density data (R, G, B data). ).
[0033]
Based on the density R, G, and B data, the document recognition 320 determines whether the image area to which the data is addressed is a character edge area (edge area of a character or a line drawing), a halftone dot area, a low-frequency halftone dot area, or a picture. It is determined whether the area is an area (a photograph / picture area, not a character area, not a halftone area, and not a halftone area), and the C / P signal (area determination signal) and the B / C signal (color or non-color) are determined. Signal) to the main controller 10 via the RGB filter 330 and the interface (3) 353. Hereinafter, the C / P signal and the B / C signal will be described.
C / P signal: a 2-bit signal,
3 indicates a low frequency halftone dot area,
2 indicates a dot area,
1 indicates a character edge area,
0 indicates a picture area.
B / C signal: 1-bit signal,
H (“1”) indicates an achromatic region,
L (“0”) indicates a chromatic area.
[0034]
-Original recognition 320-
Next, the function of the document recognition 320 will be described with reference to FIG.
FIG. 4 is a diagram showing the function of the document recognition 320 by block division.
The document recognition 320 is roughly composed of a line memory R3201, a line memory G3202, a line memory B3203, and a recognition processing unit 3204.
The recognition processing unit 3204 performs character edge detection, picture detection, and chromatic / achromatic detection.
As a result, a C / P signal representing a character edge area or a picture area and a B / C signal representing a chromatic area / achromatic area are generated.
The line memory R3201, the line memory G3202, and the line memory B3203 are line memories capable of storing a plurality of RGB lines. The line memories R, G, and B output the input RGB with a delay of a plurality of lines in order to match the recognition result (C / P, B / C) with the synchronization (position) of the line. Thus, it is possible to avoid the problem of performing the recognition process and performing a plurality of line processes during the recognition process.
[0035]
FIG. 5 is a block diagram showing a configuration of the document recognition 320.
Hereinafter, the configuration of the document recognition 320 will be described in detail with reference to FIG.
[0036]
The document recognition 320 includes filter processing 321, edge extraction 322, white area extraction 323, halftone dot extraction 324, color determination 325, and comprehensive determination 326.
Hereinafter, the processing operation in each block will be described. Here, a case where the reading density of the scanner 200 is about 600 dpi is taken as an example.
[0037]
-Filter processing 321-
First, the processing operation in the filter processing 321 will be described in detail.
The filter processing 321 corrects the G image data generated by the scanner 200 mainly for extracting a character edge. Here, since the data read by the scanner 200 may be blurred due to the performance of the lens or the like, an edge emphasis filter is applied. However, here, it is necessary to simply emphasize the image edge on the original and not to emphasize the line pattern for gradation expression widely used in copying machines. If the line pattern is emphasized, the pattern (gradation expression area by the line pattern) is extracted as an edge, and there is a possibility that it may be erroneously determined to be a character edge. is there.
Further, as shown in FIG. 6, since the line pattern A of 600 dpi and the line pattern B of 400 dpi have different repetition periods, it is difficult to avoid emphasis with the same filter coefficient. Therefore, either the maximum value or the minimum value of the calculation results of the two coefficients is used according to the detection of the characteristic amount (edge extraction, white area detection) at the subsequent stage.
In FIG. 6, the sum of the width of one white block and the width of one black block in contact with it in the main scanning direction x is the line pitch (constant width: a predetermined number of pixels), that is, the line cycle. At times, the white block width increases and the black block width decreases. As the density becomes higher, the white block width becomes narrower and the black block width becomes wider.
[0038]
In this embodiment, the pixel matrix of the filter processing 321 is represented by the filter processing 321 shown in FIG. 5 as the number of pixels 7 in the main scanning direction x × the number of pixels 5 in the sub-scanning direction y (the mechanical original scanning direction of the scanner 200). In this block, there are two sets of coefficient groups (coefficient matrices) A and B to which respective weighting coefficients a1 to a7, b1 to b7, c1 to c7, d1 to d7, and e1 to e7 are addressed to each pixel. The table of the coefficient group A and the coefficient group B is shown below.
[0039]
[Table 1]
Figure 2004153563
[0040]
[Table 2]
Figure 2004153563
[0041]
The coefficient group A is a filter processing coefficient for suppressing the emphasis of the 600 dpi line pattern A shown in FIG. 6 and emphasizing the edges of characters.
The coefficient group B is a filter coefficient for suppressing the emphasis of the 400 dpi line pattern B shown in FIG. 6 and emphasizing the edges of the character.
[0042]
In the coefficient groups A and B, the horizontal direction indicates the arrangement in the main scanning direction x, and the vertical direction indicates the arrangement in the sub-scanning direction y.
Further, the coefficients of the first row in the coefficient groups A and B are the coefficients a1 to a7 of the first row in the coefficient matrix of the block shown in the filter processing 321 of FIG. “20” at the center of the third row is the coefficient of the pixel at the center of the third row c1 to c7 of the coefficient matrix of the block, that is, the coefficient c4 of the target pixel, which is shown in the filter processing 321.
[0043]
As described above, the sum (product sum value) of the products (total 7 × 5 = 35) obtained by multiplying each coefficient of the coefficient matrix by the value represented by the image data of the pixel addressed thereto is assigned to the target pixel (c4). (Pixels) are given to the edge extraction 322 and the white area extraction 323 as image data values processed by the filter processing 321.
Note that the target pixel is a pixel to be currently processed, and is sequentially updated to a pixel having a different position in the x direction and the y direction.
[0044]
In the coefficient group A, a negative coefficient (a coefficient having a small value) is distributed at a line pitch of the line pattern A of 600 dpi shown in FIG. 6, and 0 (a coefficient having a relatively large value) is distributed therebetween. Then, 20 (extremely large coefficient) is assigned to the target pixel for edge enhancement.
Thus, when the image data (pixel of interest) is a black / white edge in the area of the line pattern A, the weighted average value (product sum value) derived therefrom is a character edge that is not the line pattern A. Is much lower than when
[0045]
In the coefficient group B, a negative coefficient (a coefficient having a small value) is distributed at the line pitch of the line pattern B of 400 dpi shown in FIG. 6, and 0 (a coefficient having a somewhat large value) is distributed therebetween. Then, 20 (extremely large coefficient) is assigned to the target pixel for edge enhancement.
Accordingly, when the image data (pixel of interest) is a black / white edge in the area of the line pattern B, the weighted average value (product sum value) derived therefrom is a character edge that is not the line pattern B. It is much lower than at some point.
[0046]
In the filter processing 321, the calculation of the coefficient group A and the coefficient group B is performed, the minimum value of the calculation result is output to the edge extraction 322, and the maximum value of the calculation result is output to the white region extraction 323.
The reason why the minimum value of the operation result is output to the edge extraction 322 is to avoid a case where the white level cannot be sufficiently extracted when the character structure has a line shape.
The reason why the maximum value of the calculation result is output to the white region extraction 323 is to make it easier to obtain a clearer picture than when the picture has a line pattern structure (for example, output from a copying machine).
[0047]
Thus, the edge extraction 322 makes it easier to pick up an edge, and the white area detection 323 makes it easier to pick up a picture.
In the present embodiment, two coefficients have been described as an example, but the same effect can be obtained with three or more coefficients.
FIG. 5 shows a mode in which the G image data is referred to in the process of the edge extraction 322. However, the present invention is not limited to the G data, and may be luminance data. A signal representing dark or light is applicable.
[0048]
−Edge extraction 322-
Next, the processing operation in the edge extraction 322 will be described in detail.
In the character area, there are many high-level density pixels (hereinafter, referred to as black pixels) and low-level density pixels (hereinafter, referred to as white pixels), and at the edge portions, these black pixels and white pixels are continuous. In the edge extraction 322, a character edge is detected based on the continuity of each of the black pixels and the white pixels.
[0049]
-3 value conversion 322a-
First, the processing operation in the ternarization 322a will be described.
In the ternarization 322a, the filter processing 321 ternarizes the G image data (input data of the edge extraction 322) that has been subjected to the character edge enhancement filter processing using two types of threshold values TH1 and TH2. For example, when the image data represents 256 gradations (0 = white) from 0 to 255, the thresholds TH1 and TH2 are set to TH1 = 20 and TH2 = 80.
In the ternarization 322a, input data is converted under the following conditions.
If input data <TH1, pixels to which the data is addressed are white pixels,
If TH1 ≦ input data <TH2, a halftone pixel;
If TH2 ≦ input data, a black pixel;
It is converted into the ternary data represented.
[0050]
−Continuous black pixel detection 322b, continuous detection of white pixel 322c−
Next, processing operations in black pixel continuation detection 322b and white pixel continuation detection 322c will be described.
The black pixel continuation detection 322b and the white pixel continuation detection 322c detect a portion where black pixels are continuous and a portion where white pixels are continuous by pattern matching based on the ternary data.
For this pattern matching, in the present embodiment, the patterns BPa to BPd and WPa to WPd of the 3 × 3 pixel matrix shown in FIG. 7 are used.
In the pattern of the 3 × 3 pixel matrix shown in FIG. 7, black circles indicate the above-described black pixels, and white circles indicate the above-described white pixels. The blank pixels without any circles are black pixels, halftone pixels, or white pixels. Note that the pixel at the center of the 3 × 3 pixel matrix is the pixel of interest.
[0051]
When the distribution of the contents of the ternary data matches any of the black pixel distribution patterns BPa to BPd shown in FIG. 7, the black pixel continuation detection 322b represents the target pixel at that time as “black continuation pixel”. The data is given to the pixel of interest.
Similarly, when the white pixel continuation detection 322c matches any of the white pixel distribution patterns WPa to WPd shown in FIG. 7, the target pixel at that time is set as a “white continuous pixel”, and data representing the pixel is given to the target pixel.
[0052]
-Nearby pixel detection 322d-
Next, a processing operation in the neighborhood pixel detection 322d will be described.
The neighboring pixel detection 322d checks whether or not there is a black continuous pixel or a white continuous pixel in the vicinity of the target pixel in the neighboring pixel detection 322d based on the detection results of the black pixel continuous detection 322b and the white pixel continuous detection 322c.
Thereby, it is determined whether the target pixel is in the edge region or the non-edge region. More specifically, in this embodiment, when one or more black continuous pixels and one or more white continuous pixels exist in a block of a 5 × 5 pixel matrix, the block is determined as an edge area. . If one or more black continuous pixels and one or more white continuous pixels do not exist inside the block, the block is determined as a non-edge area.
[0053]
-Isolated point removal 322e-
Next, a processing operation in the isolated point removal 322e will be described.
Since the character edge exists continuously, the isolated edge is corrected to a non-edge area by the isolated point removal 322e. Then, an edge signal of "1" (edge area) is output to a pixel determined to be an edge area, and an edge signal of "0" (non-edge area) is output to a pixel determined to be a non-edge area.
[0054]
-White area extraction 323-
Next, the processing operation in the white region extraction 323 will be described in detail.
The white area extraction 323 includes binarization 323a, RGB white extraction 323b, white determination 323c, white pattern matching 323d, white pattern correction 323e, white expansion 323f, white contraction 323g, white correction 323h, gray pattern matching 323i, and gray expansion 323j. , And determination 323k.
[0055]
-Binarization 323a-
First, the binarization 323a will be described.
The binarization 323a binarizes the edge-enhanced output of the image density data (G image data) of the filter processing 321 with a threshold thwsb, and refers to the white data referred to by the white pattern matching 323d (the processing of step 7 in FIG. 8). Generates a binarized white determination signal for generating.
In this embodiment, the edge enhancement output is 256 gradations from 0 to 255, 0 is white with no density, an example of the threshold thwsb is 50, and the value of the edge enhancement output is thwsb = 50. If smaller, the binarization 323a determines "binary white" and generates a binary white determination signal "1". When the value of the edge enhancement output is equal to or greater than thwsb = 50, a binary white determination signal “0” is generated.
[0056]
-RGB white extraction 323b-
Next, the RGB white extraction 323b will be described.
The RGB white extraction 323b includes RGB white background detection, valley white pixel detection 323b1, color ground detection 323b2, and gray pixel detection 323b3.
With the above configuration, RGB white background detection, valley white pixel detection, and color background detection are performed, and it is determined whether the image data is a white region. Further, gray pixel detection is performed and gray determination is performed.
[0057]
-RGB white background detection and valley white pixel detection 323b1-
First, detection of an RGB white background will be described.
In the RGB white background detection, a white background separation operation is activated by detecting a white background region from R, G, and B image data. That is, the processing of white background separation is started. Specifically, as shown in the pattern WBP of FIG. 9, if all of the R, G, and B image data of the 3 × 3 pixel matrix are smaller than the threshold thwss, the target pixel (the center pixel of the 3 × 3 pixel matrix) The white area matching 323d (white background determination signal representing the processing in step S3 in FIG. 8) is activated ("1") by determining that the area is a white area. This is to detect whether there is a white pixel area having a certain extent. In this embodiment, each of the R, G, and B image data also has 256 gradations from 0 to 255, 0 is a base level without density, and the threshold value thwss <thwsb. If it is 40 and all of the R, G, and B image data are smaller than thwss = 40, it is determined to be “white background” and a white background determination signal “1” is generated. When any of the R, G, and B image data has a threshold value of thwss = 40 or more, a white background determination signal “0” is generated.
[0058]
Next, valley white pixel detection will be described.
In the valley white pixel detection, valley white pixels in a small white area that cannot be detected by the RGB white background detection are detected based on the 5 × 5 pixel matrix distributions RDPa and RDPb of the G image data shown in FIG. Specifically, based on a 5 × 5 pixel matrix distribution RDPa,
miny = min (G [1] [2], G [1] [3], G [1] [4], G [5] [2], G [5] [3], G [5] [4 ])
Is calculated.
That is, the minimum density miny in the group of pixels with black circles in the 5 × 5 pixel matrix distribution RDPa shown in FIG. 9 is extracted.
And
maxy = max (G [3] [2], G [3] [3], G [3] [4])
Is calculated.
That is, the maximum density maxy in the pixel group with a white circle in the 5 × 5 pixel matrix distribution RDPa shown in FIG. 9 is extracted.
next,
mint = min (G [2] [1], G [3] [1], G [4] [1], G [2] [5], G [3] [5], G [4] [5 ])
Is calculated.
That is, the lowest density mint in the pixel group with a black circle is extracted from another 5 × 5 pixel matrix distribution RDPb shown in FIG.
And
maxt = max (G [2] [3], G [3] [3], G [4] [3])
Is calculated.
That is, the maximum density maxt in the pixel group with a white circle in the 5 × 5 pixel matrix distribution RDPb shown in FIG. 9 is extracted. Here, min () is a function for detecting the minimum value. max () is a function for detecting the maximum value.
next,
OUT = ((miny-maxy)> 0) # ((mint-maxt)> 0)
Is calculated.
That is, of (miny-maxy) and (mint-maxt), the larger positive value is the valley detection value OUT, and if the value of OUT is equal to or greater than a certain threshold, the pixel of interest (RDPa or RDPb). Is detected as a valley white pixel. As described above, the valley state of the image is detected, and a portion that is difficult to detect in the RGB white background detection is supplemented.
[0059]
-Color background detection 323b2-
Next, the color ground detection 323b2 will be described.
The color background detection detects a color background in order to prevent a light color from being determined as a white background.
A. Here, first, assuming that the sign of each pixel of the 5 × 5 pixel matrix centered on the target pixel is indicated by the pattern MPp in FIG. 10, the center pixel c3 (the X-marked pixel from MCa to MCd) serving as the target pixel If the RGB difference (the difference between the maximum value and the minimum value of the R, G, B image data addressed to one pixel) is larger than the threshold thc, the color pixel determination signal a is set to “1” (color pixel) and Is "0" (black and white pixel).
B. If all of the R, G, and B image data of any of the pixels in the peripheral pixel group 片 on one side of the target pixel (in MCa to MCd in FIG. 10) is less than or equal to the threshold thwc, the one-side white determination signal b is set to “1”. (White pixel) and “0” (non-white pixel) when the threshold thwc is exceeded. The threshold value thwc is, for example, 20.
C. If the R, G, and B image data of any of the pixels in the peripheral pixel group □ (from MCa to MCd in FIG. 10) on the other side of the pixel of interest is equal to or smaller than the threshold thwc, the other-side white determination signal c is set to “1”. (White pixel), and when the threshold value thwc is exceeded, “0” (non-white pixel).
D. In any of the patterns MCa to MCd in FIG.
a AND (exclusive NOR of b and c) = "1"
Holds, that is, when a = “1” (the target pixel is a color pixel) and b and c match (white pixels on both sides of the target pixel or non-white pixels on both sides), the , The color ground determination signal d is “1” (color ground). This color ground determination signal d is referred to in white pattern matching 323d (representing the processing in step S6 in FIG. 8).
[0060]
The above-described pattern matching A to D is performed in order to prevent the black character from being picked up as a color when the area around the black character is slightly colored due to an RGB reading position shift. At the colored position around the black character, (exclusive NOR of b and c) is “0” (one of both sides of the target pixel is a white pixel and the other is a non-white pixel). In this case, the color ground determination signal d = “ 0 "(non-colored background).
[0061]
In addition, when the pixel of interest is a color pixel whose periphery is surrounded by a white background, the color ground determination signal d = “1” (color background), and even when a line is complicated, a light color pixel is detected as a color background. be able to. In other words, where a line is complicated, a white place is not completely read as white originally, but in the above process A, if the RGB difference is small, the pixel is not determined to be a color pixel. Therefore, the threshold thwc is set more strictly than a white background where the density should be observed. Then, for example, thwc = 20 with respect to thwss = 40 and thwsb = 50, it is possible to strictly check whether or not a white background exists in the processing from B to D, and accurately detect a light color pixel as a color ground.
[0062]
-Gray pixel detection 323b3-
Next, the gray pixel detection 323b3 will be described.
For gray pixel detection, hue division of R, G, B, Y, M, C, and BK is performed, and if the density is low for each hue, a pixel is detected.
Hue division is the same as color determination described later.
Here, the G data after the filter is compared with thgr, and if either the data is larger than the G data or the color pixel is detected by the color pixel detection of the RGB white extraction, the following operation is performed. If the following conditions are satisfied, the pixel is determined to be a gray pixel.
Here, the threshold value is changed for each color because the maximum density of each ink is different.
[0063]
1) RY hue area boundary (ry)
R-2 * G + B> 0
2) Y-G hue area boundary (yg)
11 * R-8 * G-3 * B> 0
3) GC hue area boundary (gc)
1 * R-5 * G + 4 * B <0
4) CB hue area boundary (cb)
8 * R-14 * G + 6 * B <0
5) B-M hue area boundary (bm)
9 * R-2 * G-7 * B <0
6) MR hue area boundary (mr)
R + 5 * G-6 * B <0
7) Y pixel determination (gry)
(It is a color pixel) & (ry == 1) & (yg == 0) & (Maximum value of RGB <thmaxy) 8) G pixel determination (grg)
(It is a color pixel) & (yg == 1) & (gc == 0) & (Maximum value of RGB <thmaxg) 9) C pixel determination (grc)
(It is a color pixel) & (gc == 1) & (cb == 0) & (Maximum RGB value <thmaxc) 10) B pixel determination (grb)
(It is a color pixel) & (cb == 1) & (bm == 0) & (Maximum RGB value <thmaxb) 11) M pixel determination (grm)
(It is a color pixel) & (bm == 1) & (mr == 0) & (Maximum RGB value <thmaxm) 12) R pixel determination (grr)
(It is a color pixel) & (mr == 1) & (ry == 0) & (Maximum RGB value <thmaxr) 13) When not a color pixel (grbk)
(Maximum value of RGB <thmaxbk)
14) Gray pixel judgment
When any one of the conditions 7) to 14) is satisfied, a gray pixel is determined.
Note that “==” is a notation in the C language.
[0064]
-White judgment 323c-
Next, the white determination 323c will be described.
Here, the state variables MS and SS [I] used for the white determination are updated. The contents are shown in FIG.
FIG. 8 is a flowchart showing a procedure for updating the state variables MS and SS [I] used for white determination.
Here, the state variable MS is addressed to the pixel of the processing target line (line of interest), and the state variable SS [I] is addressed to the pixel one line before (the processed line) of the processing target line. This is 4-bit white background information indicating the degree of white of the white background, and is generated by the processing in FIG. The maximum value of the values represented by the state variables MS and SS [I] is set to 15, which means the whitest degree, and the minimum value is 0. That is, the state variables MS and SS [I] are data indicating the degree of white, and the larger the value represented by the state variables, the stronger the white. At the start of the copying operation, both the state variables MS and SS [I] are initialized to zero.
[0065]
Next, the processing operation of FIG. 8 will be described.
First, a state variable one line before the target pixel to be processed, that is, white background information SS [I], and a state variable of a pixel one pixel before (preceding pixel: processed pixel) on the same line as the target pixel, that is, a white background The information is compared with the information MS (step S1). If the white background information SS [I] one line before is larger (step S1 / YES), it is set as temporary white background information MS of the target pixel (step 2). Otherwise (step S1 / NO), the state variable MS of the preceding pixel is set as temporary white background information MS of the pixel of interest. This means that information that is closer to white among the white background information of the peripheral pixels is selected.
[0066]
After the copying operation is started, it is determined from the above processing operation whether a white area, that is, a white background is detected by detecting an RGB white background (step S3). When a white background (white area) is detected (step S3 / YES, white background determination signal output of RGB white background detection = “1”), white background information SS [I] of the pixel one line before the target pixel is updated to 15. Then, the white background information MS of the target pixel is also set to 15 (steps S4 and S5). Then, the white background information MS of the pixel of interest is written into the main scanning position (F) of the pixel of interest in the line memory for the current line (line of interest) in the line memory LMP shown in FIG. The information SS [I] is written to the main scanning position (F) of the target pixel in the line memory for the previous one line of the line memory LMP shown in FIG. 11 (steps 3, 4, and 5).
[0067]
Next, the white background information SS [I] addressed to the pixel one line before is propagated to the pixel one line before as follows (steps S14 to S17). [I] means the main scanning position of the target pixel, and [I-1] means the position of a pixel one pixel before (the pixel immediately before the target pixel) in the main scanning direction x.
[0068]
When SS [I-1] <SS [I] -1, SS [I-1] = SS [I] -1 is set in the line memory (steps S14 and S15).
In other words, in the line one line before the pixel of interest, the white background at the position (F) of the pixel of interest (E) before the position (F) of the pixel of interest (F) in the main scanning direction If the value “SS [I] −1” obtained by subtracting 1 from the information SS [I] is larger (the degree of white is stronger), the pixel one pixel before the position (F) of the target pixel on the line one line before The white background information SS [I-1] addressed to (E) is updated to a value obtained by lowering the white intensity by one from the white background information SS [I] at the position (F) of the target pixel.
[0069]
Next, when SS [I-2] <SS [I] -2, SS [I-2] = SS [I] -2 is set in the line memory (steps S16, 17-14, 15).
Next, when SS [I-3] <SS [I] -3, SS [I-3] = SS [I] -3 is set in the line memory (steps S16, 17-14, 15).
[0070]
Thereafter, similarly, when SS [I-15] <SS [I] -15, SS [I-15] = SS [I] -15 is set in the line memory (steps S16 and 17-14). , 15). The lower limit value MIN of the value of the white background information SS [I] is 0, and when it is less than 0, it is kept at 0. This is the same in step S13 described later.
[0071]
By the processes in steps S14 to S17, the white background information SS one line before and before the main scanning position of the target pixel is replaced with the white background information MS of the target pixel, and 1 for the positional shift of one pixel in the main scanning direction x. The white background information of the target pixel is updated to the value reduced by the reduction rate, and propagates at the reduction rate behind the main scanning in the main scanning direction x one line before (white propagation processing).
However, this is a case where the value of the white background information one line before is smaller. For example, if the pixel one line before is detected as a white background (white area) by the RGB white background detection, the white background information is 15 which is the highest value, and no rewriting is performed.
[0072]
When the target pixel is updated and becomes a non-white background (white background determination signal which is an output of RGB white background detection = “0”), the process proceeds from step S3 to step S6 and thereafter, where the target pixel is set to a color background (color background detection). The output is not a color ground determination signal d = "1", but is a non-colored ground, and is binary white (the binary white determination signal output from the binarization 323a is "1"). If the state variable of the pixel of interest provisionally determined in steps S1 and S2, that is, the white background information MS is equal to or larger than the threshold thw1 (for example, 13), the white background information MS addressed to the target pixel is incremented by 1 (steps S6 to S10).
[0073]
That is, the white value is updated to a value that is strong by one. The maximum value max of the white background information MS is set to 15, and when it exceeds 15, it is kept at 15 (steps S9, S10). When the vehicle has proceeded along this route, steps S5 and S14 to S17 are executed. That is, a white propagation process is performed.
[0074]
If the pixel of interest is a non-colored background and is binary white, but the white background information MS is less than thw1 (for example, 7), or more than thw2 (for example, 1), and is a valley white pixel, the state variable MS is left as it is. The value is held (steps S8, S11, S12). When the vehicle has proceeded along this route, steps S5 and S14 to S17 are executed. That is, a white propagation process is performed.
[0075]
If none of the above conditions is satisfied, that is, if the target pixel is a color background or non-binarized white, the white background information MS of the target pixel is decremented by 1 (step S13).
That is, the information is updated to white background information in which the degree of white is weak by one. The minimum value min of the white background information MS is 0, and if it is less than 0, it is kept at 0. When the vehicle has proceeded along this route, steps S5 and S14 to S17 are executed. That is, a white propagation process is performed.
[0076]
By the generation of the white background information MS described above, the white information can be transmitted to the peripheral pixels on the line memory LMP via the state variable (white background information) MS. As described above, the generation of the white background information MS is based on the RGB white background determination signal indicating that the color data (all of the R, G, and B image data) is a white background when the threshold value thwss = 40 is smaller than 40, as shown in FIG. From S3-4-5-14, including generation of 17 colors of white background information MS corresponding to colors, the edge enhancement output (output of the filter 321) of the density data (G image data) is smaller than the threshold thwsb = 50. At this time, generation of white background information MS corresponding to the density of 17 systems from steps S7 to 13-5-14 to 17 shown in FIG. 8 based on the white background and the binarized white determination signal is included.
[0077]
In the white determination 323c, first, in the RGB white background detection in the RGB white extraction 323b, until a white area is detected, that is, the RGB white background detection generates a white background determination signal "1", The operation (execution of step 4) is not performed until the generation of the white background information MS (steps S3-4-5-14 to 17) is started.
This is because the G image data after the edge enhancement processing of the filter processing 321 is erroneously determined as a white pixel (white block) by white pattern matching described later in an area where determination as a white area (white background) cannot be obtained. This is to prevent it.
[0078]
When the edge emphasis filter processing 321 is applied to a character on a light-colored ground, the data around the character becomes a lower value (white) than the original image data (colored background). When white pattern matching is performed using data, that is, when a white area is determined based only on the generation of the white background information MS corresponding to the density (steps S7 to 13-5 to 14 to 17), the area around the character on the color ground is erroneously determined to be a white background. Although it is easy to perform the above, it is necessary to determine a white pixel (white block) to be described later in an area where the determination as a white area can be obtained by generating the above-described color-corresponding white background information MS (steps S3-4-5-14 to 17). The white background information MS is set to the highest value so that white pattern matching is applied.
[0079]
If it is not a white background in step S3, the white background information MS which is one parameter for determining whether or not to apply the white pattern matching by checking the white background condition in detail in step S6 and thereafter is adjusted. This prevents erroneous determination of the G image data after edge enhancement processing of H.321 as a white pixel (white block) by white pattern matching described later.
[0080]
For example, when the possibility of a color pixel is high, the white background information MS is lowered (step S13), and when there is a suspicion of a color pixel, the white background information MS is held (no change) (steps S11 to S13). By preventing erroneous determination as a white pixel (white block) by pattern matching, data around the character is prevented from having a lower level (white) than the original image data (color ground).
[0081]
Where the character is dense, the white background information MS is updated and propagated by the above-described processing (steps S3 to 5, 6 to 10, and 14 to 17), so that the possibility that the dense character area is erroneously determined to be a pattern is reduced. . Also, among characters such as complicated characters (for example, "letters"), white detection may not be possible by RGB white background detection. At that time, white detection is performed by valley white pixel detection, and white background information MS is detected. Is held on the path in which the YES output of step S12 goes straight to step S5, and the tendency is kept on a white background, so that the possibility that erroneous determination of a complicated character as a picture is reduced.
[0082]
Further, as mentioned above, when the target pixel is a color pixel whose periphery is surrounded by a white background, the color ground determination signal d = “1” (color ground), which is the output of the color ground detection, and the line is complicated. Even in this case, the light color pixel can be detected as a color background, and the threshold value thwc for determining whether the periphery of the target pixel is white is set low (thwc = 20), and the periphery of the light color pixel (target pixel) is set to a white background. Since it is possible to strictly check whether or not a light color pixel is detected as a color background, it is possible to further reduce the possibility that a complicated character is erroneously determined to be a picture.
[0083]
As described above, since a light color pixel can be more strictly detected as a color background, when a color background is detected, the process proceeds from step S6 to step S13 in FIG. 8, and the state variable MS is lowered to determine the color background as white. In addition to being able to reduce the possibility, in addition to the threshold value thwss (for example, 40) for generating the white background determination signal to be referred to in step S3, the threshold value for generating the binary white determination signal to be referred to in step S7 When thwsb (for example, 50) is set to a large value and the color is not determined (step S6 / NO), the probability of being regarded as white in the binarization 323a is increased, and the process proceeds to steps S7 to S10 in FIG. The likelihood that the state variable MS will be increased to determine the white area is increased.
[0084]
That is, when the threshold thwss = 40 in the RGB white background detection, a strict white determination with a low probability of white determination is performed, and if a white background is determined, the state variable MS is increased by the processing from step S3 in FIG. Therefore, the possibility that the character background is determined to be white is increased.
If the white background is not determined in the strict white determination, whether the color background is reversed, a highly reliable strict color background determination that detects light color pixels as color backgrounds, that is, the result of the color background detection is used. refer. When it is not determined that the color is a color background, once again, a white determination with a threshold thwsb = 50, which has a high probability of being determined as white, that is, with reference to the binarization 323a, it is determined that the color is white. If so, the possibility that the character background is determined to be white by increasing the state variable MS is increased (steps S7 to S10).
Since this process (steps S6 to S10) is performed, if the background density unevenness is lighter than the light color pixels detected as the color background, for example, if there is unevenness in the ground of the original such as backlit, the fine ground unevenness of the original is reduced. , The state variable MS is suppressed from greatly changing in a binary manner, and the next white pattern matching 323d is suppressed from finely changing in the scanning direction as to whether or not it is a white pixel in the scanning direction. As a result, when the background is a light color background, fine color omission (white background) does not appear in conjunction with fine background unevenness of the original such as back reflection.
[0085]
-White pattern matching 323d-
Next, the white pattern matching 323d will be described.
Whether or not the background is white is determined based on whether or not there is a continuous white pixel in a block of 5 × 5 pixels around the target pixel. Therefore, when the following conditional expression is satisfied for the target pixel, the target pixel is provisionally determined as a white pixel, and white pattern matching is performed.
[0086]
(Non-color pixel & (white background information MS ≧ thw1 (13)) & binarized white) #
(Non-color pixel & (white background information MS ≧ thw2 (1)) & valley white pixel & binarized white)
[0087]
Here, the pixel of interest for which a check is made as to whether or not the above conditional expression is satisfied is a target of the white propagation processing of steps S5 and S14 to S17 in FIG. The “white background information MS” in the middle is the white background information MS [I] of the target pixel on which the above check is performed after the white propagation processing. Here, MS [I] is the white background information after the white propagation processing, and I is the position of the pixel of interest to be checked in the main scanning direction x, and the state variable MS is determined by the white determination 323c. This is different from the position of the pixel of interest to be calculated in the main scanning direction x.
[0088]
In the above conditional expression, “non-color pixel” means that the color ground determination signal d output from the color ground detection is “0”, and “binary white” means the binary white of the binarized 323a. The determination signal “1” (binary white) and “valley white pixel” respectively mean that the detection result of the valley white pixel detection is a valley white pixel, and # is a logical sum (OR: Or). & Means AND (and).
[0089]
As described above, the white pattern matching checks whether the output (white pixel or not) determined by the above conditional expression corresponds to any of the vertical and horizontal oblique continuity patterns PMPa to PMPd in FIG. . White circles added to the patterns PMPa to PMPd mean white pixels. It does not matter whether other blank pixels are white pixels.
[0090]
If the white pixel distribution of the 5 × 5 pixel matrix centered on the target pixel corresponds to the pattern PMPa, PMPb, PMPc or PMPd in FIG. 11, it is determined that the target pixel is a white pattern pixel.
[0091]
-White pattern correction 323e-
Next, the white pattern correction 323e will be described.
In the white pattern correction, the active pixels isolated (1 × 1, 1 × 2, 2 × 1, 2 × 2, 1 × 3, 3 × 1 white pixels) by the white pixel pattern matching are deactivated.
As a result, isolated pixels are removed.
[0092]
-White expansion 323f-
Next, the white expansion 323f will be described.
The result of the correction of the white pixel pattern matching is ORed by 7 × 41.
[0093]
-White shrinkage 323g-
Next, the white shrinkage 323g will be described.
For the white contraction, 1 × 33 AND of the result of the white expansion in the white expansion 323f is performed. As described above, by performing white expansion and white contraction, inactive pixels that are expanded and have a small area with respect to the correction result of the white pixel pattern matching are removed.
This determination result is a result that includes a non-white background-side boundary region with respect to a white background and a boundary portion.
In other words, the area is larger than the white background.
[0094]
-White correction 323h-
Next, the white correction 323h will be described.
In the white correction, when there is one or more white candidate blocks in each of the 6 × 4 pixel regions at each of the four corners in 15 × 11 pixels centered on the target pixel marked with “X” in the block pattern BCP shown in FIG. Then, white block correction data is given to the target block. As a result, an area surrounded by a white background is defined as a white area.
[0095]
-Gray pattern matching 323i-
Next, the gray pattern matching 323i will be described.
In the gray pattern matching, the following pattern matching is performed by assuming that D is a gray pixel and BK is darker than the gray pixel. The copy original is a thin line pattern of 200 lines and a line pattern of 300 coins. Therefore, the patterns shown in Table 3 are adopted so that the copy original is also subjected to clay detection.
Those that match the patterns in Table 3 are gray pixels.
FIG. 12 shows the pattern of Table 3. In FIG. 12, FIG. 12A shows a pattern for 200 lines, and FIG. 12B shows a pattern for 300 lines.
[0096]
[Table 3]
Figure 2004153563
[0097]
-Gray expansion 323j-
Next, the gray expansion 323j will be described.
The gray expansion performs an 11 × 11 OR process on the result of the gray pattern matching.
This results in a slightly larger area than the gray area.
[0098]
-Judgment 323k-
Next, the determination 323k will be described.
The determination is made that the white background is set when the white correction result is active or the contraction result is active and the gray expansion result is inactive.
When expressed by an expression, the following expression is obtained.
[0099]
(Result of white correction) # (Result of white contraction & result of gray expansion)
[0100]
Here, (the result of the white correction) reliably determines that the area written on the white background is a white area.
(Result of white shrinkage & result of gray expansion) sets white areas around dark black characters and non-white areas at low density.
[0101]
In FIG. 13, black protrusions surrounded by circles Bp1 to Bp4 indicate that at least one white candidate block exists in each of the 6 × 4 pixel regions at the four corners in 15 × 11 pixels centered on the target block. At this time, the target block is replaced with a white block by white block correction for providing white block correction data to the target block.
Making a black area surrounded by a white background, such as a black protrusion surrounded by circles Bp1 to Bp4, a white area reduces the possibility of determining that area as a picture part.
In the comprehensive determination 326 described later, the non-white area is determined to be a pattern, but the possibility of erroneously determining a black area surrounded by a white background, such as a black protrusion surrounded by circles Bp1 to Bp4, as a pattern is reduced.
Furthermore, the boundary between the black background and the white background is determined to be a white region (character region) based on the result of the white contraction and the result of the gray expansion, so that a dark character edge is determined to be a white background regardless of the thickness of the character.
This makes it possible to correctly determine a character edge as a character edge. In addition, a portion having a low density is not subjected to character edge determination.
[0102]
-Adjustment of text / photo determination level-
As described above, in the white region extraction 323, in the white determination 323c, the white background determination signal of the RGB white extraction 323b, the color ground determination signal d and the valley white pixel determination signal, and the binary white determination signal of the binarization 323a, , White background information MS which is a state variable indicating the degree of white is generated.
[0103]
The white background determination signal (see step S3 in FIG. 8) of the RGB white extraction 323b is “1” (white background) when all of the R, G, and B image data of the target pixel are smaller than the threshold thwss = 40. When the threshold value thwss is increased, the probability of determining a large value of the white background information MS increases, and the probability of extracting the “white region” (the boundary between the black background and the white background boundary: the character region) increases (ie, the pattern region is extracted). Probability decreases). The opposite is true when the threshold thwss is reduced.
[0104]
The binarized white determination signal (see step S7 in FIG. 8) of the binarized 323a is “1” (binary whitened) if the edge enhancement output of the G image data of the filter processing 321 is smaller than the threshold thwsb = 50. ). When the threshold value thwsb is increased, the probability of determining a large value of the white background information MS increases, and the probability of extracting the “white area” increases (that is, the probability of extracting the picture area decreases). The opposite is true if the threshold thwsb is reduced.
[0105]
The image data of the “white area” is subjected to image processing for clearly representing the character image in a later process. Therefore, if the thresholds thwss and thwsb are increased, image processing with high priority is applied to the character.
The image data in the non-white area, that is, the picture (photograph) area is subjected to image processing for faithfully representing the picture or the picture in a later process. Therefore, if the thresholds thwss and thwsb are reduced, the picture (photograph) is given priority Image processing.
[0106]
By the way, when the color ground determination signal d (see step 6 in FIG. 8) of the RGB white extraction 323b is “1” (color ground), the white background information MS is reduced, and the probability of extracting the “white area” is low. (That is, the probability of extracting the picture region increases). When the threshold value thwc (for example, 20) used in the processes B and C for generating the color ground determination signal d in the color ground detection is reduced, the peripheral pixels (△ and □ in FIG. 10 and X is the central pixel) are simultaneously detected as color pixels. , Ie, the probability that (exclusive NOR of b and c) = “1” increases. As a result, the probability of obtaining the color ground determination signal d = “1” (color ground) increases, and the probability of extracting the “white region” decreases (that is, the probability of extracting the picture region increases).
[0107]
Therefore, in the present embodiment, in the operation / display unit OPB of FIG. 2, the menu display of the input mode by the key input and the operation of the key images (the parameter designation key and the up / down keys) on the menu screen displayed on the liquid crystal display are performed. The thresholds thwss, thwsb, and thwc are adjusted as follows by adjusting the “character / photo level” in the parameter adjustment.
[0108]
Figure 2004153563
[0109]
That is, the standard value (default) of the parameter “text / photo level” adjusted and set by the operator on the operation / display unit OPB is “3”, and this default value is the above-mentioned text / photo level and the thresholds thwss, thwsb And a conversion table indicating the relationship between the data and thwc are written in the ROM 358 shown in FIG. Then, when power is supplied to the IPU 300 shown in FIG. 3 and the CPU 357 initializes the IPU 300, the CPU 357 reads a default value of the character / photo level from the ROM 358. Then, the thresholds thwss, thwsb, and thwc corresponding to the read default values are read from the conversion table, and written into the registers of the RAM 356 addressed to the thresholds. Then, it is used for the above-described processing in the white region extraction 323.
Thereafter, the character / photograph level is adjusted by an input from the operation board OPB, and when the adjusted value A is provided from the main controller 10 to the CPU 357, the CPU 357 determines the parameters thwss, thwsb and Each value of thwc is read from the conversion table of the ROM 358, and written to the parameter register of the RAM 356.
[0110]
When the thresholds are set to the standard values thwss = 40, thwsb = 50, and thwc = 20, the operator increases the value of “text / photo level” by i (for example, 1) using the operation board OPB to “ When “Up” is set, the thresholds thwss, thwsb, and thwc are set to the values changed in the character priority direction by 2i (2). Conversely, if the operator decreases the value of the "character / photo level" by "i" (for example, 1) by "Down", the thresholds thwss, thwsb, and thwc are set to the values changed in the photo priority direction by 2i (2).
[0111]
-Halftone dot extraction 324
Next, the dot extraction 324 will be described with reference to FIG.
The halftone extraction 324 includes a first halftone peak detector 324a, a second halftone peak detector 324b, a third halftone peak detector 324c, a first cycle check 324d, a second cycle check 324e, An OR processing unit 324f, a first halftone dot region detection unit 324g, a second halftone dot region detection unit 324h, a first temporary storage unit 324j, and a second temporary storage unit 324k are configured. .
[0112]
The first halftone peak detection unit 324a uses the G image data to determine a pixel forming a part of a halftone dot (a halftone dot pixel and a halftone dot) from pixel density information of a predetermined size in a two-dimensional local area. This is a circuit that detects When the following two conditions are satisfied simultaneously with respect to the local region, the central pixel of the region is detected as a halftone dot peak pixel.
Condition 1: The density level of the center pixel is the maximum (peak) or the minimum (valley peak) in the local area.
Condition 2: The absolute value of the difference between the average of the density levels of the pixel pairs and the density level of the central pixel is equal to or greater than the threshold Th for all pixel pairs that are point-symmetric with respect to the central pixel.
[0113]
Next, the detection process of the first halftone dot detection unit 324a will be specifically described with reference to FIG.
This is an example in which a mask of a 5 × 5 pixel matrix (M × M pixel matrix in general) is used as a local region. Assuming that the sign of each pixel of the 5 × 5 pixel matrix is shown in the pattern MPp in FIG. 10, the density Lc of the central pixel c3, which is the target pixel, is larger or smaller than the density L1 to L8 of the surrounding pixels. And
abs (2Lc-L1-L8) ≧ Lth
And abs (2Lc−L2-L7) ≧ Lth
And abs (2Lc-L3-L6) ≧ Lth
And abs (2Lc−L4-L5) ≧ Lth
, The center pixel (Lc) of the mask is detected as a halftone dot peak pixel. The abs function means taking an absolute value. Lth is a threshold value (fixed value).
[0114]
Specifically, the surrounding pixels are the pixels of the surrounding pixel distribution pattern MPa or MPb shown in FIG. When either of the above-described halftone peak pixel detection based on the surrounding pixel distribution patterns MPa and MPb detects the halftone dot pixel, a detection signal indicating the halftone peak pixel as the target pixel (center pixel c3) at that time. give. Note that the two patterns are used to widely correspond to the number of halftone dots.
[0115]
The pattern MPa is
L1 = b2, L2 = b3, L3 = b4, L4 = c2, L5 = c4, L6 = d2, L7 = d3, L8 = d4,
It is defined. Here, L1 = b2 means that the density of the pixel b2 is set to the value of L1 in the halftone peak pixel detection calculation.
[0116]
The pattern MPb is
L1 = b2, L2 = a3, L3 = b4, L4 = c1, L5 = c5, L6 = d2,
L7 = e3, L8 = d4,
It is defined.
[0117]
In the case of copying, since the enlargement and reduction in the sub-scanning direction y are performed at low and high document scanning speeds of the scanner 200, image data that has been enlarged and reduced in the sub-scanning direction y is provided from the scanner 200. . Therefore, at the time of reduction, the patterns MPc and MPd shown in FIG. 14 are used instead of the above-described patterns MPa and MPb.
In the case of enlargement, patterns MPe and MPf shown in FIG. 14 are used.
Note that, in the patterns MPe and MPf, pixels provided with the triangle mark △ may be added to the above-described “surrounding pixels”.
[0118]
The second halftone peak detector 324b detects halftone peaks using the B data, and has the same function as the first halftone peak detector 324a.
The first halftone peak detector 324a uses the G image data, so it responds to most colors, but does not respond to Y, so the second halftone peak detector 324b uses B image data. Thus, it is an auxiliary for detecting the halftone dot peak of Y.
[0119]
The first halftone dot region detection unit 324g converts a halftone peak pixel detected by either the first halftone peak pixel detection unit 324a or the second halftone peak pixel detection unit 324b to a predetermined size. Is counted for each two-dimensional small area, and the sum of the halftone peak pixels of the peaks and valleys is set as the count value P of the small area. When the count value P is larger than the threshold value Pth, all the pixels of the small area (or only the central pixel of the small area in the case of processing in units of pixels) are determined as the halftone area. The result of the determination is stored in the first temporary storage unit 324j (in the first temporary storage unit 324j, information on the size of the halftone dot area is mainly stored).
[0120]
Next, the detection processing of the third halftone dot peak detection unit 324c will be specifically described with reference to FIG.
The third halftone peak detecting section 324c aims to detect 100 lines or less and 65 lines (newspaper halftone dots) or more.
This is an example in which a mask of a 7 × 7 pixel matrix (M × M pixel matrix in general) is used as a local region.
When the local region is shown in the pattern of FIG. 15C, the density Lc of the central pixel group serving as the target pixel is the maximum or minimum as compared with the density groups L1 to L8 of the surrounding pixels.
abs (2Lc-L1-L8) ≧ Lth
And abs (2Lc−L2-L7) ≧ Lth
And abs (2Lc-L3-L6) ≧ Lth
And abs (2Lc−L4-L5) ≧ Lth
, The center pixel (Lc) of the mask is detected as a halftone dot peak pixel. The abs function means taking an absolute value. Lth is a threshold value (fixed value). Here, the halftone peak pixel when the center pixel (Lc) of the mask has the maximum value is output to the first cycle check 324d as the halftone peak pixel.
Further, the halftone dot peak pixel when the center pixel (Lc) of the mask is the minimum value is output to the second cycle check 324e as the halftone dot valley peak pixel.
[0121]
Specifically, the surrounding pixels are pixels of the surrounding pixel distribution pattern shown in FIG. When either of the above-described halftone dot pixel detection based on the surrounding pixel distribution pattern detects a halftone pixel, a detection signal representing the halftone pixel is given to the target pixel (center pixel d4) at that time. . The two patterns are used in order to widely correspond to the halftone dot area ratio.
[0122]
The density of the target pixel Lc is obtained as follows with reference to peripheral pixels.
Lc = Min (d4, d3, d5, c4, e4)
When this Lc is the maximum value for the peripheral pixels,
The pattern is
L1 = Max (a1, a2, b1)
L2 = Max (a3, a4, a5)
L3 = Max (a6, a7, c7)
L4 = Max (c1, d1, e1)
L5 = Max (c7, d7, e7)
L6 = Max (f1, g1, g2)
L7 = Max (g3, g4, g5)
L8 = Max (g6, g7, f7)
It is defined. Here, L1 = Max (a1, a2, b1) means that the maximum value of the density of the pixels a1, a2, and b1 is set to the value of L1 in the above-described halftone peak pixel detection calculation.
Note that Lc = Min (d4, d3, d5, c4, e4) means the minimum value of the density (image data) of d4, d3, d5, c4, and e4.
[0123]
Lc = Max (d4, d3, d5, c4, e4)
When this Lc is the minimum value for the peripheral pixels,
The pattern is
L1 = Min (a1, a2, b1)
L2 = Min (a3, a4, a5)
L3 = Max (a6, a7, c7)
L4 = Max (c1, d1, e1)
L5 = Max (c7, d7, e7)
L6 = Max (f1, g1, g2)
L7 = Max (g3, g4, g5)
L8 = Max (g6, g7, f7)
It is defined.
[0124]
In the case of copying, since the enlargement and reduction in the sub-scanning direction y are performed at low and high document scanning speeds of the scanner 200, image data that has been enlarged and reduced in the sub-scanning direction y is provided from the scanner 200. . Therefore, at the time of reduction, the pattern shown in FIG. 15B is used. At the time of enlargement, the pattern shown in FIG.
[0125]
The arithmetic expression of the third halftone dot detection unit 324c does not operate on the data of one pixel, but refers to a target pixel by a plurality of pixels (calculation of min and max).
This is because halftone dots having a low screen ruling have a large shading period. Therefore, if one dot is determined, the influence of noise (garbage) is reduced by referring to surrounding pixels, and the amount of arithmetic operation is reduced. Since the number of operations is reduced and the arithmetic expressions can be used in common for other blocks, it is easy to implement hardware.
[0126]
In the first cycle check 324d, the halftone peak peak and the cycle of the halftone peak are checked. Also, the interval between halftone peaks in the one-dimensional direction of the main scanning is checked.
The number of halftone dots to be detected in the halftone peak detection is 100 lines or less, so the number of halftone peaks is 8 or more. When the number is less than 8, small characters are often erroneously determined (at 600 dpi reading).
[0127]
If L1 is 6 and L2 is 10 at the halftone peak interval shown in FIG. 16A, the halftone peak peak at the L1 interval is almost always a small character, so the halftone peak peak is removed. . Since the L2 interval is almost always a low screen ruling halftone dot, it is not removed.
By the cycle check, FIG. 16A is corrected as shown in FIG. 16B.
In the second cycle check 324e, a halftone dot valley peak is performed in the same manner as in the first cycle check 324d.
In addition, the halftone peak and the halftone valley peak are independently performed because the halftone peak and the halftone valley peak are alternately generated in the vicinity of the halftone dot area ratio of 50%. We go independently to keep out.
The outputs of the first cycle check 324d and the second cycle check 324e are ORed by the OR processing section 324f and input to the second halftone dot area detection section 324h.
The second halftone dot area detection unit 324h extracts the halftone dot peak pixels of peaks and valleys input by performing the first cycle check 324d and the second cycle check 324e for each two-dimensional small area of a predetermined size. And the sum of the peak pixels of the peaks and valleys is set as the count value P of the small area. When the count value P is larger than the threshold value Pth, all the pixels of the small area (or only the central pixel of the small area in the case of processing in units of pixels) are determined to be a halftone dot area. The result of the determination is stored in the first temporary storage unit 324j and the second temporary storage unit 324k (in the second temporary storage unit, information on whether the network is a non-network is mainly stored).
[0128]
If either the first halftone area detection unit 324g or the second area detection unit 324k is a halftone area, the first temporary storage unit 324j stores the halftone area of the processed area near the small area of interest. / The threshold value Pth is adaptively changed according to the non-halftone dot determination result (surrounding characteristic information).
[0129]
In the present embodiment, two values TH1 (non-network) and TH2 (network) (where TH1> TH2) are prepared as the threshold value Pth, and the threshold value Pth near the small area of interest stored in the first temporary storage unit 324j is prepared. One value is selected according to the determination result of the processed area.
That is, when the nearby area is determined to be a non-dot area, it is highly likely that the area is a line drawing area. Therefore, TH1 for which the condition becomes severer to reduce erroneous detection is selected as the threshold Pth. On the other hand, if it is determined that the neighboring area is a halftone area, it is highly possible that the neighborhood area is a halftone area, so that TH2, under which the condition is relaxed, is used as the threshold Pth. Note that TH1 is selected as the initial value of the threshold value Pth.
[0130]
The AMP on FIG. 14 shows the distribution of the above-described small area. Each of S1 to S4 of the small area distribution pattern AMP is a small area (block) having a size of, for example, 4 × 4 pixels, and the small area of which S4 is of interest, S1, S2, and S3 are processed small areas. And When it is determined that all of S1, S2, and S3 are halftone areas, Th2 is used as the threshold Pth for the determination of S4. When at least one of S1, S2, and S3 is determined to be a non-dot area, TH1 is selected as the threshold Pth. A halftone area detection signal ht of “1” is determined when it is determined to be a halftone area, and “0” is determined when it is determined to be a non-halftone area.
However, this is only an example, and TH2 is selected when any one of S1, S2 and S3 is determined to be a halftone dot region, and TH1 is selected only when all of the small regions are determined to be non-halftone regions. May be selected.
Further, the neighboring area to be referred to may be only S1 or only S2. This output result is a dot extraction result.
[0131]
If the second halftone dot area detection unit 324h is a halftone dot area, the threshold value Pth is adaptively determined according to the halftone / non-halftone dot determination result (peripheral feature information) of the processed area near the small area of interest. To change. In the present embodiment, two values TH1 and TH2 (where TH1> TH2) are prepared as the threshold value Pth, and based on the determination result of the processed area near the small area of interest stored in the second temporary storage unit 324k. , Select one of the values.
That is, when the nearby area is determined to be a non-dot area, it is highly likely that the area is a line drawing area. Therefore, TH1 for which the condition becomes severer to reduce erroneous detection is selected as the threshold Pth.
[0132]
On the other hand, if it is determined that the neighboring area is a halftone area, it is highly possible that the neighborhood area is a halftone area, so that TH2, under which the condition is relaxed, is used as the threshold Pth. Note that TH1 is selected as the initial value of the threshold value Pth.
[0133]
The AMP on FIG. 14 shows the distribution of the above-described small area. Each of S1 to S4 of the small area distribution pattern AMP is a small area (block) having a size of, for example, 4 × 4 pixels, and the small area of which S4 is of interest, S1, S2, and S3 are processed small areas. And If all of S1, S2 and S3 are determined to be halftone areas, Th2 is used as the threshold Pth for the determination of S4. When at least one of S1, S2, and S3 is determined to be a non-dot area, TH1 is selected as the threshold Pth. A halftone dot detection signal ht of “1” is output when it is determined to be a halftone dot region and “0” when it is determined to be a non-halftone dot.
However, this is only an example, and TH2 is selected when any one of S1, S2 and S3 is determined to be a halftone dot region, and TH1 is selected only when all of the small regions are determined to be non-halftone regions. May be selected. Further, the neighboring area to be referred to may be only S1 or only S2. This output result is a low screen frequency halftone dot extraction result.
The difference between the halftone dot extraction result and the halftone dot extraction result is that halftone dots are extracted only by inputting a low screen ruling in the halftone dot detection, so that only low screen ruling halftone dots can be extracted.
[0134]
-Color determination 325-
Next, the color determination 325 will be described.
When detecting a color (chromatic) pixel or a black (achromatic) pixel in a document, a relative reading shift of R, G, B exists due to sampling of each color image data and mechanical accuracy. . This will be described below with reference to FIG.
FIG. 17A shows an image density signal. The black density signal is ideally black when the levels of the R, B, and G density signals coincide with each other. However, the actual image data is obtained by forming an image on a CCD with a lens and digitizing the image signal of the CCD. FIG. 17B shows an ideal high and low waveform. However, since a general scanner uses a three-line CCD sensor, the R, G, and B line images of the image data are not read simultaneously at the same time. Since they are arranged at intervals and cannot be read at the same time in time, a reading position shift will inevitably occur. For example, the R, G, and B color density signals representing black with a level change shown in FIG. 17B are relatively shifted as shown in FIG. If this shift is large, a color shift appears at the periphery of the black area.
[0135]
The color determination 325 is for finding a chromatic color area, and includes four blocks of a first N-ary 325a, a second N-ary 325b, a color determination 325c, and an ACS 325d.
[0136]
-1st N value conversion 325a-
First, the first N-ary 325a will be described with reference to FIG.
The first N-ary 325a includes the hue division circuits 0 to 4.
The input data R, G, and B are converted into c (cyan), m (magenta), and y (yellow) signals by the hue division circuits 0 to 4 in the first N-ary 325a.
Here, the hue division circuits 0 to 4 are all the same and only the input data lines are different. As an example of hue division, a boundary between respective colors is obtained, and a difference between a maximum value and a minimum value of each of R, G, and B image data in one pixel is defined as an RGB difference, and the following is performed. . Note that the R, G, and B image data become darker as the number increases.
1) RY hue area boundary (ry)
R-2 * G + B> 0
2) Y-G hue area boundary (yg)
11 * R-8 * G-3 * B> 0
3) GC hue area boundary (gc)
1 * R-5 * G + 4 * B <0
4) CB hue area boundary (cb)
8 * R-14 * G + 6 * B <0
5) B-M hue area boundary (bm)
9 * R-2 * G-7 * B <0
6) MR hue area boundary (mr)
R + 5 * G-6 * B <0
[0137]
7) w (white) pixel determination for color determination:
If (R <thwa) & (G <thwa) & (B <thwa), y = m = c = 0. thwa is a threshold value.
[0138]
8) Y pixel determination:
If (ry == 1) & (yg == 0) & (RGB difference> (thy + maximum value of RGB / 16)), then y = 1 and m = c = 0. thy is a threshold.
[0139]
9) G pixel determination:
If (yg == 1) & (gc == 0) & (RGB difference> (thg + maximum value of RGB / 16)), then c = y = 1 and m = 0. thg is a threshold value.
[0140]
10) C pixel determination:
If (gc == 1) & (cb == 0) & (RGB difference> (thc + maximum value of RGB / 16)), then c = 1 and m = y = 0. thc is a threshold value.
[0141]
11) B pixel determination:
If (cb == 1) & (bm == 0) & (RGB difference> (thb + maximum value of RGB / 16)), then m = c = 1 and y = 0. thb is a threshold value.
[0142]
12) M pixel determination:
If (bm == 1) & (mr == 0) & (RGB difference> (thm + maximum value of RGB / 16)), m = 1 and y = c = 0. thm is a threshold value.
[0143]
13) R pixel determination:
If (mr == 1) & (ry == 0) & (RGB difference> (thr + maximum value of RGB / 16)), then y = m = 1 and c = 0. thr is a threshold value.
[0144]
14) BK pixel determination: If none of 7) to 13), y = m = c = 1.
[0145]
Here, in the priorities 7) to 14), the smaller number is prioritized. The above-mentioned thresholds thwa, thy, thm, thc, thr, thg, and thb are thresholds determined before copying (processing). The output signal is 3-bit data of 1 bit for each of c, m, and y.
Here, the reason why the threshold value is changed for each hue is to determine the threshold value corresponding to the hue region when the chromatic range is different for each hue region. This hue division is an example, and any formula may be used.
Further, the reason why the threshold value is changed according to the maximum value of RGB is that, when the reflectance data is dark (the number is large), even if the color is a color, the difference in RGB is reduced, so that the correction is performed.
[0146]
The output c, m, and y five-line data of the first N-ary 325a are input to the color determination 325c (FIG. 19).
[0147]
-Color judgment 325c-
Next, the color determination 325c will be described with reference to FIG.
The color determination 325c includes chromatic detection for color determination 325c1, blocking 325c2, isolated point removal 325c3, and expansion 325c4.
The chromatic detection for color determination 325c1 includes a first pattern matching 325c11, a first count 325c12, a color halftone dot detection 325c13, and a chromatic determination 325c14.
[0148]
With the above configuration, data of c, m, and y for five lines are input to the first pattern matching 325c11, the first count 325c12, and the color halftone dot detection 325c13. Here, first, the first pattern matching 325c11 in the flow for obtaining the B / C signal will be described.
[0149]
-First pattern matching 325c11-
The white level of the 5 × 5 pixel matrix centered on the target pixel increases. Next, as for the pixel of interest, all of the pixels (c, m, y) determined by the hue dividing circuit included in the first N-ary 325a are 1 (c = m = y = 1) or all 0 (c = m = Whether the pixel is a pixel (color pixel) other than (y = 0) is determined by checking whether the 5 × 5 pixel matrix matches the next pattern.
[0150]
1) Color pixel pattern group
1-1) Pattern 1-1 (pm1)
D23 & D33 & D43
1-2) Pattern 1-2 (pm2)
D32 & D33 & D34
1-3) Pattern 1-3 (pm3)
D22 & D33 & D44
1-4) Pattern 1-4 (pm4)
D24 & D33 & D42
The center pixel (pixel of interest) is D33. FIG. 20 shows these patterns pm1 to pm4. Open circles on these patterns indicate that at least one of c, m, and y is 1.
The reason why pattern matching is adopted is to prevent isolated points and the like from being picked up. Conversely, when detecting a small area color such as a halftone dot, a pixel (color pixel) whose central pixel is other than 1 (c = m = y = 1) or all 0 (c = m = y = 0) May be determined based on whether or not.
[0151]
2) Pattern group for thin color lines
Detects color lines surrounded by white. The pattern used for this is shown in FIG.
In FIG. 21, the pixels with white circles are pixels in which c, m, and y are all 0. If the distribution of the data (c, m, y) of the 5 × 5 pixel matrix centered on the target pixel (center pixel) matches any of the patterns pw11a to pw14d in FIG. ) Is regarded as a color line pixel.
[0152]
2-1) Pattern 2-1 (pw11a to pw11d)
((D12 & D13 & D14) & (D42 & D43 & D44)) #
((D12 & D13 & D14) & (D52 & D53 & D54)) #
((D22 & D23 & D42) & (D42 & D43 & D44)) #
((D22 & D23 & D42) & (D52 & D53 & D54))
[0153]
2-2) Pattern 2-2 (pw12a to pw12d)
((D21 & D31 & D41) & (D24 & D34 & D44)) #
((D21 & D31 & D41) & (D25 & D35 & D45)) #
((D22 & D23 & D24) & (D24 & D34 & D44)) #
((D22 & D23 & D24) & (D25 & D35 & D45))
[0154]
2-3) Pattern 2-3 (pw13a to pw13d)
((D11 & D21 & D12) & (D35 & D44 & D53)) #
((D11 & D21 & D12) & (D45 & D44 & D55)) #
((D13 & D22 & D31) & (D35 & D44 & D53)) #
((D13 & D22 & D31) & (D45 & D44 & D55))
[0155]
2-4) Pattern 2-4 (pw14a to pw14d)
((D13 & D24 & D35) & (D41 & D51 & D52)) #
((D14 & D15 & D25) & (D41 & D51 & D52)) #
((D13 & D24 & D35) & (D31 & D42 & D53)) #
((D14 & D15 & D25) & (D31 & D42 & D53)).
[0156]
3) White area pattern group
Pattern matching where c, m, and y are all 0 is performed. The pattern used for this is shown in FIG.
In FIG. 22, the pixels with white circles are pixels in which c, m, and y are all 0. When the distribution of data (c, m, y) of the 5 × 5 pixel matrix centered on the target pixel (center pixel) matches any of the patterns pw21a to pw24d in FIG. 22, the target pixel (central pixel ) Are considered as white area pixels.
[0157]
3-1) Pattern 3-1 (pw21a to pw21d)
(D21 & D31 & D41) #
(D22 & D32 & D42) #
(D24 & D34 & D44) #
(D25 & D35 & D45)
[0158]
3-2) Pattern 3-2 (pw22a to pw22d)
(D12 & D13 & D14) #
(D22 & D23 & D24) #
(D42 & D43 & D44) #
(D52 & D53 & D54)
[0159]
3-3) Pattern 3-3 (pw23a to pw23d)
(D52 & D51 & D41) #
(D53 & D42 & D31) #
(D35 & D24 & D13) #
(D25 & D15 & D14)
[0160]
3-4) Pattern 3-4 (pw24a to pw24d)
(D54 & D55 & D45) #
(D53 & D44 & D35) #
(D31 & D22 & D13) #
(D21 & D11 & D12)
[0161]
4) Determination of color pixel candidate 2
If the pattern matching result extracted above matches the following pattern, the pixel of interest is set as color pixel candidate 2 for color determination.
[0162]
((Pm1 == 1) & ((pw11 == 1) # (pw21! = 1))) #
((Pm2 == 1) & ((pw12 == 1) # (pw22! = 1))) #
((Pm3 == 1) & ((pw13 == 1) # (pw23! = 1))) #
((Pm4 == 1) & ((pw14 == 1) # (pw24! = 1)))
[0163]
Note that the above (pm1 == 1) means that the data distribution centered on the target pixel matches the pattern pm1. Also, (pw11 == 1) means that any one of the patterns pw11a to pw11d is matched. Also, (pw21! = 1) means that any one of the patterns pw21a to pw21d is matched. & Indicates a logical product, and # indicates a logical sum.
As a result of this pattern matching, the color pixels surrounded by the white region are set as color pixel candidates, and if there are other white regions, they are not set as color pixels. Those that match by color pixel pattern matching without a white region are color pixel candidates.
[0164]
-First count 325c12-
Next, the first count 325c12 will be described.
The first count 325c12 counts the number of 1 (c = 1, m = 1, y = 1) of c, m, y of each pixel in the 5 × 5 pixel matrix centering on the target pixel. If the difference between the maximum value and the minimum value of the count values for each of c, m, and y is equal to or more than thcnt and the minimum value is less than thmin, the color pixel candidate 1 is determined. thcnt and thmin are threshold values set before copying (processing). The planes are expanded to y, m, and c, the number is counted for each plane in an N × N matrix, and the minimum value is assumed to be black.
This enables correction even if the reading of the black pixel is shifted. Then, a chromatic pixel is determined based on the difference between the maximum value and the minimum value.
Further, the chromatic pixels are extracted by correcting the pixels from which the black pixels are not read.
If a certain chromatic pixel exists in a 5 × 5 pixel matrix centered on the target pixel, the target pixel is determined to be a chromatic pixel.
[0165]
-Color dot detection 325c13-
Next, the color halftone dot detection 325c13 will be described.
In the first count 325c12, the following pattern matching is performed on the halftone dots having low saturation (dark halftone dots) to detect dark halftone dots in order to determine black, and dark halftone dots are detected. The feature of the dark halftone dot is detected as follows because black data and color data are mixed and white data does not exist.
[0166]
1) Non-white background detection
If there is no c = 0, m = 0, and y = 0 in the 5 × 5 matrix, it is determined to be a non-white background area. This is because dark halftone dots do not include white.
2) Color halftone pixel detection
Pattern matching is performed on pixels D determined as colors in a 5 × 5 matrix (c = 0, m = 0, y = 0, but not c = 1, m = 1, y = 1).
The expression is as follows.
[0167]
(D11 & D15 & D33 & D51 & D55) #
(D13 & D31 & D33 & D51 & D55) #
(D12 & D14 & D21 & D22 & D33 & D41 & D45 & D52 & D54)
[0168]
Here, the reason why there is a reference point outside the matrix is to prevent erroneous determination of color misregistration (see FIG. 30).
[0169]
3) Color dot detection
When a non-white background is detected and a color halftone pixel is detected, H is output assuming that a color halftone dot has been detected.
[0170]
-Chromatic judgment 325c14-
Next, the chromaticity determination 325c14 will be described.
The chromaticity determination 325c14 determines whether the pixel is a color pixel. If it is the color pixel candidate 1 and the color pixel candidate 2, the color pixel 1 is set.
Further, if the color halftone dot is detected by the color halftone dot detection, the color pixel 1 is set.
[0171]
-Blocking 325c2-
Next, the blocking 325c2 will be described.
Blocking 1 × 4 blocks the output of color determination chromatic detection.
Here, the term “blocking” means that if there is one or more color pixels 1 in a 1 × 4 pixel matrix, the entire 1 × 4 pixel matrix is output as one color pixel block. In the processing after block formation 1 × 4, 1 × 4 pixels are output as one block as one block.
[0172]
-Isolated point removal 325c3-
Next, the isolated point removal 325c3 will be described.
In the isolated point removal 7 × 5, the block data is removed as an isolated point if there is no 4 × 1 color pixel block including a block adjacent to the target block.
The reason why the sub-scanning direction is set to 4 is to adjust the size because the main scanning uses 4 pixels as one unit.
[0173]
-Expansion 325c4-
Next, the expansion 325c4 will be described.
The output of the isolated point removal 325c3 is expanded by expansion 325c4 into 17 lines × 5 blocks when one color pixel block exists. The expansion is performed so that black character processing is not performed around color pixels. Here, the output B / C signal outputs L (chromatic) when the color pixel is one block, and outputs H (achromatic) otherwise.
[0174]
-2nd N value conversion 325b-
Next, the second N-ary 325b will be described with reference to FIG.
The second N-ary 325b includes selectors 1 to 4 and hue division circuits 0 to 4.
In the second N-ary 325b, input data R, G, and B are converted into ci, mi, yi, and color determination wi (white) (i is 0 to 0) by hue division circuits 0 to 4 via selectors 1 to 4 respectively. 4 from the hue division circuit).
[0175]
As an example of hue division, a boundary between respective colors is obtained, and a difference between a maximum value and a minimum value of each of R, G, and B image data in one pixel is defined as an RGB difference, and the following is performed. . Here, the R, G, B image data becomes darker as the number increases.
When the magnification of the sub-scanning of the selector is 200% or less, the upper input data is selected, and when the magnification exceeds 200%, the lower input signal is selected.
That is, when the value is 200% or less, the evaluation is performed using input data for five consecutive lines.
When the value exceeds 200%, the evaluation is performed by skipping one line of the input.
Here, the skipping of one line makes it impossible to evaluate a thin line of one line in the next stage. However, since the magnification exceeds 200%, there is almost no one-line line, and thus there is little effect.
When it exceeds 200%, the reference line is substantially doubled, so that the permissible amount of the reading position shift is also substantially doubled. Therefore, the influence of disturbance (vibration) increases, and it is difficult to make an erroneous determination on disturbance.
[0176]
Also, since only the evaluation of N-value conversion is switched, the same processing is performed for the color pixel determination, so that the criteria for determining the color original before and after the switching do not change. Therefore, the criterion does not change by switching.
1) RY hue area boundary (ry)
R-2 * G + B> 0
2) Y-G hue area boundary (yg)
11 * R-8 * G-3 * B> 0
3) GC hue area boundary (gc)
1 * R-5 * G + 4 * B <0
4) CB hue area boundary (cb)
8 * R-14 * G + 6 * B <0
5) B-M hue area boundary (bm)
9 * R-2 * G-7 * B <0
6) MR hue area boundary (mr)
R + 5 * G-6 * B <0
[0177]
7) w (white) pixel determination for color determination:
If (R <thwa) & (G <thwa) & (B <thwa), y = m = c = 0. thwa is a threshold value.
[0178]
8) Y pixel determination:
(Ry == 1) & (yg == 0) & (RGB difference> (thy + maximum value of RGB / 16))
Then, y = 1 and m = c = 0. thy is a threshold.
[0179]
9) G pixel determination:
(Yg == 1) & (gc == 0) & (RGB difference> (thg + maximum value of RGB / 16))
Then, c = y = 1 and m = 0. thg is a threshold value.
[0180]
10) C pixel determination:
(Gc == 1) & (cb == 0) & (RGB difference> (thc + maximum value of RGB / 16))
Then, c = 1 and m = y = 0. thc is a threshold value.
[0181]
11) B pixel determination:
(Cb == 1) & (bm == 0) & (RGB difference> (thb + maximum value of RGB / 16))
Then, m = c = 1 and y = 0. thb is a threshold value.
[0182]
12) M pixel determination:
(Bm == 1) & (mr == 0) & (RGB difference> (thm + maximum value of RGB / 16))
Then, m = 1 and y = c = 0. thm is a threshold value.
[0183]
13) R pixel determination:
(Mr == 1) & (ry == 0) & (RGB difference> (thr + maximum value of RGB / 16))
Then, let y = m = 1 and c = 0. thr is a threshold value.
[0184]
14) BK pixel determination: If none of 7) to 13), y = m = c = 1.
[0185]
Further, the determination of the w pixel for color determination is performed. The conditions are as follows.
If (R <thw) & (G <thw) & (B <thw), the pixel is set as w pixel for a color pixel and output as w. thw is a threshold value.
[0186]
In the priority order of 7) to 14), the smaller number is prioritized. The above-described thresholds thwa, thy, thm, thc, thr, thg, and thb are thresholds determined before copying (processing). The relationship between thw and thwa is thw> tha. The output signal is 3-bit data of 1 bit each for c, m, and y, and 1 bit of w of color pixel detection for color determination.
Here, the reason why the threshold value is changed for each hue is that a threshold value corresponding to the hue region is determined when the chromatic range is different for each hue region. This hue division is an example, and any formula may be used.
The reason why the threshold value is changed according to the maximum value of RGB is that, when the reflectance data is dark (the number is large), even if the color is a color, the difference in RGB is reduced, so that the correction is performed.
The five-line data c, m, and y of the N-ary 2 are input to the ACS (FIG. 25).
[0187]
Next, the ACS 325d will be described with reference to FIG.
The ACS 325d includes a first ACS chromatic detection 325d1, a second ACS chromatic detection 325d2, an achromatic detection 325d3, a color pixel determination 325d4, an expansion 325d5, and a continuous count 325d6.
[0188]
-Chromatic detection for first ACS 325d1-
First, the first ACS chromatic detection 325d1 will be described.
The first ACS chromatic detection 325d1 includes a second count 325d11, a second pattern matching 325d12, a chromatic determination 325d13, a blocking 325d14, and a density 325d15. Hereinafter, each operation will be described.
[0189]
-Second count 325d11-
When the w pixel for color determination exists in the 5 × 5 pixel matrix centering on the pixel of interest, the second count 325d11 calculates c, m, and y data determined by the second N-ary 325b of the pixel as c = Correct to m = y = 0. This correction increases the white level of the pixel matrix. Then, the number of 1 of c, m, y (c = 1, m = 1, y = 1) of each pixel in the pixel matrix is counted. If the difference between the maximum value and the minimum value of the count value for each of c, m, and y is greater than or equal to thactnt and the minimum value is less than thamine, the pixel of interest is set as color pixel candidate 1. “thactnt” and “thamine” are threshold values set before copying (processing).
[0190]
-Second pattern matching 325d12-
The second pattern matching 325d12 performs the same pattern matching as the first pattern matching 325c11 used for the color determination, and sets it as a color pixel candidate 2.
[0191]
-Chromatic judgment 325d13 of chromatic detection for first ACS-
The chromaticity determination 325d13 determines whether a pixel is a color pixel based on the output of the second count 325d11 and the output of the second pattern matching 325d12. If it is the color pixel candidate 1 and the color pixel candidate 2, the color pixel 2 is set.
[0192]
-Blocking Chromatic Detection for First ACS 325d14-
The blocking 325d14 blocks the output of the chromatic determination 325d13. That is, if there is one or more color pixels 2 in a 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as two color pixel blocks. In the processing after block formation, 4 × 4 pixels are output as one block as one block.
[0193]
-Density of Chromatic Detection for First ACS 325d15-
The density 325d15 is such that if there are three or more active conditions (two color pixel blocks) in a 3 × 3 block to remove an isolated block and the target block is active (color pixel), the target block is set to the active block (color pixel). (2 blocks of color pixels).
[0194]
-Chromatic detection for second ACS 325d2-
Next, the second ACS chromatic detection 325d2 will be described.
The second ACS chromatic detection 325d2 includes a third count 325d21, a third pattern matching 325d22, a chromatic determination 325d23, a blocking 325d24, and a density 325d25. Hereinafter, each operation will be described.
[0195]
-3rd count 325d21-
Next, the third count 325d21 will be described.
The third count 325d21 counts the number of 1 (c = 1, m = 1, y = 1) of c, m, y of each pixel in the 5 × 5 pixel matrix centering on the target pixel.
If the difference between the maximum value and the minimum value of the count value for each of c, m, and y is equal to or greater than tha1cnt and the minimum value of c, m, and y is less than tha1min, the color pixel candidate 3 I do. tha1cnt and tha1min are thresholds set before copying (processing).
[0196]
-Third pattern matching 325d22-
Next, the third pattern matching 325d22 will be described.
The third pattern matching 325d22 performs the same pattern matching as the first pattern matching 325c11 used for the color determination, and sets it as a color pixel candidate 3.
[0197]
-Chromatic judgment 325d23 of chromatic detection for second ACS-
In the chromaticity determination 325d23, if the color pixel candidate is 3 and the color pixel candidate is 4, the color pixel 3 is determined.
[0198]
-Blocking Chromatic Detection for Second ACS 325d24-
The blocking 325d24 blocks the output of the chromaticity determination 325d23 of the second ACS chromaticity detection.
That is, if there is one or more color pixels 3 in the 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as three color pixel blocks. In the processing after block formation, 4 × 4 pixels are output as one block as one block.
[0199]
-Density of chromatic detection for second ACS 325d25-
The density 325d25 indicates that if there are three or more active conditions (three color pixel blocks) in a 3 × 3 block to remove an isolated block and the target block is active (color pixel 3), the target block is set to the active block. (3 blocks of color pixels).
[0200]
-Achromatic detection 325d3-
Next, the achromatic detection 325d3 will be described.
The achromatic detection 325d3 includes a fourth count 325d31, an achromatic determination 325d32, a blocking 325d33, and an achromatic expansion 325d34. Hereinafter, each operation will be described.
[0201]
-4th count 325d31-
The fourth count 325d31 is one of c, m, and y (c = 1, m = 1, y = 1) determined by the hue division 325a for each pixel in the 5 × 5 pixel matrix centered on the target pixel. Count the number. If the minimum value of each of the count values of c, m, and y is equal to or larger than thabk, the pixel of interest is set as black pixel candidate 1. thabk is a threshold value set before copying (processing).
Instead of determining a black pixel, the target pixel and surrounding pixels are looked at to find a black component, so that the thin line is displaced, so that the target pixel can be determined to be black even if it is not black.
[0202]
-Achromatic judgment 325d32-
In the achromatic determination 325d32, if the target pixel is the black pixel candidate 1, the target pixel is determined to be a black pixel.
[0203]
-Blocking 325d33-
The blocking 325d33 blocks the output of the black pixel. Here, the term “blocking” means that if there is one or more black pixels in a 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as a black pixel block. In the processing after the blocking 325d33, 4 × 4 pixels are output as one block as one block.
[0204]
-Achromatic expansion 325d34-
The achromatic expansion 325d34 indicates that if the target block is active (black pixel block) and its surrounding pixels are non-active (non-black pixel) in the matrix of 3 × 3 blocks, the target block is non-active (non-black pixel block). ).
[0205]
-Color pixel determination 325d4-
Next, the color pixel determination 325d4 will be described.
In the color pixel determination 325d4, if the block of interest is determined to be active (color pixel 2) based on the result of the second ACS chromatic detection 325d2 and not determined to be active (black pixel) by the achromatic detection 325d3, The block is determined to be a color (color block). Also, when the result of the first ACS chromatic detection 325d1 is active (color pixel), it is determined to be a color.
[0206]
-Expansion 325d5-
Next, the expansion 325d5 will be described.
In the expansion 325d5, in the color pixel determination 325d4, in order to regard small blocks as continuous with respect to the block determined to be a color, if there is at least one active block in a 9 × 9 block matrix centered on the target block, Let the block of interest be the active block. Here, the reason for the large expansion is to fill the gap between the characters.
[0207]
-Continuous count 325d6-
Next, the continuous count 325d6 will be described.
In the continuation count 325d6, the continuity of the color pixel blocks is checked to determine whether the original is a color original or a monochrome original. It is determined whether the original is a color original by counting the number of consecutive color pixels in the expansion output data (color pixel block).
[0208]
FIG. 26 shows the contents of this determination processing. When the target pixel is in the color pixel block, the color pixel continuation number of the target pixel is calculated with reference to the color pixel continuation numbers of the upper left, upper, upper right, and left pixels of the target pixel (steps S21 to S26). Here, if the target pixel is, for example, the c3 pixel of the 5 × 5 pixel distribution pattern MPp in FIG. 10, the upper left, upper, upper right, and left pixels are b2, b3, b4, and c2 pixels, respectively. When the target pixel is not in the color pixel block, the color pixel continuation number of 0 is given to it (step S21-27).
[0209]
If the target pixel is in the color pixel block, the number of consecutive color pixels of the upper pixel (b3) of the target pixel (c3) is checked (step S22). Next, if the checked color pixel continuation number is 0, a value obtained by adding 1 to the reference pixel A is added to the color pixel continuation number of the upper right pixel (b4) (step S24). If the color pixel continuation number of the upper pixel (b3) is 0, the reference value A is given the color pixel continuation number of the upper right pixel (b4) (step S23). Next, a value obtained by adding 1 to the number of continuous color pixels of the upper left pixel (b2) is given to the reference value B, and a value obtained by adding 1 to the number of continuous color pixels of the upper pixel (b3) is given to the reference value C. Further, a value obtained by adding 1 to the number of continuous color pixels of the left pixel (c2) is given to the reference value D (step S25). Then, the highest value among the reference values A, B, C, and D is set as the color pixel continuation number of the pixel of interest (c3) (step S26).
[0210]
When the number of continuous color pixels is given to the pixel of interest (c3) as described above, it is checked whether the number of continuous color pixels is equal to or greater than the set value THACS (step S28). (Step S29), and the process of the continuous count 325D6 is ended there. If the number of continuous color pixels is less than the set value THACS, the pixel of interest is updated to the next pixel in the scanning direction x, y, and the above processing is repeated. As a result of performing the above-described processing on the entire surface of the document, if the number of continuous color pixels is less than the set value THACS to the end (steps S30 to S34), the document is determined to be a monochrome image.
[0211]
The above-described number of continuous color pixels is the sum of a vertical colored line segment and a horizontal colored line segment. The number of consecutive upper right color pixels is different from the others in order to prevent double counting. FIG. 27 shows specific data of the color pixel continuation number.
The small squares with the numbers shown in FIG. 19 are the color pixels, and the numbers are the color pixel continuation numbers given to the pixels. A block formed by a series of small squares containing numbers is a color pixel group. If any one of the color pixel groups in any one of the color pixel groups on the same document exceeds the set value THACS, then the block is a color document. Then, the determination of color or monochrome is determined (steps S28 and S29).
[0212]
The reason why the color pixel determination 325d4 is divided from 1 to 3 is to increase the accuracy of determining whether a document is a color document or a monochrome document. The color pixel determination 325d4 for black character processing is local even if an erroneous determination is made, and is not so noticeable. However, the determination as to whether the document is a color document or a monochrome document affects the entire document if an erroneous determination is made. Therefore, the count was made independent. Originally, it is better to make the hue division independent. However, making the hue division independent is not preferable because the memory for pattern matching increases.
[0213]
Further, by changing the parameters of the color pixels (color pixels 1-3) with the count parameters (color pixel candidates 1, 3 and black pixel candidate 1), the increase in the memory amount is reduced. The color pixel determinations 2 and 3 are provided to detect a low-density color such as the yellow color of a highlighter pen, and the achromatic determination (black pixel determination) 325d32 is erroneous if the density is reduced. This is to correct when it is detected.
There is no problem if a color having a low density such as a highlighter pen is corrected with black data according to a certain width. When extracting a plurality of color pixels, only the level of w (white) is changed, so there is no need to have two memories for detecting color pixels, and a capacity of one plus one line is possible. is there.
[0214]
In the continuous count 325d6, the count value is counted with reference to the count data of the previous line and the count data of the current line. This makes it possible to accurately count the continuation of the peripheral pixels, so that the continuation of the color pixels can be counted.
In the present embodiment, the hue determination is performed on the R, G, and B image data. However, the present invention is not limited to the R, G, and B image data. It is also possible to make a determination.
[0215]
Overall judgment 326−
Next, the overall judgment 326 will be described with reference to FIG.
The comprehensive judgment 326 includes a character judgment 326a, an expansion process 326b, and a decode 326c. Hereinafter, each operation will be described.
[0216]
-Character judgment 326a-
First, the character determination 326a will be described.
The character determination 326a determines that the result of the edge extraction 322 has an edge.
If the result of the halftone extraction 324 has no halftone and the result of the white area extraction 323 has a white area, it is determined to be a character edge.
Otherwise, it is determined as a non-character edge (in a picture or a character).
[0217]
-Expansion processing 326b-
Next, the expansion process 326b will be described.
In the expansion processing 326b, the result of the character determination 326a is subjected to an OR processing of 8 × 8 blocks, and then an AND processing of 3 × 3 blocks is performed to perform expansion processing of 4 blocks. That is, if any of the 8 × 8 blocks centered on the block of interest is a character edge, it is assumed that the block of interest is also a character edge block, and all of the 3 × 3 blocks centered on the block of interest are characters. If it is an edge, the block of interest is determined as a character edge.
Then, the target block and its adjacent three blocks, that is, a total of four blocks are regarded as character edges. It should be noted that the AND processing is performed after the OR processing. Particularly, in the case of a black character, if a small non-black character area exists around the area of the black character, there is a sense of incongruity due to a difference in processing, and, for example, black appears light. In order to prevent this, the non-black character area is enlarged by OR processing. The AND processing is performed to obtain a desired expansion amount.
[0218]
By the way, since a color copying machine scans four times to make one copy, the character determination result slightly differs for each scan. In particular, if a non-black character determination is made during black image formation and a black character determination is made at times other than black image formation, the black character area becomes thin. In the image formation other than BK, an OR process of 5 × 5 blocks is performed, and then an AND process of 1 × 1 blocks is performed. Performing AND processing of 1 × 1 pixels is the same as not performing any processing because the result is the same as before the processing. The result of the expansion processing is output to the decode 326c as a character edge signal.
[0219]
By performing the dilation processing in this manner, it is possible to prevent the character area from becoming thinner due to a different separation result. Although the middle part of the character may be darkened by the dilation processing, since the inside of the character is light and the density is saturated with respect to the edge of the character, there is no discomfort.
[0220]
FIG. 28 schematically shows, in an enlarged manner, the overlap of the color coloring agents by color copying.
FIG. 28A shows an ideal case where the amount of expansion is the same and black character processing is performed.
FIG. 28 (b) shows a case in which the amount of expansion is the same and black character processing has been performed, and the printing position has shifted (whitened out).
FIG. 28C shows a case where the amount of expansion of the BK is large, and a case where the printing position is shifted due to the black character processing according to the present embodiment.
FIG. 28D shows an ideal case in which all four colors have been subjected to black character processing.
FIG. 28E shows a case where black characters are processed for all four colors and only BK is not corrected.
FIG. 28F shows a preferable case in which black character processing is performed only on BK according to the present embodiment.
FIG. 28 (g) shows a preferred case where black character processing is performed only on BK according to the present embodiment, and only BK is not corrected, and correction is performed on other than BK.
[0221]
-Decode 326c-
Next, the decode 326c will be described.
The C / P signal finally output by the decode 326c is as shown in Table 4 below.
[0222]
[Table 4]
Figure 2004153563
[0223]
Next, FIG. 3 is referred to again.
The C / P signal and the B / C signal generated by the document recognition 320 are converted into image data for the RGB filter 330, the color correction 340, the scaling 350, the interface 352, the UCR 360, the CMYBk filter 370, the CMYBkγ correction 380, and the gradation processing 390. Is given to the cascade in synchronization with
[0224]
The RGB filter 330 is a filter for performing MTF correction on RGB data, and is configured by a coefficient matrix corresponding to an N × N pixel matrix and logic for obtaining a weighted average value by multiplying each coefficient by each image data.
When the C / P signal indicates 1 (character edge area), a coefficient matrix for sharpening processing is used to indicate 0 or 2, 3 (picture area, low-frequency halftone dot area, halftone dot area). ), A weighted average value is derived using the coefficient matrix for the smoothing process and output to the color correction 340.
When the smoothing filters are arranged in the order of the smoothing amount, they are a low-frequency halftone dot area, a halftone dot area, and a picture area. This is because a halftone dot structure will remain if the smoothness is not increased, causing moire. Further, a halftone dot having a low ruling needs to be more strongly smoothed than a halftone dot having a high ruling.
[0225]
The color correction 340 converts the R, G, B data into C, M, Y data by a primary masking process or the like. The scaling 350 performs enlargement / reduction or equal magnification processing in the main scanning direction x on the image data.
[0226]
The UCR 360 is for improving the color reproduction of the image data. The common portion of the C, M, and Y data input from the color correction 340 is subjected to UCR (additional color removal) processing to generate BK data. It outputs M, Y, and BK data. Here, when the C / P signal is other than 1 (character edge area) (in the case of a non-character area or a picture area), skeleton black processing is performed. When the C / P signal is 3 (character edge area), full black processing is performed. When the C / P signal is 1 (character edge area) and the B / C signal is H (achromatic area), C, M, and Y data are erased. This is because black characters are represented only by black components.
[0227]
The temporary point of the output image signal IMG of the UCR 360 is one of C, M, Y, and BK, and is a one-color output in a frame sequence. That is, full-color (four-color) data is generated by reading the document four times. In the case of black and white copying, only one document reading is required since only one BK image formation is required. If there is a mechanism for determining whether a document is a color document or a black and white document, the number of readings according to the document is sufficient, so that the operator does not need to determine whether the document is a color document or a black and white document according to the document and perform copying. In the present embodiment, the B / C signal is a signal that is referred to for determining whether the document is a color document or a monochrome document. When the B / C signal is H (achromatic region) over the entire surface of the document, the main controller 10 determines that the document is a monochrome document.
[0228]
The CMYBk filter 370 performs smoothing and sharpening processing using an N × N spatial filter according to the frequency characteristics of the color printer 400 and the C / P signal. The CMYBkγ correction 380 changes and processes the γ curve according to the frequency characteristics of the color printer 400 and the C / P signal. When the C / P signal is other than 1 (other than the character edge area), a γ curve that faithfully reproduces an image is used. .
[0229]
The gradation processing 390 performs quantization such as dither processing and error diffusion processing according to the gradation characteristics of the color printer 400 and the C / P signal. In the case of BK image formation, if the C / P signal is other than 1 (other than the character edge area), the process that emphasizes gradation is performed, and otherwise, the process that emphasizes resolution is performed. At the time of image formation other than BK, when the C / P signal is 0 (pattern area), processing that emphasizes gradation is performed; otherwise, processing that emphasizes resolution is performed. The image data having undergone the above processing is supplied from the video control 359 having a buffer memory to the color printer 400 in synchronization with the image data writing operation.
[0230]
The IPU 300 performs smoothing processing by the RGB filter 330, performs skeleton black processing by the UCR 360, and emphasizes linearity (gradation) in the CMYBkγ correction 380 when it is out of the character area (other than C / P signal = 1). The selected curve is selected, and the CMYBk filter 370 and the gradation processing 390 perform processing that emphasizes gradation.
[0231]
On the other hand, in the case of character processing (C / P signal = 1 and B / C signal = L), an edge enhancement process is performed by the RGB filter 330, a full black process is performed by the UCR 360, and contrast is emphasized in the CMYBkγ correction 380. Is selected, and the CMYBk filter 370 and the gradation processing 390 perform processing emphasizing the resolution.
[0232]
In black character processing (C / P signal = 1 and B / C signal = H), C, M, and Y data are not printed during C, M, and Y image formation except for BK. This is to prevent black characters from being colored due to misalignment around the black characters. Further, the RGB filter 330 of the BK data at this time may perform edge emphasis more strongly than in the case of a color character to make it clearer.
[0233]
As described above, the IPU 300 performs four types of processing of a picture, a character edge, a halftone dot, and a low frequency halftone dot.
[0234]
The above-described embodiment is a preferred embodiment of the present invention, and can be variously modified and implemented without departing from the gist of the present invention.
[0235]
【The invention's effect】
As is clear from the above description, the present invention has the following effects.
As a first effect, when there is no white pixel in the N × N matrix and a color pixel exists at a predetermined position, a color pixel can be determined and a color halftone dot can be detected as a color.
[0236]
As a second effect, the color pixel can detect the color without being affected by the reading position shift by referring to each one of the four outer sides of the N × N matrix.
[0237]
As a third effect, by providing a plurality of detecting means, that is, combining a color detecting means for judging the color of a fine line in addition to a color halftone dot detecting means, it is possible to perform color judgment for both a thin line and a color halftone dot.
[0238]
As a fourth effect, the present invention can be applied to a color scanner.
[0239]
As a fifth effect, the present invention can be applied to a color printer.
[0240]
As a sixth effect, the present invention can be applied to a color copying machine.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of a digital full-color copying machine including an image processing apparatus according to an embodiment.
FIG. 2 is a block diagram schematically showing an electric system of the digital full-color copying machine shown in FIG.
FIG. 3 is a block diagram illustrating a configuration of an image processing unit (IPU) according to the present embodiment.
FIG. 4 is a functional block diagram illustrating functions of a document recognition unit in FIG. 3;
FIG. 5 is a block diagram illustrating a configuration of a document recognition unit in FIG. 4;
FIG. 6 is a diagram showing a comparison between a 600 dpi line pattern and a 400 dpi line pattern.
FIG. 7 is a diagram showing a pattern of a 3 × 3 pixel matrix used for pattern matching performed by a black pixel continuation detection unit and a white pixel continuation detection unit in the edge extraction unit in FIG. 5;
FIG. 8 is a flowchart showing a procedure of updating state variables MS and SS [I] used for white determination.
9 is a diagram illustrating an example of a pattern used for separating a white background by an RGB white background detection unit in FIG. 5;
FIG. 10 is a diagram showing an example of a pattern used when detecting a color ground in FIG. 5;
FIG. 11 is a diagram schematically showing a current line (line of interest) of the line memory LMP.
FIG. 12 is a diagram showing a line pattern of 200 lines and a line pattern of 300 lines.
FIG. 13 is a diagram showing an area for explaining a process of a white area extracting unit in FIG. 5;
14 is a diagram for describing a detection process of a first halftone peak detection unit of the halftone dot extraction unit in FIG. 5;
FIG. 15 is a diagram showing pixels in a surrounding pixel distribution pattern.
FIG. 16 is a diagram showing halftone dot intervals.
FIG. 17 is a diagram for explaining processing of a color determination unit in FIG. 5;
18 is a diagram illustrating a configuration of the first N-ary conversion shown in the color determination unit in FIG. 5;
FIG. 19 is a diagram showing a configuration of color judgment shown in a color judgment unit of FIG. 5;
FIG. 20 is a diagram for explaining pattern matching in color determination.
FIG. 21 is a diagram showing a color fine line pattern for detecting a color line surrounded by white.
FIG. 22 is a diagram showing a white area pattern for performing pattern matching where c, m, and y are all 0.
FIG. 23 shows a case where there is a reference point outside the matrix.
FIG. 24 is a diagram illustrating a configuration of second N-value conversion shown in the color determination unit of FIG. 5;
FIG. 25 is a diagram showing a configuration of an ACS shown in the color determination unit of FIG. 5;
FIG. 26 is a flowchart illustrating a processing procedure of a determination process for determining whether a document is a color document or a monochrome document in the continuous counting unit;
FIG. 27 is a diagram showing specific data of the color pixel continuation number.
FIG. 28 is a diagram schematically showing an enlarged overlap of color color materials by color copying.
[Explanation of symbols]
200 Scanner
300 IPU
310 RGBγ correction
320 Manuscript recognition
321 filter
322 Edge extraction
322a ternary conversion
322b Continuous black pixel detection
322c White pixel continuous detection
322d Nearby pixel detection
322e Isolated point removal
323 White area extraction
323a binarization
323b RGB white extraction
323c White judgment
323d white pattern matching
323e White pattern correction
323f White expansion
323g white shrinkage
323h White correction
323i Gray pattern matching
323j Gray expansion
323k judgment
324 Halftone dot extraction
324a First halftone peak detector
324b Second halftone peak detector
324c Third halftone peak detector
324d First cycle check
324e Second cycle check
324f OR processing unit
324g 1st halftone dot area detector
324h 2nd halftone dot area detector
324i Halftone dot area detector
324j First temporary storage means
324k second temporary storage means
325 color judgment
325a 1st N value conversion
325b 2nd N value conversion
325c color judgment
325d ACS
326 Overall judgment
326a Character judgment
326b Expansion processing
326c decoding
330 RGB filter
340 color correction
350 magnification
352 interface
360 UCR
370 CMYBk filter
380 CMYBkγ correction
390 gradation processing
OPB operation / display unit

Claims (7)

N×Nマトリックス内に白画素があるかどうかを検出する白画素検出手段と、
前記N×Nマトリックス内の所定の位置に色画素が存在する場合に色画素、色網点を含む色を判定する色判定手段と、
前記白画素検出手段で白画素でなく、前記色判定手段で前記色画素、色網点を含む色であると判定したときに、前記色画素を判定する色画素判定手段とを有することを特徴とする画像処理装置。
White pixel detection means for detecting whether there is a white pixel in the N × N matrix;
A color determination unit that determines a color including a color pixel and a color halftone dot when the color pixel exists at a predetermined position in the N × N matrix;
A color pixel determination unit that determines the color pixel when the color determination unit determines that the color pixel is not a white pixel but the color determination unit determines that the color pixel includes a color halftone dot. Image processing apparatus.
前記色判定手段は、前記N×Nマトリックスの外周4辺のそれぞれ1箇所を参照することを特徴とする請求項1記載の画像処理装置。2. The image processing apparatus according to claim 1, wherein the color determination unit refers to each one of four sides of an outer periphery of the N × N matrix. さらに、色細線検出可能な色細線画素検出手段を備えることを特徴とする請求項1記載の画像処理装置。2. The image processing apparatus according to claim 1, further comprising a color thin line pixel detection unit capable of detecting a color thin line. 請求項1から3のいずれか1項に記載の画像処理装置を用い、
さらに、原稿画像を色分解して読取って画像データを生成し前記画像処理装置に与えるカラースキャナとを備えることを特徴とする画像読取り装置。
An image processing apparatus according to any one of claims 1 to 3,
An image reading apparatus further comprising: a color scanner that separates and reads a document image to generate image data and supplies the image data to the image processing apparatus.
請求項1から3のいずれか1項に記載の画像処理装置を用い、
さらに、前記画像処理装置の出力画像データを用紙上にプリントアウトするカラープリンタを備えることを特徴とする画像形成装置。
An image processing apparatus according to any one of claims 1 to 3,
The image forming apparatus further includes a color printer that prints out output image data of the image processing apparatus on paper.
請求項1から3のいずれか1項に記載の画像処理装置を用い、
さらに、原稿画像を色分解して読取って画像データを生成し前記画像処理装置に与えるカラースキャナと、
前記画像処理装置の出力画像データを用紙上にプリントアウトするカラープリンタを備えることを特徴とするカラー複写装置。
An image processing apparatus according to any one of claims 1 to 3,
Further, a color scanner that separates and reads the document image to generate image data by reading and providing the image data to the image processing apparatus;
A color copying apparatus comprising a color printer for printing out image data output from the image processing apparatus on paper.
外部からのプリント指示コマンドを解析して前記カラープリンタによって外部からの画像情報をプリントアウトするプリンタコントローラを更に備えることを特徴とする請求項6記載のカラー複写装置。7. The color copying apparatus according to claim 6, further comprising a printer controller that analyzes an external print instruction command and prints out external image information by the color printer.
JP2002316420A 2002-10-30 2002-10-30 Image processing device, image readout device, image forming device and color copying device Pending JP2004153563A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002316420A JP2004153563A (en) 2002-10-30 2002-10-30 Image processing device, image readout device, image forming device and color copying device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002316420A JP2004153563A (en) 2002-10-30 2002-10-30 Image processing device, image readout device, image forming device and color copying device

Publications (1)

Publication Number Publication Date
JP2004153563A true JP2004153563A (en) 2004-05-27

Family

ID=32460135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002316420A Pending JP2004153563A (en) 2002-10-30 2002-10-30 Image processing device, image readout device, image forming device and color copying device

Country Status (1)

Country Link
JP (1) JP2004153563A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007082164A (en) * 2005-09-16 2007-03-29 Ricoh Co Ltd Image processor, image forming apparatus, image processing method, program and storage medium
JP2007274287A (en) * 2006-03-31 2007-10-18 Toshiba Corp Image input device, image forming apparatus and image processing method
JP2009111645A (en) * 2007-10-29 2009-05-21 Ricoh Co Ltd Color pixel determining device, image processing apparatus, image forming apparatus, color pixel determining method and color pixel determination program
JP2012244191A (en) * 2011-05-13 2012-12-10 Fuji Xerox Co Ltd Image processing system and program
JP2016001798A (en) * 2014-06-11 2016-01-07 キヤノン株式会社 Image processing system, image processing method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007082164A (en) * 2005-09-16 2007-03-29 Ricoh Co Ltd Image processor, image forming apparatus, image processing method, program and storage medium
JP4695472B2 (en) * 2005-09-16 2011-06-08 株式会社リコー Image processing apparatus, image forming apparatus, image processing method, program, and storage medium
JP2007274287A (en) * 2006-03-31 2007-10-18 Toshiba Corp Image input device, image forming apparatus and image processing method
JP2009111645A (en) * 2007-10-29 2009-05-21 Ricoh Co Ltd Color pixel determining device, image processing apparatus, image forming apparatus, color pixel determining method and color pixel determination program
JP2012244191A (en) * 2011-05-13 2012-12-10 Fuji Xerox Co Ltd Image processing system and program
JP2016001798A (en) * 2014-06-11 2016-01-07 キヤノン株式会社 Image processing system, image processing method, and program

Similar Documents

Publication Publication Date Title
JP3983101B2 (en) Image processing apparatus, image reading apparatus, image forming apparatus, and color copying apparatus
US7139100B2 (en) Image-processing device processing image data by judging a detected and expanded medium-density field as a non-character edge field
US6965695B2 (en) Method and system for processing character edge area data
JP4010434B2 (en) Image processing, forming and color copying equipment
JP4380696B2 (en) Image processing device
JP2007215204A (en) Image processing apparatus
JP2004153563A (en) Image processing device, image readout device, image forming device and color copying device
JP4063480B2 (en) Image processing device
JP4695472B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and storage medium
JP2004104625A (en) Image processing, reading and forming device and color copying machine
JP4833893B2 (en) Image processing apparatus, image processing method, image reading apparatus, image forming apparatus, copying apparatus, program, and computer-readable recording medium
JP2007006526A (en) Image processor, low-linear-density dot region detecting unit, image scanner, image forming apparatus and color copier
JP2005051353A (en) Image processor, image reader, image forming apparatus, computer program, and recording medium
JP2006005680A (en) Image processor, image scanner, image forming apparatus, and color copying machine
JP2006014094A (en) Image processor, image reader, image forming device, color copier, image processing program, and recording medium
JP4158345B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JP2003259115A (en) Image processor, image reader, image forming device, and color copying machine
JP2004112725A (en) Image processing apparatus, image reading apparatus, image forming apparatus, and copying machine
JP3982669B2 (en) Image processing device
JP4133674B2 (en) Image processing apparatus, image reading apparatus, and color copying apparatus
JP4379873B2 (en) Image processing apparatus, storage medium, image reading apparatus, and image forming apparatus
JP2009111645A (en) Color pixel determining device, image processing apparatus, image forming apparatus, color pixel determining method and color pixel determination program
JP2006262215A (en) Image processor, image processing method, image processing program and recording medium with the program recorded thereon
JP2004112355A (en) Image processing apparatus
JPH0541796A (en) Copying machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071002

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080212