JP2001160902A - Image processor and method therefor - Google Patents

Image processor and method therefor

Info

Publication number
JP2001160902A
JP2001160902A JP34255099A JP34255099A JP2001160902A JP 2001160902 A JP2001160902 A JP 2001160902A JP 34255099 A JP34255099 A JP 34255099A JP 34255099 A JP34255099 A JP 34255099A JP 2001160902 A JP2001160902 A JP 2001160902A
Authority
JP
Japan
Prior art keywords
image
signal
pattern
circuit
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP34255099A
Other languages
Japanese (ja)
Inventor
Hiroyuki Tsuji
博之 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP34255099A priority Critical patent/JP2001160902A/en
Publication of JP2001160902A publication Critical patent/JP2001160902A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To solve the problem of a conventional image processor that causes increased circuit scale resulting from addition of a filter circuit having a filter processing, in response to sharpness (degree of emphasis) designated in advance by a user, when the user's preference requires sharper printout of characters and line drawings or a more smooth printout result. SOLUTION: A replacement gray scale selection circuit 1004 increases a replacement gray scale difference among adjacent pixels of a replacement pattern, to convert a resolution of a received image when the degree of sharpness is high or decreases it when a degree of sharpness is low, on the basis of a sharpness signal FIL designated by the user. A smoothing processing circuit 1003 outputs a replacement pattern in response to the pattern of the received image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理装置および
その方法に関し、例えば、入力画像の解像度を変換する
画像処理装置およびその方法に関するものである。
[0001] 1. Field of the Invention [0002] The present invention relates to an image processing apparatus and method, and more particularly, to an image processing apparatus and method for converting the resolution of an input image.

【0002】[0002]

【従来の技術】近年、カラー画像データをディジタル的
に処理し、カラープリンタに出力してカラー画像を得る
カラープリント装置や、カラー原稿の画像を色分解して
電気的に読み取り、得られたカラー画像データを記録紙
上にプリント出力してカラー画像複写を行う、所謂ディ
ジタルカラー複写機などのカラー印刷システムの発展は
めざましいものがある。
2. Description of the Related Art In recent years, a color printing apparatus which digitally processes color image data and outputs it to a color printer to obtain a color image, and a color original obtained by color-separating an image of a color original and electrically obtaining the obtained color image. 2. Description of the Related Art There has been remarkable development of a color printing system such as a so-called digital color copying machine that prints out image data on a recording paper to copy a color image.

【0003】ところで、カラー印刷システムに対して、
カラー画像の印刷品質に対する要求だけでなく、黒色の
文字や細線をより黒くシャープに印刷したいという要求
が高いが、これは次に理由による。
By the way, for a color printing system,
There is a high demand not only for the print quality of a color image but also for printing black characters and thin lines more sharply and blackly, for the following reason.

【0004】ディジタルカラー複写機において黒画像を
複写する場合、黒色を再現する信号をとしてイエロー、
マゼンタ、シアンおよびブラックの各信号が発生され、
これらの信号にによりイエロー、マゼンタ、シアンおよ
びブラックの四色画像が重ね合わされて黒画像が再現さ
れる。このため、各色画像間の若干のずれにより黒色の
細線に色の滲みが生じ、黒色が黒くみえなかったり、ぼ
けて見えたりするなど、黒画像において印刷品質の劣化
が発生するからである。
When a black image is copied in a digital color copying machine, yellow and yellow signals are used as signals for reproducing black.
Magenta, cyan and black signals are generated,
The four color images of yellow, magenta, cyan and black are superimposed on these signals to reproduce a black image. For this reason, a slight shift between the respective color images causes color bleeding in the thin black line, and the print quality is degraded in the black image such that the black does not look black or appears blurred.

【0005】これに対して、画像信号中の黒色やその他
の色などの色情報や、細線や網点などの空間周波数の特
徴を抽出して、例えば黒文字や色文字などのエリアを検
出したり、さらに中間調画像や網点画像などのエリアに
分けて、エリアの特性に応じた画像処理を施し、黒色の
文字や線画は黒単色で印刷するなどの方法が提案されて
いる。
On the other hand, color information such as black and other colors in an image signal and features of spatial frequency such as fine lines and halftone dots are extracted to detect areas such as black characters and color characters. Further, a method has been proposed in which areas such as a halftone image and a halftone image are divided, image processing is performed in accordance with the characteristics of the areas, and black characters and line drawings are printed in a single black color.

【0006】また、黒色の文字や線の太さに応じて例え
ば黒トナーの量を多段階に調節したり、文字や線画のエ
ッジと、網点のエッジとを分離して検出し、中間調画像
中の文字や線画のエッジ部と、白地上の文字や線画のエ
ッジ部とにそれぞれ異なる画像処理を施して、黒色の文
字や線画のエッジをスムーズに形成する処理なども提案
されている。
In addition, for example, the amount of black toner is adjusted in multiple steps according to the thickness of black characters and lines, and the edges of characters and line drawings and the edges of halftone dots are detected separately to obtain halftones. A process has been proposed in which different image processing is performed on the edges of characters and line drawings in an image and the edges of characters and line drawings on a white background to smoothly form edges of black characters and line drawings.

【0007】しかし、上記のような画像処理を行うにし
ても、400dpiのプリンタでは、そのドット間隔が63.5μ
mであるから、一般に約20μmと言われる人間の視覚に
り、ドットによって形成される文字や図形の輪郭部にぎ
ざぎざがみえ、必ずしも高画質な印刷とは言えない。そ
こで、上記の画像処理と合わせて、例えば外部機器から
供給される文字や線画の輪郭部をスムージングするデー
タ補間により、中間調画像中の文字や線画に対しても、
ぎざぎざの目立たない文字や線画を形成することが可能
である。
However, even if the above image processing is performed, the dot interval of a printer of 400 dpi is 63.5 μm.
Since it is m, human eyes generally say about 20 μm, and the contours of characters and figures formed by dots are jagged, and it cannot be said that high quality printing is always required. Therefore, in conjunction with the image processing described above, for example, for characters and line drawings in a halftone image, by performing data interpolation for smoothing the contours of characters and line drawings supplied from an external device,
It is possible to form inconspicuous characters and line drawings.

【0008】また、印刷する文字部分の解像度を高め
て、印刷品質を向上する技術が提案されている。とく
に、特定のパターンを検出して、解像度を変換した特定
のパターンに置き換える解像度変換手法は、文字や線画
の印刷品質を高めるのに効果的である。
Further, there has been proposed a technique for improving the resolution of a character portion to be printed and improving the printing quality. In particular, a resolution conversion method of detecting a specific pattern and replacing it with a specific pattern whose resolution has been converted is effective for improving the print quality of characters and line drawings.

【0009】[0009]

【発明が解決しようとする課題】ユーザの好みにより、
文字や線画などをよりシャープに印刷したり、より滑ら
かに印刷したい場合は、ユーザにより予め指定されたシ
ャープネス(強調度)に応じたフィルタ処理を行う必要
があるが、そのような機能を有するフィルタ回路を追加
すると回路規模が大きくなるし、上記のパターンマッチ
ングによる解像度変換だけでは実現が困難である。
According to the user's preference,
To print characters or line drawings more sharply or more smoothly, it is necessary to perform filter processing according to the sharpness (degree of emphasis) specified in advance by the user. When a circuit is added, the circuit scale becomes large, and it is difficult to realize only by the resolution conversion by the pattern matching described above.

【0010】本発明は、上述の問題を解決するためのも
のであり、入力される処理情報に応じて、画像に含まれ
る文字や線画などを画像処理することが可能な画像処理
装置およびその方法を提供することを目的とする。
An object of the present invention is to solve the above-mentioned problem, and an image processing apparatus and method capable of performing image processing on characters, line drawings, and the like included in an image according to input processing information. The purpose is to provide.

【0011】[0011]

【課題を解決するための手段】本発明は、前記の目的を
達成する一手段として、以下の構成を備える。
The present invention has the following configuration as one means for achieving the above object.

【0012】本発明にかかる画像処理装置は、文字およ
び線画の処理情報を入力する入力手段と、入力画像のパ
ターンに応じた置き換えパターンを出力することで、画
像の解像度を変換する変換手段と、入力される処理情報
に基づき、前記変換手段の置き換えパターンの値を制御
する制御手段とを有することを特徴とする。
An image processing apparatus according to the present invention comprises: input means for inputting processing information of characters and line drawings; conversion means for converting a resolution of an image by outputting a replacement pattern corresponding to a pattern of an input image; Control means for controlling the value of the replacement pattern of the conversion means based on the input processing information.

【0013】本発明にかかる画像処理方法は、文字およ
び線画の処理情報を入力し、入力される処理情報に基づ
き、入力画像の解像度を変換するための置き換えパター
ンの値を制御し、入力される画像のパターンに応じた置
き換えパターンを出力することで、画像の解像度を変換
することを特徴とする。
In the image processing method according to the present invention, processing information of characters and line drawings is input, a value of a replacement pattern for converting the resolution of an input image is controlled based on the input processing information, and input. The resolution of the image is converted by outputting a replacement pattern corresponding to the pattern of the image.

【0014】[0014]

【発明の実施の形態】以下、本発明にかかる一実施形態
の画像処理装置を図面を参照して詳細に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.

【0015】[装置概観]図1は本発明にかかる一実施
形態の画像処理装置の概観図の一例である。
[Overview of Apparatus] FIG. 1 is an example of an overview of an image processing apparatus according to an embodiment of the present invention.

【0016】図1において、201はイメージスキャナ部
で、原稿画像を読み取って得られるディジタル画像信号
を処理する。また、200はプリンタ部で、イメージスキ
ャナ部201に読み取られる原稿画像に対応する画像を記
録紙にフルカラープリントする。
In FIG. 1, reference numeral 201 denotes an image scanner which processes a digital image signal obtained by reading a document image. Reference numeral 200 denotes a printer unit which performs full-color printing on a recording sheet of an image corresponding to a document image read by the image scanner unit 201.

【0017】イメージスキャナ部201において、原稿台
ガラス203および原稿圧板202の間に画像が読み取られる
原稿204が置かれ、原稿204はハロゲンランプ205の光に
照射される。原稿204からの反射光は、ミラー206および
207に導かれ、レンズ208により3ラインセンサ210上に像
が結ばれる。なお、レンズ208には赤外カットフィルタ2
31が設けられている。さらに、図示しないモータにより
機械的に、ミラー206およびハロゲンランプ205を含むミ
ラーユニットは速度Vで、ミラー207を含むミラーユニッ
トは速度V/2で矢印の方向、つまり3ラインセンサ210の
電気的走査方向(主走査方向)に対して垂直方向(副走
査方向)に移動され、原稿204の全面が走査される。
In an image scanner section 201, a document 204 from which an image is read is placed between a document table glass 203 and a document pressing plate 202, and the document 204 is irradiated with light from a halogen lamp 205. The reflected light from the original 204 is
The light is guided to 207, and an image is formed on the three-line sensor 210 by the lens 208. The lens 208 has an infrared cut filter 2
31 are provided. Further, mechanically by a motor (not shown), the mirror unit including the mirror 206 and the halogen lamp 205 is driven at a speed V, and the mirror unit including the mirror 207 is driven at a speed V / 2 in the direction of the arrow, that is, the electric scanning of the three-line sensor 210. The document 204 is moved in a direction (sub-scanning direction) perpendicular to the direction (main scanning direction), and the entire surface of the document 204 is scanned.

【0018】3ラインのCCDからなる3ラインセンサ210
は、入力される光情報を色分解して、フルカラー情報レ
ッド(R)、グリーン(G)およびブルー(B)の各色成分を読
み取り、その色成分信号を信号処理部209へ送る。な
お、3ラインセンサ210を構成するCCDはそれぞれ5000画
素分の受光素子を有し、原稿台ガラス203に載置可能な
原稿の最大サイズであるA3サイズの原稿の短手方向(297
mm)を400dpiの解像度で読み取ることができる。
A three-line sensor 210 comprising a three-line CCD
Reads color information of input light information, reads full color information red (R), green (G), and blue (B) color components, and sends the color component signals to the signal processing unit 209. Each of the CCDs constituting the three-line sensor 210 has a light-receiving element for 5000 pixels, and has a maximum width of an A3-size original that can be placed on the original platen glass 203.
mm) at a resolution of 400 dpi.

【0019】211は標準白色板で、3ラインセンサ210の
各CCD210-1から210-3によって読み取られたデータを補
正するためのものである。標準白色板211は、可視光で
ほぼ均一の反射特性を示する白色である。
Reference numeral 211 denotes a standard white plate for correcting data read by the CCDs 210-1 to 210-3 of the three-line sensor 210. The standard white plate 211 is a white color that exhibits substantially uniform reflection characteristics with visible light.

【0020】信号処理部209は、3ラインセンサ210から
入力される画像信号を電気的に処理して、マゼンタ
(M)、シアン(C)、イエロー(Y)およびブラック(Bk)の各
色成分信号を生成し、生成したMCYBkの色成分信号をプ
リンタ部202に送る。また、イメージスキャナ部201にお
ける一回の原稿走査(スキャン)につきMCYBkのうちの
一つの色成分信号がプリンタ部200に送られ、計四回の
原稿走査により一回のプリントアウトが完成する。
A signal processing unit 209 electrically processes an image signal input from the three-line sensor 210 to generate a magenta image signal.
(M), cyan (C), yellow (Y), and black (Bk) color component signals are generated, and the generated MCYBk color component signals are sent to the printer unit 202. In addition, one color component signal of MCYBk is sent to the printer unit 200 for each original scan (scan) in the image scanner unit 201, and one printout is completed by a total of four original scans.

【0021】プリンタ部200において、イメージスキャ
ナ部201より送られてくるM、C、YまたはBkの画像信号は
レーザドライバ212へ送られる。レーザドライバ212は、
入力される画像信号に応じて半導体レーザ素子213を変
調駆動する。半導体レーザ素子213から出力されるレー
ザビームは、ポリゴンミラー214、f-θレンズ215および
ミラー216を介して感光ドラム217を走査し、感光ドラム
217上に静電潜像を形成する。
In the printer section 200, M, C, Y or Bk image signals sent from the image scanner section 201 are sent to the laser driver 212. The laser driver 212
The semiconductor laser device 213 is modulated and driven according to the input image signal. The laser beam output from the semiconductor laser element 213 scans the photosensitive drum 217 via the polygon mirror 214, the f-θ lens 215 and the mirror 216, and
An electrostatic latent image is formed on 217.

【0022】219から222はそれぞれ現像器で、マゼンタ
現像器219、シアン現像器220、イエロー現像器221およ
びブラック現像器222から構成される。四つの現像器が
交互に感光ドラム217に接することで、感光ドラム217上
に形成された静電潜像を対応する色のトナーで現像して
トナー像を形成する。223は転写ドラムで、記録紙カセ
ット225から供給される記録紙が巻き付けられ、感光ド
ラム217上のトナー像を記録紙に転写する。
Reference numerals 219 to 222 denote developing units, each comprising a magenta developing unit 219, a cyan developing unit 220, a yellow developing unit 221 and a black developing unit 222. When the four developing units alternately contact the photosensitive drum 217, the electrostatic latent image formed on the photosensitive drum 217 is developed with a toner of a corresponding color to form a toner image. Reference numeral 223 denotes a transfer drum on which the recording paper supplied from the recording paper cassette 225 is wound, and transfers the toner image on the photosensitive drum 217 to the recording paper.

【0023】このようにしてM、C、YおよびBkの四色の
トナー像が順次転写された記録紙は、定着ユニット226
を通過することで、トナー像が定着された後、装置外へ
排出される。
The recording paper on which the toner images of the four colors M, C, Y and Bk are sequentially transferred in this manner is fixed to the fixing unit 226.
, The toner image is fixed, and then discharged out of the apparatus.

【0024】[3ラインセンサ]図2Aから図2Cは3ライン
センサ210の構成例を示す図である。
[Three-Line Sensor] FIGS. 2A to 2C are views showing a configuration example of the three-line sensor 210. FIG.

【0025】図2Aに示すように、210-1、210-2および21
0-3は、順に、赤色、緑色および青色の光を読み取るた
めの受光素子列である。
As shown in FIG. 2A, 210-1, 210-2 and 21-2
Numerals 0-3 are light receiving element rows for reading red, green and blue light in order.

【0026】図2Bに示すように、受光素子列の各受光素
子は主走査および副走査方向に10μmの開口をもつ。ま
た、受光素子列間の距離は80μmであり、400lpiの副走
査解像度に対して各8ライン分ずつ離間している。
As shown in FIG. 2B, each light receiving element in the light receiving element row has an opening of 10 μm in the main scanning and sub-scanning directions. The distance between the light receiving element rows is 80 μm, which is separated by eight lines for a sub-scanning resolution of 400 lpi.

【0027】これら受光素子列は、各列の対応する受光
素子が原稿画像の同じ位置を読み取るべく互いに平行に
配置されるように、同一のシリコンチップ上にモノリシ
ックに構成されている。このような構成の3ラインセン
サ210を用いることで、各色成分の読み取りにおけるレ
ンズなどの光学系を共通にすることができ、RGB各色の
光学調整を簡潔にすることが可能になる。
These light receiving element rows are monolithically formed on the same silicon chip so that the corresponding light receiving elements of each row are arranged in parallel to each other to read the same position of the original image. By using the three-line sensor 210 having such a configuration, it is possible to use a common optical system such as a lens for reading each color component, and to simplify the optical adjustment of each RGB color.

【0028】図2Cは3ラインセンサ210を受光素子列に直
交する方向に切った場合の断面図である。シリコン基板
210-5上に、赤色、緑色および青色の光を読み取るため
のRフィルタ210-7および受光素子列210-1の組、Gフィル
タ210-8および受光素子列210-2の組、並びに、Bフィル
タ210-9および受光素子列210-3の組が配置されている。
なお、210-6は透明有機膜で構成される平坦化層であ
る。
FIG. 2C is a sectional view when the three-line sensor 210 is cut in a direction orthogonal to the light receiving element row. Silicon substrate
On the 210-5, a set of an R filter 210-7 and a light receiving element row 210-1 for reading red, green and blue light, a set of a G filter 210-8 and a light receiving element row 210-2, and B A set of a filter 210-9 and a light receiving element row 210-3 is arranged.
Note that 210-6 is a flattening layer formed of a transparent organic film.

【0029】[濃度再現]次に、プリンタ部200におけ
る濃度の再現方法について説明する。
[Density Reproduction] Next, a method of reproducing the density in the printer unit 200 will be described.

【0030】プリンタ部200は、画像の濃度を再現する
ために、半導体レーザ素子213の点灯時間を画像の濃度
を表す信号に応じて制御するPWM方式を採用する。これ
により、半導体レーザ素子213の点灯時間に応じた電位
の静電潜像が感光ドラム217上に形成される。そして、
現像器219から222により、静電潜像の電位に応じた量の
トナーで静電潜像を現像することにより、画像の濃度が
再現される。
The printer section 200 employs a PWM method for controlling the lighting time of the semiconductor laser element 213 in accordance with a signal representing the image density in order to reproduce the image density. As a result, an electrostatic latent image having a potential corresponding to the lighting time of the semiconductor laser element 213 is formed on the photosensitive drum 217. And
By developing the electrostatic latent image with the amount of toner corresponding to the potential of the electrostatic latent image by the developing devices 219 to 222, the density of the image is reproduced.

【0031】[信号処理部]図3は信号処理部209の構成
例を示すブロック図である。
[Signal Processing Unit] FIG. 3 is a block diagram showing a configuration example of the signal processing unit 209.

【0032】アナログ信号処理部101は、3ラインセンサ
210から入力されるアナログRGB画像信号にアナログ-デ
ィジタル変換、シェーディング補正、位相補正、入力マ
スキング補正などの公知の処理を施し、標準的なRGB色
空間(例えばNTSC-RGB)のディジタルRGB画像信号を出
力する。
The analog signal processing unit 101 is a three-line sensor
The analog RGB image signal input from 210 is subjected to well-known processing such as analog-digital conversion, shading correction, phase correction, and input masking correction, and a digital RGB image signal in a standard RGB color space (for example, NTSC-RGB) is obtained. Output.

【0033】ルックアップテーブルROMなどにより輝度
信号を濃度信号に変換するLOG変換部102は、入力される
RGB画像信号をCMY画像信号に変換する。マスキングUCR
部103は、入力されるYMC画像信号から黒(Bk)信号を抽出
し、さらに、プリンタ部200のトナーの色濁りを補正す
るマスキング演算を施した画像信号を、原稿走査に合わ
せて、M、C、YおよびBkの面順次に出力する。
A LOG conversion unit 102 for converting a luminance signal into a density signal using a look-up table ROM or the like is input.
Converts RGB image signals to CMY image signals. Masking UCR
The unit 103 extracts a black (Bk) signal from the input YMC image signal, and further converts an image signal subjected to a masking operation for correcting color turbidity of the toner of the printer unit 200 to M, C, Y, and Bk are output in a plane sequence.

【0034】一方、像域分離部107は、アナログ信号処
理部101から入力されるRGB画像信号により、像域分離処
理を行い、その結果を後述するスムージング回路104お
よびセレクタ113へ出力する。
On the other hand, the image area separating section 107 performs an image area separating process based on the RGB image signal input from the analog signal processing section 101, and outputs the result to a smoothing circuit 104 and a selector 113 described later.

【0035】スムージング回路104は、マスキングUCR部
103から入力される画像信号を、像域分離部107から出力
される400線/800線を切り替えるためのsen信号に応じ
て、イメージスキャナ部201の読取解像度に対して倍の
解像度である800dpiの画像データに変換するためのもの
である。スムージング回路104からはライン上の奇数番
目の画素に対応する8ビットの画像データ(以下「奇数
番目の画像データ」と呼ぶ)と、偶数番目の画素に対応
する8ビットの画像データ(以下「偶数番目の画像デー
タ」と呼ぶ)が400dpiの画素クロックに同期して並列に
出力される。すなわち、スムージング回路104は、奇数
番目の画像データを下位8ビットに、偶数番目の画素デ
ータを上位8ビットに配置した400dpi、16ビットの画像
データを出力する。なお、スムージング回路104ンもス
ムージング処理は、図示しないCPUにより設定されるSST
ON信号によりオン/オフされる。
The smoothing circuit 104 includes a masking UCR unit.
The image signal input from 103 is changed to 800 dpi which is double the reading resolution of the image scanner unit 201 in accordance with the sen signal for switching 400 lines / 800 lines output from the image area separating unit 107. It is for converting to image data. The smoothing circuit 104 outputs 8-bit image data corresponding to odd-numbered pixels on the line (hereinafter referred to as “odd-numbered image data”) and 8-bit image data corresponding to even-numbered pixels (hereinafter “even-numbered image data”). The second image data is output in parallel in synchronization with the 400 dpi pixel clock. That is, the smoothing circuit 104 outputs 400-dpi, 16-bit image data in which odd-numbered image data is arranged in lower 8 bits and even-numbered pixel data is arranged in upper 8 bits. Note that the smoothing circuit 104 also performs the smoothing processing in SST set by a CPU (not shown).
It is turned on / off by the ON signal.

【0036】また、スムージング回路104には、詳細は
後述するが、図29に示す複写機の操作パネルなどによっ
て設定される例えば3ビットのシャープネス信号FILも入
力される。つまり、操作部にシャープネスを設定するた
めのキーを配置して、キーを「強」方向に押すことでエ
ッジを強調する処理が行われ、キーを「弱」方向に押す
ことでエッジを滑らかにする処理が行われる。
Although described in detail later, the smoothing circuit 104 also receives, for example, a 3-bit sharpness signal FIL set by the operation panel of the copying machine shown in FIG. In other words, a key for setting sharpness is placed on the operation unit, and processing is performed to emphasize the edge by pressing the key in the "strong" direction, and smooth the edge by pressing the key in the "weak" direction. Is performed.

【0037】ガンマ補正回路105は、スムージング回路1
04から入力される画像データに、プリンタ部200の階調
再現に応じたγ補正を施す。ガンマ補正回路105は、偶
数番目の画像データ用のガンマ変換テーブル(800H
γ)、奇数番目の画像データ用のガンマ変換テーブル
(800Lγ)、および、400dpiの画像データ用のガンマ変
換テーブル(400γ)の三種類の変換テーブルを備えて
いる。なお、図3に示されるように、400dpiの画像デー
タは、ガンマ補正回路105の入力端において、奇数番目
の画像データと同じものである。
The gamma correction circuit 105 includes a smoothing circuit 1
The image data input from 04 is subjected to γ correction according to the tone reproduction of the printer unit 200. The gamma correction circuit 105 includes a gamma conversion table (800H
γ), a gamma conversion table (800Lγ) for odd-numbered image data, and a gamma conversion table (400γ) for 400 dpi image data. As shown in FIG. 3, the 400 dpi image data at the input end of the gamma correction circuit 105 is the same as the odd-numbered image data.

【0038】変換回路112は、ガンマ補正回路105から40
0dpiの画素クロックに同期して入力される偶数および奇
数番目の二つの画像データを、400dpiの画素クロックの
倍の周波数をもつ800dpiの画素クロックに同期して、交
互に出力することで400dpiの画像データを800dpiに変換
する。
The conversion circuit 112 converts the gamma correction circuits 105 to 40
Two even-numbered and odd-numbered image data input in synchronization with the 0 dpi pixel clock are output alternately in synchronization with the 800 dpi pixel clock having a frequency twice as high as the 400 dpi pixel clock. Convert data to 800dpi.

【0039】セレクタ113は、400/800線の切替信号sen
に応じて、変換回路112から出力される800dpiの画像デ
ータ、または、ガンマ補正回路105から出力される400dp
iの画像データを選択し出力する。セレクタ113から出力
されるMCYBkの面順次の画像データは、400/800線の切替
信号senとともにプリンタ部200のレーザドライバ212へ
送られ、PWM方式を用いた画像の形成が行われる。
The selector 113 is provided with a 400/800 line switching signal sen.
According to the image data of 800 dpi output from the conversion circuit 112 or 400 dpi output from the gamma correction circuit 105
Select and output the image data of i. The MCYBk plane-sequential image data output from the selector 113 is sent to the laser driver 212 of the printer unit 200 together with the 400/800 line switching signal sen, and an image is formed using the PWM method.

【0040】[記録密度の切り替え]図4はsen信号と画
像データの関係を示すタイミングチャートである。図4
にVSIで示す画像データはスムージング回路104へ入力さ
れる画像データ、VSOLおよびVSOHで示す画像データはそ
れぞれガンマ補正回路105から出力される奇数番目およ
び偶数番目の画素に対応する画像データ、VSO4で示す画
像データはガンマ補正回路105から出力される400dpiの
画像データ、VSO8で示す画像データは変換回路112から
出力される800dpiの画像データ、VLOで示す画像データ
はセレクタ113から出力される画像データである。
[Switching of Recording Density] FIG. 4 is a timing chart showing the relationship between the sen signal and image data. Figure 4
The image data indicated by VSI is the image data input to the smoothing circuit 104, and the image data indicated by VSOL and VSOH are the image data corresponding to the odd-numbered and even-numbered pixels output from the gamma correction circuit 105, respectively, indicated by VSO4. The image data is 400 dpi image data output from the gamma correction circuit 105, the image data indicated by VSO8 is 800 dpi image data output from the conversion circuit 112, and the image data indicated by VLO is image data output from the selector 113. .

【0041】図4において、sen信号がハイレベルの期
間、セレクタ113は画像データVSO4を選択して画像デー
タVLOとして800dpiのクロックに同期して出力する。一
方、sen信号がローレベルの期間、セレクタ113は画像デ
ータVSO8を選択して画像データVLOとして800dpiのクロ
ックに同期して出力する。
In FIG. 4, while the sen signal is at the high level, the selector 113 selects the image data VSO4 and outputs it as the image data VLO in synchronization with a clock of 800 dpi. On the other hand, while the sen signal is at the low level, the selector 113 selects the image data VSO8 and outputs it as the image data VLO in synchronization with the 800 dpi clock.

【0042】[領域判別]次に、黒色の文字および黒線
画を検出する像域分離について説明する。
[Area Determination] Next, image area separation for detecting black characters and black line drawings will be described.

【0043】●エッジ検出 図5はエッジ検出部108の詳細な構成例を示すブロック
図、図6は図5に示す輝度算出回路250の詳細な構成例を
示すブロック図である。図5および図6に示す輝度算出回
路250は、式(1)の演算により、入力されるRGB信号の輝
度信号Yを算出する。 Y = 0.25R + 0.5G + 0.25B …(1)
Edge Detection FIG. 5 is a block diagram showing a detailed configuration example of the edge detection unit 108, and FIG. 6 is a block diagram showing a detailed configuration example of the luminance calculation circuit 250 shown in FIG. The luminance calculation circuit 250 shown in FIGS. 5 and 6 calculates the luminance signal Y of the input RGB signal by the operation of Expression (1). Y = 0.25R + 0.5G + 0.25B… (1)

【0044】つまり、輝度算出回路250に入力されるRGB
信号はそれぞれ、図6に示す乗算器401、402および403に
より係数0.25、0.5および0.25が乗じられた後、加算器4
04および405により加算されて輝度信号Yになる。
That is, the RGB input to the luminance calculation circuit 250
The signals are multiplied by coefficients 0.25, 0.5 and 0.25 by multipliers 401, 402 and 403 shown in FIG.
The luminance signal Y is added by 04 and 405.

【0045】図7は図5に示すエッジmin方向検出回路251
の動作を説明する図である。エッジmin方向検出回路251
に入力される輝度信号Yは、FIFOメモリ501および502に
より1ラインずつ遅延され、3×3画素の周知のラプラシ
アンフィルタ処理が施される。ラプラシアンフィルタ50
3から506はそれぞれ、図7に示すような縦方向、対角線
方向、横方向および対角線方向のラプラシアンを求める
フィルタである。エッジmin方向検出回路251は、この四
つのフィルタの出力値であるエッジ量の絶対値aが、最
小の値をとる方向(以下「エッジmin方向」と呼ぶ)を
示す情報を、輝度信号Yとともに出力する。
FIG. 7 shows an edge min direction detecting circuit 251 shown in FIG.
It is a figure explaining operation of. Edge min direction detection circuit 251
Is delayed one line at a time by the FIFO memories 501 and 502, and is subjected to a well-known Laplacian filter process of 3 × 3 pixels. Laplacian filter 50
Reference numerals 3 to 506 denote filters for calculating the Laplacian in the vertical direction, the diagonal direction, the horizontal direction, and the diagonal direction, respectively, as shown in FIG. The edge min direction detection circuit 251 outputs information indicating the direction in which the absolute value a of the edge amount, which is the output value of the four filters, takes the minimum value (hereinafter referred to as “edge min direction”) together with the luminance signal Y. Output.

【0046】図5に示すエッジmin方向スムージング回路
252は、検出されたエッジmin方向に対するスムージング
処理を輝度信号Yに施す。このスムージング処理によ
り、エッジ成分の最も大きい方向の輝度成分が保存さ
れ、その他の方向の輝度成分は平滑化される。すなわ
ち、複数の方向に対してエッジ成分が大きい網点成分
は、エッジ成分が平滑化されるのでその特徴は減少す
る。一方、一方向にエッジ成分が存在する文字や細線の
特徴は保存される。必要に応じて、この処理を繰り返す
ことで、線成分と網点成分との分離がより一層効果的に
行われ、網点中に存在する文字や線画成分も容易に検知
することができる。
The edge min direction smoothing circuit shown in FIG.
252 performs smoothing processing on the luminance signal Y in the detected edge min direction. By this smoothing process, the luminance component in the direction with the largest edge component is stored, and the luminance components in the other directions are smoothed. That is, a halftone dot component having a large edge component in a plurality of directions has a reduced feature because the edge component is smoothed. On the other hand, the characteristics of characters and thin lines having edge components in one direction are preserved. By repeating this process as necessary, the line component and the halftone dot component can be more effectively separated, and the character and the line drawing component existing in the halftone dot can be easily detected.

【0047】図5に示すエッジ検出回路253は、エッジmi
n方向のエッジ量の絶対値aを閾値として、スムージング
された輝度信号Yを二値化する。従って、絶対値a以下の
輝度信号は除去され、絶対値a以上の輝度信号が‘1’と
して出力される。従って、図8(a)は輝度信号Yが表す画
像を、図8(b)はエッジ検出信号により表される画像を示
す図であるが、輝度算出回路250から出力される輝度信
号Yのエッジ成分がエッジ検出信号としてエッジ検出回
路253から出力される。
The edge detection circuit 253 shown in FIG.
The smoothed luminance signal Y is binarized using the absolute value a of the edge amount in the n direction as a threshold. Accordingly, the luminance signal having the absolute value a or less is removed, and the luminance signal having the absolute value a or more is output as “1”. Therefore, FIG. 8A is a diagram illustrating an image represented by the luminance signal Y, and FIG. 8B is a diagram illustrating an image represented by the edge detection signal. The component is output from the edge detection circuit 253 as an edge detection signal.

【0048】そして、エッジ検出部108は、上記のエッ
ジ検出信号を7×7、5×5および3×3のブロックサイズで
膨張した信号と、「膨張なし」および「エッジなし」の
五つを3ビットのコードで表した信号edgeを出力する。
なお、信号の膨張とは、ブロック内のすべての画素の信
号値を論理和することである。
Then, the edge detection unit 108 generates a signal obtained by expanding the above-described edge detection signal in a block size of 7 × 7, 5 × 5, and 3 × 3, and five signals of “no expansion” and “no edge”. Outputs the signal edge represented by a 3-bit code.
Note that signal expansion refers to performing a logical sum of signal values of all pixels in a block.

【0049】●彩度判定 図9は彩度判定部109の詳細な構成例を示すブロック図で
ある。最大値検出回路701および最小値検出回路702は入
力されるRGB信号の最大値max(R,G,B)および最小値min
(R,G,B)をそれぞれ抽出し、減算器703は最大値と最小値
の差ΔCを算出し、ルックアップテーブル(LUT)704は、
図10に示すような特性の変換を行い、彩度信号Crを生成
する。
FIG. 9 is a block diagram showing a detailed configuration example of the saturation determination section 109. As shown in FIG. The maximum value detection circuit 701 and the minimum value detection circuit 702 provide the maximum value max (R, G, B) and the minimum value min of the input RGB signal.
(R, G, B) are respectively extracted, the subtractor 703 calculates the difference ΔC between the maximum value and the minimum value, and the lookup table (LUT) 704 is
The conversion of the characteristics as shown in FIG. 10 is performed to generate the saturation signal Cr.

【0050】図10に示す特性は、ΔCが零に近いほど彩
度が低く、言い換えれば無彩色に近く、ΔCが大きいほ
ど有彩色の度合いが強いことを示している。従って、彩
度信号Crは、無彩色の度合いが強いほど大きい値を示
し、有彩色の度合いが強いほど零に近づく信号である。
彩度判定部109は、彩度信号Crに従い、色、黒、中間
(色と黒の間の色)および白を示す2ビットの信号colを
出力する。
The characteristics shown in FIG. 10 indicate that the closer the ΔC is to zero, the lower the saturation, in other words, the closer the color is to an achromatic color, and the larger the ΔC, the stronger the chromatic color. Therefore, the saturation signal Cr is a signal that indicates a larger value as the degree of achromatic color is higher, and approaches zero as the degree of chromatic color is higher.
In accordance with the saturation signal Cr, the saturation determination unit 109 outputs a 2-bit signal col indicating color, black, intermediate (color between black and black), and white.

【0051】●太さ判定 図11は太さ判定部110の詳細な構成例を示すブロック図
である。
FIG. 11 is a block diagram showing a detailed configuration example of the thickness determination unit 110.

【0052】まず、最小値検出回路2011は、入力される
RGB信号の最小値Min(R,G,B)を出力する。平均値検出回
路2012は、注目画素近傍の5×5画素のMin(R,G,B)の平均
値AVE5と、3×3画素のMin(R,G,B)の平均値AVE3を出力す
る。
First, the minimum value detection circuit 2011 is inputted.
Outputs the minimum value Min (R, G, B) of the RGB signal. The average value detection circuit 2012 outputs an average value AVE5 of Min (R, G, B) of 5 × 5 pixels near the target pixel and an average value AVE3 of Min (R, G, B) of 3 × 3 pixels. .

【0053】文字/中間調検出回路2013は、AVE5およびA
VE3を入力して、注目画素の濃度、および、注目画素と
その近傍の平均濃度との変化量を検出することにより、
注目画素が文字または中間調領域の一部であるか否かを
判別する。
The character / halftone detection circuit 2013 uses AVE5 and A
By inputting VE3 and detecting the density of the target pixel and the amount of change between the target pixel and the average density in the vicinity thereof,
It is determined whether or not the target pixel is a part of a character or a halftone area.

【0054】図12は文字/中間調検出回路2013の詳細な
構成例を示すブロック図である。文字/中間調検出回路2
013は、適当なオフセット値OFST1を加えたAVE3を、コン
パレータ2031によりAVE5と比較するとともに、コンパレ
ータ2032により適当な制限値LIM1と比較する。コンパレ
ータ2031および2032の出力はORゲート2033に入力され
る。つまり、文字/中間調検出回路2013の出力BINGRAは
次の条件で‘1’になる。 AVE3 + OFSET1 > AVE5 …(2) または AVE3 + OFSET1 > LIM1 …(3)
FIG. 12 is a block diagram showing a detailed configuration example of the character / halftone detection circuit 2013. Character / halftone detection circuit 2
In step S13, AVE3 to which the appropriate offset value OFST1 has been added is compared with AVE5 by the comparator 2031 and is also compared with the appropriate limit value LIM1 by the comparator 2032. The outputs of the comparators 2031 and 2032 are input to the OR gate 2033. That is, the output BINGRA of the character / halftone detection circuit 2013 becomes “1” under the following conditions. AVE3 + OFSET1> AVE5… (2) or AVE3 + OFSET1> LIM1… (3)

【0055】つまり、文字/中間調検出回路2013によっ
て、注目画素近傍に濃度変化が存在する場合(文字のエ
ッジ部)、または、注目画素付近がある値以上の濃度を
もっている場合(文字の内部および中間調部)に文字/
中間調領域信号BINGRAが‘1’になる。
In other words, the character / halftone detection circuit 2013 causes a change in density near the pixel of interest (the edge portion of the character), or a case where the density of the pixel near the pixel of interest has a density equal to or greater than a certain value (the inside of the character and Text /
The halftone area signal BINGRA becomes “1”.

【0056】図13は図11に示す網点領域検出回路2014の
詳細な構成例を示すブロック図である。網点領域検出回
路2014は、適当なオフセット値OFST2を加えたMin(R,G,
B)を、コンパレータ2014によりAVE5と比較するととも
に、コンパレータ2042により適当な制限値LIM2と比較す
る。コンパレータ2041および2042の出力はORゲート2043
に入力される。つまり、ORゲート2043の出力BINAMIは次
の条件で‘1’になる。 Min(R,G,B) + OFSET2 > AVE5 …(4) または Min(R,G,B) + OFSET2 > LIM2 …(5)
FIG. 13 is a block diagram showing a detailed configuration example of the dot area detection circuit 2014 shown in FIG. The halftone dot region detection circuit 2014 has Min (R, G,
B) is compared with AVE5 by the comparator 2014, and with an appropriate limit value LIM2 by the comparator 2042. The outputs of comparators 2041 and 2042 are OR gate 2043
Is input to That is, the output BINAMI of the OR gate 2043 becomes “1” under the following conditions. Min (R, G, B) + OFSET2> AVE5… (4) or Min (R, G, B) + OFSET2> LIM2… (5)

【0057】信号BINAMIは、エッジ方向検出回路2044へ
入力されて、画素毎のエッジの方向が検出される。図14
はエッジ方向検出回路2044のエッジ方向検出ルールを示
す図で、注目画素およびその近傍の八画素が、図14に示
す条件(0)から(3)の何れかを満たす場合、4ビットのエ
ッジ方向信号DIRAMIの満足された条件に対応するビット
が‘1’になる。
The signal BINAMI is input to the edge direction detection circuit 2044, and the direction of the edge for each pixel is detected. Fig. 14
FIG. 14 is a diagram showing an edge direction detection rule of the edge direction detection circuit 2044. When the target pixel and eight neighboring pixels satisfy any of the conditions (0) to (3) shown in FIG. The bit corresponding to the satisfied condition of the signal DIRAMI becomes '1'.

【0058】信号DIRAMIは、対向エッジ検出回路2045へ
入力されて、注目画素を囲む5×5画素の領域内で互いに
対向するエッジが検出される。図15は対向エッジの検出
ルールを説明するための図で、注目画素はA33で表され
る。つまり、注目画素A33において、下記の条件(1)から
(4)の何れかが満たされる場合、対向エッジ検出回路204
5は出力信号EAAMIを‘1’にする。 条件(1): A11,A21,A31,A41,A51,A22,A32,A42およびA33
の何れかのビット0が‘1’、かつ、A33,A24,A34,A44,A1
5,A25,A35,A45およびA55の何れかのビット1が‘1’ 条件(2): A11,A21,A31,A41,A51,A22,A32,A42およびA33
の何れかのビット1が‘1’、かつ、A33,A24,A34,A44,A1
5,A25,A35,A45およびA55の何れかのビット0が‘1’ 条件(3): A11,A12,A13,A14,A15,A22,A23,A24およびA33
の何れかのビット2が‘1’、かつ、A33,A42,A43,A44,A5
1,A52,A53,A54およびA55の何れかのビット3が‘1’ 条件(4): A11,A12,A13,A14,A15,A22,A23,A24およびA33
の何れかのビット3が‘1’、かつ、A33,A42,A43,A44,A5
1,A52,A53,A54およびA55の何れかのビット2が‘1’
The signal DIRAMI is input to the opposing edge detection circuit 2045 to detect opposing edges in a 5 × 5 pixel area surrounding the target pixel. FIG. 15 is a diagram for explaining the detection rule of the opposing edge. The target pixel is represented by A33. That is, in the target pixel A33, from the following condition (1)
If any of (4) is satisfied, the opposite edge detection circuit 204
5 sets the output signal EAAMI to '1'. Condition (1): A11, A21, A31, A41, A51, A22, A32, A42 and A33
Bit 0 is '1' and A33, A24, A34, A44, A1
5, any bit 1 of A25, A35, A45 and A55 is '1' Condition (2): A11, A21, A31, A41, A51, A22, A32, A42 and A33
Bit 1 is '1' and A33, A24, A34, A44, A1
5, bit 0 of A25, A35, A45 and A55 is '1' Condition (3): A11, A12, A13, A14, A15, A22, A23, A24 and A33
Bit 2 is '1' and A33, A42, A43, A44, A5
Bit 3 of any of 1, A52, A53, A54 and A55 is '1' Condition (4): A11, A12, A13, A14, A15, A22, A23, A24 and A33
Bit 3 is '1' and A33, A42, A43, A44, A5
Bit 2 of 1, A52, A53, A54 and A55 is '1'

【0059】次に、膨張回路2046は、信号EAAMIに対し
て3×4画素の膨張を行い、注目画素近傍の3×4画素にEA
AMIが‘1’の画素があれば、注目画素のEAAMIを‘1’に
する。さらに、収縮回路2047および膨張回路2048によ
り、5×5画素の領域で孤立した検出結果を除去した信号
EBAMIを得る。なお、収縮とは、入力されたすべての信
号が‘1’の場合は‘1’を、それ以外の場合は‘0’を
出力することである。
Next, the expansion circuit 2046 expands the signal EAAMI by 3 × 4 pixels, and adds the EA to the 3 × 4 pixels near the target pixel.
If there is a pixel whose AMI is “1”, the EAAMI of the target pixel is set to “1”. Further, a signal obtained by removing an isolated detection result in a 5 × 5 pixel area by the contraction circuit 2047 and the expansion circuit 2048.
Get EBAMI. Note that the contraction means outputting "1" when all the input signals are "1", and outputting "0" otherwise.

【0060】次に、カウンタ2049は、適当な大きさのウ
ィンドウ、例えば注目画素を含む5×64画素の領域にお
いて、信号EBAMIが‘1’である画素の数をカウントす
る。図16はこのウィンドウの一例を示す図で、ウィンド
ウ内のサンプル点は、主走査方向に四画素おきに九点、
副走査方向に五ライン分の合計45点である。一つの注目
画素に対して、このウィンドウを主走査方向に移動する
ことにより、図16に示す(1)〜(9)の九つのウィンドウが
用意されたことになる。すなわち、注目画素を中心とし
て5×64画素の領域を参照したことになる。
Next, the counter 2049 counts the number of pixels whose signal EBAMI is “1” in a window of an appropriate size, for example, a region of 5 × 64 pixels including the target pixel. FIG. 16 is a diagram showing an example of this window. The sample points in the window include nine points every four pixels in the main scanning direction.
There are a total of 45 points for five lines in the sub-scanning direction. By moving this window in the main scanning direction for one target pixel, nine windows (1) to (9) shown in FIG. 16 are prepared. In other words, this means that a region of 5 × 64 pixels centered on the target pixel.

【0061】そして、コンパレータ2050は、カウンタ20
49がそれぞれのウィンドウにおいてEBAMIをカウントし
た結果が適当な閾値LIM3を超えた場合に網点領域信号AM
Iを‘1’にする。このような網点領域検出回路2014の処
理により、信号BINGRAでは孤立点の集合として示される
網点画像を領域として検出することができる。
The comparator 2050 is connected to the counter 20
49 is a dot area signal AM when the result of counting EBAMI in each window exceeds an appropriate threshold LIM3.
Set I to '1'. By the processing of the dot area detection circuit 2014, a dot image represented as a set of isolated points can be detected as an area in the signal BINGRA.

【0062】ここで、孤立点の集合について簡単に説明
する。上述した画像領域判定は、画像をある輝度で二値
化した二値画像に対して行われる。しかし、網点画像を
単純に二値化すると、網点の構成要素であるドットによ
る細かい点の集合体が発生する。そこで、ある程度の面
積を有する領域中に孤立点が存在するか否かを判定する
ことで、ドットが網点画像を構成するものであるか否か
を判別する。つまり、ある領域中にドットが相当数ある
場合その領域は網点画像であり、また、注目画素がドッ
トの一部であっても、その周囲にドットが存在しない場
合その注目画素は文字などの一部であると判定する。
Here, a set of isolated points will be briefly described. The above-described image area determination is performed on a binary image obtained by binarizing an image with a certain luminance. However, when a halftone image is simply binarized, an aggregate of fine points is generated by dots which are components of the halftone dot. Thus, by determining whether or not an isolated point exists in a region having a certain area, it is determined whether or not a dot forms a halftone image. That is, if there is a considerable number of dots in a certain area, the area is a halftone image, and if the pixel of interest is a part of a dot but no dot exists around it, the pixel of interest is It is determined that it is part.

【0063】このようにして得られた文字/中間調領域
信号BINGRAと網点領域信号AMIは、図11に示すORゲート2
015において論理和されて、入力画像の二値化信号PICT
が生成される。エリアサイズ判定回路2016は、二値化信
号PICTを入力して、そのエリアサイズを判定する。
The character / halftone area signal BINGRA and the halftone area signal AMI obtained in this way are connected to the OR gate 2 shown in FIG.
A logical sum is obtained at 015, and the binary signal PICT of the input image is
Is generated. The area size determination circuit 2016 receives the binary signal PICT and determines the area size.

【0064】図17はエリアサイズ判定回路2016の詳細な
構成例を示すブロック図である。エリアサイズ判定回路
2016には、複数の収縮回路2081と膨張回路2082のペアが
存在し、それぞれ参照する領域のサイズが異なる。信号
PICTは、収縮回路の大きさに合わせてライン遅延された
後に、まず収縮回路群2081に入力される。本実施形態で
は、23×23画素サイズから35×35画素サイズまで七種類
の収縮回路を用意する。収縮回路群2081の出力は、ライ
ン遅延された後に膨張回路群2082に入力される。本実施
形態では、収縮回路の七つの出力に対応して、27×27画
素サイズから39×39画素まで七種類の膨張回路を用意し
て、それら膨張回路から出力信号PICT_FHを得る。
FIG. 17 is a block diagram showing a detailed configuration example of the area size determination circuit 2016. Area size judgment circuit
In 2016, there are a plurality of pairs of the contraction circuit 2081 and the expansion circuit 2082, and the sizes of the regions to be referred to are different. signal
The PICT is first input to the contraction circuit group 2081 after a line delay according to the size of the contraction circuit. In the present embodiment, seven types of contraction circuits are prepared from a 23 × 23 pixel size to a 35 × 35 pixel size. The output of the contraction circuit group 2081 is input to the expansion circuit group 2082 after the line delay. In the present embodiment, seven types of expansion circuits are prepared from 27 × 27 pixel size to 39 × 39 pixel corresponding to the seven outputs of the contraction circuit, and the output signal PICT_FH is obtained from these expansion circuits.

【0065】注目画素が文字の一部である場合、その文
字の太さによって信号PICT_FHの値が定まる。その様子
を図18に示す。例えば、信号PICTが26画素幅の帯状に存
在する場合、27×27より大きいサイズの収縮を行った後
の膨張出力はすべて‘0’になり、25×25より小さいサ
イズの収縮を行った後にそれぞれのサイズに応じた膨張
を行うと、30画素幅の帯状の出力信号PICT_FHが得られ
る。そして、これらの信号PICT_FHをエンコーダ2083に
入力することにより、注目画素が属する画像領域信号ZO
NE_Pが求まる。
When the pixel of interest is a part of a character, the value of the signal PICT_FH is determined by the thickness of the character. This is shown in FIG. For example, if the signal PICT is present in a 26-pixel width band, the expansion output after performing a contraction of a size larger than 27 × 27 is all '0', and after performing a contraction of a size smaller than 25 × 25. By performing expansion according to each size, a strip-shaped output signal PICT_FH having a width of 30 pixels is obtained. Then, by inputting these signals PICT_FH to the encoder 2083, the image area signal ZO to which the pixel of interest belongs
NE_P is found.

【0066】図19はエンコーダ2083のエンコードルール
を示す図で、3ビット信号ZONE_Pにより文字などの太さ
を八段階で表す。従って、最も細い文字などはZONE_P =
0になり、最も太い文字など(文字以外の領域も含む)
はZONE_P = 7になる。この処理によって、広い領域にお
いて信号PICTが‘1’である写真画像や網点画像などの
信号ZONE_Pは7(最大値)に定義され、エリアサイズが
最大値よりも小さい(細い)文字や線画は、その大きさ
(太さ)に応じて信号ZONE_Pの値が定義される。
FIG. 19 is a diagram showing an encoding rule of the encoder 2083. The thickness of a character or the like is represented in eight stages by a 3-bit signal ZONE_P. Therefore, the thinnest characters are ZONE_P =
0, the thickest characters (including non-character areas)
Becomes ZONE_P = 7. By this processing, the signal ZONE_P such as a photographic image or a halftone image in which the signal PICT is “1” in a wide area is defined as 7 (maximum value), and characters and line drawings whose area size is smaller (thinner) than the maximum value are , The value of the signal ZONE_P is defined according to its size (thickness).

【0067】図20はZONE補正部2084の構成例を示すブロ
ック図で、ZONE補正部2084へ入力される信号ZONE_Pは、
複数のFIFOメモリを備えるライン遅延回路2112によりラ
イン遅延されて、例えば10×10画素のZONE_Pの平均値を
算出する平均値算出回路2111へ入力される。信号ZONE_P
の値は文字などが太いほど大きく、細いほど小さくいの
で、平均値算出回路2111の出力はそのまま補正されたZO
NE信号になる。この補正に用いるブロックサイズは、文
字や線画の太さを判定するためのブロックサイズに応じ
て定めることが望ましい。
FIG. 20 is a block diagram showing a configuration example of the ZONE correction unit 2084. The signal ZONE_P input to the ZONE correction unit 2084 is
The data is line-delayed by a line delay circuit 2112 having a plurality of FIFO memories, and is input to an average value calculation circuit 2111 that calculates an average value of, for example, 10 × 10 pixels of ZONE_P. Signal ZONE_P
Is larger for thicker characters, and smaller for thinner characters.
NE signal. It is desirable that the block size used for this correction be determined according to the block size for determining the thickness of a character or a line drawing.

【0068】補正されたZONE信号を用いてそれ以後の処
理を行うことで、急激に文字や線の太さが変化する画像
部分においても、太さの判定結果は滑らかに変化するこ
とになり、黒文字処理の変化による画像品位の劣化をよ
り改善することができる。
By performing the subsequent processing using the corrected ZONE signal, even in an image portion where the thickness of characters or lines rapidly changes, the determination result of the thickness changes smoothly. Deterioration of image quality due to a change in black character processing can be further improved.

【0069】ここで、前述したように、ZONE = 7の領域
は中間調領域とみなすことができる。そこでこれを利用
して、信号ZONEとエッジ信号より、網点や中間調の領域
内に存在する文字や線を、他の領域の文字や線と区別す
ることが可能である。以下にこの方法を述べる。
Here, as described above, the area where ZONE = 7 can be regarded as a halftone area. Therefore, by utilizing this, it is possible to distinguish characters and lines existing in a halftone dot or halftone region from characters and lines in other regions based on the signal ZONE and the edge signal. The following describes this method.

【0070】図21および図22は網点/中間調に含まれる
文字を検出するアルゴリズム例を説明する図である。
FIGS. 21 and 22 are diagrams illustrating an example of an algorithm for detecting a character included in a halftone dot / halftone.

【0071】まず、図21のステップS1で、前述した信号
PICTに対して5×5画素のブロック膨張処理を行う。この
処理により、不完全な検出になりやすい網点領域に対し
て、その検出領域を補正する。次にステップS2で、膨張
処理結果に対して11×11画素のブロック収縮処理を行
う。これらの処理によって得られる信号FCHは、信号PIC
Tに対して三画素分収縮した信号になる。
First, in step S1 of FIG.
Perform block expansion processing of 5 × 5 pixels for PICT. With this processing, the detection area is corrected for a halftone dot area that is likely to be incompletely detected. Next, in step S2, block reduction processing of 11 × 11 pixels is performed on the expansion processing result. The signal FCH obtained by these processes is the signal PIC
The signal becomes contracted by three pixels with respect to T.

【0072】そこで、図22に示すように、信号FCH、信
号ZONEおよびエッジ信号を組合わせることで、白地中の
エッジと、網点/中間調のエッジとを区別することがで
き、網点画像中においても網点成分を強調してしまうこ
となく、また、写真の縁などの黒文字処理が不必要な部
分を処理することなく、黒文字処理を行うことができ
る。
Therefore, as shown in FIG. 22, by combining the signal FCH, the signal ZONE, and the edge signal, the edge in the white background can be distinguished from the halftone / halftone edge, and the halftone dot image can be distinguished. Black character processing can be performed without emphasizing the halftone dot component and without processing a portion that does not require black character processing such as the edge of a photograph.

【0073】●LUT 図3に示すLUT111は、前述した判定信号ZONE、edgeおよ
びcolを入力し、判定信号に対応するsen信号を出力す
る。sen信号は、注目画素の色が黒色で、かつ、エッジ
部に属するときにローレベルになる。
LUT The LUT 111 shown in FIG. 3 receives the above-mentioned determination signals ZONE, edge and col, and outputs a sen signal corresponding to the determination signal. The sen signal goes to a low level when the color of the pixel of interest is black and belongs to an edge portion.

【0074】[スムージング回路]図23はスムージング
回路104の詳細な構成例を示すブロック図である。二値
化回路1001はMCYBk面順次に入力される画像データVSIを
パターンマッチングするために二値化する。なお、この
二値化は、入力される画像データの各ビット値の論理和
をとるものである。パターンマッチング回路1002は、入
力される二値データの特徴をパターンマッチングにより
検出する。
[Smoothing Circuit] FIG. 23 is a block diagram showing a detailed configuration example of the smoothing circuit 104. The binarization circuit 1001 binarizes the image data VSI input in the MCYBk plane sequentially for pattern matching. The binarization is performed by taking the logical sum of the respective bit values of the input image data. The pattern matching circuit 1002 detects features of the input binary data by pattern matching.

【0075】スムージング処理回路1003は、パターンマ
ッチング回路1002により検出されるパターンを所定のパ
ターンに置き換え、置き換えられたパターンのぎざぎざ
を倍の解像度のデータでスムージングする。このとき、
上述したように、スムジーング後のデータは、奇数番目
の画素に対応するデータが下位8ビットに、偶数番目の
画素に対応するデータが上位8ビットに配置された16ビ
ットの画像データとして出力される。
The smoothing processing circuit 1003 replaces the pattern detected by the pattern matching circuit 1002 with a predetermined pattern, and smooths the jaggedness of the replaced pattern with double resolution data. At this time,
As described above, the data after smoothing is output as 16-bit image data in which data corresponding to odd-numbered pixels is arranged in lower 8 bits and data corresponding to even-numbered pixels is arranged in upper 8 bits. .

【0076】セレクタ1005および1006は、SSTON信号に
応じてスムージング処理をオンオフするためのセレクタ
である。
The selectors 1005 and 1006 are selectors for turning on / off the smoothing processing according to the SSTON signal.

【0077】図24はパターンマッチング回路1002の詳細
な構成例を示すブロック図である。400dpiのクロックに
同期して送られてくると二値データは、逐次、九本のラ
インメモリに記憶されるとともに、九本のシフトレジス
タに記憶されて、主走査11画素×副走査9画素の画素マ
トリクス情報が取り出され、判定回路1301に入力され
る。判定回路1301は、入力される画素マトリクス情報の
特徴をパターンマッチング方法により検出する。
FIG. 24 is a block diagram showing a detailed configuration example of the pattern matching circuit 1002. When sent in synchronization with a 400 dpi clock, the binary data is sequentially stored in nine line memories and nine shift registers, and is composed of 11 pixels in the main scanning and 9 pixels in the sub-scanning. Pixel matrix information is extracted and input to the determination circuit 1301. The determination circuit 1301 detects a feature of the input pixel matrix information by a pattern matching method.

【0078】なお、パターンマッチングについては様々
な提案がなされているが、例えば、次に示すようなパタ
ーンを用いるパターンマッチングを行う。
Various proposals have been made for pattern matching. For example, pattern matching using the following patterns is performed.

【0079】図28Aは主走査11ドット×副走査9ドットの
参照領域を示す図で、主走査方向に対してaからk、副走
査方向に対して1から9のアドレスが付られ、中心画素は
5fと表される。中心画素5fはスムージングのための変更
の対象になる画素である。
FIG. 28A is a diagram showing a reference area of 11 dots in the main scan × 9 dots in the sub-scan direction. Addresses a to k in the main scan direction and 1 to 9 in the sub-scan direction are provided. Is
Expressed as 5f. The center pixel 5f is a pixel to be changed for smoothing.

【0080】図29Bは、図28Aの参照領域をX1からX8、Y1
からY8および5fの17領域に分割した状態を示す図であ
る。例えば、領域X1は画素3d、3e、3f、4d、4eおよび4f
を含み、領域X2は画素3f、3g、3h、4f、4gおよび4hを含
み、領域X3は画素6d、6e、6f、7d、7eおよび7fを含む。
つまり、図25Aに示す参照領域は、六画素からなる八つ
の領域X1からX8、九画素からなる六つの領域Y1、Y3、Y
4、Y5、Y7およびY8、10画素からなる二つの領域Y2およ
びY6、並びに、中心画素5fに分割される。
FIG. 29B shows the reference area of FIG. 28A from X1 to X8, Y1
FIG. 7 is a diagram showing a state where the image is divided into 17 regions Y to Y8 and 5f. For example, the region X1 includes pixels 3d, 3e, 3f, 4d, 4e, and 4f
And the area X2 includes the pixels 3f, 3g, 3h, 4f, 4g, and 4h, and the area X3 includes the pixels 6d, 6e, 6f, 7d, 7e, and 7f.
That is, the reference area shown in FIG. 25A is composed of eight areas X1 to X8 of six pixels, and six areas Y1, Y3, and Y of nine pixels.
4, Y5, Y7 and Y8, divided into two regions Y2 and Y6 each composed of 10 pixels and a central pixel 5f.

【0081】さて、領域の画素の値がすべての画素で同
じ値の場合は、その領域の特徴を‘0’とし、異なる値
をもつ画素が一つでもあれば、その領域の特徴を‘1’
とする。このようにして各領域の特徴を得る。
If the value of the pixel in the region is the same for all the pixels, the feature of the region is set to "0". If at least one pixel having a different value is provided, the feature of the region is set to "1". '
And Thus, the characteristics of each area are obtained.

【0082】スムージング処理回路1003は、このように
して得た各領域の特徴が表すパターンと、予め決められ
たパターンとの一致を調べ、両パターンが一致すれば、
そのパターンに応じた多値の置き換えパターンを出力す
る。
The smoothing processing circuit 1003 checks whether the pattern represented by the characteristic of each region obtained in this way matches a predetermined pattern, and if both patterns match,
A multi-value replacement pattern corresponding to the pattern is output.

【0083】例えば、領域Y3、Y7、X1、X4、X5およびX8
の特徴が‘0’、その他の領域の特徴が‘1’の場合を考
えると、右上から左下に向かう対角線上に、値が異なる
画素を含む領域があり、その他の各領域に含まれる画素
は同じ値を有している。従って、中心画素5fを境界線上
において右上から左下にかけて、画像の輪郭線が存在す
ることが推定される。この場合、この斜め方向の輪郭線
をスムージングすることが望ましい。
For example, the regions Y3, Y7, X1, X4, X5 and X8
Considering the case where the feature of the region is '0' and the feature of the other region is '1', there is a region including pixels having different values on a diagonal line from the upper right to the lower left, and the pixels included in the other regions are Have the same value. Therefore, it is presumed that the image has a contour line extending from the upper right to the lower left of the center pixel 5f on the boundary line. In this case, it is desirable to smooth the contour line in the oblique direction.

【0084】図25(a)は濃度255、一画素幅のラインを示
す図である。スムージング処理回路1003は、図25(a)に
示す入力パターンを、そのパターンの特徴に応じた図25
(b)に示すような多値データに置き換える。
FIG. 25A is a diagram showing a line having a density of 255 and a width of one pixel. The smoothing processing circuit 1003 converts the input pattern shown in FIG.
Replace with multi-value data as shown in (b).

【0085】ただし、スムージング回路104に実際に入
力される画像データは多階調を有し、常に零または255
のデータというわけではない。従って、図25(b)に示す
多値データを出力したのでは、スムージング回路104へ
入力される画像データの濃度情報が維持されないことに
なる。そこで、図26に示すように、3×3画素のウィンド
ウを用いてスムージング回路104に入力される多値デー
タを参照して補間処理を行う。つまり、3×3画素のウィ
ンドウ内で値が零以外のデータの平均値を得て、入力パ
ターンを置き換えるべきデータをリニア演算により求め
る。
However, the image data actually input to the smoothing circuit 104 has multiple gradations and is always zero or 255.
It is not the data. Therefore, if the multi-value data shown in FIG. 25B is output, the density information of the image data input to the smoothing circuit 104 will not be maintained. Therefore, as shown in FIG. 26, an interpolation process is performed with reference to multi-value data input to the smoothing circuit 104 using a 3 × 3 pixel window. That is, an average value of data having a value other than zero is obtained in a window of 3 × 3 pixels, and data to replace the input pattern is obtained by a linear operation.

【0086】例えば、図26に示す3×3画素のウィンドウ
内において、零以外の値をもつ画素は三つあり、それら
の値が51だとすると、それらの平均値は51である。一
方、置き換えパターンにおける、対応する画素の値が18
0であるとすれば、実際に置き換えるべき画素の値は180
×51/255 = 36になり、画素の値が255であれば255×51/
255 = 51になる。図25(b)に示す置き換えデータに対応
する上記平均値が51であるとすれば、スムージング回路
104から出力される画像データは図25(c)のようになる。
従って、スムージング回路104へ入力される画像データ
の濃度情報を維持したスムージングが可能になる。
For example, in the 3 × 3 pixel window shown in FIG. 26, there are three pixels having values other than zero, and if those values are 51, their average value is 51. On the other hand, the value of the corresponding pixel in the replacement pattern is 18
If it is 0, the actual pixel value to be replaced is 180
× 51/255 = 36, and if the pixel value is 255, 255 × 51 /
255 = 51. Assuming that the average value corresponding to the replacement data shown in FIG. 25 (b) is 51, the smoothing circuit
The image data output from 104 is as shown in FIG.
Therefore, it is possible to perform smoothing while maintaining the density information of the image data input to the smoothing circuit 104.

【0087】また、図23に示す置換濃度選択回路1004は
置換濃度を選択するためのテーブルを備え、シャープネ
ス信号FILに応じて、スムージング処理回路1003の置き
換えパターンの値を変化させる。シャープネス信号FIL
は、例えば、3ビットの信号で、1から7までの七段階の
値をもち、初期値は4である。シャープネス信号FILが1
から3の値の場合は、エッジ部分をさらに滑らかにする
ような値の画素が配置された置き換えパターンが選択さ
れ、5から7の値の場合は、エッジ部分を強調するような
値の画素が配置された置き換えパターンが選択される。
The replacement density selection circuit 1004 shown in FIG. 23 has a table for selecting the replacement density, and changes the value of the replacement pattern of the smoothing processing circuit 1003 according to the sharpness signal FIL. Sharpness signal FIL
Is, for example, a 3-bit signal having seven values from 1 to 7, and the initial value is 4. Sharpness signal FIL is 1
In the case of a value from to 3, a replacement pattern in which pixels having values that further smooth the edge portion are selected, and in the case of a value from 5 to 7, pixels having a value that emphasizes the edge portion are selected. The arranged replacement pattern is selected.

【0088】図27(a)は濃度255、一画素幅のラインを示
す図で、シャープネス信号FILの値に応じてスムージン
グ処理回路1003によるパターンの置き換えが行われる。
図27(b)はFIL = 7の場合でエッジ部分が強調されるよう
な値の画素が配置されたパターンに置き換えられてい
る。一方、図27(c)はFIL = 1の場合でエッジ部分が滑ら
かになるような値の画素が配置されたパターンに置き換
えられている。
FIG. 27A shows a line having a density of 255 and a width of one pixel. The pattern is replaced by the smoothing processing circuit 1003 according to the value of the sharpness signal FIL.
FIG. 27 (b) shows a case where FIL = 7, which is replaced by a pattern in which pixels having values whose edge portions are emphasized are arranged. On the other hand, FIG. 27 (c) shows a case where FIL = 1, where the pattern is replaced with a pattern in which pixels having values such that the edge portion becomes smooth.

【0089】このように、本実施形態によれば、パター
ンマッチングによる解像度変換を行う際に、ユーザが指
定するシャープネス信号に応じて変換濃度を制御するこ
とにより、文字や線画などのシャープさまたは滑らかさ
をユーザの好みに合わせて制御することができ、高品位
の出力画像を得ることができる。
As described above, according to the present embodiment, when performing resolution conversion by pattern matching, the conversion density is controlled in accordance with the sharpness signal designated by the user, so that the sharpness or the smoothness of characters and line drawings can be improved. Can be controlled according to the user's preference, and a high-quality output image can be obtained.

【0090】なお、上記においては、入力パターンの解
像度を二倍に高めてぎざぎざ感を除去する例を説明した
が、二倍に限らず、解像度をN(Nは自然数)倍に高める
ことが可能である。
In the above description, an example in which the resolution of the input pattern is doubled to remove the jaggedness has been described. However, the resolution is not limited to twice and the resolution can be increased to N times (N is a natural number). It is.

【0091】さらに、上記では、原稿画像を複写する複
写機を例として説明を行ったが、装置外部から入力され
る画像信号に基づき画像をプリントするプリンタに、上
述した本実施形態の画像処理を適用すれば、同様の効果
が得られることは言うまでもない。
Further, in the above description, a copying machine for copying a document image has been described as an example, but the above-described image processing of this embodiment is applied to a printer that prints an image based on an image signal input from outside the apparatus. It goes without saying that the same effect can be obtained if applied.

【0092】また、本実施形態がプリンタとして動作す
る場合、シャープネス信号FILは外部機器から入力され
ることは言うまでもない。
When the present embodiment operates as a printer, it goes without saying that the sharpness signal FIL is input from an external device.

【0093】[0093]

【他の実施形態】なお、本発明は、複数の機器(例えば
ホストコンピュータ、インタフェイス機器、リーダ、プ
リンタなど)から構成されるシステムに適用しても、一
つの機器からなる装置(例えば、複写機、ファクシミリ
装置など)に適用してもよい。
[Other Embodiments] Even if the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus (for example, a copying machine) Machine, facsimile machine, etc.).

【0094】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納されたプログ
ラムコードを読み出し実行することによっても、達成さ
れることはいうまでもない。この場合、記憶媒体から読
み出されたプログラムコード自体が前述した実施形態の
機能を実現することになり、そのプログラムコードを記
憶した記憶媒体は本発明を構成することになる。また、
コンピュータが読み出したプログラムコードを実行する
ことにより、前述した実施形態の機能が実現されるだけ
でなく、そのプログラムコードの指示に基づき、コンピ
ュータ上で稼働しているオペレーティングシステム(OS)
などが実際の処理の一部または全部を行い、その処理に
よって前述した実施形態の機能が実現される場合も含ま
れることはいうまでもない。
Further, an object of the present invention is to supply a storage medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and to provide a computer (or a computer) of the system or the apparatus. It is needless to say that the present invention can also be achieved by a CPU or an MPU) reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. Also,
When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also the operating system (OS) running on the computer based on the instructions of the program code.
It is needless to say that a case in which the functions of the above-described embodiments are implemented by performing part or all of the actual processing.

【0095】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることはいうまでもない。
Further, after the program code read from the storage medium is written into the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, the program code is read based on the instruction of the program code. Needless to say, the CPU included in the function expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0096】[0096]

【発明の効果】以上説明したように、本発明によれば、
入力される処理情報に応じて、画像に含まれる文字や線
画などを画像処理する画像処理装置およびその方法を提
供することができる。
As described above, according to the present invention,
According to the present invention, it is possible to provide an image processing apparatus that performs image processing on characters, line drawings, and the like included in an image according to input processing information, and a method thereof.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明にかかる一実施形態の画像処理装置の概
観図、
FIG. 1 is an outline view of an image processing apparatus according to an embodiment of the present invention;

【図2A】3ラインセンサの構成例を示す図、FIG. 2A is a diagram showing a configuration example of a three-line sensor;

【図2B】3ラインセンサの構成例を示す図、FIG. 2B is a diagram showing a configuration example of a three-line sensor;

【図2C】3ラインセンサの構成例を示す図、FIG. 2C is a diagram showing a configuration example of a three-line sensor;

【図3】図1に示す信号処理部の構成例を示すブロック
図、
FIG. 3 is a block diagram illustrating a configuration example of a signal processing unit illustrated in FIG. 1;

【図4】sen信号と画像データの関係を示すタイミング
チャート、
FIG. 4 is a timing chart showing a relationship between a sen signal and image data;

【図5】図3に示すエッジ検出部の詳細な構成例を示す
ブロック図、
FIG. 5 is a block diagram showing a detailed configuration example of an edge detection unit shown in FIG. 3;

【図6】図5に示す輝度算出回路の詳細な構成例を示す
ブロック図、
FIG. 6 is a block diagram illustrating a detailed configuration example of a luminance calculation circuit illustrated in FIG. 5;

【図7】図5に示すエッジmin方向検出回路の動作を説明
する図、
FIG. 7 is a diagram for explaining the operation of the edge min direction detection circuit shown in FIG. 5;

【図8】輝度信号Yが表す画像およびエッジ検出信号が
表す画像を示す図、
FIG. 8 is a diagram showing an image represented by a luminance signal Y and an image represented by an edge detection signal;

【図9】図3に示す彩度判定部の詳細な構成例を示すブ
ロック図、
FIG. 9 is a block diagram illustrating a detailed configuration example of a saturation determination unit illustrated in FIG. 3;

【図10】図9に示すルックアップテーブル(LUT)の変換
特性を示す図、
FIG. 10 is a diagram showing conversion characteristics of the lookup table (LUT) shown in FIG. 9;

【図11】図3に示す太さ判定部の詳細な構成例を示す
ブロック図、
11 is a block diagram illustrating a detailed configuration example of a thickness determination unit illustrated in FIG. 3;

【図12】図11に示す文字/中間調検出回路の詳細な構
成例を示すブロック図、
12 is a block diagram showing a detailed configuration example of the character / halftone detection circuit shown in FIG. 11;

【図13】図11に示す網点領域検出回路の詳細な構成例
を示すブロック図、
13 is a block diagram showing a detailed configuration example of the halftone dot area detection circuit shown in FIG. 11;

【図14】図13に示すエッジ方向検出回路のエッジ方向
検出ルールを示す図、
FIG. 14 is a diagram showing an edge direction detection rule of the edge direction detection circuit shown in FIG. 13;

【図15】図13に示す対向エッジ検出回路の対向エッジ
検出ルールを説明するための図、
FIG. 15 is a view for explaining a counter edge detection rule of the counter edge detection circuit shown in FIG. 13;

【図16】図13に示すカウンタが信号EBAMIが‘1’であ
る画素の数をカウントするウィンドウの一例を示す図、
FIG. 16 is a view showing an example of a window in which the counter shown in FIG. 13 counts the number of pixels for which the signal EBAMI is '1';

【図17】図11に示すエリアサイズ判定回路の詳細な構
成例を示すブロック図、
17 is a block diagram showing a detailed configuration example of an area size determination circuit shown in FIG. 11;

【図18】文字の太さによって信号PICT_FHの値が定ま
る様子を説明する図、
FIG. 18 is a view for explaining how a value of a signal PICT_FH is determined by the thickness of a character;

【図19】図17に示すエンコーダのエンコードルールを
示す図、
FIG. 19 is a diagram showing an encoding rule of the encoder shown in FIG. 17;

【図20】図17に示すZONE補正部の構成例を示すブロッ
ク図、
20 is a block diagram illustrating a configuration example of a ZONE correction unit illustrated in FIG. 17;

【図21】網点/中間調に含まれる文字を検出するアル
ゴリズム例を説明する図、
FIG. 21 is a view for explaining an example of an algorithm for detecting characters included in halftone / halftones.

【図22】網点/中間調に含まれる文字を検出するアル
ゴリズム例を説明する図、
FIG. 22 is a view for explaining an example of an algorithm for detecting a character included in a halftone / halftone.

【図23】図3に示すスムージング回路の詳細な構成例
を示すブロック図、
FIG. 23 is a block diagram showing a detailed configuration example of the smoothing circuit shown in FIG. 3;

【図24】図23に示すパターンマッチング回路の詳細な
構成例を示すブロック図、
FIG. 24 is a block diagram showing a detailed configuration example of the pattern matching circuit shown in FIG. 23;

【図25】図23に示すスムージング処理回路によるスム
ージング処理を説明するための図、
FIG. 25 is a view for explaining smoothing processing by the smoothing processing circuit shown in FIG. 23;

【図26】図23に示すスムージング処理回路によるスム
ージング処理を説明するための図、
FIG. 26 is a view for explaining smoothing processing by the smoothing processing circuit shown in FIG. 23;

【図27】シャープネス信号とスムージング処理との関
係を説明するための図、
FIG. 27 is a diagram for explaining a relationship between a sharpness signal and a smoothing process;

【図28A】図23に示すパターンマッチング回路による
パターンマッチングを説明するための図、
28A is a diagram for explaining pattern matching by the pattern matching circuit shown in FIG. 23;

【図28B】図23に示すパターンマッチング回路による
パターンマッチングを説明するための図、
FIG. 28B is a view for explaining pattern matching by the pattern matching circuit shown in FIG. 23;

【図29】操作パネルの一例を示す図である。FIG. 29 is a diagram illustrating an example of an operation panel.

フロントページの続き Fターム(参考) 5B057 BA23 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CD05 CE03 CE05 CH11 DC22 5C076 AA21 AA22 BA06 BB01 5C077 LL19 MP06 MP08 PP03 PP20 PP32 PP33 PP38 PP41 PP46 PP47 PP68 PQ22 PQ23 PQ24 SS05 TT03 TT06 Continued on the front page F-term (reference)

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 文字および線画の処理情報を入力する入
力手段と、 入力画像のパターンに応じた置き換えパターンを出力す
ることで、画像の解像度を変換する変換手段と、 入力される処理情報に基づき、前記変換手段の置き換え
パターンの値を制御する制御手段とを有することを特徴
とする画像処理装置。
An input unit for inputting processing information of a character and a line drawing; a conversion unit for converting a resolution of an image by outputting a replacement pattern corresponding to a pattern of an input image; Control means for controlling the value of the replacement pattern of the conversion means.
【請求項2】 前記処理情報は、文字および線画のシャ
ープネスを指定する情報であることを特徴とする請求項
1に記載された画像処理装置。
2. The method according to claim 1, wherein the processing information is information for specifying sharpness of a character and a line drawing.
The image processing device according to 1.
【請求項3】 前記制御手段は、前記置き換えパターン
の隣接画素間の置き換え濃度差を、指定されるシャープ
ネスの度合が大きい場合は大きくし、前記シャープネス
の度合が小さい場合は小さくすることを特徴とする請求
項2に記載された画像処理装置。
3. The method according to claim 2, wherein the control unit increases the replacement density difference between adjacent pixels of the replacement pattern when the degree of the specified sharpness is large, and decreases the difference when the degree of the sharpness is small. 3. The image processing device according to claim 2, wherein:
【請求項4】 文字および線画の処理情報を入力し、 入力される処理情報に基づき、入力画像の解像度を変換
するための置き換えパターンの値を制御し、 入力される画像のパターンに応じた置き換えパターンを
出力することで、画像の解像度を変換することを特徴と
する画像処理方法。
4. Inputting processing information of a character and a line drawing, controlling a value of a replacement pattern for converting a resolution of an input image based on the input processing information, and performing replacement according to a pattern of the input image. An image processing method comprising: converting a resolution of an image by outputting a pattern.
【請求項5】 前記処理情報は、文字および線画のシャ
ープネスを指定する情報であることを特徴とする請求項
4に記載された画像処理方法。
5. The processing information according to claim 1, wherein the processing information is information for designating sharpness of a character and a line drawing.
The image processing method described in 4.
【請求項6】 前記制御ステップは、前記置き換えパタ
ーンの隣接画素間の置き換え濃度差を、指定されるシャ
ープネスの度合が大きい場合は大きくし、前記シャープ
ネスの度合が小さい場合は小さくすることを特徴とする
請求項5に記載された画像処理方法。
6. The method according to claim 1, wherein the control step increases a replacement density difference between adjacent pixels of the replacement pattern when the degree of specified sharpness is large, and decreases when the degree of sharpness is low. 6. The image processing method according to claim 5, wherein:
【請求項7】 画像処理のプログラムコードが記録され
た記録媒体であって、前記プログラムコードは少なくと
も、 文字および線画の処理情報を入力するステップのコード
と、 入力される処理情報に基づき、入力画像の解像度を変換
するための置き換えパターンの値を制御するステップの
コードと、 入力される画像のパターンに応じた置き換えパターンを
出力することで、画像の解像度を変換するするステップ
のコードとを有することを特徴とする記録媒体。
7. A recording medium on which a program code for image processing is recorded, wherein said program code is based on at least a code for inputting processing information of characters and line drawings, and an input image based on the input processing information. Having a code of a step of controlling the value of a replacement pattern for converting the resolution of the image, and a code of a step of converting the resolution of the image by outputting a replacement pattern according to the pattern of the input image. A recording medium characterized by the above-mentioned.
JP34255099A 1999-12-01 1999-12-01 Image processor and method therefor Withdrawn JP2001160902A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34255099A JP2001160902A (en) 1999-12-01 1999-12-01 Image processor and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34255099A JP2001160902A (en) 1999-12-01 1999-12-01 Image processor and method therefor

Publications (1)

Publication Number Publication Date
JP2001160902A true JP2001160902A (en) 2001-06-12

Family

ID=18354628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34255099A Withdrawn JP2001160902A (en) 1999-12-01 1999-12-01 Image processor and method therefor

Country Status (1)

Country Link
JP (1) JP2001160902A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004329826A (en) * 2003-05-06 2004-11-25 Sony Corp Image processing method and image processor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004329826A (en) * 2003-05-06 2004-11-25 Sony Corp Image processing method and image processor
US7702174B2 (en) 2003-05-06 2010-04-20 Sony Corporation Image processing apparatus and image processing method

Similar Documents

Publication Publication Date Title
US7142717B2 (en) Image processing apparatus and method
US6744921B1 (en) Image processing apparatus and method that determines the thickness of characters and lines
JP4280404B2 (en) Image processing apparatus and method
EP0695079B1 (en) Image processing apparatus with image content judgement
JP3599367B2 (en) Image processing apparatus and method
JP4217302B2 (en) Image processing apparatus and image processing method
JP3554012B2 (en) Image processing apparatus and image processing method
JP3581395B2 (en) Image processing apparatus and image processing method
JP3715747B2 (en) Image processing apparatus and image processing method
JP2008035499A (en) Image processing apparatus, image processing method, program, and recording medium
JP2001160902A (en) Image processor and method therefor
JP4035254B2 (en) Image processing apparatus and image processing method
JP2001158136A (en) Apparatus and method for image processing
JP3679539B2 (en) Image processing apparatus and image processing method
JP2000134476A (en) Image processor and its control method, and storage medium
JP2951972B2 (en) Image processing device
JP2000134491A (en) Image processor and its control method, and storage medium
JP3471915B2 (en) Image processing apparatus and method
JP2001157059A (en) Device and method for forming image
JPH0922461A (en) Image processor and method therefor
JPH1188707A (en) Image procesor and image processing method
JPH08275017A (en) Image processor and its method
JP2000175044A (en) Image processor and image processing method
JPH11195114A (en) Picture processing method and device therefor
JP2001157051A (en) Device and method for forming image

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070206