JP2005267119A - Image processor, image forming device, image processing method, image processing program, and recording medium - Google Patents

Image processor, image forming device, image processing method, image processing program, and recording medium Download PDF

Info

Publication number
JP2005267119A
JP2005267119A JP2004077267A JP2004077267A JP2005267119A JP 2005267119 A JP2005267119 A JP 2005267119A JP 2004077267 A JP2004077267 A JP 2004077267A JP 2004077267 A JP2004077267 A JP 2004077267A JP 2005267119 A JP2005267119 A JP 2005267119A
Authority
JP
Japan
Prior art keywords
region
image data
gradation
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004077267A
Other languages
Japanese (ja)
Inventor
Toyohisa Matsuda
豊久 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2004077267A priority Critical patent/JP2005267119A/en
Publication of JP2005267119A publication Critical patent/JP2005267119A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Color, Gradation (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor, and an image processing method capable of distinguishing between a gradation area wherein gradation reproducibility is emphasized, and non-gradation wherein detail part reproducibility is emphasized in a continuous tone (photograph) area. <P>SOLUTION: A spatial frequency calculating part 14a is provided for calculating a spatial frequency characteristic represented by complex numbers from inputted image data. A first characteristic analyzing part 14b is provided for extracting a characteristic amount x (a first characteristic amount) from a real part of the spatial frequency characteristic. A second characteristic analyzing part 14c is provided for extracting characteristic amounts y<SB>1</SB>and y<SB>2</SB>(second characteristic amounts) from an imaginary part of the spatial frequency characteristic. An area distinguishing process part 14d is provided for distinguishing the continuous tone area from the image data on the basis of the characteristic amount x, and distinguishing the gradation area on the basis of the characteristic amount y<SB>2</SB>from the continuous tone area. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、入力された画像データから原画像の特性に応じた領域を識別する画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for identifying an area corresponding to characteristics of an original image from input image data.

近年、デジタル画像システムが目覚しい発達を遂げ、デジタル画像処理技術の構築が進んでいる。例えば、複写機の分野においては、文字、網点、連続階調が混在するような原稿に対しても高画質で出力されることが要求されており、スキャナ部で読み込まれた画像に対して高画質化処理を行うため、入力された画像データを文字領域、網点領域、連続階調(写真)領域などの複数の領域に分離し、領域毎に適応的な画質改善処理を適用するのが一般的である。例えば、スキャナにより読み込まれた画像データに対しては下記の処理が施される(非特許文献1・2参照)。これを図13に示す。   In recent years, digital image systems have made remarkable progress, and the construction of digital image processing technology is progressing. For example, in the field of copiers, it is required to output a document with mixed characters, halftone dots, and continuous gradations with high image quality. In order to perform high image quality processing, the input image data is separated into multiple areas such as character area, halftone dot area, continuous tone (photo) area, and adaptive image quality improvement processing is applied to each area. Is common. For example, the following processing is performed on the image data read by the scanner (see Non-Patent Documents 1 and 2). This is shown in FIG.

図13に示されるように、原稿からの反射光像は、カラー画像入力装置108(画像読取手段)に設けられたCCD(Charge Coupled Device)により、まずRGB(R:赤・G:緑・B:青)のアナログ信号として読み取られ、カラー画像処理装置107に入力される。   As shown in FIG. 13, the reflected light image from the original is first RGB (R: red, G: green, B) by a CCD (Charge Coupled Device) provided in the color image input device 108 (image reading means). : Blue) analog signal and input to the color image processing device 107.

カラー画像処理装置107では、まず上記アナログ信号(RGB信号)が、A/D(アナログ/デジタル)変換部111によってデジタル信号に変換される。このRGBのデジタル信号はついでシェーディング補正部112に入力され、カラー画像入力装置108の照明系や結像系あるいは撮像系で生じた各種の歪みが取り除かれる(シェーディング補正)。シェーディング補正されたRGB信号は、入力階調補正部113によって、反射率信号から濃度信号のような画像処理装置が扱いやすい信号に変換されるとともにカラーバランスが整えられ、領域分離処理部114に入力される。(なお、上記非特許文献2に示されるように、RGB信号からなる画像データをL信号に変換して以下の領域分離処理を行う方法もある。)
この領域分離処理部114では、入力画像中の各画素を文字領域や中間調(連続階調)領域等の複数の領域に分離する領域分離処理がなされ、各画素がどの領域に属しているかを示す領域識別信号が出力される。
In the color image processing apparatus 107, the analog signal (RGB signal) is first converted into a digital signal by an A / D (analog / digital) converter 111. The RGB digital signals are then input to the shading correction unit 112, and various distortions generated in the illumination system, imaging system, or imaging system of the color image input device 108 are removed (shading correction). The RGB signal subjected to the shading correction is converted from a reflectance signal into a signal that can be handled easily by an image processing device such as a density signal by the input tone correction unit 113 and the color balance is adjusted and input to the region separation processing unit 114. Is done. (As described in Non-Patent Document 2, there is a method in which image data composed of RGB signals is converted into L * a * b * signals and the following region separation processing is performed.)
In this region separation processing unit 114, region separation processing is performed to separate each pixel in the input image into a plurality of regions such as a character region and a halftone (continuous tone) region, and to which region each pixel belongs. A region identification signal is output.

例えば、文字/写真などの混在原稿において、領域分離処理により文字に分離された領域は、特に黒文字或いは色文字の再現性を高めるために、フィルタ処理(空間フィルタ処理)による鮮鋭強調処理で高周波数の強調量が大きくされる。また、中間調処理(階調再現処理)においては、高域周波数の再現に適した高解像度のスクリーンでの二値化または多値化処理が選択される。また、領域分離処理にて網点に分離された領域に関しては、フィルタ処理において、入力網点成分を除去するためのローパスフィルタ処理が施される。なお、これらの処理が施されたCMYKの画像データはカラー画像出力装置(図示せず)に出力され、紙などの記録媒体上に画像が形成される(非特許文献1参照)。   For example, in a mixed manuscript such as characters / photos, a region separated into characters by region separation processing has a high frequency by sharp enhancement processing by filter processing (spatial filter processing), in particular, in order to improve reproducibility of black characters or color characters. The amount of emphasis is increased. In halftone processing (tone reproduction processing), binarization or multi-value processing on a high-resolution screen suitable for high-frequency reproduction is selected. In addition, for the region separated into halftone dots by the region separation processing, low-pass filter processing for removing the input halftone component is performed in the filter processing. The CMYK image data subjected to these processes is output to a color image output device (not shown), and an image is formed on a recording medium such as paper (see Non-Patent Document 1).

特許文献1には、この領域分離処理についての従来技術が開示されている。この従来技術は、入力された画像データの空間周波数特性を解析して3つの周波数特徴(高周波領域のピークの位置、ピークの分布パターン、低周波領域のエネルギーの集中の度合い)を抽出し、この抽出された各周波数特徴に基づいて、画像データから文字、網点、連続階調(写真)の各領域を識別するものである。
特開平4−339471号公報(公開日:1992年11月26日) 電子写真学会誌 第36巻 第4号(1997) p.343〜352 「第49回 日本画像学会技術講習会(2000年、日本画像学会主催) p.64〜76。
Patent Document 1 discloses a conventional technique for this region separation processing. This prior art analyzes the spatial frequency characteristics of the input image data and extracts three frequency features (high frequency region peak position, peak distribution pattern, low frequency region energy concentration degree) Based on each extracted frequency feature, the character, halftone dot, and continuous tone (photo) regions are identified from the image data.
JP-A-4-339471 (Publication date: November 26, 1992) The Electrophotographic Society of Japan Vol. 36, No. 4 (1997) p. 343-352 “The 49th Technical Conference of the Imaging Society of Japan (2000, sponsored by the Imaging Society of Japan) p.64-76.

しかしながら、この従来技術は、空間周波数の振幅特性のみに着目しているため、連続階調領域と判断された領域が、階調再現性を重視すべきグラデーション領域であるか、ディテイル部再現性を重視すべき非グラデーションであるかを識別することができなかった。   However, since this prior art focuses only on the amplitude characteristic of the spatial frequency, the area determined to be a continuous tone area is a gradation area where the gradation reproducibility should be emphasized, or the detail portion reproducibility is reduced. It was not possible to identify the non-gradation that should be emphasized.

本発明は、上記課題を解決するためになされたものであり、その目的は、連続階調領域をグラデーション領域と非グラデーション領域とに識別することのできる画像処理装置を提供することにある。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus that can distinguish a continuous tone area from a gradation area and a non-gradation area.

本発明の画像処理装置は、上記課題を解決するために、入力された画像データから連続階調領域を識別する画像処理装置であって、上記画像データから複素数で表される空間周波数特性を算出する空間周波数算出部と、上記空間周波数特性の虚部に基づいて上記連続階調領域からグラデーション領域を識別する領域識別処理部とを備えたことを特徴としている。   In order to solve the above problems, an image processing apparatus of the present invention is an image processing apparatus that identifies a continuous tone region from input image data, and calculates a spatial frequency characteristic represented by a complex number from the image data. And a region identification processing unit for identifying a gradation region from the continuous tone region based on an imaginary part of the spatial frequency characteristic.

上記構成によれば、連続階調と識別された画像データにつき、その空間周波数特性の虚部を用いることで、上記の従来技術では実現できなかった、連続階調領域(写真領域)のさらなる識別、すなわち、階調再現性を重視すべきグラデーション領域とディテイル部再現性を重視すべき非グラデーション領域との識別が可能となる。   According to the above configuration, by using the imaginary part of the spatial frequency characteristic of image data identified as continuous tone, further identification of a continuous tone region (photo region) that could not be realized by the above-described conventional technology. In other words, it is possible to distinguish between a gradation area where gradation reproducibility should be emphasized and a non-gradation area where detail portion reproducibility should be emphasized.

本発明の画像処理装置においては、上記空間周波数特性の実部から第1の特徴量を抽出する第1特性解析部と、上記空間周波数特性の虚部から第2の特徴量を抽出する第2特性解析部とをさらに備え、上記領域識別処理部が第1の特徴量に基づいて上記画像データから連続階調領域を識別し、この連続階調領域から上記第2の特徴量に基づいてグラデーション領域を識別することが好ましい。   In the image processing apparatus of the present invention, a first characteristic analysis unit that extracts a first feature value from the real part of the spatial frequency characteristic and a second feature value that extracts a second feature value from the imaginary part of the spatial frequency characteristic. A characteristic analysis unit, wherein the region identification processing unit identifies a continuous tone region from the image data based on the first feature amount, and performs gradation based on the second feature amount from the continuous tone region. It is preferable to identify the region.

上記構成によれば、空間周波数算出部は、上記画像データから複素数で表される空間周波数特性を算出する。この空間周波数特性は第1特性解析部と第2特性解析部とに入力される。第1特性解析部は、上記空間周波数特性の実部を解析し、第1の特徴量を抽出する。第2特性解析部は、上記空間周波数特性の虚部を解析し、第2の特徴量を抽出する。この第1および第2の特徴量は領域識別処理部に入力される。   According to the above configuration, the spatial frequency calculation unit calculates a spatial frequency characteristic represented by a complex number from the image data. This spatial frequency characteristic is input to the first characteristic analysis unit and the second characteristic analysis unit. The first characteristic analysis unit analyzes a real part of the spatial frequency characteristic and extracts a first feature amount. The second characteristic analysis unit analyzes an imaginary part of the spatial frequency characteristic and extracts a second feature amount. The first and second feature values are input to the region identification processing unit.

領域識別処理部は、上記第1の特徴量に基づいて、連続階調領域を他の領域(たとえば、文字領域や網点領域)から識別し、この連続階調領域を、上記第2の特徴量に基づいて、階調再現性を重視すべきグラデーション領域とディテイル部再現性を重視すべき非グラデーション領域とに識別する。   The region identification processing unit identifies a continuous tone region from other regions (for example, a character region and a halftone dot region) based on the first feature amount, and the continuous tone region is identified as the second feature. Based on the amount, a gradation area where gradation reproducibility should be emphasized and a non-gradation area where detail portion reproducibility should be emphasized are distinguished.

このように、第1の特徴量を用いて連続階調領域を他の領域(たとえば、文字領域や網点領域)から識別し、この識別された連続階調領域を、第2の特徴量を用いてグラデーション領域と非グラデーション領域とに識別することによって、上記した連続階調領域のさらなる識別を迅速かつ高精度に行うことができる。   In this way, the continuous tone region is identified from other regions (for example, a character region and a halftone dot region) using the first feature amount, and the identified continuous tone region is used as the second feature amount. By using and distinguishing between a gradation area and a non-gradation area, the above-described continuous gradation area can be further quickly and accurately identified.

また、本発明の画像処理装置においては、上記領域識別処理部が、文字領域と網点領域と連続諧調領域とを識別する第1の識別部並びにグラデーション領域を識別する第2の識別部を備え、上記第1の識別部は、上記第1の特徴量に基づいて、連続階調領域と、網点あるいは文字領域のいずれかに属する領域とを識別し、この網点あるいは文字領域のいずれかに属する領域を、上記第1および2の特徴量に基づいて網点領域と文字領域とに識別するとともに、上記第2の識別部は、第1の識別部で連続階調とされた画像データから第2の特徴量に基づいてグラデーション領域を識別することが好ましい。   In the image processing apparatus of the present invention, the region identification processing unit includes a first identification unit that identifies a character region, a halftone dot region, and a continuous gradation region, and a second identification unit that identifies a gradation region. The first discriminating unit discriminates a continuous tone region and a region belonging to either a halftone dot or a character region based on the first feature amount, and selects either the halftone dot or the character region. Are classified into a halftone dot region and a character region based on the first and second feature quantities, and the second identification unit is a continuous tone image data obtained by the first identification unit. From the above, it is preferable to identify the gradation area based on the second feature amount.

このように、第1の識別部が文字あるいは網点領域のいずれかに属する領域と、連続階調領域とをまず識別することで、各領域(文字・網点・グラデーション・非グラデーション領域)への識別処理が迅速化できる。また、網点領域と文字領域との識別に、上記第1および2の特徴量を用いるため、その識別精度を高めることができる。   In this way, by first identifying the region belonging to either the character or halftone dot region and the continuous tone region, the first identification unit identifies each region (character, halftone dot, gradation, non-gradation region). The identification process can be speeded up. In addition, since the first and second feature quantities are used for identifying the halftone dot area and the character area, the identification accuracy can be improved.

また、上記第1の識別部においては、上記第1の特徴量としてのDC成分を除く全周波数成分のエネルギー総和が閾値より大きい画像データを連続階調領域と判定し、閾値より小さい画像データを文字領域あるいは網点領域と判定することが好ましい。   In the first identification unit, image data in which the total energy of all frequency components excluding the DC component as the first feature amount is larger than a threshold is determined as a continuous tone region, and image data smaller than the threshold is determined. It is preferable to determine a character area or a halftone dot area.

また、上記第2の識別部においては、上記第2の特徴量から得られる、空間周波数特性のDC成分を中心とする点対称性に基づいてグラデーション領域を識別することが好ましい。より具体的には、第2の特徴量としてのエネルギー総和の絶対値が閾値より小さく、かつ、第2の特徴量としてのエネルギーの絶対値総和が閾値より大きく、かつ、第2の特徴量としての第1水平方向所定成分におけるエネルギー総和と第2水平方向所定成分におけるエネルギー総和との和の絶対値が閾値より小さく、かつ、第2の特徴量としての第1垂直方向所定成分におけるエネルギー総和と第2垂直方向所定成分におけるエネルギー総和との和の絶対値が閾値よりも小さくなるような画像データをグラデーション領域候補の画像データと判定し、それ以外の画像データを非グラデーション領域に決定することが好ましい。   In the second identification unit, it is preferable to identify the gradation region based on point symmetry centered on the DC component of the spatial frequency characteristic obtained from the second feature amount. More specifically, the absolute value of the total energy as the second feature amount is smaller than the threshold, the absolute sum of the energy as the second feature amount is larger than the threshold, and the second feature amount The absolute value of the sum of the energy sum in the first horizontal direction predetermined component and the energy sum in the second horizontal direction predetermined component is smaller than the threshold, and the energy sum in the first vertical direction predetermined component as the second feature amount Image data in which the absolute value of the sum of the energy sums in the second vertical direction predetermined component is smaller than the threshold value is determined as gradation region candidate image data, and other image data is determined as a non-gradation region. preferable.

さらに、この場合には、上記グラデーション領域候補の画像データについて濃度変化方向を示す特徴量を算出し、この特徴量に基づく画像分割処理によって得られる各部分画像の全画像に占める割合が閾値よりも大きい画像データをグラデーション領域に決定することが好ましい。これにより、画像データ全体(全画像)におけるグラデーション領域の分布割合を考慮しつつ、各グラデーション領域の決定が行えるため、その識別精度を向上させることができる。   Further, in this case, a feature amount indicating the density change direction is calculated for the gradation region candidate image data, and the ratio of each partial image obtained by the image division processing based on the feature amount to the entire image is larger than the threshold value. It is preferable to determine large image data as a gradation area. Thereby, since each gradation area can be determined in consideration of the distribution ratio of the gradation area in the entire image data (all images), the identification accuracy can be improved.

また、上記第1の識別部においては、第2の特徴量としての低周波成分へのエネルギー集中度が閾値より大きい画像データを文字領域候補の画像データと判定し、閾値より小さい画像データを網点領域に決定することが好ましい。   Further, the first identification unit determines that image data whose energy concentration on the low frequency component as the second feature amount is larger than a threshold value as image data of a character region candidate, and stores image data smaller than the threshold value in the network. It is preferable to determine the point area.

この場合、第1の特徴量としての低周波成分へのエネルギー比率が閾値よりも大きいか、あるいは、第1の特徴量としてのピークエネルギーの比率が閾値よりも小さいか、あるいは、第2の特徴量としての注目ブロックおよびその近傍ブロックのエネルギー相関度が閾値よりも小さいような上記文字領域候補の画像データを文字領域に決定することが好ましい。   In this case, the energy ratio to the low frequency component as the first feature quantity is larger than the threshold value, or the ratio of the peak energy as the first feature quantity is smaller than the threshold value, or the second feature. It is preferable to determine the character region candidate image data such that the energy correlation between the block of interest and its neighboring blocks as a quantity is smaller than a threshold value.

また、本発明の画像形成装置は、上記した画像処理装置を備えていることを特徴としている。よって、文字、網点、連続階調領域だけでなく、連続階調領域がグラデーション領域であるかどうか識別することができるので、品質の良い画像を出力(形成)することができる。   An image forming apparatus according to the present invention includes the above-described image processing apparatus. Therefore, it is possible to identify whether the continuous tone region is a gradation region as well as the character, halftone dot, and continuous tone region, so that a high-quality image can be output (formed).

また、本発明の画像処理方法は、上記課題を解決するために、入力された画像データから複素数で表される空間周波数特性を算出する空間周波数算出工程と、上記画像データから連続階調領域を識別する連続階調領域識別工程と、上記空間周波数特性の虚部に基づいて上記連続階調領域からグラデーション領域を検知するグラデーション領域検知工程とを含むことを特徴している。   In order to solve the above-described problem, the image processing method of the present invention includes a spatial frequency calculation step of calculating a spatial frequency characteristic represented by a complex number from input image data, and a continuous tone region from the image data. And a gradation region detecting step of detecting a gradation region from the continuous gradation region based on an imaginary part of the spatial frequency characteristic.

また、上記画像処理方法においては、上記空間周波数算出工程にて算出された空間周波数特性の実部から第1の特徴量を算出する第1特徴算出工程と、上記空間周波数算出工程にて算出された空間周波数特性の虚部から第2の特徴量を算出する第2特徴算出工程とをさらに含み、上記連続階調領域識別工程では、上記第1の特徴量に基づいて上記画像データから連続階調領域を識別し、上記グラデーション領域検知工程では、上記連続階調識別工程で連続階調領域と判断された画像データから上記第2の特徴量に基づいてグラデーション領域を検知することが好ましい。   In the image processing method, the first feature calculation step for calculating the first feature amount from the real part of the spatial frequency characteristic calculated in the spatial frequency calculation step and the spatial frequency calculation step are used. A second feature calculation step of calculating a second feature amount from the imaginary part of the spatial frequency characteristic, and in the continuous tone region identification step, a continuous step is determined from the image data based on the first feature amount. It is preferable that the tone area is identified, and in the gradation area detecting step, the gradation area is detected based on the second feature amount from the image data determined as the continuous tone area in the continuous tone identifying step.

さらに、記連続階調領域識別工程では、上記第1の特徴量としてのDC成分を除く全周波数成分のエネルギー総和が閾値より大きい画像データを連続階調領域と判定し、閾値より小さい画像データを文字領域あるいは網点領域と判定することが好ましい。   Further, in the continuous tone region identification step, image data in which the total energy of all frequency components excluding the DC component as the first feature amount is larger than a threshold value is determined as a continuous tone region, and image data smaller than the threshold value is determined. It is preferable to determine a character area or a halftone dot area.

また、上記グラデーション領域検知工程では、第2の特徴量としてのエネルギー総和の絶対値が閾値より小さく、かつ、第2の特徴量としてのエネルギーの絶対値総和が閾値より大きく、かつ、第2の特徴量としての第1水平方向所定成分におけるエネルギー総和と第2水平方向所定成分におけるエネルギー総和との和の絶対値が閾値より小さく、かつ、第2の特徴量としての第1垂直方向所定成分におけるエネルギー総和と第2垂直方向所定成分におけるエネルギー総和との和の絶対値が閾値よりも小さくなるような画像データをグラデーション領域候補の画像データと判定し、それ以外の画像データを非グラデーション領域に決定することが好ましい。この場合、上記グラデーション領域候補の画像データについて濃度変化方向を示す特徴量を算出し、この特徴量に基づく画像分割処理によって得られる各部分画像の全画像に占める割合が閾値よりも大きい画像データをグラデーション領域に決定することが好ましい。   In the gradation area detecting step, the absolute value of the total energy as the second feature amount is smaller than the threshold, the absolute sum of the energy as the second feature amount is larger than the threshold, and the second feature amount The absolute value of the sum of the energy sum in the first horizontal direction predetermined component as the feature amount and the energy sum in the second horizontal direction predetermined component is smaller than the threshold, and in the first vertical direction predetermined component as the second feature amount Image data for which the absolute value of the sum of the energy sum and the energy sum in the second vertical direction predetermined component is smaller than the threshold value is determined as gradation region candidate image data, and other image data is determined as a non-gradation region. It is preferable to do. In this case, a feature amount indicating the density change direction is calculated for the image data of the gradation region candidate, and image data in which the ratio of each partial image obtained by the image division processing based on the feature amount to the entire image is larger than the threshold value is obtained. It is preferable to determine the gradation area.

また、本発明のプログラムは、上記画像処理方法をコンピュータに実行させることを特徴としている。   The program of the present invention is characterized by causing a computer to execute the image processing method.

また、本発明の記録媒体は、上記のプログラムが、コンピュータに読み取り可能に格納されていることを特徴としている。   The recording medium of the present invention is characterized in that the above-described program is stored in a computer readable manner.

以上のように、本発明によれば、連続階調領域(写真領域)を、さらに階調再現性を重視すべきグラデーション領域と、ディテイル部再現性を重視すべき非グラデーション領域とに識別することができる。   As described above, according to the present invention, the continuous tone region (photo region) is further classified into a gradation region where tone reproducibility should be emphasized and a non-gradation region where detail portion reproducibility should be emphasized. Can do.

本発明に係る実施の一形態について図1〜図12に基づいて説明すれば以下の通りである。なお、以下の説明は、本発明をデジタル複写機に適用した場合についてのものであるが、これに限定されず、本発明は原画像の特性に応じた領域への識別処理を行う画像処理装置一般に広く適用できる。   An embodiment according to the present invention will be described below with reference to FIGS. The following description is for the case where the present invention is applied to a digital copying machine. However, the present invention is not limited to this, and the present invention is an image processing apparatus that performs an identification process for an area according to the characteristics of an original image. Generally applicable widely.

図2は、本実施の形態に係るデジタル複写機の構成を示すブロック図である。同図に示されるように、デジタル複写機10(画像形成装置)は、カラー画像入力装置7とカラー画像処理装置8(画像処理装置)とカラー画像出力装置9と操作パネル10とを備えている。   FIG. 2 is a block diagram showing the configuration of the digital copying machine according to the present embodiment. As shown in the figure, the digital copying machine 10 (image forming apparatus) includes a color image input device 7, a color image processing device 8 (image processing device), a color image output device 9, and an operation panel 10. .

カラー画像入力装置7は、例えばCCD(Charge Coupled Device)を備えており、このCCDによって読み取られた原稿からの反射光像を、RGB(R:赤・G:緑・B:青)のアナログ信号としてカラー画像処理装置8に入力する。   The color image input device 7 includes, for example, a CCD (Charge Coupled Device), and an RGB (R: red, G: green, B: blue) analog signal is obtained from the reflected light image read from the original read by the CCD. Is input to the color image processing apparatus 8.

カラー画像処理装置8(画像処理装置)は、アナログ/デジタル(以後「A/D」と略称する)変換部11と、シェーディング補正部12と、入力階調補正部13と、領域分離処理部14と、色補正部15と、墨生成下色除去部と、空間フィルタ処理部17と、中間調出力階調処理部18とを備えている。   The color image processing apparatus 8 (image processing apparatus) includes an analog / digital (hereinafter abbreviated as “A / D”) conversion unit 11, a shading correction unit 12, an input tone correction unit 13, and a region separation processing unit 14. A color correction unit 15, a black generation under color removal unit, a spatial filter processing unit 17, and a halftone output tone processing unit 18.

カラー画像入力装置7にて読み取られた画像データは、最初にカラー画像処理装置8内のA/D変換部11に入力され、ついで、シェーディング補正部12、入力階調補正部13、領域分離処理部14、色補正部15、墨生成下色除去部16、空間フィルタ処理部17、中間調出力階調処理部18の順で送られ、画像出力装置9へ出力される。   The image data read by the color image input device 7 is first input to the A / D conversion unit 11 in the color image processing device 8, and then the shading correction unit 12, the input tone correction unit 13, and the region separation process. Are sent in the order of the unit 14, the color correction unit 15, the black generation undercolor removal unit 16, the spatial filter processing unit 17, and the halftone output gradation processing unit 18, and are output to the image output device 9.

A/D変換部11においては、カラー画像入力装置8から与えられるRGB(R:赤・G:緑・B:青)画像データ(アナログの反射率信号)が、デジタル信号に変換される。シェーディング補正部12においては、A/D変換された画像データがシェーディング補正される。このシェーディング補正は、画像データ(反射率信号)から、画像入力装置7の照明系・結像系・および撮像系の構成に起因して発生した各種の歪みを取り除く処理である。   In the A / D conversion unit 11, RGB (R: red, G: green, B: blue) image data (analog reflectance signal) given from the color image input device 8 is converted into a digital signal. The shading correction unit 12 performs shading correction on the A / D converted image data. This shading correction is a process for removing various distortions caused by the configuration of the illumination system, the imaging system, and the imaging system of the image input device 7 from the image data (reflectance signal).

また、入力階調補正部13においては、シェーディング補正処理が施された画像データ(反射率信号)に入力階調補正が施される。この入力階調補正は、反射率信号を濃度信号等画像処理装置の扱いやすい信号に変換する処理である。なお、この入力階調補正部13においては、上記反射率信号にカラーバランス処理をさらに施しても構わない。   The input tone correction unit 13 performs input tone correction on the image data (reflectance signal) that has been subjected to the shading correction process. This input tone correction is a process of converting the reflectance signal into a signal that can be easily handled by the image processing apparatus such as a density signal. Note that the input tone correction unit 13 may further perform color balance processing on the reflectance signal.

領域分離処理部14においては、入力階調補正部13から出力された画像データ(RGBの濃度信号)に基づいて、画素毎あるいは複数の画素よりなるブロック毎に文字・網点・その他領域(文字・網点以外の領域)に分離する領域分離処理が行われる。この領域分離処理部14の結果である領域識別信号は、墨生成下色除去部16と空間フィルタ処理部17とに入力される。また、中間調出力階調処理部18に入力して構わない。なお、この領域分離処理部14については、後に詳述する。   In the region separation processing unit 14, based on the image data (RGB density signal) output from the input tone correction unit 13, a character / halftone dot / other region (character A region separation process is performed for separation into regions other than halftone dots). The region identification signal that is the result of the region separation processing unit 14 is input to the black generation and under color removal unit 16 and the spatial filter processing unit 17. Further, it may be input to the halftone output gradation processing unit 18. The region separation processing unit 14 will be described in detail later.

色補正部15においては、入力階調補正部13から出力された画像データ(RGBの濃度信号)がCMY(C:シアン・M:マゼンタ・Y:イエロー)の濃度信号に変換されるとともに、画像出力装置における色再現の忠実化実現のために、上記CMYの濃度信号に色補正処理が施される。この色補正処理は、不要吸収成分をそれぞれ含むCMYのトナーやインクの分光特性に基づいた色濁りを、CMYの画像データ(濃度信号)から取除く処理である。   In the color correction unit 15, the image data (RGB density signal) output from the input tone correction unit 13 is converted into a CMY (C: cyan, M: magenta, Y: yellow) density signal, and an image is also displayed. In order to realize faithful color reproduction in the output device, color correction processing is performed on the CMY density signals. This color correction process is a process of removing color turbidity based on the spectral characteristics of CMY toners and inks each containing unnecessary absorption components from CMY image data (density signal).

墨生成下色除去部16においては、色補正部15から出力されたCMYの画像データ(色信号)に対して、黒(K)の色信号を生成する墨生成処理を行われるるとともに、下色除去処理が施される。この下色除去処理は、CMYの色信号から墨生成処理で生成された黒の色信号を差し引いて新たなCMYの色信号を得る処理である。これにより、CMYKの画像データ(色信号)が生成される。   The black generation under color removal unit 16 performs black generation processing for generating a black (K) color signal for the CMY image data (color signal) output from the color correction unit 15 and Color removal processing is performed. This under color removal process is a process for obtaining a new CMY color signal by subtracting the black color signal generated by the black generation process from the CMY color signal. Thereby, CMYK image data (color signal) is generated.

空間フィルタ処理部17においては、墨生成下色除去部16で得られたCMYKの画像データに対して、デジタルフィルタを用いた空間フィルタ処理が施される。この空間フィルタ処理は、画像の空間周波数特性を補正し、カラー画像出力装置9への出力画像にぼやけや粒状性劣化が発生しないようにするものである。   In the spatial filter processing unit 17, spatial filter processing using a digital filter is performed on the CMYK image data obtained by the black generation and under color removal unit 16. This spatial filtering process corrects the spatial frequency characteristics of the image so that the output image to the color image output device 9 does not blur or deteriorate graininess.

中間調生成処理18においては、画像を複数の画素に分割して階調を再現できるように画像データが処理される。ここでは、2値や多値のディザ法・誤差拡散法等が用いられる。また、この中間調出力階調処理部18にて画像データの濃度値を画像出力装置9の特性値である網点面積率に変換しても構わない。   In the halftone generation process 18, the image data is processed so that the gradation can be reproduced by dividing the image into a plurality of pixels. Here, a binary or multi-value dither method, an error diffusion method, or the like is used. Further, the halftone output gradation processing unit 18 may convert the density value of the image data into a halftone dot area ratio which is a characteristic value of the image output device 9.

中間調出力階調処理部18によって処理された画像データ(濃度信号)はカラー画像出力装置9に出力される。このカラー画像出力装置9は、画像データを記録媒体(例えば紙等)上に出力するもので、例えば、電子写真方式やインクジェット方式を用いたカラー画像出力装置等を挙げることができる。むろんこれに限定されるものではない。   The image data (density signal) processed by the halftone output gradation processing unit 18 is output to the color image output device 9. The color image output device 9 outputs image data onto a recording medium (for example, paper). Examples of the color image output device 9 include a color image output device using an electrophotographic method or an inkjet method. Of course, it is not limited to this.

なお、以上のデジタル複写機10の動作は、操作パネル5からの信号が与えられる、例えば、CPU6(Central processing Unit)によって制御されている。   The operation of the digital copying machine 10 is controlled by, for example, a CPU 6 (Central processing Unit) to which a signal from the operation panel 5 is given.

以下に、領域分離処理部14について詳細に説明する。領域識別処理部14は、入力された画像データから得られる空間周波数特性に基づき、入力画像の文字領域と網点領域と連続階調領域とを識別するとともに、この連続階調領域を、階調再現性を重視すべきグラデーション領域と、ディテイル部再現性を重視すべき非グラデーション領域とに識別する。   Hereinafter, the region separation processing unit 14 will be described in detail. The area identification processing unit 14 identifies the character area, the halftone dot area, and the continuous tone area of the input image based on the spatial frequency characteristics obtained from the input image data. A distinction is made between a gradation region where reproducibility should be emphasized and a non-gradation region where detail portion reproducibility should be emphasized.

図1は、本実施の形態に係る領域分離処理部14の構成を表すブロック図である。   FIG. 1 is a block diagram showing the configuration of the region separation processing unit 14 according to the present embodiment.

同図に示されるように、領域分離処理部14は、空間周波数特性算出部14aと、第1特性解析部14bと、第2特性解析部14cと、領域識別処理部14dとを備えている。また、この領域識別処理部14dは、文字・網点・連続階調領域識別部14e(第1の識別部)と、グラデーション領域検知部14f(第2の識別部)とを備えている。   As shown in the figure, the region separation processing unit 14 includes a spatial frequency characteristic calculation unit 14a, a first characteristic analysis unit 14b, a second characteristic analysis unit 14c, and a region identification processing unit 14d. The region identification processing unit 14d includes a character / halftone dot / continuous tone region identification unit 14e (first identification unit) and a gradation region detection unit 14f (second identification unit).

入力階調補正部13から出力された画像データ(RGB)は空間周波数特性算出部14aに入力される。空間周波数特性算出部14aでは、複数の画素を含むブロックごとに空間周波数特性が複素数にて算出され、これが第1特性解析部14bおよび第2特性解析部14cに入力される。   The image data (RGB) output from the input tone correction unit 13 is input to the spatial frequency characteristic calculation unit 14a. In the spatial frequency characteristic calculation unit 14a, the spatial frequency characteristic is calculated as a complex number for each block including a plurality of pixels, and this is input to the first characteristic analysis unit 14b and the second characteristic analysis unit 14c.

第1特性解析部14bでは上記空間周波数特性の実部(以下、特性1とする)が解析され、第2特性解析部14cでは上記空間周波数特性の虚部(以下、特性2とする)が解析される。その結果、第1特性解析部14bから特徴量x(第1の特徴量)が抽出され、第2特性解析部14cからは特徴量y、y(第2の特徴量)が抽出される(特徴量xおよび特徴量y、yについては後に詳述する)。 The first characteristic analysis unit 14b analyzes the real part of the spatial frequency characteristic (hereinafter referred to as characteristic 1), and the second characteristic analysis unit 14c analyzes the imaginary part of the spatial frequency characteristic (hereinafter referred to as characteristic 2). Is done. As a result, a feature quantity x (first feature quantity) is extracted from the first characteristic analysis unit 14b, and feature quantities y 1 and y 2 (second feature quantity) are extracted from the second characteristic analysis unit 14c. (The feature amount x and the feature amounts y 1 and y 2 will be described in detail later).

そして、上記特徴量xおよび特徴yは領域識別処理部14dの文字・網点・連続階調領域識別部14eに入力される。また、特徴量yは、領域識別処理部14dのグラデーション領域検知部14fに入力される。 Then, the feature x and the feature y 1 is input to the character-dot-continuous tone area identifying unit 14e of the region identification processing section 14d. The feature quantity y 2 are input to the gradation area detecting unit 14f of the region identification processing section 14d.

文字・網点・連続階調領域識別部14eでは、特徴量xに基づいて文字あるいは網点領域と連続階調領域とが識別分離され、この文字あるいは網点領域が、特徴量xおよび特徴量yに基づいて文字領域と網点領域とに識別される。また、この文字・網点・連続階調領域識別部14eでは、連続階調領域とされたブロックのデータ(連続階調データ)がグラデーション領域検知部14fへ出力される。このデータが入力されたグラデーション領域検知部14fでは、第2特性解析部14cからの特徴量yに基づいて上記連続階調領域とされたブロックがグラデーション領域であるか非グラデーション領域であるかが識別(連続階調領域からグラデーション領域が検知)され、グラデーション領域であると判定されたブロックについては、グラデーション信号が文字・網点・連続階調領域識別部14eに出力される。 In the character / halftone dot / continuous tone area identifying unit 14e, a character or halftone dot area and a continuous tone area are discriminated and separated based on the feature quantity x. It identified in the character area and a halftone dot region based on y 1. Further, in this character / halftone dot / continuous tone area identifying unit 14e, the data (block tone data) of the block set as the continuous tone area is output to the gradation area detecting unit 14f. In gradation area detecting unit 14f this data is entered, either on the basis of the feature quantity y 2 from the second characteristic analyzer 14c is with the continuous tone region block is non-gradation area or a gradation region A gradation signal is output to the character / halftone dot / continuous gradation area identifying unit 14e for a block that is identified (a gradation area is detected from the continuous gradation area) and determined to be a gradation area.

領域判定処理部14dは、このようにして得られた各領域(文字・網点・グラデーション・非グラデーション領域)の識別結果を基に領域識別信号を生成し、墨生成下色除去部16、空間フィルタ処理部17および中間調生成処理18のそれぞれへ出力する。   The area determination processing unit 14d generates an area identification signal based on the identification result of each area (character, halftone dot, gradation, non-gradation area) obtained in this manner, and generates the black generation undercolor removal unit 16 and the space. Output to each of the filter processing unit 17 and the halftone generation processing 18.

以下に、図3〜図12を用いて、上記した各部の処理をより具体的に説明する。なお、以下の処理はRGBの画像データ全てに対して行っても良いし、下記の式(1)を用いて輝度Yを算出し、輝度に対してのみ行ってもかまわない。   Hereinafter, the processing of each unit described above will be described more specifically with reference to FIGS. The following processing may be performed on all the RGB image data, or may be performed only on the luminance by calculating the luminance Y using the following equation (1).

Figure 2005267119
Figure 2005267119

空間周波数特性算出部14aは、入力された画像データからブロック毎の空間周波数特性を算出するものである。この算出には、例えば2次元フーリエ変換が用いられる。フーリエ変換は公知の処理アルゴリズムの実行により実現できる(「画像解析ハンドブック<東京大学出版会> p.5〜26」参照)。以下に2次元離散フーリエ変換の式を示す。   The spatial frequency characteristic calculator 14a calculates the spatial frequency characteristic for each block from the input image data. For this calculation, for example, a two-dimensional Fourier transform is used. The Fourier transform can be realized by executing a known processing algorithm (see “Image Analysis Handbook <The University of Tokyo Press> p. 5 to 26”). The formula of the two-dimensional discrete Fourier transform is shown below.

Figure 2005267119
Figure 2005267119

但し、式(2)における However, in formula (2)

Figure 2005267119
Figure 2005267119

は、関数 Is a function

Figure 2005267119
Figure 2005267119

の2次元離散フーリエ変化結果を表す。
また、関数
Represents the two-dimensional discrete Fourier change result.
And function

Figure 2005267119
Figure 2005267119

は次のようにも表される。 Is also expressed as:

Figure 2005267119
Figure 2005267119

空間周波数特性算出部14aでは、入力画像を走査してM×N画素ブロックに分割し、M×N画素ブロック毎に二次元離散フーリエ変換を施してM×Nブロックの複素数からなる空間周波数特性を算出し(空間周波数算出工程)、その実部を特性1、虚部を特性2として用いる。   In the spatial frequency characteristic calculation unit 14a, the input image is scanned and divided into M × N pixel blocks, and a two-dimensional discrete Fourier transform is applied to each M × N pixel block to obtain a spatial frequency characteristic composed of complex numbers of M × N blocks. The real part is used as characteristic 1 and the imaginary part is used as characteristic 2.

ここで、図5(a)〜(c)は、それぞれ文字画像、網点画像、連続階調画像であり、図5(d)〜(f)は、それぞれ図5(a)〜(c)の各画像に対して、二次元離散フーリエ変換を施して得られる空間周波数特性の実部(特性1)を示す。また、図5(g)〜(i)はそれぞれ図5(a)〜(c)の各画像に対して、二次元離散フーリエ変換を施して得られる空間周波数特性の虚部(特性2)を示す。また、図12は、図5(d)〜(i)に示す各画像の特性1および特性2をまとめたものである。   Here, FIGS. 5A to 5C are a character image, a halftone dot image, and a continuous tone image, respectively, and FIGS. 5D to 5F are FIGS. 5A to 5C, respectively. The real part (characteristic 1) of the spatial frequency characteristic obtained by performing two-dimensional discrete Fourier transform on each of the images is shown. 5 (g) to 5 (i) show the imaginary part (characteristic 2) of the spatial frequency characteristics obtained by performing two-dimensional discrete Fourier transform on the images of FIGS. 5 (a) to 5 (c), respectively. Show. FIG. 12 summarizes the characteristics 1 and 2 of each image shown in FIGS.

図5(d)〜(f)および図12に示されるように、文字画像(データ)を二次元離散フーリエ変換して得られる空間周波数特性(特性1)は文字のサイズに依存し、小さい文字は高周波側に、大きい文字は低周波側に分布する。網点画像(データ)を二次元離散フーリエ変換して得られる空間周波数特性(特性1)は、網点周期に依存し、高線数は高周波側に、低線数は低周波側に分布する。連続階調画像(データ)を二次元離散フーリエ変換して得られる空間周波数特性(特性1)は、低周波側、特にDC成分に分布する。   As shown in FIGS. 5D to 5F and FIG. 12, the spatial frequency characteristic (characteristic 1) obtained by two-dimensional discrete Fourier transform of a character image (data) depends on the character size, and is small. Are distributed on the high frequency side, and large letters are distributed on the low frequency side. Spatial frequency characteristics (characteristic 1) obtained by two-dimensional discrete Fourier transform of a halftone dot image (data) depend on the halftone dot period, and the high line number is distributed on the high frequency side and the low line number is distributed on the low frequency side. . The spatial frequency characteristic (characteristic 1) obtained by two-dimensional discrete Fourier transform of a continuous tone image (data) is distributed on the low frequency side, particularly on the DC component.

また、図5(g)〜(i)および図12に示されるように、文字画像(データ)を二次元離散フーリエ変換して得られる空間周波数特性(特性2)は、近傍ブロックと異なる分布になる。網点画像(データ)を二次元離散フーリエ変換して得られる空間周波数特性(特性2)は、近傍ブロックと同様の分布となる。連続階調画像(データ)を二次元離散フーリエ変換して得られる空間周波数特性(特性2)は、ブロック内の濃度変化がほとんどない限り、分布が認められない。   As shown in FIGS. 5G to 5I and FIG. 12, the spatial frequency characteristic (characteristic 2) obtained by two-dimensional discrete Fourier transform of the character image (data) has a distribution different from that of the neighboring blocks. Become. A spatial frequency characteristic (characteristic 2) obtained by two-dimensional discrete Fourier transform of a halftone image (data) has a distribution similar to that of a neighboring block. Distribution of spatial frequency characteristics (characteristic 2) obtained by two-dimensional discrete Fourier transform of a continuous tone image (data) is not recognized unless there is almost no density change in the block.

第1特性解析部14bは、図1に示すように、空間周波数特性算出部14aにおいて算出された空間周波数特性の1つである特性1を解析し、文字、網点、連続階調領域を識別する特徴量x(第1の特徴量)、すなわち、DC成分を除く全周波数成分のエネルギー総和および低周波領域へのエネルギー集中度並びにエネルギーのピークとエネルギー総和との割合を算出し(第1特徴算出工程)、出力する。   As shown in FIG. 1, the first characteristic analysis unit 14b analyzes the characteristic 1, which is one of the spatial frequency characteristics calculated by the spatial frequency characteristic calculation unit 14a, and identifies characters, halftone dots, and continuous tone regions. Feature amount x (first feature amount), that is, the energy sum of all frequency components excluding the DC component, the energy concentration in the low frequency region, and the ratio between the energy peak and the energy sum (first feature) Calculation step) and output.

また、第2特性解析部14cは、図1に示すように、空間周波数特性算出部14aにおいて算出された空間周波数特性の1つである特性2を解析し、文字、網点、連続階調領域を識別する特徴量y(第2の特徴量)、すなわち、注目ブロックと近傍ブロックとのエネルギー相関度および中心(DC成分近傍)へのエネルギー集中度を算出(第2特徴算出工程)する。 Further, as shown in FIG. 1, the second characteristic analysis unit 14 c analyzes the characteristic 2 that is one of the spatial frequency characteristics calculated by the spatial frequency characteristic calculation unit 14 a, so that characters, halftone dots, continuous tone regions wherein identifying the quantity y 1 (second feature amount), i.e., calculates the energy concentration degree of the energy correlation and the center of the subject block and the neighboring block (DC component vicinity) (second feature calculation step).

さらに、第2特徴解析部14cは、連続階調領域からグラデーションを検知するための特徴量y(第2の特徴量)を算出し(第2特徴算出工程)、グラデーション領域検知部14fへ出力する。 Further, the second feature analysis unit 14c calculates a feature amount y 2 (second feature amount) for detecting gradation from the continuous tone region (second feature calculation step), and outputs it to the gradation region detection unit 14f. To do.

ここで、図6(a)〜(c)は各種のグラデーション画像であり、図6(d)〜(f)は、それぞれ図6(a)〜(c)に示す画像に2次元フーリエ変換を施して得られた空間周波数特性(特性2)である。また、図6(g)〜(i)に、DC成分を中心とする水平あるいは垂直方向に関する特性2を示す。   Here, FIGS. 6A to 6C are various gradation images, and FIGS. 6D to 6F are two-dimensional Fourier transforms on the images shown in FIGS. 6A to 6C, respectively. It is the spatial frequency characteristic (characteristic 2) obtained by giving. 6 (g) to 6 (i) show characteristic 2 relating to the horizontal or vertical direction centering on the DC component.

図6(a)に示される画像は水平方向にのみ濃度変化を有しており、これに対応する図6(d)においても、水平方向にのみ分布している。同じくこれに対応する図6(g)においては、垂直方向の分布が見られず、水平方向において、中心(線)の中点を対称点としてほぼ点対称に分布している。図6(b)に示される画像は垂直方向にのみ濃度変化を有しており、これに対応する図6(e)においても、垂直方向にのみ分布している。同じくこれに対応する図6(h)においては、水平方向には分布が見られず、垂直方向において、中心(線)の中点を対称点としてほぼ点対称に分布している。図6(c)に示される画像は垂直方向および水平方向に濃度変化を有しており、これに対応する図6(f)においても、垂直方向および水平方向に分布している。同じくこれに対応する図6(i)においては、水平および垂直方向には分布が見られ、垂直および水平方向に関し、中心(線)の中点を対称点としてほぼ点対称に分布している。   The image shown in FIG. 6A has a density change only in the horizontal direction, and in FIG. 6D corresponding thereto, the image is distributed only in the horizontal direction. Similarly, in FIG. 6G corresponding to this, no vertical distribution is seen, and in the horizontal direction, the distribution is almost point-symmetric with the midpoint of the center (line) as the symmetry point. The image shown in FIG. 6B has a density change only in the vertical direction, and in FIG. 6E corresponding thereto, the image is distributed only in the vertical direction. Similarly, in FIG. 6H corresponding to this, no distribution is seen in the horizontal direction, and in the vertical direction, the distribution is almost point-symmetrical with the midpoint of the center (line) as the symmetry point. The image shown in FIG. 6C has density changes in the vertical direction and the horizontal direction, and is also distributed in the vertical direction and the horizontal direction in FIG. 6F corresponding thereto. Similarly, in FIG. 6 (i) corresponding thereto, distribution is seen in the horizontal and vertical directions, and the distribution is substantially point-symmetric with respect to the midpoint of the center (line) in the vertical and horizontal directions.

このように、連続階調領域のグラデーション領域においては、空間周波数特(特性2)がDC成分を中心として点対象に分布する傾向がある。   As described above, in the gradation region of the continuous tone region, the spatial frequency characteristic (characteristic 2) tends to be distributed to the point object around the DC component.

そこで、グラデーション領域検知部14fでは、特性2の分布が点対称であるかどうかを判定するために、特徴量y、すなわち、エネルギー総和および水平方向所定成分におけるエネルギー総和並びに垂直方向所定成分におけるエネルギー総和を抽出する。また、上記水平方向所定成分におけるエネルギー総和および垂直方向所定成分におけるエネルギー総和を用いて濃度変化方向を示す特徴量zを抽出する。 Therefore, in the gradation area detection unit 14f, in order to determine whether or not the distribution of the characteristic 2 is point-symmetric, the feature amount y 2 , that is, the energy sum and the energy sum in the horizontal direction predetermined component and the energy in the vertical direction predetermined component. Extract the sum. Further, the feature amount z indicating the density change direction is extracted by using the total energy in the predetermined component in the horizontal direction and the total energy in the predetermined component in the vertical direction.

以下に、上記の第1特性解析部14b、第2特徴解析部14cについてより詳細に説明する。図7(a)(b)は、特性1、2の水平および垂直方向成分を示す座標平面図である。すなわち、F(i,j)は、特性1あるいは特性2を示し、iは周波数成分の水平方向成分(−M/2≦i≦M/2),jは周波数成分の垂直方向成分(−N/2≦j≦N/2)である。上記のF(i,j)((i,j)≒(0,0))は、特性1あるいは特性2の何れかのAC成分であり、図7(b)中のDC成分は、特性1あるいは特性2のいずれかにおけるF(0,0)である。   Hereinafter, the first characteristic analysis unit 14b and the second feature analysis unit 14c will be described in more detail. 7A and 7B are coordinate plan views showing horizontal and vertical components of characteristics 1 and 2. FIG. That is, F (i, j) indicates characteristic 1 or characteristic 2, i is the horizontal component of the frequency component (−M / 2 ≦ i ≦ M / 2), and j is the vertical component of the frequency component (−N / 2 ≦ j ≦ N / 2). F (i, j) ((i, j) ≈ (0,0)) is an AC component of either characteristic 1 or characteristic 2, and the DC component in FIG. Or it is F (0, 0) in any of the characteristics 2.

また、図8(a)は、特性1あるいは特性2における低周波領域(0<|i|<M/4,0<|j|<N/4)と高周波領域(M/4≦|i|<M/2,N/4≦|j|<N/2)とを示している。図8(b)は、特性1あるいは特性2における第1象限(0<i<M/2,0<j<N/2)と第2象限(−M/2<i<0,0<j<N/2)と第3象限(−M/2<i<0,−N/2<j<0)と第4象限(0<i<M/2,−N/2<j<0)を示している。また、図9(a)は、特性2における低周波領域(0<|i|<M/4,0<|j|<N/4)と高周波領域(M/4≦|i|<M/2,N/4≦|j|<N/2)とを示している。図9(b)は、特性2における区分1(0<i<M/2,j=0)と区分2(i=0,0<j<N/2)と区分3(−M/2<i<0,j=0)と区分4(i=0,−N/2<j<0)とを示している。   FIG. 8A shows a low-frequency region (0 <| i | <M / 4, 0 <| j | <N / 4) and a high-frequency region (M / 4 ≦ | i | <M / 2, N / 4 ≦ | j | <N / 2). FIG. 8B shows the first quadrant (0 <i <M / 2, 0 <j <N / 2) and the second quadrant (−M / 2 <i <0, 0 <j) in characteristic 1 or characteristic 2. <N / 2) and the third quadrant (-M / 2 <i <0, -N / 2 <j <0) and the fourth quadrant (0 <i <M / 2, -N / 2 <j <0) Is shown. FIG. 9A shows a low frequency region (0 <| i | <M / 4, 0 <| j | <N / 4) and a high frequency region (M / 4 ≦ | i | <M / 2, N / 4 ≦ | j | <N / 2). FIG. 9 (b) shows a category 1 (0 <i <M / 2, j = 0), a category 2 (i = 0, 0 <j <N / 2), and a category 3 (−M / 2 <in the characteristic 2). i <0, j = 0) and section 4 (i = 0, −N / 2 <j <0).

網点における特性1の分布は、ある周波数においてピークを有し、それ以外の部分には、それほど大きなエネルギーは分布しない。それに対して、文字における特性1の分布は、ピーク以外にも大きなエネルギーが存在する。また、文字領域における特性1の分布は比較的低周波に分布し、連続階調における特性1の分布は、DC(直流)成分に集中している。このため、第1特性解析部14bは、上記のとおり、特性1を解析して、DC成分(図7(b)参照)を除く全周波数成分のエネルギー総和および低周波領域へのエネルギーの集中度並びにエネルギーのピークとエネルギー総和との割合を算出する(特徴量xの算出)。   The distribution of the characteristic 1 at the halftone dot has a peak at a certain frequency, and not so much energy is distributed in other portions. On the other hand, the distribution of the characteristic 1 in the character has a large energy other than the peak. Further, the distribution of the characteristic 1 in the character area is distributed at a relatively low frequency, and the distribution of the characteristic 1 in the continuous tone is concentrated on the DC (direct current) component. For this reason, as described above, the first characteristic analysis unit 14b analyzes the characteristic 1, and sums the energy of all frequency components excluding the DC component (see FIG. 7B) and the degree of energy concentration in the low frequency region. In addition, the ratio between the energy peak and the energy sum is calculated (calculation of the feature amount x).

ここで、上記DC成分を除く全周波数成分のエネルギー総和は、DC成分を除いた全周波数成分のエネルギー絶対値総和Sum_feature1を算出することにより算出される。   Here, the energy sum of all frequency components excluding the DC component is calculated by calculating the energy absolute value sum Sum_feature1 of all frequency components excluding the DC component.

Figure 2005267119
Figure 2005267119

ただし、式(7)ではDC成分を除くために、ブロック内全体エネルギー絶対値総和からF(0,0)を減算することにより、算出している。   However, in Expression (7), in order to remove the DC component, the calculation is performed by subtracting F (0, 0) from the total absolute energy value in the block.

また、上記低周波領域へのエネルギーの集中度は、図8(a)に示されるように、特性1を、DC成分を除く低周波成分と高周波成分とに分け、低周波成分におけるエネルギー絶対値総和と、DC成分を除く全周波数成分におけるエネルギー絶対値総和Sum_feature1との比率Ratio_low_feature1に基づいて算出される。   In addition, as shown in FIG. 8A, the degree of energy concentration in the low frequency region is obtained by dividing the characteristic 1 into a low frequency component excluding a DC component and a high frequency component, and an absolute energy value in the low frequency component. It is calculated based on the ratio Ratio_low_feature1 between the sum and the absolute energy value sum Sum_feature1 in all frequency components excluding the DC component.

Figure 2005267119
Figure 2005267119

また、エネルギーのピークとエネルギー総和との割合は、図9(b)に示すように、周波数特性を第1象限、第2象限、第3象限、第4象限に分け、各象限毎に絶対値が最大となるエネルギーを抽出し、それぞれMax、Max、Max、Maxとする。このとき、エネルギーのピークとDC成分を除く全周波数成分のエネルギー絶対値総和Sum_feature1との割合Ratio_max_feature1は下記式(9)に基づいて算出される。 Further, as shown in FIG. 9 (b), the ratio between the energy peak and the energy sum is divided into the first quadrant, the second quadrant, the third quadrant, and the fourth quadrant, and the absolute value for each quadrant. Are extracted, and are set as Max 1 , Max 2 , Max 3 , and Max 4 , respectively. At this time, the ratio Ratio_max_feature1 of the energy peak sum and the energy absolute value sum Sum_feature1 of all frequency components excluding the DC component is calculated based on the following formula (9).

Figure 2005267119
Figure 2005267119

以上の処理により、第1特性解析部14bから、文字、網点、連続階調領域を識別するための特徴量x、すなわち、DC成分を除く全周波数成分のエネルギー絶対値総和Sum_feature1、および低周波成分におけるエネルギー絶対値総和とDC成分を除く全周波数成分のエネルギー絶対値総和Sum_feature1との比率Ratio_low_feature1、並びにエネルギーのピークとSum_feature1との割合Ratio_max_feature1が算出され、文字・網点・連続階調領域識別部14eへ出力される。   As a result of the above processing, the feature amount x for identifying characters, halftone dots, and continuous tone regions, that is, the sum of absolute energy values Sum_feature1 of all frequency components excluding DC components, and the low frequency from the first characteristic analysis unit 14b. The ratio Ratio_low_feature1 of the sum of absolute energy values in the components and the sum of absolute energy values Sum_feature1 of all frequency components excluding the DC component, and the ratio Ratio_max_feature1 of the energy peak and Sum_feature1 are calculated, and the character / halftone / continuous tone region identification unit 14e.

一般的に網点における特性2は、ある周波数においてピークを有し、それ以外の部分には、それほど大きなエネルギーは分布しない。それに対して、文字における特性2は、主にDC成分近傍に分布する。また、網点における特性2は、近傍ブロックにおけるそれと相関が高いのに対し、文字における特性2は、近傍ブロックにおけるそれと相関が低い。   Generally, the characteristic 2 at the halftone dot has a peak at a certain frequency, and so much energy is not distributed in other portions. On the other hand, the characteristic 2 in the character is distributed mainly in the vicinity of the DC component. Further, the characteristic 2 in the halftone dot has a high correlation with that in the neighboring block, whereas the characteristic 2 in the character has a low correlation with that in the neighboring block.

そこで、第2特性解析部14cは、特性2を解析し、注目ブロックと近傍ブロックとのエネルギー相関度および中心へのエネルギー集中度を算出(特徴量yの算出)し、これをグラデーション領域検知部14fへ出力する。 Therefore, the second characteristic analyzer 14c analyzes the characteristics 2, calculates the energy concentration degree of the energy correlation and the center of the subject block and the neighboring block (calculating the feature quantity y 1), which gradation area detection To the unit 14f.

上記注目ブロックと近傍ブロックとのエネルギー相関度は、注目ブロックと各方向に隣り合う近傍ブロックの間の各周波数成分における分散値を用いて算出される。ここで、図10(a)は特性2を表すF(i,j)を示すものであり、M、Nはブロックの垂直、水平方向座標を示し、iは各ブロックにおける周波数成分の垂直方向成分(−M/2≦i≦M/2),jは周波数成分の水平方向成分(−N/2≦j≦N/2)である。図10(b)は、注目M×Nブロック(M×Nブロックからなる周波数特性)F(x,y)を中心とした3×3マスクを示している。   The degree of energy correlation between the block of interest and the neighboring block is calculated using a variance value in each frequency component between the block of interest and the neighboring block adjacent in each direction. Here, FIG. 10A shows F (i, j) representing the characteristic 2, M and N indicate the vertical and horizontal coordinates of the block, and i is the vertical component of the frequency component in each block. (−M / 2 ≦ i ≦ M / 2), j is a horizontal component (−N / 2 ≦ j ≦ N / 2) of the frequency component. FIG. 10B shows a 3 × 3 mask centered on an M × N block of interest (frequency characteristics composed of M × N blocks) F (x, y).

図10(a)・(b)に示されるように、M×Nブロックからなる分散値Varは、下記の式(10)により算出される。   As shown in FIGS. 10A and 10B, the variance value Var composed of M × N blocks is calculated by the following equation (10).

Figure 2005267119
Figure 2005267119

注目ブロックと近傍ブロックとのエネルギー相関度Corr_feature2は、下記式(11)を用いて、M×Nブロックからなる上記の分散値Varの平均値を算出することにより求められる。ただし、値が小さいほど相関度が高いことを示している。   The energy correlation degree Corr_feature2 between the block of interest and the neighboring block is obtained by calculating the average value of the variance values Var composed of M × N blocks using the following equation (11). However, the smaller the value, the higher the degree of correlation.

Figure 2005267119
Figure 2005267119

中心へのエネルギー集中度は、第1特性解析部14bと同様にして、図9(a)に示すように特性1を、低周波成分、高周波成分に分け、低周波成分におけるエネルギーの絶対値総和と全周波数成分におけるエネルギーの絶対値総和との比率Ratio_low_feature2に基づいて算出される。   As in the first characteristic analysis unit 14b, the energy concentration at the center is divided into a low frequency component and a high frequency component, as shown in FIG. 9A, and the sum of absolute values of energy in the low frequency component. And the ratio Ratio_low_feature2 of the absolute value sum of energy in all frequency components.

Figure 2005267119
Figure 2005267119

さらに、第2特性解析部14cは、グラデーションを検知するために特性2を解析して、
エネルギー総和と、エネルギーの絶対値総和と、水平方向所定成分におけるエネルギー総和と、垂直方向所定成分におけるエネルギー総和とを算出(特徴量yの算出)し、これらをグラデーション領域検知部14fに出力する。
Further, the second characteristic analysis unit 14c analyzes the characteristic 2 in order to detect gradation,
The energy sum, the absolute energy sum, the energy sum in the horizontal predetermined component, and the energy sum in the vertical predetermined component are calculated (calculation of the feature amount y 2 ), and these are output to the gradation area detection unit 14 f. .

上記のエネルギー総和Sum_feature2は下記式(13)により算出される。   The energy sum Sum_feature2 is calculated by the following equation (13).

Figure 2005267119
Figure 2005267119

また、エネルギーの絶対値総和Sum_abs_feature2は下記式(14)により算出される。   Also, the absolute value sum Sum_abs_feature2 of energy is calculated by the following equation (14).

Figure 2005267119
Figure 2005267119

水平方向所定成分におけるエネルギーに関しては、図9(b)に図示した区分1、及び、区分3におけるエネルギー総和をそれぞれ算出する。区分1におけるエネルギー総和をH1_feature2(第1水平方向所定成分におけるエネルギー総和)、区分3におけるエネルギー総和をH3_feature2(第2水平方向所定成分におけるエネルギー総和)とし、下記式(15)(16)を用いて算出する。   With respect to the energy in the predetermined component in the horizontal direction, the total energy in sections 1 and 3 shown in FIG. 9B is calculated. The energy sum in section 1 is H1_feature2 (total energy in the first horizontal direction predetermined component), the energy sum in section 3 is H3_feature2 (energy sum in the second horizontal direction predetermined component), and the following equations (15) and (16) are used. calculate.

Figure 2005267119
Figure 2005267119

垂直方向所定成分におけるエネルギーに関しては、図9に図示した区分2、及び、区分4におけるエネルギー総和をそれぞれ算出する。区分2におけるエネルギー総和をV2_feature2(第1垂直方向所定成分におけるエネルギー総和)、区分4におけるエネルギー総和をV4_feature2(第2垂直方向所定成分におけるエネルギー総和)とし、下記式(17)(18)を用いて算出する。   With respect to the energy in the vertical direction predetermined component, the total energy in sections 2 and 4 shown in FIG. 9 is calculated. The energy sum in section 2 is V2_feature2 (total energy in the first vertical direction predetermined component), the energy sum in section 4 is V4_feature2 (energy sum in the second vertical direction predetermined component), and the following equations (17) and (18) are used. calculate.

Figure 2005267119
Figure 2005267119

以上のように、第1特性解析部14bと第2特性解析部14cからの各特徴量は、領域識別処理部14dに入力される。これを図3にまとめて示す。図3に示されるように第1特性解析部からは、上記Sum_feature1と、上記Ratio_low_feature1と、上記Ratio_max_feature1とが領域識別処理部14dへ出力される。一方、第2特性解析部からは、Corr_feature2と、Ratio_low_feature2とが文字・網点・連続階調領域識別部14eへ出力され、Sum_feature2と、Sum_abs_feature2と、H1_feature2と、H3_feature2と、V2_feature2と、V4_feature2とがグラデーション領域検知部14fへ出力される。   As described above, the feature amounts from the first characteristic analysis unit 14b and the second characteristic analysis unit 14c are input to the region identification processing unit 14d. This is summarized in FIG. As shown in FIG. 3, the Sum_feature1, the Ratio_low_feature1, and the Ratio_max_feature1 are output from the first characteristic analysis unit to the region identification processing unit 14d. On the other hand, Corr_feature2 and Ratio_low_feature2 are output from the second characteristic analysis unit to the character / halftone dot / continuous tone area identification unit 14e, and Sum_feature2, Sum_abs_feature2, fe1_feature2, H3_feature2, H3_feature2, H3_feature2, and H3_feature2 It is output to the gradation area detection unit 14f.

次に、領域識別処理部14dにおける識別処理の流れを詳細に説明する。   Next, the flow of identification processing in the region identification processing unit 14d will be described in detail.

上記のとおり、領域識別処理部14dは、文字・網点・連続階調領域識別部14eとグラデーション領域検知部14fとを備え、第1特性解析部14bおよび第2特性解析部14cから出力された特徴量x、y、yに基づいて、文字、網点、(連続階調)グラデーション領域、(連続階調)非グラデーション領域を識別し、グラデーション信号を文字・網点・連続階調領域識別部14eに出力する。 As described above, the region identification processing unit 14d includes the character / halftone dot / continuous tone region identification unit 14e and the gradation region detection unit 14f, and is output from the first characteristic analysis unit 14b and the second characteristic analysis unit 14c. Characters, halftone dots, (continuous gradation) gradation areas, and (continuous gradation) non-gradation areas are identified on the basis of feature quantities x, y 1 , y 2 , and gradation signals are identified as character / halftone / continuous gradation areas. It outputs to the identification part 14e.

先にも述べたように、一般的に網点における特性1の分布は、ある周波数においてピークを有し、それ以外の部分には、それほど大きなエネルギーは分布しない。それに対して、文字における特性1の分布は、ピーク以外にも大きなエネルギーが存在する。また、文字領域における特性1の分布は比較的低周波に分布し、連続階調における特性1の分布は、直流成分に集中している。また、一般的に網点における特性2は、ある周波数においてピークを有し、それ以外の部分には、それほど大きなエネルギーは分布しない。それに対して、文字における特性2は、主にDC成分近傍に分布する。また、網点における特性2は、近傍ブロックにおけるそれと相関が高いのに対し、文字における特性2は、近傍ブロックにおけるそれと相関が低い。   As described above, in general, the distribution of the characteristic 1 at the halftone dots has a peak at a certain frequency, and not much energy is distributed in other portions. On the other hand, the distribution of the characteristic 1 in the character has a large energy other than the peak. Further, the distribution of the characteristic 1 in the character region is distributed at a relatively low frequency, and the distribution of the characteristic 1 in the continuous tone is concentrated on the direct current component. In general, the characteristic 2 at the halftone dot has a peak at a certain frequency, and so much energy is not distributed in other portions. On the other hand, the characteristic 2 in the character is distributed mainly in the vicinity of the DC component. Further, the characteristic 2 in the halftone dot has a high correlation with that in the neighboring block, whereas the characteristic 2 in the character has a low correlation with that in the neighboring block.

図4は、領域識別処理部14dによる、文字/網点/(連続階調)グラデーション/(連続階調)非グラデーション領域の識別処理手順を示すフローチャートである。   FIG. 4 is a flowchart showing a procedure for identifying a character / halftone dot / (continuous tone) gradation / (continuous tone) non-gradation region by the region identification processing unit 14d.

まず、ステップ20(連続階調領域識別工程)は、文字・網点・連続階調領域識別部14eにて行われ、特性1から算出されたDC成分を除くエネルギー絶対値総和Sum_feature1と所定閾値TH_SUM_FEATURE1(例えば64×M×N)とを比較する(式(19))。   First, step 20 (continuous tone region identifying step) is performed by the character / halftone dot / continuous tone region identifying unit 14e, and the energy absolute value sum Sum_feature1 excluding the DC component calculated from the characteristic 1 and a predetermined threshold TH_SUM_FEATURE1. (For example, 64 × M × N) is compared (formula (19)).

Figure 2005267119
Figure 2005267119

ここで、式(19)が成立する場合(yes)、次の文字/網点を識別するステップ21へ進む。(S20→S21)、式(19)が成立しない場合(no)、グラデーション/非グラデーションを識別するためのステップ23へ進む。(S20→S23)
ステップ21は、文字・網点・連続階調領域識別部14eにて行われ、特性2から算出された低周波成分のエネルギー比率Ratio_low_feature2と所定閾値TH_LOW_FEATURE2(例えば0.5)とを比較する(式(20))。
If equation (19) holds (yes), the process proceeds to step 21 for identifying the next character / halftone dot. (S20 → S21), if equation (19) is not satisfied (no), the process proceeds to step 23 for identifying gradation / non-gradation. (S20 → S23)
Step 21 is performed by the character / halftone dot / continuous tone region identification unit 14e, and compares the energy ratio Ratio_low_feature2 of the low frequency component calculated from the characteristic 2 with a predetermined threshold TH_LOW_FEATURE2 (for example, 0.5) (formula 0.5). (20)).

Figure 2005267119
Figure 2005267119

ここで、式(20)が成立する場合(yes)、別条件にて再度文字/網点を識別するステップ22へ進む。(S21→S22)、式(20)が成立しない場合(no)、網点であると判定する(S21→S26)。   Here, when the formula (20) is satisfied (yes), the process proceeds to step 22 in which a character / halftone dot is identified again under another condition. (S21 → S22), if the expression (20) is not satisfied (no), it is determined that the dot is a halftone dot (S21 → S26).

ステップ22は、文字・網点・連続階調領域識別部14eにて行われ、特徴1から算出された低周波成分のエネルギー比率Ratio_low_feature1と所定閾値TH_LOW_FEATURE1(例えば0.5)とを比較し(式(21))、また、特性1から算出されたピークエネルギーの比率Ratio_max_feature1(例えば0.3)と所定閾値TH_MAX_FEATURE1とを比較し(式(22))、また、特性2から算出された近傍ブロックとの相関度Corr_feature2と所定閾値TH_CORR_FEATURE2(例えば25×M×N)とを比較する(式(23))。 Step 22 is performed by the character / halftone dot / continuous tone region identification unit 14e, and compares the energy ratio Ratio_low_feature1 of the low frequency component calculated from the feature 1 with a predetermined threshold TH_LOW_FEATURE1 (for example, 0.5) (formula (21) )), The ratio of the peak energy Ratio_max_feature1 (for example, 0.3) calculated from the characteristic 1 is compared with a predetermined threshold TH_MAX_FEATURE1 (formula (22)), and the correlation with the neighboring block calculated from the characteristic 2 The degree Corr_feature2 is compared with a predetermined threshold TH_CORR_FEATURE2 (for example, 25 × M 2 × N 2 ) (formula (23)).

Figure 2005267119
Figure 2005267119

ここで、式(21)〜(23)のうち何れかの式が成立する場合(yes)、文字領域であると判定する(S22→S25)。式(21)〜(23)のいずれの式も成立しない場合(no)、網点であると判定する(S22→S26)。   Here, when any one of the expressions (21) to (23) is satisfied (yes), it is determined that the area is a character area (S22 → S25). If none of the equations (21) to (23) is established (no), it is determined that the dot is a halftone dot (S22 → S26).

ステップ23(グラデーション領域検知工程)は、グラデーション領域検知部14fにて行われる。上記のとおり、(連続階調)グラデーション領域では、特性2の分布がDC成分を中心とした点対称にちかくなる。本ステップでは、下記に示す4つの式を用いて分布が点対象であるかどうか判定する。   Step 23 (gradation area detection step) is performed by the gradation area detection unit 14f. As described above, in the (continuous tone) gradation region, the distribution of the characteristic 2 is symmetric with respect to the DC component. In this step, it is determined whether or not the distribution is a point object using the following four equations.

すなわち、特性2から算出されたエネルギー総和Sum_feature2の絶対値と所定閾値TH_SUM_FEATURE2(ほぼゼロに近い値)を比較し(式(24))、また、特性2から算出されたエネルギーの絶対値総和Sun_abs_feature2と所定閾値TH_SUM_ABS_FEATURE2(例えば1.0×M×N)を比較し(式(25))、また、特性2から算出されたエネルギー総和H1_feature2とH3_fesature2との和の絶対値と、所定閾値TH_SUM_H_FEATURE2(ほぼゼロに近い値)とを比較し(式(26))、また、特性2から算出された垂直方向所定成分におけるエネルギー総和V2_feature2とV4_fesature2との和の絶対値と、所定閾値TH_SUM_V_FEATURE2(ほぼゼロに近い値)とを比較する(式(27))。   That is, the absolute value of the energy sum Sum_feature2 calculated from the characteristic 2 is compared with a predetermined threshold value TH_SUM_FEATURE2 (value close to zero) (Equation (24)), and the absolute value sum of the energy calculated from the characteristic 2 Sun_abs_feature2 and A predetermined threshold TH_SUM_ABS_FEATURE2 (for example, 1.0 × M × N) is compared (Equation (25)), and the absolute value of the sum of the energy sums H1_feature2 and H3_feature2 calculated from the characteristic 2 and the predetermined threshold TH_SUM_H_FEATURE2 (almost zero) (Equation (26)) and the absolute value of the sum of the energy sums V2_feature2 and V4_feature2 in the vertical direction predetermined component calculated from the characteristic 2 and the predetermined threshold TH_SUM_V_FEA TURE2 (a value close to zero) is compared (formula (27)).

Figure 2005267119
Figure 2005267119

ここで、式(24)〜(27)の全ての式が成立する場合(yes)、(連続階調)グラデーション領域の候補のブロックであると判定する(S23→S24)。式(24)〜(27)のいずれかの式も成立しない場合(no)、(連続階調)非グラデーション領域であると判定する(S23→S28)。   Here, if all the expressions (24) to (27) are satisfied (yes), it is determined that the block is a candidate block of the (continuous gradation) gradation area (S23 → S24). If none of the equations (24) to (27) is established (no), it is determined that the region is a (continuous tone) non-gradation region (S23 → S28).

ステップ24では、まず、ステップ23でグラデーション領域の候補であると判定されたブロックに関する濃度変化方向を算出するために、H1_feature2とV2_feature2の逆正接関数arctanを算出し、orientationとする。   In step 24, first, in order to calculate the density change direction for the block determined to be a gradation area candidate in step 23, the arc tangent function arctan of H1_feature2 and V2_feature2 is calculated and set as orientation.

Figure 2005267119
Figure 2005267119

ついで、画像処理を行い易いように、orientationを、次式によって256階調の画像データに正規化し、orientationとする。 Next, the orientation is normalized to 256-gradation image data by the following equation so as to facilitate image processing, and is set to orientation N.

Figure 2005267119
Figure 2005267119

ついで該orientationに対して四捨五入を適用して256階調のデータを得る。 Next, rounding is applied to the orientation N to obtain 256 gradation data.

次に、256階調のデータに正規化したorientationに対してクラスタリングを適用する。クラスタリングは、画素の属性値の類似性に基づいて、画像を意味のある部分画像に分割するものである。<例えば、画像処理「その基礎から応用まで」第2版 p.179〜p.190参照>
クラスタリング手法として、種々のものが提案されているが、本実施の形態ではk−measn手法を用いる。但し、クラスタリングを適用する際、前段でグラデーションでないと判定された画素に関しては、クラスタリングの対象としないこととする。
Next, clustering is applied to orientation N normalized to 256 gradation data. Clustering is to divide an image into meaningful partial images based on the similarity of pixel attribute values. <For example, see image processing “From the Basics to Applications” 2nd Edition, p. 179-p. 190>
Various clustering methods have been proposed. In this embodiment, the k-measn method is used. However, when applying clustering, pixels that are determined not to be gradation in the previous stage are not subject to clustering.

任意のk個の画素を初期クラスタの中心にとる。初期クラスタをY(1)、Y(1)、・・・、Y(1)とし、処理の繰り返し回数nを最小1に設定する。全ての画素を次の式により、クラスタの中心Y(1)、Y(1)、・・・、Y(1)に対応した部分集合S(n)、S(n)、…S(n)に分類する。 Arbitrary k pixels are centered on the initial cluster. The initial cluster is set to Y 1 (1), Y 2 (1),..., Y k (1), and the number of process repetitions n is set to a minimum of 1. By all pixels of the following formulas, the center of the cluster Y 1 (1), Y 2 (1), ···, subsets S 1 corresponding to Y k (1) (n) , S 2 (n), ... classified into S k (n).

Figure 2005267119
Figure 2005267119

ここで、dは入力画素とクラスタの中心との距離で、次のように定義される。 Here, dj is the distance between the input pixel and the center of the cluster, and is defined as follows.

Figure 2005267119
Figure 2005267119

但し、Xは入力画素ベクトルを、nは1≦l≦kである。また、   However, X is an input pixel vector, and n is 1 ≦ l ≦ k. Also,

Figure 2005267119
Figure 2005267119

は画素値及び画素間距離を考慮した距離を示す。次の式により、各部分集合S(n){1≦l≦k}、について新しいクラスタ中心を求める。 Indicates a distance considering the pixel value and the inter-pixel distance. A new cluster center is obtained for each subset S l (n) {1 ≦ l ≦ k} by the following equation.

Figure 2005267119
Figure 2005267119

ここで、Nは集合S(n)の元の数である。上の式のY(n+1)は、Sに属するXの平均値を意味している。全てのクラスについて、次の式が成立する場合にこの処理は終了する。 Here, N 1 is the original number of the set S 1 (n). Y 1 (n + 1) in the above formula means an average value of X belonging to S j . This process ends when the following expression holds for all classes.

Figure 2005267119
Figure 2005267119

ただし、その他の場合には式(30)へ戻り、それ以後の処理を繰り返す。   However, in other cases, the process returns to Expression (30), and the subsequent processing is repeated.

以上の処理により、256階調のorientationをk個のクラスに分類することができる。ここで、一般的にグラデーションであれば、ある程度大きな領域を占めていると考えられる。 Through the above processing, orientation N of 256 gradations can be classified into k classes. Here, in general, a gradation is considered to occupy a certain area.

そこで、ステップ24では、各クラスに属する画素数S(n)と所定閾値TH_GRADATION_RATIO(例えば0.05)とを比較し、グラデーションとして正当である領域であるかどうか判定する式(34)。 Therefore, in step 24, the number of pixels S 1 (n) belonging to each class is compared with a predetermined threshold TH_GRADATION_RATIO (for example, 0.05) to determine whether or not the region is valid as a gradation (34).

Figure 2005267119
Figure 2005267119

上記の式(34)が成立する(yes)場合、当該ブロックが(連続階調)グラデーション領域であると最終判定する(S24→S27)。そして、その属する画素がグラデーションとして相応しい領域であることを示すグラデーション信号(On/Off)を文字・網点・連続階調領域識別部14eへ出力する。一方、式(34)が成立しない(no)場合には、(連続階調)非グラデーション領域であると判定する(S24→S28)。   When the above equation (34) is satisfied (yes), it is finally determined that the block is a (continuous tone) gradation region (S24 → S27). Then, a gradation signal (On / Off) indicating that the pixel to which the pixel belongs is an area suitable for gradation is output to the character / halftone dot / continuous gradation area identifying unit 14e. On the other hand, when Expression (34) is not satisfied (no), it is determined that the area is a (continuous gradation) non-gradation area (S24 → S28).

以上の処理手順(S20〜S24)により、入力画像データを文字/網点/(連続階調)グラデーション/(連続階調)非グラデーション領域を識別することができる。   By the above processing procedure (S20 to S24), it is possible to identify the character / halftone dot / (continuous tone) gradation / (continuous tone) non-gradation region of the input image data.

なお、コンピュータ読み取り可能な記録媒体に、本実施の形態で説明した画像処理方法を、コンピュータに実行させるためのプログラムとして記録することもできる。この結果、本実施の形態における画像処理方法を行うプログラムを記録した記録媒体を持ち運び自在に提供することができる。   Note that the image processing method described in this embodiment can also be recorded on a computer-readable recording medium as a program for causing a computer to execute the image processing method. As a result, a recording medium on which a program for performing the image processing method in this embodiment is recorded can be provided in a portable manner.

このような記録媒体としては、マイクロコンピュータで処理が行われるメモリ、例えばROMのようなものそのものがプログラムメディアであっても良いし、また、外部記憶装置としてプログラム読み取り装置が設けられ、そこに記録媒体を挿入することで読み取り可能なプログラムメディアであっても良い。   As such a recording medium, a memory to be processed by a microcomputer, for example, a ROM itself may be a program medium, or a program reading device is provided as an external storage device, and recorded therein. It may be a program medium that can be read by inserting the medium.

いずれの場合においても、格納されているプログラムはマイクロプロセッサがアクセスして実行させる構成であっても良いし、あるいは、いずれの場合もプログラムを読み出し、読み出されたプログラムは、マイクロコンピュータの図示されていないプログラム記憶エリアにダウンロードされて、そのプログラムが実行される方式であってもよい。このダウンロード用のプログラムは予め本体装置に格納されているものとする。   In any case, the stored program may be configured to be accessed and executed by the microprocessor, or in any case, the program is read and the read program is illustrated in the microcomputer. The program may be downloaded to a non-program storage area and executed. It is assumed that this download program is stored in the main device in advance.

ここで、上記プログラムメディアは、本体と分離可能に構成される記録媒体であり、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスクやハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD等の光ディスクのディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュROMなどによる半導体メモリを含めた固定的にプログラムを担持する媒体であっても良い。   Here, the program medium is a recording medium configured to be separable from the main body, such as a tape system such as a magnetic tape or a cassette tape, a magnetic disk such as a floppy (registered trademark) disk or a hard disk, or a CD-ROM / MO /. Disk system of optical disks such as MD / DVD, card system such as IC card (including memory card) / optical card, or mask ROM, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory) flash It may be a medium that carries a fixed program including a semiconductor memory such as a ROM.

また、本実施の形態においては、図示しないインターネットを含む通信ネットワークを接続可能なシステム構成であることから、通信ネットワークからプログラムをダウンロードするように流動的にプログラムを保持する媒体であっても良い。なお、このように通信ネットワークからプログラムをダウンロードする場合には、そのダウンロード用のプログラムは予め本体装置に格納しておくか、あるいは別な記録媒体からインストールされるものであっても良い。また、ダウンロード用のプログラムはユーザーインターフェースを介して実行されるものであっても良いし、定期的に決められたURLにプログラムをダウンロードしにいくようなものであっても良い。   In the present embodiment, since the system configuration is such that a communication network including the Internet (not shown) can be connected, a medium that fluidly holds the program so as to download the program from the communication network may be used. When the program is downloaded from the communication network in this way, the download program may be stored in the main device in advance or may be installed from another recording medium. Further, the download program may be executed via a user interface, or may be a program for downloading a program to a URL determined periodically.

上記記録媒体は、画像読取装置やコンピュータシステムに備えられるプログラム読み取り装置により読み取られることで上述した画像処理方法が実行される。   The recording medium is read by a program reading device provided in an image reading device or a computer system, whereby the above-described image processing method is executed.

図11に、コンピュータに備えられるプリンタ・ドライバに本実施の形態における画像処理方法を適用した例を示す。   FIG. 11 shows an example in which the image processing method according to the present embodiment is applied to a printer driver provided in a computer.

コンピュ−タ31は、プリンタ・ドライバ30、通信ポートドライバ33、通信ポート34を含んで構成される。プリンタ・ドライバ30は、色補正部15・墨生成下色除去部16・空間フィルタ処理部17・中間調出力階調処理部18およびプリンタ言語翻訳部32より構成される。また、コンピュータは、RS232C・LAN等の通信ポートドライバ33、通信ポート34を介して電子写真方式やインクジェット方式のプリンタ39(画像出力装置)と接続されている。   The computer 31 includes a printer driver 30, a communication port driver 33, and a communication port 34. The printer driver 30 includes a color correction unit 15, a black generation undercolor removal unit 16, a spatial filter processing unit 17, a halftone output tone processing unit 18, and a printer language translation unit 32. The computer is connected to an electrophotographic or inkjet printer 39 (image output device) via a communication port driver 33 such as RS232C / LAN and a communication port 34.

コンピュータ31においてソフトウェアとして領域分離処理を実行することにより生成された画像データは、プリンタ・ドライバ30内の上記各処理部に送られ、上述の画像処理装置に備えられた各処理部と同様の処理を画像データに施す。画像処理装置において処理がなされた画像データは、プリンタ言語翻訳部に送られ、プリンタ言語に変換される。プリンタ言語翻訳部から出力された画像データは、通信ポートドライバ33・通信ポート34を介して、プリンタ39に入力される。プリンタ39では、入力された画像データを紙等の記録材に出力する。   Image data generated by executing the region separation process as software in the computer 31 is sent to each processing unit in the printer driver 30 and the same processing as each processing unit provided in the above-described image processing apparatus. Is applied to the image data. The image data processed in the image processing apparatus is sent to the printer language translation unit and converted into the printer language. The image data output from the printer language translation unit is input to the printer 39 via the communication port driver 33 and the communication port 34. The printer 39 outputs the input image data to a recording material such as paper.

コンピュータシステムは、フラットベッドスキャナ・フィルムスキャナ・デジタルカメラなどの画像入力装置、所定のプログラムがロードされることにより上記画像処理方法など様々な処理が行われるコンピュータ、コンピュータの処理結果を表示するCRTディスプレイ・液晶ディスプレイなどの画像表示装置およびコンピュータの処理結果を紙などに出力するプリンタより構成される。さらには、ネットワークを介してサーバーなどに接続するための通信手段としてのネットワークカードやモデムなどが備えられる。   The computer system includes an image input device such as a flatbed scanner, a film scanner, and a digital camera, a computer that performs various processes such as the above image processing method by loading a predetermined program, and a CRT display that displays the processing results of the computer. An image display device such as a liquid crystal display and a printer that outputs the processing results of the computer to paper or the like. Furthermore, a network card, a modem, and the like are provided as communication means for connecting to a server or the like via a network.

また、スキャナに領域分離処理部を備え、その結果をコンピュータやプリンタに出力するようにしても良い。   The scanner may be provided with an area separation processing unit, and the result may be output to a computer or a printer.

本発明の画像処理装置はデジタル複合機等の画像形成装置に適用可能であり、また画像処理方法は、プログラム(たとえば、プリンタドライバ)として、持ち運び可能な記録ディスク(FD、MO、CD−ROM、DVD等)や固定用の半導体メモリ等の記録媒体に記録可能である。   The image processing apparatus of the present invention can be applied to an image forming apparatus such as a digital multi-function peripheral, and the image processing method is a portable recording disk (FD, MO, CD-ROM, etc.) as a program (for example, a printer driver). DVD or the like) or a recording medium such as a fixed semiconductor memory.

本実施の形態に係る領域分離処理部の構成を表すブロック図である。It is a block diagram showing the structure of the area | region separation process part which concerns on this Embodiment. 本実施の形態に係るデジタル複写機の構成を示すブロック図である。1 is a block diagram showing a configuration of a digital copying machine according to an embodiment. 第1特性解析部および第2特性解析部と領域識別処理部との特徴量の出入力を説明するブロック図である。It is a block diagram explaining the input / output of the feature-value of a 1st characteristic analysis part, a 2nd characteristic analysis part, and an area | region identification process part. 本実施の形態にかかる画像処理方法の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image processing method concerning this Embodiment. (a)〜(c)は、それぞれ文字画像、網点画像、連続階調画像のサンプルを示す平面図、(d)〜(f)は、それぞれ(a)〜(c)の各画像に対して、二次元離散フーリエ変換を施して得られる空間周波数特性の実部(特性1)を示すヒストグラム、(g)〜(i)は、それぞれ(a)〜(c)の各画像に対して、二次元離散フーリエ変換を施して得られる空間周波数特性の虚部(特性2)を示すヒストグラムである。(A)-(c) is a top view which respectively shows the sample of a character image, a halftone image, and a continuous tone image, (d)-(f) is respectively with respect to each image of (a)-(c). Histograms showing the real part (characteristic 1) of the spatial frequency characteristics obtained by performing the two-dimensional discrete Fourier transform, (g) to (i), respectively, for the images (a) to (c), respectively. It is a histogram which shows the imaginary part (characteristic 2) of the spatial frequency characteristic obtained by giving a two-dimensional discrete Fourier transform. (a)〜(c)は各種のグラデーション画像のサンプルを示す平面図、(d)〜(f)は、それぞれ(a)〜(c)に示す画像に2次元フーリエ変換を施して得られた空間周波数特性(特性2)を示すヒストグラム、(g)〜(i)は、(d)〜(f)に対応する、特性2の水平あるいは垂直方向に関するグラフである。(a) to (c) are plan views showing samples of various gradation images, and (d) to (f) are obtained by performing two-dimensional Fourier transform on the images shown in (a) to (c), respectively. Histograms (g) to (i) showing spatial frequency characteristics (characteristic 2) are graphs relating to the horizontal or vertical direction of characteristic 2 corresponding to (d) to (f). (a)(b)は、特性1、2の水平および垂直方向成分を示す座標平面図である。(A) and (b) are coordinate plan views showing horizontal and vertical components of characteristics 1 and 2; (a)は、特性1あるいは特性2における低周波領域と高周波領域とを示す座標平面図、(b)は、特性1あるいは特性2における第1〜4象限を示す座標平面図である。(A) is a coordinate plan view showing a low frequency region and a high frequency region in characteristic 1 or characteristic 2, and (b) is a coordinate plan view showing first to fourth quadrants in characteristic 1 or characteristic 2. (a)は、特性2における低周波領域と高周波領域とを示す座標平面図、(b)は、特性2における区分1〜区分4を示す座標平面図である。(A) is a coordinate plan view showing a low frequency region and a high frequency region in the characteristic 2, and (b) is a coordinate plan view showing the sections 1 to 4 in the characteristic 2. (a)は、特性2を表すF(i,j)を示す座標平面図、(b)は、注目ブロックF(i,j)を中心とした3×3マスクを示す座標平面図である。(A) is a coordinate plane view showing F (i, j) representing the characteristic 2, and (b) is a coordinate plane view showing a 3 × 3 mask centered on the block of interest F (i, j). 本実施の形態をプリンタ・ドライバに適用した場合を説明するブロック図である。FIG. 10 is a block diagram illustrating a case where the present exemplary embodiment is applied to a printer driver. 本実施の形態における空間周波数特性(特性1、特性2)を示す表である。It is a table | surface which shows the spatial frequency characteristic (characteristic 1, characteristic 2) in this Embodiment. 従来からの画像処理装置を説明するブロック図である。It is a block diagram explaining the conventional image processing apparatus.

符号の説明Explanation of symbols

7 カラー画像処理装置(画像処理装置)
10 デジタル複合機(画像形成装置)
14 領域分離処理部
14a 空間周波数特性算出部
14b 第1特性解析部
14c 第2特性解析部
14d 領域識別処理部
14e 文字・網点・連続階調領域識別部(第1の識別部)
14f グラデーション領域検知部(第2の識別部)
x 第1の特徴量
第2の特徴量
第2の特徴量
7 Color image processing device (image processing device)
10 Digital MFP (image forming device)
14 region separation processing unit 14a spatial frequency characteristic calculation unit 14b first characteristic analysis unit 14c second characteristic analysis unit 14d region identification processing unit 14e character / halftone dot / continuous tone region identification unit (first identification unit)
14f Gradation area detection unit (second identification unit)
x first feature value y 1 second feature value y 2 second feature value

Claims (17)

入力された画像データから連続階調領域を識別する画像処理装置であって、上記画像データから複素数で表される空間周波数特性を算出する空間周波数算出部と、上記空間周波数特性の虚部に基づいて上記連続階調領域からグラデーション領域を識別する領域識別処理部とを備えたことを特徴とする画像処理装置。   An image processing apparatus for identifying a continuous tone region from input image data, based on a spatial frequency calculation unit that calculates a spatial frequency characteristic represented by a complex number from the image data, and an imaginary part of the spatial frequency characteristic And an area identification processing unit for identifying a gradation area from the continuous tone area. 上記空間周波数特性の実部から第1の特徴量を抽出する第1特性解析部と、上記空間周波数特性の虚部から第2の特徴量を抽出する第2特性解析部とを備え、
上記領域識別処理部は、第1の特徴量に基づいて上記画像データから連続階調領域を識別し、この連続階調領域から上記第2の特徴量に基づいてグラデーション領域を識別することを特徴とする請求項1記載の画像処理装置。
A first characteristic analysis unit that extracts a first feature amount from the real part of the spatial frequency characteristic; and a second characteristic analysis unit that extracts a second feature amount from the imaginary part of the spatial frequency characteristic;
The region identification processing unit identifies a continuous tone region from the image data based on a first feature amount, and identifies a gradation region from the continuous tone region based on the second feature amount. The image processing apparatus according to claim 1.
上記領域識別処理部は、文字領域と網点領域と連続諧調領域とを識別する第1の識別部並びにグラデーション領域を識別する第2の識別部を備え、
上記第1の識別部は、上記第1の特徴量に基づいて、連続階調領域と、網点あるいは文字領域のいずれかに属する領域とを識別し、この網点あるいは文字領域のいずれかに属する領域を、上記第1および2の特徴量に基づいて網点領域と文字領域とに識別するとともに、
上記第2の識別部は、第1の識別部で連続階調とされた画像データから第2の特徴量に基づいてグラデーション領域を識別することを特徴とする請求項2記載の画像処理装置。
The region identification processing unit includes a first identification unit that identifies a character region, a halftone dot region, and a continuous gradation region, and a second identification unit that identifies a gradation region,
The first identification unit identifies a continuous tone area and an area belonging to either a halftone dot or a character area based on the first feature amount, and the halftone dot or the character area An area to which the image belongs is identified as a halftone dot area and a character area based on the first and second feature values,
The image processing apparatus according to claim 2, wherein the second identification unit identifies a gradation region based on a second feature amount from the image data that has been subjected to continuous gradation by the first identification unit.
上記第1の識別部は、上記第1の特徴量としてのDC成分を除く全周波数成分のエネルギー総和が閾値より大きい画像データを連続階調領域と判定し、閾値より小さい画像データを文字領域あるいは網点領域と判定することを特徴とする請求項3記載の画像処理装置。   The first identification unit determines that image data in which the total energy of all frequency components excluding the DC component as the first feature amount is greater than a threshold is a continuous tone region, and sets image data smaller than the threshold as a character region or The image processing apparatus according to claim 3, wherein the image processing apparatus is determined to be a halftone dot area. 上記第2の識別部は、上記第2の特徴量から得られる、空間周波数特性のDC成分を中心とする点対称性に基づいてグラデーション領域を識別することを特徴とする請求項3記載の画像処理装置。   The image according to claim 3, wherein the second identification unit identifies a gradation region based on a point symmetry centered on a DC component of a spatial frequency characteristic obtained from the second feature amount. Processing equipment. 上記第2の識別部は、第2の特徴量としてのエネルギー総和の絶対値が閾値より小さく、かつ、第2の特徴量としてのエネルギーの絶対値総和が閾値より大きく、かつ、第2の特徴量としての第1水平方向所定成分におけるエネルギー総和と第2水平方向所定成分におけるエネルギー総和との和の絶対値が閾値より小さく、かつ、第2の特徴量としての第1垂直方向所定成分におけるエネルギー総和と第2垂直方向所定成分におけるエネルギー総和との和の絶対値が閾値よりも小さくなるような画像データを、グラデーション領域候補の画像データと判定し、それ以外の画像データを非グラデーション領域に決定することを特徴とする請求項5記載の画像処理装置。   The second identification unit is configured such that the absolute value of the total energy as the second feature amount is smaller than the threshold, the absolute sum of the energy as the second feature amount is larger than the threshold, and the second feature. The absolute value of the sum of the energy sum in the first horizontal direction predetermined component as the quantity and the sum of the energy sum in the second horizontal direction predetermined component is smaller than the threshold, and the energy in the first vertical direction predetermined component as the second feature quantity Image data for which the absolute value of the sum of the sum and the energy sum in the second vertical direction predetermined component is smaller than the threshold is determined as gradation region candidate image data, and other image data is determined as a non-gradation region. The image processing apparatus according to claim 5, wherein: 上記第2の識別部は、上記グラデーション領域候補の画像データについて濃度変化方向を示す特徴量を算出し、この特徴量に基づく画像分割処理によって得られる各部分画像の全画像に占める割合が閾値よりも大きい画像データをグラデーション領域に決定することを特徴とする請求項6記載の画像処理装置。   The second identification unit calculates a feature amount indicating a density change direction for the image data of the gradation region candidate, and a ratio of each partial image obtained by image division processing based on the feature amount to the entire image is based on a threshold value. 7. The image processing apparatus according to claim 6, wherein larger image data is determined as a gradation area. 上記第1の識別部は、第2の特徴量としての低周波成分へのエネルギー集中度が閾値より大きい画像データを文字領域候補の画像データと判定し、閾値より小さい画像データを網点領域に決定することを特徴とする請求項3記載の画像処理装置。   The first discriminating unit determines image data whose energy concentration on the low frequency component as the second feature amount is larger than a threshold value as character area candidate image data, and sets image data smaller than the threshold value as a halftone dot area. The image processing apparatus according to claim 3, wherein the determination is performed. 上記第1の識別部は、第1の特徴量としての低周波成分へのエネルギー比率が閾値よりも大きいか、あるいは、第1の特徴量としてのピークエネルギーの比率が閾値よりも小さいか、あるいは、第2の特徴量としての注目ブロックおよびその近傍ブロックのエネルギー相関度が閾値よりも小さいような文字領域候補の画像データを文字領域に決定することを特徴とする請求項8記載の画像処理装置。   The first identification unit is configured such that the energy ratio to the low frequency component as the first feature quantity is greater than a threshold value, or the ratio of peak energy as the first feature quantity is smaller than the threshold value, or 9. The image processing apparatus according to claim 8, wherein image data of a character area candidate whose energy correlation between the block of interest as the second feature quantity and its neighboring blocks is smaller than a threshold is determined as the character area. . 請求項1〜9のいずれか1項に記載の画像処理装置を備えたことを特徴とする画像形成装置。   An image forming apparatus comprising the image processing apparatus according to claim 1. 入力された画像データから複素数で表される空間周波数特性を算出する空間周波数算出工程と、
上記画像データから連続階調領域を識別する連続階調領域識別工程と、
上記空間周波数特性の虚部に基づいて上記連続階調領域からグラデーション領域を検知するグラデーション領域検知工程とを含むことを特徴する画像処理方法。
A spatial frequency calculation step of calculating a spatial frequency characteristic represented by a complex number from the input image data;
A continuous tone region identifying step for identifying a continuous tone region from the image data;
A gradation area detecting step of detecting a gradation area from the continuous tone area based on an imaginary part of the spatial frequency characteristic.
上記空間周波数算出工程にて算出された空間周波数特性の実部から第1の特徴量を算出する第1特徴算出工程と、
上記空間周波数算出工程にて算出された空間周波数特性の虚部から第2の特徴量を算出する第2特徴算出工程とをさらに含み、
上記連続階調領域識別工程では、上記第1の特徴量に基づいて上記画像データから連続階調領域を識別し、
上記グラデーション領域検知工程では、上記連続階調識別工程で連続階調領域と判断された画像データから上記第2の特徴量に基づいてグラデーション領域を検知することを特徴する請求項11記載の画像処理方法。
A first feature calculation step of calculating a first feature amount from a real part of the spatial frequency characteristic calculated in the spatial frequency calculation step;
A second feature calculation step of calculating a second feature amount from an imaginary part of the spatial frequency characteristic calculated in the spatial frequency calculation step,
In the continuous tone region identifying step, a continuous tone region is identified from the image data based on the first feature amount,
12. The image processing according to claim 11, wherein in the gradation area detecting step, the gradation area is detected based on the second feature amount from the image data determined as the continuous tone area in the continuous tone identifying step. Method.
上記連続階調領域識別工程では、上記第1の特徴量としてのDC成分を除く全周波数成分のエネルギー総和が閾値より大きい画像データを連続階調領域と判定し、閾値より小さい画像データを文字領域あるいは網点領域と判定することを特徴とする請求項12記載の画像処理方法。   In the continuous tone region identification step, image data in which the energy sum of all frequency components excluding the DC component as the first feature amount is larger than a threshold value is determined as a continuous tone region, and image data smaller than the threshold value is a character region. 13. The image processing method according to claim 12, wherein the image processing method is determined as a halftone dot region. 上記グラデーション領域検知工程では、第2の特徴量としてのエネルギー総和の絶対値が閾値より小さく、かつ、第2の特徴量としてのエネルギーの絶対値総和が閾値より大きく、かつ、第2の特徴量としての第1水平方向所定成分におけるエネルギー総和と第2水平方向所定成分におけるエネルギー総和との和の絶対値が閾値より小さく、かつ、第2の特徴量としての第1垂直方向所定成分におけるエネルギー総和と第2垂直方向所定成分におけるエネルギー総和との和の絶対値が閾値よりも小さくなるような画像データをグラデーション領域候補の画像データと判定し、それ以外の画像データを非グラデーション領域に決定することを特徴とする請求項12記載の画像処理方法。   In the gradation area detecting step, the absolute value of the total energy as the second feature amount is smaller than the threshold, the absolute sum of the energy as the second feature amount is larger than the threshold, and the second feature amount The absolute value of the sum of the energy sum in the first horizontal direction predetermined component and the energy sum in the second horizontal direction predetermined component is smaller than the threshold, and the energy sum in the first vertical direction predetermined component as the second feature amount And image data whose absolute value of the sum of the energy in the second vertical direction predetermined component is smaller than the threshold value are determined to be gradation region candidate image data, and other image data are determined as non-gradation regions. The image processing method according to claim 12. 上記グラデーション領域検知工程では、上記グラデーション領域候補の画像データについて濃度変化方向を示す特徴量を算出し、この特徴量に基づく画像分割処理によって得られる各部分画像の全画像に占める割合が閾値よりも大きい画像データをグラデーション領域に決定することを特徴とする請求項14記載の画像処理方法。   In the gradation area detection step, a feature amount indicating a density change direction is calculated for the image data of the gradation region candidate, and a ratio of each partial image obtained by image division processing based on the feature amount to the entire image is larger than a threshold value. 15. The image processing method according to claim 14, wherein large image data is determined as a gradation area. 請求項11に記載の画像処理方法をコンピュータに実行させることを特徴とする画像処理プログラム。   An image processing program causing a computer to execute the image processing method according to claim 11. 請求項16に記載の画像処理プログラムが、コンピュータに読み取り可能に格納されていることを特徴とする記録媒体。   17. A recording medium, wherein the image processing program according to claim 16 is stored in a computer readable manner.
JP2004077267A 2004-03-17 2004-03-17 Image processor, image forming device, image processing method, image processing program, and recording medium Withdrawn JP2005267119A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004077267A JP2005267119A (en) 2004-03-17 2004-03-17 Image processor, image forming device, image processing method, image processing program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004077267A JP2005267119A (en) 2004-03-17 2004-03-17 Image processor, image forming device, image processing method, image processing program, and recording medium

Publications (1)

Publication Number Publication Date
JP2005267119A true JP2005267119A (en) 2005-09-29

Family

ID=35091618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004077267A Withdrawn JP2005267119A (en) 2004-03-17 2004-03-17 Image processor, image forming device, image processing method, image processing program, and recording medium

Country Status (1)

Country Link
JP (1) JP2005267119A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100048856A (en) * 2008-10-31 2010-05-11 삼성전자주식회사 A device, a method, and a computer-readable storage medium for reducing noise
JP2010130119A (en) * 2008-11-25 2010-06-10 Samsung Electronics Co Ltd Image processor, image processing method, program, and display device
JP2013171457A (en) * 2012-02-21 2013-09-02 Nippon Hoso Kyokai <Nhk> Pseudo contour area detecting device and program
US20140140611A1 (en) * 2012-11-19 2014-05-22 Samsung Display Co., Ltd. Image processing circuit, image processing method, and display device using the same
CN116866589A (en) * 2023-09-05 2023-10-10 成都大熊猫繁育研究基地 Video image compression method of outdoor infrared camera wireless network

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100048856A (en) * 2008-10-31 2010-05-11 삼성전자주식회사 A device, a method, and a computer-readable storage medium for reducing noise
JP2010109834A (en) * 2008-10-31 2010-05-13 Samsung Digital Imaging Co Ltd Noise reduction apparatus, noise reduction method, and program
US8373775B2 (en) 2008-10-31 2013-02-12 Samsung Electronics Co., Ltd. Apparatus, method and software stored on a computer-readable storage medium, for reducing noise in an image
KR101579736B1 (en) * 2008-10-31 2015-12-23 삼성전자주식회사 A device a method and a computer-readable storage medium for reducing noise
JP2010130119A (en) * 2008-11-25 2010-06-10 Samsung Electronics Co Ltd Image processor, image processing method, program, and display device
JP2013171457A (en) * 2012-02-21 2013-09-02 Nippon Hoso Kyokai <Nhk> Pseudo contour area detecting device and program
US20140140611A1 (en) * 2012-11-19 2014-05-22 Samsung Display Co., Ltd. Image processing circuit, image processing method, and display device using the same
US9401005B2 (en) 2012-11-19 2016-07-26 Samsung Display Co., Ltd. Image processing circuit, image processing method, and display device using the same
CN116866589A (en) * 2023-09-05 2023-10-10 成都大熊猫繁育研究基地 Video image compression method of outdoor infrared camera wireless network
CN116866589B (en) * 2023-09-05 2023-12-26 成都大熊猫繁育研究基地 Video image compression method of outdoor infrared camera wireless network

Similar Documents

Publication Publication Date Title
JP4137890B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP4197346B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JP4118886B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP2009031876A (en) Image processor, image forming device and image reader therewith, image processing method, image processing program and recording medium recording image processing program
JP4496239B2 (en) Image processing method, image processing apparatus, image forming apparatus, image reading apparatus, computer program, and recording medium
JP4115999B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP4362538B2 (en) Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium thereof
JP2009038537A (en) Image processor, image formation device, image processing program, and recording medium for recording image processing program therein
JP2009065571A (en) Image-collating apparatus, image collation method, image data output processing device, program, and recording medium
JP4361946B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium storing the program
JP2009015819A (en) Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium therefor
JP4105539B2 (en) Image processing apparatus, image forming apparatus including the same, image processing method, image processing program, and recording medium
JP2004312387A (en) Image processing method, image processing device, image forming device, image pickup device, and computer program
JP4050220B2 (en) Image processing method, image processing apparatus, image forming apparatus, program, and recording medium
JP2005267119A (en) Image processor, image forming device, image processing method, image processing program, and recording medium
JP4570534B2 (en) Image processing apparatus, image forming apparatus, image processing method, and computer program
JP4149368B2 (en) Image processing method, image processing apparatus and image forming apparatus, computer program, and computer-readable recording medium
JP2005191890A (en) Image processing device, image processing method, image processing program, recording medium stored with image processing program and image forming apparatus with image processor
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP4073877B2 (en) Image processing method, image processing apparatus, image forming apparatus, and computer program
JP3854060B2 (en) Image processing apparatus, image forming apparatus, image processing method, and recording medium
JP2004118463A (en) Method and system for processing image, program, recording medium and apparatus for forming image
JP6618307B2 (en) Image processing apparatus, image forming apparatus, and resolution determination method
JP2004214908A (en) Image processing apparatus and image forming apparatus provided with the same
JP2009159089A (en) Image processing device, image processing method, image forming apparatus, image reader, computer program and recording medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070605