JP2006231867A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2006231867A
JP2006231867A JP2005053498A JP2005053498A JP2006231867A JP 2006231867 A JP2006231867 A JP 2006231867A JP 2005053498 A JP2005053498 A JP 2005053498A JP 2005053498 A JP2005053498 A JP 2005053498A JP 2006231867 A JP2006231867 A JP 2006231867A
Authority
JP
Japan
Prior art keywords
image
data
image processing
edge amount
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005053498A
Other languages
Japanese (ja)
Other versions
JP4539979B2 (en
Inventor
Kazunari Tonami
一成 戸波
Hiroyuki Shibaki
弘幸 芝木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2005053498A priority Critical patent/JP4539979B2/en
Publication of JP2006231867A publication Critical patent/JP2006231867A/en
Application granted granted Critical
Publication of JP4539979B2 publication Critical patent/JP4539979B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Color, Gradation (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor which carries out optimum image processing to an input image with a character/line image and a pattern mixed therein in an image forming apparatus which forms an image by a plurality of color materials of different concentrations, and to provide an image processing method. <P>SOLUTION: Edge amount calculating parts 105 and 106 calculate edge amounts from data of K and Lk. The edge amounts are synthesized by an edge amount synthesizing part 107. In the edge amount synthesizing part 107, a maximum value among the edge amount of K and the edge amount of Lk is selected and outputted. When the edge amount is large, tone processing parts 111 and 112 are controlled to perform a first tone process (tone process which attaches greater importance to clarity and sharpness). When the edge amount is small, the tone processing parts 111 and 112 are controlled to perform a second tone process (tone process which attaches greater importance to granularity and tonality). <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、デジタルカラー複写機、カラーレーザープリンタ、インクジェットプリンタなど、トナーまたはインク等の色材を用いて画像形成を行う画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for forming an image using a color material such as toner or ink, such as a digital color copying machine, a color laser printer, and an ink jet printer.

電子写真方式やインクジェット方式のプリンタにおいて、1色について濃淡2種類以上のトナーあるいはインクを用いて画像を形成する画像形成装置が考案されている。例えば、特許文献1には、電子写真方式で低濃度部の粒状性を向上させるために、濃淡トナーを用いて画像を形成する画像形成装置が記載されている。   In an electrophotographic printer or an ink jet printer, an image forming apparatus has been devised that forms an image using two or more kinds of toner or ink for one color. For example, Patent Document 1 describes an image forming apparatus that forms an image using dark and light toner in order to improve the graininess of a low density portion in an electrophotographic system.

また、特許文献2には、CMYKインクと濃度の薄いCMKインク(Lc,Lm,Lk)の7色インクを用いたプリンタにおいて、Lc,Lm,LkについてはFMスクリーン(ドットの粗密で階調を表現する方式)で処理を行い、CMYKについてはAMスクリーン(網点の大きさで階調を表現する方式)で処理を行う方法が記載されている。   Further, in Patent Document 2, in a printer using CMYK ink and 7-color ink of low density CMK ink (Lc, Lm, Lk), Lc, Lm, and Lk are FM screens (dots are dense and gradation is used). A method is described in which processing is performed by an expression method), and CMYK is processed by an AM screen (a method of expressing gradation by the size of halftone dots).

図16は、ブラックについて濃淡2種類の色材(K,Lk)を用いて、CMYKLkの5色で画像を形成する場合の処理ブロックの一例を示す。まず、RGB各8bitの入力画像データが色変換部でCMYKLk各8bitのデータに変換される。そして、階調処理部では、CMYKLk各8bitのデータをCMYKLk各1bitのデータに変換するために、例えばディザ処理のような階調処理が行われる。   FIG. 16 shows an example of processing blocks in the case of forming an image with five colors of CMYKLk using two kinds of color materials (K, Lk) for black. First, RGB 8-bit input image data is converted into CMYKLk 8-bit data by a color conversion unit. In the gradation processing unit, gradation processing such as dither processing is performed in order to convert CMYKLk 8-bit data into CMYKLk 1-bit data.

ここで、一般的に入力画像データには文字・線画領域と絵柄領域が混在しており、画像領域毎に最適な画像処理を行うことが望まれる。例えば、文字・線画領域に対しては鮮鋭性を重視した階調処理、絵柄領域に対しては粒状性や階調性を重視した階調処理が望まれる。そこで、入力画像からエッジ量や文字領域などの画像特徴を抽出し、その画像特徴によって階調処理などの画像処理を切り替えることが必要になる。   Here, generally, the input image data includes a character / line drawing area and a pattern area, and it is desired to perform optimum image processing for each image area. For example, gradation processing that emphasizes sharpness is desired for character / line drawing areas, and gradation processing that emphasizes graininess and gradation is desired for picture areas. Therefore, it is necessary to extract image features such as edge amounts and character regions from the input image, and switch image processing such as gradation processing depending on the image features.

画像特徴を抽出して画像処理を制御するものとして、例えば、特許文献3には、画像のエッジ量に基づいて誤差拡散処理の閾値を変更する画像処理装置が記載されている。また、特許文献4には、各色毎に画像のエッジ部を検出し、エッジ部付近の画素では発光素子を微小発光させるように制御する画像処理装置が記載されている。   For example, Patent Document 3 discloses an image processing apparatus that changes a threshold value of error diffusion processing based on an edge amount of an image as a method for controlling image processing by extracting image features. Patent Document 4 describes an image processing apparatus that detects an edge portion of an image for each color and controls a light emitting element to emit a small amount of light in pixels near the edge portion.

特開平8−171252号公報JP-A-8-171252 特開2004−58390号公報JP 2004-58390 A 特開2001−128004号公報JP 2001-128004 A 特開平9−154020号公報Japanese Patent Laid-Open No. 9-154020

しかし、ブラックについて濃淡2種類の色材を用いる場合、KとLkの各データから画像特徴を抽出しようとしても、入力画像の画像特徴が抽出できない場合がある。例えば、図5(a)に示したような低濃度の背景(丸付き数字1)上に中濃度の線画(丸付き数字2)がある画像データが入力された場合を考える(簡単のため、ブラックのみで画像形成するものとして、1次元の画像で説明する)。色変換によって、この入力画像データからKとLkのデータが生成されるが、例えば、画像の低濃度部ではLkのみを使用し、画像濃度が高くなるほど、Lkを減らしてKを増やすような色変換を行った場合には、Lkのデータは図5(b)、Kのデータは図5(c)のようになる。つまり、低濃度の背景(丸付き数字1)では、Lkのみが生成され、Kは生成されない。また、中濃度の線画(丸付き数字2)では、濃度が高くLkの生成割合が減るために、LkとKの両方が生成される。   However, when two types of light and dark color materials are used for black, the image features of the input image may not be extracted even if it is attempted to extract the image features from the K and Lk data. For example, consider a case where image data having a medium density line drawing (circled number 2) on a low density background (circled number 1) as shown in FIG. (It will be described as a one-dimensional image assuming that an image is formed only with black). K and Lk data are generated from this input image data by color conversion. For example, only Lk is used in the low density portion of the image, and as the image density increases, a color that decreases K and increases K When conversion is performed, the Lk data is as shown in FIG. 5B, and the K data is as shown in FIG. 5C. That is, in the low density background (circled number 1), only Lk is generated and K is not generated. Further, in the line drawing of medium density (circled number 2), since the density is high and the generation ratio of Lk is reduced, both Lk and K are generated.

ここで、Kのデータの形状(凹凸)は、元の入力画像データの形状と似たような形状となるが、Lkのデータの形状は、入力画像データの形状とは全く異なる形状となる。よって、このLk信号からエッジ量や文字領域などの画像特徴を抽出しようとしても、本来の入力画像の画像特徴とは異なるものとなってしまい、そのような画像特徴によって階調処理などの画像処理を切り替えると、画質劣化を引き起こす可能性がある。   Here, the shape (unevenness) of the K data is similar to the shape of the original input image data, but the shape of the Lk data is completely different from the shape of the input image data. Therefore, even if an image feature such as an edge amount or a character region is extracted from the Lk signal, it is different from the image feature of the original input image, and image processing such as gradation processing is performed by such image feature. Switching between may cause image quality degradation.

本発明の目的は、濃度の異なる複数の色材で画像を形成する画像形成装置において、文字・線画と絵柄が混在した入力画像に対して最適な画像処理を行う画像処理装置および画像処理方法を提供することにある。   An object of the present invention is to provide an image processing apparatus and an image processing method for performing optimal image processing on an input image in which characters / line drawings and patterns are mixed in an image forming apparatus that forms an image with a plurality of color materials having different densities. It is to provide.

本発明は、少なくとも1色について濃度の異なる複数の色材で画像を記録するための画像データを生成する画像処理装置において、濃度の異なる複数の色材に関する濃淡画像データを生成する生成手段と、濃淡データから各々の画像特徴を抽出する画像特徴抽出手段と、各画像特徴を合成する合成手段とを有し、合成された画像特徴に基づいて濃淡画像データに画像処理を施すことを最も主要な特徴とする。   The present invention provides an image processing apparatus that generates image data for recording an image with a plurality of color materials having different densities for at least one color, a generation unit that generates grayscale image data relating to the plurality of color materials having different densities, The main feature is to have image feature extraction means for extracting each image feature from the grayscale data and synthesis means for synthesizing each image feature, and to perform image processing on the grayscale image data based on the synthesized image features. Features.

本発明は、濃淡データから各々抽出された画像特徴を合成して、合成された画像特徴に基づいて濃淡データの画像処理を制御することにより、濃淡データに対して入力画像の画像特徴に応じた適切な画像処理を行うことができる(請求項1〜4、11)。   The present invention synthesizes image features respectively extracted from grayscale data, and controls image processing of the grayscale data based on the synthesized image features, so that the grayscale data corresponds to the image features of the input image. Appropriate image processing can be performed (claims 1 to 4 and 11).

本発明は、濃淡データを合成した信号から画像特徴を抽出して、抽出された画像特徴に基づいて濃淡データの画像処理を制御することにより、濃淡データに対して入力画像の画像特徴に応じた適切な画像処理を行うことができる。さらに、画像特徴を抽出するための回路を減らせるので、回路規模を小さくすることができる(請求項5〜9、12)。   The present invention extracts image features from a signal obtained by combining grayscale data, and controls image processing of the grayscale data based on the extracted image features, so that the grayscale data corresponds to the image features of the input image. Appropriate image processing can be performed. Furthermore, since the number of circuits for extracting image features can be reduced, the circuit scale can be reduced (claims 5-9, 12).

本発明は、ドットの目立ちにくい淡画像データに対しては画像特徴によらない均一の画像処理を行うことにより、回路規模を小さくすることができる(請求項10)。   According to the present invention, it is possible to reduce the circuit scale by performing uniform image processing independent of image characteristics on light image data in which dots are not easily noticeable.

以下、発明の実施の形態について図面により詳細に説明する。以下の実施例では、ブラックについて濃淡2種類の色材で画像形成する場合について説明するが、濃淡3種類以上の色材を用いる場合や、ブラック以外の色についても濃度の異なる複数の色材で画像形成する場合でも同様である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following embodiments, a case where an image is formed with two kinds of color materials for black and white will be described. However, when three or more kinds of color materials are used, or for colors other than black, a plurality of color materials having different densities are used. The same applies to image formation.

実施例1:
図1は、本実施例の処理ブロック図を示す。まず、RGB各8bitの入力画像データが色変換部101でCMYKLk各8bitのデータに変換される。次に、各データ(CMYKLk)からエッジ量算出部102〜106はエッジ量を算出する。エッジ量の算出は図2に示すようなエッジ抽出フィルタを用いて行う。
Example 1:
FIG. 1 shows a processing block diagram of the present embodiment. First, RGB 8-bit input image data is converted into 8-bit CMYKLk data by the color conversion unit 101. Next, the edge amount calculation units 102 to 106 calculate the edge amount from each data (CMYKLk). The edge amount is calculated using an edge extraction filter as shown in FIG.

KとLkのデータから算出されたエッジ量はエッジ量合成部107において合成される。このエッジ量合成部107については後述する。   The edge amount calculated from the K and Lk data is combined by the edge amount combining unit 107. The edge amount combining unit 107 will be described later.

階調処理部108〜112では、CMYKLk各8bitのデータをCMYKLk各1bit(プリンタの出力階調数)のデータに変換するために、算出されたエッジ量に基づいた階調処理が各色毎に行われる。なお、KとLkについては、エッジ量合成部107から出力される合成エッジ量に基づいた階調処理が行われる。   In the gradation processing units 108 to 112, gradation processing based on the calculated edge amount is performed for each color in order to convert CMYKLk 8-bit data into CMYKLk 1-bit data (the number of output gradations of the printer). Is called. For K and Lk, gradation processing based on the combined edge amount output from the edge amount combining unit 107 is performed.

図3は、階調処理部の処理ブロック図を示す。第1階調処理部201は鮮鋭性を重視した階調処理を行うものであり、例えば、200線以上の高線数のディザ処理や誤差拡散処理が行われる。一方、第2階調処理部202は粒状性や階調性を重視した階調処理を行うものであり、例えば、150線程度で階調数を十分に持っているディザ処理が行われる。そして、第1階調処理部201と第2階調処理部202からの出力がエッジ量の大小によってセレクタ203で選択される。エッジ量が所定閾値以上であれば第1階調処理部201の出力が選択され、エッジ量が所定閾値以下であれば第2階調処理部202の出力が選択される。これにより、画像のエッジ部では鮮鋭性を重視した階調処理が行われ、非エッジ部では粒状性や階調性を重視した階調処理が行われることになり、文字や絵柄が混在した入力画像に対して、鮮鋭性と粒状性、階調性が両立した画像を形成することが可能となる。   FIG. 3 is a processing block diagram of the gradation processing unit. The first gradation processing unit 201 performs gradation processing with an emphasis on sharpness. For example, dither processing and error diffusion processing with a high number of lines of 200 lines or more are performed. On the other hand, the second gradation processing unit 202 performs gradation processing with an emphasis on graininess and gradation, and for example, dither processing having a sufficient number of gradations with about 150 lines is performed. Then, the outputs from the first gradation processing unit 201 and the second gradation processing unit 202 are selected by the selector 203 depending on the size of the edge amount. If the edge amount is greater than or equal to a predetermined threshold, the output of the first gradation processing unit 201 is selected, and if the edge amount is less than or equal to the predetermined threshold, the output of the second gradation processing unit 202 is selected. As a result, gradation processing that emphasizes sharpness is performed at the edge part of the image, and gradation processing that emphasizes graininess and gradation is performed at the non-edge part. An image having both sharpness, graininess, and gradation can be formed on the image.

ここで、本実施例におけるエッジ量合成部107について説明する。エッジ量合成部107では、図4に示すように、Kのエッジ量とLkのエッジ量の内、最も大きい方(最大値)を選択して出力する。図5(a)のような入力画像の場合、入力画像に大きなエッジがあるにもかかわらず、Lkのデータ(図5(b))から算出されるエッジ量は小さくなる。よって、Lkの階調処理部112をLkのエッジ量のみで制御すると、エッジ部において鮮鋭性を重視した処理が行われないことになる。一方、Kのデータ(図5(c))から算出されるエッジ量は比較的大きな値となる。そこで、LkとKのエッジ量の最大値をとってエッジ量を合成し、その合成されたエッジ量でLkとKの両方の階調処理部111、112を制御することにより、Lkに対しても画像中のエッジ部に対しては鮮鋭性を重視した処理を行うことが可能となる。つまり、図3のように、合成されたエッジ量(2つのエッジ量のうちの大きい方のエッジ量)によって、第1階調処理(鮮鋭性を重視した階調処理)と第2階調処理(粒状性や階調性を重視した階調処理)を切り替える。エッジ量が大きい場合には第1階調処理201、エッジ量が小さい場合には第2階調処理202となるように制御する。   Here, the edge amount synthesis unit 107 in this embodiment will be described. As shown in FIG. 4, the edge amount combining unit 107 selects and outputs the largest one (maximum value) of the K edge amount and the Lk edge amount. In the case of the input image as shown in FIG. 5A, the edge amount calculated from the Lk data (FIG. 5B) is small even though the input image has a large edge. Therefore, if the Lk gradation processing unit 112 is controlled only by the edge amount of Lk, processing that places importance on sharpness is not performed at the edge portion. On the other hand, the edge amount calculated from the K data (FIG. 5C) is a relatively large value. Therefore, by taking the maximum value of the edge amounts of Lk and K, the edge amount is combined, and by controlling the gradation processing units 111 and 112 of both Lk and K with the combined edge amount, In addition, it is possible to perform processing with an emphasis on sharpness on the edge portion in the image. That is, as shown in FIG. 3, the first gradation process (gradation process that emphasizes sharpness) and the second gradation process are performed according to the combined edge amount (the larger edge amount of the two edge amounts). (Gradation processing with emphasis on graininess and gradation) is switched. Control is performed so that the first gradation processing 201 is performed when the edge amount is large, and the second gradation processing 202 is performed when the edge amount is small.

以上、説明したように、生成されたLkまたはKのデータの形状が元の入力画像データの形状と異なっている場合でも、合成したエッジ量によって階調処理を制御することにより、入力画像の画像特徴に応じた適切な階調処理を行うことが可能となる。   As described above, even when the shape of the generated Lk or K data is different from the shape of the original input image data, the image processing of the input image is performed by controlling the gradation processing according to the synthesized edge amount. Appropriate gradation processing according to the feature can be performed.

実施例1の変形:
エッジ量合成部の別の構成例を図6に示す。Kのエッジ量とLkのエッジ量に対して、それぞれ定数α、βを乗算し、その乗算結果を加算することで合成エッジ量とする。
Variation of Example 1:
FIG. 6 shows another configuration example of the edge amount synthesis unit. The K edge amount and the Lk edge amount are respectively multiplied by constants α and β, and the multiplication results are added to obtain a combined edge amount.

このようにKのエッジ量とLkのエッジ量の重み付け加算を行うことにより、入力画像のエッジ部で、KとLkのどちらか一方のエッジ量しか大きな値にならない場合でも、合成エッジ量は大きな値として出力される。さらに、KとLkのどちらも小さいエッジ量しかとれない場合でも、その2つを加算することによって、合成エッジ量は比較的大きな値として出力されるので、画像中のエッジ部に対して鮮鋭性を重視した階調処理を行うことが可能となる。   By performing weighted addition of the edge amount of K and the edge amount of Lk in this way, even when only one of the edge amounts of K and Lk becomes a large value at the edge portion of the input image, the combined edge amount is large. Output as a value. Furthermore, even when both K and Lk can only take a small amount of edge, by adding the two, the combined edge amount is output as a relatively large value, so that the sharpness of the edge portion in the image is improved. It is possible to perform gradation processing with emphasis on.

実施例1では、合成エッジ量として2つのエッジ量の最大値を選択するようにしているが、この場合には、KとLkのエッジ量が両方ともそれほど大きな値でない場合には、合成エッジ量は(最大値をとるだけなので)それほど大きくない値のままになり、エッジと判定されない場合がある。   In the first embodiment, the maximum value of the two edge amounts is selected as the combined edge amount. However, in this case, when both the edge amounts of K and Lk are not so large, the combined edge amount is selected. Remains at a not-so-large value (since it only takes the maximum value) and may not be determined to be an edge.

しかし、実施例1の変形例のように、KとLkのエッジ量の(重み付け)加算を行って合成エッジ量を算出することにより、そのような場合でも比較的大きな合成エッジ量を得ることができる。これが加算を行う理由である。   However, as in the modification of the first embodiment, by calculating the combined edge amount by performing (weighting) addition of the K and Lk edge amounts, a relatively large combined edge amount can be obtained even in such a case. it can. This is the reason for the addition.

なお、定数α、βはKのエッジ量とLkのエッジ量の重みであり、定数αと定数βの比率は任意に設定可能である。例えば、図5(b)に示したように、Lkのデータは低濃度で大きな値をとるので、低濃度部ではLkのエッジ量が大きくなる。よって、定数αと定数βをほぼ等しい値に設定しておけば、低濃度部で合成エッジ量を大きくすることができる。逆に、高濃度部で合成エッジ量を大きくしたい場合には定数αを定数βよりも大きく設定しておけば良い。低濃度部での合成エッジ量を大きくすることができるということは、例えば、画像中の低濃度文字において大きなエッジ量を得ることができる。それにより、低濃度文字の鮮鋭性を向上させることができる。   The constants α and β are weights of the K edge amount and the Lk edge amount, and the ratio of the constant α and the constant β can be arbitrarily set. For example, as shown in FIG. 5B, since the Lk data takes a large value at a low density, the edge amount of the Lk becomes large in the low density part. Therefore, if the constant α and the constant β are set to substantially equal values, the combined edge amount can be increased in the low density portion. Conversely, when it is desired to increase the composite edge amount in the high density portion, the constant α may be set larger than the constant β. The fact that the combined edge amount in the low density portion can be increased means that, for example, a large edge amount can be obtained in a low density character in the image. Thereby, the sharpness of the low density character can be improved.

また、αとβを乗算する(重み付けをする)理由は、上記したように、低濃度部でのエッジ量を大きくとりたい、あるいは、高濃度部でのエッジ量を大きくとりたい、というような調整が可能であるからである。このような重み付けをせずに単純な加算にしてしまうと、そのような調整ができなくなる。   The reason for multiplying (weighting) α and β is that, as described above, it is desired to increase the edge amount in the low density portion or to increase the edge amount in the high density portion. This is because adjustment is possible. If simple addition is performed without such weighting, such adjustment cannot be performed.

実施例1の変形:
図1では、合成エッジ量によりKの階調処理とLkの階調処理の両方を制御している。しかし、Lkの色材濃度が薄くドットが知覚され難い場合には、Lkに関しては必ずしも画像特徴によって階調処理を制御する必要はない。
Variation of Example 1:
In FIG. 1, both the K gradation processing and the Lk gradation processing are controlled by the composite edge amount. However, when the color material density of Lk is low and it is difficult to perceive dots, it is not always necessary to control gradation processing according to image characteristics for Lk.

つまり、Lkの色材濃度が薄くてドットが目立たなければ、鮮鋭性の良い・悪いも分からない(目立たない)ので、階調処理を切り替えずに、粒状性や階調性を重視した階調処理を全体に行っても構わない(悪さが目立たない)。   In other words, if the color material density of Lk is thin and the dots are not conspicuous, you will not know whether the sharpness is good or bad (not conspicuous), so the gradation that emphasizes graininess and gradation without switching the gradation processing. Processing may be performed as a whole (badness is not noticeable).

合成エッジ量でKの階調処理を切り替える方法は、実施例1と同様である。エッジ量が大きい場合には第1階調処理(鮮鋭性を重視した階調処理)、エッジ量が小さい場合には第2階調処理(粒状性や階調性を重視した階調処理)となるように制御する。よって図7に示したように、合成エッジ量でKの階調処理111のみを切り替える構成としても良い。   The method of switching the K gradation processing by the composite edge amount is the same as in the first embodiment. When the edge amount is large, first gradation processing (gradation processing that emphasizes sharpness), and when the edge amount is small, second gradation processing (gradation processing that emphasizes graininess and gradation) Control to be. Therefore, as shown in FIG. 7, only the K gradation processing 111 may be switched with the combined edge amount.

実施例2:
図8は、本実施例の処理ブロック図を示す。まず、RGB各8bitの入力画像データが色変換部101でCMYKLk各8bitのデータに変換される。CMYの各データからはエッジ量算出部102〜104によってエッジ量が算出され、算出されたエッジ量に基づいた階調処理が各色毎に階調処理部108〜110で行われる。一方、KとLkのデータに対しては、まず信号合成部113で合成信号を生成し、その合成信号からエッジ量算出部114によってエッジ量を算出する。そして、算出されたエッジ量に基づいてKとLkの階調処理部111、112を制御する。
Example 2:
FIG. 8 shows a processing block diagram of the present embodiment. First, RGB 8-bit input image data is converted into 8-bit CMYKLk data by the color conversion unit 101. Edge amounts are calculated from the CMY data by the edge amount calculation units 102 to 104, and gradation processing based on the calculated edge amounts is performed by the gradation processing units 108 to 110 for each color. On the other hand, for K and Lk data, first, a signal is synthesized by the signal synthesizer 113, and an edge amount is calculated by the edge amount calculator 114 from the synthesized signal. Then, the gradation processing units 111 and 112 for K and Lk are controlled based on the calculated edge amount.

信号合成部113の処理ブロック図を図9に示す。Lkのデータに定数εを乗算し、Kのデータと加算する。この定数εはLkの色材濃度とKの色材濃度の比率で設定する。例えば、Lkの色材濃度がKの色材濃度の1/2であれば、定数ε=1/2とする。なお、LkとKの色材濃度は、それぞれLkベタ画像とKベタ画像の濃度を測定するなどして、あらかじめ設定しておく。   A processing block diagram of the signal synthesis unit 113 is shown in FIG. The Lk data is multiplied by a constant ε and added to the K data. This constant ε is set by the ratio between the color material density of Lk and the color material density of K. For example, if the color material density of Lk is ½ of the color material density of K, the constant ε = ½. The color material densities of Lk and K are set in advance by measuring the densities of the Lk solid image and the K solid image, respectively.

これにより、合成信号はブラック(LkとKの色材で表現される色)の階調を表現する信号となるので、入力画像データの形状と似たような形状の信号となる。図10は図5(b)と図5(c)を合成したものであり、入力信号である図5(a)と似た形状となっていることが分かる。   As a result, the composite signal becomes a signal expressing the gradation of black (color expressed by the color materials of Lk and K), and thus has a shape similar to the shape of the input image data. FIG. 10 is a combination of FIG. 5B and FIG. 5C, and it can be seen that the shape is similar to that of FIG. 5A, which is an input signal.

よって、この合成信号からエッジ量を算出することで、入力画像の画像特徴を抽出することが可能となり、KとLkのデータに対しても入力画像の画像特徴に応じた適切な階調処理を行うことが可能となる。   Therefore, by calculating the edge amount from this composite signal, it is possible to extract the image feature of the input image, and appropriate gradation processing corresponding to the image feature of the input image is also applied to the K and Lk data. Can be done.

なお、定数εは必ずしもLkの色材濃度とKの色材濃度の比率に等しくする必要はないが、合成された信号がLkとKの色材で表現される色の階調を表現する信号とすることが望ましい。   The constant ε is not necessarily equal to the ratio between the color material density of Lk and the color material density of K, but the signal that represents the gradation of the color in which the synthesized signal is expressed by the color material of Lk and K. Is desirable.

本実施例の特徴として、エッジ量算出部が4つで済むということが挙げられる。エッジ量算出は積和演算を多く含み、図2のような単一のエッジ量算出フィルタだけでなく、複数のエッジ量算出フィルタを用いる場合もある。よって、エッジ量算出部が4つで済むということは、回路規模の増大を防ぐという効果がある。特に、濃度の異なる色材を3種類以上に増やしたり、ブラック以外にシアンやマゼンタも濃度の異なる複数の色材を用いたりした場合でも、エッジ量算出部の数は4つのままであるため、その効果は非常に大きくなる。   A feature of this embodiment is that only four edge amount calculation units are required. Edge amount calculation includes many product-sum operations, and not only a single edge amount calculation filter as shown in FIG. 2 but also a plurality of edge amount calculation filters may be used. Therefore, the fact that only four edge amount calculation units are required has an effect of preventing an increase in circuit scale. In particular, even when the number of color materials having different densities is increased to three or more, or when a plurality of color materials having different densities other than black and cyan and magenta are used, the number of edge amount calculation units remains four. The effect is very large.

実施例2の変形:
信号合成部の別の構成例を図11に示す。図9の構成と異なるのは、Lkのデータに定数εを乗算してKのデータと加算した後に、ルックアップテーブル(LUT)によりその信号特性を変換することである。LUTは例えば、図12に示したようなものであり、明度リニアあるいは濃度リニアな信号に変換する。これにより、合成信号の特性を入力画像の画像特徴量を抽出しやすい信号特性に変換することが可能となる。
Variation of Example 2:
Another configuration example of the signal synthesis unit is shown in FIG. The difference from the configuration of FIG. 9 is that the signal characteristic is converted by a look-up table (LUT) after multiplying Lk data by a constant ε and adding it to K data. The LUT is, for example, as shown in FIG. 12, and is converted into a lightness linearity or density linearity signal. As a result, it is possible to convert the characteristics of the composite signal into signal characteristics that make it easy to extract the image feature amount of the input image.

このようにLUTで変換するのは、「合成信号の特性を入力画像の画像特徴量を抽出しやすい信号特性に変換すること」が目的であるが、特にこのようにする必要はなく、例えば、低濃度文字のエッジ量を大きくとりたい場合や、逆に、低濃度文字のエッジ量はあまり取りたくないといったような狙いがある場合に、そのようなエッジ量がとりやすくなるように合成信号の信号特性を変えればよい。実施例2の場合には、合成信号はLk及びKの信号の線形加算なので、その特性は基本的にLk及びKの信号と同じになるので、LUTによる変換が必要になる。   The conversion by the LUT in this way is intended to “convert the characteristic of the composite signal into a signal characteristic that makes it easy to extract the image feature quantity of the input image”. If you want to increase the edge amount of low-density characters, or conversely, if you want to reduce the edge amounts of low-density characters, What is necessary is just to change a signal characteristic. In the case of the second embodiment, since the combined signal is a linear addition of Lk and K signals, the characteristics thereof are basically the same as those of the Lk and K signals. Therefore, conversion by LUT is required.

実施例2の変形:
信号合成部の別の構成例を図13に示す。LkとKのデータに対して、それぞれルックアップテーブル(LUT)により信号特性を変換してから加算する。このような構成にすることにより、図11ではLkのデータに対して定数倍の変換しか行えなかったものが、非線形の変換を行うことができる。さらに、Kのデータに対しても非線形の変換を行ってから、LkとKのデータを加算するので、合成信号の特性を入力画像の画像特徴量を抽出しやすい信号特性に変換することが可能となる。
Variation of Example 2:
FIG. 13 shows another configuration example of the signal synthesis unit. The Lk and K data are added after converting their signal characteristics using a lookup table (LUT). By adopting such a configuration, in FIG. 11, the conversion that can be performed only for the constant multiple of the Lk data can be performed nonlinearly. Furthermore, since the Kk data is also nonlinearly converted and then the Lk and K data are added, it is possible to convert the characteristics of the composite signal into signal characteristics that make it easy to extract the image features of the input image. It becomes.

実施例3:
図14は、本実施例の処理ブロック図を示す。まず、RGB各8bitの入力画像データが色変換部101でCMYKLk各8bitのデータに変換される。次に、LkとKのデータの各々から文字領域を抽出する。
Example 3:
FIG. 14 shows a processing block diagram of the present embodiment. First, RGB 8-bit input image data is converted into 8-bit CMYKLk data by the color conversion unit 101. Next, a character area is extracted from each of the Lk and K data.

文字領域抽出部115、116は、例えば特許第2968277号公報に記載されているような方法により、画像の文字領域を抽出する。特許第2968277号公報では、信号を黒画素/白画素に二値化し、パターンマッチングにより黒画素および白画素の連結を検出する。そして、M×M画素領域内に連結した黒画素および白画素が共に一定数以上存在するとき、当該領域の中心画素(注目画素)を文字部境界の画素と判定し、N×N画素領域内(N>M)に上記文字部境界の画素が一定数以上存在するとき、当該領域の中心画素(注目画素)を文字部画素と判定することにより、文字領域を抽出する。この方法以外にも公知の文字領域抽出方法を用いることが可能である。   The character area extraction units 115 and 116 extract the character area of the image by a method described in, for example, Japanese Patent No. 2968277. In Japanese Patent No. 2968277, a signal is binarized into black pixels / white pixels, and the connection of black pixels and white pixels is detected by pattern matching. When a certain number or more of black pixels and white pixels connected in the M × M pixel area exist, the center pixel (target pixel) of the area is determined as a character boundary pixel, and the N × N pixel area When there are a certain number or more of pixels at the character boundary in (N> M), the character region is extracted by determining the central pixel (target pixel) of the region as the character portion pixel. Besides this method, a known character region extraction method can be used.

LkとKのデータから抽出された文字領域結果は領域信号合成部117で合成される。領域信号合成部117では、LkとKの文字領域結果のうち、少なくとも一方が文字領域であれば、文字領域として出力する。つまり、文字領域結果を表す信号の論理和演算を行うということである。   The character area result extracted from the Lk and K data is synthesized by the area signal synthesis unit 117. The area signal synthesis unit 117 outputs a character area if at least one of the Lk and K character area results is a character area. That is, the logical OR operation of the signal representing the character area result is performed.

そして、合成された文字領域結果によってKとLkの階調処理を制御する。文字領域では鮮鋭性を重視した階調処理を行い、非文字領域では粒状性や階調性を重視した階調処理を行うことにより、文字や絵柄が混在した入力画像に対して、鮮鋭性と粒状性、階調性が両立した画像を形成することが可能となる。   Then, the gradation processing of K and Lk is controlled by the synthesized character region result. By performing gradation processing that emphasizes sharpness in character areas and gradation processing that emphasizes graininess and gradation in non-character areas, sharpness An image having both graininess and gradation can be formed.

実施例4:
図15は、本実施例の処理ブロック図を示す。まず、RGB各8bitの入力画像データが色変換部101でCMYKLk各8bitのデータに変換される。次に、KとLkのデータを信号合成部118で合成し、その合成信号から文字領域抽出部119で文字領域を抽出する。文字領域の抽出方法は、実施例3と同様である。そして、文字領域抽出結果(文字領域であるか否か)によってKとLkの階調処理を制御する。文字領域結果を用いた制御方法は、文字領域では第1階調処理(鮮鋭性を重視した階調処理)、非文字領域では第2階調処理(粒状性や階調性を重視した階調処理)となるように制御する。
Example 4:
FIG. 15 shows a processing block diagram of the present embodiment. First, RGB 8-bit input image data is converted into 8-bit CMYKLk data by the color conversion unit 101. Next, K and Lk data are combined by the signal combining unit 118, and a character region is extracted from the combined signal by the character region extracting unit 119. The method for extracting the character area is the same as that in the third embodiment. Then, the gradation processing of K and Lk is controlled according to the character region extraction result (whether or not it is a character region). The control method using the character area result is the first gradation process (gradation process that emphasizes sharpness) in the character area, and the second gradation process (gradation that emphasizes graininess and gradation) in the non-character area. Control).

本実施例の構成では、入力画像データの形状に似た合成信号から文字領域を抽出することにより、文字領域の抽出が容易となり、KとLkのデータに対して文字領域では鮮鋭性を重視した階調処理を行うことが可能となる。   In the configuration of this embodiment, the character area can be easily extracted by extracting the character area from the composite signal similar to the shape of the input image data, and sharpness is emphasized in the character area with respect to the K and Lk data. It is possible to perform gradation processing.

また、本実施例の特徴として、文字領域抽出部119が1つで済むということが挙げられる。文字領域抽出部は複雑な処理を行うことが多く、例えば前掲した特許第2968277号公報ではパターンマッチングや計数処理が必要となる。よって、文字領域抽出部が1つで済むということは、回路規模の増大を防ぐという効果がある。   A feature of the present embodiment is that only one character area extraction unit 119 is required. The character region extraction unit often performs complicated processing. For example, in Japanese Patent No. 2968277 described above, pattern matching and counting processing are required. Therefore, the fact that only one character area extraction unit is required has an effect of preventing an increase in circuit scale.

以上の実施例では、画像特徴によって階調処理を切り替える例を説明したが、画像特徴によって制御される対象は階調処理に限定されるものではなく、その他の処理を制御する場合にも本発明は有効である。   In the above-described embodiments, the example in which the gradation processing is switched according to the image feature has been described. However, the target controlled by the image feature is not limited to the gradation processing, and the present invention is also applied to the case where other processing is controlled. Is valid.

実施例1の処理ブロック図を示す。The processing block diagram of Example 1 is shown. エッジ抽出フィルタを示す。An edge extraction filter is shown. 階調処理部の処理ブロック図を示す。The processing block diagram of a gradation process part is shown. エッジ量合成部の処理ブロック図を示す。The processing block diagram of an edge amount synthetic | combination part is shown. 入力画像の例を示す。An example of an input image is shown. エッジ量合成部の別の構成例を示す。Another configuration example of the edge amount combining unit is shown. 実施例1の変形例を示す。The modification of Example 1 is shown. 実施例2の処理ブロック図を示す。The processing block diagram of Example 2 is shown. 信号合成部の処理ブロック図を示す。The processing block diagram of a signal synthetic | combination part is shown. 実施例2による合成信号を示す。The synthetic | combination signal by Example 2 is shown. 信号合成部の別の構成例を示す。Another configuration example of the signal synthesis unit is shown. LUTの信号特性を示す。The signal characteristic of LUT is shown. 信号合成部の別の構成例を示す。Another configuration example of the signal synthesis unit is shown. 実施例3の処理ブロック図を示す。The processing block diagram of Example 3 is shown. 実施例4の処理ブロック図を示す。The processing block diagram of Example 4 is shown. CMYKLkの5色で画像を形成する従来の構成例を示す。An example of a conventional configuration for forming an image with five colors of CMYKLk is shown.

符号の説明Explanation of symbols

101 色変換部
102〜106 エッジ量算出部
107 エッジ量合成部
108〜112 階調処理部
101 Color conversion unit 102-106 Edge amount calculation unit 107 Edge amount synthesis unit 108-112 Gradation processing unit

Claims (12)

少なくとも1色について濃度の異なる複数の色材で画像を記録するための画像データを生成する画像処理装置において、濃度の異なる複数の色材に関する濃淡画像データを生成する生成手段と、濃淡データから各々の画像特徴を抽出する画像特徴抽出手段と、各画像特徴を合成する合成手段とを有し、合成された画像特徴に基づいて前記濃淡画像データに画像処理を施すことを特徴とする画像処理装置。   In an image processing apparatus for generating image data for recording an image with a plurality of color materials having different densities for at least one color, generation means for generating gray image data relating to the plurality of color materials having different densities, and each of the density data An image processing apparatus comprising: image feature extracting means for extracting the image features; and composition means for synthesizing the image features, and performing image processing on the grayscale image data based on the synthesized image features . 請求項1記載の画像処理装置において、前記画像特徴はエッジ量であり、前記合成手段でエッジ量の最大値をとることを特徴とする画像処理装置。   2. The image processing apparatus according to claim 1, wherein the image feature is an edge amount, and the combining unit takes a maximum value of the edge amount. 請求項1記載の画像処理装置において、前記画像特徴はエッジ量であり、前記合成手段でエッジ量の加算、または重み付き加算を行うことを特徴とする画像処理装置。   The image processing apparatus according to claim 1, wherein the image feature is an edge amount, and the composition unit performs addition of the edge amount or weighted addition. 請求項1記載の画像処理装置において、前記画像特徴は文字領域または文字・線画領域であるか否かであることを示す信号であり、前記合成手段で論理和をとることを特徴とする画像処理装置。   2. The image processing apparatus according to claim 1, wherein the image feature is a signal indicating whether or not the image feature is a character region or a character / line drawing region, and a logical sum is taken by the synthesizing means. apparatus. 少なくとも1色について濃度の異なる複数の色材で画像を記録するための画像データを生成する画像処理装置において、濃度の異なる複数の色材に関する濃淡画像データを生成する生成手段と、濃淡画像データを合成して1つのデータを生成する合成手段と、合成されたデータから画像特徴を抽出する画像特徴抽出手段とを有し、画像特徴に基づいて前記濃淡画像データに画像処理を施すことを特徴とする画像処理装置。   In an image processing apparatus for generating image data for recording an image with a plurality of color materials having different densities for at least one color, generation means for generating gray image data relating to a plurality of color materials having different densities, and gray image data A combination unit that combines and generates one data; and an image feature extraction unit that extracts an image feature from the combined data, and performs image processing on the grayscale image data based on the image feature An image processing apparatus. 請求項5記載の画像処理装置において、前記合成手段では、濃度の異なる複数の色材で記録される色の階調を表現するデータを生成することを特徴とする画像処理装置。   6. The image processing apparatus according to claim 5, wherein the synthesizing unit generates data representing gradations of colors recorded with a plurality of color materials having different densities. 請求項6記載の画像処理装置において、前記合成手段では、濃淡画像データの重み付き加算を行うことを特徴とする画像処理装置。   7. The image processing apparatus according to claim 6, wherein the synthesizing unit performs weighted addition of grayscale image data. 請求項5記載画像処理装置において、前記画像特徴はエッジ量であることを特徴とする画像処理装置。   6. The image processing apparatus according to claim 5, wherein the image feature is an edge amount. 請求項5記載の画像処理装置において、前記画像特徴は文字領域または文字・線画領域であるか否かであることを特徴とする画像処理装置。   6. The image processing apparatus according to claim 5, wherein the image feature is a character area or a character / line drawing area. 請求項1〜9のいずれか1項に記載の画像処理装置において、淡画像データに対しては画像特徴によらない均一の画像処理を行うことを特徴とする画像処理装置。   The image processing apparatus according to claim 1, wherein uniform image processing is performed on light image data regardless of image characteristics. 少なくとも1色について濃度の異なる複数の色材で画像を記録するための画像データを生成する画像処理方法において、濃度の異なる複数の色材に関する濃淡画像データを生成し、濃淡データから各々の画像特徴を抽出し、該抽出された各画像特徴を合成し、該合成された画像特徴に基づいて前記濃淡画像データに画像処理を施すことを特徴とする画像処理方法。   In an image processing method for generating image data for recording an image with a plurality of color materials having different densities for at least one color, gray image data relating to the plurality of color materials having different densities is generated, and each image feature is generated from the light / dark data. , Combining the extracted image features, and performing image processing on the grayscale image data based on the combined image features. 少なくとも1色について濃度の異なる複数の色材で画像を記録するための画像データを生成する画像処理方法において、濃度の異なる複数の色材に関する濃淡画像データを生成し、濃淡画像データを合成して1つのデータを生成し、該合成されたデータから画像特徴を抽出し、該抽出された画像特徴に基づいて前記濃淡画像データに画像処理を施すことを特徴とする画像処理方法。   In an image processing method for generating image data for recording an image with a plurality of color materials having different densities for at least one color, gray image data relating to the plurality of color materials having different densities is generated, and the gray image data is synthesized. An image processing method, comprising: generating one data; extracting an image feature from the synthesized data; and performing image processing on the grayscale image data based on the extracted image feature.
JP2005053498A 2005-02-28 2005-02-28 Image processing apparatus and image processing method Expired - Fee Related JP4539979B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005053498A JP4539979B2 (en) 2005-02-28 2005-02-28 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005053498A JP4539979B2 (en) 2005-02-28 2005-02-28 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2006231867A true JP2006231867A (en) 2006-09-07
JP4539979B2 JP4539979B2 (en) 2010-09-08

Family

ID=37040029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005053498A Expired - Fee Related JP4539979B2 (en) 2005-02-28 2005-02-28 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4539979B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009300615A (en) * 2008-06-11 2009-12-24 Oki Data Corp Image correction method and image forming apparatus
JP2013066080A (en) * 2011-09-19 2013-04-11 Ricoh Co Ltd Image forming apparatus and program
US8752955B2 (en) 2011-11-04 2014-06-17 Ricoh Company, Ltd. Inkjet printer

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03204275A (en) * 1989-12-29 1991-09-05 Canon Inc Color picture recording method
JP2002072572A (en) * 2000-08-30 2002-03-12 Konica Corp Image-forming device and color image forming device
JP2007043394A (en) * 2005-08-02 2007-02-15 Ricoh Co Ltd Apparatus and method for image processing, and program making computer implement same method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03204275A (en) * 1989-12-29 1991-09-05 Canon Inc Color picture recording method
JP2002072572A (en) * 2000-08-30 2002-03-12 Konica Corp Image-forming device and color image forming device
JP2007043394A (en) * 2005-08-02 2007-02-15 Ricoh Co Ltd Apparatus and method for image processing, and program making computer implement same method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009300615A (en) * 2008-06-11 2009-12-24 Oki Data Corp Image correction method and image forming apparatus
JP2013066080A (en) * 2011-09-19 2013-04-11 Ricoh Co Ltd Image forming apparatus and program
US8752955B2 (en) 2011-11-04 2014-06-17 Ricoh Company, Ltd. Inkjet printer

Also Published As

Publication number Publication date
JP4539979B2 (en) 2010-09-08

Similar Documents

Publication Publication Date Title
US8477324B2 (en) Image processor and image processing method that uses s-shaped gamma curve
US8041143B2 (en) Methods for background and noise suppression in binary to grayscale image conversion
JP4610517B2 (en) Method and system for extending binary image data to contone image data
JP2006014274A (en) Color-converting apparatus, image forming apparatus, color converting method, computer program, and recording medium
JP3528885B2 (en) Image processing device
JP2003209708A (en) Image processing method, image processor, image forming device, program, and recording medium
US5835238A (en) Phantom level edge enhanced error diffusion
US6529291B1 (en) Fuzzy black color conversion using weighted outputs and matched tables
JP4539979B2 (en) Image processing apparatus and image processing method
JPS62149258A (en) Picture processing system
JPH11196271A (en) Image data conversion method, device and recording medium recording image data conversion program and readable by computer
US8339673B2 (en) Method and apparatus for improving edge sharpness with error diffusion
KR100621097B1 (en) Image processing method and image processing apparatus
JPH07152904A (en) Image processor
JP2004112728A (en) Image processing apparatus
JP3932161B2 (en) Image processing apparatus and method
JP2008306400A (en) Image processing method, image processing device, image forming apparatus, computer program, and record medium
JP3263201B2 (en) Image processing device
JP6648933B2 (en) Image processing device, image forming device, image processing method, and program.
JP4499685B2 (en) Image processing apparatus, image forming apparatus including the same, image processing method, image processing program, and recording medium
US6870640B1 (en) Method and apparatus for rendering a continuous tone image representation with multiple digital halftoning
JP2001352456A (en) Image-processing method and image-processing unit, and image-forming device provided with them
JP4176656B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium recording the program
JP2001309188A (en) Image processing unit and image processing method
JP2006005907A (en) Image processing method, image processing apparatus, image forming apparatus, computer program and dummy halftone matrix creating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100616

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100617

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees