JP2009005331A - Image processing unit and program - Google Patents

Image processing unit and program Download PDF

Info

Publication number
JP2009005331A
JP2009005331A JP2008042659A JP2008042659A JP2009005331A JP 2009005331 A JP2009005331 A JP 2009005331A JP 2008042659 A JP2008042659 A JP 2008042659A JP 2008042659 A JP2008042659 A JP 2008042659A JP 2009005331 A JP2009005331 A JP 2009005331A
Authority
JP
Japan
Prior art keywords
edge
image
unit
color
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008042659A
Other languages
Japanese (ja)
Other versions
JP4775598B2 (en
Inventor
Atsushi Ito
篤 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2008042659A priority Critical patent/JP4775598B2/en
Priority to US12/125,500 priority patent/US8189236B2/en
Publication of JP2009005331A publication Critical patent/JP2009005331A/en
Application granted granted Critical
Publication of JP4775598B2 publication Critical patent/JP4775598B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing unit outputting a binary picture, where its boundary is expressed in correspondence with a used color, not only for a brightness component in a color image but also for color components such as hue, chroma component, and color difference component. <P>SOLUTION: A first edge extracting section 2 extracts an edge for a color component except the brightness of an inputted color image, and a second edge extracting section 4 extracts an edge for the brightness component of the color image. A composite section 5 composites the edges extracted by the first and second edge extracting sections 2, 4. A binarization section 6 reflects an edge component composited by the composite section 5, performs highlight processing especially to the edge of the color component for binarization by pseudo halftone processing. For other sections, binarization is performed by pseudo halftone processing based on the brightness component of the color image for output. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理装置及び画像処理プログラムに関するものである。   The present invention relates to an image processing apparatus and an image processing program.

従来より、例えばカラー画像を白黒のプリンタで出力する場合などのように、カラー画像を白黒画像に変換することが行われている。カラー画像を白黒画像に変換する従来技術として、8色、16色程度のカラー画像であれば各色と白黒の階調とを対応づけて変換することにより、カラー画像を白黒により再現できる。しかし、フルカラー画像では1677万色以上の色が指定可能であるため、各色を白黒の階調と対応づけることは困難であるし、対応づけても利用者が階調の違いによって色の違いを認識できない場合も考えられる。   Conventionally, a color image is converted into a monochrome image, for example, when a color image is output by a monochrome printer. As a conventional technique for converting a color image into a black and white image, a color image can be reproduced in black and white by converting each color and black and white gradation in association with each other in the case of a color image of about 16 colors. However, since it is possible to specify more than 16.77 million colors in a full-color image, it is difficult to associate each color with a black and white gradation. There are cases where it cannot be recognized.

このように、カラー画像における色の違いを利用者が分かるように白黒画像へ一律に変換することは困難である。そのため、例えばカラー画像の1要素、例えば明度のみに着目して白黒画像へ変換することになる。この場合、他の要素について、例えば色相や彩度が異なっていても明度が同じであれば同じ白黒階調に変換されることになる。   Thus, it is difficult to uniformly convert the color difference in the color image into a monochrome image so that the user can understand. For this reason, for example, focusing on only one element of a color image, for example, brightness, the image is converted into a black and white image. In this case, for other elements, for example, even if the hue and saturation are different, if the lightness is the same, it is converted to the same monochrome gradation.

例えば特許文献1においては、基本的には白黒階調変換して擬似中間調処理を行うが、色相が異なる文字線画を検出して白黒階調変換後に強調処理を施して擬似中間調処理を行う。これにより、色相が異なる文字線画については、その色相の違いを濃度の違いにより表現し、文字線画を再現するようにしている。   For example, in Japanese Patent Application Laid-Open No. 2004-228561, black and white gradation conversion is basically performed and pseudo halftone processing is performed, but character line images having different hues are detected, and black and white gradation conversion is performed and emphasis processing is performed to perform pseudo halftone processing. . As a result, for character and line drawings having different hues, the difference in hue is expressed by the difference in density so that the character and line images are reproduced.

また、例えば特許文献2においては、赤、緑、青の色成分ごとにエッジを検出し、それらのエッジのうち、白黒のエッジでないものを、白黒2値化した画像に重ね合わせて出力している。このような処理によって、色相の違いだけでなく、濃淡の違う色の境界が黒線として白黒画像中に表現される。この色の境界の黒線は、色の濃淡にかかわらず挿入され、薄い色の境界にも濃い線により表現されることになる。   For example, in Patent Document 2, an edge is detected for each of the red, green, and blue color components, and among those edges, those that are not black and white edges are superimposed on a black and white binarized image and output. Yes. Through such processing, not only the difference in hue but also the boundary between different shades of color is expressed as a black line in the monochrome image. The black line at the color boundary is inserted regardless of the color density, and the light color boundary is also represented by a dark line.

特開2002−252773号公報JP 2002-252773 A 特許第3230479号公報Japanese Patent No. 3230479

本発明は、カラー画像を白黒画像に変換する際に、カラー画像の明度成分だけでなく色彩成分(色相及び彩度成分あるいは色差成分など)について、使用されている色に応じてその境界を表現した画像処理装置及び画像処理プログラムを提供することを目的とするものである。   In the present invention, when a color image is converted into a black and white image, not only the lightness component of the color image but also the color component (such as hue and saturation component or color difference component) of the boundary is expressed according to the color used. An object of the present invention is to provide an image processing apparatus and an image processing program.

本願請求項1に記載の発明は、カラー画像の明度以外の色彩成分についてのエッジを抽出する第1のエッジ抽出手段と、前記第1のエッジ抽出手段でエッジとして抽出した画素について強調処理を施して二値化処理を行い、そのほかの部分に対しては前記カラー画像の明度成分について二値化処理を行う二値化手段を有することを特徴とする画像処理装置である。   According to the first aspect of the present invention, first edge extraction means for extracting edges for color components other than lightness of a color image, and enhancement processing for pixels extracted as edges by the first edge extraction means. The image processing apparatus further includes binarization means for performing binarization processing and performing binarization processing on the brightness components of the color image for the other portions.

本願請求項2に記載の発明は、本願請求項1に記載の画像処理装置の発明の構成に加えて、さらに、前記カラー画像の明度成分についてエッジを抽出する第2のエッジ抽出手段と、前記第1のエッジ抽出手段及び前記第2のエッジ抽出手段により抽出したエッジを合成する合成手段を有し、前記合成手段は、前記第1のエッジ抽出手段がエッジとして抽出し、前記第2のエッジ抽出手段がエッジとして抽出しなかった画素については、当該画素の周囲に所定数以上の前記第2のエッジ抽出手段によりエッジとして抽出した画素が存在する場合には、当該画素についてエッジ成分としないことを特徴とする画像処理装置である。   In addition to the configuration of the image processing apparatus according to claim 1 of the present application, the invention described in claim 2 of the present application further includes second edge extraction means for extracting an edge for the brightness component of the color image, And combining means for combining the edges extracted by the first edge extracting means and the second edge extracting means, wherein the combining means extracts the second edge by the first edge extracting means. For a pixel that is not extracted as an edge by the extraction unit, if a predetermined number or more of pixels extracted as an edge by the second edge extraction unit exist around the pixel, the pixel is not regarded as an edge component. An image processing apparatus characterized by the above.

本願請求項3に記載の発明は、本願請求項2に記載の画像処理装置の発明における前記二値化手段が、前記合成手段により合成されたエッジ成分の前記第1のエッジ抽出手段でエッジとして抽出した画素について強調処理を施して擬似中間調の二値化処理を行うことを特徴とする画像処理装置である。   In the invention according to claim 3 of the present application, the binarization means in the invention of the image processing apparatus according to claim 2 is used as an edge by the first edge extraction means of the edge component synthesized by the synthesis means. An image processing apparatus characterized by performing an emphasis process on extracted pixels and performing a pseudo-halftone binarization process.

本願請求項4に記載の発明は、本願請求項1に記載の画像処理装置の発明の構成に加えて、さらに、前記カラー画像の明度成分についてエッジを抽出する第2のエッジ抽出手段と、前記カラー画像の明度成分について二値化する明度二値化手段と、前記明度二値化手段で二値化された画像に前記第2のエッジ抽出手段で抽出されたエッジの画素を二値の一方の値として合成する第1の合成手段と、前記第1の合成手段で合成した画像に前記第1のエッジ抽出手段により抽出したエッジの画素を前記一方の値として合成する第2の合成手段を有し、前記第2の合成手段は、前記第1の合成手段で合成された画像中で前記一方の値であって前記第1のエッジ抽出手段でエッジとして抽出した画素については、当該画素の周囲に所定数以上の前記一方の値の画素が存在する場合には、当該画素について前記一方の値とせず、前記二値化手段は、前記第2の合成手段により合成された結果を反映させるとともに、前記第2の合成手段により合成された画像中の前記一方の値以外の画素であって前記第1の合成手段で合成された画像で前記一方の値の画素について強調処理を施して擬似中間調の二値化処理を行うことを特徴とする画像処理装置である。   In addition to the configuration of the invention of the image processing device according to claim 1 of the present application, the invention described in claim 4 of the present application further includes a second edge extraction means for extracting an edge for the brightness component of the color image, Lightness binarization means for binarizing the lightness component of the color image, and the edge pixel extracted by the second edge extraction means to the image binarized by the lightness binarization means. First synthesis means for synthesizing as a value of, and second synthesis means for synthesizing the edge pixel extracted by the first edge extraction means as the one value to the image synthesized by the first synthesis means. And the second synthesizing unit has the one value in the image synthesized by the first synthesizing unit and the pixel extracted as an edge by the first edge extracting unit, More than a predetermined number of the ones around If there is a pixel having the value of ## EQU2 ## the binarizing means reflects the result synthesized by the second synthesizing means, and the second synthesizing means is not used as the one value for the pixel. A pixel having a value other than the one value in the image synthesized by the first synthesis means is subjected to an emphasis process on the pixel having the one value and subjected to a pseudo halftone binarization process. An image processing apparatus characterized by performing the processing.

本願請求項5に記載の発明は、本願請求項4に記載の画像処理装置の構成における前記第2の合成手段が、前記第1のエッジ抽出手段がエッジとして抽出し、前記第1の合成手段で合成された画像中で前記一方の値でない画素については、当該画素の周囲に所定数以上の前記一方の値の画素が存在する場合には、当該画素について前記一方の値としないことを特徴とする画像処理装置である。   In the invention according to claim 5 of the present application, the second synthesizing unit in the configuration of the image processing apparatus according to claim 4 extracts the first edge extracting unit as an edge, and the first synthesizing unit. The pixel that is not one of the values in the image synthesized in step 1 is not set to the one value for the pixel when there is a predetermined number or more of the one value around the pixel. The image processing apparatus.

本願請求項6に記載の発明は、本願請求項4または請求項5に記載の画像処理装置の構成における前記二値化手段が、前記第2の合成手段により合成された画像中で前記一方の値の画素であって前記第1の合成手段により合成された画像中で前記一方の値以外の画素について、前記第2の合成手段により合成された画像中の前記一方の値以外の画素であって前記第1の合成手段で合成された画像で前記一方の値の画素に対して行う強調処理とは異なる強調処理を施して擬似中間調の二値化処理を行うことを特徴とする画像処理装置である。   In the invention described in claim 6 of the present application, the binarizing means in the configuration of the image processing apparatus according to claim 4 or 5 of the present invention is configured such that the one of the images in the image combined by the second combining means. A pixel having a value other than the one value in the image synthesized by the first synthesizing unit is a pixel other than the one value in the image synthesized by the second synthesizing unit. An image processing characterized by performing a pseudo-halftone binarization process by performing an emphasis process different from the emphasis process performed on the one value pixel in the image synthesized by the first synthesis means Device.

本願請求項7に記載の発明は、カラー画像の明度以外の色彩成分についてのエッジを抽出する第1のエッジ抽出手段と、前記第1のエッジ抽出手段による抽出結果に従って前記カラー画像の明度成分について階調変換を行う階調変換手段と、前記階調変換手段で階調変換された明度成分について二値化する二値化手段を有することを特徴とする画像処理装置である。   According to the seventh aspect of the present invention, there is provided a first edge extracting means for extracting an edge for a color component other than the lightness of the color image, and a lightness component of the color image in accordance with an extraction result by the first edge extracting means. An image processing apparatus comprising: a gradation conversion unit that performs gradation conversion; and a binarization unit that binarizes the lightness component that has undergone gradation conversion by the gradation conversion unit.

本願請求項8に記載の発明は、本願請求項7に記載の発明の画像処理装置の構成に加え、さらに、前記カラー画像の明度成分についてエッジを抽出する第2のエッジ抽出手段と、前記第1のエッジ抽出手段及び前記第2のエッジ抽出手段により抽出したエッジを合成する合成手段を有し、前記階調変換手段は、前記合成手段により合成されたエッジ成分に従って前記カラー画像の明度成分について階調変換を行うことを特徴とする画像処理装置である。   The invention described in claim 8 includes, in addition to the configuration of the image processing apparatus of the invention described in claim 7 of the present application, a second edge extracting unit that extracts an edge for the brightness component of the color image, and A combination unit configured to combine the edges extracted by the first edge extraction unit and the second edge extraction unit, wherein the gradation conversion unit is configured to obtain a brightness component of the color image according to the edge component combined by the combination unit. An image processing apparatus that performs gradation conversion.

本願請求項9に記載の発明は、カラー画像の明度以外の色彩成分についてのエッジ強度を算出するエッジ強度算出手段と、前記エッジ強度算出手段によって算出されたエッジ強度に従って前記カラー画像の明度成分について階調変換を行う階調変換手段と、前記階調変換手段で階調変換された明度成分について二値化する二値化手段を有することを特徴とする画像処理装置である。   The invention according to claim 9 of the present application relates to an edge strength calculation means for calculating edge strength for color components other than the brightness of the color image, and a brightness component of the color image according to the edge strength calculated by the edge strength calculation means. An image processing apparatus comprising: a gradation conversion unit that performs gradation conversion; and a binarization unit that binarizes the lightness component that has undergone gradation conversion by the gradation conversion unit.

本願請求項10に記載の発明は、本願請求項9に記載の発明の画像処理装置の構成に加え、さらに、前記カラー画像の明度成分についてエッジを抽出する第2のエッジ抽出手段と、前記第2のエッジ抽出手段で抽出したエッジ成分と前記エッジ強度算出手段で算出したエッジ強度を加算する加算手段を有し、前記階調変換手段は、前記加算手段による加算結果に従って前記カラー画像の明度成分について階調変換を行うことを特徴とする画像処理装置である。   The invention described in claim 10 includes, in addition to the configuration of the image processing apparatus of the invention described in claim 9 of the present application, a second edge extracting unit that extracts an edge with respect to a brightness component of the color image, and And an addition means for adding the edge component extracted by the edge extraction means and the edge intensity calculated by the edge intensity calculation means, wherein the gradation conversion means is a lightness component of the color image according to the addition result by the addition means. The image processing apparatus is characterized in that gradation conversion is performed on.

本願請求項11に記載の発明は、コンピュータに、請求項1ないし請求項10のいずれか1項に記載の画像処理装置の機能を実行させることを特徴とする画像処理プログラムである。   The invention according to claim 11 of the present application is an image processing program that causes a computer to execute the function of the image processing apparatus according to any one of claims 1 to 10.

本願請求項1に記載の発明によれば、カラー画像を白黒画像に変換する際に、カラー画像中で使用されている色に応じてその境界を表現することができる。   According to the first aspect of the present invention, when a color image is converted into a black and white image, the boundary can be expressed according to the color used in the color image.

本願請求項2に記載の発明によれば、本願請求項1に記載の発明の効果に加え、色相や彩度のエッジの膨張を防いで色彩のエッジを正確に表現することができる。   According to the invention described in claim 2 of the present application, in addition to the effect of the invention described in claim 1 of the present application, it is possible to accurately express the edge of the color by preventing the expansion of the edge of the hue and saturation.

本願請求項3に記載の発明によれば、本願請求項2に記載の発明の効果に加え、色相や彩度のエッジを明瞭に表現することができる。   According to the invention described in claim 3 of the present application, in addition to the effect of the invention described in claim 2 of the present application, edges of hue and saturation can be clearly expressed.

本願請求項4に記載の発明によれば、本願請求項1に記載の発明の効果に加え、低明度部分を確実に再現するとともに濃色の色相や彩度のエッジでもはっきりと表現することができる。   According to the invention described in claim 4 of the present application, in addition to the effect of the invention described in claim 1 of the present application, it is possible to reliably reproduce the low-lightness portion and express it clearly even with a dark hue or saturation edge. it can.

本願請求項5に記載の発明によれば、本願請求項4に記載の発明の効果に加え、色相や彩度のエッジの膨張を防いで色相や彩度のエッジを正確に表現することができる。   According to the invention described in claim 5 of the present application, in addition to the effect of the invention described in claim 4 of the present application, it is possible to accurately express the edge of hue and saturation by preventing the expansion of the edge of hue and saturation. .

本願請求項6に記載の発明によれば、本願請求項4または請求項5に記載の発明の効果に加え、色相や彩度のエッジが低明度部分または高明度部分のいずれに存在していても、それぞれの場合に応じて表現することができる。   According to the invention described in claim 6 of the present application, in addition to the effect of the invention described in claim 4 or claim 5 of the present application, an edge of hue or saturation exists in either the low lightness portion or the high lightness portion. Can also be expressed according to each case.

本願請求項7に記載の発明によれば、カラー画像を白黒画像に変換する際に、カラー画像中で使用されている色に応じてその境界を表現することができる。   According to the seventh aspect of the present invention, when a color image is converted into a monochrome image, the boundary can be expressed according to the color used in the color image.

本願請求項8に記載の発明によれば、本願請求項7に記載の発明の効果に加え、明度のエッジをはっきりと表現することができる。   According to the invention described in claim 8 of the present application, in addition to the effect of the invention described in claim 7 of the present application, an edge of brightness can be clearly expressed.

本願請求項9に記載の発明によれば、カラー画像を白黒画像に変換する際に、カラー画像中で使用されている色彩成分のエッジ強度に応じてその境界を表現することができる。   According to the ninth aspect of the present invention, when a color image is converted into a black and white image, the boundary can be expressed according to the edge strength of the color component used in the color image.

本願請求項10に記載の発明によれば、本願請求項9に記載の発明の効果に加え、明度のエッジ強度についても加味して境界を表現することができる。   According to the invention described in claim 10 of the present application, in addition to the effect of the invention described in claim 9 of the present application, the boundary can be expressed in consideration of the edge strength of brightness.

本願請求項11に記載の発明は、本願請求項1ないし請求項10のいずれか1項に記載の発明の効果と同等の効果を得ることができる。   The invention described in claim 11 of the present application can obtain an effect equivalent to the effect described in any one of claims 1 to 10 of the present application.

図1は、本発明の第1の実施の形態を示すブロック図である。図中、1はフィルタ部、2は第1エッジ抽出部、3は平滑化部、4は第2エッジ抽出部、5は合成部、6は二値化部、11は色彩エッジ検出部、12は色彩エッジ演算部、13は浮動二値化部である。この例では入力されるカラー画像はL* ,a* ,b* 成分からなる画像であるとする。もちろん、このほかの明度あるいは輝度とその他の成分からなる画像であってもよい。また、明度あるいは輝度の成分を有しない例えばRGB成分からなる画像であれば、明度あるいは輝度の成分を有する色空間への色空間変換を予め行っておけばよい。なお、カラー画像の明度あるいは輝度成分以外の成分をまとめて色彩成分と呼んでいる。この例ではa* ,b* 成分が色彩成分である。 FIG. 1 is a block diagram showing a first embodiment of the present invention. In the figure, 1 is a filter unit, 2 is a first edge extraction unit, 3 is a smoothing unit, 4 is a second edge extraction unit, 5 is a synthesis unit, 6 is a binarization unit, 11 is a color edge detection unit, 12 Is a color edge calculation unit, and 13 is a floating binarization unit. In this example, it is assumed that the input color image is an image made up of L * , a * , and b * components. Of course, the image may be composed of other lightness or luminance and other components. Further, for an image made up of, for example, RGB components that do not have lightness or luminance components, color space conversion to a color space having lightness or luminance components may be performed in advance. Note that components other than the brightness or luminance component of the color image are collectively referred to as a color component. In this example, the a * and b * components are color components.

フィルタ部1は、カラー画像の明度以外の色彩成分に対して、第1エッジ抽出部2で行うエッジ抽出の支障となるノイズ成分などを除去するフィルタ処理を行う。例えば、指定範囲の画素値の中央値(メジアン)を処理後の画素値とするメジアンフィルタなどで構成すればよい。なお、このフィルタ部1を設けずに構成してもよい。   The filter unit 1 performs a filter process for removing a noise component that hinders edge extraction performed by the first edge extraction unit 2 on the color components other than the brightness of the color image. For example, what is necessary is just to comprise by the median filter etc. which make the median value (median) of the pixel value of a designated range the pixel value after a process. In addition, you may comprise without providing this filter part 1. FIG.

第1エッジ抽出部2は、カラー画像の明度以外の色彩成分についてのエッジを抽出する。この例では、フィルタ部1でフィルタ処理されたa* 成分及びb* 成分について、エッジ抽出処理を行う。第1エッジ抽出部2としては、ここでは色彩エッジ検出部11、色彩エッジ演算部12、浮動二値化部13を有している。 The first edge extraction unit 2 extracts edges for color components other than the brightness of the color image. In this example, edge extraction processing is performed on the a * component and the b * component filtered by the filter unit 1. Here, the first edge extraction unit 2 includes a color edge detection unit 11, a color edge calculation unit 12, and a floating binarization unit 13.

色彩エッジ検出部11は、カラー画像のa* 成分及びb* 成分のそれぞれについてエッジ強度を算出する。エッジ強度の算出方法は任意である。 The color edge detector 11 calculates the edge strength for each of the a * component and b * component of the color image. The method for calculating the edge strength is arbitrary.

色彩エッジ演算部12は、a* 成分のエッジ強度及びb* 成分のエッジ強度を合成した色彩エッジ強度を算出する。例えば二乗和の平方根を算出すればよい。もちろん他の方法でもよい。 The color edge calculation unit 12 calculates a color edge intensity obtained by combining the edge intensity of the a * component and the edge intensity of the b * component. For example, the square root of the sum of squares may be calculated. Of course, other methods may be used.

浮動二値化部13は、色彩エッジ演算部12により算出された色彩エッジ強度に対して浮動二値化処理を行う。浮動二値化処理は、処理対象の画素値と、その周辺の画素値の平均値を閾値として比較し、処理対象の画素の値を1または0に二値化するものである。このとき、色彩エッジ強度がほぼ一定の領域では小さな色彩エッジ強度の違いにより二値化結果が変化してしまうため、処理対象の画素値と閾値との差(絶対値)が所定以下では0(あるいは1)とするとよい。なお、この浮動二値化部13ではエッジか否かを判断すればよく、エッジ強度を二値化の対象としていることから、固定閾値を用いた二値化処理で代用してもよい。   The floating binarization unit 13 performs a floating binarization process on the color edge intensity calculated by the color edge calculation unit 12. In the floating binarization process, a pixel value to be processed and an average value of surrounding pixel values are compared as a threshold value, and the value of the pixel to be processed is binarized to 1 or 0. At this time, in a region where the color edge intensity is almost constant, the binarization result changes due to a small difference in the color edge intensity. Or 1). Note that the floating binarization unit 13 only needs to determine whether or not the edge is an edge, and since the edge strength is a binarization target, a binarization process using a fixed threshold value may be used instead.

浮動二値化部13からの出力(すなわち第1エッジ抽出部2からの出力)にはエッジ部分が抽出されているが、以下の説明では、a* 成分またはb* 成分でエッジが抽出された画素を1、それ以外の部分の画素を0とした二値の色彩エッジ画像が得られるものとする。 An edge portion is extracted from the output from the floating binarization unit 13 (that is, the output from the first edge extraction unit 2), but in the following description, an edge is extracted with an a * component or a b * component. Assume that a binary color edge image is obtained in which the pixel is 1 and the other pixels are 0.

平滑化部3は、カラー画像の明度成分について平滑化処理を行う。例えばカラー画像中に網点領域などがあった場合に個々の網点を平滑化したり、あるいはノイズなどを低減する。平滑化処理後の明度成分の画像から第2エッジ抽出部4でエッジを抽出するため、この平滑化部3ではなるべくエッジ成分が保存されるような平滑化処理を行うことが望ましい。そのような平滑化部3の一例を図2に示す。   The smoothing unit 3 performs a smoothing process on the brightness component of the color image. For example, when there is a halftone dot region or the like in a color image, each halftone dot is smoothed or noise is reduced. Since the edge is extracted by the second edge extraction unit 4 from the brightness component image after the smoothing process, it is desirable that the smoothing unit 3 performs a smoothing process that preserves the edge component as much as possible. An example of such a smoothing unit 3 is shown in FIG.

図2は、平滑化部の一例を示すブロック図である。図中、21は差分絶対値算出部、22は仮平滑化係数決定部、23は正規化部、24は畳み込み演算部である。差分絶対値算出部21は、平滑化処理の対象となる注目画素を中心とする所定の大きさの参照領域を設定し、注目画素の値(Viとする)と参照領域内の他の画素の値(Vjとする)との差分の絶対値(Aj=|Vi−Vj|)をそれぞれ算出する。   FIG. 2 is a block diagram illustrating an example of the smoothing unit. In the figure, 21 is a difference absolute value calculation unit, 22 is a provisional smoothing coefficient determination unit, 23 is a normalization unit, and 24 is a convolution operation unit. The difference absolute value calculation unit 21 sets a reference area having a predetermined size centered on the target pixel to be smoothed, sets the target pixel value (Vi), and other pixels in the reference area. The absolute value (Aj = | Vi−Vj |) of the difference from the value (Vj) is calculated.

仮平滑化係数決定部22は、参照領域の各画素に対応する平滑化係数(Cj)を仮決定する。平滑化係数Cjを仮決定する方法として、ここでは、ある単調減少関数f()を設定し、Cj=f(Aj)により平滑化係数Cjを仮決定することができる。f()が単調減少関数であることから、エッジのように差分の絶対値が大きい画素については平滑化係数Cjは小さい値となり注目画素への影響を減らすことができ、逆に非エッジ部のように差分の絶対値が小さい画素については平滑化係数Cjを大きい値として平滑化の効果を大きくすることができる。単調減少関数f()は任意であるが、例えば簡単にはCj=1−(1/max(Aj))・Ajのような線形関数や、2次以上の単調減少関数や指数単調減少関数など、様々な関数を適用可能である。なお、式中のmax(Aj)はAjの最大値である。   The temporary smoothing coefficient determination unit 22 temporarily determines a smoothing coefficient (Cj) corresponding to each pixel in the reference area. As a method for tentatively determining the smoothing coefficient Cj, here, a certain monotone decreasing function f () is set, and the smoothing coefficient Cj can be tentatively determined by Cj = f (Aj). Since f () is a monotonically decreasing function, the smoothing coefficient Cj becomes a small value for a pixel having a large difference value, such as an edge, and the influence on the target pixel can be reduced. As described above, for a pixel having a small absolute value of the difference, the smoothing effect can be increased by increasing the smoothing coefficient Cj. The monotonic decreasing function f () is arbitrary, but for example, simply a linear function such as Cj = 1− (1 / max (Aj)) · Aj, a quadratic or higher monotonic decreasing function, an exponential monotonic decreasing function, etc. Various functions can be applied. Note that max (Aj) in the equation is the maximum value of Aj.

正規化部23は、仮平滑化係数決定部22で仮に決定された平滑化係数Cjを正規化する。すなわち、参照領域内の平滑化係数Cjの和が1となるように演算を行う。具体的には正規化後の平滑化係数をCj’とするとき、Cj’=Cj/ΣCjにより求めることができる。この正規化は、一般に平滑化処理が平滑化係数の和を1としたフィルタ処理であることによる。   The normalizing unit 23 normalizes the smoothing coefficient Cj temporarily determined by the temporary smoothing coefficient determining unit 22. That is, the calculation is performed so that the sum of the smoothing coefficients Cj in the reference region becomes 1. Specifically, when the smoothing coefficient after normalization is Cj ′, it can be obtained by Cj ′ = Cj / ΣCj. This normalization is generally because the smoothing process is a filter process in which the sum of the smoothing coefficients is 1.

畳み込み演算部24は、参照領域内の各画素値と正規化部23で得られた正規化された平滑化係数とを用いて、いわゆる畳み込み演算を行う。畳み込み演算は、参照領域内の各画素値と正規化部23で得られた正規化された平滑化係数とを乗算した上で総和を演算することにより行われる。すなわち、演算後の注目画素の値をVi’としたとき、Vi’=ΣCj’・Vjによって演算することができる。   The convolution operation unit 24 performs a so-called convolution operation using each pixel value in the reference region and the normalized smoothing coefficient obtained by the normalization unit 23. The convolution operation is performed by multiplying each pixel value in the reference area by the normalized smoothing coefficient obtained by the normalization unit 23 and then calculating the sum. That is, when the value of the target pixel after the calculation is Vi ′, the calculation can be performed by Vi ′ = ΣCj ′ · Vj.

このように、この平滑化処理では画像に応じて平滑化係数を決定し、その際に画素値の差分の絶対値の大きさが大きいほど平滑化係数を小さく設定するので、エッジ領域ではエッジが保存され、非エッジ領域では平坦な領域ほど強く平滑化処理が施されることになる。なお、平滑化部3を設けずに構成してもよい。   As described above, in this smoothing process, the smoothing coefficient is determined according to the image, and the smoothing coefficient is set to be smaller as the absolute value of the difference between the pixel values is larger. In the non-edge region, the smoother processing is performed more strongly in the flat region. In addition, you may comprise without providing the smoothing part 3. FIG.

図1に戻り、第2エッジ抽出部4は、平滑化部3で平滑化処理を施した後の明度成分の画像についてエッジを抽出する。エッジを抽出する方法は任意であるが、例えば浮動二値化によりエッジを抽出すればよい。浮動二値化部13でも説明したように、浮動二値化処理は、処理対象の画素値と、その周辺の画素値の平均値を閾値として比較し、処理対象の画素の値を1または0に二値化するものである。このとき、処理対象の画素値と閾値との差(絶対値)が所定以下では例えば0としておけば、明度が平坦な部分では0となる。これにより、濃度差があるエッジ部分が1となって、エッジが抽出されることになる。   Returning to FIG. 1, the second edge extraction unit 4 extracts an edge of the brightness component image after the smoothing unit 3 performs the smoothing process. The method for extracting the edge is arbitrary, but for example, the edge may be extracted by floating binarization. As described in the floating binarization unit 13, the floating binarization process compares the pixel value to be processed with the average value of the surrounding pixel values as a threshold value, and sets the value of the pixel to be processed to 1 or 0. Is binarized. At this time, if the difference (absolute value) between the pixel value to be processed and the threshold value is equal to or less than a predetermined value, for example, 0, the lightness is 0 in a flat portion. As a result, the edge portion having the density difference becomes 1, and the edge is extracted.

合成部5は、第1エッジ抽出部2によりエッジが抽出された二値の画像と第2エッジ抽出部4によりエッジが抽出された二値の画像を合成する。図3は、合成部における合成処理の一例の説明図、図4は、第1エッジ抽出部でエッジを抽出し、第2エッジ抽出部でエッジを抽出しなかった場合の合成処理の具体例の説明図である。第1エッジ抽出部2によりエッジが抽出された(値‘1’)か否か(値‘0’)と、第2エッジ抽出部4によりエッジが抽出された(値‘1’)か否か(値‘0’)の組み合わせにより、合成後の値を図3に示すように決定する。   The synthesizing unit 5 synthesizes the binary image from which the edge is extracted by the first edge extracting unit 2 and the binary image from which the edge is extracted by the second edge extracting unit 4. FIG. 3 is an explanatory diagram of an example of the synthesis process in the synthesis unit, and FIG. 4 is a specific example of the synthesis process when the first edge extraction unit extracts an edge and the second edge extraction unit does not extract an edge. It is explanatory drawing. Whether or not an edge is extracted by the first edge extraction unit 2 (value “1”) (value “0”) and whether or not an edge is extracted by the second edge extraction unit 4 (value “1”) The combined value is determined as shown in FIG. 3 by the combination of (value “0”).

すなわち、第1エッジ抽出部2の出力も第2エッジ抽出部4の出力も‘0’であり、いずれもエッジとして検出していなければ、合成後の値は‘0’としてエッジでないとする。また、第1エッジ抽出部2の出力は‘0’であってエッジを検出していない場合でも、第2エッジ抽出部4の出力が‘1’であり、エッジを検出していた場合には、合成後の値を‘1’としてエッジであるとする。   That is, the output of the first edge extraction unit 2 and the output of the second edge extraction unit 4 are both “0”, and if neither is detected as an edge, the combined value is “0” and is not an edge. Even when the output of the first edge extraction unit 2 is “0” and no edge is detected, the output of the second edge extraction unit 4 is “1” and the edge is detected. Suppose that the value after synthesis is “1” and that it is an edge.

第1エッジ抽出部2の出力が‘1’であり、エッジを検出している場合に、第2エッジ抽出部4の出力が‘0’であってエッジを検出していない場合には、基本的には合成後の値を‘1’としてエッジであるとする。ただし、その処理対象の画素の周囲の画素について第2エッジ抽出部4の出力を参照し、第2エッジ抽出部4によりエッジとして抽出した画素(値‘1’の画素)が所定数(a)以上存在する場合には、合成後の値を‘0’としてエッジとしない。   If the output of the first edge extraction unit 2 is “1” and an edge is detected, the output of the second edge extraction unit 4 is “0” and no edge is detected. Specifically, it is assumed that the value after synthesis is “1” and an edge. However, a predetermined number (a) of pixels (values “1”) extracted as edges by the second edge extraction unit 4 with reference to the output of the second edge extraction unit 4 with respect to the pixels around the pixel to be processed If there is more than one, the value after synthesis is set to “0” and is not an edge.

これは、第1エッジ抽出部2と第2エッジ抽出部4の処理の違いによるものである。例えば図4(A)には、明度及び色彩とも周囲と異なる三角の図形が描かれたカラー画像を示している。図示の都合上、図形部分に斜線を施して示している。第1エッジ抽出部2では色彩のエッジをそのエッジの両側で抽出してしまうため、図4(B)に示すように図4(A)に示した図形のエッジよりも膨張したようなエッジ画像となる。一方、第2エッジ抽出部4では浮動二値化処理を行っているので、エッジ部の0または1の位置は保存され、図4(C)に示すようなエッジ画像が得られている。両者を比較すると、三角の図形のエッジの外側で、第1エッジ抽出部2でエッジとして抽出されたが第2エッジ抽出部4ではエッジとして抽出されていない画素が生じる。この画素についてエッジとはしないことによって、図4(D)に示すように、図形に即したエッジ成分が含まれたエッジ画像が合成されることになる。なお、図4(D)においてエッジ成分として残された部分は、第1エッジ抽出部2と第2エッジ抽出部4とでエッジ部として抽出した画素である。   This is due to the difference in processing between the first edge extraction unit 2 and the second edge extraction unit 4. For example, FIG. 4A shows a color image in which a triangular figure different from the surroundings in both brightness and color is drawn. For the convenience of illustration, the graphic portion is shown with diagonal lines. Since the first edge extraction unit 2 extracts color edges on both sides of the edge, an edge image that is expanded more than the edge of the figure shown in FIG. 4A as shown in FIG. It becomes. On the other hand, since the second edge extraction unit 4 performs the floating binarization process, the position of 0 or 1 of the edge part is stored, and an edge image as shown in FIG. 4C is obtained. When both are compared, pixels that are extracted as edges by the first edge extraction unit 2 but are not extracted by the second edge extraction unit 4 are generated outside the edges of the triangular figure. By not making this pixel an edge, as shown in FIG. 4D, an edge image including an edge component conforming to the figure is synthesized. In FIG. 4D, the remaining portions as the edge components are pixels extracted as edge portions by the first edge extraction unit 2 and the second edge extraction unit 4.

再び図1に戻り、二値化部6は、合成部5により合成されたエッジ画像を反映させて、カラー画像の明度成分について二値化する。図5は、二値化部6の処理の一例の説明図である。二値化部6は、図5(A)に示すように、入力されたカラー画像の明度成分(Lとする)と、第2エッジ抽出部4から出力される明度に関するエッジ画像(ELとする)と、合成部5で合成されたエッジ画像(ELCとする)を用いる。そして、図5(B)に従って二値化する。   Returning to FIG. 1 again, the binarization unit 6 binarizes the brightness component of the color image by reflecting the edge image synthesized by the synthesis unit 5. FIG. 5 is an explanatory diagram of an example of processing of the binarization unit 6. As shown in FIG. 5A, the binarization unit 6 uses the lightness component (L) of the input color image and the edge image (EL) regarding the lightness output from the second edge extraction unit 4. ) And the edge image (referred to as ELC) synthesized by the synthesis unit 5. Then, binarization is performed according to FIG.

まず、合成されたエッジ画像(ELC)が‘1’の場合には、基本的には二値化出力は‘1’とする。しかし、エッジ画像(ELC)が‘1’であっても|ELC−EL|が‘1’の場合、すなわち明度成分のエッジ画像ELが‘0’である色彩成分のエッジの場合には、明度成分(L)を参照し、強調処理を施した後に擬似中間調の二値化処理を行う。これにより、明度が変化していなくても色彩が変化したエッジが存在していれば、そのエッジが利用者に視認されるような二値化結果が出力されることになる。   First, when the synthesized edge image (ELC) is “1”, the binarized output is basically set to “1”. However, even if the edge image (ELC) is “1”, if | ELC-EL | is “1”, that is, if the edge image EL of the lightness component is “0”, the lightness With reference to the component (L), the emphasis process is performed, and then the pseudo halftone binarization process is performed. As a result, if there is an edge whose color has changed even if the brightness has not changed, a binarization result is output so that the edge can be visually recognized by the user.

このときの強調処理は、例えば図5(C)に示すような関数に従って行う。この例では、カラー画像の明度値を減少させるように設定した関数であり、擬似中間調の二値画像では、利用者にとって濃く見えるように変換している。もちろん、強調処理に用いる関数は任意であるし、強調処理の方法についても任意である。   The enhancement process at this time is performed according to a function as shown in FIG. In this example, the function is set so as to decrease the brightness value of the color image, and the pseudo halftone binary image is converted so that it looks dark to the user. Of course, the function used for the enhancement process is arbitrary, and the enhancement process method is also arbitrary.

また、合成されたエッジ画像(ELC)が‘0’の場合には、エッジ以外の部分であるので基本的には明度成分に従って擬似中間調の二値化処理を行い、濃淡を再現する。なお、この例ではELCが‘0’の場合には|ELC−EL|が‘1’にはならない。   Further, when the synthesized edge image (ELC) is “0”, since it is a portion other than the edge, a pseudo-halftone binarization process is basically performed according to the lightness component to reproduce light and shade. In this example, when ELC is “0”, | ELC-EL | does not become “1”.

このようにして二値化部6から出力される二値画像は、平坦部は擬似中間調により再現され、明度及び色彩成分のエッジについても再現される。利用者が出力された二値画像を参照した際には、濃淡により明るさの違いが視認される。また、同じ明るさでも色の違いは、エッジ部を強調処理して擬似中間調により二値化するので、それぞれの色の明るさに応じたエッジが表現され、色の違いが視認されることになる。例えば薄い色が隣接している部分では、単に黒い線を挿入するのではなく、その色の明るさより多少濃いエッジが挿入されることになる。   In this way, the binary image output from the binarization unit 6 has a flat portion reproduced by pseudo halftone, and also reproduces the brightness and the edge of the color component. When the user refers to the output binary image, the difference in brightness is visually recognized by the shading. Also, even with the same brightness, the difference in color is binarized by pseudo-halftone by emphasizing the edge part, so that the edge according to the brightness of each color is expressed and the difference in color is visually recognized become. For example, in a portion where light colors are adjacent to each other, a black line is not simply inserted, but an edge slightly darker than the brightness of the color is inserted.

図6は、本発明の第1の実施の形態における動作の一例を示すフローチャート、図7は、同じく各処理過程における画像の具体例の説明図である。なお、S31とS32〜S35の処理はいずれが先に行われてもよいし、並行して行ってもよい。   FIG. 6 is a flowchart showing an example of the operation according to the first embodiment of the present invention, and FIG. 7 is an explanatory diagram of a specific example of an image in each processing step. Note that either of the processes of S31 and S32 to S35 may be performed first or in parallel.

以下の説明では図7(A)に示すカラー画像が処理対象として入力されたものとする。図示の都合上、濃淡や色の違いは斜線の間隔や方向などを異ならせたり交差させるなどにより示している。図7(A)に示したカラー画像の例では、4つの異なる画像により構成されている。左上は白色の背景に黒色で四角が描かれている。左下は白色の背景に灰色の四角が描かれている。右上は背景と四角との明度は同じであるがb* 成分が異なる色で背景及び四角が描かれている例を示している。右下は灰色の背景に、背景より濃い灰色の四角が描かれている。このようなカラー画像の明度成分は図7(B)に示すようになり、また、b* 成分は図7(C)に示すようになったとする。 In the following description, it is assumed that the color image shown in FIG. For convenience of illustration, the difference in shading and color is indicated by changing the intervals and directions of diagonal lines or crossing them. In the example of the color image shown in FIG. 7A, the image is composed of four different images. The upper left is a black square on a white background. The lower left corner has a gray square on a white background. The upper right shows an example in which the background and the square are drawn with colors having the same brightness but a different b * component. The lower right corner has a gray background and a darker gray square than the background. It is assumed that the brightness component of such a color image is as shown in FIG. 7B, and the b * component is as shown in FIG. 7C.

図6のS31において、処理対象のカラー画像の明度成分について、平滑化部3で平滑化処理を施し、第2エッジ抽出部4で例えば浮動二値化処理などによりエッジを抽出する。この処理によって、図7(B)に示した明度成分の画像から、図7(D)に示すような明度エッジ画像が得られる。   In S31 of FIG. 6, the lightness component of the color image to be processed is subjected to smoothing processing by the smoothing unit 3, and the second edge extraction unit 4 extracts edges by, for example, floating binarization processing. By this processing, a brightness edge image as shown in FIG. 7D is obtained from the brightness component image shown in FIG.

また、処理対象のカラー画像の明度成分以外の色彩成分、ここではa* 成分及びb* 成分について、S32においてフィルタ部1でフィルタ処理を施した後、S33で第1エッジ抽出部2の色彩エッジ検出部11はa* 成分及びb* 成分のそれぞれについてエッジ強度を算出する。そしてS34において、色彩エッジ演算部12は色彩エッジ検出部11で得たa* 成分及びb* 成分のエッジ強度を合成し、S35において、浮動二値化部13は合成されたエッジ強度を浮動二値化処理する。これによって、図7(C)に示したb* 成分の画像(及びa* 成分の画像)から、図7(E)に示すような色彩エッジ画像が得られる。 Further, after color processing other than the brightness component of the color image to be processed, here a * component and b * component, is filtered by the filter unit 1 in S32, the color edge of the first edge extraction unit 2 in S33 The detection unit 11 calculates the edge strength for each of the a * component and the b * component. In S34, the color edge calculation unit 12 combines the edge intensities of the a * component and b * component obtained by the color edge detection unit 11, and in S35, the floating binarization unit 13 outputs the combined edge strength to the floating binary. Perform value processing. Accordingly, a color edge image as shown in FIG. 7E is obtained from the b * component image (and the a * component image) shown in FIG.

S36において、合成部5は第1エッジ抽出部2から出力された色彩成分からエッジを抽出した色彩エッジ画像と、第2エッジ抽出部4から出力された明度エッジ画像を合成する。図7に示す例では、図7(D)に示した明度エッジ画像と図7(E)に示した色彩エッジ画像とを合成する。これにより、図7(F)に示すような合成エッジ画像が得られる。この合成処理は例えば図3、図4で説明した方法で行われる。   In S <b> 36, the synthesis unit 5 synthesizes the color edge image obtained by extracting the edge from the color component output from the first edge extraction unit 2 and the brightness edge image output from the second edge extraction unit 4. In the example illustrated in FIG. 7, the brightness edge image illustrated in FIG. 7D and the color edge image illustrated in FIG. Thereby, a composite edge image as shown in FIG. 7F is obtained. This combining process is performed, for example, by the method described with reference to FIGS.

S37及びS38において、二値化部6は図5(B)に示したようにして二値化処理を行う。このとき、まず合成部5で合成された合成エッジ画像がエッジを示し、明度エッジ画像がエッジを示していない(|ELC−EL|=1)場合、すなわち色彩エッジ画像においてエッジを示している場合に、強調処理を行って濃度を調整する。そしてS38において、合成エッジ画像及び明度エッジ画像ともにエッジを示している場合を除き、擬似中間調による二値化処理を行う。なお、合成エッジ画像及び明度エッジ画像ともにエッジを示している場合には、そのまま‘1’とする。この二値化部6による二値化処理によって、図7(G)に示すような二値化された画像が出力されることになる。図7(G)に示すように、右上の1/4内の四角のエッジ部については、黒い線ではなく、擬似中間調によって表現されている。   In S37 and S38, the binarization unit 6 performs binarization processing as shown in FIG. At this time, first, when the combined edge image combined by the combining unit 5 indicates an edge and the lightness edge image does not indicate an edge (| ELC-EL | = 1), that is, when a color edge image indicates an edge. Then, the emphasis process is performed to adjust the density. Then, in S38, the binarization process using pseudo halftone is performed except when both the composite edge image and the lightness edge image indicate edges. If both the composite edge image and the lightness edge image indicate an edge, it is set to “1” as it is. By the binarization processing by the binarization unit 6, a binarized image as shown in FIG. 7G is output. As shown in FIG. 7G, the square edge portion in the upper right quarter is expressed by a pseudo halftone rather than a black line.

S39において、未処理の画素があるか否かを判定し、未処理の画素が残っていれば、S31に戻って未処理の画素に対する処理を繰り返す。全ての画素について処理を終えたら、図6に示した処理を終える。   In S39, it is determined whether or not there is an unprocessed pixel. If there is an unprocessed pixel, the process returns to S31 to repeat the process for the unprocessed pixel. When the process is completed for all the pixels, the process shown in FIG.

図8は、本発明の第1の実施の形態における変形例を示すブロック図である。図中、14は明度二値化部、15は明度合成部である。この変形例では、図1に示した構成に明度二値化部14と明度合成部15を加えている。   FIG. 8 is a block diagram showing a modification of the first embodiment of the present invention. In the figure, 14 is a lightness binarization unit, and 15 is a lightness synthesis unit. In this modification, a lightness binarization unit 14 and a lightness synthesis unit 15 are added to the configuration shown in FIG.

明度二値化部14は、カラー画像の明度成分、ここでは平滑化部3で平滑化処理を施した後の明度成分について、例えば固定閾値を用いた二値化方式などによって二値化する。上述のように基本的には抽出したエッジを二値画像においてそのまま反映させることから、この明度二値化部14によって黒文字や黒線などを二値化してエッジとともに処理することにより、これらを確実に二値画像に反映させるようにしている。   The lightness binarization unit 14 binarizes the lightness component of the color image, here the lightness component after the smoothing process is performed by the smoothing unit 3, for example, by a binarization method using a fixed threshold. As described above, the extracted edges are basically reflected in the binary image as they are. Therefore, the lightness binarization unit 14 binarizes black characters and black lines and processes them together with the edges, thereby ensuring these. Is reflected in the binary image.

明度合成部15は、明度二値化部14で二値化された画像に、第2エッジ抽出部4で抽出されたエッジの画素を二値の一方の値として合成する。例えば二値を‘0’と‘1’とし、明度二値化部14で低明度部を‘1’とする場合には、第2エッジ抽出部4で抽出されたエッジ部分を‘1’として合成すればよい。以下の説明では、このように一方の値を‘1’として説明する。   The lightness synthesis unit 15 synthesizes the edge pixel extracted by the second edge extraction unit 4 as one of the binary values with the image binarized by the lightness binarization unit 14. For example, when the binary values are set to “0” and “1”, and the lightness binarization unit 14 sets the low lightness portion to “1”, the edge portion extracted by the second edge extraction unit 4 is set to “1”. What is necessary is just to synthesize. In the following description, one value is described as “1” in this way.

この明度二値化部14及び明度合成部15の追加により、合成部5は、明度合成部15で合成した画像に、第1エッジ抽出部2により抽出したエッジの画素を一方の値として合成することになる。図9は、合成部における合成処理の別の例の説明図、図10は、明度合成部15で一方の値を取り、かつ第1エッジ抽出部でエッジを抽出した場合の合成処理の具体例の説明図である。この変形例では、第2エッジ抽出部4の出力の代わりに明度合成部15で合成された画像における画素値を用いることになる。すなわち、第1エッジ抽出部2によりエッジが抽出された(値‘1’)か否か(値‘0’)と、明度合成部15により合成された画像における値が‘1’か‘0’かの組み合わせにより、合成後の値を図9に示すように決定すればよい。   By adding the lightness binarization unit 14 and the lightness synthesis unit 15, the synthesis unit 5 combines the edge pixel extracted by the first edge extraction unit 2 as one value with the image synthesized by the lightness synthesis unit 15. It will be. FIG. 9 is an explanatory diagram of another example of the synthesizing process in the synthesizing unit, and FIG. 10 is a specific example of the synthesizing process when the lightness synthesizing unit 15 takes one value and the first edge extracting unit extracts the edge. It is explanatory drawing of. In this modification, the pixel value in the image synthesized by the lightness synthesis unit 15 is used instead of the output of the second edge extraction unit 4. That is, whether or not the edge is extracted by the first edge extraction unit 2 (value “1”) (value “0”), and the value in the image synthesized by the lightness synthesis unit 15 is “1” or “0”. Depending on the combination, the value after synthesis may be determined as shown in FIG.

図9に示した例では、第1エッジ抽出部2がエッジとして検出せず、出力が‘0’であり、明度合成部15の出力も‘0’である場合には、合成後の値は‘0’とする。また、第1エッジ抽出部2がエッジを検出しておらず、出力が‘0’であっても、明度合成部15の出力が‘1’である場合には、合成後の値を‘1’とする。   In the example shown in FIG. 9, when the first edge extraction unit 2 does not detect as an edge, the output is “0”, and the output of the lightness synthesis unit 15 is also “0”, the value after synthesis is Set to '0'. Further, even if the first edge extraction unit 2 has not detected an edge and the output is “0”, if the output of the lightness synthesis unit 15 is “1”, the value after synthesis is set to “1”. 'And.

第1エッジ抽出部2の出力が‘1’であり、エッジを検出している場合に、明度合成部15の出力が‘0’である場合には、基本的には合成後の値を‘1’とする。ただし、この変形例では、その処理対象の画素の周囲の画素について明度合成部15の出力を参照し、明度合成部15の出力が‘1’の画素が所定数(a)以上存在する場合には、合成後の値を‘0’とする。この場合については図4を用いて既に説明したとおりである。   When the output of the first edge extraction unit 2 is “1” and an edge is detected, and the output of the lightness synthesis unit 15 is “0”, the value after synthesis is basically set to “ 1 ′. However, in this modification, the output of the lightness synthesis unit 15 is referred to for the pixels around the pixel to be processed, and when the output of the lightness synthesis unit 15 has a predetermined number (a) or more of pixels. The value after synthesis is “0”. This case is as already described with reference to FIG.

また、第1エッジ抽出部2がエッジとして検出し、明度合成部15の出力も‘1’を出力している場合には、基本的には合成後の値を‘1’とする。ただし、その処理対象の画素の周囲の画素について明度合成部15の出力を参照し、明度合成部15の出力が‘1’の画素が所定数(b)以上存在する場合には、合成後の値を‘0’とする。   If the first edge extraction unit 2 detects an edge and the output of the lightness synthesis unit 15 also outputs “1”, the value after synthesis is basically set to “1”. However, referring to the output of the lightness synthesis unit 15 for the pixels around the pixel to be processed, and when the output of the lightness synthesis unit 15 is more than a predetermined number (b) of “1” pixels, The value is “0”.

これは、明度二値化部14により低明度の領域について‘1’が出力されたが、その領域内に色彩のエッジが存在していた場合に、その色彩のエッジを再現するためのものである。例えば図10(A)には、明度が周囲と同じ(非常に暗いとする)で色彩が周囲と異なる三角の図形が描かれたカラー画像を示している。図示の都合上、色彩の違いを斜線の方向を異ならせて示している。明度二値化部14では明度が同じであって非常に暗いため、例えば図10(C)に示すように図形及びその周囲とも‘1’となっている。明度合成部15からも、この領域については‘1’として出力される。   This is for reproducing the edge of the color when the lightness binarization unit 14 outputs “1” for the low lightness area and there is a color edge in the area. is there. For example, FIG. 10A shows a color image in which a triangular figure having the same brightness as that of the surroundings (assuming that it is very dark) and having a different color from the surroundings is drawn. For the convenience of illustration, the difference in color is shown by changing the direction of the oblique line. Since the lightness binarization unit 14 has the same lightness and is very dark, for example, as shown in FIG. This area is also output as ‘1’ from the lightness synthesis unit 15.

しかし第1エッジ抽出部2では色彩のエッジを検出し、図10(B)に示すようにエッジ画像が出力される。このような場合には、例えば図3に示した合成処理を行うと、明度合成部15から‘1’が出力されている場合には、第1エッジ抽出部2の出力にかかわらず合成部5の出力は‘1’となる。そのため、色彩のエッジが反映されなくなってしまう。このような場合に色彩のエッジを二値画像に反映させるために、両方が‘1’の場合には周囲の明度合成部15の出力を参照し、図10(C)に示したような状態であれば合成後の値を‘0’として図10(D)のような合成後の画像とする。これにより、色彩のエッジが保存される。   However, the first edge extraction unit 2 detects a color edge and outputs an edge image as shown in FIG. In such a case, for example, when the synthesis process shown in FIG. 3 is performed, if “1” is output from the lightness synthesis unit 15, the synthesis unit 5 regardless of the output of the first edge extraction unit 2. The output of is “1”. For this reason, the color edge is not reflected. In order to reflect the color edge in the binary image in such a case, when both are “1”, the output of the surrounding lightness synthesis unit 15 is referred to and the state as shown in FIG. If so, the synthesized value is set to “0”, and the synthesized image as shown in FIG. This preserves the color edges.

さらに、上述のような変更に対応するため、二値化部6についても変更するとよい。図11は、二値化部6の処理の別の例の説明図である。なお、ここでは明度合成部15からの出力をELとし、合成部5からの出力をELCとして示しており、二値化部6は図11(A)に従って二値化処理を行う。主に、図9、図10で説明したように明度合成部15から‘1’が出力され、かつ、第1エッジ抽出部2の出力が‘1’の場合でも合成部5の出力は‘0’となり得るため、この場合についての二値化処理を規定している。また、図11に示す例では合成部5からの出力と明度合成部15からの出力がともに‘1’の場合についても擬似中間調処理を行う例を示している。   Furthermore, the binarization unit 6 may be changed in order to cope with the change as described above. FIG. 11 is an explanatory diagram of another example of the process of the binarization unit 6. Here, the output from the lightness synthesis unit 15 is denoted as EL, and the output from the synthesis unit 5 is denoted as ELC. The binarization unit 6 performs binarization processing according to FIG. Mainly, as described with reference to FIGS. 9 and 10, even when “1” is output from the lightness synthesis unit 15 and the output of the first edge extraction unit 2 is “1”, the output of the synthesis unit 5 is “0”. Since it can be ', we specify the binarization process for this case. The example shown in FIG. 11 shows an example in which pseudo halftone processing is performed even when the output from the combining unit 5 and the output from the lightness combining unit 15 are both “1”.

まず、合成部5の出力(ELC)が‘0’であり、|ELC−EL|が‘0’の場合には、エッジ以外の部分であるので基本的には明度成分に従って擬似中間調の二値化処理を行い、濃淡を再現する。合成されたエッジ画像(ELC)が‘0’となるのは、第1エッジ抽出部2及び第2エッジ抽出部4でエッジとして検出されず、また明度合成部15でも閾値よりも高明度であるため‘0’を出力した画素と、図4を用いて説明した処理により第1エッジ抽出部2でエッジとして抽出されたがエッジとしなかった画素である。   First, when the output (ELC) of the synthesizing unit 5 is “0” and | ELC-EL | is “0”, since it is a portion other than the edge, basically two pseudo halftones according to the lightness component. Performs value processing and reproduces shading. The synthesized edge image (ELC) becomes “0”, which is not detected as an edge by the first edge extraction unit 2 and the second edge extraction unit 4, and the lightness synthesis unit 15 has a lightness higher than the threshold value. Therefore, it is a pixel that outputs “0” and a pixel that is extracted as an edge by the first edge extraction unit 2 by the process described with reference to FIG.

合成部5の出力(ELC)が‘0’であり、|ELC−EL|が‘1’の場合には、明度成分(L)を参照し、強調処理を施した後に擬似中間調の二値化処理を行う。これは、図10で説明したように、色彩成分のエッジが再現されないために強制的に‘0’とした画素である。ここでは、この色彩成分のエッジについて強調処理によって周囲の画素との間に明度の差をつけて擬似中間調により再現し、周囲の画素と異なる明度の擬似中間調再現により色彩成分のエッジが利用者により視認されるようにしている。   When the output (ELC) of the synthesizing unit 5 is “0” and | ELC-EL | is “1”, the lightness component (L) is referred to, and after performing emphasis processing, the binary value of pseudo halftone Process. As described with reference to FIG. 10, this is a pixel that is forcibly set to “0” because the edge of the color component is not reproduced. Here, the edge of the color component is reproduced by pseudo-halftone with a brightness difference from the surrounding pixels by enhancement processing, and the edge of the color component is used by reproducing the pseudo-halftone of lightness different from that of the surrounding pixels. It is made visible by the person.

この場合に行う強調処理(強調処理b)は、例えば図11(B)に示すような関数に従って行う。この例では、カラー画像の明度値を増加させるように設定した関数であり、擬似中間調の二値画像では、利用者にとって明るく見えるように変換している。上述のように、この場合の画素は周囲が低明度の場合であるため、明るく見えるように再現するとよい。   The enhancement process (enhancement process b) performed in this case is performed according to a function as shown in FIG. In this example, the function is set so as to increase the brightness value of the color image, and the pseudo-halftone binary image is converted so that it appears bright to the user. As described above, the pixel in this case is a case where the surrounding area is low in brightness, and therefore it is preferable to reproduce the pixel so that it looks bright.

また、合成部5の出力(ELC)が‘1’であり、|ELC−EL|が‘0’の場合には、基本的には二値化出力は‘1’とすればよいが、この例では明度成分(L)を参照し、強調処理を施した後に擬似中間調の二値化処理を行う例を示している。この場合としては、2つの場合がある。一つは、第1エッジ抽出部2はエッジとしていないが、明度合成部15の出力が‘1’の場合である。もう一つは、第1エッジ抽出部2がエッジとして抽出するとともに明度合成部15が‘1’を出力し、図10で説明した例外的な処理でも‘0’とならずに‘1’のまま残された画素である。これらの場合にはエッジであることを再現するため、強調処理によって周囲の画素との間に明度の差をつけて擬似中間調処理を行い、エッジが利用者により視認されるようにしている。   Further, when the output (ELC) of the combining unit 5 is “1” and | ELC-EL | is “0”, the binarized output may be basically set to “1”. In the example, the lightness component (L) is referred to, and after performing enhancement processing, pseudo halftone binarization processing is performed. There are two cases in this case. One is a case where the first edge extraction unit 2 does not use an edge but the output of the lightness synthesis unit 15 is ‘1’. The other is that the first edge extraction unit 2 extracts the edge and the lightness synthesis unit 15 outputs “1”. Even in the exceptional processing described with reference to FIG. It is a pixel that remains. In these cases, in order to reproduce an edge, pseudo halftone processing is performed by adding a brightness difference to surrounding pixels by enhancement processing so that the edge is visually recognized by the user.

このときの強調処理(強調処理c)は、例えば図11(C)に示すような関数に従って行えばよい。この例では、カラー画像の明度値を減少させるように設定した関数であり、擬似中間調の二値画像では、利用者にとって濃く見えるように変換している。これにより、エッジが周囲よりも濃く視認されることになる。また、明度二値化部14によって‘1’とされた黒文字や黒線などは確実に黒として再現されるようにしている。   The enhancement process (enhancement process c) at this time may be performed according to a function as shown in FIG. In this example, the function is set so as to decrease the brightness value of the color image, and the pseudo halftone binary image is converted so that it looks dark to the user. Thereby, the edge is visually recognized darker than the surroundings. Further, the black character or black line that is set to “1” by the lightness binarization unit 14 is surely reproduced as black.

合成部5の出力(ELC)が‘1’であり、|ELC−EL|が‘1’の場合、すなわち明度合成部15の出力ELが‘0’である色彩成分のエッジの場合についても、明度成分(L)を参照し、強調処理を施した後に擬似中間調の二値化処理を行う。これにより、明度が変化していなくても色彩が変化したエッジが存在していれば、そのエッジが利用者に視認されるような二値化結果が出力されることになる。   In the case where the output (ELC) of the combining unit 5 is “1” and | ELC-EL | is “1”, that is, in the case of the edge of the color component whose output EL of the lightness combining unit 15 is “0”, Referring to the lightness component (L), the emphasis process is performed, and then the pseudo halftone binarization process is performed. As a result, if there is an edge whose color has changed even if the brightness has not changed, a binarization result is output so that the edge can be visually recognized by the user.

このときの強調処理についても、例えば図11(C)に示すように、カラー画像の明度値を減少させるように設定した関数を用いて行えばよい。この強調処理は、擬似中間調の二値画像において利用者にとって濃く見えるように変換しており、色彩成分のエッジが利用者に視認されるような二値化結果が出力されることになる。   The enhancement processing at this time may also be performed using a function set so as to decrease the brightness value of the color image, for example, as shown in FIG. This enhancement processing is converted so that it looks dark to the user in the pseudo halftone binary image, and a binarization result is output so that the edge of the color component is visually recognized by the user.

このように、この例では合成部5の出力(ELC)が‘0’、|ELC−EL|が‘1’の場合と、エッジ画像(ELC)が‘1’の場合とで異なる強調処理を施している。もちろん、エッジ画像(ELC)が‘1’の場合に、さらに|ELC−EL|が‘0’の場合と|ELC−EL|が‘1’の場合とで異なる強調処理を施してもよい。なお、それぞれの強調処理に用いる関数は任意であるし、強調処理の方法についても任意である。   Thus, in this example, different emphasis processing is performed when the output (ELC) of the combining unit 5 is “0” and | ELC-EL | is “1” and when the edge image (ELC) is “1”. Has been given. Of course, when the edge image (ELC) is “1”, different enhancement processing may be performed depending on whether | ELC-EL | is “0” and | ELC-EL | is “1”. Note that the function used for each emphasis process is arbitrary, and the emphasis process method is also arbitrary.

図12は、本発明の第1の実施の形態における動作の別の例を示すフローチャート、図13は、同じく各処理過程における画像の別の具体例の説明図である。なお、S41の処理とS32〜S35の処理はいずれが先に行われてもよいし、並行して行ってもよい。また、図12におけるS32〜S35、S39の処理は図6を用いて説明したとおりである。   FIG. 12 is a flowchart showing another example of the operation in the first embodiment of the present invention, and FIG. 13 is an explanatory diagram of another specific example of an image in each processing step. Note that either the processing of S41 and the processing of S32 to S35 may be performed first or in parallel. Further, the processes of S32 to S35 and S39 in FIG. 12 are as described with reference to FIG.

以下の説明では図13(A)に示すカラー画像が処理対象として入力されたものとする。図示の都合上、濃淡や色の違いは斜線の間隔や方向などを異ならせたり交差させるなどにより示している。図13(A)に示したカラー画像の例では、4つの異なる画像により構成されている。左上は白色の背景に黒色で四角が描かれている。左下は白色の背景に明るい灰色の四角が描かれている。右上は背景と四角との明度は同じであり、いずれも低明度であって、b* 成分が異なる色で背景及び四角が描かれている例を示している。右下は灰色の背景に、背景より濃い低明度の灰色の四角が描かれている。このようなカラー画像の明度成分は図13(B)に示すようになり、また、b* 成分は図13(C)に示すようになったとする。 In the following description, it is assumed that the color image shown in FIG. For convenience of illustration, the difference in shading and color is indicated by changing the intervals and directions of diagonal lines or crossing them. In the example of the color image shown in FIG. 13A, the image is composed of four different images. The upper left is a black square on a white background. The lower left is a light gray square on a white background. The upper right shows an example in which the background and the square have the same brightness, both have low brightness, and the background and the square are drawn with different b * components. The lower right corner has a gray background and a gray square with a lower brightness than the background. It is assumed that the brightness component of such a color image is as shown in FIG. 13 (B), and the b * component is as shown in FIG. 13 (C).

S41において、処理対象のカラー画像の明度成分について、平滑化部3で平滑化処理を施した後、第2エッジ抽出部4で例えば浮動二値化処理などによりエッジを抽出するとともに明度二値化部14で例えば固定閾値による二値化処理を行い、両者の結果を明度合成部15によって合成する。この処理によって、図13(B)に示した明度成分の画像から、図13(D)に示すような画像が明度合成部15から出力される。なお、ここでは右上の部分は背景及び四角ともに明度二値化部14で‘1’とされたものとしている。また、右下の四角の部分についても、明度二値化部14で‘1’とされたものとしている。   In S41, the lightness component of the color image to be processed is subjected to smoothing processing by the smoothing unit 3, and then the second edge extracting unit 4 extracts edges by, for example, floating binarization processing and lightness binarization. For example, the unit 14 performs binarization processing using a fixed threshold value, and the brightness combining unit 15 combines the results of both. By this processing, an image as shown in FIG. 13D is output from the brightness composition unit 15 from the brightness component image shown in FIG. Here, the upper right portion is assumed to be set to ‘1’ by the brightness binarization unit 14 for both the background and the square. The lower right square is also set to ‘1’ by the lightness binarization unit 14.

また、処理対象のカラー画像の明度成分以外の色彩成分、ここではa* 成分及びb* 成分については、S32からS35までの処理によって、図6で説明したようにして色彩のエッジが抽出される。この処理によって、図13(C)に示したb* 成分の画像(及びa* 成分の画像)から、図13(E)に示すような色彩エッジ画像が得られる。 Further, for the color components other than the lightness component of the color image to be processed, here, the a * component and the b * component, the edge of the color is extracted as described in FIG. 6 by the processing from S32 to S35. . By this processing, a color edge image as shown in FIG. 13E is obtained from the b * component image (and the a * component image) shown in FIG.

S42において、合成部5は第1エッジ抽出部2で抽出された色彩成分のエッジと、明度合成部15からの出力とを合成する。図13に示す例では、図13(D)に示した明度合成部15からの出力と、図13(E)に示した第1エッジ抽出部2からの出力とを合成する。これにより、図13(F)に示すような合成エッジ画像が得られる。この合成処理は例えば図9(及び図4、図10)で説明した方法で行われる。   In S <b> 42, the synthesis unit 5 synthesizes the edge of the color component extracted by the first edge extraction unit 2 and the output from the lightness synthesis unit 15. In the example illustrated in FIG. 13, the output from the lightness synthesis unit 15 illustrated in FIG. 13D and the output from the first edge extraction unit 2 illustrated in FIG. Thereby, a composite edge image as shown in FIG. 13F is obtained. This combining process is performed by the method described in FIG. 9 (and FIGS. 4 and 10), for example.

S43において、S42で合成した合成部5の出力ELCと、明度合成部15の出力ELの値を判断し、合成エッジ画像ELC=0及び|ELC−EL|=0の場合には、S44において明度成分を擬似中間調処理して二値化する。また合成部5からの出力ELC=0及び|ELC−EL|=1の場合には、S45において、例えば図11(B)に示した関数などにより明るくなるように明度成分に対して強調処理を施し、擬似中間調処理により二値化する。さらに、合成部5からの出力ELC=1の場合には、S46において、例えば図11(C)に示した関数などにより濃くなるように明度成分に対して強調処理を施し、擬似中間調処理により二値化する。   In S43, the values of the output ELC of the combining unit 5 combined in S42 and the output EL of the lightness combining unit 15 are determined. If the combined edge image ELC = 0 and | ELC-EL | = 0, the lightness is determined in S44. The component is binarized by pseudo halftone processing. When the outputs ELC = 0 and | ELC-EL | = 1 from the synthesis unit 5, in S45, for example, the enhancement processing is performed on the lightness component so that the brightness component is brightened by the function shown in FIG. And binarization by pseudo halftone processing. Further, when the output ELC = 1 from the synthesizing unit 5, in S46, for example, the brightness component is enhanced so as to become darker by the function shown in FIG. Binarize.

このような二値化部6による二値化処理によって、図13(G)に示すような二値化された画像が出力されることになる。図13(G)に示すように、右上の1/4内の四角のエッジ部については、周囲が黒く再現されるのに対して、明るく擬似中間調によって表現されている。このように、明度エッジだけでなく色彩エッジについても、周囲に応じて、明るく、あるいは濃く見えるように擬似中間調再現されることになる。また、左下と右下の1/4の部分の境界や、左下の1/4内の四角のエッジ部については、強調処理によって周囲よりも濃く見えるように、擬似中間調により再現されている。   By such binarization processing by the binarization unit 6, a binarized image as shown in FIG. 13G is output. As shown in FIG. 13 (G), the square edge portion in the upper right quarter is reproduced in a bright pseudo-halftone while the surrounding is reproduced black. In this way, not only the lightness edge but also the color edge is reproduced in a pseudo halftone so that it looks bright or dark depending on the surroundings. Further, the border between the lower left and lower right quarter parts and the square edge part in the lower left quarter are reproduced by pseudo halftone so that they appear darker than the surroundings by the emphasis process.

いずれの場合も、S39において未処理の画素があるか否かを判定し、未処理の画素が残っていれば、S41に戻って未処理の画素に対する処理を繰り返す。全ての画素について処理を終えたら、図12に示した処理を終える。   In any case, it is determined whether or not there is an unprocessed pixel in S39, and if there is an unprocessed pixel, the process returns to S41 and the process for the unprocessed pixel is repeated. When the process is completed for all pixels, the process shown in FIG.

図14は、本発明の第2の実施の形態を示すブロック図である。図中、7は階調変換部である。この第2の実施の形態では、合成部5で合成したエッジ部分について擬似中間調により表現するものである。上述の第1の実施の形態と異なるのは階調変換部7を設けたことと、二値化部6の動作である。なお、図14に示した構成例ではフィルタ部1および平滑化部3についても省いた構成を示しているが、これらを具備した構成でもよい。また、上述の第1の実施の形態の変形例に示したように明度二値化部14及び明度合成部15を設けた構成でもよい。   FIG. 14 is a block diagram showing a second embodiment of the present invention. In the figure, reference numeral 7 denotes a gradation conversion unit. In the second embodiment, the edge portion synthesized by the synthesis unit 5 is expressed by pseudo halftone. The difference from the first embodiment described above is the provision of the gradation conversion unit 7 and the operation of the binarization unit 6. In addition, although the configuration example shown in FIG. 14 shows a configuration in which the filter unit 1 and the smoothing unit 3 are also omitted, a configuration including these may be used. Moreover, the structure which provided the lightness binarization part 14 and the lightness synthetic | combination part 15 as shown in the modification of the above-mentioned 1st Embodiment may be sufficient.

階調変換部7は、合成部5から渡される合成されたエッジ画像をもとに、入力されたカラー画像の明度成分について階調変換処理を行う。より具体的には、合成されたエッジ画像がエッジを示す画素については暗くなるように階調を変換する。そのほかの画素についてはそのまま出力する。   The tone conversion unit 7 performs tone conversion processing on the brightness component of the input color image based on the combined edge image passed from the combining unit 5. More specifically, the gradation is converted so that the synthesized edge image is darker for pixels indicating edges. The other pixels are output as they are.

二値化部6は、この第2の実施の形態では、階調変換部7から渡される階調変換後の画像に対して擬似中間調処理を行う。   In the second embodiment, the binarization unit 6 performs pseudo halftone processing on the image after gradation conversion passed from the gradation conversion unit 7.

図15は、本発明の第2の実施の形態における各処理過程での画像の具体例の説明図である。図15(A)は図7(A)に対応するものであり、入力されたカラー画像を示している。入力されたカラー画像については図7で説明したとおりである。また図15(B)は図7(F)に対応するものであり、図15(A)に示したカラー画像について、第1エッジ抽出部2および第2エッジ抽出部4で抽出したエッジ画像を合成部5で合成した合成エッジ画像を示している。   FIG. 15 is an explanatory diagram of a specific example of an image in each processing step in the second embodiment of the present invention. FIG. 15A corresponds to FIG. 7A and shows an input color image. The input color image is as described in FIG. FIG. 15B corresponds to FIG. 7F, and the edge images extracted by the first edge extraction unit 2 and the second edge extraction unit 4 are extracted from the color image shown in FIG. The synthesized edge image synthesized by the synthesis unit 5 is shown.

階調変換部7は、図15(B)に示した合成エッジ画像をもとに、入力されたカラー画像の明度成分についてエッジ部分の階調を変換する。これにより、図15(C)に示すような階調変換画像が得られる。   The gradation conversion unit 7 converts the gradation of the edge portion of the lightness component of the input color image based on the combined edge image shown in FIG. Thereby, a gradation conversion image as shown in FIG. 15C is obtained.

このようにして得られた階調変換画像に対して二値化部6は擬似中間調処理を行う。これにより、図15(D)に示すような二値画像が得られる。得られた二値画像は、エッジ部分も擬似中間調処理が施されており、図示ではわかりにくいがそれぞれの使用されている色(明度)に応じた階調の擬似中間調により表現されている。この二値画像が出力されることになる。   The binarization unit 6 performs pseudo halftone processing on the gradation conversion image obtained in this way. Thereby, a binary image as shown in FIG. 15D is obtained. The obtained binary image is also subjected to pseudo halftone processing at the edge portion, and although it is difficult to understand in the drawing, it is expressed by pseudo halftone of gradation corresponding to each used color (lightness). . This binary image is output.

図16は、本発明の第2の実施の形態の変形例を示すブロック図である。この変形例は、図14に示した第2の実施の形態の構成のうち、第2エッジ抽出部4および合成部5を省略して簡略化したものである。   FIG. 16 is a block diagram showing a modification of the second embodiment of the present invention. This modification is simplified by omitting the second edge extraction unit 4 and the synthesis unit 5 from the configuration of the second embodiment shown in FIG.

この第2の実施の形態における変形例では、階調変換部7は第1エッジ抽出部2で抽出した色彩エッジ画像に従って、カラー画像の明度成分について色彩エッジ部分の階調を暗くするように階調変換を行う。そして階調変換を行った明度成分の画像について二値化部6で擬似中間調処理を行えばよい。   In the modified example of the second embodiment, the gradation converting unit 7 adjusts the gradation of the color edge portion with respect to the brightness component of the color image according to the color edge image extracted by the first edge extracting unit 2. Perform key conversion. The binarization unit 6 may perform pseudo halftone processing on the brightness component image that has undergone tone conversion.

この第2の実施の形態の変形例では、第2エッジ抽出部4を有していないので正確な明度エッジは抽出されない。しかし、第1エッジ抽出部2で黒とそのほかの色のエッジは抽出されているので、ほとんどのカラー画像では問題なく各部の色の境界部分が擬似中間調により表現されることになる。   In the modification of the second embodiment, since the second edge extraction unit 4 is not provided, an accurate brightness edge is not extracted. However, since the edges of black and other colors are extracted by the first edge extraction unit 2, the boundary portions of the colors of the respective portions are represented by pseudo halftones without any problem in most color images.

図17は、本発明の第3の実施の形態を示すブロック図である。図中、8はエッジ強度算出部、9は加算部である。この第3の実施の形態では、上述の第2の実施の形態のようにエッジ部分について擬似中間調により表現するものであるが、エッジ部分に対する階調変換の度合いをエッジ強度により制御する構成を示している。この第3の実施の形態では、上述の第1の実施の形態における第1エッジ抽出部2に代えてエッジ強度算出部8を、また合成部5に代えて加算部9を設け、さらに階調変換部7を加え、二値化部6の動作を変更している。なお、図17に示した構成例ではフィルタ部1および平滑化部3についても省いた構成を示しているが、これらを具備した構成でもよい。また、上述の第1の実施の形態の変形例に示したように明度二値化部14及び明度合成部15を設けた構成でもよい。   FIG. 17 is a block diagram showing a third embodiment of the present invention. In the figure, 8 is an edge strength calculator, and 9 is an adder. In the third embodiment, the edge portion is expressed by pseudo halftone as in the second embodiment described above, but the configuration in which the degree of gradation conversion for the edge portion is controlled by the edge strength. Show. In the third embodiment, an edge strength calculation unit 8 is provided instead of the first edge extraction unit 2 in the first embodiment described above, an addition unit 9 is provided instead of the synthesis unit 5, and gradations are further provided. The conversion unit 7 is added to change the operation of the binarization unit 6. In addition, although the configuration example shown in FIG. 17 shows a configuration in which the filter unit 1 and the smoothing unit 3 are also omitted, a configuration including these may be used. Moreover, the structure which provided the lightness binarization part 14 and the lightness synthetic | combination part 15 as shown in the modification of the above-mentioned 1st Embodiment may be sufficient.

エッジ強度算出部8は、第1の実施の形態における第1エッジ抽出部2の浮動二値化部13を設けずに、2値のエッジ画像を得る代わりに色彩のエッジの強度を得るものに変更したものである。すなわち、色彩エッジ検出部11は、カラー画像のa* 成分及びb* 成分のそれぞれについてエッジ強度を算出し、色彩エッジ演算部12は、a* 成分のエッジ強度及びb* 成分のエッジ強度を合成した色彩エッジ強度を算出する。得られた色彩エッジ強度をエッジ強度算出部8の出力とする。なお、色彩エッジ検出部11におけるエッジ強度の算出方法および色彩エッジ演算部12におけるエッジ強度の合成方法については任意である。 The edge strength calculation unit 8 does not provide the floating binarization unit 13 of the first edge extraction unit 2 in the first embodiment, and obtains the intensity of the color edge instead of obtaining a binary edge image. It has been changed. That is, the color edge detection unit 11 calculates edge strength for each of the a * component and b * component of the color image, and the color edge calculation unit 12 combines the edge strength of the a * component and the edge strength of the b * component. The obtained color edge intensity is calculated. The obtained color edge intensity is used as the output of the edge intensity calculation unit 8. Note that the edge strength calculation method in the color edge detection unit 11 and the edge strength synthesis method in the color edge calculation unit 12 are arbitrary.

加算部9は、第2エッジ抽出部4によりエッジが抽出された二値の画像と、エッジ強度算出部8で算出した色彩エッジ強度とを加算する。加算は、第2エッジ抽出部4から出力される二値のうち、エッジを表す値(例えば‘1’)をエッジ強度最大の値に、エッジでないことを表す値(例えば‘0’)をエッジ強度最小の値に変換した後、色彩エッジ強度の値を加算すればよい。   The adding unit 9 adds the binary image from which the edge has been extracted by the second edge extracting unit 4 and the color edge intensity calculated by the edge intensity calculating unit 8. In addition, among the binary values output from the second edge extraction unit 4, a value representing an edge (for example, “1”) is set to the maximum edge strength value, and a value indicating that the edge is not an edge (for example, “0”) to the edge. After conversion to the minimum intensity value, the value of the color edge intensity may be added.

階調変換部7は、加算部9から渡される加算されたエッジ強度に従って、入力されたカラー画像の明度成分について階調変換処理を行う。一例としては、エッジ強度が大きな値を示す場合には、より暗くなるように階調を変換し、エッジ強度が小さい値の部分ではそれほど階調を変更しないようにする。このように、エッジ強度の値により階調変換の度合いを制御するとよい。   The gradation conversion unit 7 performs gradation conversion processing on the lightness component of the input color image according to the added edge strength passed from the addition unit 9. As an example, when the edge intensity shows a large value, the gradation is converted so as to be darker, and the gradation is not changed so much in a portion where the edge intensity is small. Thus, the degree of gradation conversion may be controlled by the edge strength value.

二値化部6は、この第3の実施の形態においても、階調変換部7から渡される階調変換後の画像に対して擬似中間調処理を行う。   Also in the third embodiment, the binarization unit 6 performs pseudo halftone processing on the image after gradation conversion passed from the gradation conversion unit 7.

このような第3の実施の形態の構成では、特に色彩の違いがどの程度かによってエッジ部分の階調が異なり、それが擬似中間調処理後の二値画像に反映されるため、視覚的に色彩の違いを把握できるような表現となる。   In the configuration of the third embodiment as described above, the gradation of the edge portion differs depending on the degree of color difference and is reflected in the binary image after the pseudo halftone process. It is an expression that can grasp the difference in color.

図18は、本発明の第3の実施の形態の変形例を示すブロック図である。この変形例は、図17に示した第3の実施の形態の構成のうち、第2エッジ抽出部4および加算部9を省略して簡略化したものである。   FIG. 18 is a block diagram showing a modification of the third embodiment of the present invention. This modification is simplified by omitting the second edge extraction unit 4 and the addition unit 9 from the configuration of the third embodiment shown in FIG.

この第3の実施の形態における変形例では、階調変換部7はエッジ強度算出部8で算出した色彩エッジ強度に従って、カラー画像の明度成分について色彩エッジ部分の階調変換の度合いを制御する。そして階調変換を行った明度成分の画像について二値化部6で擬似中間調処理を行えばよい。   In the modified example of the third embodiment, the gradation converting unit 7 controls the degree of gradation conversion of the color edge portion for the lightness component of the color image according to the color edge intensity calculated by the edge intensity calculating unit 8. The binarization unit 6 may perform pseudo halftone processing on the brightness component image that has undergone tone conversion.

この第3の実施の形態の変形例では、第2エッジ抽出部4を有していないので正確な明度エッジは抽出されない。しかし、エッジ強度算出部8で黒とそのほかの色のエッジは抽出されているので、ほとんどのカラー画像では問題なく各部の色の境界部分が、そのエッジ強度に応じて擬似中間調により表現されることになる。   In the modification of the third embodiment, since the second edge extraction unit 4 is not provided, an accurate brightness edge is not extracted. However, since the edge of black and other colors are extracted by the edge strength calculation unit 8, the boundary between the colors of each portion is represented by pseudo halftones according to the edge strength without any problem in most color images. It will be.

なお、上述の第1の実施の形態及びその変形例における二値化部6の擬似中間調処理や、第2,第3の実施の形態及びその変形例における二値化部6の擬似中間調処理は、閾値二値化処理でもよい。   Note that the pseudo halftone processing of the binarization unit 6 in the first embodiment and its modification described above, and the pseudo halftone processing of the binarization unit 6 in the second and third embodiments and its modification. The process may be a threshold binarization process.

図19は、本発明の各実施の形態の機能をコンピュータプログラムで実現した場合におけるコンピュータプログラム及びそのコンピュータプログラムを格納した記憶媒体とコンピュータの一例の説明図である。図中、51はプログラム、52はコンピュータ、61は光磁気ディスク、62は光ディスク、63は磁気ディスク、64はメモリ、71はCPU、72は内部メモリ、73は読取部、74はハードディスク、75はインタフェース、76は通信部である。   FIG. 19 is an explanatory diagram of an example of a computer program, a storage medium storing the computer program, and a computer when the functions of the embodiments of the present invention are implemented by the computer program. In the figure, 51 is a program, 52 is a computer, 61 is a magneto-optical disk, 62 is an optical disk, 63 is a magnetic disk, 64 is a memory, 71 is a CPU, 72 is an internal memory, 73 is a reading unit, 74 is a hard disk, and 75 is An interface 76 is a communication unit.

上述の本発明の各実施の形態およびその変形例で説明した各部の機能の一部または全部を、コンピュータにより実行可能なプログラム51によって実現してもよい。その場合、そのプログラム51およびそのプログラムが用いるデータなどは、コンピュータが読み取り可能な記憶媒体に記憶させておいてもよい。記憶媒体とは、コンピュータのハードウェア資源に備えられている読取部73に対して、プログラムの記述内容に応じて、磁気、光、電気等のエネルギーの変化状態を引き起こして、それに対応する信号の形式で、読取部73にプログラムの記述内容を伝達できるものである。例えば、光磁気ディスク61,光ディスク62(CDやDVDなどを含む)、磁気ディスク63,メモリ64(ICカード、メモリカードなどを含む)等である。もちろんこれらの記憶媒体は、可搬型に限られるものではない。   A part or all of the functions of the units described in the embodiments of the present invention and the modifications thereof may be realized by a program 51 that can be executed by a computer. In that case, the program 51 and data used by the program may be stored in a computer-readable storage medium. The storage medium is a signal of a corresponding signal that causes a change state of energy such as magnetism, light, electricity, etc. according to the description content of the program to the reading unit 73 provided in the hardware resource of the computer. In this format, the program description can be transmitted to the reading unit 73. For example, there are a magneto-optical disk 61, an optical disk 62 (including a CD and a DVD), a magnetic disk 63, a memory 64 (including an IC card and a memory card), and the like. Of course, these storage media are not limited to portable types.

これらの記憶媒体にプログラム51を格納しておき、例えばコンピュータ52の読取部73あるいはインタフェース75にこれらの記憶媒体を装着することによって、コンピュータからプログラム51を読み出し、内部メモリ72またはハードディスク74に記憶し、CPU71によってプログラム51を実行することによって、各実施の形態およびその変形例で説明した機能が実現される。あるいは、ネットワークなどを介してプログラム51をコンピュータ52に転送し、コンピュータ52では通信部76でプログラム51を受信して内部メモリ72またはハードディスク74に記憶し、CPU71によってプログラム51を実行することによって、各実施の形態およびその変形例で説明した機能を実現してもよい。なお、コンピュータ52には、このほかインタフェース75を介して様々な装置と接続してもよい。例えば出力された二値画像を形成する画像形成手段を接続し、二値化処理後に二値画像を形成するように構成してもよい。または、情報を表示する表示装置やユーザが情報を入力する入力装置等が接続されていてもよい。   The program 51 is stored in these storage media, and the program 51 is read from the computer and stored in the internal memory 72 or the hard disk 74 by, for example, mounting these storage media on the reading unit 73 or the interface 75 of the computer 52. By executing the program 51 by the CPU 71, the functions described in the embodiments and modifications thereof are realized. Alternatively, the program 51 is transferred to the computer 52 via a network or the like, and the computer 52 receives the program 51 by the communication unit 76 and stores the program 51 in the internal memory 72 or the hard disk 74. You may implement | achieve the function demonstrated by embodiment and its modification. In addition, the computer 52 may be connected to various devices via an interface 75. For example, an image forming unit that forms an output binary image may be connected to form a binary image after binarization processing. Alternatively, a display device for displaying information, an input device for inputting information by a user, or the like may be connected.

もちろん、一部の機能についてハードウェアによって構成してもよいし、すべてをハードウェアで構成してもよい。あるいは、他の構成とともに本発明も含めたプログラムとして構成してもよい。例えばプリンタや複写機などのように画像形成装置、あるいはさらに画像読取装置を含む装置において、制御プログラムとともに1つのプログラムとして構成してもよい。もちろん、他の用途に適用する場合には、その用途におけるプログラムとの一体化も可能である。   Of course, some functions may be configured by hardware, or all may be configured by hardware. Or you may comprise as a program also including this invention with other structures. For example, an image forming apparatus such as a printer or a copying machine, or an apparatus that further includes an image reading apparatus may be configured as one program together with the control program. Of course, in the case of application to other purposes, integration with a program for that purpose is also possible.

本発明の第1の実施の形態を示すブロック図である。It is a block diagram which shows the 1st Embodiment of this invention. 平滑化部の一例を示すブロック図である。It is a block diagram which shows an example of a smoothing part. 合成部における合成処理の一例の説明図である。It is explanatory drawing of an example of the synthetic | combination process in a synthetic | combination part. 第1エッジ抽出部でエッジを抽出し、第2エッジ抽出部でエッジを抽出しなかった場合の合成処理の具体例の説明図である。It is explanatory drawing of the specific example of a synthetic | combination process when an edge is extracted by the 1st edge extraction part, and an edge is not extracted by the 2nd edge extraction part. 二値化部の処理の一例の説明図である。It is explanatory drawing of an example of the process of a binarization part. 本発明の第1の実施の形態における動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement in the 1st Embodiment of this invention. 本発明の第1の実施の形態の動作の一例における各処理過程での画像の具体例の説明図である。It is explanatory drawing of the specific example of the image in each process in the example of operation | movement of the 1st Embodiment of this invention. 本発明の第1の実施の形態における変形例を示すブロック図である。It is a block diagram which shows the modification in the 1st Embodiment of this invention. 合成部における合成処理の別の例の説明図である。It is explanatory drawing of another example of the synthetic | combination process in a synthetic | combination part. 明度合成部で一方の値を取り、かつ第1エッジ抽出部でエッジを抽出した場合の合成処理の具体例の説明図である。It is explanatory drawing of the specific example of a synthetic | combination process when one value is taken in the brightness synthetic | combination part and the edge is extracted in the 1st edge extraction part. 二値化部の処理の別の例の説明図である。It is explanatory drawing of another example of the process of a binarization part. 本発明の第1の実施の形態における動作の別の例を示すフローチャートである。It is a flowchart which shows another example of the operation | movement in the 1st Embodiment of this invention. 本発明の第1の実施の形態の動作の別の例における各処理過程における画像の別の具体例の説明図である。It is explanatory drawing of the other specific example of the image in each process in another example of operation | movement of the 1st Embodiment of this invention. 本発明の第2の実施の形態を示すブロック図である。It is a block diagram which shows the 2nd Embodiment of this invention. 本発明の第2の実施の形態における各処理過程での画像の具体例の説明図である。It is explanatory drawing of the specific example of the image in each process in the 2nd Embodiment of this invention. 本発明の第2の実施の形態の変形例を示すブロック図である。It is a block diagram which shows the modification of the 2nd Embodiment of this invention. 本発明の第3の実施の形態を示すブロック図である。It is a block diagram which shows the 3rd Embodiment of this invention. 本発明の第3の実施の形態の変形例を示すブロック図である。It is a block diagram which shows the modification of the 3rd Embodiment of this invention. 本発明の各実施の形態の機能をコンピュータプログラムで実現した場合におけるコンピュータプログラム及びそのコンピュータプログラムを格納した記憶媒体とコンピュータの一例の説明図である。FIG. 11 is an explanatory diagram of an example of a computer program, a storage medium storing the computer program, and a computer when the functions of the embodiments of the present invention are realized by the computer program.

符号の説明Explanation of symbols

1…フィルタ部、2…第1エッジ抽出部、3…平滑化部、4…第2エッジ抽出部、5…合成部、6…二値化部、7…階調変換部、8…エッジ強度算出部、9…加算部、11…色彩エッジ検出部、12…色彩エッジ演算部、13…浮動二値化部、14…明度二値化部、15…明度合成部、21…差分絶対値算出部、22…仮平滑化係数決定部、23…正規化部、24…畳み込み演算部、51…プログラム、52…コンピュータ、61…光磁気ディスク、62…光ディスク、63…磁気ディスク、64…メモリ、71…CPU、72…内部メモリ、73…読取部、74…ハードディスク、75…インタフェース、76…通信部。   DESCRIPTION OF SYMBOLS 1 ... Filter part, 2 ... 1st edge extraction part, 3 ... Smoothing part, 4 ... 2nd edge extraction part, 5 ... Composition part, 6 ... Binarization part, 7 ... Tone conversion part, 8 ... Edge strength Calculation unit, 9 ... Addition unit, 11 ... Color edge detection unit, 12 ... Color edge calculation unit, 13 ... Floating binarization unit, 14 ... Brightness binarization unit, 15 ... Brightness synthesis unit, 21 ... Calculation of absolute difference , 22 ... provisional smoothing coefficient determination unit, 23 ... normalization unit, 24 ... convolution operation unit, 51 ... program, 52 ... computer, 61 ... magneto-optical disk, 62 ... optical disk, 63 ... magnetic disk, 64 ... memory, 71 ... CPU, 72 ... internal memory, 73 ... reading unit, 74 ... hard disk, 75 ... interface, 76 ... communication unit.

Claims (11)

カラー画像の明度以外の色彩成分についてのエッジを抽出する第1のエッジ抽出手段と、前記第1のエッジ抽出手段でエッジとして抽出した画素について強調処理を施して二値化処理を行い、そのほかの部分に対しては前記カラー画像の明度成分について二値化処理を行う二値化手段を有することを特徴とする画像処理装置。   A first edge extracting means for extracting edges for color components other than the brightness of the color image; and a binarization process by applying enhancement processing to the pixels extracted as edges by the first edge extracting means; An image processing apparatus comprising binarization means for binarizing the brightness component of the color image for the portion. さらに、前記カラー画像の明度成分についてエッジを抽出する第2のエッジ抽出手段と、前記第1のエッジ抽出手段及び前記第2のエッジ抽出手段により抽出したエッジを合成する合成手段を有し、前記合成手段は、前記第1のエッジ抽出手段がエッジとして抽出し、前記第2のエッジ抽出手段がエッジとして抽出しなかった画素については、当該画素の周囲に所定数以上の前記第2のエッジ抽出手段によりエッジとして抽出した画素が存在する場合には、当該画素についてエッジ成分としないことを特徴とする請求項1に記載の画像処理装置。   And a second edge extracting means for extracting an edge for the lightness component of the color image, and a combining means for combining the edges extracted by the first edge extracting means and the second edge extracting means, The synthesizing unit extracts a predetermined number or more of the second edge extractions around the pixels that are extracted by the first edge extraction unit as edges and the second edge extraction unit does not extract them as edges. The image processing apparatus according to claim 1, wherein when there is a pixel extracted as an edge by the means, the pixel is not used as an edge component. 前記二値化手段は、前記合成手段により合成されたエッジ成分の前記第1のエッジ抽出手段でエッジとして抽出した画素について強調処理を施して擬似中間調の二値化処理を行うことを特徴とする請求項2に記載の画像処理装置。   The binarization means performs an emphasis process on the pixels extracted as edges by the first edge extraction means of the edge component synthesized by the synthesis means, and performs a pseudo-halftone binarization process. The image processing apparatus according to claim 2. さらに、前記カラー画像の明度成分についてエッジを抽出する第2のエッジ抽出手段と、前記カラー画像の明度成分について二値化する明度二値化手段と、前記明度二値化手段で二値化された画像に前記第2のエッジ抽出手段で抽出されたエッジの画素を二値の一方の値として合成する第1の合成手段と、前記第1の合成手段で合成した画像に前記第1のエッジ抽出手段により抽出したエッジの画素を前記一方の値として合成する第2の合成手段を有し、前記第2の合成手段は、前記第1の合成手段で合成された画像中で前記一方の値であって前記第1のエッジ抽出手段でエッジとして抽出した画素については、当該画素の周囲に所定数以上の前記一方の値の画素が存在する場合には、当該画素について前記一方の値とせず、前記二値化手段は、前記第2の合成手段により合成された結果を反映させるとともに、前記第2の合成手段により合成された画像中の前記一方の値以外の画素であって前記第1の合成手段で合成された画像で前記一方の値の画素について強調処理を施して擬似中間調の二値化処理を行うことを特徴とする請求項1に記載の画像処理装置。   Further, the image is binarized by a second edge extracting means for extracting an edge for the lightness component of the color image, a lightness binarizing means for binarizing the lightness component of the color image, and the lightness binarizing means. First combining means for combining the edge pixel extracted by the second edge extracting means as one of the binary values with the first image, and the first edge with the image combined by the first combining means. A second combining unit configured to combine the edge pixel extracted by the extracting unit as the one value, wherein the second combining unit includes the one value in the image combined by the first combining unit; In the case of a pixel extracted as an edge by the first edge extracting means, if there is a predetermined number or more of the one value pixel around the pixel, the pixel is not set to the one value. , The binarization means , Reflecting the result synthesized by the second synthesizing means, and pixels other than the one value in the image synthesized by the second synthesizing means and synthesized by the first synthesizing means The image processing apparatus according to claim 1, wherein an emphasis process is performed on the pixel having the one value in the image to perform a pseudo-halftone binarization process. 前記第2の合成手段は、前記第1のエッジ抽出手段がエッジとして抽出し、前記第1の合成手段で合成された画像中で前記一方の値でない画素については、当該画素の周囲に所定数以上の前記一方の値の画素が存在する場合には、当該画素について前記一方の値としないことを特徴とする請求項4に記載の画像処理装置。   The second synthesizing means is extracted by the first edge extracting means as an edge, and a predetermined number of pixels around the pixel are not included in the image synthesized by the first synthesizing means. 5. The image processing apparatus according to claim 4, wherein when the pixel having the one value is present, the pixel is not set to the one value. 前記二値化手段は、前記第2の合成手段により合成された画像中で前記一方の値の画素であって前記第1の合成手段により合成された画像中で前記一方の値以外の画素について、前記第2の合成手段により合成された画像中の前記一方の値以外の画素であって前記第1の合成手段で合成された画像で前記一方の値の画素に対して行う強調処理とは異なる強調処理を施して擬似中間調の二値化処理を行うことを特徴とする請求項4または請求項5に記載の画像処理装置。   The binarizing means is for pixels having the one value in the image synthesized by the second synthesizing means and pixels other than the one value in the image synthesized by the first synthesizing means. What is enhancement processing to be performed on pixels of one value other than the one value in the image synthesized by the second synthesizing unit in the image synthesized by the first synthesizing unit? 6. The image processing apparatus according to claim 4, wherein pseudo-halftone binarization processing is performed by performing different enhancement processing. カラー画像の明度以外の色彩成分についてのエッジを抽出する第1のエッジ抽出手段と、前記第1のエッジ抽出手段による抽出結果に従って前記カラー画像の明度成分について階調変換を行う階調変換手段と、前記階調変換手段で階調変換された明度成分について二値化する二値化手段を有することを特徴とする画像処理装置。   First edge extraction means for extracting edges for color components other than lightness of the color image; and gradation conversion means for performing gradation conversion for the lightness components of the color image according to the extraction result by the first edge extraction means. An image processing apparatus comprising binarization means for binarizing the lightness component subjected to gradation conversion by the gradation conversion means. さらに、前記カラー画像の明度成分についてエッジを抽出する第2のエッジ抽出手段と、前記第1のエッジ抽出手段及び前記第2のエッジ抽出手段により抽出したエッジを合成する合成手段を有し、前記階調変換手段は、前記合成手段により合成されたエッジ成分に従って前記カラー画像の明度成分について階調変換を行うことを特徴とする請求項7に記載の画像処理装置。   And a second edge extracting means for extracting an edge for the lightness component of the color image, and a combining means for combining the edges extracted by the first edge extracting means and the second edge extracting means, The image processing apparatus according to claim 7, wherein the gradation conversion unit performs gradation conversion on the brightness component of the color image according to the edge component combined by the combining unit. カラー画像の明度以外の色彩成分についてのエッジ強度を算出するエッジ強度算出手段と、前記エッジ強度算出手段によって算出されたエッジ強度に従って前記カラー画像の明度成分について階調変換を行う階調変換手段と、前記階調変換手段で階調変換された明度成分について二値化する二値化手段を有することを特徴とする画像処理装置。   Edge strength calculating means for calculating edge strength for color components other than lightness of the color image; and gradation converting means for performing gradation conversion for the lightness component of the color image according to the edge strength calculated by the edge strength calculating means; An image processing apparatus comprising binarization means for binarizing the lightness component subjected to gradation conversion by the gradation conversion means. さらに、前記カラー画像の明度成分についてエッジを抽出する第2のエッジ抽出手段と、前記第2のエッジ抽出手段で抽出したエッジ成分と前記エッジ強度算出手段で算出したエッジ強度を加算する加算手段を有し、前記階調変換手段は、前記加算手段による加算結果に従って前記カラー画像の明度成分について階調変換を行うことを特徴とする請求項9に記載の画像処理装置。   A second edge extracting unit for extracting an edge of the brightness component of the color image; and an adding unit for adding the edge component extracted by the second edge extracting unit and the edge strength calculated by the edge strength calculating unit. The image processing apparatus according to claim 9, wherein the gradation conversion unit performs gradation conversion on a brightness component of the color image according to an addition result by the addition unit. コンピュータに、請求項1ないし請求項10のいずれか1項に記載の画像処理装置の機能を実行させることを特徴とする画像処理プログラム。   An image processing program causing a computer to execute the function of the image processing apparatus according to any one of claims 1 to 10.
JP2008042659A 2007-05-24 2008-02-25 Image processing apparatus and image processing program Expired - Fee Related JP4775598B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008042659A JP4775598B2 (en) 2007-05-24 2008-02-25 Image processing apparatus and image processing program
US12/125,500 US8189236B2 (en) 2007-05-24 2008-05-22 Image processing apparatus, image processing method and computer-readable medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007137785 2007-05-24
JP2007137785 2007-05-24
JP2008042659A JP4775598B2 (en) 2007-05-24 2008-02-25 Image processing apparatus and image processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011085612A Division JP5024574B2 (en) 2007-05-24 2011-04-07 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2009005331A true JP2009005331A (en) 2009-01-08
JP4775598B2 JP4775598B2 (en) 2011-09-21

Family

ID=40321180

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008042659A Expired - Fee Related JP4775598B2 (en) 2007-05-24 2008-02-25 Image processing apparatus and image processing program
JP2011085612A Expired - Fee Related JP5024574B2 (en) 2007-05-24 2011-04-07 Image processing apparatus and image processing program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2011085612A Expired - Fee Related JP5024574B2 (en) 2007-05-24 2011-04-07 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (2) JP4775598B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065604A (en) * 2009-09-18 2011-03-31 Konica Minolta Business Technologies Inc Image processing method and image processor
JP2013042328A (en) * 2011-08-15 2013-02-28 Fuji Xerox Co Ltd Image processor and image processing program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5779089B2 (en) 2011-12-28 2015-09-16 株式会社ドワンゴ Edge detection apparatus, edge detection program, and edge detection method
JP5870826B2 (en) * 2012-04-11 2016-03-01 コニカミノルタ株式会社 Image processing apparatus, image processing method, and computer program
JP6986438B2 (en) * 2017-12-27 2021-12-22 日本放送協会 Color information estimation model generator, image colorizer and their programs

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0678151A (en) * 1992-08-26 1994-03-18 Toshiba Corp Color picture processor
JPH06292006A (en) * 1993-04-01 1994-10-18 Fuji Xerox Co Ltd Picture processing unit
JP2001268378A (en) * 2000-03-23 2001-09-28 Riso Kagaku Corp Method and apparatus for processing image
JP2002010090A (en) * 2000-06-23 2002-01-11 Ricoh Co Ltd Image processing method, image processor and recording medium
JP2002083294A (en) * 2000-09-07 2002-03-22 Fuji Xerox Co Ltd Image processor, image processing method and recording medium stored with image processing program
JP2002252733A (en) * 2001-02-26 2002-09-06 Ricoh Co Ltd Network system for image forming device
JP2004102819A (en) * 2002-09-11 2004-04-02 Seiko Epson Corp Image processing method and image processing apparatus
JP2007013566A (en) * 2005-06-30 2007-01-18 Kyocera Mita Corp Image processor and image forming apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0678151A (en) * 1992-08-26 1994-03-18 Toshiba Corp Color picture processor
JPH06292006A (en) * 1993-04-01 1994-10-18 Fuji Xerox Co Ltd Picture processing unit
JP2001268378A (en) * 2000-03-23 2001-09-28 Riso Kagaku Corp Method and apparatus for processing image
JP2002010090A (en) * 2000-06-23 2002-01-11 Ricoh Co Ltd Image processing method, image processor and recording medium
JP2002083294A (en) * 2000-09-07 2002-03-22 Fuji Xerox Co Ltd Image processor, image processing method and recording medium stored with image processing program
JP2002252733A (en) * 2001-02-26 2002-09-06 Ricoh Co Ltd Network system for image forming device
JP2004102819A (en) * 2002-09-11 2004-04-02 Seiko Epson Corp Image processing method and image processing apparatus
JP2007013566A (en) * 2005-06-30 2007-01-18 Kyocera Mita Corp Image processor and image forming apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065604A (en) * 2009-09-18 2011-03-31 Konica Minolta Business Technologies Inc Image processing method and image processor
US8285036B2 (en) 2009-09-18 2012-10-09 Konica Minolta Business Technologies, Inc. Image processing method, image processing apparatus, and computer-readable storage medium for computer program
JP2013042328A (en) * 2011-08-15 2013-02-28 Fuji Xerox Co Ltd Image processor and image processing program

Also Published As

Publication number Publication date
JP4775598B2 (en) 2011-09-21
JP5024574B2 (en) 2012-09-12
JP2011172261A (en) 2011-09-01

Similar Documents

Publication Publication Date Title
JP4542528B2 (en) Image contrast enhancement method and image contrast enhancement system
US20080181491A1 (en) Color to grayscale conversion method and apparatus
JP6415062B2 (en) Image processing apparatus, image processing method, control program, and recording medium
US8189236B2 (en) Image processing apparatus, image processing method and computer-readable medium
JPH08251432A (en) Real time picture enhancing technique
JPH11313202A (en) Image processing unit and image processing method
JP2004030670A (en) Enhancement method for color tone feature of digital image
JP2009038498A (en) Unit and method for processing image
JP5024574B2 (en) Image processing apparatus and image processing program
JP2018527675A (en) Inverse tone mapping method and apparatus
JP2007128206A (en) Signal processor and processing method, recording medium and program
US7848589B2 (en) Method and apparatus for applying edge enhancement based on image characteristics
JP4235583B2 (en) Image processing apparatus, image processing program, and storage medium
JP2019092027A (en) Image processing apparatus, image processing method, and image processing program
JP4853560B2 (en) Image processing method, image processing apparatus, and computer program
JP5286215B2 (en) Outline extracting apparatus, outline extracting method, and outline extracting program
JP4243362B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JP4441300B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium storing the program
JP4111689B2 (en) Image processing apparatus, computer-readable recording medium storing image processing program, and program
JP5245991B2 (en) BRIGHTNESS CORRECTION PROGRAM, BRIGHTNESS CORRECTION METHOD, AND BRIGHTNESS CORRECTION DEVICE
JP2001045303A (en) Image thresholding method
JP6486082B2 (en) Image processing apparatus, image processing method, and program
JP4141310B2 (en) Image processing apparatus, image processing method, and program executed by computer
JP4792893B2 (en) Image processing apparatus and program
JP3501151B2 (en) Image processing apparatus, image processing method, medium recording image processing control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110601

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110614

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4775598

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

LAPS Cancellation because of no payment of annual fees
R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350