JP2005260404A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2005260404A
JP2005260404A JP2004066842A JP2004066842A JP2005260404A JP 2005260404 A JP2005260404 A JP 2005260404A JP 2004066842 A JP2004066842 A JP 2004066842A JP 2004066842 A JP2004066842 A JP 2004066842A JP 2005260404 A JP2005260404 A JP 2005260404A
Authority
JP
Japan
Prior art keywords
image
character
area
lightness
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004066842A
Other languages
Japanese (ja)
Inventor
Juichi Kitagawa
寿一 北川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2004066842A priority Critical patent/JP2005260404A/en
Publication of JP2005260404A publication Critical patent/JP2005260404A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor capable of producing an image which can enhance visibility of the image including characters for a weak-sighted person. <P>SOLUTION: Inputted image data is divided into a plurality of division areas, and attributes (text, image, background) of each area are determined (steps 100-106). When a text area exists, that area is enlarged into a rectangular area, histrogram of lightness is created, and difference of lightness between a character part and a background part is calculated based on the histogram thus created (steps 108-114). When the difference of lightness is not larger than a threshold, a correction processing for enhancing visibility of a weak-sighted person at the character part is carried out for all text areas and corrected image data is outputted (steps 106-122). In the correction processing, contrast correction, saturation correction, hue transformation, and the like, are carried out based on the fact whether the character part and the background part are achromatic or not. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像処理装置に係り、より詳しくは、文字を含む画像を画像処理する画像処理装置に関する。   The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that performs image processing on an image including characters.

従来、入力画像が所望の画像となるように画像処理する画像処理装置では、主に通常の視力を有する健常者向けを前提として、画質を向上させ、より綺麗な画像となるように画像処理するのが一般的であった。   2. Description of the Related Art Conventionally, in an image processing apparatus that performs image processing so that an input image becomes a desired image, the image processing is performed so that the image quality is improved and a clearer image is obtained mainly on the premise of a healthy person having normal vision. It was common.

例えば、特許文献1には、画像のバランスを崩さないように、より綺麗な画像で且つ撮影時の画像を忠実に色再現することができる画像処理装置が提案されている。   For example, Patent Document 1 proposes an image processing apparatus that can reproduce a more beautiful image and faithfully reproduce an image at the time of photographing so as not to disturb the balance of the image.

また、特許文献2には、鮮鋭かつ良好なコントラスト、彩度を有する画像を得ることができる画像処理装置が提案されている。
特開2003−274427号公報 特開昭63−059255号公報
Patent Document 2 proposes an image processing apparatus that can obtain an image having sharp and good contrast and saturation.
JP 2003-274427 A JP 63-059255 A

しかしながら、上記従来技術では、文字を含む画像の場合、画質を向上させることはできても、視力の弱い弱視者にとって文字部分の読み取りにくさは変わらず、弱視者にとっては視認性が悪い場合がある、という問題があった。   However, in the case of an image including characters, the above-described prior art may improve the image quality, but the difficulty of reading the character portion is not changed for a weakly sighted person with low vision, and the visibility may be poor for a weakly sighted person. There was a problem that there was.

本発明は、上記問題を解決すべく成されたものであり、弱視者等にとって文字を含む画像の視認性が向上する画像を得ることができる画像処理装置を提供することを目的とする。   The present invention has been made to solve the above-described problem, and an object of the present invention is to provide an image processing apparatus capable of obtaining an image with improved visibility of an image including characters for a low vision person or the like.

上記目的を達成するために、請求項1記載の発明は、入力画像の明度情報に基づいて、前記入力画像の文字部分を含む文字領域を抽出する抽出手段と、前記文字部分と前記文字領域のうち前記文字部分以外の背景部分と、の明度差を求める明度差演算手段と、前記明度差が予め定めた所定閾値以下の場合に、前記文字部分及び前記背景部分の少なくとも一方の明度、彩度、及び色相の少なくとも一つを補正する補正手段と、を備えたことを特徴とする。   In order to achieve the above object, the invention according to claim 1 is characterized in that, based on lightness information of an input image, extraction means for extracting a character area including a character part of the input image, the character part and the character area Lightness difference calculation means for obtaining a lightness difference between the background portion other than the character portion and lightness and saturation of at least one of the character portion and the background portion when the lightness difference is a predetermined threshold value or less. And correction means for correcting at least one of the hues.

この発明によれば、抽出手段は、入力画像の明度情報に基づいて、入力画像の文字部分を含む文字領域を抽出する。例えば、請求項2に記載したように、前記抽出手段は、前記入力画像を複数の分割領域に分割する分割手段と、前記分割領域の明度情報の周波数特性に基づいて、前記分割領域が前記文字領域であるか否かを各々判定する属性判定手段と、を含む構成とすることができる。この場合、属性判定手段は、分割手段によって分割された分割領域の明度情報に関する周波数特性を周波数フィルター等を用いて求め、この周波数特性に基づいて文字を含む文字領域であるか、それ以外、例えばイメージ画像を含むイメージ領域か、文字領域でもイメージ領域でもない背景領域かを判定する。例えば高周波成分を多く含めば文字を含み、低周波成分を多く含めばイメージ画像を含むと判断することができる。   According to the present invention, the extracting means extracts a character region including a character portion of the input image based on the lightness information of the input image. For example, as described in claim 2, the extraction unit is configured to divide the input image into a plurality of divided regions, and the divided regions are the character based on frequency characteristics of brightness information of the divided regions. Attribute determination means for determining whether or not each region is an area. In this case, the attribute determination means obtains a frequency characteristic related to the brightness information of the divided area divided by the dividing means using a frequency filter or the like, and is a character area including characters based on this frequency characteristic, or otherwise, for example, It is determined whether the image area includes an image image or a background area that is neither a character area nor an image area. For example, it can be determined that if a high frequency component is included, characters are included, and if a low frequency component is included, an image is included.

明度差演算手段は、文字部分と背景部分と、の明度差を求める。例えば、請求項3に記載したように、前記明度差演算手段は、前記文字領域の明度情報のヒストグラムを作成するヒストグラム作成手段を含み、前記ヒストグラムの複数の山部分の間隔を前記明度差として求めることができる。すなわち、一般には、白地に黒字の文字が描かれた画像であれば、文字部分の明度は低く背景部分の明度は高い。従って、明度の低い方と明度高い方に明度が集中し、ヒストグラムで見た場合は2つの山が形成される場合が多い。このため、複数の山部分の間隔を文字部分と背景部分との明度差とすることができる。なお、山部分の頂点位置の明度差を文字部分と背景部分との明度差としてもよいし、山部分の明度の平均値の差を文字部分と背景部分との明度差としてもよい。   The brightness difference calculating means obtains a brightness difference between the character portion and the background portion. For example, as described in claim 3, the brightness difference calculating means includes a histogram creating means for creating a histogram of the brightness information of the character region, and obtains intervals between a plurality of peak portions of the histogram as the brightness difference. be able to. That is, in general, in an image in which black characters are drawn on a white background, the lightness of the character portion is low and the lightness of the background portion is high. Therefore, the lightness is concentrated on the lightness and the lightness, and two peaks are often formed when viewed from a histogram. For this reason, the space | interval of several peak parts can be made into the brightness difference of a character part and a background part. Note that the brightness difference at the apex position of the peak portion may be the brightness difference between the character portion and the background portion, or the difference in the average brightness value of the peak portion may be the brightness difference between the character portion and the background portion.

また、文字部分と背景部分との明度差が低いと、特に弱視者等にとって文字が見えづらい画像となる。   In addition, when the brightness difference between the character portion and the background portion is low, the image is particularly difficult for a low vision person or the like to see the character.

そこで、補正手段は、前記明度差が予め定めた所定閾値以下の場合に、前記文字部分及び前記背景部分の少なくとも一方の明度、彩度、及び色相の少なくとも一つを補正する。   Therefore, the correction unit corrects at least one of the brightness, saturation, and hue of at least one of the character portion and the background portion when the brightness difference is equal to or less than a predetermined threshold value.

これにより、文字部分を見えやすくすることができ、弱視者等にとっての視認性を向上させた画像を得ることができる。   As a result, the character portion can be easily seen, and an image with improved visibility for a weakly sighted person or the like can be obtained.

なお、請求項4に記載したように、前記補正手段は、前記文字領域の前記文字部分及び前記背景部分が無彩色か否かを各々判定する彩度判定手段と、前記文字部分及び前記背景部分が共に無彩色の場合、前記文字領域の明度差を補正する明度差補正手段と、を含む構成とすることができる。   In addition, as described in claim 4, the correction unit includes a saturation determination unit that determines whether the character portion and the background portion of the character region are achromatic colors, and the character portion and the background portion. When both are achromatic colors, a lightness difference correction means for correcting the lightness difference of the character area may be included.

このように、文字部分及び背景部分が共に無彩色の場合には、明度差補正手段は、文字部分と背景部分との明度差が大きくなるようにによって補正する。例えば、文字部分の明度をさらに低くすると共に背景部分の明度をさらに高くする。これにより、文字部分の視認性を向上させることができる。   Thus, when both the character portion and the background portion are achromatic, the lightness difference correction means corrects the lightness difference between the character portion and the background portion so as to increase. For example, the brightness of the character portion is further lowered and the brightness of the background portion is further increased. Thereby, the visibility of a character part can be improved.

また、請求項5に記載したように、前記補正手段は、前記文字領域の前記文字部分及び前記背景部分が無彩色か否かを各々判定する彩度判定手段と、前記文字部分及び前記背景部分の一方が無彩色の場合、有彩色の部分の彩度を補正する彩度補正手段と、を含む構成とすることができる。   In addition, as described in claim 5, the correction unit includes a saturation determination unit that determines whether the character portion and the background portion of the character region are achromatic colors, and the character portion and the background portion. When one of the colors is achromatic, it is possible to include a saturation correction unit that corrects the saturation of the chromatic color portion.

このように、文字部分及び背景部分の何れかが無彩色の場合には、彩度補正手段は、有彩色の部分の彩度、例えば文字部分が有彩色で背景部分が無彩色の場合には、文字部分の彩度を補正する。例えば、文字部分の彩度が高くなるよう補正する。これにより、文字部分の視認性を向上させることができる。   As described above, when either the character portion or the background portion is achromatic, the saturation correction unit performs saturation of the chromatic portion, for example, when the character portion is chromatic and the background portion is achromatic. Correct the saturation of the character part. For example, correction is performed so that the saturation of the character portion is increased. Thereby, the visibility of a character part can be improved.

また、請求項6に記載したように、前記補正手段は、前記文字領域の前記文字部分及び前記背景部分が無彩色か否かを各々判定する彩度判定手段と、前記文字部分及び前記背景部分が共に有彩色の場合、前記文字部分及び前記背景部分の色相を補正する色相補正手段と、を含む構成とすることができる。   In addition, as described in claim 6, the correction unit includes a saturation determination unit that determines whether the character portion and the background portion of the character region are achromatic colors, and the character portion and the background portion. When both are chromatic colors, a hue correction unit that corrects the hues of the character portion and the background portion may be included.

このように、文字部分及び背景部分が共に有彩色の場合には、色相補正手段は、文字部分及び背景部分の色相を、例えば文字部分の色と背景部分の色とが補色の関係となるように補正する。これにより、文字部分の視認性を向上させることができる。   In this way, when both the character portion and the background portion are chromatic colors, the hue correction means makes the hue of the character portion and the background portion have a complementary color relationship, for example, the color of the character portion and the color of the background portion. To correct. Thereby, the visibility of a character part can be improved.

以上説明したように、本発明によれば、弱視者等にとって文字を含む画像の視認性が向上する画像を得ることができる、という効果を有する。   As described above, according to the present invention, there is an effect that it is possible to obtain an image in which the visibility of an image including characters is improved for a low vision person or the like.

以下、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described.

図1には、本発明に係る画像処理システム50の概略構成を示した。画像処理システム50は、画像入力装置51、画像処理装置52、画像出力装置53、及び蓄積装置54を含んで構成されている。   FIG. 1 shows a schematic configuration of an image processing system 50 according to the present invention. The image processing system 50 includes an image input device 51, an image processing device 52, an image output device 53, and a storage device 54.

画像入力装置51は、例えばスキャナ等の反射原稿を読み取る画像読み取り装置が適用されるが、これに限られるものではなく、画像を入力できるものであればよい。例えば、記録メディアに記録された画像データを読み取るカードリーダ装置等でもよい。本実施形態では、画像入力装置51は、R(赤)、G(緑)、B(青)の各画像データ(以下、RGB画像データという)を画像処理装置52へ出力する。   As the image input device 51, for example, an image reading device that reads a reflective original such as a scanner is applied, but the image input device 51 is not limited to this and may be any device that can input an image. For example, a card reader device that reads image data recorded on a recording medium may be used. In the present embodiment, the image input device 51 outputs R (red), G (green), and B (blue) image data (hereinafter referred to as RGB image data) to the image processing device 52.

画像処理装置52は、前処理部52A、ページメモリ52B、色空間変換部52C、色補正部52D、CMYK変換部52E、及び後処理部52Fを含んで構成されている。   The image processing device 52 includes a pre-processing unit 52A, a page memory 52B, a color space conversion unit 52C, a color correction unit 52D, a CMYK conversion unit 52E, and a post-processing unit 52F.

前処理部52Aは、画像入力装置51から出力されたRGB画像データを入力し、このRGB画像データに対して、所定の前処理を施す。この前処理では、例えば、原稿サイズの検知処理や下地処理等を行う。   The preprocessing unit 52A receives the RGB image data output from the image input device 51, and performs predetermined preprocessing on the RGB image data. In this preprocessing, for example, document size detection processing, background processing, and the like are performed.

前処理部52Aにおいて所定の前処理が施されたRGB画像データは、ページ毎にページメモリ52Bに記憶される。   The RGB image data subjected to the predetermined preprocessing in the preprocessing unit 52A is stored in the page memory 52B for each page.

色空間変換部52Cは、ページメモリ52Bに記憶されたRGB画像データを、L*で明度を、a*、b*で彩度及び色相を表現することにより色を定義した画像データ(以下、L***画像データという)に変換し、RGB画像データと共に、L***画像データを色補正部52Dへ出力する。 The color space conversion unit 52C defines RGB image data stored in the page memory 52B as image data in which colors are defined by expressing brightness by L * and saturation and hue by a * and b *. * a * b * image data) and output the L * a * b * image data together with the RGB image data to the color correction unit 52D.

色補正部52Dでは、詳細は後述するが、まず、L***画像データに基づいて、画像に文字部分が含まれるか否かを判断する。そして、文字部分が含まれる場合には、その文字部分と背景部分との明度差が所定閾値以下であるか否かを判断し、所定閾値以下である場合には、視力が弱い弱視者等にとって文字部分が見やすくなるように、L***画像データを補正し、CMYK変換部52Eに出力する。 Although details will be described later, the color correction unit 52D first determines whether or not a character part is included in the image based on the L * a * b * image data. When a character part is included, it is determined whether or not the brightness difference between the character part and the background part is equal to or less than a predetermined threshold value. The L * a * b * image data is corrected so that the character portion is easy to see, and is output to the CMYK conversion unit 52E.

CMYK変換部52Eは、色補正部52Dから出力されたL***画像データを入力し、このL***画像データをC(シアン)、M(マゼンダ)、Y(イエロー)、K(ブラック)の画像データ(以下、CMYK画像データという)に変換して、後処理部52Fに出力する。 The CMYK conversion unit 52E receives the L * a * b * image data output from the color correction unit 52D, and converts the L * a * b * image data into C (cyan), M (magenta), and Y (yellow). , K (black) image data (hereinafter referred to as CMYK image data) and output to the post-processing unit 52F.

後処理部52Fは、CMYK変換部52Eから出力されたCMYK画像データを入力し、このCMYK画像データに対して所定の後処理を施す。この後処理では、例えば、画像出力装置53の特性に合わせた階調変更処理等を行う。   The post-processing unit 52F receives the CMYK image data output from the CMYK conversion unit 52E, and performs predetermined post-processing on the CMYK image data. In this post-processing, for example, a gradation change process that matches the characteristics of the image output device 53 is performed.

蓄積装置54は、EPC機構(Electric Pre−Collation)や、画像のプレビューなどを実施するために設けられ、画像データを蓄積するものである。   The storage device 54 is provided to perform an EPC mechanism (Electric Pre-Collation), an image preview, and the like, and stores image data.

画像出力装置53は、画像処理装置52から出力されたCMYK画像データを入力し、例えばCMYK画像データに基づく画像を記録用紙に印刷する印刷装置を適用することができる。この印刷装置は、例えば所謂電子写真方式により画像を形成するレーザープリンタや、インクジェットプリンタ等を用いることができる。   The image output device 53 may be a printing device that receives the CMYK image data output from the image processing device 52 and prints an image based on the CMYK image data on a recording sheet, for example. As this printing apparatus, for example, a laser printer that forms an image by a so-called electrophotographic method, an ink jet printer, or the like can be used.

次に、本実施形態の作用として、画像処理装置52の色補正部52Dで実行される処理ルーチンについて図2及び図3に示すフローチャートを参照して説明する。   Next, as an operation of the present embodiment, a processing routine executed by the color correction unit 52D of the image processing device 52 will be described with reference to flowcharts shown in FIGS.

まず、ステップ100では、色空間変換部52Cから出力されたL***画像データを入力する。ここでは、図4に示すような画像60を処理する場合について説明する。画像60は、「ここは文字部分です。画像部分ではありません。」の文章を含むテキスト画像61と、テキスト画像61の下部に人間をデフォルメしたイメージを含むイメージ画像62と、から構成されている。 First, in step 100, the L * a * b * image data output from the color space conversion unit 52C is input. Here, a case where an image 60 as shown in FIG. 4 is processed will be described. The image 60 includes a text image 61 that includes a sentence “This is a character part. It is not an image part.” And an image image 62 that includes an image of a human being deformed below the text image 61.

ステップ102では、図4に示すような画像60を、例えば図5に示すように、複数の分割領域(矩形領域)63に分割する。具体的には、例えば、分割領域63の各々にブロック番号を付与し、このブロック番号と、分割領域63の位置を特定するための座標データと、の対応関係を示す領域テーブルを作成する。なお、この処理は本発明の分割手段に相当する。   In step 102, an image 60 as shown in FIG. 4 is divided into a plurality of divided areas (rectangular areas) 63, for example, as shown in FIG. Specifically, for example, a block number is assigned to each of the divided areas 63, and an area table indicating a correspondence relationship between the block number and coordinate data for specifying the position of the divided area 63 is created. This process corresponds to the dividing means of the present invention.

ステップ104では、複数の分割領域63の各々について、その属性、すなわち、文字を含むテキスト領域(文字領域)なのか、イメージを含むイメージ領域なのか、その何れでもない領域(以下、背景領域という)なのかを判定する。そして、判定した属性(テキスト、イメージ、背景)の情報を前記領域テーブルに付加する。これにより、領域テーブルから各分割領域63の属性を得ることができる。なお、この処理は本発明の属性判定手段に相当する。   In step 104, for each of the plurality of divided areas 63, an attribute, that is, a text area (character area) including characters or an image area including images (hereinafter referred to as background area). Judgment is made. Then, information on the determined attributes (text, image, background) is added to the area table. Thereby, the attribute of each divided area 63 can be obtained from the area table. This process corresponds to the attribute determination means of the present invention.

ここで、仮に分割領域63がテキスト領域であれば、L*成分は高周波成分を多く含み、分割領域63がイメージ領域であれば、L*成分は低周波成分を多く含むこととなる。従って、分割領域63のL***画像データのうち明度情報を表すL*データに対して周波数フィルター処理を施した結果から、分割領域63がテキスト領域であるかイメージ領域であるかの属性を判定することができる。 Here, if the divided area 63 is a text area, the L * component includes many high frequency components, and if the divided area 63 is an image area, the L * component includes many low frequency components. Therefore, based on the result of performing frequency filter processing on L * data representing lightness information in the L * a * b * image data of the divided area 63, it is determined whether the divided area 63 is a text area or an image area. Attributes can be determined.

ステップ106では、分割領域63全てについて属性の判定を行ったか否かを判断し、全ての分割領域63について属性の判定が終了していない場合には、ステップ104の処理を繰り返し、全ての分割領域63について属性の判定が終了した場合には、ステップ108へ移行する。   In step 106, it is determined whether or not the attribute determination has been performed for all of the divided areas 63. If the attribute determination has not been completed for all of the divided areas 63, the process of step 104 is repeated, and all the divided areas are determined. When the attribute determination for 63 is completed, the routine proceeds to step 108.

図6には、図4に示す画像60についての属性判定処理の結果を示した。図6では、テキスト領域と判定された分割領域63を「テ」と表示し、イメージ領域と判定された分割領域63を「イ」と表示し、背景領域は無表示とした。このように、画像データの明度成分の周波数特性から、画像に含まれるテキスト領域及びイメージ領域を抽出することができる。   FIG. 6 shows the result of the attribute determination process for the image 60 shown in FIG. In FIG. 6, the divided area 63 determined as the text area is displayed as “te”, the divided area 63 determined as the image area is displayed as “b”, and the background area is not displayed. As described above, the text region and the image region included in the image can be extracted from the frequency characteristic of the brightness component of the image data.

ステップ108では、画像60にテキスト領域が存在するか否かを判定し、テキスト領域が存在する場合には、ステップ110へ移行し、テキスト領域が全く存在しない場合には、ステップ122へ移行し、補正を行わずにL***画像データをCMYK変換部52Eへ出力する。なお、RGB画像データをCMYK変換部52Eへ出力してもよい。 In step 108, it is determined whether or not a text area exists in the image 60. If there is a text area, the process proceeds to step 110. If no text area exists, the process proceeds to step 122. The L * a * b * image data is output to the CMYK conversion unit 52E without correction. Note that RGB image data may be output to the CMYK conversion unit 52E.

ステップ110では、抽出したテキスト領域及びイメージ領域が、それぞれの領域を含む最小の矩形領域となるように、それぞれの領域を拡大する処理を行う。すなわち、図6に示す元のテキスト領域又はイメージ領域に隣接する分割領域であって、図7に示す斜線領域で示した分割領域のように、元はテキスト領域でもイメージ領域でもなかった分割領域について、属性をそれぞれテキスト領域、イメージ領域に変更する。これにより、図8に示すように、テキスト領域64及びイメージ領域65がそれぞれ矩形領域に拡大される。   In step 110, a process of enlarging each area is performed so that the extracted text area and image area become the minimum rectangular area including each area. That is, for a divided area adjacent to the original text area or image area shown in FIG. 6 and originally not a text area or an image area, such as a divided area shown by a hatched area in FIG. Change the attribute to text area and image area respectively. Thereby, as shown in FIG. 8, the text area 64 and the image area 65 are each expanded to a rectangular area.

このようにして画像60からテキスト領域及びイメージ領域を別々に抽出することにより、図9に示すように、画像60から文字部分のみのテキスト画像61を得ることができる。なお、上記では、文字部分が色文字の場合や文字部分以外の背景部分がどのような色であるかについては特に言及していないが、ステップ104の属性判定において、適切なフィルターを選択することにより、文字部分が色文字等の場合であっても、テキスト領域及びイメージ領域を独立して抽出することができる。   By separately extracting the text area and the image area from the image 60 in this way, a text image 61 having only a character portion can be obtained from the image 60 as shown in FIG. In the above, no particular mention is made of the color of the character part or the color of the background part other than the character part, but an appropriate filter is selected in the attribute determination in step 104. Thus, even when the character portion is a color character or the like, the text region and the image region can be extracted independently.

ステップ112では、抽出したテキスト領域のL*データのヒストグラムを作成する。すなわち、テキスト領域64の各画素の明度(濃度)の出現頻度を求めることにより、図10に示すような、明度に関するヒストグラム66を作成する。なお、この処理は本発明のヒストグラム作成手段に相当する。ここで、テキスト領域64は、基本的には、濃度が高い(明度が低い)文字部分と濃度が低い(明度が高い)背景部分とで構成される。このため、テキスト領域64が、図10に示すように白地の背景部分に黒の文字部分とで構成され、コントラストが高い場合には、ヒストグラム66の形状は、明度が高い右端側及び明度が低い左端側に2つの山が形成された形となる。 In step 112, a histogram of the L * data of the extracted text area is created. That is, by calculating the appearance frequency of the brightness (density) of each pixel in the text area 64, a histogram 66 relating to the brightness as shown in FIG. 10 is created. This process corresponds to the histogram creation means of the present invention. Here, the text region 64 is basically composed of a character portion having a high density (low brightness) and a background portion having a low density (high brightness). For this reason, as shown in FIG. 10, when the text region 64 is composed of a white background portion and a black character portion, and the contrast is high, the shape of the histogram 66 is the right end side where the lightness is high and the lightness is low. Two peaks are formed on the left end side.

一方、図11に示すテキスト領域64Aのように、背景部分の濃度が高く、文字部分と背景部分とのコントラストが低い場合には、ヒストグラム66Aの形状は、明度が低い左端側及び中間位置に2つの山が形成された形となる。   On the other hand, when the density of the background portion is high and the contrast between the character portion and the background portion is low as in the text area 64A shown in FIG. 11, the shape of the histogram 66A is 2 at the left end side and the intermediate position where the brightness is low. A mountain is formed.

すなわち、ヒストグラム66に現れる2つの山部分の頂点位置の明度差が、文字部分と背景部分とのコントラストを表し、テキスト領域に含まれる文字部分の読みやすさを表す指標となる。   That is, the brightness difference between the vertex positions of the two peak portions appearing in the histogram 66 represents the contrast between the character portion and the background portion, and serves as an index representing the readability of the character portion included in the text area.

そこで、ステップ114では、作成したヒストグラムから、2つの山部分の頂点位置の明度差を算出する。すなわち、図11に示すヒストグラム66Aの場合は、Aの位置における明度と、Bの位置における明度との差を算出する。なお、頂点位置の明度差ではなく、山部分を構成する明度の平均値の差を明度差としてもよい。なお、この処理は本発明の明度差演算手段に相当する。   Therefore, in step 114, the brightness difference between the vertex positions of the two peak portions is calculated from the created histogram. That is, in the case of the histogram 66A shown in FIG. 11, the difference between the lightness at the position A and the lightness at the position B is calculated. In addition, it is good also considering not the brightness difference of a vertex position but the difference of the average value of the brightness which comprises a mountain part as a brightness difference. This process corresponds to the brightness difference calculating means of the present invention.

そして、次のステップ116において、算出した明度差が予め定めた所定閾値以下であるか否かを判断する。所定閾値は、明度差が所定閾値以下の場合にテキスト部分が弱視者等にとって見づらいと判断できる値に設定される。すなわち、換言すれば、ステップ116では、弱視者等にとってテキスト領域が見づらいか否かを判断する。   Then, in the next step 116, it is determined whether or not the calculated brightness difference is equal to or less than a predetermined threshold value. The predetermined threshold value is set to a value at which it is possible to determine that the text portion is difficult for a low vision person or the like when the brightness difference is equal to or smaller than the predetermined threshold value. That is, in other words, in step 116, it is determined whether or not the text region is difficult for a low vision person or the like.

明度差が所定閾値以下の場合には、ステップ118で図3に示す補正処理が実行され、明度差が所定閾値以下でない場合には、ステップ120へ移行する。なお、ステップ118の処理は本発明の補正手段に相当する。   If the brightness difference is less than or equal to the predetermined threshold value, the correction processing shown in FIG. 3 is executed in step 118. If the brightness difference is not less than or equal to the predetermined threshold value, the process proceeds to step 120. Note that the processing in step 118 corresponds to the correcting means of the present invention.

補正処理では、図3に示すように、ステップ200において、テキスト領域64の文字部分及び背景部分の色が無彩色か有彩色であるかを判定する。具体的には、文字部分については、例えば、まず矩形領域とされたテキスト領域64のうち、図6に示すように元々属性がテキスト領域と判定された全ての分割領域63(矩形領域に拡大する前のテキスト領域に含まれる全ての分割領域63)に含まれる画素のa*成分及びb*成分の平均値を求める。そして、a*成分及びb*成分の平均値が共に、無彩色を表す所定値以下であれば無彩色、それ以外であれば有彩色と判定することができる。一般に、a*成分及びb*成分の値が共に0であれば、その画素は明度のみの情報しか持たないため、この場合は確実に無彩色と判断できる。しかしながら、a*成分及びb*成分の値が共に0でなくとも、ほぼ無彩色としてもよい場合もあるため、上記のように、a*成分及びb*成分の平均値が共に、ほぼ無彩色と判断できる所定値以下であれば無彩色と判定する。 In the correction process, as shown in FIG. 3, in step 200, it is determined whether the color of the character portion and the background portion of the text area 64 is an achromatic color or a chromatic color. Specifically, with respect to the character portion, for example, among the text area 64 first set as a rectangular area, as shown in FIG. 6, all the divided areas 63 whose attributes are originally determined to be text areas (expanded into rectangular areas). Average values of the a * component and b * component of the pixels included in all the divided regions 63) included in the previous text region are obtained. If the average values of the a * component and the b * component are both equal to or less than a predetermined value representing an achromatic color, it can be determined that the color is achromatic, and otherwise, it is determined that the color is chromatic. In general, if the values of the a * component and the b * component are both 0, the pixel has only lightness information, and in this case, it can be determined as an achromatic color. However, even if both the values of the a * component and the b * component are not 0, it may be substantially achromatic color. Therefore, as described above, both the average values of the a * component and the b * component are almost achromatic color. If it is equal to or less than a predetermined value, it can be determined that the color is achromatic.

なお、テキスト領域64の全ての分割領域63に含まれる画素のa*成分及びb*成分の平均値から無彩色か否かを判定するのではなく、一部の分割領域63に含まれる画素のa*成分及びb*成分の平均値から無彩色か否かを判定してもよい。また、平均値でなく、最大値を用いてもよく、ある画素の値を代表値として用いても良い。 In addition, it is not determined whether or not the color is achromatic from the average value of the a * component and b * component of the pixels included in all the divided regions 63 of the text region 64, but the pixels included in some of the divided regions 63 are not determined. You may determine whether it is an achromatic color from the average value of a * component and b * component. Further, the maximum value may be used instead of the average value, and the value of a certain pixel may be used as the representative value.

また、背景部分については、例えば、背景領域と判定された全ての分割領域63に含まれる画素のa*成分及びb*成分の平均値を求める。そして、a*成分及びb*成分の平均値が共に、無彩色を表す所定値以下であれば無彩色、それ以外であれば有彩色と判定することができる。 For the background portion, for example, the average value of the a * component and b * component of the pixels included in all the divided regions 63 determined as the background region is obtained. If the average values of the a * component and the b * component are both equal to or less than a predetermined value representing an achromatic color, it can be determined that the color is achromatic, and otherwise, it is determined that the color is chromatic.

なお、背景領域とされた全ての分割領域63に含まれる画素のa*成分及びb*成分の平均値から無彩色か否かを判定するのではなく、例えばテキスト領域(矩形領域に拡大する前のテキスト領域又は矩形領域に拡大後のテキスト領域64)の周囲に存在する分割領域63であって、属性が背景領域と判定された分割領域63のみに含まれる画素のa*成分及びb*成分の平均値から無彩色か否かを判定してもよい。なお、ステップ200の処理は、本発明の彩度判定手段に相当する。 In addition, it is not determined whether or not the color is achromatic from the average value of the a * component and b * component of the pixels included in all the divided regions 63 set as the background region. A * component and b * component of pixels included only in the divided region 63 whose attribute is determined to be the background region 63, which exists around the text region 64) after being enlarged to the text region or the rectangular region. It may be determined whether or not the color is an achromatic color from the average value. Note that the processing of step 200 corresponds to the saturation determination means of the present invention.

ステップ202では、ステップ200の判定の結果、文字部分及び背景部分が共に無彩色であるか否かを判断し、共に無彩色である場合には、ステップ204へ移行し、共に無彩色でない場合には、ステップ206へ移行する。   In step 202, as a result of the determination in step 200, it is determined whether or not both the character part and the background part are achromatic colors. If both are achromatic colors, the process proceeds to step 204. Proceeds to step 206.

ステップ204では、テキスト領域64の文字部分と背景部分とのコントラストが高くなるように、テキスト領域64に含まれる各画素の明度L*を補正する。この処理は本発明の明度差補正手段に相当する。具体的には、図12に示すように、明度L*の値の取り得る範囲のほぼ中間位置から明度が低い(濃度が高い)方の入力値についてはさらに明度が低くなるような出力値が得られ、前記中間位置から明度が高い(濃度が低い)方の入力値についてはさらに明度が高くなるような出力値が得られるルックアップテーブルを用いて明度L*を補正する。なお、このルックアップテーブルは、予め色補正部52Dに記憶しておく。 In step 204, the lightness L * of each pixel included in the text region 64 is corrected so that the contrast between the character portion of the text region 64 and the background portion becomes high. This process corresponds to the lightness difference correction means of the present invention. Specifically, as shown in FIG. 12, for an input value having a lower lightness (higher density) from an approximately middle position within a possible range of the lightness L * , an output value that further lowers the lightness is obtained. The lightness L * is corrected using a look-up table from which an output value is obtained that is obtained, and an input value having a higher lightness (lower density) from the intermediate position can be obtained. This lookup table is stored in advance in the color correction unit 52D.

このように、文字部分及び背景部分が共に無彩色の場合には、明るい部分はより明るく、位部分はより暗くなるようにコントラストの補正を行うので、例えば図11に示すようにコントラストが低いテキスト領域64Aが、図13に示すように、コントラストが高いテキスト領域64Aに変換される。これにより、弱視者等にとって文字部分が見やすい画像を得ることができる。   In this way, when the character part and the background part are both achromatic, the contrast correction is performed so that the bright part is brighter and the higher part is darker. For example, text with low contrast as shown in FIG. As shown in FIG. 13, the area 64A is converted into a text area 64A having a high contrast. Thereby, it is possible to obtain an image in which the character portion is easy to see for a low vision person or the like.

なお、テキスト領域64のコントラストを向上させるのではなく、テキスト領域64又は画像全体を拡大した画像データを生成してもよく、両者を組み合わせても良い。   Instead of improving the contrast of the text area 64, image data obtained by enlarging the text area 64 or the entire image may be generated, or both may be combined.

ステップ206では、文字部分及び背景部分の何れかが無彩色か否かを判断し、何れかが無彩色である場合には、ステップ208へ移行し、何れも無彩色でない場合には、ステップ210へ移行する。   In step 206, it is determined whether or not any of the character part and the background part is an achromatic color. If any of the character part and the background part is an achromatic color, the process proceeds to step 208. Migrate to

ステップ208では、文字部分又は背景部分の彩度を補正する。この処理は、本発明の彩度補正手段に相当する。具体的には、文字部分が有彩色の場合には、文字部分の彩度が高くなるようにテキスト領域64の彩度を補正し、背景部分が有彩色の場合には、背景部分の彩度が低下するように、テキスト領域64の彩度を補正する。   In step 208, the saturation of the character portion or background portion is corrected. This process corresponds to the saturation correction means of the present invention. Specifically, when the character portion is chromatic, the saturation of the text region 64 is corrected so that the saturation of the character portion is high. When the background portion is chromatic, the saturation of the background portion is corrected. The saturation of the text area 64 is corrected so as to decrease.

なお、彩度C*は次式によって導き出すことができる。 The saturation C * can be derived from the following equation.

*=(a*2+b*21/2 …(1)
従って、a*成分とb*成分から、その画素の彩度を得ることが可能となるため、補正前のa*成分及びb*成分をそれぞれa* old及びb* old、補正後のa*成分及びb*成分をそれぞれa* new及びb* new、彩度の補正係数をkとした場合に、次式を満たすようなa* new及びb* newを求める。
C * = (a * 2 + b * 2 ) 1/2 (1)
Therefore, the a * component and the b * component, since it is possible to obtain the saturation of the pixel, each uncorrected a * component and the b * component of a * old and b * old, after correction a * When the component and b * component are a * new and b * new , respectively, and the saturation correction coefficient is k, a * new and b * new satisfying the following equations are obtained.

* new=(a* new 2+b* new 21/2=k(a* old 2+b* old 21/2 …(2)
* new/b* new=a* old/b* old …(3)
ここで、k>1とすれば補正後の彩度が高くなり、k<1とすれば彩度が低くなる。従って、文字部分が有彩色である場合には、補正係数kを1より大きい所定値に設定し、テキスト領域64の各画素について上記(2)、(3)式を満たすa* new及びb* new、を求め、これを補正後のa*成分及びb*成分とする。一方、背景部分が有彩色である場合には、補正係数kを1より小さい所定値に設定し、テキスト領域64の各画素について上記(2)、(3)式を満たすa* new及びb* new、を求め、これを補正後のa*成分及びb*成分とする。
C * new = (a * new 2 + b * new 2) 1/2 = k (a * old 2 + b * old 2) 1/2 ... (2)
a * new / b * new = a * old / b * old (3)
Here, when k> 1, the saturation after correction is increased, and when k <1, the saturation is decreased. Accordingly, when the character portion is a chromatic color, the correction coefficient k is set to a predetermined value larger than 1, and a * new and b * satisfying the above expressions (2) and (3) are set for each pixel of the text area 64 . new is obtained and used as the corrected a * component and b * component. On the other hand, when the background portion is a chromatic color, the correction coefficient k is set to a predetermined value smaller than 1, and a * new and b * satisfying the above expressions (2) and (3) are set for each pixel of the text area 64 new is obtained and used as the corrected a * component and b * component.

これにより、テキスト領域64の文字部分が有彩色の場合には、文字部分の彩度が高くなり、テキスト領域64の背景部分が有彩色の場合には、テキスト領域64の背景部分の彩度が低下する。   Thereby, when the character portion of the text region 64 is chromatic, the saturation of the character portion is high, and when the background portion of the text region 64 is chromatic, the saturation of the background portion of the text region 64 is high. descend.

このように、テキスト領域64の文字部分の彩度が高くなるように、又はテキスト領域64の背景部分の彩度が低くなるようにテキスト領域64の彩度を補正することにより、弱視者等にとって文字部分が見やすい画像を得ることができる。   Thus, by correcting the saturation of the text region 64 so that the saturation of the character portion of the text region 64 is increased or the saturation of the background portion of the text region 64 is decreased, it is possible for a low vision person or the like. It is possible to obtain an image in which the character portion is easy to see.

なお、背景部分が有彩色の場合には、テキスト領域64の各画素だけでなく、属性が背景領域とされた全ての画素について彩度を低下させる補正を行っても良い。   When the background portion is a chromatic color, not only each pixel of the text area 64 but also all pixels whose attributes are the background area may be corrected to reduce the saturation.

一方、文字部分及び背景部分が共に有彩色の場合には、ステップ210において、テキスト領域64の色相を変換する処理を行う。なお、この処理は、本発明の色相補正手段に相当する。   On the other hand, if the character part and the background part are both chromatic colors, in step 210, the process of converting the hue of the text area 64 is performed. This process corresponds to the hue correction means of the present invention.

色相は、a*成分及びb*成分が共に0、すなわち、図14に示すようにa*軸とb*軸とが交わる無彩色の位置を原点として、a*成分及びb*成分で定まる位置と原点とを結んだ線と、例えばa*軸との成す角度(以下、色相角度という)によって決定される。 Hue, a * component and the b * component are both 0, i.e., the origin position of the achromatic intersection between a * axis and b * axis as shown in FIG. 14, determined by a * component and the b * component position Is determined by an angle (hereinafter referred to as a hue angle) formed by a line connecting the line and the origin and, for example, the a * axis.

例えば図14に示すように、それぞれ異なる色であるP1,P2,P3の色相について考える。なお、説明を簡単にするため、L*データは各々同一の値とする。 For example, as shown in FIG. 14, consider hues of P1, P2, and P3, which are different colors. In order to simplify the description, the L * data is assumed to have the same value.

ここで、P1=(a1 *,b1 *),P2=(a2 *,b2 *)とすると、a1 *≠a2 *かつb1 *≠b2 *の関係が成り立ち、P1とP2とは明らかに異なる色となる。 Here, P1 = (a 1 *, b 1 *), P2 = (a 2 *, b 2 *) when to, a 1 * ≠ a 2 * and b 1 * ≠ b 2 * of the holds relationship, P1 And P2 are clearly different colors.

しかしながら、P1と原点とを結ぶ線S1と、a*軸との角度、P2と原点とを結ぶ線S2と、a*軸との角度は、共にθ1となっている。すなわち、次式を満たしているため、P1及びP2の色相は同一となる。 However, the angle between the line S1 connecting P1 and the origin and the a * axis, and the angle between the line S2 connecting P2 and the origin and the a * axis are both θ 1 . That is, since the following expression is satisfied, the hues of P1 and P2 are the same.

tan(b1 */a1 *)=tan(b2 */a2 *) …(4)
なお、(4)式において単に比率b*/a*同士の比較でないのは、第1象限以外での関係も重要であるからである。
tan (b 1 * / a 1 * ) = tan (b 2 * / a 2 * ) (4)
The reason why the ratio b * / a * is not simply compared in the equation (4) is that the relationship other than the first quadrant is also important.

同様にP3と、P1及びP2との関係について考えると、P3と原点とを結ぶ線S3と、a*軸との角度θ2は、明らかにθ1と異なり、上記(4)式を満たさないので、P3の色相と、P1及びP2の色相とは異なる。 Similarly, considering the relationship between P3 and P1 and P2, the angle θ 2 between the line S3 connecting P3 and the origin and the a * axis is clearly different from θ 1 and does not satisfy the above equation (4). Therefore, the hue of P3 is different from the hues of P1 and P2.

2つの色の類似性(視認性)を色相で考えた場合、2つの色がもっとも視認しやすくなるのは、お互いが補色の関係、すなわち、互いの色の色相角度が180度異なる場合である。従って、少なくとも一方の色の色相を所定の基準に従って変化させることにより、視認性を向上させることができる。例えば文字部分の色がP1、背景部分の色がP3であった場合、次式を満たし、かつP1と象限が異なるようにP3の色相を変化させることにより、テキスト領域64の文字部分の視認性を向上させることができる。   When the similarity (visibility) of two colors is considered in terms of hue, the two colors are most easily visible when the colors are complementary to each other, that is, when the hue angles of the colors are different by 180 degrees. . Therefore, visibility can be improved by changing the hue of at least one color according to a predetermined standard. For example, when the color of the character portion is P1 and the color of the background portion is P3, the visibility of the character portion in the text area 64 is satisfied by changing the hue of P3 so that the following equation is satisfied and the quadrant is different from P1. Can be improved.

* 3new/a* 3new=b* 1/a* 1 …(5)
(a* 3new 2+b* 3new 21/2=(a* 3old 2+b* 3old 21/2 …(6)
なお、a* 3new及びb* 3newは補正後の背景部分のa*成分及びb*成分であり、a* 3old及びb* 3oldは補正前の背景部分のa*成分及びb*成分である。上記(5)、(6)式を満たす(a* 3new、b* 3new)の組み合わせのうち、(a* 1、b* 1)と象限が異なるものを選択して新たなデータとすることにより、テキスト領域64の文字部分の視認性を向上させることができる。
b * 3new / a * 3new = b * 1 / a * 1 (5)
(A * 3new 2 + b * 3new 2 ) 1/2 = (a * 3old 2 + b * 3old 2 ) 1/2 (6)
Incidentally, a * 3New and b * 3New is a * component and the b * component of the background portion after the correction, a * 3Old and b * 3Old is a * component and the b * component of the background portion before correction. By selecting a combination of (a * 3new , b * 3new ) satisfying the above formulas (5) and (6) that has a quadrant different from (a * 1 , b * 1 ) and creating new data The visibility of the character portion of the text area 64 can be improved.

更に、上記の例でP1及びP3の両方の色相を変化させる場合は、まず、P1とP3との中間の色相角度θ4を次式によって求める。   Furthermore, when changing both the hues of P1 and P3 in the above example, first, an intermediate hue angle θ4 between P1 and P3 is obtained by the following equation.

θ4=tan-1(b1/a1)−tan-1(b3/a3) …(7)
そして、次式を満たすような(a* 1new、b* 1new)、(a* 3new、b* 3new)を求める。
θ4 = tan −1 (b 1 / a 1 ) −tan −1 (b 3 / a 3 ) (7)
Then, (a * 1new , b * 1new ) and (a * 3new , b * 3new ) that satisfy the following expressions are obtained.

tan(θ4+90°)=tan(b* 1new/a* 1new) …(8)
(a* 1new 2+b* 1new 21/2=(a* 1old 2+b* 1old 21/2 …(9)
tan(θ4−90°)=tan(b* 3new/a* 3new) …(10)
(a* 3new 2+b* 3new 21/2=(a* 3old 2+b* 3old 21/2 …(11)
上記(8)〜(11)式を満たす(a* 1new、b* 1new)、(a* 3new、b* 3new)の組み合わせのうち、互いに異なる象限となる組み合わせを選択して新たなデータとすることにより、テキスト領域64の文字部分の視認性を向上させることができる。
tan (θ4 + 90 °) = tan (b * 1new / a * 1new ) (8)
(A * 1new 2 + b * 1new 2 ) 1/2 = (a * 1old 2 + b * 1old 2 ) 1/2 (9)
tan (θ4-90 °) = tan (b * 3new / a * 3new ) (10)
(A * 3new 2 + b * 3new 2 ) 1/2 = (a * 3old 2 + b * 3old 2 ) 1/2 (11)
Of the combinations of (a * 1new , b * 1new ) and (a * 3new , b * 3new ) satisfying the above formulas (8) to (11), a combination having a different quadrant is selected and used as new data. Thereby, the visibility of the character part of the text area | region 64 can be improved.

なお、コントラスト補正、彩度補正、及び色相変換の各処理を適宜組み合わせて実行してもよい。   Note that the processing of contrast correction, saturation correction, and hue conversion may be executed in combination as appropriate.

図2のステップ120では、画像60に含まれる全てのテキスト領域についてステップ112〜118の処理を行ったか否かを判断し、未処理のテキスト領域がある場合には、ステップ112へ戻り、上記と同様の処理を行う。そして、全てのテキスト領域についてステップ112〜118の処理を行った場合には、ステップ122へ移行し、補正したL***画像データをCMYK変換部52Eへ出力する。なお、一旦RGB画像データへ変換してからCMYK変換部52Eへ出力するようにしてもよい。 In step 120 of FIG. 2, it is determined whether or not the processing of steps 112 to 118 has been performed for all text areas included in the image 60. If there is an unprocessed text area, the process returns to step 112, and Similar processing is performed. If the processing of steps 112 to 118 has been performed for all text regions, the process proceeds to step 122, and the corrected L * a * b * image data is output to the CMYK conversion unit 52E. Note that the image data may be converted into RGB image data and then output to the CMYK conversion unit 52E.

このように、文字部分、背景部分が無彩色か有彩色かに応じて、コントラスト補正、彩度補正、色相変換の何れかの処理を行うことにより、文字部分の視認性を向上させ、入力された画像を弱視者等にとって読みやすい画像に変換することができる。   In this way, by performing any of contrast correction, saturation correction, and hue conversion depending on whether the character part or background part is an achromatic or chromatic color, the visibility of the character part is improved and input. The image can be converted into an image that is easy to read for a low vision person or the like.

なお、本実施形態で説明した画像処理装置52の機能を、例えば本出願人が先に出願した特願2004−51338号に記載された画像形成システムのように、DFE(Digital Front End Processor)装置と、画像形成装置との間に設けられたバックエンドプロセッサ(BEP装置)に設けるようにしてもよい。   Note that the functions of the image processing apparatus 52 described in the present embodiment are the same as the DFE (Digital Front End Processor) apparatus, such as the image forming system described in Japanese Patent Application No. 2004-51338 filed earlier by the present applicant. And a back-end processor (BEP device) provided between the image forming apparatus and the image forming apparatus.

このような画像形成システムにおいて弱視者用の印刷を行う場合、DFE装置は、印刷データをBEP装置に出力すると共に弱視者用の印刷を指示すればよい。これにより、BEP装置に設けられた画像処理装置52によって弱視者用に印刷データが変換され、変換された印刷データに基づく画像が画像形成装置によって印刷される。このように、BEP装置側で弱視者用に画像を変換するので、DFE装置側で弱視者用に画像を変換する処理を行う必要がなく、また、弱視者用に画像を変換して印刷を行う専用の画像形成装置を設ける必要もない。従って、DFE装置の処理負荷を軽減することができると共に、システムの高機能化等に柔軟に対応することができる。   When printing for low vision users in such an image forming system, the DFE device only has to output print data to the BEP device and instruct printing for low vision people. As a result, the print data is converted for the low vision by the image processing device 52 provided in the BEP device, and an image based on the converted print data is printed by the image forming device. As described above, since the image is converted for the low-sighted person on the BEP device side, there is no need to perform processing for converting the image for the low-sighted person on the DFE device side, and the image is converted and printed for the low-sighted person. There is no need to provide a dedicated image forming apparatus. Therefore, it is possible to reduce the processing load of the DFE apparatus and flexibly cope with the high functionality of the system.

画像処理システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of an image processing system. 色補正部で実行されるメイン処理ルーチンのフローチャートである。It is a flowchart of the main process routine performed with a color correction part. 色補正部で実行される補正処理ルーチンのフローチャートである。5 is a flowchart of a correction processing routine executed by a color correction unit. 画像の一例を示すイメージ図である。It is an image figure which shows an example of an image. 画像を複数の分割領域に分割した例を示すイメージ図である。It is an image figure which shows the example which divided | segmented the image into several division area. 各分割領域の属性判定後の属性情報を示すイメージ図である。It is an image figure which shows the attribute information after the attribute determination of each division area. 属性判定後のテキスト領域及びイメージ領域を矩形領域に拡大した後の属性情報を示すイメージ図である。It is an image figure which shows the attribute information after enlarging the text area and image area after attribute determination to a rectangular area. 矩形領域に拡大後のテキスト領域及びイメージ領域を示すイメージ図である。It is an image figure which shows the text area and image area after enlarging in the rectangular area. テキスト画像を示すイメージ図である。It is an image figure which shows a text image. テキスト画像及びテキスト領域の明度のヒストグラムを示す図である。It is a figure which shows the histogram of the brightness of a text image and a text area. テキスト画像及びテキスト領域の明度のヒストグラムを示す図である。It is a figure which shows the histogram of the brightness of a text image and a text area. 明度補正を行うための補正曲線を示す線図である。It is a diagram which shows the correction curve for performing brightness correction. 補正後のテキスト画像を示すイメージ図である。It is an image figure which shows the text image after correction | amendment. 色相変換について説明するための図である。It is a figure for demonstrating hue conversion.

符号の説明Explanation of symbols

50 画像処理システム
51 画像入力装置
52 画像処理装置
52A 前処理部
52B ページメモリ
52C 色空間変換部
52D 色補正部
52E CMYK変換部
52F 後処理部
53 画像出力装置
54 蓄積装置
50 Image processing system 51 Image input device 52 Image processing device 52A Pre-processing unit 52B Page memory 52C Color space conversion unit 52D Color correction unit 52E CMYK conversion unit 52F Post-processing unit 53 Image output device 54 Storage device

Claims (6)

入力画像の明度情報に基づいて、前記入力画像の文字部分を含む文字領域を抽出する抽出手段と、
前記文字部分と前記文字領域のうち前記文字部分以外の背景部分と、の明度差を求める明度差演算手段と、
前記明度差が予め定めた所定閾値以下の場合に、前記文字部分及び前記背景部分の少なくとも一方の明度、彩度、及び色相の少なくとも一つを補正する補正手段と、
を備えた画像処理装置。
Extraction means for extracting a character region including a character portion of the input image based on lightness information of the input image;
A lightness difference calculating means for obtaining a lightness difference between the character portion and a background portion other than the character portion of the character region;
Correction means for correcting at least one of brightness, saturation, and hue of at least one of the character portion and the background portion when the brightness difference is equal to or less than a predetermined threshold;
An image processing apparatus.
前記抽出手段は、前記入力画像を複数の分割領域に分割する分割手段と、前記分割領域の明度情報の周波数特性に基づいて、前記分割領域が前記文字領域であるか否かを各々判定する属性判定手段と、を含むことを特徴とする請求項1記載の画像処理装置。   The extraction means is an attribute for determining whether the divided area is the character area based on a dividing means for dividing the input image into a plurality of divided areas, and frequency characteristics of brightness information of the divided areas. The image processing apparatus according to claim 1, further comprising a determination unit. 前記明度差演算手段は、前記文字領域の明度情報のヒストグラムを作成するヒストグラム作成手段を含み、前記ヒストグラムの複数の山部分の間隔を前記明度差として求めることを特徴とする請求項1又は請求項2記載の画像処理装置。   The lightness difference calculation means includes histogram creation means for creating a histogram of lightness information of the character region, and obtains intervals between a plurality of peak portions of the histogram as the lightness difference. 2. The image processing apparatus according to 2. 前記補正手段は、前記文字領域の前記文字部分及び前記背景部分が無彩色か否かを各々判定する彩度判定手段と、前記文字部分及び前記背景部分が共に無彩色の場合、前記文字領域の明度差を補正する明度差補正手段と、を含むことを特徴とする請求項1乃至請求項3の何れか1項に記載の画像処理装置。   The correction means includes saturation determination means for determining whether or not the character portion and the background portion of the character area are achromatic, and when both the character portion and the background portion are achromatic, The image processing apparatus according to claim 1, further comprising a lightness difference correction unit that corrects the lightness difference. 前記補正手段は、前記文字領域の前記文字部分及び前記背景部分が無彩色か否かを各々判定する彩度判定手段と、前記文字部分及び前記背景部分の一方が無彩色の場合、有彩色の部分の彩度を補正する彩度補正手段と、を含むことを特徴とする請求項1乃至請求項3の何れか1項に記載の画像処理装置。   The correction means includes a saturation determination means for determining whether or not the character portion and the background portion of the character area are achromatic, and if one of the character portion and the background portion is an achromatic color, The image processing apparatus according to claim 1, further comprising a saturation correction unit that corrects the saturation of the portion. 前記補正手段は、前記文字領域の前記文字部分及び前記背景部分が無彩色か否かを各々判定する彩度判定手段と、前記文字部分及び前記背景部分が共に有彩色の場合、前記文字部分及び前記背景部分の色相を補正する色相補正手段と、を含むことを特徴とする請求項1乃至請求項3の何れか1項に記載の画像処理装置。   The correction means includes saturation determination means for determining whether or not the character portion and the background portion of the character area are achromatic, and when both the character portion and the background portion are chromatic colors, the character portion and The image processing apparatus according to claim 1, further comprising a hue correction unit that corrects a hue of the background portion.
JP2004066842A 2004-03-10 2004-03-10 Image processor Pending JP2005260404A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004066842A JP2005260404A (en) 2004-03-10 2004-03-10 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004066842A JP2005260404A (en) 2004-03-10 2004-03-10 Image processor

Publications (1)

Publication Number Publication Date
JP2005260404A true JP2005260404A (en) 2005-09-22

Family

ID=35085735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004066842A Pending JP2005260404A (en) 2004-03-10 2004-03-10 Image processor

Country Status (1)

Country Link
JP (1) JP2005260404A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013239819A (en) * 2012-05-14 2013-11-28 Konica Minolta Inc Image processing apparatus and image processing method
JP2014064184A (en) * 2012-09-21 2014-04-10 Riso Kagaku Corp Image forming apparatus
KR20150064931A (en) * 2013-12-04 2015-06-12 엘지전자 주식회사 Display device and operating method thereof
CN105426810A (en) * 2014-09-17 2016-03-23 株式会社东芝 Information Processing Device, Image Modification Method, And Computer Program Product
JP2018106769A (en) * 2018-04-10 2018-07-05 株式会社東芝 Information processor, image alteration method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013239819A (en) * 2012-05-14 2013-11-28 Konica Minolta Inc Image processing apparatus and image processing method
JP2014064184A (en) * 2012-09-21 2014-04-10 Riso Kagaku Corp Image forming apparatus
KR20150064931A (en) * 2013-12-04 2015-06-12 엘지전자 주식회사 Display device and operating method thereof
KR102122338B1 (en) * 2013-12-04 2020-06-12 엘지전자 주식회사 Display device and operating method thereof
CN105426810A (en) * 2014-09-17 2016-03-23 株式会社东芝 Information Processing Device, Image Modification Method, And Computer Program Product
JP2016062263A (en) * 2014-09-17 2016-04-25 株式会社東芝 Information processor, image alteration method, and program
CN105426810B (en) * 2014-09-17 2019-01-18 株式会社东芝 Information processing unit and method for amending image
JP2018106769A (en) * 2018-04-10 2018-07-05 株式会社東芝 Information processor, image alteration method, and program

Similar Documents

Publication Publication Date Title
US7940434B2 (en) Image processing apparatus, image forming apparatus, method of image processing, and a computer-readable storage medium storing an image processing program
JP6031286B2 (en) Image processing apparatus and image processing method
JP4771538B2 (en) Color conversion table generation method, color conversion table, and color conversion table generation apparatus
US7764411B2 (en) Color processing apparatus and method, and storage medium storing color processing program
US7903872B2 (en) Image-processing apparatus and method, computer program, and storage medium
JP2000165693A (en) Print system
JP2008011267A (en) Image processor, image processing method, image processing program, and memory medium
JP6564285B2 (en) Image processing apparatus and image forming apparatus
JP2010041267A (en) Image processing apparatus, image processing method, and computer readable recording medium storing program for performing the method
JP2007013551A (en) Image processing apparatus and image processing method
JP2002016939A (en) Method and apparatus for processing image as well as recording medium
JP5146085B2 (en) Image processing apparatus and program
JP4957668B2 (en) Image processing device
JP2015002443A (en) Image processing apparatus and image processing method
US20100328343A1 (en) Image signal processing device and image signal processing program
JP2009083460A (en) Color printing control device, color printing control method, and color printing control program
JP2005260404A (en) Image processor
JP4112413B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded
JP3489200B2 (en) Color correction method for color printer
US7817303B2 (en) Image processing and image forming with modification of a particular class of colors
JP7215207B2 (en) image forming device
JP5689090B2 (en) Image forming method and image forming apparatus
JP6880847B2 (en) Image processing equipment, image processing methods and programs
JP2000165694A (en) Color picture processing method
JP2010050832A (en) Device and method for processing image, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090317

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090915