JP2005260404A - Image processor - Google Patents
Image processor Download PDFInfo
- Publication number
- JP2005260404A JP2005260404A JP2004066842A JP2004066842A JP2005260404A JP 2005260404 A JP2005260404 A JP 2005260404A JP 2004066842 A JP2004066842 A JP 2004066842A JP 2004066842 A JP2004066842 A JP 2004066842A JP 2005260404 A JP2005260404 A JP 2005260404A
- Authority
- JP
- Japan
- Prior art keywords
- image
- character
- area
- lightness
- correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 43
- 239000003086 colorant Substances 0.000 claims description 18
- 238000000605 extraction Methods 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 abstract 1
- 230000009466 transformation Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 22
- 238000006243 chemical reaction Methods 0.000 description 16
- 208000010415 Low Vision Diseases 0.000 description 12
- 230000004303 low vision Effects 0.000 description 12
- 238000007781 pre-processing Methods 0.000 description 7
- 238000012805 post-processing Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 4
- 230000000295 complement effect Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
Images
Abstract
Description
本発明は、画像処理装置に係り、より詳しくは、文字を含む画像を画像処理する画像処理装置に関する。 The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that performs image processing on an image including characters.
従来、入力画像が所望の画像となるように画像処理する画像処理装置では、主に通常の視力を有する健常者向けを前提として、画質を向上させ、より綺麗な画像となるように画像処理するのが一般的であった。 2. Description of the Related Art Conventionally, in an image processing apparatus that performs image processing so that an input image becomes a desired image, the image processing is performed so that the image quality is improved and a clearer image is obtained mainly on the premise of a healthy person having normal vision. It was common.
例えば、特許文献1には、画像のバランスを崩さないように、より綺麗な画像で且つ撮影時の画像を忠実に色再現することができる画像処理装置が提案されている。
For example,
また、特許文献2には、鮮鋭かつ良好なコントラスト、彩度を有する画像を得ることができる画像処理装置が提案されている。
しかしながら、上記従来技術では、文字を含む画像の場合、画質を向上させることはできても、視力の弱い弱視者にとって文字部分の読み取りにくさは変わらず、弱視者にとっては視認性が悪い場合がある、という問題があった。 However, in the case of an image including characters, the above-described prior art may improve the image quality, but the difficulty of reading the character portion is not changed for a weakly sighted person with low vision, and the visibility may be poor for a weakly sighted person. There was a problem that there was.
本発明は、上記問題を解決すべく成されたものであり、弱視者等にとって文字を含む画像の視認性が向上する画像を得ることができる画像処理装置を提供することを目的とする。 The present invention has been made to solve the above-described problem, and an object of the present invention is to provide an image processing apparatus capable of obtaining an image with improved visibility of an image including characters for a low vision person or the like.
上記目的を達成するために、請求項1記載の発明は、入力画像の明度情報に基づいて、前記入力画像の文字部分を含む文字領域を抽出する抽出手段と、前記文字部分と前記文字領域のうち前記文字部分以外の背景部分と、の明度差を求める明度差演算手段と、前記明度差が予め定めた所定閾値以下の場合に、前記文字部分及び前記背景部分の少なくとも一方の明度、彩度、及び色相の少なくとも一つを補正する補正手段と、を備えたことを特徴とする。
In order to achieve the above object, the invention according to
この発明によれば、抽出手段は、入力画像の明度情報に基づいて、入力画像の文字部分を含む文字領域を抽出する。例えば、請求項2に記載したように、前記抽出手段は、前記入力画像を複数の分割領域に分割する分割手段と、前記分割領域の明度情報の周波数特性に基づいて、前記分割領域が前記文字領域であるか否かを各々判定する属性判定手段と、を含む構成とすることができる。この場合、属性判定手段は、分割手段によって分割された分割領域の明度情報に関する周波数特性を周波数フィルター等を用いて求め、この周波数特性に基づいて文字を含む文字領域であるか、それ以外、例えばイメージ画像を含むイメージ領域か、文字領域でもイメージ領域でもない背景領域かを判定する。例えば高周波成分を多く含めば文字を含み、低周波成分を多く含めばイメージ画像を含むと判断することができる。
According to the present invention, the extracting means extracts a character region including a character portion of the input image based on the lightness information of the input image. For example, as described in
明度差演算手段は、文字部分と背景部分と、の明度差を求める。例えば、請求項3に記載したように、前記明度差演算手段は、前記文字領域の明度情報のヒストグラムを作成するヒストグラム作成手段を含み、前記ヒストグラムの複数の山部分の間隔を前記明度差として求めることができる。すなわち、一般には、白地に黒字の文字が描かれた画像であれば、文字部分の明度は低く背景部分の明度は高い。従って、明度の低い方と明度高い方に明度が集中し、ヒストグラムで見た場合は2つの山が形成される場合が多い。このため、複数の山部分の間隔を文字部分と背景部分との明度差とすることができる。なお、山部分の頂点位置の明度差を文字部分と背景部分との明度差としてもよいし、山部分の明度の平均値の差を文字部分と背景部分との明度差としてもよい。
The brightness difference calculating means obtains a brightness difference between the character portion and the background portion. For example, as described in
また、文字部分と背景部分との明度差が低いと、特に弱視者等にとって文字が見えづらい画像となる。 In addition, when the brightness difference between the character portion and the background portion is low, the image is particularly difficult for a low vision person or the like to see the character.
そこで、補正手段は、前記明度差が予め定めた所定閾値以下の場合に、前記文字部分及び前記背景部分の少なくとも一方の明度、彩度、及び色相の少なくとも一つを補正する。 Therefore, the correction unit corrects at least one of the brightness, saturation, and hue of at least one of the character portion and the background portion when the brightness difference is equal to or less than a predetermined threshold value.
これにより、文字部分を見えやすくすることができ、弱視者等にとっての視認性を向上させた画像を得ることができる。 As a result, the character portion can be easily seen, and an image with improved visibility for a weakly sighted person or the like can be obtained.
なお、請求項4に記載したように、前記補正手段は、前記文字領域の前記文字部分及び前記背景部分が無彩色か否かを各々判定する彩度判定手段と、前記文字部分及び前記背景部分が共に無彩色の場合、前記文字領域の明度差を補正する明度差補正手段と、を含む構成とすることができる。 In addition, as described in claim 4, the correction unit includes a saturation determination unit that determines whether the character portion and the background portion of the character region are achromatic colors, and the character portion and the background portion. When both are achromatic colors, a lightness difference correction means for correcting the lightness difference of the character area may be included.
このように、文字部分及び背景部分が共に無彩色の場合には、明度差補正手段は、文字部分と背景部分との明度差が大きくなるようにによって補正する。例えば、文字部分の明度をさらに低くすると共に背景部分の明度をさらに高くする。これにより、文字部分の視認性を向上させることができる。 Thus, when both the character portion and the background portion are achromatic, the lightness difference correction means corrects the lightness difference between the character portion and the background portion so as to increase. For example, the brightness of the character portion is further lowered and the brightness of the background portion is further increased. Thereby, the visibility of a character part can be improved.
また、請求項5に記載したように、前記補正手段は、前記文字領域の前記文字部分及び前記背景部分が無彩色か否かを各々判定する彩度判定手段と、前記文字部分及び前記背景部分の一方が無彩色の場合、有彩色の部分の彩度を補正する彩度補正手段と、を含む構成とすることができる。 In addition, as described in claim 5, the correction unit includes a saturation determination unit that determines whether the character portion and the background portion of the character region are achromatic colors, and the character portion and the background portion. When one of the colors is achromatic, it is possible to include a saturation correction unit that corrects the saturation of the chromatic color portion.
このように、文字部分及び背景部分の何れかが無彩色の場合には、彩度補正手段は、有彩色の部分の彩度、例えば文字部分が有彩色で背景部分が無彩色の場合には、文字部分の彩度を補正する。例えば、文字部分の彩度が高くなるよう補正する。これにより、文字部分の視認性を向上させることができる。 As described above, when either the character portion or the background portion is achromatic, the saturation correction unit performs saturation of the chromatic portion, for example, when the character portion is chromatic and the background portion is achromatic. Correct the saturation of the character part. For example, correction is performed so that the saturation of the character portion is increased. Thereby, the visibility of a character part can be improved.
また、請求項6に記載したように、前記補正手段は、前記文字領域の前記文字部分及び前記背景部分が無彩色か否かを各々判定する彩度判定手段と、前記文字部分及び前記背景部分が共に有彩色の場合、前記文字部分及び前記背景部分の色相を補正する色相補正手段と、を含む構成とすることができる。 In addition, as described in claim 6, the correction unit includes a saturation determination unit that determines whether the character portion and the background portion of the character region are achromatic colors, and the character portion and the background portion. When both are chromatic colors, a hue correction unit that corrects the hues of the character portion and the background portion may be included.
このように、文字部分及び背景部分が共に有彩色の場合には、色相補正手段は、文字部分及び背景部分の色相を、例えば文字部分の色と背景部分の色とが補色の関係となるように補正する。これにより、文字部分の視認性を向上させることができる。 In this way, when both the character portion and the background portion are chromatic colors, the hue correction means makes the hue of the character portion and the background portion have a complementary color relationship, for example, the color of the character portion and the color of the background portion. To correct. Thereby, the visibility of a character part can be improved.
以上説明したように、本発明によれば、弱視者等にとって文字を含む画像の視認性が向上する画像を得ることができる、という効果を有する。 As described above, according to the present invention, there is an effect that it is possible to obtain an image in which the visibility of an image including characters is improved for a low vision person or the like.
以下、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described.
図1には、本発明に係る画像処理システム50の概略構成を示した。画像処理システム50は、画像入力装置51、画像処理装置52、画像出力装置53、及び蓄積装置54を含んで構成されている。
FIG. 1 shows a schematic configuration of an
画像入力装置51は、例えばスキャナ等の反射原稿を読み取る画像読み取り装置が適用されるが、これに限られるものではなく、画像を入力できるものであればよい。例えば、記録メディアに記録された画像データを読み取るカードリーダ装置等でもよい。本実施形態では、画像入力装置51は、R(赤)、G(緑)、B(青)の各画像データ(以下、RGB画像データという)を画像処理装置52へ出力する。
As the
画像処理装置52は、前処理部52A、ページメモリ52B、色空間変換部52C、色補正部52D、CMYK変換部52E、及び後処理部52Fを含んで構成されている。
The
前処理部52Aは、画像入力装置51から出力されたRGB画像データを入力し、このRGB画像データに対して、所定の前処理を施す。この前処理では、例えば、原稿サイズの検知処理や下地処理等を行う。
The preprocessing
前処理部52Aにおいて所定の前処理が施されたRGB画像データは、ページ毎にページメモリ52Bに記憶される。
The RGB image data subjected to the predetermined preprocessing in the preprocessing
色空間変換部52Cは、ページメモリ52Bに記憶されたRGB画像データを、L*で明度を、a*、b*で彩度及び色相を表現することにより色を定義した画像データ(以下、L*a*b*画像データという)に変換し、RGB画像データと共に、L*a*b*画像データを色補正部52Dへ出力する。 The color space conversion unit 52C defines RGB image data stored in the page memory 52B as image data in which colors are defined by expressing brightness by L * and saturation and hue by a * and b *. * a * b * image data) and output the L * a * b * image data together with the RGB image data to the color correction unit 52D.
色補正部52Dでは、詳細は後述するが、まず、L*a*b*画像データに基づいて、画像に文字部分が含まれるか否かを判断する。そして、文字部分が含まれる場合には、その文字部分と背景部分との明度差が所定閾値以下であるか否かを判断し、所定閾値以下である場合には、視力が弱い弱視者等にとって文字部分が見やすくなるように、L*a*b*画像データを補正し、CMYK変換部52Eに出力する。
Although details will be described later, the color correction unit 52D first determines whether or not a character part is included in the image based on the L * a * b * image data. When a character part is included, it is determined whether or not the brightness difference between the character part and the background part is equal to or less than a predetermined threshold value. The L * a * b * image data is corrected so that the character portion is easy to see, and is output to the
CMYK変換部52Eは、色補正部52Dから出力されたL*a*b*画像データを入力し、このL*a*b*画像データをC(シアン)、M(マゼンダ)、Y(イエロー)、K(ブラック)の画像データ(以下、CMYK画像データという)に変換して、後処理部52Fに出力する。
The
後処理部52Fは、CMYK変換部52Eから出力されたCMYK画像データを入力し、このCMYK画像データに対して所定の後処理を施す。この後処理では、例えば、画像出力装置53の特性に合わせた階調変更処理等を行う。
The
蓄積装置54は、EPC機構(Electric Pre−Collation)や、画像のプレビューなどを実施するために設けられ、画像データを蓄積するものである。
The
画像出力装置53は、画像処理装置52から出力されたCMYK画像データを入力し、例えばCMYK画像データに基づく画像を記録用紙に印刷する印刷装置を適用することができる。この印刷装置は、例えば所謂電子写真方式により画像を形成するレーザープリンタや、インクジェットプリンタ等を用いることができる。
The
次に、本実施形態の作用として、画像処理装置52の色補正部52Dで実行される処理ルーチンについて図2及び図3に示すフローチャートを参照して説明する。
Next, as an operation of the present embodiment, a processing routine executed by the color correction unit 52D of the
まず、ステップ100では、色空間変換部52Cから出力されたL*a*b*画像データを入力する。ここでは、図4に示すような画像60を処理する場合について説明する。画像60は、「ここは文字部分です。画像部分ではありません。」の文章を含むテキスト画像61と、テキスト画像61の下部に人間をデフォルメしたイメージを含むイメージ画像62と、から構成されている。
First, in
ステップ102では、図4に示すような画像60を、例えば図5に示すように、複数の分割領域(矩形領域)63に分割する。具体的には、例えば、分割領域63の各々にブロック番号を付与し、このブロック番号と、分割領域63の位置を特定するための座標データと、の対応関係を示す領域テーブルを作成する。なお、この処理は本発明の分割手段に相当する。
In
ステップ104では、複数の分割領域63の各々について、その属性、すなわち、文字を含むテキスト領域(文字領域)なのか、イメージを含むイメージ領域なのか、その何れでもない領域(以下、背景領域という)なのかを判定する。そして、判定した属性(テキスト、イメージ、背景)の情報を前記領域テーブルに付加する。これにより、領域テーブルから各分割領域63の属性を得ることができる。なお、この処理は本発明の属性判定手段に相当する。
In
ここで、仮に分割領域63がテキスト領域であれば、L*成分は高周波成分を多く含み、分割領域63がイメージ領域であれば、L*成分は低周波成分を多く含むこととなる。従って、分割領域63のL*a*b*画像データのうち明度情報を表すL*データに対して周波数フィルター処理を施した結果から、分割領域63がテキスト領域であるかイメージ領域であるかの属性を判定することができる。
Here, if the divided
ステップ106では、分割領域63全てについて属性の判定を行ったか否かを判断し、全ての分割領域63について属性の判定が終了していない場合には、ステップ104の処理を繰り返し、全ての分割領域63について属性の判定が終了した場合には、ステップ108へ移行する。
In
図6には、図4に示す画像60についての属性判定処理の結果を示した。図6では、テキスト領域と判定された分割領域63を「テ」と表示し、イメージ領域と判定された分割領域63を「イ」と表示し、背景領域は無表示とした。このように、画像データの明度成分の周波数特性から、画像に含まれるテキスト領域及びイメージ領域を抽出することができる。
FIG. 6 shows the result of the attribute determination process for the
ステップ108では、画像60にテキスト領域が存在するか否かを判定し、テキスト領域が存在する場合には、ステップ110へ移行し、テキスト領域が全く存在しない場合には、ステップ122へ移行し、補正を行わずにL*a*b*画像データをCMYK変換部52Eへ出力する。なお、RGB画像データをCMYK変換部52Eへ出力してもよい。
In
ステップ110では、抽出したテキスト領域及びイメージ領域が、それぞれの領域を含む最小の矩形領域となるように、それぞれの領域を拡大する処理を行う。すなわち、図6に示す元のテキスト領域又はイメージ領域に隣接する分割領域であって、図7に示す斜線領域で示した分割領域のように、元はテキスト領域でもイメージ領域でもなかった分割領域について、属性をそれぞれテキスト領域、イメージ領域に変更する。これにより、図8に示すように、テキスト領域64及びイメージ領域65がそれぞれ矩形領域に拡大される。
In
このようにして画像60からテキスト領域及びイメージ領域を別々に抽出することにより、図9に示すように、画像60から文字部分のみのテキスト画像61を得ることができる。なお、上記では、文字部分が色文字の場合や文字部分以外の背景部分がどのような色であるかについては特に言及していないが、ステップ104の属性判定において、適切なフィルターを選択することにより、文字部分が色文字等の場合であっても、テキスト領域及びイメージ領域を独立して抽出することができる。
By separately extracting the text area and the image area from the
ステップ112では、抽出したテキスト領域のL*データのヒストグラムを作成する。すなわち、テキスト領域64の各画素の明度(濃度)の出現頻度を求めることにより、図10に示すような、明度に関するヒストグラム66を作成する。なお、この処理は本発明のヒストグラム作成手段に相当する。ここで、テキスト領域64は、基本的には、濃度が高い(明度が低い)文字部分と濃度が低い(明度が高い)背景部分とで構成される。このため、テキスト領域64が、図10に示すように白地の背景部分に黒の文字部分とで構成され、コントラストが高い場合には、ヒストグラム66の形状は、明度が高い右端側及び明度が低い左端側に2つの山が形成された形となる。
In
一方、図11に示すテキスト領域64Aのように、背景部分の濃度が高く、文字部分と背景部分とのコントラストが低い場合には、ヒストグラム66Aの形状は、明度が低い左端側及び中間位置に2つの山が形成された形となる。
On the other hand, when the density of the background portion is high and the contrast between the character portion and the background portion is low as in the
すなわち、ヒストグラム66に現れる2つの山部分の頂点位置の明度差が、文字部分と背景部分とのコントラストを表し、テキスト領域に含まれる文字部分の読みやすさを表す指標となる。
That is, the brightness difference between the vertex positions of the two peak portions appearing in the
そこで、ステップ114では、作成したヒストグラムから、2つの山部分の頂点位置の明度差を算出する。すなわち、図11に示すヒストグラム66Aの場合は、Aの位置における明度と、Bの位置における明度との差を算出する。なお、頂点位置の明度差ではなく、山部分を構成する明度の平均値の差を明度差としてもよい。なお、この処理は本発明の明度差演算手段に相当する。
Therefore, in
そして、次のステップ116において、算出した明度差が予め定めた所定閾値以下であるか否かを判断する。所定閾値は、明度差が所定閾値以下の場合にテキスト部分が弱視者等にとって見づらいと判断できる値に設定される。すなわち、換言すれば、ステップ116では、弱視者等にとってテキスト領域が見づらいか否かを判断する。
Then, in the
明度差が所定閾値以下の場合には、ステップ118で図3に示す補正処理が実行され、明度差が所定閾値以下でない場合には、ステップ120へ移行する。なお、ステップ118の処理は本発明の補正手段に相当する。 If the brightness difference is less than or equal to the predetermined threshold value, the correction processing shown in FIG. 3 is executed in step 118. If the brightness difference is not less than or equal to the predetermined threshold value, the process proceeds to step 120. Note that the processing in step 118 corresponds to the correcting means of the present invention.
補正処理では、図3に示すように、ステップ200において、テキスト領域64の文字部分及び背景部分の色が無彩色か有彩色であるかを判定する。具体的には、文字部分については、例えば、まず矩形領域とされたテキスト領域64のうち、図6に示すように元々属性がテキスト領域と判定された全ての分割領域63(矩形領域に拡大する前のテキスト領域に含まれる全ての分割領域63)に含まれる画素のa*成分及びb*成分の平均値を求める。そして、a*成分及びb*成分の平均値が共に、無彩色を表す所定値以下であれば無彩色、それ以外であれば有彩色と判定することができる。一般に、a*成分及びb*成分の値が共に0であれば、その画素は明度のみの情報しか持たないため、この場合は確実に無彩色と判断できる。しかしながら、a*成分及びb*成分の値が共に0でなくとも、ほぼ無彩色としてもよい場合もあるため、上記のように、a*成分及びb*成分の平均値が共に、ほぼ無彩色と判断できる所定値以下であれば無彩色と判定する。
In the correction process, as shown in FIG. 3, in
なお、テキスト領域64の全ての分割領域63に含まれる画素のa*成分及びb*成分の平均値から無彩色か否かを判定するのではなく、一部の分割領域63に含まれる画素のa*成分及びb*成分の平均値から無彩色か否かを判定してもよい。また、平均値でなく、最大値を用いてもよく、ある画素の値を代表値として用いても良い。
In addition, it is not determined whether or not the color is achromatic from the average value of the a * component and b * component of the pixels included in all the divided
また、背景部分については、例えば、背景領域と判定された全ての分割領域63に含まれる画素のa*成分及びb*成分の平均値を求める。そして、a*成分及びb*成分の平均値が共に、無彩色を表す所定値以下であれば無彩色、それ以外であれば有彩色と判定することができる。
For the background portion, for example, the average value of the a * component and b * component of the pixels included in all the divided
なお、背景領域とされた全ての分割領域63に含まれる画素のa*成分及びb*成分の平均値から無彩色か否かを判定するのではなく、例えばテキスト領域(矩形領域に拡大する前のテキスト領域又は矩形領域に拡大後のテキスト領域64)の周囲に存在する分割領域63であって、属性が背景領域と判定された分割領域63のみに含まれる画素のa*成分及びb*成分の平均値から無彩色か否かを判定してもよい。なお、ステップ200の処理は、本発明の彩度判定手段に相当する。
In addition, it is not determined whether or not the color is achromatic from the average value of the a * component and b * component of the pixels included in all the divided
ステップ202では、ステップ200の判定の結果、文字部分及び背景部分が共に無彩色であるか否かを判断し、共に無彩色である場合には、ステップ204へ移行し、共に無彩色でない場合には、ステップ206へ移行する。
In
ステップ204では、テキスト領域64の文字部分と背景部分とのコントラストが高くなるように、テキスト領域64に含まれる各画素の明度L*を補正する。この処理は本発明の明度差補正手段に相当する。具体的には、図12に示すように、明度L*の値の取り得る範囲のほぼ中間位置から明度が低い(濃度が高い)方の入力値についてはさらに明度が低くなるような出力値が得られ、前記中間位置から明度が高い(濃度が低い)方の入力値についてはさらに明度が高くなるような出力値が得られるルックアップテーブルを用いて明度L*を補正する。なお、このルックアップテーブルは、予め色補正部52Dに記憶しておく。
In
このように、文字部分及び背景部分が共に無彩色の場合には、明るい部分はより明るく、位部分はより暗くなるようにコントラストの補正を行うので、例えば図11に示すようにコントラストが低いテキスト領域64Aが、図13に示すように、コントラストが高いテキスト領域64Aに変換される。これにより、弱視者等にとって文字部分が見やすい画像を得ることができる。
In this way, when the character part and the background part are both achromatic, the contrast correction is performed so that the bright part is brighter and the higher part is darker. For example, text with low contrast as shown in FIG. As shown in FIG. 13, the
なお、テキスト領域64のコントラストを向上させるのではなく、テキスト領域64又は画像全体を拡大した画像データを生成してもよく、両者を組み合わせても良い。
Instead of improving the contrast of the
ステップ206では、文字部分及び背景部分の何れかが無彩色か否かを判断し、何れかが無彩色である場合には、ステップ208へ移行し、何れも無彩色でない場合には、ステップ210へ移行する。
In
ステップ208では、文字部分又は背景部分の彩度を補正する。この処理は、本発明の彩度補正手段に相当する。具体的には、文字部分が有彩色の場合には、文字部分の彩度が高くなるようにテキスト領域64の彩度を補正し、背景部分が有彩色の場合には、背景部分の彩度が低下するように、テキスト領域64の彩度を補正する。
In
なお、彩度C*は次式によって導き出すことができる。 The saturation C * can be derived from the following equation.
C*=(a*2+b*2)1/2 …(1)
従って、a*成分とb*成分から、その画素の彩度を得ることが可能となるため、補正前のa*成分及びb*成分をそれぞれa* old及びb* old、補正後のa*成分及びb*成分をそれぞれa* new及びb* new、彩度の補正係数をkとした場合に、次式を満たすようなa* new及びb* newを求める。
C * = (a * 2 + b * 2 ) 1/2 (1)
Therefore, the a * component and the b * component, since it is possible to obtain the saturation of the pixel, each uncorrected a * component and the b * component of a * old and b * old, after correction a * When the component and b * component are a * new and b * new , respectively, and the saturation correction coefficient is k, a * new and b * new satisfying the following equations are obtained.
C* new=(a* new 2+b* new 2)1/2=k(a* old 2+b* old 2)1/2 …(2)
a* new/b* new=a* old/b* old …(3)
ここで、k>1とすれば補正後の彩度が高くなり、k<1とすれば彩度が低くなる。従って、文字部分が有彩色である場合には、補正係数kを1より大きい所定値に設定し、テキスト領域64の各画素について上記(2)、(3)式を満たすa* new及びb* new、を求め、これを補正後のa*成分及びb*成分とする。一方、背景部分が有彩色である場合には、補正係数kを1より小さい所定値に設定し、テキスト領域64の各画素について上記(2)、(3)式を満たすa* new及びb* new、を求め、これを補正後のa*成分及びb*成分とする。
C * new = (a * new 2 + b * new 2) 1/2 = k (a * old 2 + b * old 2) 1/2 ... (2)
a * new / b * new = a * old / b * old (3)
Here, when k> 1, the saturation after correction is increased, and when k <1, the saturation is decreased. Accordingly, when the character portion is a chromatic color, the correction coefficient k is set to a predetermined value larger than 1, and a * new and b * satisfying the above expressions (2) and (3) are set for each pixel of the
これにより、テキスト領域64の文字部分が有彩色の場合には、文字部分の彩度が高くなり、テキスト領域64の背景部分が有彩色の場合には、テキスト領域64の背景部分の彩度が低下する。
Thereby, when the character portion of the
このように、テキスト領域64の文字部分の彩度が高くなるように、又はテキスト領域64の背景部分の彩度が低くなるようにテキスト領域64の彩度を補正することにより、弱視者等にとって文字部分が見やすい画像を得ることができる。
Thus, by correcting the saturation of the
なお、背景部分が有彩色の場合には、テキスト領域64の各画素だけでなく、属性が背景領域とされた全ての画素について彩度を低下させる補正を行っても良い。
When the background portion is a chromatic color, not only each pixel of the
一方、文字部分及び背景部分が共に有彩色の場合には、ステップ210において、テキスト領域64の色相を変換する処理を行う。なお、この処理は、本発明の色相補正手段に相当する。
On the other hand, if the character part and the background part are both chromatic colors, in
色相は、a*成分及びb*成分が共に0、すなわち、図14に示すようにa*軸とb*軸とが交わる無彩色の位置を原点として、a*成分及びb*成分で定まる位置と原点とを結んだ線と、例えばa*軸との成す角度(以下、色相角度という)によって決定される。 Hue, a * component and the b * component are both 0, i.e., the origin position of the achromatic intersection between a * axis and b * axis as shown in FIG. 14, determined by a * component and the b * component position Is determined by an angle (hereinafter referred to as a hue angle) formed by a line connecting the line and the origin and, for example, the a * axis.
例えば図14に示すように、それぞれ異なる色であるP1,P2,P3の色相について考える。なお、説明を簡単にするため、L*データは各々同一の値とする。 For example, as shown in FIG. 14, consider hues of P1, P2, and P3, which are different colors. In order to simplify the description, the L * data is assumed to have the same value.
ここで、P1=(a1 *,b1 *),P2=(a2 *,b2 *)とすると、a1 *≠a2 *かつb1 *≠b2 *の関係が成り立ち、P1とP2とは明らかに異なる色となる。
Here, P1 = (a 1 *,
しかしながら、P1と原点とを結ぶ線S1と、a*軸との角度、P2と原点とを結ぶ線S2と、a*軸との角度は、共にθ1となっている。すなわち、次式を満たしているため、P1及びP2の色相は同一となる。 However, the angle between the line S1 connecting P1 and the origin and the a * axis, and the angle between the line S2 connecting P2 and the origin and the a * axis are both θ 1 . That is, since the following expression is satisfied, the hues of P1 and P2 are the same.
tan(b1 */a1 *)=tan(b2 */a2 *) …(4)
なお、(4)式において単に比率b*/a*同士の比較でないのは、第1象限以外での関係も重要であるからである。
tan (b 1 * / a 1 * ) = tan (b 2 * / a 2 * ) (4)
The reason why the ratio b * / a * is not simply compared in the equation (4) is that the relationship other than the first quadrant is also important.
同様にP3と、P1及びP2との関係について考えると、P3と原点とを結ぶ線S3と、a*軸との角度θ2は、明らかにθ1と異なり、上記(4)式を満たさないので、P3の色相と、P1及びP2の色相とは異なる。 Similarly, considering the relationship between P3 and P1 and P2, the angle θ 2 between the line S3 connecting P3 and the origin and the a * axis is clearly different from θ 1 and does not satisfy the above equation (4). Therefore, the hue of P3 is different from the hues of P1 and P2.
2つの色の類似性(視認性)を色相で考えた場合、2つの色がもっとも視認しやすくなるのは、お互いが補色の関係、すなわち、互いの色の色相角度が180度異なる場合である。従って、少なくとも一方の色の色相を所定の基準に従って変化させることにより、視認性を向上させることができる。例えば文字部分の色がP1、背景部分の色がP3であった場合、次式を満たし、かつP1と象限が異なるようにP3の色相を変化させることにより、テキスト領域64の文字部分の視認性を向上させることができる。
When the similarity (visibility) of two colors is considered in terms of hue, the two colors are most easily visible when the colors are complementary to each other, that is, when the hue angles of the colors are different by 180 degrees. . Therefore, visibility can be improved by changing the hue of at least one color according to a predetermined standard. For example, when the color of the character portion is P1 and the color of the background portion is P3, the visibility of the character portion in the
b* 3new/a* 3new=b* 1/a* 1 …(5)
(a* 3new 2+b* 3new 2)1/2=(a* 3old 2+b* 3old 2)1/2 …(6)
なお、a* 3new及びb* 3newは補正後の背景部分のa*成分及びb*成分であり、a* 3old及びb* 3oldは補正前の背景部分のa*成分及びb*成分である。上記(5)、(6)式を満たす(a* 3new、b* 3new)の組み合わせのうち、(a* 1、b* 1)と象限が異なるものを選択して新たなデータとすることにより、テキスト領域64の文字部分の視認性を向上させることができる。
b * 3new / a * 3new = b * 1 / a * 1 (5)
(A * 3new 2 + b * 3new 2 ) 1/2 = (a * 3old 2 + b * 3old 2 ) 1/2 (6)
Incidentally, a * 3New and b * 3New is a * component and the b * component of the background portion after the correction, a * 3Old and b * 3Old is a * component and the b * component of the background portion before correction. By selecting a combination of (a * 3new , b * 3new ) satisfying the above formulas (5) and (6) that has a quadrant different from (a * 1 , b * 1 ) and creating new data The visibility of the character portion of the
更に、上記の例でP1及びP3の両方の色相を変化させる場合は、まず、P1とP3との中間の色相角度θ4を次式によって求める。 Furthermore, when changing both the hues of P1 and P3 in the above example, first, an intermediate hue angle θ4 between P1 and P3 is obtained by the following equation.
θ4=tan-1(b1/a1)−tan-1(b3/a3) …(7)
そして、次式を満たすような(a* 1new、b* 1new)、(a* 3new、b* 3new)を求める。
θ4 = tan −1 (b 1 / a 1 ) −tan −1 (b 3 / a 3 ) (7)
Then, (a * 1new , b * 1new ) and (a * 3new , b * 3new ) that satisfy the following expressions are obtained.
tan(θ4+90°)=tan(b* 1new/a* 1new) …(8)
(a* 1new 2+b* 1new 2)1/2=(a* 1old 2+b* 1old 2)1/2 …(9)
tan(θ4−90°)=tan(b* 3new/a* 3new) …(10)
(a* 3new 2+b* 3new 2)1/2=(a* 3old 2+b* 3old 2)1/2 …(11)
上記(8)〜(11)式を満たす(a* 1new、b* 1new)、(a* 3new、b* 3new)の組み合わせのうち、互いに異なる象限となる組み合わせを選択して新たなデータとすることにより、テキスト領域64の文字部分の視認性を向上させることができる。
tan (θ4 + 90 °) = tan (b * 1new / a * 1new ) (8)
(A * 1new 2 + b * 1new 2 ) 1/2 = (a * 1old 2 + b * 1old 2 ) 1/2 (9)
tan (θ4-90 °) = tan (b * 3new / a * 3new ) (10)
(A * 3new 2 + b * 3new 2 ) 1/2 = (a * 3old 2 + b * 3old 2 ) 1/2 (11)
Of the combinations of (a * 1new , b * 1new ) and (a * 3new , b * 3new ) satisfying the above formulas (8) to (11), a combination having a different quadrant is selected and used as new data. Thereby, the visibility of the character part of the text area |
なお、コントラスト補正、彩度補正、及び色相変換の各処理を適宜組み合わせて実行してもよい。 Note that the processing of contrast correction, saturation correction, and hue conversion may be executed in combination as appropriate.
図2のステップ120では、画像60に含まれる全てのテキスト領域についてステップ112〜118の処理を行ったか否かを判断し、未処理のテキスト領域がある場合には、ステップ112へ戻り、上記と同様の処理を行う。そして、全てのテキスト領域についてステップ112〜118の処理を行った場合には、ステップ122へ移行し、補正したL*a*b*画像データをCMYK変換部52Eへ出力する。なお、一旦RGB画像データへ変換してからCMYK変換部52Eへ出力するようにしてもよい。
In
このように、文字部分、背景部分が無彩色か有彩色かに応じて、コントラスト補正、彩度補正、色相変換の何れかの処理を行うことにより、文字部分の視認性を向上させ、入力された画像を弱視者等にとって読みやすい画像に変換することができる。 In this way, by performing any of contrast correction, saturation correction, and hue conversion depending on whether the character part or background part is an achromatic or chromatic color, the visibility of the character part is improved and input. The image can be converted into an image that is easy to read for a low vision person or the like.
なお、本実施形態で説明した画像処理装置52の機能を、例えば本出願人が先に出願した特願2004−51338号に記載された画像形成システムのように、DFE(Digital Front End Processor)装置と、画像形成装置との間に設けられたバックエンドプロセッサ(BEP装置)に設けるようにしてもよい。
Note that the functions of the
このような画像形成システムにおいて弱視者用の印刷を行う場合、DFE装置は、印刷データをBEP装置に出力すると共に弱視者用の印刷を指示すればよい。これにより、BEP装置に設けられた画像処理装置52によって弱視者用に印刷データが変換され、変換された印刷データに基づく画像が画像形成装置によって印刷される。このように、BEP装置側で弱視者用に画像を変換するので、DFE装置側で弱視者用に画像を変換する処理を行う必要がなく、また、弱視者用に画像を変換して印刷を行う専用の画像形成装置を設ける必要もない。従って、DFE装置の処理負荷を軽減することができると共に、システムの高機能化等に柔軟に対応することができる。
When printing for low vision users in such an image forming system, the DFE device only has to output print data to the BEP device and instruct printing for low vision people. As a result, the print data is converted for the low vision by the
50 画像処理システム
51 画像入力装置
52 画像処理装置
52A 前処理部
52B ページメモリ
52C 色空間変換部
52D 色補正部
52E CMYK変換部
52F 後処理部
53 画像出力装置
54 蓄積装置
50
Claims (6)
前記文字部分と前記文字領域のうち前記文字部分以外の背景部分と、の明度差を求める明度差演算手段と、
前記明度差が予め定めた所定閾値以下の場合に、前記文字部分及び前記背景部分の少なくとも一方の明度、彩度、及び色相の少なくとも一つを補正する補正手段と、
を備えた画像処理装置。 Extraction means for extracting a character region including a character portion of the input image based on lightness information of the input image;
A lightness difference calculating means for obtaining a lightness difference between the character portion and a background portion other than the character portion of the character region;
Correction means for correcting at least one of brightness, saturation, and hue of at least one of the character portion and the background portion when the brightness difference is equal to or less than a predetermined threshold;
An image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004066842A JP2005260404A (en) | 2004-03-10 | 2004-03-10 | Image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004066842A JP2005260404A (en) | 2004-03-10 | 2004-03-10 | Image processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005260404A true JP2005260404A (en) | 2005-09-22 |
Family
ID=35085735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004066842A Pending JP2005260404A (en) | 2004-03-10 | 2004-03-10 | Image processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005260404A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013239819A (en) * | 2012-05-14 | 2013-11-28 | Konica Minolta Inc | Image processing apparatus and image processing method |
JP2014064184A (en) * | 2012-09-21 | 2014-04-10 | Riso Kagaku Corp | Image forming apparatus |
KR20150064931A (en) * | 2013-12-04 | 2015-06-12 | 엘지전자 주식회사 | Display device and operating method thereof |
CN105426810A (en) * | 2014-09-17 | 2016-03-23 | 株式会社东芝 | Information Processing Device, Image Modification Method, And Computer Program Product |
JP2018106769A (en) * | 2018-04-10 | 2018-07-05 | 株式会社東芝 | Information processor, image alteration method, and program |
-
2004
- 2004-03-10 JP JP2004066842A patent/JP2005260404A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013239819A (en) * | 2012-05-14 | 2013-11-28 | Konica Minolta Inc | Image processing apparatus and image processing method |
JP2014064184A (en) * | 2012-09-21 | 2014-04-10 | Riso Kagaku Corp | Image forming apparatus |
KR20150064931A (en) * | 2013-12-04 | 2015-06-12 | 엘지전자 주식회사 | Display device and operating method thereof |
KR102122338B1 (en) * | 2013-12-04 | 2020-06-12 | 엘지전자 주식회사 | Display device and operating method thereof |
CN105426810A (en) * | 2014-09-17 | 2016-03-23 | 株式会社东芝 | Information Processing Device, Image Modification Method, And Computer Program Product |
JP2016062263A (en) * | 2014-09-17 | 2016-04-25 | 株式会社東芝 | Information processor, image alteration method, and program |
CN105426810B (en) * | 2014-09-17 | 2019-01-18 | 株式会社东芝 | Information processing unit and method for amending image |
JP2018106769A (en) * | 2018-04-10 | 2018-07-05 | 株式会社東芝 | Information processor, image alteration method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7940434B2 (en) | Image processing apparatus, image forming apparatus, method of image processing, and a computer-readable storage medium storing an image processing program | |
JP6031286B2 (en) | Image processing apparatus and image processing method | |
JP4771538B2 (en) | Color conversion table generation method, color conversion table, and color conversion table generation apparatus | |
US7764411B2 (en) | Color processing apparatus and method, and storage medium storing color processing program | |
US7903872B2 (en) | Image-processing apparatus and method, computer program, and storage medium | |
JP2000165693A (en) | Print system | |
JP2008011267A (en) | Image processor, image processing method, image processing program, and memory medium | |
JP6564285B2 (en) | Image processing apparatus and image forming apparatus | |
JP2010041267A (en) | Image processing apparatus, image processing method, and computer readable recording medium storing program for performing the method | |
JP2007013551A (en) | Image processing apparatus and image processing method | |
JP2002016939A (en) | Method and apparatus for processing image as well as recording medium | |
JP5146085B2 (en) | Image processing apparatus and program | |
JP4957668B2 (en) | Image processing device | |
JP2015002443A (en) | Image processing apparatus and image processing method | |
US20100328343A1 (en) | Image signal processing device and image signal processing program | |
JP2009083460A (en) | Color printing control device, color printing control method, and color printing control program | |
JP2005260404A (en) | Image processor | |
JP4112413B2 (en) | Image processing apparatus, image forming apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded | |
JP3489200B2 (en) | Color correction method for color printer | |
US7817303B2 (en) | Image processing and image forming with modification of a particular class of colors | |
JP7215207B2 (en) | image forming device | |
JP5689090B2 (en) | Image forming method and image forming apparatus | |
JP6880847B2 (en) | Image processing equipment, image processing methods and programs | |
JP2000165694A (en) | Color picture processing method | |
JP2010050832A (en) | Device and method for processing image, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090317 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090915 |