JP4126509B2 - Image processing apparatus, image processing method, and medium on which image processing program is recorded - Google Patents

Image processing apparatus, image processing method, and medium on which image processing program is recorded Download PDF

Info

Publication number
JP4126509B2
JP4126509B2 JP30743997A JP30743997A JP4126509B2 JP 4126509 B2 JP4126509 B2 JP 4126509B2 JP 30743997 A JP30743997 A JP 30743997A JP 30743997 A JP30743997 A JP 30743997A JP 4126509 B2 JP4126509 B2 JP 4126509B2
Authority
JP
Japan
Prior art keywords
saturation
image processing
image data
distribution
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP30743997A
Other languages
Japanese (ja)
Other versions
JPH10200777A (en
Inventor
直樹 鍬田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP30743997A priority Critical patent/JP4126509B2/en
Publication of JPH10200777A publication Critical patent/JPH10200777A/en
Application granted granted Critical
Publication of JP4126509B2 publication Critical patent/JP4126509B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Color Electrophotography (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置、画像処理方法および画像処理プログラムを記録した媒体に関し、特に、画像データの彩度の強調などを処理する画像処理装置、画像処理方法および画像処理プログラムを記録した媒体に関する。
【0002】
【従来の技術】
写真をスキャナなどで読み込んで電子画像データとした場合、もともとの写真の鮮やかさをより強調したいと思うことがある。従来、このような強調を行なうものとして、例えば、画像データの色成分を赤(=R)、緑(=G)、青(=B)の階調データで表している場合に、所望の色成分の値を増加させるものが知られている。
【0003】
すなわち、階調データが「0〜255」といった範囲であるときに、赤い色をより鮮やかなものとするために赤の階調データに一律に「20」を加えたり、青い色をより鮮やかなものとするために青の階調データに一律に「20」加えたりするといったことが行われていた。
【0004】
【発明が解決しようとする課題】
上述した従来の画像処理装置においては、どの程度の強調を行うかを画像データごとに人間が判断しなければならず、最も好適なものを自動的に適用するということはできなかった。
【0005】
本発明は、上記課題にかんがみてなされたもので、画像ごとに異なる鮮やかさに応じて自動的に彩度の変換を行うことが可能な画像処理装置、画像処理方法および画像処理プログラムを記録した媒体の提供を目的とする。
【0006】
【課題を解決するための手段】
上記目的を達成するため、請求項1にかかる発明は、ドットマトリクス状の各画素の情報を表す画像データに対して所定の画像処理を行う画像処理装置であって、上記画像データにおける各画素の彩度の分布を集計する彩度分布集計手段と、この彩度分布集計手段にて集計された彩度の分布状況から画像データの彩度を変換する程度を判定する彩度変換度判定手段と、判定された変換の程度に基づいて画像データにおける彩度を表す情報を新たな画像データに変換する画像データ変換手段とを具備する構成としてある。
【0007】
上記のように構成した請求項1にかかる発明においては、画像データがドットマトリクス状の各画素の情報を表している場合に、彩度分布集計手段が上記画像データにおける各画素の彩度の分布を集計すると、彩度変換度判定手段はこの彩度分布集計手段にて集計された彩度の分布状況から画像データの彩度を変換する程度を判定し、画像データ変換手段は判定された変換の程度に基づいて画像データにおける彩度を表す情報を新たな画像データに変換する。すなわち、その画像ごとに画像データの彩度の分布から最適な変換程度を判定して変換する。
【0008】
画像データにおける各画素の彩度の分布を集計するにあたっては、同画像データが彩度のパラメータを備えているものであれば同パラメータを集計すればよい。また、同パラメータを備えていない場合においても、例えば同彩度のパラメータを備える表色空間に対して他の表色空間から色変換し、変換後の彩度のパラメータに基づいて集計することも可能である。しかしながら、このような色変換によらなくても、一例として各画素の彩度は色成分における暖色系の色相の彩度に応じて判定する構成としてもよい。
【0009】
表色空間を変えることなく彩度の判定を行うのは困難さが伴うが、人間の視覚の特性から暖色系の色相と非暖色系の色相との差を鮮やかさと認識する傾向があり、この差に基づいて彩度を判定することが比較的具合がよい。
【0010】
このような傾向と重複するが、一例として、請求項2にかかる発明は、上記請求項1に記載の画像処理装置において、画像データの色成分を赤(=R)、緑(=G)、青(=B)で表せるときに彩度(=X)を次式で表す構成としてある。
【0011】
X=|G+B−2×R| …(1)
コンピュータなどで多用されるRGB表色空間においては、各成分が一致するときに無彩度となり、それ以外において彩度が生じる。この場合、無彩度からの相違度を判別して彩度を判定することも可能であるが、一律に|G+B−2×R|なる関係式であれば、各成分が一致するときには成分値に関わらず最低値となるし、赤色あるいは黄色の単色において最大値となり、青色または緑色の場合にもそれなりに大きな彩度を表すので好適である。
【0012】
むろん、同様の考え方によって
X’=|R+B−2×G| …(2)
X”=|G+R−2×B| …(3)
といったものでも同様の簡易さは得られる。しかしながら、実験によって判断するところ、
X=|G+B−2×R| …(1)
の関係式において最も好結果が得られ、これには上記のように人間の特性としての暖色系の色相の彩度に応じて鮮やかさを認識する裏付けがあるといえる。
【0013】
このように各画素についての彩度が求められるものとして、画像としての彩度の分布は必ずしも画像データの全画素について求める必要はなく、例えば、請求項3にかかる発明は、上記請求項1または請求項2のいずれかに記載の画像処理装置において、画像データについて所定の抽出率に対応した間引きを行って彩度の分布状況を求める構成としてある。
【0014】
分布を求めることを目的とすれば、全画素に対して彩度を求めることなく、所定の抽出率で間引きを行なったとしても抽出率に応じた程度の確かさの彩度の分布を得ることができる。
【0015】
ここにおいて、間引く手法も様々であるものの、請求項4にかかる発明は、上記請求項3に記載の画像処理装置において、上記所定の抽出率は、画像データにおける第1の方向の画素数と前記第1の方向と直交する第2の方向の画素数のうち、画素数が少ない方向において所定の抽出画素数を抽出可能な抽出率である構成としてある。この場合、縦方向と横方向の範囲での短い側において所定の抽出数が確保される。
【0016】
画像は平面的であるが故、自ずからその画像データも縦方向と横方向とに分布するが、ある抽出率を決定するにあたっては、少なくとも短い側においてある抽出数を確保することにより、抽出率に応じた確かさを保持することになる。
【0017】
むろん、画像データにおける各画素の彩度の分布を集計することができればよく、その具体的手法がこれらに限定される必要はない。
【0018】
彩度の分布状況から彩度を変換する程度を判定するにあたり、具体的な分布状況の分析については各種の手法を採用可能であるものの、その一例として、請求項5にかかる発明は、上記請求項1〜請求項4のいずれかに記載の画像処理装置において、上記彩度変換度判定手段は、集計された彩度の分布状況にて上端から所定割合となった彩度が小さい場合に彩度を強調するとともに、同彩度が大きい場合に彩度の強調程度を弱めるようにして彩度の変換程度を判定する構成としてある。つまり彩度変換度判定手段は、集計された彩度の分布状況にて上端から所定割合となった彩度が、彩度が取り得る数値範囲の中で低い値であるほどに、彩度の強調程度を高めるようにして彩度の変換程度を判定する。
【0019】
すなわち、彩度の分布の状況の判定としては彩度の大きい側からある分布だけ取り出したところの彩度が大きいものか小さいものかによって全体の彩度を認識し、この彩度が小さければ彩度を強調するし、十分に大きければ強調するほどでもないと判定する。むろん、これ以外にも、他の統計的手法を採用するなどして画像データ全体の彩度の傾向を判定するようにしても良い。また、画像データを全体としてとらえるのではなく、部分的にとらえるようにするものであっても良い。
【0020】
彩度の変換程度は上述した手法で判定するにしても、彩度が弱いからといってむやみに強調しすぎたのでは良好な結果が得られるものではなく、彩度と輝度との関係についての請求項6にかかる発明は、上記請求項1〜請求項5のいずれかに記載の画像処理装置において、輝度が低いときに彩度の変換程度を弱める構成としてある。つまり、画像データの輝度が輝度が取り得る数値範囲の中で低い値であるほどに、彩度の変換程度を弱める。
【0021】
輝度あるいは明度と彩度については表色空間がある範囲まで逆円錐形状となる関係があり、輝度が低ければもともそ色相の成分値も大きくないといえる。このような場合に小さいなりの彩度に応じた変換程度を適用しようとするとこの円錐形状の表色空間を突き破ってしまいかねない。従って、輝度が低いときに彩度の変換程度を弱めてこのようなことが起きないようにしている。
【0022】
また、画像データによっては彩度の変換が適当でない場合もあり、その一例として、請求項7にかかる発明は、上記請求項1〜請求項6のいずれかに記載の画像処理装置において、彩度分布に基づいて二値画像データを判定するとともに、二値画像データであれば彩度の変換を行わない構成としてある。
【0023】
二値画像データであれば彩度も二種類しかなく、彩度を変換して強調しうる可能性もない。従って、彩度の分布から二値画像データであると判定して彩度の変換は行わないようにしている。
【0024】
二値画像データの一例として白黒のモノクロ画像データがあり、請求項8にかかる発明は、上記請求項7に記載の画像処理装置において、無彩度に彩度分布が集中しているときに白黒の二値画像データであると判断する構成としてある。
【0025】
白色にしても黒色にしても彩度はない。従って、彩度分布も無彩度に集中する。このような場合には二値画像データであると判断して彩度の変換を行わなければよい。
【0026】
さらに、請求項1にかかる発明は、突出する彩度分布に基づいて画像データの枠部を判定するとともに、枠部があれば枠部のデータについて彩度分布の検出に利用しない構成としてある。
【0027】
画像を処理する場合に頻繁に起こり得るのは枠を持っていることであり、単色の枠として存在すれば当然にその色に対応する彩度分布が突出する。従って、かかる突出した彩度分布をもってして画像の彩度の判断の基準とすれば有効な判断ができなくなり得るから、枠部と判断して彩度分布の検出に利用しない。
【0028】
さらに、請求項1にかかる発明は、無彩度に集中している彩度分布が枠部であると判定する構成としてある。
【0029】
白枠あるいは黒枠は頻繁にあり採用されるし、トリミングの結果によっても生じ得るものであり、無彩度に集中する。従って、この無彩度に集中している彩度分布を枠部と判定する。
【0030】
ところで、請求項9にかかる発明は、上記請求項1〜請求項8のいずれかに記載の画像処理装置において、画像データが自然画でない場合に彩度の変換を行わない構成としてある。
【0031】
彩度の弱さなどが問題となりやすいのは写真のような自然画であり、ビジネスグラフのようなものでは殆ど必要が無いとも言える。逆に、ビジネスグラフのようなものについて手を加えることが作り手のイメージと異ならせる結果になりかねない。従って、このような自然画の場合にだけ彩度の変換を行うようにしている。
【0032】
自然画か否かの判断の一例として、請求項10にかかる発明は、上記請求項9に記載の画像処理装置において、彩度分布がスペクトル状に存在する場合に上記画像データが自然画でないと判定する自然画判定手段を備える構成としてある。
【0033】
自然画の特徴として彩度分布が滑らかに幅を持つことが言える。従って、彩度分布が線スペクトル状に表れていれば自然画でないと判断して概ね差し支えない。上記のように構成した請求項10にかかる発明においては、自然画判定手段が彩度分布の状態を判定し、線スペクトル状に存在する場合に画像データが自然画でないと判定し、これにより彩度の変換が行われなくなる。
【0034】
以上述べたように、彩度の分布状況から画像データの彩度を変換する程度を判定するにあたっては各種の手法をそれぞれ採用可能であり、これらに限定されるものではない。
【0035】
ところで、画像データの彩度を変換するにあたってのより具体的な手法として、請求項11にかかる発明は、上記請求項1〜請求項10のいずれかに記載の画像処理装置において、彩度の変換は標準表色系であるLuv空間内で上記変換程度に応じて半径方向に変移させて行う構成としてある。
【0036】
すなわち、画像データが彩度のパラメータを備えているものであれば同パラメータを変換すればよいが、輝度あるいは明度についてのパラメータと、それぞれの輝度についての平面座標系内で色相をパラメータとして持つ標準表色系であるLuv空間においては、半径方向が彩度に相当する。従って、同Luv空間内では彩度の変換を半径方向への変移によって行うようにしている。
【0037】
ここにおいてLuv空間を採用するのは、輝度が独立しており、彩度の変移が輝度に影響を与えないからである。しかしながら、このようなLuv空間を利用する場合、元の画像データが対応していなければ変換を必要とすることになる。
【0038】
これに対し、画像データで多用されるように同画像データが対等な色相成分で表現されている場合に対応した一例として、請求項12にかかる発明は、上記請求項1〜請求項10のいずれかに記載の画像処理装置において、画像データが複数の概略対等な色相成分の成分値で示されるときに無彩度成分を除いた成分値を変換程度に応じて変移させて彩度の変換を行う構成としてある。
【0039】
RGBのように画像データが複数の概略対等な色相成分の成分値で示されるときには、無彩度の成分というものがあるといえる。従って、この無彩度成分を除いた成分値が彩度に影響を持っていることになり、この成分値を変移させて彩度を変換する。この無彩度成分の対処の一例として、請求項13にかかる発明は、上記請求項12に記載の画像処理装置において、複数の色相成分における最小成分値を他の成分値から差し引いた差分値を上記変換程度に応じて増減させて彩度の変換を行う構成としてある。
【0040】
複数の色成分のうち、最小成分値は他の色成分にも含まれ、それらは合体して無彩度のグレーを構成するに過ぎない。従って、この最小成分値を越える他の色の差分値が彩度に影響を与えており、この差分値を増減させて彩度の変換を行う。
【0041】
また、別の一例として、請求項14にかかる発明は、上記請求項12に記載の画像処理装置において、各成分値から輝度の相当値を減算した差分値を上記変換程度に応じて増減させて彩度の変換を行う構成としてある。
【0042】
単純に無彩度の成分を除いた成分値を変移させると、輝度の変化が伴う。このため、あらかじめ各成分値から輝度の相当値を減算しておき、彩度の変換を差分値を増減させるようにして行うことにより輝度を保存できるようになる。
【0043】
上述したようにして、画像データにおける彩度の分布を集計して画像データを変換する手法は、実体のある装置に限定される必要はなく、その方法としても機能することは容易に理解できる。このため、ドットマトリクス状の各画素の情報を表した画像データに対して所定の画像処理を行う画像処理方法であって、各画素での彩度に基づいて全体としての彩度の分布を集計し、集計された彩度の分布状況から画像データの彩度を変換する程度を判定するとともに、判定された変換の程度に基づいて画像データにおける彩度を表す情報を新たな画像データに変換し、かつ、上記彩度の分布の集計の際には、無彩度に集中して突出する分布を枠部と判定し、当該枠部があれば枠部のデータについては彩度の分布の検出に利用しない構成としてもよい。
【0044】
すなわち、必ずしも実体のある装置に限らず、その方法としても有効であることに相違はない。
【0045】
ところで、このような画像処理装置は単独で存在する場合もあるし、ある機器に組み込まれた状態で利用されることもあるなど、発明の思想としてはこれに限らず、各種の態様を含むものである。従って、ソフトウェアであったりハードウェアであったりするなど、適宜、変更可能である。
【0046】
その一例として、入力される画像データに基づいて印刷インクに対応した画像データに変換し、所定のカラープリンタに印刷せしめるプリンタドライバにおいても、画像データにおける彩度の分布状況を集計し、この分布状況から画像データの彩度を変換する程度を判定し、同変換程度に基づいて画像データを変換するように構成することができる。
【0047】
すなわち、プリンタドライバは印刷インクに対応して入力された画像データを変換するが、このときに同入力画像データの彩度分布を求め、この画像データに対して最適な範囲でより鮮やかな画像を再現できるように入力画像データを変換し、印刷させる。
【0048】
発明の思想の具現化例として画像処理装置のソフトウェアとなる場合には、かかるソフトウェアを記録した記録媒体上においても当然に存在し、利用されるといわざるをえない。その一例として、ドットマトリクス状の各画素の情報を表した画像データに対する所定の画像処理をコンピュータに実行させる画像処理プログラムを記録した、コンピュータにて読み取り可能な記録媒体であって、上記画像データを入力し、各画素での彩度に基づいて全体としての彩度の分布を集計するステップと、集計された彩度の分布状況から画像データの彩度を変換する程度を判定するステップと、判定された変換の程度に基づいて画像データにおける彩度を表す情報を新たな画像データに変換するステップとを備え、かつ上記彩度の分布の集計の際には、無彩度に集中して突出する分布を枠部と判定し、当該枠部があれば枠部のデータについては彩度の分布の検出に利用しない構成としてもよい。
【0049】
むろん、その記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。また、一次複製品、二次複製品などの複製段階については全く問う余地無く同等である。その他、供給方法として通信回線を利用して行なう場合でも本発明が利用されていることにはかわりない。
【0050】
さらに、一部がソフトウェアであって、一部がハードウェアで実現されている場合においても発明の思想において全く異なるものはなく、一部を記録媒体上に記憶しておいて必要に応じて適宜読み込まれるような形態のものとしてあってもよい。さらには、カラーファクシミリ機、カラーコピー機、カラースキャナやディジタルカメラ、ディジタルビデオなどに内蔵する画像処理装置においても適用可能であることはいうまでもない。
【0051】
【発明の効果】
以上説明したように本発明は、彩度の分布状況を集計することにより、各画像に応じた最適な彩度の変換を行うことが可能な画像処理装置を提供することができる。
【0052】
また、人間の視認の特性に応じて彩度を集計することができる。
【0053】
さらに、請求項2にかかる発明によれば、RGB表色空間を採用する場合に演算量を少なくして簡易に彩度を集計することができる。
【0054】
さらに、請求項3にかかる発明によれば、処理量を減らすことができる。
【0055】
さらに、請求項4にかかる発明によれば、画像の抽出点の偏りを無くして彩度分布が正確になりやすくなる。
【0056】
さらに、請求項5にかかる発明によれば、彩度の分布状況における上端から所定割合部分で彩度を判定することにより、判定が容易となる。
【0057】
さらに、請求項6にかかる発明によれば、輝度が低い場合に生じる彩度の変換による不具合を未然に防止することができる。
【0058】
さらに、請求項7にかかる発明によれば、彩度の変換が不要な二値画像の場合に彩度の変換を行わないようにすることができるし、既に求めている彩度の分布からこれを容易に検知できる。また、請求項8にかかる発明によれば、頻度の多い白黒画像において彩度の変換を行わないようにすることができる。
【0059】
さらに、請求項1にかかる発明によれば、画像データに関係のない枠部を彩度分布の検出に利用しないようにすることができるし、既に求めている彩度の分布からこれを容易に検知できる。また、請求項1にかかる発明によれば、枠部として生じやすい白色あるいは黒色の枠部を容易に検出できる。
【0060】
さらに、請求項9にかかる発明によれば、彩度の変換が不要な自然画でない場合に彩度の変換を行わないようにすることができるし、請求項10にかかる発明によれば、自然画以外の画像をスペクトル状の彩度分布から容易に検出できる。
【0061】
さらに、請求項11にかかる発明によれば、彩度だけを比較的容易に変換することができる。
【0062】
さらに、請求項12にかかる発明によれば、画像データで多用される色成分値の場合でも比較的容易に彩度を変換することができるし、請求項13にかかる発明によれば、最小成分値を用いて無彩度成分を容易に検知できる。
【0063】
さらに、請求項14にかかる発明によれば、輝度を保存しつつ彩度の変換を行うことができる。
【0064】
さらに、請求項15にかかる発明によれば、彩度の分布状況を集計することにより、各画像に応じた最適な彩度の変換を行うことが可能な画像処理方法を提供することができ、請求項16にかかる発明によれば、同様にして各画像に応じた最適な彩度の変換を行うことが可能な画像処理プログラムを記録した媒体を提供することができる。
【0065】
【発明の実施の形態】
以下、図面にもとづいて本発明の実施形態を説明する。
【0066】
図1は、本発明の一実施形態にかかる画像処理システムをブロック図により示しており、図2は具体的ハードウェア構成例をブロック図により示している。
【0067】
同図において、画像入力装置10は画像を撮像するなどして画像データを画像処理装置20へ出力し、同画像処理装置20は所定の彩度強調などの画像処理を行なって画像出力装置30に出力し、同画像出力装置30は画像処理された画像を表示する。
【0068】
ここにおいて、画像入力装置10の具体例はスキャナ11やデジタルスチルカメラ12などが該当し、画像処理装置20の具体例はコンピュータ21とハードディスク22などからなるコンピュータシステムが該当し、画像出力装置30の具体例はプリンタ31やディスプレイ32等が該当する。
【0069】
本画像処理システムにおいては、彩度の弱い画像に対して最適なレベルに調整しようとしているものであるから、画像入力装置10としてのスキャナ11で写真を撮像した画像データであるとか、デジタルスチルカメラ12で撮影した彩度の弱い画像データなどが処理の対象となり、画像処理装置20としてのコンピュータシステムに入力される。
【0070】
本画像処理装置20は、少なくとも、彩度の分布を集計する彩度分布集計手段と、この集計された彩度の分布状況から画像データの彩度を変換する程度を判定する彩度変換度判定手段と、判定された変換の程度に基づいて画像データを変換する画像データ変換手段を構成する。むろん、本画像処理装置20は、この他にも機種毎による色の違いを補正する色変換手段であったり、機種毎に対応した解像度を変換する解像度変換手段などを構成していても構わない。この例では、コンピュータ21はRAMなどを使用しながら、内部のROMやハードディスク22に保存されている各画像処理のプログラムを実行していく。なお、このような画像処理のプログラムは、CD−ROM、フロッピーディスク、MOなどの各種の記録媒体を介して供給される他、モデムなどによって公衆通信回線を介して外部のネットワークに接続し、ソフトウェアやデータをダウンロードして導入することも行われている。
【0071】
この画像処理のプログラムの実行結果は後述するように彩度を調整した画像データとして得られ、得られた画像データに基づいて画像出力装置30であるプリンタ31で印刷したり、同じ画像出力装置30であるディスプレイ32に表示する。なお、この画像データは、より具体的にはRGB(緑、青、赤)の階調データとなっており、また、画像は縦方向(height)と横方向(width)に格子状に並ぶドットマトリクスデータとして構成されている。すなわち、当該画像データは画像をドットマトリクス状の画素に分解して各画素の情報を表したものとなっている。
【0072】
本実施形態においては、画像の入出力装置の間にコンピュータシステムを組み込んで画像処理を行うようにしているが、必ずしもかかるコンピュータシステムを必要とする訳ではなく、図3に示すようにデジタルスチルカメラ12a内に彩度調整する意味での画像処理装置を組み込み、変換した画像データを用いてディスプレイ32aに表示させたりプリンタ31aに印字させるようなシステムであっても良い。また、図4に示すように、コンピュータシステムを介することなく画像データを入力して印刷するプリンタ31bにおいては、スキャナ11bやデジタルスチルカメラ12bあるいはモデム13b等を介して入力される画像データを自動的に彩度調整するように構成することも可能である。
【0073】
図5のフローチャートは本画像変換処理を概略的に示しており、二点鎖線で示すそれぞれのブロックごとに概略的に彩度分布集計手段と彩度変換度判定手段と画像データ変換手段とに該当している。
【0074】
まず、この彩度分布の集計処理について説明する。
【0075】
彩度をいかにして表すかについて説明する前に、分布対象となる画素について説明する。図5のステップS102で示すように対象となる画素を間引く間引き処理を実行する。図6に示すように、ビットマップの画像であれば、縦方向に所定ドットと横方向に所定ドットからなる二次元のドットマトリクスとして成り立っており、正確な彩度の分布を求めるのであれば全画素について彩度を調べる必要がある。しかしながら、この分布集計処理は画像全体としての彩度の傾向を求めることを目的としており、必ずしも正確である必要はない。従って、ある誤差の範囲内となる程度に間引きを行うことが可能である。統計的誤差によれば、サンプル数Nに対する誤差は概ね1/(N**(1/2))と表せる。ただし、**は累乗を表している。従って、1%程度の誤差で処理を行うためにはN=10000となる。
【0076】
ここにおいて、図6に示すビットマップ画面は(width)×(height)の画素数となり、サンプリング周期ratioは、
ratio=min(width,height)/A+1 …(4)
とする。ここにおいて、min(width,height)はwidthとheightのいずれか小さい方であり、Aは定数とする。また、ここでいうサンプリング周期ratioは何画素ごとにサンプリングするかを表しており、図7の○印の画素はサンプリング周期ratio=2の場合を示している。すなわち、縦方向及び横方向に二画素ごとに一画素のサンプリングであり、一画素おきにサンプリングしている。A=200としたときの1ライン中のサンプリング画素数は図8に示すようになる。
【0077】
同図から明らかなように、サンプリングしないことになるサンプリング周期ratio=1の場合を除いて、200画素以上の幅があるときには最低でもサンプル数は100画素以上となることが分かる。従って、縦方向と横方向について200画素以上の場合には(100画素)×(100画素)=(10000画素)が確保され、誤差を1%以下にできる。
【0078】
ここにおいてmin(width,height)を基準としているのは次のような理由による。例えば、図9(a)に示すビットマップ画像のように、width>>heightであるとすると、長い方のwidthでサンプリング周期ratioを決めてしまった場合には、同図(b)に示すように、縦方向には上端と下端の2ラインしか画素を抽出されないといったことが起こりかねない。しかしながら、min(width,height)として、小さい方に基づいてサンプリング周期ratioを決めるようにすれば同図(c)に示すように少ない方の縦方向においても中間部を含むような間引きを行うことができるようになる。すなわち、所定の抽出数を確保したサンプリングが可能となる。
【0079】
なお、この例では、縦方向と横方向の画素について正確なサンプリング周期で間引きを行うようにしている。これは、逐次入力される画素について間引きしながら処理する場合に好適である。しかし、全画素が入力されている場合には縦方向や横方向についてランダムに座標を指定して画素を選択するようにしても良い。このようにすれば、10000画素というような必要最低限の画素数が決まっている場合に10000画素となるまでランダムに抽出する処理を繰り返し、10000画素となった時点で抽出を止めればよくなる。
【0080】
このように選択した画素についての画素データがその成分要素として彩度を持っていればその彩度の値を用いて分布を求めることが可能である。一方、彩度が直接の成分要素となっていない画像データの場合でも、間接的には彩度を表す成分値を備えている。従って、彩度が直接の成分要素となっていない表色空間から彩度値が直接の成分値となっている表色空間への変換を行えば彩度値を得ることができる。例えば、標準表色系としてのLuv空間においては、L軸が輝度(明度)を表し、U軸及びV軸で色相を表している。ここにおいて、U軸及びV軸においては両軸の交点からの距離が彩度を表すため、実質的に(U+V)**(1/2)が彩度となる。
【0081】
このような異なる表色空間の間での色変換は変換式によって一義的に定まるものではなく、それぞれの成分値を座標とする色空間について相互に対応関係を求めておき、この対応関係を記憶した色変換テーブルを参照して逐次変換する必要がある。テーブルとする関係上、成分値は階調値として表され、三次元の座標軸を備えている256階調の場合には、約1670万個(256×256×256)の要素の色変換テーブルを持たなければならない。このような場合、効率的な記憶資源の利用を考えた結果、すべての座標値についての対応関係を用意しておくのではなく、通常は適当なとびとびの格子点について対応関係を用意しておき、補間演算を併用するようにしている。この補間演算はいくつかの乗算や加算を経て可能となるものであるため、演算処理量は膨大となってくる。
【0082】
すなわち、フルサイズの色変換テーブルを使用するのであれば処理量としては少なくなるもののテーブルサイズが非現実的となり、テーブルサイズを現実的なサイズにすれば演算処理量が非現実的となることが多い。
【0083】
このような状況に鑑み、本実施形態においては、画像データとして標準的なRGBの階調データを直に利用して彩度の代替値Xを次のようにして求めている。
【0084】
X=|G+B−2×R| …(1)
本来的には彩度は、R=G=Bの場合に「0」となり、RGBの単色あるいはいずれか二色の所定割合による混合時において最大値となる。この性質から直に彩度を適切に表すのは可能であるものの、簡易な(1)式によっても赤の単色および緑と青の混合色であるシアンであれば最大値の彩度となり、各成分が均一の場合に「0」となる。また、緑や青の単色についても最大値の半分程度には達している。
【0085】
なお、RGB表色空間のように各成分がそれぞれ独立して各色の成分を表すといったいわば概略対等な色相成分の成分値で示される状況においては、上述したように
X’=|R+B−2×G| …(2)
X”=|G+R−2×B| …(3)
という式にも代替可能である。
【0086】
間引き処理では、上述したサンプリング周期で間引いた画素についてRGBの画像データから(1)式に基づいて彩度の分布をとる。(1)式においては、彩度が最低値「0」〜最大値「511」の範囲で分布し、概略的には図10に示すような分布となる。最終的にはステップS112にてこの分布から画像全体としての彩度指数というものを求めることになるが、その前に考慮しておく事項がある。
【0087】
一つ目は、画像が白黒画像のような二値画像である場合である。白黒画像を含めて二値画像であれば彩度の変換という概念は不適切である。図11に示すような白黒画像があったとすると、この画像に対する(1)式に基づく彩度分布は図12に示すように「0」に集中する。
【0088】
従って、ステップS104で白黒チェックを行う場合には、彩度「0」の画素数が、間引いて選択した画素数と一致するか否かで判断できる。そして、白黒画像の場合であれば以下の処理を実行することなく本画像変換処理を終了する。
【0089】
二値データは白黒だけに限らず、色の付いた二値データもあり得る。このような場合も同様に彩度の変換を図る処理は不要であり、分布状態を調べて二つあるいは一つの彩度にしか分布が集中していなければ二値データと判断して処理の中断を図ればよい。
【0090】
二つ目は画像がビジネスグラフのようなものか写真のような自然画であるか否かを考慮する。自然画においては彩度の強調という処理が要求される場合があるものの、ビジネスグラフであるとかドロー系の図面のようなものではコントラストの強調を図らない方が好まれる場合が多い。従って、ステップS106では自然画か否かのチェックを行う。
【0091】
自然画では陰影を含めて色数が極めて多いがビジネスグラフやドロー系の図面では色数が限られていることが多い。従って、色数が少なければ自然画ではないと判断することが可能である。色数を正確に判断しようとすれば上述したように1670万色のうちの何色を使用しているかを判別する必要があるが、現実的ではない。一方、ビジネスグラフのような極めて色数が少ない場合には異なる色であって同じ彩度になる確率は低い。すなわち、彩度によって概ねの色数を判断できる。色数が少なければ彩度の分布もまばらであり、ビジネスグラフのようなものでは、図13に示すように、線スペクトル状に表れる。このようなことから、ステップS106では512段階の彩度のうち分布数が「0」でない彩度がいくつ表れているかカウントする。そして、「128」以下であれば自然画でないと判断し、二値データの場合と同様、以下の処理を実行することなく本画像変換処理を終了する。むろん、しきい値となる「128」色以下か否かについては適宜変更可能である。
【0092】
また、分布が線スペクトル状か否かは分布数が「0」でない輝度値の隣接割合で判断することも可能である。すなわち、分布数が「0」でない彩度であって隣接する彩度に分布数があるか否かを判断する。隣接する二つの彩度のうち少なくとも一方で隣接していれば何もせず、両方で隣接していない場合にカウントを行い、その結果、「0」でない彩度の数とカウント値との割合で判断すればよい。例えば、「0」でない彩度の数が「20」であって、隣接しないものの数が「20」であれば線スペクトル状に分布していることが分かる。
【0093】
さらに、オペレーティングシステムを介して画像処理プログラムが実行されているような場合には、画像ファイルの拡張子で判断することも可能である。ビットマップファイルのうち、特に写真画像などではファイル圧縮がなされ、その圧縮方法を表すために暗示の拡張子が利用されることが多い。例えば、「JPG」という拡張子であれば、JPEGフォーマットで圧縮されていることが分かる。オペレーティングシステムがファイル名を管理していることから、プリンタドライバなどの側からオペレーティングシステムに問い合わせを出せば、同ファイルの拡張子が回答されることになるため、その拡張子に基づいて自然画であると判断してコントラストの強調を行うようにすればよい。また、「XLS」というようなビジネスグラフに特有の拡張子であれば彩度強調を行わないと判断することもできる。
【0094】
三つ目に考慮することは、図14に示すように画像の周りに枠部があるか否かである。このような枠部が白色または黒色であれば、その彩度分布は図15に示すように、彩度「0」の画素数の分布が突出するし、内部の自然画に対応して滑らかな彩度分布としても表れる。
【0095】
むろん、枠部を彩度分布の考慮に入れない方が適切であるため、ステップS108の枠部のチェックでは彩度「0」の画素数が十分に大きく、かつ、間引いて選択した画素数とは一致しないかを判断し、肯定的ならば枠部があると判定してステップS110にて枠部処理を実施する。この枠部処理では、枠部を無視するために彩度「0」の画素数を隣接する彩度「1」の画素数と同じにするとともに、全画素数からこの差分値を減算しておく。これにより、以下の処理では枠部がないものと同様に扱うことができる。
【0096】
この例では白色または黒色の枠部を対象としているが、特定の色の枠がある場合も考えられる。このような場合、彩度分布が描く本来の滑らかなカーブの中で突出する線スペクトル状のものが表れる。従って、隣接する彩度同士の間で大きく差が生じている線スペクトル状のものについては枠部として考えて彩度分布の対象としないようにすればよい。この場合、枠部以外でその色を使用していることがあり得るので、両隣の彩度値の平均を割り当てるようにしても良い。
【0097】
以上のような考慮を経た上で、集計された彩度分布に基づき、ステップS112にてこの画像についての彩度指数というものを決定する。上述した考慮を経た上で、集計された彩度分布が図10に示すようになったものとする。本実施形態においては、上述した考慮すべきでない画素数を差し引いた有効な画素数の範囲で分布数として上位の「16%」が占める範囲を求める。そして、この範囲内での最低の彩度「A」がこの画像の彩度を表すものとして次式に基づいて彩度指数Sを決定する。
【0098】
すなわち、
A<92なら
S=−A×(10/92)+50 …(5)
92≦A<184なら
S=−A×(10/46)+60 …(6)
184≦A<230なら
S=−A×(10/23)+100 …(7)
230≦Aなら
S=0 …(8)
とする。図16は、この彩度「A」と彩度指数Sとの関係を示している。図に示すように、彩度指数Sは最大値「50」〜最小値「0」の範囲で彩度「A」が小さいときに大きく、同彩度「A」が大きいときに小さくなるように徐々に変化していくことになる。
【0099】
この実施形態においては、集計された彩度分布の範囲で上位のある割合が占める彩度を利用しているが、これに限らず、例えば、平均値を出したり、メジアンを求めて彩度指数を演算する根拠としても良い。ただし、彩度分布での上位のある割合をとった場合には突発的な誤差の影響が弱まるので、全体として良好な結果を得られる。
【0100】
彩度を変換するといっても強調することが殆どであり、弱めることはないことが多い。むろん、必要に応じて強調する場合に限らず、弱める場合も考慮することが可能であるが、以下においては強調することを前提として説明する。これにあたり、彩度指数Sは彩度強調指数Sと読み代える。
【0101】
彩度強調指数Sに基づいて彩度を強調するにあたり、上述したように画像データが彩度のパラメータを備えているものであれば同パラメータを変換すればよいものの、今回のようにRGBの表色空間を採用している場合には、一旦、標準表色系であるLuv空間に変換し、次のようにしてLuv空間内で半径方向へ変移させることによって行うことができる。
【0102】
まず、色変換テーブルを参照してRGBの階調データ(Rx,Gx,Bx)をLuvの階調データ(L,u,v)に変換したら、次式に基づいて同階調データ(L,u,v)を変換する。
【0103】
u’=(S+100)/100×u …(9)
v’=(S+100)/100×v …(10)
上述したように、彩度強調指数Sは最大値「50」〜最小値「0」の範囲となっているため、(u,v)は最大1.5倍されて(u’,v’)となる。画像データがRGBであった場合には、この後でLuvの階調データ(L,u’,v’)をRGBに変換し直すことにより本画像変換処理を終了する。
【0104】
(9)式と(10)式の変換では輝度(明度)のパラメータLに関わらずに強調するようにしているが、かかる変換が好ましくないこともある。図17はLuv空間を擬似的に垂直に切断した状態を示している。同図に示すように、この表色空間はL=0とL=100に頂点を有する二つの円錐形の底面同士を対面させた形状となっている。従って、(9)式と(10)式に基づいて(u,v)の座標値を半径方向外側に変移させる拡大を行うと、輝度Lがあまり小さくない範囲ではB1点からはB1’点へ変移させることが可能であるものの、輝度Lが非常に小さい範囲ではB2点からB2’点へ変移させると逆円錐形状の空間を突き破っていることになる。このような変換は現実には不可能であるし、色相がずれるといった結果として現れる。
【0105】
従って、この対策として輝度Lに対応して彩度強調指数Sを変移させる。すなわち、
L<30なら
S’=S×0=0 …(11)
30≦L<50なら
S’=S×0.8 …(12)
50≦Lなら
S’=S …(13)
とする。なお、本来的には輝度Lが大きい部分でも円錐形状の空間から突き破ってしまうことになり、同様の補正を適用することも考えられる。しかしながら、輝度Lが大きい部分の画像データはプリンタで印刷する場合などに白に近いものであり、色ずれの影響は殆ど感じられない。従って、処理を高速化するためにもかかる補正は行わなくても良いという結果が得られた。
【0106】
これまでは、RGBの画像データを、一旦、Luv空間内の画像データに変換し、彩度強調後に再びRGBに戻すといった作業を行っているため、演算量が多くならざるを得ない。従って、以下にはRGBの階調データをそのまま利用して彩度強調する変形例について説明する。
【0107】
RGB表色空間のように各成分が概略対等な関係にある色相成分の成分値であるときには、R=G=Bであればグレイであって無彩度となる。従って、RGBの各成分における最小値となる成分については各画素の色相に影響を与えることなく単に彩度を低下させているにすぎないと考えれば、各成分における最小値をすべての成分値から減算し、その差分値を拡大することによって彩度を強調できるといえる。
【0108】
まず、上述した彩度強調指数Sから演算に有利な彩度強調パラメータSratioを、
Sratio=(S+100)/100 …(14)
として求める。この場合、彩度強調指数S=0のときに彩度強調パラメータSratio=1となって彩度強調されない。次に、RGB階調データの各成分(R,G,B)における青(B)の成分値が最小値であったとすると、この彩度強調パラメータSratio を使用して次のように変換する。
【0109】
R’=B+(R−B)×Sratio …(15)
G’=B+(G−B)×Sratio …(16)
B’=B …(17)
この結果、RGB表色空間とLuv空間との間で一往復する二度の色変換が不要となるため、演算時間の低減をはかることができる。この実施形態においては、無彩度の成分について単純に最小値の成分を他の成分値から減算する手法を採用しているが、無彩度の成分を減算するにあたっては別の変換式を採用するものであっても構わない。ただし、(15)〜(17)式のように最小値を減算するだけの場合には乗除算が伴わないので演算量が容易となるという効果がある。
【0110】
(15)〜(17)式を採用する場合でも、良好な変換が可能であるものの、この場合には彩度を強調すると輝度も向上して全体的に明るくなるという傾向がある。従って、次なる変形例においては、各成分値から輝度の相当値を減算した差分値を対象として変換を行うことにする。
【0111】
まず、輝度を求めるために、上述したLuv空間に色変換したのでは演算量が多大となってしまうため、テレビジョンなどの場合に利用されているRGBから輝度を直に求める次式の変換式を利用する。
【0112】
Y=0.30R+0.59G+0.11B …(18)
一方、彩度強調は、
R’=R+△R …(19)
G’=G+△G …(20)
B’=B+△B …(21)
とする。この加減値△R,△G,△Bは輝度との差分値に基づいて次式のように求める。すなわち、
△R=(R−Y)×Sratio …(22)
△G=(G−Y)×Sratio …(23)
△B=(B−Y)×Sratio …(24)
となり、この結果、
R’=R+(R−Y)×Sratio …(25)
G’=G+(G−Y)×Sratio …(26)
B’=B+(B−Y)×Sratio …(27)
として変換可能となる。なお、輝度の保存は次式から明らかである。
【0113】

Figure 0004126509
また、入力がグレー(R=G=B)のときには、輝度Y=R=G=Bとなるので、加減値△R=△G=△B=0となり、無彩色に色が付くこともない。(25)式〜(27)式を利用すれば輝度が保存され、彩度を強調しても全体的に明るくなることはない。
【0114】
ステップS114にて画像データを変換するにはこれらのうちのいずれかの手法で各画素のRGB階調データから変換後のRGB階調データ(R’,G’,B’)を求めるといった作業を全画素について行うことになる。
【0115】
次に、上記構成からなる本実施形態の動作を順を追って説明する。
【0116】
スキャナ11などで写真を撮像したとすると、同写真をRGBの階調データで表した画像データがコンピュータ21に取り込まれ、CPUは図5に示す画像処理のプログラムを実行して画像データの彩度を強調する処理を実行する。
【0117】
まず、ステップS102では画像データを所定の誤差内となる範囲で間引き、選択した画素についての彩度Xを求めて分布の集計を取る。このままの分布を使用することはできないので、まず、画像が白黒のような二値画像でないかステップS104にて判断するとともに、ステップS106では自然画か否かを判断する。二値画像である場合や自然画でない場合などを除き、ステップS108では画像データに枠部がないか判断し、枠部があれば除いて得られた彩度分布について上位の所定分布範囲についての最低限の彩度Aを求める。
【0118】
この彩度Aが得られたら、彩度「A」の所属範囲から次式に基づいて彩度指数(彩度強調指数)Sを決定する。
【0119】
A<92なら
S=−A×(10/92)+50 …(5)
92≦A<184なら
S=−A×(10/46)+60 …(6)
184≦A<230なら
S=−A×(10/23)+100 …(7)
230≦Aなら
S=0 …(8)
このようにして求めた彩度強調指数Sに基づいて、ステップS114にて画像データを変換するが、その一例として輝度を保存しつつRGBの階調データを直に利用する場合なら、
R’=R+(R−Y)×Sratio …(25)
G’=G+(G−Y)×Sratio …(26)
B’=B+(B−Y)×Sratio …(27)
という各式に基づいて全画素についての画像データを変換する。これにより彩度が弱く写ってしまった写真の場合でも狭い範囲で変化している彩度を強調し、鮮やかな画像とすることができる。そして、この後、ディスプレイ32へ出力するならばRGBのままで出力させれば色鮮やかな画像が画面上で再現されるし、プリンタ31へ出力するならばカラーインクのCMYK表色空間に変換させた後、階調変換して印刷出力させることにより、紙面上に色鮮やかな画像が再現される。
【0120】
むろん、上述したように二値画像や自然画でない場合においてはかかる画像処理は行われない。また、上述した実施形態においては、彩度強調指数の選定条件などを一定としているが、コンピュータ21上では所定のGUIを介してユーザーが選択できるようにしても良い。このようにすればユーザーの設定した値に基づいて最適な範囲となるように自動的に変換することができるようになる。特に、Luv空間へ変換しない場合には必ずしも色相が保存されるとはいえない場合もあり、このような場合には色素の回転を防止するために彩度強調指数Sを弱めにするなどして色相のずれを無視できるようにすればよい。さらに、上述した複数の変換手法を選択可能としたり、それぞれに伴って最適な彩度強調指数の設定を用意しておけばよい。また、ユーザーが画像データの一部を指定して当該範囲内でのみかかる彩度強調処理を実行するようにすることも可能である。
【0121】
このように、ステップS102で間引きするなどしながら画像データの画素について彩度分布を求めた後、上位の所定の分布割合が占める範囲における最低の彩度を利用して当該画像の彩度を求めるとともにこれによって彩度の変換程度で彩度強調指数Sを求めるようにしているので(ステップS112)、画像ごとに異なる彩度の強調程度を自動的に判別することが可能になり、この後、所定の彩度強調変換式によって画像データを変換することにより(ステップS114)、画像の彩度を鮮やかなものとすることができる。
【図面の簡単な説明】
【図1】本発明の一実施形態にかかる画像処理装置が適用される画像処理システムのブロック図である。
【図2】同画像処理装置の具体的ハードウェア構成例を示すブロック図である。
【図3】本発明の画像処理装置の他の適用例を示す概略ブロック図である。
【図4】本発明の画像処理装置の他の適用例を示す概略ブロック図である。
【図5】本発明の画像処理装置における彩度の変換処理を示すフローチャートである。
【図6】変換元の画像における座標を示す図である。
【図7】サンプリング周期を示す図である。
【図8】サンプリング画素数を示す図である。
【図9】変換元の画像とサンプリングされる画素の関係を示す図である。
【図10】彩度分布の集計状態の概略図である。
【図11】白黒の画像を示す図である。
【図12】白黒の画像の彩度分布を示す図である。
【図13】自然画でない場合の彩度分布を示す図である。
【図14】枠部のある画像を示す図である。
【図15】枠部のある画像の彩度分布を示す図である。
【図16】彩度Aと彩度強調指数Sとの関係を示す図である。
【図17】Luv空間での彩度の強調限界を示す図である。
【符号の説明】
10…画像入力装置
11…スキャナ
11b…、スキャナ
12…デジタルスチルカメラ
12a…デジタルスチルカメラ
12b…デジタルスチルカメラ
13b…モデム
20…画像処理装置
21…コンピュータ
22…ハードディスク
30…画像出力装置
31…プリンタ
31a…プリンタ
31b…プリンタ
32…ディスプレイ
32a…ディスプレイ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, an image processing method, and a medium on which an image processing program is recorded, and more particularly, to an image processing apparatus, an image processing method, and a medium on which an image processing program is recorded. .
[0002]
[Prior art]
When you read a photo with a scanner and use it as electronic image data, you may want to emphasize the vividness of the original photo. Conventionally, as such emphasis, for example, when the color component of image data is represented by gradation data of red (= R), green (= G), and blue (= B), a desired color Those that increase the value of the component are known.
[0003]
That is, when the gradation data is in the range of “0 to 255”, in order to make the red color more vivid, “20” is uniformly added to the red gradation data, or the blue color is more vivid. In order to achieve this, for example, “20” is uniformly added to the blue gradation data.
[0004]
[Problems to be solved by the invention]
In the above-described conventional image processing apparatus, it is necessary for a human to determine for each image data how much emphasis is performed, and the most suitable one cannot be automatically applied.
[0005]
The present invention has been made in view of the above problems, and has recorded an image processing apparatus, an image processing method, and an image processing program capable of automatically performing saturation conversion according to different vividness for each image. The purpose is to provide a medium.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to claim 1 Dot matrix An image processing apparatus that performs predetermined image processing on image data representing information of each pixel, a saturation distribution totaling unit that totalizes the distribution of saturation of each pixel in the image data, and the saturation distribution totalization Saturation conversion degree determination means for determining the degree of conversion of the saturation of the image data from the distribution of saturations collected by the means, and information representing the saturation in the image data based on the determined degree of conversion The new The image data converting means for converting into simple image data is provided.
[0007]
In the invention according to claim 1 configured as described above, the image data is Dot matrix In the case where the information of each pixel is represented, if the saturation distribution totalizing unit totals the saturation distribution of each pixel in the image data, the saturation conversion degree determining unit is totaled by this saturation distribution totaling unit. The degree of conversion of the saturation of the image data is determined from the distribution of saturation, and the image data conversion means is information indicating the saturation in the image data based on the determined degree of conversion The new Convert to new image data. That is, conversion is performed by determining the optimum degree of conversion from the saturation distribution of the image data for each image.
[0008]
In summing up the saturation distribution of each pixel in the image data, the same parameter may be summed up if the image data has a saturation parameter. Further, even when the same parameter is not provided, for example, color conversion from another color space to a color space having the same saturation parameter may be performed, and aggregation may be performed based on the converted saturation parameter. Is possible. However, without using such color conversion, as an example, the saturation of each pixel may be determined according to the saturation of the warm hue in the color component.
[0009]
It is difficult to judge saturation without changing the color space, but there is a tendency to recognize the difference between warm and non-warm hues as vividness from human visual characteristics. It is relatively good to determine the saturation based on the difference.
[0010]
Although overlapping with such a tendency, as an example, the invention according to claim 2 is the image processing apparatus according to claim 1, wherein the color components of the image data are red (= R), green (= G), The saturation (= X) is expressed by the following equation when it can be expressed in blue (= B).
[0011]
X = | G + B−2 × R | (1)
In an RGB color space that is frequently used by computers and the like, achromaticity occurs when the components match, and saturation occurs elsewhere. In this case, it is possible to determine the saturation by determining the degree of difference from the achromaticity, but if the relational expression | G + B−2 × R | Regardless of the minimum value, the maximum value is obtained for a single color of red or yellow, and a large saturation is also obtained in the case of blue or green.
[0012]
Of course, by the same way of thinking
X ′ = | R + B−2 × G | (2)
X ″ = | G + R−2 × B | (3)
The same simplicity can be obtained. However, as judged by experiments,
X = | G + B−2 × R | (1)
In the relational expression, the most favorable result is obtained, and it can be said that this is supported by recognizing vividness according to the saturation of the hue of the warm color system as human characteristics as described above.
[0013]
As described above, the saturation for each pixel is obtained, and the distribution of the saturation as an image does not necessarily have to be obtained for all the pixels of the image data. For example, the invention according to claim 3 is the above claim 1 or 3. The image processing apparatus according to claim 2, wherein a saturation distribution state is obtained by thinning out image data corresponding to a predetermined extraction rate.
[0014]
If the purpose is to obtain the distribution, it is possible to obtain a saturation distribution with a certain degree of certainty according to the extraction rate even if thinning is performed at a predetermined extraction rate without obtaining saturation for all pixels. Can do.
[0015]
Here, although there are various thinning methods, the invention according to claim 4 is the image processing apparatus according to claim 3, wherein the predetermined extraction rate is equal to the number of pixels in the first direction in the image data. Of the number of pixels in the second direction orthogonal to the first direction, the extraction rate is such that a predetermined number of extracted pixels can be extracted in the direction with the smaller number of pixels. In this case, a predetermined number of extractions is ensured on the short side in the vertical and horizontal ranges.
[0016]
Since the image is flat, the image data is also naturally distributed in the vertical and horizontal directions, but in determining a certain extraction rate, by ensuring a certain number of extractions at least on the short side, the extraction rate is reduced. The certainty corresponding to it is held.
[0017]
Of course, it is only necessary to add up the saturation distribution of each pixel in the image data, and the specific method thereof is not necessarily limited to these.
[0018]
In determining the degree of conversion of the saturation from the saturation distribution state, various methods can be adopted for analyzing the specific distribution state. As an example, the invention according to claim 5 is the above claim. The image processing apparatus according to any one of claims 1 to 4, wherein the saturation conversion degree determination unit is configured to display a saturation when the saturation that is a predetermined ratio from the upper end in the aggregated distribution of saturations is small. In addition to enhancing the degree, the degree of saturation conversion is determined so as to weaken the degree of saturation enhancement when the saturation is large. In other words, the saturation conversion determination means determines that the saturation that has become a predetermined ratio from the upper end in the aggregated distribution of saturation is a lower value in the numerical value range that saturation can take. The degree of saturation conversion is determined by increasing the degree of emphasis.
[0019]
In other words, the situation of the saturation distribution is determined by recognizing the overall saturation depending on whether the saturation is large or small when only a certain distribution is extracted from the high saturation side. The degree is emphasized, and if it is large enough, it is determined that the degree is not enough. Of course, other than this, other statistical methods may be employed to determine the saturation tendency of the entire image data. Further, the image data may not be captured as a whole but may be captured partially.
[0020]
Even if the degree of saturation conversion is determined by the above-mentioned method, it is not possible to obtain a good result by overemphasizing it because the saturation is weak, but the relationship between saturation and brightness According to a sixth aspect of the present invention, in the image processing device according to any one of the first to fifth aspects, the degree of saturation conversion is weakened when the luminance is low. In other words, the degree of saturation conversion is weakened as the luminance of the image data is lower in the numerical value range that the luminance can take.
[0021]
Luminance or brightness and saturation have an inverse conical shape up to a certain range in the color space, and it can be said that the component value of the hue is not large even if the luminance is low. In such a case, if an attempt is made to apply a degree of conversion corresponding to a smaller saturation, this conical color space may be broken. Therefore, when the luminance is low, the degree of saturation conversion is weakened to prevent this from happening.
[0022]
Further, depending on the image data, the conversion of saturation may not be appropriate. As an example, the invention according to claim 7 is the image processing apparatus according to any one of claims 1 to 6, wherein The binary image data is determined based on the distribution, and if it is binary image data, saturation conversion is not performed.
[0023]
In binary image data, there are only two types of saturation, and there is no possibility that the saturation can be converted and emphasized. Therefore, it is determined that the image data is binary image data from the saturation distribution, and the saturation is not converted.
[0024]
As an example of the binary image data, there is monochrome monochrome image data. The invention according to claim 8 is the image processing apparatus according to claim 7, wherein the monochrome image data is concentrated when the saturation distribution is concentrated in achromaticity. It is configured to determine that the binary image data.
[0025]
There is no saturation in white or black. Accordingly, the saturation distribution is also concentrated in the achromatic state. In such a case, it is not necessary to determine the binary image data and perform saturation conversion.
[0026]
Furthermore, the invention according to claim 1 is configured such that the frame portion of the image data is determined based on the prominent saturation distribution, and if there is a frame portion, the data of the frame portion is not used for detection of the saturation distribution.
[0027]
When an image is processed, it is frequently possible to have a frame, and if it exists as a single-color frame, the saturation distribution corresponding to that color naturally protrudes. Therefore, if such a prominent saturation distribution is used as a criterion for determining the saturation of an image, it cannot be effectively determined, and therefore it is determined as a frame portion and is not used for detection of the saturation distribution.
[0028]
Furthermore, the invention according to claim 1 is configured to determine that the saturation distribution concentrated in achromaticity is a frame portion.
[0029]
A white frame or a black frame is frequently used and may be generated depending on a trimming result, and concentrates on achromaticity. Therefore, the saturation distribution concentrated on the achromaticness is determined as the frame portion.
[0030]
By the way, the invention concerning Claim 9 is set as the structure which does not perform saturation conversion, when image data is not a natural image in the image processing apparatus in any one of the said Claims 1-8.
[0031]
It can be said that natural images such as photographs tend to cause problems such as weakness in saturation, and are almost unnecessary for things like business graphs. Conversely, modifying something like a business graph can lead to a difference from the creator's image. Accordingly, saturation conversion is performed only in the case of such a natural image.
[0032]
As an example of determining whether or not the image is a natural image, the invention according to claim 10 is the image processing device according to claim 9, wherein the image data is not a natural image when the saturation distribution is present in a spectral form. A natural image determining means for determining is provided.
[0033]
It can be said that the saturation distribution has a smooth width as a feature of the natural picture. Therefore, if the saturation distribution appears in a line spectrum, it can be determined that the image is not a natural image. In the invention according to claim 10 configured as described above, the natural image determination means determines the state of the saturation distribution, determines that the image data is not a natural image when it exists in a line spectrum, and thereby No degree conversion is performed.
[0034]
As described above, various methods can be employed for determining the degree of conversion of the saturation of the image data from the distribution of saturation, and the present invention is not limited to these.
[0035]
By the way, as a more specific method for converting the saturation of the image data, the invention according to claim 11 is the conversion of saturation in the image processing apparatus according to any one of claims 1 to 10. Is configured to shift in the radial direction in accordance with the degree of conversion in the Luv space which is a standard color system.
[0036]
In other words, if the image data has a saturation parameter, the parameter can be converted. However, the luminance or lightness parameter and the standard having the hue as a parameter in the plane coordinate system for each luminance are used. In the Luv space that is a color system, the radial direction corresponds to saturation. Therefore, in the same Luv space, the saturation is converted by shifting in the radial direction.
[0037]
The reason why the Luv space is used is that the luminance is independent and the change in saturation does not affect the luminance. However, when such a Luv space is used, if the original image data is not compatible, conversion is required.
[0038]
On the other hand, as an example corresponding to a case where the image data is expressed by an equivalent hue component so as to be frequently used in the image data, the invention according to claim 12 is any one of the above claims 1 to 10. In the image processing apparatus described above, when the image data is represented by component values of a plurality of roughly equal hue components, the component values excluding the achromatic component are shifted according to the degree of conversion to convert the saturation. The configuration is to be performed.
[0039]
When image data is represented by component values of a plurality of substantially equal hue components as in RGB, it can be said that there is an achromatic component. Therefore, the component value excluding the achromatic component has an influence on the saturation, and the saturation is converted by shifting the component value. As an example of dealing with this achromatic component, the invention according to claim 13 is the image processing device according to claim 12, wherein a difference value obtained by subtracting a minimum component value in a plurality of hue components from other component values is calculated. The saturation is converted by increasing / decreasing according to the degree of conversion.
[0040]
Among the plurality of color components, the minimum component value is also included in the other color components, and they are merely combined to form an achromatic gray. Accordingly, the difference value of other colors exceeding the minimum component value affects the saturation, and the saturation is converted by increasing or decreasing the difference value.
[0041]
As another example, the invention according to claim 14 is the image processing apparatus according to claim 12, wherein a difference value obtained by subtracting a luminance equivalent value from each component value is increased or decreased according to the degree of conversion. The saturation conversion is performed.
[0042]
If the component value excluding the achromatic component is simply shifted, a change in luminance is accompanied. For this reason, the luminance can be preserved by subtracting the equivalent value of the luminance from each component value in advance and performing the conversion of the saturation by increasing or decreasing the difference value.
[0043]
As described above, it is not necessary to limit the method for converting the image data by summing the saturation distribution in the image data, and it can be easily understood that the method also functions as a method. For this reason, Dot matrix An image processing method for performing predetermined image processing on image data representing information of each pixel, and summing up the distribution of saturation as a whole based on the saturation at each pixel, and summing up the saturation The degree of conversion of the saturation of the image data is determined from the distribution status of the image, and information indicating the saturation in the image data based on the determined degree of conversion The new When calculating the above saturation data and calculating the saturation distribution, a distribution that concentrates on achromaticity and protrudes is determined to be a frame portion. May be configured not to be used for detecting the saturation distribution.
[0044]
That is, it is not necessarily limited to a substantial apparatus, and there is no difference that the method is also effective.
[0045]
By the way, such an image processing apparatus may exist alone, or may be used in a state of being incorporated in a certain device. The idea of the invention is not limited to this, and includes various aspects. . Therefore, it can be changed as appropriate, such as software or hardware.
[0046]
As an example of this, even in a printer driver that converts image data corresponding to printing ink based on input image data and prints it on a predetermined color printer, the distribution state of saturation in the image data is totaled, and this distribution state From this, it is possible to determine the degree to which the saturation of the image data is converted, and to convert the image data based on the conversion degree.
[0047]
In other words, the printer driver converts the image data input corresponding to the printing ink. At this time, the saturation distribution of the input image data is obtained, and a more vivid image is obtained within the optimum range for the image data. The input image data is converted and printed so that it can be reproduced.
[0048]
In the case of software for an image processing apparatus as an embodiment of the idea of the invention, it naturally exists on a recording medium on which such software is recorded and must be used. As an example, Dot matrix A computer-readable recording medium on which an image processing program for causing a computer to execute predetermined image processing on image data representing information of each pixel is recorded. A step of aggregating the distribution of the saturation as a whole based on the degree, a step of determining the degree of conversion of the saturation of the image data from the aggregated distribution of saturations, and the degree of conversion determined Information representing saturation in image data The new And a step of converting to saturation image data, and when calculating the saturation distribution, a distribution that concentrates and projects in achromaticity is determined as a frame portion, and if there is the frame portion, the frame portion This data may be configured not to be used for detecting the saturation distribution.
[0049]
Of course, the recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium that will be developed in the future. In addition, the duplication stages such as the primary duplication product and the secondary duplication product are the same without any question. In addition, even when the communication method is used as a supply method, the present invention is not changed.
[0050]
Further, even when a part is software and a part is realized by hardware, there is nothing completely different in the idea of the invention, and a part is stored on a recording medium, and it is appropriately changed as necessary. It may be in the form of being read. Furthermore, it goes without saying that the present invention can also be applied to an image processing apparatus built in a color facsimile machine, a color copier, a color scanner, a digital camera, a digital video, or the like.
[0051]
【The invention's effect】
As described above, the present invention can provide an image processing apparatus capable of performing optimum saturation conversion according to each image by counting the distribution of saturation.
[0052]
In addition, the saturation can be totaled according to the human visual characteristics.
[0053]
Furthermore, according to the second aspect of the present invention, when the RGB color space is adopted, the amount of calculation can be reduced and the saturation can be easily aggregated.
[0054]
Furthermore, according to the invention concerning Claim 3, a processing amount can be reduced.
[0055]
Further, according to the fourth aspect of the invention, it is easy to correct the saturation distribution by eliminating the bias of the extracted points of the image.
[0056]
Furthermore, according to the fifth aspect of the present invention, the determination is facilitated by determining the saturation at a predetermined ratio from the upper end in the saturation distribution state.
[0057]
Furthermore, according to the sixth aspect of the present invention, it is possible to prevent problems caused by the conversion of saturation that occurs when the luminance is low.
[0058]
Furthermore, according to the seventh aspect of the present invention, it is possible not to perform saturation conversion in the case of a binary image that does not require saturation conversion. Can be easily detected. According to the eighth aspect of the present invention, it is possible to prevent the saturation conversion from being performed on a frequent black and white image.
[0059]
Further, according to the first aspect of the present invention, it is possible to prevent the use of a frame portion irrelevant to the image data for the detection of the saturation distribution, and this can be easily performed from the already obtained saturation distribution. Can be detected. Moreover, according to the invention concerning Claim 1, the white or black frame part which is easy to produce as a frame part can be detected easily.
[0060]
Furthermore, according to the ninth aspect of the invention, it is possible to prevent the saturation from being converted when the natural image does not require the conversion of the saturation. Images other than images can be easily detected from the spectral saturation distribution.
[0061]
Furthermore, according to the eleventh aspect of the present invention, it is possible to convert only the saturation relatively easily.
[0062]
Further, according to the twelfth aspect of the present invention, saturation can be converted relatively easily even in the case of color component values frequently used in image data. According to the thirteenth aspect of the present invention, the minimum component can be converted. The achromatic component can be easily detected using the value.
[0063]
Furthermore, according to the fourteenth aspect of the present invention, it is possible to perform saturation conversion while preserving luminance.
[0064]
Furthermore, according to the invention according to claim 15, it is possible to provide an image processing method capable of performing optimum saturation conversion according to each image by counting the distribution of saturation. According to the sixteenth aspect of the present invention, it is possible to provide a medium on which an image processing program capable of performing optimum saturation conversion corresponding to each image is recorded.
[0065]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0066]
FIG. 1 is a block diagram illustrating an image processing system according to an embodiment of the present invention, and FIG. 2 is a block diagram illustrating a specific hardware configuration example.
[0067]
In the figure, an image input device 10 captures an image and outputs image data to the image processing device 20, and the image processing device 20 performs image processing such as predetermined saturation enhancement to the image output device 30. The image output apparatus 30 displays the image that has been subjected to image processing.
[0068]
Here, a specific example of the image input device 10 corresponds to the scanner 11 or the digital still camera 12, and a specific example of the image processing device 20 corresponds to a computer system including the computer 21 and the hard disk 22. Specific examples correspond to the printer 31, the display 32, and the like.
[0069]
In the present image processing system, an adjustment is made to an optimum level with respect to an image with low saturation. Therefore, it is image data obtained by taking a photograph with the scanner 11 as the image input device 10, or a digital still camera. The image data with weak saturation taken at 12 is processed and input to the computer system as the image processing apparatus 20.
[0070]
The image processing apparatus 20 includes at least a saturation distribution counting unit that counts the saturation distribution, and a saturation conversion degree determination that determines the degree to which the saturation of the image data is converted from the calculated saturation distribution state. And image data conversion means for converting image data based on the determined degree of conversion. Of course, the image processing apparatus 20 may also be a color conversion unit that corrects a color difference for each model, or a resolution conversion unit that converts a resolution corresponding to each model. . In this example, the computer 21 executes each image processing program stored in the internal ROM or the hard disk 22 while using a RAM or the like. Such an image processing program is supplied via various recording media such as a CD-ROM, floppy disk, and MO, and connected to an external network via a public communication line by a modem or the like. And downloading and installing data.
[0071]
The execution result of this image processing program is obtained as image data with the saturation adjusted as described later, and is printed by the printer 31 that is the image output device 30 based on the obtained image data, or the same image output device 30. Is displayed on the display 32. More specifically, this image data is RGB (green, blue, red) gradation data, and the image has dots arranged in a grid in the vertical direction (height) and the horizontal direction (width). It is configured as matrix data. That is, the image data represents information of each pixel by decomposing the image into pixels in a dot matrix.
[0072]
In the present embodiment, a computer system is incorporated between image input / output devices to perform image processing. However, such a computer system is not necessarily required, and a digital still camera as shown in FIG. A system in which an image processing device for adjusting the saturation is incorporated in 12a and the converted image data is displayed on the display 32a or printed on the printer 31a may be used. As shown in FIG. 4, in the printer 31b that inputs and prints image data without using a computer system, the image data input through the scanner 11b, the digital still camera 12b, the modem 13b, or the like is automatically received. It is also possible to configure so that the saturation is adjusted.
[0073]
The flowchart of FIG. 5 schematically shows the image conversion process, and roughly corresponds to the saturation distribution totaling means, the saturation conversion degree determining means, and the image data converting means for each block indicated by a two-dot chain line. is doing.
[0074]
First, the saturation distribution aggregation process will be described.
[0075]
Before describing how saturation is expressed, the pixels to be distributed will be described. As shown in step S102 of FIG. 5, a thinning process for thinning out the target pixels is executed. As shown in FIG. 6, a bitmap image is formed as a two-dimensional dot matrix consisting of predetermined dots in the vertical direction and predetermined dots in the horizontal direction. It is necessary to examine the saturation of the pixel. However, this distribution tabulation process is intended to determine the saturation tendency of the entire image, and is not necessarily accurate. Therefore, it is possible to perform thinning to such an extent that it is within a certain error range. According to the statistical error, the error with respect to the number of samples N can be expressed as 1 / (N ** (1/2)). However, ** represents a power. Therefore, in order to perform processing with an error of about 1%, N = 10000.
[0076]
Here, the bitmap screen shown in FIG. 6 has the number of pixels of (width) × (height), and the sampling period ratio is
ratio = min (width, height) / A + 1 (4)
And Here, min (width, height) is the smaller of width and height, and A is a constant. Further, the sampling period ratio here indicates how many pixels are sampled, and the pixels marked with ◯ in FIG. 7 indicate the case where the sampling period ratio = 2. That is, one pixel is sampled every two pixels in the vertical and horizontal directions, and every other pixel is sampled. The number of sampling pixels in one line when A = 200 is as shown in FIG.
[0077]
As can be seen from the figure, except for the case where the sampling period ratio = 1 in which sampling is not performed, when there is a width of 200 pixels or more, the number of samples is at least 100 pixels. Therefore, in the case of 200 pixels or more in the vertical direction and the horizontal direction, (100 pixels) × (100 pixels) = (10000 pixels) is secured, and the error can be reduced to 1% or less.
[0078]
Here, the reason for using min (width, height) as a reference is as follows. For example, as shown in FIG. 9A, when width >> height is determined with the longer width as shown in FIG. 9A, the sampling period ratio is determined as shown in FIG. 9B. In addition, in the vertical direction, only two lines of the upper end and the lower end may be extracted. However, if the sampling period ratio is determined based on the smaller one as min (width, height), thinning is performed so as to include the intermediate portion in the smaller vertical direction as shown in FIG. Will be able to. That is, sampling with a predetermined number of extractions is possible.
[0079]
In this example, thinning is performed with an accurate sampling period for pixels in the vertical and horizontal directions. This is suitable for processing while thinning out pixels that are sequentially input. However, when all the pixels have been input, the pixels may be selected by randomly specifying coordinates in the vertical direction or the horizontal direction. In this way, when the necessary minimum number of pixels, such as 10,000 pixels, is determined, the extraction process is repeated at random until the number of pixels reaches 10,000, and the extraction is stopped when the number of pixels reaches 10,000.
[0080]
If the pixel data for the selected pixel has saturation as its component element, the distribution can be obtained using the saturation value. On the other hand, even in the case of image data in which the saturation is not a direct component element, a component value representing the saturation is provided indirectly. Therefore, a saturation value can be obtained by performing conversion from a color space where saturation is not a direct component element to a color space where the saturation value is a direct component value. For example, in the Luv space as a standard color system, the L axis represents luminance (brightness), and the U axis and V axis represent hue. Here, in the U axis and the V axis, since the distance from the intersection of both axes represents the saturation, the saturation is substantially (U + V) ** (1/2).
[0081]
The color conversion between the different color spaces is not uniquely determined by the conversion formula, but the correspondence between the color spaces having the respective component values as coordinates is obtained and stored. It is necessary to perform sequential conversion with reference to the color conversion table. In relation to the table, the component values are expressed as gradation values. In the case of 256 gradations having a three-dimensional coordinate axis, a color conversion table of about 16.7 million (256 × 256 × 256) elements is obtained. Must have. In such a case, as a result of considering the efficient use of storage resources, it is not common to prepare correspondences for all coordinate values, but usually correspondences are prepared for appropriate discrete lattice points. Interpolation calculation is used together. Since this interpolation calculation is possible through several multiplications and additions, the amount of calculation processing becomes enormous.
[0082]
In other words, if a full-size color conversion table is used, the processing amount is reduced, but the table size becomes unrealistic. If the table size is made realistic, the calculation processing amount becomes unrealistic. Many.
[0083]
In view of such a situation, in this embodiment, the standard RGB gradation data is directly used as the image data, and the saturation alternative value X is obtained as follows.
[0084]
X = | G + B−2 × R | (1)
Originally, the saturation is “0” when R = G = B, and becomes the maximum value when mixing at a predetermined ratio of a single color of RGB or one of the two colors. Although it is possible to express the saturation appropriately from this property, it is possible to obtain the maximum saturation if it is cyan, which is a single color of red and a mixed color of green and blue, even by simple equation (1). It is “0” when the components are uniform. In addition, green and blue single colors reach about half of the maximum value.
[0085]
In a situation where each component represents a component of each color independently as in the RGB color space, in other words, in the situation indicated by the component values of roughly equal hue components, as described above.
X ′ = | R + B−2 × G | (2)
X ″ = | G + R−2 × B | (3)
It is also possible to substitute for this formula.
[0086]
In the thinning process, a saturation distribution is obtained from the RGB image data based on the equation (1) for the pixels thinned out at the sampling cycle described above. In the equation (1), the saturation is distributed in the range of the minimum value “0” to the maximum value “511”, and is roughly distributed as shown in FIG. Eventually, in step S112, a saturation index for the entire image is obtained from this distribution, but there are matters to consider before that.
[0087]
The first is a case where the image is a binary image such as a black and white image. The concept of saturation conversion is inappropriate for binary images including black and white images. If there is a monochrome image as shown in FIG. 11, the saturation distribution based on the equation (1) for this image is concentrated at “0” as shown in FIG.
[0088]
Therefore, when performing the black and white check in step S104, it can be determined whether or not the number of pixels of saturation “0” matches the number of pixels selected by thinning. If it is a monochrome image, the image conversion process is terminated without executing the following process.
[0089]
The binary data is not limited to black and white, and there may be binary data with color. In such a case as well, there is no need to perform saturation conversion, and if the distribution state is examined and the distribution is concentrated only in two or one saturation, it is determined as binary data and the process is interrupted. Should be achieved.
[0090]
Second, consider whether the image is like a business graph or a natural picture like a photograph. In natural images, saturation enhancement may be required, but it is often preferred not to enhance contrast in business graphs or drawings such as drawings. Accordingly, in step S106, it is checked whether or not the image is a natural image.
[0091]
Natural images have an extremely large number of colors including shadows, but business graphs and drawing drawings often have a limited number of colors. Therefore, if the number of colors is small, it can be determined that the image is not a natural image. In order to accurately determine the number of colors, it is necessary to determine how many of 16.7 million colors are used as described above, but this is not realistic. On the other hand, when the number of colors is extremely small as in the business graph, the probability that the colors are different and have the same saturation is low. That is, the approximate number of colors can be determined based on the saturation. If the number of colors is small, the saturation distribution is sparse, and in a business graph like the one shown in a line spectrum as shown in FIG. For this reason, in step S106, the number of saturations with a distribution number other than “0” in 512 levels of saturation is counted. If it is “128” or less, it is determined that the image is not a natural image, and the present image conversion process is terminated without executing the following process, as in the case of binary data. Of course, whether or not the color is “128” or less as a threshold value can be changed as appropriate.
[0092]
It is also possible to determine whether or not the distribution is a line spectrum by the adjacent ratio of luminance values whose distribution number is not “0”. That is, it is determined whether or not there is a distribution number in adjacent saturations with a saturation number other than “0”. If at least one of the two adjacent saturations is adjacent, nothing is done, and if both are not adjacent, the count is performed. As a result, the ratio of the number of saturations other than “0” and the count value is used. Just judge. For example, if the number of saturations that are not “0” is “20” and the number of non-adjacent ones is “20”, it can be seen that the line spectrum is distributed.
[0093]
Further, when the image processing program is executed via the operating system, it is possible to make a determination based on the extension of the image file. Of bitmap files, especially photographic images are compressed, and an implicit extension is often used to indicate the compression method. For example, an extension “JPG” indicates that the file is compressed in the JPEG format. Since the operating system manages the file name, if you send an inquiry to the operating system from the printer driver, the extension of the file will be answered. What is necessary is just to judge that there exists and to perform contrast emphasis. In addition, if the extension is unique to the business graph such as “XLS”, it can be determined that saturation enhancement is not performed.
[0094]
A third consideration is whether or not there is a frame around the image as shown in FIG. If such a frame portion is white or black, as shown in FIG. 15, the distribution of the number of pixels of saturation “0” protrudes and the saturation distribution is smooth corresponding to the natural image inside. It also appears as a saturation distribution.
[0095]
Of course, since it is appropriate not to consider the saturation distribution in the frame portion, the number of pixels with saturation “0” is sufficiently large in the check of the frame portion in step S108, and the number of pixels selected by thinning is selected. Are determined to match, and if affirmative, it is determined that there is a frame, and the frame processing is performed in step S110. In this frame processing, in order to ignore the frame, the number of pixels of saturation “0” is made equal to the number of pixels of adjacent saturation “1”, and the difference value is subtracted from the total number of pixels. . Thereby, in the following process, it can handle like the thing without a frame part.
[0096]
In this example, a white or black frame portion is targeted, but there may be a case where there is a specific color frame. In such a case, a protruding line spectrum appears in the original smooth curve drawn by the saturation distribution. Accordingly, a line spectrum having a large difference between adjacent saturations may be considered as a frame portion and not subjected to saturation distribution. In this case, since the color may be used other than the frame portion, an average of saturation values on both sides may be assigned.
[0097]
Based on the above considerations, a saturation index for this image is determined in step S112 based on the aggregated saturation distribution. Assume that the aggregated saturation distribution is as shown in FIG. In the present embodiment, the range occupied by the upper “16%” as the distribution number in the range of the effective pixel number obtained by subtracting the number of pixels that should not be considered is obtained. Then, the saturation index S is determined based on the following equation, assuming that the lowest saturation “A” in this range represents the saturation of this image.
[0098]
That is,
If A <92
S = −A × (10/92) +50 (5)
If 92 ≦ A <184
S = −A × (10/46) +60 (6)
If 184 ≤ A <230
S = −A × (10/23) +100 (7)
If 230 ≦ A
S = 0 (8)
And FIG. 16 shows the relationship between the saturation “A” and the saturation index S. As shown in the figure, the saturation index S is large when the saturation “A” is small in the range from the maximum value “50” to the minimum value “0”, and small when the saturation “A” is large. It will change gradually.
[0099]
In this embodiment, the saturation occupied by a certain proportion of the upper rank in the range of the aggregated saturation distribution is used. However, the present invention is not limited to this. For example, an average value is obtained, or a median is obtained to obtain a saturation index. It is good also as a basis for calculating. However, when a certain proportion of the upper level in the saturation distribution is taken, the influence of the sudden error is weakened, and thus a good result as a whole can be obtained.
[0100]
Even if the saturation is converted, it is mostly emphasized and often not weakened. Of course, it is possible to consider not only the case of emphasizing as necessary but also the case of weakening, but in the following, description will be made on the premise of emphasizing. In this case, the saturation index S is replaced with the saturation enhancement index S.
[0101]
In order to enhance the saturation based on the saturation enhancement index S, if the image data has a saturation parameter as described above, the parameter may be converted. When the color space is adopted, the color space can be converted into the standard color system Luv space and then shifted in the radial direction in the Luv space as follows.
[0102]
First, after converting RGB gradation data (Rx, Gx, Bx) to Luv gradation data (L, u, v) with reference to the color conversion table, the same gradation data (L, u, v) is transformed.
[0103]
u ′ = (S + 100) / 100 × u (9)
v ′ = (S + 100) / 100 × v (10)
As described above, since the saturation emphasis index S is in the range of the maximum value “50” to the minimum value “0”, (u, v) is multiplied by 1.5 at the maximum (u ′, v ′). It becomes. If the image data is RGB, the image conversion process is completed by converting the Luv tone data (L, u ′, v ′) to RGB again thereafter.
[0104]
In the conversions of the expressions (9) and (10), the emphasis is made regardless of the luminance (lightness) parameter L. However, such conversion may not be preferable. FIG. 17 shows a state in which the Luv space is cut in a pseudo vertical manner. As shown in the figure, the color space has a shape in which two conical bottom surfaces having apexes at L = 0 and L = 100 are opposed to each other. Therefore, if enlargement is performed by shifting the coordinate value of (u, v) to the outside in the radial direction based on the equations (9) and (10), from the point B1 to the point B1 ′ in the range where the luminance L is not so small. Although it is possible to shift, when the luminance L is in a very small range, if the transition is made from the point B2 to the point B2 ′, the inverted conical space is broken. Such conversion is impossible in reality and appears as a result of hue shift.
[0105]
Therefore, as a countermeasure, the saturation emphasis index S is shifted corresponding to the luminance L. That is,
If L <30
S ′ = S × 0 = 0 (11)
If 30 ≦ L <50
S ′ = S × 0.8 (12)
If 50 ≦ L
S ′ = S (13)
And It should be noted that a portion where the luminance L is large will break through from the conical space, and the same correction may be applied. However, the portion of the image data with a high luminance L is close to white when printed by a printer, and the influence of color misregistration is hardly felt. Therefore, the result that it is not necessary to perform such correction is also obtained in order to increase the processing speed.
[0106]
Up to now, RGB image data is once converted into image data in the Luv space, and after the saturation enhancement, the operation is performed again, so that the amount of calculation must be increased. Therefore, a modification example in which saturation enhancement is performed using RGB gradation data as they are will be described below.
[0107]
When each component is a component value of a hue component in which the respective components are roughly equivalent as in the RGB color space, if R = G = B, the color is gray and achromatic. Therefore, assuming that the component having the minimum value in each component of RGB is merely reducing the saturation without affecting the hue of each pixel, the minimum value in each component is determined from all the component values. It can be said that the saturation can be enhanced by subtracting and enlarging the difference value.
[0108]
First, a saturation enhancement parameter Sratio that is advantageous for calculation from the saturation enhancement index S described above,
Sratio = (S + 100) / 100 (14)
Asking. In this case, when the saturation enhancement index S = 0, the saturation enhancement parameter Sratio = 1 and no saturation enhancement is performed. Next, assuming that the component value of blue (B) in each component (R, G, B) of the RGB gradation data is the minimum value, conversion is performed as follows using this saturation emphasis parameter Sratio.
[0109]
R ′ = B + (R−B) × Sratio (15)
G ′ = B + (GB) × Sratio (16)
B ′ = B (17)
As a result, it is not necessary to perform two-time color conversion between the RGB color space and the Luv space, so that the calculation time can be reduced. In this embodiment, the method of simply subtracting the minimum value component from the other component values for the achromatic component is adopted, but another conversion formula is adopted for subtracting the achromatic component. It doesn't matter if you do it. However, when only the minimum value is subtracted as in equations (15) to (17), there is an effect that the amount of calculation becomes easy because multiplication and division are not involved.
[0110]
Even when the equations (15) to (17) are adopted, good conversion is possible, but in this case, when the saturation is emphasized, there is a tendency that the luminance is improved and the entire image becomes brighter. Therefore, in the next modification, the conversion is performed on the difference value obtained by subtracting the luminance equivalent value from each component value.
[0111]
First, since the amount of calculation becomes large if the color conversion to the above-described Luv space is performed in order to obtain the luminance, the following conversion equation for obtaining the luminance directly from RGB used in the case of a television or the like: Is used.
[0112]
Y = 0.30R + 0.59G + 0.11B (18)
On the other hand, saturation enhancement
R ′ = R + ΔR (19)
G ′ = G + ΔG (20)
B ′ = B + ΔB (21)
And These addition / subtraction values ΔR, ΔG, ΔB are obtained by the following equation based on the difference value from the luminance. That is,
ΔR = (R−Y) × Sratio (22)
ΔG = (G−Y) × Sratio (23)
ΔB = (BY) × Sratio (24)
And as a result,
R ′ = R + (R−Y) × Sratio (25)
G ′ = G + (G−Y) × Sratio (26)
B ′ = B + (BY) × Sratio (27)
Can be converted as In addition, the preservation | save of a brightness | luminance is clear from following Formula.
[0113]
Figure 0004126509
Further, when the input is gray (R = G = B), the luminance Y = R = G = B, so the addition / subtraction value ΔR = ΔG = ΔB = 0, and the achromatic color is not colored. . If the formulas (25) to (27) are used, the luminance is preserved, and even if the saturation is enhanced, the overall brightness does not increase.
[0114]
In order to convert the image data in step S114, the RGB gradation data (R ′, G ′, B ′) after conversion is obtained from the RGB gradation data of each pixel by any one of these methods. This is performed for all pixels.
[0115]
Next, the operation of the present embodiment having the above configuration will be described step by step.
[0116]
Assuming that a photograph is taken by the scanner 11 or the like, image data representing the photograph as RGB gradation data is taken into the computer 21, and the CPU executes the image processing program shown in FIG. Execute processing that emphasizes.
[0117]
First, in step S102, the image data is thinned out within a predetermined error range, and the saturation X for the selected pixel is obtained to collect the distribution. Since the distribution as it is cannot be used, it is first determined in step S104 whether the image is a binary image such as black and white, and in step S106, it is determined whether it is a natural image. Except when the image is a binary image or not a natural image, in step S108, it is determined whether the image data has a frame portion, and if there is a frame portion, the saturation distribution obtained by removing the frame portion is determined for the upper predetermined distribution range. Find the minimum saturation A.
[0118]
When this saturation A is obtained, a saturation index (saturation emphasis index) S is determined based on the following equation from the range of saturation “A”.
[0119]
If A <92
S = −A × (10/92) +50 (5)
If 92 ≦ A <184
S = −A × (10/46) +60 (6)
If 184 ≤ A <230
S = −A × (10/23) +100 (7)
If 230 ≦ A
S = 0 (8)
Based on the saturation emphasis index S thus obtained, the image data is converted in step S114. As an example, when the RGB gradation data is directly used while preserving the luminance,
R ′ = R + (R−Y) × Sratio (25)
G ′ = G + (G−Y) × Sratio (26)
B ′ = B + (BY) × Sratio (27)
The image data for all the pixels is converted on the basis of the above expressions. As a result, even in the case of a photograph that has been taken with weak saturation, it is possible to emphasize the saturation changing in a narrow range and to make a vivid image. After that, if it is output to the display 32, if it is output as RGB, a colorful image is reproduced on the screen, and if it is output to the printer 31, it is converted into the CMYK color space of color ink. After that, by performing gradation conversion and printing out, a colorful image is reproduced on the paper surface.
[0120]
Of course, as described above, such image processing is not performed when the image is not a binary image or a natural image. Further, in the above-described embodiment, the condition for selecting the saturation emphasis index is constant, but the user may be able to select on the computer 21 via a predetermined GUI. In this way, it is possible to automatically convert to an optimum range based on the value set by the user. In particular, the hue may not always be preserved if it is not converted to the Luv space. In such a case, the saturation enhancement index S is weakened to prevent the rotation of the pigment. It is only necessary to be able to ignore the hue shift. Furthermore, the above-described plurality of conversion methods can be selected, and an optimum saturation enhancement index setting may be prepared in accordance with each of them. It is also possible for the user to designate a part of the image data and execute the saturation enhancement process only within the range.
[0121]
Thus, after obtaining the saturation distribution for the pixels of the image data while thinning out in step S102, the saturation of the image is obtained using the lowest saturation in the range occupied by the upper predetermined distribution ratio. At the same time, since the saturation enhancement index S is obtained by the degree of saturation conversion (step S112), it becomes possible to automatically determine the degree of saturation enhancement different for each image. By converting the image data by a predetermined saturation enhancement conversion formula (step S114), the saturation of the image can be made vivid.
[Brief description of the drawings]
FIG. 1 is a block diagram of an image processing system to which an image processing apparatus according to an embodiment of the present invention is applied.
FIG. 2 is a block diagram illustrating a specific hardware configuration example of the image processing apparatus.
FIG. 3 is a schematic block diagram illustrating another application example of the image processing apparatus of the present invention.
FIG. 4 is a schematic block diagram illustrating another application example of the image processing apparatus of the present invention.
FIG. 5 is a flowchart showing saturation conversion processing in the image processing apparatus of the present invention.
FIG. 6 is a diagram illustrating coordinates in a conversion source image.
FIG. 7 is a diagram showing a sampling period.
FIG. 8 is a diagram illustrating the number of sampling pixels.
FIG. 9 is a diagram illustrating a relationship between a conversion source image and sampled pixels.
FIG. 10 is a schematic view of a total state of saturation distribution.
FIG. 11 is a diagram illustrating a monochrome image.
FIG. 12 is a diagram illustrating a saturation distribution of a black and white image.
FIG. 13 is a diagram illustrating a saturation distribution when the image is not a natural image.
FIG. 14 is a diagram illustrating an image having a frame portion.
FIG. 15 is a diagram illustrating a saturation distribution of an image having a frame portion.
FIG. 16 is a diagram illustrating a relationship between saturation A and saturation enhancement index S.
FIG. 17 is a diagram illustrating a saturation emphasis limit in the Luv space.
[Explanation of symbols]
10. Image input device
11 ... Scanner
11b ..., scanner
12 ... Digital still camera
12a ... Digital still camera
12b ... Digital still camera
13b Modem
20 Image processing apparatus
21 ... Computer
22 ... Hard disk
30. Image output device
31 ... Printer
31a ... Printer
31b ... Printer
32 ... Display
32a ... Display

Claims (16)

ドットマトリクス状の各画素の情報を表す画像データに対して所定の画像処理を行う画像処理装置であって、
上記画像データにおける各画素の彩度の分布を集計する彩度分布集計手段と、この彩度分布集計手段にて集計された彩度の分布状況から画像データの彩度を変換する程度を判定する彩度変換度判定手段と、判定された変換の程度に基づいて画像データにおける彩度を表す情報を新たな画像データに変換する画像データ変換手段とを具備し、
上記彩度分布集計手段は、無彩度に集中して突出する分布を枠部と判定し、当該枠部があれば枠部のデータについては彩度の分布の検出に利用しないことを特徴とする画像処理装置。
An image processing apparatus that performs predetermined image processing on image data representing information of each pixel in a dot matrix ,
Saturation distribution counting means for counting the saturation distribution of each pixel in the image data, and determining the degree of conversion of the saturation of the image data from the saturation distribution status totaled by the saturation distribution counting means comprising a saturation conversion determining unit, and an image data converting means for converting the information representing the saturation in the new shelf image data in the image data based on the determined degree of conversion,
The saturation distribution aggregation means determines that a distribution that concentrates and projects in achromatic saturation is a frame portion, and if there is the frame portion, the data of the frame portion is not used for detection of the saturation distribution. An image processing apparatus.
上記請求項1に記載の画像処理装置において、画像データの色成分を赤(=R)、緑(=G)、青(=B)で表せるときに彩度(=X)を次式で表すことを特徴とする画像処理装置。
X=|G+B−2×R|
In the image processing apparatus according to claim 1, when the color component of the image data can be represented by red (= R), green (= G), and blue (= B), the saturation (= X) is represented by the following equation. An image processing apparatus.
X = | G + B-2 × R |
上記請求項1または請求項2のいずれかに記載の画像処理装置において、画像データについて所定の抽出率に対応した間引きを行って彩度の分布状況を求めることを特徴とする画像処理装置。  3. The image processing apparatus according to claim 1, wherein a saturation distribution state is obtained by thinning out image data corresponding to a predetermined extraction rate. 上記請求項3に記載の画像処理装置において、上記所定の抽出率は、画像データにおける第1の方向の画素数と前記第1の方向と直交する第2の方向の画素数のうち、画素数が少ない方向において所定の抽出画素数を抽出可能な抽出率であることを特徴とする画像処理装置。  4. The image processing apparatus according to claim 3, wherein the predetermined extraction rate is the number of pixels among the number of pixels in the first direction and the number of pixels in the second direction orthogonal to the first direction in the image data. An image processing apparatus characterized in that the extraction rate is such that a predetermined number of extracted pixels can be extracted in a direction in which the number of extracted pixels is small. 上記請求項1〜請求項4のいずれかに記載の画像処理装置において、上記彩度変換度判定手段は、集計された彩度の分布状況にて上端から所定割合となった彩度が、彩度が取り得る数値範囲の中で低い値であるほどに、彩度の強調程度を高めるようにして彩度の変換程度を判定することを特徴とする画像処理装置。  The image processing apparatus according to any one of claims 1 to 4, wherein the saturation conversion degree determining means has a saturation that is a predetermined ratio from the upper end in the aggregated distribution of saturations. An image processing apparatus that determines the degree of saturation conversion by increasing the degree of saturation enhancement as the degree is lower in a numerical range that the degree can take. 上記請求項1〜請求項5のいずれかに記載の画像処理装置において、画像データの輝度が、輝度が取り得る数値範囲の中で低い値であるほどに、彩度の変換程度を弱めることを特徴とする画像処理装置。  6. The image processing apparatus according to claim 1, wherein the degree of saturation conversion is reduced as the luminance of the image data is a lower value in a numerical range that the luminance can take. A featured image processing apparatus. 上記請求項1〜請求項6のいずれかに記載の画像処理装置において、彩度分布に基づいて二値画像データを判定するとともに、二値画像データであれば彩度の変換を行わないことを特徴とする画像処理装置。  The image processing apparatus according to any one of claims 1 to 6, wherein binary image data is determined based on a saturation distribution, and saturation conversion is not performed for binary image data. A featured image processing apparatus. 上記請求項7に記載の画像処理装置において、無彩度に彩度分布が集中しているときに白黒の二値画像データであると判断することを特徴とする画像処理装置。  8. The image processing apparatus according to claim 7, wherein the image processing apparatus determines that the binary image data is black and white when the saturation distribution is concentrated in achromaticity. 上記請求項1〜請求項8のいずれかに記載の画像処理装置において、画像データが自然画でない場合に彩度の変換を行わないことを特徴とする画像処理装置。  9. The image processing apparatus according to claim 1, wherein saturation conversion is not performed when the image data is not a natural image. 上記請求項9に記載の画像処理装置において、彩度分布がスペクトル状に存在する場合に上記画像データが自然画でないと判定する自然画判定手段を備えることを特徴とする画像処理装置。  The image processing apparatus according to claim 9, further comprising a natural image determination unit that determines that the image data is not a natural image when the saturation distribution exists in a spectral form. 上記請求項1〜請求項10のいずれかに記載の画像処理装置において、彩度の変換は標準表色系であるLuv空間内で上記変換程度に応じて半径方向に変移させて行うことを特徴とする画像処理装置。  11. The image processing apparatus according to claim 1, wherein the saturation conversion is performed by shifting in the radial direction in accordance with the degree of conversion in the Luv space which is a standard color system. An image processing apparatus. 上記請求項1〜請求項10のいずれかに記載の画像処理装置において、画像データが複数の概略対等な色相成分の成分値で示されるときに無彩度成分を除いた成分値を変換程度に応じて変移させて彩度の変換を行うことを特徴とする画像処理装置。  The image processing apparatus according to any one of claims 1 to 10, wherein when the image data is represented by component values of a plurality of substantially equal hue components, the component value excluding the achromatic component is converted to a degree of conversion. An image processing apparatus characterized by performing a conversion of saturation by changing in response. 上記請求項12に記載の画像処理装置において、複数の色相成分における最小成分値を他の成分値から差し引いた差分値を上記変換程度に応じて増減させて彩度の変換を行うことを特徴とする画像処理装置。  13. The image processing apparatus according to claim 12, wherein a saturation value is converted by increasing or decreasing a difference value obtained by subtracting a minimum component value of a plurality of hue components from other component values according to the degree of conversion. An image processing apparatus. 上記請求項12に記載の画像処理装置において、各成分値から輝度の相当値を減算した差分値を上記変換程度に応じて増減させて彩度の変換を行うことを特徴とする画像処理装置。  13. The image processing apparatus according to claim 12, wherein a saturation value is converted by increasing or decreasing a difference value obtained by subtracting a luminance equivalent value from each component value in accordance with the degree of conversion. ドットマトリクス状の各画素の情報を表した画像データに対して所定の画像処理を行う画像処理方法であって、
各画素での彩度に基づいて全体としての彩度の分布を集計し、集計された彩度の分布状況から画像データの彩度を変換する程度を判定するとともに、判定された変換の程度に基づいて画像データにおける彩度を表す情報を新たな画像データに変換し、
かつ、上記彩度の分布の集計の際には、無彩度に集中して突出する分布を枠部と判定し、当該枠部があれば枠部のデータについては彩度の分布の検出に利用しないことを特徴とする画像処理方法。
An image processing method for performing predetermined image processing on image data representing information of each pixel in a dot matrix ,
The total saturation distribution is totaled based on the saturation at each pixel, and the degree of conversion of the saturation of the image data is determined from the aggregated distribution of saturation, and the determined conversion level based converts information indicating a saturation of the image data to the new shelf image data,
In addition, when summing up the above saturation distribution, a distribution that concentrates and projects in achromatic state is determined as a frame portion, and if there is such a frame portion, the data of the frame portion is used to detect the saturation distribution. An image processing method characterized by not being used.
ドットマトリクス状の各画素の情報を表した画像データに対する所定の画像処理をコンピュータに実行させる画像処理プログラムを記録した、コンピュータにて読み取り可能な記録媒体であって、
上記画像データを入力し、各画素での彩度に基づいて全体としての彩度の分布を集計するステップと、集計された彩度の分布状況から画像データの彩度を変換する程度を判定するステップと、判定された変換の程度に基づいて画像データにおける彩度を表す情報を新たな画像データに変換するステップとを備え、かつ上記彩度の分布の集計の際には、無彩度に集中して突出する分布を枠部と判定し、当該枠部があれば枠部のデータについては彩度の分布の検出に利用しないことを特徴とする画像処理プログラムを記録したコンピュータにて読み取り可能な記録媒体。
A computer-readable recording medium on which an image processing program for causing a computer to execute predetermined image processing on image data representing information of each pixel in a dot matrix is recorded,
Input the image data, and totalize the distribution of saturation based on the saturation at each pixel, and determine the degree of conversion of the saturation of the image data from the aggregated distribution of saturation a method, based on the determined degree of conversion and a step of converting the information representing the chroma of the image data to the new shelf image data, and when the aggregate distribution of the saturation, Muirodorido A distribution that concentrates and protrudes into a frame is determined as a frame, and if there is such a frame, the data of the frame is not used for detection of the saturation distribution, and is read by a computer that records an image processing program. Possible recording media.
JP30743997A 1996-11-18 1997-11-10 Image processing apparatus, image processing method, and medium on which image processing program is recorded Expired - Fee Related JP4126509B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30743997A JP4126509B2 (en) 1996-11-18 1997-11-10 Image processing apparatus, image processing method, and medium on which image processing program is recorded

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP30637096 1996-11-18
JP8-306370 1996-11-18
JP30743997A JP4126509B2 (en) 1996-11-18 1997-11-10 Image processing apparatus, image processing method, and medium on which image processing program is recorded

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2002179778A Division JP3646798B2 (en) 1996-11-18 2002-06-20 Image processing apparatus, image processing method, and medium on which image processing program is recorded

Publications (2)

Publication Number Publication Date
JPH10200777A JPH10200777A (en) 1998-07-31
JP4126509B2 true JP4126509B2 (en) 2008-07-30

Family

ID=26564684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30743997A Expired - Fee Related JP4126509B2 (en) 1996-11-18 1997-11-10 Image processing apparatus, image processing method, and medium on which image processing program is recorded

Country Status (1)

Country Link
JP (1) JP4126509B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6980326B2 (en) 1999-12-15 2005-12-27 Canon Kabushiki Kaisha Image processing method and apparatus for color correction of an image
WO2003041013A1 (en) * 2001-11-05 2003-05-15 Sharp Kabushiki Kaisha Color image processing method, color image processor, color display, computer program for implementing the color image processing method
JP4189328B2 (en) 2004-01-16 2008-12-03 セイコーエプソン株式会社 Image processing apparatus, image display apparatus, image processing method, and image processing program
JP4661579B2 (en) * 2005-12-21 2011-03-30 富士ゼロックス株式会社 Image processing apparatus, image processing method, and program
JP4626534B2 (en) * 2006-02-16 2011-02-09 パナソニック株式会社 Image processing apparatus and method, program, and recording medium
JP4626533B2 (en) * 2006-02-16 2011-02-09 パナソニック株式会社 Image processing apparatus and method, program, and recording medium

Also Published As

Publication number Publication date
JPH10200777A (en) 1998-07-31

Similar Documents

Publication Publication Date Title
CN101253760A (en) Image processing apparatus and method thereof
JPH10198802A (en) Image processor, image processing method, and medium recording image processing program
JP4126509B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP4844686B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JPH11120325A (en) Image evaluating method, medium where image evaluating program is recorded, and image evaluating device
JP3646798B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP3693086B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP3981779B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP3972192B2 (en) Image processing apparatus and image processing method
US7123378B2 (en) Image processing apparatus, method and program enabling high-precision color conversion
JP2003051947A5 (en)
JP3953897B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP2003050997A5 (en)
JP3985109B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
CN111047653A (en) Dominant hue determination method, device, equipment and readable medium
JP2002094826A (en) Image processing unit, image forming unit and method for processing image
JP3736632B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP3698205B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP3664395B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP2003085546A5 (en)
JPH10191089A (en) Color converter, color printer, color image data output device and recording medium
JP2011139373A (en) Black color determining apparatus and black color determining method
JP3596614B2 (en) Image processing apparatus, image processing method, and medium recording image processing program
JP3985147B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP4123387B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070926

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080416

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080429

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120523

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120523

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130523

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140523

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees