JP4080252B2 - Image processing apparatus, image forming apparatus, image processing method, program, and recording medium - Google Patents

Image processing apparatus, image forming apparatus, image processing method, program, and recording medium Download PDF

Info

Publication number
JP4080252B2
JP4080252B2 JP2002171802A JP2002171802A JP4080252B2 JP 4080252 B2 JP4080252 B2 JP 4080252B2 JP 2002171802 A JP2002171802 A JP 2002171802A JP 2002171802 A JP2002171802 A JP 2002171802A JP 4080252 B2 JP4080252 B2 JP 4080252B2
Authority
JP
Japan
Prior art keywords
determination
image processing
density
unit
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002171802A
Other languages
Japanese (ja)
Other versions
JP2004023174A (en
Inventor
雅範 南
牧生 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2002171802A priority Critical patent/JP4080252B2/en
Publication of JP2004023174A publication Critical patent/JP2004023174A/en
Application granted granted Critical
Publication of JP4080252B2 publication Critical patent/JP4080252B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像データが、たとえば文字原稿のものであるのかまたは写真原稿のものであるのかなどの原稿種別を判定し、その判定結果に対応した画像処理を行う画像処理装置、画像形成装置、画像処理方法、プログラムおよび記録媒体に関する。
【0002】
【従来の技術】
デジタル複写機などの画像処理を行う装置において、読取られる原稿には、文字、線画、写真およびこれらを組合わせたものなど、種々の種別がある。これらの画像の種別にはそれぞれに特徴を有しており、その特徴に適合した画像処理を施すことによって、原稿画像をより良好に再現することができる。
【0003】
このため、従来では、画像形成装置にそれぞれの原稿種別に適した画像処理を行う画像処理モードを設定しておき、ユーザがセットした原稿に適切と思われる画像処理モードを選択して、複写を行う方法が採られていた。しかしながら、そのようなモード選択作業は煩わしく、また不適切なモードを選択してしまうと、再現画像が著しく劣化し、無駄な複写を行うことになる。さらにまた、画像処理モードの選択機能があること自体を、ユーザが知らないこともある。
【0004】
そこで、このような不具合を解消するために、特開平8−251406号公報には、画像形成装置が原稿の種別を自動的に判定し、それぞれに適した画像処理を選択して実行する構成が提案されている。この先行技術における原稿種別判定方法を説明すると、以下のとおりである。
【0005】
先ず、入力画像を微小領域に分割して、分割した各ブロック毎にエッジ判定および網点判定を行い、線画部・中間調画部・連続調画部・地肌部に分類する。次に、前記線画部・中間調画部・連続調画部の連続性および頻度をカウントし、それらが閾値を超えるか否かによって、頁画像種の判定を行う。ここで、連続性とは、同じ種別として分類されたブロックの主走査方向および副走査方向の連続数であり、頻度とは、前記同じ種別として分類されたブロックの数であり、共に原稿種別を判定するための特徴量(パラメータ)である。
【0006】
こうして、入力画像は、判定によって、▲1▼線画、▲2▼中間調画、▲3▼連続調画、▲4▼線画と中間調画、▲5▼線画と連続調画、▲6▼中間調画と連続調画、▲7▼線画と中間調画と連続調画に分類され、それぞれに対応した画像処理が選択され、最適なフィルタ・色補正・セレクタおよび階調処理が行われる。
【0007】
【発明が解決しようとする課題】
しかしながら、上述のような従来技術では、各ブロックのエッジ判定および網点判定の際に、画素の濃度が、単純に閾値を超えているか否かによって判定を行っている。また、1頁全体での頁画像種の判定も、線画部・中間調画部・連続調画部・地肌部の連続性および頻度が、閾値以上となるか否かによって行われている。このように、得られた特徴量を個別に閾値と比べる判定方法では、閾値付近の値の場合、僅かな特徴量の違いで異なる判定結果になるので、期待する判定結果が得られなかったり、またそのようなことにならないようにするために、閾値の設定に手間がかかったりするという問題がある。
【0008】
本発明の目的は、原稿種別を適切に判定することができる画像処理装置、画像形成装置、画像処理方法、プログラムおよび記録媒体を提供することである。
【0009】
【課題を解決するための手段】
本発明の画像処理装置は、原稿種別判定手段で画像データの原稿種別を判定し、その判定結果に対応した画像処理を前記画像データに施して出力画像データを得るようにした画像処理装置において、前記原稿種別判定手段は、前記原稿種別を判定するための特徴量を前記画像データから抽出する特徴量抽出部と、前記特徴量抽出部で抽出された特徴量を、予め定める判定式に代入して、その演算結果から原稿種別の判定を行う判定部とを含むことを特徴とする。
【0010】
上記の構成によれば、特徴量抽出部が、濃度データなどの原稿種別を判定するのに使用する特徴量(パラメータ)を求めても、それから直接に判定するのではなく、判定部において、一旦判定式に代入し、その演算結果から原稿種別の判定を行う。
【0011】
したがって、予想される特徴量の範囲で、種々の特徴量の組合わせに対応した適切な判定結果から、前記判定式の構造や係数を適宜設定しておくことで、求められた特徴量を前記判定式に代入するだけで、原稿種別を適切に判定することができる。これによって、最適な画像処理を行うことができ、良好な出力画像を得ることができる。また、前記判定式の構造や係数の工夫などによって、精細な判定が可能になる。さらにまた、判定のために記憶しておくことは、前記判定式や係数などであり、少ないメモリ容量で対応することができる。
【0012】
また、本発明の画像処理装置は、原稿種別判定手段で画像データの原稿種別を判定し、その判定結果に対応した画像処理を前記画像データに施して出力画像データを得るようにした画像処理装置において、前記原稿種別判定手段は、前記原稿種別を判定するための特徴量を前記画像データから抽出する特徴量抽出部と、前記特徴量抽出部で抽出された特徴量から、ルックアップテーブルを参照して、対応する原稿種別の判定結果を読出す判定部とを含むことを特徴とする。
【0013】
上記の構成によれば、特徴量抽出部が原稿種別を判定するのに使用する特徴量を求めても、それから直接に判定するのではなく、判定部において、ルックアップテーブルを参照し、その参照結果から原稿種別の判定を行う。
【0014】
したがって、予想される特徴量の範囲で、種々の特徴量の組合わせに対応した適切な判定結果から、前記ルックアップテーブルを適宜設定しておくことで、求められた特徴量から前記ルックアップテーブルを参照するだけで、原稿種別を適切に判定することができる。これによって、最適な画像処理を行うことができ、良好な出力画像を得ることができる。また、前記ルックアップテーブルを用いることによって、複雑な判定を高速で行うことができる。
【0015】
さらにまた、本発明の画像処理装置では、前記判定部は、前記特徴量抽出部で抽出された複数の特徴量を判定に適した形態に変換した後、該判定に利用すること特徴とする。
【0016】
上記の構成によれば、前記特徴量抽出部で抽出された複数の特徴量に対して、たとえば比率や差分を求め、さらに文字度や写真度などの判定に適した形態に変換した後、判定に利用するので、前記判定式を簡略化することができる。
【0017】
また、本発明の画像形成装置は、前記の画像処理装置を備えることを特徴とする。
【0018】
上記の構成によれば、複写機やプリンタなどの画像処理装置において、原稿種別の判定精度が向上し、最適な画像処理が行われるので、品質の良い画像を出力することができるようになる。
【0019】
さらにまた、本発明の画像処理方法は、画像データの原稿種別を判定し、その判定結果に対応した画像処理を前記画像データに施して出力画像データを得るようにした画像処理方法において、前記原稿種別の判定を、前記原稿種別を判定するための特徴量を前記画像データから抽出するステップと、前記特徴量の抽出ステップで抽出された特徴量を、予め定める判定式に代入して、その演算結果から原稿種別の判定を行うステップとを含んで行うことを特徴とする。
【0020】
上記の構成によれば、特徴量の抽出ステップで原稿種別を判定するのに使用する特徴量を求めても、それから直接に判定するのではなく、判定ステップにおいて、一旦判定式に代入し、その演算結果から原稿種別の判定を行う。
【0021】
したがって、予想される特徴量の範囲で、種々の特徴量の組合わせに対応した適切な判定結果から、前記判定式の構造や係数を適宜設定しておくことで、求められた特徴量を前記判定式に代入するだけで、原稿種別を適切に判定することができる。これによって、最適な画像処理を行うことができ、良好な出力画像を得ることができる。また、前記判定式の構造や係数の工夫などによって、精細な判定が可能になる。さらにまた、判定のために記憶しておくことは、前記判定式や係数などであり、少ないメモリ容量で対応することができる。
【0022】
また、本発明の画像処理方法は、画像データの原稿種別を判定し、その判定結果に対応した画像処理を前記画像データに施して出力画像データを得るようにした画像処理方法において、前記原稿種別の判定を、前記原稿種別を判定するための特徴量を前記画像データから抽出するステップと、前記特徴量の抽出ステップで抽出された特徴量から、ルックアップテーブルを参照して、対応する原稿種別の判定結果を読出すステップとを含んで行うことを特徴とする。
【0023】
上記の構成によれば、特徴量の抽出ステップで原稿種別を判定するのに使用する特徴量を求めても、それから直接に判定するのではなく、判定ステップにおいて、ルックアップテーブルを参照し、その参照結果から原稿種別の判定を行う。
【0024】
したがって、予想される特徴量の範囲で、種々の特徴量の組合わせに対応した適切な判定結果から、前記ルックアップテーブルを適宜設定しておくことで、求められた特徴量から前記ルックアップテーブルを参照するだけで、原稿種別を適切に判定することができる。これによって、最適な画像処理を行うことができ、良好な出力画像を得ることができる。また、前記ルックアップテーブルを用いることによって、複雑な判定を高速で行うことができる。
【0025】
さらにまた、本発明のプログラムは、前記の画像処理方法をコンピュータに実行させることを特徴とする。
【0026】
上記の構成によれば、前記判定式やルックアップテーブルを用いて原稿種別の判定を行うという画像処理方法のプログラムをコンピュータに読取らせ、実行させることができるので、この画像処理方法を汎用的なものとすることができる。
【0027】
また、本発明の記録媒体は、前記のプログラムをコンピュータが読取り可能に格納したことを特徴とする。
【0028】
上記の構成によれば、前記判定式やルックアップテーブルを用いて原稿種別の判定を行うという画像処理方法のプログラムを、コンピュータに容易に読込ませることができる。
【0029】
【発明の実施の形態】
本発明の実施の一形態について図1〜図8に基づいて説明すれば、以下のとおりである。
【0030】
図1は、本発明の実施の一形態のデジタルカラー複写機1の電気的構成を示すブロック図である。この複写機1は、大略的に、スキャナなどによって構成され、原稿画像を読取るカラー画像入力装置2と、そのカラー画像入力装置2で読取られたデータから、後述するようにして原稿画像の種別を判定し、その判定結果に応じた画像処理を施す本発明に係るカラー画像処理装置3と、前記カラー画像処理装置3で画像処理が施されたデータを、電子写真プロセスを用いて用紙に記録するカラー画像出力装置4とを備えて構成される。
【0031】
前記カラー画像入力装置2は、たとえば図示しないCCD(Charge Coupled Device )を備えたスキャナ部によって構成され、原稿からの反射光像を前記CCDにて読取って、RGB(R:赤・G:緑・B:青)の各色成分に分解し、その各色成分のアナログ信号をカラー画像処理装置3へ出力する。
【0032】
前記カラー画像処理装置3は、A/D(アナログ/デジタル)変換部11と、シェーディング補正部12と、原稿種別判定部13と、入力階調補正部14と、領域分離処理部15と、色補正部16と、黒生成下色除去部17と、空間フィルタ処理部18と、出力階調補正部19と、階調再現処理部20とを備えて構成されている。そして、前記カラー画像入力装置2で読取られたRBGのアナログ信号は、該カラー画像処理装置3内の上記各部11〜20を順に通過し、CMYKのデジタルカラー信号として、前記カラー画像出力装置4へ出力される。
【0033】
前記A/D変換部11は、前記RGBのアナログ信号をデジタル信号に変換する。前記シェーディング補正部12は、前記A/D変換部11からのデジタルのRGB信号に対して、前記カラー画像入力装置2の照明系、結像系、撮像系などで生じる各種の歪みを取除く処理を施す。
【0034】
前記原稿種別判定部(原稿種別判定手段)13は、前記シェーディング補正部12にて各種の歪みが取除かれたRGB信号を、濃度信号などのカラー画像処理装置3に採用されている画像処理システムにとって扱い易い信号に変換し、さらに補色反転して、CMY(C:シアン・M:マゼンタ・Y:イエロー)信号とする。また、入力された原稿画像の原稿種別を、文字から成る文字原稿、写真から成る写真原稿(印刷写真・印画紙写真)、またはそれらが混在する文字/写真原稿に分類する。分類結果を示す原稿種別判定信号は、後段の入力階調補正部14、領域分離処理部15、色補正部16、黒生成下色除去部17、空間フィルタ処理部18および階調再現処理部20に与えられる。本発明に係るこの原稿種別判定部13の詳細な構成は、後述する。
【0035】
前記入力階調補正部14は、CMY信号のカラーバランスを整えるとともに、適切な下地濃度の除去やコントラスト調整などの画質調整処理を行う。前記領域分離処理部15は、CMY信号から、入力画像中の各画素を文字領域、網点領域、写真領域の何れかに分離するものである。この領域分離処理部15は、分離結果に基づいて、画素がどの領域に属しているかを示す領域識別信号を、後段の色補正部16、黒生成下色除去部17、空間フィルタ処理部18および階調再現処理部20に与えるとともに、入力階調補正部よって出力された入力信号を、そのまま後段の色補正部16へ出力する。前記色補正部16は、色を忠実に再現するために、不要吸収成分を含むCMY色材の分光特性に基づいた色濁りを取除く処理を行う。
【0036】
前記黒生成下色除去部17は、色補正後のCMYの3色信号から黒(K)信号を生成する黒生成、元のCMY信号から黒生成で得たK信号を差引いて新たなCMY信号を生成する処理を行うものであって、CMYの3色信号はCMYKの4色信号に変換される。前記黒生成処理としては、一般的にスケルトンブラックによって黒生成を行なう方法が用いられる。この方法では、スケルトンカーブの入出力特性をy=f(x)、入力されるデータをC,M,Y,出力されるデータをC’,M’,Y’,K’、UCR(Under Color Removal )率をα(0<α<1)とすると、黒生成下色除去処理は、以下の式で表わされる。
【0037】
K’=f{min(C,M,Y)}
C’=C−αK’
M’=M−αK’
Y’=Y−αK’
前記空間フィルタ処理部18は、前記黒生成下色除去部17から入力されたCMYK信号の画像データに対して、前記領域識別信号を基に、デジタルフィルタによる空間フィルタ処理を行い、空間周波数特性を補正することによって、出力画像のぼやけや粒状性劣化を防ぐように処理するものである。また、前記階調再現処理部20も、空間フィルタ処理部18と同様に、CMYK信号の画像データに対して、領域識別信号を基に所定の処理を施すものである。
【0038】
たとえば、領域分離処理部15で文字に分離された領域は、特に黒文字あるいは色文字の再現性を高めるために、空間フィルタ処理部18での空間フィルタ処理における鮮鋭強調処理で高域周波数の強調量が大きくされる。同時に、階調再現処理部20においては、前記高域周波数の再現に適した高解像度のスクリーンでの二値化または多値化処理が選択される。
【0039】
また、領域分離処理部15にて網点に分離された領域に関しては、空間フィルタ処理部18において、入力網点成分を除去するためのローパス・フィルタ処理が施される。そして、出力階調補正部19では、濃度信号などの信号をカラー画像出力装置4の特性値である網点面積率に変換する出力階調補正処理を行った後、階調再現処理部20で、最終的に画像を画素に分離してそれぞれの階調を再現できるように処理する階調再現処理(中間調生成)が施される。領域分離処理部15にて写真に分離された領域に関しては、階調再現性を重視したスクリーンでの二値化または多値化処理が行われる。
【0040】
上述のような各部11〜20の動作は、たとえばCPU(Central Processing Unit )などの図示しない制御手段によって制御される。また、上述した各処理が施された画像データは、一旦図示しない記憶手段に記憶され、所定のタイミングで読出されて、カラー画像出力装置4に入力される。
【0041】
前記カラー画像出力装置4は、画像データを印字媒体(例えば紙等)上に出力するものであり、前述のような電子写真方式に限らず、インクジェットなどの他の方式を用いたものでもよい。
【0042】
図2は、前記原稿種別判定部13の一構成例を示すブロック図である。この原稿種別判定部13は、信号変換部21と、ヒストグラム作成部22と、第1最大度数濃度区分抽出部23と、第2最大度数濃度区分抽出部24と、認識部25と、記憶部26と、判定部27とを備えて構成される。
【0043】
前記信号変換部21は、前記シェーディング補正部12からのRGBの反射率信号を濃度信号に変換し、さらに補色反転して、CMY信号に変換する。前記ヒストグラム作成部22は、入力された画像における全画素から低濃度の画素を除いた画素を、一定の範囲の濃度区分に分類し、各濃度区分の使用頻度を表す度数を表示する濃度ヒストグラム(画素濃度の頻度分布)を作成する。この濃度ヒストグラムの一例を、図3および図4に示す。
【0044】
前記第1最大度数濃度区分抽出部23は、前記濃度ヒストグラムから、最大度数の濃度区分、すなわち1番頻度の高い画素濃度を選択し、その度数を第1最大度数値P1として抽出する。また、全画素数から低濃度部LOを除いた総画素数P0に対する前記第1最大度数値P1の比率、P1/P0を求める。
【0045】
同様に、前記第2最大度数濃度区分抽出部24は、前記濃度ヒストグラムにおいて、前記第1最大度数値P1の濃度区分およびこの濃度区分に隣接する濃度区分以外で、最大度数の濃度区分を選択し、その度数を第2最大度数値P2として抽出する。また、第1最大度数値P1と第2最大度数値P2との差を求め、低濃度部LOを除いた総画素数P0に対する比率の逆数、すなわちP0/(P1−P2)を求める。
【0046】
ここで、前記図3を参照して、この図3は、文字原稿の濃度ヒストグラムを表している。この文字原稿の特徴としては、下地部分が多く、1つの濃度に偏っていることが挙げられる。よって、ヒストグラムは、下地部分である低濃度部L0を除くと、或る濃度区分の度数が高くなる。つまり、総画素数P0に対して第1最大度数値P1の割合が高くなる。したがって、前記総画素数P0に対する前記第1最大度数値P1の比率P1/P0が大きくなると、文字原稿の可能性が高くなる。
【0047】
これに対して、前記図4を参照して、この図4は、写真原稿の濃度ヒストグラムを表している。この写真原稿の特徴としては、濃度に偏りがないことが挙げられる。つまり、前記第1最大度数値P1と第2最大度数値P2との差が小さくなる。したがって、前記第1最大度数値P1と第2最大度数値P2との差の総画素数P0に対する比率の逆数P0/(P1−P2)が大きくなると、写真原稿の可能性が高くなる。
【0048】
また、文字/写真原稿は、前記文字原稿と写真原稿との両者の特性を併せ持つので、ある濃度区分の度数が高く、総画素数P0に対して、第1最大度数値P1の比率P1/P0および第1最大度数値P1と第2最大度数値P2との差の比率の逆数P0/(P1−P2)が共に小さくなる。
【0049】
前記記憶部26は、図5(a)で示すように、前記比率P1/P0の変化に対して、文字原稿の可能性である文字度x1の変化を表す関数曲線のデータを格納しているとともに、図5(b)で示すように、前記比率の逆数P0/(P1−P2)の変化に対して、写真原稿の可能性である写真度x2の変化を表す関数曲線のデータを格納している。
【0050】
前記文字度x1および写真度x2は、実際に文字原稿または写真原稿である可能性を0から1までの数値で表したものである。このような関数曲線のデータは、メーカにおいて、予め多くの文字原稿、写真原稿および文字/写真原稿を読込んで求めた前記比率P1/P0および比率の逆数P0/(P1−P2)と、それぞれの原稿に対して適切と思われる原稿種別の判定結果との対応を調べて作成されている。この関数曲線は、該関数曲線を多くのデータポイントに分割し、各データポイントの値を格納したテーブルの形式で使用されてもよい。
【0051】
前記認識部25は、前記第1最大度数濃度区分抽出部23で求められた比率P1/P0および前記第2最大度数濃度区分抽出部24で求められた比率の逆数P0/(P1−P2)から、前記関数曲線のデータを参照して、文字度x1および写真度x2を決定する。そして、前記判定部27は、前記文字度x1および写真度x2を、判定式に代入して原稿種別を判定し、前記原稿種別判定信号を出力する。
【0052】
以下に、前記判定部27における判定方法を詳しく説明する。図6は、縦軸に写真度x2、横軸に文字度x1をとり、文字原稿、写真原稿、文字/写真原稿の各種画像サンプルにおいて、取り得る文字度x1および写真度x2の値の組の範囲を、座標上に確率楕円で示したものである。これによれば、文字/写真原稿の場合、文字度x1および写真度x2が共に小さい値をとり、文字度x1および写真度x2の値の組は原点に近い楕円領域上に分布する。一方、文字原稿は文字度x1が大きい楕円領域、写真原稿は写真度x2が大きい楕円領域に分布する。
【0053】
ここで、従来からの判定方法である閾値を用いて直接判定を行う場合を考える。図6(a)に示すとおり、入力画像(原稿)の文字度x1が閾値TH1より大きい場合は、写真度x2に拘わらず文字原稿であると判定し、前記閾値TH1より小さい場合は写真が含まれていると判定し、さらに写真度x2が閾値TH2と比較され、大きい場合は写真原稿、小さい場合は文字/写真原稿と判定されることになる。しかしながら、この図6(a)からも明らかなように、3つの領域の境界付近で上記楕円領域とのずれが大きく、誤判定される可能性がある。
【0054】
そこで、本発明では、先ず、パラメータの組がどの領域に属するかを、判定式を用いて判定する方法を考える。図6(b)においては、文字/写真原稿の領域は、原点を中心とする円内部となっている。つまり、パラメータがx12 +x22 <αのとき、文字/写真原稿と判定する。また、円外の領域、つまりx12 +x22 ≧αの場合は、文字原稿領域と写真原稿領域との何れかであると判定され、さらに文字度x1が写真度x2よりも大きい、つまりx1≧x2の場合は文字原稿、そうでない場合は写真原稿と判定される。
【0055】
これによって、前記記憶部26に大きなデータを保有せずに、原稿種別の判定を行う精度を向上させることができる。
【0056】
また、判定精度をさらに向上するために、前記文字/写真領域の判定を行う判定式として、円の代りに楕円の式を用い、文字原稿領域と写真原稿領域とを分割する線の傾きを変えて判定するようにしてもよい。すなわち、以下に示す式を用い、a・b・c・dのような係数を設定して、領域の境界線を細かく設定するようにしてもよい。
【0057】

Figure 0004080252
さらにまた、判定精度を一層向上するために、LUT(Look Up Table :ルックアップテーブル)を用いてもよい。たとえば、前記図6の座標を図7のように格子状に区分けし、格子がどの原稿種別に属するかを予め前記LUTに格納しておき、得られた画像データのパラメータの組がどの格子に属するかを計算すれば、どの原稿種別に属しているのかを判定することができる。
【0058】
具体的には、図6の座標空間を、たとえば図7のように、横をn個に、縦をm個に分割された、n×m個の格子で表す(格子を(n,m)と表す)。各格子は、図6の楕円領域と対応付けられ、文字/写真原稿、文字原稿、写真原稿のどの領域であるのかが記憶されている。
【0059】
以下に,得られた画像データのパラメータの組がどの格子に属するのかを計算する式を示す。前記文字度x1および写真度x2は、それぞれ0から1の間の値なので、x1/{1/(n−1)}=x1(n−1)を四捨五入した値をxn、同様にx2/{1/(m−1)}=x2(m−1)を四捨五入した値をxmとすると、パラメータx1,x2はテーブルの座標(xn,xm)の格子に含まれることとなる。そして、座標(xn,xm)がどの画像領域に属しているかによって、パラメータ組の属する画像領域を判定することができる。
【0060】
このように、LUTを用いることで、種々のパラメータ組を細かく分類することができ、各原稿種別の境界を式で判定するのが難しいような場合でも判定することができ、誤認識をより減少させることができる。また、演算時間が少なく、迅速に判定を行うことができる。
【0061】
なお、前記図6(b)および図7では、2つのパラメータx1,x2によって判定を行っているけれども、より多くのパラメータ、たとえば網点領域の度合いを表すパラメータである網点度をさらに用い、3次元の判定式やルックアップテーブルを使用して判定を行ってもよい。
【0062】
以上の原稿種別判定部13の動作を、図8のフローチャートを用いて説明する。ステップS1では、プレスキャンによって原稿画像が入力され、ステップS2では、入力されたRGB信号を濃度信号に変換し、補色反転してCMY信号に変換する。ステップS3では、そのCMY信号から画素の濃度分布のヒストグラムを作成し、ステップS4で第1最大度数区分を、さらにステップS5で第2最大度数区分を抽出する。
【0063】
そして、ステップS6で、前記第1および第2最大度数区分の度数値P1,P2を文字度x1および写真度x2に変換し、ステップS7で原稿種別の判定を行う。ステップS8では、各部14〜18,20に判定結果である原稿種別判定信号が与えられ、それに従って、各部14〜18,20は、画像処理のパラメータを設定する。
【0064】
前記原稿種別判定信号によって各部14〜18,20に設定されるパラメータの一例について以下に説明する。たとえば、文字原稿と判定された場合、入力階調補正部14および階調再現処理部20は、ハイライトを多めに除去し、コントラストを大きくする補正曲線を用いて処理を行う。また、領域分離処理部15は、文字・線画として領域分離されたところを有効とし、網点や連続階調として領域分離されたところは誤分離とみなし、反映しない。色補正部16では彩度を重視した変換処理を行い、黒生成下色除去部17では黒文字に対し黒生成量を多めに設定する。また、空間フィルタ処理部18では、エッジを強調する強調フィルタを用いる。
【0065】
一方、写真原稿と判定された場合、入力階調補正部14および階調再現処理部20は、ハイライトを重視し、階調性を大きくした補正曲線を用いて処理を行う。また、領域分離処理部15は、網点や連続階調として領域分離されたところを有効とし、エッジとして領域分離されたところは誤分離とみなし、反映させないようにする。色補正部16では階調性を重視した変換処理を行い、黒生成下色除去部17では黒生成量を少なくする。また、空間フィルタ処理部18では、平滑化フィルタを用いる。
【0066】
そして、文字/写真原稿と判定された場合、入力階調補正部14および階調再現処理部20は、写真原稿処理と文字原稿処理との中間の、文字原稿を重視するならば文字原稿にとってのパラメータ、写真原稿を重視するならば写真原稿にとってのパラメータに設定した補正曲線を用いて、ハイライトの除去やコントラストの調整を行う。また、領域分離処理部15では、各領域の分離処理結果をそのまま反映させる。色補正部16では、彩度の強弱や階調性のバランスが極端にならないような色補正処理を行い、黒生成下色除去部17では、写真画像に影響が出ない程度に黒生成量の調整を行う。
【0067】
以上のようにして、本発明のカラー画像処理装置3は、原稿種別判定部13で画像データの原稿種別を判定し、その判定結果に対応した画像処理を行うにあたって、ヒストグラム作成部22、第1最大度数濃度区分抽出部23および第2最大度数濃度区分抽出部24が、原稿種別を判定するのに使用する特徴量(パラメータ)である第1最大度数値P1および第2最大度数値P2を求めても、判定部27は、それから直接に判定するのではなく、認識部25および記憶部26を用いて、一旦判定式に代入し、その演算結果から、またはLUTを参照し、その参照結果から判定を行う。
【0068】
したがって、予想されるパラメータの範囲で、種々のパラメータの組合わせに対応した適切な判定結果から、前記判定式の構造や係数、またはLUTを適宜設定しておくことで、原稿種別を適切に判定することができる。これによって、最適な画像処理を行うことができ、良好な出力画像を得ることができる。
【0069】
また、前記ヒストグラムから得た第1最大度数値P1および第2最大度数値P2のデータ(特徴量(パラメータ))を、前記比率P1/P0および比率の逆数P0/(P1−P2)に変換した後、さらに文字度x1および写真度x2という判定に適した形態に変換し、判定に利用するので、前記判定式を簡略化することができる。
【0070】
本発明の実施の他の形態について、図9に基づいて説明すれば、以下のとおりである。
【0071】
図9は、本発明の実施の他の形態の原稿種別判定部13aの構成を示すブロック図である。この原稿種別判定部13aにおいて、前述の原稿種別判定部13に類似し、対応する部分には同一の参照符号を付して、その説明を省略する。注目すべきは、この原稿種別判定部13aでは、前記記憶部26および認識部25が設けられていないことである。すなわち、前記原稿種別判定部13では、これらの記憶部26および認識部25において、前記比率P1/P0および比率の逆数P0/(P1−P2)から、文字度x1および写真度x2への変換を行っているけれども、この原稿種別判定部13aでは、前記比率P1/P0および比率の逆数P0/(P1−P2)が、そのまま文字度x1および写真度x2の値として使用される。
【0072】
したがって、前記判定式が複雑になるけれども、前記記憶部26および認識部25を省略することができる。
【0073】
なお、上述の説明では、特徴量(パラメータ)として、ヒストグラムを用いているけれども、この方法に限定されるものではなく、たとえば本件出願人が先に提案した特願2001−321152号で示すように、▲1▼局所ブロック内の各画素の最大信号レベルと最小信号レベルとの差、▲2▼局所ブロック内の主走査方向に連続する2つの画素間の差分値の絶対値の総和および副走査方向に連続する2つの画素間の差分値の絶対値の総和のうち小さい方の値などを、前記特徴量(パラメータ)として抽出し、それぞれ認識度合い(文字度・網点度など)に変換して処理を行ってもよい。
【0074】
また、本発明の画像処理方法における原稿種別の判定方法は、デジタルカラー複写機1に限らず、ファクシミリ装置や、スキャナ単体にも好適に実施することができる。さらにまた、本発明は、上述した原稿種別の判定方法を、前記複写機などに備えられるコンピュータに実行させるためのプログラムであってもよい。このプログラムを前記複写機において実行すれば、上述した原稿種別の判定方法を実行できるので、上述と同様の効果を得ることができる。また、本発明は、前記のプログラムを記録したコンピュータ読取り可能な記録媒体であってもよい。この記録媒体を、コンピュータにおいて読取って実行すれば、上述した原稿種別の判定方法を実行できるので、上述と同様の効果を得ることができる。このような構成によれば、原稿種別の判定を行うプログラムを記録した記録媒体を持ち運び自在に提供することができる。
【0075】
前記構成において、前記記録媒体とは、ROMのようなメモリであってもよいし、または装置外部に備えられて接続された外部記録装置であってもよいし、または装置外部に備えられて接続された外部読取装置の記録媒体であってもよい。より詳細には、前記記録媒体は、装置本体と分離可能に構成される記録媒体であって、磁気テープやカセットテープ等のテープ系、フロッピーディスクやハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD等の光ディスクのディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュROM等の半導体メモリなどであってもよい。
【0076】
前記いずれの場合においても、前記プログラムは、マイクロプロセッサがアクセスして実行する構成であっても良いし、一旦図示しない記憶エリアに読込んだ後に実行する構成であってもよい。
【0077】
また、前記構成において、プログラムを読取る際には、インターネットを含む通信ネットワークに接続して、通信ネットワークからプログラムをダウンロードする構成であってもよい。なお、このように通信ネットワークからプログラムをダウンロードする場合には、そのダウンロード用のプログラムは予め本体装置に格納しておくか、あるいは別な記録媒体からインストールされるものであってもよい。
【0078】
【発明の効果】
本発明の画像処理装置は、以上のように、原稿種別判定手段で画像データの原稿種別を判定し、その判定結果に対応した画像処理を前記画像データに施して出力画像データを得るようにした画像処理装置において、特徴量抽出部が、濃度データなどの原稿種別を判定するのに使用する特徴量(パラメータ)を求めても、それから直接に判定するのではなく、判定部において、一旦判定式に代入し、その演算結果から原稿種別の判定を行う。
【0079】
それゆえ、予想される特徴量の範囲で、種々の特徴量の組合わせに対応した適切な判定結果から、前記判定式の構造や係数を適宜設定しておくことで、求められた特徴量を前記判定式に代入するだけで、原稿種別を適切に判定することができる。これによって、最適な画像処理を行うことができ、良好な出力画像を得ることができる。また、前記判定式の構造や係数の工夫などによって、精細な判定が可能になる。さらにまた、判定のために記憶しておくことは、前記判定式や係数などであり、少ないメモリ容量で対応することができる。
【0080】
また、本発明の画像処理装置は、以上のように、原稿種別判定手段で画像データの原稿種別を判定し、その判定結果に対応した画像処理を前記画像データに施して出力画像データを得るようにした画像処理装置において、特徴量抽出部が原稿種別を判定するのに使用する特徴量を求めても、それから直接に判定するのではなく、判定部において、ルックアップテーブルを参照し、その参照結果から原稿種別の判定を行う。
【0081】
したがって、予想される特徴量の範囲で、種々の特徴量の組合わせに対応した適切な判定結果から、前記ルックアップテーブルを適宜設定しておくことで、求められた特徴量から前記ルックアップテーブルを参照するだけで、原稿種別を適切に判定することができる。これによって、最適な画像処理を行うことができ、良好な出力画像を得ることができる。また、前記ルックアップテーブルを用いることによって、複雑な判定を高速で行うことができる。
【0082】
さらにまた、本発明の画像処理装置は、以上のように、前記判定部が、前記特徴量抽出部で抽出された複数の特徴量に対して、たとえば比率や差分を求め、さらに文字度や写真度などの判定に適した形態に変換した後、判定に利用する。
【0083】
それゆえ、前記判定式を簡略化することができる。
【0084】
また、本発明の画像形成装置は、以上のように、前記の画像処理装置を備える。
【0085】
それゆえ、複写機やプリンタなどの画像処理装置において、原稿種別の判定精度が向上し、最適な画像処理が行われるので、品質の良い画像を出力することができるようになる。
【0086】
さらにまた、本発明の画像処理方法は、以上のように、画像データの原稿種別を判定し、その判定結果に対応した画像処理を前記画像データに施して出力画像データを得るようにした画像処理方法において、特徴量の抽出ステップで原稿種別を判定するのに使用する特徴量を求めても、それから直接に判定するのではなく、判定ステップにおいて、一旦判定式に代入し、その演算結果から原稿種別の判定を行う。
【0087】
それゆえ、予想される特徴量の範囲で、種々の特徴量の組合わせに対応した適切な判定結果から、前記判定式の構造や係数を適宜設定しておくことで、求められた特徴量を前記判定式に代入するだけで、原稿種別を適切に判定することができる。これによって、最適な画像処理を行うことができ、良好な出力画像を得ることができる。また、前記判定式の構造や係数の工夫などによって、精細な判定が可能になる。さらにまた、判定のために記憶しておくことは、前記判定式や係数などであり、少ないメモリ容量で対応することができる。
【0088】
また、本発明の画像処理方法は、以上のように、画像データの原稿種別を判定し、その判定結果に対応した画像処理を前記画像データに施して出力画像データを得るようにした画像処理方法において、特徴量の抽出ステップで原稿種別を判定するのに使用する特徴量を求めても、それから直接に判定するのではなく、判定ステップにおいて、ルックアップテーブルを参照し、その参照結果から原稿種別の判定を行う。
【0089】
それゆえ、予想される特徴量の範囲で、種々の特徴量の組合わせに対応した適切な判定結果から、前記ルックアップテーブルを適宜設定しておくことで、求められた特徴量から前記ルックアップテーブルを参照するだけで、原稿種別を適切に判定することができる。これによって、最適な画像処理を行うことができ、良好な出力画像を得ることができる。また、前記ルックアップテーブルを用いることによって、複雑な判定を高速で行うことができる。
【0090】
さらにまた、本発明のプログラムは、以上のように、前記の画像処理方法をコンピュータに実行させる。
【0091】
それゆえ、前記判定式やルックアップテーブルを用いて原稿種別の判定を行うという画像処理方法のプログラムをコンピュータに読取らせ、実行させることができるので、この画像処理方法を汎用的なものとすることができる。
【0092】
また、本発明の記録媒体は、以上のように、前記のプログラムをコンピュータが読取り可能に格納している。
【0093】
それゆえ、前記判定式やルックアップテーブルを用いて原稿種別の判定を行うという画像処理方法のプログラムを、コンピュータに容易に読込ませることができる。
【図面の簡単な説明】
【図1】本発明の実施の一形態のデジタルカラー複写機の電気的構成を示すブロック図である。
【図2】図1で示すデジタルカラー複写機における原稿種別判定部の一構成例を示すブロック図である。
【図3】文字原稿の濃度ヒストグラムの一例を示すグラフである。
【図4】写真原稿の濃度ヒストグラムの一例を示すグラフである。
【図5】前記濃度ヒストグラムにおける第1最大度数値および第2最大度数値と文字度および写真度との関係を示す関数曲線のグラフである。
【図6】従来と本発明との判定方法の違いを説明するための図である。
【図7】図6の座標空間を、より適切に判定するルックアップテーブルを説明するための図である。
【図8】本発明の原稿種別判定動作を説明するためのフローチャートである。
【図9】本発明の実施の他の形態の原稿種別判定部の構成を示すブロック図である。
【符号の説明】
1 デジタルカラー複写機(画像形成装置)
2 カラー画像入力装置
3 カラー画像処理装置
4 カラー画像出力装置
11 A/D変換部
12 シェーディング補正部
13,13a 原稿種別判定部
14 入力階調補正部
15 領域分離処理部
16 色補正部
17 黒生成下色除去部
18 空間フィルタ処理部
19 出力階調補正部
20 階調再現処理部
21 信号変換部
22 ヒストグラム作成部(特徴量抽出部)
23 第1最大度数濃度区分抽出部(特徴量抽出部)
24 第2最大度数濃度区分抽出部(特徴量抽出部)
25 認識部(特徴量抽出部)
26 記憶部(特徴量抽出部)
27 判定部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, an image forming apparatus, and an image forming apparatus that determine a document type such as whether the image data is a text document or a photographic document and perform image processing corresponding to the determination result, The present invention relates to an image processing method, a program, and a recording medium.
[0002]
[Prior art]
In an apparatus that performs image processing such as a digital copying machine, there are various types of originals to be read such as characters, line drawings, photographs, and combinations thereof. Each of these image types has a characteristic, and an original image can be reproduced more satisfactorily by performing image processing suitable for the characteristic.
[0003]
For this reason, conventionally, an image processing mode for performing image processing suitable for each document type is set in the image forming apparatus, an image processing mode that is considered appropriate for the document set by the user is selected, and copying is performed. The way to do it was taken. However, such a mode selection operation is troublesome, and if an inappropriate mode is selected, the reproduced image is remarkably deteriorated and unnecessary copying is performed. Furthermore, the user may not know that there is an image processing mode selection function.
[0004]
In order to solve such problems, Japanese Patent Application Laid-Open No. 8-251406 has a configuration in which the image forming apparatus automatically determines the type of document, and selects and executes image processing suitable for each. Proposed. The document type determination method in the prior art will be described as follows.
[0005]
First, an input image is divided into minute regions, edge determination and halftone dot determination are performed for each divided block, and the image is classified into a line drawing portion, a halftone portion, a continuous tone portion, and a background portion. Next, the continuity and frequency of the line drawing unit, halftone printing unit, and continuous printing unit are counted, and the page image type is determined based on whether or not they exceed a threshold value. Here, the continuity is the number of consecutive blocks in the main scanning direction and the sub-scanning direction classified as the same type, and the frequency is the number of blocks classified as the same type. This is a feature amount (parameter) for determination.
[0006]
Thus, according to the determination, the input image is determined according to (1) line drawing, (2) halftone, (3) continuous stroke, (4) line drawing and halftone, (5) line drawing and continuous stroke, (6) intermediate. The image processing is classified into image processing and continuous image processing, (7) line image, intermediate image processing, and continuous image processing, image processing corresponding to each is selected, and optimum filter, color correction, selector, and gradation processing are performed.
[0007]
[Problems to be solved by the invention]
However, in the conventional technology as described above, the determination of whether or not the pixel density simply exceeds the threshold value is performed at the time of edge determination and halftone dot determination of each block. The determination of the page image type for the entire page is also made based on whether or not the continuity and frequency of the line drawing part, halftone part, continuous tone part, and background part are equal to or higher than a threshold value. In this way, in the determination method in which the obtained feature amount is individually compared with the threshold value, since the determination result is different due to a slight difference in the feature amount in the case of a value near the threshold value, an expected determination result cannot be obtained, Moreover, in order to prevent such a situation, there is a problem that it takes time to set the threshold value.
[0008]
An object of the present invention is to provide an image processing apparatus, an image forming apparatus, an image processing method, a program, and a recording medium that can appropriately determine a document type.
[0009]
[Means for Solving the Problems]
An image processing apparatus of the present invention is an image processing apparatus in which an original type of image data is determined by an original type determining unit, and image processing corresponding to the determination result is performed on the image data to obtain output image data. The document type determination unit substitutes a feature amount extraction unit that extracts a feature amount for determining the document type from the image data, and a feature amount extracted by the feature amount extraction unit into a predetermined determination formula. And a determination unit for determining the document type from the calculation result.
[0010]
According to the above configuration, even if the feature amount extraction unit obtains a feature amount (parameter) used to determine the document type such as density data, it is not determined directly from the feature amount (parameter), but the determination unit temporarily Substituting it into the determination formula, the document type is determined from the calculation result.
[0011]
Therefore, by appropriately setting the structure and coefficient of the determination formula from the appropriate determination result corresponding to the combination of various feature amounts within the range of the expected feature amount, the obtained feature amount is The document type can be appropriately determined simply by substituting it into the determination formula. As a result, optimal image processing can be performed, and a good output image can be obtained. In addition, a fine determination can be made by the structure of the determination formula and the device of the coefficient. Furthermore, storing for determination is the determination formula, coefficient, or the like, and can be handled with a small memory capacity.
[0012]
In the image processing apparatus of the present invention, the document type determination unit determines the document type of the image data, and performs image processing corresponding to the determination result on the image data to obtain output image data. The document type determination means refers to a look-up table from a feature amount extraction unit that extracts a feature amount for determining the document type from the image data, and a feature amount extracted by the feature amount extraction unit. And a determination unit that reads out the determination result of the corresponding document type.
[0013]
According to the above configuration, even if the feature amount extraction unit obtains the feature amount used to determine the document type, the determination unit refers to the lookup table by referring to the lookup table instead of directly determining the feature amount. The document type is determined from the result.
[0014]
Therefore, by appropriately setting the lookup table based on an appropriate determination result corresponding to a combination of various feature amounts within a range of expected feature amounts, the lookup table can be obtained from the obtained feature amount. The document type can be appropriately determined simply by referring to. As a result, optimal image processing can be performed, and a good output image can be obtained. Further, complicated determination can be performed at high speed by using the lookup table.
[0015]
Furthermore, in the image processing apparatus of the present invention, the determination unit converts a plurality of feature amounts extracted by the feature amount extraction unit into a form suitable for determination, and then uses the converted amount for the determination.
[0016]
According to the above configuration, for example, a ratio or a difference is obtained for a plurality of feature amounts extracted by the feature amount extraction unit, and further converted into a form suitable for determination of character degree, photo degree, and the like. Therefore, the determination formula can be simplified.
[0017]
An image forming apparatus according to the present invention includes the above-described image processing apparatus.
[0018]
According to the above configuration, in the image processing apparatus such as a copying machine or a printer, the accuracy of determining the document type is improved and optimal image processing is performed, so that a high-quality image can be output.
[0019]
Furthermore, the image processing method of the present invention is the image processing method in which the document type of the image data is determined, and image processing corresponding to the determination result is performed on the image data to obtain output image data. The type determination is performed by substituting the feature amount extracted in the step of extracting the feature amount for determining the document type from the image data and the feature amount extraction step into a predetermined determination formula. And a step of determining the document type from the result.
[0020]
According to the above configuration, even if the feature amount used to determine the document type is determined in the feature amount extraction step, it is not directly determined from the feature amount. The document type is determined from the calculation result.
[0021]
Therefore, by appropriately setting the structure and coefficient of the determination formula from the appropriate determination result corresponding to the combination of various feature amounts within the range of the expected feature amount, the obtained feature amount is The document type can be appropriately determined simply by substituting it into the determination formula. As a result, optimal image processing can be performed, and a good output image can be obtained. In addition, a fine determination can be made by the structure of the determination formula and the device of the coefficient. Furthermore, storing for determination is the determination formula, coefficient, or the like, and can be handled with a small memory capacity.
[0022]
The image processing method of the present invention is the image processing method in which the document type of the image data is determined and the image processing corresponding to the determination result is performed on the image data to obtain output image data. The feature type for judging the document type is extracted from the image data, and the feature value extracted in the feature value extraction step is referred to a lookup table and the corresponding document type is extracted. And a step of reading out the determination result.
[0023]
According to the above configuration, even if the feature amount used to determine the document type is determined in the feature amount extraction step, it is not determined directly from the feature amount. The document type is determined from the reference result.
[0024]
Therefore, by appropriately setting the lookup table based on an appropriate determination result corresponding to a combination of various feature amounts within a range of expected feature amounts, the lookup table can be obtained from the obtained feature amount. The document type can be appropriately determined simply by referring to. As a result, optimal image processing can be performed, and a good output image can be obtained. Further, complicated determination can be performed at high speed by using the lookup table.
[0025]
Furthermore, a program according to the present invention causes a computer to execute the image processing method.
[0026]
According to the above configuration, it is possible to cause a computer to read and execute a program of an image processing method for determining a document type using the determination formula or the lookup table. Can be.
[0027]
The recording medium of the present invention is characterized in that the program is stored so as to be readable by a computer.
[0028]
According to the above configuration, it is possible to easily cause the computer to read a program of an image processing method for determining a document type using the determination formula or the lookup table.
[0029]
DETAILED DESCRIPTION OF THE INVENTION
The following describes one embodiment of the present invention with reference to FIGS.
[0030]
FIG. 1 is a block diagram showing an electrical configuration of a digital color copying machine 1 according to an embodiment of the present invention. The copying machine 1 is generally constituted by a scanner or the like, and a color image input device 2 that reads a document image and data read by the color image input device 2 are used to set the type of document image as described later. The color image processing apparatus 3 according to the present invention that performs determination and performs image processing according to the determination result, and data that has been subjected to image processing by the color image processing apparatus 3 are recorded on a sheet using an electrophotographic process. And a color image output device 4.
[0031]
The color image input device 2 is constituted by, for example, a scanner unit having a CCD (Charge Coupled Device) (not shown), reads a reflected light image from an original with the CCD, and performs RGB (R: red, G: green, B: Blue) and the analog signal of each color component is output to the color image processing device 3.
[0032]
The color image processing apparatus 3 includes an A / D (analog / digital) conversion unit 11, a shading correction unit 12, a document type determination unit 13, an input tone correction unit 14, a region separation processing unit 15, and a color. The correction unit 16 includes a black generation and under color removal unit 17, a spatial filter processing unit 18, an output tone correction unit 19, and a tone reproduction processing unit 20. The RBG analog signal read by the color image input device 2 sequentially passes through the units 11 to 20 in the color image processing device 3 and is sent to the color image output device 4 as a CMYK digital color signal. Is output.
[0033]
The A / D converter 11 converts the RGB analog signals into digital signals. The shading correction unit 12 removes various distortions generated in the illumination system, imaging system, imaging system, etc. of the color image input device 2 from the digital RGB signal from the A / D conversion unit 11. Apply.
[0034]
The document type determination unit (document type determination unit) 13 uses an RGB signal from which various distortions have been removed by the shading correction unit 12 in the color image processing apparatus 3 such as a density signal. Is converted into a signal that is easy to handle, and further, complementary color inversion is performed to obtain a CMY (C: cyan, M: magenta, Y: yellow) signal. Also, the document type of the input document image is classified into a character document composed of characters, a photograph document composed of photographs (printed photograph / photographic paper photograph), or a character / photo document mixed with them. The document type determination signal indicating the classification result includes an input tone correction unit 14, a region separation processing unit 15, a color correction unit 16, a black generation and under color removal unit 17, a spatial filter processing unit 18, and a tone reproduction processing unit 20 in the subsequent stage. Given to. The detailed configuration of the document type determination unit 13 according to the present invention will be described later.
[0035]
The input tone correction unit 14 adjusts the color balance of the CMY signal and performs image quality adjustment processing such as appropriate background density removal and contrast adjustment. The region separation processing unit 15 separates each pixel in the input image into one of a character region, a halftone dot region, and a photographic region from the CMY signal. The region separation processing unit 15 generates a region identification signal indicating which region the pixel belongs to based on the separation result, and outputs a color correction unit 16, a black generation and under color removal unit 17, a spatial filter processing unit 18, and In addition to being provided to the gradation reproduction processing unit 20, the input signal output by the input gradation correction unit is output as it is to the subsequent color correction unit 16. The color correction unit 16 performs a process of removing color turbidity based on the spectral characteristics of CMY color materials including unnecessary absorption components in order to faithfully reproduce colors.
[0036]
The black generation and under color removal unit 17 generates a black (K) signal from the CMY three-color signals after color correction, and subtracts the K signal obtained by black generation from the original CMY signal to generate a new CMY signal. The CMY three-color signal is converted into a CMYK four-color signal. As the black generation process, a method of generating black with skeleton black is generally used. In this method, the input / output characteristic of the skeleton curve is y = f (x), the input data is C, M, Y, the output data is C ′, M ′, Y ′, K ′, UCR (Under Color Assuming that the (removal) rate is α (0 <α <1), the black generation and under color removal processing is expressed by the following equation.
[0037]
K ′ = f {min (C, M, Y)}
C ′ = C−αK ′
M ′ = M−αK ′
Y ′ = Y−αK ′
The spatial filter processing unit 18 performs a spatial filter process using a digital filter on the image data of the CMYK signal input from the black generation and under color removal unit 17 based on the region identification signal, thereby obtaining a spatial frequency characteristic. The correction is performed so as to prevent blurring of the output image and deterioration of graininess. The gradation reproduction processing unit 20 also performs a predetermined process on the image data of the CMYK signal based on the region identification signal, like the spatial filter processing unit 18.
[0038]
For example, the region separated into characters by the region separation processing unit 15 is a high-frequency emphasis amount by sharp enhancement processing in the spatial filter processing in the spatial filter processing unit 18 in order to improve the reproducibility of black characters or color characters in particular. Is increased. At the same time, the gradation reproduction processing unit 20 selects binarization or multi-value processing on a high-resolution screen suitable for reproducing the high frequency.
[0039]
Further, with respect to the region separated into halftone dots by the region separation processing unit 15, the spatial filter processing unit 18 performs low-pass filter processing for removing the input halftone component. The output tone correction unit 19 performs an output tone correction process for converting a signal such as a density signal into a halftone dot area ratio that is a characteristic value of the color image output device 4. Then, gradation reproduction processing (halftone generation) is performed so that the image is finally separated into pixels and each gradation is reproduced. For the region separated into photographs by the region separation processing unit 15, binarization or multi-value processing is performed on the screen with an emphasis on gradation reproducibility.
[0040]
The operations of the units 11 to 20 as described above are controlled by a control means (not shown) such as a CPU (Central Processing Unit). Further, the image data subjected to the above-described processes is temporarily stored in a storage means (not shown), read at a predetermined timing, and input to the color image output device 4.
[0041]
The color image output device 4 outputs image data onto a print medium (for example, paper), and is not limited to the electrophotographic method as described above, but may be one using another method such as an ink jet.
[0042]
FIG. 2 is a block diagram illustrating a configuration example of the document type determination unit 13. The document type determination unit 13 includes a signal conversion unit 21, a histogram creation unit 22, a first maximum power density category extraction unit 23, a second maximum power density category extraction unit 24, a recognition unit 25, and a storage unit 26. And a determination unit 27.
[0043]
The signal conversion unit 21 converts the RGB reflectance signal from the shading correction unit 12 into a density signal, further inverts the complementary color, and converts it into a CMY signal. The histogram creating unit 22 classifies pixels obtained by excluding low density pixels from all pixels in the input image into density ranges within a certain range, and displays a density histogram (a frequency histogram indicating the frequency of use of each density category). A frequency distribution of pixel density). An example of this density histogram is shown in FIGS.
[0044]
The first maximum frequency density category extraction unit 23 selects the maximum frequency density category, that is, the pixel density having the highest frequency from the density histogram, and extracts the frequency as the first maximum frequency value P1. Further, the ratio of the first maximum power value P1 to the total number of pixels P0 obtained by removing the low density portion LO from the total number of pixels, P1 / P0 is obtained.
[0045]
Similarly, the second maximum power density category extraction unit 24 selects a density category of the maximum power other than the density zone of the first maximum power value P1 and the density zone adjacent to the density zone in the density histogram. The frequency is extracted as the second maximum frequency value P2. Further, the difference between the first maximum value P1 and the second maximum value P2 is obtained, and the reciprocal of the ratio to the total number of pixels P0 excluding the low density portion LO, that is, P0 / (P1-P2) is obtained.
[0046]
Here, referring to FIG. 3, FIG. 3 represents a density histogram of a character document. As a feature of this character document, there are many background parts and it is biased to one density. Therefore, in the histogram, the frequency of a certain density section is high except for the low density part L0 which is the background part. That is, the ratio of the first maximum numerical value P1 is higher than the total number of pixels P0. Therefore, if the ratio P1 / P0 of the first maximum value P1 to the total number of pixels P0 is increased, the possibility of a character document is increased.
[0047]
On the other hand, referring to FIG. 4, FIG. 4 shows a density histogram of a photographic document. A characteristic of this photographic document is that there is no bias in density. That is, the difference between the first maximum value P1 and the second maximum value P2 is reduced. Therefore, when the reciprocal number P0 / (P1-P2) of the ratio of the difference between the first maximum value P1 and the second maximum value P2 to the total number of pixels P0 increases, the possibility of a photographic document increases.
[0048]
Further, since the character / photo original has the characteristics of both the character original and the photo original, the frequency of a certain density section is high, and the ratio P1 / P0 of the first maximum numerical value P1 to the total number of pixels P0. And the reciprocal P0 / (P1-P2) of the ratio of the difference between the first maximum power value P1 and the second maximum power value P2 becomes small.
[0049]
As shown in FIG. 5A, the storage unit 26 stores function curve data representing a change in character degree x1, which is a possibility of a character document, with respect to a change in the ratio P1 / P0. At the same time, as shown in FIG. 5B, function curve data representing a change in photographic degree x2, which is a possibility of a photographic document, is stored with respect to a change in the reciprocal P0 / (P1-P2) of the ratio. ing.
[0050]
The character degree x1 and the photographic degree x2 represent the possibility of actually being a character original or a photographic original with numerical values from 0 to 1. Such function curve data includes the ratio P1 / P0 and the reciprocal P0 / (P1-P2) of the ratio obtained by reading a large number of character originals, photo originals, and character / photo originals in advance at the manufacturer. It is created by examining the correspondence with the determination result of the document type that seems appropriate for the document. This function curve may be used in the form of a table that divides the function curve into a number of data points and stores the value of each data point.
[0051]
The recognizing unit 25 uses the ratio P1 / P0 obtained by the first maximum power density category extracting unit 23 and the reciprocal P0 / (P1-P2) of the ratio obtained by the second maximum power density category extracting unit 24. The character degree x1 and the photographic degree x2 are determined with reference to the function curve data. Then, the determination unit 27 determines the document type by substituting the character degree x1 and the photographic degree x2 into the determination formula, and outputs the document type determination signal.
[0052]
Hereinafter, a determination method in the determination unit 27 will be described in detail. In FIG. 6, the vertical axis represents the photographic degree x2 and the horizontal axis represents the character degree x1, and in the various image samples of the character original, the photographic original, and the character / photo original, a set of possible character degree x1 and photographic degree x2 values. The range is indicated by a probability ellipse on the coordinates. According to this, in the case of a character / photo original, both the character degree x1 and the photograph degree x2 take a small value, and the set of values of the character degree x1 and the photograph degree x2 are distributed on an elliptical area close to the origin. On the other hand, character originals are distributed in an elliptical area having a high character degree x1, and photo originals are distributed in an elliptical area having a high character degree x2.
[0053]
Here, consider a case in which a direct determination is performed using a threshold, which is a conventional determination method. As shown in FIG. 6A, when the character degree x1 of the input image (original) is larger than the threshold value TH1, it is determined that it is a character original regardless of the photographic degree x2, and when it is smaller than the threshold value TH1, a photograph is included. Further, the photographic degree x2 is compared with the threshold value TH2, and when it is large, it is determined as a photo original, and when it is small, it is determined as a character / photo original. However, as is apparent from FIG. 6A, the deviation from the elliptical region is large near the boundary between the three regions, and there is a possibility of erroneous determination.
[0054]
Therefore, in the present invention, first, a method for determining which region a parameter set belongs to using a determination formula is considered. In FIG. 6B, the character / photo original area is inside a circle centered on the origin. That is, the parameter is x1 2 + X2 2 When <α, it is determined as a text / photo original. The region outside the circle, that is, x1 2 + X2 2 If ≧ α, it is determined that the character document region is either a character document region or a photographic document region. Further, the character degree x1 is greater than the photographic degree x2, that is, if x1 ≧ x2, the character document, otherwise the photograph The document is determined.
[0055]
As a result, it is possible to improve the accuracy of determining the document type without storing large data in the storage unit 26.
[0056]
In order to further improve the determination accuracy, an ellipse expression is used instead of a circle as a determination expression for determining the character / photo area, and the inclination of a line dividing the character original area and the photo original area is changed. You may make it judge. That is, by using the following formula, coefficients such as a, b, c, and d may be set to finely set the boundary line of the region.
[0057]
Figure 0004080252
Furthermore, in order to further improve the determination accuracy, an LUT (Look Up Table) may be used. For example, the coordinates shown in FIG. 6 are divided into a grid as shown in FIG. 7, the original type to which the grid belongs is stored in the LUT in advance, and the obtained image data parameter set is assigned to which grid. By calculating whether it belongs, it is possible to determine which document type it belongs to.
[0058]
Specifically, the coordinate space of FIG. 6 is represented by n × m lattices divided into n pieces in the horizontal direction and m pieces in the vertical direction as shown in FIG. 7 (the lattice is represented by (n, m)). ). Each lattice is associated with the elliptical area of FIG. 6 and stores which area is a character / photo original, a character original, or a photo original.
[0059]
The following formula is used to calculate which lattice the set of image data parameters belongs to. Since the character degree x1 and the photographic degree x2 are values between 0 and 1, respectively, x1 / {1 / (n-1)} = x1 (n-1) is rounded off to xn, and similarly x2 / { Assuming that xm is a value obtained by rounding 1 / (m−1)} = x2 (m−1), the parameters x1 and x2 are included in the grid of the coordinates (xn, xm) of the table. The image area to which the parameter set belongs can be determined depending on which image area the coordinate (xn, xm) belongs to.
[0060]
In this way, by using the LUT, various parameter sets can be classified finely, and even when it is difficult to determine the boundary of each document type by an expression, erroneous recognition is further reduced. Can be made. In addition, the calculation time is short and the determination can be made quickly.
[0061]
In FIG. 6 (b) and FIG. 7, although the determination is made with the two parameters x1 and x2, more parameters, for example, the halftone dot degree that is a parameter representing the degree of the halftone dot region is further used. The determination may be performed using a three-dimensional determination formula or a lookup table.
[0062]
The operation of the document type determination unit 13 will be described with reference to the flowchart of FIG. In step S1, an original image is input by pre-scanning, and in step S2, the input RGB signal is converted into a density signal, and complementary colors are inverted and converted into a CMY signal. In step S3, a histogram of pixel density distribution is created from the CMY signal, and the first maximum frequency segment is extracted in step S4 and the second maximum frequency segment is extracted in step S5.
[0063]
In step S6, the frequency values P1 and P2 of the first and second maximum frequency divisions are converted into character degree x1 and photographic degree x2, and the document type is determined in step S7. In step S8, a document type determination signal, which is a determination result, is given to each of the units 14-18, 20, and the units 14-18, 20 set image processing parameters accordingly.
[0064]
An example of parameters set in the units 14 to 18 and 20 by the document type determination signal will be described below. For example, when it is determined that the document is a character document, the input tone correction unit 14 and the tone reproduction processing unit 20 perform processing using a correction curve that removes excessive highlights and increases contrast. The area separation processing unit 15 validates the area separated as a character / line image, and regards the area separated as a halftone dot or continuous tone as misseparation and does not reflect it. The color correction unit 16 performs conversion processing with emphasis on saturation, and the black generation and under color removal unit 17 sets a larger black generation amount for black characters. In addition, the spatial filter processing unit 18 uses an enhancement filter that enhances edges.
[0065]
On the other hand, if it is determined that the document is a photographic document, the input tone correction unit 14 and the tone reproduction processing unit 20 perform processing using a correction curve with an emphasis on highlights and increased tone characteristics. Further, the region separation processing unit 15 considers that a region separated as a halftone dot or continuous tone is effective, and a region separated as an edge is regarded as erroneous separation and is not reflected. The color correction unit 16 performs conversion processing with an emphasis on gradation, and the black generation and under color removal unit 17 reduces the black generation amount. The spatial filter processing unit 18 uses a smoothing filter.
[0066]
If it is determined that the document is a character / photo original, the input gradation correction unit 14 and the gradation reproduction processing unit 20 perform an intermediate process between the photo original processing and the character original processing if the character original is important. If emphasis is placed on parameters and photo originals, highlight removal and contrast adjustment are performed using a correction curve set as parameters for the photo originals. Further, the region separation processing unit 15 reflects the separation processing result of each region as it is. The color correction unit 16 performs color correction processing so that the intensity of saturation and the balance of gradation are not extreme, and the black generation and under color removal unit 17 sets the black generation amount to such an extent that the photographic image is not affected. Make adjustments.
[0067]
As described above, in the color image processing apparatus 3 of the present invention, when the document type determination unit 13 determines the document type of the image data and performs image processing corresponding to the determination result, the histogram creation unit 22, the first The maximum power density category extraction unit 23 and the second maximum power density category extraction unit 24 obtain a first maximum power value P1 and a second maximum power value P2, which are feature amounts (parameters) used to determine the document type. However, the determination unit 27 does not directly determine from that, but instead uses the recognition unit 25 and the storage unit 26 to temporarily substitute the determination expression and refer to the calculation result or the LUT and the reference result. Make a decision.
[0068]
Therefore, by appropriately setting the structure, coefficient, or LUT of the determination formula from the appropriate determination results corresponding to various parameter combinations within the expected parameter range, the document type is determined appropriately. can do. As a result, optimal image processing can be performed, and a good output image can be obtained.
[0069]
Further, the data (feature amount (parameter)) of the first maximum power value P1 and the second maximum power value P2 obtained from the histogram are converted into the ratio P1 / P0 and the inverse of the ratio P0 / (P1-P2). After that, since it is converted into a form suitable for the determination of character degree x1 and photographic degree x2 and used for the determination, the determination formula can be simplified.
[0070]
The following will describe another embodiment of the present invention with reference to FIG.
[0071]
FIG. 9 is a block diagram showing a configuration of a document type determination unit 13a according to another embodiment of the present invention. This document type determination unit 13a is similar to the above-described document type determination unit 13, and corresponding portions are denoted by the same reference numerals and description thereof is omitted. It should be noted that the document type determination unit 13a is not provided with the storage unit 26 and the recognition unit 25. That is, the document type determination unit 13 converts the ratio P1 / P0 and the reciprocal of the ratio P0 / (P1-P2) into the character degree x1 and the photographic degree x2 in the storage unit 26 and the recognition unit 25. However, in the document type determination unit 13a, the ratio P1 / P0 and the reciprocal number P0 / (P1-P2) are used as they are as the values of the character degree x1 and the photographic degree x2.
[0072]
Therefore, although the determination formula is complicated, the storage unit 26 and the recognition unit 25 can be omitted.
[0073]
In the above description, a histogram is used as the feature amount (parameter). However, the method is not limited to this method. For example, as shown in Japanese Patent Application No. 2001-321152 previously proposed by the present applicant. (1) Difference between the maximum signal level and the minimum signal level of each pixel in the local block, (2) Sum of absolute values of difference values between two pixels continuous in the main scanning direction in the local block, and sub-scanning The smaller value of the sum of the absolute values of the difference values between two consecutive pixels in the direction is extracted as the feature value (parameter) and converted to the recognition level (character degree, halftone dot degree, etc.). May be processed.
[0074]
Further, the document type determination method in the image processing method of the present invention is not limited to the digital color copying machine 1, and can be suitably implemented for a facsimile machine or a scanner alone. Furthermore, the present invention may be a program for causing a computer provided in the copying machine or the like to execute the above-described document type determination method. If this program is executed in the copying machine, the above-described document type determination method can be executed, so that the same effect as described above can be obtained. Further, the present invention may be a computer-readable recording medium on which the program is recorded. If this recording medium is read and executed by a computer, the above-described document type determination method can be executed, so that the same effect as described above can be obtained. According to such a configuration, it is possible to provide a portable recording medium on which a program for determining a document type is recorded.
[0075]
In the above configuration, the recording medium may be a memory such as a ROM, or may be an external recording device provided and connected outside the device, or provided and connected outside the device. It may be a recording medium of an external reading device. More specifically, the recording medium is a recording medium configured to be separable from the apparatus main body, and includes a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy disk and a hard disk, and a CD-ROM / MO / Disk systems for optical disks such as MD / DVD, card systems such as IC cards (including memory cards) / optical cards, mask ROM, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), flash It may be a semiconductor memory such as a ROM.
[0076]
In either case, the program may be configured to be accessed and executed by a microprocessor, or may be configured to be executed after being read into a storage area (not shown).
[0077]
In the above configuration, when reading the program, the program may be connected to a communication network including the Internet and downloaded from the communication network. When the program is downloaded from the communication network in this way, the download program may be stored in the main device in advance or installed from another recording medium.
[0078]
【The invention's effect】
In the image processing apparatus of the present invention, as described above, the document type determination unit determines the document type of the image data, and performs image processing corresponding to the determination result on the image data to obtain output image data. In the image processing apparatus, even if the feature amount extraction unit obtains a feature amount (parameter) used to determine the document type such as density data, it is not determined directly from the feature amount (parameter). And the document type is determined from the calculation result.
[0079]
Therefore, by appropriately setting the structure and coefficients of the judgment formula from the appropriate judgment results corresponding to various combinations of feature quantities within the expected feature quantity range, the obtained feature quantity can be obtained. By simply substituting in the determination formula, the document type can be determined appropriately. As a result, optimal image processing can be performed, and a good output image can be obtained. In addition, a fine determination can be made by the structure of the determination formula and the device of the coefficient. Furthermore, storing for determination is the determination formula, coefficient, or the like, and can be handled with a small memory capacity.
[0080]
In the image processing apparatus of the present invention, as described above, the document type determination unit determines the document type of the image data, and performs image processing corresponding to the determination result on the image data to obtain output image data. In the image processing apparatus described above, even if the feature amount extraction unit obtains the feature amount used to determine the document type, the determination unit refers to the lookup table and does not directly determine the feature amount. The document type is determined from the result.
[0081]
Therefore, by appropriately setting the lookup table based on an appropriate determination result corresponding to a combination of various feature amounts within a range of expected feature amounts, the lookup table can be obtained from the obtained feature amount. The document type can be appropriately determined simply by referring to. As a result, optimal image processing can be performed, and a good output image can be obtained. Further, complicated determination can be performed at high speed by using the lookup table.
[0082]
Furthermore, in the image processing apparatus according to the present invention, as described above, the determination unit obtains, for example, a ratio or a difference for a plurality of feature amounts extracted by the feature amount extraction unit, and further, character degree or photo After conversion to a form suitable for the determination of the degree, etc., it is used for the determination.
[0083]
Therefore, the determination formula can be simplified.
[0084]
The image forming apparatus of the present invention includes the image processing apparatus as described above.
[0085]
Therefore, in an image processing apparatus such as a copying machine or a printer, the accuracy of document type determination is improved and optimal image processing is performed, so that a high-quality image can be output.
[0086]
Furthermore, the image processing method of the present invention, as described above, determines the document type of image data, and performs image processing corresponding to the determination result on the image data to obtain output image data. In the method, even if the feature amount used to determine the document type is determined in the feature amount extraction step, it is not directly determined from the feature amount, but is substituted in the determination formula once in the determination step, and the document is calculated from the calculation result. Determine the type.
[0087]
Therefore, by appropriately setting the structure and coefficients of the judgment formula from the appropriate judgment results corresponding to various combinations of feature quantities within the expected feature quantity range, the obtained feature quantity can be obtained. By simply substituting in the determination formula, the document type can be determined appropriately. As a result, optimal image processing can be performed, and a good output image can be obtained. In addition, a fine determination can be made by the structure of the determination formula and the device of the coefficient. Furthermore, storing for determination is the determination formula, coefficient, or the like, and can be handled with a small memory capacity.
[0088]
Further, as described above, the image processing method of the present invention determines the document type of the image data, and performs image processing corresponding to the determination result on the image data to obtain output image data. In the feature amount extraction step, the feature amount used for determining the document type is not determined directly, but is referred to the lookup table in the determination step, and the document type is determined from the reference result. Judgment is made.
[0089]
Therefore, by appropriately setting the lookup table based on an appropriate determination result corresponding to a combination of various feature amounts within the expected feature amount range, the lookup from the obtained feature amount is performed. By simply referring to the table, the document type can be determined appropriately. As a result, optimal image processing can be performed, and a good output image can be obtained. Further, complicated determination can be performed at high speed by using the lookup table.
[0090]
Furthermore, the program of the present invention causes a computer to execute the image processing method as described above.
[0091]
Therefore, it is possible to cause a computer to read and execute a program of an image processing method for determining a document type using the determination formula or the lookup table, so that the image processing method is general purpose. be able to.
[0092]
Further, as described above, the recording medium of the present invention stores the above-described program so that the computer can read it.
[0093]
Therefore, the computer can easily read a program of an image processing method for determining a document type using the determination formula or the lookup table.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an electrical configuration of a digital color copying machine according to an embodiment of the present invention.
FIG. 2 is a block diagram showing an example of the configuration of a document type determination unit in the digital color copying machine shown in FIG.
FIG. 3 is a graph showing an example of a density histogram of a character document.
FIG. 4 is a graph showing an example of a density histogram of a photographic document.
FIG. 5 is a graph of a function curve showing the relationship between the first maximum degree value and the second maximum degree value, the character degree and the photographic degree in the density histogram.
FIG. 6 is a diagram for explaining a difference in determination method between a conventional technique and the present invention.
7 is a diagram for explaining a lookup table for more appropriately determining the coordinate space of FIG. 6;
FIG. 8 is a flowchart for explaining a document type determination operation according to the present invention.
FIG. 9 is a block diagram illustrating a configuration of a document type determination unit according to another embodiment of the invention.
[Explanation of symbols]
1 Digital color copier (image forming device)
2 Color image input device
3 Color image processing device
4 color image output device
11 A / D converter
12 Shading correction part
13, 13a Document type determination unit
14 Input tone correction unit
15 Region separation processing unit
16 color correction unit
17 Black generation under color removal part
18 Spatial filter processing section
19 Output tone correction unit
20 gradation reproduction processing section
21 Signal converter
22 Histogram creation part (feature quantity extraction part)
23 first maximum power density category extraction unit (feature amount extraction unit)
24 Second maximum power density category extraction unit (feature amount extraction unit)
25 recognition unit (feature amount extraction unit)
26 Storage unit (feature amount extraction unit)
27 Judgment part

Claims (9)

原稿種別判定手段で入力された画像データの原稿種別を判定し、その判定結果に対応した画像処理を前記画像データに施して出力画像データを得るようにした画像処理装置において、
前記原稿種別判定手段は、
前記入力された画像データにおける全画素から低濃度の画素を除いた画素を、一定の範囲の濃度区分に分類し、各濃度区分の使用頻度を表す度数を表示する濃度ヒストグラムを作成するヒストグラム作成部と、
前記作成された濃度ヒストグラムから、最大度数の濃度区分を選択し、その度数を第1最大度数値として抽出する第1最大度数濃度区分抽出部と、
前記作成された濃度ヒストグラムから、前記第1最大度数値の濃度区分およびこれに隣接する濃度区分以外で、最大度数の濃度区分を選択し、その度数を第2最大度数値として抽出する第2最大度数濃度区分抽出部と、
前記第1および第2最大度数値を基に、特定の原稿の可能性の度合いの変化を表すデータを参照して、特定の原稿である可能性の高さを示す度数を決定する認識部と、
前記認識部により決定された度数を、予め定める判定式に代入して、その演算結果から原稿種別の判定を行う判定部と
を含むことを特徴とする画像処理装置。
In an image processing apparatus that determines the document type of the image data input by the document type determination unit, and performs image processing corresponding to the determination result on the image data to obtain output image data.
The document type determination means includes:
A histogram creation unit that classifies pixels obtained by removing low density pixels from all pixels in the input image data into density categories within a certain range, and creates a density histogram that displays a frequency representing the use frequency of each density category. When,
A first maximum frequency density category extraction unit that selects a density category of the maximum frequency from the created density histogram and extracts the frequency as a first maximum frequency value;
From the created density histogram, a density category of the maximum frequency is selected other than the density category of the first maximum frequency value and the density category adjacent thereto, and the frequency is extracted as the second maximum frequency value. A frequency concentration classification extraction unit;
A recognizing unit that determines a frequency indicating the possibility of being a specific document by referring to data representing a change in the likelihood of the specific document based on the first and second maximum power values; ,
A determination unit for substituting the frequency determined by the recognition unit into a predetermined determination formula and determining a document type from the calculation result ;
An image processing apparatus comprising:
上記判定部は、上記原稿種別の判定として、上記入力された画像データの原稿を、文字原稿、写真原稿、文字および写真の混在原稿、のいずれかに分類することを特徴とする請求項1に記載画像処理装置。2. The determination unit according to claim 1, wherein the determination unit classifies the input image data original as one of a character original, a photographic original, and a mixed original of characters and photographs as the determination of the original type. Description image processing apparatus. 前記第1最大度数値をP1、前記第2最大度数値をP2、入力された画像データの全画素数から低濃度部の画素数を除いた総画素数をP0とすると、When the first maximum power value is P1, the second maximum power value is P2, and the total number of pixels excluding the number of pixels in the low density portion from the total number of pixels of the input image data is P0,
前記認識部は、P1/P0およびP0/(P1−P2)から、文字原稿の可能性である文字度の変化を表すデータおよび写真原稿の可能性である写真度の変化を表すデータとを参照に、入力された画像データの文字度x1および写真度x2を決定し、The recognizing unit refers to data representing a change in character degree, which is a possibility of a character document, and data representing a change in photographic degree, which is a possibility of a photographic document, from P1 / P0 and P0 / (P1-P2). Next, the character degree x1 and the photographic degree x2 of the input image data are determined,
前記判定部は、前記x1およびx2を、予め定める判定式に代入して、判定を行うことを特徴とする請求項2に記載の画像処理装置。The image processing apparatus according to claim 2, wherein the determination unit performs the determination by substituting the x1 and x2 into a predetermined determination formula.
前記判定部は、αを所定値すると、前記x1およびx2が、When the determination unit sets α to a predetermined value, x1 and x2 are
x1x1 2 +x2+ X2 2 <αを満たすとき、文字および写真の混在原稿、<When α satisfies, mixed text and photo originals,
x1x1 2 +x2+ X2 2 ≧αかつx1≧x2を満たすとき、文字原稿、When ≥α and x1≥x2,
x1x1 2 +x2+ X2 2 ≧αかつx1<x2をみたすとき、写真原稿、When satisfying ≧ α and x1 <x2,
と判定することを特徴とする請求項3に記載の画像処理装置。The image processing apparatus according to claim 3, wherein:
前記判定部は、a,b,c,dを所定係数、βを所定値とすると、前記x1およびx2が、When the determination unit has a, b, c, and d as predetermined coefficients and β as a predetermined value, x1 and x2 are
a・x1a · x1 2 +b・x1・x2+c・x2+ B · x1 · x2 + c · x2 2 <βを満たすとき、文字および写真の混在原稿、<When β is satisfied, mixed text and photo manuscript,
a・x1a · x1 2 +b・x1・x2+c・x2+ B · x1 · x2 + c · x2 2 ≧β、かつx1≧d・x2を満たすとき、文字原稿、When ≥β and x1≥d · x2,
a・x1a · x1 2 +b・x1・x2+c・x2+ B · x1 · x2 + c · x2 2 ≧β、かつx1<d・x2を満たすとき、写真原稿、When ≧ β and x1 <d · x2 are satisfied,
と判定することを特徴とする請求項3に記載の画像処理装置。The image processing apparatus according to claim 3, wherein:
請求項1〜5の何れか1項に記載の画像処理装置を備えることを特徴とする画像形成装置。An image forming apparatus comprising the image processing apparatus according to claim 1 . 入力された画像データの原稿種別を判定し、その判定結果に対応した画像処理を前記画像データに施して出力画像データを得るようにした画像処理方法において、
前記原稿種別の判定には
入力された画像データにおける全画素から低濃度の画素を除いた画素を、一定の範囲の濃度区分に分類し、各濃度区分の使用頻度を表す度数を表示するヒストグラム生成ステップと、
前記生成部にて生成された濃度ヒストグラムから、最大度数の濃度区分を選択し、その値を第1最大度数値として抽出する第1最大度数濃度区分抽出ステップと、
記生成部において生成された濃度ヒストグラムから、前記最大度数値と隣接する濃度区分以外で、一番頻度の高い画素濃度を選択し、その値を第2最大度数値として抽出する第2最大度数濃度区分抽出ステップと、
前記第1および第2最大度数値を基に、特定の原稿の可能性の度合い変化を表すデータを参照して、特定の原稿である可能性の高さを示す度数を決定する認識ステップと、
前記認定部により決定された度数を、予め定める判定式に代入して、その演算結果から原稿種別の判定を行う判定ステップと、
を含むことを特徴とする画像処理方法。
In an image processing method for determining a document type of input image data and performing image processing corresponding to the determination result on the image data to obtain output image data,
The determining of the document type,
A histogram generation step for classifying pixels obtained by excluding low density pixels from all pixels in the input image data into a density range of a certain range and displaying a frequency indicating the use frequency of each density category,
A first maximum frequency density category extraction step of selecting a density category of the maximum frequency from the density histogram generated by the generation unit, and extracting the value as a first maximum frequency value;
A second highest frequency density is selected from the density histogram generated in the generation unit, the pixel density having the highest frequency other than the density category adjacent to the maximum frequency value is selected, and the value is extracted as the second maximum frequency value. A category extraction step;
A recognition step for determining a frequency indicating the probability of being a specific document with reference to data representing a change in the likelihood of a specific document based on the first and second maximum power values;
A determination step of substituting the frequency determined by the authorization unit into a predetermined determination formula and determining the document type from the calculation result ;
Image processing method, which comprises a.
請求項7記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。A program causing a computer to execute the image processing method according to claim 7 . 請求項8記載のプログラムをコンピュータが読取り可能に格納したことを特徴とする記録媒体。A recording medium storing the program according to claim 8 in a computer-readable manner.
JP2002171802A 2002-06-12 2002-06-12 Image processing apparatus, image forming apparatus, image processing method, program, and recording medium Expired - Fee Related JP4080252B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002171802A JP4080252B2 (en) 2002-06-12 2002-06-12 Image processing apparatus, image forming apparatus, image processing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002171802A JP4080252B2 (en) 2002-06-12 2002-06-12 Image processing apparatus, image forming apparatus, image processing method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2004023174A JP2004023174A (en) 2004-01-22
JP4080252B2 true JP4080252B2 (en) 2008-04-23

Family

ID=31171564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002171802A Expired - Fee Related JP4080252B2 (en) 2002-06-12 2002-06-12 Image processing apparatus, image forming apparatus, image processing method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4080252B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4139834B2 (en) 2005-08-31 2008-08-27 シャープ株式会社 Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, image processing program, and computer-readable recording medium recording image processing program
JP4615462B2 (en) * 2006-03-15 2011-01-19 株式会社リコー Image processing apparatus, image forming apparatus, program, and image processing method
JP4963645B2 (en) * 2007-07-27 2012-06-27 キヤノン株式会社 Image processing apparatus and method
JP6025475B2 (en) * 2012-09-21 2016-11-16 キヤノン株式会社 Image area determination apparatus, image area determination method, and image processing apparatus

Also Published As

Publication number Publication date
JP2004023174A (en) 2004-01-22

Similar Documents

Publication Publication Date Title
JP4495197B2 (en) Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program
JP4137890B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP4166744B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4197346B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JP4170353B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, program, and recording medium
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
JP4105539B2 (en) Image processing apparatus, image forming apparatus including the same, image processing method, image processing program, and recording medium
JP2003219191A (en) Image processor and image forming apparatus comprising it
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP6474315B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor
JP4522978B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JP7123752B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP4149368B2 (en) Image processing method, image processing apparatus and image forming apparatus, computer program, and computer-readable recording medium
JP4740913B2 (en) Image processing apparatus, image processing method, image forming apparatus and program, and recording medium
JP4808282B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium for recording image processing program
JP4086537B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2004248103A (en) Image processing device, image reading device, image forming device, image processing method, image processing program, and computer readable record medium recording the same
JP2011015172A (en) Device for processing image, device for forming image, method and program for processing image, and recording medium recording program for processing image
JP4498316B2 (en) Image processing apparatus, image processing method, image forming apparatus, and computer program
JP2003219178A (en) Image processing method, device thereof and image forming device
JP2008252292A (en) Image processing method, image processing apparatus, image forming apparatus, computer program and recording medium
JP2004297212A (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and computer-readable recording medium for recording the same
JP2003224718A (en) Image processing method and image processor
JP4118823B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP2004214908A (en) Image processing apparatus and image forming apparatus provided with the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070219

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees