JP2002027242A - Image processing method, image processor, and image maker equipped therewith, and storage medium - Google Patents

Image processing method, image processor, and image maker equipped therewith, and storage medium

Info

Publication number
JP2002027242A
JP2002027242A JP2000201224A JP2000201224A JP2002027242A JP 2002027242 A JP2002027242 A JP 2002027242A JP 2000201224 A JP2000201224 A JP 2000201224A JP 2000201224 A JP2000201224 A JP 2000201224A JP 2002027242 A JP2002027242 A JP 2002027242A
Authority
JP
Japan
Prior art keywords
determination
area
discrimination
block
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000201224A
Other languages
Japanese (ja)
Inventor
Atsutoshi Morimoto
淳寿 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2000201224A priority Critical patent/JP2002027242A/en
Publication of JP2002027242A publication Critical patent/JP2002027242A/en
Pending legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing method which can separate a region quantitatively and accurately, an image processor, an image maker equipped with it, and a storage medium having recorded a program. SOLUTION: This system divides an inputted image data into blocks consisting of a plurality of picture elements by divider 9, and extracts the quantity of plural features in every block by feature extractor 11. This calculates discrimination scores for discriminating the classification of the image region from the quantity of features extracted with the feature extractor 11 and the linear discriminant function stored in a storage 15 by a computer 12, and discriminates which region of a letter region, a net-point region, and a photograph region it belongs to in every picture element or block, based on the discrimination score calculated by discriminator 14.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタル複写機や
ファクシミリ装置等に供され、原稿を走査して得られた
画像データに対し、各画素の特徴量を抽出することによ
り、各画素が属する領域の判別を行う画像処理装置、画
像処理方法および画像処理プログラムを記録した記録媒
体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is applied to a digital copying machine, a facsimile machine, or the like, and extracts a feature amount of each pixel from image data obtained by scanning an original, thereby allowing each pixel to belong. The present invention relates to an image processing apparatus for determining an area, an image processing method, and a recording medium on which an image processing program is recorded.

【0002】[0002]

【従来の技術】デジタル複写機やファクシミリ等のカラ
ー画像形成装置では、画質を向上させるために、CCD
(Charge Coupled Device)イメージセンサ等の画像入
力手段より読込まれた画像信号に対して、文字、写真あ
るいは網点のいずれの領域に属する画像であるかを識別
し、その識別結果に応じて各画素毎に適切な画像処理が
施されるように構成されている。
2. Description of the Related Art In a color image forming apparatus such as a digital copying machine or a facsimile, a CCD is used to improve image quality.
(Charge Coupled Device) For an image signal read from an image input unit such as an image sensor, the image signal is identified as belonging to an area of a character, a photograph, or a halftone dot, and each pixel is determined according to the identification result. An appropriate image processing is performed every time.

【0003】このような画質向上を図るための画像識別
方法としては、画像を複数画素から成るブロックに分割
し、パターンマッチングを用いる、あるいは文字画像お
よび網点画像の性質を表した特徴量を用いることによっ
て、各ブロック毎に画像識別を行うものがある。パター
ンマッチングを用いた画像識別方法では、数多くのパタ
ーンを用意する必要があり、メモリ容量が膨大になった
り、汎用性に乏しいといった問題があるため、今日で
は、特徴量を用いた画像識別方法が採用されることが多
くなっている。特徴量を用いた画像識別方法としては、
たとえば、文献「網点写真の識別方法」(電子情報通信
学会論文誌 1987/2 Vol.J70-B No.2 p.222〜p.232.)に
掲載されている「ブロック分離変換法」(Block Separa
te Transformation Method:BSET法)を用いることがで
きる。この方法は、処理の対象となる画像データをブロ
ックに分割し、そのブロック内の画素の濃度変化を基に
文字、写真および網点領域を判別する方法である。この
とき、網点領域では、網点が周期的に配列されているた
め、濃度の高い画素が空間的に分散されているという特
徴が用いられる。以下、この方法の概要について説明す
る。
As an image identification method for improving the image quality, an image is divided into blocks each including a plurality of pixels, and pattern matching is used, or a feature amount representing the properties of a character image and a halftone image is used. In some cases, image identification is performed for each block. In the image identification method using pattern matching, it is necessary to prepare a large number of patterns, and there is a problem that the memory capacity is enormous and the versatility is poor. It is increasingly being adopted. Image identification methods using feature values include:
For example, the "block separation conversion method" described in the document "Method of identifying halftone photographs" (Transactions of the Institute of Electronics, Information and Communication Engineers, 1987/2 Vol.J70-B No.2 p.222-p.232.) Block Separa
te Transformation Method (BSET method) can be used. This method is a method in which image data to be processed is divided into blocks, and a character, a photograph, and a halftone dot area are determined based on a change in density of pixels in the block. At this time, in the halftone dot region, since the halftone dots are periodically arranged, a feature that pixels with high density are spatially dispersed is used. Hereinafter, an outline of this method will be described.

【0004】BSET法では、まず、最大信号レベルと
最小信号レベルとの差分値を求め、その差分値を予め定
められた基準値と比較し、その差分値が設定値よりも小
さい場合は、信号レベルの変化が穏やかな写真領域を含
むことを示す判別信号を出力し、その一方、前記差分値
が前記設定値よりも大きい場合は、信号レベルの変化が
激しい文字または網点領域を含むことを示す判別信号を
出力する。さらに、信号レベルの変化が激しい文字また
は網点領域を含むと示されたブロックに対して、空間的
に連続する画素の信号レベル間の変化回数を予め定めら
れた基準値と比較し、その変化回数が基準値よりも小さ
い場合は、文字領域を含むことを示す判別信号を出力
し、その一方、前記変化回数が基準値よりも大きい場合
は、網点領域を含むことを示す判別信号を出力する。そ
の結果、各ブロックの画像領域を示す判別信号が求めら
れ、さらに周辺ブロックの画像領域を示す判別信号など
を基に補正処理を行うものである。
In the BSET method, first, a difference value between a maximum signal level and a minimum signal level is obtained, the difference value is compared with a predetermined reference value, and when the difference value is smaller than a set value, the signal is determined. A discrimination signal indicating that the level change includes a photographic area with a gentle change is output. On the other hand, when the difference value is larger than the set value, it is determined that the signal level includes a sharply changing character or halftone dot area. The determination signal shown in FIG. Further, for a block indicated to include a character or a halftone dot region where the signal level greatly changes, the number of changes between the signal levels of spatially consecutive pixels is compared with a predetermined reference value, and the change is determined. If the number of times is smaller than the reference value, a discrimination signal indicating that the character area is included is output. On the other hand, if the number of changes is larger than the reference value, a discrimination signal indicating that the halftone area is included is output. I do. As a result, a discrimination signal indicating the image area of each block is obtained, and a correction process is performed based on the discrimination signal indicating the image area of the peripheral block.

【0005】この補正処理について説明する。まず、文
字領域の判別時に生じる誤判別が文字ストロークの末端
部分で発生することが多いということを考慮して、連続
する3つのブロックで外側の2ブロックがともに文字領
域であることを示す判別信号を出力しているとき、間の
1ブロックも文字領域を示す判別信号を出力するように
補正される。また、粗い網点領域の場合、識別精度が低
下するので、それを改善するために、画素の信号レベル
間の変化回数を比較する基準値の調整が成される。すな
わち、前記基準値として2通りの値を設定し、ブロック
エリア内で網点と判定されたブロックの数に基づいて上
記基準値を選択するものである。このような補正処理を
行うことにより、網点の識別精度は改善されるが、文字
部等で網点と誤判別されるブロックが増加する。そこ
で、さらに、文字の輪郭部分を抽出する、すなわち、平
均濃度が急激に変化している領域を抽出する処理が成さ
れる。
[0005] This correction processing will be described. First, in consideration of the fact that erroneous discrimination that occurs when discriminating a character area often occurs at the end of a character stroke, a discrimination signal indicating that the outer two blocks are both character areas in three consecutive blocks. Is output, the correction is made so that the one block in between also outputs the determination signal indicating the character area. In the case of a coarse halftone dot area, the identification accuracy is reduced. To improve the accuracy, a reference value for comparing the number of changes between signal levels of pixels is adjusted. That is, two values are set as the reference value, and the reference value is selected based on the number of blocks determined as halftone dots in the block area. By performing such a correction process, the accuracy of halftone dot identification is improved, but the number of blocks that are erroneously determined as halftone dots in a character portion or the like increases. Therefore, a process is further performed to extract the outline portion of the character, that is, to extract a region where the average density changes rapidly.

【0006】[0006]

【発明が解決しようとする課題】しかし、上記従来の画
像識別方法においては、下記に示す問題点がある。上記
の画像識別方法では、各特徴量毎に所定の閾値を設定
し、それぞれ別々に比較して画像領域の種別を判別して
いる。このとき、閾値付近で判別された画像領域は、誤
判別の可能性が高いと予測されるにもかかわらず、閾値
から離れた値(特徴量)を有する画像領域の場合と同様
に判別している。これは、予め定める閾値より大きいか
小さいかのみで判別しており、どの程度大きいのか、ま
たは、どの程度小さいのかという判別の信頼性を定量的
に表せる方法がなく、その結果、閾値近辺の値を有する
画像領域の誤判別が判別精度の低下を招いていると考え
られる。
However, the above-mentioned conventional image identification method has the following problems. In the above-described image identification method, a predetermined threshold is set for each feature amount, and the type of the image region is determined by comparing each feature separately. At this time, the image region determined near the threshold value is determined in the same manner as the image region having a value (feature amount) apart from the threshold value, although it is predicted that the possibility of erroneous determination is high. I have. This is determined only by whether the value is larger or smaller than a predetermined threshold value, and there is no method for quantitatively expressing the reliability of the determination of how large or small, and as a result, the value near the threshold value It is considered that the erroneous determination of the image region having the above causes the determination accuracy to decrease.

【0007】また、閾値が画像領域の識別精度に大きく
寄与しており、適切な閾値を設定することが難しいとい
う問題もある。
[0007] Further, there is a problem that the threshold value greatly contributes to the identification accuracy of the image area, and it is difficult to set an appropriate threshold value.

【0008】さらに、補正処理を行うことにより、誤判
別を少なくする方法が述べられているが、補正処理を行
ったことにより弊害が生じ、新たに補正を行わなければ
ならない等処理が非常に複雑になる。
Further, a method is described in which the correction processing is performed to reduce erroneous determinations. However, the correction processing has an adverse effect, and the processing must be newly corrected. become.

【0009】特開平8−125857号公報に記載の画
像処理装置は、神経回路網および入出力特性が予め神経
回路網により決められた2次元ルックアップテーブルを
用いて注目画素が属する領域の文字領域らしさ、写真ら
しさおよび網点らしさを数値化して表すことができる装
置である。しかし、画像領域を判別するために神経回路
網を用いると回路規模が大きくなったり、2次元のルッ
クアップテーブルを使用すると記憶容量が大きくなると
いう問題がある。
The image processing apparatus described in Japanese Patent Application Laid-Open No. 8-125857 discloses a character region of a region to which a pixel of interest belongs using a neural network and a two-dimensional lookup table whose input / output characteristics are determined in advance by the neural network. It is a device that can express the likeness, photographicness and halftone likeness in numerical form. However, there is a problem that the circuit scale becomes large when a neural network is used to determine an image area, and the storage capacity becomes large when a two-dimensional lookup table is used.

【0010】本発明は、定量的かつ精度良く領域分離処
理を行うことのできる画像処理装置、画像処理方法およ
び画像プログラムを記録した記録媒体を提供することを
目的とする。
An object of the present invention is to provide an image processing apparatus, an image processing method, and a recording medium on which an image program is recorded, which can perform a region separation process quantitatively and accurately.

【0011】[0011]

【課題を解決するための手段】本発明は、入力された画
像データに対して、各画素あるいは各ブロックが予め定
める複数種類の画像のいずれの領域に属するかを判別す
る処理を少なくとも有する画像処理装置において、前記
画像データを複数の画素からなるブロックに分割する分
割手段と、ブロック毎の画像データに関する複数の特徴
量を抽出する抽出手段と、複数の特徴量の各々に重み付
けして加算する一次式で表される線形判別関数を記憶す
る記憶手段と、前記抽出手段から抽出した複数の特徴量
を前記線形判別関数に代入して画素あるいはブロック毎
に判別スコアを算出する計算手段と、前記計算手段が算
出した判別スコアに基づいて、予め定める複数種類の画
像のいずれの領域に属するかを画素あるいはブロック毎
に判別する領域判別手段とを備えることを特徴とする画
像処理装置である。
According to the present invention, there is provided an image processing apparatus having at least a process for determining to which region of a plurality of types of images each pixel or each block belongs to input image data. A dividing unit that divides the image data into blocks each including a plurality of pixels; an extracting unit that extracts a plurality of feature amounts related to the image data of each block; and a primary unit that weights and adds each of the plurality of feature amounts. Storage means for storing a linear discriminant function represented by an expression; calculating means for calculating a discriminant score for each pixel or block by substituting a plurality of feature amounts extracted from the extracting means for the linear discriminant function; Means for determining, for each pixel or block, to which of a plurality of types of images a region belongs based on the determination score calculated by the means. An image processing apparatus, characterized in that it comprises a means.

【0012】本発明に従えば、複数の特徴量に重み付け
して加算する一次式によって表される線形判別関数に前
記ブロック毎に抽出した複数の特徴量を代入して判別ス
コアを算出し、算出した判別スコアに基づいて予め定め
る複数種類の画像のいずれの領域に属するかを画素ある
いはブロック毎に判別するので、各画像の種別を精度よ
く数値化して判定することができる。また、線形の判別
関数を使用するため、所定の閾値を必要とせず、回路規
模が縮小され記憶容量も小さくすることができる。これ
によって、画素あるいはブロックが写真、文字および網
点領域のいずれに属するかを判別したり、顔などの特定
領域の認識を行うことができる。
According to the present invention, a plurality of feature values extracted for each block are substituted into a linear discriminant function represented by a linear expression for weighting and adding a plurality of feature values, and a discrimination score is calculated. Since it is determined for each pixel or block which region of a plurality of types of predetermined images belongs based on the determined determination score, the type of each image can be accurately numerically determined. Further, since a linear discriminant function is used, a predetermined threshold value is not required, and the circuit scale and storage capacity can be reduced. As a result, it is possible to determine whether a pixel or a block belongs to a photograph, a character, or a halftone dot area, or to recognize a specific area such as a face.

【0013】また本発明は、前記画像処理装置は、前記
計算手段により算出された判別スコアが誤判別の可能性
が高いと予測される範囲に入るか否かを判定する誤判別
判定手段を備え、前記計算手段で算出した判別スコア
が、誤判別判定手段で誤判別の可能性が低いと判定され
た場合、前記算出した判別スコアに基づいて、領域判別
手段で予め定める複数種類の画像のいずれの領域に属す
るかを画素あるいはブロック毎に判別することを特徴と
する。
Further, according to the present invention, the image processing apparatus includes an erroneous determination determining means for determining whether or not the determination score calculated by the calculating means falls within a range in which the possibility of erroneous determination is high. If the discrimination score calculated by the calculation means is determined by the erroneous discrimination determination means to be less likely to be erroneously determined, any of a plurality of types of images predetermined by the area determination means is determined based on the calculated discrimination score. Is determined for each pixel or block.

【0014】本発明に従えば、算出された判別スコアが
誤判別の可能性が低いと判定された場合、前記算出した
判別スコアに基づいて、予め定める複数種類の画像のい
ずれの領域に属するかを画素あるいはブロック毎に判別
するので、予め求められた線形判別関数の特性を利用し
て各画像領域の誤判別を考慮することで、画像領域のき
め細やかな判別が可能となり、精度よく画像領域を分離
処理することができる。
According to the present invention, when it is determined that the calculated discrimination score has a low possibility of erroneous discrimination, it is determined to which of a plurality of types of predetermined image the image belongs based on the calculated discrimination score. Is determined for each pixel or block, and by taking into account erroneous determination of each image area using the characteristics of a linear determination function obtained in advance, fine determination of the image area becomes possible, and the image area can be accurately determined. Can be separated.

【0015】また本発明は、前記誤判別判定手段で誤判
別の可能性が高いと判定されたブロックは、ブロックの
大きさを変えて改めて計算手段で判別スコアを算出し誤
判別判定を行うことを特徴とする。
Further, according to the present invention, for a block which is determined to be highly likely to be erroneously determined by the erroneous determination determining means, the size of the block is changed and a calculating score is newly calculated by the calculating means to perform erroneous determination. It is characterized by.

【0016】本発明に従えば、誤判別判定手段で誤判別
の可能性が高いと判定されたブロックに対しては、ブロ
ックの大きさを変えて改めて計算手段で算出した判別ス
コアに基づいて誤判別判定を行うので、新たに周辺画素
の情報を加味した特徴量により判別精度が向上する。
According to the present invention, for a block determined to be highly likely to be erroneously determined by the erroneous determination determining means, the size of the block is changed and the erroneous determination is performed based on the determination score newly calculated by the calculating means. Since the separate judgment is performed, the discrimination accuracy is improved by the feature amount in which the information of the neighboring pixels is newly added.

【0017】また本発明は、ブロックの大きさを変えて
誤判別判定を行う処理が、所定回数繰り返された場合、
各ブロック毎に求められた判別スコアに基づいて領域判
別手段で領域判別を行うことを特徴とする。
Further, according to the present invention, when the process of making an erroneous determination by changing the size of a block is repeated a predetermined number of times,
The region is determined by the region determining means based on the determination score obtained for each block.

【0018】本発明に従えば、ブロックの大きさを変え
て、所定回数繰り返し誤判別判定を行う場合、ブロック
の大きさを変える前後で算出された画素あるいはブロッ
ク毎の判別スコアに基づいて領域判別を行うので、判別
結果の信頼性を表す判別スコアの値を比較して領域判別
され、誤判別の確率を小さくすることができる。
According to the present invention, when the erroneous determination is repeated a predetermined number of times by changing the size of the block, the area is determined based on the determination score for each pixel or block calculated before and after the change in the size of the block. Is performed, the area is determined by comparing the values of the determination scores indicating the reliability of the determination result, and the probability of erroneous determination can be reduced.

【0019】また本発明は、前記記憶手段には、異なる
複数の線形判別関数が記憶され、これらの線形判別関数
を用いて画像領域の判別を行うとき、各々の線形判別関
数毎に決まる誤判別の確率を比較し、その確率が小さい
関数を優先的に用いることを特徴とする。
Further, according to the present invention, the storage means stores a plurality of different linear discriminant functions, and when discriminating an image area using these linear discriminant functions, erroneous discrimination determined for each of the linear discriminant functions. Are compared, and a function having a small probability is preferentially used.

【0020】本発明に従えば、記憶手段には、異なる複
数の線形判別関数を記憶し、これらの線形判別関数を用
いて画像領域の判別を行うときには、各々の線形判別関
数毎に求まる誤判別の確率を比較して、その確率が小さ
い関数を優先的に用いるので、画像領域の種別の判別精
度を向上することができる。
According to the present invention, the storage means stores a plurality of different linear discriminant functions, and when discriminating an image region using these linear discriminant functions, an erroneous discrimination determined for each of the linear discriminant functions is performed. Are compared, and the function with the smaller probability is preferentially used, so that the accuracy of discriminating the type of the image region can be improved.

【0021】また本発明は、請求項1〜5のいずれかに
記載の画像処理装置を備えることを特徴とする画像形成
装置である。
Further, the present invention is an image forming apparatus comprising the image processing apparatus according to any one of claims 1 to 5.

【0022】本発明に従えば、精度良く画像領域を分離
できる画像処理装置を含んでいるので、高品質の画像を
出力することのできる画像形成処理装置を提供すること
ができる。
According to the present invention, since an image processing apparatus capable of separating an image area with high accuracy is included, an image forming processing apparatus capable of outputting a high-quality image can be provided.

【0023】また本発明は、入力された画像データに対
して、各画素あるいは各ブロックが予め定める複数種類
の画像のいずれの領域に属するかを判別する画像処理方
法において、前記画像データを複数の画素からなるブロ
ックに分割し、ブロック毎に複数の特徴量を抽出し、複
数の特徴量に重み付けして加算する一次式によって表さ
れる線形判別関数に前記ブロック毎に抽出した複数の特
徴量を代入して判別スコアを算出し、算出した判別スコ
アに基づいて予め定める複数種類の画像のいずれの領域
に属するかを画素あるいはブロック毎に判別することを
特徴とする画像処理方法である。
According to the present invention, there is provided an image processing method for determining to which region of a plurality of types of images each pixel or each block belongs with respect to input image data. Dividing into blocks composed of pixels, extracting a plurality of feature amounts for each block, weighting the plurality of feature amounts and adding the plurality of feature amounts extracted for each block to a linear discriminant function represented by a linear expression that is added An image processing method is characterized in that a discrimination score is calculated by substituting, and to which of a plurality of types of predetermined images a pixel or block belongs is determined based on the calculated discrimination score.

【0024】本発明に従えば、複数の特徴量に重み付け
して加算する一次式によって表される線形判別関数に前
記ブロック毎に抽出した複数の特徴量を代入して判別ス
コアを算出し、算出した判別スコアに基づいて予め定め
る複数種類の画像のいずれの領域に属するかを画素ある
いはブロック毎に判別するので、各画像の種別を精度よ
く数値化して判定することができる。また、線形の判別
関数を使用するため、所定の閾値を必要とせず、回路規
模が縮小され記憶容量も小さくすることができる。これ
によって、画素が写真、文字および網点領域のいずれに
属するかを判別したり、顔などの特定領域の認識を行う
ことができる。
According to the present invention, the discrimination score is calculated by substituting the plurality of feature quantities extracted for each block into a linear discriminant function represented by a linear expression that weights and adds the plurality of feature quantities. Since it is determined for each pixel or block which region of a plurality of types of predetermined images belongs based on the determined determination score, the type of each image can be accurately numerically determined. Further, since a linear discriminant function is used, a predetermined threshold value is not required, and the circuit scale and storage capacity can be reduced. This makes it possible to determine whether a pixel belongs to a photograph, a character, or a halftone dot area, or to recognize a specific area such as a face.

【0025】また本発明は、前記画像処理方法は、算出
された判別スコアが誤判別の可能性が高いと予測される
範囲に入るか否かを判定し、誤判別の可能性が低いと判
定された場合、前記算出した判別スコアに基づいて、予
め定める複数種類の画像のいずれの領域に属するかを画
素あるいはブロック毎に判別することを特徴とする。
Further, in the present invention, the image processing method preferably determines whether or not the calculated discrimination score falls within a range in which the possibility of erroneous determination is high, and determines that the possibility of erroneous determination is low. In this case, it is characterized in that it is determined for each pixel or block which region of a plurality of types of predetermined images belongs to based on the calculated determination score.

【0026】本発明に従えば、算出された判別スコアが
誤判別の可能性が低いと判定された場合、前記算出した
判別スコアに基づいて、文字領域・網点領域あるいは写
真領域のいずれの領域に属するかを画素あるいはブロッ
ク毎に判別するので、予め求められた線形判別関数の特
性を利用して各画像領域の誤判別を考慮することで、画
像領域のきめ細やかな判別が可能となり、精度よく画像
領域を分離処理することができる。
According to the present invention, when it is determined that the calculated discrimination score has a low possibility of erroneous discrimination, any one of the character area, the halftone dot area, and the photograph area is determined based on the calculated discrimination score. Is determined for each pixel or block, and by taking into account erroneous determination of each image area using the characteristics of a linear determination function obtained in advance, fine determination of image areas becomes possible. The image area can be well separated.

【0027】また本発明は、入力された画像データに対
して、各画素あるいは各ブロックが予め定める複数種類
の画像のいずれの領域に属するかを判別する画像処理を
行う際に、前記画像データを複数の画素からなるブロッ
クに分割し、ブロック毎に複数の特徴量を抽出し、複数
の特徴量に重み付けして加算する一次式によって表され
る線形判別関数に前記ブロック毎に抽出した複数の特徴
量を代入して判別スコアを算出し、算出した判別スコア
が誤判別の可能性が低いと判定された場合、予め定める
複数種類の画像のいずれの領域に属するかを画素あるい
はブロック毎に判別する処理方法をコンピュータに実行
させるためのプログラムを記録したコンピュータ読取り
可能な記録媒体である。
According to the present invention, when performing image processing for determining to which region of a plurality of types of images each pixel or each block belongs on input image data, the image data is A plurality of features extracted for each block are divided into blocks each including a plurality of pixels, a plurality of feature amounts are extracted for each block, and a linear discriminant function represented by a linear expression in which a plurality of feature amounts are weighted and added is added. The discrimination score is calculated by substituting the amount, and when it is determined that the possibility of the erroneous discrimination is low, it is determined for each pixel or block which region of a plurality of types of predetermined images belongs. It is a computer-readable recording medium on which a program for causing a computer to execute the processing method is recorded.

【0028】本発明に従えば、複数の特徴量に重み付け
して加算する一次式によって表される線形判別関数に前
記ブロック毎に抽出した複数の特徴量を代入して判別ス
コアを算出し、算出した判別スコアが誤判別の可能性が
低いと判定された場合、予め定める複数種類の画像のい
ずれの領域に属するかを画素あるいはブロック毎に判別
する処理方法をコンピュータに実行させるためのプログ
ラムをコンピュータ読取り可能な記録媒体に記録するの
で、パーソナルコンピュータやワークステーション等の
汎用のコンピュータに記憶媒体からプログラムを読込ま
せることにより、コンピュータに入力された画像に対し
て線形判別関数を用いた領域判別処理を施すことができ
る。
According to the present invention, a plurality of feature quantities extracted for each block are substituted into a linear discriminant function represented by a linear equation for weighting and adding a plurality of feature quantities to calculate a discrimination score. If the determined discrimination score is determined to be less likely to be erroneously discriminated, a computer-executable program for causing a computer to execute a processing method of discriminating, for each pixel or block, to which region of a plurality of types of predetermined images the pixel belongs. Since the program is recorded on a readable recording medium, a general-purpose computer such as a personal computer or a workstation reads the program from the storage medium, thereby performing an area discriminating process using a linear discriminant function on an image input to the computer. Can be applied.

【0029】[0029]

【発明の実施の形態】図1は、本発明の実施の一形態で
ある画像処理装置1の構成を示す図である。
FIG. 1 is a diagram showing a configuration of an image processing apparatus 1 according to an embodiment of the present invention.

【0030】画像処理装置1は、A/D(アナログ−デ
ジタル)変換部1a、シェーディング補正部1b、入力
階調補正処理部1c、領域分離処理部1d、色補正部1
e、黒生成下色除去部1f、空間フィルタ処理部1g、
出力階調補正部1hおよび階調再現処理部1iを含んで
構成される。たとえばスキャナ部より構成される画像入
力装置2によって、原稿の反射光像がRGB(R:赤・
G:緑・B:青)のアナログ信号としてCCD(Charge
Coupled Device)にて読取られ、画像処理装置1に画
像データとして入力される。画像処理装置1において
は、画像入力装置2から入力された画像データが、まず
A/D変換部1aによりデジタル信号に変換される。そ
して、シェーディング補正部1bにて画像入力装置の照
明系・結像系・撮像系で生じる各種の歪みを取除く処理
が行われる。その後、入力階調補正処理部1cにより、
画像データであるRGBの反射率信号を、カラーバラン
スを整えるのと同時に、濃度信号など画像処理システム
の扱いやすい信号に変換する処理が施される。
The image processing apparatus 1 includes an A / D (analog-digital) conversion section 1a, a shading correction section 1b, an input gradation correction processing section 1c, an area separation processing section 1d, and a color correction section 1.
e, black generation and under color removal section 1f, spatial filter processing section 1g,
It comprises an output tone correction section 1h and a tone reproduction processing section 1i. For example, a reflected light image of a document is converted into RGB (R: red
CCD (Charge) as an analog signal of G: green, B: blue
The image data is read by a coupled device and input to the image processing apparatus 1 as image data. In the image processing device 1, image data input from the image input device 2 is first converted into a digital signal by the A / D converter 1a. Then, the shading correction unit 1b performs a process of removing various types of distortion generated in the illumination system, the imaging system, and the imaging system of the image input device. After that, the input tone correction processing unit 1c
At the same time as adjusting the color balance of the RGB reflectance signal, which is image data, a process of converting the signal into a signal such as a density signal that is easy to handle by the image processing system is performed.

【0031】次に、領域分離処理部1dでは、文字、写
真および網点混在原稿に対して、文字、写真および網点
領域の各領域に分離する処理が成される。各領域の領域
判別信号は、黒生成下色除去部1f、空間フィルタ処理
部1gおよび階調再現処理部1iにそれぞれ出力され
る。領域分離処理部の詳細については後述する。また、
元の入力信号はそのまま後段の色補正部に出力される。
Next, in the area separation processing section 1d, processing for separating a character, photograph, and halftone dot area into each of the text, photograph, and halftone dot areas is performed on the original. The area determination signal of each area is output to the black generation and under color removal section 1f, the spatial filter processing section 1g, and the tone reproduction processing section 1i. Details of the region separation processing unit will be described later. Also,
The original input signal is output as it is to the subsequent color correction unit.

【0032】色補正部1eでは色再現の忠実化実現のた
めに、不要吸収成分を含むCMY(C:シアン・M:マ
ゼンタ・Y:イエロー)色材の分光特性に基づいた色濁
りを取除く処理が行われる。そして、黒生成下色除去部
1fで、色補正後のCMYの3色信号から黒(K)信号
を生成する黒生成、元のCMY信号から黒生成で得たK
信号を差引いて新たなCMY信号を生成する処理が行わ
れ、CMYの3色信号はCMYKの4色信号に変換され
る。
The color correction section 1e removes color turbidity based on the spectral characteristics of CMY (C: cyan, M: magenta, Y: yellow) color materials containing unnecessary absorption components in order to realize faithful color reproduction. Processing is performed. The black generation and under color removal unit 1f generates a black (K) signal from the CMY three-color signals after the color correction and generates a black (K) signal from the original CMY signal.
A process of generating a new CMY signal by subtracting the signal is performed, and the CMY three-color signal is converted into a CMYK four-color signal.

【0033】次に、空間フィルタ処理部1gにて、得ら
れた画像信号に対して、デジタルフィルタによる空間フ
ィルタ処理が成され、空間周波数特性を補正することに
よって出力画像のボヤケや粒状性劣化を防ぐよう処理さ
れる。
Next, in the spatial filter processing section 1g, the obtained image signal is subjected to spatial filter processing by a digital filter, and the spatial frequency characteristics are corrected to reduce blurring and graininess of the output image. Processed to prevent.

【0034】領域分離処理部1dにて、文字領域と判断
された画像領域は、特に黒文字あるいは色文字の再現性
を高めるために、空間フィルタ処理における鮮鋭度強調
処理で高域周波数の強調量が大きくされる。同時に、階
調再現処理部1iにおいては、高域周波数の再現に適し
た高解像のスクリーンでの二値化または多値化処理が選
択される。
The image area determined to be a character area by the area separation processing section 1d has a sharpness enhancement processing in a spatial filter processing in which the amount of enhancement of a high frequency is enhanced in order to enhance the reproducibility of a black character or a color character. Be enlarged. At the same time, in the tone reproduction processing section 1i, binarization or multi-value processing on a high-resolution screen suitable for reproduction of a high frequency range is selected.

【0035】一方、領域分離処理部1dにて網点と判別
された領域に関しては、モアレを除去するためのローパ
ス・フィルタ処理等適切な処理が施される。
On the other hand, an area determined as a halftone dot by the area separation processing section 1d is subjected to appropriate processing such as low-pass filtering for removing moire.

【0036】そして、出力階調補正部1hで、濃度信号
などの信号を画像出力装置の特性値である網点面積率に
変換する出力階調補正処理が行われ、最終的に階調再現
処理部1iで、画像を画素に分割してそれぞれの階調を
再現できるように処理する階調再現処理(中間調生成)
が成される。領域分離処理部1dにて、写真領域と判断
された画像領域については、階調再現性を重視したスク
リーンでの二値化または多値化処理が成される。
The output tone correction section 1h performs output tone correction processing for converting a signal such as a density signal into a dot area ratio which is a characteristic value of the image output apparatus. In the unit 1i, a tone reproduction process (halftone generation) for dividing an image into pixels and performing processing so that each tone can be reproduced.
Is performed. For the image area determined to be a photograph area by the area separation processing unit 1d, binarization or multi-value processing is performed on a screen that emphasizes tone reproducibility.

【0037】上述した各処理が施された画像データは、
一旦記憶手段に記憶され、所定のタイミングで読出され
て画像出力処置3に入力される。
The image data subjected to each of the above-described processes is
The information is temporarily stored in the storage unit, read out at a predetermined timing, and input to the image output unit 3.

【0038】この画像出力装置3は、画像データを記録
媒体(たとえば紙等)上に出力するもので、たとえば、
電子写真方式やインクジェット方式を用いたモノカラー
およびカラー画像形成装置等を挙げることができるが、
特に限定されるものではない。
The image output device 3 outputs image data on a recording medium (for example, paper).
Mono-color and color image forming apparatuses using an electrophotographic method or an ink-jet method, and the like,
There is no particular limitation.

【0039】以下、本発明について説明する。以下の説
明では各画素毎に領域の判別を行う方法を例にして説明
するが、本発明はこれに限定されるものではなく、複数
の画素よりなるブロック毎に領域判別を行う場合に適用
することも可能である。
Hereinafter, the present invention will be described. In the following description, a method of determining a region for each pixel will be described as an example. However, the present invention is not limited to this, and is applied to a case where a region is determined for each block including a plurality of pixels. It is also possible.

【0040】領域分離処理部1dの構成 図2は、領域分離処理部1dの構成を示すブロック図で
ある。
FIG. 2 is a block diagram showing the configuration of the area separation processing section 1d.

【0041】領域分離処理部1dは、入力信号端子8、
分割処理部9、ブロックメモリ10、特徴抽出部11、
計算部12、誤判別判定部13、判別部14、記憶部1
5、補正処理部16および出力信号端子17を含んで構
成される。以下、各々について説明する。
The segmentation processing section 1d includes an input signal terminal 8,
Division processing unit 9, block memory 10, feature extraction unit 11,
Calculation unit 12, erroneous determination determination unit 13, determination unit 14, storage unit 1
5, a configuration including a correction processing unit 16 and an output signal terminal 17. Hereinafter, each will be described.

【0042】1)入力信号端子8 画像信号、今の場合、入力階調補正処理部1cにて前述
した処理が施された画像データが入力される。
1) Input signal terminal 8 An image signal, in this case, the image data which has been subjected to the above-described processing by the input gradation correction processing section 1c is input.

【0043】2)分割処理部9 入力信号端子から取込まれた画像データより、局所的な
画像の特徴を抽出するために、画像データを複数の画素
からなるブロックに分割する分割手段である。たとえ
ば、m×n画素のブロックに分割する。
2) Division unit 9 This is a division unit that divides image data into blocks composed of a plurality of pixels in order to extract local image features from image data fetched from an input signal terminal. For example, it is divided into blocks of m × n pixels.

【0044】3)ブロックメモリ10 分割処理部で分割されたブロック内の各画素の情報を格
納する。
3) Block memory 10 Stores information of each pixel in the block divided by the division processing unit.

【0045】4)特徴抽出部11 ブロックメモリに格納された情報に基づいてブロック毎
の画像データに関する各種の特徴量を抽出する抽出手段
である。特徴量は、最大濃度値と最小濃度値の差分値、
濃度の分散値、主走査方向の濃度差の絶対値の総和、副
走査方向の濃度差の絶対値の総和、主走査方向の濃度反
転回数の総和、副走査方向の濃度反転回数の総和、主走
査方向の最大濃度ランレングスの最大値、副走査方向の
最大濃度ランレングスの最大値などである。
4) Feature extracting unit 11 This is an extracting means for extracting various feature amounts relating to image data for each block based on information stored in the block memory. The feature value is a difference value between the maximum density value and the minimum density value,
Density dispersion value, sum of absolute values of density differences in the main scanning direction, sum of absolute values of density differences in the sub-scanning direction, total number of density inversions in the main scanning direction, total number of density inversions in the sub-scanning direction, The maximum value of the maximum density run length in the scanning direction, the maximum value of the maximum density run length in the sub-scanning direction, and the like.

【0046】5)記憶部15 予め判別分析法によって求められた各画像領域の種別を
判別するための線形判別関数と誤判別の可能性が高いと
予測される区間を記憶する記憶手段である。また、線形
判別関数に優先順位をつけて判別処理を行う方法におい
て、誤判別区間内にある、あるいは、誤判別区間を除く
対象領域外と判断された場合、その判別結果を格納す
る。
5) Storage unit 15 This is storage means for storing a linear discriminant function for discriminating the type of each image area obtained in advance by a discriminant analysis method and a section in which the possibility of erroneous discrimination is predicted to be high. Further, in the method of performing the determination process by assigning priorities to the linear discriminant functions, when it is determined that it is within the erroneous determination section or outside the target area excluding the erroneous determination section, the determination result is stored.

【0047】6)計算部12 特徴抽出部11で抽出された特徴量と記憶部15に格納
されている線形判別関数から画像領域の種別を判別する
ための判別スコアを計算する計算手段である。
6) Calculator 12 This is a calculator for calculating a discrimination score for discriminating the type of the image area from the feature quantity extracted by the feature extractor 11 and the linear discriminant function stored in the storage 15.

【0048】7)誤判別判定部13 計算部12で得られた判別スコアが記憶部に格納されて
いる誤判別の可能性が高いと予測される範囲に入るか否
かを判定する誤判別判定手段である。
7) Misjudgment Judgment Unit 13 Misjudgment judgment for judging whether or not the judgment score obtained by the calculation unit 12 is in the range stored in the storage unit and in which the possibility of misjudgment is high. Means.

【0049】8)判別部14 誤判別判定部13において誤判別の可能性が低いと予測
された画素に対して、計算部12で計算された判別スコ
アに基づいて画像領域の種別を判別する領域判別手段で
ある。なお、各画素毎の判別は、ブロックの中心位置に
ある画素を注目画素としてその注目画素の特徴量を抽出
することで行っている。
8) Discrimination Unit 14 An area for discriminating the type of the image area based on the discrimination score calculated by the calculation unit 12 for a pixel predicted to be unlikely to be misidentified by the misjudgment judgment unit 13. It is a determining means. The determination for each pixel is performed by using the pixel at the center position of the block as the target pixel and extracting the feature amount of the target pixel.

【0050】9)補正処理部16 誤判別判定部13において誤判別の可能性が高いと予測
された(誤判別区間に分類された)画素に対して、分割
するブロックの大きさを大きくして再度特徴量を抽出
し、線形判別関数を用いて判別スコアを算出する。ま
た、この処理を所定回数繰返しても当該画素が誤判別の
可能性が高いと予測される場合は、補正処理前後にて算
出された判別スコアの絶対値を比較することにより領域
判別処理を行う。
9) Correction processing unit 16 The size of the block to be divided is increased for the pixel which is predicted to be highly likely to be erroneously determined by the erroneous determination unit 13 (classified into the erroneously determined section). The feature amount is extracted again, and a discrimination score is calculated using a linear discriminant function. If the pixel is predicted to have a high possibility of erroneous determination even after repeating this process a predetermined number of times, the area determination process is performed by comparing the absolute values of the determination scores calculated before and after the correction process. .

【0051】10)出力信号端子17 上記の処理により画像領域の領域判別信号を出力する。10) Output signal terminal 17 Outputs an area determination signal of an image area by the above processing.

【0052】特徴抽出部11の説明 具体的に、特徴抽出部11において抽出される各特徴量
の一例を説明する。図3は、特徴抽出部11に含まれる
各特徴量を算出するための算出回路の構成を示してお
り、ブロックメモリ10に格納されているブロック毎の
各画素に対して処理を行う。ここでは、特徴量として、
最大濃度値と最小濃度値との差分値、濃度の分散値、主
走査方向の濃度差の絶対値の総和、副走査方向の濃度差
の絶対値の総和、主走査方向の濃度反転回数の総和、副
走査方向の濃度反転回数の総和、主査走査方向の最大濃
度ランレングスの最大値および副査走査方向の最大濃度
ランレングスの最大値を用いる。
Description of Feature Extraction Unit 11 An example of each feature amount extracted by the feature extraction unit 11 will be specifically described. FIG. 3 shows a configuration of a calculation circuit for calculating each feature amount included in the feature extraction unit 11, and performs processing on each pixel of each block stored in the block memory 10. Here, as the feature amount,
Difference value between maximum density value and minimum density value, density variance value, sum of absolute values of density differences in the main scanning direction, sum of absolute values of density differences in the sub-scanning direction, total number of density inversions in the main scanning direction , The total number of density inversions in the sub scanning direction, the maximum value of the maximum density run length in the main scanning direction, and the maximum value of the maximum density run length in the sub scanning direction.

【0053】最大濃度検出回路18では、ブロック内の
画素の最大濃度値を、最小濃度検出回路19では、ブロ
ック内の画素の最小濃度値を検出する。差分器20では
最大濃度値と最小濃度値との差分値が求められる。この
最大濃度値と最小濃度値の差分値は、写真領域では階調
性を有するため小さくなる傾向にあり、文字領域や網点
領域では大きくなる傾向にあり、写真領域とそれ以外の
領域とをを判別するのに有効である。
The maximum density detection circuit 18 detects the maximum density value of the pixels in the block, and the minimum density detection circuit 19 detects the minimum density value of the pixels in the block. The difference device 20 calculates a difference value between the maximum density value and the minimum density value. The difference between the maximum density value and the minimum density value tends to be small in the photographic area because of the gradation, and tends to be large in the character area and the halftone dot area. It is effective to determine.

【0054】濃度の分散値は、ブロック内の画素濃度の
分散値で、濃度分散値算出回路21により算出される。
この濃度値の分散値は、写真領域では、濃度変化がなだ
らかであることから大きくなる傾向にあり、写真領域と
それ以外とを判別するのに有効である。
The density variance value is a variance value of the pixel density in the block, and is calculated by the density variance value calculation circuit 21.
The variance of the density value tends to increase in the photographic region because the density change is gentle, and is effective for discriminating between the photographic region and the rest.

【0055】主走査方向の濃度差の絶対値の総和は、主
走査方向にラスタ走査し、隣接する画素間の濃度差の絶
対値を加算していき、それらの総和を主走査方向濃度差
分値の絶対値総和算出回路22により算出する。副走査
方向の濃度差の絶対値の総和は、副走査方向にラスタ走
査し、隣接する画素間の濃度差の絶対値を加算してい
き、それらの総和を副走査方向濃度差分値の絶対値総和
算出回路23により算出する。網点領域では、濃度値が
頻繁に変化するので、主走査方向ならびに副走査方向の
濃度差の絶対値の総和が、文字領域に比べて大きくなる
傾向にあり、文字領域と網点領域とを判別するのに有効
である。
The sum of the absolute values of the density differences in the main scanning direction is calculated by performing raster scanning in the main scanning direction, adding the absolute values of the density differences between adjacent pixels, and calculating the sum of the density differences in the main scanning direction. Is calculated by the absolute value sum calculation circuit 22. The sum of the absolute values of the density differences in the sub-scanning direction is calculated by performing raster scanning in the sub-scanning direction, adding the absolute values of the density differences between adjacent pixels, and calculating the sum of the absolute values of the density differences in the sub-scanning direction. The sum is calculated by the sum calculation circuit 23. In the halftone dot area, since the density value changes frequently, the sum of the absolute values of the density differences in the main scanning direction and the sub-scanning direction tends to be larger than that in the text area. It is effective to determine.

【0056】主走査方向の濃度反転回数の総和は、2値
化回路24により各ブロックのデータを2値化処理後、
主走査方向濃度反転回数総和算出回路25により主走査
方向に対して連続する画素間で発生する濃度の反転回数
を算出する。副走査方向の濃度反転回数の総和も同様に
副走査方向濃度反転回数総和算出回路26により副走査
方向に対して連続する画素間で発生する濃度の反転回数
を算出する。網点領域では、濃度の反転回数が大きくな
る傾向があり、網点領域とそれ以外を判別するのに有効
である。
The sum of the number of density inversions in the main scanning direction is determined by binarizing the data of each block by the binarizing circuit 24.
The total number of times of density inversion in the main scanning direction calculation circuit 25 calculates the number of times of density inversion that occurs between consecutive pixels in the main scanning direction. Similarly, the total number of density inversions in the sub-scanning direction is calculated by the sub-scanning direction density inversion number total calculation circuit 26 to calculate the number of density inversions occurring between pixels that are continuous in the sub-scanning direction. In a halftone dot region, the number of times of reversal of the density tends to increase, which is effective for discriminating a halftone dot region from the others.

【0057】主走査方向の最大濃度ランレングスの最大
値は、2値化処理後、主走査方向ランレングス最大値検
出回路27により主走査方向に対して最大濃度のランレ
ングスが算出され、その最大値として検出される。副走
査方向の最大濃度ランレングスの最大値も同様に、副走
査方向ランレングス最大値検出回路28により副走査方
向に対して最大濃度のランレングスが算出され、その最
大値が検出される。網点領域では、ランレングスの最大
値が小さくなる傾向にあり、網点領域とそれ以外を判別
するのに有効である。上記各回路により抽出された特徴
量は、後段の計算部12に出力される。
The maximum value of the maximum density run length in the main scanning direction is calculated by the main scanning direction run length maximum value detection circuit 27 after the binarization processing, and the maximum density run length in the main scanning direction is calculated. Detected as a value. Similarly, the maximum value of the maximum density run length in the sub-scanning direction is calculated by the maximum scanning length run-length detection circuit 28 in the sub-scanning direction, and the maximum value is detected. In a halftone dot region, the maximum value of the run length tends to be small, which is effective for discriminating a halftone dot region from the rest. The feature values extracted by the above circuits are output to the calculation unit 12 at the subsequent stage.

【0058】記憶部15の説明 記憶部15では、予め判別分析法によって求められた各
画像領域の種別を判別するための線形判別関数が複数記
憶されている。また、誤判別の可能性が高いと予測され
る区間が各線形判別関数毎に記憶されている。判別分析
法および線形判別関数については後述する。
Description of Storage Unit 15 The storage unit 15 stores a plurality of linear discriminant functions for discriminating the type of each image area obtained in advance by the discriminant analysis method. Further, a section in which the possibility of erroneous discrimination is predicted to be high is stored for each linear discriminant function. The discriminant analysis method and the linear discriminant function will be described later.

【0059】また、線形判別関数に優先順位をつけて判
別処理を行う方法においては、誤判別判別区間内にあ
る、あるいは、誤判別区間を除く対象領域外と判断され
た場合、その線形判別関数に対応つけて判別結果が格納
される。
Also, in the method of performing the discrimination processing by assigning priorities to the linear discriminant functions, when it is determined that the linear discriminant function is within the erroneous discrimination interval or outside the target area excluding the erroneous discrimination interval, Is stored in association with.

【0060】計算部12の説明 計算部12では、記憶部15に格納されている各画像領
域の種別毎に用意された線形判別関数により、各画像領
域の種別の判別とその判別の確からしさを表す判別スコ
アを計算する。この判別スコアは、符号の正負によって
2つのグループのどちらに属するか判別し、その絶対値
によってその判別の確からしさが判る。さらに、絶対値
を用いて誤判別の可能性が高いか否かを判定することが
できる。すなわち、記憶部15に格納されている所定の
線形判別関数を選択して判別スコアを計算し、その正負
によって画像領域の種別の判別を行う。
Description of the Calculation Unit 12 The calculation unit 12 determines the type of each image area and the likelihood of the determination by using a linear discriminant function prepared for each type of image area stored in the storage unit 15. Calculate the discrimination score to represent. The discrimination score determines which of the two groups belongs to whether the sign is positive or negative, and the absolute value indicates the certainty of the discrimination. Furthermore, it is possible to determine whether the possibility of erroneous determination is high using the absolute value. That is, a predetermined linear discriminant function stored in the storage unit 15 is selected, a discrimination score is calculated, and the type of the image area is discriminated based on the sign.

【0061】以下、具体的に説明する。特徴抽出部11
により抽出された各種の特徴量は、多変量解析法により
画像領域の種別の群予測が成される。ここでは、抽出さ
れる各種の特徴量は、予め重回帰分析により選択されて
おり、画像領域の種別(文字、網点および写真領域)の
群予測を行う方法としては、上記した判別分析法を用い
る。このとき、これら各種の特徴量を説明変量とし、画
像領域の種別に応じた線形判別関数(たとえば、文字・
網点・写真領域に応じた3種類の線形判別関数)を導出
し、記憶部15に格納しておく。
Hereinafter, a specific description will be given. Feature extraction unit 11
The various feature amounts extracted by are subjected to a group prediction of the type of the image region by a multivariate analysis method. Here, various feature amounts to be extracted are selected in advance by multiple regression analysis, and the above-described discriminant analysis method is used as a method for performing group prediction of the type of image region (character, halftone dot, and photograph region). Used. At this time, these various feature amounts are used as explanatory variables, and a linear discriminant function (for example, a character
Three types of linear discriminant functions corresponding to the halftone dot / photograph area are derived and stored in the storage unit 15.

【0062】画像領域の種別に応じた線形判別関数を備
える理由は、各画像領域の種別によってその物理的な特
徴には差異があるため、上記したように、各画像領域の
種別の同定に寄与の大きい特徴量が異なるためである。
よって、各画像領域の種別に応じた線形判別関数を備え
ることにより、各画像領域の種別の判別に寄与の大きい
特徴量を用いて総合的かつ定量的に画像領域の種別の判
別が可能となる。上記では、画像領域の種別に応じた線
形判別関数を用いる方法について述べているが、写真領
域と写真以外の領域に分ける線形判別関数および写真以
外の領域について文字と網点領域に分ける線形判別関数
の2種類を用いても構わない。
The reason for providing the linear discriminant function according to the type of image region is that, as described above, there is a difference in physical characteristics depending on the type of each image region. This is because the feature amounts having large differences are different.
Therefore, by providing a linear discriminant function corresponding to the type of each image region, it is possible to comprehensively and quantitatively determine the type of the image region using a feature amount that greatly contributes to the determination of the type of each image region. . In the above description, a method using a linear discriminant function according to the type of the image region is described. However, a linear discriminant function for dividing a photograph region and a region other than a photograph and a linear discriminant function for dividing a region other than a photograph into a character and a halftone dot region These two types may be used.

【0063】線形判別関数は、多変量解析法の1つであ
る判別分析法により求めることができる。判別分析法と
は、予め2つのグループGLとGRに分けるための1次式
を求めておき、その1次式の計算結果の正負によりどち
らのグループに属するか判別する手法である。たとえ
ば、説明変量をx1,x2,…,xpとすると、線形判別
関数はp次元の1次式Z=a0+a11+a22+…+
ppとなる。このZを判別スコアと呼ぶ。この判別ス
コアの正負によりグループGLとGRのどちらに属するか
判別できる。また、この判別スコアの大きさにより判別
の信頼性を図ることも可能である(判別スコアの絶対値
が大きいほど信頼性は高くなる)。さらに、線形判別関
数を複数用いることにより、3つ以上のグループに分け
ることも可能である。このように複数の線形判別関数を
用いることにより、非線形な関数やルックアップテーブ
ルなどを用いた場合と比べて、回路規模の縮小化やメモ
リの小容量化が図れると期待できる。
The linear discriminant function can be obtained by a discriminant analysis method, which is one of the multivariate analysis methods. The discriminant analysis method, in advance two groups G L and to previously obtain the linear equation for dividing the G R, a technique for discriminating belongs to which group the positive and negative of the first-order equation of the calculation results. For example, if the explanatory variables are x 1 , x 2 ,..., X p , the linear discriminant function is a p-dimensional linear equation Z = a 0 + a 1 x 1 + a 2 x 2 +.
become a p x p. This Z is called a discrimination score. The sign of the discriminant score can be determined belongs to which group G L and G R. It is also possible to improve the reliability of the determination by the magnitude of the determination score (the higher the absolute value of the determination score, the higher the reliability). Furthermore, by using a plurality of linear discriminant functions, it is also possible to divide into three or more groups. By using a plurality of linear discriminant functions in this way, it can be expected that the circuit scale and the memory capacity can be reduced as compared with the case where a non-linear function or a look-up table is used.

【0064】上記判別分析法を領域判別処理に適用する
場合、説明変量x1,x2,…,xpは、前述した特徴抽
出部で抽出された特徴量とすることができる。すなわ
ち、最大濃度値と最小濃度値の差分値、濃度の分散値、
主走査方向の濃度差の絶対値の総和、副走査方向の濃度
差の絶対値の総和、主走査方向の濃度反転回数の総和、
副走査方向の濃度反転回数の総和、主走査方向の最大濃
度ランレングスの最大値および副走査方向の最大濃度ラ
ンレングスの最大値などの特徴量が説明変量x1,x2
…,xpとなる。また、係数a1,a2,…,apは、重回
帰分析により、たとえば写真領域と他の領域とを分離す
る場合、写真か否かが判別された複数の画像サンプルを
用いて予め決定される。
When the above discriminant analysis method is applied to the area discriminating process, the explanatory variables x 1 , x 2 ,..., X p can be the feature amounts extracted by the above-described feature extracting unit. That is, the difference value between the maximum density value and the minimum density value, the variance value of the density,
The sum of the absolute values of the density differences in the main scanning direction, the sum of the absolute values of the density differences in the sub-scanning direction, the sum of the number of density inversions in the main scanning direction,
The feature quantities such as the total number of density inversions in the sub-scanning direction, the maximum value of the maximum density run length in the main scanning direction, and the maximum value of the maximum density run length in the sub-scanning direction are explained variables x 1 , x 2 ,
..., and x p. Further, the coefficients a 1 , a 2 ,..., A p are determined in advance by using a plurality of image samples which have been determined to be a photograph or not in the case of separating a photograph region from other regions by multiple regression analysis. Is done.

【0065】複数の線形判別関数を用いて画像領域の種
別を判別する場合(2つの判別関数を順次使用する場合
は除く)、各々の線形判別関数毎に求められる誤判別の
確率を比較し、その誤判別の確率が小さい線形判別関数
を優先的に用いて領域分離処理を行うのが好ましい。こ
のようにすることで、領域分離処理の精度を上げること
が可能になる。
When discriminating the type of an image area using a plurality of linear discriminant functions (excluding the case where two discriminant functions are used sequentially), the probability of erroneous discrimination obtained for each linear discriminant function is compared. It is preferable to preferentially use a linear discriminant function having a small probability of the erroneous discrimination to perform the region separation processing. By doing so, it is possible to improve the accuracy of the region separation processing.

【0066】誤判別判定部13および判別部14の説
明 誤判別判定部13では、計算部12で得られた判別スコ
アが、記憶部15に格納されている誤判別の可能性が高
いと予測される区間内に入るか否かを判定する。誤判別
の可能性が低い場合は、判別部14において、画像領域
の種別の判別が行われる。
Description of Misjudgment Judgment Unit 13 and Judgment Unit 14 The misjudgment judgment unit 13 predicts that the judgment score obtained by the calculation unit 12 has a high possibility of erroneous judgment stored in the storage unit 15. It is determined whether or not to enter the section to be performed. When the possibility of the erroneous determination is low, the determination unit 14 determines the type of the image area.

【0067】判別部14では、計算部12で得られた判
別スコアを画像領域の種別の判定要因として用い、判別
スコアの符号の正負によって画像領域の種別を判別し、
領域判別信号として出力する。たとえば、写真領域か否
かを判別する場合、予め判別分析法によって求められた
線形判別関数を用いて、写真領域らしさを表す判別スコ
アを計算し、その判別スコアの符号が正のとき写真領域
と判別し、負のとき写真領域以外と判別する。
The discrimination section 14 uses the discrimination score obtained by the calculation section 12 as a judgment factor for the type of the image area, and discriminates the type of the image area by the sign of the discrimination score.
It is output as an area determination signal. For example, when determining whether or not a photograph area, a discriminant score representing the likeness of a photograph area is calculated using a linear discriminant function previously obtained by a discriminant analysis method. If the value is negative, it is determined that the area is not the photographic area.

【0068】具体的に、誤判別判定部13と判別部14
について説明する。図4は、判別スコアZの分布を示し
た図であり、予め判別分析法による2つのグループGL
とGRに分類された画像サンプル(たとえば、写真領域
とそれ以外)を用いて線形判別関数を導出している。こ
の分布図は、線形判別関数の特徴を表しているもので、
グループGL,GRは正規分布に従うと仮定している。そ
して、グループGL29をグループGR30に誤って判別
する確率をPLR、グループGR30をグループG L29に
誤って判別する確率をPRLとして、これらの確率が等し
く(PLR=PRL)なるように正規化し(図4中の2つの
斜線部)、判別スコアZの符号の正負によりグループG
L29とグループGR30を分類する。ここで、両グルー
プを誤って判別する確率をP(=PLR=PRL)とする
と、この確率Pは、この線形判別関数の判別精度を表し
ており、この線形判別関数を用いて判定した場合、Pの
確率で誤判別が起きるということになる。
More specifically, the erroneous determination determining unit 13 and the determining unit 14
Will be described. FIG. 4 shows the distribution of the discrimination score Z.
FIG. 2 shows two groups G by a discriminant analysis method in advance.L
And GRImage samples (for example, photo area
And others) to derive a linear discriminant function. This
Is a characteristic of the linear discriminant function.
Group GL, GRIs assumed to follow a normal distribution. So
And group GL29 for Group GRMisidentified to 30
The probability ofLR, Group GR30 to Group G LOn 29
The probability of misjudgment is PRLAs these probabilities are equal
(PLR= PRL) (The two
Group G based on the sign of the discrimination score Z
L29 and Group GRClassify 30. Here, both glues
P (= PLR= PRL)
And the probability P represents the discrimination accuracy of the linear discriminant function.
When the determination is made using this linear discriminant function,
It means that misclassification occurs with probability.

【0069】図4における2つの正規分布曲線の斜線部
を含む判別スコアZ上の区間を誤判別区間[TR≦Z≦
L]31(TL:正規分布曲線に従うグループGLの判
別スコアZ上における線形判別関数の最大値,TR:グ
ループGRの判別スコアZ上における線形判別関数の最
小値)とすると、この誤判別区間31に入る判別スコア
Zを有するブロックは、誤判別の可能性が高いと判断さ
れる。ここで誤判別区間[TR≦Z≦TL]31は、グル
ープGL29,GR30が正規分布に従うことを考慮し
て、グループGL29・グループGR30の平均値EL
Rと、標準偏差sLおよびsRとから、TR≒ER−3
R,TL≒EL+3sLとして求めることができる。
The section on the discrimination score Z including the hatched portions of the two normal distribution curves in FIG. 4 is referred to as an erroneous discrimination section [T R ≦ Z ≦
T L] 31 (T L: Maximum value of discriminant analysis on discriminant score Z of the group G L following the normal distribution curve, T R: Minimum value of discriminant analysis on discriminant score Z group G R) and when, A block having a discrimination score Z that falls within the erroneous discrimination section 31 is determined to have a high possibility of erroneous discrimination. Here misclassified interval [T R ≦ Z ≦ T L ] 31 , the group G L 29, G R 30 Considering that follows a normal distribution, the group G average value of L 29 · Group G R 30 E L ·
From E R and the standard deviations s L and s R , T R ≒ E R -3
s R , T L ≒ E L + 3s L

【0070】以上をまとめると、判別スコアZが誤判別
区間外の場合は、そのまま判別部14で判別スコアZの
正負により画像領域の種別を判別し、誤判別区間内の場
合は、補正処理部16において、画像信号を分割する
ブロックの大きさを大きくして判別スコアを求める、
ブロックの大きさを可変する前後の判別スコアの絶対値
を比較する等の処理により画素の領域判別を行う。これ
により、誤判別区間内における判別精度の低下を招いて
いた画素を精度よく分類することが可能となる。
To summarize the above, when the discrimination score Z is outside the erroneous discrimination section, the discrimination section 14 directly discriminates the type of the image area based on the sign of the discrimination score Z. At 16, the discrimination score is obtained by increasing the size of the block that divides the image signal.
Pixel area determination is performed by processing such as comparing the absolute values of the determination scores before and after changing the block size. This makes it possible to accurately classify pixels that have caused a decrease in determination accuracy in the erroneous determination section.

【0071】なお、両グループを誤って判別する確率P
が充分小さな値であれば、この線形判別関数の判別精度
は高いことになり、誤判別判定手段を設けたり記憶手段
に誤判別の可能性が高いと予測された範囲を格納する必
要はない。すなわち、この場合、線形判別関数の判別ス
コアの正負により画像領域の判別処理が行われる。
Note that the probability P of erroneously discriminating both groups is
Is sufficiently small, the discrimination accuracy of this linear discriminant function is high, and it is not necessary to provide an erroneous discrimination determining means or to store a range in which the possibility of erroneous discrimination is predicted to be high in the storage means. That is, in this case, the discrimination processing of the image area is performed based on the sign of the discrimination score of the linear discriminant function.

【0072】また、上記確率Pを線形判別関数毎に対応
づけて記憶部15に格納しておいてもよい。線形判別関
数を変更する場合、変更しようとする線形判別関数の確
率を直ちに知ることができ、新たに導入する線形判別関
数の誤判別の確率とを比較することにより、導入可か否
か、あるいは導入しようとする線形判別関数の変更が必
要か否かを判断することができる。
The probability P may be stored in the storage unit 15 in association with each linear discriminant function. When changing the linear discriminant function, the probability of the linear discriminant function to be changed can be immediately known, and by comparing with the probability of erroneous discrimination of the newly introduced linear discriminant function, whether or not it can be introduced, or It is possible to determine whether the linear discriminant function to be introduced needs to be changed.

【0073】補正処理部16の説明 補正処理部では、上記のように、誤判別判定部13にお
いて判別スコアが誤判別の可能性が高いと予測される区
間内に入った画素に対して補正処理が行われる。
Description of the Correction Processing Unit 16 In the correction processing unit, as described above, the correction processing is performed on the pixels in the section in which the erroneous determination determination unit 13 predicts that the possibility of erroneous determination is high. Is performed.

【0074】補正処理の方法としては、一般的にブロッ
クサイズを大きくすれば判別したい画素の線形判別関数
による判別精度は向上するため、たとえば現在のブロッ
クサイズを大きく設定して、特徴量を抽出しなおし、そ
の特徴量を線形判別関数に代入し新たな判別スコアを算
出する。この新たな判別スコアの符号の正負により画素
の種別の判定を行う。また、新たに算出された判別スコ
アが再度、誤判別の可能性が高いと予測される区間内に
入る場合は、元の判別スコアと新たな判別スコアの絶対
値を比較して画素の種別の判定を行う。
As a method of the correction processing, in general, the larger the block size, the higher the accuracy of the discrimination of the pixel to be discriminated by the linear discriminant function. Note that a new discriminant score is calculated by substituting the feature amount into the linear discriminant function. The type of pixel is determined based on the sign of the new determination score. If the newly calculated discrimination score again falls within the section where it is predicted that the possibility of erroneous discrimination is high, the original discrimination score is compared with the absolute value of the new discrimination score to determine the pixel type. Make a decision.

【0075】この補正処理は、画像全体に対しての領域
分離処理が終了した後に行ってもよく、あるいは所定数
のブロックでの領域判別処理が終わった段階で行っても
よい。
This correction processing may be performed after the area separation processing for the entire image is completed, or may be performed after the area determination processing for a predetermined number of blocks is completed.

【0076】このように、予め求められた線形判別関数
の特性を利用して各画像領域の誤判別を考慮すること
で、画像領域のきめ細やかな判別が可能となり、精度よ
く画像領域を分離することができる。
As described above, by taking into account the erroneous determination of each image region by utilizing the characteristics of the linear determination function obtained in advance, fine determination of the image region becomes possible, and the image regions are separated with high accuracy. be able to.

【0077】領域判別処理の説明 図5は、写真領域の判別スコアZpおよび文字領域の判
別スコアZcを用いた領域判別処理方法を模式的に示し
た図である。図5(a)は写真領域の線形判別関数Zp
を用いて、注目画素を写真領域と写真領域以外とに判別
する様子を示すものであり、図5(b)は上記写真領域
以外と判別された場合、あるいは注目画素が写真領域の
誤判別区間内にあると判別された場合に、文字と網点領
域に分離する様子を示したものである。ここで、図5
(a)において、グループGp32は写真領域に属する
可能性が高いグループ、グループGpo33は写真以外の
領域に属する可能性が高いグループ、Ppoは写真領域を
写真以外の領域であると誤って判別する確率、Ppは逆
に写真以外の領域を写真領域と誤判別する確率を表して
いる。また、Tpoは正規分布曲線に従う写真領域以外の
グループGpoの判別スコアZp上における線形判別関数
の最大値、Tpは正規分布曲線に従う写真領域のグルー
プGpの判別スコアZp上における線形判別関数の最小値
を示している。
[0077] illustration fifth region discrimination processing is a diagram schematically showing the region discrimination processing method using the discriminant score Z c of discriminant score Z p and the character area of the photograph area. FIG. 5A shows a linear discriminant function Z p of the photograph area.
FIG. 5B shows a state in which the pixel of interest is determined to be outside the photographic region by using the pixel of interest. FIG. The figure shows a case where a character is separated into a halftone dot region when it is determined that the character is within the character. Here, FIG.
In (a), a group G p 32 is a group likely to belong to a photographic area, a group G po 33 is a group likely to belong to an area other than a picture, and P po is a group likely to belong to a picture area. The probability of erroneous determination, P p, on the contrary, represents the probability of erroneously determining an area other than a photograph as a photograph area. T po is the maximum value of the linear discriminant function on the discrimination score Z p of the group G po other than the photographic region that follows the normal distribution curve, and T p is the maximum value of the discrimination score Z p of the group G p of the photographic region that follows the normal distribution curve. It shows the minimum value of the linear discriminant function.

【0078】同様に、図5(b)では、グループGc
4は文字領域に属する可能性が高いグループ、グループ
h35は網点領域に属する可能性が高いグループ、Pc
は網点領域を文字領域であると誤って判別する確率、P
hは逆に文字領域を網点領域と誤判別する確率を表して
いる。また、Thは正規分布曲線に従う網点領域のグル
ープGhの判別スコアZc上における線形判別関数の最大
値、Tcは正規分布曲線に従う文字領域のグループGc
判別スコアZc上における線形判別関数の最小値であ
る。
Similarly, in FIG. 5B, the group G c 3
4 is a group likely to belong to a character area, group G h 35 is a group likely to belong to a dot area, P c
Is the probability of erroneously determining a halftone dot region as a character region, P
h represents the probability of erroneously determining the character area as the halftone dot area. T h is the maximum value of the linear discriminant function on the discrimination score Z c of the group G h of the halftone dot region following the normal distribution curve, and T c is the maximum value of the discrimination score Z c of the group G c of the character region following the normal distribution curve. This is the minimum value of the linear discriminant function.

【0079】図5(a)では、線形判別関数Zpが正で
ありTpoより大きいとき、写真領域であると判断され、
線形判別関数Zpが負でTpより小さいとき、写真以外の
領域であると判別されることを表している。図5(b)
では、上記した写真領域以外と判別された場合、あるい
は注目画素が写真領域の誤判別区間[Tp≦ZP≦Tpo
36内にあると判定された場合、線形判別関数Zcが正
でThより大きいとき、文字領域であると判別され、線
形判別関数Zcが負でTcより小さいとき、網点領域であ
ると判別されることを示している。線形判別関数Zc
誤判別区間[Tc≦Zc≦Th]37内にあると判定された
場合、誤判別の可能性が高いと判定される。
In FIG. 5A, when the linear discriminant function Z p is positive and larger than T po , it is determined that the area is a photographic area.
When linear discriminant function Z p is less than T p in the negative, indicating that it is determined that a region other than the photograph. FIG. 5 (b)
In the above, when it is determined that the pixel is not in the above-described photographic area, or when the pixel of interest is in the erroneously determined section of the photographic area [T p ≦ Z P ≦ T po ]
If it is determined to be within 36, when a linear discriminant function Z c is greater than T h is positive, it is determined as a text area, when a linear discriminant function Z c is smaller than the T c is negative, in the halftone area Indicates that it is determined that there is. When it is determined that the linear discriminant function Zc is within the erroneous discrimination section [ TcZcTh ] 37, it is determined that the possibility of erroneous discrimination is high.

【0080】図6は、領域判別処理を示すフローチャー
トである。線形判別関数として、写真領域と写真以外の
領域に分ける線形判別関数Zpと文字領域と文字以外の
領域(網点領域)とに分ける線形判別関数Zcとを用い
ている。ここでは、画像領域を写真、文字および網点の
3つの領域に分離し、画像領域の種別の同定は、写真
領域とそれ以外、文字領域と網点領域という順に同定
する。
FIG. 6 is a flowchart showing the area determining process. As a linear discriminant function uses a linear discriminant function Z c divided in a linear discriminant function Z p and character area and a non-character region divided into a region other than the photo region and a photograph (halftone dot area). Here, the image area is separated into three areas of a photograph, a character, and a halftone dot, and the type of the image area is identified in the order of the photographic area, the other, the character area, and the halftone dot area.

【0081】また、線形判別関数は、互いの判別スコア
の値の比較ができるように正規化(標準化)されて求め
られている。なお、以下に示す処理は、不図示のCPU
(Central Processing Unit)により制御される。
The linear discriminant function is obtained by normalization (standardization) so that the values of the discrimination scores can be compared with each other. The processing described below is performed by a CPU (not shown).
(Central Processing Unit).

【0082】まず、ステップ1(以下、ステップをSと
記す)では、フラグF1,F2,F3を「0」とし、S
2で分割処理部9によりブロックの分割の大きさm×n
を決定する。たとえば、7×7画素より成るブロックに
分割し、ブロックメモリ10に記憶する。
First, in step 1 (hereinafter, step is referred to as S), flags F1, F2, and F3 are set to "0",
In step 2, the size of the block divided by the division processing unit 9 is m × n.
To determine. For example, the image data is divided into blocks each including 7 × 7 pixels and stored in the block memory 10.

【0083】S3では、特徴抽出部11によって分割さ
れたブロックから各画像領域の種別を判別するのに有効
な複数の特徴量を抽出する。ここでは、特徴量は、前記
した最大濃度値と最小濃度値との差分値、濃度値の分散
値、主走査方向の濃度差の絶対値の総和、副走査方向の
濃度差の絶対値の総和、主走査方向の濃度反転回数の総
和、副走査方向の濃度反転回数の総和、主走査方向の最
大濃度ランレングスの最大値および副走査方向の最大濃
度ランレングスの最大値とする。
In step S3, a plurality of feature amounts effective for determining the type of each image area are extracted from the blocks divided by the feature extraction unit 11. Here, the feature amount is a difference value between the maximum density value and the minimum density value, a variance value of the density value, a sum of absolute values of density differences in the main scanning direction, and a sum of absolute values of density differences in the sub-scanning direction. , The total number of density inversions in the main scanning direction, the total number of density inversions in the sub-scanning direction, the maximum value of the maximum density run length in the main scanning direction, and the maximum value of the maximum density run length in the sub-scanning direction.

【0084】S4では、計算部12によって各画素毎に
写真領域および文字領域の判別スコアの計算を行う。具
体的には、まず記憶部15に格納されている予め写真領
域を判別するために導出された線形判別関数Zpに、各
特徴量を説明変量として代入し、写真領域らしさを表す
写真領域の判別スコアZpを算出する。ここでは、重回
帰分析により写真領域か否かを判別するのに有効な特徴
量として最大濃度値と最小濃度値との差分値および濃度
の分散値を用い、線形判別関数の説明変量とする。
In S4, the calculation section 12 calculates a discrimination score of a photograph area and a character area for each pixel. Specifically, first the linear discriminant function Z p derived to determine the pre-photographic area is stored in the storage unit 15 substitutes the feature quantities as the independent variables, a photograph region representing a photograph area likeness calculating a discriminant score Z p. Here, a difference value between the maximum density value and the minimum density value and a variance value of the density are used as effective feature quantities for determining whether or not the image area is a photograph area by multiple regression analysis, and are used as explanatory variables of the linear discriminant function.

【0085】また、文字領域に対しては、予め文字領域
と網点領域とを判別するために導出された線形判別関数
cに、特徴量として、最大濃度値と最小濃度値との差
分値、主走査方向の濃度差の絶対値の総和、副走査方向
の濃度差の絶対値の総和、主走査方向の濃度反転回数の
総和、副走査方向の濃度反転回数の総和、主走査方向の
最大濃度ランレングスの最大値および副走査方向の最大
濃度ランレングスの最大値を用い、線形判別関数の説明
変量とする。ここでは、写真領域の判別スコアZpが正
のときその画素を写真領域、文字領域の判別スコアZc
が正のときその画素を文字領域であると判別する。
[0085] Also, for the character area, in advance in the character area and a halftone area and a linear discriminant function Z c derived to determine, as the characteristic amount, a difference value between the maximum density and minimum density value , The sum of the absolute values of the density differences in the main scanning direction, the sum of the absolute values of the density differences in the sub-scanning direction, the sum of the number of density inversions in the main scanning direction, the sum of the number of density inversions in the sub-scanning direction, and the maximum in the main scanning direction. The maximum value of the density run length and the maximum value of the maximum density run length in the sub-scanning direction are used as explanatory variables of the linear discriminant function. Here, the pixel photograph area when the determination score Z p is a positive photographic region, discriminant score Z c of the character region
Is positive, it is determined that the pixel is a character area.

【0086】S5では、誤判別判定部14によってS4
で算出された写真領域の判別スコアZpが、記憶部15
に記憶されている予め誤判別の可能性が高いと予測され
る写真領域の誤判別区間内か否かを判定する。この例で
は、上記したように、写真領域と写真以外の領域に分類
する線形判別関数Zpの誤判別の確率Ppが文字領域と文
字以外の領域(網点領域)に分類する線形判別関数Zc
の誤判別の確率Pcよりも小さいので、前者の線形判別
関数を用いた判別処理が先に成される。ここで、写真領
域の判別スコアZpが誤判別区間外の場合、注目画素は
写真領域か、あるいは写真領域ではないと判断されるの
で、S6で判別部14によって写真領域の判別スコアの
正負に基づき写真領域か否かを判別する。写真領域と判
別された場合は、S7で注目画素を写真領域と決定し処
理を終える。
In S5, the erroneous determination judging section 14 sets S4
In discriminant score Z p of the calculated photographic region, the storage unit 15
It is determined whether or not it is within the erroneous determination section of the photographic area stored in the photographic area which is predicted to have a high possibility of the erroneous determination in advance. In this example, as described above, the probability P p of erroneous determination of the linear discriminant function Z p for classifying into a photograph region and a region other than a photograph is a linear discriminant function for classifying into a character region and a region other than characters (halftone region) Z c
Is smaller than the erroneous classification probability P c, the classification processing using the linear discriminant function is performed first. Here, if out determination section determination score Z p pictures region is a wrong target pixel or a photograph area, or it is determined that not the photograph area, the sign of the discriminant score in the photographic area by the determination unit 14 in S6 It is determined whether or not the area is a photograph area. If it is determined that the target pixel is a photographic area, the pixel of interest is determined to be a photographic area in S7, and the process ends.

【0087】一方、S6で写真領域以外、すなわち文字
または網点領域と判別された場合は、S8にて、文字領
域の判別スコアZcが、誤判別判定部13によって記憶
部15に保持されている予め誤判別の可能性が高いと予
測される文字領域の誤判別区間内か否かが判定される。
S8で文字領域の判別スコアZcが誤判別区間内である
と判定された場合は、注目画素は文字および網点領域の
いずれに属するか判断できないため、S15において、
フラグF2が「b」であるか否かの判断が成される。フ
ラグF2については別途説明する。今、フラグF2は
「0」であるので、S16に進み後述する補正処理が行
われ、どの領域に属するかの判定が行われる。
[0087] On the other hand, other than the photographic area in S6, that is, if it is determined that the character or halftone area, at S8, discriminant score Z c of the character region is held in the storage unit 15 by misclassification determination unit 13 It is determined in advance whether or not the character area is predicted to be highly likely to be erroneously determined.
If discriminant score Z c of the character region is determined to be the erroneous discrimination periods in S8, since the target pixel can not be determined belongs to one of the characters and the halftone dot area, in S15,
A determination is made as to whether the flag F2 is "b". The flag F2 will be described separately. Now, since the flag F2 is "0", the process proceeds to S16, where a correction process described later is performed, and it is determined to which region the region belongs.

【0088】S8で、文字領域の判別スコアZcが誤判
別区間外であると判断されると、注目画素は文字領域ま
たは網点領域に属するものと考えられるので、S9で判
別部14によって、文字領域の判別スコアZcの正負の
判定が成され、正ならばS10で文字領域と、負ならば
網点領域である(S11)と決定される。
[0088] In S8, the discrimination score Z c of the character region is determined to be outside the misclassification section, since the target pixel is considered to belong to the character region or a halftone region, the determination unit 14 in S9, positive and negative determination of discriminant score Z c of the character region is made, and a character area if a positive S10, it is determined that if the negative is halftone area (S11).

【0089】S5において、写真領域の判別スコアZp
が誤判別区間内の場合、S12にて、S8と同様に、誤
判別判定部13によって文字領域の判別スコアZcが文
字領域の誤判別区間内か否かが判定される。これは、写
真領域の線形判別関数Zpを用いた判定では、写真領域
なのかそれ以外の領域なのかの判断は困難であるが、文
字領域または網点領域に属する可能性があるために行わ
れるものである。そこで、S12にて、文字領域の判別
スコアZcが誤判別区間外であると判定されると、上記
したS9の処理が施され、注目画素は文字領域または網
点領域に判別される。一方、S12で、文字領域の判別
スコアZcが文字領域の誤判別区間内にあると判定され
ると、注目画素は、文字、網点および写真のいずれの領
域に属するのか不明であると判断される。そこで、S1
3にて、フラグF2の内容が調べられ、今の場合「0」
であるので、S14でフラグF1を「a」に設定し、S
16で補正処理が施される。
In S5, the discrimination score Z p of the photograph area
Is within the erroneous determination section, at S12, similarly to S8, the erroneous determination determination section 13 determines whether or not the determination score Zc of the character area is within the erroneous determination section of the character area. This is because, in the determination using the linear discriminant function Z p pictures region, although photo space of one other region of the determination of whether it is difficult, the line due to the possibility of belonging to the text region or a halftone dot region It is something to be done. Therefore, at S12, the discriminant score Z c of the character region is determined to be outside misclassification section, processing of S9 described above is applied, the pixel of interest is determined in the character region or a halftone dot region. On the other hand, determination in S12, the discriminant score Z c of the character region is determined to be in the erroneous discrimination periods of the character region, the target pixel is a character, and it is unknown whether belonging to any region of the halftone and photo Is done. Therefore, S1
At 3, the content of the flag F2 is checked, and in this case, "0"
Therefore, the flag F1 is set to “a” in S14,
At 16, a correction process is performed.

【0090】図7および図8は、補正処理方法を示した
フローチャートである。まず、S21で補正処理を行う
回数Kの値が「1」に設定される。本発明では、補正処
理として、分割するブロックの大きさを大きくして改め
て特徴量を抽出する方法を用いている。ブロックの大き
さを大きくすると、新たに周辺画素の情報を加味して特
徴量が求められるので、判別精度が向上することが期待
される。しかし、ブロックの大きさが大きすぎると、か
えって特徴量が不明瞭となり得るので、ブロックの大き
さを制限する必要がある。ブロックの大きさとしては、
最初に設定された値7×7に対しては、9×9や11×
11等の値が設定される。また、補正処理を行う回数
(ブロックの大きさを変える回数)としては「3」程度
の値が設定される。
FIGS. 7 and 8 are flowcharts showing the correction processing method. First, in S21, the value of the number K of times of performing the correction processing is set to “1”. In the present invention, a method of increasing the size of a block to be divided and extracting a feature amount again is used as the correction processing. When the size of the block is increased, the feature amount is newly calculated by taking into account the information of the peripheral pixels, and therefore, it is expected that the discrimination accuracy is improved. However, if the size of the block is too large, the feature amount can be rather unclear, so it is necessary to limit the size of the block. As the size of the block,
For the initially set value 7 × 7, 9 × 9 or 11 ×
A value such as 11 is set. In addition, a value of about “3” is set as the number of times of performing the correction process (the number of times of changing the size of the block).

【0091】次に、S22にてフラグF1が「a」か否
かの判断が成される。判別スコアが誤判別区間内にある
のは、前記したように、写真領域以外であるが、文字・
網点領域のどちらかに属するか不明な場合(図6のS8
で「Yes」の場合)および文字、網点および写真領域
のいずれに属するか不明の場合(図6のS12で「Ye
s」の場合)であり、各々で補正処理が異なるため、フ
ラグF1を用いてこれらの区別を行っている。すなわ
ち、後者の場合、図6のS14にてフラグF1を「a」
に設定している。
Next, in S22, it is determined whether or not the flag F1 is "a". As described above, the discrimination score is in the erroneous discrimination section other than the photograph area,
When it is unknown whether the pixel belongs to any of the halftone dot areas (S8 in FIG. 6)
And "Yes" in S12 of FIG. 6 and when it is not clear to which of character, halftone dot, and photograph area it belongs.
s "), and the correction processing is different in each case. Therefore, these are distinguished by using the flag F1. That is, in the latter case, the flag F1 is set to “a” in S14 of FIG.
Is set to

【0092】S22でフラグF1が「a」でない、すな
わち、注目画素が文字なのか網点なのかが不明の場合、
S23で分割処理部9によって分割されるブロックの大
きさが現在のブロックより大きな値に設定される。次
に、S24で特徴抽出部11によって各特徴量が求めら
れ、S25で計算部12によって改めて文字領域の判別
スコアZc′(補正処理後に求められる判別スコアにつ
いては、「′」を付して示す)が計算される。ここで用
いられる線形判別関数は前記したものと同じものが使用
される。S26では、図6のS8の場合と同様に、誤判
別判定部13によって上記判別スコアZc′が、誤判別
区間内か否かが判定される。S26で、判別スコア
c′が誤判別区間外であると判断されると、S27に
おいて、判別部14によって判別スコアZc′の正負の
判定が成され、正ならば文字領域(図6のS10)と、
負ならば網点領域である(図6のS11)と判定され
る。
If the flag F1 is not "a" in S22, that is, if it is unknown whether the target pixel is a character or a halftone dot,
In S23, the size of the block divided by the division processing unit 9 is set to a value larger than the current block. Next, in S24, each feature amount is obtained by the feature extracting unit 11, and in S25, the calculating unit 12 newly determines the discriminating score Zc 'of the character area (the discriminating score obtained after the correction processing is appended with "'"). Is calculated. The same linear discriminant function as described above is used here. In S26, similarly to S8 in FIG. 6, the erroneous determination determination unit 13 determines whether or not the determination score Zc 'is within the erroneous determination section. If it is determined in S26 that the discrimination score Zc 'is out of the erroneous discrimination section, in S27, the discrimination unit 14 determines whether the discrimination score Zc ' is positive or negative. S10),
If negative, it is determined that the area is a halftone area (S11 in FIG. 6).

【0093】一方、S26で判別スコアZc′が誤判別
区間内であると判断された場合は、S28で、補正処理
が所定回数成されたか否か(Kの値がNか否か)の判定
が成され、所定回数に達していなければ、S29でKの
値を1増加させてS23に戻る。S28で補正処理が所
定回数成されていると判断されると、注目画素はブロッ
クの大きさを大きくして判別処理を行っても文字および
網点のどちらの領域に属するかが不明であるので、この
場合は、補正処理前後の判別スコアの値(Zc・Zc′・
c″等)を比較することにより判別を行う。判別スコ
アの値は、前記したように、絶対値が大きいほど信頼性
は高くなる。本発明では、この特徴を用いて補正処理を
行うものである。そこで、S30では、補正処理前後の
判別スコアのうち、絶対値が最も大きいものが抽出され
(図7では、2つの判別スコアZ cおよびZc′の例を示
しているが、3つ以上ある場合は、その中から絶対値が
最も大きい判別スコアが抽出される)、抽出された判別
スコアに対してS27で文字領域、あるいは網点領域に
判別される。
On the other hand, in S26, the discrimination score Zc′ Is misclassified
If it is determined that the time is within the section, the correction processing is performed in S28.
Of whether or not is performed a predetermined number of times (whether or not the value of K is N)
Is established, and if the predetermined number of times has not been reached, K in S29
The value is increased by 1, and the process returns to S23. Correction processing at S28
If it is determined that the specified number of times has been achieved, the target pixel is
Even if the discrimination process is performed with the size of the
Since it is unknown which area of the halftone dot it belongs to,
In this case, the discrimination score values (Zc・ Zc'
Zc, Etc.) are compared.
As described above, the larger the absolute value, the more reliable the
Will be higher. In the present invention, correction processing is performed using this feature.
Is what you do. Therefore, in S30, before and after the correction processing
Among the discrimination scores, the one with the largest absolute value is extracted.
(In FIG. 7, two discrimination scores Z cAnd Zc
However, if there are three or more, the absolute value
The largest discrimination score is extracted), the extracted discrimination
In the character area or halftone area in S27 for the score
Is determined.

【0094】S22で、フラグF1が「a」のとき、す
なわち、注目画素が文字、網点および写真領域のいずれ
に属するか不明のときは、まずS31で補正処理が所定
回数成されたか否かの判断が成される。補正処理が所定
回数成されていない場合は、S32でKの値を「1」増
加させ、S33でフラグF2を「b」に設定する。この
補正処理では、後述するように図6に示した処理と同様
の処理を行うので、補正処理を行っているか否かをフラ
グF2により区別を行うものである。次に、S34で分
割処理部9によって分割されるブロックの大きさが現在
のブロックより大きな値に設定され、図6のS3に戻
り、新たな判別スコアZc′およびZP′が求められ(使
用される判別関数は前記したもの同様)、前述と同様の
処理が行われる。
If the flag F1 is "a" in S22, that is, if it is unknown whether the pixel of interest belongs to a character, a halftone dot, or a photographic area, first in S31, it is determined whether the correction process has been performed a predetermined number of times. Is determined. If the correction process has not been performed a predetermined number of times, the value of K is increased by "1" in S32, and the flag F2 is set to "b" in S33. In this correction processing, as described later, the same processing as the processing shown in FIG. 6 is performed. Therefore, whether or not the correction processing is being performed is distinguished by the flag F2. Next, the size of the blocks divided by the division processing section 9 in S34 is set to a value larger than the current block, the process returns to S3 in FIG. 6, a new discriminant score Z c 'and Z P' is obtained ( The discriminant function used is the same as described above), and the same processing as described above is performed.

【0095】補正処理を行っても、図6のS12にて、
文字領域の判別スコアが誤判別区間内にあると判断され
ると、今の場合、フラグF2が「b」であるので(S1
3)、S31に戻る。また、図6のS8で、文字領域の
判別スコアが誤判別区間内にあると判断された場合は、
フラグF2が「b」であるので(S15)、S17でフ
ラグF3を「c」に設定してS31に戻る。
Even if the correction processing is performed, in S12 of FIG.
If the determination score of the character area is determined to be within the erroneous determination section, the flag F2 is “b” in this case (S1
3) Return to S31. When it is determined in S8 of FIG. 6 that the determination score of the character area is within the erroneous determination section,
Since the flag F2 is "b" (S15), the flag F3 is set to "c" in S17, and the process returns to S31.

【0096】S31で、所定回数の補正処理が成された
と判断されると、S35でフラグF3の内容が確認され
る。判別スコアが誤判別区間内にあるのは、既に述べた
ように、写真領域以外であるが、文字・網点領域のどち
らに属するか不明な場合と、文字、網点および写真領域
のいずれに属するか不明の場合とがあり、補正処理を行
うルーチンで、フラグF3を用いてこれらの区別を行う
ものである。S35で、フラグF3が「c」のときは、
注目画素が文字なのか網点なのかが不明であるので、S
30に戻り前記と同様の処理が成される。
If it is determined in S31 that the correction process has been performed a predetermined number of times, the content of the flag F3 is confirmed in S35. As described above, the discrimination score is in the erroneous discrimination section, except for the photograph area, but it is unknown whether it belongs to the character or halftone area, or to any of the character, halftone dot, and photo area. In some cases, it is unknown whether they belong or not. In the routine for performing the correction processing, these are distinguished by using the flag F3. When the flag F3 is "c" in S35,
Since it is unknown whether the pixel of interest is a character or a halftone dot,
Returning to 30, the same processing as described above is performed.

【0097】注目画素が文字・網点・写真領域のいずれ
に属するか不明の場合(S35で「No」の場合)は、
S36で補正処理前後の写真領域および文字領域の判別
スコアの中から、絶対値が最大のスコアが抽出される。
S37では、上記で抽出された絶対値が写真領域のもの
なのか否かが判断され、文字領域である場合(S37で
「No」のとき)は、S27で文字領域の判別スコアの
符号が判定され、文字領域あるいは網点領域に判別処理
される。
If it is unknown whether the pixel of interest belongs to a character, a halftone dot, or a photograph area (in the case of “No” in S35),
In S36, the score having the largest absolute value is extracted from the discrimination scores of the photograph area and the character area before and after the correction processing.
In S37, it is determined whether or not the absolute value extracted above is that of the photograph area. If the absolute value is a character area ("No" in S37), the sign of the determination score of the character area is determined in S27. Then, it is discriminated as a character area or a halftone area.

【0098】S37において、抽出された絶対値が写真
領域のものである場合は、S38で写真領域の判別スコ
アの符号が調べられ、正である場合は写真領域であると
判断される(図6のS7)。写真領域の判別スコアの符
号が負の場合は、注目画素は写真領域ではないと判断さ
れるので、S30に戻り上記と同様の処理が行われる。
In S37, if the extracted absolute value is that of a photographic area, the sign of the discrimination score of the photographic area is checked in S38, and if it is positive, it is determined that the area is a photographic area (FIG. 6). S7). If the sign of the discrimination score of the photo area is negative, it is determined that the pixel of interest is not a photo area, so the process returns to S30 and the same processing as described above is performed.

【0099】以上説明したように、本発明により、注目
画素が属する領域の確からしさを数値化して領域分離処
理を行うことができる。また、最初に用いた線形判別関
数(今の場合、写真領域を判別するために導出された線
形判別関数Zp)により、注目画素が誤判別区間にある
と判断されたとしても、別の線形判別関数(文字領域を
判別するために導出された線形判別関数Zc)を用いる
ことにより、分類処理が可能となる。さらに、これら複
数の線形判別関数により、注目画素が誤判別区間内にあ
ると判断された場合には、分割するブロックの大きさを
大きくして再度判別処理を行い、それでも判別処理が困
難なときは、算出された複数の判別スコアの絶対値を比
較することにより、精度よく領域分離処理を行うことが
可能になる。
As described above, according to the present invention, it is possible to perform a region separation process by digitizing the likelihood of a region to which a pixel of interest belongs. Further, even if the pixel of interest is determined to be in the erroneous determination section by the linear discriminant function used first (in this case, the linear discriminant function Z p derived for discriminating the photograph area), another linear discriminant function is used. By using a discriminant function (a linear discriminant function Z c derived for discriminating a character area), a classification process can be performed. Further, when the plurality of linear discriminant functions determines that the target pixel is in the erroneous discrimination section, the size of the block to be divided is increased and the discrimination process is performed again. By comparing the calculated absolute values of the plurality of discrimination scores, it becomes possible to perform the region separation processing with high accuracy.

【0100】以上では、2つの線形判別関数を使用し注
目画素に対して順次適用する例を示したが、本発明の他
の実施形態として3つの線形判別関数を使用してそれぞ
れの判別スコアを求め、その値を比較することにより領
域判別処理を行う方法がある。以下にこの方法について
説明する。
In the above, an example has been shown in which two linear discriminant functions are sequentially applied to a pixel of interest. However, as another embodiment of the present invention, each discriminant score is calculated using three linear discriminant functions. There is a method of performing an area discrimination process by obtaining the values and comparing the values. Hereinafter, this method will be described.

【0101】この方法では、文字領域を判別するために
導出された線形判別関数Zc、網点領域を判別するため
に導出された線形判別関数Zhおよび写真領域を判別す
るために導出された線形判別関数Zpの3つの線形判別
関数を用いる。これらの線形判別関数は、前述したよう
に記憶部15に格納されており、互いの判別スコアの値
の比較ができるように正規化(標準化)されて求められ
ている。
[0102] In this way, was derived to determine the linear discriminant function Z h and photograph region derived to determine the linear discriminant function Z c, a halftone dot region derived to determine the character region using three linear discriminant function of the linear discriminant function Z p. These linear discriminant functions are stored in the storage unit 15 as described above, and are obtained by normalization (standardization) so that the values of the discrimination scores can be compared with each other.

【0102】本発明の他の実施形態である3つの線形判
別関数を用いたときの領域判別処理方法のフローチャー
トを図9に示す。
FIG. 9 is a flowchart of a region discriminating method using three linear discriminant functions according to another embodiment of the present invention.

【0103】まず、S41で分割処理部9によってブロ
ックの分割の大きさm×nをたとえば、7×7画素に分
割し、ブロックメモリ10に記憶する。S42で特徴抽
出部11によって分割されたブロック毎に各画像領域の
種別を判別するのに有効な複数の特徴量を抽出する。抽
出される特徴量は、前記処理方法と同じものが使用され
る。S43では、計算部12によって各ブロック毎に文
字領域、網点領域および写真領域の判別スコアの計算が
行われる。各線形判別関数に使用される説明変量(特徴
量)を以下に示す。
First, in step S41, the division processing section 9 divides the block division size m × n into, for example, 7 × 7 pixels and stores it in the block memory 10. In S42, a plurality of feature amounts effective for determining the type of each image area are extracted for each block divided by the feature extraction unit 11. The extracted feature amounts are the same as those in the processing method. In S43, the calculation unit 12 calculates the determination score of the character area, the halftone area, and the photograph area for each block. The explanatory variables (features) used for each linear discriminant function are shown below.

【0104】・文字領域の線形判別関数Zc 最大濃度値と最小濃度値との差分値、主走査方向の濃度
差の絶対値の総和および副走査方向の濃度差の絶対値の
総和
[0104] - linear discriminant function Z c maximum density value of the character region and the difference value between the minimum density values, the sum of the absolute values of the sum and the sub-scanning direction density difference of the absolute value of the density difference in the main scanning direction

【0105】・網点領域の線形判別関数Zh 主走査方向の濃度反転回数の総和、副走査方向の濃度反
転回数の総和、主走査方向の最大濃度ランレングスの最
大値および副走査方向の最大濃度ランレングスの最大値
[0105] the sum of the concentrations inversion frequency of the linear discriminant function Z h main scanning direction and screening area, the sum of the sub-scanning direction density inversion frequency, the maximum value and the maximum in the sub-scanning direction of the maximum concentration run length in the main scanning direction Maximum value of density run length

【0106】・写真領域の線形判別関数Zp 最大濃度値と最小濃度値との差分値および濃度の分散値[0106] - photo region linear discriminant function Z p maximum density and minimum density value difference value and concentration of the dispersion values of

【0107】次にS44では、判別部14によってそれ
ぞれ求められた判別スコアZc、ZhおよびZpの値に基
づいて判別処理が成される。この判別処理は、たとえば
表1に示す判別表が使用される。3つの判別スコアのう
ち1つが誤判別区間を除く対象領域である(線形判別関
数による計算の結果、正しい領域であると判断される)
場合、注目画素はこの対象領域に属すると判定される
(表1の1〜3)。また、判別スコアのうち2つが誤判
別区間を除く対象領域外である場合は、注目画素は残り
の領域に属すると判定される(表1の4〜6)。
[0107] In next S44, discriminant score Z c are respectively determined by the determination unit 14, the determination processing based on the value of Z h and Z p is made. For this determination processing, for example, a determination table shown in Table 1 is used. One of the three discrimination scores is the target area excluding the erroneous discrimination section (as a result of calculation by the linear discrimination function, it is determined that the area is correct).
In this case, the pixel of interest is determined to belong to this target area (1 to 3 in Table 1). When two of the discrimination scores are outside the target area excluding the erroneous discrimination section, it is determined that the target pixel belongs to the remaining area (4 to 6 in Table 1).

【0108】[0108]

【表1】 [Table 1]

【0109】3つの判別スコアのうち、2つが正しい
(対象領域である)、あるいは2つが誤判別区間に属す
る場合は、これら2つの判別スコアの絶対値が比較さ
れ、注目画素は大きい絶対値を示す領域に属すると判定
される(表1の7〜12)。3つの判別スコアが全て誤
判別区間に属する場合も同様に、注目画素は3つの判別
スコアのうち絶対値が最も大きい値を示す領域に属する
と判定される。線形判別関数を用いた判別処理では、注
目画素が対象とする領域に属するか否かの判定を行うだ
けでなく、判別スコアの値自体も意味をもっており、そ
の絶対値が大きいほど確からしさが増す。よって、上記
したように、複数の判別スコアが正しい、あるいは誤判
別であると判定している場合は、判別スコアの絶対値を
比較する処理が行われる。
If two of the three discrimination scores are correct (the target area) or two belong to the erroneous discrimination section, the absolute values of these two discrimination scores are compared, and the pixel of interest has a large absolute value. It is determined that it belongs to the indicated area (7 to 12 in Table 1). Similarly, when all three discrimination scores belong to the erroneous discrimination section, the target pixel is determined to belong to the region having the largest absolute value among the three discrimination scores. In the discriminating process using the linear discriminant function, not only is it determined whether or not the pixel of interest belongs to the target area, but also the value of the discriminant score itself has a meaning, and the larger the absolute value is, the more certainty is. . Therefore, as described above, when it is determined that a plurality of determination scores are correct or erroneous, a process of comparing the absolute values of the determination scores is performed.

【0110】以上の処理により、注目画素は、文字領
域、網点領域および写真領域のいずれかの領域に分類さ
れ(S45〜S47)、領域判別信号が出力される。な
お、S44において、複数の判別スコアが正しい、ある
いは、誤判別であると判定している場合、補正処理を施
して判別する(S48)ようにしてもよい。この補正処
理の方法としては、前述した方法と同様に、分割するブ
ロックの大きさを現在のブロックより大きくしてS42
〜S44の処理を行えばよい。補正処理を所定回数行っ
ても、表1の7〜13のいずれかに分類される場合は、
補正処理前後の全ての判別スコアの絶対値を比較して最
大となるものを抽出し、その判別スコアの符号を基に分
類すればよい。
By the above processing, the target pixel is classified into any one of the character area, the halftone dot area, and the photograph area (S45 to S47), and the area determination signal is output. When it is determined in S44 that the plurality of determination scores are correct or incorrect, the correction score may be applied to make the determination (S48). As a method of this correction processing, similar to the above-described method, the size of the block to be divided is made larger than that of the current block, and S42
What is necessary is just to perform the process of -S44. Even if the correction process is performed a predetermined number of times, if it is classified into any of 7 to 13 in Table 1,
The absolute value of all the discrimination scores before and after the correction processing may be compared to extract the largest one, and the classification may be performed based on the sign of the discrimination score.

【0111】このように、3つの正規化された線形判別
関数を用いることによって、相互の判別スコアの値の比
較が可能になり、注目画素が属する領域の確からしさを
数値化して表すことができる。
As described above, by using the three normalized linear discriminant functions, the values of the discriminant scores can be compared with each other, and the likelihood of the region to which the target pixel belongs can be expressed numerically. .

【0112】上記では、各画素毎に文字領域・網点領域
および写真領域の判別スコアの計算を行い、表1に示す
判別表を用いて領域分離処理を行う方法について示した
が、判別処理を優先的に行ってもよい。この優先順位
は、前記した線形判別関数Zc、ZhおよびZp毎に求め
られる誤判別の確率を比較することにより決められ、こ
の確率の小さい線形判別関数を優先して用いて判別処理
が施される。このように、誤判別の確率の小さい線形判
別関数、すなわち判別精度の高い線形判別関数を優先し
て使用することにより、判別精度を向上することが可能
となる。この方法を用いる場合の処理は、基本的には図
9に示したフローチャートと同様であり、S44の判別
処理方法のみが異なるので、この部分について説明す
る。
In the above description, the method of calculating the discrimination score of the character area / dot area and the photograph area for each pixel and performing the area separation processing using the discrimination table shown in Table 1 has been described. It may be performed preferentially. This priority aforementioned linear discriminant function Z c, is determined by comparing the misclassification probability obtained for each Z h and Z p, is determining process using with priority a small linear discriminant function of this probability Will be applied. As described above, by preferentially using a linear discriminant function having a low probability of erroneous discrimination, that is, a linear discriminant function having a high discrimination accuracy, it is possible to improve the discrimination accuracy. The processing when this method is used is basically the same as the flowchart shown in FIG. 9, and only the determination processing method in S44 is different, so this part will be described.

【0113】図10に判別処理のフローチャートを示
す。まずS51では、判別処理を行う回数L(用いる線
形判別関数の数)の値が「1」に設定される。S52で
は、線形判別関数ZL(L=1)をZAとする。ここで、
L(今の場合、L=1,2,3)は上記した文字領域
を判別するために導出された線形判別関数Zc、網点領
域を判別するために導出された線形判別関数Zhおよび
写真領域を判別するために導出された線形判別関数Zp
に相当し、まず最初に、誤判別の確率の最も小さい線形
判別関数がZAとされる。S53では、誤判別判定部1
3によって判別スコアZAが誤判別区間内にあるか否か
の判断が成され、誤判別区間外ならば、S54で判別ス
コアZAの符号が正か否かの判断が行われる。判別スコ
アZAの符号が正ならば、用いた線形判別関数の種類に
より、文字領域、網点領域および写真領域のいずれかの
領域に分類される(図9のS45〜S47)。
FIG. 10 shows a flowchart of the determination process. First, in S51, the value of the number L (the number of linear discriminant functions to be used) of performing the discriminating process is set to “1”. In S52, the linear discriminant function Z L (L = 1) is set to Z A. here,
Z L (in this case, L = 1, 2, 3) is a linear discriminant function Z c derived for discriminating the character area, and a linear discriminant function Z h derived for discriminating the halftone dot area. And a linear discriminant function Z p derived for discriminating a photograph region
, And first, a linear discriminant function with the smallest probability of erroneous discrimination is set as Z A. In S53, the erroneous determination determination unit 1
3 by whether in the discrimination periods erroneous determination score Z A determination is made, if outside misclassification interval, the sign of the discriminant score Z A positive determination is made as to whether at S54. If the code is positive discriminant score Z A, the type of linear discriminant function used, a character region is classified into any area of the halftone dot region and a photograph region (S45 to S47 in FIG. 9).

【0114】S53で判別スコアZAが誤判別区間内に
あると判断された場合、あるいはS54で判別スコアZ
Aの符号が負の場合は、その判別結果が記憶部15に記
憶される。そして、S55で判別処理が所定回数成され
たか否か(Lの値がMか否か)の判定が成され、所定回
数に達していなければ、S56でLの値を1増加させて
S52に戻る。すなわち、2番目に誤判別の確率が小さ
い線形判別関数がZAとされ、上記と同様の処理が行わ
れる。
[0114] If the determination score Z A is determined to be within the misclassification section in S53, or determines in S54 score Z
When the sign of A is negative, the determination result is stored in the storage unit 15. Then, in S55, it is determined whether or not the discrimination process has been performed a predetermined number of times (whether or not the value of L is M). If the predetermined number of times has not been reached, the value of L is incremented by 1 in S56 and the process proceeds to S52. Return. That is, the linear discriminant function with the second lowest probability of erroneous discrimination is ZA, and the same processing as described above is performed.

【0115】S55で判別処理が所定回数成されている
と判断された場合、一連の判別処理の結果は、表2に示
す21〜27の中のいずれかになる(この場合、誤判別
の確率の小さい線形判別関数を順次用いて処理を行って
いるため、表1に示した2つの判別スコアが誤判別区間
を除く対象領域にある(表1の7〜9)と判断されるこ
とはない)。この場合、表2の21〜23の場合につい
ては、判別スコアのうち1つの判別スコアは誤判別区間
にあると判断されているけれども、他の2つの判別スコ
アが誤判別区間を除く対象領域外であると判断されてい
るので、注目画素はこの領域に属する確率が高いと判断
される。よって、S57で、誤判別と判定されている線
形判別関数が1つか否かの判断が成される。誤判別と判
定されている線形判別関数が1つの場合は、判別処理が
可能であるので、判別結果(表2の21〜23)に基づ
き、文字領域・網点領域・写真領域のいずれかの領域に
分類される(図9のS45〜S47)。
If it is determined in S55 that the discrimination process has been performed a predetermined number of times, the result of the series of discrimination processes is one of 21 to 27 shown in Table 2 (in this case, the probability of erroneous discrimination is Since the processing is sequentially performed by using the linear discriminant functions having smaller values, it is not determined that the two discrimination scores shown in Table 1 are in the target area excluding the erroneous discrimination section (7 to 9 in Table 1). ). In this case, in the case of 21 to 23 in Table 2, although one of the determination scores is determined to be in the erroneous determination section, the other two determination scores are outside the target area excluding the erroneous determination section. Therefore, it is determined that the pixel of interest has a high probability of belonging to this area. Therefore, in S57, it is determined whether or not there is one linear discriminant function determined to be erroneous. If there is only one linear discriminant function that is determined to be erroneous discrimination, discrimination processing is possible. Therefore, based on the discrimination results (21 to 23 in Table 2), any one of a character area, a halftone area, and a photograph area It is classified into regions (S45 to S47 in FIG. 9).

【0116】[0116]

【表2】 [Table 2]

【0117】一方、S57で誤判別と判定されている線
形判別関数が2つ以上ある場合は、前記の場合と同様
に、判別スコアの大きさを比較し大きい値を示す領域に
属すると判定する、あるいは分割するブロックの大きさ
を大きくして補正処理が成される(図9のS48)。
On the other hand, if there are two or more linear discriminant functions that have been determined to be erroneous in S57, the magnitudes of the discrimination scores are compared in the same manner as described above, and it is determined that the pixels belong to a region having a large value. Alternatively, the correction processing is performed by increasing the size of the divided block (S48 in FIG. 9).

【0118】このように、線形判別関数毎に求められる
誤判別の確率の小さい線形判別関数を優先して用いるこ
とにより、2つの判別スコアが誤判別区間を除く対象領
域にあると判定されるのを除去することができる。ま
た、判別精度を上げることが可能となる。
As described above, by preferentially using a linear discriminant function having a low probability of erroneous discrimination obtained for each linear discriminant function, it is determined that the two discrimination scores are in the target area excluding the erroneous discrimination section. Can be removed. Further, it is possible to improve the discrimination accuracy.

【0119】なお、前記した誤判別する確率が充分小さ
く、線形判別関数の判別スコアの正負により画像領域の
判別処理を行う場合に、上記の方法を適用しても構わな
い。
The above-described method may be applied when the probability of the erroneous discrimination is sufficiently small and the discrimination processing of the image area is performed based on the sign of the discrimination score of the linear discriminant function.

【0120】本発明においては、多変量解析法により求
められた線形判別関数と線形判別関数を用いて計算され
た判別スコアが誤判別の可能性が高いと予測される範囲
とを用いて領域判別処理を行う方法について示したが、
この方法は領域判別処理に限定されるものではなく、顔
等の特定領域の認識を行う画像認識方法等にも適用可能
である。画像認識方法に適用する場合、たとえば顔を抽
出するには、輪郭および各画素の色情報等、抽出する対
象に見合った特徴量を用いて線形判別関数および誤判別
の可能性が高いと予測される範囲を求め判別処理を行え
ばよい。
In the present invention, the area discrimination is performed using the linear discriminant function obtained by the multivariate analysis method and the range in which the discrimination score calculated using the linear discriminant function is predicted to have a high possibility of erroneous discrimination. We have shown how to do the processing,
This method is not limited to the area discrimination processing, and can be applied to an image recognition method for recognizing a specific area such as a face. When applied to an image recognition method, for example, in order to extract a face, it is predicted that there is a high possibility of a linear discriminant function and erroneous discrimination using features such as contours and color information of each pixel that are appropriate for the object to be extracted. The determination process may be performed by determining the range of the data.

【0121】このように、判別処理を行う画像の種別は
特定されるものではなく、画像の種別を判別するために
有効な特徴量を抽出し、多変量解析法により線形判別関
数と、線形判別関数を用いて計算された判別スコアが誤
判別の可能性が高いと予測される範囲と、誤判別の確率
とを用いて、図6〜8,9や図10で説明した判別処理
を行うことが可能である。
As described above, the type of the image to be subjected to the discriminating process is not specified, but a feature amount effective for discriminating the type of the image is extracted, and a linear discriminant function and a linear discriminant are determined by a multivariate analysis method. Performing the discrimination processing described in FIGS. 6 to 8, 9 and 10 using the range in which the discrimination score calculated using the function is predicted to have a high possibility of erroneous discrimination and the probability of erroneous discrimination. Is possible.

【0122】また、図1に示した画像処理装置の各処理
部は、個別の処理回路によって実現されてもよい。ま
た、CPUと記憶装置とを含むコンピュータに、図6〜
8,9や図10で説明した処理を実行させるための領域
判別処理(画像認識)ソフトウェアのプログラムを順次
実行させることによって実現されてもよい。後者の場
合、画像処理装置は、領域判別処理(画像認識)ソフト
ウェアがインストールされ、画像のデータ入力および記
憶が可能な構成のコンピュータ本体によって実現され
る。領域判別処理(画像認識)ソフトウェアをコンピュ
ータにインストールするには、領域判別処理(画像認
識)ソフトウェアを記憶している記録媒体をコンピュー
タの媒体読出し装置に装着して、領域判別処理(画像認
識)ソフトウェアを媒体から読出させ、読出されたソフ
トウェアをコンピュータ本体が備える内部記憶装置また
は外部記憶装置に記憶させればよい。たとえば、CD−
ROM(Compact Disc Read Only Memory)やDVD(Di
gital Video Disc)に代表される光記録媒体、フロッピ
ー(登録商標)ディスクに代表される磁気記録媒体およ
びMO(Magnetic-Optic Disc)に代表される光磁気記
録媒体のいずれかで実現可能である。また、領域判別処
理(画像認識)ソフトウェアは、通信回線網等の伝送媒
体を介して他のコンピュータから上記コンピュータに伝
送されてインストールされてもよい。内部記憶装置また
は外部記憶装置に記憶された領域判別処理(画像認識)
ソフトウェア内のプログラムをCPUが実行することに
よって、コンピュータ本体が画像処理装置として働くも
のである。
Each processing unit of the image processing apparatus shown in FIG. 1 may be realized by a separate processing circuit. In addition, the computer including the CPU and the storage device has
The processing may be realized by sequentially executing a program of area determination processing (image recognition) software for executing the processing described in FIGS. In the latter case, the image processing apparatus is realized by a computer main body having a configuration in which area discrimination processing (image recognition) software is installed and capable of inputting and storing image data. To install the area discrimination processing (image recognition) software on a computer, a recording medium storing the area discrimination processing (image recognition) software is attached to a medium reading device of the computer, and the area discrimination processing (image recognition) software is installed. May be read from a medium, and the read software may be stored in an internal storage device or an external storage device included in the computer main body. For example, CD-
ROM (Compact Disc Read Only Memory) and DVD (Di
It can be realized by any of an optical recording medium typified by a Gital Video Disc, a magnetic recording medium typified by a floppy (registered trademark) disk, and a magneto-optical recording medium typified by an MO (Magnetic-Optic Disc). The area determination processing (image recognition) software may be transmitted from another computer to the computer via a transmission medium such as a communication network and installed. Area discrimination processing (image recognition) stored in internal storage device or external storage device
When the CPU executes a program in the software, the computer main body functions as an image processing device.

【0123】なお、本発明の画像処理装置が、スキャナ
等の画像入力装置およびプリンタ等の画像出力装置とネ
ットワークを介して接続する形態でも良く、また、電子
写真方式およびインクジェット方式などのデジタル複写
機に含まれ、画像形成装置を構成しても良い。
The image processing apparatus of the present invention may be connected to an image input apparatus such as a scanner and an image output apparatus such as a printer via a network, and may be a digital copying machine such as an electrophotographic type or an ink jet type. To form an image forming apparatus.

【0124】[0124]

【発明の効果】以上のように本発明によれば、複数の特
徴量に重み付けして加算する一次式によって表される線
形判別関数にブロック毎に抽出した複数の特徴量を代入
して判別スコアを算出し、算出した判別スコアに基づい
て領域判別を行うので各画像の種別を精度よく数値化し
て判定することができる。また、本発明では、1次元の
線形判別関数を使用するので回路規模を小さくすること
ができ、記憶部には線形判別関数、線形判別関数毎の誤
判別の可能性が高いと予測される区間および誤判別の確
率が格納されているのみなので、記憶容量も小さくする
ことができるという効果を有している。
As described above, according to the present invention, a plurality of feature values extracted for each block are substituted into a linear discriminant function represented by a linear equation for weighting and adding a plurality of feature values, and a discrimination score is obtained. Is calculated, and the area is determined based on the calculated determination score. Therefore, the type of each image can be accurately numerically determined. Further, in the present invention, since a one-dimensional linear discriminant function is used, the circuit scale can be reduced, and the storage unit stores a linear discriminant function, an interval in which the possibility of erroneous discrimination for each linear discriminant function is predicted to be high. Further, since only the probability of erroneous determination is stored, the storage capacity can be reduced.

【0125】また本発明によれば、判別スコアが誤判別
の可能性が高いと判定された場合にブロックの大きさを
大きくすることで新たに周辺画素の情報を加味して特徴
量が求められるので判別精度が向上する。この処理を所
定回数行っても誤判別の可能性が高い(誤判別区間に分
類される)場合は、判別結果の信頼性を表す判別スコア
の絶対値を比較することにより領域判別を行うので、誤
判別の確率を小さくすることができる。
Further, according to the present invention, when the discrimination score is determined to be highly likely to be erroneously discriminated, the feature amount is obtained by newly adding the information of the neighboring pixels by increasing the size of the block. Therefore, the discrimination accuracy improves. If the possibility of erroneous discrimination is high even after performing this process a predetermined number of times (classification into erroneous discrimination sections), the area discrimination is performed by comparing the absolute values of the discrimination scores indicating the reliability of the discrimination results. The probability of erroneous determination can be reduced.

【0126】また本発明によれば、線形判別関数毎に定
まる誤判別の確率を比較し、判別精度の高い線形判別関
数を優先して用いて順に判別処理を行うことにより、画
像領域の種別の判別精度を向上することができる。
Further, according to the present invention, the probability of erroneous discrimination determined for each linear discriminant function is compared, and discriminating processing is performed in order using the linear discriminant function having high discrimination accuracy with priority. The discrimination accuracy can be improved.

【0127】また本発明によれば、予め求められた線形
判別関数の特性を利用して各画像領域の誤判別を考慮す
ることで、画像領域の細やかな判別が可能であり、精度
良く画像領域を分離できる画像処理装置を含んでいるの
で、高品質の画像を出力することのできる画像形成処理
装置を提供することができる。
Further, according to the present invention, the image area can be finely distinguished by taking into account the erroneous determination of each image area using the characteristics of the linear discriminant function obtained in advance. Since the image processing apparatus includes an image processing apparatus capable of separating image data, it is possible to provide an image forming processing apparatus capable of outputting a high-quality image.

【0128】また本発明によれば、パーソナルコンピュ
ータやワークステーション等の汎用のコンピュータに記
録媒体からプログラムを読込ませることにより、コンピ
ュータに入力された画像に対して線形判別関数を用いた
領域判別処理を施すことができる。
Further, according to the present invention, a general-purpose computer such as a personal computer or a workstation reads a program from a recording medium to perform an area discriminating process using a linear discriminant function on an image input to the computer. Can be applied.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の一形態である画像処理装置1の
構成を示す図である。
FIG. 1 is a diagram showing a configuration of an image processing apparatus 1 according to an embodiment of the present invention.

【図2】領域分離処理部1dの構成を示すブロック図で
ある。
FIG. 2 is a block diagram illustrating a configuration of a region separation processing unit 1d.

【図3】特徴抽出部11に含まれる各特徴量の算出回路
の構成を示す図である。
FIG. 3 is a diagram showing a configuration of a circuit for calculating each feature amount included in a feature extraction unit 11;

【図4】判別スコアZの分布を示す図である。FIG. 4 is a diagram showing a distribution of a discrimination score Z.

【図5】写真領域の判別スコアZpおよび文字領域の判
別スコアZcを用いた領域判別処理方法を示す図であ
る。
5 is a diagram showing the region discrimination processing method using the discriminant score Z c of discriminant score Zp and character areas of the photographic region.

【図6】領域判別処理を示すフローチャートである。FIG. 6 is a flowchart illustrating an area determination process.

【図7】補正処理方法を示すフローチャートである。FIG. 7 is a flowchart illustrating a correction processing method.

【図8】補正処理方法を示すフローチャートである。FIG. 8 is a flowchart illustrating a correction processing method.

【図9】本発明の他の実施形態である領域判別処理方法
のフローチャートである。
FIG. 9 is a flowchart of an area determination processing method according to another embodiment of the present invention.

【図10】図9に示した領域判別処理方法において、別
の判別処理を示すフローチャートである。
FIG. 10 is a flowchart showing another determination process in the area determination processing method shown in FIG. 9;

【符号の説明】[Explanation of symbols]

1 画像処理装置 1d 領域分離処理部 9 分割処理部 10 ブロックメモリ 11 特徴抽出部 12 計算部 13 誤判別判定部 14 判別部 15 記憶部 16 補正処理部 REFERENCE SIGNS LIST 1 image processing apparatus 1 d region separation processing unit 9 division processing unit 10 block memory 11 feature extraction unit 12 calculation unit 13 erroneous determination determination unit 14 determination unit 15 storage unit 16 correction processing unit

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 入力された画像データに対して、各画素
あるいは各ブロックが予め定める複数種類の画像のいず
れの領域に属するかを判別する処理を少なくとも有する
画像処理装置において、 前記画像データを複数の画素からなるブロックに分割す
る分割手段と、 ブロック毎の画像データに関する複数の特徴量を抽出す
る抽出手段と、 複数の特徴量の各々に重み付けして加算する一次式で表
される線形判別関数を記憶する記憶手段と、 前記抽出手段から抽出した複数の特徴量を前記線形判別
関数に代入して画素あるいはブロック毎に判別スコアを
算出する計算手段と、 前記計算手段が算出した判別スコアに基づいて、予め定
める複数種類の画像のいずれの領域に属するかを画素あ
るいはブロック毎に判別する領域判別手段とを備えるこ
とを特徴とする画像処理装置。
1. An image processing apparatus having at least a process of determining to which region of a plurality of types of images each pixel or each block belongs to input image data, Dividing means for dividing the image data into blocks each including a plurality of pixels; extracting means for extracting a plurality of feature amounts relating to image data for each block; and a linear discriminant function represented by a linear expression that weights and adds each of the plurality of feature amounts. Storage means for storing a plurality of feature amounts extracted from the extraction means into the linear discriminant function to calculate a discrimination score for each pixel or block; based on the discrimination score calculated by the calculation means Area determining means for determining, for each pixel or block, which area of a plurality of types of predetermined images belongs to. The image processing apparatus according to symptoms.
【請求項2】 前記画像処理装置は、前記計算手段によ
り算出された判別スコアが誤判別の可能性が高いと予測
される範囲に入るか否かを判定する誤判別判定手段を備
え、 前記計算手段で算出した判別スコアが、誤判別判定手段
で誤判別の可能性が低いと判定された場合、前記算出し
た判別スコアに基づいて、領域判別手段で予め定める複
数種類の画像のいずれの領域に属するかを画素あるいは
ブロック毎に判別することを特徴とする請求項1記載の
画像処理装置。
2. The image processing apparatus according to claim 1, further comprising: an erroneous determination determination unit configured to determine whether a determination score calculated by the calculation unit falls within a range in which the possibility of erroneous determination is high. If the discrimination score calculated by the means is determined to be low by the erroneous discrimination judging means, the erroneous discrimination means determines, based on the calculated discrimination score, any of a plurality of types of images predetermined by the area discriminating means. 2. The image processing apparatus according to claim 1, wherein whether the group belongs is determined for each pixel or each block.
【請求項3】 前記誤判別判定手段で誤判別の可能性が
高いと判定されたブロックは、ブロックの大きさを変え
て改めて計算手段で判別スコアを算出し誤判別判定を行
うことを特徴とする請求項2記載の画像処理装置。
3. A block which is determined to be highly likely to be erroneously determined by the erroneous determination determination means, wherein the size of the block is changed and a calculation score is newly calculated by the calculation means to perform erroneous determination determination. The image processing apparatus according to claim 2.
【請求項4】 ブロックの大きさを変えて誤判別判定を
行う処理が、所定回数繰り返された場合、各ブロック毎
に求められた判別スコアに基づいて領域判別手段で領域
判別を行うことを特徴とする請求項3記載の画像処理装
置。
4. The method according to claim 1, wherein when the processing of performing the erroneous determination by changing the size of the block is repeated a predetermined number of times, the area determination unit performs the area determination based on the determination score obtained for each block. The image processing apparatus according to claim 3, wherein
【請求項5】 前記記憶手段には、異なる複数の線形判
別関数が記憶され、これらの線形判別関数を用いて画像
領域の判別を行うとき、 各々の線形判別関数毎に決まる誤判別の確率を比較し、
その確率が小さい関数を優先的に用いることを特徴とす
る請求項1〜4のうちのいずれか一つに記載の画像処理
装置。
5. The storage means stores a plurality of different linear discriminant functions. When discriminating an image region using these linear discriminant functions, the probability of erroneous discrimination determined for each linear discriminant function is determined. Compare,
The image processing apparatus according to claim 1, wherein a function having a small probability is used preferentially.
【請求項6】 請求項1〜5のいずれかに記載の画像処
理装置を備えることを特徴とする画像形成装置。
6. An image forming apparatus comprising the image processing apparatus according to claim 1.
【請求項7】 入力された画像データに対して、各画素
あるいは各ブロックが予め定める複数種類の画像のいず
れの領域に属するかを判別する画像処理方法において、 前記画像データを複数の画素からなるブロックに分割
し、 ブロック毎に複数の特徴量を抽出し、 複数の特徴量に重み付けして加算する一次式によって表
される線形判別関数に前記ブロック毎に抽出した複数の
特徴量を代入して判別スコアを算出し、 算出した判別スコアに基づいて予め定める複数種類の画
像のいずれの領域に属するかを画素あるいはブロック毎
に判別することを特徴とする画像処理方法。
7. An image processing method for determining to which region of a plurality of types of images each pixel or each block belongs to input image data, wherein the image data is composed of a plurality of pixels. Dividing into blocks, extracting a plurality of feature amounts for each block, substituting the plurality of feature amounts extracted for each block into a linear discriminant function represented by a linear expression that weights and adds the plurality of feature amounts An image processing method comprising: calculating a discrimination score; and determining, for each pixel or block, to which of a plurality of types of images a region belongs based on the calculated discrimination score.
【請求項8】 前記画像処理方法は、算出された判別ス
コアが誤判別の可能性が高いと予測される範囲に入るか
否かを判定し、誤判別の可能性が低いと判定された場
合、前記算出した判別スコアに基づいて、予め定める複
数種類の画像のいずれの領域に属するかを画素あるいは
ブロック毎に判別することを特徴とする請求項7記載の
画像処理方法。
8. The image processing method determines whether the calculated determination score falls within a range in which the possibility of erroneous determination is high, and determines that the possibility of erroneous determination is low. 8. The image processing method according to claim 7, wherein a determination is made for each pixel or block as to which region of the plurality of types of images belong in advance based on the calculated determination score.
【請求項9】 入力された画像データに対して、各画素
あるいは各ブロックが予め定める複数種類の画像のいず
れの領域に属するかを判別する画像処理を行う際に、 前記画像データを複数の画素からなるブロックに分割
し、 ブロック毎に複数の特徴量を抽出し、 複数の特徴量に重み付けして加算する一次式によって表
される線形判別関数に前記ブロック毎に抽出した複数の
特徴量を代入して判別スコアを算出し、 算出した判別スコアが誤判別の可能性が低いと判定され
た場合、予め定める複数種類の画像のいずれの領域に属
するかを画素あるいはブロック毎に判別する処理方法を
コンピュータに実行させるためのプログラムを記録した
コンピュータ読取り可能な記録媒体。
9. When performing image processing for determining to which region of a plurality of types of images each pixel or each block belongs on input image data, the image data is divided into a plurality of pixels. , A plurality of feature values are extracted for each block, and the plurality of feature values extracted for each block are substituted into a linear discriminant function represented by a linear expression that weights and adds the plurality of feature values. When it is determined that the possibility of erroneous determination is low, a processing method of determining, for each pixel or block, which region of a plurality of types of predetermined images belongs to is determined. A computer-readable recording medium on which a program to be executed by a computer is recorded.
JP2000201224A 2000-07-03 2000-07-03 Image processing method, image processor, and image maker equipped therewith, and storage medium Pending JP2002027242A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000201224A JP2002027242A (en) 2000-07-03 2000-07-03 Image processing method, image processor, and image maker equipped therewith, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000201224A JP2002027242A (en) 2000-07-03 2000-07-03 Image processing method, image processor, and image maker equipped therewith, and storage medium

Publications (1)

Publication Number Publication Date
JP2002027242A true JP2002027242A (en) 2002-01-25

Family

ID=18698957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000201224A Pending JP2002027242A (en) 2000-07-03 2000-07-03 Image processing method, image processor, and image maker equipped therewith, and storage medium

Country Status (1)

Country Link
JP (1) JP2002027242A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002085354A (en) * 2000-09-07 2002-03-26 Ge Medical Systems Global Technology Co Llc Information display method and device, record medium and ultrasonograph
JP2004348733A (en) * 2003-05-19 2004-12-09 Fuji Photo Film Co Ltd Method and device for detecting red-eye area in digital image
US7125114B2 (en) 2002-07-10 2006-10-24 Canon Kabushiki Kaisha Recording medium discriminating method and recording apparatus
JP2007324190A (en) * 2006-05-30 2007-12-13 Fuji Mach Mfg Co Ltd Component attracting attitude determining method and system
JP2011227772A (en) * 2010-04-21 2011-11-10 Nippon Hoso Kyokai <Nhk> Image classification device and program
JP2012108854A (en) * 2009-12-04 2012-06-07 Ricoh Co Ltd Printed matter inspection device, printed matter inspection method, program, memory medium and printed matter inspection system
WO2012132051A1 (en) * 2011-03-31 2012-10-04 株式会社ナナオ Method and apparatus for detecting fine lines and characters
US8988732B2 (en) 2002-09-18 2015-03-24 Konica Minolta Business Technologies, Inc. Image processing apparatus and image processing method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002085354A (en) * 2000-09-07 2002-03-26 Ge Medical Systems Global Technology Co Llc Information display method and device, record medium and ultrasonograph
US7125114B2 (en) 2002-07-10 2006-10-24 Canon Kabushiki Kaisha Recording medium discriminating method and recording apparatus
US8988732B2 (en) 2002-09-18 2015-03-24 Konica Minolta Business Technologies, Inc. Image processing apparatus and image processing method
JP2004348733A (en) * 2003-05-19 2004-12-09 Fuji Photo Film Co Ltd Method and device for detecting red-eye area in digital image
JP4529172B2 (en) * 2003-05-19 2010-08-25 富士フイルム株式会社 Method and apparatus for detecting red eye region in digital image
JP2007324190A (en) * 2006-05-30 2007-12-13 Fuji Mach Mfg Co Ltd Component attracting attitude determining method and system
JP4683429B2 (en) * 2006-05-30 2011-05-18 富士機械製造株式会社 Component suction posture discrimination method and component suction posture discrimination system
JP2012108854A (en) * 2009-12-04 2012-06-07 Ricoh Co Ltd Printed matter inspection device, printed matter inspection method, program, memory medium and printed matter inspection system
JP2011227772A (en) * 2010-04-21 2011-11-10 Nippon Hoso Kyokai <Nhk> Image classification device and program
WO2012132051A1 (en) * 2011-03-31 2012-10-04 株式会社ナナオ Method and apparatus for detecting fine lines and characters
JP2012216956A (en) * 2011-03-31 2012-11-08 Nanao Corp Thin line or character detection method and apparatus

Similar Documents

Publication Publication Date Title
JP4137890B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP5153857B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
US7130469B2 (en) Image processing apparatus, image processing method, program, recording medium, and image forming apparatus having the same
JP4495197B2 (en) Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program
JP4166744B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4170353B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, program, and recording medium
US8203773B2 (en) Image processing method, image processing apparatus, image forming apparatus, and recording medium for chromatic content determination
JP4118886B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP2002232708A (en) Image processing device, image forming device using the same, and image processing method
JP4115999B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP2002027242A (en) Image processing method, image processor, and image maker equipped therewith, and storage medium
JP4260774B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP4522978B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JP4320309B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium recording the program
JP3847565B2 (en) Image processing apparatus, image forming apparatus including the same, and image processing method
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JPH0654180A (en) Method and device for image area separation
JP2006229817A (en) Background detection method, program, recording medium, image processing apparatus, and image forming apparatus
JP4149368B2 (en) Image processing method, image processing apparatus and image forming apparatus, computer program, and computer-readable recording medium
JP6752263B2 (en) Image processing device, image forming device, and image processing method
JP4086537B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2003125198A (en) Image processing apparatus and image processing method, and image forming device provided with the same, program, and recording medium
JP2023109520A (en) Image processing device
JP2007189275A (en) Image processor
JP6618307B2 (en) Image processing apparatus, image forming apparatus, and resolution determination method