JP2005210492A - Manuscript reader, its correction method, and image forming apparatus - Google Patents

Manuscript reader, its correction method, and image forming apparatus Download PDF

Info

Publication number
JP2005210492A
JP2005210492A JP2004015904A JP2004015904A JP2005210492A JP 2005210492 A JP2005210492 A JP 2005210492A JP 2004015904 A JP2004015904 A JP 2004015904A JP 2004015904 A JP2004015904 A JP 2004015904A JP 2005210492 A JP2005210492 A JP 2005210492A
Authority
JP
Japan
Prior art keywords
pixels
character
image
halftone
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004015904A
Other languages
Japanese (ja)
Inventor
Hiroshi Ishii
宏 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP2004015904A priority Critical patent/JP2005210492A/en
Publication of JP2005210492A publication Critical patent/JP2005210492A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically correct a region distinction parameter, and to acquire a right distinction result at all times regardless of production variation of the device or apparatus. <P>SOLUTION: The apparatus includes a scanner 11 which reads a reference chart 10 demarcating a character region composed of the character of a predetermined number of pixels preliminarily prepared, and a dot point region configured of a dot point of predetermined number of pixels; an image processing block 21 which respectively detects number of character pixels and number of dot pixels from the image data Din concerning the character region and the dot point region of the reference chart 10 read out here; and a control unit 35 which compares the number of character pixels and number of dot pixels detected here with preliminary established decision expected value, and corrects a region distinction parameter based on the comparison result. The apparatus can automatically corrects the region distinction parameter based on the image data Din obtained by reading the reference chart 10 by a pixel unit. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、原稿から読み取った画像の領域を判別して画像データを調整する画像領域判別調整機能を備えたスキャナや、デジタル複写機、複合機等に適用して好適な原稿読取装置、その補正方法及び画像形成装置に関するものである。   The present invention relates to a document reading apparatus suitable for being applied to a scanner, a digital copying machine, a multi-function machine, or the like having an image area determination adjustment function for determining an image area read from a document and adjusting image data, and correction thereof The present invention relates to a method and an image forming apparatus.

近年、任意の画像情報に基づいて画像を形成する白黒及びカラー用のプリンタや複写機、これらの複合機が使用される場合が多くなってきた。例えば、白黒用のデジタル複写機は、スキャナ機能に加えて、露光手段、現像器、感光体ドラム及び定着装置から成る画像形成手段を備えている。   In recent years, black and white and color printers and copiers that form images based on arbitrary image information, and multi-function peripherals thereof are often used. For example, a digital copier for black and white includes an image forming unit including an exposure unit, a developing unit, a photosensitive drum, and a fixing device in addition to a scanner function.

原稿はスキャナによって読み取られ、原稿画像は二値化されて画像情報となる。露光手段では画像処理後の画像情報に基づいて感光体ドラムに静電潜像を描くようになされる。現像器では感光体ドラムに描かれた静電潜像に黒色のトナー剤を付着して現像する。トナー像は、感光体ドラムから用紙に転写された後に定着装置によって定着される。これにより、給紙トレイから繰り出された用紙に画像を形成することができる。   The original is read by a scanner, and the original image is binarized to become image information. The exposure means draws an electrostatic latent image on the photosensitive drum based on the image information after image processing. In the developing device, a black toner agent is attached to the electrostatic latent image drawn on the photosensitive drum and developed. The toner image is transferred from the photosensitive drum to a sheet and then fixed by a fixing device. As a result, an image can be formed on the paper fed from the paper feed tray.

この種のデジタル複写機によれば、原稿から読み取った画像の階調性や鮮鋭性等を確保するために、原稿画像の種類毎に文字、写真、網点等の領域を判別する。例えば、ある大きさのドットをある周期で描画されたものが網点画像であり、網点領域は、この周期性を利用して判別される場合が多い。これらの判別結果に基づいて画像情報を補正するようになされる。この補正によって、スキャナの変調伝達関数(Modulation Transfer Function;以下MTFという)が低い場合や、原稿の背景を暗く検出した場合であっても、文字と網点の領域の誤判別の影響を取り除くことができ、文字はくっきり、写真や網点は、ぼやかす処理を行うことができる。   According to this type of digital copying machine, in order to ensure gradation and sharpness of an image read from a document, areas such as characters, photographs, and halftone dots are determined for each type of document image. For example, a dot image in which dots of a certain size are drawn with a certain period is a halftone dot image, and the halftone dot region is often determined using this periodicity. Image information is corrected based on these determination results. This correction eliminates the effects of misjudgment between characters and halftone dots even when the scanner's modulation transfer function (hereinafter referred to as MTF) is low or when the background of the original is detected darkly. The text is clear and the photos and halftone dots can be blurred.

このような画像領域判別機能を備えた複写機に関連して、特許文献1には、デジタル複写機が開示されている。この複写機によれば、画像領域判定結果に基づいて中間調処理手段及び二値化処理手段を制御する制御手段を備え、この制御手段は、原稿から読み取った画像の各領域が、中間調画像か、あるいは、二値画像か否かの領域判定結果に基づいて自動的に中間調処理又は二値化処理を切り換えるようになされる。このようにすることで、写真等の中間調画像、文字等の二値画像が混在する原稿に対して、写真と文字の両方の画像を鮮明に複写できるというものである。   In relation to a copying machine having such an image area discrimination function, Patent Document 1 discloses a digital copying machine. According to this copier, the control means for controlling the halftone processing means and the binarization processing means based on the image area determination result is provided, and this control means is configured so that each area of the image read from the original is a halftone image. Alternatively, halftone processing or binarization processing is automatically switched based on the region determination result as to whether or not the image is a binary image. In this way, both a photograph and a character image can be clearly copied with respect to a document in which a halftone image such as a photograph and a binary image such as a character are mixed.

また、特許文献2には、画像処理装置が開示されている。この画像処理装置によれば、画素単位に画像判別処理する混在画判別手段を備え、この混在画判別手段は、文字画や、写真画、網線画等が混在した原稿を走査して得た画像信号を入力し、この画像信号から高調波成分を低減し、高調波成分が低減された画像信号の濃度情報と予め設定された基準値とを比較するようになされる。このようにすることで、文字画、写真画、網線画が混在する入力画像であっても、これらを確実に判別できるというものである。   Patent Document 2 discloses an image processing apparatus. According to this image processing apparatus, the mixed image determining means for performing image determination processing in units of pixels is provided, and the mixed image determining means is an image obtained by scanning a document in which character images, photographic images, half-line images, etc. are mixed. A signal is input, a harmonic component is reduced from the image signal, and the density information of the image signal with the reduced harmonic component is compared with a preset reference value. In this way, even an input image in which character images, photographic images, and line drawings are mixed can be reliably discriminated.

特開昭62−104379号公報(第4頁、第3図)JP-A-62-104379 (page 4, FIG. 3) 特開平02−090868号公報(第3頁、第3図)Japanese Patent Laid-Open No. 02-090868 (page 3, FIG. 3)

ところで、従来例に係る画像形成装置によれば、原稿を走査して得られた画像情報から写真、網点あるいは文字の領域を判別し、この領域判別結果に基づいて画像形成処理をする場合に、次のような問題がある。   By the way, according to the image forming apparatus according to the conventional example, when a region of a photograph, a halftone dot, or a character is discriminated from image information obtained by scanning a document, and image forming processing is performed based on the region discrimination result. There are the following problems.

i.原稿画像の種類を領域毎に判別する場合に、スキャナの光学系のバラツキによるMTFの差、プラテンガラスの透過率、原稿画像をデジタル変換する回路特性等のバラツキにより、必ずしも、最適な判別結果が得られていないのが現状である。一般に、原稿画像領域を判別する場合に、画像領域判別手段が設けられ、網点あるいは文字領域を判別するための判定閾値(以下領域判別パラメータという)が設定される。この領域判別パラメータが、装置組み立て時や、メンテナンス等においてマニュアル補正される場合が多いためである。   i. When discriminating the type of document image for each region, the optimum discrimination result is not necessarily due to variations in MTF due to variations in the optical system of the scanner, transmittance of the platen glass, circuit characteristics for digitally converting the document image, and the like. The current situation is that it has not been obtained. In general, when a document image area is determined, an image area determination unit is provided, and a determination threshold value (hereinafter referred to as an area determination parameter) for determining a halftone dot or a character area is set. This is because the area determination parameter is often manually corrected at the time of device assembly or maintenance.

ii.従って、スキャナのMTFが低い場合や、原稿の背景を暗く検出した場合等においては、文字の間隔が詰まり、網点部分であると誤判別されるおそれがある。このような場合、誤判別されたまま網点での画像処理に移行すると、画像形成後の文字の鮮鋭性が失われてしまうことになる。   ii. Therefore, when the MTF of the scanner is low, or when the background of the original is detected as dark, there is a possibility that the character spacing is clogged and erroneously determined to be a halftone dot portion. In such a case, if the process shifts to image processing with halftone dots while being misidentified, the sharpness of characters after image formation will be lost.

iii.また、本来、網点画像と判別されるべき領域が、文字の領域であると誤判別されると、画像形成時、ドットピッチを広く取ってしまい、よりモアレ縞が強調された画像となるおそれがある。   iii. In addition, if the area that should be determined as a halftone image is erroneously determined as a character area, the dot pitch may be increased during image formation, resulting in an image with more moire fringes. There is.

そこで、この発明は、このような従来例に係る課題を解決したものであって、領域判別パラメータを自動補正できるようにすると共に、当該装置機械の製造バラツキに左右されることなく、常に正しい判別結果を取得できるようにした原稿読取装置、その補正方法及び画像形成装置を提供することを目的とする。   Therefore, the present invention solves such a problem related to the conventional example, makes it possible to automatically correct the area determination parameter, and always makes a correct determination without being influenced by the manufacturing variation of the apparatus machine. An object of the present invention is to provide a document reading apparatus, a correction method thereof, and an image forming apparatus capable of acquiring a result.

上述した課題を解決するために、原稿読取装置は、文字部及び網点部を含む原稿を読み取り領域判別パラメータに基づいて領域判別処理をする装置であって、所定の画素数の文字部から構成される文字領域と所定の画素数の網点部から構成される網点領域とを画定した基準原稿用紙を読み取る画像読取手段と、この画像読取手段によって読み取られた基準原稿用紙の文字領域及び網点領域に係る画像情報から文字部の画素数及び網点部の画素数を各々検出する画素検出手段と、この画素検出手段によって検出された文字部の画素数及び網点部の画素数と予め設定された判定期待値とを比較し、当該比較結果に基づいて領域判別パラメータを補正する制御手段とを備えることを特徴とするものである。   In order to solve the above-described problem, a document reading device is a device that performs region discrimination processing on a document including a character portion and a halftone dot portion based on a reading region discrimination parameter, and includes a character portion having a predetermined number of pixels. Image reading means for reading a reference original paper defining a character area to be read and a halftone dot area composed of a halftone dot portion having a predetermined number of pixels, and a character area and a halftone of the reference original paper read by the image reading means Pixel detecting means for detecting the number of pixels in the character part and the number of pixels in the halftone part from the image information relating to the dot area, and the number of pixels in the character part and the number of pixels in the halftone part detected by the pixel detecting means in advance Control means for comparing the set expected determination value and correcting the region discrimination parameter based on the comparison result is provided.

本発明に係る原稿読取装置によれば、文字部及び網点部を含む原稿を読み取り領域判別パラメータに基づいて領域判別処理をする場合に、例えば、パラメータ調整モード時に、画像読取手段は、予め準備された所定の画素数の文字部から構成される文字領域と所定の画素数の網点部から構成される網点領域とを画定した基準原稿用紙を読み取るようになされる。   According to the document reading apparatus of the present invention, when performing region determination processing on a document including a character portion and a halftone portion based on the reading region determination parameter, for example, in the parameter adjustment mode, the image reading unit is prepared in advance. The reference document sheet defining the character region composed of the character portion having the predetermined number of pixels and the halftone region composed of the halftone portion having the predetermined number of pixels is read.

画素検出手段は、画像読取手段によって読み取られた基準原稿用紙の文字領域及び網点領域に係る画像情報から文字部の画素数及び網点部の画素数を各々検出するようになされる。これを前提にして、制御手段は、画素検出手段によって検出された文字部の画素数及び網点部の画素数と予め設定された判定期待値とを比較し、当該比較結果に基づいて領域判別パラメータを補正するようになされる。   The pixel detecting means detects the number of pixels in the character portion and the number of pixels in the halftone dot portion from the image information relating to the character area and halftone dot area of the reference document sheet read by the image reading means. On the premise of this, the control means compares the number of pixels in the character part and the number of pixels in the halftone part detected by the pixel detection means with a predetermined determination expected value, and determines the region based on the comparison result. The parameters are corrected.

従って、予め文字領域及び網点領域が自明となっている基準原稿用紙を1画素単位に読み込んで得られる画像情報に基づいて領域判別パラメータを自動補正することができる。これにより、当該装置機械の製造バラツキに左右されることなく、常に正しい判別結果を取得することができる。   Therefore, the area determination parameter can be automatically corrected based on the image information obtained by reading the reference document sheet in which the character area and the dot area are self-evident in advance in units of pixels. As a result, it is possible to always obtain a correct determination result without being affected by manufacturing variations of the apparatus machine.

本発明に係る原稿読取装置の補正方法は、文字部及び網点部を含む原稿を領域判別パラメータに基づいて領域判別処理をする原稿読取手段を補正する方法であって、所定の画素数の文字部から構成される文字領域と所定の画素数の網点部から構成される網点領域とを画定した基準原稿用紙を準備し、予め準備された基準原稿用紙を当該原稿読取手段によって読み取り、原稿読取手段によって読み取られた基準原稿用紙の文字領域及び網点領域に係る画像情報から文字部の画素数及び網点部の画素数を各々検出し、ここで検出された文字部の画素数及び網点部の画素数と予め設定された判定期待値とを比較し、当該比較結果に基づいて領域判別パラメータを補正することを特徴とするものである。   A correction method for a document reading apparatus according to the present invention is a method for correcting document reading means for performing region discrimination processing on a document including a character portion and a halftone dot portion based on a region discrimination parameter, wherein a character having a predetermined number of pixels is used. A reference document sheet in which a character area composed of a part and a halftone area composed of a halftone dot part having a predetermined number of pixels are defined, and the prepared reference document sheet is read by the document reading unit, The number of pixels of the character portion and the number of pixels of the halftone portion are detected from the image information relating to the character region and the halftone dot region of the reference document sheet read by the reading means, and the number of pixels of the character portion and the halftone dot detected here are detected. The number of pixels at the point portion is compared with a predetermined expected determination value, and the region determination parameter is corrected based on the comparison result.

本発明に係る原稿読取装置の補正方法によれば、文字部及び網点部を含む原稿を読み取り領域判別パラメータに基づいて領域判別処理をする場合に、例えば、パラメータ調整モード時に、予め文字領域及び網点領域が自明となっている基準原稿用紙を1画素単位に読み込んで得た画像情報に基づいて領域判別パラメータを自動補正することができる。   According to the correction method of the document reading apparatus according to the present invention, when performing region determination processing on a document including a character portion and a halftone portion based on a reading region determination parameter, for example, in the parameter adjustment mode, The area discrimination parameter can be automatically corrected based on the image information obtained by reading the reference original paper having a halftone dot area obvious in units of pixels.

本発明に係る画像形成装置は、文字部及び網点部を含む原稿を読み取って得た任意の画像情報に基づいて画像を形成する装置であって、原稿を読み取り領域判別パラメータに基づいて領域判別処理をする原稿読取装置と、この原稿読取装置によって得られた画像情報に基づいて画像を形成する画像形成手段とを備え、原稿読取装置は、予め準備された所定の画素数の文字部から構成される文字領域と所定の画素数の網点部から構成される網点領域とを画定した基準原稿用紙を読み取る画像読取手段と、この画像読取手段によって読み取られた基準原稿用紙の文字領域及び網点領域に係る画像情報から文字部の画素数及び網点部の画素数を各々検出する画素検出手段と、この画素検出手段によって検出された文字部の画素数及び網点部の画素数と予め設定された判定期待値とを比較し、当該比較結果に基づいて領域判別パラメータを補正する制御手段とを有することを特徴とするものである。   An image forming apparatus according to the present invention is an apparatus that forms an image based on arbitrary image information obtained by reading a document including a character portion and a halftone dot portion, and determines a region based on a reading region determination parameter. A document reading device that performs processing and an image forming unit that forms an image based on image information obtained by the document reading device. The document reading device includes a character portion having a predetermined number of pixels prepared in advance. Image reading means for reading a reference original paper defining a character area to be read and a halftone dot area composed of a halftone dot portion having a predetermined number of pixels, and a character area and a halftone of the reference original paper read by the image reading means Pixel detecting means for detecting the number of pixels in the character portion and the number of pixels in the halftone dot portion from the image information relating to the dot area, and the number of pixels in the character portion and the number of pixels in the dot portion detected by the pixel detecting means Comparing the preset determination expected value, it is characterized in that a control means for correcting the region discrimination parameter based on the comparison result.

本発明に係る画像形成装置によれば、本発明の原稿読取手段が応用され、文字部及び網点部を含む原稿を読み取り領域判別パラメータに基づいて領域判別処理をする場合に、例えば、パラメータ調整モード時に、画像読取手段は、予め準備された所定の画素数の文字部から構成される文字領域と所定の画素数の網点部から構成される網点領域とを画定した基準原稿用紙を読み取るようになされる。   According to the image forming apparatus of the present invention, when the document reading unit of the present invention is applied and a region determination process is performed on a document including a character portion and a halftone portion based on a read region determination parameter, for example, parameter adjustment In the mode, the image reading unit reads a reference document sheet that defines a character area composed of a character portion having a predetermined number of pixels and a halftone area composed of a dot portion having a predetermined number of pixels. It is made like.

画素検出手段は、画像読取手段によって読み取られた基準原稿用紙の文字領域及び網点領域に係る画像情報から文字部の画素数及び網点部の画素数を各々検出するようになされる。制御手段は、画素検出手段によって検出された文字部の画素数及び網点部の画素数と予め設定された判定期待値とを比較し、当該比較結果に基づいて領域判別パラメータを補正するようになされる。   The pixel detecting means detects the number of pixels in the character portion and the number of pixels in the halftone dot portion from the image information relating to the character area and halftone dot area of the reference document sheet read by the image reading means. The control means compares the number of pixels of the character part and the number of pixels of the halftone part detected by the pixel detection means with a preset expected expected value, and corrects the region discrimination parameter based on the comparison result. Made.

従って、予め文字領域及び網点領域が自明となっている基準原稿用紙を1画素単位に読み込んで得られる画像情報に基づいて領域判別パラメータを自動補正することができる。これを前提にして、原稿読取手段は、原稿を読み取り領域判別パラメータに基づいて領域判別処理をする。画像形成手段は、原稿読取手段によって得られた領域判別処理後の画像情報に基づいて画像を形成するようになる。   Therefore, the area determination parameter can be automatically corrected based on the image information obtained by reading the reference document sheet in which the character area and the dot area are self-evident in advance in units of pixels. On the premise of this, the document reading means performs a region determination process based on a document reading region determination parameter. The image forming unit forms an image based on the image information after the area determination processing obtained by the document reading unit.

従って、当該装置機械の製造バラツキに左右されることなく、領域判別処理に基づく輪郭強調、ぼかし処理等の高品質の画像を形成することができる。   Therefore, it is possible to form a high-quality image such as contour enhancement or blurring based on the region discrimination process without being affected by the manufacturing variation of the apparatus machine.

本発明に係る原稿読取装置によれば、文字部及び網点部を含む原稿を読み取り領域判別パラメータに基づいて領域判別処理をする場合に、文字部の画素数及び網点部の画素数と予め設定された判定期待値とを比較し、当該比較結果に基づいて領域判別パラメータを補正する制御手段を備えるものである。   According to the document reading apparatus of the present invention, when the region including the character portion and the halftone portion is subjected to the region determination process based on the read region determination parameter, the number of characters in the character portion and the number of pixels in the halftone portion are set in advance. Control means for comparing the set expected determination value and correcting the region discrimination parameter based on the comparison result is provided.

この構成によって、予め文字領域及び網点領域が自明となっている基準原稿用紙を1画素単位に読み込んで得られる画像情報に基づいて領域判別パラメータを自動補正することができる。従って、当該装置機械の製造バラツキに左右されることなく、常に正しい判別結果を取得することができる。   With this configuration, it is possible to automatically correct the region determination parameter based on image information obtained by reading a reference document sheet in which the character region and the dot region are self-evident in advance in units of pixels. Therefore, it is possible to always obtain a correct determination result without being influenced by manufacturing variations of the apparatus machine.

本発明に係る原稿読取装置の補正方法によれば、領域判別パラメータに基づいて領域判別処理をする原稿読取手段を補正する場合に、予め準備された基準原稿用紙を当該原稿読取手段によって読み取り、この原稿読取手段によって読み取られた基準原稿用紙の文字領域及び網点領域に係る画像情報から文字部の画素数及び網点部の画素数を各々検出し、ここで検出された文字部の画素数及び網点部の画素数と予め設定された判定期待値とを比較するようになされる。   According to the correction method of the document reading apparatus according to the present invention, when correcting the document reading unit that performs the region determination process based on the region determination parameter, the reference document sheet prepared in advance is read by the document reading unit. The number of pixels of the character part and the number of pixels of the halftone part are detected from the image information relating to the character area and the halftone dot area of the reference document sheet read by the document reading means, and the number of pixels of the character part detected here and The number of pixels in the halftone dot portion is compared with a predetermined determination expected value.

この構成によって、予め文字領域及び網点領域が自明となっている基準原稿用紙を1画素単位に読み込んで得られる画像情報に基づいて領域判別パラメータを自動補正することができる。   With this configuration, it is possible to automatically correct the region determination parameter based on image information obtained by reading a reference document sheet in which the character region and the dot region are self-evident in advance in units of pixels.

本発明に係る画像形成装置によれば、本発明の原稿読取装置が応用され、文字部の画素数及び網点部の画素数と予め設定された判定期待値とを比較し、当該比較結果に基づいて領域判別パラメータを補正するようになされる。   According to the image forming apparatus of the present invention, the document reading apparatus of the present invention is applied, and the number of pixels in the character portion and the number of pixels in the halftone portion are compared with a predetermined determination expected value, and the comparison result is obtained. Based on this, the region discrimination parameter is corrected.

この構成によって、予め文字領域及び網点領域が自明となっている基準原稿用紙を1画素単位に読み込んで得られる画像情報に基づいて領域判別パラメータを自動補正することができる。従って、当該装置機械の製造バラツキに左右されることなく、領域判別処理に基づく輪郭強調、ぼかし処理等の高品質の画像を形成することができる。   With this configuration, it is possible to automatically correct the region determination parameter based on image information obtained by reading a reference document sheet in which the character region and the dot region are self-evident in advance in units of pixels. Therefore, it is possible to form a high-quality image such as contour enhancement or blurring based on the region discrimination process without being affected by the manufacturing variation of the apparatus machine.

続いて、この発明に係る原稿読取装置、画像形成装置及び画像処理方法の一実施例について、図面を参照しながら説明をする。   Next, an embodiment of a document reading apparatus, an image forming apparatus, and an image processing method according to the present invention will be described with reference to the drawings.

(1)原稿読取装置
図1は本発明に係る実施例としてのスキャナ100の構成例を示す概念図である。
この実施例では、文字部及び網点部を含む原稿を読み取り領域判別パラメータに基づいて領域判別処理をする場合に、文字部の画素数及び網点部の画素数と予め設定された判定期待値とを比較し、当該比較結果に基づいて領域判別パラメータを補正する制御手段を備え、予め文字領域及び網点領域が自明となっている基準原稿用紙を1画素単位に読み込んで得られる画像情報に基づいて領域判別パラメータを自動補正できるようにすると共に、当該装置機械の製造バラツキを排除できるようにして、常に正しい判別結果を取得できるようにしたものである。
(1) Document Reading Apparatus FIG. 1 is a conceptual diagram showing a configuration example of a scanner 100 as an embodiment according to the present invention.
In this embodiment, when an area determination process is performed based on a reading area determination parameter for a document including a character area and a halftone area, the number of pixels in the character area, the number of pixels in the halftone area, and a predetermined determination expected value Control means for correcting the area discrimination parameter based on the comparison result, and image information obtained by reading a reference document sheet in which the character area and the halftone area are obvious in advance in units of pixels. Based on this, it is possible to automatically correct the region discrimination parameter and to eliminate the manufacturing variation of the apparatus machine so that a correct discrimination result can always be obtained.

図1に示すスキャナ100は原稿読取装置の一例であり、文字部及び網点部を含む原稿を読み取り、領域判別パラメータに基づいて領域判別処理をする装置である。スキャナ本体11aには、画像読取手段の一例となるスキャナ部11が備えられ、パラメータ調整モード時に、基準原稿用紙(以下基準チャート10という)を読み取るようになされる。   A scanner 100 shown in FIG. 1 is an example of an original reading apparatus, and is an apparatus that reads an original including a character part and a halftone part and performs area determination processing based on an area determination parameter. The scanner body 11a includes a scanner unit 11 as an example of an image reading unit, and reads a reference document sheet (hereinafter referred to as a reference chart 10) in the parameter adjustment mode.

パラメータ調整モードとは、基準チャートを1画素単位に読み込んで得た画像情報に基づいて領域判別パラメータを自動補正する動作をいう。この基準チャート10は、予め文字領域及び網点領域が自明となっていて、予め準備された所定の画素数の文字部から構成される文字領域と所定の画素数の網点部から構成され網点領域とを画定した用紙である。もちろん、スキャナは、基準チャート10の他に通常の原稿画像を読み込んでデジタルデータ化するようになされる。   The parameter adjustment mode refers to an operation of automatically correcting the region discrimination parameter based on image information obtained by reading the reference chart in units of pixels. The reference chart 10 has a character area and a halftone dot area that are self-evident in advance, and is composed of a character area composed of a predetermined number of character portions and a halftone dot portion of a predetermined number of pixels. This is a sheet in which point areas are defined. Of course, the scanner reads a normal document image in addition to the reference chart 10 and converts it into digital data.

スキャナ100には、スキャナ部11、制御ユニット35及び操作パネル48が備えられる。スキャナ本体11aには、例えば、自動原稿給紙装置(ADF)40が取り付けられており、任意の原稿を自動給紙するように動作する。ADF40は原稿載置部41、ローラ42a、ローラ42b、ローラ43、搬送ローラ44及び排紙皿46を有している。原稿載置部41には一又は複数の原稿20が載置される。   The scanner 100 includes a scanner unit 11, a control unit 35, and an operation panel 48. For example, an automatic document feeder (ADF) 40 is attached to the scanner body 11a and operates to automatically feed an arbitrary document. The ADF 40 includes a document placing portion 41, a roller 42 a, a roller 42 b, a roller 43, a transport roller 44, and a paper discharge tray 46. One or a plurality of documents 20 are placed on the document placing portion 41.

原稿載置部41の下流側にはローラ42a及びローラ42bが設けられ、自動給紙モードが選択されたとき、原稿載置部41から繰り出された原稿20は、下流側のローラ43によってU字回転するように搬送される。なお、自動給紙モードが設定された場合、原稿20の記録面は原稿載置部41で上に向けて載置するようになされる。   A roller 42 a and a roller 42 b are provided on the downstream side of the document placing portion 41. When the automatic paper feeding mode is selected, the document 20 fed out from the document placing portion 41 is U-shaped by the downstream roller 43. It is conveyed so as to rotate. When the automatic paper feeding mode is set, the recording surface of the document 20 is placed upward by the document placement unit 41.

一方、スキャナ本体内には、制御ユニット35が設けられ、この制御ユニット35には、スキャナ本体11aに設けられた操作パネル48が接続される。操作パネル48は、任意の原稿20を読み取って得られる、画像情報(以下画像データDoutという)をプリンタ等に出力するように操作される。スキャナ部11には縮小型イメージセンサが使用され、例えば、原稿20がローラ43によってU字状に反転するときに、その原稿20の表面を読み取って画像データDinを出力するようになされる。   On the other hand, a control unit 35 is provided in the scanner body, and an operation panel 48 provided in the scanner body 11a is connected to the control unit 35. The operation panel 48 is operated to output image information (hereinafter referred to as image data Dout) obtained by reading an arbitrary document 20 to a printer or the like. A reduction type image sensor is used for the scanner unit 11. For example, when the document 20 is reversed into a U shape by the roller 43, the surface of the document 20 is read and image data Din is output.

スキャナ部11は第1のプラテンガラス51、第2のプラテンガラス52、光源53、ミラー54、55、56、結像光学部57、CCD撮像装置58及び図示しない光学駆動部を有している。スキャナ部11で読み取られた原稿20は、搬送ローラ44により搬送されて排紙皿46へ排紙される。スキャナ部11には、縮小型イメージセンサを構成するCCD撮像装置58が備えられ、原稿20を読み取って得た原稿読取信号Sinを出力するようになされる。CCD撮像装置58の出力段には制御ユニット35が接続される。   The scanner unit 11 includes a first platen glass 51, a second platen glass 52, a light source 53, mirrors 54, 55, and 56, an imaging optical unit 57, a CCD imaging device 58, and an optical drive unit (not shown). The document 20 read by the scanner unit 11 is transported by the transport roller 44 and discharged to the discharge tray 46. The scanner unit 11 is provided with a CCD imaging device 58 that constitutes a reduction type image sensor, and outputs a document reading signal Sin obtained by reading the document 20. A control unit 35 is connected to the output stage of the CCD imaging device 58.

図2は、スキャナ100の制御系の構成例を示すブロック図である。図2に示すスキャナ100において、スキャナ部11には制御ユニット35が接続される。制御ユニット35は、アナログ・デジタル(以下A/Dという)変換部12、不揮発メモリ16、画像領域判別ブロック17、画像処理ブロック21、システムバス22、CPU25及び画素カウンタ27を有している。   FIG. 2 is a block diagram illustrating a configuration example of a control system of the scanner 100. In the scanner 100 shown in FIG. 2, a control unit 35 is connected to the scanner unit 11. The control unit 35 includes an analog / digital (hereinafter referred to as A / D) conversion unit 12, a nonvolatile memory 16, an image area determination block 17, an image processing block 21, a system bus 22, a CPU 25, and a pixel counter 27.

スキャナ部11にはA/D変換部12が接続され、原稿読取信号SinをA/D変換するようになされる。原稿読取信号SinはA/D変換後、デジタルの画像データDinとなる。A/D変換部12には画像領域判別ブロック17が接続される。画像領域判別ブロック17には、画像データDinを展開するための図示しない数ラインのメモリが備えられる。画像領域判別ブロック17では、メモリに展開された画像データDinから、領域判別パラメータに基づいて、文字領域及び網点領域を判別し、それ以外を写真領域とするようになされる。   An A / D conversion unit 12 is connected to the scanner unit 11 so as to A / D convert the document reading signal Sin. The original reading signal Sin becomes digital image data Din after A / D conversion. An image area discrimination block 17 is connected to the A / D converter 12. The image area determination block 17 is provided with a memory of several lines (not shown) for developing the image data Din. The image area discrimination block 17 discriminates a character area and a halftone dot area from the image data Din developed in the memory based on the area discrimination parameter, and sets the rest as a photographic area.

画像領域判別ブロック17には、画素検出手段の一例となる画素カウンタ27が接続され、スキャナ部11によって読み取られた基準チャート10に係る出力画像における文字画素数及び網画素数を各々カウントするようになされる。つまり、画素カウンタ27は、基準チャート10の文字領域及び網点領域に係る画像データDinから文字画素数N及び網画素数Mを各々検出するように処理される。画素カウンタ27は図示しないレジスタを有しており、このレジスタには、パラメータ調整モード時の文字や網点の検出画素数として文字画素数N及び網画素数Mが保持される。   A pixel counter 27, which is an example of a pixel detection unit, is connected to the image area determination block 17 so as to count the number of character pixels and the number of halftone pixels in the output image according to the reference chart 10 read by the scanner unit 11. Made. That is, the pixel counter 27 is processed so as to detect the character pixel number N and the halftone pixel number M from the image data Din related to the character region and the halftone dot region of the reference chart 10, respectively. The pixel counter 27 has a register (not shown), and this register holds the number N of character pixels and the number M of halftone pixels as the number of detected pixels of characters and halftone dots in the parameter adjustment mode.

画素カウンタ27はシステムバス22に接続され、このシステムバス22には、制御手段の一例となるCPU(Central Processing Unit;中央処理ユニット)25が接続される。システムバス22には、画像領域判別ブロック17及びCPU25の他に、不揮発メモリ16や操作パネル48等が接続される。不揮発メモリ16には領域判別パラメータを補正するための補正テーブルが記憶される。不揮発メモリ16には補正テーブルの他に領域判別パラメータの補正値が格納される。領域判別パラメータは、画像データDinに関して領域判別結果を調整するために使用される。   The pixel counter 27 is connected to the system bus 22, and a CPU (Central Processing Unit) 25 as an example of a control unit is connected to the system bus 22. In addition to the image area determination block 17 and the CPU 25, the nonvolatile memory 16 and the operation panel 48 are connected to the system bus 22. The nonvolatile memory 16 stores a correction table for correcting the area determination parameter. In addition to the correction table, the non-volatile memory 16 stores the correction value of the area determination parameter. The area determination parameter is used to adjust the area determination result with respect to the image data Din.

操作パネル48は、操作部14及び表示部18から構成され、原稿読取モード又はパラメータ調整モードを設定するように操作される。CPU25には操作部14の他に表示部18が接続され、操作部14により選択操作される原稿読取モード又はパラメータ調整モード等を表示するようになされる。原稿読取モード又はパラメータ調整モード等は例えば、CPU25で表示データD2に変換されて表示部18に出力される。操作部14は、例えば、タッチパネルから構成され、表示部18は液晶表示パネルから構成される。この例では、表示部18を構成する液晶表示パネル上に、操作部14を構成するタッチパネルが組み合わされ、GUI(Graphic User Interface)方式の操作パネル48が構成される。   The operation panel 48 includes an operation unit 14 and a display unit 18 and is operated to set a document reading mode or a parameter adjustment mode. The CPU 25 is connected to a display unit 18 in addition to the operation unit 14 so as to display a document reading mode or a parameter adjustment mode selected and operated by the operation unit 14. For example, the document reading mode or the parameter adjustment mode is converted into display data D2 by the CPU 25 and output to the display unit 18. For example, the operation unit 14 includes a touch panel, and the display unit 18 includes a liquid crystal display panel. In this example, a touch panel constituting the operation unit 14 is combined with a liquid crystal display panel constituting the display unit 18 to constitute a GUI (Graphic User Interface) type operation panel 48.

CPU25は、画素カウンタ27によって検出された文字画素数N及び網画素数Mと予め設定された判定期待値とを比較し、当該比較結果に基づいて領域判別パラメータを補正するようになされる。この例でCPU25は、文字画素数N及び網画素数Mが予め設定された判定期待値の範囲内に含まれる場合には、領域判別パラメータを補正する。   The CPU 25 compares the number N of character pixels and the number M of halftone pixels detected by the pixel counter 27 with a predetermined determination expected value, and corrects the region determination parameter based on the comparison result. In this example, the CPU 25 corrects the region determination parameter when the number of character pixels N and the number of halftone pixels M are included in the predetermined range of expected determination values.

例えば、CPU25は、画素カウンタ27のレジスタから文字や網点の検出画素数として、文字画素数N及び網画素数Mを読み出し、予め作成された不揮発メモリ16内の補正テーブルを参照し、領域判別パラメータの補正値を算出する。このようにすると、基準チャート10を読み取って得た文字領域及び網点領域の画素数を領域判別パラメータにフィードバックするような制御を実行することができる。また、CPU25は、文字画素数N及び網画素数Mが予め設定された判定期待値の範囲外となる場合には、表示部18への警告処理を実行する。   For example, the CPU 25 reads out the character pixel number N and the halftone pixel number M from the register of the pixel counter 27 as the detected number of characters and halftone dots, and refers to the correction table in the nonvolatile memory 16 created in advance to determine the region. The parameter correction value is calculated. In this way, it is possible to execute control such that the number of pixels in the character area and the halftone dot area obtained by reading the reference chart 10 is fed back to the area determination parameter. In addition, when the number of character pixels N and the number of halftone pixels M are outside the range of the predetermined expected determination value, the CPU 25 executes a warning process for the display unit 18.

上述の画像領域判別ブロック17には画像処理ブロック21が接続される。画像処理ブロック21は、画像データDinをγ補正処理や、シェーディング補正、タイミング制御、ライン間補正処理等を実行して、画像処理後の画像データDoutをプリンタ等に出力するようになされる。このようにスキャナ100を構成すると、MTFや、原稿20の背景濃度の読込み値等が異なった場合でも、基準チャート10を読み込み判別結果を確認して、領域判別パラメータを自動補正することができる。また、機械のバラツキに左右されることなく、常に正しい判別結果を得ることができる。   An image processing block 21 is connected to the image area determination block 17 described above. The image processing block 21 executes γ correction processing, shading correction, timing control, interline correction processing, and the like on the image data Din, and outputs the image data Dout after the image processing to a printer or the like. When the scanner 100 is configured in this manner, even when the read value of the background density of the original 20 or the MTF is different, the reference chart 10 can be read to check the determination result, and the region determination parameter can be automatically corrected. In addition, a correct determination result can always be obtained without being affected by machine variations.

図3は、画像領域判別ブロック17の内部構成例を示すブロック図である。図3に示す画像領域判別ブロック17は、文字検出部7、網点検出部8及び信号合成部9から構成される。網点検出部8は、更に、網点中心点検出部81、メモリ82、網点中心点周期性検出部83及びカウンタ84が備えられる。文字検出部7及び網点検出部8は、図2に示したA/D変換部12に接続され、画像データDinが入力される。   FIG. 3 is a block diagram showing an example of the internal configuration of the image area determination block 17. The image area discrimination block 17 shown in FIG. 3 includes a character detection unit 7, a halftone detection unit 8, and a signal synthesis unit 9. The halftone dot detection unit 8 further includes a halftone dot center point detection unit 81, a memory 82, a halftone dot center point periodicity detection unit 83, and a counter 84. The character detection unit 7 and the halftone dot detection unit 8 are connected to the A / D conversion unit 12 shown in FIG. 2 and receive image data Din.

文字検出部7は、メモリ82Aを有しており、メモリ82Aに展開された画像データDinから、領域判別パラメータに基づいて、文字画像を検出するようになされる。例えば、図6A及びBに示す文字検出アルゴリズムに基づいて文字画像を検出するようになされる。   The character detection unit 7 includes a memory 82A, and detects a character image from the image data Din developed in the memory 82A based on the area determination parameter. For example, a character image is detected based on the character detection algorithm shown in FIGS. 6A and 6B.

文字検出部7は、例えば、8ビットの画像データDinを入力し、この画像データDinに対して、まず、X画素×Y画素のウインドウを設定し、このウインドウの中を更に複数のマトリクスから成るブロックに分割し、これらのブロック毎に輝度(濃度)平均値をそれぞれ求める。その後、文字検出部7は、ウインドウ内の画素の輝度平均値に関し、ブロック間で輝度平均値を比較して、それらの差を演算する。その差の値が領域判別パラメータに基づく固定の判定閾値を越えている場合は、マトリクス内の画素は、全て「文字」であると判別するようになされる(図6A及びB参照)。   For example, the character detection unit 7 receives 8-bit image data Din, sets a window of X pixels × Y pixels for the image data Din, and further includes a plurality of matrices in the window. The block is divided into blocks, and an average value of luminance (density) is obtained for each block. Thereafter, the character detection unit 7 compares the average luminance value between the blocks with respect to the average luminance value of the pixels in the window, and calculates a difference between them. When the difference value exceeds a fixed determination threshold based on the region determination parameter, it is determined that all the pixels in the matrix are “characters” (see FIGS. 6A and 6B).

網点検出部8は、メモリ82Bを有しており、メモリ82Bに展開された画像データDinから、領域判別パラメータに基づいて、網点画像を検出する。例えば、網点検出部8は、画像データDinに設定されるウインドウ内で注目画素と、その周囲の3画素×3画素マトリクスの輝度平均値を比較し、注目画素の輝度が領域判定パラメータに基づく固定の判定閾値よりも小さい場合は、その注目画素が網点ドットの立ち上がり部分であると特定される。このとき、網点検出部8は、立ち上がりフラグをONする。   The halftone dot detection unit 8 has a memory 82B, and detects a halftone dot image from the image data Din developed in the memory 82B based on the region discrimination parameter. For example, the halftone dot detection unit 8 compares the luminance average value of the pixel of interest and the surrounding 3 pixel × 3 pixel matrix in the window set in the image data Din, and the luminance of the pixel of interest is based on the region determination parameter. When the threshold value is smaller than the fixed determination threshold, the target pixel is specified as the rising portion of the halftone dot. At this time, the halftone dot detection unit 8 turns on the rising flag.

また、網点検出部8は、立ち上がりフラグがONの状態で、注目画素とその周囲3画素×3画素マトリクスのウインドウW2内の輝度平均値を比較し、注目画素の輝度が、領域判定パラメータに基づく固定の判定閾値よりも大きい場合は、その注目画素を網点ドットの立ち下がりであると特定する。このとき、網点検出部8は、立ち上がりフラグをOFFする。   In addition, the halftone dot detection unit 8 compares the luminance average value in the window W2 of the pixel of interest and the surrounding 3 pixels × 3 pixel matrix with the rising flag being ON, and the luminance of the pixel of interest is set as the region determination parameter. If it is larger than the fixed determination threshold based on that, the pixel of interest is identified as the fall of a halftone dot. At this time, the halftone dot detection unit 8 turns off the rising flag.

更に、網点中心点検出部81は、8ビットの画像データDinから網点画像の網点中心点を検出する。例えば、網点中心点検出部81は、網点検出部8によって求められた網点画像の立ち上がりと立ち下がりに関して、立ち上がりフラグのON/OFFを参照し、注目画素の中点を網点の中心点となされる。   Further, the halftone dot center point detector 81 detects the halftone dot center point of the halftone dot image from the 8-bit image data Din. For example, the halftone dot center point detection unit 81 refers to ON / OFF of the rising flag regarding the rising edge and falling edge of the halftone image obtained by the halftone dot detection unit 8, and sets the middle point of the target pixel as the center of the halftone dot. It is made a point.

また、網点中心点周期性検出部83は、8ビットの画像データDinから原稿画像の網点中心点の周期性を検出する。例えば、網点中心点周期性検出部83には、カウンタ84が接続され、網点中心点検出部81によって求められた網点の中心点の周期性を検出するようになされる。   Further, the halftone dot center point periodicity detection unit 83 detects the periodicity of the halftone dot center point of the document image from the 8-bit image data Din. For example, the halftone dot center point periodicity detection unit 83 is connected to a counter 84 to detect the periodicity of the halftone dot center point obtained by the halftone dot center point detection unit 81.

上述の網点検出部8は、注目画素が網点画像Giであると判別されたとき、副走査方向へ網点領域検出処理を拡張する。この例では、副走査方向で、5ライン以内に網点画像Giが存在する場合は、そのライン間は全て網点画像Giとするように処理される。これにより、最終的に網点画像G1〜G22か成る網点領域IIを検出できるようになる(図7〜図11参照)。   The above-described halftone dot detection unit 8 expands the halftone dot region detection process in the sub-scanning direction when it is determined that the target pixel is the halftone dot image Gi. In this example, when there is a halftone image Gi within 5 lines in the sub-scanning direction, processing is performed so that all the lines are halftone images Gi. As a result, the halftone dot area II consisting of the halftone dot images G1 to G22 can be finally detected (see FIGS. 7 to 11).

上述の文字検出部7及び網点検出部8には、信号合成部9が接続され、文字検出部7で文字部Iaと判別された文字領域Iに係る画像データDinと、網点検出部8で文字部Iaと判別された文字領域Iに係る画像データDinとを合成するように動作する。この例で、文字検出部7で文字と判別され、網点検出部8で網点でないと判別された文字領域Iが最終的に文字部Iaと判別される。信号合成部9は文字信号Smを画素カウンタ37に出力する。   A signal synthesis unit 9 is connected to the character detection unit 7 and the halftone detection unit 8 described above, and the image data Din relating to the character region I determined as the character part Ia by the character detection unit 7 and the halftone detection unit 8. The operation is performed to synthesize the image data Din related to the character region I determined as the character portion Ia. In this example, the character area I determined as a character by the character detection unit 7 and not determined as a halftone dot by the halftone detection unit 8 is finally determined as the character portion Ia. The signal synthesizer 9 outputs the character signal Sm to the pixel counter 37.

図4は、基準チャート10の構成例を示す概念図であり、図5は、検出画素数vs検出領域の関係例を示す図である。図5において、縦軸は検出画素数であり、TH1〜TH4は検出画素数を判別するための閾値である。4つの閾値には、TH1<TH2<TH3<TH4なる関係を有している。横軸は検出領域であり、メモリ82Aに展開された画像データDinをスキャンする際のウインドウの大きさ(X素×Y画素)である。   FIG. 4 is a conceptual diagram illustrating a configuration example of the reference chart 10, and FIG. 5 is a diagram illustrating a relationship example of the number of detected pixels vs. the detection region. In FIG. 5, the vertical axis represents the number of detected pixels, and TH1 to TH4 are threshold values for determining the number of detected pixels. The four threshold values have a relationship of TH1 <TH2 <TH3 <TH4. The horizontal axis is a detection area, which is the size of a window (X element × Y pixel) when scanning the image data Din developed in the memory 82A.

図4に示す基準チャート10は、例えば、A4版縦の大きさの用紙から構成される。この基準チャート10には、文字領域I及び網点領域IIが設けられる。基準チャート10は、その背景が一定であり、文字領域Iには文字部Iaが一定の印字率で描画され、網点領域IIには網点部IIaが一定の印字率で各々描画されてなる。この基準チャート10において、文字領域Iに描画される文字部Iaの画素数は、網点領域IIに描画される網点部IIaの画素数に比べて少なく設定される。   The reference chart 10 shown in FIG. 4 is composed of, for example, a sheet of A4 size vertically. The reference chart 10 is provided with a character area I and a halftone dot area II. The reference chart 10 has a constant background, the character portion Ia is drawn at a constant printing rate in the character region I, and the halftone dot portion IIa is drawn at a constant printing rate in the halftone region II. . In the reference chart 10, the number of pixels of the character part Ia drawn in the character area I is set to be smaller than the number of pixels of the halftone part IIa drawn in the halftone area II.

この例で、スキャナ100は、基準チャート10を読み取り、文字部Ia及び網点部IIaの検出画素数をカウントするようになされる。例えば、文字画素数Nが、図5に示す検出画素数vs検出領域の関係例において、基準値Ref1±α以内であれば、領域判別パラメータの補正は実行しない。ここで文字画素数Nの判定期待値として上限の閾値をTH2とし、下限の閾値をTH1とすると、CPU25は、まず、TH1≦文字画素数N≦TH2を満たす関係にあるか否か、つまり、文字画素数Nが上限閾値TH2以下で、かつ、下限閾値TH1以上の許容範囲内に存在するか否かを判別する。   In this example, the scanner 100 reads the reference chart 10 and counts the number of detected pixels of the character part Ia and the halftone dot part IIa. For example, if the character pixel number N is within the reference value Ref1 ± α in the relationship example of the detected pixel number vs. the detection region shown in FIG. 5, the region determination parameter is not corrected. Assuming that the upper limit threshold value is TH2 and the lower limit threshold value is TH1 as the expected determination value for the number N of character pixels, the CPU 25 first determines whether or not the relationship satisfies TH1 ≦ number of character pixels N ≦ TH2. It is determined whether or not the number N of character pixels is within an allowable range equal to or lower than the upper limit threshold TH2 and equal to or higher than the lower limit threshold TH1.

この判別後、この文字画素数NがTH1≦N≦TH2を満たす関係にあって、基準値Ref1±α以内であれば、領域判別パラメータを補正しないが、この文字画素数Nが、どちらかの閾値TH1、TH2に偏っている場合は、文字部Iaの領域判別パラメータ(検出閾値)に対して補正を実行する。これにより、文字画素数Nが予め設定された判定期待値の範囲内に含まれる場合であって、基準値Ref1±α以外の場合に、領域判別パラメータを補正することができる。   After this determination, if the number N of character pixels satisfies TH1 ≦ N ≦ TH2 and is within the reference value Ref1 ± α, the region determination parameter is not corrected, but the number N of character pixels is either If the thresholds TH1 and TH2 are biased, correction is performed on the area discrimination parameter (detection threshold) of the character portion Ia. As a result, the region discrimination parameter can be corrected when the number of character pixels N is included in the range of the predetermined expected determination value and is other than the reference value Ref1 ± α.

同様にして、網画素数Mが図5に示す検出画素数vs検出領域の関係例において、基準値Ref2±β以内であれば、領域判別パラメータの補正は実行しない。ここで網画素数Mの判定期待値として上限の閾値をTH4とし、下限の閾値をTH3とすると、CPU25は、まず、TH3≦網画素数M≦TH4を満たす関係にあるか否か、つまり、網画素数Mが上限閾値TH4以下で、かつ、下限閾値TH3以上の許容範囲内に存在するか否かを判別する。   Similarly, if the number of halftone pixels M is within the reference value Ref2 ± β in the relational example of the number of detected pixels vs. the detection region shown in FIG. 5, the region discrimination parameter is not corrected. Assuming that the upper limit threshold value is TH4 and the lower limit threshold value is TH3 as an expected determination value for the number of halftone pixels M, the CPU 25 first determines whether TH3 ≦ the number of halftone pixels M ≦ TH4. It is determined whether or not the number of halftone pixels M is within an allowable range equal to or lower than the upper limit threshold TH4 and equal to or higher than the lower limit threshold TH3.

この判別後、この網画素数MがTH3≦M≦TH4を満たす関係にあって、基準値Ref2±β以内であれば、領域判別パラメータを補正しないが、この網画素数Mが、どちらかの閾値TH3、TH4に偏っている場合は、網点部IIaの領域判別パラメータ(検出閾値)に対して補正を実行する。これにより、網画素数Mが予め設定された判定期待値の範囲内に含まれる場合であって、基準値Ref2±β以外の場合に、領域判別パラメータを補正することができる。   After this determination, if the halftone pixel number M satisfies TH3 ≦ M ≦ TH4 and is within the reference value Ref2 ± β, the region determination parameter is not corrected, but the halftone pixel number M is either If the threshold values TH3 and TH4 are biased, correction is performed on the area discrimination parameter (detection threshold value) of the halftone dot portion IIa. Thus, the region discrimination parameter can be corrected when the number of halftone pixels M is included in the range of the predetermined expected determination value and other than the reference value Ref2 ± β.

また、網画素数Nや文字画素数Mの偏りが、余りにも大きい場合、すなわち、画素カウンタ27によって検出された文字画素数Mや網画素数M等が、これらの範囲以外にある場合は、領域判別パラメータの補正処理を実行することなく、異常として表示部18への警告処理を実行する。図5に示した例によれば、文字部Ia及び網点部IIaの検出画素数が閾値TH1未満である場合、閾値TH2を越え閾値TH3未満である場合、及び閾値TH4を越える場合は警告処理の対象となる。   Further, when the deviation of the number of halftone pixels or the number of character pixels M is too large, that is, when the number of character pixels M or the number of halftone pixels detected by the pixel counter 27 is outside these ranges, The warning process to the display unit 18 is executed as an abnormality without executing the correction process of the area determination parameter. According to the example shown in FIG. 5, when the number of detected pixels of the character part Ia and the halftone dot part IIa is less than the threshold value TH1, exceeds the threshold value TH2, and is less than the threshold value TH3, and exceeds the threshold value TH4, warning processing is performed. It becomes the object of.

これらの場合は、例えば、文字部IIaを網点部Iaと誤判別するケースや、MTFが低いケースや、原稿20の背景を暗く読んでいるようなケースに相当する。このような場合に、CPU25は、白画素と判定する閾値を暗めに設定するか、また、MTFの低下でドット間隔が狭く読んでいるような場合に、ドット周期を狭く設定するようになされる。   These cases correspond to, for example, a case where the character part IIa is misidentified as the halftone dot part Ia, a case where the MTF is low, or a case where the background of the document 20 is read darkly. In such a case, the CPU 25 sets the threshold for determining a white pixel to be dark, or sets the dot period to be narrow when the dot interval is read narrowly due to a decrease in MTF. .

なお、基準チャート10に関しては、図4に示したようにスキャナ本体に対して別途準備される場合について説明したが、これに限られることはなく、スキャナ部11の非画像領域に、当該基準チャート10の記述内容を縮小して組み込み、ある一定期間毎に領域判別パラメータの補正処理を実行するようにしてもよい。   The reference chart 10 has been described with respect to the case where it is separately prepared for the scanner body as shown in FIG. 4, but the present invention is not limited to this, and the reference chart 10 is arranged in the non-image area of the scanner unit 11. The description contents of 10 may be reduced and incorporated, and the region discrimination parameter correction process may be executed every certain period.

図6A及びBは、文字領域検出時のウインドウWm及び文字検出例を示す図である。図6Aに示すウインドウWmは、主走査(水平)方向にX画素、副走査(垂直)方向にY画素のデータマトリクスを有しており、メモリ82Aに展開された画像データDinをスキャンする際に設定される。この例では、X=12画素、Y=4画素の場合である。   6A and 6B are diagrams showing a window Wm and a character detection example when a character area is detected. The window Wm shown in FIG. 6A has a data matrix of X pixels in the main scanning (horizontal) direction and Y pixels in the sub-scanning (vertical) direction, and is used when scanning the image data Din developed in the memory 82A. Is set. In this example, X = 12 pixels and Y = 4 pixels.

この例で、ウインドウWmに関して、第1列目の画素番号は(00,01,02,03,04,05,06、07,08,09,0a,0b)であり、第2列目の画素番号は(10,11,12,13,14,15,16、17,18,19,1a,1b)であり、第3列目の画素番号は(20,21,22,23,24,25,26、27,28,29,2a,2b)であり、第4列目の画素番号は(30,31,32,33,34,35,36、37,38,39,3a,3b)である。   In this example, for the window Wm, the pixel numbers in the first column are (00, 01, 02, 03, 04, 05, 06, 07, 08, 09, 0a, 0b), and the pixels in the second column The numbers are (10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 1a, 1b), and the pixel numbers in the third column are (20, 21, 22, 23, 24, 25). 26, 27, 28, 29, 2a, 2b) and the pixel numbers in the fourth column are (30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 3a, 3b). is there.

この例で、図2に示した画像領域判別ブロック17は、メモリ82A、82Bに展開された画像データDinから、領域判別パラメータに基づいて、文字領域I及び網点領域IIを判別するようになされる。例えば、図3に示した文字検出部7は、8ビットの画像データDinを入力し、画像データDinに対して、まず、ウインドウWmの中を8つの3画素×2画素のマトリクスから成るブロック#i(i=1〜8)に分割し、これらのブロック毎に輝度(濃度)平均値をそれぞれ求める。   In this example, the image area discrimination block 17 shown in FIG. 2 discriminates the character area I and the dot area II from the image data Din developed in the memories 82A and 82B based on the area discrimination parameter. The For example, the character detection unit 7 shown in FIG. 3 receives 8-bit image data Din, and first, for the image data Din, a block ## consisting of a matrix of eight 3 pixels × 2 pixels in the window Wm. Dividing into i (i = 1 to 8), the average value of luminance (density) is obtained for each of these blocks.

この例では、図6Aに示すブロック#1を画素番号(00,01,02,10,11,12)とすると、文字検出部7は、ブロック#1における画素の輝度の平均値を求め、これを輝度平均値A1となされる。同様にして、ブロック#4を画素番号(09,0a,0b,19,1a,1b)とすると、ブロック#4における画素の平均値を求めて、これを輝度平均値A2となされる。   In this example, assuming that block # 1 shown in FIG. 6A is the pixel number (00, 01, 02, 10, 11, 12), the character detection unit 7 obtains the average value of the luminance of the pixels in block # 1, and this Is a luminance average value A1. Similarly, assuming that block # 4 is a pixel number (09, 0a, 0b, 19, 1a, 1b), the average value of the pixels in block # 4 is obtained, and this is set as the luminance average value A2.

更に、ブロック#5を画素番号(20,21,22,30,31,32)とすると、ブロック#5における画素の輝度の平均値を求め、これを輝度平均値B1となされる。同様にして、ブロック#8を画素番号(29,2a,2b,39,3a,3b)の画素の平均値を求めて、これを輝度平均値B2となされる。   Furthermore, assuming that block # 5 is a pixel number (20, 21, 22, 30, 31, 32), the average luminance value of the pixels in block # 5 is obtained, and this is used as the average luminance value B1. Similarly, an average value of pixels of pixel numbers (29, 2a, 2b, 39, 3a, 3b) is obtained for block # 8, and this is used as a luminance average value B2.

また、文字検出部7は、図6Bに示すウインドウWmにおいて、それぞれの画素の輝度平均値に関し、対角線同士でブロック(#1と#8、#5と#4)の輝度平均値を比較して、それらの差(A1とB2、A2とB1)を演算する。その差の値が領域判別パラメータに基づく固定の判定閾値を越えている場合は、マトリクス内の画素は、全て「文字」であると判別するようになされる(文字検出アルゴリズム)。   Further, the character detection unit 7 compares the average luminance values of the blocks (# 1 and # 8, # 5 and # 4) between the diagonal lines with respect to the average luminance value of each pixel in the window Wm shown in FIG. 6B. The difference between them (A1 and B2, A2 and B1) is calculated. When the difference value exceeds a fixed determination threshold based on the region determination parameter, it is determined that all the pixels in the matrix are “characters” (character detection algorithm).

この例では、画像領域判別ブロック17では、文字と判別されたときだけ文字信号Smを画素カウンタ27に出力し、それ以外は何もしない。この動作を1画素ずつウインドウWを主走査及び副走査方向にずらしながら領域判別処理を実行する。ここで画像データDinをブロック毎に平均化するのは、網点画像の領域判別対策において、網点部の等濃度誤判別を取り除くためである。   In this example, the image area determination block 17 outputs the character signal Sm to the pixel counter 27 only when it is determined as a character, and does nothing else. In this operation, the region discrimination process is executed while shifting the window W in the main scanning and sub-scanning directions pixel by pixel. Here, the image data Din is averaged for each block in order to remove equal density erroneous discrimination at the halftone dot portion in the area discrimination countermeasure for the halftone dot image.

図7は、網点領域検出時の網点画像Giの検出例を示す図である。図7に示す方眼(格子)の1つ1つは、CCD撮像装置58の1画素に相当している。この例では、主走査方向に24画素、副走査方向に12画素のマトリクス内に、22個の網点画像Gi(i=1〜22)を有して網点部IIaが構成される場合を示している。   FIG. 7 is a diagram illustrating a detection example of the halftone image Gi when the halftone dot region is detected. Each grid (lattice) shown in FIG. 7 corresponds to one pixel of the CCD imaging device 58. In this example, a halftone dot portion IIa is configured with 22 halftone dot images Gi (i = 1 to 22) in a matrix of 24 pixels in the main scanning direction and 12 pixels in the subscanning direction. Show.

この例では、網点画像G1〜G6が、3つのラインL1〜L3に跨って描画される。以下、網点画像G7〜G11が、3つのラインL4〜L6に跨って描画され、網点画像G12〜G17が、3つのラインL7〜L9に跨って描画され、網点画像G18〜G22が、3つのラインL10〜L12に跨って描画される。   In this example, halftone dot images G1 to G6 are drawn across three lines L1 to L3. Hereinafter, halftone dot images G7 to G11 are drawn across three lines L4 to L6, halftone dot images G12 to G17 are drawn across three lines L7 to L9, and halftone dot images G18 to G22 are drawn. Drawing is performed across three lines L10 to L12.

図8A及びBは、網点領域検出時の1つの網点画像G1及び網点検出例を示す図である。図8Bに示す縦軸は、各々の画素の濃度(輝度)であり、横軸は主走査方向の画素位置である。   8A and 8B are diagrams showing one halftone dot image G1 and a halftone dot detection example when a halftone dot region is detected. The vertical axis shown in FIG. 8B is the density (luminance) of each pixel, and the horizontal axis is the pixel position in the main scanning direction.

図8Aに示す格子に跨る円形状は、1つの網点画像G1を示している。この円形状の網点画像G1の左右に設定されたウインドウW1及びW2は、主走査方向に3画素、副走査方向に3画素のデータマトリクスを各々有している。ウインドウW1及びW2は、網点領域検出時に、メモリ82Bに展開された画像データDinをスキャンする際に設定される。   The circular shape straddling the grid shown in FIG. 8A shows one halftone dot image G1. The windows W1 and W2 set on the left and right sides of the circular halftone dot image G1 each have a data matrix of 3 pixels in the main scanning direction and 3 pixels in the sub-scanning direction. The windows W1 and W2 are set when scanning the image data Din developed in the memory 82B when the halftone dot area is detected.

図9は、網点画像の周期性検出時のメモリ82Bにおけるデータ展開例を示す図である。図9に示すラインL2には、網点画像G1〜G6の各々の網点中心点が存在する。同様にして、ラインL5には、網点画像G7〜G11の各々の網点中心点が存在し、ラインL8には、網点画像G12〜G17の各々の網点中心点が存在し、ラインL11には、網点画像G18〜G22の各々の網点中心点が存在する。この例では、各々の網点画像Gi(i=1〜22)の中心点が、ラインL2,L5,L8,L11上で等間隔に存在している。従って、図8で網点の中心点を求めた後、図9に移行して、この関係を利用して網点画像の周期性を検出するようになされる。   FIG. 9 is a diagram illustrating an example of data expansion in the memory 82B when the periodicity of the halftone image is detected. In the line L2 shown in FIG. 9, the halftone dot center points of the halftone dot images G1 to G6 exist. Similarly, the halftone dot center points of the halftone dot images G7 to G11 exist on the line L5, and the halftone dot center points of the halftone dot images G12 to G17 exist on the line L8. The halftone dot center point of each of the halftone dot images G18 to G22 exists. In this example, the center points of the respective halftone dot images Gi (i = 1 to 22) exist at equal intervals on the lines L2, L5, L8, and L11. Therefore, after obtaining the center point of the halftone dot in FIG. 8, the process shifts to FIG. 9, and the periodicity of the halftone dot image is detected using this relationship.

図10は、網点画像Giの主走査方向への網点領域IIの拡張例を示す図である。この例では、図7に示した注目画素gが網点画像Giであると判別され、図9で網点画像Giの周期性が検出されると、図3に示した網点検出部8は、主走査方向へ網点領域検出処理を拡張する。   FIG. 10 is a diagram showing an example of expansion of the halftone dot region II in the main scanning direction of the halftone dot image Gi. In this example, when it is determined that the target pixel g shown in FIG. 7 is the halftone image Gi, and the periodicity of the halftone image Gi is detected in FIG. 9, the halftone detection unit 8 shown in FIG. The dot area detection process is extended in the main scanning direction.

例えば、主走査方向において連続する13画素以内に網点中心点が出現する毎に、図3に示したカウンタ84をインクリメントする場合を例に採ると、このカウンタ84が16画素以上をカウントした場合に、その間隔を網点領域とするようになされる。このとき、主走査方向で注目画素gの前後の10画素を拡張する。次回からは、カウンタ84が5画素以上をカウントした場合に網点領域とするようになされる。また、輝度レベルで200階調以上の白い画素が15画素以上連続した場合は、カウンタ84が16画素以上をカウントするまで、網点領域と特定しないようになされる。   For example, when the counter 84 shown in FIG. 3 is incremented every time a halftone dot center point appears within 13 consecutive pixels in the main scanning direction, the counter 84 counts 16 pixels or more. In addition, the interval is set as a halftone dot region. At this time, 10 pixels before and after the target pixel g in the main scanning direction are expanded. From the next time, when the counter 84 counts 5 pixels or more, the halftone dot area is set. Further, when 15 or more white pixels having a luminance level of 200 gradations or more continue, the halftone dot region is not specified until the counter 84 counts 16 pixels or more.

この例では、図9に示した主走査方向で、5画素以内に網点画像Giが存在する場合は、図10に示すように、その画素間は全て網点画像Giとするように処理される。ラインL2には、網点画像G1〜G6が連続して存在する。同様にして、ラインL5には、網点画像G7〜G11が連続して存在し、ラインL8には、網点画像G12〜G17が連続して存在し、ラインL11には、網点画像G18〜G22が連続して存在することが特定される。   In this example, when there is a halftone image Gi within 5 pixels in the main scanning direction shown in FIG. 9, all the pixels are processed as a halftone image Gi as shown in FIG. The In the line L2, dot images G1 to G6 are continuously present. Similarly, halftone dot images G7 to G11 exist continuously on the line L5, halftone dot images G12 to G17 exist continuously on the line L8, and halftone dot images G18 to G18 appear on the line L11. It is specified that G22 exists continuously.

図11は、網点画像Giの副走査方向への網点領域IIの拡張例を示す図である。図3に示した網点検出部8は、主走査方向への網点領域検出処理が拡張されると、副走査方向へ網点領域検出処理を拡張する。この例では、図11に示す副走査方向で、5ライン以内に網点画像Giが存在する場合は、そのライン間は全て網点画像Giとするように処理される。これにより、図11に示す網点画像G1〜G22から成る網点領域IIを検出できるようになる。   FIG. 11 is a diagram illustrating an extension example of the halftone dot region II in the sub-scanning direction of the halftone dot image Gi. The halftone dot detection unit 8 shown in FIG. 3 expands the halftone dot area detection process in the sub-scanning direction when the halftone area detection process in the main scanning direction is extended. In this example, if there is a halftone image Gi within 5 lines in the sub-scanning direction shown in FIG. 11, processing is performed so that all the lines are halftone images Gi. As a result, the halftone dot region II including the halftone dot images G1 to G22 shown in FIG. 11 can be detected.

続いて、本発明に係る原稿読取手段の補正方法について、当該スキャナ100における補正処理例を説明する。図12は、スキャナ100における補正処理例を示すフローチャート(メインルーチン)、図13は、画像領域判別ブロック17における領域判別例を示すフローチャート(判別アルゴリズム)、図14は、同ブロック17における網点検出例を示すフローチャート(判別アルゴリズム)である。   Next, an example of correction processing in the scanner 100 will be described with respect to the correction method of the document reading unit according to the present invention. 12 is a flowchart (main routine) showing an example of correction processing in the scanner 100, FIG. 13 is a flowchart (discrimination algorithm) showing an example of area discrimination in the image area discrimination block 17, and FIG. 14 is halftone dot detection in the block 17 It is a flowchart (discrimination algorithm) which shows an example.

この実施例では、パラメータ調整モードに基づいてスキャナ100の領域判別パラメータの自動補正をする場合を前提とする。この例で、領域判別パラメータの自動補正処理は、当該スキャナ100の製造過程、あるいは、サービスマンによるメンテナンス等において実施する場合を想定する。基準チャート10は、図4に示したように、所定の画素数の文字部Iaから構成される文字領域Iと所定の画素数の網点部IIaから構成される網点領域IIとを画定した用紙であって、予め準備される場合を例に挙げる。基準チャート10において、文字領域Iに描画される文字部Iaの画素数は、網点領域IIに描画される網点部IIaの画素数に比べて少なく設定されている。   In this embodiment, it is assumed that the area determination parameter of the scanner 100 is automatically corrected based on the parameter adjustment mode. In this example, it is assumed that the region correction parameter automatic correction processing is performed in the manufacturing process of the scanner 100 or in maintenance by a serviceman. As shown in FIG. 4, the reference chart 10 defines a character region I composed of a character portion Ia having a predetermined number of pixels and a halftone region II composed of a halftone portion IIa having a predetermined number of pixels. An example will be given in which the paper is prepared in advance. In the reference chart 10, the number of pixels of the character part Ia drawn in the character area I is set to be smaller than the number of pixels of the halftone part IIa drawn in the dot area II.

これらを自動補正処理条件として、図12に示すフローチャートのステップP1で、オペレータは、当該スキャナ100に基準チャート10をセットする。例えば、基準チャート10は、図1に示した原稿載置部41に載置され、ADF40を通じてスキャナ部11に自動給紙するようになされる。この例では、オペレータが、パラメータ調整モードを選択すると、原稿載置部41から繰り出された基準チャート10が、下流側のローラ43によってU字回転するように搬送される。パラメータ調整モードは、操作部14を操作すると、操作パネル48からCPU25へ操作データD3が出力されることで通知される。もちろん、基準チャート10をプラテンガラス51上に載置してもよい。   With these as automatic correction processing conditions, the operator sets the reference chart 10 to the scanner 100 in step P1 of the flowchart shown in FIG. For example, the reference chart 10 is placed on the document placing portion 41 shown in FIG. 1 and automatically fed to the scanner portion 11 through the ADF 40. In this example, when the operator selects the parameter adjustment mode, the reference chart 10 fed out from the document placing portion 41 is conveyed by the downstream roller 43 so as to rotate in a U-shape. When the operation unit 14 is operated, the parameter adjustment mode is notified by outputting operation data D3 from the operation panel 48 to the CPU 25. Of course, the reference chart 10 may be placed on the platen glass 51.

そして、当該スキャナ100は、ステップP2でスキャナ部11を通じて基準チャート10を読み取って画像データDinを取得する。上述の例で、ローラ43によってU字回転するときに、基準チャート10が縮小型イメージセンサによって読み取られ、原稿読取信号Sinを制御ユニット35に出力するようになされる。プラテンガラス51上に基準チャート10を載置した場合には、CCD撮像装置58から制御ユニット35へ原稿読取信号Sinを出力するようになる。この原稿読取信号Sinは、スキャナ部11からA/D変換部12に出力され、A/D変換部12では、原稿読取信号SinがA/D変換される。A/D変換後の画像データDinは、画像領域判別ブロック17と画像処理ブロック21とに出力される。   In step P2, the scanner 100 reads the reference chart 10 through the scanner unit 11 and acquires image data Din. In the above example, when the U-shaped rotation is performed by the roller 43, the reference chart 10 is read by the reduction type image sensor, and the document reading signal Sin is output to the control unit 35. When the reference chart 10 is placed on the platen glass 51, the document reading signal Sin is output from the CCD imaging device 58 to the control unit 35. The document reading signal Sin is output from the scanner unit 11 to the A / D conversion unit 12, and the A / D conversion unit 12 performs A / D conversion on the document reading signal Sin. The image data Din after A / D conversion is output to the image area determination block 17 and the image processing block 21.

その後、ステップP3に移行して、画像領域判別ブロック17は、画像データDinをメモリ82A,82Bに展開し、領域判別パラメータに基づいて、文字領域I及び網点領域IIを判別するようになされる。例えば、図13に示す判別アルゴリズムにおいて、そのフローチャートのステップQ1で画像領域判別ブロック17は、8ビットの画像データDinをA/D変換部12から当該ブロック内のメモリ82A,82Bに入力する。   Thereafter, the process proceeds to step P3, where the image area discrimination block 17 develops the image data Din in the memories 82A and 82B, and discriminates the character area I and the dot area II based on the area discrimination parameter. . For example, in the discrimination algorithm shown in FIG. 13, in step Q1 of the flowchart, the image area discrimination block 17 inputs 8-bit image data Din from the A / D converter 12 to the memories 82A and 82B in the block.

その後、ステップQ2で画像領域判別ブロック17は、文字検出処理を実行する。例えば、図3に示した文字検出部7は、メモリ82Aに基準チャート10の画像データDinを展開して文字領域Iを検出する。このとき、図6Aに示したようなX=12画素、Y=4画素のウインドウWmが、メモリ82Aに展開された画像データDinに設定される。文字検出部7は、画像データDinに対して、ウインドウWmの中を8つの3画素×2画素のマトリクスから成るブロック#i(i=1〜8)に分割し、これらのブロック毎に輝度(濃度)平均値をそれぞれ求められる。   Thereafter, in step Q2, the image area determination block 17 executes a character detection process. For example, the character detection unit 7 shown in FIG. 3 detects the character region I by developing the image data Din of the reference chart 10 in the memory 82A. At this time, a window Wm with X = 12 pixels and Y = 4 pixels as shown in FIG. 6A is set in the image data Din developed in the memory 82A. The character detection unit 7 divides the window Wm for the image data Din into blocks #i (i = 1 to 8) formed of a matrix of eight 3 pixels × 2 pixels, and the luminance ( (Concentration) average values are obtained.

このとき、図6Aに示した例によれば、文字検出部7は、ブロック#1における画素の輝度の平均値を求め、これを輝度平均値A1となされる。同様にして、ブロック#4における画素の平均値が求められ、これを輝度平均値A2となされる。ブロック#5における画素の輝度の平均値が求められ、これを輝度平均値B1となされる。同様にして、ブロック#8の画素の平均値が求められ、これを輝度平均値B2となされる。   At this time, according to the example shown in FIG. 6A, the character detection unit 7 obtains the average value of the luminance of the pixels in the block # 1, and sets this as the average luminance value A1. Similarly, the average value of the pixels in block # 4 is obtained, and this is set as the luminance average value A2. The average value of the luminance of the pixels in block # 5 is obtained, and this is set as the average luminance value B1. Similarly, the average value of the pixels of block # 8 is obtained, and this is set as the luminance average value B2.

また、文字検出部7は、図6Bに示したウインドウWmにおいて、それぞれの画素の輝度平均値に関し、対角線同士でブロック(#1と#8、#5と#4)の輝度平均値を比較して、それらの差(A1とB2、A2とB1)を演算する。その差の値が領域判別パラメータに基づく固定の判定閾値を越えている場合は、マトリクス内の画素は、全て「文字」であると判別するようになされる。   Further, the character detection unit 7 compares the luminance average values of the blocks (# 1 and # 8, # 5 and # 4) with respect to each other with respect to the luminance average value of each pixel in the window Wm shown in FIG. 6B. Then, the difference (A1 and B2, A2 and B1) is calculated. If the difference value exceeds a fixed determination threshold based on the region determination parameter, it is determined that all the pixels in the matrix are “characters”.

この文字検出処理に並行して、ステップQ3で画像領域判別ブロック17は、網点検出処理を実行する。例えば、網点検出部8は、メモリ82Bに基準チャート10の画像データDinを展開して網点領域IIを検出する。このとき、網点検出部8は、例えば、図14に示す判別アルゴリズムにおいて、そのフローチャートのステップR1で基準チャート10の読み取りに基づく8ビットの画像データDinをメモリ82Aに展開して網点画像Giを検出する。図7に示した例によれば、主走査方向に24画素、副走査方向に12画素のマトリクス内に、22個の網点画像Gi(i=1〜22)を有して網点部IIaが構成され、図8Aに示したウインドウW1及びW2が、メモリ82Bに展開された画像データDinに設定される。   In parallel with the character detection process, in step Q3, the image area determination block 17 executes a halftone dot detection process. For example, the halftone dot detection unit 8 develops the image data Din of the reference chart 10 in the memory 82B and detects the halftone dot region II. At this time, for example, in the discrimination algorithm shown in FIG. 14, the halftone dot detection unit 8 develops the 8-bit image data Din based on the reading of the reference chart 10 into the memory 82A in step R1 of the flowchart and displays the halftone dot image Gi. Is detected. According to the example shown in FIG. 7, the halftone dot portion IIa has 22 halftone dot images Gi (i = 1 to 22) in a matrix of 24 pixels in the main scanning direction and 12 pixels in the sub-scanning direction. And the windows W1 and W2 shown in FIG. 8A are set in the image data Din developed in the memory 82B.

そして、ステップR2に移行して、網点検出部8は、網点中心点検出処理を実行する。例えば、網点検出部8は、網点中心点検出部81に8ビットの画像データDinを入力して、原稿画像の網点中心点を検出するように制御する。網点中心点検出部81は、網点検出部8によって注目画素gが網点画素であると検出されると、図8Bに示した網点の中心点を求めるようになされる。   Then, the process proceeds to step R2, and the halftone dot detection unit 8 executes a halftone dot center point detection process. For example, the halftone dot detection unit 8 inputs the 8-bit image data Din to the halftone dot center point detection unit 81 and controls to detect the halftone dot center point of the document image. When the halftone dot detection unit 81 detects that the target pixel g is a halftone pixel, the halftone dot center point detection unit 81 obtains the halftone dot center point shown in FIG. 8B.

その後、ステップR3に移行して、網点検出部8は、網点中心点周期性検出処理を実行する。このとき、網点検出部8は、網点中心点周期性検出部83に8ビットの画像データDinを入力して、原稿画像の網点中心点の周期性を検出するように制御する。網点中心周期性検出部83は、図9に示したように、網点画像の周期性を検出するようになされる。また、網点検出部8は、図10に示したように、主走査方向へ網点領域検出処理を拡張する。例えば、カウンタ84が16画素以上をカウントした場合に、その間隔を網点領域とするようになされる。このとき、主走査方向で注目画素gの前後の10画素を拡張する。次回からは、カウンタ84が5画素以上をカウントした場合に網点領域とするようになされる。   Thereafter, the process proceeds to step R3, and the halftone dot detection unit 8 executes a halftone dot center point periodicity detection process. At this time, the halftone dot detection unit 8 inputs the 8-bit image data Din to the halftone dot center point periodicity detection unit 83 and controls to detect the periodicity of the halftone dot center point of the document image. As shown in FIG. 9, the halftone dot center periodicity detection unit 83 detects the periodicity of the halftone dot image. Further, as shown in FIG. 10, the halftone dot detection unit 8 extends the halftone dot region detection process in the main scanning direction. For example, when the counter 84 counts 16 pixels or more, the interval is set as a halftone dot region. At this time, 10 pixels before and after the target pixel g in the main scanning direction are expanded. From the next time, when the counter 84 counts 5 pixels or more, the halftone dot area is set.

そして、ステップR4で網点検出部8は副走査方向にも領域判別処理を拡張する。この例で、網点検出部8は、図11に示した副走査方向で、5ライン以内に網点画像Giが存在する場合は、そのライン間は全て網点画像Giとするように処理される。これにより、ステップR5で網点検出部8は、1ビットの判別信号を検出することができる。この判別信号は、図11に示したような網点画像G1〜G22から成る網点領域IIを示すものである。   In step R4, the halftone detection unit 8 extends the area determination process in the sub-scanning direction. In this example, when the halftone dot image Gi exists within 5 lines in the sub-scanning direction shown in FIG. 11, the halftone dot detection unit 8 is processed so as to make all the halftone dot images Gi between the lines. The Thereby, the halftone dot detector 8 can detect a 1-bit discrimination signal in step R5. This discrimination signal indicates a halftone dot region II composed of halftone dot images G1 to G22 as shown in FIG.

その後、図13に示す領域判別アルゴリズムのステップQ4に移行して信号合成部9で文字領域Iと、網点領域IIとを合成する。これにより、ステップQ5で判別信号を得ることができる。上述のステップQ2で原稿画像の文字領域を検出するが、網点領域中に誤判別があることを考慮して、ステップQ3で網点検出部8によって網点画像を検出し、ステップQ4で誤判別を取り除くことによって、文字領域Iだけを検出することができる(領域判別アルゴリズム)。そして、図12に示した補正処理例のフローチャートのステップP3に戻る。   Thereafter, the process proceeds to step Q4 of the area discrimination algorithm shown in FIG. 13, and the signal synthesizer 9 synthesizes the character area I and the dot area II. Thereby, a discrimination signal can be obtained in step Q5. In step Q2, the character area of the original image is detected. Considering that there is an erroneous discrimination in the halftone area, the halftone image is detected by the halftone detecting unit 8 in step Q3, and the erroneous determination is made in step Q4. By removing another, only the character area I can be detected (area discrimination algorithm). And it returns to step P3 of the flowchart of the example of a correction process shown in FIG.

この例で、画像領域判別ブロック17は、領域判別アルゴリズムに応じて文字画素を検出したときは、文字信号Smを画素カウンタ27に出力し、網画素を検出したときは、網信号Saを画素カウンタ27に各々出力するようになされる。画素カウンタ27は、各画素毎に、文字信号Sm及び網信号Saを入力して、文字画素数N及び網画素数Mをカウントし、この文字画素数N及び網画素数Mの値をレジスタに保持するようになされる。この例で、文字信号Sm及び網信号Saは、画素カウンタ27の他に画像処理ブロック21に出力される。   In this example, the image area discrimination block 17 outputs the character signal Sm to the pixel counter 27 when it detects a character pixel according to the area discrimination algorithm, and outputs the halftone signal Sa when it detects a halftone pixel. 27 to output each. The pixel counter 27 receives the character signal Sm and the halftone signal Sa for each pixel, counts the number of character pixels N and the number of halftone pixels M, and stores the values of the number of character pixels N and the number of halftone pixels M in a register. It is made to hold. In this example, the character signal Sm and the halftone signal Sa are output to the image processing block 21 in addition to the pixel counter 27.

その後、ステップP4でCPU25は基準チャート10における文字画素数N及び網画素数Mを検出する。例えば、CPU25は、画素カウンタ27内のレジスタの値を読み込むことで、スキャナ部11で読み取られた基準チャート10の文字領域Iに係る文字画素数Mと、網点領域IIに係る網画素数Mとを各々検出する。   Thereafter, in step P4, the CPU 25 detects the number N of character pixels and the number M of halftone pixels in the reference chart 10. For example, the CPU 25 reads the value of the register in the pixel counter 27 so that the number of character pixels M related to the character area I of the reference chart 10 read by the scanner unit 11 and the number of halftone pixels M related to the dot area II are read. Are detected.

そして、ステップP5に移行して、CPU25は、文字領域Iに係る文字画素数Mと、網点領域IIに係る網画素数Mとを分岐して画像処理を継続する。文字領域Iに係る画像処理については、ステップP6に移行して、CPU25は、画素カウンタ27によって検出された文字画素数Nと予め設定された判定期待値とを比較する。ここで文字画素数Nの判定期待値として上限の閾値をTH2とし、下限の閾値をTH1とすると、CPU25は、TH1≦N≦TH2を満たす関係にあるか否か、つまり、文字画素数Nが上限閾値TH2以下で、かつ、下限閾値TH1以上の許容範囲内に存在するか否かを判別する。画素カウンタ27によって検出された文字画素数Nが、これらの範囲以内にある場合は、ステップP7に移行する。   Then, the process proceeds to step P5, and the CPU 25 branches the number M of character pixels related to the character area I and the number M of halftone pixels related to the dot area II, and continues the image processing. For image processing relating to the character region I, the process proceeds to step P6, and the CPU 25 compares the number N of character pixels detected by the pixel counter 27 with a preset expected determination value. Assuming that the upper limit threshold value is TH2 and the lower limit threshold value is TH1 as an expected determination value for the number N of character pixels, the CPU 25 determines whether or not the relationship satisfying TH1 ≦ N ≦ TH2 is satisfied. It is determined whether or not it is within an allowable range that is equal to or lower than the upper threshold TH2 and equal to or higher than the lower threshold TH1. When the number N of character pixels detected by the pixel counter 27 is within these ranges, the process proceeds to step P7.

ステップP7では、更に、CPU25は、この文字画素数Nが基準値Ref1±α以内であるか否かを判別する。文字画素数Nが基準値Ref1±α以内である場合は、領域判別パラメータの補正をすることなく、処理を終了する。文字画素数Nが基準値Ref1±α以内にない場合、つまり、文字画素数Nが、どちらかの閾値TH1、TH2に偏っている場合は、ステップP8に移行して、CPU25は文字部Iaの領域判別パラメータ(検出閾値)に対して補正を実行する。これにより、文字画素数Nが予め設定された判定期待値の範囲内に含まれる場合であって、基準値Ref1±α以外の場合に、領域判別パラメータを補正することができる。   In step P7, the CPU 25 further determines whether or not the number N of character pixels is within the reference value Ref1 ± α. If the number of character pixels N is within the reference value Ref1 ± α, the process is terminated without correcting the region discrimination parameter. When the character pixel number N is not within the reference value Ref1 ± α, that is, when the character pixel number N is biased to one of the threshold values TH1 and TH2, the process proceeds to step P8, and the CPU 25 determines the character portion Ia. Correction is performed on the region discrimination parameter (detection threshold). As a result, the region discrimination parameter can be corrected when the number of character pixels N is included in the range of the predetermined expected determination value and is other than the reference value Ref1 ± α.

例えば、CPU25は、画素カウンタ27のレジスタから文字画素数Nを読み出して、予め作成された不揮発メモリ16内の補正テーブルを参照し、領域判別パラメータの補正値を算出する。CPU25によって算出された補正値は、不揮発メモリ16に格納される。   For example, the CPU 25 reads the number N of character pixels from the register of the pixel counter 27, refers to the correction table in the nonvolatile memory 16 created in advance, and calculates the correction value of the area determination parameter. The correction value calculated by the CPU 25 is stored in the nonvolatile memory 16.

また、網点領域IIに係る画像処理については、ステップP9に移行して、CPU25は、画素カウンタ27によって検出された網画素数Mと予め設定された判定期待値とを比較する。ここで網画素数Mの判定期待値として上限の閾値をTH4とし、下限の閾値をTH3とすると、CPU25は、TH3≦M≦TH4を満たす関係にあるか否か、つまり、網画素数Mが上限閾値TH4以下で、かつ、下限閾値TH23以上の許容範囲内に存在するか否かを判別する。画素カウンタ27によって検出された網画素数Mが、これらの範囲以内にある場合は、ステップP10に移行する。   For image processing relating to the halftone dot area II, the process proceeds to step P9, and the CPU 25 compares the number of halftone pixels M detected by the pixel counter 27 with a preset expected expected value. Assuming that the upper limit threshold value is TH4 and the lower limit threshold value is TH3 as an expected determination value for the number of halftone pixels M, the CPU 25 determines whether or not the relationship satisfies TH3 ≦ M ≦ TH4. It is determined whether or not the upper limit threshold TH4 is within an allowable range equal to or lower than the lower limit threshold TH23. When the number M of halftone pixels detected by the pixel counter 27 is within these ranges, the process proceeds to Step P10.

ステップP10では、更に、CPU25は、この網画素数Mが基準値Ref2±β以内であるか否かを判別する。網画素数Mが基準値Ref2±β以内である場合は、領域判別パラメータの補正をすることなく、処理を終了する。網画素数Mが基準値Ref2±β以内にない場合、つまり、網画素数Mが、どちらかの閾値TH3、TH4に偏っている場合は、ステップP11に移行して、CPU25は網点部IIaの領域判別パラメータ(検出閾値)に対して補正を実行する。これにより、網画素数Mが予め設定された判定期待値の範囲内に含まれる場合であって、基準値Ref2±β以外の場合に、領域判別パラメータを補正することができる。   In Step P10, the CPU 25 further determines whether or not the number of halftone pixels M is within the reference value Ref2 ± β. If the number of halftone pixels M is within the reference value Ref2 ± β, the process is terminated without correcting the region discrimination parameter. When the number of halftone pixels M is not within the reference value Ref2 ± β, that is, when the number of halftone pixels M is biased to one of the threshold values TH3 and TH4, the process proceeds to Step P11, and the CPU 25 determines the halftone dot portion IIa. Correction is performed on the area discrimination parameter (detection threshold). Thus, the region discrimination parameter can be corrected when the number of halftone pixels M is included in the range of the predetermined expected determination value and other than the reference value Ref2 ± β.

例えば、CPU25は、画素カウンタ27のレジスタから網画素数Mを読み出して、予め作成された不揮発メモリ16内の補正テーブルを参照し、領域判別パラメータの補正値を算出する。CPU25によって算出された補正値は、不揮発メモリ16に格納される。CPU25は、通常の画像形成モード時に、不揮発メモリ16から領域判別パラメータを読み出して、領域判別処理をするようになされる。   For example, the CPU 25 reads the number of halftone pixels M from the register of the pixel counter 27, refers to the correction table in the nonvolatile memory 16 created in advance, and calculates the correction value of the area determination parameter. The correction value calculated by the CPU 25 is stored in the nonvolatile memory 16. The CPU 25 reads an area determination parameter from the nonvolatile memory 16 and performs an area determination process in the normal image forming mode.

なお、ステップP6で画素カウンタ27によって検出された文字画素数Nが、これらの範囲以外にある場合、及び、ステップP9で画素カウンタ27によって検出された網画素数Mが、これらの範囲以外にある場合は、ステップP12に移行して領域判別パラメータの補正処理を実行することなく、表示部18への警告処理を実行する。このとき、表示部18には、「文字画素数N又は網画素数Mが許容範囲以外にあるため、領域判別パラメータを自動補正できません」等の警告内容が表示される。   In addition, when the number N of character pixels detected by the pixel counter 27 in step P6 is outside these ranges, and the number of halftone pixels M detected by the pixel counter 27 in step P9 is outside these ranges. In this case, the process proceeds to Step P12, and the warning process to the display unit 18 is executed without executing the correction process of the area determination parameter. At this time, a warning content such as “the area discrimination parameter cannot be automatically corrected because the number N of character pixels or the number M of halftone pixels is outside the allowable range” is displayed on the display unit 18.

このように、本発明に係る実施例としてのスキャナ及びその補正処理方法によれば、パラメータ調整モード時に、スキャナ部11は、予め準備された所定の画素数の文字部Iaから構成される文字領域Iと所定の画素数の網点部IIaから構成される網点領域IIとを画定した基準チャート10を読み取るようになされる。   As described above, according to the scanner and the correction processing method thereof according to the embodiment of the present invention, in the parameter adjustment mode, the scanner unit 11 is a character region composed of the character part Ia having a predetermined number of pixels prepared in advance. The reference chart 10 defining I and a halftone dot region II composed of a halftone dot part IIa having a predetermined number of pixels is read.

画像処理ブロック21は、スキャナ部11によって読み取られた基準チャート10の文字領域I及び網点領域IIに係る画像データDinから文字画素数N及び網画素数Mを各々検出するようになされる。CPU25は、画素カウンタ27によって検出された文字画素数N及び網画素数Mと予め設定された、閾値TH1、TH2、TH3、TH4や基準値Ref1±α、Ref2±β等の判定期待値とを比較し、当該比較結果に基づいて領域判別パラメータを補正するようになされる。   The image processing block 21 detects the number N of character pixels and the number M of halftone pixels from the image data Din related to the character area I and the halftone dot area II of the reference chart 10 read by the scanner unit 11. The CPU 25 obtains the number N of character pixels and the number M of halftone pixels detected by the pixel counter 27 and predetermined determination expected values such as threshold values TH1, TH2, TH3, TH4 and reference values Ref1 ± α, Ref2 ± β. The comparison is performed, and the region discrimination parameter is corrected based on the comparison result.

従って、予め文字領域I及び網点領域IIが自明となっている基準チャート10を1画素単位に読み込んで得られる画像データDinに基づいて領域判別パラメータを自動補正することができる。これにより、当該スキャナ100の製造バラツキに左右されることなく、常に正しい領域判別結果を取得することができる。   Accordingly, the area discrimination parameter can be automatically corrected based on the image data Din obtained by reading the reference chart 10 in which the character area I and the halftone dot area II are obvious in advance in units of one pixel. As a result, a correct region discrimination result can always be obtained without being affected by manufacturing variations of the scanner 100.

この例では、1回の走査処理で適切な領域判別パラメータが確定される場合について説明したが、これに限られることはなく、スキャナ部11による1回の走査処理で適切な領域判別パラメータが確定できない場合は、CPU25が領域判別パラメータを変更しながらスキャナ部11における数回の走査処理を実行するようにしてもよい。   In this example, the case where an appropriate area determination parameter is determined by one scanning process has been described. However, the present invention is not limited to this, and an appropriate area determination parameter is determined by one scanning process by the scanner unit 11. If it is not possible, the CPU 25 may execute several scanning processes in the scanner unit 11 while changing the area determination parameter.

(2)画像形成装置
図15は、本発明に係る実施例としての画像形成装置200の構成例を示す断面の概念図である。
この実施例では、図1〜図14に示したスキャナ100を応用した画像形成装置200を構成し、予め文字領域I及び網点領域IIが自明となっている基準チャートを1画素単位に読み込んで得られる画像データDinに基づいて領域判別パラメータを自動補正できるようにすると共に、当該装置機械の製造バラツキを排除できるようにして、常に正しい判別結果を取得できるようにしたものである。
(2) Image Forming Apparatus FIG. 15 is a conceptual cross-sectional view showing a configuration example of an image forming apparatus 200 as an embodiment according to the present invention.
In this embodiment, the image forming apparatus 200 to which the scanner 100 shown in FIGS. 1 to 14 is applied is configured, and a reference chart in which the character area I and the halftone area II are obvious is read in units of one pixel. The area discrimination parameter can be automatically corrected based on the obtained image data Din, and manufacturing variations of the apparatus machine can be eliminated, so that a correct discrimination result can always be obtained.

図15に示す画像形成装置200は、文字部及び網点部を含む原稿20を読み取って得た任意の画像データDoutに基づいて画像を形成する装置である。白黒用のプリンタや複写機、これらの複合機等に適用して好適である。この画像形成装置200はモノクロ画像を得る直接転写方式の複合機等を構成するものであり、装置本体に原稿読取手段101を有しており、原稿20を読み取り領域判別パラメータに基づいて領域判別処理をするようになされる。原稿読取手段101には、図1〜図14に示したスキャナ100が応用される。   An image forming apparatus 200 shown in FIG. 15 is an apparatus that forms an image based on arbitrary image data Dout obtained by reading a document 20 including a character portion and a halftone dot portion. It is suitable for application to monochrome printers, copiers, and multi-function machines. This image forming apparatus 200 constitutes a direct transfer type multifunction peripheral or the like that obtains a monochrome image. The image forming apparatus 200 has a document reading means 101 in the apparatus main body, and performs area discrimination processing based on a reading area discrimination parameter. It is made to do. The scanner 100 shown in FIGS. 1 to 14 is applied to the document reading unit 101.

この装置本体内にはスキャナ部11、給紙トレイ30A、30B、制御ユニット35、画像書き込み部60及び、画像形成手段70等が備えられ、装置本体側面には、手差しトレイ63が備えられる。   In the apparatus main body, a scanner unit 11, paper feed trays 30A and 30B, a control unit 35, an image writing unit 60, an image forming unit 70, and the like are provided, and a manual feed tray 63 is provided on the side of the apparatus main body.

このスキャナ部11の上部には自動原稿給紙装置(ADF)40が取り付けられており、図1で説明したように、任意の原稿20又は基準チャート10を自動給紙するように動作する。一方、本体装置内に設けられたスキャナ部11は、任意の原稿20又は基準チャート10を読み取るように動作する。スキャナ部11に備えられたCCD撮像装置58の出力段には、制御ユニット35が接続され、CCD撮像装置58は、制御ユニット35に画像データDoutを出力するようになされる。   An automatic document feeder (ADF) 40 is attached to the upper portion of the scanner unit 11 and operates to automatically feed an arbitrary document 20 or reference chart 10 as described with reference to FIG. On the other hand, the scanner unit 11 provided in the main body device operates so as to read an arbitrary document 20 or the reference chart 10. A control unit 35 is connected to the output stage of the CCD image pickup device 58 provided in the scanner unit 11, and the CCD image pickup device 58 outputs image data Dout to the control unit 35.

制御ユニット35は、画像処理後の画像データDoutを画像書き込み部60に出力する。画像書き込み部60は、画像データDoutに基づいて所定の強度のレーザー光を発生する。画像書き込み部60に対峙した位置には、画像形成手段70が設けられ、スキャナ部11によって得られた画像データDinに基づいて画像を形成するようになされる。   The control unit 35 outputs the image data Dout after the image processing to the image writing unit 60. The image writing unit 60 generates laser light having a predetermined intensity based on the image data Dout. An image forming unit 70 is provided at a position facing the image writing unit 60, and an image is formed based on the image data Din obtained by the scanner unit 11.

画像形成手段70では給紙トレイ30A、給紙トレイ30B、手差しトレイ63等の1つから繰り出された用紙30に画像を形成するようになされる。画像形成手段70は有機感光体ドラム(以下感光体ドラムという)71、帯電器72、現像器73、転写器74、分離器75、クリーニング部76、搬送機構77及び定着装置78を有している。   The image forming means 70 forms an image on the paper 30 fed out from one of the paper feed tray 30A, the paper feed tray 30B, the manual feed tray 63, and the like. The image forming unit 70 includes an organic photosensitive drum (hereinafter referred to as a photosensitive drum) 71, a charger 72, a developing unit 73, a transfer unit 74, a separator 75, a cleaning unit 76, a transport mechanism 77, and a fixing device 78. .

この感光体ドラム71の上方には帯電器72が配設され、所定の帯電電位に基づいて予め感光体ドラム71が一様に帯電される。感光体ドラム71の例えば斜め右上方には、画像書き込み60が設けられ、画像処理後の画像データDoutに基づく所定強度のレーザー光が照射され、感光体ドラム71が露光され、その感光体ドラム71上に静電潜像が形成される。   A charger 72 is disposed above the photosensitive drum 71, and the photosensitive drum 71 is uniformly charged in advance based on a predetermined charging potential. For example, an image writing 60 is provided on the upper right side of the photosensitive drum 71, and laser light having a predetermined intensity based on the image data Dout after image processing is irradiated to expose the photosensitive drum 71. An electrostatic latent image is formed thereon.

感光体ドラム71の右側にはトナー及びキャリア(現像剤)が収容された現像器73が配設され、画像書き込み部60によって露光された静電潜像は、トナー剤によって現像される。この現像器73の下方にはレジストローラ62や給紙トレイ30A及び30B等が設けられる。   On the right side of the photosensitive drum 71, a developing device 73 containing toner and a carrier (developer) is disposed, and the electrostatic latent image exposed by the image writing unit 60 is developed by the toner agent. Below the developing unit 73, a registration roller 62, paper feed trays 30A and 30B, and the like are provided.

感光体ドラム71の下方には転写器74が配設され、帯電、露光、現像を経てその感光体ドラム71上に形成されたトナー像が、レジストローラ62により搬送タイミング制御される用紙30に転写される。この転写器74に隣接して分離器75が設けられ、トナー像を転写した用紙30が感光体ドラム71から分離される。この分離器75の下流側には搬送機構部77が設けられ、その終端部には定着装置78が設けられる。定着装置78では用紙30に転写されたトナー像が定着される。搬送機構部77と上述の帯電器72との間であって、感光体ドラム71に対向してクリーニング部76が設けられ、感光体ドラム71に残留したトナーがクリーニングされる。   A transfer device 74 is disposed below the photosensitive drum 71, and a toner image formed on the photosensitive drum 71 through charging, exposure, and development is transferred to a sheet 30 whose conveyance timing is controlled by a registration roller 62. Is done. A separator 75 is provided adjacent to the transfer device 74, and the paper 30 onto which the toner image has been transferred is separated from the photosensitive drum 71. A transport mechanism 77 is provided on the downstream side of the separator 75, and a fixing device 78 is provided at the end thereof. In the fixing device 78, the toner image transferred to the paper 30 is fixed. A cleaning unit 76 is provided between the transport mechanism unit 77 and the above-described charger 72 so as to face the photoconductive drum 71, and the toner remaining on the photoconductive drum 71 is cleaned.

この例で両面コピーが選択されると、一方の用紙面(表面)に画像形成され、定着装置78から排出された用紙30の裏面にも画像が形成される。定着装置78から排出された用紙30は分岐手段91によりシート排紙路から分岐され、それぞれ給紙手段23を構成する下方の反転ローラ92や、反転部93等により表裏を反転され、反転後の用紙30は反転搬送路94を通過して給紙ローラ61の手前において通常の給紙路と合流する。   When duplex copying is selected in this example, an image is formed on one paper surface (front surface), and an image is also formed on the back surface of the paper 30 discharged from the fixing device 78. The sheet 30 discharged from the fixing device 78 is branched from the sheet discharge path by the branching unit 91, and the front and back are reversed by the lower reversing roller 92 and the reversing unit 93 constituting the sheet feeding unit 23. The sheet 30 passes through the reverse conveying path 94 and joins the normal sheet feeding path before the sheet feeding roller 61.

ここで反転搬送された用紙30は、レジストローラ62を経て、再度、転写器74に搬送され、用紙30の他方の面(裏面)上にトナー像が転写される。トナー像が転写された用紙30は、定着装置78により定着処理され、排紙ローラ95に挟持されて機外の排紙トレイ96等に排紙される。これらの画像形成の際には、用紙30として52.3〜63.9kg/m2(1000枚)程度の薄紙や64.0〜81.4kg/m2(1000枚)程度の普通紙や83.0〜130.0kg/m2(1000枚)程度の厚紙や150.0kg/m2(1000枚)程度の超厚紙が用いられる。画像形成条件としては、線速度を80〜350mm/sec程度とし、環境条件として温度を5〜35℃程度、湿度を15〜85%程度の設定条件とすることが好ましい。用紙30の厚み(紙厚)としては0.05〜0.15mm程度の厚さのものが用いられる。 The paper 30 that has been transported in the reverse direction passes through the registration rollers 62 and is transported again to the transfer device 74, and the toner image is transferred onto the other surface (back surface) of the paper 30. The sheet 30 on which the toner image is transferred is fixed by the fixing device 78, is sandwiched between the discharge rollers 95, and is discharged to a discharge tray 96 or the like outside the apparatus. The time of forming these images, 52.3~63.9kg / m 2 (1000 sheets) about thin and 64.0~81.4kg / m 2 (1000 sheets) of approximately plain paper or a paper 30 83 .0~130.0kg / m 2 (1000 sheets) about cardboard and 150.0kg / m 2 (1000 sheets) about super thick paper is used. As the image forming conditions, it is preferable that the linear velocity is about 80 to 350 mm / sec, and the environmental conditions are a setting condition of a temperature of about 5 to 35 ° C. and a humidity of about 15 to 85%. The thickness of the paper 30 (paper thickness) is about 0.05 to 0.15 mm.

図16は、画像形成装置200の制御系の構成例を示すブロック図である。図16に示す画像形成装置200は、スキャナ部11、画像メモリ13、通信手段19、給紙手段23、制御ユニット35、操作パネル48、画像書き込み部60及び画像形成手段70を有している。画像形成装置200は、画像形成モード時、任意の画像データDinに基づいて図12に示した感光体ドラム71を通じて所望の用紙30に画像を形成する装置である。ここで画像形成モードとは、画像データDoutに基づいて所定の用紙30に画像を形成して画像形成物を出力する動作をいう。制御ユニット35は、制御手段15及び画像処理ブロック21から構成される。   FIG. 16 is a block diagram illustrating a configuration example of a control system of the image forming apparatus 200. An image forming apparatus 200 illustrated in FIG. 16 includes a scanner unit 11, an image memory 13, a communication unit 19, a paper feeding unit 23, a control unit 35, an operation panel 48, an image writing unit 60, and an image forming unit 70. The image forming apparatus 200 is an apparatus that forms an image on a desired sheet 30 through the photosensitive drum 71 shown in FIG. 12 based on arbitrary image data Din in the image forming mode. Here, the image forming mode refers to an operation of forming an image on a predetermined sheet 30 based on the image data Dout and outputting an image formed product. The control unit 35 includes a control unit 15 and an image processing block 21.

制御手段15には上述したスキャナ部11や画像メモリ13、画像処理ブロック21等が接続される。スキャナ部11は、パラメータ調整モード時に、予め準備された所定の画素数の文字部から構成される文字領域Iと所定の画素数の網点部から構成される網点領域IIとを画定した基準チャート10を読み取るようになされる。画像処理ブロック21は、パラメータ調整モード時に、スキャナ部11によって読み取られた基準チャート10の文字領域I及び網点領域IIに係る画像データDinから文字画素数N及び網画素数Mを各々検出するようになされる。   The control unit 15 is connected to the scanner unit 11, the image memory 13, the image processing block 21, and the like. In the parameter adjustment mode, the scanner unit 11 defines a character area I composed of a character part having a predetermined number of pixels prepared in advance and a halftone dot area II composed of a halftone part having a predetermined number of pixels. The chart 10 is read. The image processing block 21 detects the number of character pixels N and the number of halftone pixels M from the image data Din related to the character area I and halftone area II of the reference chart 10 read by the scanner unit 11 in the parameter adjustment mode. To be made.

制御手段15は、画像処理ブロック21によって検出された文字画素数N及び網画素数Mと予め設定された、閾値TH1、TH2、TH3、TH4や基準値Ref1±α、Ref2±β等の判定期待値とを比較し、当該比較結果に基づいて領域判別パラメータを補正するようになされる。   The control means 15 expects determinations such as threshold values TH1, TH2, TH3, TH4, reference values Ref1 ± α, Ref2 ± β, etc., which are preset with the number of character pixels N and the number of halftone pixels M detected by the image processing block 21. The values are compared with each other, and the region discrimination parameter is corrected based on the comparison result.

この例で、制御手段15はシステムバス22を有している。システムバス22には、A/D変換部12、不揮発メモリ16、画像領域判別ブロック17、ROM(Read Only Memory)24、RAM(Random Access Memory)26、CPU25及び画素カウンタ27が接続される。A/D変換部12では、スキャナ部11から出力される原稿読取信号SinがA/D変換される。原稿読取信号SinはA/D変換後、デジタルの画像データDinとなる。   In this example, the control means 15 has a system bus 22. Connected to the system bus 22 are an A / D converter 12, a nonvolatile memory 16, an image area determination block 17, a ROM (Read Only Memory) 24, a RAM (Random Access Memory) 26, a CPU 25 and a pixel counter 27. In the A / D conversion unit 12, the document reading signal Sin output from the scanner unit 11 is A / D converted. The original reading signal Sin becomes digital image data Din after A / D conversion.

画像領域判別ブロック17では、A/D変換部12から出力される画像データDinを例えば、CPU25のメモリ制御を受けてRAM26に展開し、このRAM26に展開された画像データDinから、領域判別パラメータに基づいて、文字領域I及び網点領域IIを判別するようになされる。原稿20に写真を含む場合は、文字領域I及び網点領域IIの他に写真領域を判別するようになされる。   In the image area discrimination block 17, for example, the image data Din output from the A / D conversion unit 12 is developed in the RAM 26 under the memory control of the CPU 25, and the image data Din developed in the RAM 26 is used as an area discrimination parameter. Based on this, the character region I and the dot region II are discriminated. When the document 20 includes a photograph, the photograph area is discriminated in addition to the character area I and the dot area II.

画素カウンタ27は、基準チャート10を読み取って得た画像データDinから文字画素数N及び網画素数Mを各々検出するために、文字画素数N及び網画素数Mを各々カウントするようになされる。画素カウンタ27は図示しないレジスタを有しており、このレジスタには、パラメータ調整モード時の文字や網点の検出画素数として文字画素数N及び網画素数Mが保持される。不揮発メモリ16には、領域判別パラメータを補正するための補正テーブルが記憶される。不揮発メモリ16には補正テーブルの他に領域判別パラメータの補正値が格納される。   The pixel counter 27 counts the number of character pixels N and the number of halftone pixels M in order to detect the number of character pixels N and the number of halftone pixels M from the image data Din obtained by reading the reference chart 10, respectively. . The pixel counter 27 has a register (not shown), and this register holds the number N of character pixels and the number M of halftone pixels as the number of detected pixels of characters and halftone dots in the parameter adjustment mode. The nonvolatile memory 16 stores a correction table for correcting the area determination parameter. In addition to the correction table, the non-volatile memory 16 stores the correction value of the area determination parameter.

なお、ROM24には当該装置全体を制御するためのシステムプログラムデータや、領域判別処理を実行するための領域判別アルゴリズムが格納される。RAM26はワークメモリとして使用される。例えば、画像領域判別ブロック17の領域判別処理時に画像データDinや制御コマンド等を一時記憶するようになされる。この例でCPU25は電源がオンされると、ROM24からシステムプログラムデータを読み出してシステムを起動し、操作部14からの操作データD3に基づいて当該装置全体を制御するようになされる。   The ROM 24 stores system program data for controlling the entire apparatus and an area determination algorithm for executing an area determination process. The RAM 26 is used as a work memory. For example, the image data Din, the control command, and the like are temporarily stored during the area determination process of the image area determination block 17. In this example, when the power is turned on, the CPU 25 reads the system program data from the ROM 24 to start the system, and controls the entire apparatus based on the operation data D3 from the operation unit 14.

また、当該画像形成装置200では、画像形成モード時、スキャナ部11で読み取って得られた画像データDinは、制御手段15のメモリ制御を受けて画像処理ブロック21で画像処理された後に画像メモリ13に格納される。画像処理後の画像データDoutは画像書き込み部60へ転送される。画像書き込み部60は、画像データDoutに基づいて所定の強度のレーザー光を発生し、このレーザー光を感光体ドラム71に走査するようになされる。画像形成手段70は、画像書き込み部60によって、当該感光体ドラム71に書き込まれた静電潜像を現像し、所定の用紙30に画像を転写するようになされる。   In the image forming apparatus 200, in the image forming mode, the image data Din obtained by reading by the scanner unit 11 is subjected to memory control by the control unit 15 and subjected to image processing by the image processing block 21, and then the image memory 13 Stored in The image data Dout after the image processing is transferred to the image writing unit 60. The image writing unit 60 generates a laser beam having a predetermined intensity based on the image data Dout, and scans the photosensitive drum 71 with the laser beam. The image forming unit 70 develops the electrostatic latent image written on the photosensitive drum 71 by the image writing unit 60 and transfers the image onto a predetermined sheet 30.

制御手段15には更に操作部14が接続され、画像形成モード又はパラメータ調整モードを設定するように操作される。画像形成モード時には、給紙トレイ30A、30B、手差しトレイ63等の中からその1つを選択するように操作される。また、操作部14は画像形成条件を設定する際にも使用される。画像形成条件やトレイ選択情報等は操作データD3となって制御手段15に出力される。   An operation unit 14 is further connected to the control unit 15 and is operated to set an image forming mode or a parameter adjustment mode. In the image forming mode, an operation is performed to select one of the paper feed trays 30A and 30B, the manual feed tray 63, and the like. The operation unit 14 is also used when setting image forming conditions. Image forming conditions, tray selection information, and the like are output to the control unit 15 as operation data D3.

制御手段15には操作部14の他に表示部18が接続され、操作部14により選択操作される画像形成条件等を表示するようになされる。画像形成条件等は例えば、制御手段15で表示データD2に変換されて表示部18に出力される。制御手段15は、画像形成モード時に、操作パネル48により設定された内容に基づいて画像を形成するように画像書き込み部60及び画像形成手段70の動作を制御する。制御手段15は、例えば、画像処理後の画像データDout又は画像データDin’を画像書き込み部60に出力し、画像形成手段70に画像形成信号Spを出力して画像形成制御をする。   In addition to the operation unit 14, a display unit 18 is connected to the control unit 15 to display image forming conditions and the like selected and operated by the operation unit 14. For example, the image forming conditions are converted into display data D2 by the control unit 15 and output to the display unit 18. The control unit 15 controls the operations of the image writing unit 60 and the image forming unit 70 so as to form an image based on the contents set by the operation panel 48 in the image forming mode. For example, the control unit 15 outputs the image data Dout or the image data Din ′ after the image processing to the image writing unit 60, and outputs an image formation signal Sp to the image forming unit 70 to perform image formation control.

また、制御手段15には画像書き込み部60や画像形成手段70等の他に通信手段19が接続される。通信手段19はLAN等の通信回線に接続され、外部のコンピュータ等と通信処理する際に使用される。当該画像形成装置100をプリンタとして使用する場合に、そのプリントモード時に、通信手段19は外部のコンピュータから画像データDin’を受信するように使用される。   In addition to the image writing unit 60 and the image forming unit 70, the communication unit 19 is connected to the control unit 15. The communication means 19 is connected to a communication line such as a LAN, and is used when communicating with an external computer or the like. When the image forming apparatus 100 is used as a printer, the communication unit 19 is used to receive image data Din ′ from an external computer in the print mode.

制御手段15には給紙手段23が接続され、画像形成モード時に、給紙制御信号Sfに基づいて図1に示した給紙トレイ30A、30Bを駆動制御する。給紙制御信号Sfは制御手段15から給紙手段23へ供給される。給紙手段23には図示ない送り出しローラや、給紙ローラ等を駆動するモータや、当該モータを駆動するための駆動制御用のICが使用される。給紙トレイ30Aや30B等は、シートセットトレイを構成し、これらの給紙トレイ30Aや30B等には所定のサイズ及び紙質の用紙30がセットされる。   The control unit 15 is connected to a sheet feeding unit 23, and drives and controls the sheet feeding trays 30A and 30B shown in FIG. 1 based on a sheet feeding control signal Sf in the image forming mode. The paper feed control signal Sf is supplied from the control means 15 to the paper feed means 23. As the sheet feeding means 23, a feed roller (not shown), a motor for driving the sheet feeding roller, etc., and a drive control IC for driving the motor are used. The paper feed trays 30A and 30B and the like constitute a sheet set tray, and a paper 30 having a predetermined size and quality is set in the paper feed trays 30A and 30B.

続いて、画像形成装置200における画像形成方法について説明をする。図17は画像形成装置200における動作例を示すフローチャートである。
この実施例では、画像形成モード又はパラメータ調整モードの選択を受け付け、これらのモード選択に基づいて制御を分岐し、画像形成モード(本スキャン)が選択された場合は、不揮発メモリ16から領域判別パラメータを読み出して、当該パラメータを画像領域判別ブロック17にセットする例に挙げる。
Next, an image forming method in the image forming apparatus 200 will be described. FIG. 17 is a flowchart illustrating an operation example in the image forming apparatus 200.
In this embodiment, selection of an image forming mode or parameter adjustment mode is accepted, control is branched based on these mode selections, and when an image forming mode (main scan) is selected, an area determination parameter is read from the nonvolatile memory 16. Is read and the parameter is set in the image area discrimination block 17.

これらを画像形成条件にして、図17に示すフローチャートのステップST1で制御手段15は電源オン情報の検出を監視して画像形成要求又はパラメータ調整要求を待機する。この例で、図16に示した操作パネル48には、図示しないパワーセーブボタンが設けられ、例えば、スリーピング状態にある当該画像形成装置200のパワーセーブボタンを押下することで電源オン情報が発生される。電源オン情報は操作データD3となって、操作部14から制御手段15に出力される。   Under these image forming conditions, the control unit 15 monitors the detection of power-on information and waits for an image forming request or parameter adjustment request in step ST1 of the flowchart shown in FIG. In this example, the operation panel 48 shown in FIG. 16 is provided with a power save button (not shown). For example, power-on information is generated by pressing the power save button of the image forming apparatus 200 in the sleeping state. The The power-on information becomes operation data D3 and is output from the operation unit 14 to the control means 15.

この電源オン情報を検出した場合は、ステップST2に移行して制御手段15は、図示しないメニュー選択画面を表示する。このメニュー選択画面には、例えば、画像形成モード又はパラメータ調整モードを選択させるための、アイコン等が表示される。このとき、オペレータ(ユーザ)は、いずれかのモードを選択設定するように操作部14を操作する(アイコンのタッチ等)。   When this power-on information is detected, the process proceeds to step ST2, and the control means 15 displays a menu selection screen (not shown). For example, an icon or the like for selecting an image forming mode or a parameter adjustment mode is displayed on the menu selection screen. At this time, the operator (user) operates the operation unit 14 so as to select and set any mode (such as touching an icon).

その後、ステップST3に移行して制御手段15は、先に選択されたモードに基づいて制御を分岐する。画像形成モードが選択された場合は、ステップST4に移行して、制御手段15は画像形成条件を入力する。このとき、画像形成条件等は例えば、制御手段15で表示データD2に変換されて表示部18に出力される。また、ユーザは、例えば、給紙トレイ30A、30B、手差しトレイ63等の中からその1つを選択するように操作部14を操作する。表示部18は、操作部14により選択操作される画像形成条件等を表示するようになされる。画像形成条件やトレイ選択情報等は、操作データD3となって制御手段15に出力される。   Thereafter, the process proceeds to step ST3, where the control unit 15 branches the control based on the previously selected mode. When the image forming mode is selected, the process proceeds to step ST4, and the control unit 15 inputs image forming conditions. At this time, for example, the image forming conditions are converted into display data D2 by the control unit 15 and output to the display unit 18. Further, the user operates the operation unit 14 to select one of the paper feed trays 30A and 30B, the manual feed tray 63, and the like, for example. The display unit 18 displays image forming conditions and the like selected and operated by the operation unit 14. Image forming conditions, tray selection information, and the like are output to the control means 15 as operation data D3.

そして、ステップST5に移行してスキャナ部11は、原稿20から画像を読み取るようになされる。このとき、制御手段15は、スキャナ部11からの原稿読取信号SinをA/D変換部12でA/D変換をし、このA/D変換後の画像データDinを画像領域判別ブロック17と画像処理ブロック21とに出力する。   In step ST5, the scanner unit 11 reads an image from the document 20. At this time, the control unit 15 performs A / D conversion on the document reading signal Sin from the scanner unit 11 by the A / D conversion unit 12, and the image data Din after the A / D conversion is converted into the image area determination block 17 and the image. The data is output to the processing block 21.

その後、ステップST6に移行して画像領域判別ブロック17は、領域判別処理を実行する。例えば、画像領域判別ブロック17では、図3に示したメモリ82A、82B等に展開された画像データDinから、領域判別パラメータに基づいて、文字領域I及び網点領域IIを判別するようになされる。このとき、制御手段15は、不揮発メモリ16から領域判別パラメータを読み出して、当該パラメータを画像領域判別ブロック17にセットする。画像領域判別ブロック17等は、図13に示したフローチャートにより領域判別処理を実行し、網点検出部8等は、図14に示したフローチャートにより網点検出処理を各々実行する(図13、図14参照)。   Thereafter, the process proceeds to step ST6, where the image area determination block 17 executes an area determination process. For example, the image area discrimination block 17 discriminates the character area I and the dot area II from the image data Din developed in the memories 82A and 82B shown in FIG. 3 based on the area discrimination parameter. . At this time, the control unit 15 reads the area determination parameter from the nonvolatile memory 16 and sets the parameter in the image area determination block 17. The image region determination block 17 and the like execute region determination processing according to the flowchart shown in FIG. 13, and the halftone detection unit 8 and the like execute halftone detection processing according to the flowchart shown in FIG. 14 (FIG. 13, FIG. 13). 14).

また、ステップST7で画像処理ブロック21は、先のステップで画素毎に領域判別された領域判別結果に基づいて画像処理を実行する。例えば、画像処理ブロック21は、画像データDinを入力して、濃度変換処理、空間フィルタ処理、γ補正処理や、シェーディング補正処理、タイミング制御、ライン間補正処理等を実行する。これにより、領域判別処理に基づく文字の輪郭強調、網点画像のぼかし処理等を実行することができる。画像処理後の画像データDoutは、画像書き込み部60等へ出力するようになされる。   In step ST7, the image processing block 21 executes image processing based on the region determination result determined for each pixel in the previous step. For example, the image processing block 21 receives the image data Din and executes density conversion processing, spatial filter processing, γ correction processing, shading correction processing, timing control, interline correction processing, and the like. Thereby, it is possible to execute character outline emphasis, halftone image blurring processing and the like based on the region discrimination processing. The image data Dout after the image processing is output to the image writing unit 60 and the like.

そして、ステップST8で制御手段15は画像形成処理を実行するように画像形成手段70を制御する。例えば、制御手段15は、先に設定された画像形成条件内容に基づいて画像を形成するように画像書き込み部60及び画像形成手段70の動作を制御する。制御手段15は、画像処理後の画像データDoutを画像書き込み部60に出力し、画像形成手段70に画像形成信号Spを出力して画像形成制御をする。   In step ST8, the control unit 15 controls the image forming unit 70 to execute the image forming process. For example, the control unit 15 controls the operations of the image writing unit 60 and the image forming unit 70 so as to form an image based on the previously set image forming condition contents. The control unit 15 outputs the image data Dout after the image processing to the image writing unit 60, and outputs an image formation signal Sp to the image forming unit 70 to perform image formation control.

画像形成手段70では、図15に示した感光体ドラム71が、画像形成信号Spに基づいて帯電器72により所定の電位に帯電される。この感光体ドラム71上には画像書き込み部60によって静電潜像が書き込まれ、この静電潜像が現像器73によってトナー像化される。そして、感光体ドラム71上のトナー像は、転写器74によって用紙(転写材)30に転写され、用紙30上のトナー像は、定着装置78によって定着される。その後、トナー像が定着された用紙(画像形成物)30は、排紙皿96に排紙される。   In the image forming means 70, the photosensitive drum 71 shown in FIG. 15 is charged to a predetermined potential by the charger 72 based on the image forming signal Sp. An electrostatic latent image is written on the photosensitive drum 71 by the image writing unit 60, and the electrostatic latent image is converted into a toner image by the developing device 73. The toner image on the photosensitive drum 71 is transferred to the paper (transfer material) 30 by the transfer device 74, and the toner image on the paper 30 is fixed by the fixing device 78. Thereafter, the sheet (image formed product) 30 on which the toner image is fixed is discharged onto a discharge tray 96.

ステップST9で制御手段15は、画像形成処理に係るページが最終ページか否かの判別をする。この際に、制御手段15は、当該画像形成処理に係るページが最終ページでないと判別した場合は、ステップST8に戻って画像形成処理を繰り返すようになされる。当該画像形成処理に係るページが最終ページであると判別した場合は、ステップST11に移行する。なお、画像形成枚数は、図示しない枚数カウンタによりカウントされる。上述のステップST9で当該ページの画像形成処理が終了した場合は、ステップST11に移行する。   In step ST9, the control unit 15 determines whether or not the page related to the image forming process is the last page. At this time, if it is determined that the page related to the image forming process is not the last page, the control unit 15 returns to step ST8 and repeats the image forming process. If it is determined that the page related to the image forming process is the last page, the process proceeds to step ST11. Note that the number of formed images is counted by a number counter (not shown). When the image forming process for the page is completed in step ST9, the process proceeds to step ST11.

なお、ステップST3でパラメータ調整モードが選択された場合は、ステップST10に移行して領域判別パラメータの自動補正処理を実行する。この自動補正処理については、スキャナ部11等において、図12に示したフローチャートにより補正処理が実行される。この補正処理において、画像領域判別ブロック17等は、図13に示したフローチャートにより領域判別処理を実行し、網点検出部8等は、図14に示したフローチャートにより網点検出処理を各々実行する(図12〜図14参照)。この領域判別パラメータの自動補正処理を終了すると、ステップST11に移行する。   If the parameter adjustment mode is selected in step ST3, the process proceeds to step ST10 to execute an automatic correction process for the region discrimination parameter. As for the automatic correction process, the correction process is executed in the scanner unit 11 and the like according to the flowchart shown in FIG. In this correction processing, the image region determination block 17 and the like execute region determination processing according to the flowchart shown in FIG. 13, and the halftone detection unit 8 and the like execute halftone detection processing according to the flowchart shown in FIG. (See FIGS. 12 to 14). When the automatic correction processing of the area determination parameter is finished, the process proceeds to step ST11.

そして、ステップST11で制御手段15は当該画像形成処理の終了判別をする。例えば、制御手段15は、電源オフ情報を検出して画像形成処理を終了する。電源オフ情報が検出されない場合は、ステップST1に戻って上述した処理を繰り返すようになされる。電源オフ情報は当該画像形成装置100のパワーセーブボタンを押下することにより発生される。電源オフ情報は操作データD3となって、操作部14から制御手段15に出力される。制御手段15は、操作データD3に基づいて当該装置200をスリーピング状態に移行させる。スリーピング状態では、CPU25等の監視機能や時計機能等の他は、通電を制限する低消費電力モードに設定される。   In step ST11, the control unit 15 determines the end of the image forming process. For example, the control unit 15 detects the power-off information and ends the image forming process. If the power-off information is not detected, the process returns to step ST1 to repeat the above-described processing. The power-off information is generated when the power save button of the image forming apparatus 100 is pressed. The power-off information becomes operation data D3 and is output from the operation unit 14 to the control means 15. The control means 15 shifts the device 200 to the sleeping state based on the operation data D3. In the sleeping state, in addition to the monitoring function and the clock function of the CPU 25 and the like, the low power consumption mode for restricting energization is set.

このように、本発明に係る実施例としての画像形成装置によれば、本発明のスキャナ機能(スキャナ101)が応用され、文字部及び網点部を含む原稿20を読み取り、領域判別パラメータに基づいて領域判別処理をする場合に、パラメータ調整モード時に、スキャナ部11は、予め準備された基準チャート10を読み取るようになされる。画像処理ブロック21は、スキャナ部11によって読み取られた基準チャート10の文字領域I及び網点領域IIに係る画像データDinから文字画素数N及び網画素数Mを各々検出するようになされる。制御手段15は、画像処理ブロック21によって検出された文字画素数N及び網画素数Mと予め設定された判定期待値とを比較し、当該比較結果に基づいて領域判別パラメータを補正するようになされる。   As described above, according to the image forming apparatus as an embodiment of the present invention, the scanner function (scanner 101) of the present invention is applied to read the document 20 including the character portion and the halftone portion, and based on the area determination parameter. When performing the area determination process, the scanner unit 11 reads the reference chart 10 prepared in advance in the parameter adjustment mode. The image processing block 21 detects the number N of character pixels and the number M of halftone pixels from the image data Din related to the character area I and the halftone dot area II of the reference chart 10 read by the scanner unit 11. The control means 15 compares the number N of character pixels and the number of halftone pixels M detected by the image processing block 21 with preset determination expected values, and corrects the region determination parameter based on the comparison result. The

従って、予め文字領域I及び網点領域IIが自明となっている基準チャート10を1画素単位に読み込んで得られる画像データDinに基づいて領域判別パラメータを自動補正することができる。これを前提にして、スキャナ101は、原稿20を読み取り、補正後の領域判別パラメータに基づいて領域判別処理をするようになる。従って、画像形成手段70は、スキャナ部11によって読み取り得られた領域判別処理後の画像データDinに基づいて画像を形成することができる。これにより、当該装置機械の製造バラツキに左右されることなく、領域判別処理に基づく文字の輪郭強調、網点画像のぼかし処理等の高品質の画像を形成することができる。   Accordingly, the area discrimination parameter can be automatically corrected based on the image data Din obtained by reading the reference chart 10 in which the character area I and the halftone dot area II are obvious in advance in units of one pixel. On the premise of this, the scanner 101 reads the document 20 and performs area determination processing based on the corrected area determination parameter. Therefore, the image forming unit 70 can form an image based on the image data Din after the region discrimination processing read by the scanner unit 11. As a result, it is possible to form a high-quality image such as character outline emphasis based on region discrimination processing, halftone image blurring processing, or the like, regardless of manufacturing variations of the apparatus machine.

この発明は、原稿から読み取った画像の領域を判別して画像データを調整する画像領域判別調整機能を備えたスキャナや、デジタル複写機、複合機等に適用して極めて好適である。   The present invention is extremely suitable when applied to a scanner, a digital copying machine, a multi-function machine, or the like having an image area discrimination adjustment function for discriminating an area of an image read from a document and adjusting image data.

本発明に係る実施例としてのスキャナ100の構成例を示す概念図である。1 is a conceptual diagram illustrating a configuration example of a scanner 100 as an embodiment according to the present invention. スキャナ100の制御系の構成例を示すブロック図である。2 is a block diagram illustrating a configuration example of a control system of a scanner 100. FIG. 画像領域判別ブロック17の内部構成例を示すブロック図である。3 is a block diagram showing an example of the internal configuration of an image area determination block 17. FIG. 基準チャート10の構成例を示す概念図である。3 is a conceptual diagram illustrating a configuration example of a reference chart 10. FIG. 検出画素数vs検出領域の関係例を示す図である。It is a figure which shows the example of a relationship of the detection pixel number vs detection area. A及びBは、文字領域検出時のウインドウWm及び文字検出例を示す図である。A and B are views showing a window Wm and a character detection example when a character area is detected. 網点領域検出時の網点画像Giの検出例を示す図である。It is a figure which shows the example of a detection of the halftone image Gi at the time of halftone dot area detection. A及びBは、網点領域検出時の1つの網点画像G1及び網点検出例を示す図である。A and B are diagrams illustrating one halftone dot image G1 and a halftone dot detection example when a halftone dot region is detected. 網点画像の周期性検出時のメモリ82Bにおけるデータ展開例を示す図である。It is a figure which shows the example of data expansion | deployment in the memory 82B at the time of the periodicity detection of a halftone image. 網点画像Giの主走査方向への網点領域IIの拡張例を示す図である。It is a figure which shows the example of expansion of the halftone area | region II to the main scanning direction of the halftone image Gi. 網点画像Giの副走査方向への網点領域IIの拡張例を示す図である。It is a figure which shows the example of expansion of the halftone dot area | region II to the subscanning direction of the halftone image Gi. スキャナ100における補正処理例を示すフローチャート(メインルーチン)である。5 is a flowchart (main routine) showing an example of correction processing in the scanner 100. 画像領域判別ブロック17における領域判別例を示すフローチャート(判別アルゴリズム)である。5 is a flowchart (discrimination algorithm) showing an example of area discrimination in an image area discrimination block 17; 同ブロック17における網点検出例を示すフローチャート(判別アルゴリスム)である。7 is a flowchart (discrimination algorithm) showing an example of halftone dot detection in the block 17; 本発明に係る実施例としての画像形成装置200の構成例を示す断面の概念図である。1 is a conceptual cross-sectional view illustrating a configuration example of an image forming apparatus 200 as an embodiment according to the present invention. 画像形成装置200の制御系の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a control system of the image forming apparatus 200. FIG. 画像形成装置200における動作例を示すフローチャートである。5 is a flowchart illustrating an operation example in the image forming apparatus 200.

符号の説明Explanation of symbols

7 文字検出部
8 網点検出部
9 信号合成部
10 基準チャート
11 スキャナ部(原稿読取手段)
15 制御手段
17 画像領域判別ブロック
21 画像処理ブロック(画像処理手段)
25 CPU(制御手段)
27 画素カウンタ(画素検出手段)
35 制御ユニット(制御手段)
48 操作パネル
60 画像書き込み部
70 画像形成手段
81 網点中心点検出部
83 網点中心点周期性検出部
100 スキャナ(原稿読取装置)
101 原稿読取手段
200 画像形成装置
7 character detection unit 8 halftone detection unit 9 signal synthesis unit 10 reference chart 11 scanner unit (document reading means)
15 Control means 17 Image area discrimination block 21 Image processing block (image processing means)
25 CPU (control means)
27 Pixel counter (pixel detection means)
35 Control unit (control means)
48 operation panel 60 image writing unit 70 image forming means 81 halftone dot center point detection unit 83 halftone dot center point periodicity detection unit 100 scanner (document reading apparatus)
101 Document Reading Unit 200 Image Forming Apparatus

Claims (6)

文字部及び網点部を含む原稿を読み取り領域判別パラメータに基づいて領域判別処理をする装置であって、
所定の画素数の文字部から構成される文字領域と所定の画素数の網点部から構成される網点領域とを画定した基準原稿用紙を読み取る画像読取手段と、
前記画像読取手段によって読み取られた前記基準原稿用紙の文字領域及び網点領域に係る画像情報から前記文字部の画素数及び網点部の画素数を各々検出する画素検出手段と、
前記画素検出手段によって検出された前記文字部の画素数及び網点部の画素数と予め設定された判定期待値とを比較し、当該比較結果に基づいて前記領域判別パラメータを補正する制御手段とを備えることを特徴とする原稿読取装置。
An apparatus for performing area discrimination processing based on a read area discrimination parameter for a document including a character portion and a halftone dot portion,
An image reading unit that reads a reference original sheet that defines a character region composed of a character portion having a predetermined number of pixels and a halftone region composed of a halftone portion having a predetermined number of pixels;
Pixel detecting means for detecting the number of pixels of the character part and the number of pixels of the halftone part from the image information relating to the character area and halftone dot area of the reference document sheet read by the image reading means;
Control means for comparing the number of pixels of the character part and the number of pixels of the halftone dot part detected by the pixel detection means with a predetermined expected determination value and correcting the region discrimination parameter based on the comparison result; An original reading apparatus comprising:
前記文字部の画素数及び網点部の画素数が予め設定された判定期待値の範囲内に含まれる場合は、前記領域判別パラメータを補正し、
前記文字部の画素数及び網点部の画素数が予め設定された判定期待値の範囲外となる場合は、警告処理をすることを特徴とする請求項1に記載の原稿読取装置。
When the number of pixels of the character part and the number of pixels of the halftone dot part are included in the predetermined range of expected determination values, the region determination parameter is corrected,
2. The document reading apparatus according to claim 1, wherein a warning process is performed when the number of pixels in the character portion and the number of pixels in the halftone dot portion are outside a predetermined expected value range.
前記文字部の画素数及び網点部の画素数を各々カウントする画素数カウンタが備えられることを特徴とする請求項1に記載の原稿読取装置。   2. The document reading apparatus according to claim 1, further comprising a pixel number counter for counting the number of pixels in the character portion and the number of pixels in the halftone dot portion. 前記制御手段は、
前記画像読取手段による1回の走査処理で適切な領域判別パラメータが確定できない場合、前記領域判別パラメータを変更しながら前記画像読取手段における数回の走査処理を実行することを特徴とする請求項1に記載の原稿読取装置。
The control means includes
2. The scanning process of the image reading unit is performed several times while changing the region determination parameter when an appropriate region determination parameter cannot be determined by one scanning process by the image reading unit. The document reading device described in 1.
文字部及び網点部を含む原稿を領域判別パラメータに基づいて領域判別処理をする原稿読取装置を補正する方法であって、
所定の画素数の文字部から構成される文字領域と所定の画素数の網点部から構成される網点領域とを画定した基準原稿用紙を準備し、
予め準備された前記基準原稿用紙を当該原稿読取装置によって読み取り、
前記原稿読取装置によって読み取られた前記基準原稿用紙の文字領域及び網点領域に係る画像情報から前記文字部の画素数及び網点部の画素数を各々検出し、
検出された前記文字部の画素数及び網点部の画素数と予め設定された判定期待値とを比較し、
当該比較結果に基づいて前記領域判別パラメータを補正することを特徴とする原稿読取装置の補正方法。
A method of correcting a document reading device that performs region determination processing on a document including a character portion and a halftone portion based on a region determination parameter,
Preparing a reference manuscript paper in which a character region composed of a character portion having a predetermined number of pixels and a halftone region composed of a halftone portion having a predetermined number of pixels are defined;
The reference document sheet prepared in advance is read by the document reading device,
Detecting the number of pixels of the character portion and the number of pixels of the halftone dot portion from the image information relating to the character region and halftone dot region of the reference original paper read by the original reading device,
Compare the detected number of pixels of the character portion and the number of pixels of the halftone dot portion with a preset expected expected value,
A correction method for a document reading apparatus, wherein the region determination parameter is corrected based on the comparison result.
文字部及び網点部を含む原稿を読み取って得た任意の画像情報に基づいて画像を形成する装置であって、
前記原稿を読み取り領域判別パラメータに基づいて領域判別処理をする原稿読取装置と、
前記原稿読取装置によって得られた画像情報に基づいて画像を形成する画像形成手段とを備え、
前記原稿読取装置は、
所定の画素数の文字部から構成される文字領域と所定の画素数の網点部から構成される網点領域とを画定した基準原稿用紙を読み取る画像読取手段と、
前記画像読取手段によって読み取られた前記基準原稿用紙の文字領域及び網点領域に係る画像情報から前記文字部の画素数及び網点部の画素数を各々検出する画素検出手段と、
前記画素検出手段によって検出された前記文字部の画素数及び網点部の画素数と予め設定された判定期待値とを比較し、当該比較結果に基づいて前記領域判別パラメータを補正する制御手段とを有することを特徴とする画像形成装置。
An apparatus for forming an image based on arbitrary image information obtained by reading a document including a character portion and a halftone dot portion,
A document reading device that performs area determination processing based on a reading area determination parameter of the document;
Image forming means for forming an image based on image information obtained by the document reading device;
The document reading device includes:
An image reading unit that reads a reference original sheet that defines a character region composed of a character portion having a predetermined number of pixels and a halftone region composed of a halftone portion having a predetermined number of pixels;
Pixel detecting means for detecting the number of pixels of the character part and the number of pixels of the halftone part from the image information relating to the character area and halftone dot area of the reference document sheet read by the image reading means;
Control means for comparing the number of pixels of the character part and the number of pixels of the halftone dot part detected by the pixel detection means with a predetermined expected determination value and correcting the region discrimination parameter based on the comparison result; An image forming apparatus comprising:
JP2004015904A 2004-01-23 2004-01-23 Manuscript reader, its correction method, and image forming apparatus Pending JP2005210492A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004015904A JP2005210492A (en) 2004-01-23 2004-01-23 Manuscript reader, its correction method, and image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004015904A JP2005210492A (en) 2004-01-23 2004-01-23 Manuscript reader, its correction method, and image forming apparatus

Publications (1)

Publication Number Publication Date
JP2005210492A true JP2005210492A (en) 2005-08-04

Family

ID=34901234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004015904A Pending JP2005210492A (en) 2004-01-23 2004-01-23 Manuscript reader, its correction method, and image forming apparatus

Country Status (1)

Country Link
JP (1) JP2005210492A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017154433A (en) * 2016-03-03 2017-09-07 京セラドキュメントソリューションズ株式会社 Image forming device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017154433A (en) * 2016-03-03 2017-09-07 京セラドキュメントソリューションズ株式会社 Image forming device

Similar Documents

Publication Publication Date Title
JP4912270B2 (en) Image processing apparatus and control method thereof
EP1187458B1 (en) Image-reading device and method for performing a white-shading correction
US8294947B2 (en) Image processing apparatus with front and back side reading units and method for correcting a color difference for a specific color
JP5217426B2 (en) Image processing apparatus, image forming apparatus, image processing program, and recording medium recording the program
JPH11341284A (en) Picture processor
US9641716B2 (en) Image forming apparatus and image forming method for both side copying
JP2011183803A (en) Image forming apparatus and method of controlling image forming apparatus
JP2020177041A (en) Image formation device
JP4079046B2 (en) Image processing apparatus and image processing method
JP4861506B2 (en) Image processing apparatus and control method thereof
JP2013012898A (en) Image reader and image forming apparatus
JP7495830B2 (en) Image processing device and image forming device
JP5023035B2 (en) Image processing apparatus, image forming apparatus including the image processing apparatus, image processing method, image processing program, and computer-readable recording medium recording the image processing program
JP2005210492A (en) Manuscript reader, its correction method, and image forming apparatus
JP3198267B2 (en) Image processing device and image forming device
CN110515285A (en) Image processing apparatus and abnormality judgment method
JP2011253068A (en) Image forming device and control method thereof
US8068769B2 (en) Toner usage control between differing image regions
JP5206588B2 (en) Image processing apparatus, image forming apparatus, image processing method, and image processing program
JP4549194B2 (en) Sheet-through document reader and image forming apparatus
JP4841891B2 (en) Image forming apparatus
JP2009186897A (en) Image forming apparatus
JP2003198838A (en) Image processing system and image processing method
JP4001323B2 (en) Image forming apparatus
JP2007171783A (en) Image forming apparatus

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060606