JPH04361477A - Picture processing unit - Google Patents

Picture processing unit

Info

Publication number
JPH04361477A
JPH04361477A JP3137619A JP13761991A JPH04361477A JP H04361477 A JPH04361477 A JP H04361477A JP 3137619 A JP3137619 A JP 3137619A JP 13761991 A JP13761991 A JP 13761991A JP H04361477 A JPH04361477 A JP H04361477A
Authority
JP
Japan
Prior art keywords
data
image
input
pixel
halftone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3137619A
Other languages
Japanese (ja)
Inventor
Shigenobu Fukushima
福嶋 茂信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP3137619A priority Critical patent/JPH04361477A/en
Priority to US07/894,743 priority patent/US5384647A/en
Publication of JPH04361477A publication Critical patent/JPH04361477A/en
Pending legal-status Critical Current

Links

Landscapes

  • Dot-Matrix Printers And Others (AREA)
  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE:To decode more accurately a multi-value picture data corresponding to an original picture by prohibiting edge emphasis processing with respect to an aimed picture element of a picture data binarized by the dot centralized dither method. CONSTITUTION:In the picture processing unit provided with an image area discrimination means 102 discriminating whether each picture element is resident in an area of a binary picture data of a pseudo halftone or in an area of a binary picture data of a non-halftone and a decoding means decoding a binary picture data discriminated to be an area of a binary picture data of a pseudo halftone into a multi-value picture data, edge emphasis processing emphasizing a density difference between the aimed picture element and its surrounding picture element is implemented to a binary picture data of the aimed picture element. However, whether or not the binary picture data of the aimed picture element is a binary picture data binarized by the dot centralized dither method is discriminated and when the picture is discriminated to be the binary picture data binarized by the dot centralized dither method, the edge emphasis processing is prohibited.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、擬似中間調の2値画像
データを元の画像に対応する多値画像データに復元する
画像復元回路を備えた画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus equipped with an image restoration circuit for restoring pseudo-halftone binary image data to multi-value image data corresponding to the original image.

【0002】0002

【従来の技術】従来、ファクシミリ装置においては、画
像信号を公衆電話回線を介して伝送するため、写真など
の中間調画像については、送信側で上記中間調画像の多
値画像データをディザ法などにより2値化することによ
って擬似中間調の2値画像データに変換して受信側に伝
送し、一方、受信側では、受信された擬似中間調の2値
画像データを多値画像データに復元する方法が用いられ
ている。また、昨今、多値画像データを高速及び高解像
度で記録するカラーレーザプリンタが実用化されている
が、一般には2値画像データを記録する2値プリンタが
多く使用されている。多値画像データを記憶装置に記憶
する場合、大容量の記憶装置が必要であるが、この問題
点を解決するため、多値画像データを一旦2値画像デー
タに変換して記憶装置に格納し、画像処理又は記録時に
は上記2値画像データを上記記憶装置から読み出した後
多値画像データに復元する方法が提案されている。
[Prior Art] Conventionally, in facsimile machines, image signals are transmitted via public telephone lines, so for halftone images such as photographs, multi-valued image data of the halftone image is transmitted on the transmitting side using dithering methods, etc. The image data is converted into pseudo-halftone binary image data by binarization and transmitted to the receiving side, and the receiving side restores the received pseudo-halftone binary image data to multi-valued image data. method is used. Furthermore, although color laser printers that record multivalued image data at high speed and high resolution have recently been put into practical use, binary printers that record binary image data are generally used more often. Storing multi-value image data in a storage device requires a large-capacity storage device, but in order to solve this problem, multi-value image data is first converted into binary image data and then stored in the storage device. A method has been proposed in which, during image processing or recording, the binary image data is read out from the storage device and then restored to multivalued image data.

【0003】この種の擬似中間調の2値画像データから
多値画像データへの変換を行う多値復元の画像処理方法
(以下、第1の従来例の方法をいう。)が、例えば特開
昭62−114377号公報に開示されており、この公
報においては、以下の3つの方法が提案されている。 (1)2値画像データを各ブロックに分割した後、各ブ
ロック内の黒画素数を計数し、黒画素数より各ブロック
の濃度レベルを推定して濃度を得て、多値画像データに
復元する。 (2)2値画像データを各単位領域に分割した後、各単
位領域内の黒画素数を計数し、所定数の隣接単位領域に
てなる区画領域内の黒画素数のバラツキを調べ、バラツ
キが小さい場合には大きなサイズの濃度マトリックスパ
ターンを用い、バラツキが大きい場合は小さいサイズの
濃度マトリックスパターンを用いて黒画素配列を求めて
、多値画像データに復元する。 (3)2値画像データに対してN×N画素のサイズの走
査開口を用意し、走査開口を1画素ずつずらしながら各
開口内の黒画素数を計数し、計数値を順次濃度レベルと
してゆき、多値画像データに復元する。この方法は、4
×4のウィンドウ内の画素がすべて“1”である空間フ
ィルタを用いて、2値画像データに対するコンボリュー
ション処理を行ったことに相当している。 また、上述の公報において、上記(3)のコンボリュー
ション処理を行なう場合に、注目画素の2値画像データ
に4を乗算しかつ主走査方向及び副走査方向の計4個の
周辺画素の2値画像データに(−1)を乗算した後各乗
算値を加算することによってフィルタリングを行なうラ
プラシアンフィルタを用いて画像強調を同時に行なうこ
とを提案している。さらに、上記(1)のようにあるウ
ィンドウ内の2値画像データに対して平滑化処理を行っ
て平滑値を演算し、一方、当該ウィンドウ内のエッジ強
調量を演算した後、上記平滑値と上記エッジ強調量に基
づいて、元の画像データに対応する多値画像データを復
元する方法(以下、第2の従来例という。)が、知られ
ている。
A multi-value restoration image processing method (hereinafter referred to as the first conventional method) for converting pseudo-halftone binary image data to multi-value image data is disclosed in, for example, Japanese Patent Laid-Open Publication No. This method is disclosed in Japanese Patent No. 62-114377, and the following three methods are proposed in this publication. (1) After dividing the binary image data into each block, count the number of black pixels in each block, estimate the density level of each block from the number of black pixels to obtain the density, and restore to multi-valued image data. do. (2) After dividing the binary image data into each unit area, count the number of black pixels in each unit area, and check the variation in the number of black pixels in the divided area made up of a predetermined number of adjacent unit areas. When the variation is small, a large-sized density matrix pattern is used, and when the variation is large, a small-sized density matrix pattern is used to find a black pixel array and restore it to multivalued image data. (3) Prepare a scanning aperture with a size of N x N pixels for binary image data, count the number of black pixels in each aperture while shifting the scanning aperture by one pixel, and sequentially set the counted value as the density level. , and restore it to multivalued image data. This method consists of 4
This corresponds to performing convolution processing on binary image data using a spatial filter in which all pixels within a ×4 window are “1”. In addition, in the above-mentioned publication, when performing the convolution process (3) above, the binary image data of the pixel of interest is multiplied by 4, and the binary image data of a total of four peripheral pixels in the main scanning direction and the sub-scanning direction are It is proposed to simultaneously perform image enhancement using a Laplacian filter that performs filtering by multiplying image data by (-1) and then adding each multiplied value. Furthermore, as in (1) above, smoothing processing is performed on the binary image data within a certain window to calculate a smoothed value, and on the other hand, after calculating the amount of edge enhancement within the window, the smoothed value and A method (hereinafter referred to as a second conventional example) of restoring multivalued image data corresponding to original image data based on the edge enhancement amount is known.

【0004】0004

【発明が解決しようとする課題】しかしながら、上記(
1)の方法において例えば整数N階調の以上の多値画像
データに復元する場合、N画素以上の画素に基づいて多
値画像データを復元しなかればならず、また、元の擬似
中間調の2値画像データの周期の間隔以上の長さを1辺
に持つウィンドウを用いて復元処理しなければ、復元後
の画像に擬似中間調のテクスチャーの影響を受ける場合
がある。これらの問題点を解決するためには、比較的大
きなウィンドウを用いる必要があり、ウィンドウ内の黒
画素を計数回路が大型になるという問題点があった。 また、上記ウィンドウ内にエッジ部が存在する場合、上
記(1)の方法による平滑化によってエッジ部が平滑さ
れて元の画像を正確に復元できない場合があるという問
題点があった。
[Problem to be solved by the invention] However, the above (
In method 1), for example, when restoring multi-value image data with N or more integer gradations, the multi-value image data must be restored based on N or more pixels, and the original pseudo-halftone Unless restoration processing is performed using a window whose length on one side is equal to or longer than the cycle interval of the binary image data, the restored image may be affected by pseudo-halftone texture. In order to solve these problems, it is necessary to use a relatively large window, which causes the problem that the circuit for counting black pixels within the window becomes large. Furthermore, when an edge portion exists within the window, there is a problem in that the edge portion is smoothed by the smoothing method of (1) above, and the original image may not be accurately restored.

【0005】また、上述のように上記ラプラシアンフィ
ルタを用いてエッジ成分の相対的な量(以下、エッジ成
分量という。)を検出して、検出されたエッジ成分量か
ら、エッジ強調を行なうときに用いるエッジ強調量と、
エッジ部が存在するか否かを判別するときに用いるエッ
ジ判別量とを演算することができるが、上記ラプラシア
ンフィルタを用いた場合、(7×2)ドットが1周期で
ある画像から高周波の成分量を正確に検出することがで
きず、すなわち当該エッジの高周波成分が低下する。ま
た、エッジ成分の方向性を検出することはできないので
、方向性を考慮したエッジ成分量を検出することはでき
ず、これによって、エッジ部でない画像を誤ってエッジ
部として検出し、もしくはエッジ部を含む画像中でエッ
ジ部を検出できない場合があった。従って、上記第2の
従来例の方法を用いて、上記ラプラシアンフィルタで演
算されたエッジ成分量に基づいて多値画像データ復元す
るとき、元の画像に対応する多値画像データを正確に復
元することができないという問題点があった。
[0005] Furthermore, as described above, when the relative amount of edge components (hereinafter referred to as edge component amount) is detected using the Laplacian filter and edge enhancement is performed from the detected amount of edge components, The amount of edge enhancement to be used,
It is possible to calculate the edge discrimination amount used when determining whether an edge exists or not, but when using the above Laplacian filter, high frequency components are calculated from an image with one period of (7 × 2) dots. The amount cannot be detected accurately, that is, the high frequency component of the edge is reduced. In addition, since it is not possible to detect the directionality of edge components, it is not possible to detect the amount of edge components that takes directionality into account. There were cases where edges could not be detected in images containing images. Therefore, when restoring multivalued image data based on the edge component amount calculated by the Laplacian filter using the method of the second conventional example, the multivalued image data corresponding to the original image can be accurately restored. The problem was that it could not be done.

【0006】さらに、例えば、擬似中間調で2値化され
た2値画像データであるか、もしくは所定のしきい値を
用いて非中間調で2値化された2値画像データであるか
を像域判別する従来の像域判別回路を画像復元装置に適
用した場合、誤差拡散法及び分散型ディザ法によって擬
似中間調で2値化された画像に対しては、その独特の画
像パターンを検出して像域判別するため、ドット集中型
ディザ法によって擬似中間調で2値化され比較的低い空
間周波数成分を有する2値画像データを非中間調画像で
あると誤って判別する場合があった。この場合、ドット
集中型ディザ法によって擬似中間調で2値化された2値
画像データに対してエッジ強調処理を行ってしまい、元
の画像とは全く異なる格子状の画像となり、元の画像に
対応する多値画像データを正確に復元することができな
いという問題点があった。
[0006] Furthermore, for example, it is possible to determine whether the image data is binary image data that has been binarized with pseudo halftones or binary image data that has been binarized with non-halftones using a predetermined threshold. When a conventional image area discrimination circuit that discriminates image areas is applied to an image restoration device, it is possible to detect the unique image pattern of an image that has been binarized with pseudo halftones using the error diffusion method and the distributed dither method. Therefore, binary image data that has been binarized with pseudo-halftones using the dot-concentrated dither method and has relatively low spatial frequency components may be incorrectly determined to be a non-halftone image. . In this case, edge enhancement processing is performed on binary image data that has been binarized with pseudo halftones using the dot concentrated dither method, resulting in a grid-like image that is completely different from the original image. There was a problem in that the corresponding multivalued image data could not be accurately restored.

【0007】本発明の目的は以上の問題点を解決し、入
力された2値画像データのうちのドット集中型ディザ法
によって2値化された擬似中間調の2値画像データの注
目画素に対するエッジ強調処理を禁止することができ、
元の画像に対応する多値画像データをより正確に復元す
ることができる画像処理装置を提供することにある。
An object of the present invention is to solve the above-mentioned problems, and to solve the above-mentioned problems by detecting an edge of a pixel of interest in pseudo-halftone binary image data that has been binarized by a dot concentrated dither method among input binary image data. Emphasis processing can be prohibited,
An object of the present invention is to provide an image processing device that can more accurately restore multivalued image data corresponding to an original image.

【0008】[0008]

【課題を解決するための手段】本発明に係る画像処理装
置は、擬似中間調で2値化された2値画像データと、所
定のしきい値を用いて非中間調で2値化された2値画像
データとを含む入力された2値画像データのうちの、注
目画素とその周辺の複数の画素とを含む所定の領域に対
応する2値画像データに基づいて、上記入力された2値
画像データの各画素毎に、擬似中間調の2値画像データ
の領域であるか、又は非中間調の2値画像データの領域
であるかを判別する像域判別手段と、上記像域判別手段
によって擬似中間調の2値画像データの領域であると判
別された2値画像データを多値画像データに復元する復
元手段とを備えた画像処理装置において、上記入力され
た2値画像データのうちの注目画素の2値画像データに
対して、上記注目画素とその周辺画素との濃度差を強調
するエッジ強調処理を行なうエッジ強調手段と、上記注
目画素の2値画像データがドット集中型ディザ法によっ
て擬似中間調で2値化された2値画像データであるか否
かを判別するディザ判別手段と、上記ディザ判別手段に
よって上記注目画素の2値画像データがドット集中型デ
ィザ法によって擬似中間調で2値化された2値画像デー
タであると判別されたときに、上記注目画素の2値画像
データに対して上記エッジ強調手段が行なうエッジ強調
処理を禁止する禁止手段とを備えたことを特徴とする。
[Means for Solving the Problems] An image processing device according to the present invention provides binary image data that has been binarized with pseudo halftones and binary image data that has been binarized with non-halftones using a predetermined threshold. Based on the binary image data corresponding to a predetermined area including the pixel of interest and a plurality of pixels around it, out of the input binary image data including the binary image data, the input binary image data is image area determining means for determining whether each pixel of image data is a pseudo-halftone binary image data area or a non-halftone binary image data area; and the image area determining means. In the image processing apparatus, the image processing apparatus is equipped with a restoring means for restoring the binary image data determined to be a region of pseudo-halftone binary image data into multi-value image data by An edge enhancement means performs edge enhancement processing to emphasize the density difference between the pixel of interest and its surrounding pixels on the binary image data of the pixel of interest; a dither determining means for determining whether or not the binary image data is binary image data that has been binarized with a pseudo halftone by the dither discriminating means; and prohibiting means for prohibiting edge enhancement processing performed by the edge enhancement means on the binary image data of the pixel of interest when it is determined that the image data is binarized binary image data. Features.

【0009】[0009]

【作用】以上のように構成することにより、上記像域判
別手段は、入力された注目画素とその周辺の複数の画素
とを含む所定の領域に対応する2値画像データに基づい
て、上記入力された2値画像データの各画素毎に、擬似
中間調の2値画像データの領域であるか、又は非中間調
の2値画像データの領域であるかを判別し、上記復元手
段は、上記像域判別手段によって擬似中間調の2値画像
データの領域であると判別された2値画像データを多値
画像データに復元する。ここで、上記エッジ強調手段は
、上記入力された2値画像データのうちの注目画素の2
値画像データに対して、上記注目画素とその周辺画素と
の濃度差を強調するエッジ強調処理を行い、上記ディザ
判別手段は、上記注目画素の2値画像データがドット集
中型ディザ法によって擬似中間調で2値化された2値画
像データであるか否かを判別する。さらに、禁止手段は
、上記ディザ判別手段によって上記注目画素の2値画像
データがドット集中型ディザ法によって擬似中間調で2
値化された2値画像データであると判別されたときに、
上記注目画素の2値画像データに対して上記エッジ強調
手段が行なうエッジ強調処理を禁止する。
[Operation] With the above configuration, the image area discriminating means can perform the input pixel based on the binary image data corresponding to a predetermined area including the input pixel of interest and a plurality of surrounding pixels. The restoring means determines for each pixel of the binary image data whether it is a pseudo-halftone binary image data area or a non-halftone binary image data area, and the restoring means Binary image data determined by the image area determining means to be an area of pseudo-halftone binary image data is restored to multivalued image data. Here, the edge emphasizing means includes two pixels of interest in the input binary image data.
Edge enhancement processing is performed on the value image data to emphasize the density difference between the pixel of interest and its surrounding pixels, and the dither discrimination means performs edge enhancement processing to emphasize the difference in density between the pixel of interest and its surrounding pixels, and the dither discriminator performs a pseudo-intermediate processing on the binary image data of the pixel of interest using a dot concentrated dither method. It is determined whether or not the image data is binary image data that has been binarized in the key. Furthermore, the prohibiting means is configured to convert the binary image data of the pixel of interest into two pseudo halftones by the dither determining means using a dot concentrated dither method.
When it is determined that the image data is digitized binary image data,
Edge enhancement processing performed by the edge enhancement means on the binary image data of the pixel of interest is prohibited.

【0010】従って、「発明が解決しようとする課題」
の欄において上述したように、従来の像域判別回路を画
像復元装置に適用した場合に、ドット集中型ディザ法に
よって擬似中間調で2値化された2値画像データに対し
てエッジ強調処理を行ってしまい、元の画像とは全く異
なる格子状の画像に復元することを防止することができ
る。これによって、2値画像データを多値画像データに
、従来例に比較しより正確に、すなわち原画像により忠
実に復元することができる。
[0010] Therefore, "the problem to be solved by the invention"
As mentioned above in the section, when a conventional image area discrimination circuit is applied to an image restoration device, edge enhancement processing is performed on binary image data that has been binarized with pseudo halftones using the dot concentrated dither method. This can prevent the image from being restored to a grid-like image that is completely different from the original image. As a result, binary image data can be restored to multivalued image data more accurately than in the conventional example, that is, more faithfully to the original image.

【0011】[0011]

【実施例】以下、図面を参照して本発明に係る一実施例
のファクシミリ装置について説明する。ここで、本実施
例のファクシミリ装置は、図2に示すように、受信され
た2値画像データを多値画像データに復元を行なう画像
復元処理部62を備えたことを特徴としている。なお、
以下の実施例の記述において、「中間調画像」及び「中
間調領域」とはそれぞれ、例えば写真などの中間調画像
の多値画像データをディザ法などの擬似中間調の方法で
2値化した擬似中間調画像及びその画像の領域を意味し
、一方、「非中間調画像」及び「非中間調領域」とはそ
れぞれ、例えば文字などの非中間調画像及びその画像の
領域をいう。
DESCRIPTION OF THE PREFERRED EMBODIMENTS A facsimile apparatus according to an embodiment of the present invention will be described below with reference to the drawings. As shown in FIG. 2, the facsimile apparatus of this embodiment is characterized in that it includes an image restoration processing section 62 that restores received binary image data to multivalued image data. In addition,
In the description of the examples below, "halftone image" and "halftone area" respectively refer to multi-valued image data of a halftone image such as a photograph, which is binarized using a pseudo halftone method such as a dither method. The term "non-halftone image" and "non-halftone region" refer to a pseudo-halftone image and a region of the image, respectively, for example, a non-halftone image such as a character.

【0012】本発明に係る一実施例のファクシミリ装置
について以下の項目の順で説明する。 (1)本実施例の特徴 (2)ファクシミリ装置の構成及び動作(3)画像復元
処理部 (4)10×21マトリックスメモリ回路(5)像域判
別部 (5−1)各部の構成及び動作 (5−2)ディザ判定部 (5−3)隣接状態判定部、 (5−4)5×11マトリックスメモリ回路(5−5)
判定データ生成部 (5−6)判別データ信号生成部 (6)中間調画像復元部 (6−1)各部の構成及び動作 (6−2)窓内計数部 (6−3)平滑量計算部 (6−4)エッジ強調量計算部 (6−5)エッジ領域判別部 (6−6)復元データ計算部 (7)他の実施例
A facsimile machine according to an embodiment of the present invention will be explained in the following order. (1) Features of this embodiment (2) Configuration and operation of facsimile machine (3) Image restoration processing section (4) 10x21 matrix memory circuit (5) Image area discrimination section (5-1) Configuration and operation of each part (5-2) Dither judgment unit (5-3) Adjacent state judgment unit (5-4) 5×11 matrix memory circuit (5-5)
Judgment data generation section (5-6) Discrimination data signal generation section (6) Halftone image restoration section (6-1) Configuration and operation of each section (6-2) Window counting section (6-3) Smoothing amount calculation section (6-4) Edge enhancement amount calculation unit (6-5) Edge area determination unit (6-6) Restored data calculation unit (7) Other embodiments

【0013】(1)本実施例の特徴 この第1の実施例のファクシミリ装置は、図3に示すよ
うに、擬似中間調で2値化された2値画像データと、所
定のしきい値を用いて非中間調で2値化された2値画像
データを含む受信された2値画像データに基づいて所定
のエッジ強調量と所定の平滑値と所定のエッジ領域判別
量を計算するとともに、後述する判別データ信号生成部
114から入力されそれぞれ所定の集中型ディザ画像で
あることの判別結果を示す集中型第1ディザ画像判別信
号及び集中型第2ディザ画像判別信号と上記計算された
各量に基づいて入力された2値画像データを多値の中間
調データに復元する中間調画像復元部101と、受信さ
れた2値画像データに基づいて注目画素を中心とする所
定の領域について各画素毎に、所定の集中型ディザ画像
であることの判別結果を示す集中型第1ディザ画像判別
信号及び集中型第2ディザ画像判別信号を生成するとと
もに中間調領域であるか又は非中間調領域であるかを判
別した結果を示す像域判別データを出力する像域判別部
102と、所定のしきい値を用いて非中間調で2値化さ
れた2値画像データを白又は黒を示す多値の非中間調画
像データに単純に変換する単純多値化部103と、上記
像域判別データが示す混合割合に応じて中間調画像復元
部101から出力される多値の中間調画像データと単純
多値化部103から出力される多値の非中間調画像デー
タとを混合することによって多値画像データを生成して
プリンタ制御部55に出力するデータ混合部104とを
備えたことを特徴とする。
(1) Features of this Embodiment As shown in FIG. 3, the facsimile machine of this first embodiment uses binary image data that has been binarized with pseudo halftones and a predetermined threshold value. A predetermined edge enhancement amount, a predetermined smoothing value, and a predetermined edge region discrimination amount are calculated based on the received binary image data including binary image data binarized with non-halftone using A concentrated first dithered image discrimination signal and a concentrated second dithered image discrimination signal inputted from the discrimination data signal generation unit 114 and indicating the discrimination result that the image is a predetermined concentrated dithered image, and each of the above calculated quantities. A halftone image restoring unit 101 restores input binary image data to multi-value halftone data based on the received binary image data, and a halftone image restoring unit 101 restores input binary image data to multi-value halftone data for each pixel in a predetermined area centered on the pixel of interest based on the received binary image data. A first concentrated dither image discrimination signal and a second concentrated dither image discrimination signal indicating the determination result that the image is a predetermined concentrated dither image are generated, and the image is in a halftone region or a non-halftone region. An image area discriminating unit 102 outputs image area discriminating data indicating the result of determining whether the A simple multi-value conversion unit 103 that simply converts into non-half-tone image data, and a simple multi-value half-tone image data output from the half-tone image restoration unit 101 according to the mixing ratio indicated by the image area discrimination data. It is characterized by comprising a data mixing section 104 that generates multi-value image data by mixing the multi-value non-halftone image data output from the multi-value converting section 103 and outputs it to the printer control section 55. do.

【0014】ここで、特に、中間調画像復元部101と
像域判別部102とに特徴があり、中間調画像復元部1
01は、(a)入力される画素データに基づいて、所定
の複数の窓内の黒画素数を計数してそれぞれ黒画素数デ
ータ(以下、データと略す。)を出力する窓内計数部1
13と、(b)窓内計数部113から出力されるデータ
に基づいてエッジ領域を判別するために用いるエッジ領
域判別量を計算して出力するエッジ領域判別部109と
、(c)窓内計数部113から出力されるデータに基づ
いて中間調画像データの復元のための平滑量(7×7黒
画素数第2データと9×9黒画素数データ)を計算して
出力する平滑量計算部110と、(d)窓内計数部11
3から出力されるデータに基づいてエッジ強調処理を行
うためのエッジ強調量第1データとエッジ強調量第2デ
ータと計算して出力するエッジ強調量計算部111と、
(e)各部109乃至111から出力されるデータ及び
判別データ信号生成部114から出力される集中型第1
ディザ画像判別信号と集中型第2ディザ画像判別信号に
基づいて多値の中間調画像データを復元して出力する復
元データ計算部112とを備える。
Here, the halftone image restoration section 101 and the image area discrimination section 102 are particularly characterized.
01 is (a) an in-window counting unit 1 that counts the number of black pixels within a plurality of predetermined windows based on input pixel data and outputs black pixel number data (hereinafter abbreviated as data) for each window;
13, (b) an edge region discriminator 109 that calculates and outputs an edge region discrimination amount used for discriminating an edge region based on the data output from the in-window count section 113, and (c) an in-window count. a smoothing amount calculation unit that calculates and outputs the amount of smoothing (7×7 black pixel number second data and 9×9 black pixel number data) for restoring halftone image data based on the data output from the unit 113; 110 and (d) in-window counting section 11
an edge enhancement amount calculation unit 111 that calculates and outputs edge enhancement amount first data and edge enhancement amount second data for performing edge enhancement processing based on the data output from 3;
(e) Data output from each section 109 to 111 and the centralized first output from the discrimination data signal generation section 114
It includes a restored data calculation unit 112 that restores and outputs multivalued halftone image data based on the dithered image discrimination signal and the concentrated second dithered image discrimination signal.

【0015】また、像域判別部102は、(a)入力さ
れる画素データに基づいて所定の領域内で少数である方
の同一種の画素の、主副走査方向の4方向についての隣
接状態を示す主副走査方向隣接数を計算するとともに、
所定の3×3のウィンドウ内の黒画素数データを計算し
、上記計算された各データとディザ判定部106から出
力される所定の7×7のウィンドウ内の黒画素数データ
に基づいて、上記7×7のウィンドウ内が全部白画像で
あるか又は全部黒画像であるかを示す全白全黒画像検出
信号と、注目画素を中心とする所定の領域の画像が中間
調画像であることを示す中間調画像検出信号と、上記所
定の領域の画像が非中間調画像であることを示す非中間
調画像検出信号とを生成して出力する隣接状態判定部1
05と、(b)入力される画素データに基づいて、各画
素毎に、スクリーン角が0度である集中型組織的ディザ
画像であるか否かを検出して検出結果を示す集中型第1
ディザ検出信号を出力するとともに、スクリーン角が4
5度である集中型組織的ディザ画像であるか否かを検出
して検出結果を示す集中型第2ディザ検出信号を出力す
るディザ判定部106と、(c)隣接状態判定部105
とディザ判定部106から各画素毎にシリアルに出力さ
れる5個の各検出信号(計5ビット)を、注目画素を中
心とする所定の5×11のウィンドウ内で同時に出力す
る5×11マトリックスメモリ回路107と、(d)マ
トリックスメモリ回路107から出力される各検出信号
に基づいて各検出信号毎に上記5×11のウィンドウ内
で上記各検出信号を加算して得られる各判定データを生
成して出力する判定データ生成部108と、(e)判定
データ生成部108から出力される各判定データに基づ
いて、上記所定の5×11のウィンドウの領域の画像が
スクリーン角が0度である集中型組織的ディザ画像であ
るか否かを判別して判別結果を示す集中型第1ディザ画
像判別信号を生成して出力し、上記所定の5×11のウ
ィンドウの領域の画像がスクリーン角が45度である集
中型組織的ディザ画像であるか否かを判別して判別結果
を示す集中型第2ディザ画像判別信号を生成して出力す
るとともに、中間調領域であるか又は非中間調領域であ
るかを判別した結果を示す像域判別データを出力する判
別データ信号生成部114とを備える。
The image area determination unit 102 also determines (a) the adjacent state of the smaller number of pixels of the same type in a predetermined area in four directions in the main and sub-scanning directions based on the input pixel data; In addition to calculating the number of adjacencies in the main and sub-scanning directions,
The black pixel number data within a predetermined 3×3 window is calculated, and based on each of the calculated data and the black pixel number data within a predetermined 7×7 window output from the dither determination unit 106, the above An all-white all-black image detection signal indicating whether the inside of the 7x7 window is an all-white image or an all-black image, and an all-white all-black image detection signal indicating that the image in a predetermined area centered on the pixel of interest is a halftone image. an adjacent state determination unit 1 that generates and outputs a halftone image detection signal indicating that the image in the predetermined area is a non-halftone image; and a non-halftone image detection signal indicating that the image in the predetermined area is a non-halftone image.
05, and (b) a first concentrated type that detects whether or not it is a concentrated organized dithered image with a screen angle of 0 degrees for each pixel based on the input pixel data and indicates the detection result.
It outputs a dither detection signal and the screen angle is 4.
a dither determination unit 106 that detects whether or not the image is a concentrated systematic dither image of 5 degrees and outputs a concentrated second dither detection signal indicating the detection result; and (c) an adjacent state determination unit 105.
and a 5×11 matrix that simultaneously outputs five detection signals (total of 5 bits) serially output for each pixel from the dither determination unit 106 within a predetermined 5×11 window centered on the pixel of interest. The memory circuit 107 and (d) generate each judgment data obtained by adding each detection signal within the 5×11 window for each detection signal based on each detection signal output from the matrix memory circuit 107. (e) Based on each determination data output from the determination data generation unit 108, the image in the predetermined 5×11 window area has a screen angle of 0 degrees. Generates and outputs a first concentrated dither image discrimination signal that determines whether the image is a concentrated organized dither image and indicates the determination result, and determines whether the image in the predetermined 5×11 window area has a screen angle. Generates and outputs a concentrated second dithered image discrimination signal that determines whether the image is a concentrated systematic dithered image with an angle of 45 degrees and indicates the determination result, and also generates and outputs a concentrated second dithered image discrimination signal that indicates whether the image is a concentrated systematic dithered image with an angle of 45 degrees or not; and a discrimination data signal generation unit 114 that outputs image area discrimination data indicating the result of discrimination.

【0016】(2)ファクシミリ装置の構成及び動作図
1は、本発明に係る第1の実施例であるファクシミリ装
置の機構部の縦断面図であり、図2は、図1に図示した
ファクシミリ装置の信号処理部の構成を示すブロック図
である。図1に示すように、このファクシミリ装置は、
プリンタ部1とその上方に設置された画像読取部20と
に大きく分けられ、プリンタ部1上に操作パネル40が
設けられ、また、プリンタ部1の側面部に電話機42が
設けられる。
(2) Structure and operation of facsimile device FIG. 1 is a vertical cross-sectional view of the mechanism of a facsimile device according to a first embodiment of the present invention, and FIG. FIG. 2 is a block diagram showing the configuration of a signal processing section of the FIG. As shown in Figure 1, this facsimile machine is
The printer section 1 is roughly divided into a printer section 1 and an image reading section 20 installed above the printer section 1. An operation panel 40 is provided on the printer section 1, and a telephone 42 is provided on the side of the printer section 1.

【0017】図1において、プリンタ部1は、従来の装
置と同様の構成を有する電子写真方式レーザビームプリ
ンタであり、以下に簡単にその動作を述べる。まず、回
転駆動される感光体ドラム2上の感光体が、帯電器3に
より一様に帯電される。次に、光学系4により画像デー
タに応じてレーザビームが照射されて感光体ドラム2上
に静電潜像が形成される。この静電潜像に現像器5のト
ナーが付着する。一方、給紙カセット11にはカット紙
が置かれており、ピックアップローラ12によりカット
紙が一枚ずつピックアップされた後、給紙ローラ13に
よって感光体ドラム2の転写部の方へ送り込まれる。感
光体ドラム2に付着したトナーは、転写チャージャ6に
よりカット紙に転写され、定着器12により定着される
。上記定着工程の後のカット紙が、排紙ローラ14,1
6によって排紙通路15を介して排紙トレー13に排出
される。なお、カット紙に付着しなかったトナーはクリ
ーナ8により回収され、これで一回のプリントが終了す
る。
In FIG. 1, a printer section 1 is an electrophotographic laser beam printer having a configuration similar to that of a conventional device, and its operation will be briefly described below. First, the photoreceptor on the rotationally driven photoreceptor drum 2 is uniformly charged by the charger 3 . Next, a laser beam is irradiated by the optical system 4 according to the image data to form an electrostatic latent image on the photoreceptor drum 2. Toner from the developing device 5 adheres to this electrostatic latent image. On the other hand, cut sheets are placed in a paper feed cassette 11, and after being picked up one by one by a pick-up roller 12, the cut sheets are sent to a transfer section of the photosensitive drum 2 by a paper feed roller 13. The toner adhering to the photosensitive drum 2 is transferred onto the cut paper by a transfer charger 6 and fixed by a fixing device 12. The cut paper after the fixing process is carried out by the paper ejection rollers 14 and 1.
6, the paper is discharged to the paper discharge tray 13 via the paper discharge path 15. Note that the toner that does not adhere to the cut paper is collected by the cleaner 8, and one printing operation is completed.

【0018】次に、画像読取部20の動作について説明
する。送信原稿の読取りは従来の装置と同様に行われる
。すなわち、原稿トレー21上に置かれた原稿は、原稿
センサ22により検知され、当該原稿がローラ23によ
りセンサ25の位置まで1枚ずつ送り込まれる。次に、
モータ(図示せず。)によるローラ24の回転と密着型
リニアイメージセンサ26の読み取りに同期して原稿が
密着型リニアイメージセンサ26により読取られ、原稿
画像はデジタル画像データに変換された後、図2に図示
したバッファメモリ59に出力されるとともに、後述す
る圧縮伸長部60によって圧縮画像データに変換されて
圧縮画像メモリ51に格納される。画像読み取り終了後
は、上記原稿は排出ローラ27により排紙トレー28に
排出される。
Next, the operation of the image reading section 20 will be explained. Reading of the transmitted document is performed in the same manner as in conventional devices. That is, the originals placed on the original tray 21 are detected by the original sensor 22, and the originals are fed one by one to the position of the sensor 25 by the roller 23. next,
The original is read by the contact type linear image sensor 26 in synchronization with the rotation of the roller 24 by a motor (not shown) and the reading by the contact type linear image sensor 26, and the original image is converted into digital image data. The image data is output to a buffer memory 59 shown in FIG. 2, and is converted into compressed image data by a compression/expansion section 60, which will be described later, and stored in a compressed image memory 51. After image reading is completed, the document is discharged onto a paper discharge tray 28 by a discharge roller 27.

【0019】図2に示すように、このファクシミリ装置
においては、このファクシミリ装置の全体の制御を行な
うMPU50と、それぞれファクシミリの信号処理及び
通信処理などを行なうHDLC解析部52、モデム53
及びNCU54と、それぞれファクシミリの画像信号を
一時的に格納する画像圧縮用画像メモリ51、バッファ
メモリ59及びページメモリ61と、それぞれ所定の画
像信号の処理を行なう圧縮伸長部60及び画像復元処理
部62とが備えられ、各処理部20,51,52,53
,54,59,60,61がバス63を介してMPU5
0に接続される。また、操作パネル40が直接にMPU
50に接続されるとともに、プリンタ部1内に設けられ
多値の画像データに基づいて当該画像データの画像をプ
リントする多値のレーザプリンタ70を制御するプリン
タ制御部55がMPU50に接続される。
As shown in FIG. 2, this facsimile machine includes an MPU 50 that controls the entire facsimile machine, an HDLC analysis section 52 and a modem 53 that perform facsimile signal processing and communication processing, respectively.
and an NCU 54, an image compression image memory 51, a buffer memory 59, and a page memory 61 that temporarily store facsimile image signals, and a compression/expansion unit 60 and an image restoration processing unit 62 that process predetermined image signals, respectively. and each processing section 20, 51, 52, 53
, 54, 59, 60, 61 connect to the MPU 5 via the bus 63.
Connected to 0. In addition, the operation panel 40 directly connects the MPU
A printer control section 55 is connected to the MPU 50 and controls a multi-value laser printer 70 that is provided in the printer section 1 and prints an image of the image data based on the multi-value image data.

【0020】まず、ファクシミリ装置の受信動作につい
て述べる。相手先のファクシミリ装置から電話回線を介
して着呼があると、着呼信号がNCU54とモデム53
を介してMPU50に入力されて検出された後、所定の
ファクシミリの回線接続手順に従って、相手先のファク
シミリ装置との回線接続処理が実行される。当該回線接
続処理の後、相手先のファクシミリ装置から送信される
圧縮画像信号は、NCU54を介してモデム53に入力
されて復調され、復調後の圧縮画像データはHDLC解
析部52においてHDLCフレームから圧縮画像データ
のみを取り出す所定のHDLC逆加工処理が行われた後
、圧縮用画像メモリ51に格納される。すべてのページ
の圧縮画像信号を受信したとき、所定のファクシミリの
回線切断手順に従って、相手先のファクシミリ装置との
回線切断処理が実行される。圧縮用画像メモリ51に格
納された画像データは圧縮伸長部60によって1ページ
毎、ページメモリ61を用いて実際の画像データに伸長
されて展開される。ページメモリ61に展開された画像
データは、画像復元処理部62に入力されて、詳細後述
される処理によって高密度の2値画像データに変換され
た後、プリンタ制御部55に出力される。プリンタ制御
部55への画像データの転送に同期して、MPU50か
らプリンタ制御部55に記録開始信号が出力されて、プ
リンタ制御部55は、レーザプリンタ70に制御信号及
び画像データを送信して画像データの記録を実行させる
First, the receiving operation of the facsimile machine will be described. When there is an incoming call from the other party's facsimile device via the telephone line, the incoming call signal is sent to the NCU 54 and modem 53.
After being input to the MPU 50 and detected, a line connection process with a destination facsimile machine is executed according to a predetermined facsimile line connection procedure. After the line connection process, the compressed image signal sent from the destination facsimile device is input to the modem 53 via the NCU 54 and demodulated, and the demodulated compressed image data is compressed from the HDLC frame in the HDLC analysis section 52. After a predetermined HDLC reverse processing process is performed to extract only the image data, the data is stored in the compression image memory 51. When compressed image signals for all pages are received, a line disconnection process with the destination facsimile machine is executed according to a predetermined facsimile line disconnection procedure. The image data stored in the compression image memory 51 is expanded and developed into actual image data page by page by the compression/expansion section 60 using the page memory 61. The image data developed in the page memory 61 is input to the image restoration processing section 62, converted into high-density binary image data through processing described in detail later, and then output to the printer control section 55. In synchronization with the transfer of image data to the printer control section 55, a recording start signal is output from the MPU 50 to the printer control section 55, and the printer control section 55 sends a control signal and image data to the laser printer 70 to print the image. Execute data recording.

【0021】次いで、ファクシミリ装置の送信動作につ
いて説明する。上記画像読取部20による上述のすべて
の画像読み取り動作が終了すると、相手先のファクシミ
リ装置と回線接続処理が実行される。この回線接続処理
の完了後、圧縮用画像メモリ51に格納された圧縮画像
データは圧縮伸長部60によって一旦ページメモリ61
に伸長された後、相手先のファクシミリ装置の能力に応
じて再圧縮処理が実行されて圧縮用画像メモリ51に格
納される。格納された画像データは、HDLC解析部5
2によって所定のHDLCフレーム加工処理が実行され
た後、モデム53によって所定のファクシミリ信号に変
調される。画像データで変調されたファクシミリ信号は
NCU54と電話回線を介して相手先のファクシミリ装
置に送信される。画像データの送信が完了すると、所定
の回線切断手順に従って、相手先のファクシミリ装置と
の回線切断処理が実行され、送信動作が終了する。
Next, the transmission operation of the facsimile machine will be explained. When all of the above-described image reading operations by the image reading section 20 are completed, line connection processing with the other party's facsimile device is executed. After this line connection process is completed, the compressed image data stored in the compression image memory 51 is transferred to the page memory 61 by the compression/expansion section 60.
After being decompressed, recompression processing is executed according to the capabilities of the destination facsimile machine, and the data is stored in the compression image memory 51. The stored image data is sent to the HDLC analysis unit 5.
2 performs predetermined HDLC frame processing, and then the modem 53 modulates the signal into a predetermined facsimile signal. The facsimile signal modulated with the image data is transmitted to the destination facsimile device via the NCU 54 and the telephone line. When the transmission of the image data is completed, a line disconnection process with the destination facsimile machine is executed according to a predetermined line disconnection procedure, and the transmission operation is completed.

【0022】MPU50は、操作パネル40を用いて入
力される操作者の指令に基づいて所定の処理を行なうと
ともに、操作者への指示情報及び本ファクシミリ装置の
状態情報を操作パネル40に出力して表示する。
The MPU 50 performs predetermined processing based on the operator's commands input using the operation panel 40, and also outputs instruction information to the operator and status information of the facsimile machine to the operation panel 40. indicate.

【0023】(3)画像復元処理部 この画像復元処理部62は、図3に示すように、受信さ
れた2値画像データから多値の中間調データを復元する
中間調画像復元部101を備えるが、この中間調画像の
復元処理は、以下のような効果を有する。すなわち、写
真画像のような中間調画像データは、一般に1画素当た
り複数ビットの多値画像データで表される。しかしなが
ら、ファクシミリ通信などの画像データの通信時又はフ
ァイリングなどの画像データの保存時において上記多値
画像データを擬似中間調で2値化して2値画像データに
変換することによって、通信すべき又は保存すべきデー
タ量を大幅に削減することが可能である。
(3) Image Restoration Processing Unit As shown in FIG. 3, the image restoration processing unit 62 includes a halftone image restoration unit 101 that restores multi-value halftone data from received binary image data. However, this halftone image restoration processing has the following effects. That is, halftone image data such as a photographic image is generally represented by multi-valued image data with multiple bits per pixel. However, when communicating image data such as facsimile communication or storing image data such as filing, the multi-valued image data is binarized with pseudo halftones and converted to binary image data. It is possible to significantly reduce the amount of data required.

【0024】この中間調画像の復元処理は、例えば、擬
似中間調で2値化した中間調データを異なった画素密度
で2値で記録又は表示する場合に有効である。すなわち
、単なる変倍処理を行わず、一旦多値画像データに復元
した後変倍処理を行なうことによって、元の擬似中間調
の2値画像データの周期性によるモアレの発生を防止す
ることができる。復元された多値画像データは擬似中間
調で2値化され、ディスプレイ又はプリンタなどの出力
系に出力される。このとき、出力系が入力されるデータ
を高密度で処理することができる装置であれば、その装
置の特性を十分に生かすことができる。また、例えば、
中間調画像の復元処理は、擬似中間調で2値化された2
値画像データを多値の画像データに復元して多値のディ
スプレイ又はプリンタなどの出力系に出力する場合に有
効である。
This halftone image restoration process is effective, for example, when halftone data that has been binarized using pseudo halftones is recorded or displayed in binary form at different pixel densities. In other words, by performing scaling processing after once restoring multilevel image data, rather than simply performing scaling processing, it is possible to prevent the occurrence of moiré due to the periodicity of the original pseudo-halftone binary image data. . The restored multivalued image data is binarized with pseudo halftones and output to an output system such as a display or printer. At this time, if the output system is a device that can process input data at high density, the characteristics of the device can be fully utilized. Also, for example,
The halftone image restoration process is performed using two binarized pseudo halftone images.
This is effective when restoring value image data to multi-value image data and outputting it to an output system such as a multi-value display or printer.

【0025】図3は、図2に図示した画像復元処理部6
2のブロック図である。
FIG. 3 shows the image restoration processing section 6 shown in FIG.
2 is a block diagram of FIG.

【0026】図3に示すように、ページメモリ61から
シリアルに読み出される2値画像データは、10×21
マトリックスメモリ回路100に入力される。10×2
1マトリックスメモリ回路100は、図30に示すよう
に、10×21のウィンドウW1021内のマトリック
スの各位置に位置する各画素データD000乃至D92
0を生成して、中間調画像復元部101内の窓内計数部
113と、像域判別部102内の隣接状態検出部105
とディザ判定部106と、単純多値化部103に出力す
る。図30において、矢印MSは主走査方向を示し、矢
印SSは副走査方向を示す。また、iはウィンドウW1
021内の主走査線の位置を示すパラメータであり、j
はその副走査線の位置を示すパラメータである。
As shown in FIG. 3, the binary image data read out serially from the page memory 61 is 10×21
It is input to matrix memory circuit 100. 10×2
1 matrix memory circuit 100, as shown in FIG.
0, and the window counting unit 113 in the halftone image restoration unit 101 and the adjacent state detection unit 105 in the image area discrimination unit 102
is output to the dither determination section 106 and the simple multi-value conversion section 103. In FIG. 30, arrow MS indicates the main scanning direction, and arrow SS indicates the sub-scanning direction. Also, i is window W1
is a parameter indicating the position of the main scanning line within 021, and j
is a parameter indicating the position of the sub-scanning line.

【0027】中間調画像復元部101は、窓内計数部1
13と、エッジ領域判別部109と、平滑量計算部11
0と、エッジ強調量計算部111と、復元データ計算部
112とを備える。窓内計数部113は、所定の複数の
窓内の黒画素数を計数してそれぞれデータをエッジ領域
判別部109と平滑量計算部110とエッジ強調量計算
部111とに出力する。エッジ領域判別部109は、窓
内計数部113から出力されるデータに基づいてエッジ
領域を判別するために用いるエッジ領域判別量を計算し
て復元データ計算部112に出力する。平滑量計算部1
10は、窓内計数部113から出力されるデータに基づ
いて中間調画像データの復元のための平滑量(7×7黒
画素数第2データと9×9黒画素数データ)を計算して
復元データ計算部112に出力する。エッジ強調量計算
部111は、窓内計数部113から出力されるデータに
基づいてエッジ強調処理を行うためのエッジ強調量第1
データとエッジ強調量第2データと計算して復元データ
計算部112に出力する。さらに、復元データ計算部1
12は、各部109乃至111から出力されるデータ及
び判別データ信号生成部114から出力される集中型第
1ディザ画像判別信号と集中型第2ディザ画像判別信号
に基づいて多値の中間調画像データを復元してデータ混
合部104に出力する。
The halftone image restoration section 101 includes a window counting section 1
13, an edge region determination unit 109, and a smoothing amount calculation unit 11
0, an edge enhancement amount calculation section 111, and a restored data calculation section 112. The intra-window counting section 113 counts the number of black pixels within a plurality of predetermined windows and outputs the data to the edge region discriminating section 109, the smoothing amount calculating section 110, and the edge enhancement amount calculating section 111, respectively. Edge region discriminator 109 calculates an edge region discriminant amount used to discriminate an edge region based on the data output from window counting section 113 and outputs the calculated edge region discriminant amount to restored data calculation section 112 . Smoothing amount calculation section 1
10 calculates the amount of smoothing (7×7 black pixel number second data and 9×9 black pixel number data) for restoring halftone image data based on the data output from the window counting unit 113. It is output to the restored data calculation unit 112. The edge enhancement amount calculation unit 111 calculates a first edge enhancement amount for performing edge enhancement processing based on the data output from the window counting unit 113.
The calculated data and edge enhancement amount second data are output to the restored data calculation unit 112. Furthermore, the restored data calculation unit 1
12 is multi-valued halftone image data based on the data output from each section 109 to 111 and the concentrated first dither image discrimination signal and the concentrated second dither image discrimination signal output from the discrimination data signal generation section 114. is restored and output to the data mixing unit 104.

【0028】像域判別部102は、隣接状態検出部10
5と、ディザ判定部106と、5×11マトリックスメ
モリ回路107と、判定データ生成部108と、判別デ
ータ信号生成部114とを備える。隣接状態判定部10
5は、入力される画素データに基づいて所定の領域内で
少数である方の同一種の画素の、主副走査方向の4方向
についての隣接状態を示す主副走査方向隣接数を計算す
るとともに、所定の3×3のウィンドウ内の黒画素数デ
ータを計算し、上記計算された各データとディザ判定部
106から出力される所定の7×7のウィンドウ内の黒
画素数データに基づいて、上記7×7のウィンドウ内が
全部白画像であるか又は全部黒画像であるかを示す全白
全黒画像検出信号と、注目画素を中心とする所定の領域
の画像が中間調画像であることを示す中間調画像検出信
号と、上記所定の領域の画像が非中間調画像であること
を示す非中間調画像検出信号とを生成して出力する。一
方、ディザ判定部106は、入力される画素データに基
づいて、各画素毎に、スクリーン角が0度である集中型
組織的ディザ画像であるか否かを検出して検出結果を示
す集中型第1ディザ検出信号を出力するとともに、スク
リーン角が45度である集中型組織的ディザ画像である
か否かを検出して検出結果を示す集中型第2ディザ検出
信号を出力する。
The image area discriminating unit 102 has an adjacent state detecting unit 10.
5, a dither determination unit 106, a 5×11 matrix memory circuit 107, a determination data generation unit 108, and a determination data signal generation unit 114. Adjacent state determination unit 10
5 calculates the number of adjacent pixels in the main and sub-scanning directions indicating the adjacency state of the smaller number of pixels of the same type in a predetermined area in four directions in the main and sub-scanning directions based on the input pixel data; , calculate the black pixel number data within a predetermined 3×3 window, and based on each of the calculated data and the black pixel number data within a predetermined 7×7 window output from the dither determination unit 106, The all-white all-black image detection signal indicating whether the 7×7 window is an all-white image or an all-black image, and the image in a predetermined area centered on the pixel of interest is a halftone image. and a non-halftone image detection signal indicating that the image in the predetermined area is a non-halftone image are generated and output. On the other hand, the dither determination unit 106 detects for each pixel, based on the input pixel data, whether or not it is a concentrated systematic dither image with a screen angle of 0 degrees, and displays the detection result. In addition to outputting a first dither detection signal, it detects whether or not the image is a concentrated organized dither image with a screen angle of 45 degrees, and outputs a second concentrated dither detection signal indicating the detection result.

【0029】さらに、5×11マトリックスメモリ回路
107は、隣接状態判定部105とディザ判定部106
から各画素毎にシリアルに出力される5個の各検出信号
(計5ビット)を、注目画素を中心とする所定の5×1
1のウィンドウ内で同時に判定データ生成部108に出
力する。判定データ生成部108は、マトリックスメモ
リ回路107から出力される各検出信号に基づいて各検
出信号毎に上記5×11のウィンドウ内で上記各検出信
号を加算して得られる各判定データを生成して判別デー
タ信号生成部114に出力する。最後に、判別データ信
号生成部114は、判定データ生成部108から出力さ
れる各判定データに基づいて、上記所定の5×11のウ
ィンドウの領域の画像がスクリーン角が0度である集中
型組織的ディザ画像であるか否かを判別して判別結果を
示す集中型第1ディザ画像判別信号を生成して出力し、
上記所定の5×11のウィンドウの領域の画像がスクリ
ーン角が45度である集中型組織的ディザ画像であるか
否かを判別して判別結果を示す集中型第2ディザ画像判
別信号を生成して出力するとともに、中間調領域である
か又は非中間調領域であるかを判別した結果を示す像域
判別データを出力する。ここで、像域判別データは、上
記領域内の画像が完全に中間調画像であるとき0となり
、一方、非中間調画像となるとき1となる0から1まで
の値域を有する。
Furthermore, the 5×11 matrix memory circuit 107 includes an adjacent state determining section 105 and a dither determining section 106.
The five detection signals (total of 5 bits) serially output for each pixel from
They are simultaneously output to the determination data generation unit 108 within one window. The determination data generation unit 108 generates each determination data obtained by adding each detection signal within the 5×11 window for each detection signal based on each detection signal output from the matrix memory circuit 107. and outputs it to the discrimination data signal generation section 114. Finally, the discrimination data signal generation unit 114 determines, based on each judgment data output from the judgment data generation unit 108, that the image of the area of the predetermined 5×11 window is a concentrated tissue whose screen angle is 0 degrees. generating and outputting a concentrated first dithered image discrimination signal that determines whether the image is a target dithered image and indicates the discrimination result;
Determine whether or not the image in the predetermined 5×11 window area is a concentrated systematic dithered image with a screen angle of 45 degrees, and generate a concentrated second dithered image discrimination signal indicating the determination result. At the same time, it outputs image area discrimination data indicating the result of determining whether the area is a halftone area or a non-halftone area. Here, the image area discrimination data has a value range from 0 to 1, which is 0 when the image in the area is a completely halftone image, and 1 when it is a non-halftone image.

【0030】また、単純多値化部103は、マトリック
スメモリ回路100から出力される画素データに基づい
て、所定のしきい値を用いて非中間調で2値化された2
値画像データを白又は黒を示す多値の非中間調画像デー
タに単純に変換して非中間調データとしてデータ混合部
104に出力する。さらに、データ混合部104は、テ
ーブル用ROMで構成され、中間調画像復元部101か
ら出力される多値の中間調画像データと単純多値化部1
03から出力される多値の非中間調画像データと上記像
域判別データに基づいて次の「数1」の計算を行って、
すなわちこれらのデータを上記像域判別データが示す混
合割合に応じて混合することによって、6ビットの多値
画像データを生成してプリンタ制御部55に出力する。
Furthermore, the simple multilevel conversion unit 103 generates two-valued data that is binarized in non-halftones using a predetermined threshold based on the pixel data output from the matrix memory circuit 100.
The value image data is simply converted into multi-value non-halftone image data indicating white or black, and outputted to the data mixing unit 104 as non-halftone data. Further, the data mixing unit 104 is configured with a table ROM, and combines the multivalued halftone image data output from the halftone image restoration unit 101 with the simple multivalue conversion unit 1.
Based on the multivalued non-halftone image data output from 03 and the above image area discrimination data, the following "Equation 1" is calculated,
That is, by mixing these data according to the mixing ratio indicated by the image area discrimination data, 6-bit multivalued image data is generated and output to the printer control section 55.

【数1】 多値画像データ=(中間調画像データ)×{1−(像域
判別データ)}+(非中間調画像データ)×(像域判別
データ)
[Equation 1] Multivalued image data = (halftone image data) x {1 - (image area discrimination data)} + (non-halftone image data) x (image area discrimination data)

【0031】本実施例では、中間調とも非中間調ともと
れる領域での像域判別の誤判別を目立たなくするため、
上述のように、データ混合部104において中間調画像
らしさ及び非中間調画像らしさを示す像域判別データの
混合割合に応じて上記中間調画像データと上記非中間調
画像データとを混合して多値の画像データを復元してい
る。
In this embodiment, in order to make erroneous image area discrimination in areas that can be halftones or non-halftones less noticeable,
As described above, the data mixing unit 104 mixes and multiplies the halftone image data and the non-halftone image data according to the mixing ratio of the image area discrimination data indicating the likeness of a halftone image and the likeness of a non-halftone image. Value image data is being restored.

【0032】(4)10×21マトリックスメモリ回路
図4は、図3に図示した10×21マトリックスメモリ
回路100のブロック図である。図4に示すように、1
0×21マトリックスメモリ回路100は、それぞれペ
ージメモリ61から入力される2値画像データの転送ク
ロックの周期と同一の周期、すなわち画像データの1ド
ットの周期を有するクロックCLKに基づいて入力され
る画像データを主走査方向の1回の走査時間である1水
平期間だけ遅延させる9個のFIFOメモリDM1乃至
DM9と、それぞれ上記クロックCLKに同期して入力
される画像データをクロックCLKの1周期期間だけ遅
延させて出力する200個の遅延型フリップフロップD
F001乃至DF020,DF101乃至DF120,
DF201乃至DF220,...,DF901乃至D
F920とを備える。
(4) 10×21 Matrix Memory Circuit FIG. 4 is a block diagram of the 10×21 matrix memory circuit 100 shown in FIG. 3. As shown in Figure 4, 1
The 0x21 matrix memory circuit 100 receives images based on a clock CLK having the same cycle as the transfer clock cycle of the binary image data input from the page memory 61, that is, the cycle of one dot of image data. Nine FIFO memories DM1 to DM9 delay data by one horizontal period, which is one scan time in the main scanning direction, and each input image data in synchronization with the clock CLK by one cycle period of the clock CLK. 200 delay type flip-flops D that output with delay
F001 to DF020, DF101 to DF120,
DF201 to DF220, . .. .. , DF901 to D
F920.

【0033】ページメモリ61から各ページの画像の最
初の画素から最後の画素への方向でシリアルで出力され
る2値画像データは、フリップフロップDF001に入
力された後、縦続接続された20個のフリップフロップ
DF001乃至DF020を介して出力されるとともに
、FIFOメモリDM1に入力された後、縦続接続され
た9個のFIFOメモリDM1乃至DM9を介して出力
される。FIFOメモリDM1から出力される画像デー
タは、フリップフロップDF101に入力された後、縦
続接続されたフリップフロップDF101乃至DF12
0を介して出力される。また、FIFOメモリDM2か
ら出力される画像データは、フリップフロップDF20
1に入力された後、縦続接続されたフリップフロップD
F201乃至DF220を介して出力される。以下、同
様にして、各FIFOメモリDM3乃至DM9から出力
される画像データはそれぞれ、フリップフロップDF3
01乃至DF901に入力された後、それぞれ縦続接続
されたフリップフロップDF301乃至DF320,D
F401乃至DF420,...,DF901乃至DF
920を介して出力される。
Binary image data serially output from the page memory 61 in the direction from the first pixel to the last pixel of the image of each page is input to the flip-flop DF001, and then input to the flip-flop DF001, which is then input to the cascade-connected 20 The signals are outputted via the flip-flops DF001 to DF020, inputted to the FIFO memory DM1, and then outputted via nine cascade-connected FIFO memories DM1 to DM9. The image data output from the FIFO memory DM1 is input to the flip-flop DF101, and then input to the cascade-connected flip-flops DF101 to DF12.
Output via 0. Furthermore, the image data output from the FIFO memory DM2 is transferred to the flip-flop DF20.
1, then cascaded flip-flops D
It is output via F201 to DF220. Similarly, the image data output from each FIFO memory DM3 to DM9 is transferred to the flip-flop DF3.
After being input to 01 to DF901, the flip-flops DF301 to DF320, D which are connected in cascade, respectively.
F401 to DF420, . .. .. , DF901 to DF
920.

【0034】以上のように構成された10×21マトリ
ックスメモリ回路100において、当該回路100に最
初に入力された1ドットの画素データがフリップフロッ
プDF920から出力されたとき、そのときに入力され
た画像データが画素データD000として出力されると
ともに、各フリップフロップDF001乃至DF020
からそれぞれ10×21のウィンドウ内のi=0の主走
査線上の各画素データD001乃至D020が出力され
、FIFOメモリDM1及び各フリップフロップDF1
01乃至DF120からそれぞれ10×21のウィンド
ウ内のi=1の主走査線上の各画素データD100乃至
D120が出力され、FIFOメモリDM2及び各フリ
ップフロップDF201乃至DF220からそれぞれ1
0×21のウィンドウ内のi=2の主走査線上の各画素
データD200乃至D220が出力され、以下同様にし
て、各FIFOメモリDM3乃至DM9及び各フリップ
フロップDF301乃至DF920からそれぞれ、各画
素データD300乃至D920が出力される。
In the 10×21 matrix memory circuit 100 configured as described above, when one dot of pixel data first input to the circuit 100 is output from the flip-flop DF920, the image input at that time is The data is output as pixel data D000, and each flip-flop DF001 to DF020
Each pixel data D001 to D020 on the main scanning line of i=0 within a 10×21 window is outputted from the FIFO memory DM1 and each flip-flop DF1.
Each pixel data D100 to D120 on the i=1 main scanning line within a 10×21 window is output from 01 to DF120, and 1 pixel data is output from each FIFO memory DM2 and each flip-flop DF201 to DF220.
Each pixel data D200 to D220 on the i=2 main scanning line within the 0x21 window is output, and in the same way, each pixel data D300 is output from each FIFO memory DM3 to DM9 and each flip-flop DF301 to DF920. to D920 are output.

【0035】なお、図31において、WPは隣接状態判
定部105及びディザ判定部106における判定時の各
画素の参照範囲であり、その判定時における注目画素(
i=3,j=10)を*で示している。また、W511
は、判別データ信号生成部114における判定時の各画
素の参照範囲であり、その判定時における注目画素(i
=5,j=5)を◎で示している。ここで、参照範囲W
511は注目画素◎を中心とする5×11のウィンドウ
である。さらに、W9は中間調画像復元部101におけ
る復元時の各画素の参照範囲であり、その復元処理時に
おける注目画素(i=5,j=5)を◎で示している。 ここで、参照範囲W9は注目画素◎を中心とする9×9
のウィンドウである。
In FIG. 31, WP is the reference range of each pixel at the time of determination in the adjacent state determination unit 105 and dither determination unit 106, and the pixel of interest at the time of determination (
i=3, j=10) is indicated by *. Also, W511
is the reference range of each pixel at the time of determination in the determination data signal generation unit 114, and the pixel of interest (i
=5, j=5) is indicated by ◎. Here, the reference range W
511 is a 5×11 window centered on the pixel of interest ◎. Further, W9 is a reference range of each pixel during restoration in the halftone image restoration unit 101, and the pixel of interest (i=5, j=5) during the restoration process is indicated by a circle. Here, the reference range W9 is 9×9 centered on the pixel of interest ◎.
window.

【0036】(5)像域判別部 (5−1)各部の構成及び動作 図5乃至図19は、図3に図示した像域判別部102の
ブロック図であり、像域判別部102は、隣接状態判定
部105と、ディザ判定部106と、5×11マトリッ
クスメモリ回路107と、判定データ生成部108と、
判別データ信号生成部114とを備える。以下、像域判
別部102における処理の特徴について説明する。
(5) Image area discriminator (5-1) Configuration and operation of each section FIGS. 5 to 19 are block diagrams of the image area discriminator 102 shown in FIG. An adjacent state determining unit 105, a dither determining unit 106, a 5×11 matrix memory circuit 107, a determination data generating unit 108,
and a discrimination data signal generation section 114. The characteristics of the processing in the image area determination unit 102 will be described below.

【0037】図32に、文字画像を読み取った後、所定
のしきい値を用いて2値化したときに得られる非中間調
画像の一例を示し、図33に、均一濃度チャートを読み
取った後、誤差拡散法で2値化したときに得られる擬似
中間調2値化画像の一例を示す。また、図34に、写真
画像を読み取った後、スクリーン角が0度のドット集中
型組織的ディザ法で2値化したときに得られる擬似中間
調2値化画像の一例を示し、図35に、写真画像を読み
取った後、スクリーン角が45度のドット集中型組織的
ディザ法で2値化したときに得られる擬似中間調2値化
画像の一例を示す。以下においては、説明の便宜上、図
33に示す画像を分散型中間調画像といい、図34及び
図35に示す画像を集中型中間調画像という。また、図
34の画像を集中型第1ディザ画像といい、図35の画
像を集中型第2ディザ画像という。
FIG. 32 shows an example of a non-halftone image obtained when a character image is read and then binarized using a predetermined threshold, and FIG. 33 shows an example of a non-halftone image obtained after reading a uniform density chart. , shows an example of a pseudo-halftone binarized image obtained when binarized using the error diffusion method. Furthermore, FIG. 34 shows an example of a pseudo-halftone binarized image obtained when a photographic image is read and binarized using the dot concentrated systematic dithering method with a screen angle of 0 degrees. , shows an example of a pseudo-halftone binarized image obtained when a photographic image is read and binarized using a dot concentrated systematic dithering method with a screen angle of 45 degrees. In the following, for convenience of explanation, the image shown in FIG. 33 will be referred to as a distributed halftone image, and the images shown in FIGS. 34 and 35 will be referred to as a concentrated halftone image. Further, the image in FIG. 34 is referred to as a concentrated first dither image, and the image in FIG. 35 is referred to as a concentrated second dither image.

【0038】本実施例においては、入力された画像デー
タの画像が分散型中間調画像であるか否かを判定するた
めの処理を隣接状態判定部105で行い、一方、入力さ
れた画像データの画像が集中型中間調画像であるか否か
を判定するための処理をディザ判定部106で行なう。 また、隣接状態判定部105は、図32の画像と図33
の画像との区別の判定を行っている。図32と図33に
おける各ウィンドウW7内においては、同一の画素数の
黒画素が存在しており、当該ウィンドウW7において各
画像の画像濃度は同一であるといえる。これらウィンド
ウW7内の各画像間の大きな相違点は、少数画素の主走
査方向及び副走査方向(以下、主副走査方向という。)
の隣接状態である。ここで、少数画素とは、所定のウィ
ンドウ内において、白画素と黒画素のうちで個数の少な
い方の画素をいい、図32及び図33の例では、少数画
素は黒画素である。
In this embodiment, the adjacent state determining section 105 performs processing for determining whether or not the image of the input image data is a distributed halftone image. A dither determination unit 106 performs processing to determine whether the image is a concentrated halftone image. Further, the adjacent state determining unit 105 uses the image of FIG. 32 and the image of FIG.
It is determined whether the image is different from the one shown in the image. In each window W7 in FIGS. 32 and 33, there are the same number of black pixels, and it can be said that the image density of each image in the window W7 is the same. The major difference between the images in window W7 is the main scanning direction and sub-scanning direction (hereinafter referred to as the main/sub-scanning direction) of a small number of pixels.
is the adjacent state. Here, the minority pixel refers to the smaller number of white pixels and black pixels within a predetermined window, and in the examples of FIGS. 32 and 33, the minority pixel is the black pixel.

【0039】また、少数画素から主副走査方向の4方向
のいずれかに、上記少数画素と同一種の画素で連結して
いる少数画素の総数を、以下、4方向の隣接数という。 一般に、7×7のウィンドウ内における黒画素数に対す
る主副走査方向の4方向の隣接数のグラフにおいて、中
間調画像領域と非中間調画像領域は、図36のように区
分されて示される。図36から明らかなように、所定の
ウィンドウ内において、黒画素数と白画素数が等しくな
るとき、各画像領域の境界線上のしきい値を示す4方向
の隣接数が大きくなり、当該しきい値よりも大きい4方
向の隣接数のときに非中間調画像が存在し、当該しきい
値よりも小さい4方向の隣接数のときに非中間調画像が
存在する。従って、本実施例においては、図16に示す
テーブル用ROM156に当該しきい値データを格納し
、比較器157によって4方向の隣接数、すなわち主副
走査方向の隣接数と上記テーブル用ROM156から出
力されるしきい値とを比較することによって上記各画像
領域の判別を行っている。
Further, the total number of minority pixels connected in any of the four directions from the minority pixels to the main and sub-scanning directions by pixels of the same type as the minority pixels is hereinafter referred to as the number of adjacent pixels in the four directions. Generally, in a graph of the number of black pixels in a 7×7 window and the number of adjacent pixels in four directions in the main and sub-scanning directions, a halftone image area and a non-halftone image area are shown separated as shown in FIG. As is clear from FIG. 36, when the number of black pixels and the number of white pixels become equal within a predetermined window, the number of neighbors in four directions indicating the threshold on the boundary line of each image area increases, and the threshold A non-halftone image exists when the number of neighbors in four directions is larger than the value, and a non-halftone image exists when the number of neighbors in four directions is smaller than the threshold value. Therefore, in this embodiment, the threshold data is stored in the table ROM 156 shown in FIG. The above-mentioned image areas are discriminated by comparing the threshold values.

【0040】さらに、本実施例において、集中型中間調
画像の判別は、主走査方向又は副走査方向に対するその
画像濃度の変化の周期性、すなわち周辺分布特性を用い
て行なう。ドット集中型組織的ディザ法の種類は理論的
には無限であるが、現実には、画像読取装置の階調数と
、画像記録装置の解像度とから、限られた種類のディザ
法しか実用になっていない。従って、本実施例において
は、図34の集中型第1ディザ画像と図35の集中型第
2ディザ画像とを判別の対象とする。
Furthermore, in this embodiment, a concentrated halftone image is determined using the periodicity of the change in image density in the main scanning direction or the sub-scanning direction, that is, the peripheral distribution characteristic. The number of dot-concentrated systematic dithering methods is theoretically infinite, but in reality, only a limited number of dithering methods are practical due to the number of gradations in the image reading device and the resolution of the image recording device. is not. Therefore, in this embodiment, the first concentrated dither image shown in FIG. 34 and the second concentrated dither image shown in FIG. 35 are to be determined.

【0041】前者の集中型第1ディザ画像を判別するた
めに、図37と図38に示す8個ずつのウィンドウを用
いる。なお、図37及び図38並びに以下の図において
、*は注目画素を示している。図37に示すように、副
走査方向に連続する7個の各画素データD007乃至D
607内の黒画素数の計数値データをデータS10とし
、また、副走査方向に連続する7個の各画素データD0
08乃至D608内の黒画素数の計数値データをデータ
S11とし、以下同様にして、データS12乃至S17
を定義する。さらに、図38に示すように、主走査方向
に連続する7個の各画素データD007乃至D013内
の黒画素数の計数値データをデータS20とし、また、
主走査方向に連続する7個の各画素データD107乃至
D113内の黒画素数の計数値データをデータS21と
し、以下同様にして、データS22乃至S27を定義す
る。これらのデータの主走査方向又は副走査方向におけ
る計数された黒画素数の周辺分布は、一般に図41に示
すようになる。なお、図41においてXは、1又は2の
数である。
In order to determine the former concentrated type first dither image, eight windows each shown in FIGS. 37 and 38 are used. Note that in FIGS. 37 and 38 and the following figures, * indicates a pixel of interest. As shown in FIG. 37, each of seven pixel data D007 to D continuous in the sub-scanning direction
The count value data of the number of black pixels in 607 is data S10, and each of the seven consecutive pixel data D0 in the sub-scanning direction
The count value data of the number of black pixels in 08 to D608 is set as data S11, and in the same manner, data S12 to S17 are set as data S11.
Define. Furthermore, as shown in FIG. 38, the count value data of the number of black pixels in each of the seven pixel data D007 to D013 continuous in the main scanning direction is set as data S20, and
The count value data of the number of black pixels in each of the seven consecutive pixel data D107 to D113 in the main scanning direction is defined as data S21, and the following data S22 to S27 are defined in the same manner. The peripheral distribution of the counted number of black pixels in the main scanning direction or sub-scanning direction of these data is generally as shown in FIG. Note that in FIG. 41, X is the number 1 or 2.

【0042】また、後者の集中型第2ディザ画像を判別
するために、図39と図40に示す8個ずつのウィンド
ウを用いる。図39に示すように、主走査方向及び副走
査方向の両方向に対して45度だけ斜めに傾斜した右上
から左下への斜め方向(以下、第1の斜め方向という。 )に連続する7個の各画素データD006乃至D600
内の黒画素数の計数値データをデータS30とし、また
、第1の斜め方向に連続する7個の各画素データD00
8乃至D602内の黒画素数の計数値データをデータS
31とし、以下同様にして、データS32乃至S37を
定義する。さらに、図40に示すように、主走査方向及
び副走査方向の両方向に対して45度だけ斜めに傾斜し
た左上から右下への斜め方向(以下、第2の斜め方向と
いう。)に連続する7個の各画素データD000乃至D
606内の黒画素数の計数値データをデータS40とし
、また、第2の斜め方向に連続する7個の各画素データ
D002乃至D608内の黒画素数の計数値データをデ
ータS41とし、以下同様にして、データS42乃至S
47を定義する。当該集中型第2ディザ画像の判別につ
いても、上述の集中型第1ディザ画像の判別と同様に、
周辺分布特性に基づいて行う。
Furthermore, in order to discriminate the latter concentrated second dither image, eight windows each shown in FIGS. 39 and 40 are used. As shown in FIG. 39, seven consecutive images are formed in a diagonal direction from the upper right to the lower left (hereinafter referred to as the first diagonal direction) that is inclined at an angle of 45 degrees with respect to both the main scanning direction and the sub-scanning direction. Each pixel data D006 to D600
The count value data of the number of black pixels within is data S30, and each of the seven consecutive pixel data D00 in the first diagonal direction
The count value data of the number of black pixels in 8 to D602 is data S.
31, and data S32 to S37 are defined in the same manner. Furthermore, as shown in FIG. 40, the continuous diagonal direction from the upper left to the lower right (hereinafter referred to as the second diagonal direction) is inclined at an angle of 45 degrees with respect to both the main scanning direction and the sub-scanning direction. Each of the seven pixel data D000 to D
The count value data of the number of black pixels in 606 is designated as data S40, and the count value data of the number of black pixels in each of the seven consecutive pixel data D002 to D608 in the second diagonal direction is designated as data S41, and the same applies hereinafter. and data S42 to S
Define 47. Regarding the discrimination of the concentrated second dithered image, similar to the discrimination of the above-mentioned concentrated first dithered image,
This is done based on the marginal distribution characteristics.

【0043】(5−2)ディザ判定部 図3に図示したディザ判定部106は、図5の第1計算
部106aと、図6の第2計算部106bと、図8の第
3計算部106cと、図9の第4計算部106dと、図
10の第5計算部106eと、図11の第6計算部10
6f、図12の第7計算部106gとを備える。なお、
図5以降の図面において、各データバスの記号に近接し
てビット数の表示を行い、また、ビット数の表示におい
て、例えば、7(S1)とあるのは、1ビットの符号ビ
ットを含む7ビットのデータバスであることを示す。
(5-2) Dither judgment unit The dither judgment unit 106 shown in FIG. 3 includes the first calculation unit 106a in FIG. 5, the second calculation unit 106b in FIG. , the fourth calculation unit 106d in FIG. 9, the fifth calculation unit 106e in FIG. 10, and the sixth calculation unit 10 in FIG.
6f, and a seventh calculation unit 106g in FIG. In addition,
In the drawings after FIG. 5, the number of bits is displayed adjacent to the symbol of each data bus, and in the display of the number of bits, for example, 7 (S1) means 7 (S1) including 1 sign bit. Indicates a bit data bus.

【0044】図5はディザ判定部106の第1計算部1
06aのブロック図であり、図6はディザ判定部106
の第2計算部106bのブロック図である。これら第1
及び第2計算部106a,106bにおいて、7ビット
の画素データに基づいて当該画素データに含まれる黒画
素数を示す3ビットのデータを出力する32個の論理B
回路LB−10乃至LB−17,LB−20乃至LB−
27,LB−30乃至LB−37,LB−40乃至LB
−47を備えて、それぞれデータS10乃至S17,S
20乃至S27,S30乃至S37,S40乃至S47
を生成する。
FIG. 5 shows the first calculation section 1 of the dither judgment section 106.
06a, and FIG. 6 is a block diagram of the dither determination unit 106.
It is a block diagram of the 2nd calculation part 106b of. These first
And in the second calculation units 106a and 106b, 32 logic B outputs 3-bit data indicating the number of black pixels included in the pixel data based on the 7-bit pixel data.
Circuits LB-10 to LB-17, LB-20 to LB-
27, LB-30 to LB-37, LB-40 to LB
-47, respectively, and data S10 to S17, S
20 to S27, S30 to S37, S40 to S47
generate.

【0045】図7は、図5及び図6に図示した論理B回
路LBのブロック図であり、以下の図18並びに図20
乃至図23に図示した論理B回路LBも同様の構成を有
する。
FIG. 7 is a block diagram of the logic B circuit LB shown in FIGS. 5 and 6, and is similar to FIGS. 18 and 20 below.
Logic B circuit LB shown in FIGS. 23 to 23 also has a similar configuration.

【0046】図7に示すように、論理B回路LBは、入
力される7ビットのデータD1乃至D7に対して所定の
論理B演算を行った後、上記入力された7ビットのデー
タの“1”(黒画素)のビット数を示す演算結果の3ビ
ットのデータQ1,Q2,Q3を出力する論理回路であ
って、それぞれ次の「数2」と「数3」で表される論理
演算(以下、論理A演算という。)を行なう2個の論理
A回路LA−1,LA−2と、1個の加算器AD1とを
備える。
As shown in FIG. 7, the logic B circuit LB performs a predetermined logic B operation on the input 7-bit data D1 to D7, and then converts the input 7-bit data to "1". This is a logic circuit that outputs 3-bit data Q1, Q2, and Q3 as a result of an operation indicating the number of bits of a black pixel (black pixel), and performs logical operations ( It includes two logic A circuits LA-1 and LA-2 that perform a logic A operation (hereinafter referred to as logic A operation), and one adder AD1.

【0047】[0047]

【数2】[Math 2]

【数3】[Math 3]

【0048】最下位3ビットのデータD1乃至D3は論
理A回路LA−1に入力され、上記データD1乃至D3
のすぐ上位の3ビットのデータD4乃至D6は論理A回
路LA−2に入力され、最上位1ビットのデータD7は
加算器AD1のキャリーイン端子CIに入力され、各論
理A回路LA−1,LA−2は入力される3ビットのデ
ータに対して上記論理A演算を行った後、演算結果の2
ビットのデータを加算器AD1に出力する。加算器AD
1は、入力された2つの各2ビットのデータを加算し、
加算結果の3ビットのデータQ1,Q2,Q3を出力す
る。
The least significant three bits of data D1 to D3 are input to the logic A circuit LA-1, and the data D1 to D3 are input to the logic A circuit LA-1.
The most significant 3 bits of data D4 to D6 are input to the logic A circuit LA-2, and the most significant 1 bit of data D7 is input to the carry-in terminal CI of the adder AD1. LA-2 performs the above logic A operation on the input 3-bit data, and then calculates the 2
Bit data is output to adder AD1. Adder AD
1 adds the two input 2-bit data,
The 3-bit data Q1, Q2, Q3 of the addition result is output.

【0049】図8は、ディザ判定部106の第3計算部
106cのブロック図である。図8に示すように、デー
タS10乃至S16が加算器AD11乃至AD16によ
って加算され、加算結果である7×7黒画素数第1デー
タが加算器AD16から、比較器CM1の入力端子Aと
各加算器AD17,AD18の各入力端子Aと図16の
隣接状態判定部105の第3計算部105cに出力され
る。加算器AD17は上記7×7黒画素数第1データと
データS17とを加算し、加算結果のデータS1Aを図
11のディザ判定部106の第6計算部106fに出力
する。また、加算器AD18は上記7×7黒画素数第1
データとデータS20とを加算し、加算結果のデータS
2Aを図11のディザ判定部106の第6計算部106
fに出力する。さらに、比較器CM1は、上記計算され
た7×7黒画素数第1データと“24”のデータとを比
較し、7×7黒画素数第1データが“24”よりも大き
いとき少数画素が白画素であることを示すHレベルの白
黒選択信号SEL1を隣接状態判定部105の第1計算
部105aに出力し、一方、7×7黒画素数第1データ
が“24”に等しいか又は小さいとき少数画素が黒画素
であることを示すLレベルの白黒選択信号SEL1を同
様に出力する。
FIG. 8 is a block diagram of the third calculation section 106c of the dither determination section 106. As shown in FIG. 8, the data S10 to S16 are added by the adders AD11 to AD16, and the 7×7 black pixel number first data, which is the addition result, is sent from the adder AD16 to the input terminal A of the comparator CM1 and each addition. It is output to each input terminal A of the devices AD17 and AD18 and the third calculation unit 105c of the adjacent state determination unit 105 in FIG. The adder AD17 adds the 7×7 black pixel number first data and the data S17, and outputs the addition result data S1A to the sixth calculation unit 106f of the dither determination unit 106 in FIG. Further, the adder AD18 is connected to the first 7×7 black pixel number.
Add the data and data S20, and add the data S20.
2A in the sixth calculation unit 106 of the dither determination unit 106 in FIG.
Output to f. Further, the comparator CM1 compares the 7×7 black pixel number first data calculated above with the data of “24”, and when the 7×7 black pixel number first data is larger than “24”, it is a minority pixel. outputs an H-level black and white selection signal SEL1 indicating that the pixel is a white pixel to the first calculation unit 105a of the adjacent state determination unit 105, while determining whether the 7×7 black pixel number first data is equal to “24” or When it is small, a monochrome selection signal SEL1 of L level indicating that the minority pixels are black pixels is similarly output.

【0050】図9は、ディザ判定部106の第4計算部
106dのブロック図である。図9に示すように、デー
タS30乃至S37が加算器AD21乃至AD27によ
って加算され、加算結果のデータS3Aが加算器AD2
7からディザ判定部106の第7計算部106gに出力
される。
FIG. 9 is a block diagram of the fourth calculation section 106d of the dither determination section 106. As shown in FIG. 9, data S30 to S37 are added by adders AD21 to AD27, and data S3A as a result of addition is added to adder AD2.
7 to the seventh calculation unit 106g of the dither determination unit 106.

【0051】図10は、ディザ判定部106の第5計算
部106eのブロック図である。図10に示すように、
データS40乃至S47が加算器AD31乃至AD37
によって加算され、加算結果のデータS4Aが加算器A
D37からディザ判定部106の第7計算部106gに
出力される。
FIG. 10 is a block diagram of the fifth calculating section 106e of the dither determining section 106. As shown in Figure 10,
Data S40 to S47 are added to adders AD31 to AD37
and the addition result data S4A is added by adder A.
The signal is output from D37 to the seventh calculation unit 106g of the dither determination unit 106.

【0052】図11は、ディザ判定部106の第6計算
部106fのブロック図である。
FIG. 11 is a block diagram of the sixth calculation section 106f of the dither judgment section 106.

【0053】図11に示すように、データS10乃至S
17がそれぞれ乗算器MU10乃至MU17に入力され
、各データが8倍された後、乗算結果の各データがそれ
ぞれ比較器CM10乃至CM17の各入力端子Aに出力
される。一方、データS1Aが比較器CM10乃至CM
17の各入力端子Bに入力され、各比較器CM10乃至
CM17は、各入力端子A,Bに入力された各データを
比較しA>BであるときHレベルの信号を、集中型第1
ディザ画像の判定を行うためのテーブル用ROMRT1
の各アドレス端子A7乃至A0に出力し、A≦Bである
ときLレベルの信号を同様に出力する。ROMRT1は
、集中型第1ディザ画像であると判定するときHレベル
の信号をアンドゲートAND1の第1の入力端子に出力
し、一方、集中型第1ディザ画像でないと判定するとき
Lレベルの信号を同様に出力する。
As shown in FIG. 11, data S10 to S
17 are respectively input to multipliers MU10 to MU17, and after each data is multiplied by 8, each data of the multiplication result is outputted to each input terminal A of comparators CM10 to CM17, respectively. On the other hand, data S1A is transmitted from comparators CM10 to CM
Each comparator CM10 to CM17 compares each data inputted to each input terminal A and B, and when A>B, outputs an H level signal to the centralized first input terminal B.
ROMRT1 for table to judge dithered image
is output to each address terminal A7 to A0, and when A≦B, an L level signal is similarly output. ROMRT1 outputs an H level signal to the first input terminal of AND gate AND1 when determining that the image is a concentrated first dither image, and outputs an L level signal when determining that it is not a concentrated first dither image. Similarly output.

【0054】また、データS20乃至S27がそれぞれ
乗算器MU20乃至MU27に入力され、各データが8
倍された後、乗算結果の各データがそれぞれ比較器CM
20乃至CM27の各入力端子Aに出力される。一方、
データS2Aが比較器CM20乃至CM27の各入力端
子Bに入力され、各比較器CM20乃至CM27は、各
入力端子A,Bに入力された各データを比較しA>Bで
あるときHレベルの信号を、集中型第1ディザ画像の判
定を行うためのテーブル用ROMRT2の各アドレス端
子A7乃至A0に出力し、A≦BであるときLレベルの
信号を同様に出力する。ROMRT2は、集中型第1デ
ィザ画像であると判定するときHレベルの信号をアンド
ゲートAND1の第2の入力端子に出力し、一方、集中
型第1ディザ画像でないと判定するときLレベルの信号
を同様に出力する。
Further, data S20 to S27 are input to multipliers MU20 to MU27, respectively, and each data is
After being multiplied, each data of the multiplication result is sent to the comparator CM.
It is output to each input terminal A of CM20 to CM27. on the other hand,
Data S2A is input to each input terminal B of comparators CM20 to CM27, and each comparator CM20 to CM27 compares each data input to each input terminal A and B, and when A>B, an H level signal is output. is outputted to each address terminal A7 to A0 of the table ROMRT2 for determining the concentrated first dither image, and when A≦B, an L level signal is similarly outputted. ROMRT2 outputs an H level signal to the second input terminal of AND gate AND1 when determining that the image is a concentrated first dither image, and outputs an L level signal when determining that it is not a concentrated first dither image. Similarly output.

【0055】さらに、アンドゲートAND1は入力され
る各信号の論理積の結果を示す集中型第1ディザ検出信
号を判定データの1つとして図17の5×11マトリッ
クスメモリ回路107に出力する。
Furthermore, the AND gate AND1 outputs the concentrated first dither detection signal indicating the result of ANDing the input signals as one of the determination data to the 5×11 matrix memory circuit 107 of FIG.

【0056】当該第6計算部106fでは、図38と図
39に図示した各ウィンドウ内の黒画素数とそれらの平
均黒画素数との大小関係を比較器CM10乃至CM17
,CM20乃至27で求め、図41の周辺分布特性を参
照して上述したように、そうして得られた大小関係を示
すデータをテーブル用ROMRT1,RT2で検索する
ことによって、主走査方向と副走査方向の両方向に対し
て集中型第1ディザ画像であるか否かを判定している。 次いで、両方向に対して集中型第1ディザ画像であると
判定したのみHレベルの集中型第1データ検出信号を出
力する。
The sixth calculation unit 106f uses comparators CM10 to CM17 to determine the magnitude relationship between the number of black pixels in each window shown in FIGS. 38 and 39 and their average number of black pixels.
, CM20 to CM27, and as described above with reference to the peripheral distribution characteristics in FIG. It is determined whether the image is a concentrated first dither image in both directions of the scanning direction. Next, a concentrated first data detection signal of H level is outputted only when it is determined that the image is a concentrated first dithered image in both directions.

【0057】図12は、ディザ判定部106の第7計算
部106gのブロック図である。
FIG. 12 is a block diagram of the seventh calculation section 106g of the dither determination section 106.

【0058】図12に示すように、データS30乃至S
37がそれぞれ乗算器MU30乃至MU37に入力され
、各データが8倍された後、乗算結果の各データがそれ
ぞれ比較器CM30乃至CM37の各入力端子Aに出力
される。一方、データS3Aが比較器CM30乃至CM
37の各入力端子Bに入力され、各比較器CM30乃至
CM37は、各入力端子A,Bに入力された各データを
比較しA>BであるときHレベルの信号を、集中型第2
ディザ画像の判定を行うためのテーブル用ROMRT3
の各アドレス端子A7乃至A0に出力し、A≦Bである
ときLレベルの信号を同様に出力する。ROMRT3は
、集中型第2ディザ画像であると判定するときHレベル
の信号をアンドゲートAND2の第1の入力端子に出力
し、一方、集中型第2ディザ画像でないと判定するとき
Lレベルの信号を同様に出力する。
As shown in FIG. 12, data S30 to S
37 are respectively input to multipliers MU30 to MU37, and after each data is multiplied by 8, each data of the multiplication result is output to each input terminal A of comparators CM30 to CM37, respectively. On the other hand, data S3A is from comparators CM30 to CM
Each comparator CM30 to CM37 compares each data inputted to each input terminal A and B, and when A>B, outputs an H level signal to the centralized second input terminal B.
ROMRT3 for table to judge dithered image
is output to each address terminal A7 to A0, and when A≦B, an L level signal is similarly output. ROMRT3 outputs an H level signal to the first input terminal of the AND gate AND2 when determining that the image is a concentrated second dither image, and outputs an L level signal when determining that it is not a concentrated second dither image. Similarly output.

【0059】また、データS40乃至S47がそれぞれ
乗算器MU40乃至MU47に入力され、各データが8
倍された後、乗算結果の各データがそれぞれ比較器CM
40乃至CM47の各入力端子Aに出力される。一方、
データS4Aが比較器CM40乃至CM47の各入力端
子Bに入力され、各比較器CM40乃至CM47は、各
入力端子A,Bに入力された各データを比較しA>Bで
あるときHレベルの信号を、集中型第2ディザ画像の判
定を行うためのテーブル用ROMRT4の各アドレス端
子A7乃至A0に出力し、A≦BであるときLレベルの
信号を同様に出力する。ROMRT4は、集中型第2デ
ィザ画像であると判定するときHレベルの信号をアンド
ゲートAND2の第2の入力端子に出力し、一方、集中
型第2ディザ画像でないと判定するときLレベルの信号
を同様に出力する。
Further, data S40 to S47 are input to multipliers MU40 to MU47, respectively, and each data is
After being multiplied, each data of the multiplication result is sent to the comparator CM.
It is output to each input terminal A of CM40 to CM47. on the other hand,
Data S4A is input to each input terminal B of comparators CM40 to CM47, and each comparator CM40 to CM47 compares each data input to each input terminal A and B, and when A>B, an H level signal is input. is outputted to each address terminal A7 to A0 of the table ROMRT4 for determining the concentrated second dither image, and when A≦B, an L level signal is similarly outputted. ROMRT4 outputs an H level signal to the second input terminal of the AND gate AND2 when determining that the image is a concentrated second dither image, and outputs an L level signal when determining that it is not a concentrated second dither image. Similarly output.

【0060】さらに、アンドゲートAND2は入力され
る各信号の論理積の結果を示す集中型第2ディザ検出信
号を判定データの1つとして図17の5×11マトリッ
クスメモリ回路107に出力する。
Furthermore, the AND gate AND2 outputs the concentrated second dither detection signal indicating the result of the AND of the input signals as one of the determination data to the 5×11 matrix memory circuit 107 of FIG.

【0061】当該第7計算部106gでは、図40と図
41に図示した各ウィンドウ内の黒画素数とそれらの平
均黒画素数との大小関係を比較器CM30乃至CM37
,CM40乃至47で求め、図41の周辺分布特性を参
照して上述したように、そうして得られた大小関係を示
すデータをテーブル用ROMRT3,RT4で検索する
ことによって、第1の斜め方向と第2の斜め方向の両方
向に対して集中型第2ディザ画像であるか否かを判定し
ている。次いで、両方向に対して集中型第2ディザ画像
であると判定したのみHレベルの集中型第2データ検出
信号を出力する。
The seventh calculation unit 106g uses comparators CM30 to CM37 to determine the magnitude relationship between the number of black pixels in each window shown in FIGS. 40 and 41 and the average number of black pixels.
, CM40 to CM47, and as described above with reference to the marginal distribution characteristics in FIG. It is determined whether or not the image is a concentrated second dither image in both directions, ie, the second diagonal direction and the second diagonal direction. Next, a concentrated second data detection signal of H level is outputted only when the image is determined to be a concentrated second dithered image in both directions.

【0062】(5−3)隣接状態判定部図3に図示した
隣接状態判定部105は、図13の第1計算部105a
と、図15の第2計算部105bと、図16の第3計算
部106cとを備える。
(5-3) Adjacent state determining unit The adjacent state determining unit 105 shown in FIG.
, a second calculation section 105b shown in FIG. 15, and a third calculation section 106c shown in FIG. 16.

【0063】本実施例において、少数画素の主副走査方
向の4方向の隣接数は、図42及び図43に示す矢印が
示す各画素間の隣接箇所を計数することによって求める
。ここで、主走査方向又は副走査方向の各1走査線上の
隣接数を計数するために、図14に示す主副走査方向隣
接数カウンタ(以下、隣接数カウンタという。)CAを
用いる。
In this embodiment, the number of adjacent pixels in the four directions of the main and sub-scanning directions of a small number of pixels is determined by counting the adjacent locations between each pixel indicated by the arrows shown in FIGS. 42 and 43. Here, in order to count the number of adjacent lines on each scanning line in the main scanning direction or the sub-scanning direction, a main/sub-scanning direction adjacent number counter (hereinafter referred to as an adjacent number counter) CA shown in FIG. 14 is used.

【0064】図13は、図3に図示した隣接状態判定部
105の第1計算部105aのブロック図である。図1
3に示すように、各隣接数カウンタCA−1乃至CA−
7,CA−11乃至CA−17に白黒選択信号SEL1
が入力される。
FIG. 13 is a block diagram of the first calculation section 105a of the adjacent state determination section 105 shown in FIG. Figure 1
3, each adjacent number counter CA-1 to CA-
7, Black and white selection signal SEL1 to CA-11 to CA-17
is input.

【0065】主走査方向に連続する7個の画素データD
007乃至D013が隣接数カウンタCA−1に入力さ
れて少数画素の隣接数が計数された後加算器AD41に
出力され、主走査方向に連続する7個の画素データD1
07乃至D113が隣接数カウンタCA−2に入力され
て少数画素の隣接数が計数された後加算器AD41に出
力され、主走査方向に連続する7個の画素データD20
7乃至D213が隣接数カウンタCA−3に入力されて
少数画素の隣接数が計数された後加算器AD42に出力
され、主走査方向に連続する7個の画素データD307
乃至D313が隣接数カウンタCA−4に入力されて少
数画素の隣接数が計数された後加算器AD42に出力さ
れる。また、主走査方向に連続する7個の画素データD
407乃至D413が隣接数カウンタCA−5に入力さ
れて少数画素の隣接数が計数された後加算器AD44に
出力され、主走査方向に連続する7個の画素データD5
07乃至D513が隣接数カウンタCA−6に入力され
て少数画素の隣接数が計数された後加算器AD44に出
力され、主走査方向に連続する7個の画素データD60
7乃至D613が隣接数カウンタCA−7に入力されて
少数画素の隣接数が計数された後加算器AD45に出力
される。
Seven consecutive pixel data D in the main scanning direction
007 to D013 are inputted to the adjacent number counter CA-1 to count the number of adjacent pixels of a minority pixel, and then outputted to the adder AD41, and seven consecutive pixel data D1 in the main scanning direction are inputted to the adjacent number counter CA-1.
07 to D113 are inputted to the adjacent number counter CA-2 to count the number of adjacent pixels of a minority pixel, and then outputted to the adder AD41, and seven consecutive pixel data D20 in the main scanning direction are inputted to the adjacent number counter CA-2.
7 to D213 are inputted to the adjacent number counter CA-3 to count the number of adjacent pixels of a minority pixel, and then outputted to the adder AD42, and seven consecutive pixel data D307 in the main scanning direction are inputted to the adjacent number counter CA-3.
D313 to D313 are input to an adjacent number counter CA-4, the number of adjacent pixels of a minority pixel is counted, and then outputted to an adder AD42. In addition, seven pixel data D continuous in the main scanning direction
407 to D413 are inputted to the adjacent number counter CA-5 to count the number of adjacent pixels of a minority pixel, and then outputted to the adder AD44, and seven consecutive pixel data D5 in the main scanning direction are inputted to the adjacent number counter CA-5.
07 to D513 are inputted to the adjacent number counter CA-6 to count the number of adjacent pixels of a minority pixel, and then outputted to the adder AD44, and seven consecutive pixel data D60 in the main scanning direction are inputted to the adjacent number counter CA-6.
7 to D613 are input to an adjacent number counter CA-7, the number of adjacent pixels of a minority pixel is counted, and then outputted to an adder AD45.

【0066】また、副走査方向に連続する7個の画素デ
ータD007乃至D607が隣接数カウンタCA−11
に入力されて少数画素の隣接数が計数された後加算器A
D45に出力され、副走査方向に連続する7個の画素デ
ータD008乃至D608が隣接数カウンタCA−12
に入力されて少数画素の隣接数が計数された後加算器A
D51に出力され、副走査方向に連続する7個の画素デ
ータD009乃至D609が隣接数カウンタCA−13
に入力されて少数画素の隣接数が計数された後加算器A
D51に出力され、副走査方向に連続する7個の画素デ
ータD010乃至D610が隣接数カウンタCA−14
に入力されて少数画素の隣接数が計数された後加算器A
D52に出力される。さらに、副走査方向に連続する7
個の画素データD011乃至D611が隣接数カウンタ
CA−15に入力されて少数画素の隣接数が計数された
後加算器AD52に出力され、副走査方向に連続する7
個の画素データD012乃至D612が隣接数カウンタ
CA−16に入力されて少数画素の隣接数が計数された
後加算器AD54に出力され、副走査方向に連続する7
個の画素データD013乃至D613が隣接数カウンタ
CA−17に入力されて少数画素の隣接数が計数された
後加算器AD54に出力される。
Furthermore, seven consecutive pixel data D007 to D607 in the sub-scanning direction are stored in the adjacent number counter CA-11.
Adder A after counting the number of adjacent pixels of the minority pixels.
Seven pixel data D008 to D608 that are output to D45 and continuous in the sub-scanning direction are stored in the adjacent number counter CA-12.
Adder A after counting the number of adjacent pixels of the minority pixels.
Seven pixel data D009 to D609 that are output to D51 and continuous in the sub-scanning direction are stored in the adjacent number counter CA-13.
Adder A after counting the number of adjacent pixels of the minority pixels.
Seven pixel data D010 to D610 that are output to D51 and continuous in the sub-scanning direction are stored in the adjacent number counter CA-14.
Adder A after counting the number of adjacent pixels of the minority pixels.
It is output to D52. Furthermore, 7 consecutive
The pixel data D011 to D611 are input to the adjacent number counter CA-15 to count the number of adjacent pixels of the minority pixel, and then output to the adder AD52, and the 7
The pixel data D012 to D612 are input to the adjacent number counter CA-16 to count the number of adjacent pixels of the minority pixel, and then output to the adder AD54, and the 7
The pixel data D013 to D613 are input to the adjacent number counter CA-17, and the number of adjacent pixels of the minority pixels is counted and then output to the adder AD54.

【0067】上記各隣接数カウンタCA−1乃至CA−
7乃至CA−11乃至CA−17によって計数された各
少数画素の隣接数は、加算器AD41乃至AD47,A
D51乃至AD56によって加算された後、加算結果の
主副走査方向隣接数が加算器AD56から図16の隣接
状態判定部105の第3計算部105cに出力される。
Each of the adjacent number counters CA-1 to CA-
The number of adjacent pixels of each minority pixel counted by CA-7 to CA-11 to CA-17 is calculated by adders AD41 to AD47, A
After addition by D51 to AD56, the number of adjacencies in the main and sub-scanning directions as a result of addition is output from the adder AD56 to the third calculation unit 105c of the adjacency state determination unit 105 in FIG.

【0068】図14は、図13に図示した各隣接数カウ
ンタCAのブロック図である。
FIG. 14 is a block diagram of each adjacent number counter CA shown in FIG. 13.

【0069】図14に示すように、入力される7ビット
のデータのうちの第1ビットのデータD1はアンドゲー
トAND11の第1の入力端子及びノアゲートNOR1
2の第1の反転入力端子に入力され、第2ビットのデー
タD2はアンドゲートAND11の第2の入力端子、ノ
アゲートNOR12の第2の反転入力端子、アンドゲー
トAND13の第1の入力端子、及びノアゲートNOR
14の第1の反転入力端子に入力される。また、第3ビ
ットのデータD3はアンドゲートAND13の第2の入
力端子、ノアゲートNOR14の第2の反転入力端子、
アンドゲートAND15の第1の入力端子、及びノアゲ
ートNOR16の第1の反転入力端子に入力され、第4
ビットのデータD4はアンドゲートAND15の第2の
入力端子、ノアゲートNOR16の第2の反転入力端子
、アンドゲートAND17の第1の入力端子、及びノア
ゲートNOR18の第1の反転入力端子に入力される。 さらに、第5ビットのデータD5はアンドゲートAND
17の第2の入力端子、ノアゲートNOR18の第2の
反転入力端子、アンドゲートAND9の第1の入力端子
、及びノアゲートNOR20の第1の反転入力端子に入
力され、第6ビットのデータD6はアンドゲートAND
19の第2の入力端子、ノアゲートNOR20の第2の
反転入力端子、アンドゲートAND21の第1の入力端
子、及びノアゲートNOR22の第1の反転入力端子に
入力される。またさらに、第7ビットのデータD7はア
ンドゲートAND21の第2の入力端子、及びノアゲー
トNOR22の第2の反転入力端子に入力される。
As shown in FIG. 14, the first bit data D1 of the input 7-bit data is connected to the first input terminal of the AND gate AND11 and the NOR gate NOR1.
The second bit of data D2 is input to the first inverting input terminal of AND gate AND11, the second inverting input terminal of NOR gate NOR12, the first input terminal of AND gate AND13, and Noah Gate NOR
The signal is input to the first inverting input terminal of No. 14. Further, the third bit data D3 is the second input terminal of the AND gate AND13, the second inverting input terminal of the NOR gate NOR14,
It is input to the first input terminal of the AND gate AND15 and the first inverted input terminal of the NOR gate NOR16,
The bit data D4 is input to the second input terminal of the AND gate AND15, the second inverting input terminal of the NOR gate NOR16, the first input terminal of the AND gate AND17, and the first inverting input terminal of the NOR gate NOR18. Furthermore, the data D5 of the fifth bit is AND gate AND
17, the second inverting input terminal of the NOR gate NOR18, the first input terminal of the AND gate AND9, and the first inverting input terminal of the NOR gate NOR20. gate AND
19, a second inverting input terminal of the NOR gate NOR20, a first input terminal of the AND gate AND21, and a first inverting input terminal of the NOR gate NOR22. Furthermore, the seventh bit of data D7 is input to the second input terminal of the AND gate AND21 and the second inverting input terminal of the NOR gate NOR22.

【0070】各論理ゲートAND11乃至AND21,
NOR12乃至NOR22から出力される信号はそれぞ
れ、セレクタSE11の各入力端子A1,B1,A2,
B2,A3,B3,A4,B4,A5,B5,A6,B
6に入力され、セレクタSE11は、Lレベルの白黒選
択信号SEL1が入力されるとき、少数画素である黒画
素の隣接数を計数するため、各入力端子A1乃至A6に
入力されるデータを選択してそれぞれ、各出力端子Y1
乃至Y3から論理A回路LA−11の各入力端子に出力
するとともに、各出力端子Y4乃至Y6から論理A回路
LA−12の各入力端子に出力し、一方、Hレベルの白
黒選択信号SEL1が入力されるとき、少数画素である
白画素の隣接数を計数するため、各入力端子B1乃至B
6に入力されるデータを選択してそれぞれ同様に出力す
る。各論理A回路LA−11,LA−12から出力され
る各2ビットのデータは加算器AD57に入力され、加
算器AD57によって加算された後、加算結果のデータ
が主副走査方向の隣接数計数値として出力される。
Each logic gate AND11 to AND21,
The signals output from NOR12 to NOR22 are respectively input to the input terminals A1, B1, A2, and
B2, A3, B3, A4, B4, A5, B5, A6, B
When the black and white selection signal SEL1 at the L level is input, the selector SE11 selects the data input to each input terminal A1 to A6 in order to count the number of adjacent black pixels, which are minority pixels. and each output terminal Y1
The output terminals Y3 to Y3 are output to each input terminal of the logic A circuit LA-11, and the output terminals Y4 to Y6 are output to each input terminal of the logic A circuit LA-12, while the H level black and white selection signal SEL1 is input. In order to count the number of adjacent white pixels, which are minority pixels, each input terminal B1 to B
6 is selected and output in the same way. Each 2-bit data output from each logic A circuit LA-11, LA-12 is input to an adder AD57, and after being added by the adder AD57, the data of the addition result is used to calculate the number of adjacent units in the main and sub-scanning directions. Output as a number.

【0071】図15は、隣接状態判定部105の第2計
算部105bのブロック図であり、当該第2計算部10
5bは、画素データD310を中心とする3×3のウィ
ンドウ内の黒画素数を計数するための回路である。
FIG. 15 is a block diagram of the second calculation unit 105b of the adjacent state determination unit 105.
5b is a circuit for counting the number of black pixels within a 3×3 window centered on the pixel data D310.

【0072】図15に示すように、主走査方向に連続す
る3個のデータD209乃至D211が論理A回路LA
−13に入力され、各データ内の黒画素数が計数された
後、その計数値のデータが加算器AD58に出力される
。また、主走査方向に連続する3個のデータD309乃
至D311が論理A回路LA−14に入力され、各デー
タ内の黒画素数が計数された後、その計数値のデータが
加算器AD58に出力される。さらに、主走査方向に連
続する3個のデータD409乃至D411が論理A回路
LA−15に入力され、各データ内の黒画素数が計数さ
れた後、その計数値のデータが加算器AD59に出力さ
れる。各論理A回路LA−13乃至LA−15によって
計数された各データは加算器AD58,AD59によっ
て加算され、加算結果のデータが加算器AD59から図
16の第3計算部105cに、3×3黒画素数データと
して出力される。
As shown in FIG. 15, three consecutive pieces of data D209 to D211 in the main scanning direction are connected to the logic A circuit LA.
-13, and after the number of black pixels in each data is counted, the data of the counted value is output to the adder AD58. In addition, three consecutive data D309 to D311 in the main scanning direction are input to the logic A circuit LA-14, and after the number of black pixels in each data is counted, the data of the counted value is output to the adder AD58. be done. Furthermore, three consecutive pieces of data D409 to D411 in the main scanning direction are input to the logic A circuit LA-15, and after the number of black pixels in each data is counted, the data of the counted value is output to the adder AD59. be done. Each data counted by each logic A circuit LA-13 to LA-15 is added by adders AD58 and AD59, and the data of the addition result is sent from the adder AD59 to the third calculation unit 105c in FIG. Output as pixel count data.

【0073】図16は、隣接状態判定部105の第3計
算部105cのブロック図である。
FIG. 16 is a block diagram of the third calculation section 105c of the adjacent state determination section 105.

【0074】図16に示すように、3×3黒画素数デー
タが各比較器150,151の入力端子Bに入力され、
一方、“0”のデータが比較器150の入力端子Aに入
力され、“9”のデータが比較器151の入力端子Aに
入力される。比較器150はA=BのときにのみHレベ
ルの信号をアンドゲート158の第1の入力端子に出力
し、一方、それ以外のときLレベルの信号を同様に出力
する。また、比較器151はA=BのときにのみHレベ
ルの信号をアンドゲート159の第1の入力端子に出力
し、一方、それ以外のときLレベルの信号を同様に出力
する。
As shown in FIG. 16, 3×3 black pixel number data is input to input terminal B of each comparator 150, 151,
On the other hand, data of "0" is input to input terminal A of comparator 150, and data of "9" is input to input terminal A of comparator 151. Comparator 150 outputs an H level signal to the first input terminal of AND gate 158 only when A=B, and similarly outputs an L level signal at other times. Further, the comparator 151 outputs an H level signal to the first input terminal of the AND gate 159 only when A=B, and similarly outputs an L level signal at other times.

【0075】ディザ判定部106の第3計算部106c
から出力される7×7黒画素数第1データは各比較器1
52乃至155の各入力端子Bに入力されるとともに、
中間調画像領域か又は非中間調領域かを判別するための
しきい値テーブルが格納されたテーブル用ROM156
のアドレス端子に入力される。詳細後述されるしきい値
データTJ0が比較器152の入力端子Aに入力され、
“49−TJ0”のデータが比較器153の入力端子A
に入力される。比較器152はA>BのときHレベルの
信号をアンドゲート158の第2の入力端子に出力し、
一方、それ以外のときLレベルの信号を同様に出力する
。また、比較器153はA<BのときHレベルの信号を
アンドゲート159の第2の入力端子に出力し、一方、
それ以外のときLレベルの信号を同様に出力する。 アンドゲート158,159からの各出力信号がノアゲ
ート160に入力され、当該ノアゲート160の出力信
号がアンドゲート162,163の各第1の入力端子に
入力される。
Third calculation section 106c of dither judgment section 106
The 7×7 black pixel number first data output from each comparator 1
It is input to each input terminal B from 52 to 155, and
A table ROM 156 that stores a threshold value table for determining whether it is a halftone image area or a non-halftone image area.
is input to the address terminal of Threshold data TJ0, which will be described in detail later, is input to input terminal A of the comparator 152,
The data of “49-TJ0” is input terminal A of comparator 153
is input. The comparator 152 outputs an H level signal to the second input terminal of the AND gate 158 when A>B,
On the other hand, at other times, an L level signal is similarly output. Furthermore, when A<B, the comparator 153 outputs an H level signal to the second input terminal of the AND gate 159;
In other cases, an L level signal is similarly output. Each output signal from AND gates 158 and 159 is input to NOR gate 160, and the output signal from NOR gate 160 is input to each first input terminal of AND gates 162 and 163.

【0076】また、“0”のデータが比較器154の入
力端子Aに入力され、“49”のデータが比較器155
の入力端子Aに入力される。比較器154はA=Bのと
き、Hレベルの信号をオアゲート161の第1の入力端
子に出力し、一方、それ以外のとき、Lレベルの信号を
同様に出力する。また、比較器155はA=Bのとき、
Hレベルの信号をオアゲート161の第2の入力端子に
出力し、一方、それ以外のとき、Lレベルの信号を同様
に出力する。オアゲート161は入力される各信号の論
理和の演算結果を示す信号を、7×7のウィンドウ内の
すべての画素が白画素又は黒画素であることを示す全白
全黒画像検出信号として5×11マトリックスメモリ回
路107に出力する。
Furthermore, data of "0" is input to the input terminal A of the comparator 154, and data of "49" is input to the input terminal A of the comparator 155.
It is input to input terminal A of . Comparator 154 outputs an H level signal to the first input terminal of OR gate 161 when A=B, and similarly outputs an L level signal at other times. Further, when A=B, the comparator 155
An H level signal is output to the second input terminal of the OR gate 161, while an L level signal is similarly output at other times. The OR gate 161 converts a signal indicating the logical sum of the input signals into an all-white all-black image detection signal indicating that all pixels within a 7x7 window are white pixels or black pixels. 11 matrix memory circuit 107.

【0077】テーブル用ROM156から出力されるし
きい値データは比較器157の入力端子Aに入力され、
一方、主副走査方向隣接数が比較器157の入力端子B
に入力される。図36を参照して上述したように7×7
のウィンドウ内の領域の画像が中間調画像であるか非中
間調画像であるかを判別するために設けられる比較器1
57は、A>BのときHレベルの信号をアンドゲート1
62の第2の入力端子に出力するとともに、A<Bのと
きHレベルの信号をアンドゲート163の第2の入力端
子に出力する。さらに、アンドゲート162から出力さ
れる信号は中間調画像検出信号として5×11マトリッ
クスメモリ回路107に出力され、また、アンドゲート
163から出力される信号は非中間調画像検出信号とし
て5×11マトリックスメモリ回路107に出力される
The threshold data output from the table ROM 156 is input to the input terminal A of the comparator 157,
On the other hand, if the number of neighbors in the main and sub-scanning directions is input terminal B of the comparator 157
is input. 7×7 as described above with reference to FIG.
A comparator 1 provided for determining whether an image in a region within a window is a halftone image or a non-halftone image.
57, when A>B, the H level signal is connected to AND gate 1.
62 and outputs an H level signal to the second input terminal of AND gate 163 when A<B. Further, the signal outputted from the AND gate 162 is outputted as a halftone image detection signal to the 5×11 matrix memory circuit 107, and the signal outputted from the AND gate 163 is outputted as a non-halftone image detection signal to the 5×11 matrix memory circuit 107. It is output to the memory circuit 107.

【0078】当該第3計算部105cにおいては、7×
7のウィンドウ内の黒画素数第1データに基づいてテー
ブルROM156から出力されるしきい値データと、計
数された主副走査方向隣接数とに基づいて当該ウィンド
ウ内の領域の画像が中間調画像であるか又は非中間調画
像であるかの判別を、比較器157によって行っている
。しかしながら、次の2つの場合においては、その判別
結果を「不明」とし、中間調画像でもなく、非中間調画
像でもないとしている。 (a)主副走査方向隣接数としきい値データが一致する
とき、すなわち、比較器157においてA=Bであると
き。 (b)7×7のウィンドウ内に少数画素が所定のしきい
値TJ0よりも小さく(比較器152の出力信号がHレ
ベルであるとき又は比較器153の出力信号がHレベル
であるとき)、かつ注目画素を中心とした3×3のウィ
ンドウ内に少数画素が存在しない(比較器150の出力
信号がHレベルであるとき又は比較器151の出力信号
がHレベルであるとき)とき。
In the third calculation section 105c, 7×
Based on the threshold data output from the table ROM 156 based on the first data on the number of black pixels within the window No. 7 and the counted number of adjacent pixels in the main and sub-scanning directions, the image in the area within the window is a halftone image. The comparator 157 determines whether the image is a grayscale image or a non-halftone image. However, in the following two cases, the determination result is "unknown" and it is determined that the image is neither a halftone image nor a non-halftone image. (a) When the number of adjacencies in the main and sub-scanning directions matches the threshold data, that is, when A=B in the comparator 157. (b) A small number of pixels within a 7×7 window is smaller than a predetermined threshold value TJ0 (when the output signal of the comparator 152 is at H level or when the output signal of comparator 153 is at H level), And when there is no minority pixel within a 3×3 window centered on the pixel of interest (when the output signal of comparator 150 is at H level or when the output signal of comparator 151 is at H level).

【0079】上記(a)の場合に「不明」とするために
、比較器157からアンドゲート162,163にHレ
ベルの信号が入力されないように構成されている。また
、上記(b)の場合に「不明」とするために、ノアゲー
ト160から出力される、Lレベルでアクティブとなる
信号をアンドゲート162,163に入力している。
In order to determine "unknown" in the case (a) above, the comparator 157 is configured so that no H level signal is input to the AND gates 162 and 163. Furthermore, in order to indicate "unknown" in the case of (b) above, a signal output from the NOR gate 160 and active at L level is input to the AND gates 162 and 163.

【0080】上記(b)の場合に「不明」とする理由に
ついて図45及び図46を用いて以下に説明する。図4
5及び図46は、線状の非中間調画像が7×7のウィン
ドウW7に近づく場合の一例を示す図である。図45の
状態では、線状の画像の端部しかウィンドウW7内に入
らないため、孤立点との区別を行なうことができず、中
間調画像/非中間調画像の判別を行なうと、誤って中間
調画像と判別される。そこで、図46に示すように、線
状の画像がある程度、注目画素*の周辺に近付くまでは
、その判別結果はむしろ「不明」としておいた方がよい
ので、この条件判断を3×3のウィンドウW3内に少数
画素が存在するか否かによって行なう。また、この場合
において、もちろん、少数画素は上記しきい値TJ0よ
りは少ないはずであるから、その判断も同時に行ってい
る。
The reason why the above case (b) is determined as "unknown" will be explained below using FIGS. 45 and 46. Figure 4
5 and FIG. 46 are diagrams showing an example in which a linear non-halftone image approaches a 7×7 window W7. In the state shown in FIG. 45, only the edge of the linear image falls within the window W7, so it is impossible to distinguish it from isolated points, and if a halftone image/non-halftone image is discriminated, it will be mistaken. It is determined that it is a halftone image. Therefore, as shown in Figure 46, it is better to leave the determination result as "unknown" until the linear image approaches the periphery of the pixel of interest* to some extent, so this conditional determination is This is done depending on whether or not there are a few pixels within the window W3. Furthermore, in this case, of course, the number of minority pixels should be less than the threshold value TJ0, so this determination is also made at the same time.

【0081】さらに、当該計算部105cにおいては、
7×7のウィンドウW7内のすべての画素が白画素であ
るか又は黒画素であるかを比較器154,155によっ
て行い、どちらかの場合は全白全黒検出信号をHレベル
としている。当該検出信号は判別データ信号生成部11
4における集中型ディザ画像の判別に用いる。
Furthermore, in the calculation section 105c,
Comparators 154 and 155 determine whether all pixels within the 7×7 window W7 are white pixels or black pixels, and in either case, the all-white all-black detection signal is set to H level. The detection signal is generated by the discrimination data signal generation section 11
It is used for determining the concentrated dither image in step 4.

【0082】さらに、当該計算部105cにおいてしき
い値TJ0を設けた理由について以下に説明する。例え
ば図44に示すように、注目画素*周辺に少数画素がな
いが、隣接判別用の7×7のウィンドウW7内に比較的
多数の少数画素が存在するときは、中間調画像/非中間
調画像の判別を行なうことができるといえる。図44の
場合では、隣接判別用の7×7のウィンドウW7内に7
画素の少数画素が存在するが、このとき当然非中間調画
像に判別される。従って、判別結果が「不明」の条件と
して、(7×7のウィンドウW7内の少数画素数<TJ
0)かつ(3×3のウィンドウW3内に少数画素が存在
しない)という条件を用いている。この条件式が成立す
る場合は、次の2つの場合である。 (a)少数画素が白画素であるときに、各比較器150
,152の出力信号がHレベルであるとき。 (b)少数画素が黒画素であるときに、各比較器151
,153の出力信号がHレベルであるとき。 なお、本実施例において、上記しきい値TJ0の好まし
い値は6である。
Furthermore, the reason why the threshold value TJ0 is provided in the calculating section 105c will be explained below. For example, as shown in FIG. 44, when there are no minority pixels around the pixel of interest*, but there are a relatively large number of minority pixels within the 7x7 window W7 for adjacency determination, halftone image/non-halftone image It can be said that images can be discriminated. In the case of FIG. 44, there are 7
Although there are a small number of pixels, it is naturally determined that the image is a non-halftone image. Therefore, the condition for the determination result to be "unknown" is (number of minority pixels in the 7×7 window W7<TJ
0) and (there are no minority pixels within the 3×3 window W3). This conditional expression is satisfied in the following two cases. (a) When the minority pixels are white pixels, each comparator 150
, 152 are at H level. (b) When the minority pixels are black pixels, each comparator 151
, 153 are at H level. In this embodiment, the preferable value of the threshold TJ0 is 6.

【0083】(5−4)5×11マトリックスメモリ回
路 図17は、図3に図示した5×11マトリックスメモリ
回路107のブロック図である。
(5-4) 5×11 matrix memory circuit FIG. 17 is a block diagram of the 5×11 matrix memory circuit 107 shown in FIG. 3.

【0084】図17に示すように、5×11マトリック
スメモリ回路107は、それぞれページメモリ61から
入力される2値画像データの転送クロックの周期と同一
の周期、すなわち画像データの1ドットの周期を有する
クロックCLKに同期して各画素毎に検出されて入力さ
れる下記の5つの検出信号からなる5ビットの判定デー
タを、主走査方向の1回の走査時間である1水平期間だ
け遅延させる4個のFIFOメモリDM11乃至DM1
4と、それぞれ上記クロックCLKに同期して入力され
る5ビットの判定データをクロックCLKの1周期期間
だけ遅延させて出力する50個の遅延型フリップフロッ
プDG301乃至DG310,DG401乃至DG41
0,DG501乃至DG510,...,DG701乃
至DG710とを備える。なお、当該マトリックスメモ
リ回路107の各回路においては、下記の5ビットの判
定データをパラレルで処理する。 (a)図11のディザ判定部106の第6計算部106
fから出力される集中型第1ディザ検出信号(以下、判
定データAという。)。 (b)図12のディザ判定部106の第6計算部106
gから出力される集中型第2ディザ検出信号(以下、判
定データBという。)。 (c)図16の隣接状態判定部105の第3計算部10
5cから出力される中間調画像検出信号(以下、判定デ
ータCという。)。 (d)図16の隣接状態判定部105の第3計算部10
5cから出力される非中間調画像検出信号(以下、判定
データDという。)。 (e)図16の隣接状態判定部105の第3計算部10
5cから出力される全白全黒画像検出信号(以下、判定
データEという。)。
As shown in FIG. 17, each of the 5×11 matrix memory circuits 107 has the same cycle as the transfer clock cycle of the binary image data inputted from the page memory 61, that is, the cycle of one dot of the image data. The 5-bit judgment data consisting of the following 5 detection signals, which are detected and input for each pixel in synchronization with the clock CLK, is delayed by one horizontal period, which is one scan time in the main scanning direction4. FIFO memories DM11 to DM1
4, and 50 delay type flip-flops DG301 to DG310, DG401 to DG41, each delaying the 5-bit judgment data input in synchronization with the clock CLK by one cycle period of the clock CLK and outputting the same.
0, DG501 to DG510, . .. .. , DG701 to DG710. Note that each circuit of the matrix memory circuit 107 processes the following 5-bit determination data in parallel. (a) Sixth calculation unit 106 of dither determination unit 106 in FIG. 11
A concentrated first dither detection signal (hereinafter referred to as determination data A) output from f. (b) Sixth calculation unit 106 of dither determination unit 106 in FIG. 12
A concentrated second dither detection signal (hereinafter referred to as determination data B) output from g. (c) Third calculation unit 10 of adjacent state determination unit 105 in FIG. 16
Halftone image detection signal (hereinafter referred to as determination data C) output from 5c. (d) Third calculation unit 10 of adjacent state determination unit 105 in FIG. 16
A non-halftone image detection signal (hereinafter referred to as determination data D) outputted from 5c. (e) Third calculation unit 10 of adjacent state determination unit 105 in FIG. 16
All-white and all-black image detection signals (hereinafter referred to as determination data E) output from 5c.

【0085】上述の各計算回路から各ページの画像の最
初の画素から最後の画素への方向でシリアルで出力され
る5ビットの判定データは、フリップフロップDG30
1に入力された後、縦続接続された10個のフリップフ
ロップDG301乃至DG310を介して出力されると
ともに、FIFOメモリDM11に入力された後、縦続
接続された4個のFIFOメモリDM11乃至DM14
を介して出力される。FIFOメモリDM11から出力
される画像データは、フリップフロップDG401に入
力された後、縦続接続されたフリップフロップDG40
1乃至DG410を介して出力される。また、FIFO
メモリDM12から出力される画像データは、フリップ
フロップDG501に入力された後、縦続接続されたフ
リップフロップDG501乃至DG510を介して出力
される。以下、同様にして、各FIFOメモリDM13
乃至DM14から出力される判定データはそれぞれ、フ
リップフロップDG601乃至DG701に入力された
後、それぞれ縦続接続されたフリップフロップDG60
1乃至DG610,DG701乃至DG710を介して
出力される。
The 5-bit determination data serially output from each of the calculation circuits in the direction from the first pixel to the last pixel of the image of each page is sent to the flip-flop DG30.
1, and then outputted through ten cascade-connected flip-flops DG301 to DG310, and inputted to FIFO memory DM11, and then outputted to four cascade-connected FIFO memories DM11 to DM14.
Output via . The image data output from the FIFO memory DM11 is input to the flip-flop DG401, and then to the cascade-connected flip-flop DG40.
1 to DG410. Also, FIFO
The image data output from the memory DM12 is input to the flip-flop DG501, and then output via the cascade-connected flip-flops DG501 to DG510. Thereafter, in the same manner, each FIFO memory DM13
The judgment data output from DM14 is input to flip-flops DG601 to DG701, respectively, and then to flip-flops DG60 connected in cascade, respectively.
1 to DG610 and DG701 to DG710.

【0086】以上のように構成された5×11マトリッ
クスメモリ回路107において、当該回路107に最初
に入力された、1ドットの画素データに対応する5ビッ
トの判定データがフリップフロップDG710から出力
されたとき、そのときに入力された判定データが判定デ
ータJ300として出力されるとともに、各フリップフ
ロップDG301乃至DG310からそれぞれ5×11
のウィンドウ内のi=3の主走査線上の各画素データに
対応する判定データJ300乃至J310が出力され、
FIFOメモリDM11及び各フリップフロップDG4
01乃至DG410からそれぞれ5×11のウィンドウ
内のi=4の主走査線上の各画素データJ400乃至J
410が出力され、FIFOメモリDM12及び各フリ
ップフロップDG501乃至DG510からそれぞれ5
×11のウィンドウ内のi=5の主走査線上の各画素デ
ータJ500乃至J510が出力され、以下同様にして
、各FIFOメモリDM13,DM14及び各フリップ
フロップDG601乃至DG710からそれぞれ、各画
素データJ600乃至J610,J700乃至J710
が出力される。
In the 5×11 matrix memory circuit 107 configured as described above, the 5-bit judgment data corresponding to one dot of pixel data, which is first input to the circuit 107, is output from the flip-flop DG710. At this time, the judgment data inputted at that time is output as judgment data J300, and 5×11
Judgment data J300 to J310 corresponding to each pixel data on the i=3 main scanning line within the window are output,
FIFO memory DM11 and each flip-flop DG4
Each pixel data J400 to J on the i=4 main scanning line within a 5×11 window from 01 to DG410, respectively.
410 is output, and 5 is output from the FIFO memory DM12 and each flip-flop DG501 to DG510.
Each pixel data J500 to J510 on the i=5 main scanning line in the x11 window is output, and in the same way, each pixel data J600 to J510 is output from each FIFO memory DM13, DM14 and each flip-flop DG601 to DG710. J610, J700 to J710
is output.

【0087】従って、図47に示すように、5×11の
ウィンドウ内の各画素(i=3,4,…,7;j=0,
1,2,…,10)に対応する1画素当たり5ビットの
判定データA乃至Eが同時に当該マトリックスメモリ回
路107から図18の判定データ計数部108に出力さ
れる。
Therefore, as shown in FIG. 47, each pixel (i=3, 4,...,7; j=0,
1, 2, . . . , 10) are simultaneously outputted from the matrix memory circuit 107 to the determination data counting unit 108 in FIG. 18.

【0088】(5−5)判定データ生成部図18は、図
3に図示した判定データ計数部108のブロック図であ
り、本実施例では、図18に図示の回路が5ビットの判
定データA乃至Eに対応して5個設けられる。なお、図
18において、Xは、上記判定データA乃至Eにおける
A乃至Eに対応しており、例えば5ビットの判定データ
J300を、J300−X(X=A,B,C,D,E)
で表している。
(5-5) Judgment Data Generation Unit FIG. 18 is a block diagram of the judgment data counting unit 108 shown in FIG. 3. In this embodiment, the circuit shown in FIG. Five pieces are provided corresponding to E to E. In FIG. 18, X corresponds to A to E in the above judgment data A to E. For example, 5-bit judgment data J300 is expressed as J300-X (X=A, B, C, D, E).
It is expressed as

【0089】図18に示すように、上記マトリックスメ
モリ回路107から出力される判定データA乃至Eが各
判定データ毎に、8個の論理B回路LB−51乃至LB
−58に入力され、各回路LB−51乃至LB−58に
入力される各7ビットの判定データ毎にHレベル(“1
”)のデータの個数が計数された後、それらの計数デー
タが加算器AD60乃至AD66によって加算され、加
算結果のデータが判定データ計数値JS−X(X=A,
B,C,D,E)として出力される。従って、上記判定
データA乃至Eが、各判定データ毎に図47に図示した
ウィンドウ内で加算され、加算結果のデータが判定デー
タ計数値JS−Xとして出力される。ここで、判定デー
タ計数値JS−X(X=A,B,C,D,E)は、上記
判定データA乃至Eに対応する下記のデータを意味し、
これらの5個のデータが判別データ信号生成部114に
出力される。 (a)判定データAの図47のウィンドウ内の判定デー
タ計数値JS−A:集中型第1ディザ画像検出画素数。 (b)判定データBの図47のウィンドウ内の判定デー
タ計数値JS−B:集中型第2ディザ画像検出画素数。 (c)判定データCの図47のウィンドウ内の判定デー
タ計数値JS−C:中間調画像検出画素数。 (d)判定データDの図47のウィンドウ内の判定デー
タ計数値JS−D:非中間調画像検出画素数。 (e)判定データEの図47のウィンドウ内の判定デー
タ計数値JS−E:全白全黒画像検出画素数。
As shown in FIG. 18, the judgment data A to E output from the matrix memory circuit 107 are sent to eight logic B circuits LB-51 to LB-51 to LB-51 to LB-51 to LB-51 to LB-51 to LB-51 to LB-51 to LB-51 to LB-51 to LB-51 to LB-51 to LB-51 to LB-51 to LB-51 to LB-51 to LB-51 to LB for each judgment data.
-58, and is input to each circuit LB-51 to LB-58 at H level (“1
”) are counted, those counted data are added by adders AD60 to AD66, and the data of the addition result is determined as the judgment data counted value JS-X (X=A,
B, C, D, E). Therefore, the above judgment data A to E are added for each judgment data within the window shown in FIG. 47, and the data resulting from the addition is output as the judgment data count value JS-X. Here, the judgment data count value JS-X (X = A, B, C, D, E) means the following data corresponding to the above judgment data A to E,
These five pieces of data are output to the discrimination data signal generation section 114. (a) Judgment data count value JS-A in the window of FIG. 47 of judgment data A: number of pixels detected in the concentrated first dither image. (b) Judgment data count value JS-B in the window of FIG. 47 of judgment data B: number of pixels detected in the concentrated second dither image. (c) Judgment data count value JS-C in the window of FIG. 47 of judgment data C: number of halftone image detection pixels. (d) Judgment data count value JS-D in the window of FIG. 47 of judgment data D: number of non-halftone image detection pixels. (e) Judgment data count value JS-E in the window of FIG. 47 of judgment data E: number of pixels detected in an all-white all-black image.

【0090】(5−6)判別データ信号生成部図19は
、図3に図示した判別データ信号生成部114のブロッ
ク図である。
(5-6) Discrimination Data Signal Generation Section FIG. 19 is a block diagram of the discrimination data signal generation section 114 shown in FIG. 3.

【0091】図19に示すように、集中型第1データ検
出画素数JS−Aが、集中型第1ディザ画像を判別する
とともに当該画像に対する非中間調指数と判別信号を出
力するためのテーブル用ROMRT7の第1のアドレス
端子に入力され、集中型第2データ検出画素数JS−B
が、集中型第2ディザ画像を判別するとともに当該画像
に対する非中間調指数と判別信号を出力するためのテー
ブル用ROMRT6の第1のアドレス端子に入力される
。また、中間調画像検出画素数JS−Cが、分散型中間
調画像に対する非中間調指数を出力するためのテーブル
用ROMRT5の第1のアドレス端子に入力され、非中
間調画像検出画素数JS−Dが、テーブル用ROMRT
5の第2のアドレス端子に入力される。さらに、像域判
別を行なうための5×11のウィンドウ内の総画素数を
示す“55”のデータが減算器SU1の入力端子Aに入
力され、全白全黒画像検出画素数JS−Eが減算器SU
−1の入力端子Bに入力される。減算器SU1は、A−
Bの減算を行って減算結果のデータをテーブル用ROM
RT6,RT7の各第2のアドレス端子に出力する。
As shown in FIG. 19, the concentrated first data detection pixel number JS-A is used for a table for discriminating the concentrated first dithered image and outputting the non-halftone index and discrimination signal for the image. Input to the first address terminal of ROMRT7, concentrated second data detection pixel number JS-B
is input to the first address terminal of the table ROMRT 6 for discriminating the concentrated second dither image and outputting the non-halftone index and discrimination signal for the image. Further, the number of halftone image detection pixels JS-C is input to the first address terminal of the table ROMRT5 for outputting the non-halftone index for the distributed halftone image, and the number of non-halftone image detection pixels JS- D is ROMRT for table
5 is input to the second address terminal. Furthermore, the data "55" indicating the total number of pixels within the 5x11 window for image area discrimination is input to the input terminal A of the subtracter SU1, and the number of pixels JS-E for detecting the all-white and all-black image is Subtractor SU
-1 input terminal B. The subtracter SU1 is A-
Perform the subtraction of B and store the subtraction result data in the table ROM.
It is output to each second address terminal of RT6 and RT7.

【0092】図48は、テーブル用ROMRT5に格納
される、分散型中間調画像に対する非中間調指数のグラ
フであり、図49は、テーブル用ROMRT6,RT7
に格納される、集中型中間調画像に対する非中間調指数
のグラフである。ここで、各グラフの横軸のデータx1
,x2は次の「数4」,「数5」で表される。
FIG. 48 is a graph of non-halftone indexes for distributed halftone images stored in the table ROM RT5, and FIG. 49 is a graph of the non-halftone index stored in the table ROMRT6, RT7.
2 is a graph of non-halftone indices for concentrated halftone images stored in . Here, data x1 on the horizontal axis of each graph
, x2 are expressed by the following "Math. 4" and "Math. 5".

【数4】 x1=(非中間調画像検出画素数)/{(非中間調画像
検出画素数)+(中間調画像検出画素数)}
[Formula 4] x1=(Number of non-halftone image detection pixels)/{(Number of non-halftone image detection pixels)+(Number of halftone image detection pixels)}

【数5】 (a)テーブル用ROMRT7のとき x2=(集中型第1ディザ画像検出画素数)/{(総画
素数)−(全白全黒画像検出画素数)}(b)テーブル
用ROMRT6のとき x2=(集中型第2ディザ画像検出画素数)/{(総画
素数)−(全白全黒画像検出画素数)}
[Formula 5] (a) For table ROMRT7 x2 = (number of pixels detected in concentrated first dither image)/{(total number of pixels) - (number of pixels detected in all-white all-black image)} (b) ROMRT6 for table When x2 = (number of pixels detected in concentrated second dither image) / {(total number of pixels) - (number of pixels detected in all-white all-black image)}

【0093】な
お、データx2の分母は、減算器SU1によって計算さ
れる。図48から明らかなように、分散型中間調画像に
対する非中間調らしさを示す非中間調指数y1は、デー
タx1に対して次のような値を有する。 (a)0≦x1≦0.5のとき、y1=0,(b)0.
5<x1≦0.8のとき、y1=2×x1−1,(c)
x1>0.8のとき、y1=1。
Note that the denominator of data x2 is calculated by subtractor SU1. As is clear from FIG. 48, the non-halftone index y1 indicating the non-halftone-likeness of the distributed halftone image has the following value for the data x1. (a) When 0≦x1≦0.5, y1=0, (b) 0.
When 5<x1≦0.8, y1=2×x1-1, (c)
When x1>0.8, y1=1.

【0094】また、図49から明らかなように、集中型
中間調画像に対する非中間調らしさを示す非中間調指数
y2は、データx2に対して次のような値を有する。 (a)0≦x2≦2/3のとき、y2=0,(b)x2
>2/3のとき、y2=2×x2−1。
Further, as is clear from FIG. 49, the non-halftone index y2, which indicates the non-halftone-likeness of the concentrated halftone image, has the following value for the data x2. (a) When 0≦x2≦2/3, y2=0, (b) x2
>2/3, y2=2×x2-1.

【0095】なお、図49のグラフにおいて、データx
2が2/3よりも大きい場合、テーブル用ROMRT7
,RT6からそれぞれ、集中型第1ディザ画像,集中型
第2ディザ画像を検出したと判断して、Hレベルの集中
型第1ディザ画像判別信号,Hレベルの第2ディザ画像
判別信号が出力される。一方、データx2が2/3以下
の場合、テーブル用ROMRT7,RT6からそれぞれ
、集中型第1ディザ画像,集中型第2ディザ画像を検出
しないと判断して、Lレベルの集中型第1ディザ画像判
別信号,Lレベルの集中型第2ディザ画像判別信号が出
力される。また、説明の便宜上、非中間調指数y1,y
2の値を0から1までの値としているが、図19の回路
においては、当該非中間調指数y1,y2を4ビットの
データで表している。
Note that in the graph of FIG. 49, data x
If 2 is greater than 2/3, table ROMRT7
, RT6, respectively, and output a concentrated first dither image discrimination signal of H level and a second dither image discrimination signal of H level. Ru. On the other hand, when the data x2 is 2/3 or less, it is determined that the concentrated first dither image and the concentrated second dither image are not detected from the table ROMs RT7 and RT6, respectively, and the L level concentrated first dither image is A discrimination signal and an L level concentrated second dither image discrimination signal are output. Also, for convenience of explanation, non-halftone indexes y1, y
Although the value of 2 is a value from 0 to 1, in the circuit of FIG. 19, the non-halftone indexes y1 and y2 are represented by 4-bit data.

【0096】テーブル用ROMRT5は、アドレス端子
に入力されるデータJSーC,JS−Dに基づいて、格
納しているテーブルから分散型中間調画像に対する非中
間調指数を求めた後、比較選択器CS2の第1の入力端
子に出力する。また、テーブル用ROMRT7は、アド
レス端子に入力されるデータJSーA及び減算器SU1
の出力データに基づいて、格納しているテーブルから集
中型中間調画像に対する非中間調指数を求めた後、比較
選択器CS1の第1の入力端子に出力するとともに、集
中型第1ディザ画像判別信号を図28の復元データ計算
部112に出力する。さらに、テーブル用ROMRT6
は、アドレス端子に入力されるデータJSーB及び減算
器SU1の出力データに基づいて、格納しているテーブ
ルから集中型中間調画像に対する非中間調指数を求めた
後、比較選択器CS1の第2の入力端子に出力するとと
もに、集中型第2ディザ画像判別信号を図28の復元デ
ータ計算部112に出力する。
The table ROMRT 5 calculates the non-halftone index for the distributed halftone image from the stored table based on the data JS-C and JS-D input to the address terminal, and then calculates the non-halftone index for the distributed halftone image. It is output to the first input terminal of CS2. In addition, the table ROMRT7 includes data JS-A input to the address terminal and the subtractor SU1.
After calculating the non-halftone index for the concentrated halftone image from the stored table based on the output data of The signal is output to the restored data calculation section 112 in FIG. Furthermore, ROMRT6 for table
calculates the non-halftone index for the concentrated halftone image from the stored table based on the data JS-B input to the address terminal and the output data of the subtractor SU1, and then At the same time, the concentrated second dither image discrimination signal is output to the restored data calculation unit 112 in FIG. 28.

【0097】比較選択器CS1は、入力される各中間調
指数のうち最大のデータを選択した後、選択したデータ
を比較選択器CS2の第1の入力端子に出力する。さら
に、比較選択器CS2は、入力される各中間調指数のう
ち最大のデータを選択した後、選択したデータを像域判
別データとして、図3のデータ混合部104に出力する
The comparison selector CS1 selects the largest data among the input halftone indexes, and then outputs the selected data to the first input terminal of the comparison selector CS2. Further, the comparison selector CS2 selects the largest data among the input halftone indexes, and then outputs the selected data to the data mixing unit 104 in FIG. 3 as image area discrimination data.

【0098】(6)中間調画像復元部 (6−1)各部の構成及び動作 図3に図示した中間調画像復元部101は、窓内計数部
113と、エッジ領域判別部109と、平滑量計算部1
10と、エッジ強調量計算部111と、復元データ計算
部112を備える。以下、各計算部109乃至113に
おける動作の特徴について説明する。
(6) Halftone image restoration section (6-1) Configuration and operation of each section The halftone image restoration section 101 shown in FIG. Calculation part 1
10, an edge enhancement amount calculation section 111, and a restored data calculation section 112. The characteristics of the operations in each of the calculation units 109 to 113 will be described below.

【0099】平滑量計算部110においては、図50に
図示した7×7のウィンドウW7の空間フィルタF11
と、図51に図示した9×9のウィンドウW9の空間フ
ィルタF12を、詳細後述するように集中型第2ディザ
画像判別信号に応じて切り替えて用いる。図50の空間
フィルタF11と図51の空間フィルタF12の両方に
おいて、当該各図から明らかなように、各ウィンドウW
7,W9内の各画素に対する重み付け係数を1としてい
る。これは、本実施例の装置で復元された画像として、
単位面積当たりの黒画素数を用いて画像濃度を表現する
、面積階調方式の擬似中間調で2値化された中間調画像
を対象とするためである。本実施例において、平滑量を
計算するためのウィンドウとして正方形状を用いている
が、これに限らず、図52に示すように、注目画素から
の距離を概ね一定とするウィンドウの空間フィルタF1
3を用いてもよい。
In the smoothing amount calculation unit 110, the spatial filter F11 of the 7×7 window W7 shown in FIG.
Then, the spatial filter F12 of the 9×9 window W9 shown in FIG. 51 is switched and used in accordance with the concentrated second dither image discrimination signal, as will be described in detail later. In both the spatial filter F11 in FIG. 50 and the spatial filter F12 in FIG. 51, each window W
7. The weighting coefficient for each pixel in W9 is set to 1. This is an image restored by the device of this embodiment.
This is because the target is a halftone image that has been binarized using a pseudo halftone of the area gradation method, which expresses the image density using the number of black pixels per unit area. In this embodiment, a square shape is used as the window for calculating the amount of smoothing, but the shape is not limited to this. As shown in FIG. 52, the spatial filter F1 of the window whose distance from the pixel of interest is approximately constant
3 may be used.

【0100】次に、エッジ強調量計算部111において
エッジ強調量を計算する必要性について説明する。
Next, the necessity of calculating the edge enhancement amount in the edge enhancement amount calculation section 111 will be explained.

【0101】図55に、3画素毎に主走査方向MSに対
して白画像と黒画像が反転する画像を示している。この
画像の主走査方向MSの空間周波数は1/6[lp/画
素]となる。いま、図53に図示した1×6のウィンド
ウの平滑用空間フィルタF14と、図54に図示した1
×3のウィンドウの平滑用空間フィルタF15を用いて
、主走査方向MSに走査線MSL上で走査したときにそ
れぞれ計算される平滑値計算値CV1,CV2を図55
に示す。図55に示す結果から明らかなように、空間フ
ィルタF15を用いて図55の画像を平滑した場合、そ
の空間周波数成分は保存されるが、一方、空間フィルタ
F14を用いて図55の画像を平滑した場合、その空間
周波数成分は喪失されることがわかる。従って、走査方
向の幅が自然数n画素であるウィンドウの平滑用空間フ
ィルタは、その空間フィルタを用いて当該走査方向に走
査させた場合に、1/(2n)[lp/画素]よりも高
い空間周波数成分を減衰させるということがわかる。 このことより、図50,図51にそれぞれ図示した空間
フィルタF11,F12はそれぞれ、1/14[lp/
画素],1/18[lp/画素]よりも高い空間周波数
成分を有する画像を十分に復元することができないこと
がわかる。また、平滑処理後の画像データに対してエッ
ジ強調しても喪失された空間周波数成分を取り戻ること
は不可能である。従って、本実施例においては、平滑量
を求めるとともに、その平滑処理によって喪失される空
間周波数成分を取り戻すために、エッジ成分に対応する
エッジ強調量を計算している。
FIG. 55 shows an image in which a white image and a black image are reversed in the main scanning direction MS every three pixels. The spatial frequency of this image in the main scanning direction MS is 1/6 [lp/pixel]. Now, the 1×6 window smoothing spatial filter F14 shown in FIG. 53 and the 1×6 window smoothing spatial filter F14 shown in FIG.
FIG. 55 shows the smoothed values CV1 and CV2 calculated when scanning on the scanning line MSL in the main scanning direction MS using the smoothing spatial filter F15 with a ×3 window.
Shown below. As is clear from the results shown in FIG. 55, when the image in FIG. 55 is smoothed using the spatial filter F15, its spatial frequency components are preserved; on the other hand, when the image in FIG. 55 is smoothed using the spatial filter F14, It can be seen that in this case, the spatial frequency component is lost. Therefore, a smoothing spatial filter for a window whose width in the scanning direction is a natural number n pixels, when scanning in the scanning direction using the spatial filter, has a spatial width higher than 1/(2n) [lp/pixel]. It can be seen that the frequency components are attenuated. From this, the spatial filters F11 and F12 shown in FIGS. 50 and 51, respectively, are 1/14[lp/
It can be seen that an image having a spatial frequency component higher than 1/18 [lp/pixel] cannot be restored satisfactorily. Further, even if edge enhancement is applied to image data after smoothing processing, it is impossible to recover lost spatial frequency components. Therefore, in this embodiment, in addition to finding the smoothing amount, the edge enhancement amount corresponding to the edge component is calculated in order to recover the spatial frequency component lost due to the smoothing process.

【0102】図56乃至図63に、エッジ強調量を計算
するための空間フィルタF21乃至F28を示す。ここ
で、空間フィルタF21は、副走査方向のエッジ強調方
向に対して3画素分の幅を有する1対の3×7のウィン
ドウW37a,W37b間の黒画素数の差を計算するた
めの空間フィルタであり、空間フィルタF22は、副走
査方向のエッジ強調方向に対して3画素分の幅を有する
1対の3×7のウィンドウW37a,W37c間の黒画
素数の差を計算するための空間フィルタである。また、
空間フィルタF23は、主走査方向のエッジ強調方向に
対して3画素分の幅を有する1対の7×3のウィンドウ
W73a,W73b間の黒画素数の差を計算するための
空間フィルタであり、空間フィルタF24は、主走査方
向のエッジ強調方向に対して3画素分の幅を有する1対
の7×3のウィンドウW73a,W73c間の黒画素数
の差を計算するための空間フィルタである。
FIGS. 56 to 63 show spatial filters F21 to F28 for calculating the amount of edge enhancement. Here, the spatial filter F21 is a spatial filter for calculating the difference in the number of black pixels between a pair of 3×7 windows W37a and W37b having a width of 3 pixels in the edge emphasis direction in the sub-scanning direction. The spatial filter F22 is a spatial filter for calculating the difference in the number of black pixels between a pair of 3×7 windows W37a and W37c having a width of 3 pixels in the edge emphasis direction in the sub-scanning direction. It is. Also,
The spatial filter F23 is a spatial filter for calculating the difference in the number of black pixels between a pair of 7×3 windows W73a and W73b having a width of 3 pixels in the edge emphasis direction in the main scanning direction, The spatial filter F24 is a spatial filter for calculating the difference in the number of black pixels between a pair of 7×3 windows W73a and W73c having a width of 3 pixels in the edge emphasis direction in the main scanning direction.

【0103】さらに、空間フィルタF25は、第2の斜
め方向のエッジ強調方向に対して22画素分の幅を有す
る1対のウィンドウWIa,WIb間の黒画素数の差を
計算するための空間フィルタであり、空間フィルタF2
6は、第2の斜め方向のエッジ強調方向に対して2画素
分の幅を有する1対のウィンドウWIa,WIc間の黒
画素数の差を計算するための空間フィルタである。また
、空間フィルタF27は、第1の斜め方向のエッジ強調
方向に対して2画素分の幅を有する1対のウィンドウW
Ja,WJb間の黒画素数の差を計算するための空間フ
ィルタであり、空間フィルタF28は、第1の斜め方向
のエッジ強調方向に対して2画素分の幅を有する1対の
ウィンドウWJa,WJc間の黒画素数の差を計算する
ための空間フィルタである。
Furthermore, the spatial filter F25 is a spatial filter for calculating the difference in the number of black pixels between a pair of windows WIa and WIb having a width of 22 pixels in the second diagonal edge enhancement direction. , and the spatial filter F2
6 is a spatial filter for calculating the difference in the number of black pixels between a pair of windows WIa and WIc having a width of two pixels in the second diagonal edge enhancement direction. The spatial filter F27 also includes a pair of windows W having a width of two pixels in the first diagonal edge emphasis direction.
This is a spatial filter for calculating the difference in the number of black pixels between Ja and WJb, and the spatial filter F28 is a pair of windows WJa and WJb each having a width of two pixels in the first diagonal edge emphasis direction. This is a spatial filter for calculating the difference in the number of black pixels between WJc.

【0104】従って、上記空間フィルタF21乃至F2
8は、注目画素(i=5,j=5)を中心として、主副
走査方向の4方向と、第1と第2の斜め方向の4方向の
計8方向のエッジ強調量を計算することができる。
[0104] Therefore, the above spatial filters F21 to F2
Step 8 is to calculate the amount of edge enhancement in a total of 8 directions, 4 directions in the main and sub-scanning directions, and 4 directions in the first and second diagonal directions, centering on the pixel of interest (i=5, j=5). Can be done.

【0105】図64乃至図71にそれぞれ、上記空間フ
ィルタF21乃至F28に対応しかつより高い空間周波
数のエッジ強調成分のエッジ強調量を求めるための空間
フィルタF31乃至F38を示す。
FIGS. 64 to 71 respectively show spatial filters F31 to F38, which correspond to the above-mentioned spatial filters F21 to F28 and are used to obtain the edge enhancement amount of the edge enhancement component of a higher spatial frequency.

【0106】空間フィルタF31は、副走査方向のエッ
ジ強調方向に対して1画素分の幅を有する1対の1×7
のウィンドウW17a,W17b間の黒画素数の差を計
算するための空間フィルタであり、空間フィルタF32
は、副走査方向のエッジ強調方向に対して1画素分の幅
を有する1対の1×7のウィンドウW17a,W17c
間の黒画素数の差を計算するための空間フィルタである
。また、空間フィルタF33は、主走査方向のエッジ強
調方向に対して1画素分の幅を有する1対の7×1のウ
ィンドウW71a,W71b間の黒画素数の差を計算す
るための空間フィルタであり、空間フィルタF34は、
主走査方向のエッジ強調方向に対して1画素分の幅を有
する1対の7×1のウィンドウW71a,W71c間の
黒画素数の差を計算するための空間フィルタである。さ
らに、空間フィルタF35は、第2の斜め方向のエッジ
強調方向に対して1画素分の幅を有する1対のウィンド
ウWKa,WKb間の黒画素数の差を計算するための空
間フィルタであり、空間フィルタF36は、第2の斜め
方向のエッジ強調方向に対して1画素分の幅を有する1
対のウィンドウWKa,WKc間の黒画素数の差を計算
するための空間フィルタである。またさらに、空間フィ
ルタF37は、第1の斜め方向のエッジ強調方向に対し
て1画素分の幅を有する1対のウィンドウWLa,WL
b間の黒画素数の差を計算するための空間フィルタであ
り、空間フィルタF38は、第1の斜め方向のエッジ強
調方向に対して1画素分の幅を有する1対のウィンドウ
WLa,WLc間の黒画素数の差を計算するための空間
フィルタである。
The spatial filter F31 is a pair of 1×7 filters having a width of one pixel in the edge emphasis direction in the sub-scanning direction.
This is a spatial filter for calculating the difference in the number of black pixels between the windows W17a and W17b, and the spatial filter F32
are a pair of 1×7 windows W17a and W17c having a width of one pixel in the edge emphasis direction in the sub-scanning direction.
This is a spatial filter for calculating the difference in the number of black pixels between. Moreover, the spatial filter F33 is a spatial filter for calculating the difference in the number of black pixels between a pair of 7×1 windows W71a and W71b having a width of one pixel in the edge emphasis direction in the main scanning direction. Yes, the spatial filter F34 is
This is a spatial filter for calculating the difference in the number of black pixels between a pair of 7×1 windows W71a and W71c having a width of one pixel in the edge emphasis direction in the main scanning direction. Furthermore, the spatial filter F35 is a spatial filter for calculating the difference in the number of black pixels between a pair of windows WKa and WKb having a width of one pixel in the second diagonal edge enhancement direction, The spatial filter F36 has a width of one pixel in the second diagonal edge emphasis direction.
This is a spatial filter for calculating the difference in the number of black pixels between a pair of windows WKa and WKc. Furthermore, the spatial filter F37 includes a pair of windows WLa, WL each having a width of one pixel in the first diagonal edge emphasis direction.
The spatial filter F38 is a spatial filter for calculating the difference in the number of black pixels between windows WLa and WLc, and the spatial filter F38 is a spatial filter for calculating the difference in the number of black pixels between windows WLa and WLc. This is a spatial filter for calculating the difference in the number of black pixels in .

【0107】これらの空間フィルタF31乃至F38に
おいては、擬似中間調特有の画像パターンの影響を少な
くするために、より多くの画素データから画像濃度を計
算することが必要であり、このため、エッジ強調方向と
は垂直な方向にウィンドウの幅を大きくしている。しか
しながら、擬似中間調特有の画像パターンを強調するこ
とを防止する必要があるため、エッジ領域判別部109
を設け、エッジ領域内にあると判別された画素について
のみ、前述のエッジ強調を行なうように構成している。
In these spatial filters F31 to F38, it is necessary to calculate the image density from more pixel data in order to reduce the influence of the image pattern peculiar to pseudo halftones, and for this reason, edge emphasis The width of the window is increased in the direction perpendicular to the direction. However, since it is necessary to prevent the image pattern peculiar to pseudo-halftones from being emphasized, the edge area discriminating unit 109
is provided, and the above-mentioned edge enhancement is performed only on pixels determined to be within the edge area.

【0108】図72乃至図75にそれぞれ、エッジ領域
を判別するためのエッジ領域判別量を計算するための空
間フィルタF41乃至F44を示す。
FIGS. 72 to 75 respectively show spatial filters F41 to F44 for calculating edge region discrimination amounts for determining edge regions.

【0109】空間フィルタF41は、主走査方向のエッ
ジ強調方向に対して4画素分の幅を有する1対の4×7
のウィンドウW47a,W47b間の黒画素数の差を計
算するための空間フィルタであり、空間フィルタF42
は、副走査方向のエッジ強調方向に対して4画素分の幅
を有する1対の4×7のウィンドウW47a,W47c
間の黒画素数の差を計算するための空間フィルタである
。また、空間フィルタF43は、第2の斜め方向のエッ
ジ強調方向に対して3画素分の幅を有する1対のウィン
ドウWMa,WMb間の黒画素数の差を計算するための
空間フィルタであり、空間フィルタF44は、第1の斜
め方向のエッジ強調方向に対して3画素分の幅を有する
1対のウィンドウWMc,WMd間の黒画素数の差を計
算するための空間フィルタである。
The spatial filter F41 is a pair of 4×7 filters having a width of 4 pixels in the edge emphasis direction in the main scanning direction.
This is a spatial filter for calculating the difference in the number of black pixels between the windows W47a and W47b, and the spatial filter F42
are a pair of 4×7 windows W47a and W47c having a width of 4 pixels in the edge emphasis direction in the sub-scanning direction.
This is a spatial filter for calculating the difference in the number of black pixels between. Further, the spatial filter F43 is a spatial filter for calculating the difference in the number of black pixels between a pair of windows WMa and WMb having a width of three pixels in the second diagonal edge enhancement direction, The spatial filter F44 is a spatial filter for calculating the difference in the number of black pixels between a pair of windows WMc and WMd having a width of three pixels in the first diagonal edge enhancement direction.

【0110】これらのエッジ領域判別量を計算するため
の空間フィルタF41乃至F44の各ウィンドウは、エ
ッジ強調用の空間フィルタで検出してしまうエッジ強調
量を排除するために、エッジ強調用の空間フィルタの各
ウィンドウよりもエッジ強調方向の幅が大きくなるよう
に設定されている。なお、平滑用の空間フィルタの各ウ
ィンドウは、エッジ強調用の空間フィルタの各ウィンド
ウを含み、かつエッジ領域判別用の空間フィルタの各ウ
ィンドウを含むように設定している。
[0110] Each window of the spatial filters F41 to F44 for calculating these edge region discrimination amounts is a spatial filter for edge emphasis to eliminate the amount of edge emphasis detected by the spatial filter for edge emphasis. The width in the edge enhancement direction is set to be larger than each window in . Note that each window of the spatial filter for smoothing is set to include each window of the spatial filter for edge enhancement, and also each window of the spatial filter for edge region determination.

【0111】(6−2)窓内計数部 窓内計数部113は、第1計算部113aと、第2計算
部113bと、第3計算部113cと、第4計算部11
3dとを備える。
(6-2) Window counting section The window counting section 113 includes a first calculation section 113a, a second calculation section 113b, a third calculation section 113c, and a fourth calculation section 11.
3d.

【0112】図20は、主走査方向に連続する7個の各
画素データについて黒画素数を計数するための窓内計数
部113の第1計算部113aのブロック図であり、当
該第1計算部113aは9個の論理B回路LB−60乃
至LB−68を備える。
FIG. 20 is a block diagram of the first calculating section 113a of the window counting section 113 for counting the number of black pixels for each of seven consecutive pixel data in the main scanning direction. 113a includes nine logic B circuits LB-60 to LB-68.

【0113】図20に示すように、主走査方向に連続す
る7個の各画素データD102乃至D108が論理B回
路LB−60に入力され、当該各画素データについての
黒画素数が計数された後、計数値のデータDS10が出
力され、また、主走査方向に連続する7個の各画素デー
タD202乃至D208が論理B回路LB−61に入力
され、当該各画素データについての黒画素数が計数され
た後、計数値のデータDS11が出力される。以下、同
様にして、i=3乃至9に関する主走査方向に連続する
7個の各画素データD302乃至D308,D402乃
至D408,…,D902乃至D908についての黒画
素数が論理B回路LB−62乃至LB−68によって計
数された後、計数値のデータDS12乃至DS18が出
力される。
As shown in FIG. 20, each of the seven consecutive pixel data D102 to D108 in the main scanning direction is input to the logic B circuit LB-60, and the number of black pixels for each pixel data is counted. , count value data DS10 is output, and each of seven consecutive pixel data D202 to D208 in the main scanning direction is input to the logic B circuit LB-61, and the number of black pixels for each pixel data is counted. After that, data DS11 of the count value is output. Similarly, the number of black pixels for each of the seven pixel data D302 to D308, D402 to D408, ..., D902 to D908 that are continuous in the main scanning direction for i=3 to 9 is determined from the logic B circuits LB-62 to D908. After being counted by LB-68, data DS12 to DS18 of the counted value are output.

【0114】図21は、副走査方向に連続する7個の各
画素データについて黒画素数を計数するための窓内計数
部113の第2計算部113bのブロック図であり、当
該第2計算部113bは9個の論理B回路LB−70乃
至LB−78を備える。
FIG. 21 is a block diagram of the second calculating section 113b of the window counting section 113 for counting the number of black pixels for each of seven consecutive pixel data in the sub-scanning direction. 113b includes nine logic B circuits LB-70 to LB-78.

【0115】図21に示すように、副走査方向に連続す
る7個の各画素データD201乃至D801が論理B回
路LB−70に入力され、当該各画素データについての
黒画素数が計数された後、計数値のデータDS20が出
力され、また、副走査方向に連続する7個の各画素デー
タD202乃至D802が論理B回路LB−71に入力
され、当該各画素データについての黒画素数が計数され
た後、計数値のデータDS21が出力される。以下、同
様にして、j=3乃至9に関する副走査方向に連続する
7個の各画素データD203乃至D803,D204乃
至D804,…,D209乃至D809についての黒画
素数が論理B回路LB−72乃至LB−78によって計
数された後、計数値のデータDS22乃至DS28が出
力される。
As shown in FIG. 21, each of the seven consecutive pixel data D201 to D801 in the sub-scanning direction is input to the logic B circuit LB-70, and the number of black pixels for each pixel data is counted. , count value data DS20 is output, and each of seven consecutive pixel data D202 to D802 in the sub-scanning direction is input to the logic B circuit LB-71, and the number of black pixels for each pixel data is counted. After that, data DS21 of the counted value is output. Similarly, the number of black pixels for each of the seven pixel data D203 to D803, D204 to D804, ..., D209 to D809 that are continuous in the sub-scanning direction for j=3 to 9 is determined from the logic B circuits LB-72 to D809. After being counted by LB-78, data DS22 to DS28 of the counted value are output.

【0116】図22は、第1の斜め方向に連続する7個
の各画素データについて黒画素数を計数するための窓内
計数部113の第3計算部113cのブロック図であり
、当該第3計算部113cは9個の論理B回路LB−8
0乃至LB−88を備える。
FIG. 22 is a block diagram of the third calculating section 113c of the window counting section 113 for counting the number of black pixels for each of seven consecutive pixel data in the first diagonal direction. The calculation unit 113c includes nine logic B circuits LB-8.
0 to LB-88.

【0117】図22に示すように、第1の斜め方向に連
続する7個の各画素データD006,D105,…,D
600が論理B回路LB−80に入力され、当該各画素
データについての黒画素数が計数された後、計数値のデ
ータDS30が出力され、また、第1の斜め方向に連続
する7個の各画素データD007,D106,…,D6
01が論理B回路LB−81に入力され、当該各画素デ
ータについての黒画素数が計数された後、計数値のデー
タDS31が出力される。以下、同様にして、第1の斜
め方向に連続する7個の各画素データD107,D20
6,…,D701;D108,D207,…,D702
;…;D310,D409,…,D904;D311,
D410,…,D905についての黒画素数が論理B回
路LB−82乃至LB−88によって計数された後、計
数値のデータDS32乃至DS38が出力される。
As shown in FIG. 22, seven pieces of pixel data D006, D105, . . . , D continuous in the first diagonal direction
600 is input to the logic B circuit LB-80, and after counting the number of black pixels for each pixel data, the count value data DS30 is output, and each of the seven consecutive pixels in the first diagonal direction is Pixel data D007, D106,..., D6
01 is input to the logic B circuit LB-81, the number of black pixels for each pixel data is counted, and then the counted value data DS31 is output. Thereafter, in the same manner, each of the seven pixel data D107 and D20 consecutive in the first diagonal direction is
6,...,D701;D108,D207,...,D702
;…;D310,D409,…,D904;D311,
After the number of black pixels for D410, .

【0118】図23は、第2の斜め方向に連続する7個
の各画素データについて黒画素数を計数するための窓内
計数部113の第4計算部113dのブロック図であり
、当該第4計算部113dは9個の論理B回路LB−9
0乃至LB−98を備える。
FIG. 23 is a block diagram of the fourth calculating section 113d of the window counting section 113 for counting the number of black pixels for each of seven pixel data consecutive in the second diagonal direction. The calculation unit 113d includes nine logic B circuits LB-9.
0 to LB-98.

【0119】図23に示すように、第2の斜め方向に連
続する7個の各画素データD004,D105,…D6
10が論理B回路LB−90に入力され、当該各画素デ
ータについての黒画素数が計数された後、計数値のデー
タDS40が出力され、また、第2の斜め方向に連続す
る7個の各画素データD003,D104,…,D60
9が論理B回路LB−91に入力され、当該各画素デー
タについての黒画素数が計数された後、計数値のデータ
DS41が出力される。以下、同様にして、第2の斜め
方向に連続する7個の各画素データD103,D204
,…,D709;D102,D203,…,D708;
…;D300,D401,…,D906;D400,D
501,…,D905,D702についての黒画素数が
論理B回路LB−92乃至LB−98によって計数され
た後、計数値のデータDS42乃至DS48が出力され
る。
As shown in FIG. 23, seven pieces of pixel data D004, D105,...D6 consecutive in the second diagonal direction
10 is input to the logic B circuit LB-90, and after counting the number of black pixels for each pixel data, the counted value data DS40 is output, and each of the seven consecutive pixels in the second diagonal direction is Pixel data D003, D104,..., D60
9 is input to the logic B circuit LB-91, the number of black pixels for each pixel data is counted, and then the counted value data DS41 is output. Thereafter, in the same manner, seven pieces of pixel data D103 and D204 consecutive in the second diagonal direction are
,...,D709;D102,D203,...,D708;
...;D300,D401,...,D906;D400,D
After the number of black pixels for 501, .

【0120】(6−3)平滑量計算部 図24は、図3に図示した平滑量計算部110のブロッ
ク図である。
(6-3) Smoothing amount calculation unit FIG. 24 is a block diagram of the smoothing amount calculation unit 110 shown in FIG. 3.

【0121】図24に示すように、データDS11,D
S12が加算器AD71に入力され、データDS13,
DS14が加算器AD72に入力される。また、データ
DS15,DS16が加算器AD74に入力され、デー
タDS17が加算器AD75に入力される。各データD
S11乃至DS17は6個の加算器AD71乃至AD7
6によって加算され、加算結果のデータが加算器AD7
6から、空間フィルタF11による計算結果である7×
7黒画素数第2データとして復元データ計算部112及
び加算器AD81に出力される。
As shown in FIG. 24, data DS11,D
S12 is input to adder AD71, and data DS13,
DS14 is input to adder AD72. Furthermore, data DS15 and DS16 are input to adder AD74, and data DS17 is input to adder AD75. Each data D
S11 to DS17 are six adders AD71 to AD7
6, and the addition result data is added to adder AD7.
6, 7× which is the calculation result by the spatial filter F11
7 The number of black pixels is output as second data to the restored data calculation unit 112 and adder AD81.

【0122】また、データDS10,DS18が加算器
AD77に入力され、データDS20,DS28が加算
器AD78に入力される。画素データD101,D80
1,D108,D808及び3個の“0”のデータが論
理B回路LB−99に入力され、当該各データについて
の黒画素数が計数された後、計数値のデータが加算器A
D80に出力される。これらのデータDS10,DS1
8,DS20,DS28,D101,D801,D10
8,D808は加算器AD77乃至AD80によって加
算された後、加算結果のデータが加算器AD80から加
算器AD81に出力される。加算器AD81は入力され
る各データを加算し、加算結果のデータを、9×9黒画
素数データとして復元データ計算部112に出力する。
Furthermore, data DS10 and DS18 are input to adder AD77, and data DS20 and DS28 are input to adder AD78. Pixel data D101, D80
1, D108, D808, and three "0" data are input to the logic B circuit LB-99, and after counting the number of black pixels for each data, the data of the count value is input to the adder A.
It is output to D80. These data DS10, DS1
8, DS20, DS28, D101, D801, D10
8, D808 are added by adders AD77 to AD80, and then the data of the addition result is output from adder AD80 to adder AD81. The adder AD81 adds each piece of input data and outputs the data resulting from the addition to the restored data calculation unit 112 as 9×9 black pixel number data.

【0123】(6−4)エッジ強調量計算部エッジ強調
量計算部111は、空間フィルタF21乃至F28を用
いて計算された各エッジ強調量のうち絶対値が最大のエ
ッジ強調量(以下、エッジ強調量第1データという。)
を計算するための第1計算部111aと、空間フィルタ
F31乃至F38を用いて計算された各エッジ強調量の
うち絶対値が最大のエッジ強調量(以下、エッジ強調量
第2データという。)を計算するための第2計算部11
1bとを備える。
(6-4) Edge Emphasis Amount Calculation Unit The edge emphasis amount calculation unit 111 calculates the edge emphasis amount (hereinafter referred to as edge (This is called emphasis amount first data.)
The first calculation unit 111a for calculating the amount of edge emphasis (hereinafter referred to as edge emphasis amount second data) having the largest absolute value among the respective edge emphasis amounts calculated using the spatial filters F31 to F38. Second calculation unit 11 for calculation
1b.

【0124】図25は、エッジ強調量計算部111の第
1計算部111aのブロック図である。
FIG. 25 is a block diagram of the first calculation section 111a of the edge enhancement amount calculation section 111.

【0125】図25に示すように、データDS10乃至
DS12が加算器AD91,AD92によって加算され
、加算結果のデータが加算器AD92から減算器SU1
1の入力端子Aに入力される。また、データDS13乃
至DS15が加算器AD93,AD94によって加算さ
れ、加算結果のデータが加算器AD94から減算器SU
11の入力端子B及び減算器SU12の入力端子Aに入
力される。さらに、データDS16乃至DS18が加算
器AD95,AD96によって加算され、加算結果のデ
ータが加算器AD96から減算器SU12の入力端子B
に入力される。減算器SU11はB−Aの減算を行って
減算結果のデータを、空間フィルタF21の計算結果の
データとして比較選択器CS11に出力する。また、減
算器SU12はA−Bの減算を行って減算結果のデータ
を、空間フィルタF22の計算結果のデータとして比較
選択器CS11に出力する。これに応答して、比較選択
器CS11は入力された各データのうち絶対値が大きい
データを選択して比較選択器CS13に出力する。
As shown in FIG. 25, data DS10 to DS12 are added by adders AD91 and AD92, and the resulting data is sent from adder AD92 to subtracter SU1.
It is input to input terminal A of No. 1. Further, the data DS13 to DS15 are added by adders AD93 and AD94, and the data of the addition result is sent from the adder AD94 to the subtracter SU.
11 and input terminal A of the subtracter SU12. Furthermore, the data DS16 to DS18 are added by adders AD95 and AD96, and the data of the addition result is transferred from the adder AD96 to the input terminal B of the subtracter SU12.
is input. The subtracter SU11 performs subtraction of B-A and outputs the data of the subtraction result to the comparison selector CS11 as data of the calculation result of the spatial filter F21. Further, the subtracter SU12 performs subtraction of A-B and outputs the data of the subtraction result to the comparison selector CS11 as the data of the calculation result of the spatial filter F22. In response, the comparison selector CS11 selects data with a large absolute value from among the input data and outputs it to the comparison selector CS13.

【0126】データDS20乃至DS22が加算器AD
97,AD98によって加算され、加算結果のデータが
加算器AD98から減算器SU13の入力端子Aに入力
される。また、データDS23乃至DS25が加算器A
D99,AD100によって加算され、加算結果のデー
タが加算器AD100から減算器SU13の入力端子B
及び減算器SU14の入力端子Aに入力される。さらに
、データDS26乃至DS28が加算器AD101,A
D102によって加算され、加算結果のデータが加算器
AD102から減算器SU14の入力端子Bに入力され
る。減算器SU13はB−Aの減算を行って減算結果の
データを、空間フィルタF23の計算結果のデータとし
て比較選択器CS12に出力する。また、減算器SU1
4はA−Bの減算を行って減算結果のデータを、空間フ
ィルタF24の計算結果のデータとして比較選択器CS
12に出力する。これに応答して、比較選択器CS12
は入力された各データのうち絶対値が大きいデータを選
択して比較選択器CS13に出力する。
[0126] Data DS20 to DS22 are added to adder AD.
97 and AD98, and the data of the addition result is input from the adder AD98 to the input terminal A of the subtracter SU13. Also, data DS23 to DS25 are sent to the adder A.
D99 and AD100 add the data, and the resultant data is sent from the adder AD100 to the input terminal B of the subtracter SU13.
and is input to the input terminal A of the subtracter SU14. Furthermore, data DS26 to DS28 are sent to adders AD101 and A
They are added by D102, and the data of the addition result is input from the adder AD102 to the input terminal B of the subtracter SU14. The subtracter SU13 subtracts B-A and outputs the data of the subtraction result to the comparison selector CS12 as the data of the calculation result of the spatial filter F23. Also, the subtractor SU1
4 performs subtraction of A-B and uses the subtraction result data as data of the calculation result of the spatial filter F24 in the comparison selector CS.
Output to 12. In response, the comparison selector CS12
selects data with a large absolute value from among the input data and outputs it to the comparison selector CS13.

【0127】データDS30乃至DS32が加算器AD
103,AD104によって加算され、加算結果のデー
タが加算器AD104から減算器SU15の入力端子A
に入力される。また、データDS33乃至DS35が加
算器AD105,AD106によって加算され、加算結
果のデータが加算器AD106から減算器SU15の入
力端子B及び減算器SU16の入力端子Aに入力される
。さらに、データDS36乃至DS38が加算器AD1
07,AD108によって加算され、加算結果のデータ
が加算器AD108から減算器SU16の入力端子Bに
入力される。減算器SU15はB−Aの減算を行って減
算結果のデータを、空間フィルタF25の計算結果のデ
ータとして比較選択器CS14に出力する。また、減算
器SU16はA−Bの減算を行って減算結果のデータを
、空間フィルタF26の計算結果のデータとして比較選
択器CS14に出力する。これに応答して、比較選択器
CS14は入力された各データのうち絶対値が大きいデ
ータを選択して比較選択器CS16に出力する。
Data DS30 to DS32 are added to adder AD
103 and AD104, and the resultant data is sent from the adder AD104 to the input terminal A of the subtracter SU15.
is input. Furthermore, data DS33 to DS35 are added by adders AD105 and AD106, and the data resulting from the addition is input from adder AD106 to input terminal B of subtractor SU15 and input terminal A of subtractor SU16. Further, the data DS36 to DS38 are sent to the adder AD1.
07 and AD108, and the data of the addition result is input from the adder AD108 to the input terminal B of the subtracter SU16. The subtracter SU15 performs subtraction of B-A and outputs the data of the subtraction result to the comparison selector CS14 as the data of the calculation result of the spatial filter F25. Further, the subtracter SU16 performs subtraction of A-B and outputs the data of the subtraction result to the comparison selector CS14 as the data of the calculation result of the spatial filter F26. In response to this, the comparison selector CS14 selects data having a large absolute value from among the input data and outputs it to the comparison selector CS16.

【0128】データDS40乃至DS42が加算器AD
109,AD110によって加算され、加算結果のデー
タが加算器AD110から減算器SU17の入力端子A
に入力される。また、データDS43乃至DS45が加
算器AD111,AD112によって加算され、加算結
果のデータが加算器AD112から減算器SU17の入
力端子B及び減算器SU18の入力端子Aに入力される
。さらに、データDS46乃至DS48が加算器AD1
13,AD114によって加算され、加算結果のデータ
が加算器AD114から減算器SU18の入力端子Bに
入力される。減算器SU17はB−Aの減算を行って減
算結果のデータを、空間フィルタF27の計算結果のデ
ータとして比較選択器CS15に出力する。また、減算
器SU18はA−Bの減算を行って減算結果のデータを
、空間フィルタF28の計算結果のデータとして比較選
択器CS15に出力する。これに応答して、比較選択器
CS15は入力された各データのうち絶対値が大きいデ
ータを選択して比較選択器CS16に出力する。
[0128] Data DS40 to DS42 are added to adder AD.
109 and AD110, and the resultant data is sent from the adder AD110 to the input terminal A of the subtracter SU17.
is input. Furthermore, data DS43 to DS45 are added by adders AD111 and AD112, and the data resulting from the addition is input from adder AD112 to input terminal B of subtractor SU17 and input terminal A of subtractor SU18. Further, the data DS46 to DS48 are sent to the adder AD1.
13 and AD114, and the data of the addition result is input from the adder AD114 to the input terminal B of the subtracter SU18. The subtracter SU17 performs subtraction of B-A and outputs the data of the subtraction result to the comparison selector CS15 as data of the calculation result of the spatial filter F27. Further, the subtracter SU18 performs subtraction of A-B and outputs the data of the subtraction result to the comparison selector CS15 as the data of the calculation result of the spatial filter F28. In response, the comparison selector CS15 selects data with a large absolute value from among the input data and outputs it to the comparison selector CS16.

【0129】比較選択器CS13は入力された各データ
のうち絶対値が大きいデータを選択して比較選択器CS
17に出力し、また、比較選択器CS16は入力された
各データのうち絶対値が大きいデータを選択して比較選
択器CS17に出力する。これに応答して、比較選択器
CS17は入力された各データのうち絶対値が大きいデ
ータを選択して、選択したデータをエッジ強調量第1デ
ータとして復元データ計算部112に出力する。
[0129] The comparison selector CS13 selects data having a large absolute value among the input data and selects the data having a large absolute value.
Also, the comparison selector CS16 selects the data with the largest absolute value among the input data and outputs it to the comparison selector CS17. In response, the comparison selector CS17 selects data having a large absolute value from among the input data, and outputs the selected data to the restored data calculation unit 112 as edge enhancement amount first data.

【0130】図26は、エッジ強調量計算部111の第
2計算部111bのブロック図である。
FIG. 26 is a block diagram of the second calculation section 111b of the edge enhancement amount calculation section 111.

【0131】図26に示すように、データDS13が減
算器SU21の入力端子Aに入力され、データDS14
が減算器SU21の入力端子B及び減算器SU22の入
力端子Aに入力され、データDS15が減算器SU22
の入力端子Bに入力される。減算器SU21はB−Aの
減算を行って減算結果のデータを、空間フィルタF31
の計算結果のデータとして比較選択器CS21に出力す
る。また、減算器SU22はA−Bの減算を行って減算
結果のデータを、空間フィルタF32の計算結果のデー
タとして比較選択器CS21に出力する。これに応答し
て、比較選択器CS21は入力された各データのうち絶
対値が大きいデータを選択して比較選択器CS23に出
力する。
As shown in FIG. 26, data DS13 is input to input terminal A of subtracter SU21, and data DS14 is input to input terminal A of subtracter SU21.
is input to the input terminal B of the subtractor SU21 and the input terminal A of the subtractor SU22, and the data DS15 is input to the input terminal B of the subtractor SU22.
is input to input terminal B of . The subtracter SU21 subtracts B-A and sends the subtraction result data to the spatial filter F31.
It is output to the comparison selector CS21 as the data of the calculation result. Further, the subtracter SU22 performs subtraction of A-B and outputs the data of the subtraction result to the comparison selector CS21 as the data of the calculation result of the spatial filter F32. In response to this, the comparison selector CS21 selects data with a large absolute value from among the input data and outputs it to the comparison selector CS23.

【0132】データDS23が減算器SU23の入力端
子Aに入力され、データDS24が減算器SU23の入
力端子B及び減算器SU24の入力端子Aに入力され、
データDS25が減算器SU24の入力端子Bに入力さ
れる。減算器SU23はB−Aの減算を行って減算結果
のデータを、空間フィルタF33の計算結果のデータと
して比較選択器CS22に出力する。また、減算器SU
24はA−Bの減算を行って減算結果のデータを、空間
フィルタF34の計算結果のデータとして比較選択器C
S22に出力する。これに応答して、比較選択器CS2
2は入力された各データのうち絶対値が大きいデータを
選択して比較選択器CS23に出力する。
Data DS23 is input to input terminal A of subtractor SU23, data DS24 is input to input terminal B of subtractor SU23 and input terminal A of subtractor SU24,
Data DS25 is input to input terminal B of subtracter SU24. The subtracter SU23 performs subtraction of B-A and outputs the data of the subtraction result to the comparison selector CS22 as the data of the calculation result of the spatial filter F33. Also, the subtractor SU
24 performs the subtraction of A-B and uses the subtraction result data as the data of the calculation result of the spatial filter F34 in the comparison selector C.
Output to S22. In response, the comparison selector CS2
2 selects data with a large absolute value from among the input data and outputs it to the comparison selector CS23.

【0133】データDS33が減算器SU25の入力端
子Aに入力され、データDS34が減算器SU25の入
力端子B及び減算器SU26の入力端子Aに入力され、
データDS35が減算器SU26の入力端子Bに入力さ
れる。減算器SU25はB−Aの減算を行って減算結果
のデータを、空間フィルタF35の計算結果のデータと
して比較選択器CS24に出力する。また、減算器SU
26はA−Bの減算を行って減算結果のデータを、空間
フィルタF36の計算結果のデータとして比較選択器C
S24に出力する。これに応答して、比較選択器CS2
4は入力された各データのうち絶対値が大きいデータを
選択して比較選択器CS26に出力する。
Data DS33 is input to input terminal A of subtractor SU25, data DS34 is input to input terminal B of subtractor SU25 and input terminal A of subtractor SU26,
Data DS35 is input to input terminal B of subtracter SU26. The subtracter SU25 subtracts B-A and outputs the data of the subtraction result to the comparison selector CS24 as the data of the calculation result of the spatial filter F35. Also, the subtractor SU
26 performs subtraction of A-B and uses the subtraction result data as the data of the calculation result of the spatial filter F36 to the comparison selector C.
Output to S24. In response, the comparison selector CS2
4 selects data with a large absolute value from among the input data and outputs it to the comparison selector CS26.

【0134】データDS43が減算器SU27の入力端
子Aに入力され、データDS44が減算器SU27の入
力端子B及び減算器SU28の入力端子Aに入力され、
データDS45が減算器SU28の入力端子Bに入力さ
れる。減算器SU27はB−Aの減算を行って減算結果
のデータを、空間フィルタF37の計算結果のデータと
して比較選択器CS25に出力する。また、減算器SU
28はA−Bの減算を行って減算結果のデータを、空間
フィルタF38の計算結果のデータとして比較選択器C
S25に出力する。これに応答して、比較選択器CS2
5は入力された各データのうち絶対値が大きいデータを
選択して比較選択器CS26に出力する。
Data DS43 is input to input terminal A of subtractor SU27, data DS44 is input to input terminal B of subtractor SU27 and input terminal A of subtractor SU28,
Data DS45 is input to input terminal B of subtracter SU28. The subtracter SU27 performs subtraction of B-A and outputs the data of the subtraction result to the comparison selector CS25 as the data of the calculation result of the spatial filter F37. Also, the subtractor SU
28 performs the subtraction of A-B and uses the subtraction result data as the data of the calculation result of the spatial filter F38 to the comparison selector C.
Output to S25. In response, the comparison selector CS2
5 selects data having a large absolute value from among the input data and outputs it to the comparison selector CS26.

【0135】比較選択器CS23は入力された各データ
のうち絶対値が大きいデータを選択して比較選択器CS
27に出力し、また、比較選択器CS26は入力された
各データのうち絶対値が大きいデータを選択して比較選
択器CS27に出力する。これに応答して、比較選択器
CS27は入力された各データのうち絶対値が大きいデ
ータを選択して、選択したデータをエッジ強調量第2デ
ータとして復元データ計算部112に出力する。
[0135] The comparison selector CS23 selects data having a large absolute value from among the input data and selects the data having a large absolute value.
Also, the comparison selector CS26 selects the data with the largest absolute value among the input data and outputs it to the comparison selector CS27. In response, the comparison selector CS27 selects data with a large absolute value from among the input data, and outputs the selected data to the restored data calculation unit 112 as edge enhancement amount second data.

【0136】以上のエッジ強調量計算部111において
、各空間フィルタによって計算されたエッジ強調量のう
ち絶対値のエッジ強調量を選択しているのは、以下の理
由による。すなわち、多値の画像データに対するエッジ
強調処理においては、すべての方向のエッジ成分が加算
されるが、一方、2値の画像データに対するエッジ強調
処理においては、擬似中間調特有の画像パターンに対し
ては微小なエッジ強調量を出力する場合が多い。この微
小なエッジ強調量は、信頼性が低く、それらの加算はと
もすれば大きな誤差となるからである。
The reason why the edge enhancement amount calculation unit 111 selects the absolute value edge enhancement amount from among the edge enhancement amounts calculated by each spatial filter is as follows. That is, in edge enhancement processing for multivalued image data, edge components in all directions are added, but on the other hand, in edge enhancement processing for binary image data, the edge components are added for image patterns specific to pseudo-halftones. often outputs a small amount of edge enhancement. This is because this small amount of edge enhancement has low reliability, and adding them together will result in a large error.

【0137】(6−5)エッジ領域判別部図27は、図
3に図示したエッジ領域判別部109のブロック図であ
る。
(6-5) Edge Area Discriminator FIG. 27 is a block diagram of the edge area discriminator 109 shown in FIG. 3.

【0138】図27に示すように、データDS10乃至
DS13が加算器AD121乃至AD123によって加
算され、加算結果のデータが加算器AD123から減算
器SU31の入力端子Aに出力される。また、データD
S14乃至DS17が加算器AD124乃至AD126
によって加算され、加算結果のデータが加算器AD12
6から減算器SU31の入力端子Bに出力される。減算
器SU31はB−Aの減算を行って、減算結果のデータ
を空間フィルタF41の計算結果のデータとして比較選
択器CS31に出力する。
As shown in FIG. 27, data DS10 to DS13 are added by adders AD121 to AD123, and the data resulting from the addition is output from adder AD123 to input terminal A of subtracter SU31. Also, data D
S14 to DS17 are adders AD124 to AD126
The data of the addition result is added by the adder AD12.
6 to input terminal B of the subtracter SU31. The subtracter SU31 subtracts B-A and outputs the data of the subtraction result to the comparison selector CS31 as data of the calculation result of the spatial filter F41.

【0139】データDS21乃至DS24が加算器AD
127乃至AD129によって加算され、加算結果のデ
ータが加算器AD129から減算器SU32の入力端子
Aに出力される。また、データDS25乃至DS28が
加算器AD130乃至AD132によって加算され、加
算結果のデータが加算器AD132から減算器SU32
の入力端子Bに出力される。減算器SU32はA−Bの
減算を行って、減算結果のデータを空間フィルタF42
の計算結果のデータとして比較選択器CS31に出力す
る。
[0139] Data DS21 to DS24 are added to adder AD.
127 to AD129, and the data of the addition result is output from the adder AD129 to the input terminal A of the subtracter SU32. Further, the data DS25 to DS28 are added by the adders AD130 to AD132, and the data of the addition result is transferred from the adder AD132 to the subtracter SU32.
is output to input terminal B of. The subtracter SU32 performs subtraction of A-B and sends the subtraction result data to the spatial filter F42.
It is output to the comparison selector CS31 as the data of the calculation result.

【0140】データDS31乃至DS34が加算器AD
133乃至AD135によって加算され、加算結果のデ
ータが加算器AD135から減算器SU33の入力端子
Aに出力される。また、データDS35乃至DS38が
加算器AD136乃至AD138によって加算され、加
算結果のデータが加算器AD138から減算器SU33
の入力端子Bに出力される。減算器SU33はA−Bの
減算を行って、減算結果のデータを空間フィルタF43
の計算結果のデータとして比較選択器CS32に出力す
る。
[0140] Data DS31 to DS34 are added to adder AD.
133 to AD135, and the data of the addition result is output from the adder AD135 to the input terminal A of the subtracter SU33. Further, the data DS35 to DS38 are added by the adders AD136 to AD138, and the data of the addition result is transferred from the adder AD138 to the subtracter SU33.
is output to input terminal B of. The subtracter SU33 performs subtraction of A-B and sends the data of the subtraction result to the spatial filter F43.
It is output to the comparison selector CS32 as the data of the calculation result.

【0141】データDS40乃至DS43が加算器AD
139乃至AD141によって加算され、加算結果のデ
ータが加算器AD141から減算器SU34の入力端子
Aに出力される。また、データDS44乃至DS47が
加算器AD142乃至AD144によって加算され、加
算結果のデータが加算器AD144から減算器SU34
の入力端子Bに出力される。減算器SU34はB−Aの
減算を行って、減算結果のデータを空間フィルタF44
の計算結果のデータとして比較選択器CS32に出力す
る。
[0141] Data DS40 to DS43 are added to adder AD.
139 to AD141, and the data of the addition result is output from the adder AD141 to the input terminal A of the subtracter SU34. Further, the data DS44 to DS47 are added by the adders AD142 to AD144, and the data of the addition result is transferred from the adder AD144 to the subtracter SU34.
is output to input terminal B of. The subtracter SU34 performs subtraction of B-A, and the data of the subtraction result is sent to the spatial filter F44.
It is output to the comparison selector CS32 as the data of the calculation result.

【0142】比較選択器CS31は入力された各データ
のうち絶対値が大きいデータを選択して比較選択器CS
33に出力し、比較選択器CS32は入力された各デー
タのうち絶対値が大きいデータを選択して比較選択器C
S33に出力する。これに応答して、比較選択器CS3
3は入力された各データのうち絶対値が大きいデータを
選択して選択したデータを絶対値回路AB1に出力する
。絶対値回路AB1は、入力されたデータの絶対値のデ
ータを、エッジ領域判別量として復元データ計算部11
2に出力する。
[0142] The comparison selector CS31 selects data having a large absolute value from among the input data and selects the data having a large absolute value.
33, and the comparison selector CS32 selects the data with the largest absolute value among the input data and outputs it to the comparison selector C
Output to S33. In response, the comparison selector CS3
3 selects data with a large absolute value from among the input data and outputs the selected data to the absolute value circuit AB1. The absolute value circuit AB1 uses the data of the absolute value of the input data as an edge area discrimination amount in the restored data calculation unit 11.
Output to 2.

【0143】なお、当該エッジ領域判別部109におい
て、絶対値のデータをエッジ領域判別量として出力して
いるのは、エッジ成分量の正又は負に対応するエッジ成
分の方向の情報が復元データ計算部112において不要
であるからである。
[0143] The reason why the edge area discriminator 109 outputs absolute value data as the edge area discrimination amount is because the information on the direction of the edge component corresponding to the positive or negative edge component amount is used in the restored data calculation. This is because it is unnecessary in the section 112.

【0144】(6−6)復元データ計算部図28は、図
3に図示した復元データ計算部112のブロック図であ
る。
(6-6) Restored Data Calculation Unit FIG. 28 is a block diagram of the restored data calculation unit 112 shown in FIG. 3.

【0145】図28に示すように、9×9黒画素数のデ
ータが乗算器201に入力され、9×9のウィンドウW
9内の総画素数と7×7のウィンドウW7内の総画素数
との換算を行うために49/81が入力されたデータに
乗算され、乗算結果のデータがセレクタ202の入力端
子Aに出力される。また、7×7黒画素数第2データは
、比較器203,204の各入力端子Aに入力されると
ともに、セレクタ202の入力端子Bに入力される。 所定のしきい値TJ1のデータが比較器203の入力端
子Bに入力され、比較器203はA<BのときにHレベ
ルの信号をノアゲート205を介して乗算器206のク
リア端子に出力し、一方、それ以外のときLレベルの信
号を同様に出力する。また、“49−TJ1”のデータ
が比較器204の入力端子Bに入力され、比較器204
はA>BのときHレベルの信号をノアゲート205を介
して乗算器206のクリア端子に出力し、一方、それ以
外のときLレベルの信号を同様に出力する。
As shown in FIG. 28, data of 9×9 black pixels is input to the multiplier 201, and a 9×9 window W is input to the multiplier 201.
The input data is multiplied by 49/81 in order to convert the total number of pixels in 9 and the total number of pixels in 7×7 window W7, and the multiplication result data is output to input terminal A of selector 202. be done. Further, the 7×7 black pixel count second data is input to each input terminal A of the comparators 203 and 204, and is also input to the input terminal B of the selector 202. Data of a predetermined threshold TJ1 is input to the input terminal B of the comparator 203, and the comparator 203 outputs an H level signal to the clear terminal of the multiplier 206 via the NOR gate 205 when A<B. On the other hand, at other times, an L level signal is similarly output. Furthermore, the data of "49-TJ1" is input to the input terminal B of the comparator 204,
outputs an H level signal to the clear terminal of the multiplier 206 via the NOR gate 205 when A>B, and similarly outputs an L level signal at other times.

【0146】集中型第1ディザ画像判別信号はオアゲー
ト209及びオアゲート210を介して比較選択器20
7のクリア端子に入力され、また、集中型第2ディザ画
像判別信号はオアゲート209及びオアゲート210を
介して比較選択器207のクリア端子に入力されるとと
もに、セレクタ202の選択端子SELに入力される。
The concentrated first dithered image discrimination signal is sent to the comparison selector 20 via the OR gate 209 and the OR gate 210.
The concentrated second dither image discrimination signal is input to the clear terminal of the comparison selector 207 via the OR gate 209 and the OR gate 210, and is also input to the selection terminal SEL of the selector 202. .

【0147】セレクタ202は、Hレベルの集中型第2
ディザ画像判別信号が選択端子SELに入力されている
とき、入力端子Aに入力されているデータを選択して、
乗算器211に出力し、一方、Lレベルの集中型第2デ
ィザ画像判別信号が選択端子SELに入力されていると
き、入力端子Bに入力されているデータを選択して、乗
算器211に出力する。乗算器211は、50階調から
64階調に変換するために設けられ、入力されるデータ
に63/49の乗数を乗算した後、乗算結果のデータを
平滑量として加算回路213の入力端子Aに出力する。
[0147] The selector 202 selects the H level centralized second
When the dither image discrimination signal is input to the selection terminal SEL, select the data input to the input terminal A,
On the other hand, when the L level concentrated second dither image discrimination signal is input to the selection terminal SEL, the data input to the input terminal B is selected and output to the multiplier 211. do. The multiplier 211 is provided to convert from 50 gradations to 64 gradations, and after multiplying the input data by a multiplier of 63/49, the multiplication result data is used as a smoothing amount and sent to the input terminal A of the addition circuit 213. Output to.

【0148】エッジ強調量第1データは比較選択器20
7の入力端子Bに入力され、エッジ強調量第2データは
、乗算器206に入力される。乗算器206は、エッジ
強調量第1データを計算するときに用いる各空間フィル
タの各ウィンドウとエッジ強調量第2データを計算する
ときに用いる各空間フィルタの各ウィンドウとの大きさ
を換算するために設けられ、入力されるデータに3を乗
算して、乗算結果のデータを比較選択器207の入力端
子Aに出力する。ここで、Hレベルの信号が乗算器20
6のクリア端子に入力されたとき、その出力データが“
0”にクリアされる。
The edge emphasis amount first data is provided by the comparison selector 20
The edge enhancement amount second data is input to the multiplier 206. The multiplier 206 converts the size of each window of each spatial filter used when calculating the edge enhancement amount first data and each window of each spatial filter used when calculating the edge enhancement amount second data. is provided to multiply the input data by 3 and output the multiplication result data to the input terminal A of the comparison selector 207. Here, the H level signal is transmitted to the multiplier 20.
When input to the clear terminal of 6, the output data is “
Cleared to 0”.

【0149】エッジ領域判別量のデータは比較器208
の入力端子Aに入力され、所定のしきい値TJ2のデー
タが比較器208の入力端子Bに入力され、比較器20
8はA<BのときHレベルの信号をオアゲート210を
介して比較選択器207に出力し、一方、それ以外のと
きLレベルの信号を同様に出力する。比較選択器207
は、クリア端子にLレベルの信号が入力されているとき
、各入力端子A,Bに入力される各データのうち絶対値
が最大のデータを選択して乗算器212に出力し、一方
、クリア端子にHレベルの信号が入力されているとき、
出力データをクリアして“0”のデータを乗算器212
に出力する。乗算器212は、平滑量に適量のエッジ強
調量の混合を行うために、入力されたデータに(63×
0.4/21)を乗算して、乗算結果のデータをエッジ
強調量として加算回路213の入力端子Bに出力する。 さらに、加算回路213は、各入力端子A,Bに入力さ
れた平滑量のデータとエッジ強調量のデータとを、詳細
後述するように加算した後、加算結果のデータを中間調
復元画像データとしてデータ混合部104に出力する。
[0149] The data of the edge region discrimination amount is sent to the comparator 208.
is input to the input terminal A of the comparator 208, and data of a predetermined threshold TJ2 is input to the input terminal B of the comparator 208
8 outputs an H level signal to the comparison selector 207 via the OR gate 210 when A<B, and similarly outputs an L level signal at other times. Comparison selector 207
When an L level signal is input to the clear terminal, selects the data with the largest absolute value among the data input to each input terminal A and B and outputs it to the multiplier 212; When an H level signal is input to the terminal,
Clear the output data and add “0” data to the multiplier 212
Output to. The multiplier 212 adds (63×
0.4/21) and outputs the multiplication result data to the input terminal B of the addition circuit 213 as an edge emphasis amount. Further, the addition circuit 213 adds the data of the smoothing amount and the data of the edge enhancement amount input to each input terminal A and B as will be described in detail later, and then converts the data of the addition result into halftone restored image data. The data is output to the data mixing section 104.

【0150】以上のように構成された復元データ計算部
112において、セレクタ202では、集中型第2デー
タ画像判別信号に応じて、9×9黒画素数に対応するデ
ータを選択するか、7×7黒画素数第2データを選択す
るかの両者の選択が行われる。上記集中型第1ディザ画
像は、主副走査方向に4ドット毎に1周期の濃度変化が
存在する。そのため、平滑量を計算するために4×4の
ウィンドウよりも大きなウィンドウが必要であり、本実
施例においては、7×7のウィンドウW7を用いる。一
方、上記集中型第2ディザ画像においては、斜め方向に
4ドット毎に1周期の濃度変化が存在する。そのため、
平滑量を計算するために、(2の平方根×4)×(2の
平方根×4)のウィンドウよりも大きなウィンドウが必
要であり、本実施例では、マージンを加算して、9×9
のウィンドウW9を用いる。なお、分散型中間調画像に
対しては、平滑量を計算するために、7×7のウィンド
ウW7を用いる。
In the restored data calculating section 112 configured as described above, the selector 202 selects data corresponding to 9×9 black pixels or 7× A selection is made as to whether to select the 7 black pixel number second data. In the concentrated first dither image, there is one period of density change for every four dots in the main and sub-scanning directions. Therefore, in order to calculate the smoothing amount, a window larger than the 4×4 window is required, and in this embodiment, a 7×7 window W7 is used. On the other hand, in the concentrated second dither image, there is one cycle of density change every four dots in the diagonal direction. Therefore,
In order to calculate the amount of smoothing, a window larger than the window of (square root of 2 x 4) x (square root of 2 x 4) is required, and in this example, by adding the margin, a window of 9 x 9 is required.
window W9 is used. Note that for a distributed halftone image, a 7×7 window W7 is used to calculate the amount of smoothing.

【0151】なお、モアレの発生を防止するために、デ
ィザの周期の整数倍の大きさのウィンドウが望ましい。 従って、平滑量を計算するために、集中型第1ディザ画
像に対しては、4×4のウィンドウ又は8×8のウィン
ドウを用いることがより好ましい。また、集中型第2デ
ィザ画像に対しては、平滑量を計算するために、ウィン
ドウの辺が主副走査方向に平行な8×8のウィンドウを
、主副走査方向に対して45度だけ傾斜されたウィンド
ウを用いることがより好ましい。
Note that in order to prevent the occurrence of moiré, it is desirable to use a window whose size is an integral multiple of the dither period. Therefore, it is more preferable to use a 4×4 window or an 8×8 window for the concentrated first dither image in order to calculate the amount of smoothing. In addition, for the concentrated second dither image, in order to calculate the amount of smoothing, an 8 x 8 window whose sides are parallel to the main and sub-scanning directions is tilted by 45 degrees to the main and sub-scanning directions. It is more preferable to use a closed window.

【0152】また、当該復元データ計算部112におい
て、注目画素がエッジ領域にあるか否かを判別するため
に、集中型第1ディザ画像判別信号と集中型第2ディザ
画像判別信号を用いる。エッジ領域判別量が所定のしき
い値TJ2よりも小さいとき(比較器208の出力信号
がHレベルのとき)、又は集中型第1ディザ画像判別信
号と集中型第2ディザ画像判別信号のいずれかの信号が
Hレベルであるとき(オアゲート209の出力信号がH
レベルであるとき)、オアゲート210の出力信号はH
レベルとなり、このとき、比較選択器207の出力デー
タが“0”にクリアされ、エッジ強調量が“0”となり
、エッジ強調を行わない。これは、集中型第1又は第2
ディザ画像の領域においては、そのディザパターンの空
間周波数が比較的低いため、分散型中間調画像の検出を
目的とするエッジ領域判別部109がエッジ領域である
と誤って判断するようなエッジ判別量を出力するおそれ
があるからである。なお、本実施例において、好ましく
は、上記しきい値TJ2は4である。
The restored data calculation unit 112 also uses the concentrated first dithered image discrimination signal and the concentrated second dithered image discrimination signal in order to determine whether or not the pixel of interest is in an edge region. When the edge region discrimination amount is smaller than the predetermined threshold TJ2 (when the output signal of the comparator 208 is at H level), or either the concentrated first dither image discrimination signal or the concentrated second dither image discrimination signal When the signal is at H level (the output signal of OR gate 209 is H level)
level), the output signal of the OR gate 210 is H
At this time, the output data of the comparison selector 207 is cleared to "0", the edge enhancement amount becomes "0", and edge enhancement is not performed. This is a centralized first or second
In a dithered image area, since the spatial frequency of the dither pattern is relatively low, the edge discrimination amount is such that the edge area discriminating unit 109, which aims to detect a distributed halftone image, incorrectly determines that it is an edge area. This is because there is a risk of outputting. Note that in this embodiment, the threshold value TJ2 is preferably 4.

【0153】さらに、エッジ強調量第1データを計算す
るために用いる空間フィルタのウィンドウとエッジ強調
量第2データを計算するために用いる空間フィルタのウ
ィンドウとの間の大きさの違いを換算するために、乗算
器206を設けている。換算の比率は、一方のウィンド
ウの空間周波数を有する画像に対して、そのウィンドウ
を用いて計算されるエッジ強調量が選択されるように設
定する必要がある。
Furthermore, in order to convert the difference in size between the spatial filter window used to calculate the edge enhancement amount first data and the spatial filter window used to calculate the edge enhancement amount second data. A multiplier 206 is provided. The conversion ratio needs to be set so that for an image having the spatial frequency of one window, the edge enhancement amount calculated using that window is selected.

【0154】また、少数画素数が所定のしきい値TJ1
以上であるとき(比較器203,204の両方の出力信
号がLレベルであるとき)、エッジ強調量第2データの
乗算器206による換算データがクリアされて“0”に
される。これは、エッジ強調量第2データは、幅が1の
細線形状の画像を対象として計算されたエッジ強調量で
あって、このような画像において、上述のように、少数
画素数は比較的小さいからである。また、当該処理によ
って、少数画素が多くなってきたとき、擬似中間調の画
像パターンを強調することを防止することができる。な
お、本実施例において、上記しきい値TJ1は好ましく
は、8である。
[0154] Furthermore, the number of minority pixels is equal to a predetermined threshold value TJ1.
When this is the case (when both output signals of the comparators 203 and 204 are at L level), the conversion data of the edge enhancement amount second data by the multiplier 206 is cleared and set to "0". This is because the edge enhancement amount second data is the edge enhancement amount calculated for a thin line-shaped image with a width of 1, and in such an image, as described above, the number of minority pixels is relatively small. It is from. Further, by this processing, when the number of minority pixels increases, it is possible to prevent the pseudo-halftone image pattern from being emphasized. In this embodiment, the threshold value TJ1 is preferably 8.

【0155】図29は、図28に図示した加算回路21
3のブロック図である。
FIG. 29 shows the adder circuit 21 shown in FIG.
It is a block diagram of No. 3.

【0156】加算回路213は、符号1ビットを含む7
ビットのエッジ強調量と6ビットの平滑量を加算する回
路であって、加算器AD151と、比較器CM51,C
M52と、符号ビット1ビットと最上位1ビットを切り
捨てて出力するビット切捨回路BACと、セレクタSE
1と、入力されるデータを1/2倍して出力する乗算器
MU51とを備える。
The adder circuit 213 has 7 bits including 1 bit of sign.
A circuit that adds a bit edge emphasis amount and a 6-bit smoothing amount, and includes an adder AD151 and comparators CM51 and C.
M52, a bit truncation circuit BAC that truncates and outputs one sign bit and one most significant bit, and a selector SE.
1, and a multiplier MU51 that multiplies input data by 1/2 and outputs the multiplier.

【0157】乗算器212から出力されるエッジ強調量
のデータと、乗算器211から出力される平滑量のデー
タは加算器AD151に入力され、当該加算器AD15
1から出力される符号1ビットを含む8ビットのデータ
は、比較器CM51,CM52の各入力端子Aに出力さ
れるとともに、ビット切捨回路BACを介してセレクタ
SE1に出力される。比較器CM51の入力端子Bに“
0”のデータが入力され、比較器CM51は各入力端子
A,Bに入力されるデータを比較し、入力端子Aに入力
されるデータが入力端子Bに入力されたデータよりも小
さいときHレベルの比較結果信号をセレクタSE1の選
択信号入力端子SELAに出力し、一方、それ以外のと
き、Lレベルの比較結果信号を同様に出力する。また、
比較器CM52の入力端子Bに“64”のデータが入力
され、比較器CM52は各入力端子A,Bに入力される
データを比較し、入力端子Aに入力されるデータが入力
端子Bに入力されたデータ以上であるときHレベルの比
較結果信号をセレクタSE1の選択信号入力端子SEL
Bに出力し、一方、それ以外のとき、Lレベルの比較結
果信号を同様に出力する。セレクタSE1は、選択信号
入力端子SEAに入力される信号がHレベルのとき入力
端子Aに入力される“0”のデータを出力し、また、選
択信号入力端子SEBに入力される信号がHレベルのと
き入力端子Aに入力される“64”のデータを出力し、
各選択信号入力端子SEA,SEBに入力される信号が
いずれもLレベルのとき入力端子Cに入力される6ビッ
トのデータを出力する。セレクタSE1から出力される
データは乗算器MU51を介して、復元された中間調の
多値画像データとしてデータ混合部104に出力される
The edge enhancement amount data output from the multiplier 212 and the smoothing amount data output from the multiplier 211 are input to the adder AD151.
The 8-bit data including the 1-bit code outputted from 1 is outputted to each input terminal A of the comparators CM51 and CM52, and is also outputted to the selector SE1 via the bit truncation circuit BAC. " to input terminal B of comparator CM51
0'' data is input, the comparator CM51 compares the data input to each input terminal A and B, and when the data input to input terminal A is smaller than the data input to input terminal B, the comparator CM51 becomes H level. The comparison result signal of is outputted to the selection signal input terminal SELA of selector SE1, while the comparison result signal of L level is similarly outputted at other times.
Data "64" is input to the input terminal B of the comparator CM52, and the comparator CM52 compares the data input to each input terminal A and B, and the data input to the input terminal A is input to the input terminal B. When the data is greater than or equal to the specified data, the H level comparison result signal is sent to the selection signal input terminal SEL of the selector SE1.
On the other hand, at other times, an L level comparison result signal is similarly output. The selector SE1 outputs "0" data that is input to the input terminal A when the signal input to the selection signal input terminal SEA is at H level, and when the signal input to the selection signal input terminal SEB is at H level. Outputs the data “64” input to input terminal A when
When the signals input to each selection signal input terminal SEA, SEB are both at L level, the 6-bit data input to input terminal C is output. The data output from the selector SE1 is output to the data mixing unit 104 as restored halftone multi-value image data via the multiplier MU51.

【0158】以上のように構成された加算回路213は
、エッジ強調量と平滑量を加算し、加算結果のデータの
うち0未満及び64以上をそれぞれ0、63にまるめた
後、下位1ビットを切り捨てて、0から31までのある
値を有する5ビットのデータを演算することができ、こ
の演算結果のデータを復元された中間調の多値画像デー
タとしてデータ混合部104に出力する。
The adder circuit 213 configured as described above adds the edge emphasis amount and the smoothing amount, and after rounding the data of the addition result less than 0 and 64 or more to 0 and 63, respectively, the lower 1 bit is By truncating, it is possible to calculate 5-bit data having a certain value from 0 to 31, and output the data resulting from this calculation to the data mixing unit 104 as restored halftone multi-value image data.

【0159】(7)他の実施例 以上の実施例においては、図41に図示した周辺分布の
変化に基づいて集中型中間調画像の検出を行っているが
、図76に図示した5個のウィンドウW4a乃至W4d
を用いたパターンマッチングの方法を用いてもよい。
(7) Other Embodiments In the above embodiments, concentrated halftone images are detected based on the changes in the peripheral distribution shown in FIG. Windows W4a to W4d
A pattern matching method using .

【0160】図76において、注目画素*を含む4×4
のウィンドウW4aと、当該ウィンドウW4aに対して
第1及び第2の斜め方向に隣接して位置する4個の各4
×4のウィンドウW4b乃至W4dとの間で、画像パタ
ーンのマッチングを行い、各画素データが一致しない画
素数を計数することによって、集中型中間調画像に対す
る中間調判別値を求めることができる。なお、上記4個
のウィンドウW4b乃至W4dは、スクリーン角が0度
と45度の2種類のドット集中型組織的ディザ画像に同
時に対応できるようにするために用いている。
In FIG. 76, a 4×4 pixel including the pixel of interest *
window W4a, and each of four windows located adjacent to the window W4a in the first and second diagonal directions.
By performing image pattern matching between the ×4 windows W4b to W4d and counting the number of pixels for which each pixel data does not match, the halftone discrimination value for the concentrated halftone image can be obtained. The four windows W4b to W4d are used to simultaneously accommodate two types of dot-concentrated systematic dithered images with screen angles of 0 degrees and 45 degrees.

【0161】いま、例えば、図77の画像パターンPA
T1と、図78の画像パターンPAT2と、図79の画
像パターンPAT3について、上記のパターンマッチン
グの方法を用いて、非マッチング画素数を計数した結果
を「表1」に示す。
Now, for example, the image pattern PA in FIG.
Table 1 shows the results of counting the number of non-matching pixels using the pattern matching method described above for T1, image pattern PAT2 of FIG. 78, and image pattern PAT3 of FIG. 79.

【0162】[0162]

【表1】[Table 1]

【0163】「表1」から明らかなように、非中間調の
画像パターンである図77の画像パターンPAT1の場
合に、非マッチング画素数が大きな値となっており、こ
れによって、当該パターンマッチングの方法の妥当性が
証明された。
As is clear from "Table 1", in the case of image pattern PAT1 in FIG. 77, which is a non-halftone image pattern, the number of non-matching pixels is a large value, and this causes The validity of the method was demonstrated.

【0164】[0164]

【発明の効果】以上詳述したように本発明によれば、擬
似中間調で2値化された2値画像データと、所定のしき
い値を用いて非中間調で2値化された2値画像データと
を含む入力された2値画像データのうちの、注目画素と
その周辺の複数の画素とを含む所定の領域に対応する2
値画像データに基づいて、上記入力された2値画像デー
タの各画素毎に、擬似中間調の2値画像データの領域で
あるか、又は非中間調の2値画像データの領域であるか
を判別する像域判別手段と、上記入力された2値画像デ
ータを多値画像データに復元する復元手段とを備えた画
像処理装置において、上記像域判別手段によって擬似中
間調の2値画像データの領域であると判別された2値画
像データのうちの注目画素の2値画像データに対して、
上記注目画素とその周辺画素との濃度差を強調するエッ
ジ強調処理を行なうエッジ強調手段と、上記注目画素の
2値画像データがドット集中型ディザ法によって擬似中
間調で2値化された2値画像データであるか否かを判別
するディザ判別手段と、上記ディザ判別手段によって上
記注目画素の2値画像データがドット集中型ディザ法に
よって擬似中間調で2値化された2値画像データである
と判別されたときに、上記注目画素の2値画像データに
対して上記エッジ強調手段が行なうエッジ強調処理を禁
止する禁止手段とを備える。
Effects of the Invention As described in detail above, according to the present invention, binary image data that has been binarized with pseudo-halftones and binary image data that has been binarized with non-halftones using a predetermined threshold 2 corresponding to a predetermined area including the pixel of interest and a plurality of pixels around it, out of input binary image data including value image data.
Based on the value image data, it is determined for each pixel of the input binary image data whether it is a pseudo-halftone binary image data area or a non-halftone binary image data area. In an image processing apparatus comprising image area discriminating means for discriminating, and restoring means for restoring the input binary image data into multi-valued image data, the image area discriminating means converts pseudo-halftone binary image data into multi-valued image data. For the binary image data of the pixel of interest among the binary image data determined to be a region,
an edge enhancement means that performs an edge enhancement process that emphasizes the density difference between the pixel of interest and its surrounding pixels; and a binary image data of the pixel of interest that is binarized in a pseudo halftone by a dot concentrated dither method. a dither determining means for determining whether or not the pixel is image data, and the binary image data of the pixel of interest is binary image data obtained by converting the binary image data of the pixel of interest into a pseudo halftone using a dot concentrated dithering method by the dither determining means. and prohibition means for prohibiting edge enhancement processing performed by the edge enhancement means on the binary image data of the pixel of interest when it is determined that

【0165】従って、従来例のように、ドット集中型デ
ィザ法によって擬似中間調で2値化された2値画像デー
タに対してエッジ強調処理を行ってしまい、元の画像と
は全く異なる格子状の画像に復元することを防止するこ
とができる。これによって、2値画像データを多値画像
データに、従来例に比較しより正確に、すなわち原画像
により忠実に復元することができるという利点がある。
Therefore, as in the conventional example, edge enhancement processing is performed on binary image data that has been binarized with pseudo halftones using the dot concentrated dither method, resulting in a grid pattern that is completely different from the original image. It is possible to prevent the image from being restored. This has the advantage that binary image data can be restored to multivalued image data more accurately than in the conventional example, that is, more faithfully to the original image.

【図面の簡単な説明】[Brief explanation of drawings]

【図1】  本発明に係る一実施例であるファクシミリ
装置の機構部の縦断面図である。
FIG. 1 is a longitudinal cross-sectional view of a mechanical section of a facsimile machine that is an embodiment of the present invention.

【図2】  図1に図示したファクシミリ装置の信号処
理部のブロック図である。
FIG. 2 is a block diagram of a signal processing section of the facsimile machine illustrated in FIG. 1;

【図3】  図2に図示した画像復元処理部のブロック
図である。
FIG. 3 is a block diagram of the image restoration processing section shown in FIG. 2;

【図4】  図3に図示した10×21マトリックスメ
モリ回路のブロック図である。
FIG. 4 is a block diagram of the 10×21 matrix memory circuit illustrated in FIG. 3;

【図5】  図3に図示したディザ判定部の第1計算部
のブロック図である。
5 is a block diagram of a first calculation section of the dither determination section shown in FIG. 3; FIG.

【図6】  図3に図示したディザ判定部の第2計算部
のブロック図である。
6 is a block diagram of a second calculation section of the dither determination section shown in FIG. 3. FIG.

【図7】  図5、図6、図18並びに図20乃至図2
3に図示した論理B回路のブロック図である。
[Figure 7] Figures 5, 6, 18, and 20 to 2
3 is a block diagram of the logic B circuit illustrated in FIG.

【図8】  図3に図示したディザ判定部の第3計算部
のブロック図である。
8 is a block diagram of a third calculation section of the dither determination section shown in FIG. 3. FIG.

【図9】  図3に図示したディザ判定部の第4計算部
のブロック図である。
9 is a block diagram of a fourth calculation section of the dither determination section shown in FIG. 3. FIG.

【図10】  図3に図示したディザ判定部の第5計算
部のブロック図である。
10 is a block diagram of a fifth calculation section of the dither determination section shown in FIG. 3. FIG.

【図11】  図3に図示したディザ判定部の第6計算
部のブロック図である。
11 is a block diagram of a sixth calculation section of the dither determination section shown in FIG. 3. FIG.

【図12】  図3に図示したディザ判定部の第7計算
部のブロック図である。
12 is a block diagram of a seventh calculation section of the dither determination section shown in FIG. 3. FIG.

【図13】  図3に図示した隣接状態判定部の第1計
算部のブロック図である。
13 is a block diagram of a first calculation section of the adjacent state determination section shown in FIG. 3. FIG.

【図14】  図13に図示した主副走査方向隣接数カ
ウンタのブロック図である。
14 is a block diagram of the main/sub-scanning direction adjacent number counter shown in FIG. 13; FIG.

【図15】  図3に図示した隣接状態判定部の第2計
算部のブロック図である。
15 is a block diagram of a second calculation section of the adjacent state determination section illustrated in FIG. 3. FIG.

【図16】  図3に図示した隣接状態判定部の第3計
算部のブロック図である。
16 is a block diagram of a third calculation section of the adjacent state determination section shown in FIG. 3. FIG.

【図17】  図3に図示した5×11マトリックスメ
モリ回路のブロック図である。
17 is a block diagram of the 5×11 matrix memory circuit illustrated in FIG. 3. FIG.

【図18】  図3に図示した判定データ計数部のブロ
ック図である。
18 is a block diagram of the determination data counting section illustrated in FIG. 3. FIG.

【図19】  図3に図示した判別データ信号生成部の
ブロック図である。
19 is a block diagram of the discrimination data signal generation section illustrated in FIG. 3. FIG.

【図20】  図3に図示した窓内計数部の第1計算部
のブロック図である。
20 is a block diagram of a first calculation section of the window counting section shown in FIG. 3; FIG.

【図21】  図3に図示した窓内計数部の第2計算部
のブロック図である。
21 is a block diagram of a second calculation section of the in-window counting section shown in FIG. 3; FIG.

【図22】  図3に図示した窓内計数部の第3計算部
のブロック図である。
22 is a block diagram of a third calculation section of the in-window counting section shown in FIG. 3; FIG.

【図23】  図3に図示した窓内計数部の第4計算部
のブロック図である。
23 is a block diagram of a fourth calculation section of the in-window counting section shown in FIG. 3; FIG.

【図24】  図3に図示した平滑量計算部のブロック
図である。
24 is a block diagram of the smoothing amount calculation section shown in FIG. 3. FIG.

【図25】  図3に図示したエッジ強調量計算部の第
1計算部のブロック図である。
25 is a block diagram of a first calculation section of the edge enhancement amount calculation section shown in FIG. 3; FIG.

【図26】  図3に図示したエッジ強調量計算部の第
2計算部のブロック図である。
26 is a block diagram of a second calculation section of the edge enhancement amount calculation section shown in FIG. 3. FIG.

【図27】  図3に図示したエッジ領域判別部のブロ
ック図である。
27 is a block diagram of the edge area determination unit illustrated in FIG. 3. FIG.

【図28】  図3に図示した復元データ計算部のブロ
ック図である。
28 is a block diagram of the restored data calculation unit shown in FIG. 3. FIG.

【図29】  図28に図示した加算回路のブロック図
である。
29 is a block diagram of the adder circuit shown in FIG. 28. FIG.

【図30】  本実施例において用いる10×21のウ
ィンドウ内の各画素データを示す図である。
FIG. 30 is a diagram showing each pixel data within a 10×21 window used in this example.

【図31】  図3に図示した隣接状態判定部及びディ
ザ判定部における判定時の各画素の参照範囲、図3に図
示した判別データ信号生成部における判定時の各画素の
参照範囲、図3に図示した中間調画像復元部における復
元時の各画素の参照範囲を示す図である。
31] The reference range of each pixel at the time of determination in the adjacent state determination section and the dither determination section illustrated in FIG. 3, the reference range of each pixel at the time of determination in the discrimination data signal generation section illustrated in FIG. 3, FIG. 6 is a diagram showing a reference range of each pixel during restoration in the illustrated halftone image restoration section.

【図32】  文字画像を読み取った後、所定のしきい
値を用いて2値化したときに得られる非中間調画像の一
例を示す図である。
FIG. 32 is a diagram showing an example of a non-halftone image obtained when a character image is read and then binarized using a predetermined threshold.

【図33】  均一濃度チャートを読み取った後、誤差
拡散法で2値化したときに得られる擬似中間調2値化画
像の一例を示す図である。
FIG. 33 is a diagram showing an example of a pseudo-halftone binarized image obtained when a uniform density chart is read and then binarized using an error diffusion method.

【図34】  写真画像を読み取った後、スクリーン角
が0度のドット集中型組織的ディザ法で2値化したとき
に得られる擬似中間調2値化画像の一例を示す図である
FIG. 34 is a diagram showing an example of a pseudo-halftone binarized image obtained when a photographic image is read and then binarized by a dot concentrated systematic dithering method with a screen angle of 0 degrees.

【図35】  写真画像を読み取った後、スクリーン角
が45度のドット集中型組織的ディザ法で2値化したと
きに得られる擬似中間調2値化画像の一例を示す図であ
る。
FIG. 35 is a diagram showing an example of a pseudo-halftone binarized image obtained when a photographic image is read and then binarized using a dot concentrated systematic dithering method with a screen angle of 45 degrees.

【図36】  7×7のウィンドウ内における黒画素数
に対する主副走査方向の4方向の隣接数を示すグラフで
ある。
FIG. 36 is a graph showing the number of adjacent pixels in four directions in the main and sub-scanning directions with respect to the number of black pixels in a 7×7 window.

【図37】  図3に図示したディザ判定部において用
いる各ウィンドウの黒画素数データS10乃至S17を
示す図である。
37 is a diagram showing black pixel number data S10 to S17 of each window used in the dither determination section shown in FIG. 3. FIG.

【図38】  図3に図示したディザ判定部において用
いる各ウィンドウの黒画素数データS20乃至S27を
示す図である。
38 is a diagram showing black pixel number data S20 to S27 of each window used in the dither determination section shown in FIG. 3. FIG.

【図39】  図3に図示したディザ判定部において用
いる各ウィンドウの黒画素数データS30乃至S37を
示す図である。
39 is a diagram showing black pixel number data S30 to S37 of each window used in the dither determination section shown in FIG. 3. FIG.

【図40】  図3に図示したディザ判定部において用
いる各ウィンドウの黒画素数データS40乃至S47を
示す図である。
40 is a diagram showing black pixel number data S40 to S47 of each window used in the dither determination section shown in FIG. 3. FIG.

【図41】  主走査方向又は副走査方向に連続する各
ウィンドウの各黒画素数データに対する黒画素数の周辺
分布を示すグラフである。
FIG. 41 is a graph showing the peripheral distribution of the number of black pixels for each black pixel number data of each window continuous in the main scanning direction or the sub-scanning direction.

【図42】  7×7のウィンドウ内の各画素における
主走査方向の隣接を示す図である。
FIG. 42 is a diagram showing adjacency in the main scanning direction of each pixel within a 7×7 window.

【図43】  7×7のウィンドウ内の各画素における
副走査方向の隣接を示す図である。
FIG. 43 is a diagram showing adjacency in the sub-scanning direction of each pixel within a 7×7 window.

【図44】  注目画素周辺に少数画素がないが、隣接
判別用のウィンドウ内に比較的多数の少数画素が存在す
る場合の一例を示す図である。
FIG. 44 is a diagram illustrating an example of a case where there are no minority pixels around the pixel of interest, but a relatively large number of minority pixels exist within the window for adjacency determination.

【図45】  線状の非中間調画像が7×7のウィンド
ウに近づく場合の一例を示す図である。
FIG. 45 is a diagram illustrating an example of a case where a linear non-halftone image approaches a 7×7 window.

【図46】  線状の非中間調画像が7×7のウィンド
ウに近づく場合の別の例を示す図である。
FIG. 46 is a diagram showing another example where a linear non-halftone image approaches a 7×7 window.

【図47】  図3に図示した5×11マトリックスメ
モリ回路における各画素の検出信号を示す図である。
47 is a diagram showing detection signals of each pixel in the 5×11 matrix memory circuit shown in FIG. 3. FIG.

【図48】  図3に図示した判別データ信号生成部の
テーブル用ROMに格納される、分散型中間調画像に対
する非中間調指数のグラフである。
48 is a graph of non-halftone indexes for distributed halftone images stored in the table ROM of the discrimination data signal generation unit shown in FIG. 3; FIG.

【図49】  図3に図示した判別データ信号生成部の
テーブル用ROMに格納される、集中型中間調画像に対
する非中間調指数のグラフである。
49 is a graph of non-halftone indexes for concentrated halftone images stored in the table ROM of the discrimination data signal generation unit shown in FIG. 3; FIG.

【図50】  図3に図示した平滑値計算部において用
いる、7×7のウィンドウ内の黒画素数を計数するため
の空間フィルタを示す図である。
50 is a diagram showing a spatial filter for counting the number of black pixels within a 7×7 window, which is used in the smoothing value calculation unit shown in FIG. 3. FIG.

【図51】  図3に図示した平滑値計算部において用
いる、9×9のウィンドウ内の黒画素数を計数するため
の空間フィルタを示す図である。
51 is a diagram showing a spatial filter for counting the number of black pixels within a 9×9 window, used in the smoothing value calculation unit shown in FIG. 3. FIG.

【図52】  平滑値を計算するために用いる空間フィ
ルタの変形例を示す図である。
FIG. 52 is a diagram showing a modified example of a spatial filter used to calculate a smoothed value.

【図53】  エッジ強調量を計算する必要性を説明す
るために用いる平滑用空間フィルタの一例を示す図であ
る。
FIG. 53 is a diagram showing an example of a smoothing spatial filter used to explain the necessity of calculating an edge enhancement amount.

【図54】  エッジ強調量を計算する必要性を説明す
るために用いる平滑用空間フィルタの別の例を示す図で
ある。
FIG. 54 is a diagram showing another example of a smoothing spatial filter used to explain the necessity of calculating an edge enhancement amount.

【図55】  エッジ強調量を計算する必要性を説明す
るために用いる画像の一例と、その画像について主走査
方向に図53と図54の平滑用空間フィルタを適用した
ときの各計算値を示す図である。
FIG. 55 shows an example of an image used to explain the necessity of calculating the amount of edge enhancement, and each calculated value when the smoothing spatial filter of FIG. 53 and FIG. 54 is applied to the image in the main scanning direction. It is a diagram.

【図56】  図3に図示したエッジ強調量計算部にお
いて用いられる、エッジ強調量を計算するための空間フ
ィルタF21を示す図である。
56 is a diagram showing a spatial filter F21 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation section shown in FIG. 3. FIG.

【図57】  図3に図示したエッジ強調量計算部にお
いて用いられる、エッジ強調量を計算するための空間フ
ィルタF22を示す図である。
57 is a diagram showing a spatial filter F22 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation unit shown in FIG. 3. FIG.

【図58】  図3に図示したエッジ強調量計算部にお
いて用いられる、エッジ強調量を計算するための空間フ
ィルタF23を示す図である。
58 is a diagram showing a spatial filter F23 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation section shown in FIG. 3. FIG.

【図59】  図3に図示したエッジ強調量計算部にお
いて用いられる、エッジ強調量を計算するための空間フ
ィルタF24を示す図である。
59 is a diagram showing a spatial filter F24 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation section shown in FIG. 3. FIG.

【図60】  図3に図示したエッジ強調量計算部にお
いて用いられる、エッジ強調量を計算するための空間フ
ィルタF25を示す図である。
60 is a diagram showing a spatial filter F25 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation section shown in FIG. 3. FIG.

【図61】  図3に図示したエッジ強調量計算部にお
いて用いられる、エッジ強調量を計算するための空間フ
ィルタF26を示す図である。
61 is a diagram showing a spatial filter F26 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation section shown in FIG. 3. FIG.

【図62】  図3に図示したエッジ強調量計算部にお
いて用いられる、エッジ強調量を計算するための空間フ
ィルタF27を示す図である。
62 is a diagram showing a spatial filter F27 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation section shown in FIG. 3. FIG.

【図63】  図3に図示したエッジ強調量計算部にお
いて用いられる、エッジ強調量を計算するための空間フ
ィルタF28を示す図である。
63 is a diagram showing a spatial filter F28 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation section shown in FIG. 3. FIG.

【図64】  図3に図示したエッジ強調量計算部にお
いて用いられる、エッジ強調量を計算するための空間フ
ィルタF31を示す図である。
64 is a diagram showing a spatial filter F31 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation section shown in FIG. 3. FIG.

【図65】  図3に図示したエッジ強調量計算部にお
いて用いられる、エッジ強調量を計算するための空間フ
ィルタF32を示す図である。
65 is a diagram showing a spatial filter F32 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation section shown in FIG. 3. FIG.

【図66】  図3に図示したエッジ強調量計算部にお
いて用いられる、エッジ強調量を計算するための空間フ
ィルタF33を示す図である。
66 is a diagram showing a spatial filter F33 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation section shown in FIG. 3. FIG.

【図67】  図3に図示したエッジ強調量計算部にお
いて用いられる、エッジ強調量を計算するための空間フ
ィルタF34を示す図である。
67 is a diagram showing a spatial filter F34 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation unit shown in FIG. 3. FIG.

【図68】  図3に図示したエッジ強調量計算部にお
いて用いられる、エッジ強調量を計算するための空間フ
ィルタF35を示す図である。
68 is a diagram showing a spatial filter F35 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation section shown in FIG. 3. FIG.

【図69】  図3に図示したエッジ強調量計算部にお
いて用いられる、エッジ強調量を計算するための空間フ
ィルタF36を示す図である。
69 is a diagram showing a spatial filter F36 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation section shown in FIG. 3. FIG.

【図70】  図3に図示したエッジ強調量計算部にお
いて用いられる、エッジ強調量を計算するための空間フ
ィルタF37を示す図である。
70 is a diagram showing a spatial filter F37 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation section shown in FIG. 3. FIG.

【図71】  図3に図示したエッジ強調量計算部にお
いて用いられる、エッジ強調量を計算するための空間フ
ィルタF38を示す図である。
71 is a diagram showing a spatial filter F38 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation section shown in FIG. 3. FIG.

【図72】  図3に図示したエッジ領域判別部におい
て用いられる、エッジ領域判別量を計算するための空間
フィルタF41を示す図である。
72 is a diagram showing a spatial filter F41 for calculating an edge region discrimination amount, which is used in the edge region discriminator shown in FIG. 3. FIG.

【図73】  図3に図示したエッジ領域判別部におい
て用いられる、エッジ領域判別量を計算するための空間
フィルタF42を示す図である。
73 is a diagram showing a spatial filter F42 for calculating an edge region discrimination amount, which is used in the edge region discriminator shown in FIG. 3. FIG.

【図74】  図3に図示したエッジ領域判別部におい
て用いられる、エッジ領域判別量を計算するための空間
フィルタF43を示す図である。
74 is a diagram showing a spatial filter F43 for calculating an edge region discrimination amount, which is used in the edge region discriminator shown in FIG. 3. FIG.

【図75】  図3に図示したエッジ領域判別部におい
て用いられる、エッジ領域判別量を計算するための空間
フィルタF44を示す図である。
75 is a diagram showing a spatial filter F44 for calculating an edge region discrimination amount, which is used in the edge region discriminator shown in FIG. 3. FIG.

【図76】  集中型中間調画像に対する中間調指数を
計算するための変形例であるパターンマッチング法を説
明するための5個のパターンマッチング用ウィンドウW
4a乃至W4eを示す図である。
FIG. 76: Five pattern matching windows W for explaining a pattern matching method that is a modified example for calculating a halftone index for a concentrated halftone image.
It is a figure showing 4a to W4e.

【図77】  図76に図示したパターンマッチング用
ウィンドウを用いて行なう、パターンマッチング法によ
る計算例を示すために用いる第1の画像パターンPAT
1を示す図である。
[FIG. 77] First image pattern PAT used to show an example of calculation by the pattern matching method performed using the pattern matching window illustrated in FIG. 76.
FIG.

【図78】  図76に図示したパターンマッチング用
ウィンドウを用いて行なう、パターンマッチング法によ
る計算例を示すために用いる第2の画像パターンPAT
2を示す図である。
78] Second image pattern PAT used to show an example of calculation by the pattern matching method performed using the pattern matching window illustrated in FIG. 76
FIG.

【図79】  図76に図示したパターンマッチング用
ウィンドウを用いて行なう、パターンマッチング法によ
る計算例を示すために用いる第3の画像パターンPAT
3を示す図である。
[Fig. 79] Third image pattern PAT used to show an example of calculation by the pattern matching method performed using the pattern matching window shown in Fig. 76.
It is a figure showing 3.

【符号の説明】[Explanation of symbols]

62…画像復元処理部、 100…10×21マトリックスメモリ回路、101…
中間調画像復元部、 102…像域判別部、 105…隣接状態判定部、 106…ディザ判定部、 107…5×11マトリックスメモリ回路、108…判
定データ生成部、 109…エッジ領域判別部、 110…平滑量計算部、 111…エッジ強調量計算部、 112…復元データ計算部、 113…窓内計算部、 114…判別データ信号生成部、 207…比較選択器、 209,210…オアゲート。
62...Image restoration processing unit, 100...10x21 matrix memory circuit, 101...
Halftone image restoration section, 102... Image area discrimination section, 105... Adjacent state discrimination section, 106... Dither judgment section, 107... 5x11 matrix memory circuit, 108... Judgment data generation section, 109... Edge region discrimination section, 110 ...Smoothing amount calculation section, 111... Edge enhancement amount calculation section, 112... Restored data calculation section, 113... Window calculation section, 114... Discrimination data signal generation section, 207... Comparison selector, 209, 210... OR gate.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】  擬似中間調で2値化された2値画像デ
ータと、所定のしきい値を用いて非中間調で2値化され
た2値画像データとを含む入力された2値画像データの
うちの、注目画素とその周辺の複数の画素とを含む所定
の領域に対応する2値画像データに基づいて、上記入力
された2値画像データの各画素毎に、擬似中間調の2値
画像データの領域であるか、又は非中間調の2値画像デ
ータの領域であるかを判別する像域判別手段と、上記像
域判別手段によって擬似中間調の2値画像データの領域
であると判別された2値画像データを多値画像データに
復元する復元手段とを備えた画像処理装置において、上
記入力された2値画像データのうちの注目画素の2値画
像データに対して、上記注目画素とその周辺画素との濃
度差を強調するエッジ強調処理を行なうエッジ強調手段
と、上記注目画素の2値画像データがドット集中型ディ
ザ法によって擬似中間調で2値化された2値画像データ
であるか否かを判別するディザ判別手段と、上記ディザ
判別手段によって上記注目画素の2値画像データがドッ
ト集中型ディザ法によって擬似中間調で2値化された2
値画像データであると判別されたときに、上記注目画素
の2値画像データに対して上記エッジ強調手段が行なう
エッジ強調処理を禁止する禁止手段とを備えたことを特
徴とする画像処理装置。
Claim 1: An input binary image including binary image data binarized with pseudo halftones and binary image data binarized with non-halftones using a predetermined threshold. Based on the binary image data corresponding to a predetermined area including the pixel of interest and a plurality of surrounding pixels of the data, two pseudo halftones are generated for each pixel of the input binary image data. image area discriminating means for discriminating whether the area is a value image data area or a non-halftone binary image data area; and the image area discriminating means determines whether the area is a pseudo halftone binary image data area. and a restoring means for restoring the determined binary image data into multivalued image data. An edge enhancement means that performs edge enhancement processing to emphasize the density difference between the pixel of interest and its surrounding pixels, and a binary image in which the binary image data of the pixel of interest is binarized in a pseudo halftone by a dot concentrated dither method. a dither discriminating means for discriminating whether or not the pixel is data;
An image processing apparatus comprising: prohibition means for prohibiting edge enhancement processing performed by the edge enhancement means on the binary image data of the pixel of interest when it is determined that the image data is value image data.
JP3137619A 1991-06-10 1991-06-10 Picture processing unit Pending JPH04361477A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP3137619A JPH04361477A (en) 1991-06-10 1991-06-10 Picture processing unit
US07/894,743 US5384647A (en) 1991-06-10 1992-06-05 Image processing apparatus comprising means for judging image area of pseudo half-tone image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3137619A JPH04361477A (en) 1991-06-10 1991-06-10 Picture processing unit

Publications (1)

Publication Number Publication Date
JPH04361477A true JPH04361477A (en) 1992-12-15

Family

ID=15202912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3137619A Pending JPH04361477A (en) 1991-06-10 1991-06-10 Picture processing unit

Country Status (1)

Country Link
JP (1) JPH04361477A (en)

Similar Documents

Publication Publication Date Title
JP2005094740A (en) Image processing apparatus, image forming apparatus and image processing method
JPH04356869A (en) Image processor
US5384647A (en) Image processing apparatus comprising means for judging image area of pseudo half-tone image
JPH0818785A (en) Image output device
JP3146516B2 (en) Image processing device
JP3146517B2 (en) Image processing device
JP3136650B2 (en) Image processing device
JP3361355B2 (en) Image processing device
JPH04361477A (en) Picture processing unit
JP3158535B2 (en) Image processing device
JPH04361476A (en) Picture processing unit
JP4035696B2 (en) Line segment detection apparatus and image processing apparatus
JP3183787B2 (en) Halftone area determination device
JP3326309B2 (en) Image processing device
JP3146510B2 (en) Image processing device
JPH1098614A (en) Picture processor
JP3118896B2 (en) Facsimile machine
JPH04330864A (en) Image processor
JPH1098613A (en) Picture processor
JPH04270561A (en) Picture processor
JP3118859B2 (en) Image processing device
JP3434374B2 (en) Image forming device
JP3596962B2 (en) Image processing device
JPH05176168A (en) Adaptive halftone processing system
JPH04330869A (en) Image processor