JP5453215B2 - Image processing apparatus, image forming apparatus, and image processing method - Google Patents

Image processing apparatus, image forming apparatus, and image processing method Download PDF

Info

Publication number
JP5453215B2
JP5453215B2 JP2010241771A JP2010241771A JP5453215B2 JP 5453215 B2 JP5453215 B2 JP 5453215B2 JP 2010241771 A JP2010241771 A JP 2010241771A JP 2010241771 A JP2010241771 A JP 2010241771A JP 5453215 B2 JP5453215 B2 JP 5453215B2
Authority
JP
Japan
Prior art keywords
image
value
pixel
edge
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010241771A
Other languages
Japanese (ja)
Other versions
JP2012095172A (en
Inventor
敏明 六尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2010241771A priority Critical patent/JP5453215B2/en
Publication of JP2012095172A publication Critical patent/JP2012095172A/en
Application granted granted Critical
Publication of JP5453215B2 publication Critical patent/JP5453215B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、画像処理装置、画像形成装置、および画像処理方法に関するものである。   The present invention relates to an image processing apparatus, an image forming apparatus, and an image processing method.

画像内のオブジェクト(前景)のエッジ部分の画質を向上させるために、オブジェクトのエッジを平滑化する技術がある。特に、2値化画像におけるオブジェクトのエッジを平滑化する技術がある(例えば特許文献1参照)。   There is a technique for smoothing the edge of an object in order to improve the image quality of the edge portion of the object (foreground) in the image. In particular, there is a technique for smoothing the edge of an object in a binarized image (see, for example, Patent Document 1).

他方、画像データに、2値化などの多値化を施す際の方法として、スクリーン法がある。スクリーン法では、ディザマトリクスを使用して、注目画素の多値化後の値が導出される。   On the other hand, there is a screen method as a method for performing multi-value conversion such as binarization on image data. In the screen method, a dither matrix is used to derive the multi-valued value of the pixel of interest.

スクリーン法では、画像のエッジ部分においてジャギーなどの画質劣化が発生しやすいため、エッジ部分の画質改善の方法が提案されている。   In the screen method, image quality deterioration such as jaggies easily occurs at the edge portion of the image, and therefore a method for improving the image quality of the edge portion has been proposed.

第1の技術では、エッジ部分用の第1ディザマトリクスと、第1ディザマトリクスより大きいサイズの、非エッジ部分の第2ディザマトリクスを用意し、注目画素に応じてディザマトリクスを切り換えて多値化処理を行う(例えば特許文献2参照)。   In the first technique, the first dither matrix for the edge portion and the second dither matrix for the non-edge portion having a size larger than the first dither matrix are prepared, and the dither matrix is switched according to the target pixel to be multi-valued. A process is performed (for example, refer patent document 2).

また、第2の技術では、局所的な画素値の変化量の指標としてアクティビティインデックスを計算し、サイズの異なる複数のディザマトリクスによる多値化結果を、そのアクティビティインデックスの値に基づいて合成して多値化後の画素値と生成する(例えば特許文献3参照)。   In the second technique, an activity index is calculated as an index of a local pixel value change amount, and a multivalued result obtained by a plurality of dither matrices having different sizes is synthesized based on the activity index value. A pixel value after multi-value conversion is generated (see, for example, Patent Document 3).

また、第3の技術では、注目画素に対するエッジ度を計算し、エッジ度に基づいて、複数のディザマトリクスから、多値化処理に使用するディザマトリクスを選択したり、エッジ度に基づいて、複数のディザマトリクスから、多値化処理に使用するディザマトリクスを補間によって計算したりする(例えば特許文献4参照)。   In the third technique, the degree of edge for the pixel of interest is calculated, and based on the degree of edge, a dither matrix to be used for the multi-value processing is selected from a plurality of dither matrices, or the number of edges is calculated based on the degree of edge. From this dither matrix, a dither matrix used for multi-value processing is calculated by interpolation (see, for example, Patent Document 4).

特開平05−330145号公報JP 05-330145 A 特開昭62−185463号公報Japanese Patent Laid-Open No. Sho 62-185463 特開平11−331562号公報Japanese Patent Laid-Open No. 11-331562 特開平06−326859号公報Japanese Patent Application Laid-Open No. 06-326859

原画像内のオブジェクトの画素値が飽和値(例えば画素値が0〜15の場合の15)である場合には、エッジ部分の平滑化に、2値画像についての上述の特許文献1の技術を適用することができるが、オブジェクトの画素値が飽和値以外である場合には、その技術を適用することは困難である。   When the pixel value of the object in the original image is a saturated value (for example, 15 when the pixel value is 0 to 15), the technique of Patent Document 1 described above for the binary image is used for smoothing the edge portion. Although it can be applied, it is difficult to apply the technique when the pixel value of the object is other than the saturation value.

また、原画像をスクリーン処理で多値化する場合、スクリーン処理前に平滑化が実行されると、平滑化により生成される中間調を含むエッジがスクリーン処理されるため、エッジにジャギーが発生しやすくなる。   Also, when the original image is multi-valued by screen processing, if smoothing is performed before screen processing, edges including halftones generated by smoothing are screen processed, resulting in jaggy on the edges. It becomes easy.

一方、スクリーン処理後にエッジの平滑化を実行しようとすると、スクリーン処理後の多値化されたオブジェクトからエッジを正確に検出するのが困難であるとともに、スクリーン処理後の多値化されたオブジェクトのエッジが不連続に途切れている場合には、エッジを適切に平滑化するのが困難である。   On the other hand, if it is attempted to perform edge smoothing after the screen processing, it is difficult to accurately detect edges from the multi-valued object after the screen processing, and the multi-valued object after the screen processing is difficult to detect. When the edge is discontinuously discontinuous, it is difficult to appropriately smooth the edge.

本発明は、上記の問題に鑑みてなされたものであり、スクリーン処理とともにエッジの平滑化を適切に実行することができる画像処理装置、画像形成装置、および画像処理方法を得ることを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, an image forming apparatus, and an image processing method capable of appropriately executing edge smoothing together with screen processing. .

上記の課題を解決するために、本発明では以下のようにした。   In order to solve the above problems, the present invention is configured as follows.

本発明に係る画像処理装置は、画像データにおける平滑化エッジ部分を検出するエッジ検出部と、エッジ検出部により検出された平滑化エッジ部分から所定範囲内の画素に対して画像平滑化処理を行う画像平滑化処理部と、画像平滑化処理において中間調とされた画素を背景とみなして、エッジ縁取しつつスクリーン処理を実行するエッジ縁取スクリーン処理部とを備える。 An image processing apparatus according to the present invention performs an image smoothing process on pixels within a predetermined range from an edge detection unit that detects a smoothed edge portion in image data and the smoothed edge portion detected by the edge detection unit. An image smoothing processing unit and an edge fringe screen processing unit that executes screen processing while performing edge fringing by regarding a pixel that has been halftone in the image smoothing processing as a background.

これにより、平滑化により中間調となった画素を背景とみなしてエッジ縁取を行いつつスクリーン処理をするため、スクリーン処理もエッジの平滑化も適切に実行される。   As a result, since the screen processing is performed while performing edge fringing while regarding the pixels that have become halftone by smoothing as the background, both the screen processing and the edge smoothing are appropriately executed.

また、本発明に係る画像処理装置は、上記の画像処理装置に加え、次のようにしてもよい。この場合、画像平滑化処理部は、前景を飽和値とし背景を白色とみなして、平滑化エッジ部分を平滑化する。 In addition to the image processing apparatus described above, the image processing apparatus according to the present invention may be configured as follows. In this case, the image smoothing processing unit smoothes the smoothed edge portion by regarding the foreground as a saturated value and the background as white.

また、本発明に係る画像処理装置は、上記の画像処理装置のいずれかに加え、次のようにしてもよい。この場合、エッジ検出部は、画像データの画素値に基づいて、画素を前景、背景、並びに前景および背景以外に分類し、前景と背景との境界を平滑化エッジ部分と判定する。そして、画像平滑化処理部は、前景を飽和値とし背景を白色とみなして、平滑化エッジ部分から所定範囲内の画素を平滑化する。 The image processing apparatus according to the present invention may be as follows in addition to any of the image processing apparatuses described above. In this case, the edge detection unit classifies the pixels into the foreground, the background, and other than the foreground and the background based on the pixel value of the image data, and determines the boundary between the foreground and the background as a smoothed edge portion. Then, the image smoothing processing unit smoothes pixels within a predetermined range from the smoothed edge portion by regarding the foreground as a saturation value and the background as white.

また、本発明に係る画像処理装置は、上記の画像処理装置のいずれかに加え、次のようにしてもよい。この場合、エッジ検出部は、前景および背景以外の画素を含まない局所領域における前景と背景との境界を平滑化エッジ部分と判定する。   The image processing apparatus according to the present invention may be as follows in addition to any of the image processing apparatuses described above. In this case, the edge detection unit determines the boundary between the foreground and the background in the local region that does not include pixels other than the foreground and the background as a smoothed edge portion.

また、本発明に係る画像処理装置は、上記の画像処理装置のいずれかに加え、次のようにしてもよい。この場合、エッジ縁取スクリーン処理部は、(a)画像平滑化処理において中間調とされた画素を背景とみなして、画像データの画素値に基づいて、画素を前景、背景、並びに前景および背景以外に分類し、前景と背景との境界を縁取エッジ部分と判定するエッジ判定部と、(b)1つのディザマトリクス分のディザマトリクスデータを記憶する記憶装置と、(c)ディザマトリクスデータから得られる第1ディザマトリクスで多値化処理を実行する第1スクリーン処理部と、(d)第1ディザマトリクスとは異なる第2ディザマトリクスをディザマトリクスデータから得て、第2ディザマトリクスで多値化処理を実行する第2スクリーン処理部と、(e)縁取エッジ部分については、第1スクリーン処理部による多値化結果と第2スクリーン処理部による多値化結果との和に基づいて多値化後の画素値を決定し、縁取エッジ部分以外の部分については、第1スクリーン処理部による多値化結果を注目画素の多値化後の画素値とする画素値決定部とを有する。 The image processing apparatus according to the present invention may be as follows in addition to any of the image processing apparatuses described above. In this case, the edge edging screen processing unit (a) regards the pixels that are halftone in the image smoothing process as the background, and determines the pixels based on the pixel values of the image data as the foreground, the background, and other than the foreground and the background. And (b) a storage device for storing dither matrix data for one dither matrix, and (c) obtained from the dither matrix data. A first screen processing unit for executing multi-value processing with the first dither matrix; and (d) obtaining a second dither matrix different from the first dither matrix from the dither matrix data, and performing multi-value processing with the second dither matrix. The second screen processing unit that executes the process (e) for the edge portion of the border, the multi-value quantization result by the first screen processing unit and the second screen Based on the sum of the multilevel results by the processing unit determines a pixel value after multi-level, portions other than the border edges, multi-level of the pixel of interest to multi-value result by the first screen processing unit And a pixel value determining unit for the subsequent pixel value.

これにより、1つのディザマトリクス分のディザマトリクスデータから複数のディザマトリクスを生成するので、複数のディザマトリクスを使用する場合でも、記憶装置の記憶領域が小さくて済む。   Thus, since a plurality of dither matrices are generated from the dither matrix data for one dither matrix, even when a plurality of dither matrices are used, the storage area of the storage device can be reduced.

また、本発明に係る画像処理装置は、上記の画像処理装置のいずれかに加え、次のようにしてもよい。この場合、エッジ判定部は、前景および背景以外の画素を含まない局所領域における前景と背景との境界を縁取エッジ部分と判定する。   The image processing apparatus according to the present invention may be as follows in addition to any of the image processing apparatuses described above. In this case, the edge determination unit determines the border between the foreground and the background in the local region that does not include pixels other than the foreground and the background as a border edge portion.

本発明に係る画像形成装置は、上記の画像処理装置のいずれかと、その画像処理装置により生成された多値化後の画像データに基づいて画像出力を行う画像出力部とを備える。   An image forming apparatus according to the present invention includes any one of the above-described image processing apparatuses and an image output unit that outputs an image based on the multivalued image data generated by the image processing apparatus.

これにより、平滑化により中間調となった画素を背景とみなしてエッジ縁取を行いつつスクリーン処理をするため、スクリーン処理もエッジの平滑化も適切に実行される。   As a result, since the screen processing is performed while performing edge fringing while regarding the pixels that have become halftone by smoothing as the background, both the screen processing and the edge smoothing are appropriately executed.

本発明に係る画像処理方法は、画像データにおける平滑化エッジ部分を検出するステップと、その平滑化エッジ部分から所定範囲内の画素に対して画像平滑化処理を行うステップと、画像平滑化処理において中間調とされた画素を背景とみなして、エッジ縁取しつつスクリーン処理を実行するステップとを備える。

An image processing method according to the present invention includes a step of detecting a smoothed edge portion in image data, a step of performing an image smoothing process on pixels within a predetermined range from the smoothed edge portion, and an image smoothing process. A step of performing screen processing while framing an edge by regarding a halftone pixel as a background.

これにより、平滑化により中間調となった画素を背景とみなしてエッジ縁取を行いつつスクリーン処理をするため、スクリーン処理もエッジの平滑化も適切に実行される。   As a result, since the screen processing is performed while performing edge fringing while regarding the pixels that have become halftone by smoothing as the background, both the screen processing and the edge smoothing are appropriately executed.

本発明によれば、スクリーン処理とともにエッジの平滑化を適切に実行することができる。   According to the present invention, it is possible to appropriately execute edge smoothing together with screen processing.

図1は、本発明の実施の形態に係る画像形成装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of an image forming apparatus according to an embodiment of the present invention. 図2は、図1における画像処理装置の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of the image processing apparatus in FIG. 図3は、図2における属性分類部21により平滑化エッジ部分を検出するための画素属性分類について説明する図である。FIG. 3 is a diagram illustrating pixel attribute classification for detecting a smoothed edge portion by the attribute classification unit 21 in FIG. 図4は、平滑化処理の一例を示す図である。FIG. 4 is a diagram illustrating an example of the smoothing process. 図5は、図2における属性分類部23により縁取エッジ部分を検出するための画素属性分類について説明する図である。FIG. 5 is a diagram for explaining pixel attribute classification for detecting a border edge portion by the attribute classification unit 23 in FIG. 2. 図6は、図2に示すエッジ量計算部42における第1変換部51および第2変換部52の入出力特性の一例を示す図である。FIG. 6 is a diagram illustrating an example of input / output characteristics of the first conversion unit 51 and the second conversion unit 52 in the edge amount calculation unit 42 illustrated in FIG. 2. 図7は、図2におけるディザマトリクスデータ46によるディザマトリクスの一例を示す図である。FIG. 7 is a diagram showing an example of a dither matrix based on the dither matrix data 46 in FIG. 図8は、図1におけるスクリーン処理部48により使用されるディザマトリックスの一例を示す図である。FIG. 8 is a diagram showing an example of a dither matrix used by the screen processing unit 48 in FIG. 図9は、画像処理装置18によるスクリーン処理前の原画像の画像データの一例を示す図である。FIG. 9 is a diagram illustrating an example of image data of an original image before screen processing by the image processing device 18. 図10は、図9に示す画像データにおいて検出される平滑化エッジ部分を示す図である。FIG. 10 is a diagram showing a smoothed edge portion detected in the image data shown in FIG. 図11は、平滑化部22による、図9に示す画像データの平滑化エッジ部分近傍の画素に対する平滑化処理の結果の一例を示す図である。FIG. 11 is a diagram illustrating an example of the result of the smoothing process performed on the pixels near the smoothed edge portion of the image data illustrated in FIG. 9 by the smoothing unit 22. 図12は、図11において中間調とされた画素の画素値を、図9に示す画像データに重ね合わせた場合の画像データを示す図である。12 is a diagram illustrating image data when the pixel values of the halftone pixels in FIG. 11 are superimposed on the image data illustrated in FIG. 図13は、図9に示す画像データにおいて検出される縁取エッジ部分を示す図である。FIG. 13 is a diagram showing a border edge portion detected in the image data shown in FIG. 図14は、スクリーン処理部47による、図9に示す画像データ(平滑化処理において中間調とされた画素を除く)に対する2値化処理の結果の一例を示す図である。FIG. 14 is a diagram illustrating an example of the result of the binarization process performed on the image data (excluding the pixels that are halftone in the smoothing process) illustrated in FIG. 9 by the screen processing unit 47. 図15は、図9に示す画像データ(平滑化処理において中間調とされた画素を除く)を第2ディザマトリクスで2値化して得られる画像データの一例を示す図である。FIG. 15 is a diagram showing an example of image data obtained by binarizing the image data shown in FIG. 9 (excluding pixels that have been made halftone in the smoothing process) using the second dither matrix. 図16は、出力部49により、スクリーン処理部47の多値化処理の結果と、スクリーン処理部48の多値化処理の結果とから得られる、図9に示す画像データを2値化した後の画像データの一例を示す図である。FIG. 16 shows the result of binarizing the image data shown in FIG. 9 obtained from the result of the multi-value processing of the screen processing unit 47 and the result of the multi-value processing of the screen processing unit 48 by the output unit 49. It is a figure which shows an example of the image data of. 図17は、図6に示す画像データに対して画像処理装置18によりスクリーン処理およびエッジ平滑化が施されセレクター61から出力される画像データの一例を示す図である。FIG. 17 is a diagram illustrating an example of image data output from the selector 61 after the screen processing and edge smoothing are performed on the image data illustrated in FIG. 6 by the image processing device 18. 図18は、第2ディザマトリクスの他の例を示す図である。FIG. 18 is a diagram illustrating another example of the second dither matrix. 図19は、第2ディザマトリクスの他の例を示す図である。FIG. 19 is a diagram illustrating another example of the second dither matrix.

以下、図に基づいて本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態に係る画像形成装置の構成を示すブロック図である。図1に示す画像形成装置は、複合機である。ただし、画像形成装置は、プリンター、コピー機などでもよい。   FIG. 1 is a block diagram showing a configuration of an image forming apparatus according to an embodiment of the present invention. The image forming apparatus shown in FIG. 1 is a multifunction machine. However, the image forming apparatus may be a printer, a copier, or the like.

この画像形成装置は、プリンター11と、スキャナー12と、ファクシミリ装置13と、操作パネル14と、通信装置15と、コントローラー16、RAM(Random Access Memory)17と、画像処理装置18とを備える。   The image forming apparatus includes a printer 11, a scanner 12, a facsimile device 13, an operation panel 14, a communication device 15, a controller 16, a RAM (Random Access Memory) 17, and an image processing device 18.

プリンター11は、印刷データに基づいて原稿画像を印刷する内部装置である。プリンター11は、画像処理装置18により生成された多値化後の画像データに基づいて画像出力を行う画像出力部である。スキャナー12は、原稿から原稿画像を光学的に読み取り、原稿画像の画像データを生成する内部装置である。ファクシミリ装置13は、送信すべき原稿画像の画像データからファクシミリ信号を生成し送信するとともに、ファクシミリ信号を受信し画像データに変換する内部装置である。   The printer 11 is an internal device that prints a document image based on print data. The printer 11 is an image output unit that outputs an image based on the multivalued image data generated by the image processing device 18. The scanner 12 is an internal device that optically reads a document image from a document and generates image data of the document image. The facsimile apparatus 13 is an internal apparatus that generates and transmits a facsimile signal from image data of a document image to be transmitted, and receives the facsimile signal and converts it into image data.

また、操作パネル14は、画像形成装置の筐体表面に配置され、ユーザーに対して各種情報を表示する表示装置と、ユーザー操作を検出する入力装置とを有する。表示装置としては例えば液晶ディスプレイが使用される。入力装置としては、キースイッチ、タッチパネルなどが使用される。   The operation panel 14 is disposed on the surface of the casing of the image forming apparatus, and includes a display device that displays various types of information to the user and an input device that detects a user operation. For example, a liquid crystal display is used as the display device. A key switch, a touch panel, or the like is used as the input device.

また、通信装置15は、ネットワークに接続され、ネットワークを介して他の装置(ホスト装置など)と所定の通信プロトコルでデータ通信を行う装置である。通信装置15としては、ネットワークインターフェース、モデムなどが使用される。   The communication device 15 is connected to a network and performs data communication with another device (such as a host device) using a predetermined communication protocol via the network. As the communication device 15, a network interface, a modem, or the like is used.

また、コントローラー16は、プリンター11、スキャナー12、ファクシミリ装置13、操作パネル14、通信装置15などといった内部装置を制御する処理部である。   The controller 16 is a processing unit that controls internal devices such as the printer 11, the scanner 12, the facsimile device 13, the operation panel 14, and the communication device 15.

RAM17は、多値化前の多階調(16階調、256階調など)の画像データや多値化後の画像データを一時的に記憶するメモリーである。多値化前の多階調の画像データは、プリントジョブのPDL(Page Description Language)データに基づいて生成されたものや、スキャナー12による画像読み取りで生成されたものである。   The RAM 17 is a memory that temporarily stores multi-gradation (16 gradations, 256 gradations, etc.) image data before multi-value conversion and image data after multi-value conversion. The multi-gradation image data before multi-value conversion is generated based on PDL (Page Description Language) data of a print job, or generated by reading an image by the scanner 12.

画像処理装置18は、多階調の画像データに対して多値化処理を実行する装置である。例えば、多階調の画像データは、1ページの画像についての画像データである。画像処理装置18は、ASIC(Application Specific Integrated Circuit)やマイクロコンピューターで実現される。   The image processing device 18 is a device that executes multi-value processing on multi-gradation image data. For example, multi-tone image data is image data for an image of one page. The image processing device 18 is realized by an ASIC (Application Specific Integrated Circuit) or a microcomputer.

図2は、図1における画像処理装置18の構成を示すブロック図である。   FIG. 2 is a block diagram showing the configuration of the image processing apparatus 18 in FIG.

画像処理装置18は、属性分類部21、平滑化部22、エッジ縁取スクリーン処理部31、およびセレクター61を有する。   The image processing device 18 includes an attribute classification unit 21, a smoothing unit 22, an edge border screen processing unit 31, and a selector 61.

属性分類部21は、画像データ内の各画素の画素値に基づいて、その画素を、前景、背景、並びに、前景および背景以外(以下、「不定」という)、のいずれかに分類する。   Based on the pixel value of each pixel in the image data, the attribute classification unit 21 classifies the pixel as one of foreground, background, and other than foreground and background (hereinafter referred to as “undefined”).

図3は、図2における属性分類部21により平滑化エッジ部分を検出するための画素属性分類について説明する図である。例えば図3に示すように、注目画素の画素値が飽和値(8ビット画素の場合、255)の3%以下である場合には、注目画素は背景に分類され、注目画素の画素値が飽和値の50%以上である場合には、注目画素は前景に分類され、それ以外の場合は、注目画素は、「不定」に分類される。   FIG. 3 is a diagram illustrating pixel attribute classification for detecting a smoothed edge portion by the attribute classification unit 21 in FIG. For example, as shown in FIG. 3, when the pixel value of the target pixel is 3% or less of the saturation value (255 for 8-bit pixels), the target pixel is classified as the background, and the pixel value of the target pixel is saturated. When the value is 50% or more, the target pixel is classified as the foreground, and otherwise, the target pixel is classified as “undefined”.

平滑化部22は、注目画素を含む局所領域(例えば、注目画素を中心とした7×7の画素領域)における各画素についての属性分類部21による分類結果に基づいて、平滑化の対象となる平滑化エッジ部分を検出し、その平滑化エッジ部分近傍の画素に対して画像平滑化処理を行う。画像平滑化処理では、前景に属する画素の値を飽和値に置換し、背景に属する画素の値を白の画素値に置換した上で、上述の特許文献1に記載の方法やパターンマッチングなどの周知の方法で、平滑化エッジ部分を含むその近傍の画素の、平滑化後の画素値が特定される。   The smoothing unit 22 is a target of smoothing based on the classification result by the attribute classification unit 21 for each pixel in a local region including the target pixel (for example, a 7 × 7 pixel region centered on the target pixel). A smoothed edge portion is detected, and image smoothing processing is performed on pixels near the smoothed edge portion. In the image smoothing process, the value of the pixel belonging to the foreground is replaced with a saturated value, the value of the pixel belonging to the background is replaced with a white pixel value, and then the method and pattern matching described in Patent Document 1 are performed. By a well-known method, the pixel value after smoothing of the pixel in the vicinity including the smoothed edge portion is specified.

具体的には、平滑化部22は、局所領域内のすべての画素が前景または背景に分類される場合、その前景とその背景との境界を平滑化エッジ部分と判定し、平滑化後の注目画素の値を求める。一方、平滑化部22は、局所領域内に「不定」に分類される画素が存在する場合、注目画素が平滑化処理の対象外であると判定する。   Specifically, when all the pixels in the local region are classified as the foreground or the background, the smoothing unit 22 determines the boundary between the foreground and the background as the smoothed edge portion, and pays attention after the smoothing. The pixel value is obtained. On the other hand, the smoothing unit 22 determines that the target pixel is not subject to the smoothing process when there is a pixel classified as “undefined” in the local region.

平滑化部22は、注目画素の平滑化後の画素値を中間調(つまり、飽和値および白以外の値)とした場合、注目画素が中間調に補間された画素であることを示す補間画素識別情報を出力する。ここでは、補間画素識別情報は、注目画素が中間調に補間された画素であることを示す値「1」を有する。したがって、注目画素が中間調に補間されなかった場合には、補間画素識別情報の値はゼロとされる。なお、属性分類部21および平滑化部22は、画像データにおける平滑化エッジ部分を検出するエッジ検出部を構成する。   When the pixel value after smoothing the target pixel is set to a halftone (that is, a value other than a saturation value and white), the smoothing unit 22 indicates that the target pixel is a pixel interpolated to a halftone. Output identification information. Here, the interpolation pixel identification information has a value “1” indicating that the pixel of interest is a pixel interpolated in halftone. Therefore, when the target pixel is not interpolated in halftone, the value of the interpolated pixel identification information is set to zero. The attribute classification unit 21 and the smoothing unit 22 constitute an edge detection unit that detects a smoothed edge portion in the image data.

図4は、平滑化処理の一例を示す図である。図4(A)に示す4ビット画素の画像データに対して、図4(B)に示すように、画素値4の前景部分が飽和値(=15)とされ、背景部分が白(=0)とされて、前景と背景との境界近傍の画素の画素値が、その画素の位置に応じて、パターンマッチングなどで、その飽和値と白との間の補間値とされる。   FIG. 4 is a diagram illustrating an example of the smoothing process. For the 4-bit pixel image data shown in FIG. 4A, as shown in FIG. 4B, the foreground portion of pixel value 4 is set to a saturation value (= 15), and the background portion is white (= 0). The pixel value of the pixel near the boundary between the foreground and the background is set as an interpolation value between the saturation value and white by pattern matching or the like according to the position of the pixel.

図2に戻り、エッジ縁取スクリーン処理部31は、画像平滑化処理において中間調とされた画素を背景とみなして、エッジ縁取しつつスクリーン処理を実行する。   Returning to FIG. 2, the edge border screen processing unit 31 regards a pixel that has been made halftone in the image smoothing process as a background, and executes screen processing while bordering the edge.

セレクター61は、補間画素識別情報に基づいて、画像平滑化処理において中間調とされた画素については、平滑化部22からの画素値を、スクリーン処理後の画素値として出力し、それ以外の画素については、エッジ縁取スクリーン処理部31からの画素値を、スクリーン処理後の画素値として出力する。   Based on the interpolated pixel identification information, the selector 61 outputs the pixel value from the smoothing unit 22 as the pixel value after the screen processing for the pixels that are halftone in the image smoothing process, and other pixels. For, the pixel value from the edge border screen processing unit 31 is output as the pixel value after the screen processing.

図2に示すエッジ縁取スクリーン処理部31において、属性分類部23は、画像データ内の各画素の画素値に基づいて、その画素を、前景、背景、並びに、前景および背景以外、のいずれかに分類する。属性分類部21は平滑化エッジ部分を検出するために分類を行うが、属性分類部23は縁取エッジ部分を検出するために分類を行う。このため、両者の間で分類の方法が異なる。   In the edge border screen processing unit 31 shown in FIG. 2, the attribute classification unit 23 assigns the pixel to any one of the foreground, background, and other than the foreground and background based on the pixel value of each pixel in the image data. Classify. The attribute classification unit 21 performs classification to detect the smoothed edge portion, while the attribute classification unit 23 performs classification to detect the border edge portion. For this reason, the classification method differs between the two.

図5は、図2における属性分類部23により縁取エッジ部分を検出するための画素属性分類について説明する図である。例えば図5に示すように、注目画素の画素値が飽和値(8ビット画素の場合、255)の20%以下である場合には、注目画素は背景に分類され、注目画素の画素値が飽和値の30%以上である場合には、注目画素は前景に分類され、それ以外の場合は、注目画素は、「不定」に分類される。   FIG. 5 is a diagram for explaining pixel attribute classification for detecting a border edge portion by the attribute classification unit 23 in FIG. 2. For example, as shown in FIG. 5, when the pixel value of the target pixel is 20% or less of the saturation value (255 for 8-bit pixels), the target pixel is classified as the background, and the pixel value of the target pixel is saturated. When the value is 30% or more of the value, the target pixel is classified as the foreground. In other cases, the target pixel is classified as “undefined”.

エッジ判定部43は、補間画素識別情報に基づき、画像平滑化処理において中間調とされた画素を背景とみなして、前景と背景との境界を縁取エッジ部分と判定する。   Based on the interpolated pixel identification information, the edge determination unit 43 regards a pixel that is halftone in the image smoothing process as a background, and determines the boundary between the foreground and the background as a border edge part.

つまり、エッジ判定部43は、補間画素識別情報に基づき、画像平滑化処理において中間調とされた画素の画素値を、エッジ判定部43内でのみ背景の画素値(ゼロまたはゼロに近い値)に置換してから、パターンマッチングなどで、前景と背景との境界を縁取エッジ部分として検出する。   That is, the edge determination unit 43 determines the pixel value of the pixel that has been halftone in the image smoothing process based on the interpolation pixel identification information as the background pixel value (zero or a value close to zero) only in the edge determination unit 43. Then, the boundary between the foreground and the background is detected as a border edge portion by pattern matching or the like.

エッジ判定部43は、注目画素を含む局所領域(例えば、注目画素を中心とした7×7の画素領域)における各画素についての属性分類部23による分類結果に基づいて、エッジ縁取の対象となる縁取エッジ部分を検出する。   The edge determination unit 43 is a target of edge fringing based on the classification result by the attribute classification unit 23 for each pixel in a local region including the target pixel (for example, a 7 × 7 pixel region centered on the target pixel). A border edge part is detected.

具体的には、エッジ判定部43は、その局所領域内のすべての画素が前景または背景に分類される場合、その前景とその背景との境界を縁取エッジ部分と判定する。一方、エッジ判定部43は、局所領域内に「不定」に分類される画素が存在する場合、注目画素がエッジ縁取の対象外であると判定する。   Specifically, when all the pixels in the local region are classified as the foreground or the background, the edge determination unit 43 determines the boundary between the foreground and the background as a border edge portion. On the other hand, when there is a pixel classified as “indefinite” in the local region, the edge determination unit 43 determines that the pixel of interest is not subject to edge fringing.

また、最小値検出部41は、注目画素周辺の局所領域での最小画素値を検出する。例えば、最小値検出部41は、注目画素を中心とする3×3の画素領域における各画素の値を読み出し、それらのうちの最小画素値を特定する。このとき、最小値検出部41は、補間画素識別情報に基づいて、画像平滑化処理において中間調とされた画素については、背景とみなして、最小画素値を特定する。   Further, the minimum value detection unit 41 detects a minimum pixel value in a local region around the target pixel. For example, the minimum value detection unit 41 reads the value of each pixel in a 3 × 3 pixel region centered on the target pixel, and specifies the minimum pixel value among them. At this time, based on the interpolation pixel identification information, the minimum value detection unit 41 regards a pixel that is halftone in the image smoothing process as a background, and specifies a minimum pixel value.

つまり、最小値検出部41は、補間画素識別情報に基づき、画像平滑化処理において中間調とされた画素の画素値を、最小値検出部41内でのみ背景の画素値(ゼロまたはゼロに近い値)に置換してから、最小画素値を特定する。   That is, the minimum value detection unit 41 uses the interpolated pixel identification information as a background pixel value (zero or close to zero) for the pixel value of the halftone in the image smoothing process only within the minimum value detection unit 41. The minimum pixel value is specified.

エッジ量計算部42は、最小値検出部41により計算された最小画素値と注目画素の画素値とに基づきエッジ量を計算する。   The edge amount calculation unit 42 calculates an edge amount based on the minimum pixel value calculated by the minimum value detection unit 41 and the pixel value of the target pixel.

この実施の形態では、エッジ量計算部42は、第1変換部51、第2変換部52、および乗算部53を有する。第1変換部51は、注目画素の画素値に対応する値を出力する。例えば、第1変換部51は、図示せぬ第1ルックアップテーブルを参照して注目画素の画素値に対応する値を読み出し出力する。第2変換部52は、注目画素周辺の局所領域での最小画素値に対応する値を出力する。例えば、第2変換部52は、図示せぬ第2ルックアップテーブルを参照して注目画素の画素値に対応する値を読み出し出力する。乗算部53は、第1変換部51の出力値と第2変換部52の出力値との積を出力する。   In this embodiment, the edge amount calculation unit 42 includes a first conversion unit 51, a second conversion unit 52, and a multiplication unit 53. The first conversion unit 51 outputs a value corresponding to the pixel value of the target pixel. For example, the first conversion unit 51 reads and outputs a value corresponding to the pixel value of the target pixel with reference to a first lookup table (not shown). The second conversion unit 52 outputs a value corresponding to the minimum pixel value in the local region around the target pixel. For example, the second conversion unit 52 reads and outputs a value corresponding to the pixel value of the target pixel with reference to a second lookup table (not shown). The multiplier 53 outputs the product of the output value of the first converter 51 and the output value of the second converter 52.

図6は、図2に示すエッジ量計算部42における第1変換部51および第2変換部52の入出力特性の一例を示す図である。図6(A)は、第1変換部51の入出力特性の一例を示し、図6(B)は、第2変換部52の入出力特性の一例を示す。   FIG. 6 is a diagram illustrating an example of input / output characteristics of the first conversion unit 51 and the second conversion unit 52 in the edge amount calculation unit 42 illustrated in FIG. 2. 6A shows an example of input / output characteristics of the first converter 51, and FIG. 6B shows an example of input / output characteristics of the second converter 52.

このような入出力特性により、エッジ量計算部42により計算されるエッジ量は、最小画素値が小さくなると大きくなり、注目画素の画素値が大きくなると大きくなる。   Due to such input / output characteristics, the edge amount calculated by the edge amount calculation unit 42 increases as the minimum pixel value decreases, and increases as the pixel value of the target pixel increases.

セレクター45は、エッジ判定部43からの値に応じて、エッジ量計算部42の出力値およびゼロのいずれか一方をスクリーン処理部48に供給する。   The selector 45 supplies either the output value of the edge amount calculation unit 42 or zero to the screen processing unit 48 in accordance with the value from the edge determination unit 43.

ここでは、注目画素が縁取エッジ部分に属する場合には、エッジ量計算部42の出力値がスクリーン処理部48に供給され、それ以外の場合には、ゼロがスクリーン処理部48に供給される。ゼロがスクリーン処理部48に供給された場合、スクリーン処理部48の出力値もゼロとなるため、スクリーン処理部47の出力値が、注目画素についての多値化後の画素値として出力部49から出力される。   Here, when the target pixel belongs to the border edge portion, the output value of the edge amount calculation unit 42 is supplied to the screen processing unit 48, and in other cases, zero is supplied to the screen processing unit 48. When zero is supplied to the screen processing unit 48, the output value of the screen processing unit 48 is also zero, so that the output value of the screen processing unit 47 is output from the output unit 49 as a pixel value after multi-value conversion for the target pixel. Is output.

ディザマトリクスデータ46は、1つのディザマトリクス(つまり、閾値マトリクス)分のデータであって、1つのテーブルとしてフラッシュメモリーなどの不揮発性メモリー46aに予め記憶されている。なお、ディザマトリクスデータ46を記憶する記憶装置としては、不揮発性メモリー46aに限らず、SRAM等の揮発性メモリーを用いてもよい。図7は、図2におけるディザマトリクスデータ46によるディザマトリクスの一例を示す図である。図7は、16階調画像データ用の4×4のディザマトリクスを示している。   The dither matrix data 46 is data for one dither matrix (that is, a threshold matrix) and is stored in advance in a nonvolatile memory 46a such as a flash memory as one table. The storage device for storing the dither matrix data 46 is not limited to the nonvolatile memory 46a, and a volatile memory such as SRAM may be used. FIG. 7 is a diagram showing an example of a dither matrix based on the dither matrix data 46 in FIG. FIG. 7 shows a 4 × 4 dither matrix for 16 gradation image data.

スクリーン処理部47は、ディザマトリクスデータ46を読み出し、ディザマトリクスデータ46から得られる第1ディザマトリクスで、注目画素に関する多値化処理を実行する。スクリーン処理部48は、ディザマトリクスデータ46を読み出し、第1ディザマトリクスとは異なる第2ディザマトリクスをディザマトリクスデータ46から得て、その第2ディザマトリクスで、注目画素に関する多値化処理を実行する。   The screen processing unit 47 reads the dither matrix data 46 and executes a multi-value process for the target pixel using the first dither matrix obtained from the dither matrix data 46. The screen processing unit 48 reads the dither matrix data 46, obtains a second dither matrix different from the first dither matrix from the dither matrix data 46, and executes multi-value processing for the pixel of interest using the second dither matrix. .

なお、ディザマトリクスデータ46は、RAM17へ一旦読み出され、RAM17からスクリーン処理部47,48により読み出されるようにしてもよいし、不揮発性メモリー26aから直接読み出されるようにしてもよい。   The dither matrix data 46 may be read once to the RAM 17 and read from the RAM 17 by the screen processing units 47 and 48, or may be directly read from the nonvolatile memory 26a.

スクリーン処理部47は、第1ディザマトリクスを注目画素の画素値に適用して多値化処理を実行し、スクリーン処理部48は、第2ディザマトリクスを注目画素のエッジ量に適用して多値化処理を実行する。   The screen processing unit 47 applies multi-value processing by applying the first dither matrix to the pixel value of the target pixel, and the screen processing unit 48 applies multi-value processing by applying the second dither matrix to the edge amount of the target pixel. Execute the conversion process.

図8は、図1におけるスクリーン処理部48により使用されるディザマトリックスの一例を示す図である。例えば、スクリーン処理部47は、図7に示すディザマトリックスを第1ディザマトリクスとして使用し、スクリーン処理部48は、図8に示すディザマトリックスを第2ディザマトリクスとして使用する。   FIG. 8 is a diagram showing an example of a dither matrix used by the screen processing unit 48 in FIG. For example, the screen processing unit 47 uses the dither matrix shown in FIG. 7 as the first dither matrix, and the screen processing unit 48 uses the dither matrix shown in FIG. 8 as the second dither matrix.

この実施の形態では、第2ディザマトリクスは、第1ディザマトリクス内の各要素の値を反転して得られるものである。例えば、要素の値の範囲が0〜15である場合、第1ディザマトリクスの要素(i,j)の値をXとすると、第2ディザマトリクスの同一位置の要素(i,j)の値は、15−Xとされる。   In this embodiment, the second dither matrix is obtained by inverting the value of each element in the first dither matrix. For example, when the value range of the element is 0 to 15, if the value of the element (i, j) of the first dither matrix is X, the value of the element (i, j) at the same position of the second dither matrix is , 15-X.

出力部49は、注目画素が縁取エッジ部分に属する場合には、スクリーン処理部47による多値化結果とスクリーン処理部48による多値化結果とに基づいて注目画素の多値化後の画素値を決定し、注目画素が縁取エッジ部分に属さない場合には、スクリーン処理部47による多値化結果を注目画素の多値化後の画素値とする。   When the target pixel belongs to the border edge portion, the output unit 49 determines the pixel value after the multi-value conversion of the target pixel based on the multi-value conversion result by the screen processing unit 47 and the multi-value conversion result by the screen processing unit 48. If the target pixel does not belong to the border edge portion, the multi-value conversion result by the screen processing unit 47 is set as the pixel value after the multi-value conversion of the target pixel.

出力部49は、注目画素が縁取エッジ部分に属する場合には、例えば、スクリーン処理部47による多値化結果とスクリーン処理部48による多値化結果との和を注目画素の多値化後の画素値とする。なお、この和が多値化後の画素値の取り得る最大値(例えば4ビット画素の場合には15)を超えている場合には、その最大値を注目画素の多値化後の画素値とする。また、例えば、出力部49は、注目画素がエッジ部分に属する場合には、スクリーン処理部47による多値化結果とスクリーン処理部48による多値化結果の最大値を注目画素の多値化後の画素値とする。   When the target pixel belongs to the border edge portion, the output unit 49 calculates, for example, the sum of the multi-value conversion result by the screen processing unit 47 and the multi-value conversion result by the screen processing unit 48 after the multi-value conversion of the target pixel. The pixel value. If this sum exceeds the maximum value that can be taken by the pixel value after multi-value conversion (for example, 15 for a 4-bit pixel), the maximum value is the pixel value after multi-value conversion of the target pixel. And Further, for example, when the target pixel belongs to the edge portion, the output unit 49 sets the multi-value quantization result by the screen processing unit 47 and the maximum value of the multi-value quantization result by the screen processing unit 48 after the multi-value quantization of the target pixel. Pixel value.

次に、上記画像形成装置(主に画像処理装置18)の動作について説明する。   Next, the operation of the image forming apparatus (mainly the image processing apparatus 18) will be described.

この画像形成装置では、画像データが生成されたり受信されたりするとRAM17に記憶される。そして、RAM17に記憶されている画像データに対して、エッジ平滑化およびスクリーン処理が画像処理部18により実行される。   In this image forming apparatus, when image data is generated or received, it is stored in the RAM 17. Then, edge smoothing and screen processing are executed by the image processing unit 18 on the image data stored in the RAM 17.

画像処理装置18は、画像データにおいて注目ラインを副走査方向に沿って移動させつつ、注目ラインごとに主走査方向に沿って注目画素を移動させていき、注目画素の処理後の画素値を計算していく。   The image processing apparatus 18 moves the target pixel along the main scanning direction for each target line while moving the target line along the sub-scanning direction in the image data, and calculates a pixel value after processing the target pixel. I will do it.

属性分類部21および平滑化部22により平滑化エッジ部分が検出され、その平滑化エッジ部分近傍の画素に対して平滑化が行われる。そして、平滑化部22により画素値が中間調とされた画素については、その中間調の画素値が、スクリーン処理後の画素値としてセレクター61から出力される。   A smoothing edge portion is detected by the attribute classification unit 21 and the smoothing unit 22, and smoothing is performed on pixels near the smoothing edge portion. Then, for the pixel whose pixel value is halftone by the smoothing unit 22, the halftone pixel value is output from the selector 61 as a pixel value after screen processing.

一方、平滑化部22により画素値が中間調とされなかった画素については、エッジ縁取スクリーン処理部31による画素値が、スクリーン処理後の画素値としてセレクター61から出力される。   On the other hand, for pixels whose pixel values have not been made halftone by the smoothing unit 22, the pixel values by the edge fringe screen processing unit 31 are output from the selector 61 as pixel values after screen processing.

ここで、エッジ縁取スクリーン処理部31による処理について説明する。   Here, the processing by the edge border screen processing unit 31 will be described.

エッジ判定部43により注目画素が縁取エッジ部分に属さないと判定された場合、セレクター45からスクリーン処理部48へゼロが供給され、スクリーン処理部48から出力部49へゼロが供給される。一方、スクリーン処理部47は、画像データにおける注目画素に対応する第1ディザマトリクスの要素(閾値)を読み出し、注目画素の画素値とその閾値とに基づいて、注目画素の多値化後の画素値を特定し、出力部49へ供給する。出力部49は、スクリーン処理部48からの値がゼロであるので、スクリーン処理部47からの値を、注目画素の多値化後の画素値として出力する。   When the edge determination unit 43 determines that the pixel of interest does not belong to the border edge part, zero is supplied from the selector 45 to the screen processing unit 48, and zero is supplied from the screen processing unit 48 to the output unit 49. On the other hand, the screen processing unit 47 reads the element (threshold value) of the first dither matrix corresponding to the target pixel in the image data, and based on the pixel value of the target pixel and the threshold value, the pixel after the multi-value conversion of the target pixel The value is specified and supplied to the output unit 49. Since the value from the screen processing unit 48 is zero, the output unit 49 outputs the value from the screen processing unit 47 as a pixel value after the multi-value conversion of the target pixel.

エッジ判定部43により注目画素が縁取エッジ部分に属すると判定された場合、エッジ量計算部42により計算されたエッジ量がセレクター45からスクリーン処理部48へ供給される。スクリーン処理部48は、画像データにおける注目画素に対応する第2ディザマトリクスの要素(閾値)を読み出し、注目画素のエッジ量とその閾値とに基づいて、注目画素の多値化後の画素値を特定し、出力部49へ供給する。一方、スクリーン処理部47は、画像データにおける注目画素に対応する第1ディザマトリクスの要素(閾値)を読み出し、注目画素とその閾値とに基づいて、注目画素の多値化後の画素値を特定し、出力部49へ供給する。出力部49は、スクリーン処理部47からの値とスクリーン処理部48からの値とに基づいて、注目画素の多値化後の画素値を決定し出力する。   When the edge determination unit 43 determines that the target pixel belongs to the edging edge portion, the edge amount calculated by the edge amount calculation unit 42 is supplied from the selector 45 to the screen processing unit 48. The screen processing unit 48 reads the element (threshold value) of the second dither matrix corresponding to the target pixel in the image data, and calculates the pixel value after the multi-value conversion of the target pixel based on the edge amount of the target pixel and the threshold value. Specify and supply to the output unit 49. On the other hand, the screen processing unit 47 reads the element (threshold value) of the first dither matrix corresponding to the target pixel in the image data, and specifies the pixel value after the multi-value conversion of the target pixel based on the target pixel and the threshold value. Then, it is supplied to the output unit 49. Based on the value from the screen processing unit 47 and the value from the screen processing unit 48, the output unit 49 determines and outputs the pixel value after the multi-value conversion of the target pixel.

平滑化部22により画素値が中間調とされなかった画素については、このようにして、エッジ縁取スクリーン処理部31によるこの画素値が、スクリーン処理後の画素値としてセレクター61から出力される。   For pixels whose pixel values have not been made halftone by the smoothing unit 22, the pixel values by the edge trimming screen processing unit 31 are output from the selector 61 as pixel values after screen processing in this way.

そして、多値化後の画像データに基づいて、印刷などの画像出力が行われる。なお、カラーの画像データの場合には、各カラープレーンの画像データおよび属性データが上述のようにして処理される。   Then, image output such as printing is performed based on the multivalued image data. In the case of color image data, the image data and attribute data of each color plane are processed as described above.

ここで、具体例について説明する。   Here, a specific example will be described.

図9は、画像処理装置18によるスクリーン処理前の原画像の画像データの一例を示す図である。   FIG. 9 is a diagram illustrating an example of image data of an original image before screen processing by the image processing device 18.

図9に示す4ビット画像データでは、画素値ゼロの背景に、画素値4のオブジェクト(前景)が存在する。   In the 4-bit image data shown in FIG. 9, an object having a pixel value of 4 (foreground) exists in the background having a pixel value of zero.

属性分類部21および平滑化部22により図9に示す画像データの平滑化エッジ部分は、図10に示すようになる。図10は、図9に示す画像データにおいて検出される平滑化エッジ部分を示す図である。図10に示す値は、平滑化部22による補間画素識別情報の値であり、平滑化エッジ部分に属する画素については値が1とされ、それ以外の画素についてはゼロとされる。補間画素識別情報は、平滑化部22から最小値検出部41、エッジ判定部43およびセレクター61に供給される。   The smoothing edge portion of the image data shown in FIG. 9 by the attribute classification unit 21 and the smoothing unit 22 is as shown in FIG. FIG. 10 is a diagram showing a smoothed edge portion detected in the image data shown in FIG. The value shown in FIG. 10 is the value of the interpolated pixel identification information by the smoothing unit 22, and the value is 1 for the pixels belonging to the smoothed edge portion, and is zero for the other pixels. The interpolated pixel identification information is supplied from the smoothing unit 22 to the minimum value detecting unit 41, the edge determining unit 43, and the selector 61.

そして、平滑化部22は、平滑化エッジ部分近傍の画素に対して平滑化処理を行う。図11は、平滑化部22による、図9に示す画像データの平滑化エッジ部分近傍の画素に対する平滑化処理の結果の一例を示す図である。図11に示すように平滑化部22においては、前景に属する画素の値が飽和値(=15)に置換され、背景に属する画素の値が白の画素値に置換された上で、平滑化エッジ部分を含むその近傍の画素の、平滑化後の画素値が特定される。図11では、飽和値(=15)および白(=0)以外の中間調として、平滑化後の画素値が5または10である画素が存在する。   And the smoothing part 22 performs the smoothing process with respect to the pixel of the smooth edge part vicinity. FIG. 11 is a diagram illustrating an example of the result of the smoothing process performed on the pixels near the smoothed edge portion of the image data illustrated in FIG. 9 by the smoothing unit 22. As shown in FIG. 11, in the smoothing unit 22, the value of the pixel belonging to the foreground is replaced with a saturated value (= 15), the value of the pixel belonging to the background is replaced with a white pixel value, and then smoothed. The pixel values after smoothing of the neighboring pixels including the edge portion are specified. In FIG. 11, as a halftone other than the saturation value (= 15) and white (= 0), there is a pixel whose pixel value after smoothing is 5 or 10.

一方、エッジ縁取スクリーン処理部31は、平滑化部22により中間調とされた画素を背景とみなしてエッジ縁取を行う。   On the other hand, the edge edging screen processing unit 31 performs edge edging by regarding the pixel halftone by the smoothing unit 22 as the background.

図12は、図11において中間調とされた画素の画素値を、図9に示す画像データに重ね合わせた場合の画像データを示す図である。図12に示す中間調とされた画素の内側領域についてのエッジ部分が、縁取エッジ部分として、属性分類部23およびエッジ判定部43により特定される。   12 is a diagram illustrating image data when the pixel values of the halftone pixels in FIG. 11 are superimposed on the image data illustrated in FIG. The edge portion of the inner region of the pixel having the halftone shown in FIG. 12 is specified by the attribute classification unit 23 and the edge determination unit 43 as a border edge portion.

エッジ判定部43により図9に示す画像データの縁取エッジ部分は、図13に示すようになる。図13は、図9に示す画像データにおいて検出される縁取エッジ部分を示す図である。図13に示す値は、エッジ判定部43からセレクター45に供給される値であり、注目画素が縁取エッジ部分に属すると判定された場合には値が1とされ、注目画素が縁取エッジ部分に属さないと判定された場合には値が0とされる。   FIG. 13 shows the border edge portion of the image data shown in FIG. 9 by the edge determination unit 43. FIG. 13 is a diagram showing a border edge portion detected in the image data shown in FIG. The value shown in FIG. 13 is a value supplied from the edge determination unit 43 to the selector 45. When it is determined that the target pixel belongs to the border edge portion, the value is set to 1, and the target pixel is set to the border edge portion. If it is determined that it does not belong, the value is 0.

そして、スクリーン処理部47により第1ディザマトリクスで2値化された後の画像データは、例えば図14に示すようになる。図14は、スクリーン処理部47による、図9に示す画像データ(平滑化処理において中間調とされた画素を除く)に対する2値化処理の結果の一例を示す図である。   The image data after binarization by the first dither matrix by the screen processing unit 47 is as shown in FIG. 14, for example. FIG. 14 is a diagram illustrating an example of the result of the binarization process performed on the image data (excluding the pixels that are halftone in the smoothing process) illustrated in FIG. 9 by the screen processing unit 47.

一方、図9に示す画像データを第2ディザマトリクスで2値化して得られる画像データは、図15に示すようになる。図15は、図9に示す画像データ(平滑化処理において中間調とされた画素を除く)を第2ディザマトリクスで2値化して得られる画像データの一例を示す図である。   On the other hand, image data obtained by binarizing the image data shown in FIG. 9 with the second dither matrix is as shown in FIG. FIG. 15 is a diagram showing an example of image data obtained by binarizing the image data shown in FIG. 9 (excluding pixels that have been made halftone in the smoothing process) using the second dither matrix.

図2に示す画像処理装置18では、縁取エッジ部分に属さない画素については、エッジ量の代わりに値ゼロがセレクター45からスクリーン処理部48に供給されるため、スクリーン処理部48から出力される画像データにおいて、図13に示す縁取エッジ部分に属する画素の画素値は、図15に示す画素値とされ、図13に示す縁取エッジ部分に属さない画素の画素値は、ゼロとされる。   In the image processing apparatus 18 shown in FIG. 2, for pixels that do not belong to the border edge portion, the value zero is supplied from the selector 45 to the screen processing unit 48 instead of the edge amount, so that the image output from the screen processing unit 48 In the data, the pixel value of the pixel belonging to the border edge portion shown in FIG. 13 is the pixel value shown in FIG. 15, and the pixel value of the pixel not belonging to the border edge portion shown in FIG. 13 is zero.

そして、出力部49は、スクリーン処理部47からの画像データとスクリーン処理部48からの画像データとを合成することで、平滑化部22により中間調とされた画素を背景に置換した後の画像データを2値化した画像データを生成し、出力する。図16は、出力部49により、スクリーン処理部47の多値化処理の結果と、スクリーン処理部48の多値化処理の結果とから得られる、図9に示す画像データを2値化した後の画像データの一例を示す図である。   Then, the output unit 49 synthesizes the image data from the screen processing unit 47 and the image data from the screen processing unit 48, thereby replacing the halftone pixel by the smoothing unit 22 with the background. Image data binarized is generated and output. FIG. 16 shows the result of binarizing the image data shown in FIG. 9 obtained from the result of the multi-value processing of the screen processing unit 47 and the result of the multi-value processing of the screen processing unit 48 by the output unit 49. It is a figure which shows an example of the image data of.

したがって、図16に示す画像データが、エッジ縁取スクリーン処理部31からセレクター61へ出力される。   Accordingly, the image data shown in FIG. 16 is output from the edge border screen processing unit 31 to the selector 61.

そして、セレクター61から出力される画像データは、図12における中間調の画素についての画像データと、図16に示す、それ以外の画素についての画像データとを合成して得られ、図17に示すものとなる。図17は、図6に示す画像データに対して画像処理装置18によりスクリーン処理およびエッジ平滑化が施されセレクター61から出力される画像データの一例を示す図である。   The image data output from the selector 61 is obtained by synthesizing the image data for the halftone pixels in FIG. 12 and the image data for the other pixels shown in FIG. 16, and is shown in FIG. It will be a thing. FIG. 17 is a diagram illustrating an example of image data output from the selector 61 after the screen processing and edge smoothing are performed on the image data illustrated in FIG. 6 by the image processing device 18.

このようにして、まず、平滑化処理が行われ、その後、その平滑化処理により中間調とされた画素を背景とみなしてエッジ縁取を行いつつスクリーン処理が実行される。   In this way, first, smoothing processing is performed, and then screen processing is performed while performing edge fringing, regarding pixels that have been made halftone by the smoothing processing as the background.

以上のように、上記実施の形態によれば、属性分類部21および平滑化部22は、画像データにおける平滑化エッジ部分を検出し、その平滑化エッジ部分近傍の画素に対して画像平滑化処理を行う。一方、エッジ縁取スクリーン処理部31は、画像平滑化処理において中間調とされた画素を背景とみなして、エッジ縁取しつつスクリーン処理を実行する。   As described above, according to the above-described embodiment, the attribute classification unit 21 and the smoothing unit 22 detect the smoothed edge portion in the image data, and perform the image smoothing process on the pixels near the smoothed edge portion. I do. On the other hand, the edge edging screen processing unit 31 regards a pixel that is halftone in the image smoothing process as a background, and executes screen processing while edging the edge.

これにより、平滑化により中間調となった画素を背景とみなしてエッジ縁取を行いつつスクリーン処理をするため、スクリーン処理もエッジの平滑化も適切に実行される。   As a result, since the screen processing is performed while performing edge fringing while regarding the pixels that have become halftone by smoothing as the background, both the screen processing and the edge smoothing are appropriately executed.

なお、上述の実施の形態は、本発明の好適な例であるが、本発明は、これらに限定されるものではなく、本発明の要旨を逸脱しない範囲において、種々の変形、変更が可能である。   The above-described embodiments are preferred examples of the present invention, but the present invention is not limited to these, and various modifications and changes can be made without departing from the scope of the present invention. is there.

例えば、上記実施の形態において、第2ディザマトリクスは、第1ディザマトリクスに対して、行および/または列のインデックスの位相をずらして得られるものとしてもよい。例えば、図7に示す第1ディザマトリクスに対して、図18(A)に示すように、列のインデックスの位相をずらすことで、図18(B)に示す第2ディザマトリクスが得られる。   For example, in the above embodiment, the second dither matrix may be obtained by shifting the phase of the row and / or column index with respect to the first dither matrix. For example, the second dither matrix shown in FIG. 18B can be obtained by shifting the phase of the column index as shown in FIG. 18A with respect to the first dither matrix shown in FIG.

また、上記実施の形態において、第2ディザマトリクスは、第1ディザマトリクスに対して、行および/または列のインデックスを反転して得られるものとしてもよい。例えば、図7に示す第1ディザマトリクスに対して、図19(A)に示すように、図18(A)の場合と同様に列のインデックスの位相をずらし、かつ行のインデックスを反転させることで、図19(B)に示す第2ディザマトリクスが得られる。   In the above embodiment, the second dither matrix may be obtained by inverting the index of the row and / or the column with respect to the first dither matrix. For example, with respect to the first dither matrix shown in FIG. 7, as shown in FIG. 19A, the phase of the column index is shifted and the row index is inverted as in FIG. 18A. Thus, the second dither matrix shown in FIG. 19B is obtained.

本発明は、例えば、プリンター、コピー機、複合機などの画像形成装置に適用可能である。   The present invention can be applied to an image forming apparatus such as a printer, a copier, or a multifunction peripheral.

11 プリンター(画像出力部の一例)
18 画像処理装置
21 属性分類部(エッジ検出部の一例の一部)
22 平滑化部(エッジ検出部の一例の一部,画像平滑化処理部の一例)
23 属性分類部(エッジ判定部の一例の一部)
31 エッジ縁取スクリーン処理部
42 エッジ量計算部
43 エッジ判定部(エッジ判定部の一例の一部)
46 ディザマトリクスデータ
46a 不揮発性メモリー(記憶装置の一例)
47 スクリーン処理部(第1スクリーン処理部の一例)
48 スクリーン処理部(第2スクリーン処理部の一例)
49 出力部(画素値決定部の一例)
11 Printer (example of image output unit)
18 Image processing device 21 Attribute classification unit (part of an example of edge detection unit)
22 Smoothing unit (a part of an example of an edge detection unit, an example of an image smoothing processing unit)
23 Attribute classification unit (part of an example of an edge determination unit)
31 Edge edging screen processing unit 42 Edge amount calculation unit 43 Edge determination unit (part of an example of edge determination unit)
46 Dither matrix data 46a Non-volatile memory (an example of a storage device)
47 Screen processor (an example of a first screen processor)
48 Screen processor (an example of a second screen processor)
49 Output unit (an example of a pixel value determination unit)

Claims (8)

画像データにおける平滑化エッジ部分を検出するエッジ検出部と、
前記エッジ検出部により検出された前記平滑化エッジ部分から所定範囲内の画素に対して画像平滑化処理を行う画像平滑化処理部と、
前記画像平滑化処理において中間調とされた画素を背景とみなして、エッジ縁取しつつスクリーン処理を実行するエッジ縁取スクリーン処理部と、
を備えることを特徴とする画像処理装置。
An edge detector for detecting a smoothed edge portion in the image data;
An image smoothing processor that performs an image smoothing process on pixels within a predetermined range from the smoothed edge portion detected by the edge detector;
An edge edging screen processing unit that performs screen processing while framing edges, regarding pixels that are halftone in the image smoothing process as a background;
An image processing apparatus comprising:
前記画像平滑化処理部は、前景を飽和値とし前記背景を白色とみなして、前記平滑化エッジ部分を平滑化することを特徴とする請求項1記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image smoothing processing unit smoothes the smoothed edge portion by regarding a foreground as a saturation value and the background as white. 前記エッジ検出部は、前記画像データの画素値に基づいて、画素を前景、背景、並びに前景および背景以外に分類し、前記前景と前記背景との境界を前記平滑化エッジ部分と判定し、
前記画像平滑化処理部は、前記前景を飽和値とし前記背景を白色とみなして、前記平滑化エッジ部分から所定範囲内の画素を平滑化すること、
を特徴とする請求項1記載の画像処理装置。
The edge detection unit classifies pixels as a foreground, a background, and other than a foreground and a background based on a pixel value of the image data, determines a boundary between the foreground and the background as the smoothed edge portion,
The image smoothing processing unit regards the foreground as a saturation value and the background as white, and smoothes pixels within a predetermined range from the smoothed edge portion;
The image processing apparatus according to claim 1.
前記エッジ検出部は、前記前景および前記背景以外の画素を含まない局所領域における前記前景と前記背景との境界を前記平滑化エッジ部分と判定することを特徴とする請求項3記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the edge detection unit determines a boundary between the foreground and the background in a local region not including pixels other than the foreground and the background as the smoothed edge portion. . 前記エッジ縁取スクリーン処理部は、
前記画像平滑化処理において中間調とされた画素を背景とみなして、前記画像データの画素値に基づいて、画素を前景、背景、並びに前景および背景以外に分類し、前記前景と前記背景との境界を縁取エッジ部分と判定するエッジ判定部と、
1つのディザマトリクス分のディザマトリクスデータを記憶する記憶装置と、
前記ディザマトリクスデータから得られる第1ディザマトリクスで多値化処理を実行する第1スクリーン処理部と、
前記第1ディザマトリクスとは異なる第2ディザマトリクスを前記ディザマトリクスデータから得て、前記第2ディザマトリクスで多値化処理を実行する第2スクリーン処理部と、
前記縁取エッジ部分については、前記第1スクリーン処理部による多値化結果と前記第2スクリーン処理部による多値化結果との和に基づいて多値化後の画素値を決定し、前記縁取エッジ部分以外の部分については、前記第1スクリーン処理部による多値化結果を前記注目画素の多値化後の画素値とする画素値決定部と、
を有することを特徴とする請求項1から請求項4のうちのいずれか1項記載の画像処理装置。
The edge edging screen processing unit is
The pixels that are halftone in the image smoothing process are regarded as the background, and based on the pixel value of the image data, the pixels are classified into foreground, background, and other than foreground and background, and the foreground and the background An edge determination unit that determines the boundary as a border edge part;
A storage device for storing dither matrix data for one dither matrix;
A first screen processing unit for performing multi-value processing with a first dither matrix obtained from the dither matrix data;
A second screen processing unit that obtains a second dither matrix different from the first dither matrix from the dither matrix data, and executes multi-value processing by the second dither matrix;
For the border edge portion, a pixel value after multi-value quantization is determined based on the sum of the multi-value quantization result by the first screen processing unit and the multi-value quantization result by the second screen processing unit, and the border edge For a portion other than the portion, a pixel value determination unit that sets the multi-value conversion result by the first screen processing unit as a pixel value after multi-value conversion of the target pixel;
The image processing apparatus according to claim 1, further comprising:
前記エッジ判定部は、前記前景および前記背景以外の画素を含まない局所領域における前記前景と前記背景との境界を前記縁取エッジ部分と判定することを特徴とする請求項5記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the edge determination unit determines a border between the foreground and the background in a local region not including pixels other than the foreground and the background as the border edge portion. 請求項1から請求項6のうちのいずれか1項記載の画像処理装置と、
前記画像処理装置により生成された多値化後の画像データに基づいて画像出力を行う画像出力部と、
を備えることを特徴とする画像形成装置。
The image processing apparatus according to any one of claims 1 to 6,
An image output unit that outputs an image based on the multivalued image data generated by the image processing device;
An image forming apparatus comprising:
画像データにおける平滑化エッジ部分を検出するステップと、
前記平滑化エッジ部分から所定範囲内の画素に対して画像平滑化処理を行うステップと、
前記画像平滑化処理において中間調とされた画素を背景とみなして、エッジ縁取しつつスクリーン処理を実行するステップと、
を備えることを特徴とする画像処理方法。
Detecting a smoothed edge portion in the image data;
Performing an image smoothing process on pixels within a predetermined range from the smoothed edge portion;
A step of performing screen processing while edging an edge, regarding a pixel that is halftone in the image smoothing processing as a background,
An image processing method comprising:
JP2010241771A 2010-10-28 2010-10-28 Image processing apparatus, image forming apparatus, and image processing method Active JP5453215B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010241771A JP5453215B2 (en) 2010-10-28 2010-10-28 Image processing apparatus, image forming apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010241771A JP5453215B2 (en) 2010-10-28 2010-10-28 Image processing apparatus, image forming apparatus, and image processing method

Publications (2)

Publication Number Publication Date
JP2012095172A JP2012095172A (en) 2012-05-17
JP5453215B2 true JP5453215B2 (en) 2014-03-26

Family

ID=46388023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010241771A Active JP5453215B2 (en) 2010-10-28 2010-10-28 Image processing apparatus, image forming apparatus, and image processing method

Country Status (1)

Country Link
JP (1) JP5453215B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5791646B2 (en) * 2013-02-26 2015-10-07 京セラドキュメントソリューションズ株式会社 Image processing apparatus and image forming apparatus
JP6008826B2 (en) * 2013-11-20 2016-10-19 京セラドキュメントソリューションズ株式会社 Image processing apparatus, image forming apparatus, and image processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002084422A (en) * 2000-09-07 2002-03-22 Murata Mach Ltd Image processor
JP4097114B2 (en) * 2000-12-12 2008-06-11 株式会社リコー Image processing apparatus, image processing method, and recording medium

Also Published As

Publication number Publication date
JP2012095172A (en) 2012-05-17

Similar Documents

Publication Publication Date Title
JP4912270B2 (en) Image processing apparatus and control method thereof
JP6781406B2 (en) Image processing equipment and computer programs
US9501019B2 (en) Image processing apparatus and control method thereof
JP2016058879A (en) Image processing apparatus and image processing method
JP2006217058A (en) Image processing apparatus, image processing method, program, and recording medium
JP5480102B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JP5453215B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JP4771428B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2019092101A (en) Image processing apparatus, image processing method, and program
JP2009152766A (en) Image forming apparatus, image forming method and program for executing image forming method
JP4570534B2 (en) Image processing apparatus, image forming apparatus, image processing method, and computer program
JP6566277B2 (en) Image processing device
JP4861506B2 (en) Image processing apparatus and control method thereof
JP6380763B2 (en) Image forming apparatus, color conversion program, and color conversion method
JP6008826B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JP2014127779A (en) Image processing apparatus and image forming apparatus
JP6681033B2 (en) Image processing device
JP2019174887A (en) Image processing device
JP6841254B2 (en) Image processing equipment and computer programs
JP7211209B2 (en) IMAGE PROCESSING APPARATUS, PROGRAM, IMAGE FORMING APPARATUS, AND CONTROL METHOD
JP4517288B2 (en) Image processing apparatus, image processing method, and program thereof
JP2012238051A (en) Image processing device, image processing method, and program
JP4334498B2 (en) Image processing apparatus, image forming apparatus, image processing method, and computer program
JP2007081793A (en) Image forming apparatus
JP6573124B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140106

R150 Certificate of patent or registration of utility model

Ref document number: 5453215

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250