JP2011166776A - Apparatus and method for processing image - Google Patents
Apparatus and method for processing image Download PDFInfo
- Publication number
- JP2011166776A JP2011166776A JP2011026504A JP2011026504A JP2011166776A JP 2011166776 A JP2011166776 A JP 2011166776A JP 2011026504 A JP2011026504 A JP 2011026504A JP 2011026504 A JP2011026504 A JP 2011026504A JP 2011166776 A JP2011166776 A JP 2011166776A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- pixel
- unit
- determination
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
Description
この明細書に記載の実施形態は、入力した画像データに対して像域判別を行い、その結果に基づいてそれぞれ適切な画像処理を施す技術に関する。 The embodiment described in this specification relates to a technique for performing image area discrimination on input image data and performing appropriate image processing based on the result.
画像読取装置などから出力される画像データから文字エッジを検出してエッジ強調を行う、また網点を検出して平滑化を行うなど、画像データに対して像域判別の結果に基づいて画像処理を施すことは従来から行われている一般的な画像処理技術である。このような画像処理を行うことで、例えば細線のような入力される画像信号が低い場合であっても、エッジの強調を行うことで文字再現が向上する。 Image processing based on the results of image area discrimination for image data, such as detecting character edges from image data output from image readers and performing edge enhancement, and detecting halftone dots and smoothing. Is a general image processing technique conventionally performed. By performing such image processing, even if the input image signal such as a thin line is low, character reproduction is improved by performing edge enhancement.
強調が強すぎる場合はエッジが過強調となり、濃度の薄い中間調の文字や絵柄の場合、文字や絵柄の内部と、エッジとの間のコントラストが強調されて、文字や絵柄が縁取られた再現となってしまう問題がある。 If the emphasis is too strong, the edges will be overemphasized, and in the case of low-density halftone characters and designs, the contrast between the inside of the characters and designs and the edges will be emphasized, and the characters and designs will be outlined There is a problem that becomes.
また一般的に黒文字を再現させる場合、C(シアン)、M(マゼンダ)、Y(イエロー)、K(ブラック)のトナーを重ねて再現するが、黒細線においてはトナーの色ずれが発生した場合に黒細線の再現が著しく劣化してしまうため、K信号(墨量)を増やしたり、黒一色で再現させたりするなどの対策がなされている。このようにすることで黒の細線再現は色ずれに対しては効果があるものの、中間調の文字エッジや絵柄のエッジなどにおいては、文字の内部の再現とのエッジとの差が顕著となるため、上述したエッジの縁取りをさらに助長させてしまう。 In general, when black characters are reproduced, toners of C (cyan), M (magenta), Y (yellow), and K (black) are superimposed and reproduced. In addition, since the reproduction of the black thin line is remarkably deteriorated, measures are taken such as increasing the K signal (black amount) or reproducing it with one black color. In this way, the black thin line reproduction is effective against color misregistration, but the difference between the edge of the character inside reproduction and the edge of the halftone character edge or pattern edge becomes significant. Therefore, the edge trimming described above is further promoted.
本実施形態は上述した問題点を解決するためになされたものであり、エッジの種別をより細かく分類して検出する技術を提供することを目的とする。 The present embodiment has been made to solve the above-described problems, and an object thereof is to provide a technique for detecting by classifying the types of edges more finely.
画像処理装置は、画像読取部と、モノクロ化処理部と、エッジ判定部と、エッジ内部判定部と、濃度判定処理部と、内部画素幅判定部と、エッジ分類処理部とを有する。画像読取部は、原稿をスキャンして原稿を電子データの画像データに変換する。モノクロ化処理部は、画像読取部によって変換された画像データを単色のデータに変換する。エッジ判定部は、モノクロ化処理部によってモノクロ化された画像データの画素が、画像データに描かれている線のエッジであるか、非エッジであるかを判定する。エッジ内部判定部は、モノクロ化処理部によってモノクロ化された画像データの画素が画像データに描かれている線のエッジの内部か否かを判定する。濃度判定処理部は、モノクロ化処理部によってモノクロ化された画像データの画素の濃度値が、閾値と比較することで濃いか否かを判定する。内部画素幅判定部は、エッジ判定部の判定結果とエッジ内部判定部の判定結果に基づき、画素が線のエッジ内部である場合、線の幅の種別を判定する。エッジ分類処理部は、内部画素幅判定部の判定結果と濃度判定部の判定結果とに基づき、エッジ判定部による判定結果でエッジと判定された画素を、さらに線種に応じて分類する。 The image processing apparatus includes an image reading unit, a monochrome processing unit, an edge determination unit, an edge internal determination unit, a density determination processing unit, an internal pixel width determination unit, and an edge classification processing unit. The image reading unit scans a document and converts the document into image data of electronic data. The monochrome processing unit converts the image data converted by the image reading unit into monochrome data. The edge determination unit determines whether the pixel of the image data monochromeized by the monochrome processing unit is an edge of a line drawn in the image data or a non-edge. The edge inside determination unit determines whether or not the pixel of the image data monochromeized by the monochrome processing unit is inside the edge of the line drawn in the image data. The density determination processing unit determines whether or not the pixel density value of the image data monochromeized by the monochrome processing unit is dark by comparing with a threshold value. The internal pixel width determination unit determines the type of the line width when the pixel is inside the line edge based on the determination result of the edge determination unit and the determination result of the edge internal determination unit. The edge classification processing unit further classifies the pixels determined to be edges by the determination result by the edge determination unit based on the determination result of the internal pixel width determination unit and the determination result of the density determination unit, according to the line type.
本実施形態の詳細説明に入る前に、ここで本実施形態の概要について説明する。 Before going into the detailed description of the present embodiment, the outline of the present embodiment will be described here.
一般的に細線などは、太線に比べてスキャナなどの画像読取部によって読み取られる信号が低くなる傾向にある。そのため細線の再現を良くするためには、強めにエッジの強調を行う必要がある。一方、太線においてはスキャナによって読み取られる信号が高いため、強めのエッジ強調は必要としない。しかしながら、単純にエッジの検出を行うだけでは細線のエッジと太線のエッジとの区別ができないため、細線の再現を優先させた場合には、太線のエッジが過強調となってしまい、上述のように特に中間調の文字や絵柄のエッジ部においては縁取りされた再現となってしまう。 In general, a thin line or the like tends to have a lower signal read by an image reading unit such as a scanner than a thick line. Therefore, in order to improve the reproduction of the thin line, it is necessary to enhance the edge strongly. On the other hand, since the signal read by the scanner is high at the thick line, strong edge enhancement is not required. However, it is impossible to distinguish between the edge of the thin line and the edge of the thick line simply by detecting the edge. Therefore, if priority is given to reproduction of the thin line, the edge of the thick line is overemphasized, as described above. In particular, the halftone character and the edge of the pattern are reproduced with an outline.
本実施形態は、この問題を鑑みたものであり、本実施形態の画像処理装置は、細線判定処理により予めターゲットとした線幅以下の「細線」、「太線」、「中間幅の線」を検出してエッジを分類し、フィルタ処理や墨入れ処理などにおいては、線幅に応じた処理を施すことにより、細線および中間幅の線の再現向上と中間調文字や絵柄の縁取りを抑制することを目的とする。また文字領域を検出することにより、線と線の間隔が狭い文字やパターンの場合にも、これらをまとまった領域として「細線」と検出することで、細線再現を向上させることを目的とする。 The present embodiment has been made in view of this problem, and the image processing apparatus according to the present embodiment applies a “thin line”, “thick line”, and “intermediate width line” that are equal to or smaller than the target line width in advance by the thin line determination process. Detect and classify edges, and perform processing according to the line width in filter processing and inking processing, etc., to improve the reproduction of fine lines and intermediate width lines and suppress halftone characters and pattern borders With the goal. It is another object of the present invention to improve fine line reproduction by detecting a character region and detecting a “fine line” as a grouped region even in the case of a character or pattern having a narrow line-to-line interval.
以下、実施の形態について図面を参照しつつ説明する。 Hereinafter, embodiments will be described with reference to the drawings.
図1は、本実施形態における画像処理装置(MFP:Multi Function Peripheral)の概略構成を示す縦断面図である。図1に示すように、本実施形態による画像処理装置100は、画像読取部Rと、画像形成部Pとを備えている。 FIG. 1 is a longitudinal sectional view showing a schematic configuration of an image processing apparatus (MFP: Multi Function Peripheral) in the present embodiment. As shown in FIG. 1, the image processing apparatus 100 according to the present embodiment includes an image reading unit R and an image forming unit P.
画像読取部Rは、シート原稿およびブック原稿の画像をスキャンして読み取る機能を有している。画像読取部Rは、原稿を所定の画像読取位置まで自動搬送可能な自動原稿搬送装置(ADF:Auto Document Feeder)109を備えており、この自動原稿搬送装置109によって自動搬送される原稿トレイ(所定の原稿載置台)Rtに載置された原稿や、不図示の原稿台に載置される原稿の画像を、走査光学系110によって読み取る。
The image reading unit R has a function of scanning and reading images of a sheet document and a book document. The image reading unit R includes an automatic document feeder (ADF) 109 capable of automatically conveying a document to a predetermined image reading position, and a document tray (predetermined by the automatic document feeder 109). The scanning
画像形成部Pは、画像読取部Rにて原稿から読み取られた画像や外部機器から画像処理装置に送信された画像データ等に基づいて、シートに現像剤像を形成する機能を有している。また、画像形成部Pは、ピックアップローラ151〜154、感光体102Y〜102K、現像ローラ103Y〜103K、ミキサ104Y〜104K、中間転写ベルト106、定着装置107および排出トレイ108を備えている。
The image forming unit P has a function of forming a developer image on a sheet based on an image read from an original by the image reading unit R, image data transmitted from an external device to the image processing apparatus, or the like. . Further, the image forming unit P includes pickup rollers 151 to 154, photoconductors 102Y to 102K, developing
また、画像処理装置100は、演算処理装置(たとえばCPU(Central Processing Unit)、MPU(Micro Processing Unit))であるプロセッサ801、および揮発性記憶装置、不揮発性記憶装置によって構成されるメモリ802を備えた画像処理部800を有する。プロセッサ801は、画像処理装置100における各種処理を行う役割を有しており、またメモリ802の不揮発性記憶領域に格納されているプログラムをメモリ802の揮発性記憶領域にロードし、ロードされたプログラムを実行することにより種々の機能を実現する役割も有している。メモリ802は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)、VRAM(Video RAM)、ハードディスクドライブ等から構成されることができ、画像処理装置100において利用される種々の情報やプログラムを格納する役割を有している。
The image processing apparatus 100 also includes a
画像形成装置100は、タッチパネルディスプレイ806を備えるコントロールパネル810を有する。コントロールパネル810は、モードの切り替え等のユーザーからの指示を受け付けるとともに、ユーザーへ処理内容を表示する。
The image forming apparatus 100 includes a
以下、本実施の形態による画像処理装置100における処理の一例として、コピー処理の概要について説明する。 Hereinafter, an outline of copy processing will be described as an example of processing in the image processing apparatus 100 according to the present embodiment.
まず、ピックアップローラ151〜154によりカセットからピックアップされたシートは、シート搬送路内に供給される。シート搬送路内に供給されたシートは、複数のローラ対によって所定の搬送方向へ向けて搬送される。 First, the sheet picked up from the cassette by the pickup rollers 151 to 154 is supplied into the sheet conveying path. The sheet supplied into the sheet conveyance path is conveyed in a predetermined conveyance direction by a plurality of roller pairs.
そして、自動原稿搬送装置109によって連続的に自動搬送される複数枚のシート原稿の画像が、所定の画像読取位置にて走査光学系110によって読み取られる。
Then, images of a plurality of sheet originals that are automatically and continuously conveyed by the automatic
次に、画像読取部Rにて原稿から読み取られた画像データに対して画像処理部800が画像処理を施す。画像処理後のデータに基づき、Y、M、CおよびKの現像剤像をシートに転写するための感光体102Y、102M、102Cおよび102Kの感光面上に静電潜像が形成される。
Next, the
続いて、現像器におけるミキサ104Y〜104Kにより攪拌された現像剤が、現像ローラ(いわゆる、マグローラ)103Y〜103Kによって、上記のようにして静電潜像が形成された感光体102Y〜102Kに供給される。これにより、感光体の感光面上に形成された静電潜像が顕像化される。 Subsequently, the developer stirred by the mixers 104Y to 104K in the developing devices is supplied to the photoconductors 102Y to 102K on which the electrostatic latent images are formed as described above by the developing rollers (so-called mag rollers) 103Y to 103K. Is done. Thereby, the electrostatic latent image formed on the photosensitive surface of the photosensitive member is visualized.
このようにして感光体上に形成された現像剤像は、中間転写ベルト106のベルト面上に転写され(いわゆる、一次転写)、中間転写ベルトの回転によって搬送される現像剤像は、所定の二次転写位置Tにて、搬送されるシート上に転写される。 The developer image thus formed on the photosensitive member is transferred onto the belt surface of the intermediate transfer belt 106 (so-called primary transfer), and the developer image conveyed by the rotation of the intermediate transfer belt is a predetermined image. At the secondary transfer position T, the image is transferred onto the conveyed sheet.
シート上に転写された現像剤像は、定着装置107にてシートに対して加熱定着される。現像剤象が加熱定着されたシートは、複数の搬送ローラ対によって搬送路内を搬送され、排出トレイ108上に順次排出される。
The developer image transferred onto the sheet is heated and fixed to the sheet by the
次に、本実施形態の画像処理部800について説明する。以降に説明する各ユニットは、メモリ802の不揮発性記憶領域に記憶されているプログラムが、メモリ802の揮発性記憶領域にロードされ、プロセッサ801が演算実行することにより実現される。またテーブルや閾値、パラメータ等の各種データや各ユニットが生成するデータは、メモリ802に記憶される。以降の説明では、まず画像処理部800内の一つのユニットである細線判定部について説明する。その後、細線判定部を有する像域識別部について説明し、最後に画像処理部800全体について説明する。
Next, the
図2は、本実施形態の細線判定部のブロック図の一例を示すものであり、図3は、本実施形態の細線判定部の動作例を示すフローチャートである。細線判定部10は、モノクロ化処理部1、フィルタ処理部2、エッジ内外判定部3、エッジ領域検出部4、黒エッジ検出部5、濃度判定処理部6、エッジ内部画素判定部7、収縮処理部8、内部画素幅判定部9、内部膨張処理部31、エッジ分類処理部32の各ユニットを有する。以下、図3のフローチャートを参照しつつ細線判定部10の各ユニットの処理を説明する。
FIG. 2 shows an example of a block diagram of the thin line determination unit of the present embodiment, and FIG. 3 is a flowchart showing an operation example of the thin line determination unit of the present embodiment. The thin
(ACT1) モノクロ化処理部1は、画像読取部Rによって原稿が電子データに変換された画像データを取得し、画像データのRGB信号において、各画素のR/G/Bの最小値を255から減算した値を、各画素の代表値として単色化を行う。ここで255から減算する理由は、信号系を、白の値を0とし黒の値を255とする濃度系へと変換するためであり、以降の説明においては全て濃度系を前提とした説明を行うものとする。尚、この濃度系へと変換処理は必ずしも行う必要はなく、その場合は以降の処理を、白の値を255とし、黒の値を0とする輝度系として読み替えてもらえばよい。また、単色化の方法としてはRGBの平均値を用いる方法が一般的であるが、平均値を用いた場合には有彩色文字の信号がなまってしまい、後述するエッジ検出の精度が低下する。よって、本実施形態では有彩色文字の検出精度の低下を抑止するためにR/G/Bの最小値を用いた手法を採用する。
(ACT1) The
(ACT2) フィルタ処理部2は、後述するエッジ検出において、網点領域での誤検出を抑制するための平滑化処理を施す。尚、エッジ検出精度を上げるために先鋭化処理を行っても良い。
(ACT2) The
(ACT3) 黒エッジ検出部5は、モノクロ化処理部1によってモノクロ化された画像に対して、注目画素を中心にマトリクスを形成する。ここでマトリクスサイズは検出したい線幅に応じたサイズに設定し、例えば約7画素幅以下を検出したい場合は7×7のサイズとする。エッジの検出方法は注目画素とマトリクス内の最小値との差が閾値以上となる画素を「黒エッジ」、それ以外の場合は「非黒エッジ」とする。
(ACT3) The black
(ACT4) エッジ領域検出部4は、モノクロ化処理部1によってモノクロ化された画像に対して、注目画素を中心として黒エッジ検出部5と同じサイズ(検出したい線幅に応じたサイズ)のマトリクスを形成する。エッジ領域検出部4でのエッジの検出方法は、マトリクス内の最大値と最小値の差が閾値以上の画素を「エッジ領域」、それ以外の場合は「非エッジ領域」とする。
(ACT4) The edge
(ACT5) エッジ内外判定部3は、モノクロ化処理部1によってモノクロ化された画像に対して、注目画素を中心にマトリクスを形成する。ここで形成するマトリクスサイズは黒エッジ検出部5やエッジ領域検出部4で形成したサイズより大きいサイズとする。そして以下の式により算出された値が閾値以上の場合には注目画素を「エッジ内部」とし、閾値未満の場合には「エッジ外部」と判定する。なお、Aは注目画素の信号値を示し、max、minはそれぞれマトリクス内の最大値、最小値を示すものとする。
edgeio=A−((max+min)/2)+127
(ACT5) The edge inside / outside determination unit 3 forms a matrix around the target pixel with respect to the image monochromeized by the
edge io = A-((max + min) / 2) +127
(ACT6) 濃度判定処理部6は、注目画素の濃度値と閾値とを比較することで、注目画素が「薄い」画素であるか、または「濃い」画素かを画素ごとに判定する。
(ACT6) The density
(ACT7) エッジ内部画素判定部7は、エッジ領域検出部4の結果に基づき、エッジ内外判定部3によってエッジの内部と判定された画素がエッジの内部であるかを再判定する。エッジ領域検出部4の結果が「非エッジ領域」であり、かつエッジ内外判定部3の結果が「エッジ内部」と判定された場合のみ、エッジ内部画素判定部7は当該画素を「エッジ内部」と判定する。上記以外の場合は「その他」とする。
(ACT7) Based on the result of the edge
(ACT8) 収縮処理部8は、黒エッジ検出部5による結果とエッジ領域検出部4による結果とに基づき、画素が「エッジ領域」であるか「非エッジ領域」であるかを再判定する。収縮処理部8は、まずエッジ領域検出部4の結果に対して注目画素を中心にマトリクスを形成する。そして注目画素周囲(マトリクスのサイズ)に所定数以上の「非エッジ領域」画素が存在し、かつ注目画素の黒エッジ検出部5の結果が「非黒エッジ」である場合に、注目画素を「非エッジ領域」と判定する。なお注目画素の黒エッジ検出部5による結果が「黒エッジ」である場合には、無条件で「エッジ領域」と判定する。
(ACT8) The
(ACT9) 内部画素幅判定部9は、エッジ内部画素判定部7及び収縮処理部8の結果に基づき、内部画素の幅を判定する。内部画素幅判定部9は、注目画素を中心にマトリクスを形成し、注目画素のエッジ内部画素判定部7による結果が「エッジ内部」の場合、図4に示す8方向それぞれに対して、収縮処理部8の結果が「非エッジ領域」の画素を、「エッジ領域」もしくはマトリクスのサイズを超えるまでカウントする。例えば、d3方向の3つの画素(図4では注目画素から右3つの画素)において、注目画素に最も近い画素から順に(図4のd3方向において、左から順に)、「非エッジ領域」、「エッジ領域」、「非エッジ領域」である場合、カウント数は1となり、また「非エッジ領域」、「非エッジ領域」、「エッジ領域」のある場合、カウント数は2となる。このように各方向のカウント値は、例えばマトリクスサイズを7×7とした場合には、最大で3となる。
(ACT9) The internal pixel width determination unit 9 determines the width of the internal pixel based on the results of the edge internal pixel determination unit 7 and the
内部画素幅判定部9は、以下の式により縦、横、斜め2方向の画素幅を算出する。以下の式において、d1〜d8はそれぞれの方向における画素カウント値とする。
縦方向 = d1+ d5+ 1
横方向 = d3+ d7+ 1
斜め方向1 = d2 + d6+ 1
斜め方向2 = d4 + d8+ 1
上記4方向の画素幅のうち、最小の画素幅が閾値以下の場合は「中間幅線内部」とし、閾値より大きい場合は「太線内部」とする。なお、注目画素のエッジ内部画素判定部7による判定結果が「その他」の場合には、上記内部画素幅の判定は行わず、「その他」の判定結果をそのまま後段の処理へ出力する。
The internal pixel width determination unit 9 calculates pixel widths in two vertical, horizontal, and diagonal directions using the following formula. In the following equations, d1 to d8 are pixel count values in the respective directions.
Longitudinal direction = d1 + d5 + 1
Lateral direction = d3 + d7 + 1
Of the pixel widths in the four directions, when the minimum pixel width is equal to or smaller than the threshold value, “inside the intermediate width line” is set, and when larger than the threshold value, “inside the thick line” is set. When the determination result by the edge internal pixel determination unit 7 of the target pixel is “other”, the determination of the internal pixel width is not performed, and the determination result of “other” is output to the subsequent processing as it is.
(ACT10) 内部膨張処理部31は、濃度判定部6の結果に基づいて内部画素幅判定部9の結果を周囲に膨張する。内部膨張処理部31は、注目画素を中心とし黒エッジ検出部5で形成したマトリクスサイズ以上でマトリクスを形成する。ここでは例として11×11とする。内部膨張処理部31は、注目画素周辺(マトリクスの範囲(11×11))の「中間幅線内部」判定結果と「太線内部」判定結果のそれぞれをカウントし、注目画素の濃度判定部6による結果が「薄い」場合には、注目画素の判定結果をカウント値が多い方の判定結果に置き換える。なお濃度判定部6による結果が「濃い」場合、もしくは内部画素幅判定部9による結果が「その他」の場合には内部画素幅判定部9の結果をそのまま他後段の処理へ出力する。
(ACT10) The internal
(ACT11)エッジ分類処理部32は、収縮処理部8、内部膨張処理部31のそれぞれの結果に基づき、収縮処理部8による判定結果でエッジと判定された画素の判定結果を、さらに線種に応じて分類する。エッジの分類は収縮処理部8、内部膨張処理部31の各処理結果の組み合わせに基づき、画素ごとに決定されるものとし、その組み合わせ例を図5(A)に示す。
(ACT11) Based on the results of the
尚、内部膨張処理部31を有さない実装も考えられる。この場合、エッジ分類処理部32は、ACT11で収縮処理部8、内部画素幅判定部9、濃度判定部6の結果を組み合わせた分類を行う。この組み合わせ例を図5(B)に示す。
In addition, the mounting which does not have the internal
以上の構成により、入力した画像データにおいて、注目画素が「エッジ」であるか「非エッジ」であるかを画素ごとに分類することができ、また注目画素が「エッジ」である場合、「薄い中間幅線」のエッジ、「薄い太線」のエッジ、「細線または濃い太線、または濃い中間幅線」のエッジであるかを分類することが可能となる。 With the above configuration, in the input image data, it is possible to classify whether the target pixel is “edge” or “non-edge” for each pixel, and when the target pixel is “edge”, “light” It is possible to classify the edge of “intermediate width line”, the edge of “thin thick line”, the edge of “thin line or thick thick line, or dark intermediate width line”.
尚、エッジ内外判定部3、エッジ領域検出部4、エッジ内部画素判定部7によって構成されるユニット(図2において破線で示される)を、エッジ内部判定部33とし、黒エッジ検出部5、エッジ領域検出部4、収縮処理部8によって構成されるユニット(図2において一点鎖線で示されるユニット)を、エッジ判定部34とする。この場合、エッジ内部判定部33は、モノクロ化処理部1によってモノクロ化された画像データの画素が、画像データに描かれている線のエッジの内部か否かを判定する。エッジ判定部34は、モノクロ化処理部1によってモノクロ化された画像データの画素が、前記画像データに描かれている線のエッジであるか非エッジであるかを、検出対象の線がマトリクス内に収まるサイズのマトリクスを用いて判定する。
Note that a unit (indicated by a broken line in FIG. 2) including the edge inside / outside determination unit 3, the edge
図6は、上述の細線判定部10を含めた像域識別部20の構成例を示す図である。
像域識別部20は、さらに、スキャンされた画像データに描かれた像のエッジを検出するエッジ検出部11、網点であるか否かを判定する網点判定部12、スキャンされた画像データの任意の領域(画素単位であってもよい。以下同様)が白下地か背景かを判定する下地判定部13を有し、また、スキャンされた画像データの任意の領域が有彩色か無彩色かを判定する無彩色検出部14、および文字判定部15、総合判定部16を有する。
FIG. 6 is a diagram illustrating a configuration example of the image
The image
文字判定部15では、エッジ検出部11の検出結果、および網点判定部12による網点判定の結果に基づき、図7の組み合わせ表を用いて画像データの任意の領域が「文字」か「非文字」かの判定を行う。
Based on the detection result of the edge detection unit 11 and the result of the halftone dot determination by the halftone dot determination unit 12, the
総合判定部16は、後述するフィルタ部22や階調処理部24が用いる判定結果と、墨入れ部23が用いる判定結果との2種類の判定結果を出力する。
The comprehensive determination unit 16 outputs two types of determination results, a determination result used by a
総合判定部16は、フィルタ部22/階調処理部24が用いる総合判定結果(以下、総合判定結果1)として、文字判定部15による文字判定結果と、細線判定部10による結果(エッジ分類処理部32の出力)とに基づき、図8(A)の組み合わせ表を用いて「非文字」、薄い太線を示す「文字1」、薄い中間幅線を示す「文字2」、細線、濃い太線または濃い中間幅線を示す「文字3」の別を出力する。
The comprehensive determination unit 16 uses the character determination result by the
また総合判定部16は、墨入れ部23が用いる総合判定結果(以下、総合判定結果2)として、文字判定部15による判定結果(文字判定結果)と、下地判定部13による結果(下地判定結果)と、無彩色判定部14による結果(無彩色検出結果)と、細線判定部10による結果(細線判定結果)とに基づき、図8(B)の組み合わせ表のように「写真」「色文字」「背景上の黒文字」「下地上の黒文字」の別を出力する。
The comprehensive determination unit 16 also determines the determination result (character determination result) by the
これら総合判定結果が得られることで、フィルタ部22、墨入れ部23、階調処理部24はそれぞれ適した処理を行うことが可能である。
By obtaining these comprehensive determination results, the
図9は像域識別部20を含んだ画像処理部800の構成例を示すブロック図である。画像処理部800は、RGB信号をCMY信号に変換する色変換部21、エッジ強調や平滑化を行うフィルタ部22、CMY信号を信号の比率などにより墨量(K信号)を生成し、CMYK信号に変換する墨入れ部23、プリンタの特性などに合わせて擬似階調を生成する階調処理部24を有する。
FIG. 9 is a block diagram illustrating a configuration example of the
フィルタ部22、墨入れ処理部23について、以下に具体的な処理例を示す。
フィルタ部22は、像域識別部20の処理において総合判定結果1(図8(A)参照)が「文字1」(薄い太線)と判定された場合には、弱めのエッジ強調となる文字用フィルタを用いて処理を行い、「文字2」(薄い中間幅線)と判定された場合には、中程度のエッジ強調となる文字用フィルタを用いて処理を行う。また、「文字3」(細線、濃い太線、濃い中間幅線)と判定された場合には、フィルタ部22は、強めエッジ強調となる文字用フィルタを用いて処理を行う。また総合判定結果1が「非文字」と判定された場合には、フィルタ部22は写真(網点)に適したフィルタ(平滑化処理)を用いて処理を行う。
ここで細線用フィルタの周波数特性としては、低〜高周波数までの周波数帯域をすべて強調するようなフィルタ(図10(A)参照)であることが望ましく、中間幅線用フィルタの周波数特性は細線用フィルタの特性に対してゲインを低くしたフィルタ(図10(B)参照)が望ましい。また写真用フィルタの周波数特性としては、低周波数帯域はシャープネスをよくするために若干強調し、中〜高周波数帯域はモアレやざらつきを抑えるために平滑化するようなフィルタ(図10(C)参照)であることが望ましい。
Specific processing examples of the
When the comprehensive determination result 1 (see FIG. 8A) is determined to be “
Here, the frequency characteristic of the fine line filter is preferably a filter (see FIG. 10A) that emphasizes all frequency bands from low to high frequencies, and the frequency characteristic of the intermediate line filter is fine line. A filter (see FIG. 10B) having a low gain with respect to the characteristics of the filter for use is desirable. As for the frequency characteristics of a photographic filter, a low frequency band is slightly emphasized to improve sharpness, and a medium to high frequency band is smoothed to suppress moire and roughness (see FIG. 10C). ) Is desirable.
また図11(A)に示したような線と線の間隔が狭いようなパターンをスキャナで読み込んだ場合、本来下地である線と線の間に信号がある程度存在するため(図11(A)のプロファイル参照)、線の間がエッジと検出されない場合、信号が強調されずに線の間に信号が残ってしまう(図11(B)参照)。しかし、本実施形態によれば、狭い間隔の線と線の間はエッジとして判定されるため、フィルタ処理での強調により線の間の信号を取り除くことが可能となる(図11(C)参照)。 Further, when a pattern having a narrow line-to-line interval as shown in FIG. 11A is read by a scanner, a signal is present to some extent between the lines that are originally the ground (FIG. 11A). When the edge between the lines is not detected as an edge, the signal is not emphasized and the signal remains between the lines (see FIG. 11B). However, according to the present embodiment, since a line between narrowly spaced lines is determined as an edge, it is possible to remove a signal between lines by emphasizing by filtering (see FIG. 11C). ).
墨入れ部23は、像域識別部20の処理において総合判定結果2(図8(B)参照)が「下地上黒文字」と判定された場合、すなわち、当該領域は「下地が白色の黒い細線」、「下地が白色の黒い濃い中間線または太線」であるため、CMYを重ねて再現せずにK一色で再現させるように各色の信号を設定する。これは細線をCMYの重ねで再現させるとプリントした際の色ずれにより文字再現が著しく劣化するのを抑止するためである。
The inking
また、像域識別部20の処理において総合判定結果2(図8(B)参照)が「背景上黒文字」と判定された場合には、墨入れ部23は、CMYKを重ねた再現となるように各色信号を設定するとともに、生成する墨量(K信号)が多くなるように設定する。このようにすることで、例えば、薄めの文字などで、「細線」の切り替わり部分、および「中間幅線」の切り替わり部分で極端な再現差が出ないようにすることが可能となる。
Further, when the comprehensive determination result 2 (see FIG. 8B) is determined to be “black character on background” in the processing of the image
なお「下地上黒文字」、「背景上黒文字」以外の場合には、墨入れ部23は、一般的な墨入れ処理(例えばUCRやGCR)によってCMYの信号比率により墨量(K信号)を設定し、墨量に応じてCMYの信号が減らされるように設定する。
In addition to “black characters on the background” and “black characters on the background”, the inking
本実施形態の各ユニットが使用する各閾値やマトリクスのサイズは、例えば「写真モード」、「文字モード」等のモードごとにメモリ802に定義されていてもよく、ユーザーがコントロールパネル810を介して指定したモードに応じて、閾値やマトリクスのサイズが切り替わる実装も可能である。
Each threshold value and matrix size used by each unit of the present embodiment may be defined in the
上述の各実施の形態にてプログラムをCPUやMPUに実行させることにより実現される各種処理は、その少なくとも一部を、ASIC(Application Specific Integrated Circuit)にて回路的に実行させることも可能であることは言うまでもない。 Various processes realized by causing a CPU or MPU to execute a program in each of the above-described embodiments can also be executed in a circuit form by an ASIC (Application Specific Integrated Circuit). Needless to say.
上述では、画像処理装置100のコピー機能を一例として説明したが、スキャン機能やFAX送受信機能等、画像処理装置100が有する各機能に対して本実施の形態は適用可能である。 In the above description, the copy function of the image processing apparatus 100 has been described as an example. However, the present embodiment is applicable to each function of the image processing apparatus 100 such as a scan function and a FAX transmission / reception function.
以上に詳説したように、線のエッジをより詳細に分類することができ、入力される画像データに対して、より適した画像処理を実現することができる。 As described in detail above, line edges can be classified in more detail, and more suitable image processing can be realized for input image data.
本発明は、その精神または主要な特徴から逸脱することなく、他の様々な形で実施することができる。そのため、前述の実施の形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明の範囲は、特許請求の範囲によって示すものであって、明細書本文には、なんら拘束されない。さらに、特許請求の範囲の均等範囲に属する全ての変形、様々な改良、代替および改質は、すべて本発明の範囲内のものである。 The present invention can be implemented in various other forms without departing from the spirit or main features thereof. Therefore, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The scope of the present invention is indicated by the scope of claims, and is not restricted by the text of the specification. Further, all modifications, various improvements, alternatives and modifications belonging to the equivalent scope of the claims are all within the scope of the present invention.
1 モノクロ化処理部、2 フィルタ処理部、3 エッジ内外判定部、4 エッジ領域検出部、5 黒エッジ検出部、6 濃度判定処理部、7 エッジ内部画素判定部、8 収縮処理部、9 内部画素幅判定部、31 内部膨張処理部、32 エッジ分類処理部、33 エッジ内部判定部、34 エッジ判定部、10 細線判定部、11 エッジ検出部、12 網点判定部、13 下地判定部、14 無彩色検出部、15 文字判定部、16 総合判定部、20 像域識別部、21 色変換部、22 フィルタ部、23 墨入れ部、24 階調処理部、100 画像処理装置、800 画像処理部、810 コントロールパネル、R 画像読取部、P 画像形成部。
DESCRIPTION OF
Claims (12)
前記画像読取部によって変換された画像データを単色のデータに変換するモノクロ化処理部と、
前記モノクロ化処理部によってモノクロ化された画像データの画素が、前記画像データに描かれている線のエッジであるか、非エッジであるかを判定するエッジ判定部と、
前記モノクロ化処理部によってモノクロ化された画像データの画素が前記画像データに描かれている線のエッジの内部か否かを判定するエッジ内部判定部と、
前記モノクロ化処理部によってモノクロ化された画像データの画素の濃度値が、閾値と比較することで濃いか否かを判定する濃度判定処理部と、
前記エッジ判定部の判定結果と前記エッジ内部判定部の判定結果とに基づき、画素が線のエッジ内部である場合、該線の幅の種別を判定する内部画素幅判定部と、
前記内部画素幅判定部の判定結果と前記濃度判定部の判定結果とに基づき、前記エッジ判定部による判定結果でエッジと判定された画素を、さらに線種に応じて分類するエッジ分類処理部と、
を有する画像処理装置。 An image reading unit that scans a document and converts the document into image data of electronic data;
A monochrome processing unit that converts the image data converted by the image reading unit into monochrome data;
An edge determination unit that determines whether a pixel of the image data monochromeized by the monochrome processing unit is an edge of a line drawn in the image data or a non-edge;
An edge inside determination unit that determines whether or not the pixel of the image data monochromeized by the monochrome processing unit is inside the edge of a line drawn in the image data;
A density determination processing unit that determines whether or not the density value of the pixel of the image data monochromeized by the monochrome processing unit is dark by comparing with a threshold value;
Based on the determination result of the edge determination unit and the determination result of the edge internal determination unit, when the pixel is inside the edge of the line, an internal pixel width determination unit that determines the type of the width of the line;
An edge classification processing unit for further classifying pixels determined to be edges according to the determination result by the edge determination unit based on the determination result of the internal pixel width determination unit and the determination result of the density determination unit according to the line type; ,
An image processing apparatus.
前記エッジ判定部は、注目画素を中心としたマトリクスを用いてエッジであるか否かを判定することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The image processing apparatus according to claim 1, wherein the edge determination unit determines whether or not an edge is detected using a matrix centered on a target pixel.
前記マトリクスのサイズは、検出対象の線がマトリクス内に収まるサイズのマトリクスであることを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
The image processing apparatus according to claim 1, wherein the size of the matrix is a matrix having a size that allows detection-target lines to be contained within the matrix.
前記エッジ判定部は、注目画素の値と該注目画素を中心とした前記マトリクス内の最小値との差が閾値に満たない画素を第1の非エッジとし、
前記マトリクス内の最大値と最小値の差が閾値に満たない画素を第2の非エッジとし、
注目画素を中心としたマトリクス内に第2の非エッジが所定数以上存在し、且つ前記注目画素が第1の非エッジである場合に、前記注目画素を非エッジとすることで、エッジであるか非エッジであるかを判定することを特徴とする画像処理装置。 The image processing apparatus according to claim 3.
The edge determination unit sets, as a first non-edge, a pixel in which a difference between a value of a target pixel and a minimum value in the matrix centered on the target pixel is less than a threshold value,
A pixel whose difference between the maximum value and the minimum value in the matrix is less than a threshold is defined as a second non-edge,
When a predetermined number or more of second non-edges exist in the matrix centered on the target pixel and the target pixel is the first non-edge, the target pixel is set to the non-edge, thereby forming an edge. An image processing apparatus for determining whether the image is a non-edge.
前記エッジ内部判定部は、注目画素を中心とした、検出対象の線がマトリクス内に収まるサイズの第1マトリクス、および該第1マトリクスよりもサイズの大きい第2マトリクスを用いて、前記注目画素がエッジ内部であるか否かを判定することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The edge inside determination unit uses the first matrix having a size in which the detection target line is within the matrix and the second matrix having a size larger than the first matrix, with the pixel of interest as the center. An image processing apparatus that determines whether or not an edge is inside.
前記モノクロ化処理部は、前記画像読取部によって変換された画像データのRGB各色のうちの最小値を代表色として単色化することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The image processing apparatus according to claim 1, wherein the monochrome processing unit converts the minimum value of RGB colors of the image data converted by the image reading unit into a single color as a representative color.
前記内部画素幅判定部は、注目画素が前記エッジ内部判定部によってエッジ内部と判定された画素であり、且つ、前記注目画素から前記エッジ判定部によってエッジと判定された画素までの画素数に基づき算出される算出値が、閾値以上の場合は前記線の幅の種別を太線と判定し、前記閾値よりも小さい場合は前記線の幅の種別を中間幅線と判定することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The internal pixel width determination unit is a pixel in which the target pixel is determined to be inside the edge by the edge internal determination unit, and based on the number of pixels from the target pixel to a pixel determined to be an edge by the edge determination unit If the calculated value is greater than or equal to a threshold value, the line width type is determined to be a thick line, and if the calculated value is smaller than the threshold value, the line width type is determined to be an intermediate width line. Processing equipment.
前記エッジ分類処理部は、前記内部画素幅判定部の判定結果と、前記濃度判定部の判定結果とに基づき、前記エッジ判定部による判定結果でエッジと判定された画素を、薄い中間幅線のエッジの画素と、薄い太線エッジの画素と、その他のエッジの画素とで分類することを特徴とする画像処理装置。 The image processing apparatus according to claim 7.
The edge classification processing unit converts pixels determined to be edges according to the determination result by the edge determination unit based on the determination result of the internal pixel width determination unit and the determination result of the density determination unit to a thin intermediate width line. An image processing apparatus that classifies an edge pixel, a thin thick-line edge pixel, and another edge pixel.
前記画像読取部によって変換された前記画像データに描かれた像のエッジの検出結果および網点判定の結果に基づき、該画像データの任意の領域が文字領域であるか否かを判定する文字判定部と、
前記エッジ分類処理部によって線種に応じて分類された結果と、前記文字判定部による判定結果との組み合わせに応じたフィルタ処理を前記画像データに対して実行するフィルタ部と、
を有することを特徴とする画像処理装置。 The image processing apparatus according to claim 1, further comprising:
Character determination for determining whether an arbitrary region of the image data is a character region based on the detection result of the edge of the image drawn in the image data converted by the image reading unit and the result of the halftone dot determination And
A filter unit that performs filtering processing on the image data according to a combination of a result classified according to a line type by the edge classification processing unit and a determination result by the character determination unit;
An image processing apparatus comprising:
前記任意の領域が有彩色か無彩色かを判定する無彩色判定部と、
前記任意の領域が白下地か背景かを判定する下地判定部と、を有し、
前記エッジ分類処理部によって線種に応じて分類された結果と、前記文字判定部による判定結果と、前記無彩色判定部による判定結果と、前記下地判定部による判定結果との組み合わせに応じた墨入れ処理を前記画像データに実行する墨入れ部と、
を有することを特徴とする画像処理装置。 The image processing apparatus according to claim 9, further comprising:
An achromatic color determining unit for determining whether the arbitrary region is a chromatic color or an achromatic color;
A background determination unit that determines whether the arbitrary region is a white background or a background,
Ink according to the combination of the result classified by the edge classification processing unit according to the line type, the determination result by the character determination unit, the determination result by the achromatic color determination unit, and the determination result by the background determination unit An inking unit that performs an inking process on the image data;
An image processing apparatus comprising:
前記閾値および前記マトリクスのサイズは、ユーザーによって設定されるモードに応じて値が切り替わることを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The threshold value and the size of the matrix are switched according to a mode set by a user.
原稿をスキャンして前記原稿を電子データの画像データに変換し、
変換された画像データを単色のデータに変換し、
モノクロ化された画像データの画素が、前記画像データに描かれている線のエッジであるか、非エッジであるかを、検出対象の線幅に応じたサイズのマトリクスを用いて判定し、
モノクロ化された画像データの画素が前記画像データに描かれている線のエッジの内部か否かを判定し、
モノクロ化された画像データの画素の濃度値が、閾値と比較することで濃いか否かを判定し、
前記エッジであるか非エッジであるかの判定結果と、前記エッジの内部か否かの判定結果とに基づき、画素が線のエッジ内部である場合、該線の幅の種別を判定し、
前記画素幅の判定結果と前記濃度値が濃いかの判定結果とに基づき、前記エッジであるか非エッジであるかの判定結果でエッジと判定された画素の判定結果を、さらに線種に応じて分類する
画像処理方法。
The image processing device
Scan the document, convert the document to electronic image data,
Convert the converted image data to monochrome data,
It is determined whether the pixels of the monochrome image data are edges of lines drawn in the image data or non-edges using a matrix having a size according to the line width of the detection target,
Determining whether the pixel of the monochrome image data is inside the edge of the line drawn in the image data;
It is determined whether the density value of the pixel of the monochrome image data is dark by comparing with the threshold value,
Based on the determination result whether it is the edge or the non-edge and the determination result whether it is inside the edge, when the pixel is inside the edge of the line, the type of the width of the line is determined,
Based on the determination result of the pixel width and the determination result of whether the density value is dark, the determination result of the pixel determined to be an edge in the determination result of the edge or the non-edge is further in accordance with the line type. Image processing method.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US30276210A | 2010-02-09 | 2010-02-09 | |
US61/302,762 | 2010-02-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011166776A true JP2011166776A (en) | 2011-08-25 |
Family
ID=44596836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011026504A Withdrawn JP2011166776A (en) | 2010-02-09 | 2011-02-09 | Apparatus and method for processing image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011166776A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014007657A (en) * | 2012-06-26 | 2014-01-16 | Oki Data Corp | Image processing apparatus |
CN103581499A (en) * | 2012-08-06 | 2014-02-12 | 柯尼卡美能达株式会社 | Image processing apparatus and image processing method |
KR102231869B1 (en) * | 2020-01-21 | 2021-03-30 | 윤상훈 | Web based personal information protection service system and the method there of |
-
2011
- 2011-02-09 JP JP2011026504A patent/JP2011166776A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014007657A (en) * | 2012-06-26 | 2014-01-16 | Oki Data Corp | Image processing apparatus |
CN103581499A (en) * | 2012-08-06 | 2014-02-12 | 柯尼卡美能达株式会社 | Image processing apparatus and image processing method |
JP2014033418A (en) * | 2012-08-06 | 2014-02-20 | Konica Minolta Inc | Image processing apparatus and image processing method |
KR102231869B1 (en) * | 2020-01-21 | 2021-03-30 | 윤상훈 | Web based personal information protection service system and the method there of |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4495201B2 (en) | Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium for recording image processing program | |
JP4495197B2 (en) | Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program | |
JP4531606B2 (en) | Image processing apparatus, image forming apparatus, and image processing method | |
JP2002218235A (en) | Image processor and image formation device | |
JP2009038529A (en) | Image processing method, image processing device, image forming apparatus, image reading device, computer program, and record medium | |
JP4402090B2 (en) | Image forming apparatus, image forming method, program, and recording medium | |
US8824018B2 (en) | Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, and recording medium | |
JP2002271616A (en) | Image processing unit and imaging device | |
JP4808281B2 (en) | Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium for recording image processing program | |
JP2011166776A (en) | Apparatus and method for processing image | |
JP4485430B2 (en) | Image processing apparatus, image processing method, and program causing computer to execute the method | |
CN107920184B (en) | Image processing apparatus and image processing method | |
JP6474315B2 (en) | Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor | |
JP3997507B2 (en) | Image processing apparatus, image processing method, and image forming apparatus | |
JP2007067908A (en) | Image processor, image forming apparatus, image processing method, and image processing program | |
US10657428B2 (en) | Image processing unit, image forming apparatus, image processing method, and storage medium | |
US20120050822A1 (en) | Image scanning device, image formation device and image scanning method | |
JP2006270148A (en) | Image processing method, image processor and image forming apparatus | |
JP2011166774A (en) | Apparatus and method for processing image | |
JP2011166775A (en) | Apparatus and method for processing image | |
JP2022178106A (en) | Image processing device, image processing method, and image processing program | |
JP4498316B2 (en) | Image processing apparatus, image processing method, image forming apparatus, and computer program | |
JP2009055121A (en) | Image processing device, image processing method, image forming apparatus and program, recording medium | |
JP6414710B2 (en) | Image processing device | |
JP6306956B2 (en) | Image processing apparatus and image forming apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140513 |