JP3823562B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP3823562B2
JP3823562B2 JP28100198A JP28100198A JP3823562B2 JP 3823562 B2 JP3823562 B2 JP 3823562B2 JP 28100198 A JP28100198 A JP 28100198A JP 28100198 A JP28100198 A JP 28100198A JP 3823562 B2 JP3823562 B2 JP 3823562B2
Authority
JP
Japan
Prior art keywords
edge
target pixel
density
pixel
density level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP28100198A
Other languages
Japanese (ja)
Other versions
JP2000115540A (en
Inventor
圭介 橋本
好彦 廣田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP28100198A priority Critical patent/JP3823562B2/en
Priority to US09/408,366 priority patent/US6978045B1/en
Publication of JP2000115540A publication Critical patent/JP2000115540A/en
Application granted granted Critical
Publication of JP3823562B2 publication Critical patent/JP3823562B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、デジタル画像データの処理、特に文字画像のエッジ処理に関する。
【0002】
【従来の技術】
画像処理装置は、原稿を読み取って得られたデジタル画像データを処理し、印字用のデジタル印字データを出力する。画像は、デジタル印字データに基づいて再現される。
画像処理装置は、原稿の画像をよりよく再現するため、原稿の画像を読み取ったデジタル画像データについて、種々の処理をおこなう。文字原稿については、文字画像の再現のため、文字のエッジを強調することが望ましい。このため、種々のエッジ判定手法や、エッジ判定結果に基づくデータ強調手法が提案されている。
【0003】
【発明が解決しようとする課題】
文字画像に特に斜め方向にあるエッジを含む場合、そのようなエッジを強調すると、得られた画像はぎざぎざになる。このため、原画像に比べて、再現画像の品位が悪くなる。これは、画像が画素単位で読み取られ再現されるためである。しかし、文字のエッジ部は滑らかに再現されることが望ましい。
【0004】
本発明の目的は、文字エッジ部をより滑らかに再現できる画像処理装置を提供することである。
【0005】
【課題を解決するための手段】
本発明に係る画像処理装置は、多値画像データに基づいて、画素を主走査方向に複数のサブ領域に分割しサブ領域の単位で画像を形成するためのデジタル画像データを出力する画像処理装置である。この画像処理装置は、多値画像データに基づいて、注目画素とその周辺画素の濃度レベルの差から注目画素のエッジ方向を識別するエッジ判定手段と、上記エッジ判定手段によって判定された注目画素のエッジ方向にしたがって、注目画素内の複数のサブ領域に濃度レベルを設定して各注目画素内の濃度分布を変化させる濃度制御手段とを備える。そして、前記のエッジ判定手段は、注目画素に対しエッジと反対側に隣接する画素の濃度レベルがしきい値よりも高い場合、判定されたエッジ方向をキャンセルする。ここで、注目画素の濃度分布の重心を変化させるため、1画素を主走査方向に複数のサブ画素に分割して、注目画素の濃度分布をサブ画素単位で制御する。エッジ判定手段により識別されたエッジ方向を基に、濃度制御手段は、注目画素に与える濃度をサブ画素単位で変化させ、注目画素に与えられる濃度分布(濃度重心を含む)を変化できる。これによって注目画素の解像度を向上させ、文字エッジ部を滑らかに再現する。
また、前記の濃度制御手段は、上記エッジ判定手段によって判定された注目画素のエッジ方向にしたがって、注目画素内のサブ領域ごとに濃度レベル設定用パラメータを設定する濃度レベル制御手段と、濃度レベル制御手段により設定された濃度レベル設定用パラメータを用いて、注目画素の濃度レベルを基に、注目画素内の複数のサブ領域それぞれに濃度レベルを設定する濃度レベル設定手段とからなる。濃度レベル設定用パラメータは、入力される多値画像データを印字用の画像データに変換するために用いられ、画素内の各サブ画素に対して設定される。
また、前記のエッジ判定手段が識別するエッジ方向は、主走査方向のいずれかの方向のエッジおよび細線エッジを含む。
本発明に係る画像処理の方法は、多値画像データに基づいて、画素を主走査方向に複数のサブ領域に分割しサブ領域の単位で画像を形成するためのデジタル画像データを出力する画像処理の方法であり、多値画像データに基づいて、注目画素とその周辺画素の濃度レベルの差から注目画素のエッジ方向を判定し、判定された注目画素のエッジ方向にしたがって、注目画素内の複数のサブ領域に濃度レベルを設定して各注目画素内の濃度分布を変化させる。ここで、前記のエッジ方向の判定では、注目画素に対しエッジと反対側に隣接する画素の濃度レベルがしきい値よりも高い場合、判定されたエッジ方向をキャンセルする
【0006】
【発明の実施の形態】
以下、添付の図面を参照して本発明の実施形態の画像処理装置について説明する。なお、図面において同一の参照記号は、同一または同等のものをさす。
図1は、本発明の画像処理装置の1実施形態を示す。この画像処理装置は、原稿読取装置、コンピュータなどから入力されるデジタル画像データに基づいて、感光体を露光することにより感光体上に画像を形成するためのデジタル画像データを生成し、プリンタに出力する。ここで、注目画素とその周辺の画素との階調差を求め、その階調差の組合わせによって主走査方向でのエッジ方向を識別する。そして、識別されたエッジ方向にしたがって注目画素内の濃度分布の重心を変化して、エッジを滑らかに再現する。ここで、注目画素の濃度分布の重心を変化させるため、画像読取の単位である1画素を、画像形成における主走査方向に複数のサブ画素に分割して、注目画素に与える濃度レベルをサブ画素の単位で変化させて注目画素内の濃度分布を制御する。
【0007】
具体的に説明すると、画像データ出力装置10は、ここでは図示されていない原稿読取装置、コンピュータなどから入力されるデジタル画像データを出力する。ここでは、画像データを、1画素あたり8ビットの階調データとして出力する。エッジ判定部12は、画像データ出力装置10から出力される階調データを用いて、注目画素とその周辺の画素との階調差を求め、その階調差の組合わせによって主走査方向でのエッジ方向を識別する。そして、エッジ判定部12の判定結果を基に、濃度レベル制御部14は、画素内の濃度重心を制御するためのパラメータ信号を、注目画素を主走査方向に分割したサブ画素の単位で生成する。一方、ガンマ補正部16は、階調データの非線形変換をし、プリント部22における階調性の非線形ひずみを補正する。次に、濃度レベル設定部18は、ガンマ補正部12により補正されたデータについて、濃度レベル制御部16により生成された濃度制御パラメータ信号を用いて濃度レベルを制御して、画素内の濃度重心を変化させる。こうして、濃度レベル制御部14と濃度レベル設定部18によりサブ画素単位で濃度が制御され、ガンマ補正部16により補正されたデータがサブ画素単位で印字用の濃度レベル(デジタル階調データ)に変換される。D/A変換器20は、濃度レベル設定部18により得られたデジタル階調データをアナログ信号に変換し、プリント部22のレーザー駆動回路に出力する。プリント部22は、入力信号に基づいてレーザービームの強度をサブ画素の単位で変調し、中間調画像をラスター走査で記録媒体上に形成する。
【0008】
エッジ判定部12は、注目画素の主走査方向でのエッジ方向を次の4つの場合に区分して判定する。この判定結果に基づいてエッジをどの方向に寄せるかが判断される。ここでは、主走査方向を左右方向とする。「右エッジ」とは、文字の右側にあるエッジ、すなわち、注目画素の左側に文字部がある場合のエッジをいう。「左エッジ」とは、文字の左側にあるエッジ、すなわち、注目画素の右側に文字部がある場合のエッジをいう。また、「細線エッジ」とは、注目画素の中央に文字部がある場合、すなわち、1つの注目画素内に右エッジと左エッジがある場合のエッジをいう。なお、以上のいずれにも該当しない場合は、「非エッジ部」である。
【0009】
図2は、エッジ判定部12のブロック図である。エッジは、たとえば3×3の画素マトリクスを用いて判定される。まず、注目画素とその周辺の8画素との階調差を計算し、注目画素より濃度の高い画素と濃度の低い画素に分ける。図3に示すように、3×3の画素マトリクスにおいて、V33は注目画素の階調データを表し、V22,V23,V24,V32,V34,V42,V43,V44は注目画素に隣接する8個の画素の階調データを表す。図2に示すエッジ判定部12において、8個の階調差信号発生回路120は、注目画素の階調データV33とその周辺の8画素の階調データV22,V23,V24,V32,V34,V42,V43,V44を入力し、周辺画素と注目画素との階調データの差(階調差信号)を求める。組合せ判定回路122は、注目画素と周辺画素との階調差を入力し、その階調差の組合わせによってエッジ方向を判別する。すなわち、注目画素とその周辺の8画素との階調差を計算し、注目画素より濃度の高い画素と濃度の低い画素に分ける。そして、注目画素と周囲画素との濃度値の関係からエッジ方向を識別する。具体的には、組合せ判定回路122は、これらの8つの階調差信号の組合わせによって主走査方向でのエッジ方向(右エッジ、左エッジなど)を判別し、右寄せ信号MARKRと左寄せ信号MARKLを生成する。右寄せ信号MARKRは、右エッジが存在することを示し、左寄せ信号MARKLは左エッジが存在することを示す。そして、NANDゲート、2個のANDゲートおよび3個のセレクタ(S=LでAを選択する)からなる論理回路124は、これらの右寄せ信号MARKRと左寄せ信号MARKLからエッジ方向を判断し、エッジ方向信号EDGを出力する。すなわち、MARKRとMARKLがともに出力されていれば、EDG="01"(細線エッジ)が出力され、MARKRまたはMARKLが出力されていれば、EDG="03"(右エッジ)またはEDG="02"(左エッジ)が出力され、MARKRとMARKLがいずれも出力されていなければ、EDG="00"(非エッジ部)が出力される。
【0010】
図4は、濃度レベル制御部14のブロック図である。エッジ判定部12の出力であるエッジ方向信号EDGをアドレス信号として入力し、8個のパラメータRAM140に記憶されたテーブルより8個の濃度制御パラメータ信号A1,A2,A3,A4,B1,B2,B3,B4を得る。得られた濃度制御パラメータは、濃度レベル設定部18に送られる。
【0011】
図5は、濃度レベル設定部18のブロック図である。4個の濃度レベル演算部180では、ガンマ補正部12で非線形変換された階調データVGに対し、濃度制御パラメータ信号の4種の組合せA1とB1、A2とB2、A3とB3、A4とB4を用いて、それぞれ、ブロック内に示されるような1次演算(VH=A*(VG−B))を行う。この結果、VGから4つの階調信号VH1,VH2,VH3,VH4が得られる。次に、セレクタ182は、画素クロックCLKと画素クロックの倍の周波数を持つ倍速クロックXCLKとを用いて、濃度レベル演算部180において1次演算で得られた4つの階調信号VH1,VH2,VH3,VH4を1画素内でサブ画素ごとに切り換えて、信号VDを生成する。これにより、1画素を4サブ画素に分割し、サブ画素ごとにデジタル階調データVDを出力する。
【0012】
図6から図9は、エッジ判定部12で判定されたエッジ種類のそれぞれについて、1画素内の濃度がどのように変化するかを示したものである。ガンマ補正部16で非線形変換された階調データの階調が増加するにつれ、1画素内の4つのサブ画素に与えられるデジタル階調データがそれぞれそのように変化していくかを示す。図において、各サブ画素における黒部分の高さは、濃度レベルを表す。図6は、右エッジの場合の変化を示す。ここで濃度制御パラメータ信号は、次のとおりである。A1=A2=A3=A4=4。B1=0。B2=64。B3=128。B4=192。図には、階調レベルが0、32、64、96、128、160、192、224、255の場合を示す。図において明らかなように、右エッジであるので、濃度は左側のサブ画素から順に増加される。こうして、画素の濃度の重心は左から順次中央に移動していく。
【0013】
図7は、左エッジの場合の変化を示す。これは、図6の右エッジの場合と左右対称である。ここで濃度制御パラメータ信号は、次の通りである。A1=A2=A3=A4=4。B1=192。B2=128。B3=64。B4=0。図は、階調レベルが0、32、64、96、128、160、192、224、255の場合を示す。図において明らかなように、左エッジであるので、濃度は右側のサブ画素から順に増加される。こうして、画素の濃度の重心は右から順次中央に移動していく。
【0014】
図8は、非エッジの場合の変化を示す。ここで濃度制御パラメータ信号は、次の通りである。A1=A2=A3=A4=1。B1=B2=B3=B4=0。図は、階調レベルが0、32、64、96、128、160、192、224、255の場合を示す。図において明らかなように、エッジが存在しないので、4個のサブ画素はいずれも同じ濃度とし、したがって、画素の濃度の重心は常に中央にある。濃度は、階調レベルに対応して増加する。
【0015】
図9は、細線エッジの場合の変化を示す。ここで濃度制御パラメータ信号は、次のとおりである。A1=A2=A3=A4=2。B1=128、B2=B3=0。B4=128。図は、階調レベルが0、32、64、96、128、160、192、224、255の場合を示す。右エッジと左エッジが同時に存在する細線エッジであるので、図において明らかなように、まず中央の2個のサブ画素の濃度が、階調レベルに対応して増加する。画素の濃度の重心は常に中央にある。次に、両側の2個のサブ画素の濃度が階調レベルに対応して増加する。画素の濃度の重心は常に中央にあるが、濃度分布は、階調レベル128を越えると、しだいに左右に広がっていく。図6〜図9では、主に濃度の重心の変化について説明したが、図9に示すように、注目画素内において濃度は端から増加させていくとは限らない。また、変化させるのは重心だけではなく、濃度分布である。
【0016】
図10は、実際の画像に適用した場合、どのような効果が得られるかを図式的に示す。画像読取装置から読み込んだ画像データは、左側に示すように、斜め線のエッジ部に濃淡部分を含んでいる。このエッジは、左エッジである。この濃淡を濃度レベルとして用いて、エッジ方向を検出し、サブ画素の単位で濃度を制御して、エッジ部分の画素の濃度重心を変化させる。その結果、右側に示すように、エッジを高解像度化して、エッジが滑らかに変化する画像が得られる。
【0017】
図11は、エッジ判定部の変形例を示す。注目画素に対しエッジ方向と同じ側に隣接する画素の濃度レベルがしきい値よりも高い場合、注目画素内で濃度重心を一方に寄せたために、濃度重心がない側で白抜けが目立つことがある。エッジ判定部は、そのような場合にエッジ判定結果をキャンセルし、注目画素内の濃度重心を変化させないようにするものである。ここでは、左右それぞれに対して判定する。
図11は、図2の左側部分に示した構成に、2個の比較器146、148と2個のANDゲート1410、1412が追加されたものである。比較器146は、左エッジのときに、注目画素の左側画素の信号V32をしきい値と比較し、その比較結果の信号は、左エッジ信号MARKLとともにANDゲート1410に入力される。これにより、注目画素の左側画素の信号V32がしきい値より大きい場合、左エッジ信号MARKLを出力せず、エッジ判定結果をキャンセルする。また、比較器148は、右エッジのときに、注目画素の右側画素の信号V34をしきい値と比較し、その比較結果の信号は、右エッジ信号MARKRとともにANDゲート1412に入力される。これにより、注目画素の右側画素の信号V34がしきい値より大きい場合、右エッジ信号MARKRを出力せず、エッジ判定結果をキャンセルする。こうして、注目画素に対しエッジ方向と同じ側に隣接する画素の濃度レベルがしきい値よりも高い場合、判定されたエッジ方向をキャンセルする。この場合、上述の非エッジ部として濃度が制御される。図12に示す例において、左側に示すように、中央の画素が右エッジの画素であっても、その右隣の画素の濃度レベルがしきい値よりも高い場合、右側に示すように、右エッジとの判定結果をキャンセルし、中央の画素における白抜けを防止する。
【0018】
【発明の効果】
画像処理装置において、注目画素内で濃度分布を変化させることにより文字エッジ部をより滑らかに再現できる。
【図面の簡単な説明】
【図1】 画像処理装置の1実施形態のブロック図。
【図2】 エッジ判定部のブロック図。
【図3】 エッジ判定用の9個の画素の信号の分布を示す図。
【図4】 濃度レベル制御部のブロック図。
【図5】 濃度レベル設定部のブロック図。
【図6】 右エッジの場合の階調レベルに対する濃度の変化を示す図。
【図7】 左エッジの場合の階調レベルに対する濃度の変化を示す図。
【図8】 非エッジ部の場合の階調レベルに対する濃度の変化を示す図。
【図9】 細線エッジの場合の階調レベルに対する濃度の変化を示す図。
【図10】 処理後の実際の画像データを示す図。
【図11】 変形例におけるエッジ判定部の1部のブロック図。
【図12】 白抜け防止の1例の図。
【符号の説明】
10 画像データ出力装置、 12 ガンマ補正部、 14 エッジ判定部、 16 濃度レベル制御部、 18 濃度レベル設定部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to processing of digital image data, and more particularly to edge processing of character images.
[0002]
[Prior art]
The image processing apparatus processes digital image data obtained by reading a document and outputs digital print data for printing. The image is reproduced based on the digital print data.
The image processing apparatus performs various processes on the digital image data obtained by reading the image of the document in order to better reproduce the image of the document. For character manuscripts, it is desirable to emphasize the edge of the characters in order to reproduce the character image. For this reason, various edge determination methods and data enhancement methods based on edge determination results have been proposed.
[0003]
[Problems to be solved by the invention]
When a character image includes edges that are particularly oblique, emphasizing such edges makes the resulting image jagged. For this reason, the quality of the reproduced image is worse than that of the original image. This is because the image is read and reproduced in units of pixels. However, it is desirable that the edge portion of the character be reproduced smoothly.
[0004]
An object of the present invention is to provide an image processing apparatus capable of reproducing a character edge portion more smoothly.
[0005]
[Means for Solving the Problems]
An image processing apparatus according to the present invention outputs, based on multi-valued image data, digital image data for dividing a pixel into a plurality of sub areas in the main scanning direction and forming an image in units of sub areas. It is. The image processing apparatus includes, based on multi-valued image data, an edge determination unit that identifies an edge direction of a target pixel based on a difference in density level between the target pixel and its surrounding pixels, and the target pixel determined by the edge determination unit. Density control means for setting density levels in a plurality of sub-regions in the target pixel in accordance with the edge direction and changing the density distribution in each target pixel; The edge determination means cancels the determined edge direction when the density level of the pixel adjacent to the opposite side of the edge with respect to the target pixel is higher than the threshold value. Here, in order to change the center of gravity of the density distribution of the target pixel, one pixel is divided into a plurality of sub-pixels in the main scanning direction, and the density distribution of the target pixel is controlled in units of sub-pixels. Based on the edge direction identified by the edge determination means, the density control means can change the density given to the target pixel in units of sub-pixels and change the density distribution (including the density centroid) given to the target pixel. This improves the resolution of the pixel of interest and reproduces the character edge portion smoothly.
The density control means includes density level control means for setting a density level setting parameter for each sub-region in the target pixel in accordance with the edge direction of the target pixel determined by the edge determination means, and density level control. And density level setting means for setting the density level in each of a plurality of sub-regions in the target pixel based on the density level of the target pixel using the density level setting parameter set by the means. The density level setting parameter is used to convert input multi-value image data into image data for printing, and is set for each sub-pixel in the pixel.
The edge direction identified by the edge determination means includes an edge and a fine line edge in any direction of the main scanning direction.
An image processing method according to the present invention is based on multi-valued image data, and outputs image data for dividing a pixel into a plurality of sub-regions in the main scanning direction and forming an image in units of sub-regions. The edge direction of the target pixel is determined from the difference in density level between the target pixel and its surrounding pixels based on the multi-valued image data, and a plurality of pixels in the target pixel are determined according to the determined edge direction of the target pixel. A density level is set in each sub-region to change the density distribution in each pixel of interest . Here, in the determination of the edge direction, if the density level of the pixel adjacent to the pixel opposite to the edge is higher than the threshold value, the determined edge direction is canceled .
[0006]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the accompanying drawings. In the drawings, the same reference symbols denote the same or equivalent ones.
FIG. 1 shows an embodiment of an image processing apparatus of the present invention. This image processing apparatus generates digital image data for forming an image on a photoconductor by exposing the photoconductor based on digital image data input from a document reading device, a computer, etc., and outputs the digital image data to a printer To do. Here, the gradation difference between the target pixel and the surrounding pixels is obtained, and the edge direction in the main scanning direction is identified by the combination of the gradation differences. Then, the centroid of the density distribution in the target pixel is changed according to the identified edge direction, and the edge is reproduced smoothly. Here, in order to change the center of gravity of the density distribution of the target pixel, one pixel as a unit of image reading is divided into a plurality of sub-pixels in the main scanning direction in image formation, and the density level given to the target pixel is set to the sub-pixel. The density distribution in the pixel of interest is controlled by changing in units of.
[0007]
More specifically, the image data output device 10 outputs digital image data input from a document reading device, a computer or the like not shown here. Here, the image data is output as 8-bit gradation data per pixel. The edge determination unit 12 uses the gradation data output from the image data output device 10 to obtain the gradation difference between the target pixel and the surrounding pixels, and in the main scanning direction by combining the gradation differences. Identifies the edge direction. Then, based on the determination result of the edge determination unit 12, the density level control unit 14 generates a parameter signal for controlling the density centroid in the pixel in units of sub-pixels obtained by dividing the target pixel in the main scanning direction. . On the other hand, the gamma correction unit 16 performs non-linear conversion of the tone data and corrects the non-linear tone distortion in the print unit 22. Next, the density level setting unit 18 controls the density level of the data corrected by the gamma correction unit 12 using the density control parameter signal generated by the density level control unit 16 to obtain the density centroid in the pixel. Change. Thus, the density is controlled in units of sub-pixels by the density level control unit 14 and the density level setting unit 18, and the data corrected by the gamma correction unit 16 is converted into a density level for printing (digital gradation data) in units of sub-pixels. Is done. The D / A converter 20 converts the digital gradation data obtained by the density level setting unit 18 into an analog signal and outputs the analog signal to the laser driving circuit of the printing unit 22. The print unit 22 modulates the intensity of the laser beam in units of subpixels based on the input signal, and forms a halftone image on the recording medium by raster scanning.
[0008]
The edge determination unit 12 determines the edge direction in the main scanning direction of the target pixel by dividing into the following four cases. Based on this determination result, it is determined in which direction the edge is moved. Here, the main scanning direction is the left-right direction. “Right edge” refers to an edge on the right side of a character, that is, an edge when a character portion is on the left side of a pixel of interest. “Left edge” refers to an edge on the left side of a character, that is, an edge when a character portion is on the right side of a pixel of interest. The “thin line edge” refers to an edge when a character portion is in the center of the target pixel, that is, when a right edge and a left edge are present in one target pixel. If none of the above applies, it is a “non-edge portion”.
[0009]
FIG. 2 is a block diagram of the edge determination unit 12. The edge is determined using, for example, a 3 × 3 pixel matrix. First, the gradation difference between the target pixel and the surrounding eight pixels is calculated and divided into a pixel having a higher density and a lower density than the target pixel. As shown in FIG. 3, in the 3 × 3 pixel matrix, V33 represents the gradation data of the target pixel, and V22, V23, V24, V32, V34, V42, V43, and V44 are eight adjacent to the target pixel. Represents pixel gradation data. In the edge determination unit 12 shown in FIG. 2, the eight gradation difference signal generation circuits 120 include gradation data V33 of the target pixel and gradation data V22, V23, V24, V32, V34, V42 of the surrounding eight pixels. , V43, V44 are inputted, and the difference (gradation difference signal) of the gradation data between the peripheral pixel and the target pixel is obtained. The combination determination circuit 122 receives the gradation difference between the target pixel and the surrounding pixels, and determines the edge direction based on the combination of the gradation differences. That is, the gradation difference between the target pixel and the surrounding eight pixels is calculated and divided into a pixel having a higher density and a lower density than the target pixel. Then, the edge direction is identified from the relationship between the density values of the target pixel and the surrounding pixels. Specifically, the combination determination circuit 122 determines the edge direction (right edge, left edge, etc.) in the main scanning direction by combining these eight gradation difference signals, and outputs the right-justified signal MARKR and the left-justified signal MARKL. Generate. The right justified signal MARKR indicates that a right edge exists, and the left justified signal MARKL indicates that a left edge exists. A logic circuit 124 including a NAND gate, two AND gates, and three selectors (selecting A when S = L) determines the edge direction from the right-justified signal MARKR and the left-justified signal MARKL, and determines the edge direction. The signal EDG is output. That is, if both MARKR and MARKL are output, EDG = “01” (thin line edge) is output, and if MARKR or MARKL is output, EDG = “03” (right edge) or EDG = “02”. If “(left edge)” is output and neither MARKR nor MARKL is output, EDG = “00” (non-edge portion) is output.
[0010]
FIG. 4 is a block diagram of the density level control unit 14. The edge direction signal EDG, which is the output of the edge determination unit 12, is input as an address signal, and eight density control parameter signals A1, A2, A3, A4, B1, B2, B3 from the table stored in the eight parameter RAMs 140 are input. , B4. The obtained density control parameter is sent to the density level setting unit 18.
[0011]
FIG. 5 is a block diagram of the density level setting unit 18. In the four density level calculation units 180, four types of combinations A1 and B1, A2 and B2, A3 and B3, A4 and B4 of the density control parameter signal are applied to the gradation data VG nonlinearly converted by the gamma correction unit 12. Are used to perform a primary operation (VH = A * (VG−B)) as shown in each block. As a result, four gradation signals VH1, VH2, VH3, and VH4 are obtained from VG. Next, the selector 182 uses the gray level signal VH1, VH2, VH3 obtained by the primary calculation in the density level calculation unit 180 using the pixel clock CLK and the double speed clock XCLK having a frequency twice that of the pixel clock. , VH4 are switched for each sub-pixel within one pixel to generate a signal VD. Thus, one pixel is divided into four sub-pixels, and digital gradation data VD is output for each sub-pixel.
[0012]
6 to 9 show how the density in one pixel changes for each of the edge types determined by the edge determination unit 12. It shows how the digital gradation data given to the four sub-pixels in one pixel change as the gradation of gradation data nonlinearly converted by the gamma correction unit 16 increases. In the figure, the height of the black portion in each sub-pixel represents the density level. FIG. 6 shows the change in the case of the right edge. Here, the density control parameter signal is as follows. A1 = A2 = A3 = A4 = 4. B1 = 0. B2 = 64. B3 = 128. B4 = 192. In the figure, the gradation levels are 0, 32, 64, 96, 128, 160, 192, 224, and 255. As is apparent in the figure, since it is the right edge, the density is increased in order from the left sub-pixel. In this way, the center of gravity of the pixel density shifts sequentially from the left to the center.
[0013]
FIG. 7 shows the change in the case of the left edge. This is symmetrical to the right edge in FIG. Here, the density control parameter signal is as follows. A1 = A2 = A3 = A4 = 4. B1 = 192. B2 = 128. B3 = 64. B4 = 0. The figure shows the case where the gradation levels are 0, 32, 64, 96, 128, 160, 192, 224, and 255. As is clear in the figure, since it is the left edge, the density is increased in order from the right sub-pixel. In this way, the center of gravity of the pixel density shifts sequentially from the right to the center.
[0014]
FIG. 8 shows the change in the non-edge case. Here, the density control parameter signal is as follows. A1 = A2 = A3 = A4 = 1. B1 = B2 = B3 = B4 = 0. The figure shows the case where the gradation levels are 0, 32, 64, 96, 128, 160, 192, 224, and 255. As can be seen in the figure, since there is no edge, all four sub-pixels have the same density, and therefore the center of gravity of the pixel density is always in the center. The density increases corresponding to the gradation level.
[0015]
FIG. 9 shows the change in the case of a thin line edge. Here, the density control parameter signal is as follows. A1 = A2 = A3 = A4 = 2. B1 = 128, B2 = B3 = 0. B4 = 128. The figure shows the case where the gradation levels are 0, 32, 64, 96, 128, 160, 192, 224, and 255. Since the right edge and the left edge are thin line edges that exist at the same time, as clearly shown in the figure, first, the density of the central two sub-pixels increases corresponding to the gradation level. The center of gravity of the pixel density is always in the center. Next, the density of the two sub-pixels on both sides increases corresponding to the gradation level. The center of gravity of the pixel density is always in the center, but the density distribution gradually spreads to the left and right when the gradation level 128 is exceeded. Although FIGS. 6 to 9 mainly describe the change in the density centroid, as shown in FIG. 9, the density is not always increased from the end in the target pixel. Also, it is not only the center of gravity that changes, but also the density distribution.
[0016]
FIG. 10 schematically shows what effect is obtained when applied to an actual image. As shown on the left side, the image data read from the image reading apparatus includes a shaded portion at the edge portion of the diagonal line. This edge is the left edge. Using this density as the density level, the edge direction is detected, the density is controlled in units of sub-pixels, and the density centroid of the pixels in the edge portion is changed. As a result, as shown on the right side, the edge is increased in resolution, and an image in which the edge changes smoothly is obtained.
[0017]
FIG. 11 shows a modification of the edge determination unit. If the density level of a pixel adjacent to the target pixel on the same side as the edge direction is higher than the threshold value, the density centroid is shifted to one side in the target pixel, and white spots are conspicuous on the side without the density centroid. is there. In such a case, the edge determination unit cancels the edge determination result so as not to change the density centroid in the target pixel. Here, the determination is made for each of the left and right.
FIG. 11 is obtained by adding two comparators 146 and 148 and two AND gates 1410 and 1412 to the configuration shown in the left part of FIG. The comparator 146 compares the signal V32 of the left pixel of the target pixel with the threshold value at the left edge, and the comparison result signal is input to the AND gate 1410 together with the left edge signal MARKL. Thereby, when the signal V32 of the left pixel of the target pixel is larger than the threshold value, the edge determination result is canceled without outputting the left edge signal MARKL. The comparator 148 compares the signal V34 of the right pixel of the target pixel with the threshold value at the right edge, and the comparison result signal is input to the AND gate 1412 together with the right edge signal MARKR. Thereby, when the signal V34 of the right pixel of the target pixel is larger than the threshold value, the right edge signal MARKR is not output and the edge determination result is canceled. Thus, when the density level of the pixel adjacent to the target pixel on the same side as the edge direction is higher than the threshold value, the determined edge direction is canceled. In this case, the density is controlled as the above-described non-edge portion. In the example shown in FIG. 12, even if the central pixel is a right edge pixel as shown on the left side, if the density level of the pixel on the right is higher than the threshold value, The determination result as an edge is canceled, and white spots in the center pixel are prevented.
[0018]
【The invention's effect】
In the image processing apparatus, the character edge portion can be reproduced more smoothly by changing the density distribution in the target pixel.
[Brief description of the drawings]
FIG. 1 is a block diagram of an embodiment of an image processing apparatus.
FIG. 2 is a block diagram of an edge determination unit.
FIG. 3 is a diagram showing a signal distribution of nine pixels for edge determination.
FIG. 4 is a block diagram of a density level control unit.
FIG. 5 is a block diagram of a density level setting unit.
FIG. 6 is a diagram showing a change in density with respect to a gradation level in the case of a right edge.
FIG. 7 is a diagram showing a change in density with respect to a gradation level in the case of a left edge.
FIG. 8 is a diagram illustrating a change in density with respect to a gradation level in the case of a non-edge portion.
FIG. 9 is a diagram showing a change in density with respect to a gradation level in the case of a thin line edge.
FIG. 10 is a diagram showing actual image data after processing.
FIG. 11 is a block diagram of a part of an edge determination unit in a modified example.
FIG. 12 is a diagram illustrating an example of prevention of white spots.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 Image data output device, 12 Gamma correction part, 14 Edge determination part, 16 Density level control part, 18 Density level setting part

Claims (4)

多値画像データに基づいて、画素を主走査方向に複数のサブ領域に分割しサブ領域の単位で画像を形成するためのデジタル画像データを出力する画像処理装置であり、
多値画像データに基づいて、注目画素とその周辺画素の濃度レベルの差から注目画素のエッジ方向を判定するエッジ判定手段と、
上記エッジ判定手段によって判定された注目画素のエッジ方向にしたがって、注目画素内の複数のサブ領域に濃度レベルを設定して各注目画素内の濃度分布を変化させる濃度制御手段とを備え
前記のエッジ判定手段は、注目画素に対しエッジと反対側に隣接する画素の濃度レベルがしきい値よりも高い場合、判定されたエッジ方向をキャンセルすることを特徴とした画像処理装置。
An image processing apparatus that outputs digital image data for forming an image in units of sub-regions by dividing a pixel into a plurality of sub-regions in the main scanning direction based on multi-valued image data.
An edge determination means for determining the edge direction of the target pixel from the difference in density level between the target pixel and its surrounding pixels based on the multi-valued image data;
In accordance with the edge direction of the target pixel determined by the edge determination unit, a density control unit that sets the density level in a plurality of sub-regions in the target pixel and changes the density distribution in each target pixel ,
The edge determination means cancels the determined edge direction when the density level of a pixel adjacent to the opposite side of the edge with respect to the target pixel is higher than a threshold value .
前記の濃度制御手段は、
上記エッジ判定手段によって判定された注目画素のエッジ方向にしたがって、注目画素内のサブ領域ごとに濃度レベル設定用パラメータを設定する濃度レベル制御手段と
濃度レベル制御手段により設定された濃度レベル設定用パラメータを用いて、注目画素の濃度レベルを基に、注目画素内の複数のサブ領域それぞれに濃度レベルを設定する濃度レベル設定手段と
からなることを特徴とした請求項1に記載された画像処理装置。
The concentration control means is
A density level control unit for setting a density level setting parameter for each sub-region in the target pixel according to the edge direction of the target pixel determined by the edge determination unit, and a density level setting parameter set by the density level control unit 2. The image processing apparatus according to claim 1, further comprising: a density level setting unit that sets a density level in each of a plurality of sub-regions in the target pixel based on the density level of the target pixel. .
前記のエッジ判定手段が識別するエッジ方向は、主走査方向のいずれかの方向のエッジおよび細線エッジを含むことを特徴とする請求項1又は請求項2に記載された画像処理装置。  3. The image processing apparatus according to claim 1, wherein the edge direction identified by the edge determination unit includes an edge and a fine line edge in any direction of the main scanning direction. 多値画像データに基づいて、画素を主走査方向に複数のサブ領域に分割しサブ領域の単位で画像を形成するためのデジタル画像データを出力する画像処理の方法であり、
多値画像データに基づいて、注目画素とその周辺画素の濃度レベルの差から注目画素のエッジ方向を判定し、
判定された注目画素のエッジ方向にしたがって、注目画素内の複数のサブ領域に濃度レベルを設定して各注目画素内の濃度分布を変化させ
前記のエッジ方向の判定では、注目画素に対しエッジと反対側に隣接する画素の濃度レベルがしきい値よりも高い場合、判定されたエッジ方向をキャンセルする
ことを特徴とした画像処理の方法。
An image processing method for outputting digital image data for dividing a pixel into a plurality of sub-regions in the main scanning direction based on multi-value image data and forming an image in units of sub-regions,
Based on the multi-valued image data, determine the edge direction of the target pixel from the difference in density level between the target pixel and its surrounding pixels,
According to the determined edge direction of the target pixel, the density level is set in a plurality of sub-regions in the target pixel to change the density distribution in each target pixel ,
In the determination of the edge direction, the determined edge direction is canceled when the density level of the pixel adjacent to the opposite side of the edge with respect to the target pixel is higher than a threshold value .
JP28100198A 1998-10-02 1998-10-02 Image processing device Expired - Fee Related JP3823562B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP28100198A JP3823562B2 (en) 1998-10-02 1998-10-02 Image processing device
US09/408,366 US6978045B1 (en) 1998-10-02 1999-09-29 Image-processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28100198A JP3823562B2 (en) 1998-10-02 1998-10-02 Image processing device

Publications (2)

Publication Number Publication Date
JP2000115540A JP2000115540A (en) 2000-04-21
JP3823562B2 true JP3823562B2 (en) 2006-09-20

Family

ID=17632896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28100198A Expired - Fee Related JP3823562B2 (en) 1998-10-02 1998-10-02 Image processing device

Country Status (1)

Country Link
JP (1) JP3823562B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100698284B1 (en) 2004-12-16 2007-03-22 삼성전자주식회사 Apparatus and method for color error reduction in display of subpixel structure
KR100772906B1 (en) 2005-08-12 2007-11-05 삼성전자주식회사 Method and apparatus for displaying image signal
KR100818988B1 (en) 2006-09-05 2008-04-04 삼성전자주식회사 Method and apparatus for processing image signal
JP4912270B2 (en) * 2007-10-16 2012-04-11 キヤノン株式会社 Image processing apparatus and control method thereof

Also Published As

Publication number Publication date
JP2000115540A (en) 2000-04-21

Similar Documents

Publication Publication Date Title
JP4262112B2 (en) Laser printer that generates high-quality image data for printing
JPH03193472A (en) Highly definite image generating system of image processor
US5805724A (en) Method and system for hybrid error diffusion processing of image information using dynamic screens based on brightness/darkness settings
JPH1070659A (en) Error spread method and system
US6978045B1 (en) Image-processing apparatus
JPH1070660A (en) Error spread method and error spread system
JPH1070661A (en) Error spread method and error spread system
US5805304A (en) Image processing apparatus
JP3823562B2 (en) Image processing device
JP4058823B2 (en) Image processing device
JP3757644B2 (en) Image processing device
JP4281126B2 (en) Image processing device
JPH1075360A (en) Level number reduction method and system for multi-level gradation picture element value
JP4182959B2 (en) Image processing apparatus and image processing program for binarization processing
JPH08125860A (en) Image recorder
JP2007006271A (en) Image processing apparatus for binarization process, and image processing program
JPS59189782A (en) Picture processing device
US6753119B2 (en) Method of and apparatus for generating proof image
KR100490244B1 (en) Error diffusion method using variable threshold value in image processing system
JP2003305883A (en) Imaging apparatus
JPS60236363A (en) Halftone display method
JP2701310B2 (en) Halftone image generation method and apparatus
JPH0131344B2 (en)
JP3950871B2 (en) Image processing method and apparatus
JP2943591B2 (en) Multi-tone whiteout data generation method and apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050712

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060619

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090707

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100707

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110707

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120707

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130707

Year of fee payment: 7

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees