JP4228466B2 - Image processing apparatus, image processing method, and computer-readable storage medium storing image processing procedure - Google Patents

Image processing apparatus, image processing method, and computer-readable storage medium storing image processing procedure Download PDF

Info

Publication number
JP4228466B2
JP4228466B2 JP11699599A JP11699599A JP4228466B2 JP 4228466 B2 JP4228466 B2 JP 4228466B2 JP 11699599 A JP11699599 A JP 11699599A JP 11699599 A JP11699599 A JP 11699599A JP 4228466 B2 JP4228466 B2 JP 4228466B2
Authority
JP
Japan
Prior art keywords
image data
edge
processing
input image
halftone dot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP11699599A
Other languages
Japanese (ja)
Other versions
JP2000307869A (en
Inventor
葉子 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP11699599A priority Critical patent/JP4228466B2/en
Publication of JP2000307869A publication Critical patent/JP2000307869A/en
Application granted granted Critical
Publication of JP4228466B2 publication Critical patent/JP4228466B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置、画像処理方法、および画像処理手順を記憶したコンピュータ読み取り可能な記憶媒体に関し、特に、網点領域内にある文字や細線などを補正するための画像処理装置、画像処理方法、および画像処理手順を記憶したコンピュータ読み取り可能な記憶媒体に関する。
【0002】
【従来の技術】
従来より、画像処理の1つとして、スキャナで読み取った画像の文字や細線を鮮明に再現するためにエッジ強調が行われていた。エッジ強調は、エッジ内側部分(濃度の高い側)ではより濃度を高くし、外側部分(濃度の低い側)ではより濃度を低くすることによって、エッジを鮮明に再現する処理である(以降、エッジの内側部分を内エッジ、外側部分を外エッジと称する。また、図4は、一般的なエッジ強調を模式的に示したものである。図4Aに示す原稿画像をスキャナで読み取ったデータは図4B中の破線で示されており、エッジ強調後のデータは図4B中の実線で示されている。)
しかしながら、このようなエッジ強調を、所定濃度を有する下地上の文字に施した場合には、外エッジの濃度を低くしてしまうため文字の周囲に白い縁取りができてしまうといった問題があった。
【0003】
このような問題を解決するために、例えば特開平9−139843号公報記載の技術では、濃度を有する下地上の文字などにエッジ強調を施す場合には文字の外エッジ部分をその周辺画素の濃度の最小値に置き換えることによって文字の周囲に白い縁取りができるのを防止していた。
【0004】
【発明が解決しようとする課題】
しかしながら、前述した文字の外エッジ部分をその周辺画素の濃度の最小値に置き換える技術では、多数の微小ドットからなる網点領域上に文字などが描かれている場合には、文字の外エッジ部分を網点間に存在する「白」に置き換えてしまうことになるので、文字の周囲に白い縁取りができてしまう(図5参照)。また、色の付いた微小ドットで網点領域が構成されており、その網点領域上に黒の文字などが描かれている場合には、文字のエッジを検出する際に文字に隣接する色付きのドットも文字のエッジとして検出してしまう。したがって、エッジ強調を行うと文字に隣接する微小ドットにもエッジ強調が施されることになり、文字のエッジに不要な色付きの微小ドットが目立ち、見栄えの悪い画像となってしまっていた(図6参照)。
【0005】
本発明の目的は、網点領域上の文字などに対してエッジ強調を行ったときに、文字などの周囲に白い縁取りができたり、文字などのエッジで不要な色付きの微小ドットが目立つことのないようにする画像処理装置を提供することであり、また、このような画像処理方法、および画像処理手順を記憶したコンピュータ読み取り可能な記憶媒体を提供することである。
【0006】
【課題を解決するための手段】
本発明の目的は、下記する手段により達成される。
【0007】
(1)画像処理装置において、入力画像データ内のエッジ部を検出するエッジ検出手段と、前記エッジ部における内側部分と外側部分とを判別する内エッジ/外エッジ判別手段と、入力画像データ内の網点領域を判別する網点領域判別手段と、入力画像データ内の色画素と黒画素を判別する色/黒判別手段と、前記内エッジ/外エッジ判別手段、網点領域判別手段、及び色/黒判別手段のそれぞれの判別結果に応じて、入力画像の注目画素に対し、当該注目画素が網点領域及びエッジ部に属し、エッジ部の外側部分に位置するときにはエッジ強調処理を行わないこと、当該注目画素が網点領域及びエッジ部に属しかつエッジ部の内側部分に位置するときであって色画素である場合にはエッジ強調処理を行わないこと、当該注目画素が網点領域及びエッジ部に属しかつエッジ部の内側部分に位置するときであって黒画素である場合にはエッジ強調処理を行うこと、当該注目画素が網点領域及び非エッジ部に属するときには平滑化処理を行うこと、当該注目画素が網点領域に属さずエッジ部に属するときにはエッジ強調処理を行うこと、当該注目画素が網点領域に属さず非エッジ部に属するときにはエッジ強調処理および平滑化処理を行わないこと、を選択する選択手段と、前記選択手段により選択された処理内容に従って前記入力画像データが補正処理された画素及び補正処理されていない画素を含む画像データを出力する画像補正手段と、を有することを特徴とする画像処理装置。
(2)前記画像補正手段は、あらかじめ前記入力画像データをエッジ強調処理した出力画像データ、前記入力画像データを平滑化処理した出力画像データ、および前記入力画像データをエッジ強調処理も平滑化処理もしていない出力画像データを出力し、前記選択手段は、前記画像補正手段の前記各出力画像データの中から、前記選択された処理内容に従って補正処理された画素及びエッジ強調処理及び平滑化処理のいずれの補正処理されていない画素を含む出力画像データを選択して出力させることを特徴とする。
【0010】
(3)画像処理方法において、入力画像データ内のエッジ部を検出する段階と、前記エッジ部における内側部分と外側部分とを判別する段階と、入力画像データ内の網点領域を判別する段階と、入力画像データ内の色画素と黒画素を判別する段階と、それぞれの前記判別の結果に応じて、入力画像の注目画素に対し、当該注目画素が網点領域及びエッジ部に属し、エッジ部の外側部分に位置するときにはエッジ強調処理を行わないこと、当該注目画素が網点領域及びエッジ部に属しかつエッジ部の内側部分に位置するときであって色画素である場合にはエッジ強調処理を行わないこと、当該注目画素が網点領域及びエッジ部に属しかつエッジ部の内側部分に位置するときであって黒画素である場合にはエッジ強調処理を行うこと、当該注目画素が網点領域及び非エッジ部に属するときには平滑化処理を行うこと、当該注目画素が網点領域に属さずエッジ部に属するときにはエッジ強調処理を行うこと、当該注目画素が網点領域に属さず非エッジ部に属するときにはエッジ強調処理および平滑化処理を行わないこと、を選択する段階と、前記選択する段階によって選択された処理内容に従って前記入力画像データが補正処理された画素及び補正処理されていない画素を含む画像データを出力する段階と、を有することを特徴とする画像処理方法。
(4)前記選択する段階は、あらかじめ前記入力画像データをエッジ強調処理した出力画像データ、前記入力画像データを平滑化処理した出力画像データ、および前記入力画像データをエッジ強調処理も平滑化処理もしていない出力画像データの中から、前記選択された処理内容に従って補正処理された画素及びエッジ強調処理及び平滑化処理のいずれの補正処理されていない画素を含む出力画像データを選択し、前記出力する段階は、前記選択された出力画像データを出力することを特徴とする。
【0011】
(5)画像処理手順を記憶したコンピュータ読み取り可能な記憶媒体であって、入力画像データ内のエッジ部を検出する手順と、前記エッジ部における内側部分と外側部分とを判別する手順と、入力画像データ内の網点領域を判別する手順と、入力画像データ内の色画素と黒画素を判別する手順と、それぞれの前記判別の結果に応じて、入力画像の注目画素に対し、当該注目画素が網点領域及びエッジ部に属し、エッジ部の外側部分に位置するときにはエッジ強調処理を行わないこと、当該注目画素が網点領域及びエッジ部に属しかつエッジ部の内側部分に位置するときであって色画素である場合にはエッジ強調処理を行わないこと、当該注目画素が網点領域及びエッジ部に属しかつエッジ部の内側部分に位置するときであって黒画素である場合にはエッジ強調処理を行うこと、当該注目画素が網点領域及び非エッジ部に属するときには平滑化処理を行うこと、当該注目画素が網点領域に属さずエッジ部に属するときにはエッジ強調処理を行うこと、当該注目画素が網点領域に属さず非エッジ部に属するときにはエッジ強調処理および平滑化処理を行わないこと、を選択する手順と、前記選択する手順によって選択された処理内容に従って前記入力画像データが補正処理された画素及び補正処理されていない画素を含む画像データを出力する手順と、を記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。
(6)前記選択する手順は、あらかじめ前記入力画像データをエッジ強調処理した出力画像データ、前記入力画像データを平滑化処理した出力画像データ、および前記入力画像データをエッジ強調処理も平滑化もしていない出力画像データの中から、前記選択された処理内容に従って補正処理された画素及びエッジ強調処理及び平滑化処理のいずれの補正処理されていない画素を含む出力画像データを選択し、前記出力する手順は、前記選択された出力画像データを出力することを特徴とする。
【0012】
【発明の実施の形態】
以下、添付した図面を参照して、本発明の実施の形態を説明する。
【0013】
図1は、本実施形態であるデジタル複写機の画像処理部の構成を示すブロック図であり、図2は図1中に示される画像補正部15と画像領域判別部18のそれぞれ内部の構成を示すブロック図である。なお、このデジタル複写機における基本的な制御回路や機械的な構成については、通常のものと同様であるので、説明は省略する。
【0014】
以下、図1および図2を参照して、画像処理動作を画像データの流れに沿って説明する。
【0015】
デジタル複写機の画像処理部1は、スキャナ80から出力されている画像データを、RGB各色の画像データごとにメモリ11に記憶する。記憶されたRGB各色の画像データは、プリンタ90からの印刷タイミング信号に合わせて、メモリ11から読み出され、LOG変換部12、RGB→CMY色変換部13、UCR/BP部14を介してCMYK各色の画像データに変換される。CMYK各色の画像データは、画像補正部15に入力され、画像領域判別部18の判別結果に応じて画像の補正処理が行われる(詳細後述)。なお、画像補正部15においては、通常の画像補正と同様にガンマ補正なども行われる。解像度変換部16では、スキャナ80の読み取り解像度から、より高い解像度への変換が行われる。例えばスキャナ80の読み取り解像度が300dpiの場合、ディザ処理テーブルの解像度が2400×600dpiとすると300×300dpiの解像度が2400×600dpiの解像度へ変換される。解像度変換部16から出力された多値の画像データは、ディザ処理部17にてディザテーブルと比較され、2値の画像データに変換される。2値化された画像データは図示しないプリンタビデオインターフェースを介してプリンタ90に出力される。
【0016】
また、メモリ11から読み出されたRGB各色の画像データは画像領域判別部18にも入力される。
【0017】
画像領域判別部18では、まず、RGB各色の画像データが明度算出部181に入力される。明度算出部181では、下記(1)式に基づいて、RGB各色の画像データから明度データVを算出する。
【0018】
V=k1×R+k2×G+k3×B …(1)
ただし、式中、k1,k2,k3は定数である。
【0019】
明度データは、エッジ判別部182に入力される。エッジ判別部182では、エッジ/非エッジ判別部182aにて、明度データに基づいて各画素がエッジであるか非エッジであるか判別された後、エッジであると判別された画素については内エッジ/外エッジ判別部182bで内エッジであるか外エッジであるか判別される。
【0020】
図3は、エッジ/非エッジ判別部182aで用いられる微分フィルターを説明する図である。エッジ/非エッジ判別部182aでは明度データの傾きを図3Aで示される微分フィルターを用いて検出する。具体的には、明度データの傾きは図3Bに示されるV33を注目画素とする5×5領域の各画素の明度と図3Aに示される微分フィルターの係数とを掛け合わせて得られた出力値Lとして求められる。
【0021】
出力値Lは、下記(2)式で表される。
【0022】
L=(4×V33−V11−V15−V51−V55)/4 …(2)
この出力値Lは、その絶対値がエッジ部で大きく、平坦部では0となるので、エッジ/非エッジ判別部182aでは、出力値Lの絶対値と予め設定されているしきい値とを比較して、出力値Lの絶対値がしきい値より大きければ、その時の注目画素をエッジであると判別する。
【0023】
内エッジ/外エッジ判別部182bは、出力値Lの符号が正のとき注目画素が外エッジであると判別し、負のとき内エッジであると判別する。
【0024】
最終的にエッジ判別部182から出力される判別結果は、内エッジ、外エッジ、およびエッジを検出しないときの平坦部を示す信号として総合判断部185へ入力される。
【0025】
明度算出部181からの明度データは網点判別部183にも入力される。
【0026】
網点判別部183では、注目画素が網点領域であるか否かを判別する。まず、注目画素が孤立点であるか否かを判別する。具体的には、例えば下記(3)式に示すように、注目画素の明度に対し、隣接する周辺画素iの明度が一定値(V1)以上高い場合に注目画素を孤立点とする。
【0027】
(周辺画素iの明度−注目画素の明度)>V1 …(3)
次に、注目画素を中心とした微小エリア、例えば20×20画素内で、孤立点と判別された画素の個数をカウントする。そして、カウントした孤立点の個数が一定個数、例えば30個以上であれば注目画素を網点領域であると判別する。このような網点領域であるか否かの判別を全画素について行う。網点領域であるか否かの判別結果は、総合判断部185へ入力される。
【0028】
なお、網点領域の判別には、このような孤立点を求める方法の他、背景や白地部を判別するなど様々な方法があり、本実施形態においても、孤立点を求める方法に代えてこれらの方法により行ってもよい。
【0029】
画像領域判別部18に入力されたRGB各色の画像データは、色/黒判別部184にも入力されて、RGB各色の画像データから色画素か黒画素かの判別が行われる。この色/黒判別は、黒画素ではその階調値がR=G=Bであるので、例えば(RGBの最大値−RGBの最小値)≦しきい値、の場合は黒画素、一方、(RGBの最大値−RGBの最小値)>しきい値、の場合には色画素と判別する。判別結果は総合判断部185に入力される。
【0030】
総合判断部185は、エッジ判別部182、網点判別部183および色/黒判別部184のそれぞれの判別結果に基づき、エッジ強調および平滑化を行うか否か判断する。判断の結果、内エッジおよび/または外エッジを強調する場合はエッジ強調、網点領域を平滑化する場合は平滑化、どちらでもなければパススルーとする信号を出力する。総合判断部185からの信号出力は画像補正部15のセレクタ154に入力される。
【0031】
画像補正部15には、画像データを平滑化する平滑化フィルター151、そのまま画像データを通過させるパススルー152、およびエッジ強調を行うエッジ強調回路153が備えられている。セレクタ154は、総合判断部185からの信号に応じて、エッジ強調の場合にはエッジ強調回路153からの画像データを出力し、平滑化の場合には平滑化フィルター151からの画像データを出力し、パススルーの場合にはパススルー152からの画像データを出力する。なお、エッジ強調はCMYK各色の画像データごとにラプラシアン値(周辺画素との2次微分値)に係数をかけたものを加算する方法で行われる。
【0032】
表1は総合判断部185の判断結果と画像補正との関係を示すものである。
【0033】
【表1】

Figure 0004228466
【0034】
表1から分かる通り、注目画素が非網点領域である場合には、色/黒判別結果に関係なく、内エッジと外エッジの双方に対してエッジ強調された画像データが出力される。非エッジであれば画像処理が施されていない画像データが出力される。また、非網点領域の外エッジに対しては、外エッジ強調を外エッジ周辺の画素濃度の最小値に置き換えるようにしてもよい。
【0035】
一方、注目画素が網点領域である場合には、外エッジに対しては画像処理が施されていない画像データが出力される。したがって、文字などの周辺に白い縁取りは発生しない。内エッジに対しては黒のみエッジ強調された画像データが出力され、色の付いた内エッジに対しては画像処理が施されていない画像データが出力される。したがって、文字のエッジに不要な色付きの微小ドットが強調されて再現されることはない。
【0036】
非エッジ(微小ドットで構成された領域)であれば、平滑化されたデータが出力される。したがって、網点領域におけるモアレの発生を防ぐことができる。
【0037】
以上本発明を適用した実施形態を説明したが、本発明はこのような実施形態に限定されるものではない。例えば上記実施形態では、網点領域の外エッジに対しては何もせずにそのままの画像データを出力するようにしているが、これに代えて、全く強調を行わないのではなく、非網点領域において行う強調量よりは少ない程度の強調をかけるようにしてもよい。この場合には、網点の濃度が薄い場合に、強調量が少なければ文字エッジの外側に多少白い縁取りが発生したとしてもほとんど目立たないので、この少な目のエッジ強調により、文字をより鮮明にさせることができる。
【0038】
また、エッジ強調は、補正処理部においてCMYK各色の画像データに対して行われるが、このとき、CMYK各色の画像データごとに強調量を変更するようにしてもよい。この場合には、例えば黒の強調量を大きくして、その他の色の場合には強調量を少なくすることで、黒文字をより鮮明にすることができる。
【0039】
さらに本発明は、単体で画像を読み取り、そのデータを画像処理した上で出力するスキャナなどの画像読取装置、あるいはパソコンなどのコンピュータにおいて画像処理を行う場合にも好適に適用することができる。スキャナ単体に適用する場合には、上述した実施形態とほぼ同様の画像処理部を持つことで実施可能であり、パソコンなどのコンピュータでは、上述した画像処理部における動作を手順として記憶した記録媒体を提供し、これをコンピュータによって読み取り、実行することで可能となる。
【0040】
さらにまた、本発明は、当業者が本発明の技術思想の範囲内において適宜変形して実施できることは言うまでもない。
【0041】
【発明の効果】
以上説明した本発明によれば、以下のような効果を奏する。
【0042】
請求項1〜6記載の本発明によれば、エッジ部が網点領域に属するか否かに応じて、エッジ部の外側部分に対するエッジ強調を行うか否かを選択することとしたので、網点領域上の文字などにおいて、エッジ強調により文字周囲に白い縁取りが発生したり、また、文字に隣接する網点の微小ドットが強調されたりすることを防止するようにできる。また、エッジ部が網点領域に属する場合には、エッジ部の外側部分に対するエッジ強調を行わないようにしたので、網点領域上の文字において、エッジ強調を行ったときに、文字周囲に発生する白い縁取りを防止することができ、さらにエッジ部が網点領域に属し、かつ、色画素の場合には、エッジ部の内側部分に対するエッジ強調を行わないようにしたので、色の付いた微小ドットからなる網点領域上に黒い文字があるような場合に、文字周囲において、色の付いた微小ドットが強調されてしまうのを防止することができる。
【図面の簡単な説明】
【図1】 本発明を適用した実施形態に係るデジタル複写機の画像処理部の構成を示すブロック図である。
【図2】 上記画像処理部における画像補正部と画像領域判別部の構成を示すブロック図である。
【図3】 微分フィルターの一例を示す図面である。
【図4】 エッジ強調を説明するための図面である。
【図5】 色地の中の文字をエッジ強調したときの画像を説明するための図面である。
【図6】 網点領域の中の文字をエッジ強調したときの画像を説明するための図面である。
【符号の説明】
1…画像処理部、
15…画像補正部、
18…画像領域判別部、
151…平滑化フィルター、
152…パススルー、
153…エッジ強調回路、
154…セレクタ、
182…エッジ判別部、
182a…エッジ/非エッジ判別部、
182b…内エッジ/外エッジ判別部、
183…網点判別部、
184…色/黒判別部、
185…総合判断部。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, an image processing method, and a computer-readable storage medium storing an image processing procedure, and more particularly to an image processing apparatus and image processing for correcting characters and fine lines in a halftone dot region. The present invention relates to a method and a computer-readable storage medium storing an image processing procedure.
[0002]
[Prior art]
Conventionally, as one of image processing, edge enhancement has been performed in order to clearly reproduce characters and fine lines of an image read by a scanner. Edge enhancement is a process that reproduces edges clearly by increasing the density at the inner part of the edge (high density side) and lowering the density at the outer part (low density side) (hereinafter referred to as edge). 4A and 4B schematically show general edge enhancement, and data obtained by reading the original image shown in FIG. (It is indicated by a broken line in 4B, and the data after edge enhancement is indicated by a solid line in FIG. 4B.)
However, when such edge emphasis is applied to a character on a background having a predetermined density, there is a problem that a white border is formed around the character because the density of the outer edge is lowered.
[0003]
In order to solve such a problem, for example, in the technique described in Japanese Patent Application Laid-Open No. 9-139443, when edge emphasis is applied to a character on a background having a density, the outer edge portion of the character is set to the density of the surrounding pixels. By replacing it with the minimum value of, white bordering around the characters was prevented.
[0004]
[Problems to be solved by the invention]
However, in the technique of replacing the outer edge portion of the character with the minimum density of the surrounding pixels, when the character is drawn on a halftone dot region made up of a large number of minute dots, the outer edge portion of the character Is replaced with “white” existing between the halftone dots, so that a white border is formed around the character (see FIG. 5). In addition, when a halftone dot area is composed of colored dots, and black characters are drawn on the halftone dot area, a colored dot adjacent to the character is added when detecting the edge of the character. Will be detected as the edge of the character. Therefore, when edge emphasis is performed, edge emphasis is also applied to minute dots adjacent to the character, and unnecessary colored minute dots are conspicuous on the character edge, resulting in a poor-looking image (Fig. 6).
[0005]
An object of the present invention is that when edge emphasis is performed on a character on a halftone dot area, a white border can be formed around the character or an unnecessary colored minute dot is conspicuous on the edge of the character or the like. Another object is to provide an image processing apparatus that prevents the above-mentioned problem, and to provide a computer-readable storage medium storing such an image processing method and an image processing procedure.
[0006]
[Means for Solving the Problems]
The object of the present invention is achieved by the following means.
[0007]
(1) In the image processing apparatus, edge detection means for detecting an edge portion in input image data, inner edge / outer edge determination means for determining an inner portion and an outer portion in the edge portion, and input image data Halftone dot area determining means for determining a halftone dot area; color / black determining means for determining a color pixel and a black pixel in input image data; the inner edge / outer edge determining means; the dot area determining means; / The edge enhancement processing is not performed for the target pixel of the input image when the target pixel belongs to the halftone dot region and the edge portion and is located outside the edge portion according to the determination result of each black determination unit. , that said target pixel is in the case of the color pixels effected even if located inside portion of belonging and the edge portion in the dot region and an edge portion does not perform the edge enhancement processing, the target pixel is halftone area If a black pixel is a by when located at the inner portion of and edge portion belonging to the fine edge portion that performs edge enhancement processing, smoothing processing when the corresponding pixel of interest belongs to the halftone area and a non-edge portion Performing edge enhancement processing when the pixel of interest does not belong to a halftone dot region and belongs to an edge portion, and performs edge enhancement processing and smoothing processing when the pixel of interest does not belong to a halftone dot region and belongs to a non-edge portion never, selection means for selecting, and an image correction means for outputting an image data including pixels the input image data is not being processed correction processing pixel and correction according to the processing contents selected by said selection means An image processing apparatus comprising:
(2) The image correcting unit performs output enhancement on the input image data in advance, output image data obtained by smoothing the input image data, and edge enhancement and smoothing on the input image data. outputs non output image data, said selecting means, said pixel from among the output image data, the correction processing is in accordance with the processing contents said selected of said image correction means, and edge enhancement process and the smoothing process Output image data including pixels that have not been subjected to any correction processing is selected and output.
[0010]
(3) In the image processing method, detecting an edge portion in the input image data, determining an inner portion and an outer portion in the edge portion, and determining a halftone dot region in the input image data Determining the color pixel and the black pixel in the input image data, and the target pixel belongs to the halftone dot region and the edge portion with respect to the target pixel of the input image according to the result of the determination, and the edge portion of the when located outside portion it does not perform the edge enhancement processing, edge enhancement processing when the target pixel is a color pixel a is time to position the inner portion of belonging and the edge portion in the dot region and the edge portion is not performed, if the target pixel is a black pixel in a by when located in the inner portion of belonging and the edge portion in the dot region and the edge portion is to perform edge enhancement processing, the attention picture There performing the smoothing process when belonging to the halftone dot region and the non-edge portion, when the target pixel belongs to an edge portion not belong to the halftone dot area by performing edge enhancement processing, the target pixel is not belong to the halftone dot region A step of selecting that edge enhancement processing and smoothing processing are not performed when belonging to a non-edge portion, and a pixel in which the input image data has been subjected to correction processing and correction processing in accordance with the processing content selected in the selection step; Outputting image data including non-pixels. An image processing method comprising:
(4) The selecting step includes output image data obtained by performing edge enhancement processing on the input image data in advance, output image data obtained by smoothing the input image data, and edge enhancement processing and smoothing processing on the input image data. from the output image data is not to select the output image data to which the containing pixels with the correction processing in accordance with the selected processing content, and any correction process is not also a pixel of the edge enhancement processing and smoothing processing, The outputting step outputs the selected output image data.
[0011]
(5) A computer-readable storage medium storing an image processing procedure, a procedure for detecting an edge portion in input image data, a procedure for determining an inner portion and an outer portion in the edge portion, and an input image According to the procedure for discriminating the dot area in the data, the procedure for discriminating the color pixel and the black pixel in the input image data, and the result of the discrimination, belongs to the halftone dot region and the edge portion, is not performed edge enhancement processing when located outside the portion of the edge portion, when the target pixel is positioned at the inner portion of belonging and the edge portion in the dot region and the edge portion met not to perform edge enhancement processing when a color pixel Te is the black pixels in a by when the target pixel is positioned in the inner portion of belonging and the edge portion in the dot region and the edge portion Performing the edge enhancement processing to the case, it when the target pixel belongs to the halftone area and a non-edge portion that performs smoothing processing, edge enhancement processing when the target pixel belongs to an edge portion not belong to the halftone dot region Performing the input according to the processing content selected by the selecting procedure, and the step of selecting the edge enhancement processing and the smoothing processing not to be performed when the target pixel does not belong to the halftone dot region and belongs to the non-edge portion. A computer-readable storage medium that stores a procedure for outputting image data including pixels for which image data has been subjected to correction processing and pixels that have not been subjected to correction processing.
(6) The selection procedure includes output image data obtained by performing edge enhancement processing on the input image data in advance, output image data obtained by smoothing the input image data, and edge enhancement processing and smoothing on the input image data. from the no output image data, selects the output image data to which the containing pixels with the correction processing in accordance with the selected processing content, and any correction process is not also a pixel of the edge enhancement processing and smoothing processing, the The outputting procedure outputs the selected output image data.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
[0013]
FIG. 1 is a block diagram showing the configuration of the image processing unit of the digital copying machine according to the present embodiment, and FIG. 2 shows the internal configuration of the image correction unit 15 and the image area discrimination unit 18 shown in FIG. FIG. Note that the basic control circuit and mechanical configuration of the digital copying machine are the same as those of a normal one, and a description thereof will be omitted.
[0014]
Hereinafter, the image processing operation will be described along the flow of image data with reference to FIGS. 1 and 2.
[0015]
The image processing unit 1 of the digital copying machine stores the image data output from the scanner 80 in the memory 11 for each RGB color image data. The stored RGB image data is read from the memory 11 in accordance with the print timing signal from the printer 90, and the CMYK via the LOG conversion unit 12, the RGB → CMY color conversion unit 13, and the UCR / BP unit 14. It is converted into image data of each color. The image data of each color of CMYK is input to the image correction unit 15 and image correction processing is performed according to the determination result of the image region determination unit 18 (details will be described later). Note that the image correction unit 15 performs gamma correction and the like in the same manner as normal image correction. The resolution conversion unit 16 converts the reading resolution of the scanner 80 to a higher resolution. For example, if the reading resolution of the scanner 80 is 300 dpi and the resolution of the dither processing table is 2400 × 600 dpi, the resolution of 300 × 300 dpi is converted to the resolution of 2400 × 600 dpi. The multivalued image data output from the resolution conversion unit 16 is compared with a dither table by the dither processing unit 17 and converted to binary image data. The binarized image data is output to the printer 90 via a printer video interface (not shown).
[0016]
The RGB image data read from the memory 11 is also input to the image area determination unit 18.
[0017]
In the image area determination unit 18, first, image data of each RGB color is input to the brightness calculation unit 181. The lightness calculation unit 181 calculates lightness data V from the image data of each color of RGB based on the following equation (1).
[0018]
V = k1 * R + k2 * G + k3 * B (1)
However, k1, k2, and k3 are constants in the formula.
[0019]
The brightness data is input to the edge determination unit 182. The edge discriminating unit 182 determines whether each pixel is an edge or a non-edge based on the brightness data in the edge / non-edge discriminating unit 182a, and then determines the inner edge of the pixel discriminated as an edge. / Outer edge determination unit 182b determines whether it is an inner edge or an outer edge.
[0020]
FIG. 3 is a diagram for explaining a differential filter used in the edge / non-edge discriminating unit 182a. The edge / non-edge discriminating unit 182a detects the inclination of the brightness data using the differential filter shown in FIG. 3A. Specifically, the slope of the brightness data is the output value obtained by multiplying the brightness of each pixel in the 5 × 5 region with V33 shown in FIG. 3B as the target pixel and the coefficient of the differential filter shown in FIG. 3A. It is calculated as L.
[0021]
The output value L is expressed by the following equation (2).
[0022]
L = (4 × V33−V11−V15−V51−V55) / 4 (2)
Since the absolute value of the output value L is large at the edge portion and 0 at the flat portion, the edge / non-edge discriminating unit 182a compares the absolute value of the output value L with a preset threshold value. If the absolute value of the output value L is larger than the threshold value, it is determined that the pixel of interest at that time is an edge.
[0023]
The inner edge / outer edge determination unit 182b determines that the pixel of interest is an outer edge when the sign of the output value L is positive, and determines that it is an inner edge when the output value L is negative.
[0024]
The determination result finally output from the edge determination unit 182 is input to the comprehensive determination unit 185 as a signal indicating the inner edge, the outer edge, and a flat portion when no edge is detected.
[0025]
Lightness data from the lightness calculation unit 181 is also input to the halftone dot determination unit 183.
[0026]
The halftone dot determining unit 183 determines whether or not the target pixel is a halftone dot region. First, it is determined whether or not the target pixel is an isolated point. Specifically, for example, as shown in the following formula (3), when the brightness of the neighboring peripheral pixel i is higher than a certain value (V1) by the brightness of the target pixel, the target pixel is set as an isolated point.
[0027]
(Brightness of peripheral pixel i−lightness of target pixel)> V1 (3)
Next, the number of pixels determined as isolated points in a minute area centered on the target pixel, for example, 20 × 20 pixels, is counted. If the counted number of isolated points is a certain number, for example, 30 or more, the pixel of interest is determined to be a halftone dot region. Whether or not it is such a halftone dot region is determined for all pixels. The determination result as to whether or not it is a halftone dot region is input to the comprehensive determination unit 185.
[0028]
In addition to the method for obtaining the isolated point, there are various methods such as identifying the background and the white background. In this embodiment, these methods are used instead of the method for obtaining the isolated point. You may carry out by the method of.
[0029]
The RGB color image data input to the image area determination unit 18 is also input to the color / black determination unit 184 to determine whether the color pixel is a black pixel from the RGB image data. In this color / black discrimination, since the gradation value of a black pixel is R = G = B, for example, when (RGB maximum value−RGB minimum value) ≦ threshold value, black pixel, In the case of (maximum RGB value−minimum RGB value)> threshold value, it is determined as a color pixel. The determination result is input to the comprehensive determination unit 185.
[0030]
The overall determination unit 185 determines whether to perform edge enhancement and smoothing based on the determination results of the edge determination unit 182, the halftone determination unit 183, and the color / black determination unit 184. As a result of the determination, a signal is output that is edge-enhanced when the inner edge and / or outer edge is emphasized, and is smoothed when the halftone dot region is smoothed. The signal output from the comprehensive judgment unit 185 is input to the selector 154 of the image correction unit 15.
[0031]
The image correction unit 15 includes a smoothing filter 151 that smoothes image data, a pass-through 152 that passes image data as it is, and an edge enhancement circuit 153 that performs edge enhancement. The selector 154 outputs the image data from the edge enhancement circuit 153 in the case of edge enhancement, and the image data from the smoothing filter 151 in the case of smoothing, according to the signal from the comprehensive judgment unit 185. In the case of pass-through, the image data from the pass-through 152 is output. Note that edge enhancement is performed by adding a value obtained by multiplying a Laplacian value (secondary differential value with respect to surrounding pixels) by a coefficient for each image data of CMYK colors.
[0032]
Table 1 shows the relationship between the determination result of the comprehensive determination unit 185 and the image correction.
[0033]
[Table 1]
Figure 0004228466
[0034]
As can be seen from Table 1, when the target pixel is a non-halftone area, image data with edge enhancement applied to both the inner edge and the outer edge is output regardless of the color / black discrimination result. If it is a non-edge, image data that has not been subjected to image processing is output. For the outer edge of the non-halftone area, the outer edge enhancement may be replaced with the minimum pixel density around the outer edge.
[0035]
On the other hand, when the target pixel is a halftone dot region, image data that has not been subjected to image processing is output for the outer edge. Therefore, no white border is generated around the characters. Image data in which only black is edge-enhanced is output for the inner edge, and image data not subjected to image processing is output for the colored inner edge. Therefore, unnecessary colored minute dots are not reproduced at the edge of the character.
[0036]
If it is a non-edge (area composed of minute dots), smoothed data is output. Therefore, the occurrence of moire in the halftone area can be prevented.
[0037]
Although the embodiment to which the present invention is applied has been described above, the present invention is not limited to such an embodiment. For example, in the above-described embodiment, the image data is output as it is without doing anything with respect to the outer edge of the halftone dot area. Instead of this, the emphasis is not performed at all. You may make it apply emphasis of a grade smaller than the amount of emphasis performed in a field. In this case, when the density of the halftone dots is low, if the amount of emphasis is small, even if a white border is generated on the outside of the character edge, it is hardly noticeable. Therefore, this small edge emphasis makes the character clearer. be able to.
[0038]
Further, edge enhancement is performed on the CMYK color image data in the correction processing unit. At this time, the enhancement amount may be changed for each CMYK color image data. In this case, for example, the black character can be made clearer by increasing the black enhancement amount and reducing the enhancement amount for other colors.
[0039]
Furthermore, the present invention can also be suitably applied to image processing performed by an image reading device such as a scanner or a computer such as a personal computer that reads an image alone and outputs the data after image processing. When applied to a single scanner, it can be implemented by having an image processing unit that is substantially the same as that of the above-described embodiment. In a computer such as a personal computer, a recording medium storing the operation of the above-described image processing unit as a procedure is used. This can be done by reading and executing this by a computer.
[0040]
Furthermore, it goes without saying that the present invention can be appropriately modified and implemented by those skilled in the art within the scope of the technical idea of the present invention.
[0041]
【The invention's effect】
According to the present invention described above, the following effects can be obtained.
[0042]
According to the first to sixth aspects of the present invention, whether to perform edge enhancement on the outer portion of the edge portion is selected according to whether the edge portion belongs to the halftone dot region. It is possible to prevent a white border from being generated around the character due to edge emphasis in a character on a dot area, or a minute dot in a halftone dot adjacent to the character from being emphasized. In addition, when the edge part belongs to the halftone dot area, edge enhancement is not performed on the outer part of the edge part. White edges can be prevented, and the edge part belongs to the halftone dot area, and in the case of color pixels, the edge enhancement is not performed on the inner part of the edge part. When there is a black character on the halftone dot region, it is possible to prevent the minute colored dots from being emphasized around the character.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image processing unit of a digital copying machine according to an embodiment to which the present invention is applied.
FIG. 2 is a block diagram illustrating a configuration of an image correction unit and an image area determination unit in the image processing unit.
FIG. 3 is a diagram illustrating an example of a differential filter.
FIG. 4 is a diagram for explaining edge enhancement.
FIG. 5 is a diagram for explaining an image when characters in a color background are edge-enhanced.
FIG. 6 is a diagram for explaining an image when a character in a halftone dot region is edge-enhanced.
[Explanation of symbols]
1 ... Image processing unit,
15: Image correction unit,
18 ... Image region discriminating unit,
151 ... Smoothing filter,
152 ... Pass-through,
153 ... an edge enhancement circuit,
154 ... selector,
182 ... an edge discriminator,
182a: edge / non-edge discriminating unit,
182b ... Inner edge / outer edge discriminator,
183: halftone dot discrimination unit,
184 ... color / black discrimination part,
185. General judgment unit.

Claims (6)

画像処理装置において、
入力画像データ内のエッジ部を検出するエッジ検出手段と、
前記エッジ部における内側部分と外側部分とを判別する内エッジ/外エッジ判別手段と、
入力画像データ内の網点領域を判別する網点領域判別手段と、
入力画像データ内の色画素と黒画素を判別する色/黒判別手段と、
前記内エッジ/外エッジ判別手段、網点領域判別手段、及び色/黒判別手段のそれぞれの判別結果に応じて、入力画像の注目画素に対し、
当該注目画素が網点領域及びエッジ部に属し、エッジ部の外側部分に位置するときにはエッジ強調処理を行わないこと、
当該注目画素が網点領域及びエッジ部に属しかつエッジ部の内側部分に位置するときであって色画素である場合にはエッジ強調処理を行わないこと、
当該注目画素が網点領域及びエッジ部に属しかつエッジ部の内側部分に位置するときであって黒画素である場合にはエッジ強調処理を行うこと、
当該注目画素が網点領域及び非エッジ部に属するときには平滑化処理を行うこと、
当該注目画素が網点領域に属さずエッジ部に属するときにはエッジ強調処理を行うこと、
当該注目画素が網点領域に属さず非エッジ部に属するときにはエッジ強調処理および平滑化処理を行わないこと、を選択する選択手段と、
前記選択手段により選択された処理内容に従って前記入力画像データについて補正処理された画素及び前記入力画像データについてエッジ強調処理及び平滑化処理のいずれの補正処理されていない画素を含む画像データを出力する画像補正手段と、
を有することを特徴とする画像処理装置。
In the image processing apparatus,
Edge detection means for detecting edge portions in the input image data;
An inner edge / outer edge discriminating means for discriminating an inner portion and an outer portion of the edge portion;
Halftone dot region discriminating means for discriminating a halftone dot region in input image data;
Color / black discrimination means for discriminating between color pixels and black pixels in the input image data;
Depending on the discrimination results of the inner edge / outer edge discriminating means, the halftone dot area discriminating means, and the color / black discriminating means, for the target pixel of the input image,
When the pixel of interest belongs to the halftone dot region and the edge portion and is located in the outer portion of the edge portion, do not perform edge enhancement processing,
That the target pixel is in the case of the color pixels effected even if located inside portion of belonging and the edge portion in the dot region and an edge portion does not perform the edge enhancement processing,
When the target pixel belongs to the halftone dot region and the edge portion and is located in the inner portion of the edge portion and is a black pixel, an edge enhancement process is performed.
Performing a smoothing process when the target pixel belongs to a halftone dot region and a non-edge portion;
When the target pixel does not belong to the halftone dot area and belongs to the edge part, edge enhancement processing is performed,
A selection means for selecting that the edge enhancement process and the smoothing process are not performed when the target pixel does not belong to the halftone dot region and belongs to the non-edge portion ;
Pixel correction processing has been for the input image data according to the processing contents selected by said selecting means, and the image data including any of the correction process is not also a pixel of the edge enhancement processing and the smoothing processing on the input image data Image correction means for outputting;
An image processing apparatus comprising:
前記画像補正手段は、あらかじめ前記入力画像データをエッジ強調処理した出力画像データ、前記入力画像データを平滑化処理した出力画像データ、および前記入力画像データをエッジ強調処理も平滑化処理もしていない出力画像データを出力し、
前記選択手段は、前記画像補正手段の前記各出力画像データの中から、前記選択された処理内容に従って補正処理された画素及びエッジ強調処理及び平滑化処理のいずれの補正処理されていない画素を含む出力画像データを選択して出力させることを特徴とする請求項1記載の画像処理装置。
The image correction means includes output image data obtained by performing edge enhancement processing on the input image data in advance, output image data obtained by smoothing the input image data, and output obtained by performing neither edge enhancement processing nor smoothing processing on the input image data. Output image data,
Said selection means, said out of the output image data of the image correction means, the correction process is a pixel, and any correction of edge enhancement process and the smoothing process is not also in accordance with the processing contents the selected The image processing apparatus according to claim 1, wherein output image data including pixels is selected and output.
画像処理方法において、
入力画像データ内のエッジ部を検出する段階と、
前記エッジ部における内側部分と外側部分とを判別する段階と、
入力画像データ内の網点領域を判別する段階と、
入力画像データ内の色画素と黒画素を判別する段階と、
それぞれの前記判別の結果に応じて、入力画像の注目画素に対し、
当該注目画素が網点領域及びエッジ部に属し、エッジ部の外側部分に位置するときにはエッジ強調処理を行わないこと、
当該注目画素が網点領域及びエッジ部に属しかつエッジ部の内側部分に位置するときであって色画素である場合にはエッジ強調処理を行わないこと、
当該注目画素が網点領域及びエッジ部に属しかつエッジ部の内側部分に位置するときであって黒画素である場合にはエッジ強調処理を行うこと、
当該注目画素が網点領域及び非エッジ部に属するときには平滑化処理を行うこと、
当該注目画素が網点領域に属さずエッジ部に属するときにはエッジ強調処理を行うこと、
当該注目画素が網点領域に属さず非エッジ部に属するときにはエッジ強調処理および平滑化処理を行わないこと、を選択する段階と、
前記選択する段階によって選択された処理内容に従って前記入力画像データが補正処理された画素及び補正処理されていない画素を含む画像データを出力する段階と、
を有することを特徴とする画像処理方法。
In the image processing method,
Detecting an edge portion in the input image data;
Determining an inner portion and an outer portion in the edge portion;
Determining a halftone dot region in the input image data;
Determining the color and black pixels in the input image data;
Depending on the result of each determination, for the target pixel of the input image,
When the pixel of interest belongs to the halftone dot region and the edge portion and is located in the outer portion of the edge portion, do not perform edge enhancement processing,
That the target pixel is in the case of the color pixels effected even if located inside portion of belonging and the edge portion in the dot region and an edge portion does not perform the edge enhancement processing,
When the target pixel belongs to the halftone dot region and the edge portion and is located in the inner portion of the edge portion and is a black pixel, an edge enhancement process is performed.
Performing a smoothing process when the target pixel belongs to a halftone dot region and a non-edge portion;
When the target pixel does not belong to the halftone dot area and belongs to the edge part, edge enhancement processing is performed,
Selecting not to perform edge enhancement processing and smoothing processing when the pixel of interest does not belong to a halftone dot region and belongs to a non-edge part ; and
Outputting image data including pixels whose input image data has been subjected to correction processing and pixels that have not been subjected to correction processing according to the processing content selected in the selecting step;
An image processing method comprising:
前記選択する段階は、あらかじめ前記入力画像データをエッジ強調処理した出力画像データ、前記入力画像データを平滑化処理した出力画像データ、および前記入力画像データをエッジ強調処理も平滑化処理もしていない出力画像データの中から、前記選択された処理内容に従って補正処理された画素及びエッジ強調処理及び平滑化処理のいずれの補正処理されていない画素を含む出力画像データを選択し、
前記出力する段階は、前記選択された出力画像データを出力することを特徴とする請求項3記載の画像処理方法。
The selecting step includes output image data obtained by performing edge enhancement processing on the input image data in advance, output image data obtained by smoothing the input image data, and output obtained by performing neither edge enhancement processing nor smoothing processing on the input image data. from the image data, selects the output image data to which the containing pixels with the correction processing in accordance with the selected processing content, and any correction process is not also a pixel of the edge enhancement processing and smoothing processing,
4. The image processing method according to claim 3, wherein the outputting step outputs the selected output image data.
画像処理手順を記憶したコンピュータ読み取り可能な記憶媒体であって、
入力画像データ内のエッジ部を検出する手順と、
前記エッジ部における内側部分と外側部分とを判別する手順と、
入力画像データ内の網点領域を判別する手順と、
入力画像データ内の色画素と黒画素を判別する手順と、
それぞれの前記判別の結果に応じて、入力画像の注目画素に対し、
当該注目画素が網点領域及びエッジ部に属し、エッジ部の外側部分に位置するときにはエッジ強調処理を行わないこと、
当該注目画素が網点領域及びエッジ部に属しかつエッジ部の内側部分に位置するときであって色画素である場合にはエッジ強調処理を行わないこと、
当該注目画素が網点領域及びエッジ部に属しかつエッジ部の内側部分に位置するときであって黒画素である場合にはエッジ強調処理を行うこと、
当該注目画素が網点領域及び非エッジ部に属するときには平滑化処理を行うこと、
当該注目画素が網点領域に属さずエッジ部に属するときにはエッジ強調処理を行うこと、
当該注目画素が網点領域に属さず非エッジ部に属するときにはエッジ強調処理および平滑化処理を行わないこと、を選択する手順と、
前記選択する手順によって選択された処理内容に従って前記入力画像データが補正処理された画素及び補正処理されていない画素を含む画像データを出力する手順と、
を記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。
A computer-readable storage medium storing image processing procedures,
A procedure for detecting an edge portion in input image data;
A procedure for determining an inner portion and an outer portion of the edge portion;
A procedure for determining a halftone dot region in input image data;
A procedure for determining color pixels and black pixels in the input image data;
Depending on the result of each determination, for the target pixel of the input image,
When the pixel of interest belongs to the halftone dot region and the edge portion and is located in the outer portion of the edge portion, do not perform edge enhancement processing,
That the target pixel is in the case of the color pixels effected even if located inside portion of belonging and the edge portion in the dot region and an edge portion does not perform the edge enhancement processing,
When the target pixel belongs to the halftone dot region and the edge portion and is located in the inner portion of the edge portion and is a black pixel, an edge enhancement process is performed.
Performing a smoothing process when the target pixel belongs to a halftone dot region and a non-edge portion;
When the target pixel does not belong to the halftone dot area and belongs to the edge part, edge enhancement processing is performed,
A procedure for selecting edge enhancement processing and smoothing processing not to be performed when the target pixel does not belong to a halftone dot region and belongs to a non-edge portion ;
A procedure for outputting image data including pixels for which the input image data has been subjected to correction processing and pixels that have not been subjected to correction processing according to the processing content selected by the selection procedure;
A computer-readable storage medium characterized by storing the above.
前記選択する手順は、あらかじめ前記入力画像データをエッジ強調処理した出力画像データ、前記入力画像データを平滑化処理した出力画像データ、および前記入力画像データをエッジ強調処理も平滑化もしていない出力画像データの中から、前記選択された処理内容に従って補正処理された画素及びエッジ強調処理及び平滑化処理のいずれの補正処理されていない画素を含む出力画像データを選択し、
前記出力する手順は、前記選択された出力画像データを出力することを特徴とする請求項5記載のコンピュータ読み取り可能な記憶媒体。
The selection procedure includes output image data obtained by performing edge enhancement processing on the input image data in advance, output image data obtained by smoothing the input image data, and output image obtained by performing neither edge enhancement processing nor smoothing on the input image data. from the data, selects the output image data to which the containing pixels with the correction processing in accordance with the selected processing content, and any correction process is not also a pixel of the edge enhancement processing and smoothing processing,
The computer-readable storage medium according to claim 5, wherein the outputting step outputs the selected output image data.
JP11699599A 1999-04-23 1999-04-23 Image processing apparatus, image processing method, and computer-readable storage medium storing image processing procedure Expired - Fee Related JP4228466B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11699599A JP4228466B2 (en) 1999-04-23 1999-04-23 Image processing apparatus, image processing method, and computer-readable storage medium storing image processing procedure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11699599A JP4228466B2 (en) 1999-04-23 1999-04-23 Image processing apparatus, image processing method, and computer-readable storage medium storing image processing procedure

Publications (2)

Publication Number Publication Date
JP2000307869A JP2000307869A (en) 2000-11-02
JP4228466B2 true JP4228466B2 (en) 2009-02-25

Family

ID=14700878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11699599A Expired - Fee Related JP4228466B2 (en) 1999-04-23 1999-04-23 Image processing apparatus, image processing method, and computer-readable storage medium storing image processing procedure

Country Status (1)

Country Link
JP (1) JP4228466B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4013478B2 (en) 2000-12-25 2007-11-28 コニカミノルタビジネステクノロジーズ株式会社 Image processing device
JP4150844B2 (en) 2001-07-05 2008-09-17 コニカミノルタビジネステクノロジーズ株式会社 Image processing apparatus and image processing program
JP3972751B2 (en) 2001-08-27 2007-09-05 コニカミノルタビジネステクノロジーズ株式会社 Image processing device
JP4334504B2 (en) * 2005-05-20 2009-09-30 シャープ株式会社 Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4548528B2 (en) * 2008-08-13 2010-09-22 コニカミノルタビジネステクノロジーズ株式会社 Image processing apparatus and edge classification method
JP5482668B2 (en) * 2011-01-04 2014-05-07 コニカミノルタ株式会社 Image processing apparatus and program
JP2018174420A (en) * 2017-03-31 2018-11-08 ブラザー工業株式会社 Image processing apparatus and computer program

Also Published As

Publication number Publication date
JP2000307869A (en) 2000-11-02

Similar Documents

Publication Publication Date Title
JP3436828B2 (en) Image processing device
JP4926568B2 (en) Image processing apparatus, image processing method, and image processing program
JP4988624B2 (en) Image processing apparatus, image processing method, and recording medium
JPH07106646B2 (en) Image processing device
JP3334042B2 (en) IMAGE PROCESSING APPARATUS, IMAGE READING APPARATUS AND IMAGE FORMING APPARATUS EQUIPPED WITH THE SAME, IMAGE PROCESSING METHOD, AND COMPUTER-READABLE STORAGE MEDIUM CONTAINING IMAGE PROCESSING PROCEDURE
JPH05328121A (en) Method and device for picture processing
US6714676B2 (en) Image processing apparatus and image processing method
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
JP4105539B2 (en) Image processing apparatus, image forming apparatus including the same, image processing method, image processing program, and recording medium
JP4228466B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium storing image processing procedure
JP2003219191A (en) Image processor and image forming apparatus comprising it
JP4771428B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP3334047B2 (en) IMAGE PROCESSING APPARATUS, IMAGE READING APPARATUS AND IMAGE FORMING APPARATUS EQUIPPED WITH THE SAME, IMAGE PROCESSING METHOD, AND COMPUTER-READABLE STORAGE MEDIUM CONTAINING IMAGE PROCESSING PROCEDURE
JP3789243B2 (en) Image processing apparatus and method
JP4740913B2 (en) Image processing apparatus, image processing method, image forming apparatus and program, and recording medium
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP3988970B2 (en) Image processing apparatus, image processing method, and storage medium
JPH07298074A (en) Image processing unit
JP2702133B2 (en) Image processing method
JP2001352453A (en) Image-reproducing device
JP2003224718A (en) Image processing method and image processor
JP4498316B2 (en) Image processing apparatus, image processing method, image forming apparatus, and computer program
JP3064896B2 (en) Image processing device
JP2000357237A (en) Image processor, image reading device and image forming device mounted with the processor, image processing method, and computer-readable storage medium stored with image processing procedure
JP2002232704A (en) Image processor and image forming device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050920

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20061011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081124

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees