JP3736593B2 - Image processing apparatus and image smoothing method - Google Patents

Image processing apparatus and image smoothing method Download PDF

Info

Publication number
JP3736593B2
JP3736593B2 JP16922097A JP16922097A JP3736593B2 JP 3736593 B2 JP3736593 B2 JP 3736593B2 JP 16922097 A JP16922097 A JP 16922097A JP 16922097 A JP16922097 A JP 16922097A JP 3736593 B2 JP3736593 B2 JP 3736593B2
Authority
JP
Japan
Prior art keywords
image data
pixel
output
edge
original image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP16922097A
Other languages
Japanese (ja)
Other versions
JPH1117956A (en
Inventor
裕之 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP16922097A priority Critical patent/JP3736593B2/en
Publication of JPH1117956A publication Critical patent/JPH1117956A/en
Application granted granted Critical
Publication of JP3736593B2 publication Critical patent/JP3736593B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ディジタル画像データを処理する画像処理装置に関し、特に多値のディジタル画像データに平滑化処理を施す画像処理装置およびその画像平滑化方法に関するものである。
【0002】
【従来の技術】
近年、編集ソフトウェアや、スキャナ、電子スティルカメラ等の画像入力機器の発達、普及に伴い、例えば写真やイラスト等の絵柄部分と文字等の線画部分が混在した画像(以下、混在画像と呼ぶ)をプリントアウトあるいはコピーする機会が増えている。このような混在画像をプリントアウトする際に、線画部分については、例えば米国特許第4,437,122号明細書に開示されているような、段差を滑らかにするスムージング処理を施してプリントアウトすることが一般的に行なわれている。一方、絵柄部分については、スムージング処理により逆に原画像に対する忠実度が低下する場合があるため、スムージング処理を施さないほうが好ましい。
【0003】
このような方法を用いた従来の技術として、例えば特開平8−139918号公報に開示されている技術がある。この技術は、入力された多値画像を閾値によって分離し、閾値以下の部分については、画素を主走査方向にn個(nは2以上の整数)に分割した微画素を用いてディザ処理を施し、閾値を越える部分についてはディザ処理と同様の微画素を用いてスムージング処理を施して、2つの処理後の画像を論理和にて合成している。しかし、例えばディザパターンとして、副走査方向と平行な直線群であり、各直線の線幅が入力濃度値に比例するようなディザパターン(万線スクリーンパターン)を用い、ある色成分において所定濃度の背景上に文字がある場合に、この技術を適用すると、同一画素内にスムージング処理により付加された画素とディザパターンによる画素が存在することがある。このように同一画素内に両画像の画素が存在すると、不必要な画素の連結が起こり、スムージングの効果が低減するだけではなく、かえって不必要な文字や線画の太りを引き起こしてしまうという問題がある。
【0004】
一方、別の技術として、例えば特開平7−221971号公報に開示されているように、複数の画像を構成する多値画像データを比較して、最大または最小の色成分を有する画像を優先し、複数の画像を合成する技術がある。なお、この文献では、最大の色成分を有する画像を優先するか、最小の色成分を有する画像を優先するかはあらかじめユーザーが指定している。このような合成の技術を上述のスムージング処理に適用し、例えばディザパターンとして万線スクリーンパターンを用い、全面ディザ処理した画像とスムージング処理を文字部のみに施した画像とを合成することを考える。この場合、スムージング処理により付加された画素とディザ処理によりディザパターンが存在する画素のどちらかしか選択できない。そのため、例えばスムージング処理により付加された画素の方が色成分が小さい場合には、最大値を優先して合成するとスムージングの効果が現れなくなり、最小値を優先して合成するとスムージング処理により付加された画素とディザパターンとの継ぎ目で白く抜けたようになってしまうという問題があった。
【0005】
例えば特開平8−23446号公報においても、多値画像から文字/線画を抽出して平滑化を施した後、絵柄部データと合成しているが、平滑化処理の結果が0,255以外の場合には平滑化処理の結果を優先して出力しており、例えば平滑化処理で付加された画素については優先される。そのため、文字/線画部分は平滑化されて良好な画質が得られるが、上述のようにエッジ部分では白抜けを引き起こして画質が低下する可能性があった。
【0006】
【発明が解決しようとする課題】
本発明は、上述した事情に鑑みてなされたもので、画像を平滑化処理する際に、平滑化処理による画像とそれ以外の画像との継ぎ目における白抜け等の発生を防止し、平滑化処理の効果を最大限に発揮させて、より高い画質でプリントアウト可能な画像を形成する画像処理装置および画像平滑化方法を提供することを目的とするものである。
【0007】
【課題を解決するための手段】
本発明は、入力された多値の原画像データに対して平滑化処理を施すとともに、入力された原画像データの各画素がエッジか否かを判定し、その判定結果により前記原画像データの画素がエッジであると判定された場合に、平滑化処理により平滑化された画素と原画像データの画素のうち値が大きい方の画素を選択して出力し、エッジと判定されなかった場合には前記原画像データを出力するので、例えば平滑化処理によって付加される画素において白抜けが目立つ恐れのある場合には原画像データの画素を選択して白抜けを回避し、白抜けが目立たない場合には平滑化された画素を選択して平滑化処理の効果を発揮させることができる。そのため、白抜けなどの不具合が発生することなく、平滑化処理の効果を最大限に発揮させることができ、より高い画質の出力画像を得ることのできる画像を出力させることができる。
【0008】
【発明の実施の形態】
図1は、本発明の画像処理装置の実施の一形態を示すブロック図である。図中、1はバッファ、2は2値化部、3は平滑化処理部、4はエッジ検出部、5はセレクタである。
【0009】
バッファ1は、入力端aに入力される原画像データを一時的に保持し、遅延量の調整を行なうとともに、以降の処理で主走査方向m画素×副走査方向n画素のブロック(以下、m×nブロックと呼ぶ)のデータが必要な場合に、そのブロックデータを形成する。2値化部2は、原画像データに基づいて2値画像データを作成する。平滑化処理部3は、2値化部2において作成された2値画像データに対して平滑化処理を施し、平滑化画像データを出力する。エッジ検出部4は、原画像データからエッジを検出し、エッジに関係するエッジ情報を出力する。セレクタ5は、バッファ1内の原画像データまたは平滑化処理部3から出力される平滑化画像データのいずれかを、エッジ検出部4から出力されるエッジ情報に基づいて画素ごとに選択し、出力画像データを出力端bに出力する。
【0010】
図2は、本発明の画像処理装置の実施の一形態における動作の概要を示すフローチャートである。なお、図2において、iおよびjは先頭ラインの先頭画素を原点としたときの副走査および主走査方向における画素位置を示すインデックス、KおよびLは入力画像データの主走査および副走査方向の画素数である。また、Pは原画像データ、P’は平滑化画像データであり、添字i、jは各画像の主走査方向j番目、副走査方向i番目の画素であることを表わす。ここではP,P’は多値データである。関数smoothは画像に平滑化処理を施すことを、関数maxは最大値を取ることをそれぞれ表わしている。
【0011】
まずS101において、画素位置を示す添字i,jをともに0にリセットし、処理すべき画素を画像の先頭ラインの先頭画素に設定する。S102において、バッファ1に格納されている原画像データPに対し、2値化部2で2値化した後、平滑化処理部3で平滑化処理smoothを施し、平滑化画像データP’を得る。
【0012】
一方、エッジ検出部4では、バッファ1に格納されている原画像データPi,j がエッジであるか否かを調べる。S103でこれを判定し、エッジではない場合にはS104においてセレクタ5は原画像データPi,j を選択して出力する。原画像データPi,j がエッジであると判定された場合には、S105において、セレクタ5はエッジ検出部4が出力するエッジ情報に従って原画像データPi,j あるいは平滑化処理部3で平滑化された平滑化画像データP’i,j のいずれかを選択して出力する。ここでは、セレクタ5は画像データPi,j がエッジであった場合には原画像データPi,j と平滑化画像データP’i,j のいずれか大きい方を選択するものとしている。例えばエッジ部分の画素で、平滑化処理によって付加される画素の値が小さく、原画像データの画素の値が大きい場合、そのまま平滑化画像データを選択すると白抜けが目立つことがある。しかし、この処理によって原画像データの画素値の方が大きい場合には原画像データを選択し、白抜けを回避することができる。また、平滑化画像データの画素値の方が大きい場合には、平滑化処理を施して線画部分の画質を向上させることができる。
【0013】
S106では、処理すべき画素の位置がラインの終端に達しているか否かを判定し、ラインの途中である場合にはS107において添字jの値を1だけ増加させ、処理すべき画素の位置を隣に移す。そしてS102へ戻り、新たな画素についての処理を行なう。また、S106で処理すべき画素の位置がラインの終端に達している場合には、S108で最後のラインまで処理したか否かを判定し、未処理のラインが残っている場合には、S109において添字iの値を1だけ増加させて次のラインを処理すべきラインとし、添字jの値を0としてそのラインの始端の画素を処理すべき画素とする。そしてS102へ戻り、新たな画素についての処理を行なう。このようにして原点となる画素から最後のラインの終端の画素まで処理を繰り返し行なうことで、この処理を終了する。
【0014】
なお、このフローチャートは、1つの色成分に対する処理アルゴリズムを示したものである。入力される画像データが複数の色成分を有する場合には、本アルゴリズムを色成分ごとに適用すればよい。例えば、入力される画像データの各色成分が面順次、例えば入力画像データがイエロー(Y)・マゼンタ(M)・シアン(C)・黒(K)各成分からなる場合にY→M→C→Kといった順序で原画像データが入力される場合には、入力される順に各色成分の画像を処理してゆけばよい。もちろん、入力される色の順序は任意であるし、また面順次に入力されなくてもよく、その場合にはバッファなどに一時的に蓄積したり、この画像処理装置を各色ごとに設け、マルチプレクサなどで切り換えるようにしてもよい。また、入力される画像データの色は、YMCKに限らず、例えばRGBやL* * * といった他の色成分構成であってもよい。
【0015】
本発明の画像処理装置の実施の一形態について、一部では具体例を用いながら、さらに説明を加えてゆく。以下の説明では、入力される原画像データの具体例として1画素あたり8ビットの階調情報をもつ画像データ、すなわち画素値が0〜255の範囲の整数値をとる画像データであるとする。ここで、画素値が0の場合は最小濃度、画素値が255の場合は最大濃度、画素値が1〜254の場合はその値に応じた中間濃度を表わすものとする。また、入力端aには原画像データの先頭ラインの先頭画素から順に1画素づつ入力され、画像データが複数の色成分を有する場合には、色成分間は面順次で入力されるものとする。もちろん、入力される原画像データがこれらの条件に限定されるものではなく、各画像データの1画素あたりの階調数あるいは各画像データにおける画素値の意味を変えても、本発明の趣旨を逸脱するものではない。
【0016】
入力端aに入力された画像データは、バッファ1で遅延調整された後、2値化部2およびセレクタ5に出力されるとともに、例えばm×nブロックに形成されてエッジ検出部4に出力される。ここでは一例として3×3ブロックとしてエッジ検出部4に渡されるものとする。
【0017】
2値化部2では、バッファ1から入力された画像データを所定の閾値と画素ごとに比較し、入力された画像データが閾値以上であれば‘1’を、入力された画像データが閾値より小さければ‘0’を出力する。図3は、本発明の画像処理装置の実施の一形態における2値化部の一例を示すブロック構成図である。図中、11はレジスタ、12は比較器である。レジスタ11は、2値化のための閾値を記憶している。比較器12は、バッファ1から出力される原画像データとレジスタ11より出力される2値化のための閾値とを画素ごとに比較し、画素値が閾値以上であれば‘1’を、画素値が閾値より小さければ‘0’を2値画像データとして出力する。ここでは固定閾値を用いた2値化手法を用いた例を示したが、これに限らず、他の2値化手法を用いてよい。
【0018】
平滑化処理部3では、2値化部2から入力された2値画像データに対して平滑化処理を施して出力する。図4は、本発明の画像処理装置の実施の一形態における平滑化処理部の一例を示すブロック構成図、図5は、5×5ブロックデータの説明図、図6は、パターン検出部で5×5ブロックデータと比較するパターンの一例の説明図、図7は、パターン検出部の一例を示す構成図、図8は、メモリの内容の一例の説明図である。図中、21はバッファ、22a〜22xはパターン検出部、23はメモリ、24a〜24dは論理否定素子、25は論理積素子である。平滑化処理部3では、2値化部4より出力される2値画像データを平滑化処理する。ここでは一例として5×5ブロックのデータをもとに、所定のパターンと一致した場合に平滑化パターンを出力する場合について示す。もちろん、ブロックの大きさは任意であるし、あるいは画素値を決定する手法も任意である。さらには平滑化処理の手法も任意である。
【0019】
バッファ21は、2値化部2より出力される2値画像データから、例えば図5に示す5×5ブロックのブロックデータ(P0、0 ,・・・,P4,0 ,P0,1 ,・・・,P4,4 )を作成するとともに、P2,2 の位置の画素値を注目画素値として出力する。
【0020】
パターン検出部22a〜22xは、バッファ21から出力される5×5ブロックデータと、図6に示すようなそれぞれ所定のパターン(a)〜(x)を比較する。図6に示すパターンにおいて、白い部分が画素値‘0’の画素、黒い部分が画素値‘1’の画素、ハッチングを施した部分は画素値が‘0’,‘1’のいずれでもよい画素を示している。なお、これらのパターンは平滑化すべき画素が判断できれば任意である。また、パターン数も任意である。ここではそれぞれのパターンについてパターン検出部を配置したが、1つのパターン検出部で数個あるいはすべてのパターンとの比較を行なうように構成してもよい。パターン検出部22a〜22xは、比較の結果、例えば比較するパターンと5×5ブロックパターンが一致した場合には‘1’、一致しない場合には‘0’を出力する。
【0021】
例えばパターン検出部22aは、図7に示すように論理素子によって構成できる。パターン検出部22aで比較する図6(a)に示すパターンから、5×5ブロックデータのうちP1,0 ,P1,1 ,P2,1 ,P2,2 が‘0’、P2,0 ,P3,1 ,P3,2 が‘1’であれば、出力を‘1’とする。このような論理とするため、P1,0 ,P1,1 ,P2,1 ,P2,2 については論理否定素子24a〜24dにより論理を反転して論理積素子25に入力し、P2,0 ,P3,1 ,P3,2 についてはそのまま論理積素子25に入力する。論理積素子25はこれらの論理積を演算し、出力値とする。もちろん、パターン検出部22a〜22xの構成は、これに限られるものではない。
【0022】
メモリ23は、パターン検出部22a〜22xからの出力に対応した画像データおよび制御データを保持している。例えばメモリ23には、図8に示すような内容のデータを保持させておくことができる。パターン検出部22a〜22xのいずれか1つから‘1’が出力された場合には、図8に示すデータをもとに、‘1’を出力したパターン検出部で比較したパターンに対応した画像データおよび制御データを平滑化画像データとして出力する。例えばパターン検出部22aで図6(a)に示すパターンと原画像データの5×5ブロックパターンを比較した結果、一致しており‘1’が出力され、他のパターン検出部22b〜22xからは‘0’が出力されていた場合には、図8に示すデータより画像データとして‘63’、制御データとして‘0111b’が出力される。なお、数値の末尾に‘b’の付くものは2進数を表わしており、以下同様である。なお、制御データについては後述する。
【0023】
また、2つ以上のパターン検出器から‘1’が出力された場合、および、すべてのパターン検出器から‘0’が出力された場合には、バッファ21より入力された注目画素値に応じた画像データおよび制御データを平滑化画像データとして出力する。例えば、バッファ21より入力された注目画素値が‘1’のときは、画像データとして‘255’、制御データとして‘1111b’を、‘0’のときは画像データとして‘0’、制御データとして‘1111b’を出力する。なお、2つ以上のパターンを検出した場合に、例えばパターン間で優先順位を予め決めておいて、検出した複数のパターンの中で最も優先順位が高いパターンに応じてメモリ23より画像データおよび制御データを出力してもよい。
【0024】
エッジ検出部4では、バッファ1から出力されるm×nブロックから、そのブロックの中心画素がエッジであるか否かを検出し、その検出結果に関する情報をエッジ情報としてセレクタ5に出力する。ここでは、一例として、バッファ1から3×3ブロックのデータが渡されるものとする。また、エッジ情報として、エッジの有無とともにエッジの方向を表わす情報を出力する例を示す。図9は、本発明の画像処理装置の実施の一形態におけるエッジ検出部の一例を示すブロック構成図、図10は、特定方向のエッジを検出するフィルタの一例の説明図、図11は、エッジ情報作成部において生成されるエッジ情報の説明図である。図中、31a〜31dはフィルタ、32はエッジ情報作成部である。
【0025】
エッジ検出部4は、図9に示す例では、フィルタ31a〜31dおよびエッジ情報作成部32から構成されている。フィルタ31a〜31dは、特定の方向のエッジを検出するフィルタである。それぞれ、例えば図10(A)〜図10(D)に示すエッジ検出オペレータを用いて3×3ブロックデータとの間で演算を行ない、その結果を出力する。使用するフィルタの数、フィルタ形状あるいはフィルタ係数はこれらに限定されず、原画像データのエッジを検出できるならばどのようなフィルタであっても構わない。もちろん、ブロックの大きさが3×3に限定されるものではない。
【0026】
エッジ情報作成部32は、フィルタ31a〜31dの出力の絶対値の最大値と閾値とを比較して比較結果を得る。また、いずれのフィルタの出力の絶対値が最大であったかを判定し、その判定結果と、その絶対値が最大であった出力の正負を得る。得られた比較結果、判定結果、出力の正負によって、エッジ情報を作成して出力する。このとき、例えば図11に示すようなデータに従ってエッジ情報を作成することができる。例えば、出力の絶対値の最大値が閾値以下である場合には、エッジ情報として‘000b’が出力される。また、例えば出力の絶対値の最大値が閾値より大きく、その出力がフィルタ34bから出力されており、出力が正であった場合には、‘101b’が出力される。なお、閾値は任意に設定すればよい。このエッジ情報は、1ビット目がエッジか否かを示し、2,3ビット目がエッジの方向を示している。
【0027】
2つ以上のフィルタからの出力の絶対値が同値かつ最大であった場合には、ここでは図11の優先順位に従うものとする。あるいは、出力の絶対値が同値のフィルタの組み合わせからエッジ情報を得てもよい。なお、図11に示したデータは、任意に設定してよい。
【0028】
セレクタ5では、バッファ1から入力される原画像データまたは平滑化処理部3から入力される平滑化画像データのいずれか1つの画像データの画素を、両画像データの画素値の比較結果およびエッジ検出部4から出力されるエッジ情報に基づいて選択して、出力端bに出力する。図12は、セレクタの選択動作の一例の説明図である。図12では、原画像データを‘IMAGE’、平滑化画像データを‘SMOOTH’と表記している。図12に示すように、セレクタ5は、エッジ検出部4から出力される3ビットのエッジ情報と、原画像データと平滑化画像データの画素値の比較結果と、原画像データの画素値をもとに、出力画像データを生成する。なお、この例ではセレクタ5は画像データとともに、後述する出力機器の制御のための制御データも出力する。
【0029】
例えば、エッジ検出部4でエッジを検出しないときは、エッジ情報が‘000b’であるので、出力画像データとしては原画像データを選択して出力し、制御データとして‘1111b’を出力する。また、例えばエッジ検出部4でエッジを検出し、エッジ情報が‘101b’である場合には、さらに原画像データの画素値と平滑化画像データの画素値を比較し、平滑化画像データの画素値の方が大きければ平滑化画像データの画素値と制御データを選択して出力し、原画像データの画素値の方が大きければ原画像データの画素値を選択して出力するとともに制御データとして‘1011b’を出力する。
【0030】
このようにして、エッジの部分では、原画像データと、原画像データを平滑化処理した平滑化画像データとの間で、いずれの画素値が大きいかによって画素値の大きい方が選択される。これにより、例えば線画の背景部分が目立つ色であって平滑化処理で画素が付加されたために従来では白抜けが発生していた部分では、平滑化処理の結果を採用せずに原画像データの画素を選択して白抜けを回避したり、背景が目立たない場合には逆に平滑化処理結果を採用して線画を滑らかに再生可能な画像データを出力することができる。そのため、出力画像データを用いて再現された画像の画質を向上させることができる。
【0031】
なお、エッジ情報にはエッジの方向に関する情報が含まれており、図12においてもエッジの方向によって出力する画像データおよび制御データを区別しているが、これは後述する出力装置の一例における特性に従ったものである。出力装置によってはエッジ検出部4でエッジの方向性を考慮しなくてもよいし、それにあわせて図12に示すようなセレクタ5の動作を設定してよい。もちろん、その後の画像処理や出力装置に応じてエッジの方向性に関する情報を用いてもよい。また、その後の画像処理や出力装置に応じて図12に示すデータは適宜設定すればよい。選択する条件も任意に設定可能である。
【0032】
次に、このようにして本発明の画像処理装置から出力された画像データ、および制御データに従って出力処理を行なう例を示す。ここでは一例として、パルス幅変調機能および強度変調機能を有するレーザービームプリンタに出力する場合について説明する。まず、パルス幅変調および強度変調について説明する。図13は、レーザービームプリンタにおいてパルス幅変調機能を実現するための一構成例を示すブロック図である。図中、41はD/A変換器、42は参照波発生器、43は比較器である。パルス幅変調はレーザー発光素子の発光タイミングを制御して画素の主走査方向の印字幅および印字位置を制御するための機能であり、例えば図13に示すような構成をレーザービームプリンタに備えることにより実現する。D/A変換器41は、入力された画素をその値に応じた電圧レベルの信号に変換する。参照波発生器42は、画素が入力される周期の自然数倍の周期の参照波を発生する。比較器43は、D/A変換器41の出力信号と参照波発生器42より発生される参照波とを比較し、D/A変換器41の出力信号の電圧レベルが大きい場合にはレーザー発光素子が発光する電圧レベルの信号を、参照波の電圧レベルが大きい場合にはレーザー発光素子が発光しない電圧レベルの信号を発生する。
【0033】
図14ないし図17は、レーザービームプリンタにおけるパルス幅変調の動作の一例の説明図である。図13に示す各点a,b,c,dにおける波形と、基準クロックおよび印字結果を示している。これらの例では、端子aに入力される画素値として順に‘FFh’,‘BFh’,‘7Fh’,‘3Fh’,‘0h’が2画素ずつ入力された場合を示している。ここで、末尾に‘h’を付加した値は16進数を示しており、以下同様である。図14ないし図17では、それぞれ参照波発生器42で発生する参照波の形状が異なる。図14に示した例では、参照波は1クロック中に下降して再び上昇する三角波形状である。そのため、D/A変換器41で変換後の電圧とこの参照波を比較器43で比較すると、1クロックの中央部でレーザー発光素子が発光する電圧レベルの信号が出力される。その幅は、D/A変換器41で変換後の電圧が高い方が広く、電圧が低くなるに従って幅は細くなる。そのため、この例による印字結果は、端子aに入力される画素値に応じた幅の領域が各画素の中央部に印字されることになる。
【0034】
図15に示した例では参照波として1クロック中で次第に減少する鋸波状の波形を発生させた場合を示している。この場合には、1画素中の印字される領域は、各画素の右端に寄って印字される。また、図16に示した例では逆に1クロック中で次第に増加する鋸波状の参照波を発生された場合を示している。この場合には、1画素中の印字される領域は、各画素の左端に寄って印字される。これらの場合も画素値に応じた幅となる。
【0035】
図17に示した例では、図15に示した次第に減少する波形と図16に示した次第に増加する波形を交互に発生させた参照波を用いている。この場合には、1画素おきに、印字される領域が左あるいは右に寄って印字される。この場合も画素値に応じた幅で印字される。
【0036】
図18は、レーザービームプリンタにおいて強度変調機能を実現するための一構成例を示すブロック図である。図中、44はレーザー発光素子、45は電流制御器である。強度変調は、レーザー発光素子44の発光強度を制御して露光スポットの大きさを変え、画素の副走査方向の印字幅を制御するための機能である。例えば図18に示すような構成をレーザービームプリンタに備えることにより実現する。電流制御器45は、入力される値に応じてレーザー発光素子44に供給する駆動電流を制御する。
【0037】
図19は、レーザービームプリンタにおける強度変調の動作の一例の説明図である。図18に示す各点a,bにおける波形と、基準クロックおよび印字結果を示している。この例では、端子aに入力される画素値として順に‘FFh’,‘BFh’,‘7Fh’,‘3Fh’,‘0h’が2画素ずつ入力された場合を示している。端子aに入力される画素値に応じて電流制御器45から出力される電流が制御され、印字結果に示すように画素の副走査方向の印字幅が変化する。このようにして画素値に応じた印字幅で印字を行なうことができる。
【0038】
このようなレーザービームプリンタに備えられているパルス幅変調機能および強度変調機能を用いることによって、平滑化処理による1画素以下の小領域の印字が可能である。例えば縦線の平滑化処理結果を印字する際には、図15および図16に示したパルス幅変調機能を用いて1画素以下の小領域を縦線に付加すればよい。また、横線であれば、強度変調機能を用いて1画素以下の小領域を付加すれば、平滑化結果を得ることができる。
【0039】
このような機能を選択するため、上述の画像処理装置から出力される制御データを用いる。例えば図12に示したようなセレクタ5から出力される4ビットの制御データのうち、上位2ビットを参照波選択指示信号として用いる。例えば、制御データの上位2ビットが‘01b’のときは図15、‘10b’のときは図16、‘11b’のときは図14に示した参照波を選択するように制御することができる。また、制御データの下位2ビットを、変調強度を選択する信号として用いることができる。例えば、制御データの下位2ビットが‘11b’のときに副走査方向の印字幅を全幅として、下位2ビットが‘00b’のときは1/4の印字幅、‘01b’のときは1/2の印字幅、‘10b’のときは3/4の印字幅となるように、電流制御器45はレーザー発光素子44に供給する駆動電流を制御するように構成することができる。
【0040】
このようにして、上述の画像処理装置から出力される画像データと制御データに従って印字記録を行なうことにより、平滑化処理の施された画像を印字することができる。平滑化処理によって例えば上述の図14ないし図16において画素値が‘3Fh’の場合などのように、1画素に細幅の領域しか印字しない場合が発生する。そのため、平滑化処理によって付加する画素の値よりも、原画像データの画素の値の方が大きい場合、従来はエッジ部分で白抜けが目立っていた。しかし本発明の画像処理装置では、このような白抜けが目立つと考えられる場合にはその画素を原画像データの画素として印字するため、白抜けが目立つようなことはない。また、白抜けが目立たない場合には、平滑化結果に従って印字することにより、上述のような出力制御によってエッジ部分が良好に印字されることになる。このようにして、高画質の画像を得ることができる。
【0041】
以下、具体的な画像データの例を用いて動作を説明する。図20は、本発明の画像処理装置の実施の一形態において入力される画像データの具体例の説明図、図21ないし図29は、同じく処理過程における画像データの具体例の説明図である。なお、各図において矩形は画素を表わし、各画素値あるいは各値は各図の右横に示すとおりであり、ハッチングによって区別している。また、画素値は0〜255の範囲の値を取るものとする。以下の説明では、各図によって画像全体の処理の様子を示すとともに、具体的な処理を示すため、一例として、各図において矢印で示した行および列の交点の画素、すなわち主走査方向に8列目、副走査方向に4行目の画素P7,3 について注目する。
【0042】
入力端aに図20に示す原画像データが入力されるものとする。この原画像データでは、画素値‘255’で斜めの直線が描かれ、その右側が白色であり、左側が画素値‘80’で塗りつぶされている。
【0043】
入力端aに入力された原画像データは、バッファ1で遅延調整された後、2値化部2に入力され、2値化される。例えば2値化を固定閾値で行なうものとし、2値化のための閾値の値を‘255’とすれば、図20に示す画像のうち画素値が‘255’以上の部分だけ抽出され、図21に示すような2値化画像データが得られる。画素P7,3 は‘0’になる。
【0044】
2値化部2で2値化された図21に示すような2値化画像データは、平滑化処理部3に入力され、平滑化処理を施される。例えば図6に示すパターン(a)〜(x)を用いてパターン検出を行ない、図8に示すメモリ23の内容に従って図21に示す2値化画像データに平滑化処理を施すと、その結果は図22に示す平滑化画像データと、図23に示す制御データが得られる。例えば画素P7,3 は、図6に示すパターン(a)に該当し、図8に示すメモリ内容から画素値‘63’、制御データ‘0111b’が得られる。
【0045】
また、入力端aに入力された原画像データは、バッファ1で3×3ブロックが形成されてエッジ検出部4に入力される。エッジ検出部4では図10に示すようなフィルタを用いたフィルタ処理の後、図11に示す条件に基づいてエッジ情報が作成される。画素P7,3 では、図10(B)に示すパターンを有するフィルタ31bにおいて‘−175’、他のフィルタは‘0’が演算されて出力される。図11に示す条件に従い、例えば閾値を‘85’とすると、フィルタ34bからの出力の絶対値は閾値より大きく、フィルタ34bの出力は負であるので、エッジ情報として‘100b’が出力される。
【0046】
セレクタ5では、バッファ1から入力される図20に示した原画像データの画素または平滑化処理部3から入力される図22に示す平滑化画像データの画素のいずれかを選択する。このとき、エッジ検出部4から出力される図24に示すエッジ情報、原画像データの画素値と平滑化画像データの画素値の比較結果、原画像データの画素値などに基づいて、図12に示したようなデータに従って選択する。なお、制御データの選択も画素の選択結果に従って行なわれる。
【0047】
例えば画素P7,3 では、エッジ検出部6から出力されるエッジ情報は‘100b’である。また、図20に示す原画像データの画素値は‘80’であり、図22に示す平滑化画像データから得られるこの画素の画素値は‘63’であるので、原画像データの方が画素値が大きい。この条件は図12の2行目に該当し、画像データとして原画像データの画素値‘80’が選択されて出力される。また、制御データとして‘0111b’が出力される。すなわち、画素P7,3 では図22に示すように平滑化処理によって直線に付加され、直線の一部を構成する画素として出力されたが、平滑化処理によって付加される画素値よりも原画像データの画素値の方が大きいので、上述のように原画像データが選択された。このようにして、画素P7,3 においては、平滑化処理による画素の付加によって画素値が小さくなって白抜けを起こすことなく、画素値が大きい原画像データに従って印字されることになる。
【0048】
図25、図26に示した出力画像データおよび制御データに基づいて、上述のようにパルス幅変調機能および強度変調機能を有する電子写真方式を用いたレーザービームプリンタで画像を形成させる。すると、図27に示すように、各画素にレーザービームが照射され、図28に示すようなプリントアウトされたイメージが得られる。
【0049】
以上、本発明の画像処理装置の実施の一形態について説明したが、上述の形態に限定されるわけではなく、本発明の趣旨を逸脱しない範囲ならばどのような態様でも構わない。例えば上述の例では、入力画像データは濃淡画像、あるいはカラー画像の場合に各色成分ごとに入力されることとしたので、平滑化処理は濃度を調整する平滑化処理を行なったが、例えば注目画素の周辺画素の色情報により色変換を施すような平滑化処理であってもよい。
【0050】
また、上述の説明では、出力装置の具体例としてパルス幅変調機能および強度変調機能を有する電子写真方式を用いたレーザービームプリンタを用いたが、出力装置は任意であって、出力先に従って本発明の趣旨を逸脱せずに変形することができる。例えば、電子写真方式を用いたレーザービームプリンタへ出力する場合であっても、そのプリンタがパルス幅変調機能のみを有している場合には、強度変調を用いて平滑化処理を行なっている部分を、パルス幅変調を用いて平滑化処理を行なうようにすればよい。また、電子写真方式を用いたレーザービームプリンタへ出力する場合で、そのプリンタがパルス幅変調機能のかわりに画像データの入力基準クロックの周波数の自然数倍の周波数のクロックを基準としてカウンタを動作させ、該カウンタのカウント値と画素値を比較した結果に応じて画素を印字する、いわゆるDSG(Digital Screen Generate)機能を有している場合には、上述の参照波の選択を制御する制御データを、カウンタの動作を制御する制御データに置き換えればよい。
【0051】
また、電子写真方式を用いたレーザービームプリンタのみならず、インクジェットプリンタや熱転写プリンタといった他の印字方式を用いたプリンタにも適用できる。さらに、プリンタではなくCRTや液晶ディスプレイといった画像表示装置に出力する場合にも適用できる。
【0052】
【発明の効果】
以上の説明から明らかなように、本発明によれば、入力された原画像データに対して平滑化処理を施すとともに、原画像データの各画素についてエッジか否かを判定し、判定結果に基づいて、原画像データの画素あるいは平滑化処理の施された画像データの画素のいずれかを選択して出力する。選択の際には、例えば、原画像データの画素がエッジであると判定された場合に、平滑化画像データの画素と原画像データの画素のうち、画素値が大きい方の画素を選択して出力するように構成することができる。このようにして、平滑化処理で画素を付加することで白抜けが発生しやすい部分では、原画像データを選択して白抜けを回避することができる。また、白抜けが目立たない部分では、平滑化処理結果を選択して線分などの画質を向上させることができる。そのため、平滑化処理による不具合を解消し、平滑化処理の効果を最大限に発揮でき、より高い画質のプリントアウトが可能な画像データを得ることができるという効果がある。
【図面の簡単な説明】
【図1】 本発明の画像処理装置の実施の一形態を示すブロック図である。
【図2】 本発明の画像処理装置の実施の一形態における動作の概要を示すフローチャートである。
【図3】 本発明の画像処理装置の実施の一形態における2値化部の一例を示すブロック構成図である。
【図4】 本発明の画像処理装置の実施の一形態における平滑化処理部の一例を示すブロック構成図である。
【図5】 5×5ブロックデータの説明図である。
【図6】 パターン検出部で5×5ブロックデータと比較するパターンの一例の説明図である。
【図7】 パターン検出部の一例を示す構成図である。
【図8】 メモリの内容の一例の説明図である。
【図9】 本発明の画像処理装置の実施の一形態におけるエッジ検出部の一例を示すブロック構成図である。
【図10】 特定方向のエッジを検出するフィルタの一例の説明図である。
【図11】 エッジ情報作成部において生成されるエッジ情報の説明図である。
【図12】 セレクタの選択動作の一例の説明図である。
【図13】 レーザービームプリンタにおいてパルス幅変調機能を実現するための一構成例を示すブロック図である。
【図14】 レーザービームプリンタにおけるパルス幅変調の動作の一例の説明図である。
【図15】 レーザービームプリンタにおけるパルス幅変調の動作の別の例の説明図である。
【図16】 レーザービームプリンタにおけるパルス幅変調の動作のさらに別の例の説明図である。
【図17】 レーザービームプリンタにおけるパルス幅変調の動作のさらに別の例の説明図である。
【図18】 レーザービームプリンタにおいて強度変調機能を実現するための一構成例を示すブロック図である。
【図19】 レーザービームプリンタにおける強度変調の動作の一例の説明図である。
【図20】 本発明の画像処理装置の実施の一形態において入力される原画像データの具体例の説明図である。
【図21】 本発明の画像処理装置の実施の一形態における2値化画像データの具体例の説明図である。
【図22】 本発明の画像処理装置の実施の一形態における平滑化画像データの具体例の説明図である。
【図23】 本発明の画像処理装置の実施の一形態における平滑化処理部から出力される制御データの具体例の説明図である。
【図24】 本発明の画像処理装置の実施の一形態におけるエッジ情報の具体例の説明図である。
【図25】 本発明の画像処理装置の実施の一形態における出力画像データの具体例の説明図である。
【図26】 本発明の画像処理装置の実施の一形態において出力される制御データの具体例の説明図である。
【図27】 本発明の画像処理装置の実施の一形態において出力された出力画像データおよび制御データに基づいてレーザビームプリンタで画像を形成する際のレーザ照射イメージの具体例の説明図である。
【図28】 本発明の画像処理装置の実施の一形態において出力された出力画像データおよび制御データに基づいてレーザビームプリンタで形成した画像の具体例の説明図である。
【符号の説明】
1…バッファ、2…2値化部、3…平滑化処理部、4…エッジ検出部、5…セレクタ、11…レジスタ、12…比較器、21…バッファ、22a〜22x…パターン検出部、23…メモリ、24a〜24d…論理否定素子、25…論理積素子、31a〜31d…フィルタ、32…エッジ情報作成部、41…D/A変換器、42…参照波発生器、43…比較器、44…レーザー発光素子、45…電流制御器。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus that processes digital image data, and more particularly to an image processing apparatus that performs smoothing processing on multivalued digital image data and an image smoothing method thereof.
[0002]
[Prior art]
In recent years, with the development and popularization of editing software, image input devices such as scanners and electronic still cameras, for example, an image in which a pattern portion such as a photograph or illustration and a line drawing portion such as a character are mixed (hereinafter referred to as a mixed image). Opportunities to print out or copy are increasing. When printing out such a mixed image, the line drawing portion is printed out by performing a smoothing process for smoothing the step as disclosed in, for example, US Pat. No. 4,437,122. It is generally done. On the other hand, it is preferable not to perform the smoothing process on the pattern portion because the fidelity to the original image may be reduced by the smoothing process.
[0003]
As a conventional technique using such a method, for example, there is a technique disclosed in JP-A-8-139918. This technique separates an input multi-valued image by a threshold value, and for a portion below the threshold value, dither processing is performed using fine pixels obtained by dividing the pixel into n pieces (n is an integer of 2 or more) in the main scanning direction. For the portion exceeding the threshold, smoothing processing is performed using the same fine pixels as in the dither processing, and the two processed images are combined by logical sum. However, for example, a dither pattern (line screen pattern) that is a group of straight lines parallel to the sub-scanning direction and whose line width is proportional to the input density value is used as a dither pattern. When this technique is applied when there is a character on the background, there may be a pixel added by smoothing processing and a pixel with a dither pattern in the same pixel. If pixels of both images exist in the same pixel in this way, unnecessary pixel connection occurs, which not only reduces the effect of smoothing, but also causes unnecessary character and line drawing fatness. is there.
[0004]
On the other hand, as another technique, for example, as disclosed in Japanese Patent Application Laid-Open No. 7-221971, multivalued image data constituting a plurality of images is compared, and an image having the maximum or minimum color component is prioritized. There is a technique for synthesizing a plurality of images. In this document, the user specifies in advance whether to give priority to an image having the largest color component or to give priority to an image having the smallest color component. It is considered that such a synthesis technique is applied to the above-described smoothing process, and for example, a line screen pattern is used as a dither pattern, and an image that has been subjected to the entire dither process and an image that has been subjected to the smoothing process only on a character portion. In this case, only a pixel added by the smoothing process or a pixel having a dither pattern by the dither process can be selected. Therefore, for example, if the pixel added by the smoothing process has a smaller color component, the effect of smoothing will not appear if the maximum value is given priority, and if the minimum value is given priority, it will be added by the smoothing process. There was a problem that the pixel and the dither pattern became white at the joint.
[0005]
For example, in Japanese Patent Laid-Open No. 8-23446, a character / line image is extracted from a multi-valued image and smoothed, and then synthesized with the pattern part data. However, the result of the smoothing process is other than 0,255. In some cases, the result of the smoothing process is preferentially output, and for example, priority is given to the pixels added by the smoothing process. Therefore, the character / line image portion is smoothed to obtain a good image quality. However, as described above, there is a possibility that the edge portion causes white spots and the image quality is deteriorated.
[0006]
[Problems to be solved by the invention]
The present invention has been made in view of the above-described circumstances. When smoothing an image, the present invention prevents the occurrence of white spots or the like at the joint between the image by the smoothing process and other images, and smoothes the image. It is an object of the present invention to provide an image processing apparatus and an image smoothing method for forming an image that can be printed out with higher image quality by maximizing the above effect.
[0007]
[Means for Solving the Problems]
The present invention performs smoothing processing on the input multi-valued original image data, determines whether each pixel of the input original image data is an edge, and determines the original image data based on the determination result. When the pixel is determined to be an edge, the pixel that has been smoothed by the smoothing process and the pixel with the larger value among the pixels of the original image data are selected and output, and the pixel is not determined to be an edge Outputs the original image data. For example, when there is a possibility that white spots are noticeable in pixels added by the smoothing process, the pixels of the original image data are selected to avoid white spots and the white spots are not noticeable. In some cases, the smoothed pixels can be selected to exert the effect of the smoothing process. For this reason, it is possible to maximize the effect of the smoothing process without causing problems such as white spots, and to output an image capable of obtaining an output image with higher image quality.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram showing an embodiment of an image processing apparatus of the present invention. In the figure, 1 is a buffer, 2 is a binarization unit, 3 is a smoothing processing unit, 4 is an edge detection unit, and 5 is a selector.
[0009]
The buffer 1 temporarily stores the original image data input to the input terminal a, adjusts the delay amount, and performs a block of m pixels in the main scanning direction × n pixels in the sub scanning direction (hereinafter, m) in the subsequent processing. When the data of x blocks is required, the block data is formed. The binarization unit 2 creates binary image data based on the original image data. The smoothing processing unit 3 performs smoothing processing on the binary image data created in the binarizing unit 2 and outputs smoothed image data. The edge detection unit 4 detects an edge from the original image data and outputs edge information related to the edge. The selector 5 selects either the original image data in the buffer 1 or the smoothed image data output from the smoothing processing unit 3 for each pixel based on the edge information output from the edge detection unit 4 and outputs The image data is output to the output terminal b.
[0010]
FIG. 2 is a flowchart showing an outline of the operation in the embodiment of the image processing apparatus of the present invention. In FIG. 2, i and j are indices indicating pixel positions in the sub-scanning and main-scanning directions when the first pixel of the first line is the origin, and K and L are pixels in the main-scanning and sub-scanning directions of the input image data. Is a number. P is original image data, P ′ is smoothed image data, and subscripts i and j indicate the j-th pixel in the main scanning direction and the i-th pixel in the sub-scanning direction of each image. Here, P and P ′ are multi-value data. The function smooth represents that the image is smoothed, and the function max represents the maximum value.
[0011]
First, in S101, subscripts i and j indicating pixel positions are both reset to 0, and the pixel to be processed is set as the first pixel of the first line of the image. In S102, the original image data P stored in the buffer 1 is binarized by the binarizing unit 2, and then smoothed by the smoothing processing unit 3 to obtain smoothed image data P ′. .
[0012]
On the other hand, in the edge detection unit 4, the original image data P stored in the buffer 1. i, j Checks if is an edge. This is determined in S103, and if it is not an edge, in S104, the selector 5 selects the original image data P. i, j Select to output. Original image data P i, j Is determined to be an edge, in S105, the selector 5 determines that the original image data P is in accordance with the edge information output by the edge detection unit 4. i, j Alternatively, smoothed image data P ′ smoothed by the smoothing processing unit 3 i, j Select one of these to output. Here, the selector 5 is the image data P i, j Is the edge, the original image data P i, j And smoothed image data P ′ i, j Whichever larger one is selected. For example, when the pixel value added by the smoothing process is small and the pixel value of the original image data is large at the edge portion, if the smoothed image data is selected as it is, white spots may be conspicuous. However, when the pixel value of the original image data is larger by this process, the original image data can be selected and white spots can be avoided. Further, when the pixel value of the smoothed image data is larger, smoothing processing can be performed to improve the image quality of the line drawing portion.
[0013]
In S106, it is determined whether or not the position of the pixel to be processed has reached the end of the line. If it is in the middle of the line, the value of the subscript j is increased by 1 in S107, and the position of the pixel to be processed is determined. Move to the next. Then, the process returns to S102 and a process for a new pixel is performed. If the position of the pixel to be processed in S106 has reached the end of the line, it is determined in S108 whether or not the last line has been processed. If an unprocessed line remains, S109 is determined. The value of the subscript i is incremented by 1 to set the next line to be processed, and the value of the subscript j is set to 0 to set the pixel at the beginning of the line to be processed. Then, the process returns to S102 and a process for a new pixel is performed. In this way, the process is repeated by repeatedly performing the process from the pixel serving as the origin to the pixel at the end of the last line.
[0014]
This flowchart shows a processing algorithm for one color component. When the input image data has a plurality of color components, this algorithm may be applied for each color component. For example, when each color component of the input image data is field sequential, for example, when the input image data is composed of yellow (Y), magenta (M), cyan (C), and black (K) components, Y → M → C → When the original image data is input in the order of K, the image of each color component may be processed in the input order. Of course, the order of the input colors is arbitrary, and it is not necessary to input them in the frame order. In this case, the colors are temporarily stored in a buffer or the like, or this image processing apparatus is provided for each color, and the multiplexer You may make it switch by. Also, the color of the input image data is not limited to YMCK, but for example RGB or L * a * b * Other color component configurations may be used.
[0015]
The image processing apparatus according to an embodiment of the present invention will be further described while partially using specific examples. In the following description, as a specific example of the input original image data, it is assumed that the image data has 8-bit gradation information per pixel, that is, image data in which the pixel value takes an integer value in the range of 0 to 255. Here, when the pixel value is 0, the minimum density, when the pixel value is 255, the maximum density, and when the pixel value is 1 to 254, the intermediate density corresponding to the value is represented. In addition, one pixel at a time is input to the input terminal a in order from the first pixel of the first line of the original image data, and when the image data has a plurality of color components, the color components are input in a frame sequential manner. . Of course, the input original image data is not limited to these conditions, and the meaning of the present invention can be achieved by changing the number of gradations per pixel of each image data or the meaning of the pixel value in each image data. It does not deviate.
[0016]
The image data input to the input terminal a is subjected to delay adjustment in the buffer 1 and then output to the binarization unit 2 and the selector 5, and is also formed in, for example, an m × n block and output to the edge detection unit 4. The Here, as an example, it is assumed that 3 × 3 blocks are passed to the edge detection unit 4.
[0017]
The binarization unit 2 compares the image data input from the buffer 1 with a predetermined threshold value for each pixel. If the input image data is greater than or equal to the threshold value, the value is “1”, and the input image data is less than the threshold value. If it is smaller, '0' is output. FIG. 3 is a block diagram showing an example of the binarization unit in the embodiment of the image processing apparatus of the present invention. In the figure, 11 is a register and 12 is a comparator. The register 11 stores a threshold value for binarization. The comparator 12 compares the original image data output from the buffer 1 and the threshold value for binarization output from the register 11 for each pixel, and if the pixel value is equal to or greater than the threshold value, sets “1” to the pixel If the value is smaller than the threshold value, “0” is output as binary image data. Here, an example using a binarization method using a fixed threshold is shown, but the present invention is not limited to this, and another binarization method may be used.
[0018]
The smoothing processing unit 3 performs smoothing processing on the binary image data input from the binarizing unit 2 and outputs the result. 4 is a block diagram showing an example of a smoothing processing unit in an embodiment of the image processing apparatus of the present invention, FIG. 5 is an explanatory diagram of 5 × 5 block data, and FIG. FIG. 7 is a diagram illustrating an example of a pattern detection unit, and FIG. 8 is a diagram illustrating an example of the contents of a memory. In the figure, 21 is a buffer, 22a to 22x are pattern detection units, 23 is a memory, 24a to 24d are logical negation elements, and 25 is a logical product element. The smoothing processing unit 3 smoothes the binary image data output from the binarizing unit 4. Here, as an example, a case where a smoothing pattern is output based on data of 5 × 5 blocks and matches with a predetermined pattern is shown. Of course, the size of the block is arbitrary, and the method for determining the pixel value is also arbitrary. Furthermore, the method of smoothing processing is also arbitrary.
[0019]
The buffer 21 uses, for example, 5 × 5 block block data (P) shown in FIG. 5 from the binary image data output from the binarization unit 2. 0, 0 , ..., P 4,0 , P 0,1 , ..., P 4,4 ) And P 2,2 Is output as the target pixel value.
[0020]
The pattern detection units 22a to 22x compare 5 × 5 block data output from the buffer 21 with predetermined patterns (a) to (x) as shown in FIG. In the pattern shown in FIG. 6, a white part is a pixel having a pixel value “0”, a black part is a pixel having a pixel value “1”, and a hatched part may have a pixel value “0” or “1”. Is shown. These patterns are arbitrary as long as the pixel to be smoothed can be determined. The number of patterns is also arbitrary. Here, the pattern detection unit is arranged for each pattern, but a single pattern detection unit may be configured to compare with several or all patterns. As a result of the comparison, for example, the pattern detection units 22a to 22x output “1” when the pattern to be compared and the 5 × 5 block pattern match, and output “0” when they do not match.
[0021]
For example, the pattern detection unit 22a can be configured by a logic element as shown in FIG. From the pattern shown in FIG. 6A to be compared by the pattern detection unit 22a, P of 5 × 5 block data 1,0 , P 1,1 , P 2,1 , P 2,2 Is '0', P 2,0 , P 3,1 , P 3,2 If “1” is “1”, the output is “1”. For this logic, P 1,0 , P 1,1 , P 2,1 , P 2,2 Is inverted by the logic negating elements 24a to 24d and inputted to the AND element 25, and P 2,0 , P 3,1 , P 3,2 Is input to the AND element 25 as it is. The logical product element 25 calculates these logical products and sets them as output values. Of course, the configuration of the pattern detection units 22a to 22x is not limited to this.
[0022]
The memory 23 holds image data and control data corresponding to outputs from the pattern detection units 22a to 22x. For example, the memory 23 can store data having contents as shown in FIG. When '1' is output from any one of the pattern detection units 22a to 22x, an image corresponding to the pattern compared by the pattern detection unit that outputs '1' based on the data shown in FIG. Data and control data are output as smoothed image data. For example, as a result of comparing the pattern shown in FIG. 6 (a) with the 5 × 5 block pattern of the original image data by the pattern detection unit 22a, a match “1” is output, and the other pattern detection units 22b to 22x When “0” is output, “63” is output as image data and “0111b” is output as control data from the data shown in FIG. In addition, the thing with 'b' at the end of the numerical value represents a binary number, and so on. The control data will be described later.
[0023]
Further, when “1” is output from two or more pattern detectors, and when “0” is output from all pattern detectors, the pixel value corresponding to the target pixel value input from the buffer 21 is determined. Image data and control data are output as smoothed image data. For example, when the target pixel value input from the buffer 21 is “1”, “255” as image data, “1111b” as control data, “0” as image data when “0”, and control data '1111b' is output. When two or more patterns are detected, for example, a priority order is determined in advance between the patterns, and image data and control are performed from the memory 23 according to the pattern having the highest priority among the detected patterns. Data may be output.
[0024]
The edge detection unit 4 detects from the m × n block output from the buffer 1 whether or not the central pixel of the block is an edge, and outputs information about the detection result to the selector 5 as edge information. Here, as an example, it is assumed that 3 × 3 blocks of data are passed from the buffer 1. In addition, an example in which information indicating the edge direction as well as the presence or absence of the edge is output as the edge information. FIG. 9 is a block diagram showing an example of an edge detection unit in an embodiment of the image processing apparatus of the present invention, FIG. 10 is an explanatory diagram of an example of a filter for detecting an edge in a specific direction, and FIG. It is explanatory drawing of the edge information produced | generated in an information creation part. In the figure, 31a to 31d are filters, and 32 is an edge information creation unit.
[0025]
In the example illustrated in FIG. 9, the edge detection unit 4 includes filters 31 a to 31 d and an edge information creation unit 32. The filters 31a to 31d are filters that detect edges in a specific direction. For example, the calculation is performed on 3 × 3 block data using the edge detection operator shown in FIGS. 10A to 10D, and the result is output. The number of filters to be used, the filter shape, and the filter coefficient are not limited to these, and any filter may be used as long as the edge of the original image data can be detected. Of course, the block size is not limited to 3 × 3.
[0026]
The edge information creation unit 32 compares the maximum absolute value of the outputs of the filters 31a to 31d with a threshold value to obtain a comparison result. Further, it is determined which filter has the maximum absolute value of the output, and the determination result and the positive / negative of the output whose absolute value is the maximum are obtained. Edge information is created and output based on the obtained comparison result, determination result, and output positive / negative. At this time, for example, edge information can be created according to data as shown in FIG. For example, when the maximum absolute value of the output is equal to or less than the threshold value, “000b” is output as the edge information. For example, when the maximum absolute value of the output is larger than the threshold value and the output is output from the filter 34b, and the output is positive, '101b' is output. The threshold value may be set arbitrarily. This edge information indicates whether or not the first bit is an edge, and the second and third bits indicate the direction of the edge.
[0027]
When the absolute values of the outputs from two or more filters are the same and maximum, it is assumed here that the priority order shown in FIG. 11 is followed. Alternatively, edge information may be obtained from a combination of filters having the same output absolute value. Note that the data shown in FIG. 11 may be set arbitrarily.
[0028]
In the selector 5, the pixel value of either one of the original image data input from the buffer 1 or the smoothed image data input from the smoothing processing unit 3 is compared with the pixel value comparison result and edge detection. A selection is made based on the edge information output from the unit 4, and the selection is output to the output terminal b. FIG. 12 is an explanatory diagram of an example of the selector selection operation. In FIG. 12, the original image data is expressed as “IMAGE”, and the smoothed image data is expressed as “SMOOTH”. As shown in FIG. 12, the selector 5 includes the 3-bit edge information output from the edge detector 4, the comparison result of the pixel values of the original image data and the smoothed image data, and the pixel value of the original image data. And output image data. In this example, the selector 5 also outputs control data for controlling the output device described later together with the image data.
[0029]
For example, when the edge detection unit 4 does not detect an edge, the edge information is “000b”. Therefore, the original image data is selected and output as output image data, and “1111b” is output as control data. For example, when the edge is detected by the edge detection unit 4 and the edge information is '101b', the pixel value of the original image data and the pixel value of the smoothed image data are further compared, and the pixel of the smoothed image data If the value is larger, the pixel value and control data of the smoothed image data are selected and output, and if the pixel value of the original image data is larger, the pixel value of the original image data is selected and output, and as control data '1011b' is output.
[0030]
In this way, at the edge portion, the larger pixel value is selected depending on which pixel value is larger between the original image data and the smoothed image data obtained by smoothing the original image data. As a result, for example, in the portion where the background portion of the line drawing is a conspicuous color and pixels are added by the smoothing processing and thus white spots are generated conventionally, the result of the smoothing processing is not adopted and the original image data is not used. If pixels are selected to avoid white spots, or if the background is not conspicuous, the result of smoothing processing can be used to output image data that can smoothly reproduce a line drawing. Therefore, the image quality of the image reproduced using the output image data can be improved.
[0031]
Note that the edge information includes information related to the edge direction, and the image data and control data to be output are distinguished by the edge direction in FIG. 12 as well, and this is in accordance with the characteristics of an example of an output device described later. It is a thing. Depending on the output device, the edge detection unit 4 may not consider the directionality of the edge, and the operation of the selector 5 as shown in FIG. 12 may be set accordingly. Of course, information on the directionality of the edge may be used in accordance with the subsequent image processing and the output device. Further, the data shown in FIG. 12 may be set as appropriate according to the subsequent image processing and output device. The conditions for selection can also be set arbitrarily.
[0032]
Next, an example is shown in which output processing is performed in accordance with the image data and control data output from the image processing apparatus of the present invention. Here, as an example, the case of outputting to a laser beam printer having a pulse width modulation function and an intensity modulation function will be described. First, pulse width modulation and intensity modulation will be described. FIG. 13 is a block diagram illustrating a configuration example for realizing a pulse width modulation function in a laser beam printer. In the figure, 41 is a D / A converter, 42 is a reference wave generator, and 43 is a comparator. The pulse width modulation is a function for controlling the light emission timing of the laser light emitting element to control the print width and print position of the pixel in the main scanning direction. For example, the laser beam printer has a configuration as shown in FIG. Realize. The D / A converter 41 converts the input pixel into a signal having a voltage level corresponding to the value. The reference wave generator 42 generates a reference wave having a period that is a natural number multiple of the period in which the pixels are input. The comparator 43 compares the output signal of the D / A converter 41 with the reference wave generated by the reference wave generator 42. When the voltage level of the output signal of the D / A converter 41 is high, laser light emission is performed. A signal of a voltage level at which the element emits light is generated at a voltage level at which the laser light emitting element does not emit light when the voltage level of the reference wave is large.
[0033]
14 to 17 are explanatory diagrams of an example of the pulse width modulation operation in the laser beam printer. The waveforms at each point a, b, c, and d shown in FIG. 13, the reference clock, and the printing result are shown. In these examples, “FFh”, “BFh”, “7Fh”, “3Fh”, and “0h” are sequentially input as the pixel values input to the terminal a. Here, the value with “h” added at the end indicates a hexadecimal number, and so on. 14 to 17, the shapes of the reference waves generated by the reference wave generator 42 are different. In the example shown in FIG. 14, the reference wave has a triangular wave shape that falls during one clock and rises again. Therefore, when the voltage converted by the D / A converter 41 is compared with this reference wave by the comparator 43, a signal of a voltage level at which the laser light emitting element emits light at the center of one clock is output. The width is wider when the voltage converted by the D / A converter 41 is higher, and the width becomes narrower as the voltage decreases. Therefore, as a result of printing according to this example, an area having a width corresponding to the pixel value input to the terminal a is printed at the center of each pixel.
[0034]
The example shown in FIG. 15 shows a case where a sawtooth waveform that gradually decreases in one clock is generated as a reference wave. In this case, the area to be printed in one pixel is printed closer to the right end of each pixel. Also, the example shown in FIG. 16 shows a case where a sawtooth reference wave that gradually increases in one clock is generated. In this case, the area to be printed in one pixel is printed closer to the left end of each pixel. In these cases as well, the width corresponds to the pixel value.
[0035]
In the example shown in FIG. 17, a reference wave in which the gradually decreasing waveform shown in FIG. 15 and the gradually increasing waveform shown in FIG. 16 are alternately generated is used. In this case, the area to be printed is printed on the left or right side every other pixel. Also in this case, printing is performed with a width corresponding to the pixel value.
[0036]
FIG. 18 is a block diagram showing a configuration example for realizing the intensity modulation function in the laser beam printer. In the figure, 44 is a laser light emitting element, and 45 is a current controller. The intensity modulation is a function for controlling the light emission intensity of the laser light emitting element 44 to change the size of the exposure spot and to control the printing width of the pixel in the sub-scanning direction. For example, it is realized by providing a laser beam printer with a configuration as shown in FIG. The current controller 45 controls the drive current supplied to the laser light emitting element 44 according to the input value.
[0037]
FIG. 19 is an explanatory diagram of an example of the intensity modulation operation in the laser beam printer. The waveforms at the points a and b shown in FIG. 18, the reference clock, and the printing result are shown. In this example, “FFh”, “BFh”, “7Fh”, “3Fh”, and “0h” are sequentially input as the pixel values input to the terminal a. The current output from the current controller 45 is controlled according to the pixel value input to the terminal a, and the print width of the pixel in the sub-scanning direction changes as shown in the print result. In this way, printing can be performed with a printing width corresponding to the pixel value.
[0038]
By using the pulse width modulation function and the intensity modulation function provided in such a laser beam printer, it is possible to print a small area of one pixel or less by a smoothing process. For example, when printing the smoothing result of the vertical line, a small area of one pixel or less may be added to the vertical line using the pulse width modulation function shown in FIGS. In the case of a horizontal line, a smoothing result can be obtained by adding a small area of one pixel or less using the intensity modulation function.
[0039]
In order to select such a function, control data output from the above-described image processing apparatus is used. For example, among the 4-bit control data output from the selector 5 as shown in FIG. 12, the upper 2 bits are used as the reference wave selection instruction signal. For example, it is possible to control to select the reference wave shown in FIG. 15 when the upper 2 bits of the control data are “01b”, FIG. 16 when it is “10b”, and FIG. 14 when it is “11b”. . Further, the lower 2 bits of the control data can be used as a signal for selecting the modulation intensity. For example, when the lower 2 bits of the control data are “11b”, the print width in the sub-scanning direction is the full width. When the lower 2 bits are “00b”, the print width is 1/4, and when the lower 2 bits is “01b”, 1 / The current controller 45 can be configured to control the drive current supplied to the laser light-emitting element 44 so that the print width is 2 and the print width is 3/4 when it is “10b”.
[0040]
In this way, by performing printing and recording in accordance with the image data and control data output from the above-described image processing apparatus, it is possible to print an image that has been subjected to smoothing processing. Due to the smoothing process, for example, a case where only a narrow area is printed in one pixel occurs as in the case where the pixel value is “3Fh” in FIGS. For this reason, when the value of the pixel of the original image data is larger than the value of the pixel added by the smoothing process, conventionally white spots are conspicuous at the edge portion. However, in the image processing apparatus of the present invention, when such white spots are considered to be conspicuous, the pixels are printed as pixels of the original image data. If white spots are not noticeable, printing is performed according to the smoothing result, so that the edge portion is printed well by the output control as described above. In this way, a high-quality image can be obtained.
[0041]
Hereinafter, the operation will be described using specific examples of image data. FIG. 20 is an explanatory diagram of a specific example of image data input in the embodiment of the image processing apparatus of the present invention, and FIGS. 21 to 29 are explanatory diagrams of a specific example of image data in the same process. In each figure, a rectangle represents a pixel, and each pixel value or each value is as shown on the right side of each figure and is distinguished by hatching. In addition, the pixel value takes a value in the range of 0 to 255. In the following description, each figure shows how the entire image is processed, and in order to show a specific process, as an example, pixels at intersections of rows and columns indicated by arrows in each figure, that is, 8 in the main scanning direction. Pixel P in the fourth row in the column and sub-scanning direction 7,3 Pay attention to.
[0042]
Assume that the original image data shown in FIG. 20 is input to the input terminal a. In this original image data, an oblique straight line is drawn with a pixel value “255”, the right side thereof is white, and the left side is filled with a pixel value “80”.
[0043]
The original image data input to the input terminal a is subjected to delay adjustment in the buffer 1 and then input to the binarization unit 2 and binarized. For example, if binarization is performed with a fixed threshold value and the threshold value for binarization is set to “255”, only the portion having a pixel value of “255” or more is extracted from the image shown in FIG. As shown in FIG. 21, binary image data is obtained. Pixel P 7,3 Becomes '0'.
[0044]
The binarized image data binarized by the binarizing unit 2 as shown in FIG. 21 is input to the smoothing processing unit 3 and subjected to smoothing processing. For example, when pattern detection is performed using the patterns (a) to (x) shown in FIG. 6 and the binarized image data shown in FIG. 21 is smoothed according to the contents of the memory 23 shown in FIG. Smoothed image data shown in FIG. 22 and control data shown in FIG. 23 are obtained. For example, pixel P 7,3 Corresponds to the pattern (a) shown in FIG. 6, and the pixel value “63” and the control data “0111b” are obtained from the memory contents shown in FIG.
[0045]
The original image data input to the input terminal a is input to the edge detection unit 4 in a 3 × 3 block formed by the buffer 1. The edge detection unit 4 creates edge information based on the conditions shown in FIG. 11 after the filter processing using the filter as shown in FIG. Pixel P 7,3 Then, “−175” is calculated in the filter 31b having the pattern shown in FIG. 10B, and “0” is output for the other filters. If, for example, the threshold value is set to “85” in accordance with the conditions shown in FIG. 11, the absolute value of the output from the filter 34b is larger than the threshold value, and the output of the filter 34b is negative, so “100b” is output as edge information.
[0046]
The selector 5 selects either the original image data pixel shown in FIG. 20 input from the buffer 1 or the smoothed image data pixel shown in FIG. 22 input from the smoothing processing unit 3. At this time, based on the edge information shown in FIG. 24 output from the edge detection unit 4, the comparison result of the pixel value of the original image data and the pixel value of the smoothed image data, the pixel value of the original image data, etc. Select according to the data as shown. The control data is also selected according to the pixel selection result.
[0047]
For example, pixel P 7,3 Then, the edge information output from the edge detector 6 is “100b”. Further, the pixel value of the original image data shown in FIG. 20 is “80”, and the pixel value of this pixel obtained from the smoothed image data shown in FIG. 22 is “63”. The value is large. This condition corresponds to the second line in FIG. 12, and the pixel value “80” of the original image data is selected and output as the image data. Further, “0111b” is output as control data. That is, the pixel P 7,3 Then, as shown in FIG. 22, it is added to a straight line by the smoothing process and output as a pixel constituting a part of the straight line, but the pixel value of the original image data is more than the pixel value added by the smoothing process. Since it is large, the original image data was selected as described above. In this way, the pixel P 7,3 In, printing is performed according to the original image data having a large pixel value without causing the pixel value to be reduced due to the addition of the pixel by the smoothing process and causing white spots.
[0048]
Based on the output image data and control data shown in FIGS. 25 and 26, an image is formed by a laser beam printer using an electrophotographic system having a pulse width modulation function and an intensity modulation function as described above. Then, as shown in FIG. 27, each pixel is irradiated with a laser beam, and a printed image as shown in FIG. 28 is obtained.
[0049]
The embodiment of the image processing apparatus according to the present invention has been described above. However, the present invention is not limited to the above-described embodiment, and any mode may be used as long as it does not depart from the gist of the present invention. For example, in the above-described example, since the input image data is input for each color component in the case of a grayscale image or a color image, the smoothing process is performed by adjusting the density. Smoothing processing may be performed in which color conversion is performed based on color information of neighboring pixels.
[0050]
In the above description, a laser beam printer using an electrophotographic method having a pulse width modulation function and an intensity modulation function is used as a specific example of the output device. However, the output device is arbitrary, and the present invention is applied according to the output destination. Modifications can be made without departing from the spirit of the present invention. For example, even when outputting to a laser beam printer using an electrophotographic method, if the printer has only a pulse width modulation function, a portion that performs smoothing processing using intensity modulation May be smoothed using pulse width modulation. In addition, when outputting to a laser beam printer using an electrophotographic system, the printer operates the counter based on a clock having a frequency that is a natural number multiple of the frequency of the input reference clock of the image data instead of the pulse width modulation function. In the case of having a so-called DSG (Digital Screen Generate) function for printing a pixel in accordance with the result of comparing the count value of the counter and the pixel value, control data for controlling the selection of the reference wave described above is provided. The control data may be replaced with control data for controlling the operation of the counter.
[0051]
Further, the present invention can be applied not only to a laser beam printer using an electrophotographic method but also to a printer using another printing method such as an ink jet printer or a thermal transfer printer. Further, the present invention can be applied to the case of outputting to an image display device such as a CRT or a liquid crystal display instead of a printer.
[0052]
【The invention's effect】
As is apparent from the above description, according to the present invention, smoothing processing is performed on the input original image data, and whether or not each pixel of the original image data is an edge is determined. Then, either the pixel of the original image data or the pixel of the image data subjected to the smoothing process is selected and output. In the selection, for example, when it is determined that the pixel of the original image data is an edge, the pixel having the larger pixel value is selected from the pixels of the smoothed image data and the pixels of the original image data. It can be configured to output. In this way, in a portion where white spots are likely to occur by adding pixels in the smoothing process, original image data can be selected to avoid white spots. Further, in a portion where white spots are not conspicuous, it is possible to improve the image quality such as a line segment by selecting a smoothing process result. For this reason, there is an effect that problems due to the smoothing process can be eliminated, the effect of the smoothing process can be maximized, and image data that can be printed out with higher image quality can be obtained.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an embodiment of an image processing apparatus according to the present invention.
FIG. 2 is a flowchart showing an outline of an operation in the embodiment of the image processing apparatus of the present invention.
FIG. 3 is a block configuration diagram showing an example of a binarization unit in the embodiment of the image processing apparatus of the present invention.
FIG. 4 is a block configuration diagram showing an example of a smoothing processing unit in an embodiment of the image processing apparatus of the present invention.
FIG. 5 is an explanatory diagram of 5 × 5 block data.
FIG. 6 is an explanatory diagram of an example of a pattern to be compared with 5 × 5 block data by a pattern detection unit.
FIG. 7 is a configuration diagram illustrating an example of a pattern detection unit.
FIG. 8 is an explanatory diagram of an example of the contents of a memory.
FIG. 9 is a block configuration diagram showing an example of an edge detection unit in the embodiment of the image processing apparatus of the present invention.
FIG. 10 is an explanatory diagram of an example of a filter for detecting an edge in a specific direction.
FIG. 11 is an explanatory diagram of edge information generated in an edge information creation unit.
FIG. 12 is an explanatory diagram of an example of a selector selection operation.
FIG. 13 is a block diagram showing an example of a configuration for realizing a pulse width modulation function in a laser beam printer.
FIG. 14 is an explanatory diagram of an example of pulse width modulation operation in a laser beam printer.
FIG. 15 is an explanatory diagram of another example of the operation of pulse width modulation in the laser beam printer.
FIG. 16 is an explanatory diagram of still another example of the operation of pulse width modulation in the laser beam printer.
FIG. 17 is an explanatory diagram of still another example of the operation of pulse width modulation in the laser beam printer.
FIG. 18 is a block diagram showing an example of a configuration for realizing an intensity modulation function in a laser beam printer.
FIG. 19 is an explanatory diagram of an example of an intensity modulation operation in the laser beam printer.
FIG. 20 is an explanatory diagram of a specific example of original image data input in the embodiment of the image processing apparatus of the present invention.
FIG. 21 is an explanatory diagram of a specific example of binarized image data according to an embodiment of the image processing apparatus of the present invention.
FIG. 22 is an explanatory diagram of a specific example of smoothed image data according to an embodiment of the image processing apparatus of the present invention.
FIG. 23 is an explanatory diagram of a specific example of control data output from the smoothing processing unit in the embodiment of the image processing apparatus of the invention.
FIG. 24 is an explanatory diagram of a specific example of edge information in the embodiment of the image processing apparatus of the invention.
FIG. 25 is an explanatory diagram of a specific example of output image data in the embodiment of the image processing apparatus of the invention.
FIG. 26 is an explanatory diagram of a specific example of control data output in the embodiment of the image processing apparatus of the present invention.
FIG. 27 is an explanatory diagram of a specific example of a laser irradiation image when an image is formed by a laser beam printer based on output image data and control data output in an embodiment of the image processing apparatus of the present invention.
FIG. 28 is an explanatory diagram of a specific example of an image formed by a laser beam printer based on output image data and control data output in an embodiment of the image processing apparatus of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Buffer, 2 ... Binarization part, 3 ... Smoothing process part, 4 ... Edge detection part, 5 ... Selector, 11 ... Register, 12 ... Comparator, 21 ... Buffer, 22a-22x ... Pattern detection part, 23 ... Memory, 24a to 24d ... Logical negation element, 25 ... Logical product element, 31a to 31d ... Filter, 32 ... Edge information creation unit, 41 ... D / A converter, 42 ... Reference wave generator, 43 ... Comparator, 44: Laser light emitting element, 45: Current controller.

Claims (4)

入力された多値の原画像データに対して平滑化処理を施す平滑化処理手段と、入力された前記原画像データの各画素がエッジか否かを判定するエッジ判定手段と、前記エッジ判定手段により前記原画像データの画素がエッジであると判定された場合に前記平滑化処理手段により平滑化された画素と前記原画像データの画素のうち値が大きい方の画素を選択して出力し、エッジと判定されなかった場合には前記原画像データを出力する画素選択手段を有することを特徴とする画像処理装置。  Smoothing processing means for performing smoothing processing on the input multi-valued original image data, edge determination means for determining whether each pixel of the input original image data is an edge, and the edge determination means When the pixel of the original image data is determined to be an edge, the pixel smoothed by the smoothing processing unit and the pixel having the larger value among the pixels of the original image data are selected and output, An image processing apparatus comprising pixel selection means for outputting the original image data when it is not determined to be an edge. 前記エッジ判定手段は、前記入力された原画像データのブロックから該ブロックの中心画素がエッジであるか否かを判定することを特徴とする請求項1に記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the edge determination unit determines whether or not a central pixel of the block is an edge from the block of the input original image data. 入力された多値の原画像データに対して平滑化処理を施すとともに、入力された前記原画像データの各画素がエッジか否かを判定し、該判定により前記原画像データの画素がエッジであると判定された場合に、前記平滑化処理により平滑化された画素と前記原画像データの画素のうち値が大きい方の画素を選択して出力し、エッジと判定されなかった場合には前記原画像データを出力することを特徴とする画像平滑化方法。  The input multi-valued original image data is subjected to smoothing processing, and it is determined whether each pixel of the input original image data is an edge. If it is determined that there is a pixel that has been smoothed by the smoothing process and the pixel of the original image data, the pixel having the larger value is selected and output. An image smoothing method characterized by outputting original image data. 前記エッジか否かの判定は、前記入力された原画像データのブロックから該ブロックの中心画素について行うことを特徴とする請求項3に記載の画像平滑化方法。  4. The image smoothing method according to claim 3, wherein the determination of whether or not the edge is performed is performed for a central pixel of the input original image data block.
JP16922097A 1997-06-25 1997-06-25 Image processing apparatus and image smoothing method Expired - Lifetime JP3736593B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16922097A JP3736593B2 (en) 1997-06-25 1997-06-25 Image processing apparatus and image smoothing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16922097A JP3736593B2 (en) 1997-06-25 1997-06-25 Image processing apparatus and image smoothing method

Publications (2)

Publication Number Publication Date
JPH1117956A JPH1117956A (en) 1999-01-22
JP3736593B2 true JP3736593B2 (en) 2006-01-18

Family

ID=15882453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16922097A Expired - Lifetime JP3736593B2 (en) 1997-06-25 1997-06-25 Image processing apparatus and image smoothing method

Country Status (1)

Country Link
JP (1) JP3736593B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4085584B2 (en) 2001-02-28 2008-05-14 コニカミノルタビジネステクノロジーズ株式会社 Image processing apparatus and image forming apparatus
US7433084B2 (en) * 2002-07-01 2008-10-07 Xerox Corporation Digital de-screening technique for scanned documents
JP5458946B2 (en) * 2010-02-24 2014-04-02 株式会社リコー Image processing apparatus, program, and recording medium
JP5744461B2 (en) * 2010-10-08 2015-07-08 キヤノン株式会社 Image processing apparatus and method

Also Published As

Publication number Publication date
JPH1117956A (en) 1999-01-22

Similar Documents

Publication Publication Date Title
US5565994A (en) Multiple separation error diffusion, with cross separation correlation control for color images
US7450269B2 (en) Gray level halftone processing
JP4615776B2 (en) Edge enhancement processing processor and method by adjustable threshold setting
JP2002094828A (en) Edge enhancement of gray level image
JP2009100228A (en) Image processing apparatus and control method therefor
US6069636A (en) Embedding information into images by varying pixel parameters
JPH1141465A (en) Multilevel halftoning method
JP3736593B2 (en) Image processing apparatus and image smoothing method
JP2001245167A (en) Image processor for electrophotography, and electrophotography device using the same
JP4169054B2 (en) Image processing apparatus, image processing method, and program
US20050018227A1 (en) Image forming apparatus
US6466335B1 (en) Image forming apparatus
JP2004135317A (en) Color image processing apparatus and color image processing method
JP3796985B2 (en) Image processing apparatus, image processing method, and storage medium
US6356360B1 (en) Apparatus and method for rendering halftone dot structures using grey level dots
JP3775458B2 (en) Image processing apparatus and image smoothing method
JP2749328B2 (en) Digital color copier
JP2004282344A (en) Image processing method
JP3920480B2 (en) Image forming apparatus
JP4471324B2 (en) Image processing apparatus and control method thereof
JP3984693B2 (en) Image processing apparatus and method
JPH06178111A (en) Image processor
JP3589415B2 (en) Image processing device
JPH05169720A (en) Color image forming apparatus
JP3920479B2 (en) Image forming apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050706

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051018

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091104

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101104

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111104

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111104

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121104

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121104

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131104

Year of fee payment: 8

EXPY Cancellation because of completion of term