JP4460079B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4460079B2
JP4460079B2 JP09495298A JP9495298A JP4460079B2 JP 4460079 B2 JP4460079 B2 JP 4460079B2 JP 09495298 A JP09495298 A JP 09495298A JP 9495298 A JP9495298 A JP 9495298A JP 4460079 B2 JP4460079 B2 JP 4460079B2
Authority
JP
Japan
Prior art keywords
error
coefficient
propagation
pixel
correction value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP09495298A
Other languages
Japanese (ja)
Other versions
JPH11298734A (en
Inventor
義和 内藤
真一 佐藤
文子 輿水
Original Assignee
パナソニックシステムネットワークス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックシステムネットワークス株式会社 filed Critical パナソニックシステムネットワークス株式会社
Priority to JP09495298A priority Critical patent/JP4460079B2/en
Publication of JPH11298734A publication Critical patent/JPH11298734A/en
Application granted granted Critical
Publication of JP4460079B2 publication Critical patent/JP4460079B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ファクシミリ装置等に用いられる画像処理装置に関し、特に入力画素で発生した2値化誤差を周辺画素へ拡散する誤差拡散に好適な画像処理装置に関する。
【0002】
【従来の技術】
画像信号を量子化して中間調画像を再生する場合、量子化誤差による画像劣化が生じることが知られている。ファクシミリ装置では量子化誤差を視覚的に目障りにならないように制御するために誤差拡散機能を備えた画像処理装置を搭載している場合が多い。
【0003】
図11に誤差拡散処理を行う従来の画像処理装置の構成例を示す。この画像処理装置は、原稿を画素単位に分解して多値レベルの画信号に変換されたデータが入力端子1に与えられる。入力端子1から画像データが与えられる加算器2において、該入力画素(p)の画素値と、周辺画素(a)〜(d)から伝播される伝播誤差とが加算される。コンパレータ3では、加算器2から出力される多値レベルのデータが閾値発生部4の発生する2値化閾値にて2値化される。この2値化データが出力端子5から2値化データとして出力される。
【0004】
一方、減算器6において2値化前の多値データと2値化後の2値化データとから2値化誤差が検出されて誤差メモリ7に保存される。誤差フィルタ8は、入力画素(p)の周辺画素(a)〜(d)の2値化誤差E(a)〜E(d)を誤差メモリ7から読み出し、2値化誤差E(a)〜E(d)を一定の割合で重み付けした補正値を伝播誤差として加算器2へ出力する。
【0005】
以上のように、誤差拡散機能を搭載した上記画像処理装置は、入力データに補正値を加算した補正データから出力データを減算した2値化誤差を周辺画素へ拡散することで画質の向上を図っている。
【0006】
【発明が解決しようとする課題】
しかしながら、上記した従来の画像処理装置は、2値化誤差の重み付けの割合が常に一定に保持されているため、濃度変化の少ない画像で誤差拡散特有のテクスチャパターンが発生し、階調特性・分解能が低下する問題を有する。
【0007】
また、上記従来の画像処理装置は、白黒が急激に変化する部分において伝播誤差が急変するため、注目画素の出力データが前の誤差の影響を受け、白抜けや黒潰れが発生する問題も有する。
【0008】
本発明は以上のような実情に鑑みてなされたものであり、原稿の端に相当する部分や白黒が急激に変化する部分において発生する白抜けや黒潰れを大幅に抑制することが出来、画質の向上を図ることのできる画像処理装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
本発明は上記課題を解決するために以下のような手段を講じた。
【0012】
請求項1に記載の画像処理装置の発明は、原稿画像を画素単位に分解して多値レベルの画信号に変換された入力画素を入力する入力手段と、原稿の端を判定する端判定手段と、原稿の端であると判定されたとき所定の2値化閾値から前記入力画素である端画素値を減算した補正値と補正係数とから代替誤差を算出してこれを端補正値とする端補正値演算手段と、前記端補正値を前記端画素に加算する補正値加算手段と、前記端補正値が加算された前記端画素と前ラインからの誤差および前画素からの誤差を加算する誤差加算手段と、前記誤差加算手段により加算された誤差補正済み画素データを前記2値化閾値により2値化して出力する2値化手段とを具備した構成を採る。
【0013】
この構成により、原稿の端の端画素に端補正値が加算されるので適当なドット遅延を抑えることができ白抜けや黒潰れの発生を抑制できる。
【0025】
【発明の実施の形態】
以下、本発明の一実施の形態について図面を参照して説明する。
【0026】
図1に本実施の形態にかかる画像処理装置の概略構成を示す。本実施の形態の画像処理装置は、入力画素に端補正値を加算する補正値加算部101、端補正値の加算された画素データに周辺画素で発生した誤差を加算する誤差加算部102、誤差補正済み画素データを2値化閾値で2値化する2値化手段103、2値化閾値を保持した閾値レジスタ104を備えている。
【0027】
また、補正値加算部101に与える端補正値を生成するために、主走査カウント値と副走査カウント値が入力する端検出部105、原稿の端検出信号と設定係数Kvとから端補正値を算出する端補正値演算部106、補正値係数Kvを保持した係数レジスタ107を備える。
【0028】
また、誤差加算部102に与える各方向の伝播誤差(代替誤差を含む)を生成するために、誤差補正済み画素データと2値化データとから2値化誤差を算出する2値化誤差算出部108、2値化誤差(又は補正値)及び各方向の伝播誤差係数(又は補正係数)等から各方向の伝播誤差又は代替誤差を算出する伝播誤差演算部109、算出した伝播誤差又は代替誤差が書き込まれる誤差メモリ110、伝播誤差係数等を決定する伝播誤差決定部111を備えている。
【0029】
以上のように構成された本実施の形態の動作について説明する。
【0030】
端検出部105は、主走査カウント値と副走査カウント値により原稿の左端か上端を検出し、端補正値演算部106へ端検出信号を出力する。端補正値演算部106は、内部に伝播誤差演算部と伝播係数決定部を有し、現ラインデータと補正値係数Kvにより、上端、左端の端補正値を演算する。端補正値演算部106における端補正値の演算内容については後述する。
【0031】
補正値加算部101は、端補正値演算部106よりの端補正値と入力画素の画素データとを加算し、端補正済みデータを誤差加算部102に出力する。誤差加算部102では、入力画素の端補正済みデータと、誤差メモリ110から与えられる前ラインからの誤差および伝播誤差演算部108から与えられる前画素からの誤差を加算する。2値化手段103では、この誤差補正済み画素データを閾値レジスタ104からの2値化閾値により2値化して出力データとして出力する。
【0032】
一方、2値化誤差算出部108では、出力データと2値化手段103の入力である、誤差補正済み画素データにより2値化誤差が算出される。算出された2値化誤差Eは伝播誤差演算部109へ出力される。
【0033】
伝播誤差演算部109では、2値化誤差算出部108から入力する2値化誤差Eと、伝播係数決定部111から入力する各誤差伝播方向の誤差伝播係数(または補正係数)であるK1、K2、K3、K4と、同じく各誤差伝播方向の補正値P1、P2、P3、P4により、各方向への誤差(または代替誤差)が各方向毎に演算される。次画素への誤差はE1として誤差加算部102へ出力し、次ラインへの誤差は3画素分集積され誤差メモリ110へ出力する。誤差メモリ110は、伝播誤差演算部109から与えられる前ラインの誤差を記憶し、現ラインへの誤差を誤差加算部102に出力する。
【0034】
伝播係数決定部111では、現ラインデータと次ラインデータと、係数レジスタ107より入力する補正値係数Kvと閾値レジスタ104からの2値化閾値により、各誤差伝播方向の誤差伝播係数または補正係数K1、K2、K3、K4と、同じく各方向毎の補正値P1、P2、P3、P4を決定し伝播誤差演算部109へ出力する。
【0035】
ここで、伝播係数決定部111について詳しく説明する。
【0036】
図2に伝播係数決定部111の全体的な機能ブロックを示す。伝播係数決定部111は、誤差伝播係数群が格納された誤差係数メモリ201、誤差伝播係数をパラレルに選択する2つの係数選択部202,203、係数選択部202,203に誤差伝播係数をランダムに選択させる乱数を発生する乱数発生部204、2つの係数選択部202,203が選択した2組の誤差伝播係数を入力画素のレベル判定信号に応じて選択する係数選択部205を備える。また、2つの係数選択部202,203でそれぞれ選択対象となる2つの誤差伝播係数をそれぞれ平均化する第1平均化手段209−1、第2平均化手段209−2、各誤差伝播方向について補正値と補正係数とを計算する補正演算部210、入力変化判定信号1〜4に応じて誤差伝播方向毎に補正演算部210からの(補正値、補正係数)と係数選択部205からの(誤差伝播係数、0)とを選択する係数制御部206を備えている。なお、入力画素を基準とした各誤差伝播方向の画素変化を示す入力変化判定信号1〜4は入力変化判定部207から係数制御部206へ与えられ、入力画素のレベルを示すレベル判定信号は入力レベル判定部208より係数選択部205へ与えられている。
【0037】
伝播誤差メモリ201には、誤差伝播係数群として、Kt1(Kt11,Kt12,Kt13,Kt14)、Kt2(Kt21,Kt22,Kt23,Kt24)、Kt3(Kt31,Kt32,Kt33,Kt34)、Kt4(Kt41,Kt42,Kt43,Kt44)の4個の係数群がある。
【0038】
係数選択部202では、乱数発生部204から出力される乱数信号により、Kt1とKt2のうちいずれかが選択される。同時に、もう一つの係数選択部203では、Kt3とKt4のうちいずれかが選択される。係数選択部202、203で選択された2つの係数群は、係数選択部205において、入力レベル判定部208の入力レベル判定信号によりいずれかが選択される。2段目の係数選択部205で選択された係数が(KT1、KT2、KT3、KT4)として係数制御部206に入力される。
【0039】
一方、係数平均部209には、係数選択部202、係数選択部203に入力される係数が組みで各平均手段209−1、209−2に入力される。第1平均手段209−1は平均化係数(Kha1〜Kha4)を、第2平均手段209−2は平均化係数(Khb1〜Khb4)を補正演算部210へ出力する。このように乱数に基づいて選択した誤差伝播係数を平均化することにより、乱数を使用して誤差伝播係数を変化させたことによる影響を抑える効果がある。
【0040】
補正演算部210は、現ラインデータと次ラインデータと平均化係数(Kha1〜Kha4)(Khb1〜Khb4)と、係数レジスタ107よりの補正係数Kvと、閾値レジスタ104からの閾値とが与えられている。これらの入力データを基に各誤差伝播方向の補正係数KH1〜KH4及び補正値H1〜H4を演算している。
【0041】
図3に補正演算部210の構成を示す。補正演算部210は、誤差伝播方向の各方向に対応して第1〜第4の補正演算手段301〜304を備えている。第1補正演算手段301は注目画素からみて右方向の誤差伝播方向、第2補正演算手段302は注目画素からみて左下方向の誤差伝播方向、第3補正演算手段303は注目画素からみて下方向の誤差伝播方向、第4補正演算手段304は注目画素からみて右下方向の誤差伝播方向の補正係数KH1〜KH4及び補正値H1〜H4を演算している。
【0042】
例えば、第1補正演算手段301は注目画素からみて右側に隣接する画素の画素値(D1)が与えられ、第1平均手段209−1から右方向の平均化係数Kha1、第2平均手段209−2から右方向の平均化係数Khb1がそれぞれ与えられ、さらに閾値レジスタ104から2値化閾値が与えられ、右方向の補正係数KH1及び補正値H1を演算する。
【0043】
図4に補正演算手段(301〜304)の構成を示す。減算器401において、閾値レジスタ104からの2値化閾値から被誤差伝播画素の画素値を減算して減算結果を補正値Hとして出力する。被誤差伝播画素の画素値を入力レベル判定部402でレベル判定し、その判定結果により平均誤差伝播係数のKHaとKHbを選択する。選択された平均誤差伝播係数(KHa又はKHb)に係数レジスタ107よりの補正値係数Kv(Kv<1)を乗じて補正係数KHを出力する。以上のように第1〜第4補正演算手段301〜304において各誤差伝播方向に対する補正係数KH1〜KH4及び補正値H1〜H4を計算する。
【0044】
図5に係数制御部206の構成を示す。係数制御部206は、各誤差伝播方向毎にセレクタ501〜504が設けられている。誤差伝播方向(右方向)に対応して設けられたセレクタ501は、右方向の入力変化を判定した入力変化判定信号1により、補正係数HK1と誤差伝播係数KT1のいずれかを選択し、同時に補正値Hと0(0は、伝播誤差演算部109で補正値と誤差値の選択信号として用いる)をも選択する。この時、補正係数と補正値、誤差伝播係数と0が組みで選択される。入力変化判定信号1が右方向に大きな画素値変化があることを示していれば伝播誤差演算部109で代替誤差を演算するための補正係数KH1と補正値H1との組が選択される。また、入力変化判定信号1が右方向に大きな画素値変化があることを示していなければ、通常通り誤差伝播係数KT1と0との組が選択される。セレクタ501で選択された誤差伝播係数KT1又は補正係数KH1は誤差伝播係数K1として、また0又は補正値H1は補正値P1として伝播誤差演算部109へ出力される。他のセレクタ502〜504においても同様にして各方向の入力変化判定信号2〜4に応じて補正係数と補正値又は誤差伝播係数と0との組みが選択される。
【0045】
図6に伝播誤差演算部109の構成を示す。伝播誤差演算部109では、各誤差伝播方向毎に設けられたセレクタ601〜604に伝播係数決定部111から各方向の補正値P1、P2、P3、P4、誤差伝播係数K1、K2、K3、K4及び2値化誤差算出部108よりの2値化誤差Eが入力される。
【0046】
セレクタ601〜604は、各々対応する誤差伝播方向の補正値P1、P2、P3、P4により、各乗算器605〜608に対する入力を選択する。具体的には、補正値Pが0の時は、2値化誤差算出部108よりの2値化誤差Eを選択し、0でない時は補正値P1、P2、P3、P4を選択する。このように、誤差伝播方向毎に画素値の入力変化に応じて誤差Eと補正値Pを選択することで画像の端の白抜け、黒潰れを抑えることができることになる。
【0047】
乗算器605〜608は、各セレクタ601〜604で選択された結果と、各誤差伝播方向の誤差伝播係数(または補正係数)K1、K2、K3、K4とを乗算する。右方向の伝播誤差を計算した乗算器605の出力は、次画素への誤差E1として誤差加算部102へ出力し、乗算器606、乗算器607、乗算器608の出力は誤差集積部609へ出力され、誤差集積部609で3画素分の誤差の集積を行い、次ラインへの誤差Emiとして誤差メモリ110に出力する。
【0048】
図7を参照して通常処理とエッジ部処理を説明する。
【0049】
まず、図7のように現ライン及び次ラインについて入力がD11からD32まであり、誤差伝播係数が注目画素からみて右方向がKr、左下方向がKdl、下方向がKd、右下方向がKdrであり、D11、D21、D31、D12での2値化誤差がそれぞれe1,e2,e3,e4の時、D22における伝播誤差および代替誤差がどうなるのかを、通常処理時とエッジ部処理時で説明する。
【0050】
通常処理の場合、周辺画素から誤差を受け取る注目画素D22からみていずれの誤差伝播方向にもエッジ部が存在していないことになる。注目画素D22は周辺画素D11,D21,D31,D12での伝播誤差決定時にそれぞれ被誤差伝播画素になる。周辺画素D11,D21,D31,D12での各々の伝播誤差決定時に、伝播係数決定部111は注目画素D22の存在する方向の誤差伝播係数K及び補正値Pとして誤差伝播係数=KTと補正値=0を出力する。
【0051】
したがって、周辺画素D11,D21,D31での伝播誤差決定時に2値化誤差算出部108から出力された誤差Eに各々対応する方向の誤差伝播係数KTを掛け合わせた誤差e1,e2,e3が誤差メモリ110に記憶され、左隣接画素D12での伝播誤差決定時に2値化誤差算出部108から出力された誤差Eに左方向の誤差伝播係数KTを掛け合わせた誤差e4が誤差加算部102へ入力される。この結果、注目画素D22が誤差加算部102において対象画素となったときには数式(1)に示すように、周辺画素(左上、上、右上、左)からの誤差の総和により、D22に対する誤差が決定する。
【0052】
E=e1×Kdr+e2×Kd+e3×Kdl+e4×Kr …(1)
エッジ部の処理の場合は、周辺画素から誤差を受け取る注目画素D22からみて右上のD21とD31の間に画像のエッジがあったとする。係数制御部206は、D31の各方向に対する伝播誤差を決定するとき、注目画素D22の存在する方向の誤差伝播係数K及び補正値Pとして補正演算部210から出力された補正係数=HKと補正値=Hを出力する。誤差伝播係数K及び補正値Pとして補正係数=HKと補正値=Hの与えられた伝播誤差演算部109は、注目画素D22に対する伝播誤差としてD31の持つ誤差を伝播させるのを停止して補正係数=HKと補正値=Hから求められる代替誤差を伝播させるように誤差メモリ110に設定する。代替誤差は、2値化閾値からD22の画素値を減算した減算値と、設定係数にその方向の誤差伝播係数を乗算した乗算値とを掛け合わせたものを用いる。
【0053】
上記したようにD21とD31の間に画像のエッジがあった場合、誤差は、左上、上、左から受け取り、右上から伝播される誤差の代わりにD22の左下への代替誤差を加算したものが、D22に対する伝播誤差として決定する。この結果、注目画素D22が誤差加算部102において対象画素となったときには数式(2)に示すように、周辺画素(左上、上、左)からの誤差と右上からの代替誤差の総和により、D22に対する誤差が決定する。
【0054】
E=e1×Kdr+e2×Kd
+(Th−D22)×Kv×Kdl+e4×Kr …(2)
図8は、注目画素レベルがDi時の補正値を説明する図である。前提となる条件は、2値化閾値がThで、誤差伝播係数が注目画素からみて右方向がKr、
左下方向がKdl、下方向がKd、右下方向がKdrである。
【0055】
まず、補正対象値Hは、2値化閾値と注目画素レベルの差で示される。
【0056】
H=Th―Di …(3)
次に、実際の端補正値を決める為の設定係数Kv(Kv<1)を乗じて実補正値を求める。設定係数Kvを1以下にすることで、補正対象値を超えない補正値を得ることができる。
【0057】
Hall=H×kv
これは、誤差伝播方向が全てエッジだった場合の補正値の総和に相当するものである。
【0058】
次に、誤差伝播の各方向毎の実補正値を求める。
【0059】
右方向を例にとると、実補正値に右方向の誤差伝播係数を乗じて求めることができる。
【0060】
Hr=Hall×Kr
このように、各誤差伝播係数により、各方向毎に補正値を求めることが可能で、誤差伝播係数は、Kr+Kdl+Kd+Kdr=1になるので、全ての方向がエッジだった場合に補正値の総和(Hr+Hdl+Hd+Hdr)はHallになることがわかる。
【0061】
上記端補正値演算部106での端補正処理の内容について説明する。上記したように端補正値演算部106は、図6に示す伝播誤差演算部109と図2に示す伝播係数決定部111と同一構成要素を備えている。
【0062】
端補正値演算部106では、補正演算部210の4個ある第1〜第4補正演算手段301〜304に入力する画素データDとして現ラインデータの注目画素の画素値をそれぞれ入力する。これにより、端の処理で必要な補正値を演算することができる。まず、第1〜第4補正演算部301〜304の減算部401において、2値化閾値Thから注目画素の画素値Diを差し引くことにより図8の補正対象値Hがそれぞれ得られる。同時に、第1〜第4補正演算部301〜304の乗算器404において、各方向の平均化係数に設定係数Kvが乗算されて補正係数KHが得られる。次に、係数制御部206において入力変化判定部207から各セレクタ501〜504に与える各方向の入力変化判定信号のうち端からの方向に相当する信号を強制的に「変化あり」の状態に制御し、かつ各セレクタ501〜504に与える各方向の誤差伝播係数KT1〜KT4を全て0にする。この結果、端方向以外は補正値を0にすることができる。最後に、伝播誤差演算部109において各乗算器605〜608の出力するE1、E2、E3、E4を全て加算し端補正値を求める事ができる。
【0063】
なお、このように端補正値演算部106、補正値加算部101を使用して補正値を加算せずに、端検出信号を伝播係数決定部111内の入力変化判定部に入力し、変化判定信号に反映させることで、補正値を一旦誤差メモリに記憶し読み出して誤差加算部で加算する構成でも同様の効果が得られる。端処理時に端方向の変化判定信号を強制的に変化有りにすることで端検出信号を変化判定信号に反映させる。
【0064】
【実施例】
図9(a)は、ドット遅延処理をしない従来の誤差拡散処理をした画像の一部である。原画像は周辺:127,正方形内:254,256階調である。正方形内のドットの発生が遅れており、正方形の下部にテクスチャが出現している。
【0065】
図9(b)〜(e)は、同様の原画像をドット遅延処理し誤差拡散した画像である。それぞれ、設定係数Kvを0/64,25/64,50/64,64/64と変えている。ドット遅延処理により正方形の下部のテクスチャが無くなっており、Kvを1に近づけると正方形内のドット発生の位置が左上に移動している。そして1(64/64)になった時点で正方形の内側に達している。Kvは50/64程度が適していると思われる。
【0066】
図10(a)は、従来の誤差拡散処理をした画像である。原画像(黒枠内)は周辺:254,正方形内:127,256階調である。上端および左端にドット遅延が発生している。また、正方形上部にテクスチャが出現している。また、正方形の右および下の背景にドット遅延が発生している。
【0067】
図10(b)は、同図(a)と同様の原画像に対して、本発明の入力レベル差でのドット遅延処理と上端および左端に端辺のドット遅延処理を使用して誤差拡散処理をした画像である。正方形上部のテクスチャおよび、正方形の右および下のドット遅延は、レベル差でのドット遅延処理により解決されている。また、上端および左端のドット遅延は、端辺のドット遅延処理により解決されている。
【0068】
【発明の効果】
以上詳記したように本発明によれば、原稿の端に相当する部分や白黒が急激に変化する部分において発生する白抜けや黒潰れを大幅に抑制することが出来、画質の向上を図ることのできる画像処理装置を提供できる。
【図面の簡単な説明】
【図1】本発明の実施の形態にかかる画像処理装置の全体図
【図2】上記実施の形態の画像処理装置における誤差係数決定部の構成図
【図3】図2に示す誤差係数決定部における補正演算部の構成図
【図4】図3に示す補正演算部における補正演算手段の構成図
【図5】図2に示す誤差係数決定部における係数制御部の構成図
【図6】上記実施の形態の画像処理装置における伝播誤差演算部の構成図
【図7】補正値の加算方法を示す説明図
【図8】補正値の説明を示す説明図
【図9】補正係数を変化させた時の効果を示す図
【図10】本発明を実施した時の効果を示す図
【図11】従来の誤差拡散回路の構成図
【符号の説明】
101 補正値加算部
102 誤差加算部
103 2値化手段
104 閾値レジスタ
105 端検出部
106 端補正値演算部
107 係数レジスタ
108 2値化誤差算出部
109 伝播誤差演算部
110 誤差メモリ
111 伝播誤差決定部
201 誤差係数メモリ
202、203 の係数選択部
204 乱数発生部
205 係数選択部
206 係数制御部
207 入力変化判定部
208 入力レベル判定部
209−1,209−2 第1平均化手段
210 補正演算部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus used for a facsimile machine or the like, and more particularly to an image processing apparatus suitable for error diffusion that diffuses a binarization error generated in an input pixel to surrounding pixels.
[0002]
[Prior art]
It is known that when a halftone image is reproduced by quantizing an image signal, image degradation occurs due to a quantization error. In many cases, the facsimile apparatus is equipped with an image processing apparatus having an error diffusion function in order to control the quantization error so as not to be visually disturbing.
[0003]
FIG. 11 shows a configuration example of a conventional image processing apparatus that performs error diffusion processing. In this image processing apparatus, data obtained by decomposing an original into pixel units and converted into a multilevel image signal is supplied to an input terminal 1. In the adder 2 to which image data is given from the input terminal 1, the pixel value of the input pixel (p) and the propagation error propagated from the peripheral pixels (a) to (d) are added. In the comparator 3, the multilevel data output from the adder 2 is binarized by a binarization threshold generated by the threshold generation unit 4. This binarized data is output from the output terminal 5 as binarized data.
[0004]
On the other hand, in the subtractor 6, a binarization error is detected from the multilevel data before binarization and the binarized data after binarization, and stored in the error memory 7. The error filter 8 reads binarization errors E (a) to E (d) of peripheral pixels (a) to (d) of the input pixel (p) from the error memory 7, and binarization errors E (a) to A correction value obtained by weighting E (d) at a constant rate is output to the adder 2 as a propagation error.
[0005]
As described above, the image processing apparatus equipped with the error diffusion function improves the image quality by diffusing the binarization error obtained by subtracting the output data from the correction data obtained by adding the correction value to the input data to the peripheral pixels. ing.
[0006]
[Problems to be solved by the invention]
However, since the above-described conventional image processing apparatus always keeps the binarization error weighting ratio constant, a texture pattern peculiar to error diffusion is generated in an image with little change in density, and gradation characteristics / resolution Has the problem of lowering.
[0007]
Further, the conventional image processing apparatus has a problem that the output error of the pixel of interest is affected by the previous error because the propagation error changes suddenly at the portion where the black and white changes rapidly, and white spots and blackout occur. .
[0008]
The present invention has been made in view of the above circumstances, and can significantly suppress white spots and blackouts that occur in portions corresponding to the edges of a document or portions where black and white changes rapidly. An object of the present invention is to provide an image processing apparatus capable of improving the above.
[0009]
[Means for Solving the Problems]
In order to solve the above problems, the present invention has taken the following measures.
[0012]
The image processing apparatus according to claim 1 is an input unit that inputs input pixels that are decomposed into pixel units and converted into multilevel image signals, and an edge determination unit that determines the edge of the document. When the edge of the document is determined, a substitute error is calculated from a correction value obtained by subtracting the edge pixel value as the input pixel from a predetermined binarization threshold and the correction coefficient, and this is used as the edge correction value. An edge correction value calculation means, a correction value addition means for adding the edge correction value to the edge pixel, and an error from the edge pixel and the previous line to which the edge correction value has been added and an error from the previous pixel are added. A configuration is adopted that includes error addition means and binarization means for binarizing and outputting the error-corrected pixel data added by the error addition means using the binarization threshold .
[0013]
With this configuration, since the edge correction value is added to the edge pixel at the edge of the document, it is possible to suppress an appropriate dot delay and suppress the occurrence of white spots or blackout.
[0025]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[0026]
FIG. 1 shows a schematic configuration of an image processing apparatus according to the present embodiment. The image processing apparatus according to the present embodiment includes a correction value addition unit 101 that adds an end correction value to an input pixel, an error addition unit 102 that adds an error generated in a peripheral pixel to pixel data to which the end correction value has been added, A binarizing means 103 for binarizing the corrected pixel data with a binarization threshold is provided, and a threshold register 104 holding the binarization threshold is provided.
[0027]
Further, in order to generate an edge correction value to be given to the correction value adding unit 101, an edge correction value is obtained from the edge detection unit 105 to which the main scanning count value and the sub-scanning count value are input, the document edge detection signal, and the setting coefficient Kv. An edge correction value calculation unit 106 to calculate, and a coefficient register 107 holding a correction value coefficient Kv are provided.
[0028]
Also, a binarization error calculation unit that calculates a binarization error from the error-corrected pixel data and binarization data in order to generate a propagation error (including an alternative error) in each direction to be given to the error addition unit 102 108, a propagation error calculation unit 109 that calculates a propagation error or alternative error in each direction from a binarization error (or correction value), a propagation error coefficient (or correction coefficient) in each direction, and the like. An error memory 110 to be written, a propagation error determining unit 111 that determines a propagation error coefficient and the like are provided.
[0029]
The operation of the present embodiment configured as described above will be described.
[0030]
The edge detection unit 105 detects the left edge or upper edge of the document from the main scanning count value and the sub-scanning count value, and outputs an edge detection signal to the edge correction value calculation unit 106. The end correction value calculation unit 106 includes a propagation error calculation unit and a propagation coefficient determination unit therein, and calculates end correction values for the upper end and the left end based on the current line data and the correction value coefficient Kv. The calculation content of the edge correction value in the edge correction value calculation unit 106 will be described later.
[0031]
The correction value adding unit 101 adds the end correction value from the end correction value calculating unit 106 and the pixel data of the input pixel, and outputs the end corrected data to the error adding unit 102. The error adder 102 adds the edge corrected data of the input pixel, the error from the previous line given from the error memory 110 and the error from the previous pixel given from the propagation error calculator 108. The binarization means 103 binarizes the error-corrected pixel data using the binarization threshold value from the threshold register 104 and outputs it as output data.
[0032]
On the other hand, the binarization error calculation unit 108 calculates a binarization error based on the output data and error-corrected pixel data that is input to the binarization unit 103. The calculated binarization error E is output to the propagation error calculation unit 109.
[0033]
In the propagation error calculation unit 109, the binarization error E input from the binarization error calculation unit 108 and the error propagation coefficients (or correction coefficients) K1 and K2 in the respective error propagation directions input from the propagation coefficient determination unit 111. , K3, and K4, and the correction values P1, P2, P3, and P4 in the respective error propagation directions, the error (or alternative error) in each direction is calculated for each direction. The error for the next pixel is output to the error adder 102 as E1, and the error for the next line is integrated for three pixels and output to the error memory 110. The error memory 110 stores the error of the previous line given from the propagation error calculator 109 and outputs the error to the current line to the error adder 102.
[0034]
In the propagation coefficient determination unit 111, the error propagation coefficient or the correction coefficient K1 in each error propagation direction is determined based on the current line data, the next line data, the correction value coefficient Kv input from the coefficient register 107, and the binarized threshold value from the threshold register 104. , K2, K3, and K4, and similarly, correction values P1, P2, P3, and P4 for each direction are determined and output to the propagation error calculation unit 109.
[0035]
Here, the propagation coefficient determination unit 111 will be described in detail.
[0036]
FIG. 2 shows an overall functional block of the propagation coefficient determination unit 111. Propagation coefficient determination unit 111 includes error coefficient memory 201 storing error propagation coefficient groups, two coefficient selection units 202 and 203 for selecting error propagation coefficients in parallel, and coefficient selection units 202 and 203 for randomly transmitting error propagation coefficients. A random number generation unit 204 that generates a random number to be selected includes a coefficient selection unit 205 that selects two sets of error propagation coefficients selected by the two coefficient selection units 202 and 203 according to the level determination signal of the input pixel. Further, the first averaging means 209-1 and the second averaging means 209-2 for averaging the two error propagation coefficients to be selected by the two coefficient selecting sections 202 and 203, respectively, and correcting each error propagation direction. A correction calculation unit 210 that calculates a value and a correction coefficient, (correction value, correction coefficient) from the correction calculation unit 210 and (error) from the coefficient selection unit 205 for each error propagation direction according to the input change determination signals 1 to 4 A coefficient control unit 206 for selecting a propagation coefficient, 0) is provided. Input change determination signals 1 to 4 indicating pixel changes in the respective error propagation directions with reference to the input pixel are given from the input change determination unit 207 to the coefficient control unit 206, and a level determination signal indicating the level of the input pixel is input. The level determination unit 208 gives the coefficient selection unit 205.
[0037]
In the propagation error memory 201, as error propagation coefficient groups, Kt1 (Kt11, Kt12, Kt13, Kt14), Kt2 (Kt21, Kt22, Kt23, Kt24), Kt3 (Kt31, Kt32, Kt33, Kt34), Kt4 (Kt41, There are four coefficient groups of Kt42, Kt43, Kt44).
[0038]
The coefficient selection unit 202 selects either Kt1 or Kt2 based on the random number signal output from the random number generation unit 204. At the same time, another coefficient selection unit 203 selects either Kt3 or Kt4. One of the two coefficient groups selected by the coefficient selection units 202 and 203 is selected by the coefficient selection unit 205 based on the input level determination signal of the input level determination unit 208. The coefficients selected by the second-stage coefficient selection unit 205 are input to the coefficient control unit 206 as (KT1, KT2, KT3, KT4).
[0039]
On the other hand, in the coefficient averaging unit 209, the coefficients input to the coefficient selection unit 202 and the coefficient selection unit 203 are input to the averaging means 209-1 and 209-2 in combination. The first averaging means 209-1 outputs the averaging coefficients (Kha1 to Kha4), and the second averaging means 209-2 outputs the averaging coefficients (Khb1 to Khb4) to the correction calculation unit 210. By averaging the error propagation coefficient selected based on the random number in this way, there is an effect of suppressing the influence caused by changing the error propagation coefficient using the random number.
[0040]
The correction calculation unit 210 is given the current line data, the next line data, the averaging coefficients (Kha1 to Kha4) (Khb1 to Khb4), the correction coefficient Kv from the coefficient register 107, and the threshold value from the threshold value register 104. Yes. Based on these input data, correction coefficients KH1 to KH4 and correction values H1 to H4 in each error propagation direction are calculated.
[0041]
FIG. 3 shows the configuration of the correction calculation unit 210. The correction calculation unit 210 includes first to fourth correction calculation units 301 to 304 corresponding to the respective error propagation directions. The first correction calculation means 301 is the error propagation direction in the right direction when viewed from the target pixel, the second correction calculation means 302 is the error propagation direction in the lower left direction as viewed from the target pixel, and the third correction calculation means 303 is the downward direction as viewed from the target pixel. The error propagation direction and fourth correction calculation unit 304 calculates correction coefficients KH1 to KH4 and correction values H1 to H4 in the error propagation direction in the lower right direction as viewed from the target pixel.
[0042]
For example, the first correction calculation unit 301 is provided with the pixel value (D1) of the pixel adjacent to the right side as viewed from the target pixel, and the right averaging coefficient Kha1, the second averaging unit 209- A rightward averaging coefficient Khb1 is given from 2 and a binarization threshold is given from the threshold register 104, and a rightward correction coefficient KH1 and a correction value H1 are calculated.
[0043]
FIG. 4 shows the configuration of the correction calculation means (301 to 304). In the subtracter 401, the pixel value of the error propagation pixel is subtracted from the binarized threshold value from the threshold value register 104, and the subtraction result is output as the correction value H. The pixel level of the error propagation pixel is determined by the input level determination unit 402, and the average error propagation coefficients KHa and KHb are selected based on the determination result. The selected average error propagation coefficient (KHa or KHb) is multiplied by the correction value coefficient Kv (Kv <1) from the coefficient register 107 to output a correction coefficient KH. As described above, the correction coefficients KH1 to KH4 and the correction values H1 to H4 for the respective error propagation directions are calculated in the first to fourth correction calculation units 301 to 304.
[0044]
FIG. 5 shows the configuration of the coefficient control unit 206. The coefficient control unit 206 is provided with selectors 501 to 504 for each error propagation direction. The selector 501 provided corresponding to the error propagation direction (right direction) selects either the correction coefficient HK1 or the error propagation coefficient KT1 by the input change determination signal 1 that determines the input change in the right direction, and simultaneously corrects it. A value H and 0 (0 is used as a correction value and error value selection signal in the propagation error calculation unit 109) are also selected. At this time, a correction coefficient and a correction value, and an error propagation coefficient and 0 are selected in combination. If the input change determination signal 1 indicates that there is a large pixel value change in the right direction, the propagation error calculation unit 109 selects a set of the correction coefficient KH1 and the correction value H1 for calculating the substitution error. If the input change determination signal 1 does not indicate that there is a large pixel value change in the right direction, a set of error propagation coefficients KT1 and 0 is selected as usual. The error propagation coefficient KT1 or the correction coefficient KH1 selected by the selector 501 is output to the propagation error calculation unit 109 as the error propagation coefficient K1, and 0 or the correction value H1 is output as the correction value P1. Similarly, the other selectors 502 to 504 select a combination of the correction coefficient and the correction value or the error propagation coefficient and 0 in accordance with the input change determination signals 2 to 4 in the respective directions.
[0045]
FIG. 6 shows the configuration of the propagation error calculation unit 109. In the propagation error calculation unit 109, the correction values P1, P2, P3, P4 in each direction from the propagation coefficient determination unit 111 to the selectors 601 to 604 provided for each error propagation direction, error propagation coefficients K1, K2, K3, K4. The binarization error E from the binarization error calculation unit 108 is input.
[0046]
The selectors 601 to 604 select the inputs to the multipliers 605 to 608 based on the corresponding error propagation direction correction values P1, P2, P3, and P4. Specifically, when the correction value P is 0, the binarization error E from the binarization error calculation unit 108 is selected, and when it is not 0, the correction values P1, P2, P3, and P4 are selected. As described above, by selecting the error E and the correction value P in accordance with the input change of the pixel value for each error propagation direction, it is possible to suppress whiteout and blackout at the edge of the image.
[0047]
Multipliers 605 to 608 multiply the results selected by the selectors 601 to 604 and error propagation coefficients (or correction coefficients) K1, K2, K3, and K4 in the respective error propagation directions. The output of the multiplier 605 that has calculated the propagation error in the right direction is output to the error adder 102 as an error E1 to the next pixel, and the outputs of the multiplier 606, the multiplier 607, and the multiplier 608 are output to the error accumulation unit 609. Then, the error accumulation unit 609 accumulates errors for three pixels and outputs them to the error memory 110 as an error Emi to the next line.
[0048]
The normal processing and edge portion processing will be described with reference to FIG.
[0049]
First, as shown in FIG. 7, there are inputs D11 to D32 for the current line and the next line, and the error propagation coefficient is Kr in the right direction, Kdl in the lower left direction, Kd in the lower left direction, and Kdr in the lower right direction as viewed from the target pixel. Yes, when the binarization errors at D11, D21, D31, and D12 are e1, e2, e3, and e4, what happens to the propagation error and substitution error at D22 will be described in the normal processing and edge processing .
[0050]
In the case of normal processing, no edge portion exists in any error propagation direction as viewed from the target pixel D22 that receives an error from the surrounding pixels. The target pixel D22 becomes an error propagation pixel when the propagation error is determined in the peripheral pixels D11, D21, D31, and D12. At the time of determining each propagation error in the peripheral pixels D11, D21, D31, and D12, the propagation coefficient determining unit 111 sets the error propagation coefficient = KT and the correction value = as the error propagation coefficient K and the correction value P in the direction in which the target pixel D22 exists. 0 is output.
[0051]
Therefore, errors e1, e2, and e3 obtained by multiplying the error E output from the binarization error calculation unit 108 and the error propagation coefficient KT in the corresponding direction when determining the propagation error in the peripheral pixels D11, D21, and D31 are errors. An error e4, which is stored in the memory 110 and multiplied by the error propagation coefficient KT in the left direction and the error E output from the binarization error calculation unit 108 when determining the propagation error in the left adjacent pixel D12, is input to the error addition unit 102. Is done. As a result, when the target pixel D22 becomes the target pixel in the error adding unit 102, the error with respect to D22 is determined by the sum of errors from the surrounding pixels (upper left, upper, upper right, left) as shown in Equation (1). To do.
[0052]
E = e1 * Kdr + e2 * Kd + e3 * Kdl + e4 * Kr (1)
In the case of edge processing, it is assumed that there is an edge of an image between D21 and D31 on the upper right when viewed from the target pixel D22 that receives an error from surrounding pixels. When the coefficient control unit 206 determines the propagation error in each direction of D31, the correction coefficient = HK and the correction value output from the correction calculation unit 210 as the error propagation coefficient K and the correction value P in the direction in which the target pixel D22 exists. = H is output. Propagation error calculation unit 109 given correction coefficient = HK and correction value = H as error propagation coefficient K and correction value P stops to propagate the error of D31 as the propagation error for pixel of interest D22 and corrects the correction coefficient. = Alternative error determined from HK and correction value = H is set in the error memory 110 so as to propagate. The substitution error is obtained by multiplying a subtraction value obtained by subtracting the pixel value of D22 from the binarization threshold value and a multiplication value obtained by multiplying the set coefficient by the error propagation coefficient in the direction.
[0053]
As described above, when there is an edge of the image between D21 and D31, the error is received from the upper left, the upper, and the left, and the substitution error to the lower left of D22 is added instead of the error propagated from the upper right. , D22 is determined as a propagation error. As a result, when the target pixel D22 becomes the target pixel in the error adding unit 102, as shown in Expression (2), the sum of the error from the surrounding pixels (upper left, upper, left) and the substitution error from the upper right is calculated as D22. The error for is determined.
[0054]
E = e1 × Kdr + e2 × Kd
+ (Th−D22) × Kv × Kdl + e4 × Kr (2)
FIG. 8 is a diagram for explaining a correction value when the target pixel level is Di. The precondition is that the binarization threshold is Th, the error propagation coefficient is Kr in the right direction as viewed from the target pixel,
The lower left direction is Kdl, the lower direction is Kd, and the lower right direction is Kdr.
[0055]
First, the correction target value H is indicated by the difference between the binarization threshold and the target pixel level.
[0056]
H = Th−Di (3)
Next, an actual correction value is obtained by multiplying by a setting coefficient Kv (Kv <1) for determining an actual edge correction value. By setting the setting coefficient Kv to 1 or less, a correction value that does not exceed the correction target value can be obtained.
[0057]
Hall = H × kv
This corresponds to the sum of correction values when all error propagation directions are edges.
[0058]
Next, an actual correction value for each direction of error propagation is obtained.
[0059]
Taking the right direction as an example, it can be obtained by multiplying the actual correction value by the error propagation coefficient in the right direction.
[0060]
Hr = Hall × Kr
In this way, it is possible to obtain a correction value for each direction by each error propagation coefficient, and the error propagation coefficient is Kr + Kdl + Kd + Kdr = 1, so that the sum of correction values (Hr + Hdl + Hd + Hdr) when all directions are edges. ) Becomes Hall.
[0061]
The contents of the edge correction process in the edge correction value calculation unit 106 will be described. As described above, the end correction value calculation unit 106 includes the same components as the propagation error calculation unit 109 illustrated in FIG. 6 and the propagation coefficient determination unit 111 illustrated in FIG.
[0062]
The edge correction value calculation unit 106 inputs the pixel value of the target pixel of the current line data as the pixel data D input to the four first to fourth correction calculation units 301 to 304 of the correction calculation unit 210. Thereby, it is possible to calculate a correction value necessary for the edge processing. First, the correction target value H in FIG. 8 is obtained by subtracting the pixel value Di of the pixel of interest from the binarization threshold Th in the subtraction unit 401 of the first to fourth correction calculation units 301 to 304, respectively. At the same time, in the multipliers 404 of the first to fourth correction calculation units 301 to 304, the averaging coefficient in each direction is multiplied by the setting coefficient Kv to obtain the correction coefficient KH. Next, the coefficient control unit 206 forcibly controls the signal corresponding to the direction from the end among the input change determination signals in the respective directions given from the input change determination unit 207 to the selectors 501 to 504 to the “changed” state. In addition, the error propagation coefficients KT1 to KT4 in each direction given to the selectors 501 to 504 are all set to zero. As a result, the correction value can be set to 0 except in the end direction. Finally, the propagation error calculation unit 109 can add all of E1, E2, E3, and E4 output from the multipliers 605 to 608 to obtain the end correction value.
[0063]
In this way, the end detection signal is input to the input change determination unit in the propagation coefficient determination unit 111 without adding the correction value using the end correction value calculation unit 106 and the correction value addition unit 101 in this way, and the change determination is performed. By reflecting the correction value in the signal, the same effect can be obtained even if the correction value is temporarily stored in the error memory, read out, and added by the error adder. The edge detection signal is reflected in the change determination signal by forcing the change determination signal in the edge direction to be changed during edge processing.
[0064]
【Example】
FIG. 9A shows a part of an image subjected to conventional error diffusion processing without dot delay processing. The original image has a periphery of 127, a square of 254, and 256 gradations. The generation of dots in the square is delayed, and the texture appears at the bottom of the square.
[0065]
FIGS. 9B to 9E are images obtained by error-diffusing the same original image by dot delay processing. The setting coefficient Kv is changed to 0/64, 25/64, 50/64, 64/64, respectively. Due to the dot delay processing, the texture at the bottom of the square has disappeared, and when Kv is brought close to 1, the position of the dot occurrence in the square has moved to the upper left. And when it becomes 1 (64/64), it has reached the inside of the square. A Kv of about 50/64 seems to be suitable.
[0066]
FIG. 10A shows an image subjected to conventional error diffusion processing. The original image (within the black frame) has a periphery of 254 and a square of 127 and 256 gradations. Dot delay occurs at the top and left edges. In addition, a texture appears at the top of the square. In addition, dot delay occurs on the right and lower backgrounds of the square.
[0067]
FIG. 10B shows an error diffusion process for the same original image as that shown in FIG. 10A by using the dot delay processing with the input level difference of the present invention and the dot delay processing at the upper and left ends. It is an image with The texture at the top of the square and the dot delay at the right and bottom of the square are resolved by dot delay processing with level differences. Further, the dot delay at the upper end and the left end is solved by dot delay processing at the end.
[0068]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to significantly suppress white spots and blackouts that occur in a portion corresponding to the edge of a document or a portion where black and white changes rapidly, thereby improving image quality. It is possible to provide an image processing apparatus capable of performing the above.
[Brief description of the drawings]
FIG. 1 is an overall view of an image processing apparatus according to an embodiment of the present invention. FIG. 2 is a configuration diagram of an error coefficient determination unit in the image processing apparatus according to the embodiment. FIG. 4 is a block diagram of correction calculation means in the correction calculation unit shown in FIG. 3. FIG. 5 is a block diagram of a coefficient control unit in the error coefficient determination unit shown in FIG. FIG. 7 is an explanatory diagram illustrating a correction value adding method. FIG. 8 is an explanatory diagram illustrating a correction value. FIG. 9 is a diagram in which a correction coefficient is changed. FIG. 10 is a diagram showing the effect when the present invention is carried out. FIG. 11 is a configuration diagram of a conventional error diffusion circuit.
101 correction value adding unit 102 error adding unit 103 binarizing means 104 threshold register 105 edge detecting unit 106 edge correction value calculating unit 107 coefficient register 108 binarized error calculating unit 109 propagation error calculating unit 110 error memory 111 propagation error determining unit 201 Coefficient selection unit 204 of error coefficient memories 202 and 203 Random number generation unit 205 Coefficient selection unit 206 Coefficient control unit 207 Input change determination unit 208 Input level determination units 209-1 and 209-2 First averaging means 210 Correction calculation unit

Claims (1)

原稿画像を画素単位に分解して多値レベルの画信号に変換された入力画素を入力する入力手段と、原稿の端を判定する端判定手段と、原稿の端であると判定されたとき所定の2値化閾値から前記入力画素である端画素値を減算した補正値と補正係数とから代替誤差を算出してこれを端補正値とする端補正値演算手段と、前記端補正値を前記端画素に加算する補正値加算手段と、前記端補正値が加算された前記端画素と前ラインからの誤差および前画素からの誤差を加算する誤差加算手段と、前記誤差加算手段により加算された誤差補正済み画素データを前記2値化閾値により2値化して出力する2値化手段とを具備した画像処理装置。An input unit that inputs input pixels that are decomposed into pixel units and converted into a multilevel image signal, an end determination unit that determines the end of the original, and predetermined when it is determined that the end of the original is the end of the original An edge correction value calculating means for calculating an alternative error from the correction value obtained by subtracting the edge pixel value as the input pixel from the binarization threshold and the correction coefficient, and using the edge correction value as the edge correction value; Correction value adding means for adding to the end pixel , error adding means for adding the error from the end pixel and the previous line to which the end correction value has been added, and the error from the previous pixel, and the error adding means An image processing apparatus comprising: binarization means for binarizing and outputting error-corrected pixel data by the binarization threshold value .
JP09495298A 1998-04-07 1998-04-07 Image processing device Expired - Fee Related JP4460079B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP09495298A JP4460079B2 (en) 1998-04-07 1998-04-07 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09495298A JP4460079B2 (en) 1998-04-07 1998-04-07 Image processing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008103724A Division JP4189437B2 (en) 2008-04-11 2008-04-11 Image processing device

Publications (2)

Publication Number Publication Date
JPH11298734A JPH11298734A (en) 1999-10-29
JP4460079B2 true JP4460079B2 (en) 2010-05-12

Family

ID=14124289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09495298A Expired - Fee Related JP4460079B2 (en) 1998-04-07 1998-04-07 Image processing device

Country Status (1)

Country Link
JP (1) JP4460079B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5219591B2 (en) 2008-04-02 2013-06-26 キヤノン株式会社 Image processing apparatus and method

Also Published As

Publication number Publication date
JPH11298734A (en) 1999-10-29

Similar Documents

Publication Publication Date Title
US6771832B1 (en) Image processor for processing an image with an error diffusion process and image processing method for processing an image with an error diffusion process
JP4150316B2 (en) Image reading apparatus and shading correction method for the same
JP4460079B2 (en) Image processing device
JP4189437B2 (en) Image processing device
JPS62242473A (en) Pseudo halftone image processor
JP3165225B2 (en) Image processing apparatus and image processing method
JP2755307B2 (en) Image processing device
JP2717020B2 (en) Image processing device
JPH07302190A (en) Divider and image signal reader using the same
JP3679260B2 (en) Image processing device
JP3142699B2 (en) Image processing device
JP3549475B2 (en) Image processing method
JP3157870B2 (en) Image processing method
JP3742227B2 (en) Image data binarization processing circuit and method
JP3787890B2 (en) Image processing device
JPH0197066A (en) Picture processing method
JP2857906B2 (en) Halftone binarization processor
JP3374551B2 (en) Image processing device
JP2553799B2 (en) Image processing device
JPH0822017B2 (en) Image signal processor
JPH0822016B2 (en) Image signal processor
JP2001211323A (en) Image processing apparatus
JPH06217140A (en) Image processor
JPH02210959A (en) Picture processor
JP2001136389A (en) Picture processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080311

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080507

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080612

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080819

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100212

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140219

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees