JP2004088201A - Image processor, image processing method, document edition processing method, program, and memory medium - Google Patents

Image processor, image processing method, document edition processing method, program, and memory medium Download PDF

Info

Publication number
JP2004088201A
JP2004088201A JP2002243108A JP2002243108A JP2004088201A JP 2004088201 A JP2004088201 A JP 2004088201A JP 2002243108 A JP2002243108 A JP 2002243108A JP 2002243108 A JP2002243108 A JP 2002243108A JP 2004088201 A JP2004088201 A JP 2004088201A
Authority
JP
Japan
Prior art keywords
image
data
image data
image processing
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002243108A
Other languages
Japanese (ja)
Inventor
Shinichi Kato
加藤 進一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002243108A priority Critical patent/JP2004088201A/en
Publication of JP2004088201A publication Critical patent/JP2004088201A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To more raise the degree of freedom in an image process of individual input image data even in a bookbinding for binding into one sheet of image page, and to apply a more optimum image process for adjusting the characteristics or images of individual image data to generate high-quality image data. <P>SOLUTION: Before carrying out bookbinding, a CPU 600 controls an intermediate image processor 300 to apply independently an image processing equivalent to gamma correction or the like to each of a plurality of inputted image data executable by an output image processor 400. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、入力された複数の画像データを1枚の画像データに結合し、1枚の画像データとして出力する結合製本プリント、縮小レイアウトプリントを実行可能な画像処理装置および画像処理方法および文書編集処理方法およびプログラムおよび記憶媒体に関するものである。
【0002】
【従来の技術】
従来の画像処理装置では、1枚の入力画像データを1枚で出力する際には、その1枚の画像データに対して最適な画像処理もしくは操作部から指定される各種調整機能に基づいて、最適な処理を施し出力を行っていた。
【0003】
【発明が解決しようとする課題】
しかしながら、複数の入力画像データを、例えば、2枚の画像データを読み取って、それを1枚のページの中にレイアウトして出力したり、4枚の画像データを読み取って、それを1枚のシートの中に縮小してレイアウトして出力する場合など、入力された1枚1枚の画像データに対して固有の画像処理を行うことは難しく、すなわち結合もしくはレイアウト後に1枚になってしまった画像データに対しては、全体に同じ画像処理を施すことしかできなかった。そのため、単面でコピーするときのように、入力された1枚1枚に対して、それぞれ固有の処理や、調整を施すことができなかった。
【0004】
例えば、4枚の入力画像を1枚のページの中に縮小してレイアウトする場合、4枚の入力画像個々にカラーバランス調整を別々に施したい場合でも、従来では、1枚の中にレイアウトされた4枚の縮小画像個々に、カラーバランス調整を施すことはできず、縮小レイアウト後の1枚全体に対してカラーバランスを施していため、実際には、4枚の入力画像個々に、調整値が異なるにも関わらず、全て同じ調整値でカラーバランス調整がされてしまっていたという問題点があった。
【0005】
本発明は、上記の問題点を解決するためになされたもので、本発明の目的は、結合製本を行う際に、結合製本する画像ページ個々に対する固有の画像処理を、結合される前に各々独立に施すことにより、結合後1枚の画像ページになってしまう結合製本時でも、入力画像データ個々に対する画像処理の自由度がより高まり、個々の画像データの特性もしくは画像調整に対して、より最適な画像処理を施すことが可能になるため、高画質の画像データを生成することができる画像処理装置および画像処理方法および文書編集処理方法およびプログラムおよび記憶媒体を提供することである。
【0006】
【課題を解決するための手段】
本発明に係る第1の発明は、画像データを入力する入力手段(図2に示すイメージスキャナ部110)と、前記入力手段により入力される画像データに対して複数の画像処理を実行可能な入力画像処理手段(図2に示す入力画像処理部200,中間画像処理部300)と、前記入力画像処理手段により画像処理が施された複数の画像データを1つの画像データに結合した結合画像データを生成する結合処理を実行可能な画像データ結合手段(図4に示す圧縮部309〜315)と、前記入力画像処理手段により画像処理が施された画像データもしくは前記画像データ結合手段により結合された結合画像データに対して複数の画像処理を実行可能な出力画像処理手段(図2に示す出力画像処理部400)と、前記出力画像処理手段により画像処理が施された画像データもしくは結合画像データを出力処理する出力手段(図2に示すプリンタ部500)とを有し、前記入力画像処理手段により実行可能な複数の画像処理は、前記出力画像処理手段により実行可能な所定の画像処理を含むものであり、前記画像データ結合手段により結合処理を行う場合には、前記画像データ結合手段により結合処理される前に、前記入力画像処理手段により、前記入力手段により入力される複数の画像データのそれぞれに対して前記所定の画像処理(図14に示すガンマ補正他S304)をそれぞれ独立に施すように制御する制御手段(図2に示すCPU600)を更に有することを特徴とする。
【0007】
本発明に係る第2の発明は、前記入力手段により入力される画像データに対して画素ごとの属性情報を示す属性フラグデータを生成する属性フラグデータ生成手段(図3に示す像域判定部203)と、前記属性フラグデータ生成手段によりそれぞれ生成された複数の属性フラグデータを1つの属性フラグデータに結合した結合属性フラグデータを生成する属性フラグ結合手段(図4に示す圧縮部309〜315)とを有し、前記入力画像処理手段は、前記入力手段により入力される画像データに対して、該画像データに対応する属性フラグデータに基づく画像処理を施すものであり、前記出力画像処理手段は、前記入力画像処理手段により画像処理が施された画像データもしくは前記画像データ結合手段により結合された結合画像データに対して、該画像データもしくは該結合画像データに対応する属性フラグデータもしくは結合属性フラグデータに基づく画像処理を施すものであり、前記制御手段は、前記画像データ結合手段により結合処理を行う場合には、前記画像データ結合手段により結合処理される前に、前記入力手段により入力される複数の画像データのそれぞれに対して、各画像データに対応する属性フラグデータに基づいて、前記入力画像処理手段により前記所定の画像処理をそれぞれ独立に施すように制御することを特徴とする。
【0008】
本発明に係る第3の発明は、前記所定の画像処理は、ガンマ補正処理を含むことを特徴とする。
【0009】
本発明に係る第4の発明は、前記画像データもしくは結合画像データを圧縮/解凍する画像データ圧縮/解凍手段を有することを特徴とする。
【0010】
本発明に係る第5の発明は、前記画像データもしくは結合画像データを圧縮/解凍する画像データ圧縮/解凍手段(図4に示す圧縮部309〜321)と、前記属性フラグデータもしくは結合属性フラグデータを圧縮/解凍する属性フラグデータ圧縮/解凍手段(図4に示す圧縮部309〜321)とを有することを特徴とする。
【0011】
本発明に係る第6の発明は、画像データを入力する入力工程(図14のステップS301,図15のステップS401)と、該入力される画像データに対して複数の画像処理を実行する入力画像処理工程(図14のステップS302〜305,図15のステップS402〜S405)と、該画像処理が施された複数の画像データを1つの画像データに結合した結合画像データを生成する結合処理を実行する画像データ結合工程(図14のステップS306,図15のステップS406)と、前記画像データもしくは前記結合画像データに対して複数の画像処理を実行する出力画像処理工程(図14のステップS307,図15のステップS407)と、該画像処理が施された画像データもしくは結合画像データを出力処理する出力工程(図14のステップS308,図15のステップS408)とを有し、前記入力画像処理工程は、前記結合処理を行う場合には、前記画像データ結合工程により結合処理される前に、前記入力される複数の画像データのそれぞれに対して、前記出力画像処理工程により実行可能ないずれかの画像処理と同等の所定の画像処理(図14のステップS304,図15のステップS403)を、それぞれ独立に施すことを特徴とする。
【0012】
本発明に係る第7の発明は、入力される各画像データに対して画素ごとの属性情報を示す属性フラグデータを生成する属性フラグデータ生成工程(図14のステップS302,図15のステップS402)と、生成された複数の属性フラグデータを1つの属性フラグデータに結合した結合属性フラグデータを生成する属性フラグ結合工程(図14のステップS306,図15のステップS406)とを有し、前記入力画像処理工程は、入力される画像データに対して、該画像データに対応する属性フラグデータに基づく画像処理を施すものであり、前記出力画像処理工程は、画像データもしくは結合画像データに対して、対応する属性フラグデータもしくは結合属性フラグデータに基づく画像処理を施すものであり、前記入力画像処理工程は、前記結合処理を行う場合、結合処理される前に、入力される複数の画像データのそれぞれに対して、各画像データに対応する属性フラグデータに基づいて、前記所定の画像処理をそれぞれ独立に施すことを特徴とする。
【0013】
本発明に係る第8の発明は、前記所定の画像処理(図14のステップS304,図15のステップS403)は、ガンマ補正処理を含むことを特徴とする。
【0014】
本発明に係る第9の発明は、前記画像データもしくは結合画像データを圧縮/解凍する画像データ圧縮/解凍工程(図14のステップS305,S306,図15のステップS405,S406)を有することを特徴とする。
【0015】
本発明に係る第10の発明は、前記画像データもしくは結合画像データを圧縮/解凍する画像データ圧縮/解凍工程(図14のステップS305,S306,図15のステップS405,S406)と、前記属性フラグデータもしくは結合属性フラグデータを圧縮/解凍する属性フラグデータ圧縮/解凍工程(図14のステップS305,S306,図15のステップS405,S406)とを有することを特徴とする。
【0016】
本発明に係る第11の発明は、請求項6〜10のいずれかに記載された画像処理方法を実行するためのプログラムであることを特徴とする。
【0017】
本発明に係る第12の発明は、請求項6〜10のいずれかに記載された画像処理方法を実行するためのプログラムを記憶媒体にコンピュータが読み取り可能に記憶させたことを特徴とする。
【0018】
本発明に係る第13の発明は、複数の文書データから1つの結合文書を作成する文書編集処理方法であって、複数の文書データから1つの結合文書データを作成する結合ステップ(図14のステップS306,図15のステップS406)と、文書データに対して所定の処理を行う処理ステップ(図14のステップS304,S307,図15のステップS403,ステップS407)とを有し、前記結合ステップにおける結合処理後の1つの結合文書データに対して前記処理ステップによる前記所定の処理を実行せずに、前記結合ステップにおける結合処理に先立ち、前記複数の文書データの各文書データ毎の前記処理ステップにおける前記所定の処理を実行可能に制御する制御ステップ(図14のステップS304〜S307,図15のステップS403〜S407)を有することを特徴とする。
【0019】
本発明に係る第14の発明は、前記文書データは、コピー機能及びプリント機能及びファクシミリ機能及びボックス機能のうちの少なくとも何れかの機能における文書データであることを特徴とする。
【0020】
本発明に係る第15の発明は、前記結合ステップにおける結合処理後の1つの結合文書データに対して前記処理ステップによる前記所定の処理を実行可能にするシーケンス、及び前記結合ステップにおける結合処理に先立ち、前記複数の文書データの各文書データ毎の前記処理ステップにおける前記所定の処理を実行可能にするシーケンスを、選択可能にすることを特徴とする。
【0021】
本発明に係る第16の発明は、請求項13〜15のいずれかに記載された文書編集処理方法を実行するためのプログラムであることを特徴とする。
【0022】
本発明に係る第17の発明は、請求項13〜15のいずれかに記載された文書編集処理方法を実行するためのプログラムを記憶媒体にコンピュータが読み取り可能に記憶させたことを特徴とする。
【0023】
【発明の実施の形態】
〔第1実施形態〕
以下、本発明の実施形態について図面を用いて説明する。
【0024】
図1は、本発明の第1実施形態を示す画像処理装置を適用可能なマルチファンクションデジタル画像入出力機器(デジタル画像機器)を示す側断面図であり、特にカラー機器の構成について示す。
【0025】
図において、1300は画像処理装置で、原稿画像を読み取るイメージリーダ部(画像入力部)1301と、イメージリーダ部1301で読み取った画像データを再現するプリンタ部(画像出力部)1302とに大きく分けられる。
【0026】
イメージリーダ部1301は、ここでは400dpi(dots/inch)の解像度で原稿を読み取り、デジタル信号処理を行う部分である。プリンタ部1302は、イメージリーダ部1301によって読み取られた原稿画像に対応した画像を指定用紙にフルカラープリント出力する部分である。
【0027】
イメージリーダ部1301において、原稿台ガラス(以下、プラテン)1303上の原稿1304は、ランプ1305で照射され、ミラー1306,1307,1308に導かれ、レンズ1309によって、集光された光を電気信号に変換する3ラインセンサ(以下、CCD)1310上に像を結び、フルカラー情報レツド(R)、グリーン(G),ブルー(B)成分として信号処理部1311に送られる。なお、ランプ1305,ミラー1306を固定しているキャリッジは速度Vで、ミラー1307,1308は速度1/2Vでラインセンサの電気的走査(主走査)方向に対して垂直方向に機械的に動くことによって、原稿全面を走査(副走査)する。
【0028】
信号処理部1311においては、読み取られた画像信号を電気的に処理し、後述する図2に示す画像処理を施された後、マゼンタ(M),シアン(C),イエロー(Y),ブラツク(Bk)の各成分に分解される。
【0029】
M,C,Y,Bkの各画像信号は、レーザドライバ1312に送られる。レーザドライバ1312は、送られてきた画像信号に応じ、半導体レーザ1313を変調駆動する。レーザ光は、ポリゴンミラー1314,f−θレンズ1315、ミラー1316を介し、感光ドラム1317上を走査する。1318は回転現像器であり、マゼンタ(M)現像部1319,シアン(C)現像部1320,イエロー(Y)現像部1321、ブラツク(Bk)現像部1322より構成され、4つの現像部が交互に感光ドラム1317に接し、感光ドラム上に形成された潜像をトナーで現像する。
【0030】
1323は転写ドラムであり、用紙カセツト1324または1325より供給される用紙をこの転写ドラム1323に巻き付け、感光ドラム1317上に現像された像を用紙に転写する。この様にして、M,C,Y,Bkの4色が順次転写された後に、用紙は定着ユニット1326を通過して、トナーが用紙に定着された後に排紙される。
【0031】
なお、ここでは、プリンタ部(プリンタエンジン)がレーザビーム方式である場合を例にして説明したが、レーザビーム方式以外の電子写真方式(例えばLED方式)でも、液晶シャッタ方式、インクジェット方式、熱転写方式、昇華方式でもその他のプリント方式であっても本発明は適用可能である。
【0032】
図2は,本発明の画像処理装置を適用可能な画像の入力,蓄積,出力手段を有するデジタル画像機器のブロック図である。
【0033】
図において,100は画像入力系を切り替えるセレクタ、200は後述する所定の画像処理を施す入力画像処理部、300は後述する画像処理を施す中間画像処理部、400は後述する画像処理を施す出力画像処理部である。
【0034】
画像入力手段からの信号としては、図1に示したイメージリーダ部1301に相当するイメージスキャナ部110からの信号や、ネットワークやLAN等の所定の通信媒体を介して入力した外部装置(コンピュータ)からの受信データを印刷できる状態にする為の展開処理を施すページ記述言語(PDL)のレンダリング部120からの信号があり、複写機の場合はイメージスキャナ部110から、コントローラの場合はレンダリング部120から等、用途に応じてセレクタ100を切り替えて使用される。セレクタ100より入力された信号は、図1に示した信号処理部1311に相当する入力画像処理部200,中間画像処理部300,出力画像処理部400で画像処理され、図1に示したプリンタ部1302に相当するプリンタ部500に入力される。
【0035】
なお、本実施形態の画像処理装置1300は、イメージスキャナ部110で読み取った原稿データのプリント処理を行うコピー機能、及び上述の所定の通信媒体を介して外部装置から入力したデータのプリント処理を行うプリント機能や、不図示の電話回線からのデータのプリント処理を行うファクシミリ機能等の複数の機能を有しているが、後述する本発明は、1つの機能を有する画像処理装置でも、複数の機能を有する画像処理装置でも、適用可能である。
【0036】
また、本実施形態の画像処理装置1300は、通常のコピーモード(後述の単面コピーモードなど)等の画像形成モードを有している他にも、複数ページ分(Nページ分。Nは自然数)の文書データを1枚のシートの同一面上に配列形成させる結合プリントモード(Nin1モードとも称される。該モードについては後述する)等の複数の画像形成モードを有しており、操作者からの設定に従って、所望のモードを選択的に実行可能にしている。
【0037】
600はCPUで、ROM700又はその他の記憶媒体に格納されるプログラムに基づいて画像処理装置全体を統括制御する。なお、RAM800はCPU600の作業領域として用いられる。
【0038】
図3は、図2に示した入力画像処理部200の構成を示すブロック図である。
【0039】
図において、201は副走査色ズレ補正部で、入力画像の副走査方向の色ズレを補正するものであり、例えば画像データの色ごとに「1×5」のマトリクス演算を行う処理から構成される。
【0040】
202は主走査色ズレ補正部で、入力画像の主走査方向の色ズレを補正するものであり、例えば画像データの色ごとに「5×1」のマトリクス演算を行う処理から構成される。
【0041】
203は像域判定部で、入力画像中の画像種類を識別するものであり、例えば入力画像中の、写真部分/文字部分、有彩色部分/無彩色部分など、それぞれの画像種類を構成する画素を識別し、その種別を示す属性フラグデータを画素単位で生成できる。詳細に関しては、後述する図8,図9,図10において説明する。
【0042】
204はフィルタ処理部で、入力画像の空間周波数を任意に補正するものであり、例えば「9×9」のマトリクス演算を行う処理から構成される。
【0043】
205はヒストグラム処理部で、入力画像中の画像信号データのヒストグラムをサンプリングするものであり、入力画像がカラーであるのか、モノクロ画像であるのか判別したり、入力画像の下地レベルの判定に使用される。
【0044】
206は入力色補正部で、入力画像の色味の補正を行うものであり、例えば入力画像の色空間を任意の色空間に変換したり、入力系の色味に関する補正処理を行う部分である。
【0045】
以上のように、入力画像処理部200で処理された画像データと、像域判定部203で生成された属性フラグデータは、中間画像処理部300へ転送される。
【0046】
なお、ページ記述言語(PDL)のレンダリング部120で属性フラグデータの生成や、入力画像処理部200の画像処理などがすでに施されている場合には、入力画像処理部200での処理をスルーさせてもよいし、入力画像処理部200を通さずに、中間画像処理部300に画像データと属性フラグデータが入る構成にしてもよい。
【0047】
また、入力画像処理部200内の構成は、上述した副走査色ズレ補正部201,主走査色ズレ補正部202,像域判定部203,フィルタ処理部204,ヒストグラム処理部205,入力色補正部206だけに限るものではなく、他の画像処理モジュールが追加されてもよいし、削除されてもよいし、処理の順番に関しても、これに限るものではない。
【0048】
図4は、図2に示した中間画像処理部300の構成を示すブロック図である。
【0049】
図3に示した入力画像処理部200によって処理を施された画像データは、属性フラグデータと共に、中間画像処理部300に転送された後、以下の処理が施される。
【0050】
図において、301は属性フラグ付替部(フラグ付替部)で、属性フラグデータの付け替えや付加を行うものである。属性フラグ付替部301の詳細は図12で説明するが、302〜322の各種画像処理や圧縮処理を行う前もしくは後に必要に応じて、入力画像処理部200内の像域判定部203で生成した属性フラグデータの付け替え処理を行ったり、属性フラグデータの付加を行う処理部である。
【0051】
302は下地飛ばし部で、画像データの地色を飛ばし、不要な下地のカブリ除去を行うものであり、例えば「3×8」のマトリクス演算や、1次元LUTにより下地飛ばしを行う。
【0052】
303はモノクロ生成部で、カラー画像データをモノクロデータに変換し、単色としてプリントする際に、カラー画像データ、例えばRGBデータを、Gray単色に変換するものである。このモノクロ生成部303は、例えばRGBに任意の定数を掛け合わせ、Gray信号とする「1×3」のマトリクス演算から構成される。
【0053】
304は出力色補正部で、画像データを出力するプリンタ部の特性に合わせて色補正を行うものであり、例えば「4×8」のマトリクス演算や、ダイレクトマッピングによる処理から構成される。
【0054】
305はフィルタ処理部で、画像データの空間周波数を任意に補正するものであり、例えば9×9のマトリクス演算を行う処理から構成される。
【0055】
306はガンマ補正部で、出力するプリンタ部の特性に合わせて、ガンマ補正を行うものであり、CMYBkの各色の濃度バランスを調整するカラーバランス調整や、全体の濃度の増減を調整させることができる濃度調整などを、通常1次元のLUTにより実現させる。
【0056】
307は中間調処理部で、出力するプリンタ部の階調数に合わせて任意の中間調処理を行うものであり、2値化や32値化など、任意のスクリーン処理や、誤差拡散処理を行うものである。
【0057】
322は縮小処理部で、画像データを任意の倍率に縮小処理を行うモジュールである。
【0058】
308は、画像データ,属性フラグデータが通る画像バスである。
【0059】
309は圧縮ブロックラインバッファ(ラインバッファ)で,画像データと属性フラグデータをタイル分割し、(タイルの大きさを「M×N」とすると)このタイル「M×N」画素毎に、カラー情報の符号化である離散コサイン変換符号化(JPEG)と属性フラグデータ情報の符号化であるランレングス符号化に分けて符号化を行う。ただし、M,Nは離散コサイン変換符号化のためのウィンドウサイズの倍数でなければならない。本実施形態では、JPEG圧縮方式の場合を説明するが、JPEG圧縮方式では圧縮のためのウィンドウサイズは「8×8」画素であるので、例えば「M=N=32」とすると「32×32」画素タイルの中をさらに16個の「8×8」画素に分割して「8×8」画素単位でJPEG圧縮を行う。以後、「M=N=32」として説明するが、もちろんその値に限定されるわけではない。
【0060】
310は画像データ符号化部で、「32×32」画素のタイル画像に含まれる16個の「8×8」画素ウィンドウに対し周知のDCT変換を施して量子化する。このときに用いる量子化係数(量子化マトリクスと呼ぶ)は、タイルごとに切り替えて設定できるようになっている。
【0061】
切り替えは、ある所定の画像データ「32×32」画素1タイルに対応した「32×32」画素の属性フラグデータを判定部311で参照し、例えば、「32×32」画素の属性フラグデータの中に1画素でも文字を示す属性が入っていた場合には、その「32×32」画素から構成される画像データ1タイルは、「文字タイル」とみなし、その画像データ1タイルは文字用の符号化係数により、圧縮を行う。
【0062】
一方、1画素でも文字を示す属性が入っていなかった場合には、その画像データ1タイルは「写真タイル」とみなし、その画像データ1タイルは、写真用の符号化係数により圧縮を行うよう量子化マトリクス選択部312に指令を出し、量子化マトリクス選択部312では、所定の符号化係数を選択し、画像データ符号化部310へ設定し、タイルごとに異なる圧縮係数により、画像データの圧縮を行う。
【0063】
属性フラグデータは、属性フラグ符号化部313において圧縮が行われる。符号化された画像データ、属性フラグデータは,圧縮メモリ314を経由してハードディスク315に,圧縮画像データ、圧縮属性フラグデータとして記憶される。
【0064】
記憶された画像をプリンタ部500から出力する際、もしくは、属性フラグデータの付け替え処理を属性フラグ付け替え部301で施す場合には、ハードディスク315に記憶されている画像データおよび属性フラグデータを読み出し、以下の手順で復号化して出力する。
【0065】
まず、圧縮して記憶された画像データと属性フラグを圧縮メモリ316に取り出し、属性フラグデータの「M×N」画素分のデータを属性フラグ復号化部320で復号する。なお、この圧縮メモリ316は、先の圧縮メモリ314と同じであっても構わない。
【0066】
次に、属性フラグデータの復号結果により,判定部318で属性判定処理を行い、即ち上述したように、各画像データの1タイルが文字タイルなのか写真タイルなのかを、属性フラグデータから判定し、量子化マトリクス選択部319に対してタイル毎の圧縮復号化係数を選択するよう指令を送る。
【0067】
量子化マトリクス選択部319においては、タイル毎に使用する圧縮復号化係数を選択し、画像データ復号化部317へと送り、画像データ復号化部317では、タイル毎に係数を切り替えて画像データを復号化処理し,その後ラインバッファ321に出力する。
【0068】
なお、判定部311と判定部318では全く同じ判定が行われ、また属性フラグデータはデータの劣化しないランレングス符号化のような可逆圧縮方式で圧縮されているので、符号化時と復号化時で同一タイルに対応する判定結果は全く等しいものとなる。従ってタイルごとに異なる量子化係数で量子化されていても復号時にはそれぞれに適した逆量子化係数が設定されるので、正しい復号画像データが得られることになる。
【0069】
また、画像データ符号化器310および画像データ復号化器317に関しては、後述する図6、属性フラグデータのランレングス符号化器である属性フラグ符号化器313に関しては後述する図7において詳細に説明する。
【0070】
さらに、中間画像処理部300内の構成は、上述した構成だけに限るものではなく、他の画像処理モジュールが追加されても良いし、削除されても良いし、これに限るものではない。
【0071】
図5は、図2に示した出力画像処理部400の構成を示すブロック図である。
【0072】
出力画像処理部400には、図4に示した各種処理部302〜307と同様な処理が備わっている。
【0073】
図において、401は下地飛ばし部で、画像データの地色を飛ばし、不要な下地のカブリ除去を行うものであり、例えば「3×8」のマトリクス演算や、1次元LUTにより下地飛ばしを行う。
【0074】
402はモノクロ生成部で、カラー画像データをモノクロデータに変換し、単色としてプリントする際に、カラー画像データ、例えばRGBデータを、Gray単色に変換するものであり、例えばRGBに任意の定数を掛け合わせ、Gray信号とする1×3のマトリクス演算から構成される。
【0075】
403は出力色補正部で、画像データを出力するプリンタ部の特性に合わせて色補正を行うものであり、例えば「4×8」のマトリクス演算や、ダイレクトマッピングによる処理から構成される。
【0076】
404はフィルタ処理部で、画像データの空間周波数を任意に補正するものであり、例えば「9×9」のマトリクス演算を行う処理から構成される。
【0077】
405はガンマ補正部で、出力するプリンタ部の特性に合わせて、ガンマ補正を行うものであり、CMYBkの各色の濃度バランスを調整するカラーバランス調整や、全体の濃度の増減を調整させることができる濃度調整などを、通常1次元のLUTにより実現させる。
【0078】
406は中間調処理部で、出力するプリンタ部の階調数に合わせて任意の中間調処理を行うものであり、2値化や32値化など、任意のスクリーン処理や、誤差拡散処理を行う。
【0079】
ここまで、図3,図4,図5を用いて、入力画像処理部200,中間画像処理部300,出力画像処理部400と説明を行ってきたが、各々の画像処理部には、画像データと共に、図3に示した像域判定部203で生成された属性フラグデータ(入力画像中の画像種類を識別するためのもの)も、像域判定部203以降では画像データとともに各処理部を流れ、その属性フラグデータに従って、各々の画像領域に最適な処理係数による画像処理が施される。
【0080】
例えば、図5に示した出力画像処理部400のフィルタ処理部404では、文字領域に対して画像の高周波成分を強調して文字の鮮鋭度を強調し、また網点領域に対してはいわゆるローパスフィルタ処理を行い、デジタル画像に特有のモアレ成分を除去する、といった処理を行う。
【0081】
こうして各処理モジュールで、属性フラグデータに従って、画像領域に対して最適な処理を行うことで、高画質化を行うことができる。なお、この属性フラグデータに関しては、後述する図9で詳細に説明する。
【0082】
図6は,図4に示した画像データ符号化部310および画像データ復号化部317の構成を示すブロック図である。
【0083】
図において、511は入力された画像データ信号で、カラー信号の場合は、赤(R),緑(G),青(B)の3色の画像データ信号である。501は色変換器で,RGB信号を輝度色差信号(YCbCr)に変換する。502は離散コサイン変換(DCT)で,輝度色差信号のそれぞれを「8×8」画素単位で空間周波数変換(DCT変換)を行う。
【0084】
503は量子化器で,設定された量子化マトリクスを用いてDCT係数を量子化することにより,データ量を削減する。504は可変長符号化器(VLC)で量子化値をハフマン符号化処理でデータをさらに削減する。
【0085】
以上がカラー画像符号化部310の構成であり、圧縮された画像データは圧縮メモリ(Memory)505に記憶される。なお、圧縮メモリ(Memory)505は、図4で説明した圧縮メモリ314,316に相当する。圧縮メモリ505(314)に記憶された画像データは、大容量記憶装置HDD315に記憶され、復号化の際には圧縮メモリ500(316)内に格納された後、復号化の処理を行う。
【0086】
圧縮メモリ505に記憶されたデータは以下の手順で復号される。
【0087】
506は可変長復号器(VLD)で、ハフマンデコードをする。507は逆量子化器で、設定された逆量子化マトリクスによりDCT係数値に戻す。508はIDCTで、DCT逆変換を行い、輝度色差信号に戻す。509は色変換器で、輝度色差信号をRGB信号に戻す。510は以上の圧縮、復号処理の結果外部に出力されるカラー画像信号である。
【0088】
図7は、図4に示した属性フラグデータのランレングス符号化器である属性フラグデータ符号化部313の構成を示すブロック図である。
【0089】
図において、600は判定部で、入力される属性フラグデータの前画素の値と現画素の値とが同じかを判定し、同じ場合はRLコード生成部601に、違う場合はLTコード生成部602にデータを送るように切り替える。
【0090】
RLコード生成部601では、前画素データと同じ場合の回数を違うデータが出てくるまでカウントし、最後に、繰返したデータを出力する。
【0091】
LTコード生成部602では、データが前画素と異なる場合の数をカウントして、カウント数に対応する符号語と、実際データの最小構成ビット数をカウント数分だけ出力する。
【0092】
603は合成部で、RLコード生成部601の出力データとLTコード生成部602の出力データを合成してコード604として出力する。
【0093】
以下、図8,図9を参照して、図3に示した像域判定部203により、入力画像データ中に含まれる各々の画像データの属性を検出し、それを識別するための属性フラグデータを生成する具体的な手順について説明する。
【0094】
図8は、図3に示した像域判定部203に像域判定する原稿画像データの一例を示す模式図である。
【0095】
図において、701は入力された原稿画像データの一例を示すものであり、この原稿画像データ701内には、銀塩写真領域702,黒文字領域703,網点印刷領域704,カラーのグラフィック領域705が混在している様子を示している。
【0096】
ここで、スキャナ部110は、この原稿画像をカラーのCCDセンサによって走査し画素ごとのカラーデジタル信号(R,G,B)として読み取る。読み取られたRGB信号は、画像の領域ごとの属性によって決まる特徴を持っている。各領域においてCCD1310が読み取る信号値(R,G,B)のうちのG信号をCCDの並び方向にプロットしてみると、例えば図9のようになる。
【0097】
図9は、各画像属性をCCD1310が読み取った際の読み取り信号値の特性を示す特性図である。
【0098】
図において、820,830,840,850は、それぞれ図8に示した領域702,703,704,705を読み取った場合に特徴的に現れる特性の一例であり、横軸はCCDならび方向の画素位置、縦軸は読み取り信号値で上に行くほど白に近い(明るい)画素であることを表している。
【0099】
各領域ごとの特徴を説明すると、820は写真領域702の特性であるので、読み取られる画像信号の位置による変化は比較的ゆるやかであり、近距離の画素値の差分821は小さな値となる。
【0100】
830は黒文字領域703の特性であり、白地に黒い文字が書かれているので、その信号値のプロットは、白地部831から文字部832にかけて急激に読み取り信号値が変化するような特性となる。
【0101】
840は網点領域704の特性であり、網点領域というのは白地841とその上に印刷された網点842との繰り返しとなるので信号値のプロットしたものは図に示すように白と黒が高い頻度で繰り返す特性となる。
【0102】
850はグラフィック領域705のプロット図であり、グラフィックのエッジ部851では信号値は急激に小さくなり、内部の色塗り部分852は一定の中間レベルがつづくような特性となる。
【0103】
これらの属性を判定するためには、上述したような領域ごとの特徴を読みとり信号値から検出して判定するようにすればよい。そのためには、注目画素近傍での画像データの変化量あるいは変化量の一定区間内の積算値、周辺画素の輝度値(白地か色のついた背景か)、一定区間内の画像データの白から黒への変化の回数等、周知の手法を用いた特徴抽出手法を用い、それに基づいた周知の属性判別手法を用いることができる。このようにして、図8に示した原稿画像データ701に対して生成された属性フラグの一例を図10に示す。
【0104】
図10は、入力画像(図8に示した原稿画像データ701)の属性フラグデータの一例を示す図であり、属性フラグデータとして文字フラグ,図形フラグ,網点フラグの3種類のフラグを生成しているが、もちろんそれに限定されるわけではない。
【0105】
図において、901は文字フラグで、図中の黒で表す画素が文字属性を持つ画素であり「文字フラグ=1」が生成され、それ以外は「文字フラグ=0」(図では白い部分)となっている。
【0106】
902は図形フラグで、グラフィック領域で「図形フラグ=1」となり、それ以外で「図形フラグ=0」となる領域である。
【0107】
903は網点フラグで、網点領域で「網点フラグ=1」となり、それ以外で「網点フラグ=0」となるような領域を表している。
【0108】
904は写真領域であるが、写真領域は上述の文字フラグ901,図形フラグ902,網点フラグ903のいずれにもあてはまらないので、つまり文字以外,グラフィック以外,網点以外の領域になるので、すべてのフラグが「0」となり、この図に示す例では、全て白となっている。
【0109】
これら文字フラグ901,図形フラグ902,網点フラグ903を「3bit」の信号としてまとめると、図11に示すような関係になる。
【0110】
図11は、図10に示した文字フラグ901,図形フラグ902,網点フラグ903で構成される「3bit」の信号と画像属性の関係を示す図である。
【0111】
以上の像域分離処理により、画像の属性が画素ごとに検出されると、上述したように、各画像処理部によって、画像属性に応じた画像処理が施され、文字領域に対して画像の高周波成分を強調して文字の鮮鋭度を強調し、また網点領域に対してはいわゆるローパスフィルタ処理を行い、デジタル画像に特有のモアレ成分を除去する、といった画像属性に応じた画像処理を行うことができる。これらの処理の切り替えを像域判定部203で生成した属性フラグデータに応じて画素単位で行うことが可能である。
【0112】
以下、図12,図13を参照して、本発明の第1実施形態を示す画像処理装置における原稿画像を読み取りプリントする際の画像処理の流れと、画像データの流れと、属性フラグデータの流れについて、各種コピーモードに対応させて説明する。
【0113】
図12は、本発明の第1実施形態を示す画像処理装置において、1枚の原稿画像を読み取り、それを出力プリントする単面コピー(単面コピーモード)時の画像処理の流れと、画像データの流れと、属性フラグデータの流れを示す図であり、原稿画像のスキャナ部による入力から始まり、入力画像処理部200、中間画像処理部300、出力画像処理部400上で各種の画像処理、そしてプリンタ部から出力するまでの処理,画像データ,属性フラグデータの流れに対応する。なお、S101〜S107は各ステップを示す。また、このS101〜S107の処理は図2に示したCPU600により統括制御されて実行されるものとする。
【0114】
まず、ステップS101において、スキャナ部110により最初の入力画像1010を入力(スキャン)し、スキャナ部110により入力(スキャン)された最初の入力画像1010は、入力画像処理部200に入り、図3に示した副走査色ズレ補正部201,主走査色ズレ補正部202,像域判定部203,フィルタ処理部204,ヒストグラム処理部205,入力色補正部206による副走査色ズレ補正,主走査色ズレ補正,像域判定,フィルタ処理,ヒストグラム処理,入力色補正が施される。この図では像域判定部203,フィルタ処理部204による像域判定処理(S102),フィルタ処理(S103)のみ記載している。詳細には、副走査色ズレ補正部201,主走査色ズレ補正部202により副走査色ズレ補正,主走査色ズレ補正を施された画像データ1020は、ステップS102において、像域判定部203に入力されて像域判定処理を施される。これによって上述したような属性フラグデータ1021が生成される。
【0115】
その後、ステップS102において、フィルタ処理部204により属性フラグデータ1031の属性に従い各々の属性領域毎に最適なフィルタリング処理が施された画像データ1030は、ヒストグラム処理部205,入力色補正部206によりヒストグラム処理,入力色補正を施された後、中間画像処理部300内に転送される。
【0116】
中間画像処理部300では、ステップS104において、属性フラグデータ1041に従って、画像データ1040内の画像領域ごとに所定の圧縮係数により、圧縮処理部309〜315により圧縮処理が施され、圧縮メモリ314および大容量記憶HDD315内に格納される。圧縮メモリ314および大容量記憶HDD315内に格納された画像データ1040、属性フラグデータ1041は、圧縮処理部315〜321で復号化され、出力画像処理部400に入力される。
【0117】
次に、出力画像処理部400で下地飛ばし部401,モノクロ生成部402,出力色補正部403,フィルタ処理部404,ガンマ補正部405,中間調処理部406が、属性フラグデータ1051,1061に従って、画像データ1050,1060に対して、画像データ1050,1060内の写真領域,文字領域等の画像領域ごとに所定の画像処理係数に応じて領域ごとに最適なガンマ補正他(下地飛ばし,モノクロ生成,出力色補正,フィルタ処理,ガンマ補正;S105),中間調処理(S106)を施した後、プリンタ500に転送する。
【0118】
ステップS107において、プリンタ500が入力された画像データに基づいてプリント出力1070を行う。
【0119】
図13は、本発明の第1実施形態を示す画像処理装置において、2枚の原稿画像を読み取り、1枚の出力プリント(記録紙)に結合してプリントする結合コピー(2ページ分の文書データを1つのシートの同一面上にプリントする結合コピーモード。2in1プリントモードとも呼ぶ)時の第1の画像処理の流れと、画像データの流れと、属性フラグデータの流れを示す図であり、原稿画像のスキャナ部による入力から始まり、入力画像処理部200、中間画像処理部300、出力画像処理部400上で各種の画像処理、そしてプリンタ部から出力するまでの画像処理,画像データ,属性フラグデータの流れに対応する。なお、S201〜S208は各ステップを示す。また、このS201〜S208の処理は図2に示したCPU600により統括制御されて実行されるものとする。
【0120】
結合し製本され出力されるプリント出力(記録紙)1180の左面に、最初に読み取った1枚目の画像1110を割り付け、同プリント出力1180の右面に、その後に読み取った2枚目の画像1111を割り付けるものとして、以下の説明を行う。
【0121】
まず、ステップS201において、スキャナ部110により最初の1枚目の原稿をスキャンして入力画像1110を入力し、スキャナ部110により入力された最初の1枚目の入力画像(1ページ目の文書データ)1110は、入力画像処理部200に入り、図3に示した副走査色ズレ補正部201,主走査色ズレ補正部202,像域判定部203,フィルタ処理部204,ヒストグラム処理部205,入力色補正部206による副走査色ズレ補正,主走査色ズレ補正,像域判定,フィルタ処理,ヒストグラム処理,入力色補正が施される。この図では像域判定部203,フィルタ処理部204による像域判定処理(S202),フィルタ処理(S203)のみ記載している。詳細には、副走査色ズレ補正部201,主走査色ズレ補正部202により副走査色ズレ補正,主走査色ズレ補正を施された画像データ1120は、ステップS202において、像域判定部203に入力されて像域判定処理を施される。これによって先に説明したような属性フラグデータ1122が生成される。
【0122】
その後、ステップS203において、フィルタ処理部204により属性フラグデータ1132の属性に従い各々の属性領域毎に最適なフィルタリング処理が施された画像データ1130は、ヒストグラム処理部205,入力色補正部206によりヒストグラム処理,入力色補正を施された後、中間画像処理部300内に転送される。
【0123】
中間画像処理部300では、ステップS204において、属性フラグデータ1142に従って、画像データ1140内の画像領域ごとに所定の圧縮係数により、圧縮処理部309〜315により圧縮処理が施され、圧縮メモリ314および大容量記憶HDD315内に格納される。以上、S201〜S205の処理を2枚目の原稿に対して行う。
【0124】
即ち、ステップS201において、スキャナ部110により2枚目の原稿をスキャンして2枚目の入力画像1111を入力し、2枚目にスキャナ部により入力される入力画像(2頁目の文書データ)1111は、最初の入力画像1110と同様に、入力画像処理部200に入り、1枚目の入力画像と同様に図3で説明した各種画像処理が施される。像域判定部203より上流の画像処理部201,202によって画像処理を施された画像データ1121は、像域判定部203に入力されて像域判定処理(S202)を施され、属性フラグデータ1123が生成される。
【0125】
その後、フィルタ処理部204において、属性フラグデータ1133の属性に従って、各々の属性領域毎に最適なフィルタリング処理(S203)が施された画像データ1131は、フィルタ処理部204より下流の画像処理部205,206によって残りの処理を施された後、中間画像処理部300内に転送され、属性フラグデータ1143に従って、画像データ1141内の画像領域ごとに所定の圧縮係数により、圧縮処理部309〜315により圧縮処理(S204)が施され、圧縮メモリ314および大容量記憶HDD315内に格納される。
【0126】
メモリ内に格納された画像データ1140,1141は、圧縮メモリ314および大容量記憶HDD315内で、もしくは圧縮メモリ314および大容量記憶HDD315から読み出されるときに、結合画像1150に示すように、結合製本処理され(S205)、1枚の画像データとして以後、扱われるようになる。また、ここでは圧縮処理部309〜315により結合処理する場合について示したが、中間画像処理部300内に結合処理部を設けて結合を行っても良い。すなわち結合は、圧縮メモリ314および大容量記憶HDD315内で合体させても良いし、圧縮メモリ314および大容量記憶HDD315から読み出す際に合体させても良いし、圧縮メモリ314および大容量記憶HDD315外の結合処理部で行っても良い。
【0127】
ここでは、圧縮メモリ314および大容量記憶HDD315内で結合されたとして、圧縮メモリ314および大容量記憶HDD315内に格納された画像データ1140,1141は、圧縮処理部315〜321で復号化され、出力画像処理部400に入力される。
【0128】
また、属性フラグデータ1142,1143に関しても、属性フラグデータ1151として結合を行う。
【0129】
結合製本後の画像データ1150は、出力画像処理部400に入力され、下地飛ばし部401,モノクロ生成部402,出力色補正部403,フィルタ処理部404,ガンマ補正部405,中間調処理部406が、属性フラグデータ1161,1171に従って、画像データ1160,1170に対して、画像データ1160,1170内の写真領域,文字領域等の画像領域ごとに所定の画像処理係数に応じて領域ごとに最適なガンマ補正他(下地飛ばし,モノクロ生成,出力色補正,フィルタ処理,ガンマ補正;S206),中間調処理(S207)を施した後、プリンタ500に転送する。
【0130】
そして、上述したように入力画像処理処理部200,中間画像処理部300,出力画像処理部400の処理が終わると、プリント部500よりプリント出力1080がプリント処理される(S208)。
【0131】
なお、ステップS206に示したガンマ補正他(下地飛ばし,モノクロ生成,出力色補正,フィルタ処理,ガンマ補正)のうち、出力色補正やフィルタ処理等のように、画素ごとに処理係数を切り替える処理の場合には、属性フラグデータ1161に従って処理係数を切り替えて、各画像処理モジュールにおいて処理を行えば良い。
【0132】
しかしながら、ページ全面に処理を施す場合、例えば入力画像を読み込ませる前に図示しない操作パネル部において(プリント機能の場合は、コンピュータ上のプリンタドライバ画面等を用いる)、1枚目の入力画像1110にはカラーバランス調整や濃度調整を濃くするよう調整し、2枚目の入力画像1111にはカラーバランス調整や濃度調整を薄くするよう調整して読み込ませた時の結合製本の場合に、カラーバランス調整や濃度調整を行う出力画像処理部400のガンマ補正部405で処理を施されるガンマ補正処理では、既に画像データ1160のような1枚の結合された画像データになってしまっているために、1枚目と2枚目、即ち左面と右面(1枚の記録紙の同一面上に配列形成される1ページ目に相当する文書データと2ページ目に相当する文書データ)で異なるカラーバランス調整もしくは濃度調整を施すことができない。そのため、1枚の画像データ1160に対して、全面同じカラーバランス調整もしくは濃度調整を施すことしかできないという不具合が発生する(1枚の記録紙の同一面上に配列形成される1ページ目に相当する文書データと2ページ目に相当する文書データに対して同じ画像処理を施すことしか出来ない)。
【0133】
この不具合を解消した実施形態を以下図14に示す。
【0134】
図14は、本発明の第1実施形態を示す画像処理装置において、2枚の原稿画像を読み取り、1枚の出力プリントに結合してプリントする結合コピー(結合コピーモード)時の第2の画像処理の流れと、画像データの流れと、属性フラグデータの流れを示す図であり、原稿画像のスキャナ部による入力から始まり、入力画像処理部200、中間画像処理部300、出力画像処理部400上で各種の画像処理、そしてプリンタ部から出力するまでの画像処理,画像データ,属性フラグデータの流れに対応し、図13に示した出力画像処理部400内の処理の一部と同等な処理を、中間画像処理部300において処理を施す構成に対応する。なお、S301〜S308は各ステップを示す。また、このS301〜S308の処理は図2に示したCPU600により統括制御されて実行されるものとする。
【0135】
図13に示したように、結合し製本され出力されるプリント出力1180の左面に、最初に読み取った1枚目の画像1210を割り付け、プリント出力1180の右面に、2枚目に読み取った画像1211を割り付けるとして、以下の説明を行う。
【0136】
まず、ステップS301において、スキャナ部110により最初の1枚目の原稿をスキャンして1枚目の入力画像1210を入力し、スキャナ部110により入力された最初の1枚目の入力画像(1ページ目の文書データ)1210は、入力画像処理部200に入り、図3に示した副走査色ズレ補正部201,主走査色ズレ補正部202,像域判定部203,フィルタ処理部204,ヒストグラム処理部205,入力色補正部206による副走査色ズレ補正,主走査色ズレ補正,像域判定,フィルタ処理,ヒストグラム処理,入力色補正が施される。この図では像域判定部203,フィルタ処理部204による像域判定処理(S302),フィルタ処理(S303)のみ記載している。詳細には、副走査色ズレ補正部201,主走査色ズレ補正部202により副走査色ズレ補正,主走査色ズレ補正を施された画像データ1220は、ステップS302において、像域判定部203に入力されて像域判定処理を施される。これによって先に説明したような属性フラグデータ1222が生成される。
【0137】
その後、ステップS303において、フィルタ処理部204により属性フラグデータ1232の属性に従い各々の属性領域毎に最適なフィルタリング処理が施された画像データ1230は、ヒストグラム処理部205,入力色補正部206によりヒストグラム処理,入力色補正を施された後、中間画像処理部300内に転送される。
【0138】
中間画像処理部300内では、1枚目の画像データ1240に対して施すべき画像処理係数によって、中間画像処理部300内の下地飛ばし部302,モノクロ生成部303,出力色補正部304,フィルタ処理部305,ガンマ補正部306によるガンマ補正処理他(下地飛ばし,モノクロ生成,出力色補正,フィルタ処理,ガンマ補正;S304)が、属性フラグデータ1242に従って、施される。
【0139】
そして、属性フラグデータ1252に従って、画像データ1250内の画像領域ごとに所定の圧縮係数により、圧縮処理部309〜315による圧縮処理(S305)が施され、圧縮メモリ314および大容量記憶HDD315内に格納される。以上、S301〜S305の処理を2枚目の原稿に対しても行う。
【0140】
即ち、ステップS301において、スキャナ部110により2枚目の原稿をスキャンして2枚目の入力画像1211を入力し、2枚目にスキャナ部により入力される入力画像(2頁目の文書データ)1211は、最初の入力画像1210と同様に、入力画像処理部200に入り、1枚目の入力画像と同様に図3で説明した各種画像処理が施される。像域判定部203より上流の画像処理部201,202によって画像処理を施された画像データ1221は、像域判定部203に入力されて像域判定処理(S302)を施され、属性フラグデータ1223が生成される。
【0141】
その後、フィルタ処理部204において、属性フラグデータ1233の属性に従って、各々の属性領域毎に最適なフィルタリング処理(S303)が施された画像データ1231は、フィルタ処理部204より下流の画像処理部205,206によって残りの処理を施された後、中間画像処理部300内に転送される。
【0142】
中間画像処理部300内では、1枚目の画像データ1241に対して施すべき画像処理係数によって、中間画像処理部300内の下地飛ばし部302,モノクロ生成部303,出力色補正部304,フィルタ処理部305,ガンマ補正部306によるガンマ補正処理他(下地飛ばし,モノクロ生成,出力色補正,フィルタ処理,ガンマ補正;S304)が、属性フラグデータ1243に従って、施される。
【0143】
そして、属性フラグデータ1253に従って、画像データ1251内の画像領域ごとに所定の圧縮係数により、圧縮処理部309〜315による圧縮処理(S305)が施され、圧縮メモリ314および大容量記憶HDD315内に格納される。
【0144】
メモリ内に格納された画像データ1250,1251は、圧縮メモリ314および大容量記憶HDD315内で、もしくは圧縮メモリ314および大容量記憶HDD315から読み出されるときに、結合画像1260に示すように、結合製本され(S306)、1枚の画像データとして以後、扱われるようになる。また、ここでは図示しないが、図13の説明でも述べた通り、中間画像処理部300内に結合処理部を設けて結合を行っても良い。すなわち結合は、圧縮メモリ314および大容量記憶HDD315内で合体させても良いし、圧縮メモリ314および大容量記憶HDD315から読み出す際に合体させても良いし、圧縮メモリ314および大容量記憶HDD315外の結合処理部で行っても良い。
【0145】
ここでは、圧縮メモリ314および大容量記憶HDD315内で結合されたとして、圧縮メモリ314および大容量記憶HDD315内に格納された画像データ1260、属性フラグデータ1261は、圧縮処理部315〜321で復号化され、出力画像処理部400に入力される。
【0146】
また、属性フラグデータ1252,1253に関しても、属性フラグデータ1261として結合を行う。
【0147】
その後、画像データ1260は、出力画像処理部400に入力され、画像処理が施されるが、既に中間画像処理部300内の下地飛ばし部302,モノクロ生成部303,出力色補正部304,フィルタ処理部305,ガンマ補正部306により、画像データ1260の左面(1枚目の入力画像),右面(2枚目の入力画像)の各々ごとにガンマ補正処理他(下地飛ばし,モノクロ生成,出力色補正,フィルタ処理,ガンマ補正;S304)が施されているため、出力画像処理部400では、下地飛ばし部401,モノクロ生成部402,出力色補正部403,フィルタ処理部404,ガンマ補正部405による処理はすべてスルーして、中間調処理部406による中間調処理処理のみを、属性フラグデータ1271に従って、画像データ1270内の写真領域、文字領域などの画像領域ごとに所定の画像処理係数により、領域ごとに最適に行う(S307)。
【0148】
そして、上述した入力画像処理処理部200,中間画像処理部300,出力画像処理部400の処理が終わると、プリンタ部よりプリント出力1280がプリントされる(S308)。
【0149】
つまり、図13で示した構成では、入力画像を読み込ませる前に図示しない操作パネル部において、左面,右面ごとに(単一のシートにプリントすべき対象の複数ページの文書データの各ページ毎に)カラーバランス調整や濃度調整を施した場合には、左右面で異なるカラーバランス調整や濃度調整を行うことはできなかったが、この図14で示す構成では、2枚の入力画像データ1210,1211を1枚の画像データ1260にする前に、各ページごとに必要な画像処理(カラーバランス調整や濃度調整等のユーザ操作に応じた画像処理を含む),この図14中のS304に示すように、結合する前の1枚の画像データ各々に対して施した後に、2枚の画像データを1枚に結合させるため、結合する際の各々左右面で異なる処理を行うことが可能になる。
【0150】
このように、本実施形態では、Nページ分の複数の文書データ(上記では、2ページ分)を1つの記録媒体(シート)の同一面上に配列形成させる結合プリントモード(Nin1プリントモード)が選択された場合において、所定の画像処理(カラーバランス調整や濃度調整等のユーザからの指示に応じた画像処理等)を施す場合、複数の文書データを1つの文書データに結合した後の結合処理済の1つの結合文書データに対して上記画像処理を施すことを禁止し、各文書データを1つの文書データに結合する処理に先立ち、各ページ毎に、夫々各ページに対して指示された、そのページに見合った画像処理を施し、それから、画像処理済の複数のページの文書データを1つの文書データに結合して、結合した文書データをシートにプリントするよう制御する(つまり、文書データの入力処理→Nページ分の文書データの結合処理→1つの結合文書データに対する画像処理→結合文書のプリント処理というシーケンスを行わずに、文書データの入力処理→Nページ分の文書データを各ページ毎に、それぞれ各ページに指示された指示で夫々ページ単位で画像処理を施す→夫々所望の画像処理済みのNページ分の文書データを1つの文書データに結合処理する→結合文書のプリント処理というシーケンスを行うよう制御する)。
【0151】
ここでは、カラーバランス調整,濃度調整(ユーザからの指示等に基づく)を左右面で(Nページ分の複数ページの各ページ毎に)異なる処理を施すために、ガンマ補正処理他(下地飛ばし,モノクロ生成,出力色補正,フィルタ処理,ガンマ補正)の一連の処理を、中間画像処理部300内の下地飛ばし部302,モノクロ生成部303,出力色補正部304,フィルタ処理部305,ガンマ補正部306により結合製本前に行ったが、各面ごとに異なる係数をかけるのが、出力画像処理部400の下地飛ばし部401のみであるなら、中間画像処理部300内で下地飛ばし部302による下地飛ばし処理のみを行って、出力画像処理部400で下地飛ばし部401のみスルーにして、モノクロ生成,出力色補正,フィルタ処理,ガンマ補正の一連の処理を行うように構成してもよい。
【0152】
また、中間画像処理部300内にて、1枚の画像データ1240、2枚目の画像データ1241に対して下地飛ばし部401,モノクロ生成部402,出力色補正部403,フィルタ処理部404,ガンマ補正部405,中間調処理部406による下地飛ばし,モノクロ生成,出力色補正,フィルタ処理,ガンマ補正,中間調処理を施したのち、結合した画像データ1260以降に対して、出力画像処理部400内の各種画像処理部をスルーにせず、結合された画像データ全体に、すなわち左右面で同じ係数にはなるが、全体に対して各画像処理を施してももちろん構わない。
【0153】
このように、結合製本等を行う場合には、結合製本処理される前に、中間画像処理部300内で、複数の画像データのそれぞれに対して前記ガンマ補正他の処理をそれぞれ独立に施す、即ち図14に示した第2の画像処理の流れとなるように、CPU600が制御する構成とする。
【0154】
以上、説明した通り、結合製本を行う際に、結合製本する画像ページ個々に対する固有の画像処理を、結合される前に各々独立に施すことによって、結合後1枚の画像ページになってしまう結合製本時でも、入力画像データ個々に対する画像処理の自由度がより高まり、個々の画像データの特性もしくは画像調整に対して、より最適な画像処理を施すことが可能になるため、高画質の画像データを生成することができる画像処理装置を提供することができる。
【0155】
なお、結合製本を行う際に、結合製本すべき複数の文書データの個々に対する固有の画像処理を、それらの文書データが結合される前に各々独立に施し、その後、結合、プリントする上述のシーケンスのほかに、上記複数の文書データを1つの文書データに結合した後に、該1つの結合文書に対して共通の画像処理を行い、プリントするというシーケンスを有し、それらをユーザからの指示に応じて、或いは、画像データの属性に応じて、選択的に実行できるようにしても良い。
【0156】
例えば、上記モードの選択と共に、ユーザから所定のページに対して所定の画像処理が指示された場合は、結合処理に先立ち、各ページ毎の画像処理を実行可能なシーケンスを選択し、特に指示が無かった場合には、結合処理後に1つの結合文書に対する共通の画像処理を実行可能にするシーケンスを選択する。また、例えば、結合すべき複数の文書が互いの異なるタイプのデータ(A4サイズの文書とA3サイズの文書とが混在している場合や、写真と文字とが混在している場合等)の場合は、その属性情報に基づいて、結合処理に先立ち、各ページ毎の画像処理を実行可能なシーケンスを選択し、結合すべき複数の文書が同一タイプのデータの場合は、その属性情報に基づいて、結合処理後に1つの結合文書に対する共通の画像処理を実行可能にするシーケンスを選択する。このように動作できるようにしても良い。これにより、ユーザに対する選択の余地、自由度が広がり、より使い勝手の向上した柔軟な処理を提供することが出来る。
【0157】
〔第2実施形態〕
上記第1実施形態では、中間画像処理部300内の各種画像処理部302〜307と、出力画像処理部400内の各種画像処理部401〜406とを同じ構成としたが、全く同じ構成である必要がなく、中間画像処理部300内には、出力画像処理部400内の各種画像処理部の一部もしくは、それに代わる処理モジュールがあるような構成であってもよい。
【0158】
〔第3実施形態〕
上記第1実施形態では、2ページの画像データを1枚のページに結合する場合の構成について示したが、本実施形態では、4ページを1ページに縮小してレイアウトする構成であってもよい。以下、その実施形態について説明する。
【0159】
図15は、本発明の第3実施形態を示す画像処理装置において、4枚の原稿画像を読み取り、1枚の出力プリントに縮小,レイアウトしてプリントする結合コピー(縮小レイアウトコピーモード。4in1プリントモードとも称される)時の画像処理の流れと、画像データの流れと、属性フラグデータの流れを示す図であり、原稿画像のスキャナ部による入力から始まり、入力画像処理部200、中間画像処理部300、出力画像処理部400上で各種の画像処理、そしてプリンタ部から出力するまでの、画像処理,画像データ,属性フラグデータの流れに対応する。なお、S401〜S408は各ステップを示す。また、このS401〜S408の処理は図2に示したCPU600により統括制御されて実行されるものとする。さらに、属性フラグデータに関しては図示していないが、第1実施形態で示したように、属性フラグデータも生成され使用されている。
【0160】
まず、スキャナ部110により、1枚目の入力画像データ1410が入力され(S401)、入力画像処理部200において、像域判定部部203により図示しない属性フラグデータが生成される(S402)。
【0161】
その後、中間画像処理部300によって、図14で説明した様に、例えば、ここでは下地飛ばし部302による下地飛ばし調整からガンマ補正処理部306までのガンマ補正処理が施される(S403)。
【0162】
画像処理が施された後、所定の縮小処理が縮小処理部322において施され(S404)、その後、圧縮部309〜321によって圧縮処理が施される(S405)。以上S401〜S405の処理を、2,3,4枚目の原稿に対して同様に行った後、レイアウトを施し(S406)、出力画像処理部400に入力され、出力画像処理部400では、中間調処理部406による中間調処理が施され(S407)、プリンタ部によってプリント出力1480がプリントされる(S408)。
【0163】
ここでは、4ページを1ぺージ内にレイアウトする構成を説明したが、6ページのレイアウト(6in1レイアウトプリントモード)、8ページのレイアウト(8in1レイアウトプリントモード)、Nページのレイアウトでも同様であることは言うまでもない。
【0164】
〔第4実施形態〕
本発明の画像処理装置を所定のネットワークと接続するように構成してもよい。以下、その実施形態について説明する。
【0165】
図16は,本発明の第4実施形態を示す画像処理装置を適用可能な画像の入力,蓄積,出力手段,ネットワークインタフェースを有するデジタル画像機器のブロック図であり、図2と同一のものには同一の符号を付してある。
【0166】
図において、1501はLANインタフェースで、イーサネット(登録商標)等のネットワーク網1502と接続を可能とするインタフェース部である。
【0167】
図4に示した中間画像処理部300内の圧縮画像を記憶する外部記憶装置315に記憶された圧縮画像データは、LANインタフェース1501を介して、ネットワーク網1502上に接続されたホストコンピュータ1503,画像サーバ1504,画像入出力装置1505などにネットワーク送信が可能である。
【0168】
また、ネットワーク網1502上に接続されたホストコンピュータ1503,画像サーバ1504,画像入出力装置1505などから圧縮画像データをネットワーク受信し、外部記憶装置315に記憶することも可能である。
【0169】
LANインタフェース1501は、画像バス308など、上述の外部記憶装置315以外の部分と接続することも可能である。また、入力画像処理部200,出力画像処理部400と接続することも可能である。しかし、ネットワーク網1502上の負荷を考慮した場合、圧縮画像の送受信を行う方が効率が良いため、外部記憶装置315と接続するのが望ましいと考えられる。
【0170】
また、ここでは図示しないが、属性フラグデータを必要としない符号化,復号化を行うための、例えばJPEG符号化部,JPEG復号化部を設ける構成とし、属性フラグデータを使用しない機器との送受信時にLANインタフェース1501を使用する構成としても良い。
【0171】
さらに、電話線等の公衆回線を利用したファクシミリのような画像送受信機器と本発明の画像処理装置を接続し、公衆回線を用いて画像転送を行う構成としても良いし、無線などを利用して、他の画像入出力装置,イメージサーバ,ホストコンピュータなどと本発明の画像処理装置を接続し、画像を送受信できる構成としても良い。
【0172】
このように、上述した本発明は、コピー機能における文書データでも、プリント機能における文書データでも、ファクシミリ機能における文書データでも適用可能である。
【0173】
また、本願の画像処理装置1300はボックス機能を有しており、本発明は、該ボックス機能における文書データにおいても適用可能である。ボックス機能とは、スキャナ及び外部装置からの少なくとも何れかの入力部からの文書データをプリントせずに、自装置内部に具備するハードディスクに複数個保存可能にし、後で、ユーザが所望のタイミングで操作部から所望の文書データを選択して、読み出しプリントさせる機能である。該ボックス機能において、複数の文書データを読み出して上記結合モードによりプリントする場合においても、上述の処理を適用可能である。
【0174】
このように、本発明は、コピー機能、プリント機能、ファクシミリ機能、ボックス機能を含む複数の機能のうちの少なくとも何れかの機能の文書データに対して適用可能である。
【0175】
以上、説明したように、結合製本や縮小レイアウト等のように複数の画像データを結合し1つの結合画像データを生成する結合処理を行う際には、結合する画像ページの個々に対する固有の画像処理を、結合される前に各々独立に施すことによって、結合後1枚の画像ページになってしまう結合製本時や縮小レイアウト時でも、入力画像データ個々に対する画像処理の自由度がより高まり、個々の画像データの特性もしくは画像調整に対して、より最適な画像処理を施すことが可能になるため、高画質の画像データを生成することができる画像処理装置を提供することができる。
【0176】
なお、上記第1実施形態〜第4実施形態を合わせた構成も本発明に含まれるものである。
【0177】
以下、図17に示すメモリマップを参照して本発明に係る画像処理装置で読み出し可能なデータ処理プログラムの構成について説明する。
【0178】
図17は、本発明に係る画像処理装置で読み出し可能な各種データ処理プログラムを格納する記憶媒体のメモリマップを説明する図である。
【0179】
なお、特に図示しないが、記憶媒体に記憶されるプログラム群を管理する情報、例えばバージョン情報,作成者等も記憶され、かつ、プログラム読み出し側のOS等に依存する情報、例えばプログラムを識別表示するアイコン等も記憶される場合もある。
【0180】
さらに、各種プログラムに従属するデータも上記ディレクトリに管理されている。また、インストールするプログラムやデータが圧縮されている場合に、解凍するプログラム等も記憶される場合もある。
【0181】
本実施形態における図12,図14,図15に示す機能が外部からインストールされるプログラムによって、ホストコンピュータにより遂行されていてもよい。そして、その場合、CD−ROMやフラッシュメモリやFD等の記憶媒体により、あるいはネットワークを介して外部の記憶媒体から、プログラムを含む情報群を出力装置に供給される場合でも本発明は適用されるものである。
【0182】
以上のように、前述した実施形態の機能を実現するソフトウエアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。
【0183】
この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
【0184】
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,DVD−ROM,磁気テープ,不揮発性のメモリカード,ROM,EEPROM,シリコンディスク等を用いることができる。
【0185】
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0186】
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0187】
また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのソフトウエアによって表されるプログラムを格納した記憶媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。
【0188】
さらに、本発明を達成するためのソフトウエアによって表されるプログラムをネットワーク上のデータベースから通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。
【0189】
【発明の効果】
以上説明したように、本発明に係る第1〜17の発明によれば、画像データ結合手段により結合処理を行う場合には、前記画像データ結合手段により結合処理される前に、入力画像処理手段により、入力手段により入力される複数の画像データのそれぞれに対して、出力画像処理手段により実行可能ないずれかの画像処理と同等の所定の画像処理を、それぞれ独立に施すように制御手段が制御するので、結合後1枚の画像ページになってしまう結合製本時や縮小レイアウト時でも、入力画像データ個々に対する画像処理の自由度がより高まり、個々の画像データの特性もしくは画像調整に対して、より最適な画像処理を施すことが可能になるため、高画質の画像データを生成することができる等の効果を奏する。
【図面の簡単な説明】
【図1】本発明の第1実施形態を示す画像処理装置を適用可能なマルチファンクションデジタル画像入出力機器(デジタル画像機器)を示す側断面図である。
【図2】本発明の画像処理装置を適用可能な画像の入力,蓄積,出力手段を有するデジタル画像機器のブロック図である。
【図3】図2に示した入力画像処理部の構成を示すブロック図である。
【図4】図2に示した中間画像処理部の構成を示すブロック図である。
【図5】図2に示した出力画像処理部の構成を示すブロック図である。
【図6】図4に示した画像データ符号化部および画像データ復号化部の構成を示すブロック図である。
【図7】図4に示した属性フラグデータのランレングス符号化器である属性フラグデータ符号化部の構成を示すブロック図である。
【図8】図3に示した像域判定部により像域判定する原稿画像データの一例を示す模式図である。
【図9】各画像属性をCCDセンサが読み取った際の読み取り信号値の特性を示す特性図である。
【図10】入力画像(図8に示した原稿画像データ)の属性フラグデータの一例を示す図である。
【図11】図10に示した文字フラグ,図形フラグ,網点フラグで構成される「3bit」の信号と画像属性の関係を示す図である。
【図12】本発明の第1実施形態を示す画像処理装置において、1枚の原稿画像を読み取り、それを出力プリントする単面コピー(単面コピーモード)時の画像処理の流れと、画像データの流れと、属性フラグデータの流れを示す図である。
【図13】本発明の第1実施形態を示す画像処理装置において、2枚の原稿画像を読み取り、1枚の出力プリントに結合してプリントする結合コピー(結合コピーモード)時の第1の画像処理の流れと、画像データの流れと、属性フラグデータの流れを示す図である。
【図14】本発明の第1実施形態を示す画像処理装置において、2枚の原稿画像を読み取り、1枚の出力プリントに結合してプリントする結合コピー(結合コピーモード)時の第2の画像処理の流れと、画像データの流れと、属性フラグデータの流れを示す図である。
【図15】本発明の第3実施形態を示す画像処理装置において、4枚の原稿画像を読み取り、1枚の出力プリントに縮小,レイアウトしてプリントする結合コピー(縮小レイアウトコピーモード)時の画像処理の流れと、画像データの流れと、属性フラグデータの流れを示す図である。
【図16】本発明の第4実施形態を示す画像処理装置を適用可能な画像の入力,蓄積,出力手段,ネットワークインタフェースを有するデジタル画像機器のブロック図である。
【図17】本発明に係る画像処理装置で読み出し可能な各種データ処理プログラムを格納する記憶媒体のメモリマップを説明する図である。
【符号の説明】
100 セレクタ
110 イメージスキャナ部
120 ページ記述言語レンダリング部
200 入力画像処理部
203 像域判定部
300 中間画像処理部
302 下地飛ばし部
303 モノクロ生成部
304 出力色補正部
305 フィルタ処理部
306 ガンマ補正部
307 中間調処理部
400 出力画像処理部
401 下地飛ばし部
402 モノクロ生成部
403 出力色補正部
404 フィルタ処理部
405 ガンマ補正部
406 中間調処理部
500 プリンタ部
600 CPU
700 ROM
800 RAM
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus, an image processing method, and document editing capable of executing combined bookbinding print and reduced layout print for combining a plurality of input image data into one piece of image data and outputting as one piece of image data. The present invention relates to a processing method, a program, and a storage medium.
[0002]
[Prior art]
In a conventional image processing apparatus, when one piece of input image data is output as one sheet, based on various kinds of adjustment functions specified by an optimal image processing or an operation unit for the one piece of image data, Optimal processing was performed and output was performed.
[0003]
[Problems to be solved by the invention]
However, a plurality of input image data is read out, for example, by reading two pieces of image data, laid out and output in one page, or by reading four pieces of image data, and It is difficult to perform unique image processing on each piece of input image data, for example, in a case where the image data is reduced and laid out in a sheet and output, that is, one sheet is combined or laid out after layout. The same image processing could only be performed on the entire image data. For this reason, it is not possible to perform unique processing or adjustment on each of the input sheets, as in the case of single-sided copying.
[0004]
For example, when four input images are laid out by reducing them into one page, even if it is desired to separately adjust the color balance for each of the four input images, the layout is conventionally laid out on one page. Since the color balance adjustment cannot be performed on each of the four reduced images, and the color balance is performed on the entire reduced image, the adjustment values are actually adjusted on each of the four input images. However, the color balance was adjusted with the same adjustment value despite the differences.
[0005]
The present invention has been made in order to solve the above problems, and an object of the present invention is to perform unique image processing for each image page to be combined and bound before performing combined bookbinding. Independently applying, even during combined bookbinding, which results in one image page after combining, the degree of freedom in image processing for each input image data is further increased, and the characteristics or image adjustment of individual image data are more improved. An object of the present invention is to provide an image processing apparatus, an image processing method, a document editing method, a program, and a storage medium that can generate high-quality image data because optimal image processing can be performed.
[0006]
[Means for Solving the Problems]
According to a first aspect of the present invention, there is provided an input unit (image scanner unit 110 shown in FIG. 2) for inputting image data, and an input unit capable of executing a plurality of image processes on the image data input by the input unit. Image processing means (input image processing section 200, intermediate image processing section 300 shown in FIG. 2) and combined image data obtained by combining a plurality of image data subjected to image processing by the input image processing means into one image data An image data combining unit (compressing units 309 to 315 shown in FIG. 4) capable of executing the combining process to be generated, and image data subjected to image processing by the input image processing unit or combining by the image data combining unit An output image processing unit (output image processing unit 400 shown in FIG. 2) capable of executing a plurality of image processes on image data, and an image processing unit Output means (printer unit 500 shown in FIG. 2) for outputting image data or combined image data to which the output image processing means has been applied. In the case where the combining process is performed by the image data combining unit, the input image processing unit performs the input process before the combining process is performed by the image data combining unit. And a control unit (CPU 600 shown in FIG. 2) for controlling the predetermined image processing (gamma correction and other steps S304 shown in FIG. 14) independently on each of the plurality of image data input by the unit. It is characterized by the following.
[0007]
According to a second aspect of the present invention, there is provided an attribute flag data generating unit (an image area determining unit 203 shown in FIG. 3) for generating attribute flag data indicating attribute information for each pixel with respect to image data input by the input unit. ) And attribute flag combining means (compressors 309 to 315 shown in FIG. 4) for generating combined attribute flag data by combining a plurality of attribute flag data respectively generated by the attribute flag data generating means into one attribute flag data. Wherein the input image processing means performs image processing on image data input by the input means based on attribute flag data corresponding to the image data, and the output image processing means The image data processed by the input image processing means or the combined image data combined by the image data combining means. And performing image processing based on the attribute data or the combined attribute flag data corresponding to the image data or the combined image data, wherein the control unit performs the combining process by the image data combining unit. Before being subjected to the combining process by the image data combining unit, the input image processing unit performs, based on attribute flag data corresponding to each piece of image data, for each of the plurality of image data input by the input unit. It is characterized in that control is performed such that predetermined image processing is performed independently.
[0008]
A third invention according to the present invention is characterized in that the predetermined image processing includes a gamma correction processing.
[0009]
A fourth invention according to the present invention is characterized in that there is provided image data compression / decompression means for compressing / decompressing the image data or the combined image data.
[0010]
According to a fifth aspect of the present invention, there is provided image data compression / decompression means (compression units 309 to 321 shown in FIG. 4) for compressing / decompressing the image data or combined image data, and the attribute flag data or combination attribute flag data. And an attribute flag data compression / decompression means (compression units 309 to 321 shown in FIG. 4) for compressing / decompressing.
[0011]
According to a sixth aspect of the present invention, there is provided an input step of inputting image data (step S301 in FIG. 14, step S401 in FIG. 15), and an input image for executing a plurality of image processes on the input image data. A processing process (steps S302 to S305 in FIG. 14 and steps S402 to S405 in FIG. 15) and a combining process for generating combined image data by combining a plurality of image data subjected to the image processing into one image data are executed. Image data combining step (step S306 in FIG. 14, step S406 in FIG. 15), and an output image processing step of executing a plurality of image processes on the image data or the combined image data (step S307 in FIG. 14, FIG. 15, step S407), and an output step of outputting image data subjected to the image processing or combined image data (FIG. 1). Step S308 of FIG. 15 and Step S408 of FIG. 15). In the case where the combining process is performed, the input image processing step includes a step of combining the plurality of input images before performing the combining process by the image data combining process. For each of the image data, predetermined image processing (step S304 in FIG. 14 and step S403 in FIG. 15) equivalent to any of the image processing executable in the output image processing step is independently performed. Features.
[0012]
A seventh invention according to the present invention is an attribute flag data generating step of generating attribute flag data indicating attribute information for each pixel for each input image data (step S302 in FIG. 14, step S402 in FIG. 15) And an attribute flag combining step (step S306 in FIG. 14 and step S406 in FIG. 15) of combining the plurality of generated attribute flag data into one attribute flag data to generate combined attribute flag data. The image processing step is for performing image processing on input image data based on attribute flag data corresponding to the image data, and the output image processing step is for image data or combined image data. Performing image processing based on the corresponding attribute flag data or the combined attribute flag data. When performing the combining process, before performing the combining process, the predetermined image processes are independently performed on each of the plurality of input image data based on the attribute flag data corresponding to the respective image data. It is characterized by the following.
[0013]
An eighth invention according to the present invention is characterized in that the predetermined image processing (step S304 in FIG. 14, step S403 in FIG. 15) includes a gamma correction process.
[0014]
A ninth invention according to the present invention is characterized in that it has an image data compression / decompression step of compressing / decompressing the image data or the combined image data (steps S305 and S306 in FIG. 14, steps S405 and S406 in FIG. 15). And
[0015]
According to a tenth aspect of the present invention, there is provided an image data compression / decompression step of compressing / decompressing the image data or the combined image data (steps S305 and S306 in FIG. 14, steps S405 and S406 in FIG. 15) and the attribute flag An attribute flag data compression / decompression step (steps S305 and S306 in FIG. 14 and steps S405 and S406 in FIG. 15) for compressing / decompressing data or combined attribute flag data is characterized in that the method includes:
[0016]
An eleventh invention according to the present invention is a program for executing the image processing method according to any one of claims 6 to 10.
[0017]
A twelfth invention according to the present invention is characterized in that a program for executing the image processing method according to any one of claims 6 to 10 is stored in a storage medium in a computer-readable manner.
[0018]
A thirteenth invention according to the present invention is a document editing processing method for creating one combined document from a plurality of document data, and includes a combining step of creating one combined document data from a plurality of document data (step in FIG. 14). S306, step S406 in FIG. 15) and processing steps for performing predetermined processing on the document data (steps S304, S307 in FIG. 14, steps S403, S407 in FIG. 15). Without performing the predetermined processing in the processing step on one piece of combined document data after processing, prior to the combining processing in the combining step, the processing in the processing step for each document data of the plurality of document data is performed. A control step for controlling a predetermined process to be executable (steps S304 to S307 in FIG. 14; Characterized by having a step S403 to S407).
[0019]
According to a fourteenth aspect of the present invention, the document data is document data in at least one of a copy function, a print function, a facsimile function, and a box function.
[0020]
A fifteenth invention according to the present invention is a sequence that enables the predetermined processing in the processing step to be performed on one piece of combined document data after the combining processing in the combining step, and that a sequence prior to the combining processing in the combining step A sequence enabling the predetermined process to be executed in the processing step for each document data of the plurality of document data is selectable.
[0021]
A sixteenth invention according to the present invention is a program for executing the document editing processing method according to any one of claims 13 to 15.
[0022]
A seventeenth invention according to the present invention is characterized in that a program for executing the document editing processing method according to any one of claims 13 to 15 is stored in a storage medium in a computer-readable manner.
[0023]
BEST MODE FOR CARRYING OUT THE INVENTION
[First Embodiment]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0024]
FIG. 1 is a side sectional view showing a multifunction digital image input / output device (digital image device) to which the image processing apparatus according to the first embodiment of the present invention can be applied, and particularly shows the configuration of a color device.
[0025]
In the figure, reference numeral 1300 denotes an image processing apparatus, which is largely divided into an image reader unit (image input unit) 1301 for reading a document image and a printer unit (image output unit) 1302 for reproducing image data read by the image reader unit 1301. .
[0026]
The image reader unit 1301 is a unit that reads a document at a resolution of 400 dpi (dots / inch) and performs digital signal processing. The printer unit 1302 is a unit that outputs an image corresponding to the document image read by the image reader unit 1301 on a designated sheet in full color print.
[0027]
In an image reader unit 1301, a document 1304 on a platen glass (hereinafter, referred to as a platen) 1303 is irradiated by a lamp 1305, guided to mirrors 1306, 1307, and 1308, and converted into light signals by a lens 1309. An image is formed on a three-line sensor (to be referred to as a CCD hereinafter) 1310 for conversion, and sent to a signal processing unit 1311 as full-color information red (R), green (G), and blue (B) components. The carriage that fixes the lamp 1305 and the mirror 1306 moves at a speed V, and the mirrors 1307 and 1308 move mechanically at a speed of 1/2 V in the direction perpendicular to the electrical scanning (main scanning) direction of the line sensor. Scans (sub-scans) the entire surface of the original.
[0028]
The signal processing unit 1311 electrically processes the read image signal, performs image processing shown in FIG. 2 described later, and then performs magenta (M), cyan (C), yellow (Y), and black ( Bk) is decomposed into components.
[0029]
Each image signal of M, C, Y, and Bk is sent to the laser driver 1312. The laser driver 1312 modulates and drives the semiconductor laser 1313 according to the transmitted image signal. The laser beam scans on the photosensitive drum 1317 via the polygon mirror 1314, the f-θ lens 1315, and the mirror 1316. Reference numeral 1318 denotes a rotary developing unit, which includes a magenta (M) developing unit 1319, a cyan (C) developing unit 1320, a yellow (Y) developing unit 1321, and a black (Bk) developing unit 1322, and four developing units are alternately arranged. The latent image formed on the photosensitive drum is brought into contact with the photosensitive drum 1317 and is developed with toner.
[0030]
Reference numeral 1323 denotes a transfer drum, which winds a sheet supplied from a sheet cassette 1324 or 1325 around the transfer drum 1323, and transfers an image developed on the photosensitive drum 1317 to the sheet. In this way, after the four colors of M, C, Y, and Bk are sequentially transferred, the sheet passes through the fixing unit 1326, and is discharged after the toner is fixed on the sheet.
[0031]
Here, the case where the printer unit (printer engine) is a laser beam system has been described as an example. However, in an electrophotographic system (for example, an LED system) other than the laser beam system, a liquid crystal shutter system, an inkjet system, a thermal transfer system The present invention can be applied to a sublimation method and other printing methods.
[0032]
FIG. 2 is a block diagram of a digital image device having image input, storage, and output means to which the image processing apparatus of the present invention can be applied.
[0033]
In the figure, 100 is a selector for switching an image input system, 200 is an input image processing unit that performs predetermined image processing described below, 300 is an intermediate image processing unit that performs image processing described below, and 400 is an output image that performs image processing described below It is a processing unit.
[0034]
The signals from the image input unit include a signal from the image scanner unit 110 corresponding to the image reader unit 1301 shown in FIG. 1 and an external device (computer) input via a predetermined communication medium such as a network or a LAN. There is a signal from a page description language (PDL) rendering unit 120 that performs a rendering process to make the received data printable, and from the image scanner unit 110 for a copier, and from the rendering unit 120 for a controller. For example, the selector 100 is switched according to the application. A signal input from the selector 100 is subjected to image processing by an input image processing unit 200, an intermediate image processing unit 300, and an output image processing unit 400 corresponding to the signal processing unit 1311 shown in FIG. The data is input to the printer unit 500 corresponding to 1302.
[0035]
Note that the image processing apparatus 1300 according to the present embodiment performs a copy function of performing a print process of document data read by the image scanner unit 110 and performs a print process of data input from an external device via the above-described predetermined communication medium. It has a plurality of functions such as a print function and a facsimile function for performing a print process of data from a telephone line (not shown). The present invention is also applicable to an image processing apparatus having
[0036]
The image processing apparatus 1300 according to the present embodiment has an image forming mode such as a normal copy mode (such as a single-sided copy mode described below) and a plurality of pages (for N pages, where N is a natural number). ) Has a plurality of image forming modes such as a combined print mode (also referred to as a Nin1 mode, which will be described later) in which the document data is formed on the same surface of one sheet. The desired mode can be selectively executed according to the setting from.
[0037]
A CPU 600 controls the entire image processing apparatus based on a program stored in the ROM 700 or another storage medium. Note that the RAM 800 is used as a work area of the CPU 600.
[0038]
FIG. 3 is a block diagram showing a configuration of the input image processing unit 200 shown in FIG.
[0039]
In the figure, reference numeral 201 denotes a sub-scanning color shift correction unit which corrects a color shift in the sub-scanning direction of an input image, and includes, for example, a process of performing a matrix operation of “1 × 5” for each color of image data. You.
[0040]
A main scanning color shift correction unit 202 corrects a color shift of the input image in the main scanning direction, and includes, for example, a process of performing a “5 × 1” matrix operation for each color of image data.
[0041]
Reference numeral 203 denotes an image area determination unit which identifies an image type in the input image. For example, pixels constituting each image type such as a photograph part / character part and a chromatic part / achromatic part in the input image. , And attribute flag data indicating the type can be generated for each pixel. Details will be described later with reference to FIGS. 8, 9, and 10.
[0042]
A filter processing unit 204 arbitrarily corrects the spatial frequency of the input image, and includes, for example, a process of performing a “9 × 9” matrix operation.
[0043]
A histogram processing unit 205 samples a histogram of image signal data in the input image, and is used to determine whether the input image is a color image or a monochrome image, and to determine the background level of the input image. You.
[0044]
An input color correction unit 206 corrects the color of the input image. For example, the input color correction unit 206 converts the color space of the input image into an arbitrary color space, and performs a correction process on the color of the input system. .
[0045]
As described above, the image data processed by the input image processing unit 200 and the attribute flag data generated by the image area determination unit 203 are transferred to the intermediate image processing unit 300.
[0046]
If the generation of attribute flag data or the image processing of the input image processing unit 200 has already been performed by the page description language (PDL) rendering unit 120, the processing by the input image processing unit 200 is skipped. Alternatively, the image data and the attribute flag data may enter the intermediate image processing unit 300 without passing through the input image processing unit 200.
[0047]
The configuration of the input image processing unit 200 includes the above-described sub-scanning color shift correction unit 201, main scanning color shift correction unit 202, image area determination unit 203, filter processing unit 204, histogram processing unit 205, input color correction unit. The image processing module is not limited to only the image processing module 206, and another image processing module may be added or deleted, and the order of processing is not limited to this.
[0048]
FIG. 4 is a block diagram showing a configuration of the intermediate image processing unit 300 shown in FIG.
[0049]
After the image data processed by the input image processing unit 200 shown in FIG. 3 is transferred to the intermediate image processing unit 300 together with the attribute flag data, the following processing is performed.
[0050]
In the figure, reference numeral 301 denotes an attribute flag changing unit (flag changing unit) for changing or adding attribute flag data. The details of the attribute flag changing unit 301 will be described with reference to FIG. 12. However, before or after performing various image processing and compression processing of 302 to 322, the image data is generated by the image area determination unit 203 in the input image processing unit 200 as necessary. This is a processing unit that performs replacement processing of the attribute flag data that has been performed and adds attribute flag data.
[0051]
Reference numeral 302 denotes a background removal unit that removes the background color of the image data and removes unnecessary background fog. For example, the background removal is performed using a “3 × 8” matrix operation or a one-dimensional LUT.
[0052]
Reference numeral 303 denotes a monochrome generation unit that converts color image data into monochrome data and converts color image data, for example, RGB data, into Gray single color when printing as a single color. The monochrome generation unit 303 is configured by, for example, a “1 × 3” matrix operation that multiplies RGB by an arbitrary constant to obtain a Gray signal.
[0053]
An output color correction unit 304 performs color correction in accordance with the characteristics of the printer unit that outputs image data, and includes, for example, a “4 × 8” matrix operation and processing by direct mapping.
[0054]
A filter processing unit 305 arbitrarily corrects the spatial frequency of the image data, and includes, for example, a process of performing a 9 × 9 matrix operation.
[0055]
Reference numeral 306 denotes a gamma correction unit that performs gamma correction in accordance with the characteristics of the output printer unit. The gamma correction unit 306 can adjust the color balance for adjusting the density balance of each color of CMYBk, and can adjust the increase or decrease of the entire density. Normally, density adjustment and the like are realized by a one-dimensional LUT.
[0056]
Reference numeral 307 denotes a halftone processing unit which performs an arbitrary halftone process in accordance with the number of tones of the printer unit to output, and performs an arbitrary screen process such as binarization or 32-level conversion or an error diffusion process. Things.
[0057]
A reduction processing unit 322 is a module that performs reduction processing on image data to an arbitrary magnification.
[0058]
An image bus 308 passes image data and attribute flag data.
[0059]
Reference numeral 309 denotes a compressed block line buffer (line buffer), which divides image data and attribute flag data into tiles (assuming that the tile size is “M × N”). The encoding is performed separately into discrete cosine transform encoding (JPEG), which is the encoding of, and run-length encoding, which is the encoding of the attribute flag data information. However, M and N must be multiples of the window size for discrete cosine transform coding. In the present embodiment, the case of the JPEG compression method will be described. However, in the JPEG compression method, the window size for compression is “8 × 8” pixels, so if “M = N = 32”, for example, “32 × 32” The pixel tile is further divided into 16 “8 × 8” pixels, and JPEG compression is performed in “8 × 8” pixel units. Hereinafter, the description will be made assuming that “M = N = 32”, but the value is of course not limited to this value.
[0060]
Reference numeral 310 denotes an image data encoding unit that performs a well-known DCT transform on 16 “8 × 8” pixel windows included in the “32 × 32” pixel tile image and quantizes them. The quantization coefficient (referred to as a quantization matrix) used at this time can be switched and set for each tile.
[0061]
The switching is performed by referring to the attribute flag data of “32 × 32” pixels corresponding to one tile of certain predetermined image data “32 × 32” pixels by the determination unit 311. If even one pixel contains an attribute indicating a character, one tile of image data composed of the “32 × 32” pixels is regarded as a “character tile”, and one tile of the image data is regarded as a character tile. Compression is performed using the coding coefficient.
[0062]
On the other hand, if at least one pixel does not include an attribute indicating a character, the one tile of the image data is regarded as a “photo tile”, and the one tile of the image data is quantized so as to be compressed by a coding coefficient for a photograph. The quantization matrix selection unit 312 issues a command to the quantization matrix selection unit 312, selects a predetermined coding coefficient, sets the selected coding coefficient in the image data coding unit 310, and compresses the image data using a different compression coefficient for each tile. Do.
[0063]
The attribute flag data is compressed in the attribute flag encoding unit 313. The encoded image data and attribute flag data are stored as compressed image data and compressed attribute flag data on the hard disk 315 via the compression memory 314.
[0064]
When the stored image is output from the printer unit 500 or when the attribute flag replacement process is performed by the attribute flag replacement unit 301, the image data and the attribute flag data stored in the hard disk 315 are read. And output it.
[0065]
First, the compressed image data and the attribute flag are taken out to the compression memory 316, and data of “M × N” pixels of the attribute flag data is decoded by the attribute flag decoding unit 320. Note that the compression memory 316 may be the same as the compression memory 314 described above.
[0066]
Next, based on the decoding result of the attribute flag data, the determination unit 318 performs attribute determination processing, that is, as described above, determines whether one tile of each image data is a character tile or a photo tile from the attribute flag data. , And sends a command to the quantization matrix selection unit 319 to select a compressed decoding coefficient for each tile.
[0067]
The quantization matrix selection unit 319 selects a compression decoding coefficient to be used for each tile and sends it to the image data decoding unit 317. The image data decoding unit 317 switches the coefficient for each tile and converts the image data. Decryption processing is performed, and then output to the line buffer 321.
[0068]
The determination unit 311 and the determination unit 318 perform exactly the same determination, and the attribute flag data is compressed by a lossless compression method such as run-length encoding that does not deteriorate data. , The determination results corresponding to the same tile are completely equal. Therefore, even if quantization is performed with a different quantization coefficient for each tile, an appropriate inverse quantization coefficient is set at the time of decoding, so that correct decoded image data can be obtained.
[0069]
The image data encoder 310 and the image data decoder 317 will be described in detail later with reference to FIG. 6, and the attribute flag encoder 313 which is a run-length encoder for attribute flag data will be described in detail with reference to FIG. I do.
[0070]
Furthermore, the configuration in the intermediate image processing unit 300 is not limited to the configuration described above, and other image processing modules may be added, deleted, or not limited to this.
[0071]
FIG. 5 is a block diagram showing a configuration of the output image processing unit 400 shown in FIG.
[0072]
The output image processing unit 400 has the same processing as the various processing units 302 to 307 shown in FIG.
[0073]
In the figure, reference numeral 401 denotes a background removal unit which removes the background color of image data and removes unnecessary background fog. For example, the background removal is performed by a “3 × 8” matrix operation or a one-dimensional LUT.
[0074]
Reference numeral 402 denotes a monochrome generation unit which converts color image data into monochrome data and converts color image data, for example, RGB data, into Gray single color when printing as a single color. For example, RGB is multiplied by an arbitrary constant. It is composed of a 1 × 3 matrix operation as a Gray signal.
[0075]
An output color correction unit 403 performs color correction in accordance with the characteristics of the printer unit that outputs image data, and includes, for example, a matrix operation of “4 × 8” or processing by direct mapping.
[0076]
A filter processing unit 404 arbitrarily corrects the spatial frequency of the image data, and includes, for example, a process of performing a “9 × 9” matrix operation.
[0077]
Reference numeral 405 denotes a gamma correction unit that performs gamma correction in accordance with the characteristics of the printer unit that outputs the color data. The gamma correction unit 405 can adjust the color balance of each color of CMYBk and adjust the overall density. Normally, density adjustment and the like are realized by a one-dimensional LUT.
[0078]
Reference numeral 406 denotes a halftone processing unit which performs an arbitrary halftone process in accordance with the number of tones of the printer unit to output, and performs an arbitrary screen process such as binarization or 32 value conversion, or an error diffusion process. .
[0079]
The input image processing unit 200, the intermediate image processing unit 300, and the output image processing unit 400 have been described with reference to FIGS. 3, 4, and 5, but each of the image processing units At the same time, the attribute flag data (for identifying an image type in the input image) generated by the image area determination unit 203 shown in FIG. In accordance with the attribute flag data, image processing is performed on each image area using an optimum processing coefficient.
[0080]
For example, the filter processing unit 404 of the output image processing unit 400 shown in FIG. 5 emphasizes the high-frequency component of the image for the character region to enhance the sharpness of the character, and for the halftone dot region, the so-called low-pass For example, a filter process is performed to remove a moiré component peculiar to the digital image.
[0081]
In this way, each processing module performs optimal processing on the image area in accordance with the attribute flag data, thereby achieving high image quality. The attribute flag data will be described later in detail with reference to FIG.
[0082]
FIG. 6 is a block diagram showing a configuration of the image data encoding unit 310 and the image data decoding unit 317 shown in FIG.
[0083]
In the figure, reference numeral 511 denotes an input image data signal, and in the case of a color signal, image data signals of three colors of red (R), green (G), and blue (B). A color converter 501 converts an RGB signal into a luminance / color difference signal (YCbCr). Reference numeral 502 denotes a discrete cosine transform (DCT), which performs a spatial frequency transform (DCT transform) on each of the luminance / color difference signals in units of “8 × 8” pixels.
[0084]
A quantizer 503 quantizes DCT coefficients using a set quantization matrix, thereby reducing the data amount. A variable length encoder (VLC) 504 further reduces data by a Huffman encoding process on a quantized value.
[0085]
The above is the configuration of the color image encoding unit 310, and the compressed image data is stored in the compression memory (Memory) 505. Note that the compression memory (Memory) 505 corresponds to the compression memories 314 and 316 described with reference to FIG. The image data stored in the compression memory 505 (314) is stored in the large-capacity storage device HDD 315. At the time of decoding, the image data is stored in the compression memory 500 (316) and then subjected to decoding processing.
[0086]
The data stored in the compression memory 505 is decoded in the following procedure.
[0087]
A variable length decoder (VLD) 506 performs Huffman decoding. Reference numeral 507 denotes an inverse quantizer which returns a DCT coefficient value according to the set inverse quantization matrix. Reference numeral 508 denotes an IDCT, which performs DCT inverse transform to return to a luminance / color difference signal. Reference numeral 509 denotes a color converter that returns a luminance / color difference signal to an RGB signal. A color image signal 510 is output to the outside as a result of the above-described compression and decoding processing.
[0088]
FIG. 7 is a block diagram showing a configuration of the attribute flag data encoding unit 313 which is a run-length encoder for the attribute flag data shown in FIG.
[0089]
In the figure, reference numeral 600 denotes a determination unit which determines whether the value of the previous pixel and the value of the current pixel of the input attribute flag data are the same, and if they are the same, the RL code generation unit 601; Switch to send data to 602.
[0090]
The RL code generation unit 601 counts the number of times of the same case as the previous pixel data until different data comes out, and finally outputs the repeated data.
[0091]
The LT code generation unit 602 counts the number of cases where the data is different from the previous pixel, and outputs the code word corresponding to the count and the minimum number of constituent bits of the actual data by the count.
[0092]
A synthesis unit 603 synthesizes output data of the RL code generation unit 601 and output data of the LT code generation unit 602 and outputs the synthesized data as a code 604.
[0093]
Hereinafter, with reference to FIGS. 8 and 9, attribute flag data for detecting the attribute of each image data included in the input image data and identifying the same by the image area determination unit 203 shown in FIG. A specific procedure for generating the will be described.
[0094]
FIG. 8 is a schematic diagram illustrating an example of document image data for which the image area determination unit 203 illustrated in FIG. 3 determines an image area.
[0095]
In the figure, reference numeral 701 denotes an example of input document image data. In the document image data 701, a silver halide photograph region 702, a black character region 703, a halftone dot printing region 704, and a color graphic region 705 are shown. This shows that they are mixed.
[0096]
Here, the scanner unit 110 scans the original image with a color CCD sensor and reads it as a color digital signal (R, G, B) for each pixel. The read RGB signals have characteristics determined by attributes of each region of the image. When the G signal of the signal values (R, G, B) read by the CCD 1310 in each area is plotted in the arrangement direction of the CCD, for example, the result is as shown in FIG.
[0097]
FIG. 9 is a characteristic diagram illustrating characteristics of a read signal value when the CCD 1310 reads each image attribute.
[0098]
In the figure, 820, 830, 840, and 850 are examples of characteristics that appear characteristically when the areas 702, 703, 704, and 705 shown in FIG. 8 are read, respectively. The horizontal axis represents the pixel position in the CCD and direction. The vertical axis indicates that the pixels are closer to white (brighter) as the read signal value goes upward.
[0099]
Explaining the characteristics of each region, since 820 is the characteristic of the photographic region 702, the change due to the position of the image signal to be read is relatively gentle, and the difference 821 between the pixel values at a short distance becomes a small value.
[0100]
Reference numeral 830 denotes the characteristic of the black character area 703. Since black characters are written on a white background, the plot of the signal value is such that the read signal value changes rapidly from the white background portion 831 to the character portion 832.
[0101]
Reference numeral 840 denotes a characteristic of the halftone dot region 704. Since the halftone dot region is a repetition of a white background 841 and a halftone dot 842 printed thereon, a plot of signal values is white and black as shown in the figure. Is a characteristic that repeats at a high frequency.
[0102]
Reference numeral 850 is a plot diagram of the graphic area 705. The signal value sharply decreases at the edge portion 851 of the graphic, and the inside of the colored portion 852 has such a characteristic that a constant intermediate level follows.
[0103]
In order to determine these attributes, the above-described feature of each region may be read from the read signal value and determined. To do so, the amount of change in the image data in the vicinity of the pixel of interest or the integrated value of the amount of change in a certain section, the luminance value of a peripheral pixel (white background or colored background), the white of the image data in the certain section A feature extraction method using a known method, such as the number of changes to black, may be used, and a well-known attribute discrimination method based on the feature extraction method may be used. FIG. 10 shows an example of the attribute flag generated for the document image data 701 shown in FIG. 8 in this manner.
[0104]
FIG. 10 is a diagram showing an example of attribute flag data of an input image (original image data 701 shown in FIG. 8). As the attribute flag data, three types of flags of a character flag, a figure flag, and a halftone flag are generated. However, it is not limited to that.
[0105]
In the figure, reference numeral 901 denotes a character flag. Pixels represented by black in the figure are pixels having a character attribute, and “character flag = 1” is generated. Otherwise, “character flag = 0” (white part in the figure) Has become.
[0106]
Reference numeral 902 denotes a graphic flag which is "graphic flag = 1" in the graphic area, and "graphic flag = 0" in other areas.
[0107]
Reference numeral 903 denotes a halftone dot flag, which represents an area where "halftone flag = 1" in a halftone area and "halftone flag = 0" in other areas.
[0108]
Reference numeral 904 denotes a photographic area. Since the photographic area does not correspond to any of the character flag 901, the graphic flag 902, and the halftone flag 903, that is, it is an area other than characters, non-graphics, and non-halftones. Is "0", and in the example shown in this figure, they are all white.
[0109]
When these character flag 901, figure flag 902 and halftone flag 903 are put together as “3-bit” signals, the relationship shown in FIG. 11 is obtained.
[0110]
FIG. 11 is a diagram showing a relationship between a signal of “3 bits” composed of the character flag 901, the graphic flag 902, and the halftone flag 903 shown in FIG. 10 and image attributes.
[0111]
When the attribute of the image is detected for each pixel by the above-described image area separation processing, as described above, image processing according to the image attribute is performed by each image processing unit, and the high-frequency Perform image processing according to image attributes, such as enhancing the sharpness of characters by emphasizing components, performing so-called low-pass filter processing on halftone dot areas, and removing moiré components unique to digital images. Can be. Switching between these processes can be performed in pixel units according to the attribute flag data generated by the image area determination unit 203.
[0112]
Hereinafter, with reference to FIGS. 12 and 13, a flow of image processing, a flow of image data, and a flow of attribute flag data when reading and printing a document image in the image processing apparatus according to the first embodiment of the present invention will be described. Will be described corresponding to various copy modes.
[0113]
FIG. 12 shows a flow of image processing at the time of single-sided copying (single-sided copy mode) in which one document image is read and output and printed in the image processing apparatus according to the first embodiment of the present invention; FIG. 5 is a diagram showing the flow of attribute flag data, starting with input of a document image by a scanner unit, and performing various types of image processing on an input image processing unit 200, an intermediate image processing unit 300, an output image processing unit 400; This corresponds to the flow of processing, image data, and attribute flag data until output from the printer unit. In addition, S101 to S107 indicate each step. It is assumed that the processes of S101 to S107 are executed under the overall control of the CPU 600 shown in FIG.
[0114]
First, in step S101, a first input image 1010 is input (scanned) by the scanner unit 110, and the first input image 1010 input (scanned) by the scanner unit 110 is input to the input image processing unit 200. Sub-scan color shift correction by main scan color shift correction unit 201, main scan color shift correction unit 202, image area determination unit 203, filter processing unit 204, histogram processing unit 205, and input color correction unit 206 shown in FIG. Correction, image area determination, filter processing, histogram processing, and input color correction are performed. In this figure, only the image area determination processing (S102) and the filter processing (S103) by the image area determination unit 203 and the filter processing unit 204 are described. More specifically, the image data 1020 subjected to the sub-scanning color shift correction and the main-scanning color shift correction by the sub-scanning color shift correcting unit 201 and the main scanning color shift correcting unit 202 are transmitted to the image area determining unit 203 in step S102. The image data is input and subjected to image area determination processing. As a result, the attribute flag data 1021 as described above is generated.
[0115]
After that, in step S102, the image data 1030 that has been subjected to the optimal filtering processing for each attribute area according to the attribute of the attribute flag data 1031 by the filter processing unit 204 is subjected to the histogram processing by the histogram processing unit 205 and the input color correction unit 206. , After being subjected to input color correction, is transferred to the intermediate image processing unit 300.
[0116]
In the intermediate image processing unit 300, in step S104, compression processing is performed by the compression processing units 309 to 315 with a predetermined compression coefficient for each image area in the image data 1040 according to the attribute flag data 1041, and the compression memory 314 and the large It is stored in the capacity storage HDD 315. The image data 1040 and the attribute flag data 1041 stored in the compression memory 314 and the large-capacity storage HDD 315 are decoded by the compression processing units 315 to 321 and input to the output image processing unit 400.
[0117]
Next, in the output image processing unit 400, the background removal unit 401, the monochrome generation unit 402, the output color correction unit 403, the filter processing unit 404, the gamma correction unit 405, and the halftone processing unit 406 operate according to the attribute flag data 1051 and 1061. For image data 1050 and 1060, optimal gamma correction and the like (such as background removal, monochrome generation, monochrome generation, etc.) are performed for each image region such as a photograph region and a character region in image data 1050 and 1060 according to a predetermined image processing coefficient. After performing output color correction, filter processing, gamma correction; S105) and halftone processing (S106), the image data is transferred to the printer 500.
[0118]
In step S107, the printer 500 performs print output 1070 based on the input image data.
[0119]
FIG. 13 illustrates a combined copy (two pages of document data) in which an image processing apparatus according to the first embodiment of the present invention reads two original images and combines them into one output print (recording paper) and prints them. FIG. 4 is a diagram showing a flow of first image processing, a flow of image data, and a flow of attribute flag data in a combined copy mode in which is printed on the same surface of one sheet (also referred to as a 2 in 1 print mode). Starting from the input of the image by the scanner unit, various types of image processing on the input image processing unit 200, the intermediate image processing unit 300, the output image processing unit 400, and the image processing until output from the printer unit, image data, attribute flag data Corresponding to the flow of In addition, S201 to S208 indicate each step. Further, it is assumed that the processing of S201 to S208 is controlled and executed by the CPU 600 shown in FIG.
[0120]
The first image 1110 read first is allocated to the left side of the print output (recording paper) 1180 that is combined and bound and output, and the second image 1111 read thereafter is allocated to the right side of the print output 1180. The following will be described as the assignment.
[0121]
First, in step S201, the first original is scanned by the scanner unit 110 to input an input image 1110, and the first input image (first page document data) input by the scanner unit 110 is input. ) 1110 enters the input image processing unit 200, and the sub-scanning color shift correcting unit 201, the main scanning color shift correcting unit 202, the image area determining unit 203, the filter processing unit 204, the histogram processing unit 205, and the input shown in FIG. Sub-scanning color shift correction, main-scanning color shift correction, image area determination, filter processing, histogram processing, and input color correction by the color correction unit 206 are performed. In this figure, only the image area determination processing (S202) and the filter processing (S203) by the image area determination unit 203 and the filter processing unit 204 are described. More specifically, the image data 1120 subjected to the sub-scanning color shift correction and the main-scanning color shift correction by the sub-scanning color shift correcting unit 201 and the main scanning color shift correcting unit 202 are sent to the image area determining unit 203 in step S202. The image data is input and subjected to image area determination processing. As a result, the attribute flag data 1122 described above is generated.
[0122]
After that, in step S203, the image data 1130 that has been subjected to the optimal filtering processing for each attribute area according to the attribute of the attribute flag data 1132 by the filter processing unit 204 is subjected to the histogram processing by the histogram processing unit 205 and the input color correction unit 206. , After being subjected to input color correction, is transferred to the intermediate image processing unit 300.
[0123]
In the intermediate image processing unit 300, in step S 204, compression processing is performed by the compression processing units 309 to 315 with a predetermined compression coefficient for each image area in the image data 1140 in accordance with the attribute flag data 1142, and the compression memory 314 and the large It is stored in the capacity storage HDD 315. As described above, the processes of S201 to S205 are performed on the second document.
[0124]
That is, in step S201, the second document is scanned by the scanner unit 110 and the second input image 1111 is input, and the input image (document data of the second page) input by the second scanner unit Like the first input image 1110, the input image processing unit 1111 enters the input image processing unit 200, and performs various image processing described with reference to FIG. 3 similarly to the first input image. Image data 1121 that has been subjected to image processing by the image processing units 201 and 202 upstream of the image area determination unit 203 is input to the image area determination unit 203 and subjected to image area determination processing (S202), and attribute flag data 1123 Is generated.
[0125]
After that, in the filter processing unit 204, the image data 1131 that has been subjected to the optimal filtering processing (S203) for each attribute region according to the attribute of the attribute flag data 1133 is output to the image processing units 205 and 205 downstream from the filter processing unit 204. After the remaining processing is performed by 206, the image data is transferred to the intermediate image processing unit 300, and is compressed by the compression processing units 309 to 315 according to the attribute flag data 1143 using a predetermined compression coefficient for each image area in the image data 1141. The process (S204) is performed and stored in the compression memory 314 and the mass storage HDD 315.
[0126]
When the image data 1140 and 1141 stored in the memory are read from the compression memory 314 and the large-capacity storage HDD 315 or from the compression memory 314 and the large-capacity storage HDD 315, as shown in the combined image 1150, the combined bookbinding processing is performed. (S205), it is handled as one piece of image data thereafter. Although the case where the combining processing is performed by the compression processing units 309 to 315 is described here, the combining may be performed by providing a combining processing unit in the intermediate image processing unit 300. That is, the coupling may be performed within the compression memory 314 and the large-capacity storage HDD 315, may be performed when reading from the compression memory 314 and the large-capacity storage HDD 315, or may be performed outside the compression memory 314 and the large-capacity storage HDD 315. The processing may be performed by the combination processing unit.
[0127]
Here, assuming that the image data 1140 and 1141 stored in the compression memory 314 and the large-capacity storage HDD 315 are combined in the compression memory 314 and the large-capacity storage HDD 315, they are decoded by the compression processing units 315 to 321 and output. It is input to the image processing unit 400.
[0128]
The attribute flag data 1142 and 1143 are also combined as attribute flag data 1151.
[0129]
The image data 1150 after the combined bookbinding is input to the output image processing unit 400, and the background data is removed by the background removal unit 401, the monochrome generation unit 402, the output color correction unit 403, the filter processing unit 404, the gamma correction unit 405, and the halftone processing unit 406. In accordance with the attribute flag data 1161 and 1171, the image data 1160 and 1170 have an optimum gamma for each image area such as a photograph area and a character area in the image data 1160 and 1170 according to a predetermined image processing coefficient. After performing correction and the like (background removal, monochrome generation, output color correction, filter processing, gamma correction; S206) and halftone processing (S207), the image data is transferred to the printer 500.
[0130]
Then, as described above, when the processing of the input image processing unit 200, the intermediate image processing unit 300, and the output image processing unit 400 ends, the print output 1080 is printed by the print unit 500 (S208).
[0131]
Note that among the gamma correction and others (substrate removal, monochrome generation, output color correction, filter processing, and gamma correction) shown in step S206, processing for switching processing coefficients for each pixel, such as output color correction and filter processing, is performed. In this case, the processing coefficients may be switched according to the attribute flag data 1161, and the processing may be performed in each image processing module.
[0132]
However, when processing is performed on the entire page, for example, before the input image is read, an operation panel unit (not shown) uses a printer driver screen on a computer or the like in the case of a print function, and displays the first input image 1110 on the first sheet. Is adjusted to increase the color balance adjustment and the density adjustment, and the second input image 1111 is adjusted and read to reduce the color balance adjustment and the density adjustment. In the gamma correction process performed by the gamma correction unit 405 of the output image processing unit 400 that performs the density adjustment, the image data is already one piece of combined image data such as the image data 1160. The first and second pages, that is, the left and right sides (document data corresponding to the first page arranged and formed on the same side of one recording sheet and the second page) It can not be subjected to different color balance adjustment or concentration adjustment document data) corresponding to the over-di th. Therefore, there occurs a problem that only the same color balance adjustment or density adjustment can be performed on the entire surface of one image data 1160 (corresponding to the first page arranged and formed on the same surface of one recording paper). Only the same image processing can be performed on the document data to be processed and the document data corresponding to the second page.)
[0133]
FIG. 14 shows an embodiment in which this problem is solved.
[0134]
FIG. 14 is a diagram illustrating a second image in a combined copy mode (combined copy mode) in which an image processing apparatus according to the first embodiment of the present invention reads two original images and combines them into one output print. FIG. 4 is a diagram showing a flow of processing, a flow of image data, and a flow of attribute flag data, starting from input of a document image by a scanner unit, and starting from input image processing unit 200, intermediate image processing unit 300, and output image processing unit 400. 13 corresponds to the flow of various types of image processing, image processing until output from the printer unit, image data, and attribute flag data, and performs processing equivalent to a part of the processing in the output image processing unit 400 shown in FIG. , The configuration in which processing is performed in the intermediate image processing unit 300. In addition, S301 to S308 indicate each step. It is assumed that the processes of S301 to S308 are integrally controlled and executed by the CPU 600 shown in FIG.
[0135]
As shown in FIG. 13, the first image 1210 read first is allocated to the left side of the print output 1180 that is combined and bound and output, and the second image 1211 read to the right side of the print output 1180 is displayed. Is described below.
[0136]
First, in step S301, the first original is scanned by the scanner unit 110 to input the first input image 1210, and the first input image (one page) input by the scanner unit 110 is input. The eye document data) 1210 enters the input image processing unit 200, and the sub-scanning color shift correcting unit 201, the main scanning color shift correcting unit 202, the image area determining unit 203, the filter processing unit 204, and the histogram processing illustrated in FIG. A sub-scanning color shift correction, a main scanning color shift correction, an image area determination, a filtering process, a histogram process, and an input color correction by the unit 205 and the input color correcting unit 206 are performed. In this figure, only the image area determination processing (S302) and the filter processing (S303) by the image area determination unit 203 and the filter processing unit 204 are described. More specifically, the image data 1220 that has been subjected to the sub-scanning color shift correction and the main-scanning color shift correction by the sub-scanning color shift correcting unit 201 and the main scanning color shift correcting unit 202 is transmitted to the image area determination unit 203 in step S302. The image data is input and subjected to image area determination processing. As a result, the attribute flag data 1222 described above is generated.
[0137]
Then, in step S303, the image data 1230 that has been subjected to the optimal filtering processing for each attribute area in accordance with the attribute of the attribute flag data 1232 by the filter processing unit 204 is subjected to the histogram processing by the histogram processing unit 205 and the input color correction unit 206. , After being subjected to input color correction, is transferred to the intermediate image processing unit 300.
[0138]
In the intermediate image processing unit 300, a background removal unit 302, a monochrome generation unit 303, an output color correction unit 304, and a filtering process in the intermediate image processing unit 300 are performed according to image processing coefficients to be applied to the first image data 1240. The gamma correction processing by the unit 305 and the gamma correction unit 306 (background removal, monochrome generation, output color correction, filter processing, gamma correction; S304) is performed according to the attribute flag data 1242.
[0139]
Then, in accordance with the attribute flag data 1252, a compression process (S305) is performed by the compression processing units 309 to 315 with a predetermined compression coefficient for each image region in the image data 1250, and stored in the compression memory 314 and the mass storage HDD 315. Is done. As described above, the processing of S301 to S305 is also performed on the second document.
[0140]
That is, in step S301, the second document is scanned by the scanner unit 110 and the second input image 1211 is input, and the input image (document data of the second page) input by the second scanner unit The input image 1211 enters the input image processing unit 200 in the same manner as the first input image 1210, and is subjected to various image processing described in FIG. 3 similarly to the first input image. Image data 1221 subjected to image processing by the image processing units 201 and 202 upstream of the image area determination unit 203 is input to the image area determination unit 203 and subjected to image area determination processing (S302), and attribute flag data 1223 Is generated.
[0141]
After that, in the filter processing unit 204, the image data 1231 that has been subjected to the optimal filtering processing (S303) for each attribute area according to the attribute of the attribute flag data 1233 is output to the image processing units 205 and 205 downstream of the filter processing unit 204. After the remaining processing is performed by 206, it is transferred to the intermediate image processing unit 300.
[0142]
In the intermediate image processing unit 300, a background removal unit 302, a monochrome generation unit 303, an output color correction unit 304, and a filtering process in the intermediate image processing unit 300 are performed according to image processing coefficients to be applied to the first image data 1241. The gamma correction processing by the unit 305 and the gamma correction unit 306 and the like (background removal, monochrome generation, output color correction, filter processing, gamma correction; S304) are performed according to the attribute flag data 1243.
[0143]
Then, according to the attribute flag data 1253, a compression process (S305) is performed by the compression processing units 309 to 315 with a predetermined compression coefficient for each image region in the image data 1251, and stored in the compression memory 314 and the mass storage HDD 315. Is done.
[0144]
The image data 1250 and 1251 stored in the memory are combined and bound as shown in a combined image 1260 when read out from the compression memory 314 and the large-capacity storage HDD 315 or from the compression memory 314 and the large-capacity storage HDD 315. (S306) Thereafter, it is handled as one image data. Although not illustrated here, as described in the description of FIG. 13, a combination processing unit may be provided in the intermediate image processing unit 300 to perform the combination. That is, the coupling may be performed within the compression memory 314 and the large-capacity storage HDD 315, may be performed when reading from the compression memory 314 and the large-capacity storage HDD 315, or may be performed outside the compression memory 314 and the large-capacity storage HDD 315. The processing may be performed by the combination processing unit.
[0145]
Here, assuming that the image data 1260 and the attribute flag data 1261 stored in the compression memory 314 and the large-capacity storage HDD 315 are combined in the compression memory 314 and the large-capacity storage HDD 315, the compression processing units 315 to 321 decode the image data 1260 and the attribute flag data 1261. Then, it is input to the output image processing unit 400.
[0146]
The attribute flag data 1252 and 1253 are also combined as attribute flag data 1261.
[0147]
After that, the image data 1260 is input to the output image processing unit 400 and subjected to image processing. The background processing unit 302, the monochrome generation unit 303, the output color correction unit 304, and the filter processing in the intermediate image processing unit 300 have already been processed. A gamma correction unit 305 and a gamma correction unit 306 perform gamma correction and other processing (background removal, monochrome generation, output color correction) for each of the left side (first input image) and right side (second input image) of the image data 1260. , Filter processing, and gamma correction; S304), the output image processing unit 400 performs processing by the background removal unit 401, the monochrome generation unit 402, the output color correction unit 403, the filter processing unit 404, and the gamma correction unit 405. Are all passed through, and only the halftone processing by the halftone processing unit 406 is performed according to the attribute flag data 1271. Photo area of 70, by a predetermined image processing coefficient for each image area such as a character region, optimally performed for each region (S307).
[0148]
Then, when the processes of the input image processing unit 200, the intermediate image processing unit 300, and the output image processing unit 400 are completed, the print output 1280 is printed by the printer unit (S308).
[0149]
That is, in the configuration shown in FIG. 13, before reading the input image, the operation panel unit (not shown) sets each of the left and right sides (for each page of the document data of a plurality of pages to be printed on a single sheet). When color balance adjustment and density adjustment were performed, different color balance adjustment and density adjustment could not be performed on the left and right surfaces. However, in the configuration shown in FIG. 14, two pieces of input image data 1210 and 1211 were used. Before the image data is converted into one image data 1260, image processing necessary for each page (including image processing according to a user operation such as color balance adjustment and density adjustment) is performed, as shown in S304 in FIG. In order to combine two pieces of image data into one piece after applying the processing to each piece of image data before combining, different processing is performed on each of the left and right surfaces when combining. It becomes possible.
[0150]
As described above, in the present embodiment, the combined print mode (Nin1 print mode) in which a plurality of document data for N pages (two pages in the above example) are arrayed and formed on the same surface of one recording medium (sheet). When a predetermined image processing (such as an image processing according to an instruction from a user such as a color balance adjustment or a density adjustment) is performed in a case where the selected document data is selected, a combining process after combining a plurality of document data into one document data The above-described image processing is prohibited from being performed on one piece of combined document data, and prior to the process of combining each piece of document data into one piece of document data, for each page, an instruction is given for each page. Performs image processing corresponding to the page, then combines the document data of the image-processed pages into one document data, and prints the combined document data on a sheet. (That is, input processing of document data → input processing of document data without performing the sequence of input processing of document data → combination processing of document data for N pages → image processing of one combined document data → print processing of combined document → Image processing of N pages of document data is performed for each page in accordance with an instruction designated for each page, and the N-pages of the desired image-processed document data are combined into one document data. Processing → Control to perform a sequence of print processing of the combined document).
[0151]
Here, in order to perform different processes for color balance adjustment and density adjustment (based on an instruction from the user, etc.) on the left and right sides (for each of a plurality of N pages), gamma correction processing and the like (background removal, A series of processes of monochrome generation, output color correction, filter processing, and gamma correction) are performed by a background removal unit 302, a monochrome generation unit 303, an output color correction unit 304, a filter processing unit 305, and a gamma correction unit in the intermediate image processing unit 300. Although the processing is performed before the binding by 306, if the only coefficient applied to each surface is the background removal unit 401 of the output image processing unit 400, the background removal by the background removal unit 302 in the intermediate image processing unit 300 Only the processing is performed, and only the background removal unit 401 is set to the through state in the output image processing unit 400 to generate monochrome, output color correction, filter processing, and gamma correction. It may be configured to perform a series of processes.
[0152]
Further, in the intermediate image processing unit 300, the background removal unit 401, the monochrome generation unit 402, the output color correction unit 403, the filter processing unit 404, the gamma for one image data 1240 and the second image data 1241 After the correction unit 405 and the halftone processing unit 406 perform background removal, monochrome generation, output color correction, filter processing, gamma correction, and halftone processing, the output image processing unit 400 Although the various image processing units are not made through, the same coefficient is applied to the entire combined image data, that is, the left and right surfaces. However, it is a matter of course that each image processing may be applied to the entire image data.
[0153]
As described above, in the case of performing the combined bookbinding or the like, before the combined bookbinding process, the gamma correction and other processes are independently performed on each of the plurality of image data in the intermediate image processing unit 300. That is, the configuration is such that the CPU 600 controls the flow of the second image processing shown in FIG.
[0154]
As described above, when performing binding and binding, image processing to be combined and bound is performed independently on each image page before being combined, so that each image page is combined into one image page after combining. Even at the time of bookbinding, the degree of freedom of image processing for each input image data is further increased, and it becomes possible to perform more optimal image processing on characteristics or image adjustment of individual image data, so that high-quality image data can be obtained. Can be provided.
[0155]
Note that, when performing combined bookbinding, the above-described sequence in which unique image processing is individually performed on each of a plurality of document data to be combined and bound before the document data is combined, and then combined and printed. In addition, after combining the plurality of document data into one document data, a common image processing is performed on the one combined document, and the sequence is printed. Alternatively, the program may be selectively executed according to the attribute of the image data.
[0156]
For example, when the user instructs predetermined image processing on a predetermined page together with the selection of the mode, a sequence capable of executing image processing for each page is selected prior to the combining process, and particularly the instruction is issued. If not, a sequence is selected that enables common image processing to be performed on one combined document after the combining process. Also, for example, when a plurality of documents to be combined are different types of data (a case where A4 size documents and A3 size documents are mixed, a case where photos and characters are mixed, etc.). Selects a sequence in which image processing for each page can be executed based on the attribute information, based on the attribute information, when a plurality of documents to be combined are data of the same type. , A sequence that enables common image processing to be performed on one combined document after the combining process is selected. The operation may be performed in this manner. As a result, it is possible to provide a user with more flexibility and flexibility in use, and to provide more convenient and flexible processing.
[0157]
[Second embodiment]
In the first embodiment, the various image processing units 302 to 307 in the intermediate image processing unit 300 and the various image processing units 401 to 406 in the output image processing unit 400 have the same configuration, but have exactly the same configuration. There is no need, and a configuration may be such that the intermediate image processing unit 300 includes a part of various image processing units in the output image processing unit 400 or a processing module that replaces them.
[0158]
[Third embodiment]
In the first embodiment, a configuration in which two pages of image data are combined into one page has been described. However, in the present embodiment, a configuration in which four pages are reduced to one page and a layout may be adopted. . Hereinafter, the embodiment will be described.
[0159]
FIG. 15 shows a combined copy (reduced layout copy mode; 4-in-1 print mode) in which an image processing apparatus according to a third embodiment of the present invention reads four original images, reduces the layout to one output print, and prints out the layout. FIG. 5 is a diagram showing a flow of image processing, a flow of image data, and a flow of attribute flag data at the time of inputting an original image by a scanner unit, and starting with an input image processing unit 200 and an intermediate image processing unit. The process 300 corresponds to the flow of image processing, image data, and attribute flag data until various image processes are performed on the output image processing unit 400 and output from the printer unit. S401 to S408 indicate each step. Further, it is assumed that the processes of S401 to S408 are controlled and executed by the CPU 600 shown in FIG. Further, although attribute flag data is not shown, attribute flag data is also generated and used as shown in the first embodiment.
[0160]
First, the first input image data 1410 is input by the scanner unit 110 (S401), and in the input image processing unit 200, attribute flag data (not shown) is generated by the image area determination unit 203 (S402).
[0161]
Thereafter, as described with reference to FIG. 14, for example, here, the background removal adjustment by the background removal unit 302 to the gamma correction processing from the gamma correction processing unit 306 are performed by the intermediate image processing unit 300 (S403).
[0162]
After the image processing is performed, predetermined reduction processing is performed in the reduction processing unit 322 (S404), and thereafter, compression processing is performed by the compression units 309 to 321 (S405). After the processes of S401 to S405 are performed in the same manner for the second, third, and fourth originals, the layout is performed (S406), and the layout is input to the output image processing unit 400. The halftone processing is performed by the tone processing unit 406 (S407), and the print output 1480 is printed by the printer unit (S408).
[0163]
Here, the configuration in which four pages are laid out in one page has been described, but the same applies to the layout of six pages (6 in 1 layout print mode), the layout of eight pages (8 in 1 layout print mode), and the layout of N pages. Needless to say.
[0164]
[Fourth embodiment]
The image processing apparatus of the present invention may be configured to be connected to a predetermined network. Hereinafter, the embodiment will be described.
[0165]
FIG. 16 is a block diagram of a digital image device having an image input, storage, output means and a network interface to which the image processing apparatus according to the fourth embodiment of the present invention can be applied. The same reference numerals are given.
[0166]
In the figure, reference numeral 1501 denotes a LAN interface, which is an interface unit capable of connecting to a network 1502 such as Ethernet (registered trademark).
[0167]
The compressed image data stored in the external storage device 315 for storing the compressed image in the intermediate image processing unit 300 shown in FIG. 4 is stored in a host computer 1503 connected to a network 1502 via a LAN interface 1501, Network transmission is possible to the server 1504, the image input / output device 1505, and the like.
[0168]
It is also possible to receive compressed image data from a host computer 1503, an image server 1504, an image input / output device 1505, and the like connected to the network 1502 via a network, and store the compressed image data in the external storage device 315.
[0169]
The LAN interface 1501 can be connected to a portion other than the above-described external storage device 315 such as the image bus 308. It is also possible to connect to the input image processing unit 200 and the output image processing unit 400. However, in consideration of the load on the network 1502, it is more efficient to transmit and receive the compressed image, so it is considered preferable to connect to the external storage device 315.
[0170]
Although not shown here, for example, a configuration is provided in which a JPEG encoding unit and a JPEG decoding unit are provided for encoding and decoding that do not require attribute flag data. At times, a configuration using the LAN interface 1501 may be adopted.
[0171]
Further, an image transmission / reception device such as a facsimile using a public line such as a telephone line may be connected to the image processing apparatus of the present invention, and image transfer may be performed using a public line. Alternatively, the image processing apparatus of the present invention may be connected to another image input / output device, image server, host computer, or the like so that the image can be transmitted and received.
[0172]
As described above, the present invention described above can be applied to document data in the copy function, document data in the print function, and document data in the facsimile function.
[0173]
Further, the image processing apparatus 1300 of the present application has a box function, and the present invention is also applicable to document data in the box function. The box function means that a plurality of document data from a scanner and at least one input unit from an external device can be stored in a hard disk provided inside the device without printing the document data, and later, at a desired timing by a user. This function is for selecting desired document data from the operation unit and reading and printing it. In the box function, the above-described processing can be applied to a case where a plurality of document data are read out and printed in the above-described combined mode.
[0174]
As described above, the present invention is applicable to document data of at least one of a plurality of functions including a copy function, a print function, a facsimile function, and a box function.
[0175]
As described above, when performing a combining process of combining a plurality of image data to generate one combined image data, such as a combined bookbinding or a reduced layout, a unique image processing for each of the combined image pages is performed. Are independently performed before the image data are combined, thereby increasing the flexibility of image processing for each piece of input image data even at the time of combined bookbinding or reduced layout, which results in one image page after combining. Since more optimal image processing can be performed on the characteristics or image adjustment of the image data, it is possible to provide an image processing apparatus that can generate high-quality image data.
[0176]
It should be noted that a configuration obtained by combining the first to fourth embodiments is also included in the present invention.
[0177]
Hereinafter, the configuration of a data processing program readable by the image processing apparatus according to the present invention will be described with reference to a memory map shown in FIG.
[0178]
FIG. 17 is a diagram illustrating a memory map of a storage medium that stores various data processing programs that can be read by the image processing apparatus according to the present invention.
[0179]
Although not shown, information for managing a group of programs stored in the storage medium, for example, version information, a creator, and the like are also stored, and information dependent on the OS or the like on the program reading side, for example, a program is identified and displayed. Icons and the like may also be stored.
[0180]
Further, data dependent on various programs is also managed in the directory. Further, when the program or data to be installed is compressed, a program or the like for decompressing may be stored.
[0181]
The functions shown in FIGS. 12, 14, and 15 in the present embodiment may be performed by a host computer by a program installed from the outside. In this case, the present invention is applied even when a group of information including a program is supplied to the output device from a storage medium such as a CD-ROM, a flash memory, or an FD, or from an external storage medium via a network. Things.
[0182]
As described above, the storage medium storing the program codes of the software for realizing the functions of the above-described embodiments is supplied to the system or the apparatus, and the computer (or CPU or MPU) of the system or the apparatus stores the storage medium in the storage medium. It goes without saying that the object of the present invention is also achieved by reading and executing the program code thus obtained.
[0183]
In this case, the program code itself read from the storage medium implements the novel function of the present invention, and the storage medium storing the program code constitutes the present invention.
[0184]
Examples of a storage medium for supplying the program code include a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD-ROM, magnetic tape, nonvolatile memory card, ROM, EEPROM, A silicon disk or the like can be used.
[0185]
When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also an OS (Operating System) running on the computer based on the instruction of the program code. It goes without saying that a part or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing.
[0186]
Further, after the program code read from the storage medium is written into a memory provided on a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that a CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
[0187]
Further, the present invention may be applied to a system including a plurality of devices or to an apparatus including a single device. Needless to say, the present invention can be applied to a case where the present invention is achieved by supplying a program to a system or an apparatus. In this case, by reading a storage medium storing a program represented by software for achieving the present invention into the system or the apparatus, the system or the apparatus can enjoy the effects of the present invention. .
[0188]
Further, by downloading and reading out a program represented by software for achieving the present invention from a database on a network by a communication program, the system or apparatus can enjoy the effects of the present invention. .
[0189]
【The invention's effect】
As described above, according to the first to seventeenth aspects of the present invention, when the combining process is performed by the image data combining unit, the input image processing unit Thus, the control unit controls each of the plurality of image data input by the input unit to independently perform predetermined image processing equivalent to any of the image processing executable by the output image processing unit. Therefore, even during combined bookbinding or reduced layout, which results in one image page after combining, the degree of freedom in image processing for each input image data is further increased, and the characteristics or image adjustment of individual image data are improved. Since it is possible to perform more optimal image processing, it is possible to generate high-quality image data.
[Brief description of the drawings]
FIG. 1 is a side sectional view showing a multi-function digital image input / output device (digital image device) to which an image processing apparatus according to a first embodiment of the present invention can be applied.
FIG. 2 is a block diagram of a digital image device having image input, storage, and output means to which the image processing apparatus of the present invention can be applied.
FIG. 3 is a block diagram illustrating a configuration of an input image processing unit illustrated in FIG. 2;
FIG. 4 is a block diagram illustrating a configuration of an intermediate image processing unit illustrated in FIG. 2;
FIG. 5 is a block diagram illustrating a configuration of an output image processing unit illustrated in FIG. 2;
6 is a block diagram illustrating a configuration of an image data encoding unit and an image data decoding unit illustrated in FIG.
FIG. 7 is a block diagram illustrating a configuration of an attribute flag data encoding unit which is a run-length encoder for attribute flag data illustrated in FIG. 4;
8 is a schematic diagram illustrating an example of document image data for which an image area is determined by the image area determination unit illustrated in FIG. 3;
FIG. 9 is a characteristic diagram illustrating characteristics of a read signal value when each image attribute is read by a CCD sensor.
10 is a diagram illustrating an example of attribute flag data of an input image (original image data illustrated in FIG. 8).
11 is a diagram illustrating a relationship between a signal of “3 bits” including a character flag, a graphic flag, and a halftone flag illustrated in FIG. 10 and an image attribute;
FIG. 12 illustrates a flow of image processing in a single-sided copy (single-sided copy mode) in which one document image is read and output and printed in the image processing apparatus according to the first exemplary embodiment of the present invention, and image data is output. FIG. 4 is a diagram showing a flow of the attribute flag data.
FIG. 13 is a diagram illustrating a first image in a combined copy mode (a combined copy mode) in which an image processing apparatus according to the first embodiment of the present invention reads two original images and combines them into one output print for printing; FIG. 4 is a diagram showing a flow of processing, a flow of image data, and a flow of attribute flag data.
FIG. 14 is a diagram illustrating a second image in a combined copy mode (combined copy mode) in which an image processing apparatus according to the first embodiment of the present invention reads two original images and combines them into one output print for printing; FIG. 4 is a diagram showing a flow of processing, a flow of image data, and a flow of attribute flag data.
FIG. 15 shows an image processing apparatus according to a third embodiment of the present invention, in which four original images are read, reduced to one output print, laid out and printed, in a combined copy (reduced layout copy mode). FIG. 4 is a diagram showing a flow of processing, a flow of image data, and a flow of attribute flag data.
FIG. 16 is a block diagram of a digital image device having an image input, storage, output unit and a network interface to which an image processing apparatus according to a fourth embodiment of the present invention can be applied.
FIG. 17 is a diagram illustrating a memory map of a storage medium that stores various data processing programs that can be read by the image processing apparatus according to the present invention.
[Explanation of symbols]
100 selector
110 Image Scanner
120 Page Description Language Rendering Unit
200 input image processing unit
203 Image area determination unit
300 Intermediate image processing unit
302 Substrate removal section
303 monochrome generator
304 output color correction unit
305 Filter processing unit
306 Gamma correction unit
307 Halftone processing section
400 output image processing unit
401 Substrate removal section
402 monochrome generator
403 Output color correction unit
404 Filter processing unit
405 Gamma correction unit
406 Halftone processing unit
500 Printer section
600 CPU
700 ROM
800 RAM

Claims (17)

画像データを入力する入力手段と、
前記入力手段により入力される画像データに対して複数の画像処理を実行可能な入力画像処理手段と、
前記入力画像処理手段により画像処理が施された複数の画像データを1つの画像データに結合した結合画像データを生成する結合処理を実行可能な画像データ結合手段と、
前記入力画像処理手段により画像処理が施された画像データもしくは前記画像データ結合手段により結合された結合画像データに対して複数の画像処理を実行可能な出力画像処理手段と、
前記出力画像処理手段により画像処理が施された画像データもしくは結合画像データを出力処理する出力手段とを有し、
前記入力画像処理手段により実行可能な複数の画像処理は、前記出力画像処理手段により実行可能な所定の画像処理を含むものであり、
前記画像データ結合手段により結合処理を行う場合には、前記画像データ結合手段により結合処理される前に、前記入力画像処理手段により、前記入力手段により入力される複数の画像データのそれぞれに対して前記所定の画像処理をそれぞれ独立に施すように制御する制御手段を更に有することを特徴とする画像処理装置。
Input means for inputting image data;
Input image processing means capable of executing a plurality of image processes on image data input by the input means,
Image data combining means capable of executing a combining process of generating combined image data by combining a plurality of image data subjected to image processing by the input image processing means into one image data;
Output image processing means capable of executing a plurality of image processes on the image data subjected to image processing by the input image processing means or the combined image data combined by the image data combining means,
Output means for outputting image data or combined image data subjected to image processing by the output image processing means,
The plurality of image processes executable by the input image processing unit include predetermined image processes executable by the output image processing unit,
When performing the combining process by the image data combining unit, before the combining process by the image data combining unit, the input image processing unit performs a process on each of the plurality of image data input by the input unit. An image processing apparatus, further comprising control means for controlling each of the predetermined image processes to be independently performed.
前記入力手段により入力される画像データに対して画素ごとの属性情報を示す属性フラグデータを生成する属性フラグデータ生成手段と、
前記属性フラグデータ生成手段によりそれぞれ生成された複数の属性フラグデータを1つの属性フラグデータに結合した結合属性フラグデータを生成する属性フラグ結合手段とを有し、
前記入力画像処理手段は、前記入力手段により入力される画像データに対して、該画像データに対応する属性フラグデータに基づく画像処理を施すものであり、
前記出力画像処理手段は、前記入力画像処理手段により画像処理が施された画像データもしくは前記画像データ結合手段により結合された結合画像データに対して、該画像データもしくは該結合画像データに対応する属性フラグデータもしくは結合属性フラグデータに基づく画像処理を施すものであり、
前記制御手段は、前記画像データ結合手段により結合処理を行う場合には、前記画像データ結合手段により結合処理される前に、前記入力手段により入力される複数の画像データのそれぞれに対して、各画像データに対応する属性フラグデータに基づいて、前記入力画像処理手段により前記所定の画像処理をそれぞれ独立に施すように制御することを特徴とする請求項1記載の画像処理装置。
Attribute flag data generating means for generating attribute flag data indicating attribute information for each pixel with respect to the image data input by the input means,
Attribute flag combining means for creating combined attribute flag data by combining a plurality of attribute flag data respectively generated by the attribute flag data generating means into one attribute flag data;
The input image processing means performs image processing based on attribute flag data corresponding to the image data, on image data input by the input means,
The output image processing means is provided for the image data processed by the input image processing means or the combined image data combined by the image data combining means, for the image data or an attribute corresponding to the combined image data. Image processing based on flag data or combination attribute flag data,
The control unit, when performing the combining process by the image data combining unit, before performing the combining process by the image data combining unit, for each of the plurality of image data input by the input unit, 2. The image processing apparatus according to claim 1, wherein the input image processing unit controls the predetermined image processing independently based on attribute flag data corresponding to the image data.
前記所定の画像処理は、ガンマ補正処理を含むことを特徴とする請求項1又は2記載の画像処理装置。3. The image processing apparatus according to claim 1, wherein the predetermined image processing includes a gamma correction process. 前記画像データもしくは結合画像データを圧縮/解凍する画像データ圧縮/解凍手段を有することを特徴とする請求項1記載の画像処理装置。2. The image processing apparatus according to claim 1, further comprising image data compression / decompression means for compressing / decompressing the image data or the combined image data. 前記画像データもしくは結合画像データを圧縮/解凍する画像データ圧縮/解凍手段と、
前記属性フラグデータもしくは結合属性フラグデータを圧縮/解凍する属性フラグデータ圧縮/解凍手段と、
を有することを特徴とする請求項2記載の画像処理装置。
Image data compression / decompression means for compressing / decompressing the image data or the combined image data;
Attribute flag data compression / decompression means for compressing / decompressing the attribute flag data or the combined attribute flag data;
The image processing apparatus according to claim 2, comprising:
画像データを入力する入力工程と、
該入力される画像データに対して複数の画像処理を実行する入力画像処理工程と、
該画像処理が施された複数の画像データを1つの画像データに結合した結合画像データを生成する結合処理を実行する画像データ結合工程と、
前記画像データもしくは前記結合画像データに対して複数の画像処理を実行する出力画像処理工程と、
該画像処理が施された画像データもしくは結合画像データを出力処理する出力工程とを有し、
前記入力画像処理工程は、前記結合処理を行う場合には、前記画像データ結合工程により結合処理される前に、前記入力される複数の画像データのそれぞれに対して、前記出力画像処理工程により実行可能ないずれかの画像処理と同等の所定の画像処理を、それぞれ独立に施すことを特徴とする画像処理方法。
An input step of inputting image data;
An input image processing step of performing a plurality of image processes on the input image data,
An image data combining step of performing a combining process of generating combined image data by combining the plurality of image data subjected to the image processing into one image data;
An output image processing step of performing a plurality of image processes on the image data or the combined image data,
An output step of outputting image data or combined image data on which the image processing has been performed,
When performing the combining process, the input image processing process is performed by the output image processing process on each of the plurality of input image data before the combining process is performed by the image data combining process. An image processing method, wherein predetermined image processing equivalent to any of possible image processing is independently performed.
入力される各画像データに対して画素ごとの属性情報を示す属性フラグデータを生成する属性フラグデータ生成工程と、
生成された複数の属性フラグデータを1つの属性フラグデータに結合した結合属性フラグデータを生成する属性フラグ結合工程とを有し、
前記入力画像処理工程は、入力される画像データに対して、該画像データに対応する属性フラグデータに基づく画像処理を施すものであり、
前記出力画像処理工程は、画像データもしくは結合画像データに対して、対応する属性フラグデータもしくは結合属性フラグデータに基づく画像処理を施すものであり、
前記入力画像処理工程は、前記結合処理を行う場合、結合処理される前に、入力される複数の画像データのそれぞれに対して、各画像データに対応する属性フラグデータに基づいて、前記所定の画像処理をそれぞれ独立に施すことを特徴とする請求項6記載の画像処理方法。
An attribute flag data generating step of generating attribute flag data indicating attribute information for each pixel for each input image data;
An attribute flag combining step of creating combined attribute flag data by combining the plurality of generated attribute flag data into one attribute flag data,
The input image processing step is for performing image processing on input image data based on attribute flag data corresponding to the image data,
The output image processing step is for performing image processing on the image data or the combined image data based on the corresponding attribute flag data or the combined attribute flag data,
The input image processing step, when performing the combining process, before performing the combining process, for each of the plurality of input image data, based on the attribute flag data corresponding to each image data, the predetermined 7. The image processing method according to claim 6, wherein the image processing is performed independently.
前記所定の画像処理は、ガンマ補正処理を含むことを特徴とする請求項6又は7記載の画像処理方法。The image processing method according to claim 6, wherein the predetermined image processing includes a gamma correction process. 前記画像データもしくは結合画像データを圧縮/解凍する画像データ圧縮/解凍工程を有することを特徴とする請求項6記載の画像処理方法。7. The image processing method according to claim 6, further comprising an image data compression / decompression step of compressing / decompressing the image data or the combined image data. 前記画像データもしくは結合画像データを圧縮/解凍する画像データ圧縮/解凍工程と、
前記属性フラグデータもしくは結合属性フラグデータを圧縮/解凍する属性フラグデータ圧縮/解凍工程と、
を有することを特徴とする請求項7記載の画像処理方法。
An image data compression / decompression step of compressing / decompressing the image data or the combined image data;
An attribute flag data compression / decompression step of compressing / decompressing the attribute flag data or the combined attribute flag data;
8. The image processing method according to claim 7, comprising:
請求項6〜10のいずれかに記載された画像処理方法を実行するためのプログラム。A program for executing the image processing method according to claim 6. 請求項6〜10のいずれかに記載された画像処理方法を実行するためのプログラムをコンピュータが読み取り可能に記憶した記憶媒体。A storage medium storing a computer readable program for executing the image processing method according to claim 6. 複数の文書データから1つの結合文書を作成する文書編集処理方法であって、
複数の文書データから1つの結合文書データを作成する結合ステップと、
文書データに対して所定の処理を行う処理ステップとを有し、
前記結合ステップにおける結合処理後の1つの結合文書データに対して前記処理ステップによる前記所定の処理を実行せずに、前記結合ステップにおける結合処理に先立ち、前記複数の文書データの各文書データ毎の前記処理ステップにおける前記所定の処理を実行可能に制御する制御ステップを有することを特徴とする文書編集処理方法。
A document editing processing method for creating one combined document from a plurality of document data,
A combining step of creating one combined document data from a plurality of document data;
Processing steps for performing predetermined processing on the document data,
Without performing the predetermined process in the processing step on one combined document data after the combining process in the combining step, prior to the combining process in the combining step, each of the plurality of document data is A document editing processing method, comprising a control step of controlling the predetermined processing in the processing step to be executable.
前記文書データは、コピー機能及びプリント機能及びファクシミリ機能及びボックス機能のうちの少なくとも何れかの機能における文書データであることを特徴とする請求項13記載の文書編集処理方法。14. The document editing method according to claim 13, wherein the document data is document data in at least one of a copy function, a print function, a facsimile function, and a box function. 前記結合ステップにおける結合処理後の1つの結合文書データに対して前記処理ステップによる前記所定の処理を実行可能にするシーケンス、及び前記結合ステップにおける結合処理に先立ち、前記複数の文書データの各文書データ毎の前記処理ステップにおける前記所定の処理を実行可能にするシーケンスを、選択可能にすることを特徴とする請求項13記載の文書編集処理方法。A sequence for enabling the predetermined processing in the processing step to be performed on one piece of combined document data after the combining processing in the combining step, and each document data of the plurality of document data prior to the combining processing in the combining step 14. The document editing processing method according to claim 13, wherein a sequence enabling execution of the predetermined processing in each processing step is selectable. 請求項13〜15のいずれかに記載された文書編集処理方法を実行するためのプログラム。A program for executing the document editing processing method according to any one of claims 13 to 15. 請求項13〜15のいずれかに記載された文書編集処理方法を実行するためのプログラムをコンピュータが読み取り可能に記憶した記憶媒体。A storage medium storing a computer readable program for executing the document editing processing method according to claim 13.
JP2002243108A 2002-08-23 2002-08-23 Image processor, image processing method, document edition processing method, program, and memory medium Pending JP2004088201A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002243108A JP2004088201A (en) 2002-08-23 2002-08-23 Image processor, image processing method, document edition processing method, program, and memory medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002243108A JP2004088201A (en) 2002-08-23 2002-08-23 Image processor, image processing method, document edition processing method, program, and memory medium

Publications (1)

Publication Number Publication Date
JP2004088201A true JP2004088201A (en) 2004-03-18

Family

ID=32051954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002243108A Pending JP2004088201A (en) 2002-08-23 2002-08-23 Image processor, image processing method, document edition processing method, program, and memory medium

Country Status (1)

Country Link
JP (1) JP2004088201A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007201611A (en) * 2006-01-24 2007-08-09 Fuji Xerox Co Ltd Image processing apparatus, image forming apparatus, image processing method, image forming method, and program
US7685517B2 (en) 2004-04-16 2010-03-23 Canon Kabushiki Kaisha Image editing of documents with image and non-image pages

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7685517B2 (en) 2004-04-16 2010-03-23 Canon Kabushiki Kaisha Image editing of documents with image and non-image pages
US8689100B2 (en) 2004-04-16 2014-04-01 Canon Kabushiki Kaisha Document processing apparatus, control method therefor, and computer program
JP2007201611A (en) * 2006-01-24 2007-08-09 Fuji Xerox Co Ltd Image processing apparatus, image forming apparatus, image processing method, image forming method, and program

Similar Documents

Publication Publication Date Title
US7319548B2 (en) Image processing device having functions for detecting specified images
JP4261739B2 (en) Image processing apparatus, image processing method, storage medium, and image processing system
US7646925B2 (en) Image processing apparatus, image processing method, program, and storage medium
KR100757631B1 (en) Image processing apparatus and its method
JP4402580B2 (en) Image processing system
JP2007081747A (en) Image processing apparatus
JP2006341496A (en) Complex machine
JP5225201B2 (en) Image processing device
JP2010016703A (en) Image processing apparatus and image processing method
JP2004112695A (en) Image processing apparatus and processing method thereof
JP3984817B2 (en) Image processing apparatus and method, medium, and program
JP4497684B2 (en) Image processing apparatus and method
JP5052562B2 (en) Image processing device
JP2001186356A (en) Picture compression device, picture compresion method and computer readable storage medium
JP2004128664A (en) Image processor and processing method
JP2004088201A (en) Image processor, image processing method, document edition processing method, program, and memory medium
JP2001309183A (en) Image processing unit and method
JP2005117290A (en) Image processing method, image processing system, image processing apparatus, and data storage device
JP5072907B2 (en) Image processing device
JP2007019602A (en) Image input output apparatus
JP4474001B2 (en) Image processing apparatus and method
JP2008022082A (en) Image forming apparatus and control method thereof
JP2001211336A (en) Apparatus and method for image processing, storage medium, and image processing system
JP2001211318A (en) Device and method for image processing, storage medium, and image processing system
JP2006157806A (en) Image processor