JP5652067B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP5652067B2
JP5652067B2 JP2010199308A JP2010199308A JP5652067B2 JP 5652067 B2 JP5652067 B2 JP 5652067B2 JP 2010199308 A JP2010199308 A JP 2010199308A JP 2010199308 A JP2010199308 A JP 2010199308A JP 5652067 B2 JP5652067 B2 JP 5652067B2
Authority
JP
Japan
Prior art keywords
image
area
processing
target area
editing process
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010199308A
Other languages
Japanese (ja)
Other versions
JP2012060262A (en
Inventor
平 松岡
平 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2010199308A priority Critical patent/JP5652067B2/en
Publication of JP2012060262A publication Critical patent/JP2012060262A/en
Application granted granted Critical
Publication of JP5652067B2 publication Critical patent/JP5652067B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Record Information Processing For Printing (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

近年においては、デジタルカラー複写機は、複写機単体としてだけではなく、デジタル画像データを扱う他の装置との親和性が高まり、ファクシミリ機能、プリンタ機能、配信スキャナ機能などと融合し、複合機(MFP:Multi Function Printer)と呼ばれるようになっている。さらには、HDD(Hard Disc Drive)等の記録メディアの大容量化や低コスト化が進んだことにより、大容量の記憶媒体がMFPに搭載されるようになってきている。この大容量の記憶媒体に、一度スキャンした原稿画像を蓄積したり、他の媒体より入力された画像を蓄積したりすることができる。蓄積されたこれらの画像は、再び読み出すことが可能であり、蓄積時とは異なる用途にも再利用することができる。例えば、原稿画像をスキャナで読取り、配信スキャナ機能で送信された画像をHDDに蓄積しておけば、もう一度原稿画像をスキャナで読み取ることなく、原稿画像を読み取ったMFPとは異なるMFPに画像データを配信したり、転写紙に改めて出力をしたりすることができるようになる。更には、原稿画像のスキャン時には等倍で出力した後、この原稿画像を蓄積したものに対して、拡大処理、縮小処理、強調処理、平滑処理及び色変換処理などの各種画像編集処理を行って出力したりすることもできる。   In recent years, digital color copiers have become more compatible with other devices that handle digital image data, not just as copiers alone, but have been integrated with facsimile functions, printer functions, distribution scanner functions, etc. It is called MFP (Multi Function Printer). Furthermore, as storage media such as HDDs (Hard Disc Drives) increase in capacity and cost, large-capacity storage media have been installed in MFPs. A document image scanned once can be stored in this large-capacity storage medium, or an image input from another medium can be stored. These accumulated images can be read out again, and can be reused for different purposes from the time of accumulation. For example, if an original image is read by a scanner and an image transmitted by the distribution scanner function is stored in the HDD, the image data is transferred to an MFP different from the MFP that read the original image without reading the original image again by the scanner. It can be distributed or output again on transfer paper. Furthermore, after scanning the original image, it is output at the same magnification, and then subjected to various image editing processing such as enlargement processing, reduction processing, enhancement processing, smoothing processing, and color conversion processing on the stored original image. It can also be output.

ところで、従来より、画像に対して文字領域か絵柄領域かを判別する像域分離処理や有彩画像か無彩画像かを判定するカラー判定処理などの画像を認識する画像認識処理は、その結果に応じて適切な処理が施されるように処理が切り替わることから、フィルタ処理、色補正処理、γ処理などよりも前で行う必要がある。このため、このような画像認識処理の結果を属性情報として画像データに対応付ける技術が開発されている(例えば特許文献1〜4参照)。例えば、特許文献4には、画像データと共に当該画像データの像域分離結果などを付帯情報として同時に蓄積することにより、蓄積装置に蓄積する画像データの品質を保ちつつ、蓄積装置を有効に活用することが可能な画像処理技術が記載されている。   By the way, the image recognition processing for recognizing images such as image region separation processing for determining whether the image is a character region or a pattern region and color determination processing for determining whether the image is a chromatic image or an achromatic image has been conventionally obtained Therefore, it is necessary to perform the process before the filter process, the color correction process, the γ process, and the like. For this reason, techniques for associating the result of such image recognition processing with image data as attribute information have been developed (see, for example, Patent Documents 1 to 4). For example, in Patent Document 4, the storage device is effectively used while maintaining the quality of the image data stored in the storage device by simultaneously storing the image area separation result of the image data and the like as auxiliary information together with the image data. A possible image processing technique is described.

このような技術の下、蓄積装置に蓄積された画像データを利用する際に、当該画像データに対して行う画像編集処理として、例えば当該画像データによって表される画像の特定の領域に、色地をつけたり、網掛けを施したり、特定の領域の色を反転させたり、特定の領域を移動させたりする処理がある。このような処理は、画像の特定の領域を目立たせるために、主にユーザの操作入力に応じて行われ、画像編集処理の内容や特定の領域は操作入力部を介してユーザにより指定される。例えば、画像において、文字が表れる特定の領域において色地をつける処理を行う場合がある。通常、コピーを行う際に、画像において白色を背景とする黒色の文字(黒文字)をC(シアン)M(マゼンタ)Y(イエロー)Bk(黒)の各色版のトナーを用いたフルカラーで画像を出力すると、文字の画質が著しく劣化するため、Bk版以外の色を消去(黒文字処理)して画像を出力する。このような黒文字処理を実施するために、像域分離処理によって画像中の文字領域を抽出するが、一般に像域分離処理においては、原稿画像における実際の文字よりも一回り(2〜3画素程度)大きな領域を文字領域として判別する。これは、出力対象の画像を転写紙に転写する際に、各色版が2〜3画素ずれた時でも正確に黒文字処理が出来るためであったり、原稿画像をスキャナで読み取った時に、画像のエッジ部分がぼけるため、二値的に文字のエッジ部分を決定できないためであったりする。このような像域分離処理の結果を、蓄積された画像データの付帯情報として用いた場合、当該結果における文字領域が原稿画像の文字よりも一回り大きい状態で、白色を背景とする黒文字に対して黒文字処理を実施することになる。これにより、当該黒文字の周りが白く抜けて画質が劣化する。黒文字処理を実施しなかった場合でも、文字領域に対して強い強調処理を実施すると、実際の文字領域の外側は白く抜け易い。   Under such a technique, when using the image data stored in the storage device, as an image editing process to be performed on the image data, for example, a color area is applied to a specific area of the image represented by the image data. There are processes such as adding, shading, reversing the color of a specific area, or moving a specific area. Such processing is performed mainly in response to a user's operation input in order to make a specific area of the image stand out, and the content of the image editing process and the specific area are specified by the user via the operation input unit. . For example, there is a case where a color background is applied to a specific area where characters appear in an image. Normally, when copying, a black character (black character) with a white background in the image is converted into a full color image using toners of each color plate of C (cyan), M (magenta), Y (yellow), and Bk (black). When the image is output, the image quality of the character is remarkably deteriorated. Therefore, the color other than the Bk version is deleted (black character processing) and the image is output. In order to carry out such black character processing, a character region in an image is extracted by image region separation processing. Generally, in image region separation processing, the character region is one round (about 2 to 3 pixels) than an actual character in a document image. ) Identify a large area as a character area. This is because, when the image to be output is transferred to the transfer paper, even if each color plate is shifted by 2 to 3 pixels, black character processing can be performed accurately, or when the original image is read by a scanner, the edge of the image This is because the edge portion of the character cannot be determined binaryly because the portion is blurred. When the result of such image area separation processing is used as supplementary information of the accumulated image data, the character area in the result is slightly larger than the characters of the original image, and the black character with a white background is used. Therefore, black character processing will be performed. As a result, the area around the black character is white and image quality deteriorates. Even when black character processing is not performed, if strong emphasis processing is performed on the character region, the outside of the actual character region is likely to be white.

また、例えば、画像において、文字が表れる特定の領域の色を黒から白又は白から黒に反転させる処理(反転処理という)を行う場合がある。この場合、文字領域については、蓄積された画像データの付帯情報における像域分離処理の結果をそのまま用いても構わない。また、反転させる特定の領域を囲む外縁部については、黒文字として取り扱うべきである。画像編集処理対象の領域を囲む外縁部に関しては、画像編集処理対象の領域に色地を付けた上で境界線に黒枠(線)を付加した場合、黒枠を黒文字として取り扱うと、黒枠の近傍が白抜けしてしまうという、上述と同類の画質の劣化が発生してしまう恐れがある。しかしながら、黒文字に色地を付けずに黒枠のみ付加した場合は、黒枠を黒文字として取り扱うことで画質を保てる。   In addition, for example, there is a case where a process (referred to as an inversion process) for reversing the color of a specific area where a character appears in an image from black to white or from white to black may be performed. In this case, for the character area, the result of the image area separation process in the incidental information of the accumulated image data may be used as it is. Further, the outer edge surrounding the specific area to be inverted should be handled as black characters. With regard to the outer edge surrounding the image editing process area, if a black frame (line) is added to the boundary line after adding a color background to the image editing process area, if the black frame is handled as a black character, There is a risk that image quality deterioration similar to that described above will occur. However, when only a black frame is added to a black character without adding a color background, the image quality can be maintained by treating the black frame as a black character.

また、例えば、画像において、特定の領域内の黒文字を赤色に色変換し、さらに黒枠を付ける場合は、画像データと共に蓄積された付帯情報をそのまま利用すると、文字領域に黒文字処理が実施されてしまうため、色変換により得られた赤い文字が出力されず、黒枠のみ出力されるといったことも起きる。   Further, for example, when black characters in a specific area are converted into red color and a black frame is added in the image, if the incidental information accumulated together with the image data is used as it is, black character processing is performed on the character area. Therefore, red characters obtained by color conversion may not be output, and only a black frame may be output.

以上、幾つかの例を示したように、蓄積された原稿画像をユーザが再利用する際に、画像編集処理の内容によって、画像データと共に蓄積された付帯情報をそのまま利用できる場合もあるし、できない場合もあった。   As described above, as shown in some examples, when the user reuses the stored original image, depending on the content of the image editing process, the incidental information stored together with the image data may be used as it is. In some cases, it was not possible.

また、画像編集処理として、特定の領域を移動させる処理において、特定の領域についてユーザの指定の仕方や、移動位置によっては、特定の領域に文字が含まれ且つ当該特定の領域に絵柄領域が重なる場合がある。この場合、特定の領域及び絵柄領域が重なった範囲にわたって画像編集処理が実施される。この場合、注目画素だけに着目して、重なっている2つの領域のいずれかが文字ならば文字領域であると判別するというような、単純な論理和の演算だけでは最適な画像編集処理を実施することは困難であった。   In addition, in the process of moving a specific area as an image editing process, depending on how the user designates the specific area and the moving position, characters are included in the specific area, and the design area overlaps the specific area. There is a case. In this case, the image editing process is performed over a range where the specific area and the pattern area overlap. In this case, focusing on only the pixel of interest, an optimal image editing process is performed with only a simple OR operation, such as determining that one of the two overlapping areas is a character area if it is a character. It was difficult to do.

本発明は、上記に鑑みてなされたものであって、記憶手段に記憶された画像データ及び当該画像データの画像特徴を示す情報を用いて画像編集処理を行う場合に、画質の劣化を防止可能な画像処理装置、画像処理方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above, and can prevent deterioration in image quality when image editing processing is performed using image data stored in a storage unit and information indicating image characteristics of the image data. An object of the present invention is to provide an image processing apparatus, an image processing method, and a program.

上述した課題を解決し、目的を達成するために、本発明は、画像処理装置であって、原稿に表される画像である原稿画像を読み取る読取手段と、前記原稿画像に対して、画素毎に文字領域であるか写真領域であるかを表す画像特徴を判定する判定手段と、前記原稿画像を表す画像データに対して画像処理を行う画像処理手段と、前記画像データに対して前記画像処理手段が前記画像処理を行った前記画像データを、前記画像特徴を示す特徴情報と対応付けて記憶する記憶手段と、前記記憶手段に記憶された前記画像データに対する画像編集処理を指示する指示手段と、前記画像データによって表される前記原稿画像のうち前記画像編集処理の対象とする領域である対象領域を指定する指定手段と、前記記憶手段に記憶された前記画像データ及び前記特徴情報を用いて、前記指定手段が指定した前記対象領域に対して、前記指示手段が指示した前記画像編集処理を行う画像編集手段とを備え、前記画像編集手段は、指示された前記画像編集処理の内容に応じて、前記対象領域の画像特徴を異なる画像特徴に変更して、前記対象領域に対して、前記画像編集処理を行うことを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention provides an image processing apparatus, a reading unit that reads a document image that is an image represented on a document , Determination means for determining whether the image area is a character area or a photographic area, image processing means for performing image processing on image data representing the document image, and image processing on the image data Storage means for storing the image data that has been subjected to the image processing in association with feature information indicating the image feature; and instruction means for instructing image editing processing on the image data stored in the storage means; Designating means for designating a target area which is a target area for the image editing process in the document image represented by the image data, and the image data stored in the storage means. Image editing means for performing the image editing process instructed by the instruction means for the target area designated by the designation means using the feature information, wherein the image editing means According to the content of the editing process, the image feature of the target area is changed to a different image feature, and the image editing process is performed on the target area.

また、本発明は、画像処理装置で実行される画像処理方法であって、前記画像処理装置は、原稿に表される画像である原稿画像を読み取る読取手段と、判定手段と、画像処理手段と、記憶制御手段と、指示手段と、指定手段と、画像編集手段とを備え、前記判定手段が、前記原稿画像に対して、画素毎に文字領域であるか写真領域であるかを表す画像特徴を判定する判定ステップと、前記画像処理手段が、前記原稿画像を表す画像データに対して画像処理を行う画像処理ステップと、前記記憶制御手段が、前記画像データに対して前記画像処理手段が前記画像処理を行った前記画像データを、前記画像特徴を示す特徴情報と対応付けて記憶手段に記憶させる記憶制御ステップと、前記指示手段が、前記記憶手段に記憶された前記画像データに対する画像編集処理を指示する指示ステップと、前記指定手段が、前記画像データによって表される前記原稿画像のうち前記画像編集処理の対象とする領域である対象領域を指定する指定ステップと、前記画像編集手段が、前記記憶手段に記憶された前記画像データ及び前記特徴情報を用いて、前記指定手段が指定した前記対象領域に対して、前記指示手段が指示した前記画像編集処理を行う画像編集ステップとを含み、前記画像編集ステップでは、指示された前記画像編集処理の内容に応じて、前記対象領域の画像特徴を異なる画像特徴に変更して、前記対象領域に対して、前記画像編集処理を行うことを特徴とする。 The present invention is also an image processing method executed by an image processing apparatus, wherein the image processing apparatus reads a document image that is an image represented on a document, a determination unit, and an image processing unit. A storage control means, an instruction means, a designation means, and an image editing means, wherein the determination means indicates whether the original image is a character area or a photographic area for each pixel. A determination step for determining the image data, an image processing step in which the image processing means performs image processing on the image data representing the document image, a storage control means, and the image processing means for the image data. A storage control step for storing the image data subjected to image processing in a storage unit in association with feature information indicating the image feature, and the instruction unit in the image data stored in the storage unit An instruction step for instructing an image editing process to be performed; a designation step for designating a target area, which is a target area for the image editing process, in the document image represented by the image data; and the image An image editing step in which the editing unit performs the image editing process instructed by the instruction unit on the target area specified by the specifying unit, using the image data and the feature information stored in the storage unit. In the image editing step, the image feature of the target area is changed to a different image feature in accordance with the instructed content of the image editing process, and the image editing process is performed on the target area. It is characterized by performing.

また、本発明は、上記の方法をコンピュータに実行させるためのプログラムである。   Moreover, this invention is a program for making a computer perform said method.

本発明によれば、記憶手段に記憶された画像データ及び当該画像データの画像特徴を示す情報を用いて画像編集処理を行う場合に、画質の劣化を防止可能になる。   According to the present invention, when image editing processing is performed using image data stored in the storage unit and information indicating image characteristics of the image data, it is possible to prevent deterioration in image quality.

図1は、第1の実施の形態にかかる画像形成装置の構成を例示する図である。FIG. 1 is a diagram illustrating the configuration of the image forming apparatus according to the first embodiment. 図2は、第1画像処理装置52の詳細な構成を例示する図である。FIG. 2 is a diagram illustrating a detailed configuration of the first image processing device 52. 図3は、基準チャート示す図である。FIG. 3 is a diagram showing a reference chart. 図4は、第2画像処理装置66の構成を例示する図である。FIG. 4 is a diagram illustrating the configuration of the second image processing device 66. 図5は、画像形成装置50の行うコピー処理の手順を示すフローチャートである。FIG. 5 is a flowchart showing a copy processing procedure performed by the image forming apparatus 50. 図6は、画像形成装置50が行うスキャナ配信処理の手順を示すフローチャートである。FIG. 6 is a flowchart illustrating a procedure of scanner distribution processing performed by the image forming apparatus 50. 図7は、画像形成装置50が、コピー処理やスキャナ配信処理を行うことなく、画像蓄積処理のみを行う場合の処理の手順を示すフローチャートである。FIG. 7 is a flowchart illustrating a processing procedure when the image forming apparatus 50 performs only the image accumulation processing without performing the copy processing or the scanner distribution processing. 図8は、画像形成装置50がコピー処理と画像蓄積処理とを同時に行う場合の処理の手順を示すフローチャートである。FIG. 8 is a flowchart illustrating a processing procedure when the image forming apparatus 50 performs the copy process and the image storage process at the same time. 図9は、画像形成装置50がスキャナ配信処理と画像蓄積処理とを同時に行う場合の処理の手順を示すフローチャートである。FIG. 9 is a flowchart illustrating a processing procedure when the image forming apparatus 50 performs the scanner distribution process and the image storage process at the same time. 図10は、画像形成装置50が画像編集処理を行って転写紙に画像を出力する処理を行う場合の処理の手順を示すフローチャートである。FIG. 10 is a flowchart illustrating a processing procedure when the image forming apparatus 50 performs an image editing process to output an image on a transfer sheet. 図11は、原稿画像を例示する図である。FIG. 11 is a diagram illustrating a document image. 図12は、画像編集処理後の画像と、文字領域又は絵柄領域の判定と、有彩画像又は無彩画像の判定とを例示する図である。FIG. 12 is a diagram illustrating an image after image editing processing, determination of a character area or a pattern area, and determination of a chromatic image or an achromatic image. 図13は、画像編集処理対象の領域を指定する方法を説明するための図である。FIG. 13 is a diagram for explaining a method of designating an image editing process target area. 図14は、画像編集処理対象の領域を指定する方法を説明するための図である。FIG. 14 is a diagram for explaining a method of designating an image editing process target area. 図15は、図14に示される方法で指定された画像編集処理対象の領域に対して画像編集処理を行った結果を例示する図である。FIG. 15 is a diagram exemplifying a result of image editing processing performed on an image editing processing target area designated by the method shown in FIG. 図16は、画像編集処理後の画像と、文字領域又は絵柄領域の判定と、有彩画像又は無彩画像の判定とを例示する図である。FIG. 16 is a diagram illustrating an image after image editing processing, determination of a character region or a pattern region, and determination of a chromatic image or an achromatic image. 図17は、画像編集処理後の画像の一部を例示する図である。FIG. 17 is a diagram illustrating a part of the image after the image editing process. 図18は、第2の実施の形態に係る原稿画像を例示する図である。FIG. 18 is a diagram illustrating a document image according to the second embodiment. 図19は、図18に例示される原稿画像に対し画像編集処理対象の領域が指定された原稿画像を例示する図である。FIG. 19 is a diagram illustrating a document image in which an image editing process target area is designated with respect to the document image illustrated in FIG. 図20は、図18に例示される原稿画像に対し画像編集処理対象の領域を移動させた画像を例示する図である。FIG. 20 is a diagram exemplifying an image obtained by moving the image editing process target region with respect to the document image illustrated in FIG. 図21は、図18に例示される画像G2に対する像域分離結果を例示する図である。FIG. 21 is a diagram illustrating an image region separation result for the image G2 illustrated in FIG. 図22は、図18に例示される画像G3に対する像域分離結果を例示する図である。FIG. 22 is a diagram illustrating an image region separation result for the image G3 illustrated in FIG. 図23は、図18に例示される原稿画像全体の像域分離結果を示す図である。FIG. 23 is a diagram illustrating the image area separation result of the entire document image illustrated in FIG. 図24は、図18に例示される原稿画像全体のカラー判定結果を示す図である。FIG. 24 is a diagram illustrating the color determination result of the entire document image illustrated in FIG. 図25は、画像編集処理後の画像と、文字領域又は絵柄領域の判定と、有彩画像又は無彩画像の判定とを例示する図である。FIG. 25 is a diagram illustrating an image after image editing processing, determination of a character area or a pattern area, and determination of a chromatic image or an achromatic image. 図26は、画像編集処理後の画像を例示する図である。FIG. 26 is a diagram illustrating an image after the image editing process. 図27は、画像編集処理後の画像を例示する図である。FIG. 27 is a diagram illustrating an image after the image editing process. 図28は、画像編集処理後の画像と、文字領域又は絵柄領域の判定と、有彩画像又は無彩画像の判定とを例示する図である。FIG. 28 is a diagram illustrating an image after image editing processing, determination of a character area or a pattern area, and determination of a chromatic image or an achromatic image. 図29は、第3の実施の形態において、図18に例示される原稿画像に対し指定領域を移動させた画像を例示する図である。FIG. 29 is a diagram illustrating an image in which the designated area is moved with respect to the document image illustrated in FIG. 18 in the third embodiment. 図30は、画像編集処理後の画像と、文字領域又は絵柄領域の判定と、有彩画像又は無彩画像の判定とを例示する図である。FIG. 30 is a diagram illustrating an image after image editing processing, determination of a character area or a pattern area, and determination of a chromatic image or an achromatic image. 図31は、画像編集処理後の画像を例示する図である。FIG. 31 is a diagram illustrating an image after the image editing process. 図32は、第4の実施の形態において、図18に例示される原稿画像に対し指定領域が指定された原稿画像を例示する図である。FIG. 32 is a diagram illustrating a document image in which a designated area is designated with respect to the document image illustrated in FIG. 18 in the fourth embodiment. 図33は、画像編集処理後の画像と、文字領域又は絵柄領域の判定と、有彩画像又は無彩画像の判定とを例示する図である。FIG. 33 is a diagram illustrating an image after image editing processing, determination of a character region or a pattern region, and determination of a chromatic image or an achromatic image.

以下に添付図面を参照して、この発明にかかる画像処理装置、画像処理方法及びプログラムの一実施の形態を詳細に説明する。   Exemplary embodiments of an image processing apparatus, an image processing method, and a program according to the present invention will be explained below in detail with reference to the accompanying drawings.

[第1の実施の形態]
図1は、本実施の形態にかかる画像形成装置の構成を示す図である。同図に示すように画像形成装置50は、読み取り装置51と、第1画像処理装置52と、第2画像処理装置66と、バス制御装置67と、HDD(Hard Disc Drive)68と、CPU(Central Processing Unit)53と、メモリ54と、プロッタI/F(Interface)装置55と、プロッタ装置56と、操作表示装置57と、回線I/F装置58と、外部I/F装置59と、SB(South Bridge)60と、ROM(Read Only Memory)61とを備える。
[First embodiment]
FIG. 1 is a diagram illustrating a configuration of an image forming apparatus according to the present embodiment. As shown in the figure, the image forming apparatus 50 includes a reading device 51, a first image processing device 52, a second image processing device 66, a bus control device 67, an HDD (Hard Disc Drive) 68, a CPU ( Central Processing Unit) 53, memory 54, plotter I / F (Interface) device 55, plotter device 56, operation display device 57, line I / F device 58, external I / F device 59, and SB (South Bridge) 60 and ROM (Read Only Memory) 61 are provided.

読み取り装置51は、CCD(Charge Coupled Device)光電変換素子からなるラインセンサとA/D(analog to digital)コンバータとそれらを駆動する駆動回路とを具備する(いずれも図示せず)。読み取り装置51は、セットされた原稿に表される画像(原稿画像)をスキャンして、原稿画像の濃淡情報を得て、これを用いて、原稿画像を表しRGB毎に各8ビットで表現されるRGB形式の画像データを生成してこれを第1画像処理装置52に出力する。ここでは読み取り装置51の読取り解像度は600dpiとするが解像度はこれに限るものではない。   The reading device 51 includes a line sensor composed of a CCD (Charge Coupled Device) photoelectric conversion element, an A / D (analog to digital) converter, and a drive circuit for driving them (none of them are shown). The reading device 51 scans an image (original image) represented on a set original, obtains density information of the original image, and uses this to represent the original image and is expressed by 8 bits for each RGB. RGB image data is generated and output to the first image processing device 52. Here, the reading resolution of the reading device 51 is 600 dpi, but the resolution is not limited to this.

第1画像処理装置52は、読み取り装置51から出力された画像データに対して、プロッタ装置56と外部装置であるPC63との両方に利用可能となるようにその性質を統一するなどの各種画像処理を行い、処理後の画像データを出力する。また、第1画像処理装置52は、読み取り装置51から出力された画像データによって表される原稿画像について、画像特徴を判定し、当該判定結果を付帯情報として出力すると共に、予め定めた特性に統一する各種画像処理を行って処理後の画像データを出力する。尚、画像特徴とは、例えば、画像の色彩に関する特徴として有彩画像又は無彩画像、白紙原稿又はそれ以外などや、画像の画質に関する特徴として文字画像又は写真画像かなどの特徴である。ここでは、第1画像処理装置52は、画像の特徴として、原稿画像について有彩画像であるか又は無彩画像であるかを判定する。特性とは、明度や鮮鋭性や色空間などのことである。また、第1画像処理装置52は、後述する像域分離処理を行い、像域分離結果を出力する。第1画像処理装置52の詳細な構成については後述する。   The first image processing device 52 performs various image processing such as unifying the properties of the image data output from the reading device 51 so that the image data can be used by both the plotter device 56 and the PC 63 which is an external device. To output the processed image data. Further, the first image processing device 52 determines the image characteristics of the document image represented by the image data output from the reading device 51, outputs the determination result as incidental information, and unifies it with predetermined characteristics. Various image processing is performed, and the processed image data is output. The image feature is, for example, a feature such as a chromatic image or achromatic image as a feature relating to the color of the image, a blank document or the like, or a character image or a photographic image as a feature relating to the image quality of the image. Here, the first image processing device 52 determines whether the document image is a chromatic image or an achromatic image as a feature of the image. The characteristics are brightness, sharpness, color space, and the like. The first image processing device 52 performs an image area separation process described later, and outputs an image area separation result. The detailed configuration of the first image processing device 52 will be described later.

バス制御装置67は、画像形成装置50内で必要な画像データや制御コマンド等の各種データの送受信を行うデータバスの制御装置であり、複数種のバス規格間のブリッジ機能を有している。本実施の形態では、バス制御装置67は、第1画像処理装置52,第2画像処理装置66及びCPU53と汎用規格I/F78で接続され、HDD68とATAバスで接続されてASIC化されている。汎用規格I/F78とは、例えばPCI−Expressバスである。バス制御装置67は、第1画像処理装置52から出力された画像データ及びその付帯情報を対応付けてCPU53に送ったり、HDD68に記憶させたりする。尚、これらをHDD68に記憶させる際には、バス制御装置67は、第1画像処理装置52から出力された画像データをCPU53に送り、CPU53において、当該画像データによって表される画像を縮小変倍したサムネイル画像が生成されて当該サムネイル画像を表すサムネイル画像データがバス制御装置67に送られる。バス制御装置67は、第1画像処理装置52から出力された画像データ及びその付帯情報と共に、当該画像データに対するサムネイル画像データを対応付けてHDD68に記憶させる。尚、付帯情報の詳細については後述する。HDD68は、各種データや各種プログラムを保存するための大型の記憶装置である。HDD68はここでは特に、画像データ及びその付帯情報を対応付けて記憶する。HDD68としては、例えば、IDEを拡張して規格化されているATAバス接続のハードディスクを使用することができる。   The bus control device 67 is a data bus control device that transmits and receives various data such as image data and control commands required in the image forming apparatus 50, and has a bridge function between a plurality of types of bus standards. In the present embodiment, the bus control device 67 is connected to the first image processing device 52, the second image processing device 66, and the CPU 53 by the general-purpose standard I / F 78, and is connected to the HDD 68 by the ATA bus to be an ASIC. . The general-purpose standard I / F 78 is, for example, a PCI-Express bus. The bus control device 67 associates the image data output from the first image processing device 52 and its supplementary information to the CPU 53 or stores them in the HDD 68. When these are stored in the HDD 68, the bus control device 67 sends the image data output from the first image processing device 52 to the CPU 53, and the CPU 53 reduces the image represented by the image data. The thumbnail image thus generated is generated, and thumbnail image data representing the thumbnail image is sent to the bus control device 67. The bus control device 67 stores the image data output from the first image processing device 52 and the accompanying information in association with the thumbnail image data for the image data in the HDD 68. Details of the incidental information will be described later. The HDD 68 is a large storage device for storing various data and various programs. In particular, the HDD 68 stores image data and associated information in association with each other. As the HDD 68, for example, an ATA bus-connected hard disk standardized by expanding IDE can be used.

ROM61は、ブートプログラムやコピーやスキャンや画像処理を行うための各種プログラムや各種データを記憶する不揮発性メモリである。メモリ54は、各種プログラムや各種データを一時的に記憶する揮発性メモリである。メモリ54には、例えば、DIMM(Dual Inline Memory Module)やHDD(Hard Disk Drive)が使用される。このようなメモリ54には、複数種のバス規格間をブリッジする際の処理の速度差を吸収するために一時的にやりとりする各種データが記憶されたり、CPU53が画像形成装置50の制御を行う際に実行するプログラムやその実行時に用いる各種データが記憶されたりする。各種データとしては画像データが記憶される。従って、CPU53はメモリ54に記憶された画像データを自由に読み出したり書き込んだりすることができる。CPU53は、当該画像形成装置50全体を制御するマイクロプロセッサである。CPU53としては、例えば、近年普及してきたIntegrated CPUを用いる。Integrated CPUとは、CPUコア単体に様々な機能を追加したマイクロプロセッサである。具体的には、例えば、PMC社のRM11100をCPU53として採用する。これには、PCI−Expressバスなどの各種汎用規格I/Fとの接続機能や、クロスバースイッチを使ってこれらの各種汎用規格I/F間を接続する機能がインテグレートされている。CPU53は、通常起動時にROM61に記憶されたブートプログラムを実行してシステムを起動し、その後は高速処理を行うため、高速にアクセス可能なメモリ54にプログラムを展開してこれを実行することにより各種処理を行う。   The ROM 61 is a non-volatile memory that stores various programs and various data for performing a boot program, copying, scanning, and image processing. The memory 54 is a volatile memory that temporarily stores various programs and various data. As the memory 54, for example, a DIMM (Dual Inline Memory Module) or an HDD (Hard Disk Drive) is used. Such a memory 54 stores various types of data that are temporarily exchanged to absorb a difference in processing speed when bridging a plurality of types of bus standards, or the CPU 53 controls the image forming apparatus 50. A program to be executed at the time and various data used at the time of execution are stored. Image data is stored as various data. Therefore, the CPU 53 can freely read and write image data stored in the memory 54. The CPU 53 is a microprocessor that controls the entire image forming apparatus 50. As the CPU 53, for example, an integrated CPU that has been widespread in recent years is used. The Integrated CPU is a microprocessor in which various functions are added to a CPU core alone. Specifically, for example, PMC RM11100 is adopted as the CPU 53. This integrates a connection function with various general-purpose standard I / Fs such as a PCI-Express bus and a function for connecting these various general-purpose standard I / Fs using a crossbar switch. The CPU 53 starts the system by executing the boot program stored in the ROM 61 during normal startup, and thereafter performs high-speed processing. Therefore, the CPU 53 develops the program in the memory 54 that can be accessed at high speed, and executes the program to execute various processes. Process.

第2画像処理装置66は、CPU53及びバス制御装置67を介して、圧縮画像データ及びその付帯情報と、出力対象画像に対するカラー判定結果と、出力対象画像を指定する領域指定情報とを受け取ると、これらを用いて各種画像処理を行って処理後の画像データを出力する。第2画像処理装置66の詳細な構成については後述する。   When the second image processing device 66 receives the compressed image data and its accompanying information, the color determination result for the output target image, and the area designation information for designating the output target image via the CPU 53 and the bus control device 67, Various image processing is performed using these, and the processed image data is output. The detailed configuration of the second image processing device 66 will be described later.

プロッタ装置56は、画像データに基づいて作像を行い、作像された画像を転写紙に出力することにより、画像形成を行うプロッタである。例えば、プロッタ装置56は、プロッタI/F装置55を介して、CMYK形式に変換された画像データを受け取ると、レーザービームを用いた電子写真プロセスを使って、画像データによって表される画像を転写紙に出力する。プロッタI/F装置55は、CPU53にインテグレートされた汎用規格I/F78を介して、CMYK形式に変換された画像データをCPU53から受け取ると、プロッタ装置56に出力するバスブリッジ処理を行う。   The plotter device 56 is a plotter that forms an image based on image data, and forms the image by outputting the formed image onto a transfer sheet. For example, when the plotter device 56 receives the image data converted into the CMYK format via the plotter I / F device 55, the plotter device 56 transfers an image represented by the image data using an electrophotographic process using a laser beam. Output to paper. When the plotter I / F device 55 receives image data converted into the CMYK format from the CPU 53 via the general-purpose standard I / F 78 integrated with the CPU 53, the plotter I / F device 55 performs a bus bridge process that outputs the image data to the plotter device 56.

SB60は、ブリッジ機能を有する汎用の電子デバイスであり、ここでは、ROM61との間をブリッジしている。操作表示装置57は、各種情報を表示するLCD(Liquid Crystal Display)などの表示装置と、キースイッチ等を具備しユーザからの操作入力を受け付ける操作装置とが一体的に構成されたものである。ユーザの操作入力としては例えば画像のコピーや読み取りを指示するものや、コピー時の出力サイズや変倍率や画質モードの指定や、配信スキャナ時の解像度の指定や読み取り範囲の指定などがある。画質モードとは、出力対象の画像の画質の取り扱いを示すものである。画質モードとしては、例えば、出力対象の画像を文字画像として取り扱う文字モードや、出力対象の画像を写真画像として取り扱う写真モードなどがある。操作表示装置57は、汎用規格I/F78を介して、このような操作入力に応じた制御コマンドをCPU53に出力したり、CPU53から表示対象として出力された情報を表示させたりする。   The SB 60 is a general-purpose electronic device having a bridge function. Here, the SB 60 bridges the ROM 61. The operation display device 57 is configured integrally with a display device such as an LCD (Liquid Crystal Display) that displays various types of information and an operation device that includes a key switch or the like and receives an operation input from a user. The user operation input includes, for example, an instruction to copy or read an image, an output size at the time of copying, a scaling factor, an image quality mode specification, a resolution specification at the time of a distribution scanner, or a reading range specification. The image quality mode indicates the handling of the image quality of the image to be output. Examples of the image quality mode include a character mode in which an output target image is handled as a character image, and a photo mode in which an output target image is handled as a photographic image. The operation display device 57 outputs a control command corresponding to such an operation input to the CPU 53 via the general-purpose standard I / F 78, or displays information output from the CPU 53 as a display target.

回線I/F装置58は、汎用規格I/F78と電話回線とを接続する装置である。この回線I/F装置58により画像形成装置50は電話回線を介して例えばFAX62とファクシミリ通信を行って画像データの授受を行う。外部I/F装置59は汎用規格I/F78と外部装置とを接続する装置である。この外部I/F装置59により画像形成装置50は外部装置と接続されて各種データの授受を行う。外部装置としては、例えば、PC63や、コンパクトフラッシュ(登録商標)カードやSDカード等の外部メディア65である。外部I/F装置59は、PC63や、デジタル複合機であるMFP(図示せず)とは、イーサネット(登録商標)などのネットワーク(図示せず)を介して各種データの授受を行い、外部メディア65とは外部メディアI/F(図示せず)を介して各種データの授受を行う。特に後述するスキャン配信の処理が行われる場合、例えば、PC63などの外部装置には、読み取り装置51で読み取られた原稿画像の全部又は一部を表す出力対象画像データが外部I/F装置59を介して送信される。   The line I / F device 58 is a device that connects the general-purpose standard I / F 78 and a telephone line. The line I / F device 58 causes the image forming apparatus 50 to exchange image data by performing facsimile communication with, for example, a FAX 62 via a telephone line. The external I / F device 59 is a device that connects the general-purpose standard I / F 78 and an external device. By this external I / F device 59, the image forming apparatus 50 is connected to an external device to exchange various data. The external device is, for example, an external medium 65 such as a PC 63, a compact flash (registered trademark) card, or an SD card. The external I / F device 59 exchanges various data with a PC 63 or an MFP (not shown), which is a digital multi-function peripheral, via a network (not shown) such as Ethernet (registered trademark). 65 exchanges various data via an external media I / F (not shown). In particular, when scan distribution processing described later is performed, for example, in an external device such as the PC 63, output target image data representing all or part of a document image read by the reading device 51 is input to the external I / F device 59. Sent through.

次に、第1画像処理装置52の詳細な構成について図2を用いて説明する。第1画像処理装置52は、カラー判定部100と、像域分離部101と、γ変換部102と、フィルタ処理部103と、色変換部104と、画像圧縮部105とを有する。γ変換部102には、読み取り装置51から出力された画像データが入力される。γ変換部102は、入力された画像データの明るさを補正する。本実施の形態においては、γ変換部102は、反射率リニアな特性で読み取り装置51から出力された画像データを、明度リニアな特性に補正する。そしてγ変換部102は、補正したRGB形式の画像データをフィルタ処理部103に出力する。   Next, a detailed configuration of the first image processing device 52 will be described with reference to FIG. The first image processing device 52 includes a color determination unit 100, an image area separation unit 101, a γ conversion unit 102, a filter processing unit 103, a color conversion unit 104, and an image compression unit 105. Image data output from the reading device 51 is input to the γ conversion unit 102. The γ conversion unit 102 corrects the brightness of the input image data. In the present embodiment, the γ conversion unit 102 corrects image data output from the reading device 51 with reflectance linear characteristics to lightness linear characteristics. Then, the γ conversion unit 102 outputs the corrected RGB format image data to the filter processing unit 103.

像域分離部101には、読み取り装置51から出力されたRGB形式の画像データが入力される。像域分離部101は、入力された画像データに対して、像域分離処理を行う。具体的には、像域分離部101は、入力されたRGB形式の画像データによって表される原稿画像の線画領域を認識し、1スキャン分の中の線画領域の割合から、各画素が、文字領域又は絵柄領域、有彩領域又は無彩領域のいずれに属するのかを判別して、この判別結果を像域分離結果として出力する。   The image area separation unit 101 receives RGB format image data output from the reading device 51. The image area separation unit 101 performs image area separation processing on the input image data. Specifically, the image area separation unit 101 recognizes the line drawing area of the original image represented by the input RGB format image data, and each pixel is converted into a character from the ratio of the line drawing area in one scan. It is determined whether it belongs to an area or a picture area, a chromatic area or an achromatic area, and this determination result is output as an image area separation result.

また、カラー判定部100にも、読み取り装置51から出力された画像データが入力される。カラー判定部100は、入力されたRGB形式の画像データに対して、カラー判定処理を行う。具体的には、カラー判定部100は、入力された画像データによって表される原稿画像の色を認識し、1スキャン分の原稿画像に表れる色が、白黒か白黒以外の色を含むか否か、即ち、画像が有彩画像か無彩画像かを判定して、この判定の結果(カラー判定結果という)を出力する。尚、線画領域の認識方法及びカラー判定処理自体の方法については、例えば、特許第3983101号公報(段落0067〜0213等に記載の原稿認識部参照)に記載されているため、その詳細な説明は省略する。   Further, the image data output from the reading device 51 is also input to the color determination unit 100. The color determination unit 100 performs color determination processing on the input RGB format image data. Specifically, the color determination unit 100 recognizes the color of the document image represented by the input image data, and determines whether the color that appears in the document image for one scan includes monochrome or non-monochrome color. That is, it is determined whether the image is a chromatic image or an achromatic image, and a result of this determination (referred to as a color determination result) is output. Note that the line drawing area recognition method and the color determination process itself are described in, for example, Japanese Patent No. 3983101 (see the document recognition section described in paragraphs 0067 to 0213). Omitted.

フィルタ処理部103は、γ変換部102から出力されたRGB形式の画像データに対して、フィルタ処理を行い、その鮮鋭性を予め定めた特性に統一して出力する。本実施の形態では、例えば、図3に示すような基準チャートをスキャンしたときに、フィルタ処理部103は線数毎に予め定めたMTF特性値になるようにMTF特性値を補正する。また、このMTF特性値の補正に際しては、文字領域と絵柄領域とでは要求される特性値が異なるため、フィルタ処理部103は文字領域及び絵柄領域の各々に対して補正を行う。従って、ここでは、像域分離部101での像域分離結果に応じて、適切なフィルタ処理がなされる。   The filter processing unit 103 performs a filter process on the RGB format image data output from the γ conversion unit 102, and outputs the same sharpness to predetermined characteristics. In the present embodiment, for example, when a reference chart as shown in FIG. 3 is scanned, the filter processing unit 103 corrects the MTF characteristic value so as to be a predetermined MTF characteristic value for each number of lines. Further, when correcting the MTF characteristic value, since the required characteristic value is different between the character area and the picture area, the filter processing unit 103 corrects each of the character area and the picture area. Therefore, here, an appropriate filter process is performed according to the image area separation result in the image area separation unit 101.

色変換部104は、フィルタ処理部103から出力された画像データに対して、プロッタ装置56と外部装置であるPC63との両方に利用可能となるようにその性質を統一するように、予め定められたRGB空間に色変換をする。予め定められたRGB空間とは、例えば、CIE-RGB空間などである。そして、色変換部104は、色変換を行った画像データを出力する。画像圧縮部105は、色変換部104から出力された色変換後のRGB形式の画像データに対して、圧縮処理を行い、圧縮画像データを生成する。尚、画像圧縮部105は、例えば、メモリ54やHDD68の記憶容量の残容量を示す残容量情報を取得し、当該残容量情報に基づいて、その圧縮率を変更して画像データに対して圧縮処理を行うようにしても良い。   The color conversion unit 104 is determined in advance to unify the properties of the image data output from the filter processing unit 103 so that the image data can be used by both the plotter device 56 and the external device PC 63. Color conversion to the RGB space. The predetermined RGB space is, for example, a CIE-RGB space. Then, the color conversion unit 104 outputs the image data that has undergone color conversion. The image compression unit 105 performs compression processing on the color-converted RGB format image data output from the color conversion unit 104 to generate compressed image data. The image compression unit 105 acquires, for example, remaining capacity information indicating the remaining capacity of the storage capacity of the memory 54 or the HDD 68, and compresses the image data by changing the compression rate based on the remaining capacity information. Processing may be performed.

次に、CPU53が、ROM61やメモリ54やHDD68に記憶された各種プログラムを実行することにより本実施の形態において実現される特有の機能について説明する。CPU53は、第1画像処理装置52において出力された圧縮画像データと、当該圧縮画像データの付帯情報として像域分離結果及びカラー判定結果とを、バス制御装置67を介して受け取る。そして、CPU53は、操作表示装置57を介して入力されるユーザの操作入力に基づいて、出力対象の領域に相当する画像(出力対象画像という)を決定する。そして、CPU53は、画像データの付帯情報を用いて、当該出力対象画像の特徴として有彩画像か無彩画像かを判定するカラー判定を行う。そして、CPU53は、第2画像処理装置66に処理をさせるべく、圧縮画像データ及びその付帯情報をメモリ54から読み出してこれらを、バス制御装置67を介して第2画像処理装置66に出力する。また、CPU53は、出力対象画像に対するカラー判定結果をバス制御装置67を介して第2画像処理装置66に出力する。また、圧縮画像データ及び付帯情報をHDD68に対応付けて記憶させる際には、CPU53は、バス制御装置67を介して受け取った圧縮画像データによって表される画像を縮小変倍したサムネイル画像を生成し、当該サムネイル画像を表すサムネイル画像データをバス制御装置67に送る。尚、CPU53は、ユーザの用途に応じて解像度が切り替えられるように、原稿画像の1/32, 1/16, 1/8など複数種類の解像度のサムネイル画像を生成する。   Next, a specific function realized in the present embodiment when the CPU 53 executes various programs stored in the ROM 61, the memory 54, and the HDD 68 will be described. The CPU 53 receives the compressed image data output from the first image processing device 52 and the image area separation result and the color determination result as incidental information of the compressed image data via the bus control device 67. Then, the CPU 53 determines an image corresponding to an output target area (referred to as an output target image) based on a user operation input input via the operation display device 57. Then, the CPU 53 performs color determination using the incidental information of the image data to determine whether the output target image is a chromatic image or an achromatic image. Then, the CPU 53 reads the compressed image data and its accompanying information from the memory 54 and outputs them to the second image processing device 66 via the bus control device 67 in order to cause the second image processing device 66 to perform processing. Further, the CPU 53 outputs a color determination result for the output target image to the second image processing device 66 via the bus control device 67. When the compressed image data and the accompanying information are stored in association with the HDD 68, the CPU 53 generates a thumbnail image obtained by reducing or scaling the image represented by the compressed image data received via the bus control device 67. The thumbnail image data representing the thumbnail image is sent to the bus control device 67. The CPU 53 generates thumbnail images having a plurality of resolutions such as 1/32, 1/16, and 1/8 of the original image so that the resolution can be switched according to the user's application.

また、CPU53は、ユーザの操作入力に応じて、HDD68に記憶された圧縮画像データに対して画像編集処理を行う場合には、HDD68に記憶された圧縮画像データ及び付帯情報をバス制御装置67を介して受け取り、画像編集処理の内容に応じて、当該画像データによって表される画像に対する像域分離結果及びカラー判定結果を適宜変更して、当該画像データに対して画像編集処理を行う。具体的な画像編集処理の内容については後述の動作欄で詳述する。   When the CPU 53 performs an image editing process on the compressed image data stored in the HDD 68 in accordance with a user operation input, the CPU 53 sends the compressed image data and the auxiliary information stored in the HDD 68 to the bus control device 67. Depending on the content of the image editing process, the image area separation result and the color determination result for the image represented by the image data are appropriately changed, and the image editing process is performed on the image data. Specific contents of the image editing process will be described in detail in an operation column described later.

次に、第2画像処理装置66の構成について図4を用いて説明する。第2画像処理装置66は、画像伸張部110と、フィルタ処理部111と、色変換部112と、解像度変換部113と、γ変換部114と、中間調処理部115と、フォーマット変換部116とを備えている。第2画像処理装置66には、第1画像処理装置52で圧縮されHDD68に記憶された圧縮画像データ及びその付帯情報と、領域指定情報とがCPU53及びバス制御装置67を介して入力される。画像伸張部110には圧縮画像データが入力され、画像伸張部110はこの圧縮画像データを伸張して出力する。フィルタ処理部111は、画像伸張部110から出力されたRGB形式の画像データについて、領域指定情報によって指定される出力対象画像に対して以下のフィルタ処理を行う。フィルタ処理部111は、当該出力対象画像の鮮鋭性を、プロッタ装置56に出力する場合の再現性が良くなるように補正する。具体的には、フィルタ処理部111は、画像データの付帯情報に含まれる像域分離結果を参照して鮮鋭化処理や平滑化処理を行う。例えば、フィルタ処理部111は、文字領域では文字をくっきりとさせ判読性を高めるために鮮鋭化処理を行い、絵柄領域では画像を滑らかにするために平滑化処理を行う。第1画像処理装置52の有するフィルタ処理部103は画像データの再利用性を高めるために、線数毎に予め定めたMTF特性値になるように変換するものであるのに対し、第2画像処理装置66の有するフィルタ処理部111は、ユーザの用途に応じた加工を行うための処理を行うものである。例えば、ユーザが画質モードとして文字モードを指定した場合は鮮鋭化処理の程度を高め、写真モードを指定した場合は平滑化処理の程度を高める。そしてフィルタ処理部111は、補正後の出力対象画像を表す出力対象画像データを出力する。   Next, the configuration of the second image processing device 66 will be described with reference to FIG. The second image processing device 66 includes an image expansion unit 110, a filter processing unit 111, a color conversion unit 112, a resolution conversion unit 113, a γ conversion unit 114, a halftone processing unit 115, and a format conversion unit 116. It has. The second image processing device 66 receives the compressed image data compressed by the first image processing device 52 and stored in the HDD 68, its accompanying information, and area designation information via the CPU 53 and the bus control device 67. The compressed image data is input to the image expansion unit 110, and the image expansion unit 110 expands and outputs the compressed image data. The filter processing unit 111 performs the following filter processing on the output target image specified by the area specifying information for the RGB format image data output from the image expansion unit 110. The filter processing unit 111 corrects the sharpness of the output target image so that the reproducibility when output to the plotter device 56 is improved. Specifically, the filter processing unit 111 performs a sharpening process or a smoothing process with reference to an image area separation result included in the incidental information of the image data. For example, the filter processing unit 111 performs a sharpening process to sharpen a character in a character area and improve legibility, and performs a smoothing process to smooth an image in a picture area. The filter processing unit 103 included in the first image processing device 52 converts the MTF characteristic value determined in advance for each number of lines in order to improve the reusability of the image data. The filter processing unit 111 included in the processing device 66 performs processing for performing processing according to the use of the user. For example, when the user designates the character mode as the image quality mode, the degree of sharpening processing is increased, and when the user designates the photo mode, the degree of smoothing processing is increased. Then, the filter processing unit 111 outputs output target image data representing the corrected output target image.

色変換部112は、フィルタ処理部111から出力された出力対象画像データに対して出力対象に応じた色変換を行う。画像形成装置50がコピー動作を行っており出力対象がプロッタ装置56である場合は、色変換部112は、カラー判定結果に基づいて、RGB各8ビットのからプロッタ装置56における色空間であるCMYK各8ビット又はKのみ8ビット画像データに対して色変換を行う。また、画像形成装置50が配信スキャナ動作を行っており出力対象がPC63等の外部装置である時は、例えば、CIE-RGB空間のRGB各8ビットから、モニタ表示に適した色空間であるAdobe−RGB色空間のRGB各8ビット又はグレースケール8ビット画像データへと色変換を行う。ここではAdobe−RGB色空間を例にあげたが、sRGB色空間など、その他の標準的な色空間に変換しても構わない。   The color conversion unit 112 performs color conversion corresponding to the output target on the output target image data output from the filter processing unit 111. When the image forming apparatus 50 is performing a copy operation and the output target is the plotter device 56, the color conversion unit 112 uses CMYK, which is a color space in the plotter device 56, from 8 bits for each RGB based on the color determination result. Color conversion is performed on 8-bit image data for each 8-bit or K only. Further, when the image forming apparatus 50 performs the distribution scanner operation and the output target is an external device such as the PC 63, for example, from 8 bits of RGB in the CIE-RGB space, Adobe is a color space suitable for monitor display. -Perform color conversion into RGB 8-bit RGB data or grayscale 8-bit image data. Here, the Adobe-RGB color space is taken as an example, but it may be converted into another standard color space such as an sRGB color space.

解像度変換部113は、画像の拡大や縮小など画像を変倍する場合、操作表示装置57を介して指定された変倍率に従って、色変換部112から出力された出力対象画像データに対して解像度の変換(変倍処理)を行う。そして、解像度変換部113は、変換後の出力対象画像データを出力する。尚、画像を変倍しない場合、解像度変換部113は、色変換部112から出力された出力対象画像データに対して変換を行わずにこれを出力する。γ変換部114は、出力対象画像データに対して、画像が出力される出力先の特性に応じて画像の階調特性を変換する。出力先がプロッタ装置56である場合は、γ変換部114は、プロッタ装置56の出力特性に応じて、画像の階調性を良好に保てるように階調特性を変換する。そして、解像度変換部113は、変換後の出力対象画像データを出力する。中間調処理部115は、解像度変換部113から出力されたCMYK各8ビットの出力対象画像データ又はKのみの8ビットの出力対象画像データに対してプロッタ装置56の階調処理能力に従った階調数変換処理を行う。例えば、中間調処理部115は、解像度変換部113から出力されたCMYK又はKの各8ビットの出力対象画像データを、CMYK又はKの各2ビットの画像データに疑似中間調処理の一つである誤差拡散法を用いて階調数変換処理を行う。そして、中間調処理部115は、処理後の出力対象画像データを出力する。尚、出力対象画像が多値画像である場合には、中間調処理部115は、解像度変換部113から出力された出力対象画像データに対して処理を行わずにこれを出力する。フォーマット変換部116は、中間調処理部115から出力された出力対象画像データに対して、画像の出力用途に応じてJPEG圧縮やMMR圧縮などを行うなどのフォーマット変換を行う。   The resolution conversion unit 113, when scaling the image, such as enlarging or reducing the image, determines the resolution of the output target image data output from the color conversion unit 112 according to the scaling factor designated via the operation display device 57. Perform conversion (scaling process). Then, the resolution conversion unit 113 outputs the converted output target image data. When the image is not scaled, the resolution conversion unit 113 outputs the output target image data output from the color conversion unit 112 without performing conversion. The γ conversion unit 114 converts the gradation characteristics of the image according to the characteristics of the output destination to which the image is output with respect to the output target image data. When the output destination is the plotter device 56, the γ conversion unit 114 converts the gradation characteristics so that the gradation property of the image can be kept good according to the output characteristics of the plotter device 56. Then, the resolution conversion unit 113 outputs the converted output target image data. The halftone processing unit 115 applies the CMYK 8-bit output target image data output from the resolution conversion unit 113 or the K-only 8-bit output target image data according to the gradation processing capability of the plotter device 56. Perform logarithmic conversion processing. For example, the halftone processing unit 115 is one of the pseudo-halftone processing that converts CMYK or K 8-bit output target image data output from the resolution conversion unit 113 into CMYK or K 2-bit image data. Tone number conversion processing is performed using a certain error diffusion method. Then, the halftone processing unit 115 outputs the processed output target image data. When the output target image is a multi-valued image, the halftone processing unit 115 outputs the output target image data output from the resolution conversion unit 113 without performing any processing. The format conversion unit 116 performs format conversion such as JPEG compression or MMR compression on the output target image data output from the halftone processing unit 115 in accordance with the image output application.

<コピー処理>
次に、本実施の形態にかかる画像形成装置50の行うコピー処理の手順について図5を用いて説明する。ユーザは、原稿を読み取り装置51にセットし、コピーの設定に関する操作入力と、コピーの開始を指示する操作入力とを操作表示装置57において行う。ここでは、コピーの設定に関し、変倍率の指定や出力サイズの指定や画質モードの指定などの指示がなされ得る。また、ここでは、出力対象画像が有彩画像か無彩画像かを自動で判定するACSモードを設定する操作入力もなされるものとする。操作表示装置57はユーザからの操作入力に応じて、コピーの設定やコピーの開始を指示する制御コマンドを生成してこれを、汎用規格I/F78を介してCPU53に出力する。CPU53は、操作入力に応じて生成された制御コマンドを受け付け、ROM61から各種プログラムを読み出して実行すると共に、制御コマンドに従って、コピーに必要な設定や処理を順次行う。まず、CPU53は、原稿画像の読み取りを読み取り装置51に指示する(ステップS1)。読み取り装置51は、当該指示に従い、原稿画像を読み取り、原稿画像を表すRGB形式の画像データを生成してこれを出力する(ステップS2)。出力された画像データは第1画像処理装置52のγ変換部102、像域分離部101及びカラー判定部100に入力される。γ変換部102は、上述したように、入力された画像データを補正して、補正後の画像データを出力する。また、像域分離部101は、上述したように、読み取り装置51から入力された画像データによって表されるデータによって表される原稿画像の線画領域を認識し、1スキャン分の中の線画領域の割合から、各画素が、文字領域又は絵柄領域、有彩領域又は無彩領域のいずれに属するのかを判別して、この判別結果を像域分離結果として出力する。また、カラー判定部100は、入力されたRGB形式の画像データによって表される原稿画像が有彩画像か無彩画像かを判定し、当該判定の結果(カラー判定結果)を出力する(ステップS3)。
<Copy processing>
Next, a copy processing procedure performed by the image forming apparatus 50 according to the present embodiment will be described with reference to FIG. The user sets an original on the reading device 51, and performs an operation input relating to copy settings and an operation input instructing the start of copying on the operation display device 57. Here, regarding copy settings, an instruction such as designation of a scaling factor, designation of an output size, designation of an image quality mode, or the like can be given. Here, it is assumed that an operation input for setting an ACS mode for automatically determining whether an output target image is a chromatic image or an achromatic image is also made. In response to an operation input from the user, the operation display device 57 generates a control command for instructing copy setting or copy start, and outputs this to the CPU 53 via the general-purpose standard I / F 78. The CPU 53 receives a control command generated in response to an operation input, reads out and executes various programs from the ROM 61, and sequentially performs settings and processing necessary for copying according to the control command. First, the CPU 53 instructs the reading device 51 to read a document image (step S1). In accordance with the instruction, the reading device 51 reads a document image, generates RGB format image data representing the document image, and outputs this (step S2). The output image data is input to the γ conversion unit 102, the image area separation unit 101, and the color determination unit 100 of the first image processing device 52. As described above, the γ conversion unit 102 corrects the input image data and outputs the corrected image data. Further, as described above, the image area separation unit 101 recognizes the line drawing area of the document image represented by the data represented by the image data input from the reading device 51, and recognizes the line drawing area in one scan. From the ratio, it is determined whether each pixel belongs to a character area, a picture area, a chromatic area or an achromatic area, and this determination result is output as an image area separation result. The color determination unit 100 determines whether the document image represented by the input RGB format image data is a chromatic image or an achromatic image, and outputs the determination result (color determination result) (step S3). ).

また、上述したように、フィルタ処理部103は、γ変換部102から出力されたRGB形式の画像データに対してフィルタ処理を行い、処理後の画像データを出力する。色変換部104は、フィルタ処理部103から出力された画像データに対して色変換を行い、色変換後の画像データを出力する。画像圧縮部105は、色変換部104から出力された色変換後のRGB形式の画像データに対して圧縮処理を行い、圧縮画像データを生成する(ステップS4)。   Further, as described above, the filter processing unit 103 performs filter processing on the RGB format image data output from the γ conversion unit 102, and outputs the processed image data. The color conversion unit 104 performs color conversion on the image data output from the filter processing unit 103, and outputs the image data after color conversion. The image compression unit 105 performs compression processing on the color-converted RGB format image data output from the color conversion unit 104, and generates compressed image data (step S4).

バス制御装置67は、第1画像処理装置52から出力された圧縮画像データをCPU53に送ると共に、当該圧縮画像データの付帯情報として上述の像域分離結果及びカラー判定結果をCPU53に送る(ステップS5)。CPU53は、像域分離結果及びカラー判定結果を付帯情報として圧縮画像データと対応付けてメモリ54に記憶させる(ステップS6)。そして、CPU53は、当該圧縮画像データによって表される原稿画像に対し、変倍率の指定や出力サイズの指定の操作入力に応じて出力対象の領域に相当する画像(出力対象画像という)を決定する。そして、ここでは、ACSモードが設定されているから、CPU53は、当該圧縮画像データに対する付帯情報に含まれるカラー判定結果を用いて、出力対象画像が有彩画像か無彩画像かを判定する(ステップS7)。   The bus control device 67 sends the compressed image data output from the first image processing device 52 to the CPU 53, and sends the above-described image area separation result and color determination result to the CPU 53 as incidental information of the compressed image data (step S5). ). The CPU 53 stores the image area separation result and the color determination result in the memory 54 in association with the compressed image data as supplementary information (step S6). Then, the CPU 53 determines an image (referred to as an output target image) corresponding to an output target region in accordance with an operation input for specifying a scaling factor or an output size for the document image represented by the compressed image data. . Since the ACS mode is set here, the CPU 53 determines whether the output target image is a chromatic image or an achromatic image using the color determination result included in the supplementary information for the compressed image data ( Step S7).

次に、CPU53は、第2画像処理装置66に処理をさせるべく、圧縮画像データ及びその付帯情報をメモリ54から読み出してこれらをバス制御装置67に送り(ステップS8)、バス制御装置67はこれらを第2画像処理装置66に出力する。また、CPU53は、出力対象画像に対するカラー判定結果と、出力対象画像を指定する領域指定情報とバス制御装置67を介して第2画像処理装置66に出力する。このようにして、CPU53は、第2画像処置装置66に処理を切り替える。また、CPU53は、出力サイズ及び画像モードのうち少なくとも1つを指定する操作入力があった場合、それを指定する設定指定情報をバス制御装置67に送り、バス制御装置67はこれを第2画像処理装置66に出力する(ステップS9)。   Next, the CPU 53 reads out the compressed image data and its accompanying information from the memory 54 and sends them to the bus control device 67 (step S8) so that the second image processing device 66 performs processing. Is output to the second image processing device 66. Further, the CPU 53 outputs the color determination result for the output target image, the area specifying information for specifying the output target image, and the bus control device 67 to the second image processing device 66. In this way, the CPU 53 switches the processing to the second image treatment device 66. Further, when there is an operation input for designating at least one of the output size and the image mode, the CPU 53 sends setting designation information for designating it to the bus control device 67, and the bus control device 67 transmits this to the second image. The data is output to the processing device 66 (step S9).

第2画像処理装置66の画像伸張部110は、CPU53及びバス制御装置67を介して圧縮画像データを受け取るとこれを伸張して出力する。フィルタ処理部111は、画像伸張部110から出力された画像データのうち、領域指定情報によって指定される出力対象画像について、付帯情報に含まれる像域分離結果及び設定指定情報に基づいて、フィルタ処理を行い、処理後の出力対象画像データを出力する。具体的には、フィルタ処理部111は、出力対象画像に対して、設定指定情報において画質モードが文字モードに指定されている場合は鮮鋭化処理の程度を高め、写真モードが指定されている場合は平滑化処理の程度を高める。色変換部112は、フィルタ処理部111から出力されたRGB各8ビットの出力対象画像データに対して、CPU53から送られたカラー判定結果に基づいて、プロッタ装置56における色空間に応じた色変換を行う。具体的には、色変換部112は、カラー判定結果が有彩画像である場合、出力対象画像データに対してRGB各8ビットからCMYK各8ビットに色変換を行い、カラー判定結果が無彩画像である場合、出力対象画像データに対してRGB各8ビットからKのみの各8ビットに色変換を行う。解像度変換部113は、変倍率が100%以外である場合、当該変倍率に従って、色変換部112から出力された出力対象画像データに対して変倍処理を行い、変換後の出力対象画像データをγ変換部114に出力する。γ変換部114は、画像が出力される出力先の特性に応じて画像の階調特性を変換し、変換後の出力対象画像データを出力する。中間調処理部115は、解像度変換部113から出力された出力対象画像データに対して、出力対象画像が2値画像であるか多値画像であるかに応じて階調数変換処理を適宜行い、処理の実行の有無に応じた出力対象画像データを出力する。フォーマット変換部116は、出力対象画像の出力用途が転写紙に出力することであるため、中間調処理部115から出力された出力対象画像データに対して処理を行わずにこれを出力する(ステップS10)。CPU53は、フォーマット変換部116から出力された出力対象画像データを、バス制御装置67を介して受け取りこれをメモリ54に記憶させる(ステップS11)。次いで、CPU53は、当該出力対象画像データをメモリ54から読み出して、プロッタI/F装置55を介してプロッタ装置56に送る(ステップS12)。プロッタ装置56は、出力対象画像データを受け取ると、当該出力対象画像データの色空間であるCMYK又はKに応じて、当該出力対象画像データによって表される出力対象画像を形成しこれを転写紙に出力する。 この結果、出力対象画像がコピーされることになる。   When the image decompression unit 110 of the second image processing device 66 receives the compressed image data via the CPU 53 and the bus control device 67, it decompresses and outputs the decompressed image data. The filter processing unit 111 performs filter processing on the output target image designated by the region designation information among the image data output from the image expansion unit 110 based on the image region separation result and the setting designation information included in the supplementary information. The output target image data after processing is output. Specifically, the filter processing unit 111 increases the degree of sharpening processing when the image quality mode is designated as the character mode in the setting designation information for the output target image, and the photo mode is designated. Increases the degree of smoothing. The color conversion unit 112 performs color conversion corresponding to the color space in the plotter device 56 based on the color determination result sent from the CPU 53 for the output target image data of each RGB of 8 bits output from the filter processing unit 111. I do. Specifically, when the color determination result is a chromatic image, the color conversion unit 112 performs color conversion on the output target image data from 8 bits for RGB to 8 bits for CMYK, and the color determination result is achromatic. In the case of an image, color conversion is performed on the output target image data from 8 bits for RGB to 8 bits for K only. When the scaling factor is other than 100%, the resolution converting unit 113 performs scaling processing on the output target image data output from the color converting unit 112 according to the scaling factor, and outputs the converted output target image data. The data is output to the γ conversion unit 114. The γ conversion unit 114 converts the gradation characteristics of the image according to the characteristics of the output destination to which the image is output, and outputs the output target image data after conversion. The halftone processing unit 115 appropriately performs gradation number conversion processing on the output target image data output from the resolution conversion unit 113 depending on whether the output target image is a binary image or a multi-valued image. Then, output target image data according to whether or not the process is executed is output. The format conversion unit 116 outputs the output target image without processing the output target image data output from the halftone processing unit 115 because the output application of the output target image is to output to the transfer paper (step). S10). The CPU 53 receives the output target image data output from the format conversion unit 116 via the bus control device 67 and stores it in the memory 54 (step S11). Next, the CPU 53 reads the output target image data from the memory 54 and sends it to the plotter device 56 via the plotter I / F device 55 (step S12). Upon receiving the output target image data, the plotter device 56 forms an output target image represented by the output target image data according to CMYK or K which is the color space of the output target image data, and forms this on the transfer paper. Output. As a result, the output target image is copied.

<スキャナ配信処理>
次に、画像形成装置50が行うスキャナ配信処理の手順について図6を用いて説明する。まず、ユーザは原稿を読み取り装置51にセットし、スキャナ配信の設定に関する操作入力と、スキャナ配信の開始を指示する操作入力とを操作表示装置57において行う。ここでは、スキャナ配信の設定に関し、配信対象の外部装置(ここではPC63とする)や、配信対象の画像の解像度や読み取り範囲の指定などの指示がなされる。また、ここでも、ACSモードを設定する操作入力もなされるものとする。操作表示装置57はユーザからの操作入力に応じて、スキャナ配信の設定やスキャナ配信の開始を指示する制御コマンドを生成してこれを、汎用規格I/F78を介してCPU53に出力する。CPU53は、操作入力に応じて生成された制御コマンドを受け付け、ROM61から各種プログラムを読み出して実行すると共に、制御コマンドに従って、スキャナ配信に必要な設定や処理を順次行う。まず、CPU53は、原稿画像の読み取りを読み取り装置51に指示する(ステップS20)。読み取り装置51は、当該指示に従い、原稿画像を読み取り、原稿画像を表すRGB形式の画像データを生成してこれを出力する(ステップS2)。出力された画像データは第1画像処理装置52のγ変換部102、像域分離部101及びカラー判定部100に入力され、上述のコピー処理で説明したように、当該画像データに対して各部で各処理が行われる(ステップS3〜S4)。圧縮画像データ、上述の像域分離結果及びカラー判定結果は、バス制御装置67を介してCPU53に入力される。ステップS5〜S6も上述のコピー処理と同様である。
<Scanner distribution processing>
Next, the procedure of scanner distribution processing performed by the image forming apparatus 50 will be described with reference to FIG. First, the user sets an original on the reading device 51, and performs an operation input relating to scanner delivery settings and an operation input instructing the start of scanner delivery on the operation display device 57. Here, regarding scanner delivery settings, an instruction is given such as the designation of the external device to be delivered (herein referred to as PC 63), the resolution of the image to be delivered, and the reading range. Also here, an operation input for setting the ACS mode is also made. In response to an operation input from the user, the operation display device 57 generates a control command for instructing setting of scanner distribution and start of scanner distribution, and outputs the control command to the CPU 53 via the general-purpose standard I / F 78. The CPU 53 receives a control command generated in response to an operation input, reads out and executes various programs from the ROM 61, and sequentially performs settings and processing necessary for scanner distribution according to the control command. First, the CPU 53 instructs the reading device 51 to read a document image (step S20). In accordance with the instruction, the reading device 51 reads a document image, generates RGB format image data representing the document image, and outputs this (step S2). The output image data is input to the γ conversion unit 102, the image area separation unit 101, and the color determination unit 100 of the first image processing device 52, and as described in the above-described copy processing, the image data is received by each unit. Each process is performed (steps S3 to S4). The compressed image data, the image area separation result, and the color determination result described above are input to the CPU 53 via the bus control device 67. Steps S5 to S6 are the same as the copy process described above.

次いで、ステップS7では、CPU53は、当該圧縮画像データによって表される原稿画像に対し配信対象の画像の解像度や読み取り範囲の指定の操作入力に応じて出力対象画像を決定する。尚、配信対象の画像の解像度や読み取り範囲の指定がない場合は、出力対象画像は原稿画像全体に相当する。また、ここでは、ACSモードが設定されているから、CPU53は、カラー判定結果を用いて、出力対象画像が有彩画像か無彩画像かのカラー判定を上述のコピー処理と同様にして行う。そして、CPU53は、上述と同様にしてステップS8〜S9の処理を行う。   Next, in step S <b> 7, the CPU 53 determines an output target image for the document image represented by the compressed image data in accordance with an operation input for designating the resolution of the image to be distributed and the reading range. Note that if there is no designation of the resolution or reading range of the image to be distributed, the output target image corresponds to the entire document image. Here, since the ACS mode is set, the CPU 53 uses the color determination result to perform color determination as to whether the output target image is a chromatic image or an achromatic image in the same manner as the copy processing described above. Then, the CPU 53 performs steps S8 to S9 in the same manner as described above.

次いで、ステップS10では、まず、第2画像処理装置66の画像伸張部110は、CPU53及びバス制御装置67を介して圧縮画像データを受け取るとこれを伸張して出力する。フィルタ処理部111は、画像伸張部110から出力されたRGB形式の画像データについて、領域指定情報によって指定される出力対象画像に対してフィルタ処理を行い、処理後の出力対象画像データを出力する。色変換部112は、フィルタ処理部111から出力されたRGB各8ビットの出力対象画像データに対して、CPU53から送られたカラー判定結果に基づいて、配信対象の外部装置であるPC63における色空間に応じた色変換を行う。具体的には、色変換部112は、カラー判定結果が有彩画像である場合、出力対象画像データに対してRGB各8ビットから多値のRGB形式に色変換を行い、出力対象画像が無有彩画像であることをカラー判定結果が示す場合、出力対象画像データに対してRGB各8ビットから多値のグレースケール又は2値のモノクロに色変換を行う。解像度変換部113は、色変換部112から出力された出力対象画像データをγ変換部114に出力する。γ変換部114は、画像が出力される出力先の特性に応じて画像の階調特性を変換し、変換後の出力対象画像データを出力する。中間調処理部115は、解像度変換部113から出力された出力対象画像データに対して、出力対象画像が2値画像であるか多値画像であるかに応じて階調数変換処理を適宜行い、処理の実行の有無に応じた出力対象画像データを出力する。フォーマット変換部116は、出力対象画像の出力用途がスキャナ配信であるため、中間調処理部115から出力された出力対象画像データに対してフォーマット変換を行い、変換後の出力対象画像データを出力する。ここでは、例えば、CPU53から送られたカラー判定結果が、出力対象画像が有彩画像であることを示す場合、フォーマット変換部116は、出力対象画像データに対してJPEG圧縮を行い、圧縮後の出力対象画像データを出力する。また、カラー判定結果が、出力対象画像が無彩画像であることを示す場合であって、出力対象画像データが2値のモノクロに色変換されている場合、フォーマット変換部116は、出力対象画像データに対してMMR圧縮を行ってTIFFファイル形式の出力対象画像データを生成してこれを出力する。また、カラー判定結果が、出力対象画像が無彩画像であることを示す場合であって、出力対象画像データがグレースケールに色変換されている場合、フォーマット変換部116は、出力対象画像データに対してJPEG圧縮を行って圧縮後の出力対象画像データを出力する。CPU53は、フォーマット変換部116から出力された出力対象画像データを、バス制御装置67を介して受け取りこれをメモリ54に記憶させる(ステップS11)。次いで、CPU53は、当該出力対象画像データをメモリ54から読み出して、外部I/F装置59を介して、外部装置であるPC63に送信する(ステップS21)。   Next, in step S10, first, when the image expansion unit 110 of the second image processing device 66 receives the compressed image data via the CPU 53 and the bus control device 67, it expands and outputs this. The filter processing unit 111 performs a filtering process on the output target image specified by the area specifying information for the RGB format image data output from the image expansion unit 110, and outputs the processed output target image data. The color conversion unit 112 performs color space in the PC 63 that is an external device to be distributed based on the color determination result sent from the CPU 53 for the output target image data of each RGB of 8 bits output from the filter processing unit 111. Perform color conversion according to. Specifically, when the color determination result is a chromatic image, the color conversion unit 112 performs color conversion from 8-bit RGB to multi-value RGB format on the output target image data, and there is no output target image. When the color determination result indicates that the image is a chromatic image, color conversion is performed on the output target image data from 8-bit RGB to multi-value gray scale or binary monochrome. The resolution conversion unit 113 outputs the output target image data output from the color conversion unit 112 to the γ conversion unit 114. The γ conversion unit 114 converts the gradation characteristics of the image according to the characteristics of the output destination to which the image is output, and outputs the output target image data after conversion. The halftone processing unit 115 appropriately performs gradation number conversion processing on the output target image data output from the resolution conversion unit 113 depending on whether the output target image is a binary image or a multi-valued image. Then, output target image data according to whether or not the process is executed is output. The format conversion unit 116 performs format conversion on the output target image data output from the halftone processing unit 115 and outputs the converted output target image data because the output application of the output target image is scanner distribution. . Here, for example, when the color determination result sent from the CPU 53 indicates that the output target image is a chromatic image, the format conversion unit 116 performs JPEG compression on the output target image data, and performs post-compression Output target image data. When the color determination result indicates that the output target image is an achromatic image and the output target image data is color-converted to binary monochrome, the format conversion unit 116 outputs the output target image. MMR compression is performed on the data to generate output target image data in the TIFF file format and output it. When the color determination result indicates that the output target image is an achromatic image and the output target image data is color-converted to grayscale, the format conversion unit 116 converts the output target image data into the output target image data. On the other hand, JPEG compression is performed, and the compressed output target image data is output. The CPU 53 receives the output target image data output from the format conversion unit 116 via the bus control device 67 and stores it in the memory 54 (step S11). Next, the CPU 53 reads out the output target image data from the memory 54, and transmits it to the PC 63, which is an external device, via the external I / F device 59 (step S21).

<画像蓄積処理>
次に、画像形成装置50が、コピー処理やスキャナ配信処理を行うことなく、画像蓄積処理のみを行う場合の処理の手順について図7を用いて説明する。ユーザは、原稿を読み取り装置51にセットし、所望する画質モード等の設定に関する操作入力と、原稿画像の読み取り及び蓄積の開始を指示する操作入力とを操作表示装置57において行う。尚、ここでは、画像の蓄積後に多種多様な目的で再利用できるように、最も汎用的な条件で原稿画像の読み取りを行う。即ち、原稿画像の読み取り倍率を等倍とする。操作表示装置57はユーザからの操作入力に応じて、画質モード等の設定や原稿画像の読み取りの開始を指示する制御コマンドを生成してこれを、汎用規格I/F78を介してCPU53に出力する。CPU53は、操作入力に応じて生成された制御コマンドを受け付け、ROM61から各種プログラムを読み出して実行すると共に、制御コマンドに従って、原稿画像の読み取りに必要な設定や処理を順次行う(ステップS30)。以降、ステップS2〜S4までは上述のスキャナ配信処理と同様である。その後、ステップS31では、バス制御装置67は、圧縮画像データをCPU53に送り、CPU53が、当該圧縮画像データによって表される画像を縮小変倍したサムネイル画像を生成して、当該サムネイル画像を表すサムネイル画像データをバス制御装置67に送る。バス制御装置67は、当該サムネイル画像データを受け取り、第1画像処理装置52から出力された像域分離結果及びカラー判定結果を付帯情報として圧縮画像データ及び当該サムネイル画像データと対応付けてHDD68に記憶させる。
<Image storage processing>
Next, a processing procedure when the image forming apparatus 50 performs only the image accumulation process without performing the copy process or the scanner distribution process will be described with reference to FIG. The user sets an original on the reading device 51, and performs an operation input related to setting of a desired image quality mode and the like on the operation display device 57, and an operation input for instructing to start reading and storing the original image. Here, the original image is read under the most general conditions so that it can be reused for various purposes after the image is stored. That is, the reading magnification of the document image is set to the same magnification. In response to an operation input from the user, the operation display device 57 generates a control command for instructing the setting of the image quality mode and the like and the start of reading of the document image, and outputs this to the CPU 53 via the general-purpose standard I / F 78. . The CPU 53 receives a control command generated in response to an operation input, reads out and executes various programs from the ROM 61, and sequentially performs settings and processing necessary for reading a document image in accordance with the control command (step S30). Thereafter, steps S2 to S4 are the same as the above-described scanner distribution processing. Thereafter, in step S31, the bus control device 67 sends the compressed image data to the CPU 53, and the CPU 53 generates a thumbnail image obtained by reducing and scaling the image represented by the compressed image data, and the thumbnail representing the thumbnail image. The image data is sent to the bus control device 67. The bus control device 67 receives the thumbnail image data and stores the image area separation result and the color determination result output from the first image processing device 52 as supplementary information in association with the compressed image data and the thumbnail image data in the HDD 68. Let

<コピー処理及び画像蓄積処理>
次に、画像形成装置50がコピー処理と画像蓄積処理とを同時に行う場合の処理の手順について図8を用いて説明する。ステップS1〜S8の処理は上述のコピー処理と同様である。ステップS8の後、ステップS40では、バス制御装置67は、第1画像処理装置52から出力された像域分離結果及びカラー判定結果と圧縮画像データとを第2画像処理装置66に送信する。このとき、バス制御装置67は、上述のステップS31と同様に、圧縮画像データをCPU53に送り、CPU53が、当該圧縮画像データによって表される画像を縮小変倍したサムネイル画像を生成して、当該サムネイル画像を表すサムネイル画像データをバス制御装置67に送る。バス制御装置67は、当該サムネイル画像データを受け取り、像域分離結果及びカラー判定結果を付帯情報として圧縮画像データ及び当該サムネイル画像データをHDD68に記憶させる。ステップS10以降の処理は上述のコピー処理と同様である。これにより、画像形成装置50はコピー処理と画像蓄積処理とを同時に行うことができる。
<Copy processing and image storage processing>
Next, a processing procedure when the image forming apparatus 50 performs the copy process and the image accumulation process simultaneously will be described with reference to FIG. The processes in steps S1 to S8 are the same as the copy process described above. After step S8, in step S40, the bus control device 67 transmits the image area separation result, color determination result, and compressed image data output from the first image processing device 52 to the second image processing device 66. At this time, the bus control device 67 sends the compressed image data to the CPU 53 as in step S31 described above, and the CPU 53 generates a thumbnail image obtained by reducing and scaling the image represented by the compressed image data. Thumbnail image data representing the thumbnail image is sent to the bus control device 67. The bus control device 67 receives the thumbnail image data, and stores the compressed image data and the thumbnail image data in the HDD 68 using the image area separation result and the color determination result as supplementary information. The processes after step S10 are the same as the above-described copy process. As a result, the image forming apparatus 50 can simultaneously perform the copy process and the image storage process.

<スキャナ配信処理及び画像蓄積処理>
次に、画像形成装置50がスキャナ配信処理と画像蓄積処理とを同時に行う場合の処理の手順について図9を用いて説明する。ステップS20,S2〜S8の処理は上述のスキャナ配信処理と同様である。ステップS40の処理は、上述のコピー処理と画像蓄積処理とを同時に行う場合の処理と同様である。ステップS10以降の処理は上述のスキャナ配信処理と同様である。これにより、画像形成装置50はスキャナ配信処理と画像蓄積処理とを同時に行うことができる。
<Scanner distribution processing and image storage processing>
Next, a processing procedure when the image forming apparatus 50 performs the scanner distribution process and the image storage process at the same time will be described with reference to FIG. The processes in steps S20 and S2 to S8 are the same as the scanner distribution process described above. The process of step S40 is the same as the process in the case where the above copy process and image storage process are performed simultaneously. The processing after step S10 is the same as the scanner delivery processing described above. As a result, the image forming apparatus 50 can simultaneously perform the scanner distribution process and the image storage process.

<蓄積画像の再利用>
次に、画像形成装置50がHDD68に記憶された画像データを再利用する場合の処理の概要について説明する。ここでは、当該画像データに対して画像編集処理を行う場合の処理の手順について図10を用いて説明する。上述したようにHDD68に記憶された画像データは、付帯情報及びサムネイル画像データと対応付けて記憶されている。原稿画像の蓄積時よりも時間が経過した場合でも、当該画像データを再利用することができる。まず、画像形成装置50のCPU53は、画像データの再利用時のユーザインターフェースとして表示画面を操作表示装置57に表示させる。例えば、CPU53は、ユーザの操作に応じて、当該操作時点でHDD68に記憶されている画像データのデータ名、当該画像データの作成日時や更新日時、当該画像データと対応付けられたサムネイル画像データによって表されるサムネイル画像を表す表示画面を表示させる。ユーザは、当該操作表示装置57に表示された表示画面を閲覧することにより、どのような画像がHDD68に蓄積されているかを確認することができる。そして、ユーザは、当該表示画面において再利用したい画像データを選択する操作入力と共に、当該画像データに対する画像編集処理の開始を指示する操作入力や、画像編集処理に関する設定や所望する画質モードなどの操作入力を操作表示装置57において行う。
<Reuse of stored images>
Next, an outline of processing when the image forming apparatus 50 reuses image data stored in the HDD 68 will be described. Here, a processing procedure when image editing processing is performed on the image data will be described with reference to FIG. As described above, the image data stored in the HDD 68 is stored in association with the auxiliary information and thumbnail image data. Even when the time has elapsed since the original image was stored, the image data can be reused. First, the CPU 53 of the image forming apparatus 50 causes the operation display device 57 to display a display screen as a user interface when reusing image data. For example, according to the user's operation, the CPU 53 uses the data name of the image data stored in the HDD 68 at the time of the operation, the creation date / update date / time of the image data, and the thumbnail image data associated with the image data. A display screen representing the displayed thumbnail image is displayed. The user can check what images are stored in the HDD 68 by browsing the display screen displayed on the operation display device 57. Then, the user inputs an operation input for selecting image data to be reused on the display screen, an operation input for instructing the start of the image editing process for the image data, an operation such as a setting related to the image editing process and a desired image quality mode. Input is performed on the operation display device 57.

ここでは、画像編集処理として、例えば、図11に例示される原稿画像に対して、画像編集処理対象の領域として「CAT」の部分を強調するために、色地をつける処理(色地付加処理という)を行う場合について説明する。このような画像編集処理の結果は、図12(1)の左列に例示される。尚、図12において、中央列は、像域分離結果において、文字領域又は絵柄領域の判定を示すものであり、黒い色の部分が文字領域であると判定されていることが示されている。また、右列は、像域分離結果において、有彩領域又は無彩領域の判定を示すものであり、黒い色の部分が有彩領域であると判定されていることが示されている。まず、画像形成装置50のCPU53は、画像データに対する再利用時のユーザインターフェースとして表示画面を操作表示装置57に表示させる(ステップS50)。ユーザは、当該表示画面において、画像編集処理として色地付加処理を指定する操作入力と、付加する色地を指定する操作入力と、画像編集処理の対象のサムネイル画像(図11参照)を選択する操作入力と、当該サムネイル画像において画像編集処理対象の領域を指定する操作入力とを行う。画像編集処理対象の領域を指定する方法は、例えば、図13に示されるように、画像編集処理対象の領域を矩形とした場合に当該領域の左上の点(a)及び右下の点(b)を指定する方法がある。具体的には、原稿画像の左上を基準にした座標においてそこから右に何mm、下に何mmの位置にあるかをユーザは操作表示装置57において指定する入力を行う。但し、画像編集処理対象の領域を指定する方法はこれに限らず、操作表示装置57に表示されるサムネイル画像においてユーザが直接触れて位置を指定するようにしても良い。尚、画像編集処理対象の領域は矩形に限らず、例えば、図14に点線で示すような円形であっても良い。この場合、画像編集処理対象の領域となる円の中心点と円周上の1点をユーザが指定する操作入力を行うようにすれば良い。図14に示される領域に色地をつける画像処理の結果は、図15に例示される。画像編集処理対象の領域は、この他、星型や楕円形などであっても良い。尚、色地を指定する方法については、sRGB空間のRGB値を指定する操作入力をユーザが行うようにしても良いし、「レッド」「グリーン」「ブルー」など規定の数色を選択肢として表示画面に表示させ、当該選択肢から所望の色を選択する操作入力をユーザが行うようにしても良い。   Here, as the image editing process, for example, for the original image exemplified in FIG. 11, a process of adding a color background (color background addition process) to emphasize the “CAT” portion as the image editing process target area. Will be described. The result of such an image editing process is illustrated in the left column of FIG. In FIG. 12, the center column indicates the determination of the character area or the pattern area in the image area separation result, and indicates that the black color portion is determined to be the character area. The right column indicates the determination of the chromatic region or the achromatic region in the image region separation result, and indicates that the black color portion is determined to be the chromatic region. First, the CPU 53 of the image forming apparatus 50 causes the operation display device 57 to display a display screen as a user interface when reusing image data (step S50). On the display screen, the user selects an operation input for designating a color background addition process as an image editing process, an operation input for designating a color background to be added, and a thumbnail image (see FIG. 11) to be subjected to the image editing process. An operation input and an operation input for designating an image editing process target area in the thumbnail image are performed. For example, as shown in FIG. 13, when the image editing process target area is a rectangle, the upper left point (a) and the lower right point (b ) Is specified. Specifically, the user performs an input for designating on the operation display device 57 how many mm to the right and how many mm below from the upper left of the original image. However, the method of designating the image editing process target area is not limited to this, and the user may directly touch the thumbnail image displayed on the operation display device 57 to designate the position. Note that the image editing processing target area is not limited to a rectangle, and may be a circle as indicated by a dotted line in FIG. In this case, it is only necessary to perform an operation input in which the user designates the center point of the circle to be the image editing processing target area and one point on the circumference. The result of the image processing for adding a color background to the area shown in FIG. 14 is illustrated in FIG. In addition, the image editing process target area may be a star shape, an ellipse shape, or the like. As for the method of designating the color background, the user may perform an operation input for designating the RGB value of the sRGB space, or a predetermined number of colors such as “red”, “green”, and “blue” are displayed as options. The user may perform an operation input for selecting a desired color from the options displayed on the screen.

図10について説明する。操作表示装置57はユーザからの操作入力に応じて、画像編集処理として色地付加処理の指定や色地の指定や画像編集処理の対象の画像データの指定や画像編集処理対象の領域を指示する制御コマンドを生成してこれを、汎用規格I/F78を介してCPU53に出力する。CPU53は、操作入力に応じて生成された制御コマンドを受け付け、ROM61から各種プログラムを読み出して実行すると共に、制御コマンドに従って、該当の画像データの読み出しをバス制御装置67に指示する(ステップS51)。バス制御装置67は、当該指示に従い、該当の画像データ及び付帯情報をHDD68から読み出しこれをCPU53に送る(ステップS52)。そして、CPU53は、該当の画像データ及び付帯情報を受け取ると、これらをメモリ54に記憶させ、制御コマンドに従って、画像編集処理として色地付加処理が指定されたと判定した場合、指定された画像編集処理対象の領域については、画像データに対応付けられた付帯情報によって示される像域分離結果に関わらず、絵柄領域及び有彩領域であると判定し、当該画像編集処理対象の領域の境界線又は境界線を含む境界線の近傍は文字領域であると判定する。具体的には、図11に例示される原稿画像については、図12(1)の中央列及び右列に例示されるように、「DOG」、「CAT」及び「LION」の各文字が表れる領域に対して、絵柄領域及び文字領域が判定され、有彩領域及び無彩領域が判定される。ここで、「DOG」の表れる領域及び「LION」の表れる領域に関しては、付帯情報における像域分離結果と同様であるが、画像編集処理対象の領域として指定された「CAT」の表れる領域に関しては、付帯情報における像域分離結果と異なっている。   FIG. 10 will be described. In response to an operation input from the user, the operation display device 57 designates color gamut addition processing, color gamut designation, image data subject to image editing processing, and image editing processing target area as image editing processing. A control command is generated and output to the CPU 53 via the general-purpose standard I / F 78. The CPU 53 receives a control command generated according to the operation input, reads out and executes various programs from the ROM 61, and instructs the bus control device 67 to read out the corresponding image data according to the control command (step S51). In accordance with the instruction, the bus control device 67 reads the corresponding image data and supplementary information from the HDD 68 and sends it to the CPU 53 (step S52). When the CPU 53 receives the corresponding image data and supplementary information, the CPU 53 stores them in the memory 54. If the CPU 53 determines that the color background addition processing is designated as the image editing processing according to the control command, the designated image editing processing is performed. The target area is determined to be a pattern area and a chromatic area regardless of the image area separation result indicated by the supplementary information associated with the image data, and the boundary line or boundary of the image editing process target area It is determined that the vicinity of the boundary line including the line is a character area. Specifically, in the document image illustrated in FIG. 11, the characters “DOG”, “CAT”, and “LION” appear as illustrated in the center column and the right column in FIG. For the area, a pattern area and a character area are determined, and a chromatic area and an achromatic area are determined. Here, the area where “DOG” appears and the area where “LION” appears are the same as the image area separation result in the supplementary information, but regarding the area where “CAT” designated as the image editing processing target area appears. This is different from the image area separation result in the accompanying information.

そして、CPU53は、制御コマンドに従って、当該画像データによって表される画像に対して画像編集処理として色地付加処理を行う(ステップS53)。このとき、CPU53は、指定された画像編集処理対象の領域について、判定した文字領域に対して黒文字処理を行った後、指定された色の色地をつける処理を行う。また、CPU53は、メモリ54に記憶させた付帯情報において、上述した文字領域又は絵柄領域の判定の変更及び有彩領域又は無彩領域の判定の変更を反映させる。その後のステップS8〜S12は上述の通りである。この結果、図12(1)の左列に例示される画像が得られる。   Then, according to the control command, the CPU 53 performs a color background addition process as an image editing process on the image represented by the image data (step S53). At this time, the CPU 53 performs black character processing on the determined character region with respect to the specified image editing processing target region, and then performs processing for adding a color background of the specified color. Further, the CPU 53 reflects the change in the determination of the character area or the picture area and the change in the determination of the chromatic area or the achromatic area described above in the incidental information stored in the memory 54. Subsequent steps S8 to S12 are as described above. As a result, an image exemplified in the left column of FIG.

課題欄で説明したように、第1画像処理装置52は、像域分離処理において原稿画像中の文字領域を判別する場合、原稿画像における実際の文字よりも大きな領域を文字領域であると判別している。その理由は上述した通りである。例えば、図16の左列に示される原稿画像を表す画像データに対しては、図16の中央列に示される文字が表れるように、文字領域と判別される像域判定結果が付帯情報として対応付けられることになる。また、当該画像データに対しては、図16の左列に示されるように、原稿画像は無彩領域であるという像域判定結果が付帯情報として対応付けられることになる。   As described in the problem column, when the first image processing device 52 determines the character area in the document image in the image area separation process, the first image processing apparatus 52 determines that the area larger than the actual character in the document image is the character area. ing. The reason is as described above. For example, for the image data representing the original image shown in the left column of FIG. 16, the image area determination result determined as the character area corresponds to the auxiliary information so that the character shown in the center column of FIG. 16 appears. Will be attached. Further, for the image data, as shown in the left column of FIG. 16, an image area determination result that the document image is an achromatic area is associated as additional information.

このように、画像データに対応付けられている付帯情報を参照して、原稿画像における実際の文字よりも一回り大きい領域が文字領域であると判別されている像域分離結果を用いて、CPU53が文字領域に対して黒文字処理を行うと、図17に例示されるように、文字の周りが白く抜けて画質が劣化する。尚、図17では、「CAT」の文字列の中から「T」の部分が取り出されて示されているが、他の文字「C」「A」についても同じである。   As described above, the CPU 53 uses the image region separation result in which the region that is slightly larger than the actual character in the document image is determined to be the character region with reference to the incidental information associated with the image data. When the black character processing is performed on the character area, as shown in FIG. 17, the surroundings of the character are white and the image quality is deteriorated. In FIG. 17, the “T” portion is extracted from the character string “CAT”, but the same applies to the other characters “C” and “A”.

このため、本実施の形態においては、CPU53は、画像編集処理として色地付加処理を行う場合には、色地付加処理を行う対象の画像編集処理対象の領域及び画像編集処理対象の領域の境界線又は境界線を含む境界線の近傍に対して文字領域又は絵柄領域の判定についての像域分離結果を適宜変更し、更に、画像編集処理対象の領域に対して有彩領域か無彩領域かの判定についての像域分離結果を適宜変更して、色地付加処理を行う。これにより、文字の周りの白抜けを防止して、画質の劣化を防止することができる。   Therefore, in the present embodiment, when performing the color background addition process as the image editing process, the CPU 53 has a boundary between the image editing process target area to be subjected to the color background addition process and the image editing process target area. Change the image area separation result for the determination of the character area or the pattern area for the vicinity of the boundary line including the line or the boundary line as appropriate. The color gamut addition process is performed by appropriately changing the image area separation result for the above determination. Thereby, white spots around the characters can be prevented, and deterioration of the image quality can be prevented.

尚、CPU53は、像域分離処理において原稿画像における実際の文字より大きくした一回り(2〜3画素程度)分を、画像編集処理対象の領域の境界線として、文字領域と判定するようにしても良いし、一回り分より更に1画素程度加えた部分を、画像編集処理対象の領域の境界線を含む境界線の近傍として、文字領域と判定するようにしても良い。一回り分より更に1画素程度加えた場合、文字と色地とが若干重なるが、画質には殆ど影響ない。   It should be noted that the CPU 53 determines that the area (approximately 2 to 3 pixels) larger than the actual character in the document image in the image area separation process is a character area as a boundary line of the image editing process target area. Alternatively, a portion obtained by adding about one pixel more than the one-round portion may be determined as a character region as the vicinity of the boundary line including the boundary line of the image editing process target region. When about one pixel is added from one round, the character and the color background slightly overlap, but the image quality is hardly affected.

次に、上述した色地付加処理において、色地をつける対象の画像編集処理対象の領域の境界線に枠(線)を付加する処理を行う場合について説明する。このような画像編集処理を図11の原稿画像に対して行った結果は、図12(5)の左列に例示される。この場合、ユーザは、更に、指定した画像編集処理対象の領域の境界線に枠を付加することを指定する操作入力を行う。ステップS50では、操作表示装置57はユーザからの操作入力に応じて、画像編集処理として色地付加処理の指定や色地の指定や画像編集処理の対象の画像データの指定や画像編集処理対象の領域を指示すると共に、画像編集処理対象の領域の境界線への枠の付加を指示する制御コマンドを生成してこれを、汎用規格I/F78を介してCPU53に出力する。ステップS51及びステップS52は上述した通りである。ステップS53では、CPU53は、制御コマンドに従って、画像編集処理として色地付加処理が指定され且つ画像編集処理対象の領域の境界線に枠を付加すると判定した場合、指定された画像編集処理対象の領域については、画像データに対応付けられた付帯情報によって示される像域分離結果に関わらず、絵柄領域及び有彩領域であると判定し、更に、当該画像編集処理対象の領域の境界線又は境界線を含む境界線の近傍も絵柄領域であると判定する。   Next, a description will be given of a case where a process of adding a frame (line) to a boundary line of an image editing process target area to be colored is performed in the above-described color background adding process. The result of performing such image editing processing on the document image of FIG. 11 is illustrated in the left column of FIG. In this case, the user further performs an operation input for designating the addition of a frame to the boundary line of the designated image editing process target area. In step S50, in response to an operation input from the user, the operation display device 57 designates color ground addition processing, color ground designation, image data subject to image editing processing, and image editing processing subject as image editing processing. In addition to designating an area, a control command for instructing addition of a frame to the boundary line of the image editing process target area is generated and output to the CPU 53 via the general-purpose standard I / F 78. Steps S51 and S52 are as described above. In step S53, if the CPU 53 determines that the color background addition process is designated as the image editing process and a frame is to be added to the boundary line of the image editing process target area according to the control command, the specified image editing process target area Is determined to be a pattern region and a chromatic region regardless of the image region separation result indicated by the supplementary information associated with the image data, and further, the boundary line or boundary line of the image editing processing target region It is determined that the vicinity of the boundary line including is also a picture area.

そして、CPU53は、制御コマンドに従って、当該画像データによって表される画像に対して画像編集処理として色地付加処理を行う。このとき、CPU53は、指定された画像編集処理対象の領域について、判定した文字領域に対して黒文字処理を行った後、指定された色の色地を付加し、更に画像編集処理対象の領域の境界線に対して例えば黒色の枠を付加する処理を行う。この結果、図12(5)の左列に例示される画像が得られる。   Then, according to the control command, the CPU 53 performs color background addition processing as image editing processing on the image represented by the image data. At this time, the CPU 53 performs black character processing on the determined character area with respect to the designated image editing process target area, adds a color background of the designated color, and further adds the color edit process target area. For example, a process of adding a black frame to the boundary line is performed. As a result, an image exemplified in the left column of FIG.

このように、画像編集処理対象の領域の境界線に枠を付加する場合、枠となる境界線を文字領域として取り扱うと、枠の近傍が白抜けしてしまい、図17で示したものと同様に画質に劣化が発生してしまう。従って、CPU53は、原稿画像の画像編集処理対象の領域に対して行う色地付加処理において、画像編集処理対象の領域の境界線に枠をつける場合には、画像編集処理対象の領域の境界線を文字領域として取り扱わずに絵柄領域として取り扱うことで、画質の劣化を防止することができる。但し、付帯情報の像域分離結果において当該境界線が有彩領域であると判定されていれば、当該境界線に対する黒文字処理を行わないので、図12(5)’の中央列に例示されるように、当該境界線を文字領域と判別するようにしても良い。   As described above, when a frame is added to the boundary line of the image editing processing target area, if the boundary line serving as the frame is handled as a character area, the vicinity of the frame is blanked out, which is the same as that shown in FIG. The image quality will deteriorate. Accordingly, in the color background adding process performed on the image editing process target area of the original image, the CPU 53 adds a frame to the boundary line of the image editing process target area. The image quality can be prevented from being deteriorated by treating it as a pattern area instead of treating it as a character area. However, if the boundary line is determined to be a chromatic area in the image area separation result of the incidental information, black character processing is not performed on the boundary line, and is illustrated in the center column of FIG. 12 (5) ′. In this way, the boundary line may be determined as a character area.

次に、原稿画像の画像編集処理対象の領域の境界線に枠のみを付加する処理(枠付加処理という)を行う場合について説明する。このような画像編集処理を図11の原稿画像に対して行った結果は、図12(6)の左列に例示される。この場合、ユーザは、表示画面において、画像編集処理として枠付加処理を指定する操作入力と、画像編集処理の対象のサムネイル画像を選択する操作入力と、当該サムネイル画像において画像編集処理の対象となる画像編集処理対象の領域を指定する操作入力とを行う。ステップS50では、操作表示装置57はユーザからの操作入力に応じて、画像編集処理として枠付加処理の指定や画像編集処理の対象の画像データの指定や画像編集処理対象の領域を指示する制御コマンドを生成してこれを、汎用規格I/F78を介してCPU53に出力する。ステップS51及びステップS52は上述した通りである。ステップS53では、CPU53は、制御コマンドに従って、画像編集処理として枠付加処理が指定されたと判定した場合、指定された画像編集処理対象の領域については、画像データに対応付けられた付帯情報によって示される像域分離結果に応じて、文字領域又は絵柄領域を判定する。また、CPU53は、当該画像編集処理対象の領域の境界線又は境界線を含む境界線の近傍については、像域分離結果に関わらず、文字領域であると判定する。また、CPU53は、指定された画像編集処理対象の領域について、画像データに対応付けられた付帯情報によって示される像域分離結果に応じて、有彩領域か無彩領域かを判定する。そして、CPU53は、制御コマンドに従って、当該画像データによって表される画像に対して画像編集処理として枠付加処理を行う。このとき、CPU53は、指定された画像編集処理対象の領域について、判定した文字領域に対して黒文字処理を行った後、指定された画像編集処理対象の領域の境界線に対して例えば黒色の枠を付加する処理を行う。また、CPU53は、メモリ54に記憶させた付帯情報において、上述した文字領域又は絵柄領域の判定の変更及び有彩領域又は無彩領域の判定の変更を反映させる。その後のステップS8〜S12は上述の通りである。この結果、図12(6)の左列に例示される画像が得られる。このような構成によれば、画質の劣化を防止することができる。   Next, a case where a process of adding only a frame to the boundary line of the image editing process target area of the document image (referred to as a frame addition process) is described. The result of performing such image editing processing on the document image of FIG. 11 is illustrated in the left column of FIG. In this case, on the display screen, the user becomes an operation input for designating a frame addition process as an image editing process, an operation input for selecting a thumbnail image to be subjected to the image editing process, and an image editing process target for the thumbnail image. An operation input for designating an image editing processing target area is performed. In step S50, the operation display device 57 designates frame addition processing as image editing processing, designation of image data targeted for image editing processing, and a region for image editing processing in response to an operation input from the user. Is output to the CPU 53 via the general-purpose standard I / F 78. Steps S51 and S52 are as described above. In step S53, when the CPU 53 determines that the frame addition process is designated as the image editing process according to the control command, the designated image editing process target area is indicated by the accompanying information associated with the image data. A character area or a pattern area is determined according to the image area separation result. Further, the CPU 53 determines that the boundary line of the image editing process target area or the vicinity of the boundary line including the boundary line is a character area regardless of the image area separation result. Further, the CPU 53 determines whether the designated image editing process target region is a chromatic region or an achromatic region according to the image region separation result indicated by the supplementary information associated with the image data. Then, the CPU 53 performs frame addition processing as image editing processing on the image represented by the image data in accordance with the control command. At this time, the CPU 53 performs black character processing on the determined character area for the designated image editing process target area, and then, for example, a black frame is applied to the boundary line of the designated image editing process target area. Process to add. Further, the CPU 53 reflects the change in the determination of the character area or the picture area and the change in the determination of the chromatic area or the achromatic area described above in the incidental information stored in the memory 54. Subsequent steps S8 to S12 are as described above. As a result, an image exemplified in the left column of FIG. According to such a configuration, it is possible to prevent deterioration in image quality.

次に、画像編集処理として、原稿画像の画像編集処理対象の領域において第1の色を第2の色に色変換し、さらに画像編集処理対象の領域の境界線に黒枠を付ける(色変換処理という)を行う場合について説明する。このような画像編集処理を図11の原稿画像に対して行った結果は、図12(7)の左列に例示される。この場合、ユーザは、表示画面において、画像編集処理として色変換処理を指定する操作入力と、色変換処理において変換元の第1の色(例えば黒色)及び変換先の第2の色(例えば赤色)を指定する操作入力と、画像編集処理の対象のサムネイル画像を選択する操作入力と、当該サムネイル画像において画像編集処理の対象となる画像編集処理対象の領域を指定する操作入力とを行う。ステップS50では、操作表示装置57はユーザからの操作入力に応じて、画像編集処理として枠付加処理の指定や第1の色及び第2の色の指定や画像編集処理の対象の画像データの指定や画像編集処理対象の領域を指示する制御コマンドを生成してこれを、汎用規格I/F78を介してCPU53に出力する。ステップS51及びステップS52は上述した通りである。ステップS53では、CPU53は、制御コマンドに従って、画像編集処理として色変換処理が指定されたと判定した場合、指定された画像編集処理対象の領域については、画像データに対応付けられた付帯情報によって示される像域分離結果に応じて、文字領域又は絵柄領域を判定する。また、CPU53は、当該画像編集処理対象の領域の境界線又は境界線を含む境界線の近傍については、像域分離結果に関わらず、文字領域であると判定する。また、CPU53は、指定された画像編集処理対象の領域について、画像データに対応付けられた付帯情報によって示される像域分離結果に関わらず、有彩領域であると判定する。   Next, as the image editing process, the first color is converted into the second color in the image editing process target area of the original image, and a black frame is added to the boundary line of the image editing process target area (color conversion process). Will be described. The result of performing such image editing processing on the document image of FIG. 11 is illustrated in the left column of FIG. In this case, on the display screen, the user inputs an operation input for designating the color conversion process as the image editing process, the first color (for example, black) of the conversion source and the second color (for example, red) of the conversion destination in the color conversion process. ) For specifying an image editing process, an operation input for selecting a thumbnail image to be subjected to image editing processing, and an operation input for specifying an image editing processing target area to be subjected to image editing processing in the thumbnail image. In step S50, in response to an operation input from the user, the operation display device 57 designates frame addition processing, designates the first color and the second color, and designates image data to be subjected to image editing processing as image editing processing. And a control command for instructing an image editing processing target area is generated and output to the CPU 53 via the general-purpose standard I / F 78. Steps S51 and S52 are as described above. In step S53, when the CPU 53 determines that the color conversion process is designated as the image editing process in accordance with the control command, the designated image editing process target area is indicated by the accompanying information associated with the image data. A character area or a pattern area is determined according to the image area separation result. Further, the CPU 53 determines that the boundary line of the image editing process target area or the vicinity of the boundary line including the boundary line is a character area regardless of the image area separation result. Further, the CPU 53 determines that the specified image editing process target area is a chromatic area regardless of the image area separation result indicated by the supplementary information associated with the image data.

そして、CPU53は、制御コマンドに従って、当該画像データによって表される画像に対して画像編集処理として色変換処理を行う。このとき、CPU53は、指定された画像編集処理対象の領域について、判定した文字領域に対して黒文字処理を行った後、指定された画像編集処理対象の領域における第1の色を第2の色に色変換して、当該画像編集処理対象の領域の境界線に対して例えば黒色の枠を付加する処理を行う。また、CPU53は、メモリ54に記憶させた付帯情報において、上述した文字領域又は絵柄領域の判定の変更及び有彩領域又は無彩領域の判定の変更を反映させる。その後のステップS8〜S12は上述の通りである。この結果、図12(7)に例示される画像が得られる。   Then, the CPU 53 performs color conversion processing as image editing processing on the image represented by the image data in accordance with the control command. At this time, the CPU 53 performs black character processing on the determined character area for the designated image editing process target area, and then changes the first color in the designated image editing process target area to the second color. Then, a process of adding, for example, a black frame to the boundary line of the image editing process target area is performed. Further, the CPU 53 reflects the change in the determination of the character area or the picture area and the change in the determination of the chromatic area or the achromatic area described above in the incidental information stored in the memory 54. Subsequent steps S8 to S12 are as described above. As a result, the image illustrated in FIG. 12 (7) is obtained.

このように、色変換処理を行う場合にも、文字領域に対して黒文字処理を行うため、変換元の第1の色が黒色である場合の文字に対して第2の色に色変換されずに、画像編集処理対象の領域の境界線に枠のみが付けられることになってしまう。このため、CPU53は、原稿画像の画像編集処理対象の領域に対して色変換処理を行う場合には、画像編集処理対象の領域の境界線を文字領域として取り扱い、画像編集処理対象の領域を有彩領域として取り扱うことで、画質の劣化を防止することができる。   As described above, even when the color conversion process is performed, since the black character process is performed on the character area, the character is not converted into the second color when the first color of the conversion source is black. In addition, only a frame is added to the boundary line of the image editing process target area. Therefore, when the color conversion process is performed on the image editing process target area of the document image, the CPU 53 treats the boundary line of the image editing process target area as a character area, and has the image editing process target area. By treating it as a chromatic region, it is possible to prevent image quality deterioration.

次に、画像編集処理として、原稿画像の画像編集処理対象の領域に網点を付加することにより網掛けを施す処理(網掛け処理という)を行う場合について説明する。このような網掛け処理は、画像編集処理対象の領域に表される文字を強調するために実施することが多い。従って、画像編集処理対象の領域に表される文字が見えにくくなるような網掛けは施すべきでない。したがって、網掛けとして用いる網点は40〜85線程度の低線数で、網点面積率は5%〜20%程度の薄い網点が用いられることが多い。このような画像編集処理を図11の原稿画像に対して行った結果は、図12(4)の左列に例示される。この場合、まず、ユーザは、表示画面において、画像編集処理として網掛け処理を指定する操作入力と、網掛け処理における網点の色を指定する操作入力と、画像編集処理の対象のサムネイル画像を選択する操作入力と、当該サムネイル画像において画像編集処理の対象となる画像編集処理対象の領域を指定する操作入力とを行う。ステップS50では、操作表示装置57はユーザからの操作入力に応じて、画像編集処理として網掛け処理の指定や網点の色の指定や画像編集処理の対象の画像データの指定や画像編集処理対象の領域を指示する制御コマンドを生成してこれを、汎用規格I/F78を介してCPU53に出力する。ステップS51及びステップS52は上述した通りである。ステップS53では、CPU53は、制御コマンドに従って、画像編集処理として網掛け処理が指定されたと判定した場合、指定された画像編集処理対象の領域については、画像データに対応付けられた付帯情報によって示される像域分離結果に応じて、文字領域又は絵柄領域を判定する。また、CPU53は、指定された画像編集処理対象の領域について、画像データに対応付けられた付帯情報によって示される像域分離結果に関わらず、有彩領域であると判定する。   Next, a description will be given of a case in which as the image editing process, a process of adding a halftone dot to an image editing process target area of a document image (referred to as a halftone process) is performed. Such a shading process is often performed in order to emphasize a character represented in an image editing process target area. Therefore, it should not be shaded so as to make it difficult to see the characters represented in the image editing process target area. Therefore, halftone dots used for shading are often low lines of about 40 to 85 lines, and thin halftone dots with a halftone dot area ratio of about 5% to 20% are often used. The result of performing such image editing processing on the document image of FIG. 11 is illustrated in the left column of FIG. In this case, first, on the display screen, the user selects an operation input for designating the shading process as an image editing process, an operation input for designating a halftone color in the shading process, and a thumbnail image to be subjected to the image editing process. An operation input to be selected and an operation input for designating an image editing process target area to be an image editing process target in the thumbnail image are performed. In step S50, in response to an operation input from the user, the operation display device 57 designates shading processing, halftone color designation, image data subject to image editing processing, and image editing processing target as image editing processing. A control command for instructing the area is generated and output to the CPU 53 via the general-purpose standard I / F 78. Steps S51 and S52 are as described above. In step S53, when the CPU 53 determines that the shading process is designated as the image editing process according to the control command, the designated image editing process target area is indicated by the accompanying information associated with the image data. A character area or a pattern area is determined according to the image area separation result. Further, the CPU 53 determines that the specified image editing process target area is a chromatic area regardless of the image area separation result indicated by the supplementary information associated with the image data.

そして、CPU53は、制御コマンドに従って、当該画像データによって表される画像に対して画像編集処理として網掛け処理を行う。また、CPU53は、メモリ54に記憶させた付帯情報において、上述した文字領域又は絵柄領域の判定の変更及び有彩領域又は無彩領域の判定の変更を反映させる。その後のステップS8〜S12は上述の通りである。この結果、図12(4)の左列に例示される画像が得られる。   Then, according to the control command, the CPU 53 performs a shading process as an image editing process on the image represented by the image data. Further, the CPU 53 reflects the change in the determination of the character area or the picture area and the change in the determination of the chromatic area or the achromatic area described above in the incidental information stored in the memory 54. Subsequent steps S8 to S12 are as described above. As a result, an image exemplified in the left column of FIG.

一般的に、読み取り装置51で原稿画像を読み取り、読み取った原稿画像に対して像域分離処理を実施すると、網掛けが施された文字、即ち、網点上の文字は絵柄領域として判別される。網点上の文字と、網点とを精度良く判別することが困難であるためである。実際には、網点上の文字であっても、判読性を高めるような処理を実施することが望ましい。従って、原稿画像の画像編集処理対象の領域に対して網点を付加することにより網掛けを施す網掛け処理を行う場合は、画像編集処理対象の領域に表れる文字に加えて、網点を付加する領域全体(即ち画像編集処理対象の領域全体)を文字領域として取り扱うことが望ましい。また、画像編集処理対象の領域に表れる文字と網点とが重なる部分については、有彩領域として取り扱わないと、不自然な画像となってしまう恐れがある。従って、網掛けを施す画像編集処理対象の領域においては、文字領域且つ無彩領域であるという部分が存在しないようにする必要がある。従って、CPU53は、原稿画像の画像編集処理対象の領域に対して網掛け処理を行う場合には、画像編集処理対象の領域を文字領域及び有彩領域として取り扱うことで、画質の劣化を防止することができる。   In general, when an original image is read by the reading device 51 and image area separation processing is performed on the read original image, the shaded characters, that is, the characters on the halftone dots, are determined as pattern areas. . This is because it is difficult to accurately discriminate between characters on halftone dots and halftone dots. In practice, it is desirable to carry out processing that improves legibility even for characters on halftone dots. Therefore, when halftone processing is performed by adding halftone dots to the image editing process target area of the original image, halftone dots are added in addition to the characters appearing in the image editing process target area. It is desirable to treat the entire area to be processed (that is, the entire area subject to image editing processing) as a character area. In addition, a portion where characters and halftone dots appearing in the image editing processing target area overlap may cause an unnatural image unless handled as a chromatic area. Therefore, it is necessary to prevent the character editing area and the achromatic area from being present in the image editing process target area to be shaded. Accordingly, when performing the shading process on the image editing process target area of the document image, the CPU 53 treats the image editing process target area as a character area and a chromatic area, thereby preventing image quality deterioration. be able to.

尚、CPU53は、原稿画像の画像編集処理対象の領域に対して網掛け処理を行う場合には、図12(4)’の左列に例示されるように、画像編集処理対象の領域を絵柄領域及び有彩領域として取り扱うようにしても良い。この場合は、文字の鮮鋭性が少し劣化するが、網点上の文字が読み取り装置51で読み取られて絵柄領域と判別された時と同程度の鮮鋭性となる。   When the CPU 53 performs the shading process on the image editing process target area of the document image, as illustrated in the left column of FIG. You may make it handle as an area | region and a chromatic area | region. In this case, the sharpness of the character is slightly deteriorated, but the sharpness is the same as when the character on the halftone dot is read by the reading device 51 and determined as the picture area.

次に、画像編集処理として、画像編集処理対象の領域の色を黒から白又は白から黒に反転させる反転処理を行う場合について説明する。このような画像編集処理を図11の原稿画像に対して行った結果は、図12(2)の左列に例示される。この場合、まず、ユーザは、表示画面において、画像編集処理として反転処理を指定する操作入力と、画像編集処理の対象のサムネイル画像を選択する操作入力と、当該サムネイル画像において画像編集処理の対象となる画像編集処理対象の領域を指定する操作入力とを行う。ステップS50では、操作表示装置57はユーザからの操作入力に応じて、画像編集処理として反転処理の指定や網点の色の指定や画像編集処理の対象の画像データの指定や画像編集処理対象の領域を指示する制御コマンドを生成してこれを、汎用規格I/F78を介してCPU53に出力する。ステップS51及びステップS52は上述した通りである。ステップS53では、CPU53は、制御コマンドに従って、画像編集処理として反転処理が指定されたと判定した場合、指定された画像編集処理対象の領域については、画像データに対応付けられた付帯情報によって示される像域分離結果に応じて、文字領域又は絵柄領域を判定する。また、CPU53は、当該画像編集処理対象の領域の境界線又は境界線を含む境界線の近傍については、像域分離結果に関わらず、文字領域であると判定する。また、CPU53は、指定された画像編集処理対象の領域について、画像データに対応付けられた付帯情報によって示される像域分離結果に応じて、有彩領域又は無彩領域を判定する。   Next, a description will be given of a case where an inversion process for inverting the color of a region targeted for image editing processing from black to white or from white to black is performed as the image editing process. The result of performing such image editing processing on the document image of FIG. 11 is illustrated in the left column of FIG. In this case, first, on the display screen, the user inputs an operation input for designating an inversion process as an image editing process, an operation input for selecting a thumbnail image to be subjected to the image editing process, and an image editing process target for the thumbnail image. An operation input for designating an image editing process target area is performed. In step S50, the operation display device 57 designates inversion processing, halftone color designation, image data subject to image editing processing, and image editing processing subject as image editing processing in response to an operation input from the user. A control command for designating the area is generated and output to the CPU 53 via the general-purpose standard I / F 78. Steps S51 and S52 are as described above. In step S53, when the CPU 53 determines that the inversion process is designated as the image editing process in accordance with the control command, the image indicated by the auxiliary information associated with the image data for the designated image editing process target area. A character region or a pattern region is determined according to the region separation result. Further, the CPU 53 determines that the boundary line of the image editing process target area or the vicinity of the boundary line including the boundary line is a character area regardless of the image area separation result. Further, the CPU 53 determines a chromatic region or an achromatic region for the designated image editing process target region according to the image region separation result indicated by the supplementary information associated with the image data.

そして、CPU53は、制御コマンドに従って、当該画像データによって表される画像に対して画像編集処理として反転処理を行う。このとき、CPU53は、判定した文字領域に対して黒文字処理を行った後、反転処理を行い、当該画像編集処理対象の領域の境界線又は境界線を含む境界線の近傍に対して例えば黒色の枠を付加する処理を行う。また、CPU53は、メモリ54に記憶させた付帯情報において、上述した文字領域又は絵柄領域の判定の変更及び有彩領域又は無彩領域の判定の変更を反映させる。その後のステップS8〜S12は上述の通りである。この結果、図12(2)の左列に例示される画像が得られる。   Then, in accordance with the control command, the CPU 53 performs inversion processing as image editing processing on the image represented by the image data. At this time, the CPU 53 performs black character processing on the determined character area, and then performs inversion processing, so that, for example, a black line is applied to the boundary line of the image editing process target area or the vicinity of the boundary line including the boundary line. Perform processing to add a frame. Further, the CPU 53 reflects the change in the determination of the character area or the picture area and the change in the determination of the chromatic area or the achromatic area described above in the incidental information stored in the memory 54. Subsequent steps S8 to S12 are as described above. As a result, an image exemplified in the left column of FIG.

以上のように、HDD68に画像データを再利用して画像編集処理を行う際には、画像編集処理の内容によっては、当該画像データを対応付けられてHDD68に記憶された付帯情報をそのまま利用できる場合もあるし、利用できない場合もある。このため、画像編集処理の内容に応じて、付帯情報によって示される像域分離結果をそのまま利用するのではなく、文字領域又は絵柄領域の判定や有彩領域又は無彩領域の判定を適宜変更して画像編集処理を行うことで、画像編集処理後の画像の画質を向上させることができる。   As described above, when image editing processing is performed by reusing image data in the HDD 68, depending on the content of the image editing processing, additional information stored in the HDD 68 associated with the image data can be used as it is. Sometimes it is not available. For this reason, depending on the content of the image editing process, instead of using the image area separation result indicated by the supplementary information as it is, the determination of the character area or the picture area and the determination of the chromatic area or the achromatic area are appropriately changed. By performing the image editing process, the image quality of the image after the image editing process can be improved.

[第2の実施の形態]
次に、画像処理装置、画像処理方法及びプログラムの第2の実施の形態について説明する。なお、上述の第1の実施の形態と共通する部分については、同一の符号を使用して説明したり、説明を省略したりする。
[Second Embodiment]
Next, a second embodiment of the image processing apparatus, the image processing method, and the program will be described. In addition, about the part which is common in the above-mentioned 1st Embodiment, it demonstrates using the same code | symbol or abbreviate | omits description.

本実施の形態においては、上述した画像編集処理において、ユーザの操作入力に応じて、指定された画像編集処理対象の領域を原稿画像内において移動させる場合について説明する。   In the present embodiment, a case will be described in which, in the image editing process described above, a designated image editing process target area is moved within a document image in response to a user operation input.

具体的に、画像編集処理として、画像編集処理対象の領域を移動させると共に反転処理を行う場合について説明する。例えば、図18に例示される原稿画像に対し、図19に例示される点線部分「DOG CAT LION」という文字を含む矩形領域を画像編集処理対象の領域として、当該画像編集処理対象の領域を図20に例示されるように位置に移動させる。尚、図18に例示される画像に含まれる画像G1に対する像域分離結果では、図16に例示されるように、文字領域と判別されており、無彩領域と判定されている。また、画像に含まれる画像G2に対する像域分離結果では、図21に例示されるように、当該画像G2の境界線が文字領域と判別され且つそれ以外は絵柄領域と判別されており、有彩領域と判定されている。また、原稿画像に含まれる画像G3に対する像域分離結果では、図22に例示されるように、当該画像G3の境界線が文字領域と判別され且つそれ以外は絵柄領域と判別されており、有彩領域と判定されている。図23〜24は、図18に例示される原稿画像全体の像域分離結果を示す図である。図23では、黒い色の部分が文字領域と判別されていることが示されている。図24では、黒い色の部分が有彩領域と判定されていることが示されている。   Specifically, the case where the image editing process target area is moved and the inversion process is performed as the image editing process will be described. For example, with respect to the document image illustrated in FIG. 18, a rectangular area including the character “DOG CAT LION” illustrated in FIG. 19 is used as an image editing process target area, and the image editing process target area is illustrated. As illustrated in 20, the position is moved. Note that the image area separation result for the image G1 included in the image illustrated in FIG. 18 is determined to be a character area as illustrated in FIG. 16, and is determined to be an achromatic area. Further, in the image region separation result for the image G2 included in the image, as illustrated in FIG. 21, the boundary line of the image G2 is determined to be a character region and the other regions are determined to be a pattern region. It is determined as an area. Further, in the image area separation result for the image G3 included in the original image, as illustrated in FIG. 22, the boundary line of the image G3 is determined to be a character area and the other areas are determined to be a pattern area. It is determined as a chromatic region. 23 to 24 are diagrams illustrating image area separation results of the entire document image illustrated in FIG. In FIG. 23, it is shown that the black color part is determined as the character area. FIG. 24 shows that the black color portion is determined to be a chromatic region.

次に、図10を用いて本実施の形態に係る動作を説明する。まず、ユーザは、表示画面において、画像編集処理として反転処理を指定する操作入力と、画像編集処理の対象のサムネイル画像を選択する操作入力と、当該サムネイル画像において画像編集処理の対象となる画像編集処理対象の領域を指定する操作入力と、画像編集処理対象の領域内の画像の移動を指示する操作入力とを行う。画像編集処理対象の領域を指定する方法は、第1の実施の形態に示されるように、例えば、画像編集処理対象の領域となる矩形領域の左上と右下との2点を指定すれば良い。画像編集処理対象の領域の移動を指示する方法としては、例えば、画像編集処理対象の領域となる矩形領域のうち、左上の点をどこに移動させるか(移動先という)を座標により指定すれば良い。なお、画像編集処理対象の領域が円形となる場合は、中心点をどこに移動するかを座標により指定すれば良い。   Next, the operation according to the present embodiment will be described with reference to FIG. First, on the display screen, the user inputs an operation input for specifying an inversion process as an image editing process, an operation input for selecting a thumbnail image to be subjected to the image editing process, and an image editing target for the image editing process in the thumbnail image. An operation input for designating a region to be processed and an operation input for instructing movement of an image within the region to be processed for image editing are performed. As a method for designating an image editing process target area, for example, two points, that is, an upper left and a lower right of a rectangular area that is an image editing process target area may be specified as shown in the first embodiment. . As a method for instructing the movement of the image editing process target area, for example, where the upper left point of the rectangular area that is the image editing process target area is to be moved (referred to as the movement destination) may be specified by coordinates. . If the image editing process target area is circular, it is sufficient to specify where to move the center point by coordinates.

ステップS50では、操作表示装置57はユーザからの操作入力に応じて、画像編集処理として反転処理の指定や画像編集処理の対象の画像データの指定や画像編集処理対象の領域の指定や特定領域の移動を指示する制御コマンドを生成してこれを、汎用規格I/F78を介してCPU53に出力する。ステップS51及びステップS52は上述した通りである。尚、ここで、バス制御装置67からCPU53に送られる付帯情報における像域分離結果及びカラー判定結果は、図16,21,22を用いて説明した通りである。ステップS53では、CPU53は、制御コマンドに従って、画像編集処理として反転処理が指定され且つ画像編集処理対象の領域の移動が指示されたと判定した場合、指定された画像編集処理対象の領域の移動先の領域(移動先領域という)について、画像データに対応付けられた付帯情報によって示される像域分離結果を参照して、文字領域であると判別された画素がある場合、それを絵柄領域の判定に変更する。即ち、CPU53は、画像編集処理対象の領域と移動先領域とが重なる部分に文字領域がある場合、それを絵柄領域の判定に変更する。また、CPU53は、画像データを参照して、移動先領域に含まれる画素のうち、所定量以上の濃度を有する画素がある場合、画像編集処理対象の領域の境界線又は境界線を含む境界線の近傍については、絵柄領域であると判定する。また、CPU53は、画像編集処理対象の領域と移動先領域とが重なる部分について、無彩領域であると判定する。この結果、画像編集処理対象の領域及び移動先領域についての文字領域又は絵柄領域の判定は、図25(C)の中央列に例示されるものとなり、有彩領域又は無彩領域の判定とは、図25(C)の右列に例示されるものとなる。   In step S50, in response to an operation input from the user, the operation display device 57 specifies inversion processing, image data to be subjected to image editing processing, image editing processing target region designation, or specific region designation as image editing processing. A control command for instructing movement is generated and output to the CPU 53 via the general-purpose standard I / F 78. Steps S51 and S52 are as described above. Here, the image area separation result and the color determination result in the auxiliary information sent from the bus control device 67 to the CPU 53 are as described with reference to FIGS. In step S53, when the CPU 53 determines that the reversal process is designated as the image editing process and the movement of the image editing process target area is instructed according to the control command, the CPU 53 determines the destination of the movement of the designated image editing process target area. For an area (referred to as a movement destination area), if there is a pixel that is determined to be a character area by referring to the image area separation result indicated by the accompanying information associated with the image data, this is used to determine the picture area. change. That is, if there is a character area in a portion where the image editing process target area and the movement destination area overlap, the CPU 53 changes it to the determination of the picture area. Further, the CPU 53 refers to the image data, and if there is a pixel having a density of a predetermined amount or more among the pixels included in the movement destination region, the boundary line of the image editing process target region or the boundary line including the boundary line Is determined to be a pattern area. Further, the CPU 53 determines that a portion where the image editing process target area and the movement destination area overlap is an achromatic area. As a result, the determination of the character area or the pattern area for the image editing process target area and the movement destination area is exemplified in the center column of FIG. 25C. What is the determination of the chromatic area or the achromatic area? This is exemplified in the right column of FIG.

そして、CPU53は、制御コマンドに従って、当該画像データによって表される画像に対して画像編集処理対象の領域を移動させて、画像編集処理として反転処理を行う。このとき、CPU53は、画像編集処理対象の領域内の画素と移動先領域内の画素とを合成することにより画像編集処理対象の領域を移動先領域に移動させた後、文字領域に対して黒文字処理を行った後、反転処理を行う。また、CPU53は、メモリ54に記憶させた付帯情報において、上述した文字領域又は絵柄領域の判定の変更及び有彩領域又は無彩領域の判定の変更を反映させる。その後のステップS8〜S12は上述の通りである。この結果、画像編集処理対象の領域を移動させた部分については、図26に例示される画像が得られる。   Then, according to the control command, the CPU 53 moves the image editing process target area with respect to the image represented by the image data, and performs the inversion process as the image editing process. At this time, the CPU 53 synthesizes the pixels in the image editing process target area and the pixels in the movement destination area to move the image editing process target area to the movement destination area, and then adds a black character to the character area. After performing the processing, inversion processing is performed. Further, the CPU 53 reflects the change in the determination of the character area or the picture area and the change in the determination of the chromatic area or the achromatic area described above in the incidental information stored in the memory 54. Subsequent steps S8 to S12 are as described above. As a result, the image illustrated in FIG. 26 is obtained for the portion in which the image editing process target area is moved.

もし、本実施の形態に係る反転処理のケースに対して、第1の実施の形態で説明した反転処理の場合と同様に、文字領域又は絵柄領域の判定が行なわれた場合、図12(2)の中央列に例示されるように、画像編集処理対象の領域又は画像編集処理対象の領域の近傍については、文字領域と判定されることになる。従って、画像編集処理対象の領域及び画像編集処理対象の領域の移動先領域についての文字領域又は絵柄領域の判定は、図25(A)の中央列に例示されるものとなり、有彩領域又は無彩領域の判定とは、図25(B)の右列に例示されるものとなる。このような判定に従って反転処理が行われると、画像編集処理対象の領域を移動させた部分については、図27に例示される画像が得られる。即ち、画像編集処理対象の領域の境界線の色地が白抜けした画像が得られる。また、色地が白抜けしている一方で、黒文字処理においてK版だけは消去されないため、画像編集処理対象の領域の境界線の画像が不自然になる。   If the character region or the pattern region is determined in the case of the reversal processing according to the present embodiment as in the case of the reversal processing described in the first embodiment, FIG. As illustrated in the center column of (), the image editing process target area or the vicinity of the image editing process target area is determined to be a character area. Accordingly, the determination of the character area or the picture area for the image editing process target area and the movement destination area of the image editing process target area is exemplified in the center column of FIG. The determination of the chromatic region is exemplified in the right column of FIG. When the inversion processing is performed according to such determination, an image illustrated in FIG. 27 is obtained for the portion where the image editing processing target area is moved. That is, an image in which the color background of the boundary line of the image editing processing target area is blank is obtained. In addition, while the color background is blank, only the K plate is not erased in the black character processing, so that the image of the boundary line of the image editing processing target area becomes unnatural.

従って、画像編集処理において、画像編集処理対象の領域を移動させて反転処理を行う場合、画像編集処理対象の領域が移動先で絵柄領域と重ならなければ、即ち、画像編集処理対象の領域の移動先領域が絵柄領域を含まなければ、画像編集処理対象の領域の境界線又は境界線を含む境界線の近傍については、第1の実施の形態と同様に、文字領域として取り扱うべきであるが、画像編集処理対象の領域の移動先領域が絵柄領域を含むのであれば、本実施の形態のように、文字領域として取り扱わず、絵柄領域として取り扱うことで、図26に例示されるように、白抜けの生じない画像を得ることができる。   Therefore, in the image editing process, when the image editing process target area is moved and the reversal process is performed, if the image editing process target area does not overlap the pattern area at the destination, that is, the image editing process target area. If the destination area does not include a pattern area, the boundary line of the image editing process target area or the vicinity of the boundary line including the boundary line should be handled as a character area, as in the first embodiment. As shown in FIG. 26, if the destination area of the image editing process target area includes a pattern area, it is not handled as a character area as in this embodiment, but is handled as a pattern area. An image without white spots can be obtained.

尚、移動先領域について図21に示した文字領域の判定及び有彩領域の判定と、画像編集処理対象の領域について図28に示した文字領域の判定及び有彩領域の判定との単純な論理和をとると、図25(B)に示されるような文字領域の判定及び有彩領域の判定が得られる。この場合は、画像編集処理対象の領域の境界線と移動先領域に含まれる絵柄領域とが重なる部分は色文字(文字領域且つ有彩領域)であるため、図27に例示されるような完全な白抜けは発生しない。しかしながら、絵柄領域の中に文字領域が入り込んでいるため、図10のステップS10でフィルタ処理や階調処理が文字領域又は絵柄領域の別や有彩画像又は無彩画像の別に従って切り替わると、これらが切り替わる周辺部で不自然な画像になり易い。このため、図25(C)を用いて説明したように、画像編集処理対象の領域と移動先領域に含まれる絵柄領域とが重なる部分にある文字領域は、絵柄領域として取り扱うのである。   Note that the simple logic of the character area determination and the chromatic area determination shown in FIG. 21 for the movement destination area and the character area determination and the chromatic area determination shown in FIG. When the sum is taken, the determination of the character area and the determination of the chromatic area as shown in FIG. In this case, the portion where the boundary line of the image editing process target area overlaps with the pattern area included in the destination area is a color character (character area and chromatic area), so that it is completely as illustrated in FIG. No white spots occur. However, since the character area is included in the pattern area, when the filtering process or the gradation process is switched according to the character area or the pattern area or the chromatic image or the achromatic image in step S10 in FIG. It tends to be an unnatural image in the peripheral part where is switched. For this reason, as described with reference to FIG. 25C, the character area in the portion where the image editing process target area and the design area included in the destination area overlap is handled as the design area.

以上のように、画像編集処理において、画像編集処理対象の領域を移動させる場合、移動先領域に応じて、文字領域又は絵柄領域の判定や有彩領域又は無彩領域の判定を適宜変更して画像編集処理を行うことで、画像編集処理後の画像の画質を向上させることができる。   As described above, in the image editing process, when moving the image editing process target area, the determination of the character area or the pattern area or the determination of the chromatic area or the achromatic area is appropriately changed according to the movement destination area. By performing the image editing process, the image quality of the image after the image editing process can be improved.

[第3の実施の形態]
次に、画像処理装置、画像処理方法及びプログラムの第3の実施の形態について説明する。なお、上述の第1の実施の形態乃至第2の実施の形態と共通する部分については、同一の符号を使用して説明したり、説明を省略したりする。
[Third embodiment]
Next, a third embodiment of the image processing apparatus, the image processing method, and the program will be described. In addition, about the part which is common in the above-mentioned 1st Embodiment thru | or 2nd Embodiment, it demonstrates using the same code | symbol or abbreviate | omits description.

上述した第2の実施の形態においては、画像編集処理対象の領域の移動によって、当該画像編集処理対象の領域に含まれる文字が、移動先領域における絵柄領域と重ならない場合に画像編集処理として反転処理を行う例について説明したが、本実施の形態においては、画像編集処理対象の領域の移動によって、当該画像編集処理対象の領域に含まれる文字が、移動先領域における絵柄領域と重なる場合に画像編集処理として反転処理を行う例について説明する。この場合でも、CPU53が、画像編集処理対象の領域と移動先領域とが重なる部分にある文字領域を絵柄領域の判定に変更するのは上述と同様である。例えば、図19に例示される点線部分「DOG CAT LION」という文字を含む矩形領域を画像編集処理対象の領域として、当該画像編集処理対象の領域を図29に例示される位置に移動させる。   In the second embodiment described above, when the image editing process target area is moved and characters included in the image editing process target area do not overlap the design area in the destination area, the image editing process is reversed. Although an example of performing the processing has been described, in the present embodiment, when the image editing process target area moves, characters included in the image editing process target area overlap with the pattern area in the movement destination area. An example in which inversion processing is performed as editing processing will be described. Even in this case, the CPU 53 changes the character area in the portion where the image editing process target area and the movement destination area overlap to the determination of the picture area in the same manner as described above. For example, a rectangular region including the character “DOG CAT LION” illustrated in FIG. 19 is moved to a position illustrated in FIG. 29 as a region targeted for image editing processing.

この場合の処理の手順は上述の第2の実施の形態とほぼ同様であるが、画像編集処理対象の領域の境界線又は境界線を含む近傍に対する文字領域又は絵柄領域の判定が第2の実施の形態と異なる。図10のステップS53では、CPU53は、制御コマンドに従って、画像編集処理として反転処理が指定され且つ画像編集処理対象の領域の移動が指示されたと判定した場合、指定された画像編集処理対象の領域の移動先の領域(移動先領域)について、画像データに対応付けられた付帯情報によって示される像域分離結果を参照して、文字領域であると判別された画素がある場合、それを絵柄領域の判定に変更する。そして、本実施の形態においては、CPU53は、画像データを参照して、移動先領域に含まれる画素のうち、所定量以上の濃度を有する画素がある場合、画像編集処理対象の領域の境界線又は境界線を含む近傍については、絵柄領域であると判定する。また、CPU53は、画像編集処理対象の領域と移動先領域とが重なる部分について、無彩領域であると判定する。この結果、画像編集処理対象の領域及び移動先領域についての文字領域又は絵柄領域の判定は、図30(B)の中央列に例示されるものとなり、有彩領域又は無彩領域の判定とは、図30(B)の右列に例示されるものとなる。その後の処理は上述の第2の実施の形態と同様である。この結果、画像編集処理対象の領域を移動させた部分については、図31に例示される画像が得られる。   The processing procedure in this case is almost the same as that of the second embodiment described above, but the determination of the character area or the pattern area with respect to the boundary line of the image editing process target area or the vicinity including the boundary line is performed in the second embodiment. The form is different. In step S53 of FIG. 10, when the CPU 53 determines that the inversion process is designated as the image editing process and the movement of the image editing process target area is instructed according to the control command, the CPU 53 determines the area of the designated image editing process target area. If there is a pixel that is determined to be a character area with reference to the image area separation result indicated by the supplementary information associated with the image data for the movement destination area (movement destination area), that pixel area Change to judgment. In the present embodiment, the CPU 53 refers to the image data, and if there is a pixel having a density equal to or higher than a predetermined amount among the pixels included in the movement destination region, the boundary line of the image editing processing target region Alternatively, the vicinity including the boundary line is determined to be a pattern area. Further, the CPU 53 determines that a portion where the image editing process target area and the movement destination area overlap is an achromatic area. As a result, the determination of the character area or the pattern area for the image editing process target area and the movement destination area is exemplified in the center column of FIG. 30B. What is the determination of the chromatic area or the achromatic area? This is exemplified in the right column of FIG. Subsequent processing is the same as in the second embodiment. As a result, the image illustrated in FIG. 31 is obtained for the portion where the image editing process target area is moved.

例えば、画像編集処理対象の領域について図16に示した文字領域の判定及び有彩領域の判定と、移動先領域について図21に示した文字領域の判定及び有彩領域の判定との単純な論理和をとると、図30(A)に示されるような文字領域の判定及び有彩領域の判定が得られる。しかし、絵柄領域の中に入り込んでいる文字領域は、上述の第2の実施の形態と同様に、絵柄領域として取り扱うことが適切であるため、当該文字領域の判定を絵柄領域の判定に変更することで、画像編集処理後の画像の画質を向上させることができる。   For example, the simple logic of the character area determination and the chromatic area determination shown in FIG. 16 for the image editing process target area and the character area determination and the chromatic area determination shown in FIG. When the sum is taken, the determination of the character area and the determination of the chromatic area as shown in FIG. However, since it is appropriate to treat the character area entering the design area as a design area as in the second embodiment, the determination of the character area is changed to the determination of the design area. As a result, the image quality of the image after the image editing process can be improved.

[第4の実施の形態]
次に、画像処理装置、画像処理方法及びプログラムの第4の実施の形態について説明する。なお、上述の第1の実施の形態乃至第3の実施の形態と共通する部分については、同一の符号を使用して説明したり、説明を省略したりする。
[Fourth embodiment]
Next, an image processing apparatus, an image processing method, and a fourth embodiment of a program will be described. In addition, about the part which is common in the above-mentioned 1st Embodiment thru | or 3rd Embodiment, it demonstrates using the same code | symbol or abbreviate | omits description.

本実施の形態においては、上述した画像編集処理において、ユーザの操作入力によって指定された画像編集処理対象の領域に文字領域と絵柄領域とが混在する場合について説明する。   In the present embodiment, a case will be described in which, in the above-described image editing process, a character area and a picture area are mixed in an image editing process target area specified by a user operation input.

具体的に、画像編集処理として、網掛け処理を行う場合について説明する。例えば、図32に例示される点線部分「CAP」という文字を含む矩形領域を画像編集処理対象の領域として、当該画像編集処理対象の領域に赤色の網点を付加する。この場合の処理の手順は第1の実施の形態とほぼ同様であるが、画像編集処理対象の領域に対する文字領域又は絵柄領域の判定が第1の実施の形態と異なる。図10のステップS53では、CPU53は、制御コマンドに従って、画像編集処理として網掛け処理が指定されたと判定した場合、指定された画像編集処理対象の領域について、画像データに対応付けられた付帯情報によって示される像域分離結果を参照し、当該画像編集処理対象の領域に絵柄領域が含まれるか否かを判定する。当該判定結果が否定的である場合には、上述の第1の実施の形態と同様に、CPU53は、画像編集処理対象の領域について、画像データに対応付けられた付帯情報によって示される像域分離結果に応じて、絵柄領域又は文字領域を判定する。一方、画像編集処理対象の領域に絵柄領域が含まれると判定した場合、CPU53は、画像編集処理対象の領域については、画像データに対応付けられた付帯情報によって示される像域分離結果に関わらず、絵柄領域及び有彩領域と判定する。この結果、画像編集処理対象の領域についての文字領域又は絵柄領域の判定は、図33(C)の中央列に例示されるものとなり、有彩領域又は無彩領域の判定とは、図33(C)の右列に例示されるものとなる。その後の処理は上述の第1の実施の形態と同様である。この結果、図33(C)の左列に例示される画像が得られる。   Specifically, a case where a shading process is performed as the image editing process will be described. For example, a rectangular area including the character “CAP” illustrated in FIG. 32 is set as an image editing process target area, and a red halftone dot is added to the image editing process target area. The processing procedure in this case is almost the same as that in the first embodiment, but the determination of the character area or the picture area for the image editing process target area is different from that in the first embodiment. In step S53 of FIG. 10, when the CPU 53 determines that the shading process is designated as the image editing process in accordance with the control command, the CPU 53 uses the accompanying information associated with the image data for the designated image editing process target area. With reference to the displayed image area separation result, it is determined whether or not the image editing process target area includes a picture area. If the determination result is negative, as in the first embodiment described above, the CPU 53 separates the image area separation indicated by the supplementary information associated with the image data for the image editing process target area. Depending on the result, the pattern area or the character area is determined. On the other hand, if it is determined that the image editing process target area includes a pattern area, the CPU 53 determines the image editing process target area regardless of the image area separation result indicated by the supplementary information associated with the image data. The pattern area and the chromatic area are determined. As a result, the determination of the character region or the pattern region with respect to the image editing process target region is exemplified in the center column of FIG. 33C. The determination of the chromatic region or the achromatic region is illustrated in FIG. This is exemplified in the right column of C). Subsequent processing is the same as in the first embodiment. As a result, an image exemplified in the left column of FIG.

例えば、図21に示した文字領域の判定及び有彩領域の判定と、図12(4)に示した文字領域の判定及び有彩領域の判定との単純な論理和をとると、図33(A)に示されるような文字領域の判定及び有彩画像の判定が得られる。しかし、これらの判定の結果が用いられて図10のステップS10でフィルタ処理や階調処理が行われると、絵柄領域の画質が著しく劣化する恐れがある。一方、図15に示した文字領域の判定及び有彩領域の判定と、図12(4)’に示した文字領域の判定及び有彩領域の判定との単純な論理和をとると、図33(B)に示されるような文字領域の判定及び有彩領域の判定が得られる。この場合、網点が付加される画像編集処理対象の領域の一部に文字領域の判定があるため、その境界で画像が不自然になる。このため、図33(C)を用いて説明したように、画像編集処理対象の領域については、絵柄領域として取り扱うのである。尚、第1の実施の形態で図12(3)を用いて説明したように、画像編集処理対象の領域内に白地上の文字しか存在しない時には、画像編集処理対象の領域を全て文字領域として取り扱っても良い。即ち、画像編集処理対象の領域に、付帯情報の像域判定結果において写真画像であると判定された画素が含まれず且つ有彩領域であると判定された画素が含まれない場合、画像編集処理対象の領域を全て文字領域として取り扱っても良い。しかし、画像編集処理対象の領域内に絵柄領域も含まれる場合には、画像編集処理対象の領域を全て絵柄領域として取り扱うことで、画質の低下を抑制することができる。ある程度一まとまりの領域内での画質の乱れは、非常に目立ち易いためユーザに異常な画像であるという指摘を受け易い。このため、本実施の形態によれば、ユーザに異常な画像を提供してしまう事態を回避することできる。   For example, when a simple logical sum of the determination of the character region and the chromatic region shown in FIG. 21 and the determination of the character region and the chromatic region shown in FIG. The determination of the character area and the determination of the chromatic image as shown in A) are obtained. However, if the results of these determinations are used and filter processing or gradation processing is performed in step S10 of FIG. 10, the image quality of the pattern area may be significantly degraded. On the other hand, when a simple logical sum of the character region determination and chromatic region determination shown in FIG. 15 and the character region determination and chromatic region determination shown in FIG. The determination of the character area and the determination of the chromatic area as shown in (B) are obtained. In this case, since the character region is determined as a part of the image editing processing target region to which the halftone dots are added, the image becomes unnatural at the boundary. For this reason, as described with reference to FIG. 33C, the image editing process target area is handled as a pattern area. As described with reference to FIG. 12 (3) in the first embodiment, when there are only white background characters in the image editing process target area, all the image editing process target areas are set as character areas. May be handled. That is, when the image editing process target area does not include the pixel determined to be a photographic image in the image area determination result of the supplementary information and does not include the pixel determined to be a chromatic area, the image editing process All target areas may be treated as character areas. However, when a pattern area is also included in the image editing process target area, a reduction in image quality can be suppressed by treating all the image editing process target areas as the pattern area. Disturbances in image quality within a certain area are very conspicuous, and it is easy for the user to point out that the image is abnormal. For this reason, according to this Embodiment, the situation which provides an abnormal image to a user can be avoided.

[変形例]
なお、本発明は前記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、前記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。また、以下に例示するような種々の変形が可能である。
[Modification]
Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined. Further, various modifications as exemplified below are possible.

上述した各実施の形態において、画像形成装置50のCPU53が実行する各種プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、当該各種プログラムを、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、DVD(Digital Versatile Disk)等の光記録媒体、フレキシブルディスク(FD)等の磁気記録媒体、光磁気記録媒体、半導体記録媒体及び磁気テープ等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成しても良い。また、各種プログラムの全部又は一部は、OS(オペレーティングシステム)に組み込まれていても良いし、OSとして機能するように構成しても良い。   In each of the above-described embodiments, various programs executed by the CPU 53 of the image forming apparatus 50 may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. good. The various programs can be installed in an installable or executable file, such as an optical recording medium such as a CD-ROM, CD-R, or DVD (Digital Versatile Disk), a magnetic recording medium such as a flexible disk (FD), You may comprise so that it may record and provide on computer-readable recording media, such as a magneto-optical recording medium, a semiconductor recording medium, and a magnetic tape. All or some of the various programs may be incorporated in an OS (Operating System) or may be configured to function as the OS.

また、上述した各実施の形態においては、第1画像処理装置52及び第2画像処理装置66をハードウェアにより構成したが、これらのうち少なくとも一方によって実現される機能が、CPU53がプログラムを実行することにより実現されるように構成しても良い。   Further, in each of the above-described embodiments, the first image processing device 52 and the second image processing device 66 are configured by hardware, but the function realized by at least one of these is executed by the CPU 53. You may comprise so that it may be implement | achieved by this.

上述した各実施の形態においては、フォーマット変換部116が第2画像処理装置66に含まれるように構成したが、第2画像処理装置66に含まれないように構成しても良い。   In each of the above-described embodiments, the format conversion unit 116 is configured to be included in the second image processing device 66, but may be configured not to be included in the second image processing device 66.

また、画像形成装置50として複合機に適用した例を示したが、これに限定されるものではなく、複写機、プリンタ、ファクシミリ等にも適用することが可能である。また、画像形成装置50は、複数の機器(例えば、ホストコンピュータ、インターフェース機器、スキャナ、プリンタ等)から構成されるシステムに適用しても、1つの機器から構成される装置(ホストコンピュータ等)に適用しても良い。   In addition, although an example in which the image forming apparatus 50 is applied to a multifunction peripheral is shown, the present invention is not limited to this, and can be applied to a copying machine, a printer, a facsimile, and the like. Further, even if the image forming apparatus 50 is applied to a system including a plurality of devices (for example, a host computer, an interface device, a scanner, a printer, and the like), the image forming apparatus 50 is an apparatus (host computer or the like) including a single device. It may be applied.

上述の各実施の形態においては、各種画像編集処理をCPU53が行うようにしたが、画像編集処理が大規模なものである場合、CPU53に負担が掛かるため、画像形成装置50は第3画像処理装置を更に有し、第3画像処理装置が画像編集処理を行うようにしても良い。この場合、CPU53は、画像編集処理を行う際には、操作表示装置57から出力された制御コマンドに応じて、処理対象の画像データ及び付帯情報と共に、画像編集処理の内容や画像編集処理対象の領域の指定や移動先の指定を示す処理内容情報を第3画像処理装置に渡し、第3画像処理装置が画像データ、付帯情報及び処理内容情報を用いて画像編集処理を行って、付帯情報を適宜変更して、画像編集処理後の画像データ及び付帯情報をCPU53に渡す。CPU53は、当該画像データ及び付帯情報をメモリ54に記憶させ、当該画像データ及び付帯情報をバス制御装置67を介して第2画像処理装置66に出力するようにすれば良い。   In each of the embodiments described above, the CPU 53 performs various image editing processes. However, when the image editing process is large-scale, the CPU 53 is burdened, and the image forming apparatus 50 performs the third image processing. And a third image processing apparatus that performs image editing processing. In this case, when the image editing process is performed, the CPU 53 determines the contents of the image editing process and the image editing process target together with the image data to be processed and the accompanying information according to the control command output from the operation display device 57. Processing content information indicating the designation of the area and the designation of the movement destination is passed to the third image processing device, and the third image processing device performs image editing processing using the image data, the supplementary information and the processing content information, and adds the supplementary information. The image data and the incidental information after the image editing process are transferred to the CPU 53 as appropriate. The CPU 53 may store the image data and the accompanying information in the memory 54 and output the image data and the accompanying information to the second image processing device 66 via the bus control device 67.

上述の各実施の形態においては、付帯情報として、像域分離結果及びカラー判定結果以外の情報を取り扱うようにしても良い。例えば、網点判定結果を付帯情報としても良い。網点判定結果については、例えば特許第3983101号公報に記載の網点抽出部(段落0135〜0157等参照)の技術により得ることができる。このような網点判定結果を用いることで、例えば第2の実施の形態で説明した図18の画像内の画像G2については、内部が網点で構成されており、絵柄領域であることをCPU53は容易に判定することができる。   In each of the above-described embodiments, information other than the image area separation result and the color determination result may be handled as incidental information. For example, the halftone dot determination result may be used as incidental information. The halftone dot determination result can be obtained by the technique of the halftone dot extraction unit (see paragraphs 0135 to 0157 etc.) described in Japanese Patent No. 3983101, for example. By using such a halftone dot determination result, for example, the image G2 in the image of FIG. 18 described in the second embodiment is configured by a halftone dot, and the CPU 53 indicates that it is a picture area. Can be easily determined.

上述の各実施の形態においては、図11や図18で例示した「CAT」や「CAP」などは文字として取り扱った。即ち、これらに対して像域判定処理の結果文字領域であると判定され、この結果が付帯情報として画像データに対応付けられていた。しかし、画像形成装置50は、画像編集処理を行う際に、ユーザによって指定された画像編集処理対象の領域に対してOCR処理(文字認識処理)を行い、文字をフォントデータとして認識した上で編集するようにしても良い。その場合は、画像編集処理対象の領域内の「CAT」「CAP」などは画像データでなく、フォントの種類(明朝体、ゴシック体など)、フォントの色、フォントの大きさ等の情報を有するデータとして取り扱われる。このような文字の属性に関する情報も、付帯情報として画像データと共にHDD68に蓄積させる。このような付帯情報を用いれば、文字としての取り扱いはさらに柔軟になり、フォントを明朝体からゴシック体に変更したり、フォントの色を変更したりする以外に、文字を袋文字にしたり、斜体にしたりして、文字のスタイルを変更することも可能になる。尚、文字のスタイルを変更する場合は、画像形成装置50は、画像編集処理を行う際に、付帯情報としての像域判定結果をそのまま適用することはできないため、各スタイルに応じて文字領域又は絵柄領域を判定するようにすれば良い。   In each of the above-described embodiments, “CAT” and “CAP” illustrated in FIGS. 11 and 18 are handled as characters. That is, it is determined that these are character areas as a result of the image area determination process, and this result is associated with the image data as supplementary information. However, when performing image editing processing, the image forming apparatus 50 performs OCR processing (character recognition processing) on the image editing processing target area designated by the user, and edits after recognizing characters as font data. You may make it do. In this case, “CAT”, “CAP”, etc. in the image editing target area are not image data, but information such as font type (Mincho, Gothic, etc.), font color, font size, etc. It is handled as having data. Information regarding such character attributes is also stored in the HDD 68 together with the image data as supplementary information. By using such incidental information, handling as a character becomes more flexible, in addition to changing the font from Mincho to Gothic, changing the color of the font, It is also possible to change the character style, such as italic. When changing the character style, the image forming apparatus 50 cannot directly apply the image area determination result as the auxiliary information when performing the image editing process. The pattern area may be determined.

50 画像形成装置
51 読み取り装置
52 第1画像処理装置
54 メモリ
55 プロッタI/F装置
56 プロッタ装置
57 操作表示装置
58 回線I/F装置
59 外部I/F装置
65 外部メディア
66 第2画像処置装置
67 バス制御装置
68 HDD
100 カラー判定部
101 像域分離部
102 γ変換部
103 フィルタ処理部
104 色変換部
105 画像圧縮部
110 画像伸張部
111 フィルタ処理部
112 色変換部
113 解像度変換部
114 γ変換部
115 中間調処理部
116 フォーマット変換部
50 Image forming device 51 Reading device 52 First image processing device 54 Memory 55 Plotter I / F device 56 Plotter device 57 Operation display device 58 Line I / F device 59 External I / F device 65 External media 66 Second image treatment device 67 Bus controller 68 HDD
100 Color determination unit 101 Image area separation unit 102 γ conversion unit 103 Filter processing unit 104 Color conversion unit 105 Image compression unit 110 Image expansion unit 111 Filter processing unit 112 Color conversion unit 113 Resolution conversion unit 114 γ conversion unit 115 Halftone processing unit 116 Format converter

特許第4261739号公報Japanese Patent No. 4261539 特開2002−312141号公報Japanese Patent Laid-Open No. 2002-312141 特許第3899852号公報Japanese Patent No. 3899852 特開2007−251835号公報JP 2007-251835 A

Claims (10)

原稿に表される画像である原稿画像を読み取る読取手段と、
前記原稿画像に対して、画素毎に文字領域であるか写真領域であるかを表す画像特徴を判定する判定手段と、
前記原稿画像を表す画像データに対して画像処理を行う画像処理手段と、
前記画像データに対して前記画像処理手段が前記画像処理を行った前記画像データを、前記画像特徴を示す特徴情報と対応付けて記憶する記憶手段と、
前記記憶手段に記憶された前記画像データに対する画像編集処理を指示する指示手段と、
前記画像データによって表される前記原稿画像のうち前記画像編集処理の対象とする領域である対象領域を指定する指定手段と、
前記記憶手段に記憶された前記画像データ及び前記特徴情報を用いて、前記指定手段が指定した前記対象領域に対して、前記指示手段が指示した前記画像編集処理を行う画像編集手段とを備え、
前記画像編集手段は、指示された前記画像編集処理の内容に応じて、前記対象領域の画像特徴を異なる画像特徴に変更して、前記対象領域に対して、前記画像編集処理を行う
ことを特徴とする画像処理装置。
Reading means for reading a document image that is an image represented on the document;
A determination unit that determines an image feature indicating whether the original image is a character region or a photographic region for each pixel ;
Image processing means for performing image processing on image data representing the original image;
Storage means for storing the image data obtained by performing the image processing on the image data in association with feature information indicating the image feature;
Instruction means for instructing image editing processing for the image data stored in the storage means;
Designating means for designating a target area, which is a target area for the image editing process, of the document image represented by the image data;
Image editing means for performing the image editing processing instructed by the instruction means on the target area designated by the designation means, using the image data and the feature information stored in the storage means;
The image editing means changes the image feature of the target area to a different image feature in accordance with the content of the instructed image editing process, and performs the image editing process on the target area. An image processing apparatus.
前記画像編集手段は、前記画像編集処理の内容及び前記対象領域の近傍の画像に応じて、前記特徴情報によって示される画像特徴と異なる画像特徴に変更して、前記対象領域に対して、前記画像編集処理を行う
ことを特徴とする請求項1に記載の画像処理装置。
The image editing unit changes the image feature to be different from the image feature indicated by the feature information according to the content of the image editing process and an image in the vicinity of the target region. The image processing apparatus according to claim 1, wherein editing processing is performed.
記画像編集手段は、前記指示手段が前記画像編集処理として、前記対象領域内に特定の色で下地を付加する処理を指示した場合且つ前記指定手段が指定した前記対象領域が文字領域を含む場合、前記対象領域に含まれる画素のうち、前記特徴情報によって示される画像特徴として文字領域であると判定された画素を写真領域であるとの画像特徴に変更して、前記対象領域に対して、前記画像編集処理を行う
ことを特徴とする請求項1に記載の画像処理装置。
Before Symbol image editing means, as the indicating means the image editing processing, the target area is and the designation unit when instructed process of adding a base specified in a specific color in the target region includes a character area A pixel that is determined to be a character area as an image feature indicated by the feature information among pixels included in the target area is changed to an image feature that is a photographic area; The image processing apparatus according to claim 1, wherein the image editing process is performed.
記画像編集手段は、前記指示手段が前記画像編集処理として、前記対象領域の境界線に線を付加する処理を指示し且つ前記対象領域内に特定の色で下地を付加する処理を指示した場合、前記対象領域の境界線について写真領域であるとの画像特徴を用いて、前記画像編集処理を行い、前記指示手段が前記画像編集処理として、前記対象領域の境界線に線を付加する処理を指示し且つ前記対象領域内に特定の色で下地を付加する処理を指示しない場合、前記対象領域の境界線について文字領域であるとの画像特徴を用いて、前記画像編集処理を行う
ことを特徴とする請求項1に記載の画像処理装置。
Before Symbol image editing means, as the indicating means the image editing processing, and instructs the process of adding a base in a specific color to the instructed processing for adding a line to the boundary line of the target area and the target area In this case, the image editing process is performed using the image feature that the boundary line of the target area is a photographic area, and the instruction unit adds a line to the boundary line of the target area as the image editing process. And the image editing process is performed using the image feature that the boundary line of the target area is a character area when the process of adding a background with a specific color is not specified in the target area. The image processing apparatus according to claim 1, wherein:
前記画像編集手段は、前記指示手段が前記画像編集処理として、前記対象領域の移動を含む処理を指示した場合且つ前記対象領域の移動先の領域に、前記特徴情報によって示される画像特徴として写真領域であると判定された画素が含まれる場合、前記移動先の領域と重なる前記対象領域の境界線について写真領域であるとの画像特徴に変更して、前記画像編集処理を行う
ことを特徴とする請求項1又は2に記載の画像処理装置。
The image editing means, when the instruction means instructs a process including movement of the target area as the image editing process, and a photographic area as an image feature indicated by the feature information in a movement destination area of the target area When a pixel determined to be included is included, the image editing process is performed by changing to an image characteristic that the boundary line of the target area that overlaps the movement destination area is a photographic area. The image processing apparatus according to claim 1.
前記画像編集手段は、前記指示手段が前記画像編集処理として、前記対象領域を移動して、前記対象領域の画像の色を反転する処理を指示した場合且つ前記対象領域の移動先の領域に、前記特徴情報によって示される画像特徴として写真領域であると判定された画素が含まれる場合、前記移動先の領域と重なる前記対象領域の境界線について写真領域であるとの画像特徴に変更して、前記画像編集処理を行う
ことを特徴とする請求項5に記載の画像処理装置。
The image editing means, when the instruction means instructed a process of moving the target area and inverting the color of the image of the target area as the image editing process, and in the movement destination area of the target area, If the image feature indicated by the feature information includes a pixel that is determined to be a photographic region, the boundary line of the target region that overlaps the destination region is changed to an image feature that is a photographic region, The image processing apparatus according to claim 5, wherein the image editing process is performed.
前記判定手段は、さらに、前記原稿画像に対する前記画像特徴として、画素毎に有彩領域であるか無彩領域であるかを判定し、
前記画像編集手段は、前記指示手段が前記画像編集処理として、前記対象領域に網点を付加する処理を指示した場合且つ前記対象領域に、前記特徴情報によって示される画像特徴として写真領域であると判定された画素が含まれず有彩領域であると判定された画素が含まれない場合、前記対象領域について文字領域であるとの画像特徴を用いて、前記画像編集処理を行い、前記指示手段が前記画像編集処理として、前記対象領域に網点を付加する処理を指示した場合且つ前記対象領域に、前記特徴情報によって示される画像特徴として写真領域であると判定された画素が含まれる場合、前記対象領域について写真領域であるとの画像特徴を用いて、前記画像編集処理を行う
ことを特徴とする請求項1又は2に記載の画像処理装置。
The determining means further in said image characteristic relative to the original image, determine whether the achromatic region or a chromatic region for each pixel,
The image editing means is a photographic area as an image feature indicated by the feature information in the target area when the instruction means instructs a process of adding a halftone dot to the target area as the image editing process. If the determined pixel is not included and the pixel determined to be a chromatic region is not included, the image editing process is performed using an image feature that the target region is a character region, and the instruction unit When the image editing process is instructed to add a halftone dot to the target area, and the target area includes a pixel determined to be a photographic area as an image feature indicated by the feature information, The image processing apparatus according to claim 1, wherein the image editing process is performed using an image feature that the target area is a photographic area.
前記画像編集手段が前記画像編集処理を行った画像データに基づいて作像を行い、作像された画像を転写紙に出力することにより、画像形成を行う画像形成手段を更に備える
ことを特徴とする請求項1乃至7のいずれか一項に記載の画像処理装置。
The image editing unit further includes an image forming unit that forms an image based on the image data that has undergone the image editing process, and outputs the formed image to a transfer sheet, thereby forming an image. The image processing apparatus according to any one of claims 1 to 7.
画像処理装置で実行される画像処理方法であって、
前記画像処理装置は、原稿に表される画像である原稿画像を読み取る読取手段と、判定手段と、画像処理手段と、記憶制御手段と、指示手段と、指定手段と、画像編集手段とを備え、
前記判定手段が、前記原稿画像に対して、画素毎に文字領域であるか写真領域であるかを表す画像特徴を判定する判定ステップと、
前記画像処理手段が、前記原稿画像を表す画像データに対して画像処理を行う画像処理ステップと、
前記記憶制御手段が、前記画像データに対して前記画像処理手段が前記画像処理を行った前記画像データを、前記画像特徴を示す特徴情報と対応付けて記憶手段に記憶させる記憶制御ステップと、
前記指示手段が、前記記憶手段に記憶された前記画像データに対する画像編集処理を指示する指示ステップと、
前記指定手段が、前記画像データによって表される前記原稿画像のうち前記画像編集処理の対象とする領域である対象領域を指定する指定ステップと、
前記画像編集手段が、前記記憶手段に記憶された前記画像データ及び前記特徴情報を用いて、前記指定手段が指定した前記対象領域に対して、前記指示手段が指示した前記画像編集処理を行う画像編集ステップとを含み、
前記画像編集ステップでは、指示された前記画像編集処理の内容に応じて、前記対象領域の画像特徴を異なる画像特徴に変更して、前記対象領域に対して、前記画像編集処理を行う
ことを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus,
The image processing apparatus includes a reading unit that reads a document image that is an image represented on a document, a determination unit, an image processing unit, a storage control unit, an instruction unit, a designation unit, and an image editing unit. ,
A step of determining, by the determining means, an image feature indicating whether the original image is a character region or a photographic region for each pixel ;
An image processing step in which the image processing means performs image processing on image data representing the document image;
A storage control step in which the storage control means stores the image data obtained by performing the image processing on the image data in the storage means in association with the feature information indicating the image feature;
An instruction step in which the instruction means instructs an image editing process on the image data stored in the storage means;
A designating step in which the designating unit designates a target area, which is a target area of the image editing process, of the document image represented by the image data;
An image in which the image editing means performs the image editing processing instructed by the instruction means on the target area designated by the designation means, using the image data and the feature information stored in the storage means. Editing steps,
In the image editing step, the image editing process is performed on the target area by changing the image characteristic of the target area to a different image characteristic in accordance with the content of the instructed image editing process. An image processing method.
請求項9に記載の方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the method according to claim 9.
JP2010199308A 2010-09-06 2010-09-06 Image processing apparatus, image processing method, and program Active JP5652067B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010199308A JP5652067B2 (en) 2010-09-06 2010-09-06 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010199308A JP5652067B2 (en) 2010-09-06 2010-09-06 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2012060262A JP2012060262A (en) 2012-03-22
JP5652067B2 true JP5652067B2 (en) 2015-01-14

Family

ID=46056861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010199308A Active JP5652067B2 (en) 2010-09-06 2010-09-06 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5652067B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6188651B2 (en) * 2014-07-25 2017-08-30 京セラドキュメントソリューションズ株式会社 Image processing apparatus and image processing program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193409A (en) * 2007-02-05 2008-08-21 Ricoh Co Ltd Image processing apparatus
JP5021578B2 (en) * 2008-07-04 2012-09-12 株式会社リコー Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2012060262A (en) 2012-03-22

Similar Documents

Publication Publication Date Title
JP5540553B2 (en) Image processing apparatus, image forming apparatus, image processing method, and image processing program
US7903872B2 (en) Image-processing apparatus and method, computer program, and storage medium
JP4549418B2 (en) Image processing apparatus, image processing method, image forming apparatus, program, and recording medium
JP5293514B2 (en) Image processing apparatus and image processing program
JP2010273324A (en) Control apparatus, image reading apparatus, image forming apparatus, control method of image reading apparatus, program, and recording medium
JP5741171B2 (en) Image processing apparatus and image processing program
JP4763026B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and computer-readable recording medium
US8395820B2 (en) Image processing apparatus for printing in black coloring material based on attribute information
JP5021578B2 (en) Image processing apparatus and image processing method
US7961951B2 (en) Image processing apparatus capable of accurately removing isolated point noise, image processing method, and computer readable medium
JP4903851B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP5133214B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium
JP2007251835A (en) Image processor, and image processing method
JP5652067B2 (en) Image processing apparatus, image processing method, and program
JP4795406B2 (en) Image processing apparatus, image forming apparatus, image processing apparatus control method, control program, and recording medium
JP2004363795A (en) Apparatus, method, and program for image processing
JP2008092541A (en) Image processing method, image processor, image forming apparatus, computer program, and recording medium
US8115963B2 (en) Image processing apparatus, image processing method, and computer program product
JP4990340B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP5090969B2 (en) Image processing device
JP5413297B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2011249886A (en) Image processing device, image forming device, image processing method, image processing program, and recording medium
JP2009290756A (en) Image processing apparatus, image processing method, program for making computer implement the method, and computer-readable recording medium with the program recorded thereon
JP2007282125A (en) Image processor, multifunctional device, and image processing method
JP2011254138A (en) Image processing apparatus, image processing method, program and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140520

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141103

R151 Written notification of patent or utility model registration

Ref document number: 5652067

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151